Scienziate che avrebbero dovuto vincere il Premio Nobel: Marietta Blau (1894-1970)

In evidenza

Rinaldo Cervellati

I am taking the liberty of drawing your attention to a case close to my heart. Since three years my colleague, the physicist Dr. Marietta Blau, lives in Mexico City…I know Miss Blau as a very capable experimental physicist who could render valuable service to your country.“

Albert Einstein

(parte della lettera scritta da Einstein al Ministro dell’Educazione del Messico nel 1941)

Chi è stata e cosa ha fatto dunque Marietta Blau? Nasce a Vienna il 29 aprile 1894 da Mayer (Marcus) Blau e  Florentine Goldzweig Blau, una famiglia ebrea benestante. Suo padre, famoso avvocato ed editore musicale attivamente impegnato nei circoli culturali della Vienna di fine secolo, promosse la sua educazione. Dopo aver ottenuto con distinzione il diploma di maturità dal liceo femminile gestito dall’Associazione per l’Educazione Estesa delle Donne, Marietta studiò fisica e matematica all’Università di Vienna dal 1914 al 1918; ottenne quindi il dottorato nel marzo del 1919 discutendo una tesi sui raggi gamma.

Marietta Blau

Dal momento che le opportunità di lavoro accademico in fisica erano molto scarse per le donne, si rivolse all’industria. Nel 1921 si trasferì a Berlino per lavorare presso un produttore di tubi a raggi X. Rinunciò a questa posto per diventare assistente presso l’Istituto di Fisica Medica dell’Università di Francoforte sul Meno. Questa fu l’occasione per Blau di lavorare in fisica medica, istruendo i medici sulle basi teoriche e pratiche della radiologia e di pubblicare articoli di ricerca nel settore. Entrambe queste attività si sarebbero dimostrate importanti più avanti nella sua carriera quando si occupò di radioterapia dei tumori e lavorò ad applicazioni pratiche di dispositivi di conteggio che utilizzavano sostanze radioattive, progettati da lei stessa.

Dal 1923 lavorò come ricercatore non retribuito presso l’Istituto per la Ricerca sul Radio dell’Accademia delle scienze austriaca a Vienna. Tra il 1923 e il 1937, Blau contribuì ad ogni aspetto essenziale della fisica delle emulsioni. Nel 1925 riuscì a distinguere le tracce di particelle alfa, protoni veloci ed eventi fondamentali in emulsioni commerciali, e nel 1927 determinò le energie dei protoni misurando le distanze fra le loro collisioni e i microscopici grani delle emulsioni. Per registrare le lunghe tracce di protoni veloci in modo più accurato, convinse il produttore cinematografico britannico Ilford a addensare le emulsioni usate nei suoi film, sperimentando ogni altro parametro: granulometria, ritenzione delle immagini latenti, condizioni di sviluppo ecc., al fine di migliorare la visibilità delle tracce lasciate da particelle alfa e protoni veloci.

Blau in laboratorio

A partire dal 1932, Blau e la sua assistente Hertha Wambacher determinarono le energie dei neutroni misurando le tracce dei protoni di rinculo in emulsioni contenenti sostanze grasse ricche di idrogeno; nel 1936 iniziarono ad usare emulsioni per studi quantitativi sui raggi cosmici esponendo pile di lastre fotografiche per diversi mesi ad un’altitudine di 2300 metri. Come previsto, registrarono le tracce di protoni e neutroni extraterrestri, ma con loro sorpresa scoprirono anche diverse “stelle di disintegrazione”, che potevano essersi formate solo da particelle cosmiche che disintegravano i nuclei pesanti nell’emulsione.

Questa scoperta suscitò scalpore tra i fisici nucleari e dei raggi cosmici di tutto il mondo poiché dimostrava che la tecnica delle emulsioni aveva raggiunto caratteristiche tali da permettere la registrazione di rari eventi nucleari ad alta energia, aprendo così la strada a ulteriori ricerche in fisica delle particelle. Per questo lavoro, Marietta Blau e Hertha Wambacher ricevettero il premio Lieben dell’Accademia delle scienze austriaca nel 1937.

Negli anni 1932-33 frequentò, con una borsa di ricerca dell’Associazione Austriaca delle Donne Universitarie, l’Istituto del Radio di Marie Curie a Parigi e il Centro di Ricerche di Göttingen.

Blau chiese diverse volte di diventare un membro regolare, stipendiato dell’Istituto di Ricerca, ma la sua domanda fu sempre rifiutata con la solita risposta: “Sai, sei una donna e una ebrea, le due cose insieme lo rendono impossibile”. Quindi per poter continuare a fare ricerca, Marietta Blau dipese dalla sua famiglia per il sostegno finanziario.

A causa della sua discendenza ebrea, Blau dovette lasciare l’Austria nel 1938 dopo l’annessione del paese alla Germania nazista, fatto che causò ovviamente un’interruzione della sua carriera scientifica. Si recò prima ad Oslo, poi grazie anche all’intercessione di Einstein, ottenne una posto di docente all’Instituto Politécnico Nacional di Città del Messico e successivamente all’Università di Vasco de Quiroga. Tuttavia, nell’economicamente disastrato Messico non aveva quasi nessuna possibilità di continuare la sua ricerca.

Nel 1944 riuscì a trasferirsi negli Stati Uniti, dove lavorò nell’industria fino al 1948, in seguito alla Columbia University, al Brookhaven National Laboratory e all’Università di Miami, fino al 1960. In queste istituzioni, è stata responsabile dell’applicazione del metodo fotografico per il rilevamento delle particelle in esperimenti con gli acceleratori di particelle ad alta energia.

Marietta Blau negli USA

Di solito Marietta era descritta come una persona ritirata ed estremamente modesta, che non cercava consensi e evitava la pubblicità. Solo in discussioni e discorsi scientifici perdeva la sua timidezza.

Fu nominata da Erwin Schrödinger (due volte) e Hans Thirring per il premio Nobel.

Nel 1950 il Nobel per la Fisica fu assegnato a Cecil Franck Powell con la motivazione: “per il suo sviluppo del metodo fotografico di studio dei processi nucleari e le sue scoperte riguardanti i mesoni fatta con questo metodo”. Ma Powell, come tutti gli altri ricercatori del settore, iniziò a utilizzare il film fotografico solo nel 1938 dopo che furono riconosciuti i vantaggi del metodo dell’emulsione. Sicchè anche la scoperta del pione di Powell era basata sui lavori di Marietta Blau. Quindi lei avrebbe dovuto essere inclusa, ma il suo nome non fu nemmeno menzionato da Powell.

A questo proposito Ruth Lewin Sime, scrive [1]:

Nel considerare la storia del 20° secolo, bisogna essere attenti agli effetti della persecuzione razziale e dell’emigrazione forzata sull’attribuzione e il riconoscimento del lavoro scientifico. Blau, in quanto ebrea, fu costretta ad abbandonare l’Austria nel 1938. Per 10 anni trascorse una fragile esistenza come rifugiata a Oslo, in Norvegia; Città del Messico, e New York, impossibilitata a perseguire la propria ricerca. Nel frattempo, a Vienna, i suoi ex soci, tutti i nazisti ferventi (inclusa Wambacher), espropriarono il suo lavoro e soppressero il suo nome.

L’emarginazione di Blau è evidente nel processo decisionale per il conferimento del premio Nobel per la fisica nel 1950 a Powell… Sebbene il Premio Nobel del 1936 per Victor Hess e Carl Anderson fornisse un precedente per dividere il premio tra una fondamentale scoperta iniziale e una che venne dopo, è evidente che le donne non erano obiettivamente considerate,…. la documentazione mostra che il comitato di fisica per il Nobel preparò una valutazione sfacciatamente inesatta che ha negato l’importanza e la priorità del lavoro di Blaue e Wambacher.

 

La necessità di un’operazione agli occhi, che non poteva permettersi negli Stati Uniti, riportò Marietta a Vienna nel 1960, dove lei, ancora una volta non pagata, diresse un gruppo di ricerca presso l’Institute for Radium Research.

Nonostante la sua precaria situazione finanziaria rifiutò di accettare una pensione offerta da Ilford e Agfa, che avrebbero desiderato contraccambiare il suo contributo allo sviluppo di emulsioni fotografiche.

Nel 1962 ottenne il premio Erwin Schrödinger dall’Accademia Austriaca delle Scienze, che però allo stesso tempo rifiutò di ammetterla come membro corrispondente.

Gravemente malata, presumibilmente a causa della frequente esposizione alla radioattività, Marietta Blau è morta nel 1970 nel reparto di terapia intensiva di un ospedale di Vienna. Come persona da contattare aveva indicato il custode del suo condominio.

Nessuna rivista scientifica ha pubblicato un necrologio dopo la sua morte.

Marietta Blau is the most tragic figure in the history around cosmic rays. Her life and her work were characterised by adversity and backlashes, yet her achievements and the results of her work excel those of many others, who were awarded the Nobel Prize in context with cosmic rays.

Georg Federmann

 

Siti consultati

Maria Rentetzi, Marietta Blau (1894-1970) ENCYCLOPEDIA https://jwa.org/encyclopedia/article/blau-marietta

R.L. Sime, https://www.academia.edu/4280335/Marietta_Blau_Pioneer_of_Photographic_Nuclear_Emulsions_and_Particle_Physics

  1. Rahmatian, Unlearned Lessons http://www.unless-women.eu/biography-details/items/blau.html

Bibliografia

[1] Ruth Lewin Sime , Marietta Blau in the history of cosmic rays., Physics Today, 2012, 65, 8.

https://physicstoday.scitation.org/doi/pdf/10.1063/PT.3.1728

Il rifiuto di tutti i rifiuti

In evidenza

Mauro Icardi

Il rapporto annuale sullo stato dell’ambiente in Italia , redatto dall’Ispra e presentato lo scorso mese di marzo, relativamente ai rifiuti mostra dati solo parzialmente incoraggianti. In crescita la produzione dei rifiuti urbani (+2%), in linea con l’andamento degli indicatori socio-economici. La produzione pro capite aumenta, passando da 487 kg/abitante nel 2015 a 497 kg/abitante nel 2016.

Il dato incoraggiante riguarda la diminuzione , rispetto al 2014, delle quantità totali di rifiuti smaltiti in discarica pari al 8,3%. Tale diminuzione si deve principalmente ai rifiuti urbani , che diminuiscono di circa il 16,2%, mentre i rifiuti speciali diminuiscono dell’1,8%. La percentuale di raccolta differenziata dei rifiuti a livello nazionale arriva al 52,6% nel 2016 e cresce del 5% rispetto al 2014. Il dlgs 152/2006 (Norme in materia ambientale) prevedeva che si dovesse raggiungere il valore percentuale del 65% di rifiuti destinati alla raccolta differenziata nel 2012. Il dato invece decisamente negativo riguarda la produzione di rifiuti speciali. Diminuiti del 4% nel biennio 2011-2013 principalmente nel segmento dei rifiuti speciali non pericolosi derivanti da attività di demolizione e scavo. Fenomeno da attribuire alla crisi del settore edile.

Nel triennio 2012-2015 la produzione di rifiuti speciali torna ad aumentare (+ 6,8%).

Questa la situazione attuale. Nel passato però, ed in particolare negli anni in del cosiddetto boom economico i consumi crescono, quasi che il consumo stesso si identifichi come l’elemento unificante dell’Italia, insieme alla visione di Carosello. Io non voglio ovviamente scrivere nulla dell’aspetto sociologico di quegli anni. Voglio solo far notare come consumando di più, si producano ovviamente più rifiuti e scarti.

Oggi in qualche modo siamo più attenti al problema. Ma in passato io ricordo perfettamente che nel piccolo paese di montagna dove soggiornavo in estate con i miei genitori non esisteva un servizio di raccolta rifiuti. Ci venne detto di portare i rifiuti in una depressione a lato del torrente che attraversava la valle. Una discarica a cielo aperto bonificata successivamente, quando i rifiuti vennero poi depositati in una discarica nelle vicinanze di Pinerolo, località poco distante. E quindi la passeggiata serale consisteva in questo. Portare una sacchetto di plastica di rifiuti (ovviamente indifferenziati) pochi metri prima di un parco giochi per bambini. Ho ripensato molte volte negli anni a questo episodio, che allora era purtroppo la normalità. In quegli anni la forma corrente di smaltimento dei rifiuti era la discarica. Il problema che questo tipo di atteggiamento ci ha lasciato in eredità è la gestione del percolato che si forma. Ovvero il rifiuto di tutti i rifiuti.Negli anni le caratteristiche del percolato tendono a variare, e ogni discarica produce percolati qualitativamente e quantitativamente diversi. I trattamenti devono essere valutati attentamente, e possono richiedere nel tempo anche variazioni all’impianto di trattamento originale, oppure la necessità di dover trasportare il percolato fuori dal sito, per destinarlo ad altri impianti di trattamento. I trattamenti biologici aerobici possono essere efficaci nel ridurre i composti organici biodegradabili (BOD) e la maggior parte di quelli totali (COD). Anche nel caso di basse concentrazioni di sostanza organica e BOD5/COD < 0,2 si ha una riduzione del COD fino al 50%. Come per tutti i processi di depurazione occorre porre attenzione a pH, temperatura, e a valutare con attenzione lo stato di salute della biomassa attraverso verifiche di respirometria del fango biologico, per valutarne l’eventuale intossicazione.

I trattamenti chimico fisici invece vanno scelti con attenzione e in generale non esiste un solo trattamento che sia efficace. I trattamenti principali possono andare dall’adsorbimento, all’ossidazione chimica, all’evaporazione, allo stripping. Ognuno di essi ha i suoi vantaggi e le sue problematiche. In generale un pretrattamento chimico fisico può diminuire le percentuali di sostanza organica biorefrattaria per i successivi eventuali trattamenti di tipo biologico. E’ importante ovviamente valutare anche quelli che sono i consumi energetici. Un impianto di evaporazione può arrivare a richiedere da 40 a 70 kWh elettrici e tra i 18 e i 40 kWh termici per metro cubo di percolato trattato.

Il problema del trattamento del percolato si lega ovviamente a quello della salvaguardia delle acque di falda. E se si digita su un qualunque motore di ricerca “percolato e falde acquifere” si potrà vedere come questo problema sia tutt’ora uno di quelli su cui occorre porre molto impegno ed attenzione.

In provincia di Varese proprio in questi giorni è tornato alla ribalta quello della discarica di Gerenzano. E’ una discarica che si trova al confine con la provincia di Varese, situata in una zona fortemente urbanizzata.

La storia di questo sito probabilmente è simile a quella di molti altri. Dal 1960 al 1984 vengono scaricati rifiuti speciali e urbani in maniera indifferenziata. Dal 1985 al 1990 (anno di chiusura della discarica) vengono scaricati i soli rifiuti urbani, fino alla chiusura avvenuta nel 1990. Quello che rimane adesso è un sito di circa 30 ettari con 11 milioni di mc di rifiuti depositati. Con le variazioni di livello della falda, spesso questi rifiuti sono venuti e vengono tutt’ora a contatto con la falda poggiando su strati di ghiaia, non essendo impermeabilizzato il fondo della discarica.

Nel 1981 venne prescritta la costruzione di una barriera idraulica realizzata nel 1987 che aveva lo scopo di abbassare il livello della falda e contenere il deflusso degli inquinanti a valle. Nel 1996 viene realizzato un impianto di depurazione sul sito della discarica. Prima il percolato veniva scaricato direttamente nel torrente Bozzente. Durante gli anni sono stati impermeabilizzati gli strati superiori di rifiuti, si è recuperato all’incirca il 10% di biogas prodotto dalla discarica, questo per mitigare i costi di gestione di un sito che ai sensi della normativa del decreto legislativo 152/206 risulta essere in stato di messa in sicurezza operativa.

Rimane l’incognita dell’inquinamento della falda freatica. Al momento i pozzi di captazione di acqua potabile sono posti al di fuori del flusso di acqua che percola dalla discarica.

Ma la parte di falda contaminata è ormai esclusa dalla possibilità di essere utilizzata per un successivo utilizzo a scopo idropotabile.

La discarica di Gerenzano risulta essere censita da Regione Lombardia nell’elenco dei siti contaminati.

La storia di questo sito è probabilmente uguale a quello di molti altri siti simili presenti in tutta Italia. Ma non solo. Per rendersene conto basterebbe andare a vedere (o rivedere) un film emblematico. Il documentario “Trashed” con Jeremy Irons.Stiamo già vedendo, abbiamo notizia della diffusione ambientale di plastica nell’ambiente, le ormai conosciute isole di rifiuti che galleggiano negli oceani. Ma forse non abbiamo coscienza del fatto che in futuro potremmo trovarci in difficoltà con le acque di falda che dovessero contaminarsi.

Le tecniche per il trattamento abbiamo visto esistono. Ma allo stesso modo occorre adottare atteggiamenti diversi, diminuire per quanto più possibile la produzione di rifiuti, e differenziarli.

E considerando le eredità che ci vengono da un passato spensieratamente consumistico, e le situazioni che invece ancora oggi non sono gestite correttamente nei paesi non meno sviluppati, ma con minori risorse economiche, e meno attenzione tecnico-legislativa al problema la gestione corretta di percolato e rifiuti è un ulteriore anello di una catena di impegni da assumere nei confronti dell’ambiente. E di noi stessi.

https://www.slideshare.net/PierAngeloGianni/indagine-sullo-stato-dellinquinamento-della-falda-a-valle-della-discarica-di-gerenzano

https://www.slideshare.net/PierAngeloGianni/discarica-di-gerenzano-per-non-dimenticare-regione-lombardia-09062014

http://www.varesenews.it/2018/04/ex-discarica-linquinamento-della-falda-freatica-non-si-ferma/704544/

Attualmente non risultano compromesse le falde dalle quali si prelevano acque destinate all’uso potabile, perché poste al di fuori della direzione di flu

Breve storia dell’aspirina.

In evidenza

Luigi Campanella

FANS è l’acronimo dell’espressione “farmaci anti-infiammatori non steroidei” e individua una classe di farmaci dall’effetto anti-infiammatorio, analgesico ed antipiretico.

L’aspirina e il salicilato di sodio sono stati i primi FANS ad essere introdotti nella pratica clinica ai primi del ‘900. Infatti l’aspirina è considerata il prototipo dei FANS nonostante l’introduzione di nuovi congeneri. E’ tuttora il farmaco analgesico-antipiretico-antinfiammatorio più usato e rappresenta il termine di paragone per la valutazione e il confronto con altri analgesici periferici.

Le origini dell’aspirina vanno ricercate nella natura ed esaminando le tappe della scoperta e dell’applicazione delle proprietà dell’acido salicilico, si può paragonare la nascita dell’Aspirinaâ alla composizione di un puzzle, in cui diversi studiosi, con le loro  scoperte, hanno messo un tassello dopo l’altro.

La storia dell’aspirina, che è poi la storia della corteccia e della foglia del salice, incomincia nel 400 a.C.  anche se le  sue virtù terapeutiche vengono menzionate già nel papiro di Ebers, all’incirca 2000 anni prima di Cristo.

Già Ippocrate  di Kos (460-377 a.C.), il padre della medicina, si accorse delle proprietà antidolorifiche contenute nella corteccia e nelle foglie di salice e consigliò ai suoi pazienti afflitti dai più svariati dolori, di curarsi con un infuso di quelle foglie.  Troviamo infatti segnalata negli scritti del medico ateniese (“Corpus Hippocraticum”, V secolo a.C.) l’azione analgesica della linfa estratta dalla corteccia di salice che conteneva, come oggi sappiamo, l’acido salicilico.

Ur III, è un testo medico della Terza Dinastia di Ur

Dall’epoca della grande intuizione di Ippocrate gli uomini per secoli hanno fatto uso del salice per combattere mali di testa, febbri, reumatismi. Ancora oggi i contadini greci masticano le sue foglie per combattere e addirittura prevenire i dolori reumatici.

Le proprietà della corteccia del Salix alba vulgaris contro febbri e dolori in genere furono celebrate un secolo dopo Cristo dal medico greco Dioscoride e, ancor prima, dagli Egizi con infusi a base di corteccia.

Anche Plinio, nel I secolo d.C. concorda nell’attribuire agli infusi a base di Salice proprietà febbrifughe ed analgesiche.

Nel Medioevo, pur essendo dimenticato dai medici, l’uso della cottura della corteccia del salice si mantenne nell’ambiente contadino: le venditrici di erbe aromatiche e medicinali facevano bollire la corteccia di salice e somministravano l’amaro decotto alle persone afflitte da dolori. In seguito, la raccolta dei rami di salice venne proibita, perché questo materiale era necessario per la fabbricazione dei cesti, data l’elevata flessibilità dei giovani rami. Il medicamento naturale cadde così in disuso.

Nello stesso periodo, ma in altri continenti, perfino in popolazioni primitive quali gli Ottentotti del Sud Africa o le popolazioni indiane d’America, il valore terapeutico del Salice era ben conosciuto.

La vera storia dell’aspirina avrebbe avuto inizio nel XVIII secolo grazie alle fortuite associazioni mentali di un pastore della contea di Oxford.

Un giorno passeggiando in un bosco, il reverendo Edward Stone, esperto botanico, assaggiò, per caso, un pezzetto di corteccia di un salice. Trovandola particolarmente amara richiamò nella sua mente l’amaro sapore della cinchona, pianta dalla quale veniva estratto il chinino, conosciutissimo anti-malarico, importata dal Perù.

Il reverendo, esperto anche di questioni mediche, iniziò a pensare che la scorza di salice poteva essere utile per combattere le febbri malariche, pur essendo stupito del fatto che, paradossalmente, questo albero crescesse proprio nelle regioni più umide e insalubri.

Il 2 giugno 1763, Edward Stone lesse una relazione alla riunione della Royal Society di Londra, in cui venivano presentati i successi ottenuti, nella lotta alle febbri malariche, con il decotto di scorza di salice su 50 soggetti febbricitanti. Nella sua ricerca intitolata: “Sulla corteccia di salice nella cura delle febbri malariche” avviò sulla scena terapeutica i salicilati e quindi l’aspirina.

Il decotto di corteccia di salice tanto esaltato da questo ecclesiastico di Chipping Norton nell’Oxfordshire agiva effettivamente nelle febbri malariche. Poco importava se l’azione antifebbrile non era associata a quella anti-malarica effettiva del chinino.

Napoleone Bonaparte, a sua insaputa, diede una svolta storica negli studi sul Salice,  imponendo, il 20 giugno del 1803, il blocco all’importazione di qualsiasi merce proveniente dalle colonie inglesi e dall’Inghilterra sul continente.

Con tale decisione venne bloccata l’importazione dall’America anche della corteccia di China (originaria dell’America meridionale, un tempo utilizzata, dato l’elevato contenuto in alcaloidi, principalmente come antipiretico); questo spinse la ricerca di un valido sostituto farmacologico autoctono europeo.

Fu in questo periodo che ci si ricordò dell’azione medicamentosa della linfa di salice e, in particolare, delle sue proprietà antipiretiche.

Iniziarono nei primi decenni del XIX secolo indagini serrate in punti disparati dell’Europa nel tentativo di ottenere allo stato puro quella che veniva ritenuta la sostanza attiva del salice.

Nel 1828 il professor Johann Andreas Buchner di Monaco di Baviera ne ricavò, mediante ebollizione, una massa gialla che chiamò salicina.

L’anno seguente il farmacista francese Henri Leroux isolò la salicina, principio composto da glucosio ed alcool salicilico in forma cristallina:
30 grammi di “salicina” vengono estratti da 500 grammi di scorza di salice.

Nel 1835, in Svizzera, in diversi vegetali come nei fiori di ulmaria e nell’olio di gualteria (essenza di Wintergreen) si trova una sostanza simile: viene chiamata “spirsauro” e qualche anno dopo ci si accorge che è acido acetilsalicilico allo stato puro. Si deve però, a Raffaele Piria, chimico Napoletano, il merito di aver scoperto che dalla salicina si poteva giungere all’acido salicilico. Piria ne dette comunicazione in due articoli, “Ricerche sulla salicina ed i prodotti che ne derivano” (1838) e “Ricerche di chimica organica sulla salicina” (1845).

Nel 1853 il chimico Charles Frédéric Gerhardt di Strasburgo produsse per la prima volta l’acido acetilsalicilico, in forma tuttavia chimicamente impura e quindi non stabile. Il procedimento di acetilazione risultò così complesso da scoraggiare le aziende farmaceutiche, tanto da ritardare di circa 44 anni il passo successivo.

Al prof. Hermann Kolbe di Marburgo va invece il merito di aver scoperto la struttura dell’acido salicilico e di averlo sintetizzato.

Sintesi di Kolbe

Nel 1874 si poté così avviare la produzione industriale dell’acido salicilico, il cui prezzo era dieci volte inferiore a quello del prodotto naturale.
Questa sostanza aveva tuttavia un gusto sgradevole e spesso aggrediva la mucosa gastrica, costringendo le persone afflitte da dolori a scegliere tra due mali.

Felix Hoffmann, era un giovane chimico dell’industria chimica tedesca Bayer di Leverkusen, in Renania. Il padre di Felix, affetto da una grave forma di malattia reumatica, assumeva il salicilato di sodio che gli conferiva un grande giovamento, nonostante il sapore sgradevole e l’effetto gastrolesivo. Nel tentativo di  migliorare la qualità di vita del padre, Felix Hoffmann iniziò a condurre indagini sistematiche alla ricerca di un composto efficace e tollerabile, alternativo al salicilato di sodio. Muovendo dalle esperienze di Gerhardt, Hoffmann tentò di nobilitare l’acido salicilico per migliorarne la tollerabilità e riuscì nel suo intento mediante l’acetilazione. Il 10 agosto 1897 egli descrisse nelle sue note di laboratorio l’acido acetilsalicilico (ASA), da lui sintetizzato in forma chimicamente pura e stabile.

 

Sintesi dell’acido acetilsalicilico

Il vero scopritore dell’aspirina non è stato lo scienziato cui da sempre viene attribuita l’impresa, ma il suo superiore, ebreo tedesco, Arthur Eichengruen, il cui ruolo è stato cancellato con l’ascesa al potere dei nazisti in Germania>>

Questa rivelazione è stata fatta di recente da Walter Sneader, vicecapo del dipartimento di scienze farmaceutiche all’Università di Strathclyde, a Glasgow a seguito di alcune ricerche che gli hanno permesso di trovare una descrizione della scoperta dell’aspirina di Hoffmann nella Storia della Tecnologia Chimica datata 1934 (un anno dopo la presa del potere di Adolf Hitler). Sneader sostiene che:
– Hoffmann era una delle 10 persone che lavoravano sotto Eichengruen ai tempi dellasoperta.
– un procedimento messo a punto da Eichengruen è stato seguito negli esperimenti che hanno portato all’aspirina

Secondo il professore scozzese, Eichengruen non aveva condizioni di contestare Hoffmann nel 1924 perché stava lottando contro la marea di antisemitismo e contemporaneamente sperava di salvare la Eichengruen Lavori Chimici, l’azienda che aveva fondato dopo aver lasciato la Bayer nel 1908.
Eichengruen non ce la fece. La sua azienda e gran parte dei suoi averi sono stati sequestrati e, a 75 anni, è stato mandato al campo di concentramento di Theresienstadt nell’attuale Repubblica Ceca. E’ sopravvissuto, ma non è stato in grado di pubblicare le sue rivendicazioni sulla scoperta dell’aspirina fino al 1949. Lo ha fatto in un allora oscuro giornale scientifico tedesco chiamato Pharmazie, un mese prima di morire.

La Bayer, da un lato smentisce tali affermazioni, ma proclama che, se davvero fosse Eichengruen lo scopritore, non avrebbe avuto problemi ad assegnargliene il merito, anche perché lui possedeva altri 47 brevetti, che non gli furono molto utili a Teresienstadt.

Prima della sua registrazione, l’ASA fu sottoposto dalla Bayer a sperimentazione clinica – una prassi fino ad allora sconosciuta. I risultati furono così positivi che la direzione dell’azienda non esitò ad avviare la produzione del farmaco.

Fotografia dell’epoca.

Quando l’1 febbraio 1897 la Bayer mette in commercio l’aspirina il nome non è scelto a caso: la “a” è l’abbreviazione di acido acetilsalicilico, “spir” viene da “spirsäure” che in lingua tedesca sta per “acido della spirea”, la pianta da cui per la prima volta venne
estratto l’acido. Il nome “aspirina”, dunque, è una testimonianza precisa di quanto di utile può essere contenuto nelle erbe ma costituisce anche il punto di arrivo di una lunga ricerca scientifica.

Il 1° febbraio 1899 venne depositato il marchio Aspirinaâ che un mese dopo, il 6 marzo, fu registrato nella lista dei marchi di fabbrica dell’Ufficio Imperiale dei Brevetti di Berlino.
Iniziava così una marcia trionfale: l’affermazione dell’aspirina fu da questo punto un crescendo.

 

L’aspirina ® o acido acetilsalicilico (ASA) o, più correttamente secondo la nomenclatura IUPAC, acido 2-acetossibenzoico, è il capostipite della famiglia dei FANS.

Struttura dell’acido acetilsalicilico

Questa lunga storia dovrebbe insegnare 2 cose:l’importanza nella ricerca di partire sempre da quanto già si conosce,e la necessità di salvaguardare la Storia della Scienza,in questo caso della Chimica, all’interno dei curricula universitari.

*******************

Fra i siti consultati oltre a wikipedia,  http://www.minerva.unito.it/Storia/aspirina/Aspirina.html

Su argomento analogo:https://ilblogdellasci.wordpress.com/2016/04/04/aspirina-breve-storia-di-un-farmaco-pluripotente/

Cambiamenti climatici: influenza sui cicli vitali delle piante

In evidenza

Rinaldo Cervellati

Sul numero del 22 marzo di NUTRAIngredients-Botanicals and Herbals, una newsletter di notizie e analisi su integratori, salute e nutrizione, Stephen Daniells ha pubblicato una analisi dettagliata sugli effetti dei cambiamenti climatici sui cicli vitali delle piante, intitolata The erosion of predictability: Climate Change and the botanical supply chain (L’erosione della prevedibilità: cambiamenti climatici e catena di approvvigionamento botanico)[1].

L’autore intende mostrare che i cambiamenti climatici hanno influenzato in modo significativo i tempi di fioritura, fruttificazione e raccolta, nonché le interruzioni della sincronizzazione fra le piante e i loro insetti impollinatori, influenzando la filiera botanica per cui le aziende sono chiamate a reagire in tempi brevi.

Daniells prende in esame soprattutto le piante utilizzate nelle medicine tradizionali orientali che rivestono una sempre maggior attenzione in erboristeria ma non solo. Sono riportati brani di interviste a esponenti delle principali aziende che forniscono prodotti erboristici. Data l’attualità dell’argomento ci è sembrato opportuno fornire ai nostri followers un ampio stralcio del lavoro di Daniells, oltre che qualche commento.

Vale la pena ricordare anzitutto che la medicina erboristica ha basi scientifiche tanto che anche in Italia sono da anni attivi corsi di laurea in Erboristeria o similari in varie Università[2]. Non va quindi confusa con l’omeopatia che al contrario non ha attualmente alcuna base scientifica.

L’articolo inizia ricordando che nel 2008 Mr. Josef Brinckmann[3], Vice Presidente per Ricerca & Sviluppo della Traditional Medicinals Inc., mentre cercava di stabilire un nuovo sito di produzione della Schisandra sphenanthera, una pianta molto usata nella medicina tradizionale cinese (nanwuweizi), fu informato dagli anziani del luogo che il tempo di raccolta delle bacche era stato “da sempre” fra metà settembre e i primi di ottobre. Però negli ultimi dieci anni, i periodi di fioritura e fruttificazione erano stati ogni anno radicalmente diversi.

Le modifiche al raccolto della Schisandra sono solo un esempio, ha detto Brinckmann, afferma infatti che in generale la prevedibilità su quando è possibile stabilire il raccolto è diminuita sensibilmente dappertutto”. “Ci sono eventi che stanno avendo un impatto sui periodi di fioritura e fruttificazione e così su quando sarà possibile il raccolto”, ha detto Brinckmann.

Josef Brinckmann

Questo sta accadendo ovunque io vada. Penso che se si parla con agricoltori in tutto il mondo, si sentirebbero storie simili – e non si tratta necessariamente di piante medicinali, può trattarsi di colture alimentari”.

“E non è solo l’imprevedibilità del tempo, è la scala e la frequenza di eventi meteorologici di grandi dimensioni che possono causare il fallimento totale del raccolto”.

Daniells ci informa che uno dei primi, se non il primo articolo a esplorare l’impatto dei cambiamenti climatici sulle piante medicinali e aromatiche è stato pubblicato su HerbalGram[4] nel 2009 [1]. Il dettagliato articolo ha investigato molti aspetti del cambiamento climatico, incluso l’impatto su ecosistemi specifici, come le regioni artiche e alpine.

Le piante alpine sono in pericolo perché il loro ambiente di nicchia diventa più caldo di qualche grado e le piante non sono in grado di scalare la montagna per raggiungere le temperature più basse alle quali sono abituate. Il loto di neve (Saussurea laniceps) del Tibet è un altro esempio “, ha dichiarato Mark Blumenthal, direttore esecutivo dell’American Botanical Council e redattore/ editore di HerbalGram.

Un’altra pianta himalayana interessata è la Picrorhiza karroa (kutki), che cresce a un’altitudine da 3500 a 4800 m sul livello del mare”, spiega Shaheen Majeed, presidente della Sabinsa Corporation, una multinazionale della nutraceutica. “Queste aree hanno una nicchia climatica specifica in cui queste piante possono prosperare”. Continua Majeed: “Ora però, a causa della variazione delle condizioni climatiche, principalmente l’aumento della temperatura, la crescita di altre piante, in prevalenza infestanti, è aumentata in quelle zone. Queste erbe infestanti soffocano la crescita delle piante kutki distruggendo in tal modo il loro habitat”.

Negli ultimi cinque anni abbiamo trovato molto difficile trovare l’arnica (Arnica montana, Arnica cordifolia)”, ha affermato Beth Lambert, direttore esecutivo di Herborist & Alchemist, una azienda produttrice e distributrice di prodotti erboristici. “Le persone la sostituivano con una versione messicana (Heterotheca inuloides), che non è nemmeno della stessa famiglia.

Beth Lambert

Dal punto di vista aziendale, abbiamo avuto più sfide nell’approvvigionamento di materie prime negli ultimi cinque anni rispetto a quante ne avessimo avuto nei precedenti 30”, ha osservato David Winston, fondatore e Presidente di Herbalist & Alchemist . “Abbiamo avuto siccità, inondazioni e problemi con gelate precoci e gelate tardive. Questi modelli erratici, creano problemi significativi a molte piante.”

Spiega Winston: “Il cambiamento climatico colpisce il suolo e quindi colpisce la crescita dei funghi nel terreno (e tutte le piante possono avere una qualche forma di simbiosi micotica), l’aumento di calore e umidità fa aumentare il rischio di molte malattie delle piante.

David Winston

Dopo che la siccità ha avuto un impatto significativo sul raccolto del Palmetto nel 2007, ad esempio, i 10 anni successivi hanno visto sempre più piogge durante il periodo di fioritura e fruttificazione”, ha affermato Steven Foster, erborista, autore, fotografo e membro del Board of Trustees dell’American Botanical Council (ABC). “Questo ha influito sul raccolto perché le condizioni umide favoriscono la crescita di un fungo specifico che fa maturare prematuramente il frutto”.

I cambiamenti climatici hanno anche ripercussioni sulla popolazione degli insetti, con alcune specie dannose che espandono il loro raggio d’azione o aumentano in modo spropositato.

Per far fronte al problema si è pensato di ricorrere all’uso di erbicidi, fungicidi e pesticidi. Ciò però aumentava il rischio di immettere nel mercato prodotti con un elevato carico chimico.

Un esempio di ciò è un’erba cinese chiamata Tienqi ginseng (Panax notoginseng), ha dichiarato Beth Lambert, direttore esecutivo di Herborist & Alchemist . “Producevamo prodotti con Tienqi ginseng perché è un’erba incredibile, ma abbiamo smesso di usarla perché continuando a testarli abbiamo scoperto che non potevano soddisfare le specifiche richieste per pesticidi ed erbicidi” .

Sostiene David Winston: “Il cambiamento climatico sta influenzando anche la composizione fitochimica delle piante. Alcuni stress sono importanti per la maggior parte delle piante perché la produzione dei metaboliti secondari è fondamentalmente innescata dallo stress. Ad esempio, se si coltiva l’erba gatta (Nepeta cataria) in un ambiente povero di pioggia, aumenta il livello di monoterpeni contenuti nell’olio essenziale, usato dalla pianta per combattere lo stress, a spese di una pianta più piccola ma con un livello di monoterpeni più alto.”

Ma i cambiamenti climatici provocano periodi di siccità troppo lunghi e anche supponendo di poter mantenere la pianta viva, l’effetto sarà opposto, perchè la qualità e la chimica della pianta cambieranno drasticamente”.

Un altro esempio è una pianta chiamata Yellow Dock (Rumex crispus), che viene tradizionalmente raccolta durante la siccità della tarda estate. Dice Winston:

Vorresti raccogliere questa pianta dove è stato asciutto per preferibilmente da cinque a sette giorni perché il livello dei componenti nella radice è molto più alto. D’altra parte, la scorsa estate abbiamo avuto un agosto veramente umido e le radici contenevano molta più acqua e quantità minori di componenti attivi. Invece di essere giallo brillante, la radice era giallo pallido, segno di mutazioni fitochimiche.”

“In Cina, moltissime persone hanno notato un cambiamento nel gusto del tè, presumibilmente dovuto a variazioni nel profilo fitochimico della pianta, un indicatore di cambiamento delle proprietà nutrizionali e dell’attività farmacologica”, ha detto Blumenthal dell’ABC. Un articolo del 2014 su HerbalGram [2] ha esplorato l’impatto del cambiamento climatico sul gusto del tè in Cina, concludendo che se i cambiamenti climatici stanno interessando il tè può essere che interessino anche la fitochimica di altre piante.”

Raccolta del tè in una piantagione del Kenya

Josef Brinckmann, della Traditional Medicinals, afferma che l ‘”erosione della prevedibilità” e il conseguente aumento di incertezza stanno cambiando il modo in cui le aziende si approvvigionano di materie prime, ma fa esplicitamente riferimento anche alla geopolitica.

È sempre stato saggio spalmare il rischio nella catena di rifornimento, dice Brinckmann, e negli ultimi 10 anni abbiamo dovuto implementare attivamente la nostra politica di spread risking, in modo da avere due, se non tre o quattro basi di produzione che si trovano in distinti ambiti agro-climatici e geopolitici”, spiega Brinckmann. “Tener conto di entrambi gli aspetti è importante perché l’altro fenomeno cui abbiamo assistito negli ultimi dieci anni è che disordini e rivoluzioni sono causa di interruzione degli scambi”

“La camomilla è un buon esempio. La pianta cresce spontaneamente nella Repubblica Ceca, in Slovacchia, Ungheria e Polonia. La coltivazione si estende in Germania, poi in Croazia e attraverso il Mediterraneo fino all’Italia, alla Grecia e all’Egitto.

L’Egitto è un paese importante per i medicinali tradizionali, ma l’offerta è stata influenzata da eventi sia climatici che geopolitici.”

“L’anno precedente la primavera araba del 2011, racconta Brinckmann, c’era stato un grosso problema con la camomilla egiziana perché durante il periodo di fioritura aveva nevicato. “La gente diceva, ‘non è mai successo prima’. Purtroppo questo fenomeno ha arrestato la crescita dei fiori e ha cambiato la composizione chimica, quindi la qualità e la quantità dell’olio essenziale erano diverse dal solito. I rendimenti erano più bassi. E poi l’anno successivo è scoppiata la rivoluzione “.

“La nostra azienda è in attività da 44 anni, ha aggiunto Brinckmann, “Abbiamo realizzato decenni fa che il metodo per ottenere un’uniformità da lotto a lotto e di dimostrarlo scientificamente, è di avere buoni rapporti con i produttori delle materie prime in modo da selezionarle avvicinandole il più possibile per qualità a quelle all’anno precedente. I cambiamenti climatici stanno però rendendo questo obiettivo sempre più complicato da raggiungere. Dobbiamo lavorare sempre più duramente con i nostri partner per ampliare le nostre basi di produzione mantenendo nel contempo i requisiti di qualità, con materie prime equivalenti da almeno due diverse zone agro-climatiche e geopolitiche. Non è una impresa facile, ma è quello che stiamo facendo, ha concluso Brinckmann.

L’azienda Herborist and Alchemist punta invece all’utilizzo, se possibile, di materiale vegetale di provenienza USA, puntando però all’estensione del proprio approvvigionamento considerando lotti di più coltivatori, così che se il raccolto da una certa area sarà scarso, se ne potrà ottenere una quantità maggiore da un’altra.”Stiamo realizzando che dobbiamo fare sempre di più”, ha detto Beth Lambert. “Non possiamo dipendere da un solo agricoltore o gruppo di raccoglitori per il nostro approvvigionamento.” Nel Vermont un gruppo di coltivatori si è costituito in cooperativa, la Vermont Herb Growers Cooperative fondata per fornire un’unica, affidabile fonte di erbe di alta qualità e certificate biologicamente provenienti da coltivazioni diversificate su piccola scala nello Stato. “La H&A che inizialmente acquistava da alcuni di questi coltivatori individualmente ora si rivolge principalmente alla cooperativa ritenendola un ottimo modello per garantire l’acquisto di materie prime basate su un adeguato equilibrio fra tecnologia agricola e rispetto per la qualità del prodotto”, ha affermato Lambert.

Infine, Shaheen Majeed, Presidente della multinazionale Sabinsa Corporation, dopo aver affermato: Stiamo affrontando la più grande sfida ambientale che la nostra generazione abbia mai visto. Non importa ciò che ci appassiona, qualcosa a cui teniamo molto sarà influenzata dal cambiamento climatico.

Shaheen Majeed

Preferisce piuttosto citare alcuni esempi di importanti piante officinali che nell’esperienza di Sabinsa Corp. saranno colpite dal cambiamento climatico.

Curcuma. La normale stagione di semina per la curcuma è durante maggio, con l’arrivo delle piogge iniziali, ma se i cambiamenti climatici faranno ritardare le piogge iniziali, la semina dovrà essere spostata in avanti. Se anche questa estate sarà secca come quella dell’anno precedente, ciò significherà una minore quantità di acqua a disposizione.

Ci vogliono otto mesi perché la curcuma raggiunga la piena crescita e quindi inizi il raccolto. Se a causa delle mutate condizioni climatiche non viene raggiunta la piena crescita delle piante, avremo un minor rendimento e una minor qualità del prodotto.

Menta indiana (Coleus). Normalmente la stagione di semina per Coleus va da settembre a ottobre, quando ci sono piogge intermittenti. Quest’anno (2017-18) ci sono state forti piogge nelle aree di coltivazione tradizionali. Ciò ha reso impossibile piantare durante la stagione normale spostandola a novembre – dicembre, e anche a gennaio in alcuni casi. Il periodo di crescita della pianta è di sei mesi con inizio raccolto in marzo, ma a causa del cambiamento climatico le colture non saranno pronte per la raccolta fino a maggio – giugno, con conseguente indisponibilità di materia prima da marzo a luglio. Inoltre quantità e qualità del raccolto saranno scarse causa dell’alterato periodo di crescita.

Per i cambiamenti anzidetti alle stagioni di crescita delle colture nel corso degli anni dovute al cambiamento climatico, le aree tradizionali sono diventate inadatte alla coltivazione. Passare a nuove aree significa nuovi agricoltori e nuove condizioni sul campo. Ciò avrà un impatto sulla quantità e sulla qualità della materia prima prodotta.

Bacopa (pianta acquatica, fam. Scrophulariaceae). Le condizioni migliori per la coltivazione sono terre paludose con abbondante acqua ma il cambiamento climatico riduce la disponibilità di acqua in alcune aree e queste terre paludose si convertono lentamente in terre asciutte. La pianta è usata nella medicina ayurvedica per i disturbi della memoria. E’ di aiuto anche in problemi digestivi. Piante come la Bacopa che di solito prosperano bene nelle condizioni paludose verranno lentamente sostituite con altre piante che possono prosperare meglio nelle mutate condizioni.

Tutti gli esponenti intervistati riconoscono gli avvenuti cambiamenti climatici e i loro effetti sulla coltivazione e anche sul profilo fitochimico di importanti piante officinali, ma non viene mai nominata esplicitamente la probabile causa di questi effetti, il global warming o riscaldamento globale. Eppure implicitamente si parla di aumento della temperatura in alta montagna, di siccità o piovosità eccessive o fuori stagione in zone del Pianeta in passato regolari da questo punto di vista, insomma a fenomeni riconducibili al riscaldamento globale. Poiché questi personaggi sono americani o naturalizzati e l’attuale Presidente USA è un dichiarato negazionista, non ci sarà un certo timore a nominare financo la parola? Oppure essi non ritengono che il global warning sia la causa dei comunque riconosciuti cambiamenti climatici? Le proposte emerse per contrastare questi effetti sembrerebbero dar credito alla seconda ipotesi: dall’individuazione di zone alternative per le coltivazioni in pericolo fino alla sostituzione con altre piante.

Eppure, in particolare i segnali su variazioni del profilo fitochimico dovrebbero far suonare un insistente campanello d’allarme. La maggior parte dei principi attivi contenuti nei rimedi erboristici sono infatti metaboliti secondari delle piante. Fra i primi a chiedersi a cosa servissero questi composti chimici prodotti dalle piante vorrei ricordare le ricerche di Giacomo Ciamician[5] e del suo collaboratore Ciro Ravenna. Essi, dopo numerose ricerche giunsero alla conclusione che gli alcaloidi esercitavano una funzione molto simile a quella degli ormoni negli animali [3].

Oggi è noto che polifenoli e loro glicosidi (potenti antiossidanti contenuti e reclamizzati negli integratori alimentari), svolgono nelle piante principalmente un ruolo di difesa. Non solo difesa da parassiti animali e vegetali ma anche dalle condizioni ambientali in cui una determinata specie è abituata a crescere. Per esempio un glicoside della cianidina, il pigmento caratteristico delle arance rosse di Sicilia servirebbe alla pianta per sopportare le escursioni termiche fra il dì e la notte caratteristiche della zona vulcanica di crescita di quella varietà di agrumi [4].

Quindi, le variazioni di profili fitochimici consolidati in decine se non centinaia di migliaia di anni dovrebbero far pensare che i cambiamenti climatici siano a loro volta effetti di una causa che viene generalmente chiamata global warming, effetto a sua volta causato dall’epoca attuale, caratterizzata dalle attività dell’uomo che stanno cambiando la geomorfologia del Pianeta.

Allora, le misure da prendere nei tempi brevi per fermare il fenomeno sono la drastica riduzione delle emissioni, i programmi di risparmio energetico, la sostenibilità delle produzioni e l’impulso alla ricerca sull’utilizzo delle “energie rinnovabili”.

Bibliografia

[1] C. Cavaliere, The Effects of Climate Change on Medicinal and Aromatic Plants., HerbalGram, 2009, 81, 44-57.  http://cms.herbalgram.org/herbalgram/issue81/article3379.html?ts=1522770451&signature=f321feb52f87b18f2c564acad28968a

[2] S. Ahmed, Tea and the Taste of Climate Change: Understanding Impacts of Environmental Variation on Botanical Quality., HerbalGram, 2014, 103, 44-51.

http://cms.herbalgram.org/herbalgram/issue103/HG103-feat-teaclimate.html?ts=1522856019&signature=1146c4bfb2da34647434bc997e1eb715

[3] R. Cervellati, V. Saiola, E. Greco, Le ricerche di Giacomo Ciamician sulla chimica delle piante. Atti del XIV Convegno Nazionale di Storia e Fondamenti della Chimica, Rendic. Acad. Naz. Sci. Detta dei XL, DOI: 10.4399/978885485146710, pp. 123-136.

http://media.accademiaxl.it/memorie/S5-VXXXV-P2-2011/Cervellati-Saiola-Greco123-137.pdf

[4] Arancia rossa. https://www.cibo360.it/alimentazione/cibi/frutta/arancia_rossa_sicilia.htm

[1] L’articolo in lingua originale si trova al sito

https://www.nutraingredients.com/Article/2018/03/22/The-erosion-of-predictability-Climate-change-and-the-botanical-supply-chain?utm_source=newsletter_product&utm_medium=email&utm_campaign=02-Apr-2018&c=Ys8M3ElSTSw9q7Z2fptn3A%3D%3D&p2=

[2] Va ricordato che esiste una disciplina specifica, la farmacognosia che si occupa delle proprietà fisiche, chimiche, biochimiche e biologiche di farmaci o sostanze medicinali di origine vegetale. Inoltre,  l’Organizzazione Mondiale della Sanità è impegnata a promuovere e valorizzare su basi scientifiche l’uso dei rimedi naturali derivati da piante medicinali ancora largamente usate nei PVS (si stima infatti che l’85% della popolazione mondiale ricorra all’uso della medicina tradizionale per la prevenzione/cura di diverse patologie).

[3] Josef Brinckmann è Vice Presidente alla Sostenibilità della Traditional Medicinals, Inc., USA, dal 19 aprile 2016. Brinckmann ha ricoperto la carica di Vice Presidente per Ricerca & Sviluppo presso Traditional Medicinals, Inc. fino al 19 aprile 2016. Mr. Brinckmann è Membro del comitato consultivo editoriale del Nutrition Business Journal.

[4] HerbalGram è il Journal of the American Botanical Council.

[5] Giacomo Ciamician (1857-1922), Professore di Chimica Generale nell’Università di Bologna dal 1889 fino alla scomparsa è considerato il fondatore della fotochimica moderna, collaborò al progetto dell’edificio dell’Istituto di Chimica dell’Università di Bologna che oggi ospita il Dipartimento a lui intitolato. Si è occupato attivamente della sintesi di prodotti organici naturali. Oltre a essere uno dei fondatori della fotochimica moderna, Giacomo Ciamician è considerato anche il precursore dell’utilizzo pratico dell’energia solare.

Ancora chimica e sottomarini. Freon, killer a bordo!

In evidenza

Giuseppe Poeta Paccati

L’8 novembre 2008 si verificò un gravissimo incidente sul sottomarino* nucleare russo K-152 Nerpa della flotta del Pacifico provocata da un’avaria al sistema antincendio a Freon che provocò la morte per asfissia di 20 persone e 41 feriti tra il personale tecnico civile e quello militare.

Sottomarino russo Nerpa (K-152), oggi in dotazione alla marina indiana come INS Chakra

Costruito presso il cantiere di Komsomol’sk-na-Amure (unico sottomarino nucleare russo a non essere in costruzione nei cantieri Sevmaš di Severodvinsk), il sottomarino appartiene alla classe di sottomarini nucleari sovietici dal nome in codice NATO Akula, Progetto 971 Ščuka-B ed era destinato ad essere ceduto in leasing alla marina indiana.

I battelli di questa classe sono in grado di attaccare con successo sia gruppi di unità navali ostili (subacquee e di superficie), sia installazioni terrestri. Grazie ai due scafi in acciaio amagnetico più distanziati del normale, in caso di incidente, hanno una maggiore probabilità di evitare danni allo scafo interno che è, a sua volta, diviso in otto compartimenti. Dotati di un reattore nucleare OK-650B da 190 MW (100’000 hp) per la propulsione che consente una velocità di 20 nodi in emersione e 35 in immersione, sono costruiti con materiali e tecnologie pensate appositamente per rendere minima la loro traccia acustica e renderli più difficilmente localizzabili in immersione.

L’unità incrociava nel golfo di Pietro il Grande, una vasta insenatura lungo la costa russa nell’estremo oriente, situata nella parte nordoccidentale del mare del Giappone per svolgere un programma di collaudi e, per questo motivo, l’equipaggio che era a bordo il giorno dell’incidente era molto più numeroso del solito: 208 persone di cui 81 militari e 127 ingegneri civili dei cantieri navali Amursky, responsabili della costruzione e dell’allestimento del sottomarino.

I compartimenti di un sottomarino russo sono presidiati da stazioni di erogazione di gas freon R-114B2 (dibromotetrafluoroetano, noto come khladon in russo) per estinguere rapidamente gli incendi in spazi chiusi.

Dibromotetrafluoroetano, R-114B2, Halon 2402, CAS Number 124-73-2   (1,2-isomer)

Alle 8:30 PM (ora locale), durante la prima prova di immersione, l’attivazione accidentale del sistema di estinzione del sottomarino causò la chiusura ermetica di due compartimenti adiacenti che furono saturati di gas estinguente prima che il personale lì presente potesse essere evacuato. Il dibromotetrafluoroetano, in alte concentrazioni, può causare narcosi, che progredisce per fasi in eccitazione, confusione mentale, letargia e, infine, asfissia. Molti dei feriti hanno sofferto degli effetti delle ustioni da congelamento causate dal gas.

  1. Personnel working in front section of submarine affected when fire extinguishers set off unexpectedly
    2. Affected area may have been sealed off, trapping personnel inside. There were more staff than usual on board as submarine was undergoing tests
    3. Fire extinguishers release freon gas, which displaces breathable oxygen, causing workers to suffocate

http://news.bbc.co.uk/2/hi/europe/7718156.stm

Il dibromotetrafluoroetano è un liquido incolore con punto di ebollizione di 47,2 °C.

Dal 1994 il protocollo di Montreal prevede l’eliminazione, la produzione, l’utilizzo e il commercio delle sostanze dannose per l’ozono stratosferico (ozone-depleting substance, ODS). Il dibromotetrafluoroetano ha un elevato potenziale di distruzione dell’ozono (ozone-depleting potential, ODP).

Il Potenziale di eliminazione dell’ozono (Ozone Depletion Potential o ODP) di un composto indica la capacità di danneggiare lo strato di ozono rispetto a quella esercitata da un composto preso come standard di riferimento, il triclorofluorometano (R-11), cui viene dato il valore di ODP pari a 1,0. Ad esempio, in questa scala, il clorodifluorometano (R-22), ha un ODP di 0,05 mentre il dibromotetrafluoroetano di 6.[1]

Secondo le testimonianze dei sopravvissuti, le vittime non sarebbero state avvertite in tempo perché l’allarme sonoro di segnalazione di pericolo d’incendio sarebbe scattato solo dopo che il gas aveva già iniziato ad essere erogato nei compartimenti. Alcune delle vittime sono state trovate che indossavano i loro kit di respirazione di emergenza mentre altre, si stabilì in seguito, non furono in grado di attivare i kit respiratori d’emergenza prima di rimanere asfissiate.[2]

Gli esperti individuarono due principali spiegazioni del disastro: un malfunzionamento del sistema antincendio di bordo e l’errore umano. Secondo questa seconda ipotesi un membro dell’equipaggio avrebbe attivato il sistema “senza permesso o alcun motivo particolare”.

Questa grave accusa sarebbe però destituita di fondamento perché il membro dell’equipaggio che era stato accusato risultò essere uno specialista esperto e competente. L’attribuzione delle responsabilità all’equipaggio sarebbe il tentativo della marina russa di individuare un “capro espiatorio”[3] Alcuni ufficiali della marina in pensione riferirono alla stampa che era impossibile che una persona soltanto fosse l’unica responsabile dell’incidente perché il sistema antincendio doveva ricevere più livelli di conferma prima di poter essere attivato.

L’incidente al K-152 Nerpa è stato il peggior incidente per la Marina russa dopo la perdita del sottomarino a propulsione nucleare K-141 Kursk avvenuta nel 2000 nel Mare di Barents durante un’esercitazione militare navale in cui perì tutto il suo equipaggio di 118 uomini.

  • (NdP. Un sottomarino a differenza di un sommergibile è una unità che viaggia essenzialmente sott’acqua, con prestazioni migliori che in superficie , mentre il sommergibile, viceversa, è una unità che viaggia essenzialmente in  superficie)

[1]          http://gestis-en.itrust.de/nxt/gateway.dll/gestis_en/031750.xml?f=templates$fn=default.htm$3.0

[2]          Halpin, Tony (13 November 2008). “Crew member blamed for Russian submarine disaster”. London: The Times.

[3]          “Russia accused of cover-up over gassing of 20 sailors on nuclear submarine”, Daily Mail, 13 November 2008.

Il riciclo “di fatto” della plastica.

In evidenza

Claudio Della Volpe

Molti pensano che il riciclo sia fatto una volta che i rifiuti siano separati nei vari cassonetti; poi le famose “mani invisibili”, quelle inventate da Adam Smith, ci penseranno; beh le cose non stanno così.

La separazione dei rifiuti è solo il primo passo, necessario ma non sufficiente; i rifiuti devono poi arrivare in un deposito e successivamente in un luogo di produzione dove l’azione venga perfezionata. (I comuni “ricicloni” non stanno riciclando, stanno solo separando.)

Ora questa strada verso il riciclo è lunga, molto lunga e anche pericolosa per i poveri rifiuti o materie prime seconde, come si dice in politicalcorrettese.

Un esempio di cosa succede ai rifiuti anche nostrani si vede in questo film che potete scaricare o di cui potete vedere qualche fotogramma qui:

La Cina è stata di fatto il deposito intermedio dei rifiuti di mezzo mondo; la cosa dà da “vivere” a un po’ di cinesi ma con qualche problema, tanto è vero che i politici cinesi si sono resi conto che qualcosa non quadrava ed hanno deciso di BLOCCARE, ripeto bloccare, l’import di rifiuti plastici da riciclo dall’Europa dal 1 gennaio di quest’anno di grazia 2018. La cosa ha avuto qualche effetto che adesso analizzeremo brevemente.

Il Corepla (Consorzio nazionale per la raccolta, il riciclo, il recupero degli imballaggi in plastica) scrive in un recentissimo report:

Le aumentate quantità raccolte hanno generato un incremento dei costi di selezione; i costi di recupero sono aumentati in quanto, a seguito della saturazione degli spazi disponibili presso i recuperatori, causata dai volumi provenienti dalla raccolta urbana, sono cresciuti i corrispettivi medi. Questo ha anche generato la necessità di trasferire materiali dal centro-sud al nord, con conseguente aumento dei costi di trasporto.  Laddove ciò non è stato possibile si è reso necessario trasferire del materiale in discarica, con conseguente aumento anche dei costi di smaltimento.”

Dice Il Sole 24 ore: Senza mercato, in Europa i carichi di materiali diventati inutilizzabili vengono deviati verso gli inceneritori affinché almeno vengano ricuperati sotto forma di combustibile di qualità.

http://www.ilsole24ore.com/art/impresa-e-territori/2018-01-12/la-cina-blocca-l-import-rifiuti-caos-riciclo-europa-160732.shtml?uuid=AELQpUhD

Dunque c’è troppo da riciclare e la plastica finisce in…discarica o nell’inceneritore. (Poi dicono che al classico non si impara nulla? Signori miei questo è un esempio di dialettica hegeliana: la negazione della negazione!)

Ma non solo; molto “riciclo” arriva in depositi di materiale plastico che non riescono a perfezionare il passaggio né verso le fabbriche vere e proprie che sono spesso altrove, casomai in Cina, né perfino verso gli inceneritori.

Sempre il solerte giornale di Confindustria ci avverte:

I pochi impianti italiani di ricupero energetico marciano a tutta forza e non bastano;  in una situazione di forte domanda di incenerimento e di poca offerta di impianti di ricupero energetico le tariffe praticate dagli inceneritori salgono a prezzi sempre più alti, oltre i 140 euro la tonnellata.

Già in ottobre Andrea Fluttero, presidente di un’associazione di imprese del riciclo (Fise Unire), aveva avvertito che «purtroppo sta diventando sempre più difficile la gestione degli scarti da processi di riciclo dei rifiuti provenienti da attività produttive e da alcuni flussi della raccolta differenziata degli urbani, in particolare quelli degli imballaggi in plastica post-consumo».

(notate la raffinatezza di quel “di poca offerta di impianti di ricupero energetico” messo lì con nonchalance! E facciamo altri inceneritori, dai!)

Di conseguenza con o senza l’aiuto di malavitosi compiacenti la plastica prende la via dello smaltimento forzato, della “termovalorizzazione obbligata” tramite incendio doloso; nella seconda metà del 2017 il numero di incendi dei depositi di plastica nella zona Lombardo Piemontese è aumentata di quasi il 50%; difficile dimostrarne la origine dolosa, ma come avviene negli incendi dei boschi c’è qualche traccia e soprattutto i numeri parlano chiaro. (Attenzione anche ai depositi di carta e alle cartiere!).

Potete leggere a proposito un recente e brillante articolo comparso sulla cronaca milanese del Corriere del 3 aprile a firma di Andrea Galli (Milano, il «sistema» degli incendi gemelli: affari sporchi nella terra dei fuochi).

(http://milano.corriere.it/notizie/cronaca/18_aprile_03/milano-sistema-incendi-gemelli-affari-sporchi-terra-fuochi-6ab3f2e2-36a0-11e8-a836-1a6391d71628.shtml)

C’è una terra dei fuochi anche nel cuore del triangolo industrializzato, fatta di depositi di plastica (o di carta) che scoppiano anche grazie al divieto cinese, ma non solo, e il cui problema viene risolto bruciando tutto e contando sulle inefficienze o sulle compiacenze dell’apparato statale; l’industria chimica esalta i successi del riciclo, ma i 2700 impianti di deposito plastiche del Nord Italia, sulla via del riciclo, non potendo contare più sulla via della Cina, via alla rovescia, che una volta importava seta ed adesso esporta rifiuti, cercano soluzioni alternative.

Il rischio è che qualcuno (ricordate la frase del Sole citata prima) dica “visto che lo bruciano comunque allora fatecelo bruciare per bene”; col cavolo! rispondo io; la plastica non va bruciata MAI! Riciclare e cambiare la sua produzione e il suo uso.

Dunque paradossalmente il successo della differenziata ha messo in luce un problema serio: la via del riciclo è complessa e costosa; in alcuni casi come il PET, la plastica delle bottiglie di cui abbiamo anche parlato di recente la cosa più o meno funziona, ma di plastiche, al plurale ce ne sono tanti tipi che non sono miscibili fra di loro e il loro riciclo costituisce un serio problema, ancora non risolto.

Paradossalmente il PET è un esempio negativo nel senso che occorrerebbe semplicemente consumarne di meno, usare più acqua del rubinetto e meno acqua da bottiglia, meno acqua minerale. Ma è anche il caso in cui il riciclo viene meglio, il caso guida, anche se con qualche problema di qualità.

Come abbiamo detto altrove il riciclo comincia dalla produzione, la materia deve essere trattata dal momento della prima produzione con l’ottica del riciclo, non si può riciclare tutto (dopo averlo ben mescolato!!!) poichè i costi energetici della separazione, dovuti all’onnipresente effetto del 2° principio della termodinamica sono ENORMI. E d’altronde riciclare non il 100% ma poniamo il 95, non risolve il problema, ma lo sposta nel tempo: 0.9510=0.6 ; se ricicliamo dieci volte di seguito una cosa al 95% alla fine ce ne ritroveremo solo il 60% e dovremo comunque attingere a risorse casomai non rinnovabili o al collasso.

Questo è un analizzatore di colore che separa i flakes di PET (ottenuti per macinazione) per colore, realizzando una parte del costoso processo antientropico di separazione.

La realtà vera è che riciclare è assolutamente necessario, ma COSTA! Servono tecnologie sofisticate e spazio di stoccaggio.

E il costo di questo passaggio epocale al momento non è stato ancora né quantificato né chiarito. Lo spazio grigio viene riempito dalla malavita o da imprenditori di pochi scrupoli. Il successo (inaspettato) del riciclo della plastica deve essere a sua volta “curato” riducendone la produzione e l’uso: imballaggi in numero e quantità eccessivi devono essere eliminati e le tipologie di plastica devono essere scelte con l’occhio al loro fine vita. Per fare un esempio pratico, lo stesso PET nel momento in cui si cerca di esaltarne le caratteristiche aggiungendo altri materiali come nanosilicati, grafene o altri diventa più difficilmente riciclabile; la soluzione non è una strategia supertecno dal punto di vista dello scopo ma molto meno dal punto di vista complessivo dell’economia circolare; cosa faremo quando tutto il PET sarà “caricato” di diversi qualcosa? Sarà ancora riciclabile come adesso?

L’economia circolare non può coincidere col riciclare quello che c’è già, e che si fa come si fa adesso e con i medesimi scopi (mercato, profitto, crescita dei consumi); finora l’industra ha riciclato in quest’ottica (vetro, ferro, alluminio, PET), ma adesso le dimensioni sono diventate planetarie e il metodo tradizionale non funziona più.(D’altronde la “pattumiera” oceanica è satura.)

Ora si deve necessariamente trasformare il contenuto “fisico” dei prodotti e della loro manipolazione e anche in definitiva tutto il nostro rapporto con la Natura: non solo riciclare, ma consumare meno e meglio, riprogettando dal principio ogni materiale ed oggetto che usiamo.

Una rivoluzione. In cui la chimica gioca la parte del leone.

Il clorometano, killer silenzioso dei sommergibilisti italiani.

In evidenza

Mauro Icardi

La seconda guerra mondiale continua ancora oggi ad esercitare interesse ed attenzione. Sia degli storici, ma anche di moltissime persone comuni. Spesso l’interesse non si focalizza sulle vicende storiche o politiche, ma in molti casi sulle vicende quotidiane dei combattenti, oppure sulle caratteristiche tecniche degli armamenti usati in quel conflitto.

Per quanto riguarda l’Italia, è ormai una verità storica che entrò in guerra in maniera affrettata e con una scarsa, se non nulla preparazione militare. Restata inizialmente fuori dal conflitto entra in guerra il 10 Giugno 1940. Povero di materie prime, con un’industria ancora complessivamente debole, provato dal consumo di materiali bellici prima nella guerra italo-etiopica poi nella guerra civile spagnola, il paese non era stato in grado né finanziariamente né tecnicamente di formare un esercito pronto a misurarsi con grandi potenze.

Delle tre armi la marina sembrava essere quella più solida e meglio armata. Ma le deficienze tecniche pesarono anche su di essa. E in particolare sui sommergibili che operarono nell’Africa Orientale Italiana.

Sui sommergibili italiani erano montati impianti di condizionamento dell’aria in cui veniva utilizzato il clorometano (ma in tutte le cronache dell’epoca indicato come cloruro di metile), la cui tossicità e pericolosità si era già evidenziata negli anni precedenti al conflitto.

A differenza di quanto avveniva durante le esercitazioni, durante le azioni di guerra l’impianto di condizionamento dei sommergibili maggiormente sollecitato tendeva a favorire le fughe di gas. Dopo diversi altri incidenti nel 1939 la pericolosità era ormai nota, ma sottovalutata pensando che non si raggiungessero concentrazioni eccessive ed esposizioni prolungate.

L’entrata in guerra vide i sommergibilisti italiani risentire in maniera invece evidente di questo problema.

Se il sommergibile per necessità doveva prolungare l’immersione gli effetti del gas diventavano letali.

Molti membri dell’equipaggio, sia ufficiali che soldati passavano da stati di follia e di perdita di lucidità, fino alla morte a causa dell’atmosfera inquinata all’interno dei sommergibili. Se per ovviare a questo problema si disponeva lo spegnimento prudenziale dell’impianto le condizioni ambientali diventavano insopportabili. Sul sommergibile Perla in camera di lancio la temperatura arriva a toccare i 64°C.

E le fughe di gas porteranno ad una strage di mezzi e di uomini.

Il sommergibile Archimede partì per la sua prima missione il 19 giugno 1940, ma dovette rientrare ad Assab (Eritrea) dopo una settimana perchè le perdite di cloruro di metile avevano ucciso sei uomini; ventiquattro marinai rimasero gravemente intossicati e otto impazzirono. L’apparato di condizionamento fu poi modificato sostituendo il cloruro di metile con il freon.

Il sommergibile Macallè partito da Massaua il dieci giugno 1940, giorno della dichiarazione di guerra finì incagliato il giorno 14 davanti al faro di Hindi Giber. Erano intossicati tutti gli ufficiali e quasi tutto l’equipaggio. Si verificarono casi di impazzimento e delirio.

Questa erano le condizioni in cui i nostri soldati dovettero combattere in guerra. E la vicenda dei sommergibili non fu purtroppo l’unica. Dopo queste intossicazioni su alcune unità si sostituì il clorometano con il Freon. Esiste un progetto di crowfunding patrocinato da “Produzioni dal basso” che vuol produrre un documentario dal titolo “Tornando a casa” e riportare nel cimitero di Castiglione Falletto in provincia di Cuneo i resti del marinaio Carlo Acefalo, morto per intossicazione sul sommergibile Macallè. La madre Cichina (diminutivo di Francesca) aspettò invano il suo ritorno, e poi la restituzione della salma. E morta nel 1978 indossando al collo un ciondolo con la foto di Carlo.

Scienziate che avrebbero potuto vincere il Premio Nobel: Marguerite Perey (1909-1975 )

In evidenza

Rinaldo Cervellati

Marguerite Perey ha scoperto l’elemento chimico francio nel 1939. Il Francio, numero atomico 87, è stato l’ultimo elemento scoperto in natura. Tutti gli elementi identificati successivamente sono stati prodotti artificialmente in laboratorio.

Marguerite Perey nasce il 19 ottobre 1909 a Villemoble una cittadina poco fuori Parigi situata vicino all’Istituto del Radio di Marie Curie. E’ la figlia più piccola di un proprietario di un mulino e di una casalinga. Da ragazza vorrebbe seguire gli studi per frequentare poi la facoltà di medicina, ma l’improvvisa morte del padre lasciò la famiglia in difficoltà finanziarie tanto che la madre si vide costretta a impartire lezioni private di pianoforte per tirare avanti. Marguerite frequentò allora un istituto professionale per tecnici chimici, diplomandosi con il massimo dei voti.

Marguerite Perey

L’Istituto del Radio assumeva ricercatori e tecnici da tutto il mondo, Perey era una giovane ragazza del luogo risultata la più brava della sua classe e fu quindi chiamata per un colloquio nel 1928. Ecco come racconterà successivamente alla bisnipote il primo impatto con Maria Curie[1]:

Senza un suono, qualcuno entrò nella stanza come un’ombra. Era una donna vestita interamente di nero. Aveva i capelli grigi, raccolti in una crocchia, portava occhiali spessi e era di un estremo pallore. Trasmetteva un’impressione di estrema fragilità. Pensai che fosse una segretaria, poi mi resi conto di essere alla presenza proprio di Marie Curie.

A quei tempi Marie Curie era già una figura di grande spicco e impatto mediatico, quasi mistico: aveva isolato due nuovi elementi (polonio e radio), vinto due Premi Nobel, incontrato due presidenti USA, fondato l’Istituto del Radio insieme alla figlia Irène e al genero Frédéric Joliot, era chiamata Nostra Signora del Radio, perché le applicazioni medicali di questo elemento erano note al grande pubblico.

A Marguerite l’incontro fece quasi paura, disse[1]: Lasciai quella casa buia, persuasa che fosse per la prima e ultima volta. Tutto mi era sembrato malinconico e cupo e fui sollevata nel pensare che senza dubbio non sarei tornata.

Ma aveva torto, infatti diversi giorni dopo ricevette una lettera che le comunicava che era stata assunta. Fu subito messa a un lavoro di notevole impegno chimico, estrarre, concentrare e purificare le piccole quantità di attinio[1] contenute nella pechblenda, un minerale grezzo di uranio nel quale i Curie avevano in precedenza scoperto il polonio e poi il radio. Le quantità via via ottenute venivano quindi controllate da Curie che ne studiava e caratterizzava la radioattività. In questo lavoro Perey si dimostrò così abile che Curie la nominò sua personale assistente preparatore.

Marguerite Perey (seconda da sinistra) in laboratorio con la collega Sonia Cotelle nel 1930

Alla morte di Maria Curie, nel 1934, Perey continuò il lavoro sull’attinio sotto la supervisione di André Debierne e Irène Joliot-Curie e per le sue notevoli capacità di ricerca fu promossa al grado di radiochimico.

Nel 1935, a 26 anni, Perey lesse un articolo di ricercatori statunitensi che affermavano di aver rilevato particelle beta emesse dall’attinio. Perey sapeva tutto sull’attinio, forse meglio di chiunque altro al mondo, ci lavorava da sette anni. Pensò che i ricercatori americani probabilmente avevano torto sull’attinio come fonte di particelle beta con l’energia di decadimento riportata nell’articolo.

Sospettava che l’attinio stesse decadendo in un altro atomo responsabile dell’emissione beta con quella energia. Decise pertanto di preparare un campione di attinio ultra-puro e di studiarne le radiazioni prima che formasse altri prodotti di decadimento. Ciò era eccezionalmente difficile: il campione di attinio ultra-puro avrebbe dovuto essere preparato e la sua radiazione studiata in un brevissimo arco di tempo. Perey preparò il campione ultra-puro e fece la sua scoperta cruciale: una piccola frazione – circa l’1% – della radioattività totale dell’attinio proveniva dall’emissione di particelle alfa (nuclei di elio), non di particelle beta. Come noto una particella alfa è composta da 2 protoni e 2 neutroni. L’attinio è l’elemento 89 nella tavola periodica, il che significa che emettendo una particella alfa perde 2 protoni e diventa un atomo con 87 protoni, l’elemento 87.

Nel 1939 la casella 87 nella tavola periodica era ancora vuota. Sebbene si sospettasse che esistesse, nessuno era stato ancora in grado di trovarlo. Perey aveva scoperto un nuovo elemento! Il nuovo elemento si era formato dall’emissione alfa degli atomi di attinio.

Espulsione α e decadimento Attinio → Francio

Con 87 protoni il nuovo elemento apparteneva al gruppo 1 della tavola periodica, unendosi agli altri metalli alcalini: litio, sodio, potassio, rubidio e cesio. Perey chiamò Francio il nuovo elemento in onore del suo Paese di nascita [2].

Meno di 30 grammi di francio naturale sono presenti sulla Terra a ogni istante perché sebbene sia costantemente prodotto dal decadimento radioattivo dell’attinio, esso subisce costantemente un decadimento radioattivo nei suoi prodotti derivati. La sua emivita non è lunga, circa 22 minuti.

Perey sperava che il nuovo elemento sarebbe stato utile nei trattamenti contro il cancro, sfortunatamente avvenne proprio l’opposto.

Dopo essersi aggiunta all’ élite di scienziati che hanno scoperto un elemento chimico, Marguerite Perey si dedicò a ottenere un dottorato di ricerca alla prestigiosa Sorbona di Parigi. L’assegnazione di un dottorato di ricerca non era in dubbio, perché la tesi descriveva la sua scoperta di un nuovo elemento. Il problema era che non aveva abbastanza titoli di scuola superiore per essere ammessa alla Sorbona. La Sorbona si rifiutava di assegnare il dottorato di ricerca a persone prive dei requisiti di ingresso richiesti, anche se avevano scoperto un nuovo elemento!

Copertina della tesi di dottorato, 1946

Così, durante gli anni della seconda guerra mondiale, Perey trascorse del tempo seguendo corsi alla Sorbona per ottenere l’equivalente di un diploma B.S. Dopo averlo ottenuto, le fu assegnato il dottorato, che le fu conferito nel 1946.

Con il suo dottorato Perey divenne ricercatore senior presso l’Istituto del Radio. Ha continuato a lavorare lì fino a quando, nel 1949, a 40 anni, ottenne la cattedra di Chimica Nucleare presso l’Università di Strasburgo. È stata nominata capo del dipartimento di chimica nucleare di quella università dove ha continuato il suo lavoro sul francio. Ha fondato un laboratorio che nel 1958 è diventato Laboratory of Nuclear Chemistry nel Centre for Nuclear Research, di cui pure è stata direttore.

Il gruppo di ricerca all’Istituto del Radio. Sedute, da sinistra: M. Perey, L. Razet, I. Archinard e S. Cotelle. In piedi, da sinistra: A. Régnier, A. Yakimach, R. Grégoire, R. Galabert, T. Tcheng e Frédéric Joliot-Curie. Collezione Credit Musée Curie / ACJC

Ironia della sorte, sperava che il francio aiutasse a diagnosticare il cancro, ma in realtà era esso stesso cancerogeno e Perey sviluppò un cancro alle ossa che alla fine la uccise.

Dal 1950 al 1963, Perey ha fatto parte della Commissione sui Pesi Atomici.

Nel 1962 è stata la prima donna ad essere eletta all’Accademia delle Scienze francese, onore negato perfino a Marie Curie. Oltre a questa, ha ottenuto altre onoreficienze e premi fra cui il Premio Lavoisier della Società Chimica Francese, la medaglia di ufficiale della Legion d’Onore, il Premio Le Conte dell’Accademia Francese delle Scienze.

Marguerite Perey è morta a 65 anni il 13 maggio 1975. Come Marie Curie e molti altri scienziati che avevano lavorato presso l’ Istituto del Radio, morì per una malattia legata alle radiazioni. In effetti, il suo corpo è risultato essere insolitamente radioattivo. Dalla fine anni ’40 era stata determinante nell’introduzione di migliori misure di sicurezza nei laboratori sotto il suo controllo. Tristemente, era troppo tardi per salvarsi la vita, ma fu un salvavita per le future generazioni di scienziati nucleari.

Incredibilmente, all’estrema pericolosità dei radioisotopi fu inizialmente posta scarsa attenzione, anzi furono prese poche misure di sicurezza anche nelle applicazioni pratiche. La bisnipote di Marguerite Perey ricorda nella biografia della bisnonna [1], il caso delle lavoratrici della fabbrica statunitense Radium Corporation di Orange, N.J., che nel 1917 iniziò ad assumere giovani donne per dipingere i quadranti degli orologi con vernice radioluminescente. Alle ragazze fu detto che la vernice era innocua. Ma negli anni che seguirono, le donne cominciarono a soffrire di deterioramento fisico, accompagnato da anemia, necrosi e infine tumori. Il sensazionale caso giudiziario iniziato – e vinto – dalle moribonde Radium Girls, come venivano chiamate, è un punto di riferimento nella storia della medicina del lavoro. Ciò accadde nel 1928, quattro mesi prima che Marguerite Perey arrivasse all’Istituto Radium per iniziare una carriera di trent’anni di forte esposizione alle radiazioni.

Infine, va ricordato che Perey è stata candidata al Nobel cinque volte, nel 1952 il Comitato Nobel decise che i suoi studi sul francio valevano indubbiamente la pena di essere riconosciuti, ma non rientravano nell’importanza necessaria per un premio Nobel [3].

Ulteriori notizie biografiche su Marguerite Perey sono contenute in: Marguerite Perey.” Famous Scientists. famousscientists.org. 7 Dec. 2014 https://www.famousscientists.org/marguerite-perey/

Bibliografia

[1] V. Greenwood, My Great-Great-Aunt Discovered Francium. And It Killed Her., The New York Time Magazine, December. 3, 2014

https://www.nytimes.com/2014/12/07/magazine/my-great-great-aunt-discovered-francium-and-it-killed-her.html

[2] a) M.Perey, Sur un élément 87, dérivé de l’actinium., Comptes-rendus hebdomadaires des séances de l’Académie des sciences, 1939, 208, 97. b) M. Perey, Francium: élément 87., Bulletin de la Société chimique de France, 1951, 18, 779. c) M. Perey, On the Descendants of Actinium K: 87Ac223., Journal de Physique et le Radium, 1956, 17, 545.

[3] E. Norrby, Nobel Prizes and Nature’s Surprises, World Scientific Publishing Co., Singapore, 2013.

[1] Elemento radioattivo scoperto nel 1899 da André-Louis Debierne (1874-1949) chimico francese, amico e collaboratore dei Curie.

ancora: Jean-Pierre Adloff†and George B. Kauffman, Francium (Atomic Number 87), the Last Discovered Natural Element  Chem. Educator 2005, 10, 387–394 387

La chimica delle uova di Pasqua e altre storie.

In evidenza

Claudio Della Volpe

Le uova di Pasqua sono una tradizione che risale a ben prima della cultura cristiana.

Dioniso con l’uovo e il càntaro, IV sec. a.C. Parigi, Louvre | © RMN

Il Dioniso di Tanagra (Beozia, dove Dioniso sarebbe nato) figura tombale o quello del Louvre, che mostrano un uovo, ricordano l’uso di donare uova (casomai colorate o dipinte) come augurio di fecondità e salute all’inizio della primavera, tradizione che risale al primo millennio a.C. (Egitto, Persia). Solo poi, nella cultura cristiana, l’uovo, apparentemente minerale, ma che nasconde la vita, acquista il senso della rinascita dalla morte e, dunque, della resurrezione.

Le uova di cioccolata invece sono un prodotto recente non foss’altro perchè la cioccolata è stata importata in Europa come dolce frutto dello scambio “colombiano” di cui abbiamo parlato in altro post. E infine solo il macchinismo industriale le ha rese comuni perchè lavorare l’uovo di cioccolata a mano non è certo semplice: roba da re al tempo del Re Sole, le uova di cioccolata diventarono comuni solo dopo la 2 guerra mondiale dalle nostre parti.

Eppure uova colorate cuocendole con foglie e fiori opportuni erano comuni già nel medioevo. Insomma, a parte il simbolismo, le uova colorate e la chimica che c’è dietro sono un prodotto “popolare” dell’”oscuro” medioevo tedesco. (ma poi perchè il medioevo è sempre oscuro?).

Hieronymus Bosch, Concerto nell’uovo, Lille, Palais des Beaux-Arts | © RMN - 
Copia anonima del XVI sec. Fra gli altri significati di quest'opera perduta 
l'uovo potrebbe essere il contenitore  dell'Universo, un contenitore dove 
il chimico ermetico mette a reagire gli elementi creandone una sinfonia,
un pò folle.

La parola “Ostern” in tedesco non si riferisce all’origine greca e latina della festa ebraica per celebrare l’emigrazione degli ebrei dall’Egitto, ma si riferisce invece alla dea “Ostara”. Nella Germania delle figurine bruciate negli “Osterfeuer” (fuochi di Pasqua), pratica molto popolare nel nord del paese ma nota anche in altre regioni, (figurine che erano simboli dell’inverno e bruciate dopo la “Tag-und-Nacht-Gleiche” (giorno e notte dell’equinozio)), lo “Osterhase” (Coniglio di Pasqua), che “nasconde” dolciumi (soprattutto uova di Pasqua di cioccolata) è più popolare dell’agnello come animale simbolico della Pasqua. Già, ma come si fanno le uova colorate e come funziona il meccanismo di colorazione delle uova? Ovviamente c’è un meccanismo base di assorbimento della superficie dell’uovo che è porosa. Ma non solo.

Hamilton, R. M. G. (1986) “The Microstructure of the Hen’s Egg Shell – A Short Review,” Food Structure: Vol. 5: No. 1, Article 13.

Available at: http://digitalcommons.usu.edu/foodmicrostructure/vol5/iss1/13

https://www.researchgate.net/publication/51895246_The_eggshell_structure_composition_and_mineralization/figures       Figure 4. Artistic rendition of cross-sectional view of chicken eggshell. The major morphological features are labelled.

Questo bel grafico lo troviamo su Chemical and Engineering News; il metodo è semplice ed è spiegato bene qui.

Il guscio dell’uovo di gallina è fatto principalmente di carbonato di calcio e, immergendolo in un acido debole come l’aceto, si hanno due effetti:

1) il guscio reagisce con l’acido producendo diossido di carbonio gassoso (vedrete formarsi delle bollicine sulla superficie dell’uovo). Il guscio inizia a sciogliersi il che ne acccresce l’area e ne espone una maggiore superficie al contatto con l’esterno.S. O’Malley su https://www.sciencefriday.com/educational-resources/eggs-to-dye-for/

2) le proteine nella sottile cuticola del guscio reagiscono con l’acido debole e si protonano, acquistano ioni idrogeno e dunque cariche positive in eccesso. Sono proprio queste cariche positive a legare le molecole di colorante se queste sono caricate negativamente come quelle che sceglierete opportunamente seguendo i consigli di C&En News.S. O’Malley su https://www.sciencefriday.com/educational-resources/eggs-to-dye-for/

Ovviamente potrete sperimentare usando acidi deboli diversi come quelli elencati qui sotto (aspirina, succo d’arancia, aceto o vitamina C; o altri) e diversi coloranti che si usano in cucina.Fra i coloranti da cucina: succo di barbabietola, di carota o di cavolo rosso, curcumina dalla curcuma, le antocianine del vino o dei mirtilli, il succo di altri frutti o il thè o il caffè, succo di pomodoro, etc.

Una volta che sarete diventati esperti con questi metodi potrete andare oltre le uova di Pasqua e far cambiare il colore del thè aggiungendo un acido o una base (succo di limone, soda Solvay (carbonato di sodio) o bicarbonato) oppure perfino il colore dei fiori come le ortensie facendo cambiare l’acidità del terreno.

Provate e sappiatemi dire.

Un enzima per la degradazione e riciclaggio del polietilene tereftalato (PET)

In evidenza

Rinaldo Cervellati.

La notizia è riportata da Melissae Fellet in uno speciale dell’ultimo numero di Chemistry & Engineering News on-line (28 febbraio 2018).

Ricercatori americani sono riusciti a inserire uno zucchero in un enzima batterico che potrebbe migliorarne la capacità di degradare il polietilene tereftalato (PET), favorirne il riciclo, evitando quindi che finisca in discarica (Abhijit N. Shirke et al., Stabilizing leaf and branch compost cutinase (LCC) with glycosylation: Mechanism and effect on PET hydrolysis, Biochemistry, 2018, DOI: 10.1021/acs.biochem.7b01189).

Le bottiglie di acqua minerale, bevande, shampoo, ecc. in polietilene tereftalato (PET), una delle plastiche più comuni e usate, vengono in genere riciclate macinandole in piccole scaglie, che vengono poi utilizzate per fabbricare prodotti come contenitori di plastica, tappeti, e altri materiali. Ma alcuni di questi manufatti non possono più essere riciclati e finiscono nelle discariche o nell’ambiente. Usando enzimi per degradare il PET in glicole etilenico e acido tereftalico, i riciclatori potrebbero usare gli ingredienti recuperati per produrre nuove bottiglie di plastica della stessa qualità. Tale processo consentirebbe di riciclare ripetutamente il materiale, contribuendo a risolvere il problema sempre crescente dei rifiuti di plastica.

Rifiuti di plastica

I funghi fitopatogeni responsabili di alcune malattie delle piante usano enzimi chiamati cutinasi per saponificare gli esteri contenuti nella cutina danneggiando così i tessuti vegetali. Sebbene di origine non ben chiara le cutinasi sono simili a enzimi batterici. E’ noto che le cutinasi, particolarmente quella delle foglie (LCC), possono anche “digerire” il PET scomponendolo nei suoi ingredienti monomerici. Le cutinasi degradano il PET più efficacemente a circa 75 ° C, una temperatura alla quale le catene di PET si allentano aprendo spazi fra di esse. Le cutinasi vanno a occupare questi spazi e fanno il loro lavoro degradando la plastica. Tuttavia l’enzima non funziona a lungo a queste temperature perché inizia a aggregarsi con se stesso inattivandosi.

Nel lavoro citato all’inizio, Richard A. Gross del Rensselaer Polytechnic Institute a Troy NY, responsabile della ricerca e i suoi collaboratori hanno cercato di impedire alla LCC di formare questi aggregati inattivi.

Il Gruppo del Prof. Gross (al centro)

Essi hanno pensato di inserire zuccheri in posizioni strategiche, in modo da mantenere intatta la struttura dell’enzima anche a temperature elevate, creando cioè barriere fisiche che rendessero più difficile la formazione degli aggregati.

Sebbene i batteri non rivestano naturalmente le loro proteine ​​con zuccheri, come invece succede per le cellule eucariote, i ricercatori hanno notato tre siti sulla cutinasi in cui le cellule eucariote potrebbero aggiungere una breve stringa di zuccheri. Utilizzando tecniche di ingegnera genetica hanno programmato un lievito, eucariota, per produrre una cutinasi batterica originariamente isolata da microbi trovati nel compost di foglie e rami. Dopo aver prodotto la cutinasi, le cellule hanno naturalmente glicosilato l’enzima nei siti previsti.

Struttura della cutinasi glicosilata: in rosso i siti glicosilati, in verde i siti attivi

I ricercatori hanno purificato la cutinasi glicosilata e ne hanno valutato la tendenza all’aggregazione studiando la luce diffusa attraverso una soluzione dell’enzima a varie temperature.

La cutinasi glicosilata ha iniziato ad aggregarsi e disperdere la luce a temperature intorno agli 80 ° C, mentre l’enzima non glicosilato ha diffuso molta più luce a partire da 70 ° C, formando anche ammassi visibili in alcuni test. La cutinasi glicosilata, lavorando a temperatura e concentrazione ottimali, ha degradato più PET rispetto alla proteina non glicosilata.

La maggiore stabilità e attività della cutinasi glicosilata è un grande passo avanti verso l’ottimizzazione dell’enzima al fine di una sua commercializzazione, dice Gross.

“Questa tecnologia potrebbe contribuire a rendere più degradabile una delle plastiche maggiormente utilizzate”, afferma Lucia Gardossi dell’Università di Trieste, che utilizza gli enzimi per produrre plastiche rinnovabili.

Non molto tempo fa la Cina riciclava circa la metà dei rifiuti di plastica e carta del pianeta. Ma l’anno scorso, la Cina ha vietato l’importazione di 24 tipi di rifiuti solidi, lasciando gli altri Paesi alla ricerca di soluzioni efficaci per smaltire montagne di plastica.

Montagna di rifiuti di plastica

“Il problema dei rifiuti di plastica è così urgente, e lo sviluppo di soluzioni per la gestione della plastica così veloce, da farmi ritenere che un enzima efficace come questo troverà applicazioni pratiche in poco tempo”, ha detto Gardossi.

*Tradotto e adattato da c&en news, web: February 28, 2018

Cosa vogliamo scegliere?

In evidenza

Mauro Icardi

Ho ritrovato recentemente in un angolo della mia libreria, un numero della rivista “Urania” risalente al 1977. E’ il primo volume dei racconti di Isaac Asimov intitolato “Antologia del bicentenario”.

Più che i racconti ho trovato molto interessante la rilettura di un articolo che Asimov scrisse originariamente nel 1975 intitolato “ Best foot backward “ e che in Italiano è stato tradotto “Cosa sceglierete?

Il noto scrittore britannico di fantascienza, ma anche divulgatore scientifico, in questo articolo si schiera apertamente a favore della ricerca scientifica, e delle ricadute che essa ha avuto sulla nostra vita quotidiana, in particolare nel miglioramento delle sue condizioni.

Asimov oltre ad essere considerato uno dei maggiori scrittori di fantascienza, era anche un biochimico.

E in questo articolo fa due esempi legati in qualche modo alla chimica, che ci mostrano come non sempre le scelte siano facili, e come il giudizio su di esse debba essere meditato.

Il primo esempio che ho trovato molto interessante riguarda il chimico italiano Ascanio Sobrero e le sue ricerche sulla nitrazione di composti organici, che portarono alla sintesi prima della piroglicerina e successivamente della nitroglicerina. Sobrero però rimase molto colpito dagli incidenti che si potevano verificare nella manipolazione di questo prodotto. Decise quindi di studiarne altre proprietà in particolare quella di essere utile per la vasodilatazione sanguigna a basso dosaggio in campo farmacologico, nel trattamento delle insufficienze cardiache. Nello stesso periodo Alfred Nobel che soggiornava in quel periodo in Piemonte si dedicò a portare avanti lo studio degli esplosivi ed in particolare della nitroglicerina riuscendo a perfezionarne l’uso attraverso l’invenzione delle cartucce di dinamite, riempite di farina fossile o di segatura. L’industria degli esplosivi diventò quindi una realtà. Nel 1873 la fabbrica Dinamite Nobel di Avigliana entrò in funzione. Entrambi gli scienziati, soprattutto Nobel furono tormentati dal possibile utilizzo a scopi bellici delle loro scoperte. E Alfred Nobel decise per questa ragione di istituire il premio intitolato al suo nome. Certamente per lasciare un ricordo migliore di se.

Asimov però nel suo articolo ci ricorda come l’utilizzo della dinamite sia servito anche per rendere meno faticoso per esempio lo sviluppo delle reti ferroviarie.

Per secoli i lavori di edificazione di qualunque tipo di manufatto (Asimov cita per esempio l’edificazione di edifici) si erano serviti di una massa di operai non qualificati, ma prima ancora di schiavi. Quindi l’invenzione degli esplosivi non può essere vista unicamente in maniera negativa. Purtroppo la tendenza ad utilizzare le nuove invenzioni per scopi di guerra ed aggressione è un tema che deve essere affrontato probabilmente da etica e filosofia. Ma la storia della creazione dell’industria degli esplosivi ben si presta a far comprendere quanto non sia possibile esprimere giudizi affrettati su quanto la ricerca produce. E in particolare la ricerca in chimica.

Una seconda parte dell’articolo poi prende in esame l’aumento della vita media, dovuto allo sviluppo delle reti fognarie e dell’ingegneria ambientale. Ricordando che prima di queste realizzazioni molte malattie rendevano la vita più breve e meno piacevole. La difterite per esempio.

L’articolo riletto oggi è nel suo complesso attuale, forse un po’ troppo improntato ad un’esaltazione quasi positivistica del progresso scientifico. Ma è una lettura che fa riflettere. Senza tutte le scoperte degli ultimi due secoli, abbiamo mai provato ad immaginare quale potrebbe essere la nostra vita? Senza medicinali, reti fognarie, e per restare a scoperte in campo prettamente chimico la nostra stessa vita di relazione che si è modificata per esempio dopo l’introduzione della pillola anticoncezionale.

Tutto questo oggi è messo in discussione da problemi che ci pressano. E che si possono riassumere in un solo grande problema. La necessità di capire che non possiamo oltrepassare i limiti fisici su questo pianeta. Dobbiamo diventare parsimoniosi e capire che possiamo vivere in modo da garantire a tutti un tenore di vita accettabile, e ridurre alcune macroscopiche diversità. Ma rileggere questo articolo mi ha in qualche modo dato la possibilità di trovare il modo di rispondere a chi, quando si parla di questi temi non ha altre argomentazioni che quella di tacciarmi da retrogrado. Ed allo stesso tempo un articolo che può aiutare a confutare alcune tendenze odierne decisamente pericolose. Perché Asimov cita anche i progressi della medicina dovuti a Jenner inventore del vaccino e a Pasteur cui dobbiamo l’invenzione della moderna microbiologia.

Asimov chiude l’articolo con queste parole.

Adesso tiriamo le somme. La grande strada presa dalla scienza e dalla tecnologia moderne può anche non piacervi. Ma non ne esistono altre. Quindi potete scegliere: una vittoria possibile con la scienza e la tecnologia, o una sicura disfatta senza di loro. Che cosa scegliete?

Mai come adesso dobbiamo essere coscienti del tenore di vita di cui abbiamo potuto godere, almeno nel mondo occidentale. Ora dobbiamo affrontare cambiamenti che potrebbero modificare le nostre abitudini. E cambiare le abitudini è sempre faticoso, a qualunque livello. Ma dobbiamo in ogni caso utilizzare le conoscenze che già possediamo, orientandole verso queste nuove sfide. Cedere alle mitizzazioni non credo porti da nessuna parte.

 altri articoli sul tema:

https://ilblogdellasci.wordpress.com/2013/10/03/i-due-volti-della-chimica/

https://ilblogdellasci.wordpress.com/2013/05/02/molecole-a-due-facce/

 

Scienziate che avrebbero potuto vincere il Premio Nobel: Isabella Karle (1921-2017)

In evidenza

Rinaldo Cervellati

Il 3 ottobre dello scorso anno (2017), all’età di 95 anni è deceduta Isabella Helen Lugosky Karle che diede fondamentali contributi all’elucidazione di strutture molecolari con la tecnica dello scattering dei raggi X. Suo marito, Jerome Karle (1918-2013), ottenne il Premio Nobel per la Chimica nel 1985 insieme a Herbert Aaron Hauptman (1917-2011) per i loro successi nello sviluppo dei metodi diretti per la determinazione delle strutture dei cristalli.

Isabella Helen Lugosky nasce il 2 dicembre 1921 a Detroit da genitori immigrati polacchi, il padre dipingeva le lettere e i numeri dei tram della città, la madre gestiva un ristorante e cuciva tappezzerie di interni di auto per le case automobilistiche di Detroit. Frequentò le locali scuole pubbliche dove una insegnante di chimica la incoraggiò a approfondire lo studio delle scienze. Fu influenzata in questo senso anche dalla lettura di una biografia di Marie Curie, unica persona e donna a vincere due Premi Nobel, uno per la Fisica (1903), l’altro per la Chimica (1911), originaria della Polonia come i genitori di Isabella.

Terminato il liceo frequentò l’Università del Michigan, grazie a una borsa di studio. Scelse come materia principale chimica fisica, ottenendo il B.Sc. nel 1941 ancora dicannovenne e il Master nell’anno successivo. Durante gli studi incontrò Jerome Karle anche lui studente di chimica fisica. I due si sposarono nel 1942. Entrambi ebbero come supervisore delle loro tesi per il dottorato Lawrence Olin Brockway[1]. Isabella conseguì il Ph.D. nel 1944.

Isabella Lugosky Karle

Durante la 2a Guerra mondiale, Isabella lavorò, al Progetto Manhattan (una delle poche donne ammesse al Progetto), mettendo a punto tecniche per ottenere cloruro di plutonio da minerali contenenti l’ossido. Per qualche tempo insegnò chimica all’Università del Michigan.

Isabella Karle mentre fa lezione

Nel 1946 trovò impiego nel Laboratorio di Struttura della Materia del Naval Research Laboratory riunendosi così al marito Jerome che già vi lavorava da due anni. All’inizio si dedicò allo studio della struttura di molecole allo stato di vapore attraverso la diffrazione elettronica, logica continuazione del suo lavoro di tesi. Ben presto però si mise a collaborare alla ricerca del marito che stava esplorando, insieme al collega H.A. Hauptman, la possibilità di sfruttare lo scattering (diffrazione) dei raggi X per determinare le posizioni degli atomi nelle molecole in vari stati di aggregazione, gas, liquidi, solidi amorfi.

Mi occupo della parte pratica del progetto mentre Jerome di quella teorica, insieme formiamo una buona squadra che necessita di entrambe le competenze, disse Isabella [1].

Isabella e Jerome Karle al NRL

Prima del lavoro dei Karle e di Hauptman, i cristallografi potevano indagare le strutture cristalline e molecolari solo attraverso il processo lungo e laborioso della riflessione dei raggi X esaminando gli schemi di riflessione delle sostanze colpite dai raggi.

La messa a punto degli apparecchi a diffrazione e il trattamento analitico delle immagini di scattering permise la delucidazione più semplice e “diretta” delle strutture cristalline e molecolari, risparmiando tempo e guadagnando in precisione.

Per molti anni, questo metodo fu praticamente ignorato da molti scienziati.

È stato il lavoro di Isabella a richiamare l’attenzione sulla sua utilità, attraverso l’analisi e la pubblicazione delle strutture molecolari di molte migliaia di molecole complicate [2].

Isabella Karle mostra una struttura molecolare

Isabella Karle infatti mise a punto procedure pratiche basate sul lavoro teorico sviluppato dal marito per la determinazione delle fasi direttamente dalle intensità misurate degli scattering dei raggi X. Queste procedure sono state in seguito adottate in tutto il mondo e sono state essenziali per l’enorme diffusione della diffrattometria a raggi X per la soluzione di problemi in una vasta gamma di discipline scientifiche: chimica, biochimica, biofisica, mineralogia, scienza dei materiali, prodotti farmaceutici, drug design e chimica medicinale, solo per citarne alcune. Isabella Karle ha applicato personalmente il metodo alla delucidazione delle formule molecolari e alla determinazione delle conformazioni di steroidi, alcaloidi, prodotti di fotoriarrangiamento causati da radiazioni, nanotubi e in particolare peptidi. Questo tipo di informazioni strutturali ha fornito le basi per la chimica computazionale, le analisi conformazionali e la previsione delle proprietà di nuove sostanze. Ha pubblicato più di 350 articoli scientifici, in particolare sul Journal of the American Chemical Society e Acta Crystallographica.

Instancabile Isabella…

Quando Jerome Karle ricevette il Nobel nel 1985, disse che sperava che un giorno l’onore sarebbe spettato anche a Isabella.

All’Associated Press affermò: Non riesco a pensare a nessuno che sia più qualificato di mia moglie [1].

Va ricordato in particolare che Isabella Karle è stata una pioniera nella strutturistica di piccole molecole biologiche applicando il metodo con cui sono state poi verificate importanti ipotesi sulla struttura e funzione dei peptidi. Senza i suoi contributi pionieristici in questo campo, gran parte del lavoro che seguì non sarebbe stato possibile [2].

Isabella Karle ha ricevuto molti riconoscimenti per le sue ricerche, fra i quali il Premio Garvan dell’American Chemical Society, il Premio Gregori Aminoff dalla Società Reale Svedese, la Medaglia Bijvoet dalla Società Reale Olandese, nonché otto lauree ad honorem. E’ stata eletta membro della National Academy of Sciences, dell’American Academy of Arts and Sciences e della American Philosophical Society. Ha ricoperto il ruolo di Presidente dall’American Crystallographic Association. Nel 1993 è stata insignita del prestigioso Premio Bowe e del Premio per l’Avanzamento della Scienza dal Franklin Institute, nel 1995 ha ricevuto il premio National Academy of Sciences in Scienze chimiche e la National Medal of Science dal Presidente Clinton. Infine, nel 2007 ha ricevuto il Premio Merrifield dalla American Peptide Society.

Per più di 60 anni ha lavorato al Naval Research Laboratory insieme al marito. Entrambi si ritirarono nel 2009, in occasione del pensionamento la Marina USA organizzò una particolare cerimonia nella quale fu consegnata a entrambi la medaglia e il Certificato di Navy Distinguished Civilian Service, il più alto riconoscimento che la Marina USA può conferire a un dipendente civile.

Jerome e Isabella Karle alla cerimonia del pensionamento

Jerome Karle è morto nel 2013, Isabella Lugosky Karle, ritiratasi in una Casa di riposo di Alexandria in Virginia, si è spenta il 3 ottobre 2017.

Bibliografia

[1] E. Langer, Isabella Karle: Chemist who revealed molecular structures and helped husband win Nobel prize. Obituary. The Washington Post, 15 November 2017.

http://www.independent.co.uk/news/obituaries/isabella-karle-chemist-who-revealed-molecular-structures-and-helped-husband-win-nobel-prize-a8055781.html

[2] D. McKinney, Jerome and Isabella Karle Retire from NRL Following Six Decades of Scientific Exploration, US Naval Research Laboratory, press release, July 21, 2009.

https://www.nrl.navy.mil/media/news-releases/2009/jerome-and-isabella-karle-retire-from-nrl-following-six-decades-of-scientific-exploration

 

[1] Lawrence Olin Brockway (1907-1979), chimico fisico statunitense ha fatto tutta la carriera all’Università del Michigan, dove ha sviluppato le prime tecniche di diffrazione elettronica.

Giornata mondiale dell’acqua 2018 “La natura per l’acqua”

In evidenza

Mauro Icardi

Anche quest’anno si celebra la giornata mondiale dell’acqua. Il tema di quest’anno è “Acqua e natura”, ovverosia ricercare soluzioni basate sulla natura per affrontare le sfide idriche del nuovo millennio.

L’appuntamento annuale, sia pur simbolico va ovviamente ricordato. Dovrebbe servire a ricordarci che l’acqua è un bene indispensabile per la vita umana. Imprescindibile.

Credo che molte, troppe, persone si dimentichino di questo concetto di base, distratti dal semplice gesto di aprire un rubinetto e vedere scorrere l’acqua. Senza chiedersi cosa ci sia dietro, quali risorse in termini monetari e di personale qualificato siano necessarie per la corretta gestione. Ho sostenuto diverse volte, sulle pagine di questo blog, come sul tema acqua si faccia spesso confusione, e in qualche caso anche dell’inutile demagogia. Mi rendo conto che troppo spesso informazioni che oggi chiamiamo bufale o fake news, e che una volta avremmo definito chiacchiere da bar hanno purtroppo maggior riscontro di interesse ma provocano notevoli danni, che spesso sembra rendano inutili gli sforzi di informazione e di divulgazione. E’ un problema che ovviamente coinvolge tutte le tematiche riguardanti i temi ambientali. Qualcosa che i tecnici o i ricercatori non possono risolvere da soli, senza l’aiuto determinante di chi si interessa del comportamento umano. Io ho ricordi personali di come mia nonna, che già anziana doveva pescare acqua dal pozzo della cascina dove viveva, e che per questa ragione poneva molta attenzione all’uso che faceva dell’acqua. Anche nelle pratiche di irrigazione, dell’orto e dei vasi di fiori che disponeva sui davanzali. Questo ricordo è stato utile e formativo. Anche se succedeva nel Monferrato negli anni 70 e non in un paese africano ai giorni nostri.

Da tecnico mi sono reso conto che molte volte gli appelli al risparmio idrico vengano colpevolmente sottovalutati, anche se nutro fiducia che questo tipo di malcostume dovrà cessare.

La scorsa estate è stata significativa in questo senso, basta andare a rivedere le cronache per rendersene conto.

Tra le iniziative che si possono segnalare quella che si terrà a Roma a cura dell’Istituto Superiore per la protezione e la ricerca ambientale.

http://www.sinanet.isprambiente.it/gelso/eventi/xviii-giornata-mondiale-dell2019acqua-2018

I temi del convegno si focalizzano sulla corretta gestione delle acque sotterranee destinate al consumo umano. Quelle che necessitano di maggior protezione dalle contaminazioni di agenti inquinanti.

Oltre a questo i prelievi eccessivi, per esempio l’acquifero di Ogallala negli Stati Uniti dove i prelievi di acqua cosiddetta fossile (e quindi non rinnovabile) ammontano circa 26 km3 all’anno (consumo stimato nel 2000).

Sappiamo da anni che occorre incrementare non solamente il risparmio, ma il riuso e la diversa destinazione di vari tipi di acqua. Non ha molto senso utilizzare acqua potabile per i servizi igienici.

Il tema acqua e natura allarga la visuale anche alla protezione dei corsi d’acqua, delle aree umide. E si lega a quello dell’inquinamento ambientale in senso più ampio.

La natura ci ha già dato una mano in passato, considerando che per esempio le tecniche di depurazione classiche sono nate proprio trasferendo in impianti dotati di depurazione quelli che sono i processi autodepurativi naturali. Attualmente queste tecniche sono supportate da altre innovative, che migliorano il processo nel suo insieme. Ma nessuna tecnica, qualunque essa sia, potrà funzionare se non ci si rende conto di quanto sia importante l’acqua. Che è un diritto non solo per noi esseri umani, ma per le comunità ecologiche in generale. Questo credo vada sottolineato, perché spesso è un concetto dimenticato e non conosciuto. Per chiudere occorre anche doverosamente ricordare l’impegno che il settore chimico ha per la protezione dell’acqua. Non fosse altro che per il controllo a livello analitico di inquinanti vecchi e nuovi, che devono essere monitorati. Per i nuovi limiti di concentrazione e di rilevabilità che dal punto di vista quantitativo sono sempre più bassi.

Non siamo ovviamente i soli che si devono occupare di questo tema, ed è fondamentale la collaborazione con altre discipline scientifiche e tecniche. Anche questa collaborazione è imprescindibile. E in ultimo l’appello che sempre mi sento di dover ripetere. La collaborazione sia a scopo operativo, che divulgativo con le scuole e le Università. Educazione idrica e ambientale diffusa. A partire dalle scuole elementari. Quando ho tenuto lezioni nelle scuole ho sempre riscontrato interesse e arricchimento reciproco.

Auguro a tutti una buona giornata dell’acqua. Per chiudere ci sarebbero moltissimi aforismi che si prestano.

Ma questo tratto da “La ballata del vecchio marinaio” di Samuel Taylor Coleridge credo sia il più adatto.

“Acqua, acqua ovunque. E non una goccia da bere”

Entropia e biosfera.2.

In evidenza

Claudio Della Volpe

Continuiamo a presentare la relazione fra la biosfera e il flusso entropico che la attraversa, la cui prima parte è stata presentata qui. Il flusso di entropia può essere visualizzato molto più semplicemente dell’entropia stessa che appare un concettto molto astratto.

Dato che le sue dimensioni sono quelle di una energia diviso una temperatura diviso un tempo, il flusso di entropia corrisponderà a quello di una potenza diviso una temperatura; se la temperatura del sistema o della sua interfaccia è costante la potenza dissipata dal sistema sarà di fatto proporzionale al flusso entropico.

La biosfera, il sistema Terra, come lo abbiamo definito nel post precedente è di fatto una gigantesca macchina termica che trasforma in energia meccanica, potenziale e chimica la radiazione che arriva dal Sole e anche l’ormai flebile flusso di calore proveniente dal’interno della pianeta. In realtà quel flusso di entropia ha il suo corrispondente, il suo alter-ego diciamo così in quella che noi chimici chiamiamo energia libera, produzione di entropia e grandi gradienti di energia libera che lo sostengono: produzione e flusso di entropia e flusso di potenza che gli corrisponde.

Quanto è grande questo flusso?

Si sente spesso dire che il flusso di energia solare è decine di migliaia di volte superiore a quello che usiamo perciò non dobbiamo preoccuparci: se passiamo alle rinnovabili non avremo più problemi di energia. Ma è così?

Vediamo da vicino.

Certo se stimiamo la quantità netta di energia che arriva dal Sole essa è veramente grande, ma quanta di quella energia si può effettivamente sfruttare? In genere le macchine termiche tradizionali, quelle dotate di due sorgenti una calda ed una fredda hanno un limite di trasformazione che è dato dal famoso teorema di Carnot.

Efficienza= 1-Tbassa/Talta

Di fatto il criterio di Carnot è solo un limite teorico insuperabile; ma esistono altri criteri che consentono di arrivare semplicemente più vicino alla realtà della cose; uno di questi criteri è il cosidetto criterio endoreversibile (AJP, Courzon e Ahlborn, vol. 43 p. 22, 1975) frutto del cosiddetto approccio della termodinamica a tempo finito. L’idea di base è che per avere potenza da una macchina termica occorre considerare dei salti finiti di temperatura e che se si semplificano le condizioni di calcolo considerando ideale la macchina in se e attribuendo la irreversibilità al solo salto termico per di più semplificato considerando degli scambiatori “lineari” ossia in cui la trasmissione del calore è proporzionale al salto termico è possibile arrivare ad una condizione concreta: se la macchina termica così concepita lavora alla massima potenza, allora la sua efficienza effettiva diventa

Efficienza= 1-√(Tbassa/Talta).

Dato che le moderne macchine termiche sono il frutto di oltre due secoli di perfezionamenti e i materiali degli scambiatori sono anch’essi sofisticati l’approssimazione funziona alla grande, anche se pochi testi di fisica tecnica ne fanno menzione; in pratica gli ingegneri snobbano questo approccio mentre i teorici come Callen lo hanno accolto a braccia aperte (Callen, Thermodynamics and an introduction to thermostatistics, 2 ed. p. 125-127, 1985)

Per poter applicare questa stima al nostro caso, alla nostra particolare macchina termica, però dovremmo dimostrare che valgono le condizioni che ho detto prima.

Sulla approssimazione lineare del trasporto di calore nel nostro caso essa è certamente grossolana, anche se considerando valori medi la cosa è certamente applicabile; mentre è più facile immaginare di essere in una situazione di massima potenza e dunque di massima entropia prodotta.

Non ci sono criteri assoluti di evoluzione nei sistemi lontani dall’equilibrio, ma va facendosi strada l’idea che se c’è un numero sufficientemente alto di gradi di libertà l’evoluzione di un sistema seguirà la regola della massima produzione di entropia (MEPP); attenzione non confondete questa idea con quella di Prigogine, valida solo per i sistemi stazionari, in quel caso il sistema produce la minima quantità di entropia compatibile, ma quello è un sistema stazionario.

Dopo tutto l’idea della MEPP è una sorta di generalizzazione del 2 principio; nei sistemi isolati il sistema evolve verso il massimo di entropia; l’evoluzione verso il massimo seguirebbe a sua volta una legge di massimo: va verso il massimo di entropia e ci va alla massima velocità possibile; ripeto non ci sono dimostrazioni, si tratta di una proposta che di fatto è entrata a far parte di alcuni dei sistemi più importanti lontani dall’equilibrio, come quelli ecologici, ma non abbiamo dimostrazioni valide in assoluto (si pensi qui al principio di Odum , principio della massima potenza o anche al caso del teorema di Thevenin per i circuiti elettrici; la massima potenza di una batteria si ottiene quando la resistenza interna e quella esterna sono uguali; mi piace anche ricordare qui la discussione a riguardo di Enzo Tiezzi e Nadia Marchettini in un loro indimenticato libro di qualche anno fa (Che cos’è lo sviluppo sostenibile?: le basi scientifiche della sostenibilità …Donzelli Ed. 1999)

Con queste due ipotesi tuttavia il calcolo è facile: al confine fra Sistema Terra e spazio esterno che viene arbitrariamente posto sulla superficie dove il flusso di radiazione solare in ingresso eguaglia quella terrestre in uscita si hanno, tenendo conto della riflessione dell’albedo circa 235W/m2, come spiegato nel post precedente.

La superficie di cui parliamo è poco più di 500 milioni di chilometri quadri e dunque l’ordine di grandezza della potenza in ingresso è di 100.000 TW, centomila terawatt!! Contro questa sta il consumo di energia primaria dell’uomo di circa 18TW di potenza equivalente*; poco, ma abbiate pazienza, c’è un trucco o due da tener presenti:

  • anzitutto tutta questa energia che entra nella macchina termica usa come piastra calda una sorgente che è alla temperatura media della Terra, molti chilometri più in basso; è lì che la radiazione si assorbe, la temperatura per effetto serra è di circa 15°C, ossia 288K; alla superficie di uscita invece dove effetto serra non ce n’è la temperatura media è stimabile in 254K circa; dunque la nostra macchina che efficienza avrebbe in termini endoreversibili? Beh circa il 6%, perchè 1-√(Tbassa/Talta).=1- √(254/288)= 0.06 dunque solo 6000 TW arrivano come energia meccanica e servono prima di tutto a rimescolare l’atmosfera! A questa quantità occorre sommare sostanzialmente l’energia radiante catturata come fotosintesi, 200TW, e il debole flusso dal centro della Terra, ma sono solo 40TW, è un flusso che ci mette anni a forgiare la forma del pianeta e secoli ad accumulare l’energia meccanica che si scarica poi nei terremoti e nelle eruzioni.
  • L’umanità usa 18TW di energia primaria, intesa come potenza media continua, ma di fatto ne usa di più; perchè per esempio in questa potenza non c’è la quota di energia solare catturata nel nostro cibo; non c’è la quota di energia solare necessaria a pompare l’acqua come pioggia verso la sommità dei nostri bacini di accumulo e tanti altri servizi naturali che di fatto sfruttiamo di “stramacchio”; in totale Kleidon stima la quota di potenza umana media continua a circa 50TW, pensate più di quella che l’interno della Terra cede alla superficie!

Ora facciamo qualche precisazione; questa descrizione che vi ho fatto è una forma diversa da quella usata da Kleidon nei lavori che ho già citato e che ricito qui; ho cercato di essere molto semplice e ho usato un paio di strade concettuali che probabilmente non sono mai state pubblicate per questo scopo, e il mio risultato è uguale quello di Kleidon, che fa però un modello più dettagliato e preciso.

Dalla seguente figura vedete subito i rapporti espressi come potenze istantanee in terawatt e se li intendete come flussi di energia libera (per unità di tempo ovviamente) e li dividete per la temperatura assoluta dissipati dai vari processi avrete i flussi di entropia corrispondenti.

Dunque l’umanità non è tanto piccola; la quota di potenza catturabile qui giù in fondo all’oceano atmosferico non può superare i 6000TW; di questi la fotosintesi vecchia di miliardi di anni ne cattura 200 circa e noi ne rubiamo 50 in due quote: una relativa a quella che la fotosintesi aveva accumulato negli ultimi 400 milioni di anni come combustibili fossili ed un’altra che intercettiamo come servizi di mobilità di acqua e materiali vari (vento, onde, pioggia, etc)che trasformiamo in idroelettrico,eolico e altre cosette tipo cibo per 7 miliardi e mezzo; in tutto sono 50TW (18 è solo energia primaria esplicita diciamo così).

50TW sono all’incirca l’1% del totale di energia libera disponibile (sempre per unità di tempo), ma è molto di più se si pensa che la quota di attività fotosintetica intercettata ad ogni ciclo è dell’ordine del 15-20%. La biomassa terrestre dei vertebrati è praticamente tutta al nostro servizio, ne abbiamo il 98% (uomo e animali domestici mentre i leoni gli elefanti e i lupi e gli orsi sono il 2% e vogliamo anche ammazzarli ancora). Ma anche quella oceanica è talmente sovrasfruttata da essere ridotta al lumicino; dobbiamo interrompere la pesca ogni anno in molte zone per consentire un ripopolamento appena sufficiente.

Certo in una visione dysoniana (la sfera di Dyson ricordate?) potremmo sostituirci alla grande macchina termica; volete sapere come? Beh piazziamo alcune centinaia di milioni di chilometri quadri di pannelli al bordo dell’atmosfera; intercettiamo così il 20% dell’energia in arrivo, sono 20.000TW, energia elettrica pura mica quella povertà di 6000TW attuali da macchina termica!) e li usiamo noi per fare tutto: moto ondoso, venti, monsoni, luce diretta, tutto controllato da una adeguata intelligenza artificiale; vi sembra abbastanza grandioso?

A me sembra una follia ma il fatto è che siamo diretti da quelle parti se continuiamo a crescere così, e sono sicuro che troverei qualcuno che mi finanzierebbe una ricerca in merito. Povero me!!

Voi che ne dite?

* per avere il consumo annuo dovete moltiplicare questo numero per quello dei secondi: 18TWx31.5 milioni di secondi= oltre 500 exajoule

Riferimenti:

1) Axel Kleidon

Phil. Trans. R. Soc. A 2012 370, doi: 10.1098/rsta.2011.0316, published 30 January 2012

2) A.Kleidon R.D.Lorenz (Eds.)

Non-equilibrium Thermodynamics and the Production of Entropy

Life, Earth, and Beyond, Springer 2005

3) . Kleidon Physics of Life Reviews 7 (2010) 424–460

Una riflessione sulle Università (ed i loro musei).

In evidenza

Luigi Campanella, già Presidente SCI

L’attuale situazione dell’Università è caratterizzata da problemi nazionali relativi sia agli aspetti giuridico-istituzionali che a quelli economico-finanziari sia infine a quelli di rete, quella degli Atenei essendo caratterizzata da troppe macroscopiche differenze fra i suoi poli per essere un Sistema.

In più la riforma dei cicli didattici-sulla quale pesano ancora alcuni dubbi circa il suo reale interesse verso le esigenze del Paese, degli studenti, e soprattutto del territorio- non ha rinforzato il legame di questo con gli Atenei che su di esso insistono, mentre tale legame sarebbe una garanzia ad una visione articolata del suddetto Sistema.

Si pensi alle specificità locali in termine di differenza di impegno industriale, tradizioni sociali e culturali, di risorse endogene.

Quanto detto riguarda anche la Chimica ed i suoi corsi di laurea, ma rivendico per essi un risveglio culturale che credo dovrebbe essere assunto anche in altri settori. Se andiamo ad osservare la trasformazione della lauree in chimica e chimica industriale negli ultimi 60 anni possiamo affermare che essa ha soprattutto riguardato lo sforzo di coniugare un’impostazione precedente prevalentemente disciplinare con una tematica, nella convinzione che la conoscenza non possa essere smembrata in informazioni; da qui l’impegno ad aggregare queste attorno alle tematiche sociali e culturali del nostro tempo.

Questa impostazione punta a creare nei giovani una sensibilità nuova. Un esempio recente riguarda il riconoscimento della laurea in chimica fra quelle di interesse sanitario: mai ciò sarebbe potuto avvenire solo 30-40 anni fa, a quel tempo prevalendo un’impostazione di colonizzazione della scienza e della ricerca. Vorrei che tale processo sia sostenuto dalle forze industriali e sindacali, che si riapproprino di una visione della formazione e dell’educazione dei giovani che non sia solo strettamente didattica, ma anche culturale.

Peraltro il recupero delle esigenze culturali è di certo una delle caratteristiche del nostro tempo. Tale recupero è avvenuto, e sta avvenendo, non in chiave elitaria – se così fosse esso resterebbe un fenomeno tanto limitato nel tempo, nello spazio e nei riflessi di costume da costituire oggetto di studi piuttosto che di interesse sociale – ma con una dimensione di partecipazione e di iniziative che ha coinvolto non soltanto le istituzioni “pertinenti”, ma anche istanze del lavoro e della società.

In questo senso un ruolo particolare assumono, o meglio dovrebbero assumerere, le proiezioni di queste in quelle; ed allora quando ci si muove all’interno di strutture culturalmente avanzate ci si viene a trovare nella condizione ideale per concretizzare tali proiezioni.

Questo dovrebbe essere colto da chi si trova in questa fortunata situazione. Con tali premesse si comprende come, dinnanzi alle novità che l’attuale contingenza prevede e consente con la rivoluzione telematica, con i totem di Industria 4.0 e web 3.0, con le nuove capacità di rete e partecipazione, sia forse giunto il momento di una vertenza “cultura”, con un coordinamento scientifico attorno ad iniziative su Arte e Scienza, superando la discrasia fra Facoltà Scientifiche ed Umanistiche, su Ambiente e Territorio superando quella fra discipline soft e discipline hard, su tecnologie ICT integrando piuttosto che tagliando il rapporto con alcune istituzioni anche universitarie, telematiche, sui musei universitari e cultura,superando la visione storicamente solo artistica del ns Paese.

http://news.mytemplart.com/it/arte-e-scienza-le-universita-investono-musei-e-gallerie-scientifiche/

I Musei Universitari rappresentano una preziosa risorsa culturale e scientifica del nostro Paese. La qualità di collezioni, strumenti, pezzi unici in essi raccolti è riconosciuta dagli addetti, ma soltanto di recente intorno ad essi si è andato costituendo un notevole interesse civile e sociale. Al tempo stesso si assiste ad un altro fenomeno: il turismo sempre più assume connotati anche culturali ed i tour operator sempre con maggiore frequenza inseriscono- a richiesta dei loro utenti- la visita di musei scientifici, oltre che di arte, come nella tradizione più riconosciuta del nostro Paese,all’interno dei loro programmi ed itinerari. In tale doppio contesto una rete di musei universitari attiva in tutto il territorio nazionale può rappresentare preziosa occasione di diffusione della cultura delle nostre tradizioni artistiche e scientifiche ed al tempo stesso una fonte di risorse.

Gli alberi e le siepi Lego vengono dalla canna da zucchero.

In evidenza

Rinaldo Cervellati

Lego plants to be made from plants è il titolo originale e accattivante di una interessante notizia riportata da Chemistry & Engineering news on-line del 6 marzo scorso, a firma Alex Scott.

Lego, la società danese di giocattoli, famosa per i suoi mattoncini di plastica, ha iniziato a fabbricare gli elementi botanici, come foglie, cespugli e alberi, con polietilene (PE) ottenuto dalla lavorazione della canna da zucchero.

L’iniziativa è un primo passo del piano annunciato dalla società nel 2015 per ridurre il suo impatto sull’ambiente eliminando gradualmente la plastica derivata da combustibili fossili. Il PE non è però impiegato per gli altri mattoncini iconici e da costruzione, che sono ancora costituiti da acrilonitrile-butadiene-stirene (ABS), un copolimero di tre prodotti della petrolchimica.

Il fornitore del polietilene “organico” è l’azienda brasiliana Braskem, titolare di un processo per convertire l’alcol etilico dalla canna da zucchero in etilene, il monomero del polietilene. Lo zucchero sarà certificato come materia prima nella produzione di “bio”polietilene da Bonsucro, un’organizzazione per l’uso sostenibile dello zucchero di canna.

Piantagione di canna da zucchero

Secondo la Braskem, ogni tonnellata di “bio”polietilene prodotto consuma 3,09 tonnellate di metri cubi di anidride carbonica dall’atmosfera.

Inizialmente, la Lego userà il “bio”polietilene solo per gli elementi botanici, ovvero l’1-2% delle sue parti in plastica.

“Siamo orgogliosi che i primi elementi Lego realizzati con materie plastiche di origine sostenibile siano in produzione e quest’anno saranno presenti nelle scatole Lego”, afferma Tim Brooks, vice presidente dell’azienda per la sicurezza ambientale.

Tim Brooks

Lego non si è pronunciata sull’estensione del biopolietilene anche agli altri elementi iconici e ai mattoncini. Trovare il materiale giusto per tutti presenta una particolare sfida. Nel 2012, Styrolution, uno dei fornitore di ABS alla Lego, ha dichiarato a C&EN che la materia prima deve avere determinate specifiche in modo che i blocchi si incastrino senza uno sforzo eccessivo che potrebbe danneggiarli. Il polietilene, che non è resistente come l’ABS, potrebbe non possedere questa caratteristica sostiene Styrolution.

Nel 2014, Lego ha utilizzato 77.000 tonnellate di materie prime per realizzare oltre 60 miliardi di pezzi. Braskem ha la capacità di produrre 180.000 tonnellate all’anno di “bio”polietilene nello stabilimento di Rio Grande do Sul, in Brasile.

Lego, nell’annunciare l’iniziativa del polietilene “organico”, si è comunque impegnata a investire 150 milioni di dollari e assumere più di 100 dipendenti per la ricerca e lo sviluppo di materie prime sostenibili per sostituire i polimeri a base di derivati del petrolio entro il 2030.

Lego ha collaborato con il World Wildlife Fund e con Bioplastic Feedstock Alliance al progetto. “La decisione del Gruppo Lego di proseguire la ricerca di materie plastiche da materie prime sostenibili rappresenta un’incredibile opportunità per ridurre la dipendenza da risorse limitate”, ha affermato Alix Grabowski, senior program officer del WWF.

(Fin qui il testo è Tradotto e adattato da c&en news, march 6, 2018.)

Ma non è tutto oro quello che luccica, già nel 2013 uno studio di Valutazione del Ciclo di Vita (LCA = Life Cycle Assessment) del biopolietilene fu commissionato dalla Braskem alle E4tech e LCAworks [1]. Queste valutazioni hanno lo scopo di esaminare la somma delle emissioni e l’impatto ambientale totale dalla materia prima (in questo caso la canna da zucchero) alla fine del prodotto dopo l’uso (riciclaggio, compostaggio, discarica). Sia questo studio, sia le successive indagini condotte da gruppi di ricerca in scienze ambientali europei [1] e americani [2] evidenziarono alcune criticità, quali ad esempio la deforestazione per dare spazio a colture intensive di canna da zucchero, l’uso di fertilizzanti e pesticidi nelle colture stesse, l’impiego di energia da combustibili fossili per la trasformazione dello zucchero in alcol etilico e poi in etilene e nel polimero, ecc. Tutto ciò avrebbe ridotto di molto il vantaggio di una minor emissione di CO2 nell’atmosfera.

I suggerimenti per limitare questi svantaggi sono ridurre il più possibile le sorgenti delle criticità e valutare il modo migliore di smaltimento, fra riciclaggio e compostaggio.

Nota. A costo di sembrare ovvio, a beneficio dei non chimici che ci leggono desidero ricordare che il polietilene si ottiene dall’etilene (entrambi prodotti chimici) attraverso un processo chimico che chiamiamo polimerizzazione. Il fatto che l’etilene si ottenga da derivati del petrolio o dalla canna da zucchero e che il prodotto lo si chiami polietilene o biopolietilene non cambia nulla nella sua struttura chimica a parità di numero di etileni nel prodotto stesso. Quello che cambia è l’impatto ambientale che potrebbe essere minore nel caso di etilene ottenuto dalla canna da zucchero (attraverso procedimenti chimici).

Bibliografia

[1] [1] http://www.braskem.com.br/Portal/Principal/Arquivos/ModuloHTML/Documentos/1204/20131206-enviro-assessment-summary-report-final.pdf

[2] I. Tsiropolous et al. Life cycle impact assessment of bio-based plastics from sugarcane Ethanol., Journal of Cleaner Production, 2015, 90, 114-127.

[3] T.A.Hottle, M. M.Bilec, A. E.Landis, Biopolymer production and end of life comparisons using life cycle assessment., Resources, Conservation and Recycling, 2017, 122, 305-326.

Acque amare

In evidenza

Mauro Icardi

Nella mia formazione personale il tema della tutela delle risorse idriche e dell’inquinamento idrico è presente direi da quando ho iniziato il percorso scolastico, cioè dalla scuola elementare. Oltre ad aver seguito lezioni scolastiche, ero interessato e mi preoccupavo di questo tema.

Gli anni 70 come sappiamo sono stati quelli in cui per la prima volta il tema dell’inquinamento ( non solo quello idrico) arrivò anche all’opinione pubblica. Finendo poi per diventare un mantra al quale forse troppi si sono abituati. A distanza di decenni la situazione della risorsa idrica mostra sia segnali incoraggianti, che situazioni molto preoccupanti che dovrebbero essere valutate con attenzione. E a cui si dovrebbero destinare finanziamenti e risorse.

In Italia per molti anni, leggendo libri sia di divulgazione, che testi scolastici o universitari si citavano molto spesso i fiumi Lambro, Seveso, Olona come i casi più eclatanti di inquinamento. Ma anche il caso del fiume Po. La promulgazione della legge Merli diede l’avvio alla costruzione dei depuratori, ai controlli sugli scarichi. Fu un importante primo passo. Che di solito è sempre il più faticoso.

Ma se a distanza di decenni osserviamo la situazione a livello mondiale, possiamo constatare che c’è ancora molto lavoro da fare.

Molti fiumi in tutto il mondo sono sottoposti a grave stress per diverse ragioni. Inquinamento, pesca, dighe e canali artificiali sono le principali cause dello sconvolgimento di interi ecosistemi che si sono sviluppati nel tempo lungo i corsi d’acqua.  Alcuni fiumi sono ancora oggi l’esempio di quello che per noi furono i fiumi Italiani. Ed è abbastanza sconfortante, anzi piuttosto triste vedere che ci sono alcuni fiumi in condizioni davvero molto precarie.

Il Rio Bravo o Rio Grande è il più importante confine naturale tra gli Stati Uniti e il Messico: a causa della costruzione di dighe e canali di irrigazione per deviare le acque verso i campi coltivati e le città, gravi siccità hanno colpito l’area. Il volume del grande fiume diminuisce giorno per giorno, e le sue acque sono inquinate dagli scarichi di varie industrie.

Il Danubio soffre di un eccesso di nutrienti, soprattutto da fertilizzanti. A questo problema si aggiunge un cattivo trattamento delle acque reflue, che aumenta l’inquinamento.

Un bambino nuota nel Gange, fiume sacro per gli indiani

 Il fiume Gange è poi l’esempio di una forte contraddizione. Situato nel nord dell’India, questo fiume, considerato sacro per milioni di indiani che vi si recano in pellegrinaggio, è diventato una discarica di resti umani, industriali e corpi animali. Circa un miliardo di litri di liquami non trattati vengono scaricati ogni giorno nel fiume. La rapida crescita della popolazione dell’India, insieme a normative permissive del settore, ha portato enormi pressioni sul corso d’acqua più importante del Paese. Migliaia di corpi umani e animali vengono cremati sulle sue rive o gettati nella corrente, nella speranza che le loro anime possano accedere al Paradiso.

Per chiudere questo triste elenco (per altro del tutto parziale) possiamo ancora citare il fiume Yangtze.

 Rifiuti, pesticidi e fertilizzanti hanno quasi annientato il fiume più lungo del continente asiatico. Dalla sua origine nell’altopiano del Tibet, lo Yangtze si estende per quasi 6.400 chilometri, sfociando nel mare dal porto di Shanghai. La sua devastazione è stata causata dallo sviluppo di infrastrutture, di centrali idroelettriche, inondazioni, deforestazione, inquinamento, sedimentazione, distruzione delle zone umide e interruzione dei flussi idrici.

Tutto questo lascia perplessi. Si sono ripetuti negli anni errori già fatti. Eccessiva costruzione di dighe che hanno finito per modificare l’equilibrio idrogeologico. La considerazione totalmente sbagliata, ma che si sarebbe già dovuta superare che esistesse un potere autodepurativo o di diluizione degli scarichi praticamente infinito. Ma se tutto questo poteva essere comprensibile a metà ottocento, quando il fenomeno chiamato la “grande puzza di Londra” diede il primo segnale di allarme dell’effetto disastroso dei reflui non trattati nelle acque di un fiume, questa situazioni oggigiorno lasciano sbigottiti.

Il fiume Yangze presso Shangai

 E ovvio che si debbano adottare tutte le misure del caso. E che questo lavoro debba coinvolgere più soggetti in un grande lavoro. Ma rimane come sospeso il problema fondamentale. Che a mio parere non credo sia esagerato definire antropologico, ancor prima che sociale. La presa di coscienza che occorre che siano cambiati diversi atteggiamenti. Che insistere nel considerare i fiumi i collettori di scarico non solo dei nostri rifiuti metabolici , o dei nostri residui industriali, ma anche della nostra incapacità di immaginare e costruire un nuovo modo di pensare a come utilizziamo le risorse del pianeta, in special modo quelle non rinnovabili. Qualcuno potrebbe obbiettare che in teoria l’acqua non è una risorsa non rinnovabile, ed avrebbe ragione. L’acqua ha un ciclo. Ma questo ciclo è ormai disequilibrato. Esistono innumerevoli tecniche di trattamento delle acque. Alcune sono tecniche mature, altre emergenti. Ma è un errore concettuale grave quello di affidare le nostre speranze, in maniera acritica alla sola tecnologia. E quindi le riserve di acqua di buona qualità vanno tutelate. E vanno differenziati gli usi dell’acqua. Occorre un cambiamento di mentalità, ed occorre iniziare il prima possibile a metterlo in pratica. La chimica ha davanti a se la necessità di modificare i propri cicli di produzione, attivandosi per trovare il modo di non produrre molecole biorefrattarie. Lo sta già facendo attraversando un suo cambiamento intrinseco. Ma non può essere vista come la sola responsabile. E’ importante un grande mutamento che per prima cosa ci faccia riscoprire il valore della consapevolezza. Tutto dovrebbe partire da questo. Dal ritornare a guardare la realtà delle cose.

Scienziate che avrebbero potuto vincere il Premio Nobel: Katharine Blodgett (1898-1979)

In evidenza

Rinaldo Cervellati

Anche questo nome figura fra le donne che la sessione “Ladies in Waiting for Nobel Prizes” nel meeting dell’American Chemical Society (agosto 2017) ha inserito fra le scienziate che avrebbero meritato il Premio Nobel. Chi era Katharine Blodgett e quali contributi ha fornito per l’avanzamento della scienza? Ne parliamo in questo post.

Katharine Burr Blodgett nasce a Schenectady il 10 gennaio 1898 (stato di New York), seconda figlia di Katharine Burr e George Blodgett. Suo padre, un avvocato specializzato in brevetti per la General Electric, fu tragicamente ucciso da un ladro penetrato nella loro casa poche settimane prima della nascita di Katharine. Lasciò la sua famiglia in buone condizioni economiche, consentendole di trasferirsi a New York poco dopo la nascita della figlia, e poi in Francia nel 1901.

Undici anni dopo, nel 1912, la famiglia Burr Blodgett tornò a New York dove Katharine fu iscritta alla Rayson School. In questa scuola ricevette un’istruzione equivalente a quella dei maschi della sua età mostrando subito un interesse per la matematica. La giovane finì precocemente il liceo all’età di 15 anni, ottenendo una borsa di studio per il Bryn Mawr College.

Katharine Burr Blodgett

Al college studiò matematica e fisica, eccellendo in entrambe e cominciò a pensare cosa avrebbe desiderato fare dopo il diploma. Era interessata alla ricerca scientifica e nella pausa invernale dell’ultimo anno di college gli ex-colleghi di suo padre le presentarono il Dr. Irving Langmuir[1] ricercatore chimico al General Electric Research Laboratory at Schenectady [2]. Langmuir le fece visitare la struttura rendendosi subito conto delle attitudini e del potenziale della ragazza, poi definita da lui sperimentatore di talento con una rara combinazione di abilità teoriche e pratiche. Le consigliò quindi di proseguire gli studi e poi presentare domanda di impiego alla General Electric. Blodgett seguì il consiglio ottenendo dapprima il B.A. al Bryn Mawr e poi il M.Sc. in fisica all’Università di Chicago nel 1918 discutendo una ricerca sulle capacità di adsorbimento del carbone per maschere antigas. Nel 1920 fu assunta come assistente ricercatrice di Langmuir, prima donna ricercatrice nei laboratori della General Electric. Inizialmente Blodgett collaborò alle ricerche di Langmuir sull’adsorbimento e evaporazione dei gas sui filamenti di tugnsteno usati nelle lampadine. Langmuir si stava occupando anche di chimica delle superfici liquido – liquido, in particolare era riuscito a ottenere strati sottilissimi di olio su superfici acquose e Blodgett si concentrò attivamente in questo campo dove diede successivamente suoi contributi originali.

Nel contempo le fu offerta una partecipazione nel programma di dottorato in fisica dell’Università di Cambridge, ottenne il dottorato nel 1926, prima donna a ricevere un Ph.D. in fisica da quella Università. Fra il 1920 e i primi anni ‘30 pubblicarono insieme importanti lavori, uno dei quali sulla forma a molla del tungsteno per mantenere sempre tesi i filamenti [1-4].

Svilupparono una tecnica che permetteva di ricoprire superfici acquose, metalliche o vetrose con strati monomolecolari di lipidi, proteine o polimeri e di verificarne lo spessore [5].

Nel 1932 Lagmuir aveva ottenuto il Premio Nobel per la Chimica per le sue ricerche sperimentali e teoriche sulla chimica delle superfici.

Blodgett continuò, estendendolo, il lavoro sulla deposizione di successivi strati monomolecolari di varie sostanze su superfici di materiali diversi. Nella nota a piede della prima pagina del suo fondamentale articolo del 1935 [6], Blodgett scrive:

Gli esperimenti descritti in questo articolo sono stati avviati in collaborazione con il Dr. Irving Langmuir e sono proseguiti mentre lui era all’estero. L’autrice è in debito con il dottor Langmuir per averla spinta a sviluppare ulteriormente il metodo descritto nell’articolo precedente*, e per aver contribuire con molti importanti suggerimenti che sono inclusi in questo lavoro[6].

*Con articolo precedente Blodgett si riferisce a una nota preliminare da lei inviata alla stessa rivista e pubblicata l’anno precedente [7].

Nell’articolo viene descritto lo strumento e la tecnica per sovrapporre rivestimenti monomolecolari uno alla volta su vetro o metallo. Immergendo ripetutamente una piastra metallica in acqua ricoperta da uno strato di sostanza grassa (molecole a terminazione idrofila e coda idrofoba), Blodgett riuscì a impilare centinaia di strati di sostanza sulla piastra con precisione molecolare. L’apparecchio usato e perfezionato da Blodgett è oggi conosciuto come trogolo di Langmuir-Blodgett (trough).

Schema e apparecchio di Langmuir-Blodgett

Blodgett individuò i possibili usi pratici di questa tecnica: utilizzando lo stearato di bario ricoprì una lastra di vetro su entrambi i lati con strati monomolecolari di questa sostanza fino a che la luce riflessa dagli strati annullasse quella riflessa dal vetro, rendendolo più trasmettente del 90% rispetto a prima. Aveva realizzato un vetro “invisibile” [8]. Il vetro non riflettente fu usato per la prima volta in cinematografia negli obiettivi delle cineprese per il famoso film Via Col Vento (1939), la nitidezza dei colori fece molta presa sul pubblico e sugli addetti ai lavori, sicchè l’industria presto cominciò a fare largo uso del vetro di Blodgett.

Durante la 2a Guerra mondiale il vetro antiriflesso fu impiegato anche nei periscopi dei sommergibili e per le telecamere degli aerei da ricognizione. Blodgett contribuì inoltre allo sforzo bellico riprendendo la sua vecchia tesi di master, rese più efficaci i filtri delle maschere antigas e inventò un dispositivo per eliminare il ghiaccio dalle ali degli aerei permettendo ai piloti volare su zone prima considerate troppo pericolose.

Blodgett inventò anche l’indicatore di colore, uno strumento per misurare lo spessore dei rivestimenti molecolari depositati sul vetro. Questo “calibro” si basa sul fatto che spessori diversi dei rivestimenti imprimono al vetro colori diversi. Mentre esaminava la stratificazione dell’acido stearico su una lastra di vetro, si rese conto che l’aggiunta di ogni strato, spesso circa 2 / 10.000.000 di pollice (circa 2 nm), cambiava in modo percettibile il colore della lastra. Prima della sua invenzione, i migliori strumenti di misurazione erano accurati fino a pochi millesimi di centimetro. Il suo “calibro di colore” mostra quindi un’alta precisione nell’individuare la progressione dei colori e il loro corrispondente spessore.

Katharine Blodgett al lavoro

Come afferma Jacobs [8], si può dire che le migliori scoperte e invenzioni di Blodgett sono state “invisibili”, ma l’influenza che hanno avuto sulla società è visibile e chiara. Oggi il vetro non riflettente, basato sulla scoperta di Blodgett, viene utilizzato per schermi di computer, occhiali, parabrezza e quasi altro oggetto che richiede una superficie perfettamente trasparente. Gli scienziati stanno ancora studiando i film di Blodgett per cercare di individuare nuovi usi per questa tecnologia nei microchip e nei sensori.

Per i suoi lavori ottenne prestigiosi riconoscimenti, fa i quali l’Achievement Award dall’American Association of University Women (1945) e la prestigiosa Medaglia Francis Garvan dall’American Chemical Society (1951) per il suo lavoro sui film monomolecolari.

Nella sua lunga carriera in General Electric, Katharine Blodgett ha ottenuto otto brevetti USA dal 1940 al 1953, due soli dei quali in collaborazione e ha pubblicato 30 articoli su riviste scientifiche, raggiungendo anche in certa misura la popolarità apparendo in servizi sui noti periodici Life e Time. Ciononostante è riuscita a mantenere riservata la sua vita privata parlando solo delle sua vita professionale e del suo successo come donna.

Dopo il suo ritiro dalla General Electric nel 1963, Blodgett ha vissuto la sua pensione in una Casa di Riposo per donne single. Muore il 12 ottobre 1979 all’età di 81 anni.

Nota. Nel meeting citato all’inizio del post, una delle partecipanti ha suggerito che il Nobel per la chimica 1932 avrebbe potuto essere condiviso da Langmuir e Blodgett. Tuttavia a quel tempo Blodgett non aveva ancora sviluppato i suoi importanti contributi originali, come la ricopertura multistrato, la tecnica di misura degli spessori monomolecolari e relative applicazioni. La mia personale opinione è che avrebbe potuto ottenere il Nobel dopo il 1940.

Chi fosse interessato a ulteriori informazioni biografiche, può trovarle in:

  1. Venezia, Katharine Burr Blodgett: An Innovative, Accomplished Schenectady Native,

http://thefreegeorge.com/thefreegeorge/schenectady-katharine-burr-blodgett/

o in: http://physicstoday.scitation.org/doi/10.1063/1.2913969

Irving Langmuir and Katharine Burr Blodgett

https://www.sciencehistory.org/historical-profile/irving-langmuir-and-katharine-burr-blodgett

oltre che nella citazione bibliografica [8]

Bibliografia

[1] I. Langmuir, K.B. Blodgett, Current Limited by Space Charge between Coaxial Cylinders., Phys. Rev., 1923, 22, 347-356.

[2] I. Langmuir, K.B. Blodgett, Current Limited by Space Charge between Concentric Spheres., Phys. Rev., 1924, 24, 49-59.

[3] I. Langmuir, S. MacLane, K.B. Blodgett, The Effect of end Losses on the Characteristics of Filaments of Tungsten and other Materials, Phys. Rev., 1930, 35, 478-503.

[4] K.B. Blodgett, I. Langmuir, The Design of Tungsten Springs to the Hold Tungsten Filaments Taut., Rev. Sci. Instr., 1934, 5, 321-332.

[5] K.B. Blodgett, I. Langmuir, Accomodation Coefficient of Hydrogen; A Sensitive Detector of Surface Films., Phys. Rev., 1932, 40, 78-104.

[6] K.B. Blodgett, Films Built by Depositing Successive Monomolecular Layers on a Solid Surface., J. Am. Chem. Soc., 1935, 57, 1007-1022.

[7] K.B. Blodgett, Monomolecular Films of Fatty Acids on Glass, J. Am. Chem. Soc., 1934, 56, 495

[8] R. Jacobs, The Invisible Woman, Chemical Heritage Magazine, 2014, 32, 7.

https://www.sciencehistory.org/distillations/magazine/the-invisible-woman

[1] Irving Langmuir (1881-1957) chimico fisico americano ha effettuato ricerche importanti in diversi campi, dai filamenti per lampadine alla teoria del legame chimico, dalla chimica delle superfici alla fisica del plasma. Premio Nobel per la Chimica 1932 con la seguente motivazione: “per le sue scoperte ed i suoi studi sulla chimica delle superfici”.

[2] Scienziati come W.R.Whitney, W.D. Coolidge e Hull avevano contribuito a rendere il General Electric Research Laboratory al tempo stesso uno dei più quotati centri per la ricerca di base e più fecondi nella scienza applicata.

Entropia e sistema Terra.1.

In evidenza

Claudio Della Volpe

Abbiamo esaminato in un precedente post la relazione fra entropia e corpo umano, fra flusso entropico e organizzazione corporea; oggi parleremo di flusso entropico e sistema Terra.

Anche la biosfera come il corpo umano è un sistema aperto; infatti se ne delimitiamo i confini in modo da escludere l’interno della Terra, possiamo immaginare che sia un vero e proprio superorganismo che riceve energia radiante dal sole riemettendola verso lo spazio e solo in piccola quantità dall’interno del pianeta al quale invece attinge e verso il quale restituisce quantità molto grandi di materiale.In alternativa possiamo immaginare una definizione più semplice, la intera crosta terrestre come un sistema Terra; in tal caso parliamo di un sistema chiuso, che scambia essenzialmente energia col Sole e il vuoto dello spazio, ma che non scambia che pochissima materia (pochissima su base cosmica ovviamente raggi cosmici e meteoriti in entrata per migliaia di tonnellate all’anno e idrogeno in uscita, dato che l’idrogeno atomico o molecolare così leggero può raggiungere facilmente la velocità di fuga, 3kg/sec, ossia 105 ton/year [http://faculty.washington.edu/dcatling/Catling2009_SciAm.pdf]).

La delimitazione esatta del sistema può essere critica per certi aspetti, ma per quel che vogliamo fare oggi ci basta questa definizione più semplice.

E’ l’approccio scelto dal solito Aoki al cui lavoro ci siamo già rifatti per il corpo umano, che in un lavoro di poco successivo spostò la sua attenzione su questo particolare sistema e su tutti quelli analoghi costituiti dai pianeti del sistema solare.Con questa impostazione il sistema Terra è un sistema diabatico (senza la a-!!!), ossia che scambia energia non sotto forma di lavoro ma essenzialmente di energia radiante.

Siamo in una situazione non dissimile da quella del corpo umano del post precedente, ma non identica; il flusso energetico radiante dal Sole verso la Terra e il flusso entropico che vi si accompagna però si distribuisce su una superficie crescente con il quadrato della distanza, per cui il flusso energetico e quello entropico per unità di superficie si possono calcolare tenendo conto di questo fattore geometrico; inoltre la Terra è a sua volta una sfera che intercetta la radiazione lungo la sua sezione massima e la ripartisce nella media su una superficie della sfera stessa che è 4 volte maggiore dell’area di intercettazione del cerchio massimo.

Il flusso di energia in entrata è dunque di circa 342W/m2, che corrisponde a circa 0.08W/ m2 K di entropia in ingresso.

Infine una parte di questo flusso energetico ed entropico va incontro ad una riflessione significativa (l’albedo che esprime questo fatto è di 0.3, ossia solo il 70% della radiazione incidente penetra nel sistema). E il flusso radiativo che è in equilibrio viene poi riemesso alla temperatura della Terra (che possiamo stimare senza effetto serra ai bordi dell’atmosfera a 254K); se rifacciamo con Aoki il conto otteniamo adesso sempre la stessa potenza radiativa di 342W/m2, ripartita fra una riflessione ed una riemissione vera e propria di 235W/m2 che corrisponderà adesso ad un flusso entropico in uscita negativo di 1.27 W/ m2 K; la somma dei due flussi dà circa -1.19 W/ m2 K; questo flusso in uscita di cui la Terra si libera costantemente corrisponde alla formazione di ordine sulla sua superficie sia di strutture atmosferiche che della biosfera.

Usando una scala con unità di misura miste MKS-CGS (W/ cm2 K) quindi con numeri circa 10000 volte minori, Aoki calcola il flusso entropico in uscita dei pianeti del sistema solare che vi mostro qui:

Si vede qui che tale flusso entropico si riduce enormemente con la distanza dal Sole. Potremmo concludere che una delle condizioni necessarie (ma non sufficienti) della vita e della struttura atmosferica è questo parametro di flusso entropico.

Un altro autore, Kleidon, ha poi esteso queste riflessioni in un articolo (Phil. Trans. R. Soc. A (2012) 370, 1012–1040) ed in un libro(A.Kleidon R.D.Lorenz (Eds.) Non-equilibrium Thermodynamics and the Production of Entropy Life, Earth, and Beyond, Springer 2005).

Kleidon va più a fondo di Aoki, partendo dalle considerazioni originali di James Lovelock, chimico, che fu inventore dell’ECD, uno dei rivelatori basici della gascromatografia; ma anche uno dei maggiori studiosi di questi temi; fra l’altro concepì insieme con Lynn Margulis l’idea di Gaia, la biosfera intesa come un superorganismo che di fatto si identificherebbe con essa ed in grado attraverso vari meccanismi di retroazione positiva e negativa di controllarne la storia, sforzandosi di mantenere constanti le sue condizioni, in sostanza difendendo la propria esistenza, nulla di vitalistico, un semplice ma grandioso meccanismo omeostatico.

http://didawiki.cli.di.unipi.it/lib/exe/fetch.php/modellisticaambientale/daisyworld.pdf

Lovelock, ingaggiato dalla NASA ai tempi delle prime sonde solari, sostenne che la semplice osservazione della composizione atmosferica lontana dall’equilibrio è un indizio molto forte dell’esistenza della vita.

Per esempio, come sappiamo la nostra atmosfera è lontanissima dall’equilibrio termodinamico. Ossigeno ed azoto possono reagire per formare ossidi di azoto, ma per nostra fortuna la energia di attivazione del processo è elevata, ma anche la presenza di metano è un indizio di forte non equilibrio, come lo è anche la situazione di non equilibrio del vapore acqueo che non è a saturazione, cioè in condizione di equilibrio. Lovelock sviluppò un modello della interazione fra biosfera ed energia solare che chiamò Daisyworld, il pianeta delle margherite in cui mostrò come (senza alcun vitalismo o religione) una forma di vita semplice può contribuire ad equilibrare la temperatura del suo pianeta rispondendo e resistendo al costante incremento di radiazione solare che è basico della vita del nostro Sole (negli ultimi 4 miliardi di anni la radiazione solare è cresciuta di circa il 30% ma la temperatura è rimasta sostanzialmente costante e questo è uno dei motivi fondamentali per cui la percentuale di CO2 atmosferica si è ridotta nel tempo su scala geologica, da decine di migliaia di ppm a poche centinaia)

Kleidon porta avanti questa riflessione in modo più dettagliato dividendo il Sistema terra nelle sue componenti ed analizzando in dettaglio gli scambi di materia ed energia e i flussi di entropia fra le sue parti e chiedendosi quale sia l’importanza della attività umana in questo quadro; ve ne parlerò in un prossimo post.

(continua)

Ministri e commissari.

In evidenza

Luigi Campanella, già Presidente SCI

In Italia si dice che ci siano parecchi commissari tecnici della nazionale di calcio, nel senso che molti parlano come se occupassero quella posizione.

Credo che questa immagine possa tranquillamente trasferirsi, mutatis mutandis, ad altri settori, per esempio l’ambiente di cui molto parlano non sempre a proposito, proprio come avviene per la nostra nazionale dello sport più popolare. Voglio anche io per una volta tanto adeguarmi a questa aspirazione: cosa farei se fossi il nuovo Ministro dell’Ambiente (siamo alla soglia di una nuova legislatura)?

Partirei dalla constatazione che la pressione umana sulla natura ed i conseguenti modelli economici devono essere modificati nel rispetto di un maggiore equilibrio fra società e generazioni diverse. Il capitale umano e quello naturale, alternativi a quello materiale, sono risorse che devono essere esaltate e valorizzate.

Il secondo punto importante lo individuo nel fatto che il nostro Paese fa parte di comunità mondiali all’interno delle quali ha siglato impegni ed accordi,in particolare applicazione Agenda 2030 ed Accordo di Parigi sui cambiamenti climatici. Il terzo punto riguarda quanto è stato avviato: credo che sia profondamente sbagliato applicare il metodo della lavagna bianca, cioè del ricominciare sempre da zero. La Strategia Nazionale per lo Sviluppo Sostenibile, il Piano Nazionale per l’Adattamento ai cambiamenti climatici, la nuova Strategia Energetica Nazionale (SEN), l’introduzione nel codice penale dell’ecoreato, la legge n. 221/2015 che ha introdotto alcuni strumenti per consentire allo Stato di raggiungere l’obbiettivo di un modello economico più sostenibile, istituendo il Comitato Nazionale per il capitale naturale ed il Catasto dei Sussidi ambientalmente favorevoli e sfavorevoli, l’individuazione degli indicatori BES, di benessere equo e sostenibile sono tutti passi importanti che sono indice di una, sia pure lenta, maturazione del sistema ed apparato pubblici, ma che necessitano di un consolidamento e di un rafforzamento, a partire da un’integrazione fra le Strutture Centrali preposte a contrastare l’emergenza quotidiana: si pensi alle strutture di Missione Italia Sicura e Progetto Casa Italia. La green economy – si deve assolutamente comprendere – non è una camicia di forza all’economia,ma un’opportunità, peraltro già colta da oltre 350.000 mila imprese che hanno investito su prodotti e tecnologie green,sulla sostenibilità ed efficienza energetica. Questi dati indicano l’urgenza di abbandonare la vecchia idea che l’ambiente e la salute siano variabili indipendenti dalla politica e dai piani dei Grandi Industriali.

Ritengo queste le premesse alle prime iniziative che dovrà assumere il nuovo Ministro dell’Ambiente, o che per lo meno io assumerei se lo fossi:

1)regolamenti e norme per dare attuazione alla fuoriuscita dall’utilizzo del carbone nella trasformazione di energia a partire dal 2025;

2)rigorosa definizione delle aree per le attività di prospezione,ricerca e sfruttamento di idrocarburi sia a mare che a terra;

3) varo di uno strumento legislativo quadro che armonizzi e sancisca l’obbiettivo di decarbonizzazione dell’economia;

4)aggiornamento del Piano Generale dei Trasporti del marzo 2000 attraverso un Piano Nazionale della Mobilità;

5)applicazione della VINCA, valutazione di incidenza,a protezione della Rete Natura 2000;

6) riproposizione eventualmente aggiornata del ddl sul consumo del suolo ed il suo riuso gia’ discusso nel 2016;

7) introduzione della cauzione sugli imballaggi monouso;

8) iniziative legislative in favore di chi investe in natura con agevolazioni fiscali,in particolare per le giovani imprese che investono in green jobs;

9) promozione di un’azione interministeriale (Mibaact,Mipaaf,MinAmb) per definire una strategia integrata per i territori, la natura, il paesaggio facendo riferimento ai molteplici strumenti messi a punto a tal fine negli altri Paesi (Carte del Paesaggio o del Territorio in Francia,Statuto dei Luoghi in Gran Bretagna);

10) introduzione dell’educazione ambientale e per la sostenibilità nei piani di studio della Scuola .

Queste le prime urgenze da affrontare. Nel corso della legislatura poi non mi dimenticherei di biodiversità, mare e montagna, agricoltura, turismo.

Cosa c’entra in tutto ciò la Chimica?

Credo che le risposte siano molteplici sia perché le competenze necessarie ad affrontare i problemi indicati sono sì, come sempre del resto, inter- e multi-disciplinari, ma la chimica gioca al loro interno un ruolo primario e poi perché qualsiasi iniziativa innovativa a qualunque campo la si voglia riferire richiede la conoscenza del presente e la conoscenza dell’ambiente è settore ampiamente a carattere chimico.

Quando l’arsenico si beveva a fiumi.

In evidenza

Claudio Della Volpe

Uno dei motivi per cui l’acqua in bottiglia ha successo è che in alcuni casi le acque delle sorgenti del sindaco hanno problemi naturali non da inquinamento; per esempio molte sorgenti vicine alle grandi montagne o in zone vulcaniche contengono una piccola percentuale del tutto naturale di arsenico (ma anche di fluoruri o di altri ioni fra i quali boro e vanadio). Fino a qualche anno fa sia le acque minerali che alcune acque del sindaco avevano “le deroghe” per certi componenti fra i quali proprio l’arsenico, cosa che è durata fino al 31-12-2012 in Italia (in realtà è andata avanti in qualche forma fino al 2013-2014).

Potete leggere un vecchio articolo de Le Scienze del 2010 che conteneva molti dati. Nel 2014 un documento dell’ARPA Lazio confermava e approfondiva la situazione in Lazio.

Nella zona dove abito io, il Trentino, la cosa è stata relativamente comune ed è stata affrontata prima diluendo le acque di alcune sorgenti con altre e poi con specifici apparati depurativi (la depurazione si effettua comunemente ossidando l’As e adsorbendolo su idrossido di ferro, in pratica ruggine, presente in filtri di speciale costruzione, in cui l’acqua da trattare viene fatta passare). Al momento la nostra acqua del sindaco é del tutto a norma, As < 10 μg/l  (microgrammi per litro). Ciò che colpisce è la storia di questi limiti e la situazione che si è generata in alcune parti del mondo; è una storia che vale la pena di essere raccontata questa dei limiti dell’arsenico.

Le norme UE parlano di un un aumento del livello di rischio di insorgenza di tumori; il Comitato congiunto di esperti della FAO/OMS (JECFA) ha proposto una dose di riferimento fissandola a 3 microgrammi/ Kg di peso corporeo al giorno, che provoca un rischio supplementare, rispetto al rischio standard, dello 0,5% di tumori ai polmoni. Sono considerati test significativi gli aumenti di insorgenza di 4 fenomeni: tumori alla vescica, ai polmoni, alla pelle e lesioni cutanee (iper e ipopigmentazioni, cheratosi, melanosi). Le norme si riferiscono ad Arsenico totale anche se As+3 è molto più pericoloso di As+5.

L’arsenico è un elemento la cui tossicità è conosciuta da tempo lunghissimo; l’arsenico è conosciuto nei suoi effetti fin dal “calcolitico” ed è stato isolato da Alberto Magno nel 1250; usato come componente di cosmetici e di altri materiali ha una vasta eco letteraria; chi non ricorda i casi della letteratura?

Per esempio ne “Il Conte di Montecristo”, l’arsenico è uno dei protagonisti del romanzo: il suo uso e i modi per resistere all’avvelenamento da arsenico, all’”acqua tofana” (che conteneva anche Pb) inventata a Palermo nel 1640, usata dall’avvelenatrice, la signora di Villefort, per proteggere i diritti di suo figlio contro la figlia di primo-letto del procuratore del re, Valentine, e il cui uso viene supportato dal Conte proprio per stimolare i peggiori istinti della donna e, dunque, realizzare la sua vendetta contro Villefort.

Potrei citarne altri.

Insoma si sa che l’arsenico è velenoso; ma i suoi effetti a basse dosi, che Dumas ritiene salubri e difensivi, in grado di garantire da avvelenatori improvvisati, sono stati compresi solo dopo molti anni di studi.

Oggi si sa che anche basse e costanti dosi di arsenico possono indurre tumori, diabete e molte altre malattie (Environ Health Perspect; DOI:10.1289/ehp.1510209).

Prima del 1958 non c’erano limiti dell’arsenico nelle acque potabili: la storia di questi limiti può essere rintracciata nei documenti dell’OMS[vedi altri riferimenti] ed è mostrata nel grafico seguente:

In 50 anni i limiti sono quindi scesi di 20 volte mettendo in crisi ripetutamente le scelte fatte dai vari governi; nel 1987 poi lo IARC ha definito l’As come cancerogeno di gruppo 1, dunque stabilito che c’é pericolo di tumore nel consumo di arsenico; e negli ultimi anni si sta concludendo che anche a queste dosi altre malattie come il diabete, di cui è in atto una epidemia mondiale, possono essere indotte dal suo uso. E’ un caso importante, stabilisce che nel tempo come società umana impariamo gli effetti delle sostanze “NATURALI” sul nostro organismo e che tali sostanze non sono di per se “BUONE A PRESCINDERE”, come taluno immagina.

«O natura, o natura, / perchè non rendi poi / quel che prometti allor? perchè di tanto / inganni i figli tuoi?» (G. Leopardi, A Silvia, 1828)

L’italia è stata messa in mora ripetutamente per la difficoltà che ha avuto nel ridurre i valori di As in alcuni dei suoi acquedotti; ci sono zone del paese, come il centro Italia, l’alto Lazio, Viterbo, ma anche Latina, per esempio dove le sorgenti arseniacali sono frequenti; d’altronde l’Italia è terra vulcanica, recente, spinta dal profondo dalla zolla africana; se si eccettua la Sardegna tutto il territorio italiano è zolla africana; anche il Trentino dove vivo io è geologicamente zolla africana, terra di movimenti tellurici profondi e duraturi; tutta la terra italica sotto la geosutura della linea Insubrica è zolla africana, soggetta alla spinta verso Nord; le rocce che emergono contengono arsenico, le Alpi come l’Himalaia sono una catena montuosa sorta dallo scontro fra due placche tettoniche che hanno portato allo scoperto zone profonde. In un bel lavoro del 2005[Atti Acc. Rov. Agiati, a. 255, 2005, ser VIII, vol V, B: 59-94] il collega Fuganti del mio Dipartimento ha analizzato la composizione delle rocce della Val d’Adige

La geosutura insubrica.

concludendo che quantità significative di arsenico sono presenti nelle rocce della val d’Adige e sono rilasciate nelle acque in alcuni casi ai limiti o sopra i valori oggi ritenuti sicuri.

Analisi di questo tipo consentono poi di intervenire attivamente per la salvaguardia della qualità delle acque potabili.

Il problema è generale.

Luca Lucentini, 3 corso regionale sui prodotti Fitosanitari, nov. 2017

In questa slide Lucentini che è Direttore del Reparto di Igiene delle Acque Interne dell’Istituto Superiore di Sanità, è coautore di Linee Guida sulla qualità delle acque potabili dell’Organizzazione mondiale della Sanità ci mette in guardia dal considerare come scontati certi fatti: la tossicità dell’arsenico e la necessità di controllarne la concentrazione è stata maturata tutto sommato lentamente e recentemente. Quando sono nato io (1950) questa coscienza non c’era.

Esistono casi in cui l’intervento umano si è risolto in un enorme problema; consideriamo la questione acque potabili in Bangladesh; si stima che decine di milioni di persone (da 20 a 35) siano esposte all’intossicazione da arsenico di falda in quel territorio; come si è arrivati a questo risultato drammatico? (fra l’altro quando vedrete la prossima volta qualcheduno del Bangladesh che scappa verso l’Europa, casomai dalle nostre parti, potreste immaginarvi perchè lo fa). Come forse ricorderete il Bangladesh si separò dal Pakistan a maggioranza islamica nel 1971, e questo evento spostò milioni di persone di religione induista dall’attuale Pakistan al Bangladesh. La pressione sulle povere risorse del paese si accrebbe.

La storia è raccontata in questo articolo di Human Rights Watch (https://www.hrw.org/report/2016/04/06/nepotism-and-neglect/failing-response-arsenic-drinking-water-bangladeshs-rural).

Fino ad allora l’agricoltura si era basata su una irrigazione che usava le acque superficiali, fortemente inquinate; la nuova situazione peggiorò le cose incrementando problemi di acque inquinate da scarichi fecali.water research 44 (2010) 5789e5802

Per risolvere il problema le organizzazioni internazionali spinsero verso l’uso di acqua estratta da pozzi non dai fiumi; tuttavia nessuno si rese conto che le acque estratte dai primi 10-20 metri erano fortemente inquinate da arsenico per motivi naturali. O meglio nei primi 10-20 metri l’arsenico era molto più disponibile; d’altronde per motivi di costo la maggior parte dei pozzi si fermava a quella profondità.water research 44 (2010) 5789e5802

Racconta The Guardian, 23/5/2006

In 1990 the BGS obtained a commission from the UK government’s aid agency, then known as the Overseas Development Agency , to survey deep wells dug in the previous decade. Samples from the wells were taken to BGS laboratories to test for toxic elements. BGS argues that its report did not give the water a clean bill of health for drinking, but the report’s author indicated in a published paper in 1994: “The groundwaters are … suitable for crop irrigation and domestic usage.”

BGS è il British Geological Survey, una organizzazione governativa inglese, la quale NON condusse un test per l’arsenico.

In quel medesimo 1994 cominciava a venir fuori il problema

Questo scatenò una causa da parte di una ONG bengalese contro il governo di sua maestà; la risposta tardò ad arrivare e quando arrivò fu molto deludente:

Lord Hoffman’s ruling at the time was that the relevant agencies, such as the BGS, in cases like this were ‘liable only for the things they did and the statements they made, not for what they did not do‘. (trovate i dettagli di questa storia qui)

La conclusione della BBC:

Correspondents say that if successful the legal action could have cost the British taxpayer millions of dollars in compensation.water research 44 (2010) 5789e5802 water research 44 (2010) 5789e5802

Nel frattempo milioni di pozzi entrarono in funzione, distribuendo acqua con tassi di arsenico da decine a centinaia di volte superiori alla norma OMS; ancora oggi in Bangladesh è legale acqua con 50 microgrammi di arsenico per litro; e ancora oggi decine o centinaia di migliaia di pozzi pompano acqua da bassa profondità con tassi altissimi di arsenico.

L’OMS parla di un caso di avvelenamento di massa, il maggiore mai visto nella storia umana recente e forse in tutta la storia, che ha come condizione base la Natura, come condizione storica interventi umanitari poco accorti ed è aggravato dalla sovrappopolazione, dalla povertà, dalla lotta politica e religiosa in un paese che è da sempre ultimo in tutte le graduatorie del mondo.

La chimica si intreccia così drammaticamente con la salute e la vita di decine di milioni di uomini.

Altri riferimenti.

http://www.enkiwater.it/valori-di-arsenico-nelle-acque-minerali/

 

Il DDT: origini, successo e declino

In evidenza

Rinaldo Cervellati

Nel post su Rachel Carson ho particolarmente insistito sul suo libro Silent Springs, denuncia scientificamente argomentata del disastro ambientale provocato negli USA dall’uso massiccio e indiscriminato di insetticidi organo clorurati, in particolare il diclorodifenil-tricloroetano (DDT) negli anni ’50 e ’60 del secolo scorso. Si è anche discusso l’uso di questo prodotto per debellare la malaria, malattia trasmessa da una zanzara della famiglia Anopheles*. In questo post intendo approfondire l’origine, il successo e il declino del DDT. Cominciamo dall’inizio.

Nella seconda metà del XIX secolo la sintesi dell’acido acetico effettuata da Kolbe decretò la fine della concezione vitalista sull’origine dei composti organici e lo sviluppo di un numero sempre crescente di sostanze organiche di sintesi[1]. Attorno al 1873, Othmar Zeidler[2] studente di dottorato nel laboratorio di Adolf von Baeyer[3] all’Università di Strasburgo, lavorando al progetto di tesi sui possibili prodotti di reazione fra il cloralio (tricloroacetaldeide) e cloro e bromo derivati del benzene ottenne, fra l’altro il composto che oggi chiamiamo p-diclorodifenil-tricloroetano (abbreviato DDT):

Sebbene i risultati del lavoro di Zeidler siano stati pubblicati [1], le proprietà del composto non furono oggetto di indagine fino al 1939.

A scoprirle fu il chimico svizzero Paul Herman Müller (1899-1965).

Müller cominciò a interessarsi di chimica durante il periodo liceale, lavorando come assistente in una azienda chimica, la Dreyfuss & Cie. Nel 1919 fu ammesso all’Università di Basilea, diplomandosi in chimica nel 1922. Continuò gli studi perfezionandosi in chimica organica e ottenne il dottorato summa cum laude nel 1925 discutendo una tesi sull’ossidazione chimica ed elettrochimica della m-xilidina e di suoi derivati metil sostituiti [2]. Nello stesso anno Müller trovò impiego come chimico ricercatore per la divisione coloranti dell’azienda Geigy AG a Basilea. I primi compiti assegnatigli riguardarono la ricerca di coloranti di origine naturale e sintetica e agenti concianti. Questo lavoro portò al brevetto e commercializzazione degli agenti concianti sintetici tannici[4] Irgatan G, Irgatan FL e Irgatan FLT.

Nel 1935 la Geigy diede inizio a un progetto di ricerca su agenti protettivi per le piante. Müller che aveva un grande interesse per il mondo vegetale, tanto da aver scelto botanica come materia complementare nel suo corso di studi per il diploma in chimica, partecipò quindi al progetto iniziando a sintetizzare personalmente fitosanitari chimici. Questa ricerca lo portò brevettare composti cianici e tiocianici che mostravano attività battericida e insetticida e, nel 1937 al graminone, un disinfettante per semi meno pericoloso di quelli a base di mercurio usati all’epoca.

Dopo il successo con gli agenti concianti e disinfettanti, Müller fu incaricato di sviluppare un insetticida. A quel tempo gli unici insetticidi disponibili erano prodotti naturali costosi o sintetici poco efficaci contro gli insetti, i soli composti che erano sia efficaci che poco costosi erano composti di arsenico, altrettanto tossici per gli esseri umani e altri mammiferi [3].

Nel corso della ricerca, Müller scoprì che gli insetti assorbivano le sostanze chimiche in modo diverso rispetto ai mammiferi. Ciò lo portò a supporre che probabilmente ci sono sostanze chimiche tossiche esclusivamente per gli insetti. Cercò quindi di sintetizzare l’insetticida di contatto ideale, che avrebbe avuto un effetto tossico rapido e potente sul numero più grande possibile di specie di insetti causando nel contempo poco o nessun danno alle piante e agli animali a sangue caldo. L’effetto di questo insetticida ideale avrebbe anche dovuto essere di lunga durata il che implica un alto grado di stabilità chimica, nonché facile e economico da produrre.

Studiò tutti i dati che poteva trovare sul tema degli insetticidi, e sulla base delle caratteristiche che aveva stabilito si mise alla ricerca di un composto adatto ai suoi scopi. Müller trascorse quattro anni su questa ricerca e fallì 349 volte prima del settembre 1939, quando infine trovò il composto che stava cercando. Spruzzò una gabbietta piena di mosche con questo composto e dopo pochissimo tempo non ne restò una viva [3]. Il composto in questione era il diclorodifeniltricloroetano[5], che il farmacista viennese Othmar Zeidler aveva sintetizzato per la prima volta nel 1873 [1].

Müller si rese presto conto che il DDT era la sostanza chimica che stava cercando. I test del DDT da parte del governo svizzero e del Dipartimento per l’agricoltura degli Stati Uniti confermarono non solo la sua efficacia contro insetti nocivi in agricoltura ma anche contro una vasta gamma di altri parassiti, tra cui zanzare, pidocchi, pulci e mosche della sabbia, che, rispettivamente, diffondevano malaria, tifo, peste e varie malattie tropicali. Questi test fecero pensare che il DDT fosse praticamente innocuo per gli umani e i mammiferi in generale.

Nel 1940 il prodotto fu brevettato in Svizzera, due anni dopo in Gran Bretagna e nel 1943 negli USA. La Geigy iniziò la commercializzazione di due prodotti, uno spray al 5% (Gesarol) e una polvere al 3% (Neocid). Il nome DDT fu impiegato per la prima volta dal Ministero britannico per l’approvvigionamento nel 1943 e il prodotto fu aggiunto alle liste di rifornimento dell’esercito statunitense nel maggio dello stesso anno.

Struttura del DDT

Durante la seconda guerra mondiale, le truppe alleate ne fecero un massiccio utilizzo su civili e militari. La prima volta fu per sconfiggere un focolaio di tifo a Napoli, in seguito fu largamente usato in Veneto e Sardegna per sconfiggere le zanzare anofele molto diffuse nelle zone paludose e responsabili della trasmissione della malaria*. Fu proprio il risultato conseguito in Italia nel periodo bellico a spingere l’Organizzazione Mondiale della Sanità (OMS) a lanciare una campagna planetaria per l’utilizzo del DDT con lo scopo di eradicare completamente questa malattia. Di certo si può affermare che il DDT ha consentito di debellare la malaria in Europa e in tutto il Nord America [4].

Nel 1946 Müller fu nominato vicedirettore della ricerca scientifica sulle sostanze per la protezione delle piante della Geigy. Nel 1948 gli fu assegnato il premio Nobel per la Fisiologia e la Medicina[6], con la seguente motivazione:

“per la sua scoperta dell’efficienza del DDT come veleno di contatto contro diversi artropodi”.

Paul Hermann Muller, Pemio Nobel 1948

Il fatto che gli sia stato accordato questo onore, anche se non era né un medico né un fisiologo ricercatore, riflette l’enorme impatto che il DDT aveva avuto nella lotta contro le malattie. Il Comitato per il Nobel dichiarò: “Il DDT è stato utilizzato in grandi quantità nell’evacuazione dei campi di concentramento, delle prigioni e dei deportati, senza dubbio questa sostanza ha già salvato la vita e la salute di centinaia di migliaia di persone”.

Sfortunatamente, come praticamente sempre accade, il suo abuso produsse, come si è detto nel precedente post su Rachel Carson danni ambientali molto gravi. Nel medio e lungo termine questi danni sono dovuti alle sue proprietà chimico fisiche.

Utilizzi indiscriminati del DDT

Anzitutto la sua alta stabilità lo rende scarsamente reattivo all’aria e alla luce sicchè esso si disperde nell’aria a lunghe distanze e penetra facilmente nel suolo con un effetto di accumulo a quantità pericolose molto duraturo. Una conseguenza è stata lo sviluppo di generazioni di parassiti nocivi sempre più resistenti all’insetticida. Gli insetti sono infatti molto più bravi di noi a adattarsi ai cambiamenti ambientali, forse solo i battèri sono ancora più bravi a sviluppare specie resistenti agli antibiotici…

La molecola del DDT è apolare, insolubile in acqua e soluzioni acquose ma solubile nei grassi. Esso quindi si accumula nei tessuti adiposi dell’uomo e degli animali fino a raggiungere concentrazioni critiche. E’ stato accertato che effetti mortali sono stati riscontrati negli uccelli per un’interferenza di questo composto con l’enzima che regola la distribuzione del calcio. Ne consegue un assottigliamento del guscio delle loro uova che finiscono per rompersi precocemente durante la cova [4].

A prescindere quindi dalla potenziale cancerogenità, questi effetti del prodotto ne hanno fatto vietare l’impiego per uso agricolo negli Stati Uniti e in Europa.

Tuttavia il DDT continua a essere impiegato contro il vettore della malaria in India e in gran parte dell’Africa. Secondo un rapporto della Stockolm Convention on Persistent Pollutants, nel  2008 solo 12 paesi utilizzavano il DDT a tale scopo, anche se il numero era previsto in aumento [5]. Non ho trovato dati più recenti ma certamente il dibattito fra fautori e oppositori del DDT è ancora acceso.

*Nota. Su questo argomento Claudio Della Volpe ha scritto qualche anno fa il dettagliato post “Chimica, zanzare e altre storie”.

https://ilblogdellasci.wordpress.com/2013/09/16/chimica-zanzare-ed-altre-storie/

Bibliografia

[1] O. Zeidler, Beitrag zur Kenntnisss der Verbindunngen zwischen Aldehyden und aromatische Kohlenwasserstoffen. (Contributo alla conoscenza dei composti tra aldeidi e idrocarburi aromatici), cit. in: Verzeichniss der an der Kaiser-wilhelms-universität Strassburg vom Sommer Semester 1872 bis Ende 1884 erschienenen Schriften., Heitz & Mündel, 1890, p. 11.

https://archive.org/details/verzeichnissder00stragoog?q=Othmar+Zeidler

[2] F. Fichter, P. Müller,  Die Chemische und Elektrochemische Oxidation des as. m-Xylidins und seines Mono- und Di-Methylderivates, Helv. Chim. Acta, 1925, 8, 290-300.

[3] Paul Hermann Müller Biography, in: K.L. Lerner, B. Wilmot Lerner (Eds.), The World of Anatomy and Physiology, Gale Group Inc. Farmington Hills, MI, 2002.

[4] F. Bagatti, E. Corradi, A. Desco, C. Ropa, Chimica, Zanichelli, Bologna 2012, Cap. 12.

[5] H van den Berg, Global Status of DDT and its Alternatives for Use in Vector Control to Prevent Disease, Stockolm Convention on Persistent Pollutants, Oct. 23, 2008.

https://www.webcitation.org/5uKxOub8a?url=http://www.pops.int/documents/ddt/Global%20status%20of%20DDT%20SSC%2020Oct08.pdf

[1] v. R. Cervellati, Fiedrich Wölher e gli albori della chimica organica di sintesi.

https://ilblogdellasci.wordpress.com/2016/05/30/friedrich-wolher-e-gli-albori-della-chimica-organica-di-sintesi/

[2] Othmar Zeidler (1850-1911) chimico austriaco, dopo il dottorato a Strasburgo lavorò per qualche tempo nel Laboratorio chimico dell’Università di Vienna poi fece il farmacista in un distretto della capitale austriaca.

[3] Adolf von Baeyer (1835-1917) chimico tedesco particolarmente noto per la sintesi dell’indaco, Premio Nobel per la Chimica 1905 con la motivazione: in riconoscimento dei suoi servizi per il progresso della chimica organica e dell’industria chimica, con il suo lavoro sui coloranti e sui composti aromatici.

[4] O tanninici, composti contenuti in diversi estratti vegetali in grado di combinarsi con le proteine della pelle animale trasformandola in cuoio. Sono sostanze polifenoliche presenti in moltissime piante. Un vino rosso contenente molti tannini lascia tipiche tracce colorate nelle pareti del bicchiere dove viene versato.

[5] Nome IUPAC: 1,1,1-tricloro-2,2-bis (4-clorofenil) etano.

[6] Questo particolare Premio Nobel viene assegnato da un comitato del Karolinska Institute contrariamente agli altri che vengono attribuiti dall’Accademia Reale Svedese delle Scienze.

Accanimento non terapeutico.

In evidenza

Mauro Icardi

Certamente non è una cosa che faccia piacere ai chimici pensare a come venga percepita, la Chimica, nell’immaginario dei non chimici. E questo atteggiamento preconcetto, io credo non deponga in generale a favore di una necessità evidente di contrastare la diffusione dell’analfabetismo di ritorno, delle fake news, e in generale della sovraesposizione a notizie banali, quali ad esempio quelle che si occupano di gossip.

Essere interessati alla propria professione, all’interesse mai interrotto per la scienza che è diventata strumento di lavoro e apprendimento, spesso espone a fraintendimenti che, personalmente trovo molto fastidiosi.

E tutto questo aumenta una sensazione di estraneità che qualche volta pesa.

L’ultimo episodio mi è capitato durante una degenza ospedaliera. In questa circostanza, oltre a pensare alla guarigione, è necessario pensare ad impiegare il tempo in maniera proficua.

Io ho chiesto a mia moglie di portarmi il libro di Marco Malvaldi “L’architetto dell’invisibile – ovvero come pensa un chimico”. Era sul comodino della stanza d’ospedale. Una sera, un’operatrice sanitaria lo ha adocchiato, preso in mano, e dopo aver guardato la copertina e letto il titolo, posato di scatto con un atteggiamento piuttosto plateale. Le ho chiesto il perché, ricevendo come risposta una sorta di borbottio, ed una molto generica spiegazione di idiosincrasia alla materia.

Ora, se una persona frequenta le librerie (purtroppo da proteggere come qualsivoglia animale in via d’estinzione), si può accorgere delle decine di libri che insegnano a vincere la paura della matematica, o della fisica.

Si trovano molti libri di divulgazione chimica, anche se a mio parere in numero leggermente minore, ma l’idea di scrivere un libro per vincere la paura della chimica potrebbe essere interessante.

Nelle pagine di questo blog si è scritto più volte in difesa della chimica, si è ripetuto quali siano i più diffusi luoghi comuni su questa scienza. Luoghi comuni che lo stesso Malvaldi riesamina, a partire da quello più diffuso che vede i termini “sintetico” o “chimico” come negativi, in contrapposizione a “naturale” che invece è percepito univocamente come positivo. Ma le aflatossine ad esempio, o la cicuta sono quanto di più naturale vi sia , eppure le prime sono molto tossiche e cancerogene, e l’estratto della seconda fu responsabile della morte che Socrate volle autoimporsi.

Altra riflessione che mi sento di fare è questa: occorre trovare un modo per appassionare le persone non solo alla scienza, ma in generale alla lettura, alla riflessione e allo sviluppo di capacità critiche. Tutte capacità ormai rare. La chimica ha nella sua dualità benefici/rischi già una sorta di peccato originale, una sorta di destino per il quale è tacciata di ogni nefandezza. E tutto questo fa dimenticare a troppi quanto invece le dobbiamo, e quanto del benessere (per altro da ripensare nei suoi aspetti maggiormente dissipativi) di cui attualmente possiamo ancora godere, sia dovuto alle scoperte dei laboratori o dei reparti di produzione.

Come dicevo i libri di divulgazione chimica ci sono. Sono disponibili credo nelle biblioteche di qualunque città o piccolo centro. Si possono acquistare così da averli sempre a disposizione per riguardarli. In rete ci sono innumerevoli siti per chi abbia il coraggio, la voglia e la curiosità di conoscere questa scienza. Basta avere un poco di quella che una volta veniva definita “buona volontà”. Per altro da estendersi a tutte le discipline scientifiche. Ma per la chimica almeno per tentare di modificare una cattiva reputazione decisamente immeritata. E sono convinto che una volta conosciuta, possa riservare sorprese a chi, per abitudine ne ha una visione negativa, ma non reale.

Scienziate che avrebbero dovuto vincere il Premio Nobel: Rachel Carson (1907-1964)

In evidenza

Rinaldo Cervellati

Secondo la biografa Linda Lear [1], Rachel Carson è stata probabilmente la più incisiva scrittrice del secolo scorso sulla Natura, ricordata più per aver contrastato l’idea che l’Uomo possa padroneggiarla a piacimento che per le sue ricerche di biologa marina sulla vita oceanica. Il suo sensazionale libro del 1962, Silent Spring [2] mise in guardia contro i pericoli per tutti i sistemi naturali dall’uso improprio di pesticidi come il DDT, denunciando le invadenze e gli intenti dell’industria dei pesticidi e, più in generale della tecnologia moderna, dando il via al movimento ambientalista contemporaneo.

Rachel Carson nasce il 27 maggio 1907 in una fattoria vicino alla cittadina di Springdale, Pennsylvania, USA, la più giovane di tre figli di Robert W. Carson, agente di assicurazioni e Maria McLean Carson. Rachel ereditò dalla madre uno straordinario amore per la Natura, da bambina esplorò con vivace attenzione i 26 ettari della fattoria di famiglia. Frequentò la scuola primaria di Springdale fino al decimo grado per passare poi alla high school a Parnassus dove si diplomò nel 1925 al primo posto nella sua classe di 45 studenti. Fra le sue letture preferite storie di scienze naturali particolarmente riguardo la vita acquatica.

Rachel Carson bambina

Dall’età di dieci anni cominciò a scrivere in giornali per bambini e ragazzi anche dopo essere stata ammessa al Pennsylvania College for Women (oggi Chatham University) dove si diplomò con lode in biologia nel 1929. Dopo aver frequentato un corso estivo nel Laboratorio di Biologia Marina, continuò gli studi di zoologia e genetica alla Johns Hopkins University nell’autunno 1929.

Dopo il primo anno di specializzazione, Carson divenne assistente part-time nel laboratorio di R. Pearl[1] occupandosi di problemi diversi utilizzando modelli animali, dai ratti alla drosofila. In questo modo guadagnò il denaro necessario per proseguire gli studi.

Rachel Carson nel 1929

Alla Johns Hopkins completò un progetto di tesi sullo sviluppo del pronefro (primo stadio di sviluppo dell’organo escretore) dei pesci, che le valse il titolo di M.Sc. in zoologia nel 1932. Era intenzione di Carson proseguire le ricerche per il dottorato, ma nel 1935 fu costretta a interrompere gli studi causa la morte del padre e conseguenti difficoltà economiche. Trovò un’occupazione presso lo United States Bureau for Fisheries (Ufficio USA per la Pesca) come redattore di una rubrica radiofonica intitolata Romance Under Water con lo scopo di suscitare interesse verso l’ambiente marino e il lavoro dell’Ufficio per la sua salvaguardia. La rubrica ebbe un notevole successo di ascolti, poco dopo Carson ottenne il posto fisso di assistente junior di biologia marina al Bureau, seconda donna assunta in questa carica.

Carson sul campo insieme ad un collega

Al Bureau for Fisheries, le principali mansioni di Carson erano di rilevare e analizzare dati sul campo delle popolazioni ittiche nonchè scrivere articoli e opuscoli divulgativi per il pubblico. Utilizzando i risultati delle sue ricerche e le discussioni con altri biologi marini scrisse regolarmente articoli per vari giornali. Nel luglio del 1937, la rivista Atlantic Monthly pubblicò un suo saggio col titolo Undersea, vivida narrazione di un viaggio lungo il fondo dell’oceano. La casa editrice Simon & Schuster contattò Carson suggerendole di espandere il saggio e trasformarlo in un libro. Dopo diversi anni di ulteriori ricerche sul campo, Carson pubblicò il suo primo libro, Under the Sea Wind [3]. Il libro ricevette ottime recensioni e il successo degli scritti di Carson aumentò rapidamente, tanto che essa tentò di lasciare il Bureau (trasformatosi in Fish and Wildlife Service) nel 1945 ma a quei tempi c’erano poche possibilità di lavoro per i naturalisti, la maggior parte dei fondi per le scienze venivano destinati a ricerche applicate e tecnologiche, sull’onda del “successo” ottenuto dal progetto Manhattan. E’ in questo periodo che Carson incontrò per la prima volta il tema DDT, un nuovo micidiale insetticida rivoluzionario (denominato “insect bomb”) che si stava imponendo rapidamente nei mercati anche in assenza di adeguati test sulla sicurezza per la salute e l’impatto ambientale. Tuttavia all’epoca il DDT non era che uno dei tanti interessi di Carson, gli editori lo consideravano un argomento di scarsa importanza.

Nel Fish and Wildlife Service, Carson ebbe la supervisione di un piccolo staff di scrittori e nel 1949 divenne capo redattore delle pubblicazioni del Servizio. Sebbene il nuovo status le permettesse sempre maggiori opportunità di ricerca sul campo e libertà nella scelta dei suoi progetti di scrittura, ciò comportò anche responsabilità amministrative sempre più noiose, tanto che già nel 1948 stava lavorando su materiale per un secondo libro, e aveva preso la decisione di iniziare a dedicarsi alla scrittura a tempo pieno. Assunse un agente letterario, con la quale stabilì una stretta relazione professionale che durò per tutta la sua carriera di scrittrice.

Nel 1951 pubblicò, con l’Oxford University Press il suo secondo libro, The Sea Around Us [4] che illustra la scienza e la poesia del mare dai suoi inizi primordiali alle scoperte scientifiche dei primi anni ‘50. Divenuto rapidamente un best seller, il libro vinse diversi premi sia da società scientifiche sia da istituzioni pubbliche e Carson ottenne anche due dottorati ad honorem. Insieme al successo arrivò anche la sicurezza finanziaria sicchè Rachel potè abbandonare definitivamente il lavoro per concentrarsi unicamente all’attività di scrittrice.

All’inizio del 1953, Carson iniziò la ricerca bibliografica e sul campo sull’ecologia e gli organismi della costa atlantica. Nel 1955, completò il terzo volume della sua “trilogia marina”, The Edge of the Sea [5], che tratta della vita negli ecosistemi costieri (in particolare lungo la costa dell’Atlantico orientale).

Rachel Carson, ricercatrice e scrittrice

Fra il 1955 e il 1956, Carson continuò a scrivere articoli divulgativi su riviste specializzate mentre lavorava al progetto di un libro sull’evoluzione, ma la pubblicazione del libro di Julian Huxley[2] Evolution in Action, insieme alla sua stessa difficoltà nel trovare un approccio chiaro e convincente all’argomento, la condussero a abbandonare il progetto. I suoi interessi si stavano infatti rivolgendo sempre più alla salvaguardia dell’ambiente terrestre.

I pesticidi di sintesi, in particolare composti clorurati di idrocarburi (ad es. il DDT, p-diclorodifenil-tricloroetano) e organofosfati vennero sviluppati con i fondi militari per la scienza (military funding of science) in USA dopo la fine della 2° Guerra mondiale.

Nel 1957, l’USDA (United States Department of Agriculture) diede il via al progetto di eradicazione di formiche rosse e altri insetti nocivi alle coltivazioni attraverso l’irrorazione aerea massiccia e diffusa di DDT e altri pesticidi che inevitabilmente coinvolgeva anche terreni privati non agricoli. Già Carson si era interessata alla pericolosità del DDT negli anni ’40, nel 1958 decise di impegnarsi a scrivere un libro sull’argomento. Secondo i biografi la decisione dipese anche da una lettera inviata nel gennaio 1958 da un’amica di Carson al The Boston Herald, che descriveva la morìa di uccelli intorno alla sua proprietà derivante dall’irrorazione aerea di DDT. Carson stessa in seguito scrisse che questa lettera (ricevuta in copia) la spinse a indagare a fondo i problemi ambientali causati dai pesticidi di sintesi.

Dopo quattro anni di intense ricerche bibliografiche e contatti con numerosi scienziati di istituzioni pubbliche come i National Institutes of Health e il National Cancer Institute, Carson fu in grado di provare la pericolosità del DDT e di altri pesticidi per l’ambiente e la correlazione pesticidi-cancro.

Rachel Carson nel suo studio

Tutto ciò nonostante l’opposizione aggressiva delle potenti industrie degli erbicidi chimici, che includeva testimonianze di esperti compiacenti e lobbisti nell’establishment che contraddicevano quanto riportato dalla maggior parte della letteratura scientifica che Carson stava studiando.

Nel 1961 le venne diagnosticato un cancro al seno, anche per questo motivo il libro denuncia, Silent Spring [1], venne pubblicato solo l’anno successivo, il 27 settembre 1962.

Il filo conduttore di Silent Spring è il potente, e spesso negativo, effetto che gli umani hanno sulla Natura. L’argomento principale del libro è la denuncia che l’uso indiscriminato dei pesticidi ha effetti dannosi sull’ambiente; Carson sostiene che dovrebbero essere più propriamente definiti “biocidi” perché i loro effetti sono raramente limitati ai parassiti bersaglio. Il DDT e altri pesticidi sintetici, molti dei quali soggetti a bioaccumulo, distruggono praticamente tutte le specie di insetti, compresi quelli utili all’uomo e necessari alla conservazione dell’ecosistema. L’industria chimica del settore viene accusata di diffondere intenzionalmente disinformazione fra pubblico e funzionari pubblici per fare accettare acriticamente le proprie posizioni (cioè i propri interessi).

Quattro capitoli del libro sono dedicati ai pericoli dei pesticidi per la salute umana. Vengono descritti numerosi casi di avvelenamento da pesticidi, insorgenza di tumori e altre patologie collegate. Riguardo al DDT e al cancro, Carson scrive:

In test di laboratorio su soggetti animali, il DDT ha provocato sospetti tumori epatici. Gli scienziati della Food and Drug Administration che hanno segnalato la scoperta di questi tumori erano incerti su come classificarli, ma ritenevano che ci fosse qualche “giustificazione per considerarli carcinomi epatici di basso grado”. Il Dr. Hueper* ora dà al DDT la valutazione definitiva del DDT come “agente cancerogeno chimico”.[1, p. 225]

*[autore del libro Occupational Tumors and Allied Diseases]

Carson prevede che queste conseguenze possano aumentare in futuro, soprattutto dal momento che i parassiti bersaglio possono sviluppare resistenza ai pesticidi e gli ecosistemi indeboliti potrebbero cadere preda di specie invasive non previste. Il libro si chiude con proposte di approccio biotico al controllo dei parassiti come alternativa ai pesticidi chimici, ad esempio: limitazione della popolazione di insetti nocivi mediante predatori specifici,vertebrati o invertebrati, “sterilizzazione” o cattura dei maschi attraverso segnali sonori o biochimici e opportune trappole. L’uso giudizioso di pesticidi dovrebbe essere lasciato come ultima risorsa.

Va ricordato che uno dei primi impieghi del DDT fu nella lotta al vettore della malaria, la zanzara anofele, inizialmente con successo. In Italia fu impiegato a questo scopo soprattutto in Sardegna, dove la malaria era endemica e fu effettivamente debellata. Il rovescio della medaglia sta però nel fatto che gli insetti (e in specifico le zanzare) sviluppano abbastanza rapidamente resistenza agli insetticidi.

In realtà Carson non chiese mai un divieto assoluto sul DDT. In Silent Spring ha solo espresso il concetto precedentemente esposto. Scrive infatti:

Nessuna persona responsabile sostiene che la malattia trasmessa dagli insetti debba essere ignorata. La domanda che ora si è presentata con urgenza è se sia saggio o responsabile attaccare il problema con metodi che stanno rapidamente peggiorando la situazione. Il mondo ha assistito alla guerra vittoriosa contro le malattie attraverso il controllo di insetti vettori di infezione, ma ha saputo poco dell’altro lato della medaglia – le sconfitte, i trionfi di breve durata che ora sostengono fortemente l’allarmante visione secondo cui l’insetto nemico è stato reso più forte dai nostri sforzi. Peggio ancora, potremmo aver distrutto i nostri stessi mezzi di combattimento [1, p. 266]

A proposito della malaria Carson ha esplicitamente affermato che i programmi per la malaria sono minacciati dalla resistenza acquisita dalle zanzare, citando il parere del direttore del Servizio fitosanitario olandese: Il consiglio pratico dovrebbe essere “Spruzzare il meno possibile” piuttosto che” Spruzzate al limite della vostra capacità”. La pressione sulla popolazione infestante dovrebbe essere sempre la meno drastica possibile.[1, p. 275].

Carson e lo staff editoriale coinvolti nella pubblicazione di Silent Spring si aspettavano aspre critiche e si preoccupavano addirittura della possibilità di essere citati in giudizio per diffamazione. In preparazione degli attacchi previsti, Carson e la sua agente cercarono sostenitori famosi prima della pubblicazione del libro. La maggior parte dei capitoli scientifici furono revisionati da scienziati con competenze specifiche, tra i quali Carson trovò un forte sostegno. Carson partecipò alla Conferenza della Casa Bianca sulla questione ambientale del maggio 1962, l’Editore Houghton Mifflin distribuì copie del libro a molti delegati e promosse l’uscita imminente sulla rivista New Yorker (che ne fece una recensione molto favorevole). Carson ne inviò una copia anche al giudice associato della Corte suprema William O. Douglas, un avvocato ambientalista che le aveva fornito a parte del materiale incluso nel suo capitolo sugli erbicidi.

William Orville Douglas (1898-1980)

Tuttavia critiche feroci provennero ovviamente dalle industrie produttrici di pesticidi: la Du Pont, la fabbrica principale di DDT, la Velsicol Chemical Company sola produttrice di clordano e eptacloro, quest’ultima promosse anche un’azione legale. Rappresentanti dell’industria chimica e lobbisti presentarono una serie di reclami non specifici, alcuni in forma anonima. Le aziende chimiche e le organizzazioni associate pubblicarono articoli in favore e difesa dell’uso di pesticidi.

Il biochimico dell’American Cyanamid, R. White-Stevens, giunse a affermare che:

Se l’uomo seguisse gli insegnamenti di Miss Carson, torneremmo al Medioevo, e gli insetti, le malattie e i parassiti erediterebbero ancora una volta la Terra“.

Molti attacchi misero in dubbio le qualità scientifiche di Carson, alcuni giunsero fino a accuse di ambiguità sessuale.

Dall’ambiente accademico arrivarono pareri contrastanti. La recensione del Dr. W. J. Darbin, direttore del Dipartimento di Biochimica alla Vanderbilt University[3] School of Medicine, pubblicata su Chemical & Engineering News in ottobre 1962 è una completa stroncatura del libro e dell’autrice [6]. Sul merito e la forma di questa questa recensione seguì un acceso e interessante dibattito fra sostenitori e oppositori [7].

Più obiettiva la recensione che apparve su Nature a firma C.W. Hume [8] che sostiene i dati relativi al disastro ambientale provocato dall’indiscriminata irrorazione di interi territori e riporta le alternative biotiche proposte nel libro. Secondo Hume la parte più controversa è quella riguardante l’effetto del DDT sull’uomo. Da buon britannico afferma che l’accumulo medio del pesticida negli abitanti del Regno Unito è di 2 ppm contro le 5.3-7.4 ppm negli USA con punte di 17.1 ppm nei lavoratori agricoli, ciò essendo dovuto ai migliori controlli effettuati in Gran Bretagna. In particolare stigmatizza l’atteggiamento di coloro che cercano di screditare scientificamente Carson che possiede invece tutte le carte in regola come ottima ricercatrice.

Il successo di pubblico fu enorme, secondo la biografa Linda Lear, la campagna diffamatoria dell’industria fu controproducente perché la polemica fece aumentare la consapevolezza dell’opinione pubblica sui potenziali pericoli dell’uso dei pesticidi. Lo speciale televisivo con il dibattito fra Carson e il Dr. White-Stevens fu seguito da dieci a quindici milioni di americani che in grande maggioranza simpatizzarono per Carson. Occorre anche dire che l’opinione pubblica era già stata sconvolta dallo scandalo della talidomide[4].

Dopo un anno dalla pubblicazione del libro la campagna denigratoria dell’industria si affievolì e il Congresso USA commissionò un rapporto pubblico sulla pericolosità dei pesticidi, di conseguenza la FDA, dichiarò: …che con tutta probabilità i rischi potenziali del DDT erano stati sottovalutati, e cominciò a porre alcune restrizioni al suo uso. Nel 1972 il DDT per uso agricolo venne proibito negli Stati Uniti, nel 1978 anche in Italia.

Ma il tumore aveva stroncato Rachel Carson nel 1964. Numerosissimi sono stati gli onori ricevuti postumi, dalla Medaglia Presidenziale della Libertà all’effige su un francobollo al ponte Rachel Carson a Pittsburgh fino ai nomi di due navi da ricerca marina. L’edificio della fattoria dove visse bambina è stato dichiarato monumento nazionale.

L’edificio della fattoria natale e il ponte di Pittsburgh che porta il suo nome

Infine vale la pena ricordare che il dibattito sull’uso del DDT per combattere la malaria dove è endemica, per es. in regioni dell’Africa e dell’India, è ancora acceso. L’OMS nel 2006 ha dichiarato che, se usato correttamente, il DDT dovrebbe comparire accanto ai medicinali e alle zanzariere in quelle regioni, affermazione peraltro mai contrastata da Carson come si evince dai due brani di Silent Spring sopra riportati.

Una biografia completa di Rachel Carson si trova in:

  1. Lear, Witness for Nature, Mariner Book Houghton Mifflin Harcourt, Boston New York, 2009
  2. https://www.amazon.com/Rachel-Carson-Witness-Linda-Lear/dp/0547238231

Biliografia

[1] L. Lear, The Life and legacy of Rachel Carson Biologist – Writer – Ecologist 1907-1964, http://www.rachelcarson.org/Bio.aspx

[2] R. Carson, Silent Spring, Houghton Miffin, 1962, reprinted in 1996 with an introduction by Al Gore.; trad ital.: Primavera Silenziosa, Universale Economica Feltrinelli, 1966, riproposto nel 1999 con una introduzione di Al Gore.

[3] R. Carson, Under the Sea Wind, Simon & Schuster Eds., 1941; ripubblicato da Penguin Group, 1996.

[4] R. Carson, The Sea Around Us, Oxford University Press 1st Ed, 1951; trad ital.: Il Mare intorno a noi, Feltrinelli, 2011.

[5] R. Carson, The Edge of the Sea, Houghton Mifflin, 1955; ripubblicato da Mariner Books, 1998.

[6] W. J. Darby, Silence, Miss Carson, C&EN News, 1962, 40(40), 60,63.

[7] Letters, C&EN News, 1962, 40(43), 5; Letters, C&EN News, 1962, 40(45), 4-5.

[8] C.W. Hume, An American Prophetess, Nature, 1963, 198, 117.

[1] Raymond Pearl (1879-1940), biologo americano, ricercatore eclettico e molto prolifico con interessi dalla zoologia all’agricoltura, dalla biometria alla genetica. Abilissimo comunicatore e divulgatore scientifico.

[2] Sir Julian Sorell Huxley (1887 – 1975) biologo britannico, genetista, evoluzionista e internazionalista. E’ stato figura di spicco nella sintesi moderna della teoria dell’evoluzione. Eccelllente scienziato, comunicatore e divulgatore, è stato il primo direttore dell’UNESCO e membro fondatore del World Wildlife Fund.

[3] La Vanderbilt University (Nashville, Tennessee) è un’Università privata fondata nel 1973 dal magnate Cornelius Vanderbilt con la donazione iniziale di 1000000 di dollari. Molto esclusiva è considerata una delle principali università del Sud degli USA, classificata al 17° posto nella classifica delle università USA.

[4] La talidomide è stato un farmaco utilizzato negli USA (ma non solo) come rimedio per i disturbi delle donne in gravidanza. Fu poi ritirato poiché molte donne sottoposte al trattamento davano alla luce neonati con gravi malformazioni fisiche degli arti superiori.

Standard, norme e certificazioni. 2. Il loro ruolo nell’economia circolare.

In evidenza

Marino Melissano

 

Economia circolare

Il nostro sistema economico attuale è “lineare”: dalle materie prime produciamo un prodotto finito, lo usiamo e poi lo smaltiamo: terminato il consumo, finisce il ciclo del prodotto, che diventa un rifiuto. Esempi eclatanti: esce un nuovo smartphone, lo compriamo e gettiamo via il vecchio; la lavastoviglie si rompe, ne compriamo una nuova ed eliminiamo la vecchia. In questo modo ci siamo allontanati dal modello “naturale”, “biologico”: lo scarto di una specie è alimento di un’altra; in Natura qualsiasi corpo nasce, cresce e muore restituendo i suoi nutrienti al terreno e tutto ricomincia. (www.ideegreen.it)

Per Economia circolare si intende appunto un sistema economico che si può rigenerare da solo. Rigenerazione, riciclo, riuso. Tante “ri”, che non devono rimanere solo prefissi che rendono virtuosi i verbi, riempiendo la bocca di chi non sa poi nella pratica cosa fare, dove mettere le mani.

Per esempio, pensiamo a prodotti, costruiti e trasportati usando energie rinnovabili e che, una volta usati, possano restituire i componenti a chi li ha fabbricati e le eventuali parti biologiche all’ambiente, incrementando la produzione agricola. Ciò significa ripensare un modello industriale che usi solo materiali sicuri e compostabili o, se materiali tecnici, riciclabili. Circolare, flusso continuo: dalla materia prima alla produzione del prodotto finito, uso, riuso o riciclo.


Ponendosi come alternativa al classico modello lineare, l’economia circolare promuove, quindi, una concezione diversa della produzione e del consumo di beni e servizi, che passa ad esempio per l’impiego di fonti energetiche rinnovabili, e mette al centro la diversità, in contrasto con l’omologazione e il consumismo L’idea in sé dell’economia circolare è nata nel 1976, quando spunta in una rapporto presentato alla Commissione europea, dal titolo “The Potential for Substituting Manpower for Energy” di Walter Stahel e Genevieve Reday. Le applicazioni pratiche dell’economia circolare fanno però capolino, concretamente, su sistemi moderni e su processi industriali, solo negli anni ’70.
I maggiori obiettivi dell’economia circolare sono:

– l’estensione della vita dei prodotti (Product Life Cycle o PLC) e la produzione di beni di lunga durata,

– la sostenibilità ambientale,

– le attività di ricondizionamento e

– la riduzione della produzione di rifiuti.

In sintesi, l’economia circolare mira a vendere servizi piuttosto che prodotti.
Lo sviluppo di un sistema di economia circolare indurrebbe un cambiamento epocale ambientale, economico, occupazionale e di stili di vita. Secondo il Ministro dell’Ambiente Galletti “fare economia circolare conviene alle imprese, oltre che all’ambiente, perché significa consumare meno materie prime, avere processi produttivi più performanti, produrre meno rifiuti, che sono un costo e potrebbero, invece, trasformarsi in risorse”.

Nel 2014 la Commissione europea ha approvato una serie di misure per aumentare il tasso di riciclo negli Stati membri e facilitare la transizione verso “un’economia circolare.

La Commissione Europea il 2 dicembre 2015 ha adottato un nuovo Piano d’azione per l’economia circolare che prevede importanti modifiche alla legislazione in materia di rifiuti, fertilizzanti, risorse idriche, per sostenere il passaggio da un’economia lineare ad un’economia circolare, a basse emissioni di carbonio e resiliente ai cambiamenti climatici.

Contestualmente all’adozione della comunicazione COM (2015) 614/2 (http://www.minambiente.it/sites/default/files/archivio/allegati/vari/anello_mancante_piano_azione_economia_circolare.pdf) contenente il Piano per l’economia circolare, sono state presentate quattro proposte di modifica delle direttive che ricadono nell’ambito del pacchetto di misure sulla economia circolare (tra cui la direttiva quadro rifiuti, la direttiva discariche, rifiuti da imballaggio).

 

Economia circolare nel settore rifiuti

Secondo l’economia circolare i rifiuti sono “cibo”, sono nutrienti, quindi in un certo senso non esistono. Se intendiamo un prodotto come un insieme di componenti biologici e tecnici, esso deve essere progettato in modo da inserirsi perfettamente all’interno di un ciclo dei materiali, progettato per lo smontaggio e riproposizione, senza produrre scarti. Rispettivamente, i componenti biologici in una economia circolare devono essere atossici e poter essere semplicemente compostati. Quelli tecnici – polimeri, leghe e altri materiali artificiali – saranno a loro volta progettati per essere utilizzati di nuovo, con il minimo dispendio di energia.

In un mondo in cui regna l’economia circolare si privilegiano logiche di modularità, versatilità e adattabilità, perché ciascun prodotto sia di più lunga durata, sia realizzato e ancora prima pensato per poter essere aggiornato, aggiustato, riparato. Un design sostenibile di nome e di fatto.
L’EXPO 2015, con il suo 67% di raccolta differenziata, è stato un buon esempio di economia circolare. I visitatori hanno potuto essere parte della sfida di Expo e viverne i risultati, passeggiando in un sito dove verde, acqua, energia e illuminazione, materiali e sistemi di mobilità, erano tutti pensati per essere il più “green” possibile. (http://www.ideegreen.it/economia-circolare-67689.html#b888jJUwMogrfb8k.99).

La CE ha annunciato, nella Comunicazione del 27.01.17 “Chiudendo il cerchio- un piano d’azione europeo per l’economia circolare”, l’intenzione di intraprendere un’analisi e fornire opzioni sulle connessioni tra prodotti chimici di sintesi, materie prime e legislazione sui rifiuti, che portino anche a come ridurre la presenza e migliorare il monitoraggio di prodotti chimici pericolosi nei composti; ciò significa sviluppare politiche che possono fornire economia circolare attraverso un flusso senza soluzione di continuità di materiali riciclati dai rifiuti come materie prime adatte all’economia. L’analisi prenderà in considerazione un certo numero di studi, incluso quello del 2014 che aveva lo scopo di identificare azioni potenziali per l’economia circolare, settori prioritari, flusso di materiali e catene di valore, nonché il recente studio condotto dalla CE su “Ostacoli normativi per l’economia circolare – Lezioni e studio di casi”. Il risultato della procedura legislativa copre le molteplici direttive rifiuti, inclusa la direttiva quadro sui rifiuti 2008/98, attualmente in discussione del Consiglio e del Parlamento europei. I risultati sono previsti per la fine dell’anno in corso.

Esempi di applicazione dell’economia circolare

Grandi aziende aderenti al GEO (Green Economy Observatory) stanno sperimentando e mettendo in pratica modelli di economia circolare: Barilla ha lanciato il progetto “Cartacrusca”: viene prodotta la carta dallo scarto della macinazione dei cereali (crusca), lavorato insieme alla cellulosa; la toscana Lucart produce carta igienica, tovaglioli e fazzoletti dal recupero totale del tetrapak; Mapei ha sviluppato un additivo, “Re-con Zero”, che trasforma il calcestruzzo fresco inutilizzato (scarto) in un materiale granulare, usato come aggregato per nuovo calcestruzzo.

Tutto questo potrebbe portare con sé la fine di uno dei meccanismi su cui si basa l’economia lineare: (l’obsolescenza programmata dei prodotti) e potrebbe introdurre anche una serie di cambiamenti a livello culturale. Quella circolare è una forma di economia più collaborativa, che mette al centro non tanto la proprietà e il prodotto in quanto tale, ma la sua funzione e il suo utilizzo. Se una lavatrice viene progettata per funzionare per 10 mila cicli e non per 2 mila, può essere utilizzata da più di un consumatore attraverso l’attivazione di una serie di meccanismi economici a filiera corta: affitto, riutilizzo o rivendita diretta.

Per diventare un modello realizzabile e dominante l’economia circolare dovrebbe naturalmente garantire ai diversi soggetti economici una redditività almeno pari a quella attuale: non basta che sia “buona”, deve diventare conveniente. Gli incentivi a produrre sul modello di un’economia circolare sarebbero essenzialmente due: un risparmio sui costi di produzione e l’acquisizione di un vantaggio competitivo (un consumatore preferisce acquistare un prodotto di consumo circolare piuttosto che lineare). Prolungare l’uso produttivo dei materiali, riutilizzarli e aumentarne l’efficienza servirebbe a rafforzare la competitività, a ridurre l’impatto ambientale e le emissioni di gas e a creare nuovi posti di lavoro: l’UE, facendo le sue proposte sul riciclaggio, ha stimato che nei paesi membri ne sarebbero creati 580 mila.

Economia circolare e standard

Anche l’economia circolare ha il suo standard.

         Dopo la creazione di ISO 20400 è arrivato il momento di regolamentare un modello a cui le aziende possano fare riferimento per attuare in modo performante e funzionale l’economia circolare all’interno della loro organizzazione.

 Nasce così il primo standard di economia circolare, che parla inglese. A lanciarlo è stata, l’1 giugno 2017, la British Standards Institution BSI), un’organizzazione britannica di standardizzazione sul cui lavoro si basa anche la prima serie di norme ISO 9000.

In una prima volta, unica a livello mondiale, l’Istituto apre le porte alle imprese intenzionate a sposare i principi della circular economy.

La BS8001, questo il nome della norma, servirà ad aiutare le aziende di ogni dimensione a integrare le tre R del nuovo modello economico (ridurre, riusare e riciclare) nelle loro attività quotidiane e nelle strategie societarie a lungo termine. (www.bsigroup.com)

BS 8001 è uno standard “guida”: fornisce consigli e raccomandazioni in un quadro flessibile. “Non si può certificare la propria organizzazione o prodotto/servizio a questo standard”, spiega Cumming della BSI, si è completamente liberi di decidere l’allineamento che si desidera con i principi fondamentali stabiliti dallo standard”.

Questa norma è destinata all’applicazione su scala internazionale e al conseguente sviluppo non solo come standard di efficienza organizzativa aziendale, ma anche come strategia di gestione dei costi e dei conseguenti ricavi.

Lo standard BS 8001 è quindi figlio dell’ISO 20400, primo standard internazionale sugli acquisti sostenibili, che ha visto la luce l’1 aprile 2017, dopo 4 anni di lavoro del Comitato di Progetto ISO/PC 277: anche questo standard è una linea guida che vuole aiutare le aziende e le amministrazioni a fare scelte d’acquisto economicamente, eticamente ed ecologicamente migliori lungo tutta la catena di approvvigionamento; vuole indurre una nuova strategia politica di acquisto sostenibile, introducendo principi quali la responsabilità, la trasparenza e il rispetto dei diritti umani.

Anche qui siamo di fronte a semplici raccomandazioni, ma, nel momento in cui la norma viene inserita nei capitolati di appalto, diviene obbligatoria.

E il cerchio si chiude: dallo standard alla norma, dalla norma alla legislazione europea e nazionale, dalla legislazione al superamento di questa attraverso l’economia circolare.

Rimane tuttavia che tale standard presenta ancora aspetti discutibili e migliorabili; in un recentissimo lavoro (Resources, Conservation & Recycling 129 (2018) 81–92) gli autori scrivono che la norma cerca di mettere d’accordo “ le grandi ambizioni della economia circolare con le forti e ben stabilite routine del mondo degli affari.” che il controllo sull’implementazione della strategia dell’economia circolare rimane vaga e che le organizzazioni che usano la norma dovrebbero tener d’occhio la crescita dell’effettivo stock in uso di un determinato bene per verificare il successo concreto della strategia.

 

Occorre anche considerare che di fatto nel passato e nel presente produttivo ed industriale la necessità economica di ridurre i costi ha già indotto in alcuni casi da molti decenni a riciclare i materiali con cifre di riciclo nel caso di acciaio, vetro, alluminio, oro, piombo che sono di tutto rispetto, ma che questo non ha fatto diminuire quasi mai in modo significativo la pressione sulla ricerca di nuove risorse, sia per l’ampiamento continuo dei mercati e dei consumi che per l’uso di tecnologia che privilegiano non tanto il riciclo in se quanto la riduzione dei costi di produzione e che quindi raramente raggiungono valori veramente elevati.

Un altro recente risultato che dovrebbe farci accostare criticamente alla mera enunciazione della questione riciclo è dato dalla stima energetica del risparmio indotto dall’economia circolare in termini energetici; anche qui una stima realistica della riduzione in assenza di regole forti non darebbe risultati eclatanti; nel lavoro Thermodynamic insights and assessment of the circular economy pubblicato in Journal of Cleaner Production 162 (2017) 1356e1367,

gli autori concludono che l’economia circolare ha un potenziale di riduzione energetica non superore al 6-11% e dunque è equivalente alle tecnologie tradizionali per la riduzione energetica nell’industria. Ma che comunque:

.” The circular economy approaches tend to reduce demand for energy efficient processes slightly more than those with low energy efficiency. Therefore, from an overall perspective, the circular economy approaches are unlikely to make further energy efficiency savings disproportionately harder to achieve.

ossia

Gli approcci dell’economia circolare tendono a ridurre leggermente la domanda di processi efficienti dal punto di vista energetico rispetto a quelli a bassa efficienza energetica.

Pertanto, da un punto di vista generale, è improbabile che gli approcci all’economia circolare rendano ancora più difficile ottenere ulteriori risparmi in termini di efficienza energetica.

Ed infine dati analoghi si trovano in una pubblicazione del Club di Roma sul tema del riciclo (The Circular Economy and Benefits for Society di Wijkman ed altri, marzo 2016) in cui riconfermando i valori diretti di riduzione del consumo energetico dovuti al solo riciclo si sottolinea l’effetto sinergico delle scelte di riciclo, riuso, e uso delle rinnovabili.

Insomma le cose non sono automatiche e probabilmente avremo bisogno di norme e di standard più stringenti ed efficaci come anche di scelte politiche coraggiose e ad ampio raggio.

Pericolose assuefazioni

In evidenza

Mauro Icardi

Durante gli anni abbiamo sentito spesso ripetere dai media, dagli enti deputati al controllo della qualità dell’ambiente quali l’Arpa, e dall’ istituto superiore di sanità la pericolosità degli ossidi di azoto, in particolare l’NO2. Componente naturale dell’aria che respiriamo, ma presente in concentrazione bassa (0,02 ppm). I processi di combustione legati alla produzione di calore ed energia ed al traffico autoveicolare (soprattutto veicoli diesel) contribuiscono notevolmente ad aumentare la concentrazione dell’NO2 nelle aree urbane, al punto che l’NO2 è ragionevolmente considerato un tracciante dell’inquinamento da traffico.

In ambiente urbano le concentrazioni medie annuali possono variare da 20 a 90 μg/m3, ma il limite che l’Organizzazione mondiale della sanità (OMS) suggerisce di non superare, a tutela della salute umana, è di 40 μg/m3 come media annuale e di 200 μg/m3 come concentrazione media oraria.

Gli effetti sulla salute umana di questo inquinante, desunti da sperimentazioni su animali, vanno dalle irritazioni delle vie aeree superiori, alla cronicizzazione di bronchiti ed asma. Più di recente sono stati definiti i possibili danni dell’NO2 sull’apparato cardio-vascolare come capacità di indurre patologie ischemiche del miocardio, scompenso cardiaco e aritmie cardiache.

Tutto questo è stato ribadito nella trasmissione “ Presa diretta” dove nella puntata del 5 Febbraio scorso è stato mostrato come l’associazione “Cittadini per l’aria” in collaborazione con la divisione di chimica dell’ambiente della Società Chimica Italiana abbia dato il via ad una capillare campagna di monitoraggio dell’NO2 a Roma. Campagna già effettuata anche a Milano con le stesse modalità.

Tramite il posizionamento di campionatori passivi che possono essere posizionati ad esempio sui pali dei segnali stradali, o dell’illuminazione pubblica si ha modo di raccogliere una quantità di dati che daranno una mappa dettagliata delle concentrazioni di questo inquinante.

L’iniziativa è certamente valida e lodevole. E’ un punto di partenza per monitorare uno dei numerosi inquinanti presenti nell’aria delle nostre città. E’ un’iniziativa che, a mio modo di vedere deve servire per renderci maggiormente consapevoli di cosa stiamo facendo al nostro ambiente, e a quali rischi per la nostra salute stiamo andando incontro. Le pericolose assuefazioni di cui parlo nel titolo, sono quelle a cui negli anni abbiamo finito per non opporci più. Pensando inconsciamente che smog ed inquinamento fossero il prezzo che occorreva pagare per garantire uno stile di vita moderno. Accorgendoci invece che questo prezzo ha limitato anche il nostro diritto a muoverci.

Sempre più frequentemente le autorità sanitarie raccomandano di non uscire in determinate ore del giorno, quando per esempio i livelli di smog non sono tollerabili e potrebbero danneggiare la nostra salute. Non si tratta solo del diossido d’azoto, ma penso anche all’ozono durante le giornate molto calde.Da sempre ho cercato di fare la mia parte. Sono purtroppo incappato in un incidente mentre ero in bici e mi stavo andando al lavoro.

Ma quando sarò ristabilito non credo che smetterò di utilizzarla. Ma quello che mi auguro e che si capisca quanto prima, che non è il gesto del singolo che può risolvere questo tipo di problemi. Occorre pensare e costruire (cosa certamente faticosa, ma necessaria) una nuova visione dei nostri bisogni e delle nostre reali priorità. Capire finalmente che stiamo correndo in direzione di una sorta di suicidio ecologico collettivo. Inerti ed incapaci di fare sforzi di cambiamento. Eppure i segnali di allarme che stiamo consapevolmente trascurando ci sono. Io penso sia un cambiamento da affrontare. Altrimenti continuare a far finta di nulla, è come quando da bambini ci si copre gli occhi per non vedere. Significa cullarsi in un sorta di pensiero magico di ritorno. Che è illusorio. Ma non dispero, e non mi arrendo.

http://www.cittadiniperlaria.org/

Prodotti di ieri e di oggi. 2. Formitrol.

In evidenza

Claudio Della Volpe

Questa settimana sono stato a casa con l’influenza; anche un po’ arrabbiato perchè ho fatto il vaccino, ma non è bastato; in realtà in molte regioni non si è usato il quadrivalente consigliato dall’ISS. Ma non in tutte. Nella mia si è usato.

Il fatto è che può succedere anche ai vaccinati di ammalarsi; perchè? Beh ne abbiamo parlato qualche mese fa: la sieroconversione è parziale e quella del vaccino antinfluenzale non supera il 70% nel migliore dei casi e dunque quello che avviene è che si riduce la probabilità, ma non c’è alcuna sicurezza; inoltre ci sono ceppi non coperti.

“La diffusione dell’influenza è superiore alle attese” avverte il presidente dell’Istituto Superiore di Sanità, Walter Ricciardi.

Influnet registra 3 milioni 883 mila contagi da inizio stagione, che cosa significa?

“Vuol dire che il virus sta circolando tantissimo, la peggiore epidemia influenzale degli ultimi 14 anni, a fine stagione ci saranno più allettati di quanto previsto”.

Le regioni dovevano somministrare vaccino quadrivalente. Hanno tirato al risparmio? 

“È una constatazione, senza spirito polemico. Che sia germe, microbo, virus o batterio, è nostro dovere garantire la maggiore copertura. Per il costo, questi vaccini derivano da investimenti importanti, da qui il prezzo”.

Quindi questa alta diffusione dei contagi a livello nazionale come si spiega?

“Le coperture vaccinali sono state modeste negli anziani, negli italiani in generale. E il vaccino quadrivalente, che fornisce copertura anche contro il ceppo, Yamagata di tipo B, è stato somministrato solo nel 40% dei casi. Il 60% dei vaccini era trivalente e copriva solo tre ceppi A-H1N1, A-H3N2 e un solo tipo di virus B”.

Ci sono poi le mutazioni, le forme influenzali particolarmente insidiose.

“Fortunatamente non abbiamo avuto la variante inglese, ancora più pericolosa. Loro hanno chiuso tutti gli ospedali, rinviato gli interventi chirurgici. Ma i virus non hanno confini, dobbiamo stare in guardia. Sono d’accordo per questo con le osservazioni di Cricelli della Simg e con Bernabei di Italia Longeva, tutelare e prevenire, con un occhio di riguardo verso bambini, anziani e fragilità”.

(https://www.quotidiano.net/cronaca/influenza-2018-1.3672810)

Insomma il mio mal di gola accompagnato da mal di testa, malessere generale durato una settimana mi ha obbligato ad usare dei farmaci sintomatici, come avviene per milioni di altre persone.

E così ho cominciato a ricordare che da ragazzo ne ho sofferto veramente parecchio; ogni anno avevo un mal di gola con febbre alta, fino a 14 anni, quando fu deciso che sarei stato operato, un intervento che si faceva senza alcuna anestesia, durava un po’ e aveva l’unico aspetto positivo che dopo, per un paio di settimane ricevevi, oltre ad indegne pappette morbide, tanti gelati e soprattutto NON andavi a scuola!!!!

Beh comunque sia per anni ho usato farmaci sintomatici contro il mal di gola (gli antibiotici arrivavano solo dopo un po’ e nei primi anni 60 erano cari e anche pochi). E quale era il farmaco preferito da tutti i ragazzi della mia età?

Il FORMITROL!!!

Era il più comune antisettico orale e uno tra i prodotti di punta dei laboratori Dr. Wander di Milano, che produceva anche l’Ovomaltina e il Cioccovo; ma sinceramente gli ultimi due li conoscevo per pubblicità ma non li ho mai mangiati (a casa mia in periferia di Napoli erano più comuni le uova fresche: quasi tutti avevano in casa una gallina o anche più, ovviamente sul terrazzo o sul balcone; ci credete?).

L’alternativa era il clorato di potassio, puro. Ma a me piaceva di più il Formitrol.

Dentro c’erano alcune cosette molto particolari:

http://vecchiestampe.blogspot.it/2013/11/formitrol-1957.html

La composizione la trovate nella foto sopra:1g di pastiglia: 10mg di formaldeide, 1 di mentolo e il resto: zucchero, acido citrico ed essenze non identificate che attiravano i bambini.

La formaldeide o aldeide formica fu sintetizzata per la prima volta nel 1867 da August Wilhelm von Hofmann, facendo reagire i vapori dell’alcol metilico su una lamina di platino molto calda.

Si tratta dell’aldeide più semplice e anche più piccola, che è un antibatterico potentissimo, ma viene anche impiegata nella produzione di vaccini (basati su microorganismi uccisi), nella conservazione dei campioni istologici, nell’imbalsamazione, nella produzione della bachelite, nelle schiume isolanti, come additivo alimentare nei prodotti affumicati (E240), nelle colle e in tantissimi altri modi (produzione mondiale oltre 20 Mton/anno)

Tuttavia nel 2004 lo IARC (Agenzia Internazionale di Ricerca sul Cancro) ha deciso di includerla nell’elenco delle sostanze cancerogene per la specie umana: classe 1.

La sua molecola è planare; l’atomo di carbonio ha ibridazione sp2 ed è al centro di un triangolo circa equilatero ai cui vertici si trovano i due atomi di idrogeno e quello di ossigeno.

paraformaldeide (1,3,5-triossano)

Gassosa a temperatura ambiente, si trova generalmente in due forme: come soluzione acquosa al 37% o come paraformaldeide in forma di 1,3,5-triossano, molecola ciclica formata dall’unione di tre molecole di formaldeide. La ciclizzazione è una reazione reversibile, la paraformaldeide può essere riconvertita in formaldeide.

In soluzione acquosa, la formaldeide è in equilibrio con la sua forma idrata, il glicole metilenico (o “metandiolo”, CH2(OH)2 CAS. 463-57-0 EINECS 207-339-5). Tale equilibrio a temperatura ambiente è quasi completamente spostato a destra (K > 1000); pertanto una “soluzione acquosa di formaldeide” è di fatto una soluzione acquosa di glicole metilenico.[3]

(da Wikipedia)

L’Unione Europea ha messo al bando la formaldeide eliminandola dai prodotti finiti, ed imponendo una soglia molto severa in tutti gli altri casi.

Anche il Formitrol ha dovuto cambiare composizone:

Oggi abbiamo il Formitrol e il Neoformitrol, la cui composizione vedete qui sotto:

NEO-Formitrol : Cetilpiridinio cloruro mg 1. Gli altri componenti sono: aroma di limone speziato (12689), saccarina, paraffina liquida,polivinilpirrolidone, polivinilpirrolidone vinilacetato, talco, saccarosio per compressione.

Il cetilpiridinio è un tensioattivo cationico, dotato di capacità disinfettanti, disgrega le membrane cellulari batteriche, e presente anche in molti dentrifici e collutori (colluttorio è SBAGLIATO!!).

Simile alle molecole di membrana, ma con cariche opposte ha una potente azione disgregatrice.

Formitrol: Ogni pastiglia contiene 8,75 mg di flurbiprofene Eccipienti con effetti noti Isomalto 2160 mg/pastiglia Maltitolo 383 mg/pastiglia Idrossianisolo butilato (E320) 0,013 mg/pastiglia

Il flurbiprofene è un’ antinfiammatorio potente, ma anche potenzialmente tossico, con vari effetti collaterali.

Molecola otticamente attiva, usata in miscela, è un classico dei FANS, antinfiammatori non steroidei, di cui condivide il meccanismo di azione (inibizione della sintesi di prostanglandine e quindi blocco della cascata infiammatoria).

Dubito che possano anche solo pallidamente bissare il successo del Formitrol presso i bambini della mia epoca. Pensateci, un agente cancerogeno conclamato venduto per anni come antisettico e consigliato a tutti i bambini (anche d’estate). Di sapore era buono, direi……pungente! E dopo tutto siamo una delle generazioni più longeve.

Voi che ne dite?

Standard, norme e certificazioni.1. Cosa sono e perché ne abbiamo bisogno?

In evidenza

Marino Melissano

L’importanza della standardizzazione e della normazione

Cos’è una norma? Ce lo dice la Direttiva Europea 98/34/CE del 22 giugno 1998: “norma” è la specifica tecnica approvata da un organismo riconosciuto a svolgere attività normativa per applicazione ripetuta o continua, la cui osservanza non sia obbligatoria.

Infatti:

  • le norme sono volontarie: costituiscono un riferimento che le parti interessate si impongono spontaneamente;
  • sono basate sul consenso e sulla trasparenza: devono essere approvate con il consenso di tutti coloro che hanno partecipato ai lavori e l’iter di approvazione è pubblicato e messo a disposizione degli interessati;
  • sono democratiche: tutte le parti interessate possono partecipare ai lavori e formulare osservazioni;
  • ogni cinque anni vengono sottoposte a riesame.

Quindi, le norme sono documenti che definiscono le caratteristiche di un prodotto, di un processo, di un servizio (dimensionali, prestazionali, ambientali, di qualità, di sicurezza, di organizzazione), secondo lo stato dell’arte e sono il risultato del lavoro di migliaia di esperti in Italia e nel mondo.

E ancora: «possiamo affermare che oltre a creare vantaggio per la comunità dei produttori e per la società economica nel suo complesso, le norme salvaguardano gli interessi del consumatore e della collettività.» Una norma è un documento che prescrive come fare bene le cose, garantendo sicurezza, rispetto per l’ambiente e prestazioni certe. (www.uni.com)

Norme e standard sono la stessa cosa?

 Spesso le due voci sono usate indifferentemente, considerato però che gli standard sono norme tecniche.

Alla voce “standard” dell’enciclopedia Treccani on line troviamo:

«Modello o tipo di un determinato prodotto, o insieme di norme fissate allo scopo di ottenere l’unificazione delle caratteristiche (standardizzazione) del prodotto medesimo, da chiunque e comunque fabbricato. Anche, insieme degli elementi che individuano le caratteristiche di un determinato processo tecnico

Tale concetto non è riferibile esclusivamente all’ambito tecnologico, ma in generale a tutto l’ambito della produzione manifatturiera e industriale. Si coglie quanto la possibilità di fare affidamento su uno standard generalmente riconosciuto e le cui caratteristiche siano pubbliche, agevoli la produzione industriale in due direzioni:

  • per chi progetta e produce, poiché, conoscendo tali informazioni, può evitare un dispendio di risorse e ha maggiori possibilità che il suo prodotto sia accolto dal mercato;
  • per i consumatori, poiché, ricevendo prodotti ideati sulla base di standard condivisi, avranno maggiori garanzie che tali prodotti possano funzionare tra di loro.

Ciò trova conferma in un passaggio del libro intitolato emblematicamente “Le regole del gioco”, prodotto da UNI (ente di standardizzazione italiano) con lo scopo di fare informazione e divulgazione in materia di normazione:

«applicare uno standard è: promuovere la sicurezza, la qualità della vita e la conservazione dell’ambiente, regolamentando prodotti, processi e servizi; migliorare l’efficacia ed efficienza del sistema economico, unificando prodotti, livelli prestazionali, metodi di prova e di controllo; promuovere il commercio internazionale, armonizzando norme e controlli di prodotti e servizi; facilitare la comunicazione, unificando terminologia, simboli, codici ed interfacce; salvaguardare gli interessi del consumatore e della collettività

Pari interesse desta la definizione più succinta presente nella sezione “Frequently asked questions” del sito web dell’ISO (autorevole ente di normazione a livello mondiale):

«[A standard is] a documented agreement containing technical specifications or other precise criteria to be used consistently as rules, guidelines, or definitions of characteristics to ensure that materials, products, processes and services are fit for their purpose.»

Come la precedente, anche questa definizione sembra dare per acquisito che l’idea di standard e di norma siano pressoché coincidenti. Si noti infatti l’accento posto sul concetto di “accordo documentato” contenente le specifiche tecniche o altri criteri per lo sviluppo di materiali, prodotti, processi e servizi.

Gli standard normativi servono ad assicurare la qualità e la sicurezza del contenuto o del trattamento di un’informazione o di un servizio.

Quando si tratta di documenti elettronici, la standardizzazione è cruciale, perché condiziona la diffusione e garantisce un accesso realmente aperto alle informazioni.

Standard de jure e de facto

Si parla di standard de jure quando lo standard è frutto di un regolare processo di analisi tecnica e di definizione, gestito da apposite organizzazioni, e quando è stato formalizzato e descritto in uno specifico documento chiamato comunemente “norma tecnica”, o anche più semplicemente “norma”; di conseguenza gli enti preposti a questo tipo di attività vengono denominati enti di formazione (o anche più genericamente di standardizzazione).

Le norme vengono formalizzate attraverso un complesso meccanismo di consultazione e analisi (Comitati di progetto, CP) che vede il coinvolgimento, da parte dell’ente di normazione, di esperti del settore industriale implicato (Comitati Tecnici, CT) e dei cosiddetti stakeholders, ovvero i soggetti potenzialmente interessati allo standard nascente, tra cui i rappresentanti dei consumatori. Ovviamente l’autorevolezza di una norma dipende anche (anzi, soprattutto) dalla presenza del maggior numero di tecnici, di stakeholders coinvolti nel processo e dalla loro autorevolezza. Una norma deve basarsi su comprovati risultati scientifici, tecnologici e sperimentali.

Ci sono modelli di riferimento che, solo per la loro elevata diffusione, vengono comunemente considerati standard, ma in realtà non sono mai stati riconosciuti come tali da apposite organizzazioni attraverso un regolare processo di standardizzazione: si parla in questo caso di standard de facto.

 

Norme e certificazioni

Fare norme non significa fare certificazione. Queste vengono effettuate da appositi enti accreditati: In base al Reg. CE 765/2008 (eur-lex.europa.eu) è Accredia, che garantisce la certificazione, in conformità alle norme UNI.

Norme tecniche e leggi

Tra normazione tecnica e legislazione esiste un rapporto stretto, ma anche complesso. Se infatti l’applicazione delle norme tecniche è volontaria, quando queste vengono richiamate nei provvedimenti legislativi può intervenire un livello di cogenza, delimitato pur sempre dal contesto di riferimento. La sinergia più corretta è quella della co-regolamentazione: il legislatore affida alla normazione la definizione degli elementi sufficienti al raggiungimento degli obiettivi di legge.
Sono infatti numerosi i provvedimenti di legge che fanno riferimento – genericamente o con preciso dettaglio – alle norme tecniche, a volte obbligatoriamente, altre solo preferenzialmente.

Uno dei casi più emblematici di sinergia tra norme e leggi è dato dalle direttive europee, cosiddette “Nuovo approccio” (GU dell’UE del 26.07.2016), che definiscono i requisiti essenziali di salute e sicurezza dei prodotti. La legislazione deve fissare solo i requisiti essenziali di sicurezza e non le specifiche tecniche della produzione. La stesura delle specifiche tecniche è demandata agli organismi di normazione europei.

I produttori possono liberamente scegliere come rispettare tali requisiti obbligatori, ma se lo fanno utilizzando le norme tecniche europee “armonizzate” (cioè norme elaborate dal CEN su richiesta della Commissione Europea e citate dalla Gazzetta Ufficiale) i prodotti beneficiano automaticamente della presunzione di conformità e possono dunque liberamente circolare nel mercato europeo.

In una economia di libero scambio, la normazione volontaria è la chiave di volta della governance del mercato unico: rappresenta una regolamentazione indispensabile per riequilibrare i rapporti di forza tra gli operatori, tutelare gli interessi dei consumatori e supportare le azioni regolamentative.

Uno dei grandi valori della normazione sta, dunque, nella sua funzione di supporto alla legislazione.

Le prescrizioni di legge possono trovare la loro concreta declinazione nelle norme tecniche, che semplificano il sistema e rendono più veloce e automatico l’aggiornamento del corpus legislativo.

Alcuni esempi più recenti e significativi del rapporto virtuoso tra norme e leggi:

  • Edifici scolastici: norme di prevenzione incendi
  • Acquisti sostenibili e criteri ambientali minimi
  • Verso la green economy: la legge 221/2015 cita le norme UNI
  • Direttiva EN-71: la sicurezza dei giocattoli
  • Salute e sicurezza sul lavoro: richiamo delle norme UNI nelle leggi del settore
  • UNI EN 1811:2011: norma armonizzata ai sensi del Reg. 1907/2006, conosciuto come regolamento REACH (Registration, Evaluation and Authorization of Chemicals). La norma specifica un metodo per simulare il rilascio di Ni, utilizzato per determinare la conformità degli articoli sottoposti al test all’allegato XVII, punto 27, del REACH.

Si cita, a questo proposito, la sentenza di primo grado sul caso Thyssen (Trib. Torino, Corte d’Assise, 15 aprile 2011), che, di fronte alle argomentazioni della difesa che lamentava le difficoltà legate al dare adempimento all’obbligo previsto dall’articolo 2087 c.c.( “il datore, per tutelare l’integrità psico-fisica del prestatore, ha l’obbligo di predisporre le cautele necessarie secondo la particolarità del lavoro, l’esperienza e la tecnica): dapprima premette che “la Corte non ignora una ipotizzabile difficoltà, per il datore di lavoro, di conoscere effettivamente come comportarsi […] a fronte di un dovere generale di solidarietà e di una espressione di ampio contenuto quale quella di cui all’art. 2087 c.c. […].” 

Ma poi aggiunge che “il dovere generale di tutela, derivante dalla Costituzione e dall’art. 2087 c.c., funge da – elementare, ma altrettanto fondamentale – criterio interpretativo per tutta la legislazione in materia di sicurezza e di salute dei lavoratori, a cominciare dal D.Lgs 626/94 (ora D.Lgs. 81/08), passando per i decreti ministeriali, per giungere alle norme “tecniche”, le quali ultime, riproducendo lo “stato dell’arte” (nel nostro caso, relativo alla materia di prevenzione antincendio), costituiscono il “contenuto” preciso del rinvio alla “tecnica” ed alle “conoscenze acquisite in base al progresso tecnico” come indicate all’art. 2087 c.c. all’art. 3 D.Lgs 626/94.” [Ora art. 15 c. 1 lett c).D.Lgs. 81/08.]

 

Dunque – secondo la sentenza torinese – le norme tecniche, riproducendo lo “stato dell’arte”, costituiscono il “contenuto” preciso del rinvio alla “tecnica”, operato dall’articolo 2087 del codice civile, ed anche del rinvio che l’attuale art. 15 del D.Lgs.81/08 (“misure generali di tutela”) fa alle “conoscenze acquisite in base al progresso tecnico”.

Direttiva EN-71: la sicurezza dei giocattoli

Le norme tecniche UNI EN 71, adottate e pubblicate in Italia dall’UNI (www.uni.com), stabiliscono i requisiti di sicurezza e i metodi di prova sui giocattoli destinati ai bambini fino ai 14 anni di età.

Dette norme sono rientrate nella DIR CE 2009/48, recepita in Italia dal Dlgs 54 dell’11.04.2011 e quindi sono diventate cogenti.

Molti giocattoli sono però di importazione cinese.

E’ obbligatorio rispettare gli standard EN 71 quando si importano giocattoli dalla Cina?

Sì. Non vi è alcuna differenza tra il realizzare il prodotto in Europa o l’importarlo da un altro paese: bisogna comunque rispettare gli standard EN 71. Il problema è che a volte è difficile capire se un dato prodotto sia da considerarsi un “giocattolo” o meno ai sensi della direttiva EN 71. La definizione più comune è la seguente: se un prodotto può venir usato per giocare ed è destinato ai minori di 14 anni, allora deve essere conforme alla direttiva EN 71. Sembra che solo il 12% dei fornitori di giocattoli presenti su portali commerciali dichiari di poter produrre giocattoli conformi alla direttiva EN 71.

Come se non bastasse, molti fornitori cinesi tendono a mentire sui certificati in modo da assicurarsi il maggior numero possibile di clienti europei o americani. Quindi, siccome sappiamo per esperienza che buona parte dei certificati dichiarati sono falsi o scaduti, ci sentiamo di affermare che solo il 3-5% dei fornitori cinesi di giocattoli sia qualificato per esportare in Europa.

D’altronde, è l’importatore ad essere legalmente responsabile – sia a livello civile che penale – per il rispetto delle direttive europee, non certo il fornitore cinese. (https://cinaimportazioni.it)

Chi si occupa di standardizzazione

La standardizzazione è effettuata a livello internazionale dall′International Organization for Standardization (ISO), mentre a livello europeo è effettuata dal Comitato Europeo di Normazione (CEN) ed a livello italiano dall’Ente nazionale italiano di unificazione (UNI), mentre negli USA l’ente di standardizzazione è l′American National Standards Institute (ANSI), membro dell’ISO. La CEI è un’associazione di normazione tecnica in campo elettrotecnico ed elettronico, che partecipa, su mandato dello Stato italiano, ai lavori del CENELEC e dello IEC. In base alla L 186/1968, tutti i materiali, le apparecchiature, i macchinari, le installazioni e gli impianti elettrici ed elettronici, devono essere realizzati e costruiti a regola d’arte, e quelli prodotti secondo le norme CEI si considerano costruiti a regola d’arte.

L’UNI è un’associazione privata senza scopo di lucro, che partecipa, in rappresentanza dell’Italia, all’attività normativa degli organismi internazionali di normazione ISO. Riconosciuto dal Reg. 1025/2012 UE (art. 27), nel 2016 ha pubblicato 1.702 norme. L’attività di normazione è svolta da una struttura multilivello, articolata in circa 1.100 organi tecnici (OT) e 7 organizzazioni esterne indipendenti (Enti federati), sotto la supervisione della Commissione Centrale Tecnica (CCT), che coordina i lavori di normazione e approva, su proposta dell’OT competente, il recepimento delle norme ISO.

In ambito alimentare è da citare anche il Codex Alimentarius, insieme di regole e normative adottate da 181 Paesi ed elaborate dalla Commissione del Codex, istituita nel 1963 dalla FAO e dall’OMS. Gli standard del Codex si basano su dati e considerazioni oggettive, confortate da acquisizioni scientifiche, provenienti da organismi di ricerca indipendenti e/o su consultazioni internazionali ad hoc, organizzate dalla FAO e dall’OMS. Pur se costituiscono solo raccomandazioni, gli standard del Codex sono spesso usati come base per le legislazioni sanitarie, tecniche e commerciali dei vari Paesi.

Occorre qui citare anche l’ANEC, (European consumer voice in standardization), che difende gli interessi dei consumatori nei processi di standardizzazione e certificazione, collaborando in tal senso con la CE, nella stesura e nell’implementazione delle norme.

Le sigle che caratterizzano le norme

Le norme, oltre che da numeri, sono indicate da sigle. Dalla sigla si può risalire a chi l’ha elaborata e alla sua validità.

Le principali sigle che caratterizzano una norma sono:

  • UNI: contraddistingue tutte le norme italiane e, se è l’unica sigla presente, significa che la norma è stata elaborata direttamente dalle commissioni UNI o dagli enti federati;
  • EN: identifica le norme elaborate dal CEN (Comité Européen de Normalisation). Le norme EN devono essere obbligatoriamente recepite dai Paesi Membri. La loro sigla di riferimento diventa, nel caso dell’Italia, UNI EN. Queste norme servono ad uniformare la normativa tecnica in tutta Europa;
  • ISO: individua le norme elaborate dall’ISO, che sono un riferimento applicabile in tutto il mondo. Ogni Paese può decidere se rafforzarne il ruolo adottandole come proprie norme nazionali; in questo caso, in Italia, la sigla diventa UNI ISO o UNI EN ISO, se la norma è stata adottata anche a livello europeo.

ALCUNI ESEMPI

Per percepire quanto questa tematica influisca sulla vita di tutti noi (pur inconsapevoli), basta avanzare alcuni esempi:

  • i fogli A4 su cui uffici pubblici, aziende, professionisti e privati stampano i loro documenti rispondono ad un preciso standard dimensionale di 210 per 297 millimetri: da ciò deriva che se utilizziamo quel tipo di carta, siamo pressoché certi che riusciremo ad inserirla in qualsiasi modello di stampante, di fotocopiatrice, di rilegatrice presenti sul mercato;
  • la tastiera alfanumerica comunemente detta “QWERTY” dalle prime lettere in essa presenti (da sinistra in alto), è il tipo di tastiera ormai universalmente utilizzato, da noi, su computer, palmari, smartphone, macchine da scrivere e altri dispositivi simili. Molte persone sono ormai così avvezze alla posizione delle lettere che possono digitare ampie porzioni di testo senza nemmeno guardare direttamente la tastiera; e questo indipendentemente dal tipo di dispositivo che si sta utilizzando. Si provi a immaginare il disorientamento e il disagio in cui ci troveremmo se ciascun produttore di dispositivi elettronici utilizzasse un proprio diverso ordine nella disposizione delle lettere.

Scienziate che avrebbero dovuto vincere il Premio Nobel: Hertha Ayrton (1854-1923)

In evidenza

Rinaldo Cervellati.

I primi di gennaio del 1902 il Segretario della Royal Society ricevette una breve lettera dal membro John Perry[1], contenente in allegato la proposta di nomina a membro di Mrs. Hertha Marks Ayrton.

Era la prima volta che veniva richiesta l’elezione di una donna alla Royal Society. Nonostante il supporto di nove membri, la nomina venne rifiutata dopo un lungo iter che è stato poi definito “un episodio imbarazzante nella storia della Royal Society” [1].

Hertha Marks Ayrton

Ma, chi è stata e cosa ha fatto Hertha Marks Ayrton ?

Nasce Phoebe Sarah Marks il 28 aprile 1854 a Portsea (contea di Hampshire, Inghilterra) terza figlia di Levi Marks, immigrato giudaico polacco di professione orologiaio e di Alice Teresa Moss, sarta, figlia di un commerciante di vetro. Nel 1861 la madre divenne vedova con sette figli e un ottavo in arrivo, due anni dopo la piccola Phoebe Sarah fu invitata dagli zii, Marion e Alphonse Hartog, a andare a vivere con loro e i suoi cugini a Londra. La famiglia Hartog, che gestiva una scuola nel nord-ovest di Londra, le assicurò una ampia educazione comprendente lingue antiche e moderne e musica. I cugini la introdussero alla matematica e alle scienze. Alla scuola degli Hartogs, Sarah si fece conoscere sia come eccellente negli studi, sia come combattente per la causa dei diritti civili alle donne. Furono questi principi che in seguito portarono al suo coinvolgimento nel movimento delle “suffragette”.

A 16 anni iniziò a lavorare come istitutrice, potendo così aiutare anche economicamente madre e fratelli. E’ probabilmente in questo periodo che l’amica Ottilie Blind Hancock[2], cominciò a chiamarla Hertha (dal nome della protagonista di un poema di Swinburne[3] sulla dea scandinava della Terra, Erda), forse a causa della sua vitalità. Fatto è che Phoebe Sarah Marks mantenne questo nome per tutto il resto della vita. Cominciò anche a studiare per l’esame per donne dell’università di Cambridge, aspirando a frequentare il College femminile fondato da Emily Davies, trasferitosi nel 1873 a Girton (Cambridge) come Girton College. In questo fu aiutata da Barbara Bodichon[4], co-fondatrice del Girton College che divenne sua amica e benefattrice. Attraverso Bodichon conobbe George Eliot[5] che in quel momento era impegnata a scrivere il suo ultimo romanzo Daniel Deronda. I biografi sono concordi nell’affermare che molte caratteristiche di Mirah, personaggio principale del romanzo, siano comuni a quelle di Hertha.

Ritratto di Hertha Ayrton

Superato l’esame con onori, Hertha fu ammessa al College nel 1877 e sostenne l’esame del Progetto Scientifico Tripos nel 1880, ma l’Università di Cambridge non le rilasciò un diploma accademico perchè all’epoca concedeva alle donne solo certificati. Durante il college Hertha ideò e costruì un apparecchio per misurare la pressione del sangue (sfigmomanometro) e uno strumento per disegno tecnico in grado di dividere una linea in un numero qualsiasi di parti uguali e per ingrandire o ridurre le figure, quest’ultimo fu molto utilizzato da ingegneri, architetti e artisti. I due strumenti ottennero il brevetto nel 1884. I suoi biografi sostengono che Hertha ereditò queste capacità manuali dal padre, costruttore di orologi.

Al Girton, Hertha formò, insieme alla compagna Charlotte Scott un club matematico per “trovare problemi da risolvere e discutere eventuali questioni matematiche che possono sorgere”. Formò anche la Girton Fire Brigade, un gruppo di ragazze addestrate come vigili del fuoco e fu tra le leader del locale Coro.

Indispettita dall’atteggiamento antifemminista dell’Università di Cambridge, superò con successo un esame esterno ottenendo il B.Sc. dall’Università di Londra nel 1881.

A Londra Hertha lavorò come insegnante privata di matematica e altre materie fino al 1883. Fu anche attiva nel progettare e risolvere problemi matematici, molti dei quali furono pubblicati nella rubrica “Mathematical Questions” e “Their Solutions” dell’ Educational Times. J. Tattersall e S. McMurran [2] scrivono: Le sue numerose soluzioni indicano indubbiamente che possedeva una notevole intuizione geometrica ed era un’eccellente studentessa di matematica.

Continuò a studiare scienze, nel 1884 seguì il corso serale sull’elettricità al Finsbury Technical College[6], avendo come docente il professor William (Bill) Ayrton[7]. L’anno successivo sposò il professore diventando così Hertha Ayrton. Per qualche tempo dopo il matrimonio, le responsabilità domestiche assorbirono gran parte delle energie di Hertha, tuttavia mantenne vivo l’interesse per le scienze e nel 1888 tenne una serie di conferenze per donne sull’elettricità.

Il testamento di Barbara Bodichon, morta nel 1891, contemplava un generoso lascito a Hertha, ciò che le permise di assumere una governante e dedicare la sua attenzione in modo più completo alla ricerca scientifica. Tuttavia un altro episodio fu determinante a convincere Hertha a approfondire le indagini sperimentali sull’arco elettrico. Infatti Bill Ayrton che si occupava di questo tipo di ricerca non collaborava con la moglie, consapevole del fatto che lavori in collaborazione sarebbero comunque stati attribuiti solo a lui dalla comunità scientifica. Ma nel 1893 il testo in copia unica di una sua conferenza tenuta a Chicago sulla dipendenza della differenza di potenziale dell’arco elettrico da diversi fattori andò accidentalmente distrutto, da quel momento Bill Ayrton decise di occuparsi di altri problemi. Quindi Hertha potè proseguire le indagini sull’arco elettrico con sue proprie ricerche.

Hertha Ayrton durante una dimostrazione

Verso la fine del diciannovesimo secolo, l’arco elettrico era ampiamente utilizzato per l’illuminazione pubblica. La tendenza degli archi elettrici a tremolare e sibilare era però un grosso problema. Nel 1895, Hertha Ayrton scrisse una serie di articoli per la rivista The Electrician, stabilendo che questi fenomeni erano il risultato dell’ossigeno che veniva a contatto con le barre di carbonio usate per l’arco. Nel 1899 fu la prima donna a esporre il proprio lavoro all’Institute of Electrical Engineers (IEE, attualmente IET, Institute of Engineering and Technology).

Il suo articolo, intitolato “The Hissing of Electric Arc” [3] fu determinante per il miglioramento della tecnologia degli archi. Poco dopo, Ayrton fu eletta membro dell’IEE, prima donna a ottenere quel riconoscimento. Come detto all’inizio non andò così con la Royal Society a causa del suo sesso[8] e la sua comunicazione “The Mechanism of the Electric Arc” [4] fu letta in sua vece da John Perry nel 1901.

Alla fine del XIX secolo, il lavoro di Hertha Ayrton nel campo dell’ingegneria elettrica fu ampiamente riconosciuto a livello nazionale e internazionale. Al Congresso internazionale delle donne tenutosi a Londra nel 1899, presiedette la sezione di scienze fisiche. Ayrton intervenne anche all’International Electrical Congress tenutosi a Parigi nel 1900 con un comunicazione dal titolo: L’intensité lumineuse de l’arc à courant continu. Il suo successo ha portato l’Associazione Britannica per l’Avanzamento della Scienza a consentire alle donne di far parte a comitati generali e settoriali.

Nel 1902, Ayrton pubblicò il volume The Electric Arc [5], una sintesi delle sue ricerche e lavori sull’arco elettrico, comprendente le origini dei suoi primi articoli pubblicati su The Electrician tra il 1895 e il 1896. Con questo volume, il suo contributo nello sviluppo dell’ingegneria elettrica fu definitivamente riconosciuto. Scrivono Tattersall e McMurran [2] in proposito:

The text included descriptions and many illustrations of her experiments, succinct chapter reviews, a comprehensive index, an extensive bibliography, and a chapter devoted to tracing the history of the electric arc. Her historical account provided detailed explanations of previous experiments and results involving the arc and concluded with the most recent research of the author and her colleagues…The book was widely accepted as tour de force on the electrical arc and received favorable reviews on the continent where a German journal enthusiastically praised if for its clear exposition and relevant conclusions.

Dopo l’uscita e il successo del libro sull’arco elettrico, Hertha Ayrton rivolse la sua attenzione all’origine, alla forma e al movimento delle increspature nella sabbia e nell’acqua esposte al vento, compresa la formazione di vortici. Nel 1904 fu la prima donna a esporre una comunicazione alla Royal Society. In questo lavoro presentava evidenze sperimentali e interpretazioni teoriche per la forma di due differenti strutture per le increspature sabbiose, la pubblicazione del lavoro nei Proceedings Transactions fu posposta al 1910 su richiesta dell’autrice [6].

Nel 1906, fu insignita della prestigiosa Medaglia Hughes della Royal Society “per le sue indagini sperimentali sull’arco elettrico e anche sulle increspature di sabbia”. Fu la quinta persona (prima donna) a vincere questo premio, assegnato annualmente dal 1902 in riconoscimento di un scoperta originale nelle scienze fisiche, in particolare elettricità e magnetismo o loro applicazioni, per la seconda (Michele Dougherty) sono dovuti passare 102 anni.

Caricatura di Ayrton “signora dei fulmini”

Dopo la morte del marito nel 1908, Ayrton proseguì le ricerche sulle increspature utilizzando apparecchiature costruite appositamente in proprio [7]. Una serie di esperimenti convalidò la teoria matematica dei vortici di Lord Rayleigh. Inventò anche un particolare ventilatore che avrebbe potuto creare vortici a spirale in grado di respingere gli attacchi coi gas [8]. Diventarono noti come ventilatori di Ayrton; secondo J. Mason [9] ne furono impiegati circa 100000 sul fronte occidentale, un altro biografo sostiene però che non furono praticamente impiegati [10].

Partecipò a tutte le principali marce per l’emancipazione femminile negli anni 1910, 1911 e 1912, fu malmenata e rischiò il carcere. Successivamente Ayrton contribuì a fondare l’International Federation of University Woman (1919) e la National Union of Scientific Workers (1920).

Muore per avvelenamento del sangue, causato da una puntura d’insetto, il 26 agosto 1923 a New Cottage, North Lancing, Sussex.

Bibliografia

[1] F. Henderson, Almost a Fellow: Hertha Ayrton and an embarrassing episode in the history of the Royal Society, https://blogs.royalsociety.org/history-of-science/2012/03/08/almost-a-fellow/

[2] J. Tattersall, S. McMurran, Hertha Ayrton: A Persistent Experimenter., Journal of Women’s History, 1995, 7, 86-112.

[3] Mrs. Ayrton, The Hissing of Electric Arc., Journal of the Institution of Electrical Engineers, 1899, 28, 400-436.

[4] Mrs. Ayrton, On the Mechanism of the Electric Arc., Philosophical Transactions of the Royal Society A, 1902, 199, 299-336.

[5] H. Ayrton, The Electric Arc., D. Van Nostrand Co., New York, 1902 (1 vol. di xxv+479 pp)

https://ia802604.us.archive.org/21/items/electricarc00ayrtrich/electricarc00ayrtrich_bw.pdf

[6]Mrs. H. Ayrton, The Origin and Growth of Ripple Marks, Proceedings of the Royal Society of London. Series A, 1910, 84, 285-310.

[7]Mrs. H. Ayrton, Local Differences of Pressure Near an Obstacle in Oscillating Water., Proceedings of the Royal Society of London. Series A, 1915, 91, 405-410.

[8] Mrs. H. Ayrton, On a New Method of Driving off Poisonous Gases., Proceedings of the Royal Society of London. Series A, 1919, 96, 249-256.

[9] J. Mason, Hertha Ayrton (1854-1923) and the Admission of Woman to the Royal Society of Chemistry, Notes. Rec. R. Soc. Lond., 1991, 45, 201-220.

[10]L. Riddle, Hertha Marks Ayrton, Biographies of Women Mathematicians, Agnes Scott College, Atlanta, Georgia. https://www.agnesscott.edu/lriddle/women/ayrton.htm

[1] John Perry (1850-1920) ingegnere e matematico irlandese, allievo di Lord Kelvin, poi professore di ingegneria meccanica al Finsbury Technical College di Londra, è noto per la disputa con il suo vecchio maestro sulla valutazione dell’età della Terra. Fu Presidente dell’Institution of Electrical Engineers e della Physical Society of London.

[2] Ottilie Blind, poi sposata Hancock, figlia di Karl Blind (1826-1907) rivoluzionario tedesco dopo i moti del 1848 e un periodo di prigione rifugiatosi con la famiglia in Inghilterra nel 1852, divenne attivista del movimento femminista inglese. Il padre mantenne costanti rapporti di amicizia con Mazzini, Garibaldi e Louis Blanc.

[3] Algernon Charles Swinburne (1837-1909) poeta britannico di epoca vittoriana, rivoluzionario fustigatore dei costumi e dell’ipocrisia dei suoi tempi, più volte candidato al Premio Nobel per la Letteratura fra il 1906 e il 1909.

[4] Barbara Leigh Smith Bodichon (1827-1891) britannica, leader del movimento per i diritti civili alle donne co-fondò finanziandolo, il primo College femminile, insieme alla altrettanto famosa leader Emily Davies (1830-1921).

[5] Pseudonimo di Mary Anne (Marian) Evans (1819-1880), una delle principali scrittrici dell’epoca vittoriana. Come molte altre scelse uno pseudonimo maschile sia per “essere presa sul serio”, sia per la sua situazione di compagna di un uomo sposato (cosa scandalosa all’epoca). Mantenne lo pseudonimo anche dopo aver rivendicato di essere l’autrice dei romanzi.

[6] Nel 1926 il Finsbury Technical College è incorporato nell’Imperial College London (The Imperial College of Science, Technology and Medicine).

[7] William Edward Ayrton (1847-1908) fisico e ingegnere inglese, oltre ai suoi studi pionieristici sull’arco elettrico, ha inventato, insieme a John Perry diversi strumenti per misure elettriche fra i quali un amperometro e un wattmetro. Hanno contribuito all’elettrificazione della linea ferroviaria.

[8] In sintesi la motivazione fu: Married women could not be made eligible by Statutes (Una donna sposata non può essere eleggibile per Statuto) [1].

Insegnare la chimica in inglese?

In evidenza

Enrico Prenesti*

Insegnare la chimica in inglese? La deriva anglofila dell’università e le sue conseguenze per docenti, studenti e cittadini italiani

Introduzione

Il momento storico-sociale nel quale ci troviamo è particolare – soprattutto per la velocità di cambiamento cui le persone sono sottoposte sul lavoro come nella vita privata – ma alcuni fenomeni che sembrano legati alla novità della globalizzazione si sono già visti nel corso della storia e ora, semplicemente, si ripresentano attualizzati rispetto ai mezzi impiegati per sostenerli e propagarli. Per quanto d’interesse specifico per l’area accademica, la globalizzazione include il fenomeno dell’anglicizzazione dell’università, con ossequio reverenziale ingravescente per la lingua e la cultura del mondo britannico o statunitense. Dopo aver minato la qualità della didattica con il passaggio da corsi di laurea a orientamento disciplinare a corsi di laurea a orientamento tematico, dopo aver frazionato i corsi di laurea in due cicli (salvo casi di lauree a ciclo unico) dilaga ora l’orientamento esterofilo dei corsi di laurea erogati in lingua inglese. Ormai da alcuni anni gli atenei italiani si sono organizzati per erogare interi corsi di laurea in lingua inglese, con l’aggravante che i docenti sono, nella stragrande maggioranza, madrelingua italiani con conoscenza della lingua inglese perlopiù autoreferenziale. Un’eccezione, in tal senso, è rappresentata da qualche raro docente madrelingua inglese, al quale è offerta una docenza temporanea a contratto, oppure da qualche individuo che rientra dall’estero dopo qualche esperienza tipicamente di ricerca scientifica. Dato lo sfinimento/svilimento finanziario degli atenei italiani, il fine dell’operazione menzionata è meramente mercantile, ovvero aumentare le iscrizioni – agendo su un bacino di utenza più ampio – e, quindi, le entrate.

L’anglofilia si manifesta in Italia in tantissimi ambiti e l’uso della terminologia inglese caratterizza svariate tipologie di ambienti. Purtroppo, gli italiani sono inguaribili esterofili, in tanti casi anche solo per adesione acritica a delle mode. Imitare è più comodo che impegnarsi per creare il proprio prodotto, il proprio prototipo di qualcosa da esibire con orgoglio e fierezza al mondo. Eppure, i riscontri mondiali della valentia italiana sono numerosi e distribuiti in tanti campi, incluso quello dell’istruzione, che vanta un’antica tradizione di eccellenza ancora oggi riconosciuta in tutto il mondo. Cesare Marchi (scrittore, giornalista e autore del libro “Impariamo l’italiano” [1]) rilevava che esterofilia e nazionalismo autarchico sono «le facce della stessa medaglia: l’inguaribile provincialismo. Il provinciale è un insicuro, che dubita della propria identità e si arrocca nella fortezza del nazionalismo xenofobo, oppure spalanca le porte a tutto ciò che viene da fuori». A quale fine dire (o scrivere) match per incontro, reporter per giornalista, team per squadra, step per passo, target per bersaglio, corner per angolo, ticket per biglietto, partner per compagno, endorsement per approvazione, commitment per impegno, performance per prestazione, ecc.? Per non parlare dei tanti anglismi (o anglicismi o inglesismi [2]) quali, implementare, settare, testare, monitorare, plottare, chattare, mixare, loggare, performante e via scrivendo. Per proseguire, infine, con gli sconclusionati connubi tra italiano e inglese: ne è un esempio il nome dato al sito web Verybello.it per promuovere gli eventi culturali italiani nel periodo dell’Expo2015. Qual è il vantaggio psicologico che le persone raggiungono con un tale comportamento linguistico? Il bisogno di distinguersi dagli altri? Il bisogno di ostentare cultura (o presunta tale)? Il bisogno di sentirsi cittadini del mondo? Il bisogno di allearsi con il più forte? Eppure, il mondo anglosassone ci deride: un articolo di Tom Kington, apparso su The Times il 19 ottobre 2016, era emblematicamente intitolato “Reinassance for the Italian language… everywhere but Italy”. In un articolo apparso su The New York Times, Beppe Severgnini [3] affronta l’interessante questione del turpiloquio e, nel contempo, dibatte sull’invasione di termini inglesi nella lingua italiana degli ultimi 30 anni. Giacomo Leopardi (linguista, oltre che poeta) già metteva in guardia dai barbarismi linguistici, ammettendo, tuttavia, l’uso di un vocabolo straniero quando non esisteva il corrispettivo italiano. L’autarchia lessicale è insensata tanto quanto l’esterofilia lessicale: entrambe le posizioni ostacolano lo scambio pacifico di idee imponendo spostamenti eccessivi di baricentro linguistico. Da un lato è ben noto che le lingue sono oggetti fluidi e mutevoli e risentono di diversi influssi e del cambiamento che caratterizza inevitabilmente l’umanità in evoluzione, dall’altro un risveglio di vigilanza sull’imposizione egemonica dell’inglese mi pare indispensabile. L’imposizione di una lingua diversa da quella in uso in un dato territorio è un atto di soggiogamento, perché sovverte la stabilità dei vinti imponendo la visione del mondo dei vincitori. Preservare il proprio patrimonio culturale e linguistico è opporsi con fierezza al pensiero unico omologante [4]: l’inglese, infatti, è una lingua di conquista, di dominio, parlata da un popolo esperto e consumato colonizzatore. Secondo Claude Hagège (linguista francese): «Una lingua non si sviluppa mai grazie alla ricchezza del suo vocabolario o alla complessità della sua grammatica, ma perché lo Stato che la utilizza è potente militarmente» e «Soltanto le persone poco informate pensano che una lingua serva unicamente a comunicare. Una lingua costituisce e rafforza una certa visione del mondo. L’imposizione dell’inglese è funzionale non solo a fini coloniali, ma equivale a imporre i propri valori». Dell’importanza rivestita dal fattore linguistico in una strategia di dominio politico era ben consapevole lo stesso Sir Winston Churchill, il quale dichiarò senza sottintesi (6 settembre 1943): «Il potere di dominare la lingua di un popolo offre guadagni di gran lunga superiori che non togliergli province e territori o schiacciarlo con lo sfruttamento. Gli imperi del futuro sono quelli della mente». Tale affermazione mostra competenza socio- e geopolitica entro la prospettiva storica, oltre a lucida e irriducibile spregiudicatezza. La lingua latina si diffuse in tutto l’impero romano: man mano che i Romani conquistavano nuove terre imponevano agli abitanti delle nazioni vinte l’uso del latino. Ancora, basta pensare allo spagnolo (pur nelle sue varianti) e al portoghese in Sud America, imposti dai conquistadores durante la colonizzazione delle Americhe dal XVI secolo.

Torre di Babele, dipinto di Pieter Bruegel del 1563

Forzare l’introduzione di una lingua straniera in settori chiave di un paese, quale è l’istruzione con i suoi corsi, significa agevolare l’intromissione di culture e poteri estranei alla tipicità e alla sovranità nazionale, rinunciando a diventare, invece, esportatori di cultura e di prodotti che sono espressione della creatività tipicamente italiana, riconosciuta e apprezzata in tutto il mondo. Si tratta, in sintesi, di un’operazione di svendita del Paese.

Lingua, diritti, istruzione e apprendimento

Non è solo questione di lingua, ma di cultura in generale. Tutte le lingue sono portatrici di cultura specifica, la lingua di istruzione non è mai neutra rispetto alla scelta dei contenuti. «Appare dunque evidente che nessuna lingua, per quanto eletta veicolo di comunicazione internazionale, può essere appresa al pari di un sistema segnaletico o di un codice artificiale, come quello della navigazione, ma deve essere insegnata secondo un approccio che ponga al centro del rapporto comunicativo e didattico tanto la vitalità della lingua quanto le peculiarità e le esigenze affettive e umane del soggetto in formazione» [5]. Nel 1999 la Conferenza generale dell’Unesco ha istituito per il 21 febbraio la Giornata internazionale della lingua madre, con «l’auspicio di una politica linguistica mondiale basata sul multilinguismo e garantita dall’accesso universale alle tecnologie informatiche» [6]; nel 2007 la Giornata internazionale della lingua madre è stata riconosciuta dall’Assemblea Generale dell’ONU.

Come la Confindustria vede la scuola e usa l’inglese.

Con la sigla L1 si indica la lingua nativa (o madre o materna o di acquisizione) dell’apprendente, qualunque altra lingua è generalmente indicata con la sigla L2. Secondo Heidi Dulay, Marina Burt e Stephen Krashen [7], con L2 si intende ogni lingua appresa in aggiunta alla propria lingua materna e usata come mezzo di comunicazione nel Paese in cui viene acquisita; una lingua appresa, di solito in un contesto scolastico, in un Paese in cui non serve come normale mezzo di comunicazione non è da considerarsi L2 ma lingua straniera. Il concetto stesso di lingua madre, e i diritti umani ad essa connessi, sono ancora oggetto di studio [8]. La modalità di apprendimento di una lingua diversa da quella nativa (diciamo, in generale, L2) è oggetto di molti studi. Un bambino, infatti, non incomincia mai ad apprendere la lingua materna studiando alfabeto o grammatica: tali procedure caratterizzano, invece, le prime fasi di apprendimento di L2. Mentre lo sviluppo di L1 ha inizio con l’uso libero e spontaneo del discorso, e culmina nella realizzazione consapevole delle forme linguistiche, in L2 lo sviluppo ha inizio con una realizzazione consapevole della lingua e culmina poi nel discorso. L’appropriazione di L1 avviene in modo inconsapevole e senza mediazione dell’intenzione e dell’impegno (quindi, senza sforzo), mentre l’apprendimento di L2 (salvo casi di crescita in contesto bilingue) richiede la mobilitazione di risorse cognitive e affettive che fanno capo allo sforzo guidato dalla motivazione. Pertanto: L1 è acquisita, L2 è appresa.

È centrale il fatto che l’apprendimento è strettamente connesso alla capacità di concettualizzazione e di astrazione che passano per pensiero e linguaggio [9]. In linguistica, l’ipotesi di Sapir-Whorf – altresì conosciuta come ipotesi della relatività linguistica – afferma che lo sviluppo cognitivo di ciascun essere umano è influenzato dalla lingua che parla. Siamo esseri linguistici, ovvero articolazione ontologica nel linguaggio. Secondo Rafael Echeverrìa (sociologo e filosofo cileno, fondatore dell’ontologia del linguaggio), il linguaggio è in se stesso azione: «Gli individui hanno la possibilità di creare se stessi attraverso il linguaggio. Nessuno è in una forma di essere data e immutabile che non permetta infinite modificazioni» [10]. Quindi, i migliori risultati di apprendimento delle discipline si ottengono con la lezione in L1. Erogando corsi in una lingua diversa da quella nativa, l’apprendimento disciplinare è a rischio, con conseguente diminuzione della qualità della didattica e, quindi, delle prospettive lavorative. Gli studenti che cadranno nella trappola dei curricula di studi in inglese (attratti da miraggi millantati da abili persuasori):

  • avranno minori possibilità di apprendere la chimica in modo approfondito (rispetto ai compagni che studiano in italiano) e, inoltre, individueranno con maggiori difficoltà i collegamenti esistenti tra i vari ambiti della scienza perché le lezioni, molto probabilmente erogate da docenti madrelingua italiani, perderanno di nitidezza e di profondità a scapito della scorrevolezza, dell’efficacia e dell’ampiezza di vedute resa possibile da una lezione fluida, appassionata, che esplora con accattivante destrezza gli stretti dintorni del tema in esposizione/dibattito;
  • incontreranno difficoltà ad argomentare la chimica in italiano e, quindi, porteranno un ridotto valore professionale in Italia;
  • perderanno l’opportunità di potenziare le loro competenze linguistiche di italiano e, quindi, di evolvere interiormente (sia per l’apprendimento disciplinare che per la capacità riflessiva e inferenziale che permette l’accesso allo sviluppo personale [9, 10]) e comunicativamente.

In seguito a un siffatto percorso di studi, gli studenti svilupperanno un modello mentale della chimica incompleto (comunque peggiore dell’attuale, già scadente rispetto a quello che ci si poteva formare con la laurea quinquennale) e saranno poco capaci di costruirsi modelli mentali plastici (scientifici o di altri ambiti) con i quali operare per affrontare e risolvere problematiche tecniche e sfide esistenziali [11]. In ogni caso, si può riconoscere un valore educativo al multilinguismo, ma l’adozione di una lingua straniera come veicolo linguistico unico nell’ambito dell’istruzione di un dato paese può solo produrre intralcio all’apprendimento con disorientamento degli studenti, appesantimento del lavoro dei docenti (con sollecito di abilità impreviste dalle condizioni di assunzione e dalla remunerazione) e disgregazione sociale e dovrebbe essere configurata tout court come vilipendio alla Repubblica. Certamente, si tratta di un’eccellente idea per chi volesse strumentalmente colpire l’istruzione italiana per promuovere l’ignoranza, con tutti i vantaggi di governabilità che ne possono derivare.

Comunicazione vs istruzione: università e lingua

La polarizzazione degli interessi delle università verso la ricerca scientifica (inclusa la valutazione dei docenti – anche in sede di reclutamento e avanzamento – basata quasi esclusivamente sulla produzione scientifica e i suoi dintorni stretti) sta conducendo a trascurare il diverso ruolo del linguaggio nei suoi campi d’azione. È innegabile che la lingua inglese abbia saputo imporsi nel mondo come lingua franca (o lingua veicolare), cioè come lingua passe-partout che permette la comunicazione tra parlanti di diversa nazionalità. Impiegare l’inglese come lingua di istruzione unica tra studenti e docenti madrelingua italiani, però, significa ignorare i concetti di linguistica, neuroscienze, antropologia, psicopedagogia e pedagogia interculturale che riferiscono dell’importanza della lingua materna nel processo educativo e di apprendimento delle discipline. Insegnare una disciplina in una lingua diversa dalla propria nel proprio Paese non è un cambiamento di prassi didattica ma è il sovvertimento di un paradigma e rappresenta un inganno per gli studenti italiani, poiché comporta una deriva al ribasso dell’apprendimento disciplinare e culturale in genere, tanto più in un momento in cui si è abbassata la competenza linguistica sull’italiano. Sostiene l’uso dell’inglese nell’istruzione chi ignora le relazioni esistenti tra lingua e apprendimento e, in generale, i fondamenti della psicopedagogia.

L’impegno linguistico è diverso se si considera la comunicazione tra pari che impiegano una lingua veicolare (come è nel caso dell’uso dell’inglese su riviste scientifiche o nei congressi internazionali) oppure il processo di insegnamento-apprendimento, nel quale il discente è sollecitato all’uso di risorse cognitive e affettive che risultano potenziate dalla lingua materna e depotenziate da altri linguaggi. Una cosa è parlare tra esperti per condividere un concetto, un’altra è spiegare a dei novizi per guidare l’apprendimento di un concetto. Il miglior metodo didattico è quello che mira a riprodurre e assecondare i percorsi di apprendimento spontanei; in tal senso, è noto dalla letteratura biologica [12] e psicopedagogica che la competenza linguistica può realizzarsi pienamente solo se l’apprendimento di una data lingua abbia luogo prima della pubertà: ciò implica che l’inglese – se gli si vuole riconoscere il ruolo di lingua passe-partout nell’istruzione italiana – va appreso entro la scuola dell’obbligo. Chi arriva a studiare all’università l’inglese lo deve già conoscere e padroneggiare, mentre la lingua di istruzione nei corsi di insegnamento accademici italiani deve essere l’italiano.

Agevolare lo scambio di idee e di persone a livello mondiale può essere un obiettivo condivisibile, nondimeno l’operazione che porta a identificare l’internazionalizzazione degli atenei con l’erogazione in inglese dei relativi corsi di insegnamento è frutto di un’interpretazione discutibile e animata da preconcetti estranei all’equazione dell’apprendimento. Da capire se la radice di tale interpretazione sta:

  • nell’assenza di volontà di procurarsi la documentazione bibliografica di linguistica, psicopedagogia e neuroscienze, di studiarla, di capirla e di usarla per assumere decisioni fondate (con quello che costa l’attuale mastodontica produzione scientifica, qualcosa di pertinente si potrebbe anche leggere (e capire), prima di imporre modifiche epocali (e nocive) di impostazione);
  • nell’imitazione acritica di comportamenti adottati da altri e ritenuti non già utili ma inevitabili;
  • nella necessità di aumentare le iscrizioni di studenti – con un’offerta formativa appetibile anche per studenti stranieri – per il bene delle finanze e, quindi, dei bilanci.

In generale, quindi, si tratta di capire se si lavora per l’apprendimento delle discipline o per l’aumento del numero di immatricolazioni (al quale può essere connessa la sopravvivenza di un’istituzione nel momento in cui si lasci mano libera al liberismo economico a tutto tondo, con annullamento progressivo della funzione super partes dell’istituzione pubblica). Docenti madrelingua italiani che insegnano le più disparate materie in inglese a studenti italiani e/o a studenti stranieri (di diversa madrelingua nella stessa aula) rappresentano il prodotto di chi si presta al proposito degli atenei di far cassa esibendo una facciata di apertura multiculturale verso il mondo.

Aspetti giuridici

Dal tempo della legge 240/2010 (c.d. legge Gelmini) sul riordino del comparto universitario, controversie legali sul tema dell’inglese in università infiammano questo scenario conflittuale, con coinvolgimento di TAR nel 2013 («È una soluzione che marginalizza l’italiano. Obbligare studenti e docenti a cambiare lingua è lesivo della loro libertà») [13], del Consiglio di Stato («L’attivazione generalizzata ed esclusiva di corsi in lingua straniera, non appare manifestamente congruente, innanzitutto, con l’articolo 33 della Costituzione») [14] e della Corte costituzionale nel 2017 («L’obiettivo dell’internazionalizzazione […] deve essere soddisfatto […] senza pregiudicare i principî costituzionali del primato della lingua italiana, della parità nell’accesso all’istruzione universitaria e della libertà d’insegnamento») [15]. Scontri di opinioni stanno animando tribunali, articoli di giornali e riviste, libri [16], convegni e petizioni. La sentenza definitiva del Consiglio di Stato del 2018 ha confermato la sentenza del Tar Lombardia n. 1348/2013 [13] e ha bocciato la decisione del Politecnico di Milano (promotore, dal maggio 2012, dell’internazionalizzazione degli atenei attraverso i corsi universitari erogati solo in inglese) di organizzare, nella sola lingua inglese, interi corsi di laurea magistrale e di dottorato di ricerca. Sono ora ammessi i corsi in inglese solo se affiancati dai corrispondenti in italiano. In ogni caso, occorre vigilare e procedere con riflessioni e azioni, poiché il fenomeno dell’intromissione della lingua inglese nell’istruzione italiana è oncogeno e metastatico: negli ultimi concorsi per insegnanti, dalla scuola materna alla superiore, è richiesta la certificazione B2 di inglese e questo è un segnale di degrado del tessuto linguistico e culturale in genere di questo Paese (per quanto esista una visione costruttiva e innocente di questa richiesta, se la si pensa in chiave di generale potenziamento culturale dei futuri docenti operanti in una società liquida [17] e ad alta mobilità). Inoltre, a livello universitario molti libri sono scritti in inglese senza un valido corrispettivo in italiano, questo anche perché scrivere libri di testo è un’attività didattica e l’impegno speso su tale fronte non è conteggiato per la valutazione dei docenti universitari italiani, e questo polarizza il loro impegno sul versante della ricerca scientifica (progettualità, reperimento fondi e, soprattutto, redazione di articoli scientifici per accrescere il proprio archivio di pubblicazioni, vera moneta della sopravvivenza accademica odierna) [18].

Atenei e internazionalità

L’inglese che si parla nel mondo ha poco a che spartire con quello delle élite londinesi, è un inglese di comodo, semplificato, che qualcuno denomina, non a caso, globish (dalla fusione delle parole globe e english): questo circola principalmente nelle aule universitarie italiane, non l’inglese. Per gli studenti stranieri che si vogliono istruire in Italia, poi, ci sono le università per stranieri (con varie sedi). Inoltre, uno studente straniero che scegliesse di frequentare l’università in Italia dovrebbe comunque apprendere l’italiano per integrarsi nel Paese; se non lo facesse si ritroverebbe socialmente isolato fuori dalle aule universitarie e, soprattutto, perderebbe gran parte dell’esperienza di crescita psicosociale e socioculturale connessa alla sua scelta di studi. Inoltre, non è scontato che uno studente straniero non madrelingua inglese preferisca una lezione in inglese (ovvero in globish, da un docente madrelingua italiano) a una in italiano: francofoni e ispanofoni, per esempio, potrebbero di gran lunga preferire l’italiano.

L’obiettivo dell’internazionalità è perseguito dagli atenei italiani ormai da vari anni, secondo modi improvvisati – didatticamente e pedagogicamente infondati – e scopi sociopolitici discutibili. Si rende oggi indispensabile lavorare per addivenire a un modello ecologico di internazionalizzazione degli atenei che preservi il primato della lingua italiana evitando l’operazione che porta a identificare l’internazionalizzazione degli atenei con l’erogazione in inglese dei relativi corsi di insegnamento. L’internazionalizzazione potrà essere declinata con esperienze di studio all’estero, che hanno il vantaggio di aprire le menti al cosmopolitismo, all’incontro, all’accoglienza delle diversità; se, però, resta centrale l’acquisizione della lingua inglese, coerenza vuole che solo i Paesi anglofoni siano considerati idonei a tale scopo, diversamente l’apprendimento soffrirà di un medium linguistico scadente.

L’insegnamento accademico si sta riducendo a un mero atto di trasferimento di informazioni e di tecnicismi (soprattutto nelle lauree di primo livello, fondate su un modello operazionale del sapere), con predilezione per gli aspetti procedurali a svantaggio di quelli concettuali; aggiungere a ciò l’introduzione dell’inglese nelle lezioni implica velocizzare il processo di scadimento di qualità della didattica a svantaggio degli studenti e di tutta la società entro la quale agiranno come laureati. Erogare insegnamenti universitari in inglese per aiutare i giovani a trovare lavoro all’estero (tale formula è molto usata dalla propaganda dei vertici accademici italiani), poi, implica aver rinunciato a risanare il mercato italiano del lavoro e condannare all’emigrazione i costosi e, talora, qualificati prodotti dell’istruzione pubblica italiana. Si tratta di un programma di smantellamento, svuotamento e impoverimento del Paese: entro un tale sciagurato paradigma, infatti, basato sullo sciupio degli investimenti e delle risorse umane, chi ha studiato in Italia a spese dei contribuenti italiani renderà i suoi servigi lavorativi in paesi stranieri, che ne usufruiranno e beneficeranno a costo zero, e questo è semplicemente autolesionistico.

Conclusioni

È innegabile che la lingua inglese abbia saputo imporsi nel mondo come lingua franca. Livellare nella lingua, però, non è favorire scambi di merci e circolazione di persone, non è agire per il bene del globo ma per accrescere l’appiattimento e l’asservimento nella gleba con il fine di semplificare le metodologie di detenzione del potere su scala mondiale, a fronte di tecnologie che agevolano la circolazione di informazioni nel mondo che minano la tenuta dei regimi dominanti. È pressoché impossibile dimenticare che l’inglese è lingua egemone per ragioni politiche e ci si mostrerebbe decisamente ingenui a ignorarlo come dato di fatto. Tuttavia, come ha scritto Claudio Magris, «La proposta di rendere obbligatorio l’insegnamento universitario in inglese rivela una mentalità servile, un complesso di servi che considerano degno di stima solo lo stile dei padroni» [19]. Ora, anche alla luce del recentissimo orientamento giuridico espresso dal Consiglio di Stato, mi auguro (ma già le dichiarazione del rettore del Politecnico di Milano, Ferruccio Resta, sono nel segno opposto) che le conventicole di potere ai vertici degli atenei italiani siano capaci di rivedere le loro decisioni in materia di istruzione e lingua e, soprattutto, di revisionare i pilastri della loro mentalità servile, gregaria e antipatriottica la quale, agita su larga scala, assoggetta il Paese a poteri forti e lo espone alla predazione e al disfacimento.

Il fondamento di una civiltà non è la scienza, è l’educazione, [20-22] e dall’educazione muove l’istruzione, che è veicolata dal linguaggio, vettore della storia e dell’identità di una comunità nazionale. La lingua è il fondamento di una civiltà, è il collante che tiene insieme un popolo, è la prima arma che si sfodera in un conflitto, preservarla e promuoverla con orgoglio è un dovere di tutti, dei docenti universitari di più.

Infine – partendo dai tanti reati impuniti che sono commessi di prepotenza nelle pieghe delle leggi e con l’ignavia, la distrazione o l’ignoranza della maggior parte dei soggetti coinvolti -, ricordo che:

  • il Regio Decreto 31 agosto 1933, n. 15924 (Testo Unico delle leggi sull’istruzione superiore), art. 271 (Capo I – Disposizioni Generali, al Titolo IV – Disposizioni generali, finali, speciali e transitorie), recita: «La lingua italiana è la lingua ufficiale dell’insegnamento e degli esami in tutti gli stabilimenti universitari» (nota: il decreto del Rettore del Politecnico di Milano del 2011, ordinava l’avvio in inglese di tutti i corsi locali di laurea magistrale in piena inottemperanza della legge);
  • l’articolo 33, 1º comma, della Costituzione Italiana sancisce che: «L’arte e la scienza sono libere e libero ne è l’insegnamento» (nota: nessuno può costringere un docente italiano a tenere una lezione in una lingua che non è la sua nativa);
  • la legge 15 dicembre 1999, n. 482 (“Norme in materia di tutela delle minoranze linguistiche storiche”) stabilisce (art. 1): 1. «La lingua ufficiale della Repubblica è l’italiano. 2. La Repubblica, che valorizza il patrimonio linguistico e culturale della lingua italiana, promuove altresì la valorizzazione delle lingue e delle culture tutelate dalla presente legge»;
  • il riconoscimento esplicito dell’italiano come lingua ufficiale della Repubblica non è sancito dalla Costituzione ma è comunque espresso nello Statuto del Trentino-Alto Adige (art. 99: «Nella regione la lingua tedesca è parificata a quella italiana che è la lingua ufficiale dello Stato. La lingua italiana fa testo negli atti aventi carattere legislativo e nei casi nei quali dal presente Statuto è prevista la redazione bilingue») che, formalmente, è una legge costituzionale dello Stato Italiano.

__________________________________________________________

*Enrico Prenesti si è laureato in chimica nel 1991 e ha conseguito il Dottorato di ricerca in Scienze Chimiche presso l’Università degli Studi di Torino, dove ricopre oggi il ruolo di professore associato di Chimica dell’ambiente e dei beni culturali. Tiene diversi insegnamenti relativi al suo settore, alla chimica degli alimenti e alla qualità. I temi di ricerca scientifica riguardano lo sviluppo di modelli di simulazione relativi agli equilibri chimici in soluzione, ai biomateriali funzionalizzati nonché alla chimica clinica e bromatologica. Si occupa, inoltre, di qualità, di didattica, di divulgazione scientifica e di sviluppo personale.

Bibliografia

[1] Cesare Marchi, “Impariamo l’italiano”, Biblioteca Universale Rizzoli, 1990

[2] Tullio De Mauro, “È irresistibile l’ascesa degli anglismi?”, Internazionale, luglio 2016

[3] Beppe Severgnini, “Swearing, Italian Style”, The New York Times, 15 febbraio 2017

[4] Robert Phillipson, “Myths and realities of ‘global’ English”, Lang Policy, 2016

[5] Patrizia Mazzotta, “Sulla questione dell’inglese come lingua franca”, Scuola e Lingue Moderne, Garzanti Scuola, 5, 2001, pp. 12-16

[6] http://www.unric.org/it/attualita/15143

[7] Heidi C. Dulay, Marina K. Burt, Stephen D. Krashen, “Language two”, Oxford University Press, 1982

[8] Tove Skutnabb-Kangas, “Linguistic Genocide in Education – or Worldwide Diversity and Human Rights?”, Taylor & Francis, 2000

[9] Lev S. Vygotskij, “Pensiero e linguaggio”, Laterza, 2008

[10] Rafael Echeverrìa, “Ontología del Lenguaje”, J. C. Saez Editor, 2003

[11] Jeremy Holmes, “La teoria dell’attaccamento. John Bowlby e la sua scuola”. Raffaello Cortina Editore, 2017

[12] Eric Lenneberg, “Fondamenti biologici del linguaggio”, Bollati Boringhieri, 1982

[13] TAR Lombardia, sentenza del 23/05/2013 n. 1348/2013

[14] Ordinanza del Consiglio di Stato del 22/01/2015

[15] Sentenza n. 42 del 2017 della Corte Costituzionale (depositata in Cancelleria il 24/02/2017)

[16] Maria Luisa Villa, “L’inglese non basta. Una lingua per la società”, Mondadori Bruno editore, 2013

[17] Zygmunt Bauman, “Liquid modernity, Cambridge (UK), 2000

[18] Enrico Prenesti, “Le distorsioni della ricerca scientifica attuale: variabili, conseguenze, responsabilità e rimedi”, La chimica e l’industria Web, 3(1), gennaio 2016

[19] Claudio Magris, “L’università in inglese pericolo per l’italiano” (L’uso delle lingue straniere va promosso ma senza rinunciare alla nostra identità), Corriere della sera, luglio 2012

[20] Avram Noam Chomsky, Heinz Dieterich, “La società globale. Educazione, mercato e democrazia”, La Piccola editore, 1997

[21] Avram Noam Chomsky, “Democrazia e istruzione. Non c’è libertà senza l’educazione”, EdUP editore, 2005

[22] Enrico Prenesti, “Sapere per essere. Dizionario di crescita personale”, Aracne editore, 2017

La vita, l’entropia e la rottura della simmetria.

In evidenza

Claudio Della Volpe

Accolgo l’invito di Luigi Campanellla (e le osservazioni di Alfredo Tifi) che pur non essendo un termodinamico ha sentito l’esigenza di introdurre questo argomento nel blog.

Oggi vorrei parlarvi della vita e di come la termodinamica può interpretarla e per fare questo vorrei discutere con voi l’argomento dell’entropia del corpo umano.

Il corpo umano non è un sistema all’equilibrio e dunque non è banalmente soggetto alla lettera delle regole che valgono per i sistemi approssimabili come di equilibrio; inoltre la seconda legge è scritta classicamente per un sistema isolato mentre il corpo umano è un sistema aperto, scambia materia ed energia con l’ambiente che lo circonda e nel fare questo attraversa un complesso insieme di stati che gli consente di nascere, crescere e svilupparsi; dopodichè, dopo un percorso che temporalmente dura circa 100 anni, nei casi più fortunati (o sfortunati, dipende dalle circostanze), ossia all’incirca 3×109 sec, il corpo umano va incontro ad una fase che si avvicina moltissimo a quello che definiamo equilibrio; comunemente, nell’inesatto linguaggio comune, tale fase prende anche il nome di morte.

Per parafrasare una antica poesia egiziana:

La morte non è che l’inizio, ma della fase di equlibrio.

– Antica Preghiera Egizia –

(XXV sec. a.C.)

La morte non è che la soglia di una nuova vita…
oggi noi viviamo, e così sarà ancora…
sotto molte forme noi torneremo.

http://www.miezewau.it/anonimo_egiziano.htm

Una prima osservazione che possiamo fare è che la massa di atomi che costituisce un corpo umano non è poi molto grande, circa 70-80kg di carbonio, idrogeno, ossigeno, azoto, zolfo, calcio, sodio, fosforo ed alcuni metalli; lo stato di massima simmetria (ed anche il più probabile) di tale insieme di atomi non è certo un corpo umano; piuttosto sarebbe quella di un gas di tali atomi completamente ed uniformemente mescolati.

Se dispersi nello spazio, lontano da qualunque sorgente di gravità e di calore esso costituirebbe uno stato simmetrico e verosimilmente di equilibrio; in ogni direzione un tale gas avrebbe le medesime proprietà e rimarrebbe così mescolato per un tempo indefinito se lo isolassimo in un contenitore senza che nulla potesse interagire con esso.

Di tutti i possibili stati che tale sistema di atomi potrebbe occupare, il corpo umano (e se è per questo quello di qualunque altro organismo vivente) rappresenta uno stato la cui probabilità di esistenza spontanea è sostanzialmente nulla. Di più, nonostante nel linguaggio comune si tenda ad attribuire a tale corpo una notevole simmetria e bellezza, di fatto, a stare alle definizioni correnti della fisica, e rispetto a quello stato di mescolamento ipotetico, il corpo umano di simmetrie ne avrebbe perse molte; tecnicamente il confronto del sistema di atomi del corpo nell’ipotetico stato gassoso mescolato e in quello ordinario porta a concludere che nella trasformazione (gasà corpo umano) si sarebbe ottenuta una “rottura di simmetria” del medesimo tipo di quella che si ottiene in una transizione di fase fra un gas ed il solido o liquido corrispondente; anche in quel caso la simmetria del gas viene ridotta passando ad un cristallo, certamente più bello ai nostri occhi ma dotato di un numero nettamente inferiore di elementi di simmetria, ossia di operazioni di traslazione di vario tipo nello spazio/tempo rispetto alle quali esso mostrasse invarianza.

In soldoni, l’ordine del corpo umano che spesso si beatifica è sostanzialmente il corrispondente di una grossa perdita di simmetria, di una conservazione ridotta dell’elevata simmetria corrispondente ai medesimi atomi casualmente mescolati; l’uomo di Vitruvio è bello (e forse per molti una donna di Vitruvio sarebbe il massimo) ma tecnicamente è meno simmetrico del corrispondente gassoso. La vita può essere vista come un fenomeno di rottura di simmetria se paragonata al materiale di partenza.

Per fare questa trasformazione di fase serve usare una enorme quantità di informazione che è contenuta in una lunghissima molecola polimerica costituita da un ristretto numero di monomeri (4) e che prende il nome di DNA, scoperta da meno di 100 anni, meno dunque della vita di un uomo ed una copia della quale è immagazzinata in ciascuna cellula del corpo umano.

Casualmente il numero di basi monomeriche necessarie, che è di circa tre miliardi, eguaglia la durata della vita media umana in secondi: si tratta di una combinazione del tutto casuale, ma sono certo che un poeta potrebbe scriverci qualche verso. Noto di passaggio che ogni base è appaiata in una struttura accoppiata (sono 6 miliardi di basi appaiate a due a due).

Dunque una transizione di fase, una rottura di simmetria estremamente improbabile e che necessita per essere portata a termine di un complesso sistema di reazioni chimiche autocatalitiche, in base alle quali coppie di esseri umani analoghi ma non identici (indicati di solito come maschio e femmina) reagiscono fra di loro e si riproducono, in quella che costituisce una delle più complesse reazioni autocatalitiche che conosciamo: il sesso, anche detto amore (ma solo nelle sue manifestazioni più estreme).

Si incomincia ad intravedere la possibilità di eliminare questa serie così primitiva di reazioni, mai innovata negli ultimi milioni di anni, per affidare la generazione umana a sistemi altamente automatici. Sfortunatamente non si conoscono al momento le conseguenze dell’eliminazione dell’amore come ambiente di reazione.

L’idea di stimare l’informazione contenuta in un messaggio venne nel 1948 a Claude Shannon che ci scrisse un libro, “Teoria matematica dell’informazione”. Claude Shannnon racconta:

« La mia più grande preoccupazione era come chiamarla. Pensavo di chiamarla informazione, ma la parola era fin troppo usata, così decisi di chiamarla incertezza. Quando discussi della cosa con John Von Neumann, lui ebbe un’idea migliore. Mi disse che avrei dovuto chiamarla entropia, per due motivi: “Innanzitutto, la tua funzione d’incertezza è già nota nella meccanica statistica con quel nome. In secondo luogo, e più significativamente, nessuno sa cosa sia con certezza l’entropia, così in una discussione sarai sempre in vantaggio »

 

Shannon definisce l’informazione come I=-log2P, dove P è la probabilità che si verifichi un dato evento; tale equazione permette di ottenere un valore misurato in bit. 1 bit equivale ad esempio all’informazione ottenibile dal lancio di una moneta (P = 0,5).

Usando l’equazione S= log2P si ottiene invece la entropia del medesimo sistema; ne segue che I=-S. In pratica a un aumento di entropia corrisponde una perdita di informazione su un dato sistema, e viceversa

Per il DNA umano nel quale ogni lettera può avere 4 valori (ossia 2 bit in quanto 22=4) si può calcolare che il contenuto informativo è dell’ordine di 6 Gbit, ossia circa 750Mbytes, fate il paragone con il contenuto informativo del vostro hard disk attuale o con quello di un CD musicale o un DVD.

Ma al di là delle quantità di informazione in gioco la questione è come un corpo umano o un altro organismo opera per realizzare l’informazione contenuta nel DNA; o meglio se la vita del corpo umano e di altri organismi è un processo spontaneo come esso può realizzarsi in apparente contrasto con la tendenza dei sistemi isolati ad un massimo di entropia e dunque di disordine, di minima informazione?

La risposta è che il corpo umano NON è un sistema isolato ma è un sistema aperto che scambia energia e materia con l’ambiente esterno; tale apertura, tale scambio consente di resistere attivamente alla tendenza espressa dalla seconda legge della termodinamica e che a rigore è valida solo per sistemi isolati.

Il problema di come misurare l’entropia del corpo umano appare veramente complesso ed in realtà potrebbe anche non avere senso dato che un corpo umano non è all’equilibrio, ma è anzi lontanissimo dall’equilibrio (almeno fino al momento della morte).

Si può invece stimare, anche se con qualche difficoltà, il flusso entropico del sistema costituito dal corpo umano, dunque non misurare il valore assoluto dell’entropia del sistema uomo, ma il valore della sua variazione, ossia del flusso entropico in entrata ed in uscita da esso.

Si tratta di un calcolo non particolarmente complesso eppure pubblicato solo in tempi recenti.

In particolare dobbiamo la forma comunemente accettata di tale calcolo ad Aoki.

Usando i dati sperimentali ottenuti in uno speciale calorimetro da Hardy e Dubois nel 1938, Aoki calcolò il flusso entropico dei corpi sottoposti agli esperimenti di Hardy e Dubois. Il risultato è espresso in questo grafico, in cui abbiamo a destra l’input di entropia e a sinistra l’output.

Come si interpreta questo grafico?

Semplice.

Anzitutto è stato ottenuto sulla base di dati sperimentali raccolti mettendo in uno speciale calorimetro il corpo del volontario e misurando poi gli scambi termici fra corpo del volontario e calorimetro.

Dallo schema si vede che i tre flussi di calore e dunque i tre flussi di entropia maggiori sono:

  • quello radiante dal calorimetro al volontario 3.16 J/sec K; ottenuto usando l’equazione dell’entropia della radiazione ( dove β è la costante di Stefan Boltzmann, V il volume del corpo del volontario e T la sua temperatura assoluta (273.15+27.4); l’equazione è stata riadattata al sistema in cui c’è una superficie di scambio e il flusso entropico è per unità di superficie; la superficie tipica del corpo umano è fra 1.5 e 2metri quadri.
  • quello radiante in uscita dal corpo del volontario che ammonta a 3.34 J/sec K, calcolato nel medesimo modo;
  • la produzione metabolica di calore di 0.26 J/sec K; se vi fate due conti un uomo che si nutra con 1800 grandi calorie al giorno, ossia circa 7-8Mjoule, negli 86400 secondi di una giornata dissipa come una lampadina da 80-90W; dividete questo valore per la temperatura corporea in kelvin ed otterrete un valore molto simile (80/310=0.26).

Ci sono poi gli scambi di entropia dovuti alla respirazione ed alla evaporazione di acqua, e agli scambi di materia, ma sono minimi. In totale il flusso netto abbassa l’entropia corporea del volontario, ossia il corpo del volontario si “ordina” per circa 0.32 J/sec K, emette un flusso netto di 0.32 J/sec K, abbassando la propria entropia e lottando disperatamente per conservare la propria struttura interna.

Come si vede gli scambi sono dominati dal flusso radiante di energia, non dallo scambio diretto di calore per conduzione; la convezione sarebbe più efficace, ma è impedita poi dai nostri vestiti; tuttavia è da dire che la pelle è un buon isolante termico e che i vestiti sono una invenzione relativamente recente. A conferma dell’importanza della radiazione nella nostra vita, una cosa che molti non sospettano nemmeno, stanno le copertine isotermiche metallizzate usate dalla protezione civile, basate sul fatto che uno strato metallico anche sottile intercetta le radiazioni infrarosse efficacemente (potete provare a isolare termicamente la parete dietro un termosifone mettendoci un sottile strato di alluminio da cucina) .

Dunque grazie a questo scambio entropico con l’esterno la struttura unica ed improbabile del corpo umano ordinata sul comando del DNA (ma vale lo stesso per qualunque altro essere vivente) combatte la sua battaglia quotidiana contro il secondo principio; è una battaglia che in una forma biologica o in un’altra, dura da circa 4 miliardi di anni su questo pianeta e che ha visto milioni di miliardi di caduti ma ci ha dato come risultato la biosfera e la coscienza come le conosciamo.

Da questo particolare punto di vista la necessaria e certa sconfitta di ciascuno di noi esseri viventi, la resa incondizionata all’equilibrio, che chiamiamo volgarmente morte, corrisponde alla vittoria di un processo che trova la sua origine nel Sole come sorgente di calore e di energia libera sotto forma di energia radiante e trova come assorbitore finale di questa radiazione l’infinito vuoto dello spazio esterno pieno solo della radiazione di fondo, che assicurò il Nobel a Wilson e Pentzias.

Ognuno di noi arrendendosi all’equilibrio, passa la bandiera ai suoi simili e grida la vittoria della coscienza contro “la materia stupida, neghittosamente nemica come è nemica la stupidità umana, e come quella forte della sua ottusità passiva.”(Primo Levi).

La radiazione, i fotoni hanno potenziale chimico nullo e la loro trasformazione da radiazione centrata sul visibile, a 0.5 micron quando emessa dal Sole a radiazione riemessa dalla Terra nell’infrarosso e centrata attorno a 10 micron non fa che aumentare esponenzialmente il numero di fotoni ma lascia intatta l’energia totale (il potenziale chimico è nullo proprio per questo dU/dN=0). Di fatto è questo il senso dell’equilibrio radiativo del pianeta.

Analogamente si può stimare il flusso entropico della Terra e della biosfera, ma sarà l’oggetto di un prossimo post in cui racconterò come fa la biosfera ad ordinarsi dissipando la propria entropia a spese del flusso di energia solare.

Ricordo che da studente…

In evidenza

Luigi Campanella, già Presidente SCI

Ricordo quando ero studente in Chimica che in una delle prime lezioni di Fisica, il prof. Marcello Beneventano, che era il titolare del corso stesso, chiese quale secondo noi studenti fosse la disciplina scientifica più importante. Alcuni risposero subito Fisica per rispetto al professore, altri Chimica pensando al proprio corso di laurea, qualcun altro Matematica. Dopo le risposte il prof Beneventano disse: no, la disciplina scientifica più importante è la termodinamica, in effetti un settore della Fisica e della Chimica, ma a suo dire quello che consente di capire “come funzionano le cose” nella nostra vita di tutti i giorni. A distanza di 50 anni durante i quali ho spiegato a me stesso ed ai miei studenti fenomeni e processi differenti arrivo alla conclusione che aveva ragione lui.

I principi della termodinamica consentono di spiegare ed interpretare le trasformazioni che comportano cambiamenti delle variabili di stato, quindi la maggior parte di quelle di cui siamo spettatori nella nostra vita. Gli scambi di energia possono avvenire sotto forma di calore o lavoro. In un sistema isolato una trasformazione può avvenire ugualmente anche senza tali scambi, ma tramite l’effetto che anche fluttuazioni di energia possono avere su sistemi in stati metastabili: questa è la ragione ben nota ai conservatori e restauratori per cui un materiale di un Bene Culturale cellulosico o lapideo subisce un invecchiamento anche in un oggetto conservato isolato dal contesto ambientale (armadi chiusi di sicurezza, oggetti interrati, presenza di protezioni). I principi termodinamici introdotti da Rudolf Clausius nel 1850 determinano se un processo sia spontaneo e favorito oppure no; inoltre consentono di prevedere quale sia la stabilità o la instabilità di un sistema, intendendo per sistema una qualunque porzione dell’universo a cui ci si sta interessando come oggetto di indagine o un materiale o anche un organismo vivente.

In questo ultimo caso l’esempio più comune riguarda il processo di crescita di tale organismo, durante il quale il disordine, l’entropia in termini termodinamici, è ridotta dal momento che le molecole del nutriente, spesso di struttura molto complessa ed ordinata (o in altri casi il flusso intenso di energia luminosa) vengono assimilate ed usate per sintetizzare macromolecole e strutture cellulari. Questo non viola i principi della termodinamica sulla base dei quali l’entropia cresce durante i processi naturali spontanei: ad esempio l’apertura di una bibita gassata produce spontaneamente un suono perché l’anidride carbonica intrappolata si espande rapidamente nell’atmosfera aumentando l’entropia del gas ed inducendo una veloce espansione dei gas circostanti.

Questo principio non è messo in discussione da quanto detto sopra a proposito dei sistemi viventi in quanto la crescita negli animali è associata al meccanismo messo in luce da E. Schroedinger (nel famoso What is life?) e sviluppato ulteriormente da Y. Prigogine dello scambio con l’ambiente di entropia negativa, neghentropia, attraverso la nutrizione o il meccanismo fotosintetico basato sull’assorbimento di luce; in entrambi i casi c’è una notevole spesa energetica, che i chimici chiamano energia libera, che contrasta l’aumento spontaneo di entropia del metabolismo. Il calore corporeo, dissipato da un uomo di medie dimensioni è di 100W; questo contributo di energia libera viene fornito dalla luce nelle piante o dall’energia ottenuta dal cibo negli animali ed applicata a costruire ordine corporeo (a partire comunque da molecole già di una certa complessità).

Fa riflettere il fatto che nel tempo molte specie si siano estinte anche se le condizioni termodinamiche erano favorevoli:condizione quindi necessaria quella termodinamica non sufficiente a garantire rispetto a cause quali, in questo caso,predatori e malattie.

Da una prospettiva biochimica processi energeticamente sfavoriti come la disidratazione nell’anabolismo ,è il contemporaneo aumento di entropia dovuto alla conversione dell’ATP in ADP e fosfato che consente a tali reazioni di procedere spontaneamente. La variazione totale positiva di entropia è dovuta alla randomizzazione della materia nei prodotti. Analogamente la crescita delle piante avviene attraverso la cattura della CO2 atmosferica e dell’acqua e la sua conversione in acido fosfoglicerico nella fotosintesi. La cattura del gas corrisponde ad una diminuzione di entropia, ma il processo è comunque favorito. Ci si può domandare perché: la risposta sta nell’ossigeno rilasciato in atmosfera nelle fotosintesi e nelle idrolisi dell’ATP a trasformare energia oltre a ADP e fosfato secondo il ciclo di Calvin applicato alle reazioni metaboliche. Il processo è complessivamente energeticamente favorito con una variazione negativa di energia libera (variazione negativa di entalpia e positiva di entropia).

Passando ad esempi più vicini alla chimica la dissoluzione di un sale fa aumentare l’entropia del sistema dopo la dissociazione in ioni che spinge il processo in avanti. Una soluzione satura non consente ulteriori dissociazioni. Al pari di quanto detto per specie biologiche che non crescono a dispetto della variazione di entropia favorevole l’aggiunta di altro sale non produce ulteriore dissoluzione, anche in questo caso malgrado l’atteso aumento di entropia. Una possibilità è anche che la repulsione elettrostatica degli ioni blocchi l’ulteriore dissociazione senza comportare una diminuzione dell’entropia nell’ambiente. In questo modo ulteriore sale solido aggiunto rimane solido. E’ da considerare che il solvente non è inerte; la sua struttura, nel caso dell’acqua, muta significativamente e la libertà di moto delle molecole d’acqua cambia dato che esse si legano agli ioni in sfere di idratazione. Dal momento che la variazione di entropia in questa condizione vale zero resta valido il dettato termodinamico che richiede una variazione positiva di entropia (ad energia costante) perché possa avvenire un processo che comporta una modificazione della composizione del sistema.

E’ da notare che il processo è dinamico: in realtà sebbene la soluzione satura di un sale non modifichi la concentrazione degli ioni in soluzione, tuttavia ioni si sciolgono dal sale solido aggiunto ed altri in uguale quantità precipitano dalla fase liquida alla stessa velocità. Questi scambi avvengono senza variazioni di entropia, sono “reversibili” come tutti gli scambi alle interfacce, anche elettriche quando il flusso netto di materia è nullo.

La maggior parte dei sistemi in equilibrio contengono processi che vanno avanti come questo ora descritto. Sistemi in equilibrio statico contengono materiali a concentrazioni fisse senza uno scambio netto di massa, come un contenitore chiuso di un liquido o di un gas. Le molecole sono in uno stato dinamico di vibrazione, rotazione e traslazione. In un sistema in equilibrio dinamico le concentrazioni non cambiano nel tempo eppure gli stessi composti sono scambiati come in un contenitore di liquido o gas aperto che è drenato e riempito alla stessa velocità. La concentrazione del gas o del liquido non cambia, ma le molecole presenti nel contenitore sono continuamente rinnovate.

Analogamente per riferirsi ad un sistema vivo la costanza della concentrazione del glucosio nel sangue è uno stadio di equilibrio dinamico dove il cibo ingerito è concomitante con il metabolismo e l’ingresso di acqua si confronta con la produzione di urina cosicché la concentrazione di glucosio ed acqua rimangono costanti. Nei diabetici si crea una condizione metabolica dove i livelli stazionari di glucosio non sono mantenuti a causa dell’eccessivo carico. Diverso è il discorso del sangue venoso ed arterioso: anche in questo caso abbiamo un flusso in entrata ed uno in uscita in un sistema in equilibrio, ma le molecole che entrano e che escono non sono le stesse.

La legge zero della termodinamica indica che per ogni 2 oggetti in contatto aventi temperature diverse indipendentemente dal contenuto di calore di ciascuno di essi, il calore passa dall’oggetto più caldo a quello più freddo e lo farà finché la temperatura dei 2 oggetti non sarà divenuta uguale.

Poiché le orbite della Terra intorno al sole producono una emisfero che si riscalda durante l’estate ed un emisfero che si raffredda durante l’inverno avremo la fusione dei ghiacci alternata alla solidificazione dell’acqua a meno, come sta avvenendo, di aumenti significativi della temperatura terrestre media. La fusione e la solidificazione alternate dell’acqua del mare non alterano i livelli del mare perché il ghiaccio è acqua marina che aumenta di volume e con una densità più bassa fluttua per 1/10 circa del suo volume al di sopra dell’acqua.

Emissioni di acque marine profonde calde, geotermiche, eruzioni vulcaniche riflettono la quantità massiccia di calore che continuamente raggiunge la superficie della terra dalle reazioni termiche profonde. Sebbene queste abbiano ovviamente una elevata variazione totale di entropia, siano quindi molto favorite e l’energia di attivazione richiesta per iniziarle sia stata raggiunta, il processo è protratto a lungo nel tempo dal momento che il calore raggiunge la superficie durante tutto il tempo per cui gli eventi possono essere osservati. Ciò è dovuto all’aumento di entropia associato al mescolamento e randomizzazione dei materiali delle placche tettoniche in movimento e/o in collisione fra loro.

Passando all’ambiente l’attività umana genera elevati livelli di anidride carbonica in molte località con conseguenti danni ambientali e di salute. Sebbene questi siano considerati come capaci di aumentare significativamente la capacità termica dell’atmosfera, tuttavia il contenuto di entropia standard dell’ossigeno è solo di poco inferiore a quello dell’anidride carbonica (205 rispetto a 214 J/K) che lo sostituisce e non è questa differenza che può giustificare il riscaldamento globale (che dipende invece dall’incremento di effetto serra). In effetti le differenze di temperatura fra oceano ed atmosfera comportano scambi di calore: quando questi scambi sono sbilanciati si produce un eccesso di calore ceduto alla Terra dall’oceano e si creano le condizioni per danni sulla terra con enormi quantità di lavoro da smaltire in situazioni anche catastrofiche.

Ho deciso di scrivere queste mie riflessioni sulla termodinamica stimolate da quanto ci disse a suo tempo il nostro prof di Fisica.Oggi con una lunga esperienza di Chimica sulle spalle voglio trasmetterle per suscitare, spero, altre riflessioni la cui elaborazione contribuisca non forse alla conoscenza ma all’esercizio della creatività della chimica.

Scienziate che avrebbero dovuto vincere il Premio Nobel: Marjory Stephenson (1885-1948)

In evidenza

Rinaldo Cervellati

Marjory Stephenson, biochimico inglese e Kathleen Lonsdale (di cui abbiamo parlato nel precedente post), sono state le prime due donne a essere nominate membri della Royal Society.

Marjory Stephenson nasce il 24 gennaio 1885 a Burnwell, un villaggio vicino a Cambridge. Il padre, Robert Stevenson, figura di spicco nella comunità locale, giudice di pace, deputato e poi presidente del Consiglio della Contea di Cambridge, assertore della teoria evoluzionista di Darwin e dell’ereditarietà di Mendel, ottenne il diploma ad honorem di Master of Arts dall’Università di Cambridge per i suoi interventi sullo sviluppo dell’agricoltura scientifica e nel rinnovo del sistema scolastico. Ebbe quindi una grande influenza sulla figlia Marjory, cresciuta quasi come figlia unica visto che la separavano quasi nove anni dall’ultimo fratello e quindici dalla sorella maggiore. Marjory leggeva i libri che il padre poteva prendere dalla biblioteca universitaria dopo aver ricevuto il M.A.

La madre, severa per quanto riguardava la disciplina in famiglia, considerava che la casa fosse il posto in cui ci si aspettava che le figlie prendessero confidenza con le faccende domestiche. Questo addestramento la fece diventare una cuoca esperta e una padrona di casa competente. La madre era però anche un’esperta conoscitrice di letteratura e arte, ciò ebbe pure una certa influenza sulle inclinazioni della figlia minore. Tuttavia, l’attrazione verso le scienze provenne dalla sua governante, Anna Jane Botwright, donna di gran carattere e notevole intelligenza. Su suggerimento di quest’ultima, Marjory fu mandata all’età di 12 anni, alla Berkhampsted High School for Girls, nella contea di Herford. Sebbene accettasse tutto quello che la scuola offriva, a suo parere l’educazione scientifica era molto scarsa, considerò tuttavia l’insegnamento di fisiologia adeguato come buona introduzione a successivi studi biologici. Dopo sei anni, superati gli esami finali, nel 1903 si iscrisse al Newnham College a Cambridge dove la madre aveva mandato in precedenza una delle sorelle, Alice, diplomatasi in storia, e un fratello.

Al Newnham, Marjory scelse il Progetto Tripos, studiando chimica, fisiologia e zoologia, la Parte I del progetto. A quei tempi alle donne era ancora vietato l’accesso ai laboratori universitari di Cambridge, ma il Newnham College ne aveva uno proprio dove le donne potevano effettuare esperimenti pratici.

Dopo aver lasciato il Newnham College, Stephenson avrebbe voluto studiare medicina, ma i costi elevati la indussero a frequentare il Gloucester County Training College in Domestic Science[1], prima come studente poi da insegnante. Passò quindi a insegnare al King’s College for Household Science di Londra.

Ma a Marjory le scienze domestiche non interessavano molto, quindi accettò con gratitudine l’invito che le fece nel 1911 Robert Plimmer[2], co-fondatore del Biochemical Club (in seguito Biochemical Society) a diventare assistente ricercatrice nel suo laboratorio all’University College di Londra, dove avrebbe anche insegnato scienza della nutrizione. Le sue prime ricerche riguardarono la lattasi animale, gli esteri dell’acido palmitico e il metabolismo del diabete indotto in modelli animali [1,3].

Nel 1913 ottenne la prestigiosa borsa Beit per ricerche mediche, ma dovette interromperla a causa dello scoppio della Grande Guerra. Fece inizialmente parte della Croce Rossa, gestendo le cucine degli ospedali da campo in Francia a ridosso del fronte; in seguito divenne comandante del Distaccamento Volontari non combattenti (VAD, Voluntary Aid Detachment) che operavano a Salonicco.

Marjory Stephenson in servizio a Salonicco

Ebbe diverse menzioni di merito che le valsero il titolo di MBE (Member of the British Empire) e la Royal Red Cross nel 1918. Tuttavia la sua esperienza di guerra la fece convinta pacifista, diventò infatti membro attivo del Gruppo scienziati di Cambridge contro la guerra.

All’inizio del 1919 riprese la Borsa Beit e si unì al gruppo del professor Hopkins (che conosceva e apprezzava il suo lavoro sul diabete) nel laboratorio biochimico di Cambridge. Qui trascorse i successivi trent’anni, fino alla sua morte, nel dicembre del 1948. Il Dipartimento di Biochimica dell’Università di Cambridge, sotto la guida di Sir Frederick Gowland Hopkins[3] è stato il luogo in cui trovò l’ambiente favorevole alla sua successiva straordinaria carriera scientifica. La sua stima per il valore dell’ispirazione e degli stimoli ricevuti da Sir Frederick Hopkins emergono chiaramente nella prefazione del suo libro Bacterial Metabolism. In questa prefazione dice infatti che il libro era stato scritto su suggerimento di Hopkins e che era solo a quest’ultimo cui doveva l’incentivo a intraprendere ricerche in biochimica.

Fra il 1920 e il 1930 intraprese intense ricerche sui batteri e il loro metabolismo che si concretizzarono in numerosi articoli scritti in collaborazione. Particolarmente interessante un lavoro del 1926 (insieme a Juda Quastel) sul comportamento del B. sporogens in presenza di ossigeno [4] e quello del 1928 dove isolò per la prima volta un enzima, deidrogenasi lattica, dalle cellule batteriche di Escherichia coli [5].

Negli ultimi anni ’20 Stephenson fu impegnata anche nella stesura del libro fondamentale Bacteria metabolism, che vide tre edizioni fra il 1930 e il 1949 [6]. Ripubblicato nel 1966, è stato il testo base sull’argomento per generazioni di microbiologi e biochimici.

Nel 1929 ottenne infine la nomina a ricercatore permanente dal Medical Research Council.

Marjory Stephenson nel 1930

Uno degli importanti contributi che Marjory Stephenson ha apportato alla microbiologia in questo periodo è stato l’uso e l’ulteriore sviluppo della tecnica del lavaggio delle cellule batteriche che consiste nel toglierle dal mezzo nutriente di coltura, lavarle e sospenderle in un liquido non nutriente prima di effettuare gli esperimenti. La tecnica della sospensione lavata presenta una serie di vantaggi: (a) limitazione delle reazioni anaboliche, inevitabili in mezzo misto; (b) presenza dei soli substrati oggetto di studio; (c) controllo rigoroso del pH e del contenuto salino dell’ambiente esterno. L’enzima deidrogenasi fu isolata proprio usando questa tecnica [5].

Successivi studi con sospensioni lavate di organismi indicarono che la cellula batterica possiede sistemi enzimatici simili a quelli che venivano poi incontrati in altri tessuti.

Nel 1930 iniziò, con L. H. Stickland , una serie di indagini sul trasferimento dell’idrogeno. Questo studio era lo sviluppo logico del suo precedente interesse per il metabolismo batterico di aerobi e anaerobi facoltativi[4] donatori di idrogeno. L’enzima che attiva l’idrogeno molecolare in una coltura batterica mista fu identificato da Stephenson e Stickland, che lo chiamarono idrogenasi. Mostrarono che esso era ampiamente distribuito nei coliformi e in altri organismi. In presenza di questo enzima, il formiato viene ridotto a metano e il solfato a solfuro per via batterica [7,9].

Negli anni successivi approfondirono lo studio sulle idrogenasi, in particolare sulle condizioni di crescita dei batteri che danno luogo alla formazione di idrogenasi formica all’interno delle loro cellule. Trovarono che l’enzima si formava solo quando la crescita cellulare avveniva su un terreno contenente il substrato ma che questa formazione poteva anche verificarsi senza una significativa crescita cellulare. L’enzima quindi si “adattava”all’ambiente (enzima “adattivo” o “inducibile”) [10,11].

Marjory con la cagnetta Judith

Stephenson si interessò quindi sempre più ai fattori che controllano la formazione di enzimi nei batteri. Nel 1936, Marjory Stephenson e J. Yudkin pubblicarono un lavoro sulla galattozimasi, enzima prodotto dal lievito S. cerevisiae, sostenendo che anche questo enzima è adattivo, e che l’adattamento poteva avvenire come risposta diretta all’ambiente senza moltiplicazione cellulare [12]. Questo risultato venne accettato solo anni più tardi in seguito al lavoro di Sol Spigelmann[5].

Per i successivi tre anni, dal 1936 al 1939, Stephenson lavorò in collaborazione con Ernest. F. Gale sui fattori che controllano la formazione di enzimi coinvolti nella deamminazione degli amminoacidi. L’ultimo lavoro pubblicato prima dello scoppio della II Guerra mondiale riguardò la deidrogenasi malica e la codeidrogenasi di B. coli. Le cellule lavate mostrarono una notevole capacità di deidrogenare l’acido malico; Stephenson e Gale furono anche in grado di isolare l’enzima deidrogenasi da cellule frantumate del batterio [13-15].

Durante la guerra, in collaborazione con R. Davies, Marjory Stephenson effettuò uno studio sulla fermentazione dell’acetone-butil alcol, in presenza di Cl. acetobutylicum, Il lavoro sulla fermentazione dell’acetone-butanolo è stata una ricerca importante. Cl. acetobutylicum è infatti un organismo estremamente difficile con cui lavorare e la sua fermentazione non era mai stata studiata se non nei liquidi in fermentazione fino a quando Davies e Stephenson elaborarono, con grande perseveranza, un metodo per attivare le sospensioni cellulari. Fu quindi possibile semplificare il problema e ottenere risultati altamente significativi per la chimica degli intermedi della fermentazione [16].

Ma le attività scientifiche di Marjory Stephenson durante la seconda guerra superarono di gran lunga questo risultato. Per esempio, nel 1941 convocò un certo numero di ricercatori con esperienza nei molteplici aspetti delle spore di patogeni anaerobi (in particolare il Cl. welchii) a una conferenza informale. A questo incontro M. Macfarlane e BCJG Knight[6] presentarono il loro lavoro sulla tossina alfa di Cl. welchii, identificata come una lecitinasi, il che segnò un progresso fondamentale nella comprensione dell’azione tossica di alcuni dei prodotti di questo pericoloso organismo anaerobio. Il risultato finale della conferenza informale fu quello di formare un gruppo di persone che collaborarono alla risoluzione del difficile problema dei patogeni anaerobi.

Dopo la guerra, Marjory Stephenson si interessò alla presenza di acetilcolina nei crauti fermentati. Nella ricerca degli enzimi coinvolti nella produzione di questa sostanza, riuscì a isolare e identificare i ceppi di organismi responsabili su preparazioni da lei personalmente eseguite. procedette a studiare il substrato da cui veniva prodotta l’acetilcolina. Allo scopo effettuò un’acetilazione della colina presente nei succhi vegetali riuscendo a dimostrare che la presenza di acido pantotenico nel mezzo di coltura è necessaria per la formazione dell’enzima colina acetilasi negli organismi responsabili della fermentazione.

Nonostante il Sex Disqualification Act del 1919 e le successive norme del 1929 che stabilirono formalmente la parità fra i generi, fu solo nel 1943 che la Royal Society decise di ammettere donne, nel 1945 Marjory Sthephenson, insieme a Kathleen Lonsdale, fu eletta membro della Royal Society.

Gli ultimi suoi due anni di vita furono spesi in un’indagine sugli acidi nucleici dei batteri e sulla loro rottura causata da enzimi intracellulari. Gli studi progredirono fino alla preparazione di questi enzimi in assenza di cellule e all’effettuazione di indagini preliminari sulla loro cinetica. Fu infatti costretta a rinunciare al lavoro di laboratorio causa il cancro da cui era affetta.

Marjory Stephenson muore il 12 dicembre 1948.

Un anno prima i suoi meriti erano stati finalmente riconosciuti dall’Università di Cambridge che l’aveva nominata Primo Lettore di Microbiologia Chimica[7].

La sua eredità scientifica sta nel riconoscimento che le cellule batteriche sono sedi di una grande attività chimica, e poiché sono libere dalla complicazione della differenziazione morfologica degli organismi più complessi, tale attività è in relazione stretta e diretta relazione con un ambiente che può essere controllato dallo sperimentatore “. (dalla biografia di M. Robertson)

Fonti biografiche

Una dettagliata biografia con bibliografia completa si trova in:

  1. Robertson, Marjory Stephenson 1885-1948, Obituary Notices of Fellows of the Royal Society, 1949, 6(18), 562-577; pdf scaricabile al:

http://rsbm.royalsocietypublishing.org/content/royobits/6/18/562

Ottima anche la biografia di J. Cope:

https://www.bioc.cam.ac.uk/about/history/members-of-the-department/marjory-stephenson-scd-frs-1885-1948

Molto istruttivo l’articolo di M. Creese: British women of the nineteenth and early twentieth centuries who contributed to research in the chemical sciences, British Journal for the History of Science, 1991, 24, 275-305.

Bibliografia

[1] M. Stephenson, On the Nature of Animal Lactase, Biochemical J., 19126, 250-254.

[2] M. Stephenson, Some Esters of Palmitic Acid, Biochemical J., 19137, 429-435.

[3] V. H. K. Moorhouse, S. W. Patterson, M. Stephenson, A Study of Metabolism in Experimental Diabetes., Biochemical J., 19159, 171-214.

[4] J. H. Quastel, M. Stephenson, Experiments on “Strick” Anaerobes., Biochemical J., 192620, 1125-1137.

[5] M. Stephenson, On lactic dehydrogenase. A cell-free enzyme preparation obtained from bacteria., Biochemical J., 1928, 22, 605-614.

[6] M. Stephenson, Bacterial Metabolism. Monographs on biochemistry. London: Longmans, Green & Co., 1930, 2nd edition 1938 ; 3rd edition 1949.

[7] M. Stephenson, L. H. Stickland, Hydrogenase. A Bacterial Enzyme Activted Molecular Hydrogen., Biochemical J., 1931, 25, 205-214.

[8] M. Stephenson, L. H. Stickland, Hydrogenase. II. The reduction of sulphate to sulphide by molecular hydrogen., Biochemical J., 1931, 25, 215-220.

[9] M. Stephenson, L. H. Stickland, Hydrogenylase. Bacterial enzymes liberating molecular hydrogen. Biochem. J. 26, 712., Biochemical J., 1932, 27, 712-724.

[10] M. Stephenson, L. H. Stickland, Hydrogenase. III. The bacterial formation of methane by the reduction of one-carbon compounds by molecular hydrogen. Biochemical J., 1933, 27, 1517-1527.

[11] M. Stephenson, L. H. Stickland, Hydrogenlyases. II. Further experiments on the formation of formic hydrogenlyase by B. coli., Biochemical. J., 1933, 27, 1528-1532.

[12] M. Stephenson, J. Yudkin, Galactozymase considered a san adaptive enzyme., Biochemical. J., 1936, 30, 506-514.

[13] M. Stephenson, E. F. Gale, Factors influencing bacterial deamination. I. The deamination of glycine, d-alanine and Z-glutamic acid by B. coli., Biochemical. J., 1937, 31, 1316-1322.

[14] E. F. Gale, M. Stephenson, Factors influencing bacterial deamination. II. Factors influencing the activity of d-serine deaminase in B. coli., Biochemical. J., 1938, 32, 392-404.

[15] E. F. Gale, M. Stephenson, l-malic dehydrogenase and codehydrogenase of B. coli. Biochemical. J., 1939, 33, 1245-1256

[16] R. Davies, M. Stephenson, Studies on the acetone-butyl alcohol fermentation. I. Nutritional and other factors., Biochemical. J., 1942, 33, 1320-12.                                                                        .

[1] In precedenza Gloucestershire School of Cookery and Domestic Economy, Scuola di formazione per insegnanti di Cucina e Economia domestica destinata anche alla professione di governante per famiglie facoltose. http://www.british-history.ac.uk/vch/glos/vol4/pp335-350

[2] Robert Henry Aders Plimmer (1877-1955) chimico e biochimico britannico co-fondatore della Biochemical Society fu un’indiscussa autorità sulla chimica delle proteine e della nutrizione.

[3] Sir Frederick Gowland Hopkins (1861-1947) biochimico britannico, scopritore dell’amminoacido triptofano, Premio Nobel per la Medicina (insieme a C. Eijkman) 1929 per la scoperta delle vitamine.

[4] I batteri anaerobi facoltativi sono in grado di moltiplicarsi sia in presenza di O2 utilizzando la respirazione aerobica, sia in assenza di ossigeno attraverso la fermentazione.

[5] Sol Spigelmann (1914-1983), biologo molecolare statunitense, noto sopratutto per le sue ricerche sugli acidi nucleici e lo sviluppo della tecnica del DNA ricombinante.

[6] Marjorie Giffen Macfarlane e Bert Cyril J.G. Knight (1904-1981) biologi e chimici della nutrizione britannici, autori di: The biochemistry of bacterial toxins. I. Lecithinase activity of Cl. welchii toxins., Biochem. J., 1941, 35, 884–902. M. Macfarlane è stata anche co-autrice del libro War on Disease, Andre Deutsch Ltd, London, 1971, storia del Lister Institute of Preventive Medicine, dove aveva lavorato dal 1927 al 1964.

[7] Solo nel 1947 fu concesso alle donne di poter diventare membri a pieno titolo dell’Università di Cambridge.

Lo spirito di osservazione.

In evidenza

Mauro Icardi

“…bel mestiere, anche il vostro: ci va occhio e pazienza.

Chi non ne ha, meglio che se ne cerchi un altro

Il brano, tratto da “Arsenico” de “Il sistema periodico”, mi si è riaffacciato alla mente negli ultimi tempi.

Perché ne ho avuto ancora conferma. La chimica, aiuta in primo luogo a separare, pesare e discriminare.

Ma non solo nell’ambito del laboratorio, del reparto di produzione, dell’insegnamento.

Riflettevo in questi giorni, ascoltando pur senza volerlo alcune conversazioni durante un viaggio in treno, o parlando con i colleghi durante le soste in pausa caffè. In tutte queste conversazioni e soprattutto se si parla di temi importanti quali il cambiamento climatico, la politica o il lavoro, colgo delle superficialità a volte disarmanti. Argomentazioni che sempre hanno la capacità di lasciarmi sbalordito.

Una riflessione su come alcuni elementari concetti di base si stiano perdendo in un mare di stupidità e di gossip. E su come sia necessario anzi indispensabile porvi rimedio. Tornando allo spirito di osservazione, dote che un chimico a mio modo di vedere sviluppa toccando le cose con mano, e quindi anche praticando la chimica di un tempo altri due episodi me ne hanno dato conferma.

Episodi che sono successi nell’ambito del lavoro di laboratorio, ma anche in quello di gestione dell’impianto.

Il primo è abbastanza banale ed ordinario. Non accorgersi del non corretto allineamento di un autocampionatore di un gascromatografo significa avere perso la dote di osservare. L’occhio del chimico si allenava un tempo a seguire diverse operazioni distillare, purificare. Nelle sintesi si dovevano misurare parametri, ma anche osservare la massa in reazione, la sua viscosità apparente. E l’occhio si allenava.

Se si utilizzano i moderni strumenti senza utilizzare questa dote, si finisce irrimediabilmente per atrofizzarla. Le macchine moderne di laboratorio pur essendo ormai totalmente automatizzate non vanno perse di vista.

Il problema è poi stato risolto da me e mi ha lasciato in dote la nomea di pignolo. E non è nemmeno la prima volta, visto che mi ero accorto anche di un’altra anomalia su uno strumento diverso. Anomalia non chimica, ma squisitamente elettronica. Durante l’esecuzione di analisi del cromo, sembrava che l’assorbimento atomico fosse dotato di volontà propria. Perché il settaggio della lampada del cromo (monoelemento) slittava come per magia sulla lampada multielemento. Problema poi identificato, ma risolto dal tecnico esterno. Una dimostrazione di cosa sia l’obsolescenza programmata. Le nuove lampade non sono compatibili con i vecchi cavi di alimentazione nel pannello portalampade. Lo strumento non è nuovissimo, ma nemmeno arcaico. Volendo lavorare con una lampada dedicata al solo cromo ci siamo trovati alle prese con questo episodio. In questo caso sono passato quasi da folle…

Il secondo episodio invece mi ha messo a confronto con gli addetti alla manutenzione. Anche in questo caso un malfunzionamento di un cavo che alimentava il relè del quadro di controllo di una serie di pompe che vengono gestite tramite impostazione a computer. Dopo molte discussioni, visto che si trattava di regolare la pompa di spurgo del fango di supero, dopo osservazioni, misurazioni e pesate del fango, controllo di un vecchio conta ore meccanico il problema è stato identificato, ed è in attesa di risoluzione.

Piccola nota per chi leggerà. Non sto scrivendo queste cose per lodarmi da solo. Ma rifletto semplicemente su alcune cose: moltissime persone, anche valide, si affidano alla tecnologia in maniera acritica. E questo non è un bene. La marcata diminuzione della concentrazione di fango in vasca di ossidazione era un segnale di disfunzione che avveniva perché la pompa funzionava più ore del previsto, non intervenendo il relè di blocco. Qui però mi prendo la mia rivincita. Il problema è stato risolto dallo spirito di osservazione di un chimico. Un po’ pignolo e rompiscatole. Ma con ancora spirito di osservazione (a parte la classica presbiopia da età che avanza).

La tecnologia usata senza spirito di osservazione può farci perdere il contatto con quanto una volta potevamo effettivamente vedere e toccare. I mattoncini per costruire, il meccano e la buona vecchia analisi semimicroqualitativa, le titolazioni e la gravimetria in questo sono state a mio parere formative. Mi chiedo se i bambini e ragazzi di oggi potranno sviluppare questa qualità.

E il resto è chimica. Che si sa è un mestiere in cui ci vuole “occhio e pazienza…” Ma lo spirito di osservazione è una dote che serve ad ogni persona che si occupi di scienza e ricerca, e una dote che, insieme allo spirito critico andrebbe coltivata e riscoperta da molte più persone.

Carta riscrivibile in technicolor

In evidenza

Rinaldo Cervellati.

Nella Chemistry & Engineering Newsletter on line del 9 gennaio scorso Mark Peplow ha riportato, sotto il titolo Rewritable paper goes technicolor, i risultati di una ricerca effettuata da un gruppo di ricercatori cinesi su particolari complessi metallici che possono essere utilizzati per disegnare a colori che poi si possono cancellare consentendo il riutilizzo della carta.

L’industria della carta ha un impatto ambientale significativo, dall’abbattimento degli alberi alla materia prima al consumo di grandi quantità di energia e acqua per ottenere il prodotto finito. Per ridurre tale impatto, i chimici hanno sviluppato tecnologie che consentono la stampa a colori su un foglio di carta con inchiostri speciali cancellabili per poter poi riutilizzare la carta.

Queste tecnologie comportano l’impiego di sostanze il cui colore viene attivato dall’acqua proveniente da una stampante a getto di inchiostro, oppure usano coloranti che si evidenziano solo se esposti a luce ultravioletta. Tuttavia questi sistemi non riescono a creare immagini multicolori di qualità e il testo stampato raramente dura più di qualche giorno.

Il gruppo di ricerca della Nanjing University of Posts & Telecommunications coordinato da Qiang Zhao e Wei Huang, ha utilizzato inchiostri a base di complessi metallici in grado di formare immagini e testo multicolori stabili per almeno 6 mesi, prima di essere cancellati e la carta riutilizzata (Yun Ma et al., Dynamic metal-ligand coordination for multicolour and water-jet rewritable paper, Nature Communications, 2018, DOI: 201.1038 / s41467-017-02452-w). I legandi sono molecole di terpiridina, contenenti tre atomi di azoto che si coordinano con ioni metallici come ferro, zinco e cobalto e altri.

In una dimostrazione, i ricercatori hanno ricoperto la carta con un film sottile del copolimero poli etilen glicole miscelato con terpiridina. Aggiungendo alla carta soluzioni acquose di ioni metallici diversi, sia con un disegno a mano libera che con quello proveniente da una stampa a getto d’inchiostro, si sono formati complessi colorati di lunga durata con tonalità di marrone, blu, giallo e verde.

Disegno di fiore in vaso colorato come descritto da Yun Ma et al., Nat. Commun, 2018

È emozionante vedere che semplicemente variando gli ioni metallici, è possibile ottenere una serie di colori distinti e l’intensità del colore rimane stabile per mesi“, dice Yadong Yin dell’Università della California a Riverside, che lavora anch’egli su carta riscrivibile, ma non è coinvolto in questa ricerca.

Usando inchiostri a base di zinco e una terpiridina diversa, il gruppo di ricerca ha ottenuto un modello di codice a barre visibile solo ai raggi UV e che è durato per più di un anno. La risoluzione di questi modelli è paragonabile a quella della stampa a getto d’inchiostro convenzionale, i ricercatori cinesi suggeriscono quindi che il metodo potrebbe essere utilizzato per i cartellini di sicurezza.

La carta riscrivibile può essere cancellata e riutilizzata cinque volte senza alcuna significativa perdita di intensità del colore. Tuttavia, il processo di cancellazione comporta il lavaggio con una soluzione di ioni fluoruro per distruggere i complessi metallo-ligando, uno svantaggio significativo per le applicazioni commerciali. Qiang Zhao, afferma tuttavia che il gruppo sta già lavorando su metodi meno invasivi per cancellare gli inchiostri.

In un approccio alternativo al lavaggio con la soluzione fluoridrica, il gruppo ha ricoperto la carta con un complesso incolore di zinco-legando che diventa arancione quando esposto a luce UV. Poi ha stampato dei disegni con un inchiostro acquoso che ha interrotto i legami di coordinazione zinco-legando e la luminescenza da arancione è cambiata in verdastro (ciano). Anche dopo che la carta si è asciugata, questa immagine UV-visibile è durata per più di 6 mesi ma potrebbe essere cancellata semplicemente riscaldandola a 65 ° C per 30 minuti.

I caratteri cinesi della Nanjing University si illuminano di ciano su uno sfondo arancione se sottoposti a luce UV (da Yun Ma et al, Nat. Commun., 2018)

Zhao aggiunge che i materiali utilizzati non impediscono che la carta venga riciclata una volta completati i cicli di cancellazione della scrittura e che gli esperimenti con colture cellulari hanno dimostrato che tutti i materiali usati presentano una bassa tossicità.

Infine, i ricercatori stimano che la stampa di una pagina di testo sulla loro carta riscrivibile potrebbe costare meno di un quinto di una stampa a getto d’inchiostro convenzionale su carta vergine. “Siamo ottimisti riguardo alla commercializzazione della nostra carta riscrivibile“, afferma Zhao.

La notizia riportata da Peplow ha suscitato una serie di commenti, in generale negativi che è doveroso riportare:

Warwick Raverty: Non si fa menzione dei prodotti chimici di scarto (inclusi i solventi) nella sintesi di questi ligandi. La produzione di molecole altrettanto complesse che migliorano e salvano vite dall’industria farmaceutica, comportano in genere 200 grammi di rifiuti per ogni grammo di prodotto (Clark, J. H. et al., 2017). La LCA di questi ligandi dovrebbe essere confrontata con la LCA di un tipico foglio di carta da stampa prima di essere troppo entusiasti sui benefici ambientali di questa “svolta”. Sembra a questo commentatore (che ha lavorato nell’industria della cellulosa e della carta come chimico organico per 30 anni) che lo sviluppo descritto sia un po’ come l’equivalente chimico di scalare l’Everest semplicemente “perché è lì”. Senza dubbio un risultato per gli scalatori e gli sherpa di supporto, ma di beneficio ambientale negativo.

Stan J: Un grande commento (riferito a quello sopra). Un altro aspetto è che le persone vogliono usare sempre un foglio di carta pulito. Quindi, l’inchiostro cancellabile è irrilevante. Una volta che scrivi qualcosa, la carta non sarà attraente e finirà nella spazzatura proprio come la carta normale, aumentando di fatto l’impatto ambientale.

Gil Garnier: Interessante, ma qual è il punto? 1) Oltre il 95% degli inchiostri per carta da lettere e disegno è a base di acqua o di olio; pochissimi sono inchiostri UV rivelabili. 2) Gli attuali processi di riciclaggio della carta sono molto efficienti nella rimozione dell’inchiostro. La carta da giornale e la carta da lettere sono già realizzate con carta riciclata al 100%, con un’ottima qualità. 3) In molti paesi, come l’Australia e il Brasile, gli alberi provengono da piantagioni ad hoc, contribuendo alla conservazione del carbonio senza intaccare le foreste native. 4) Le bioraffinerie trasformano sostanzialmente la CO2 dall’atmosfera in sostanze chimiche verdi, materiali avanzati e carta attraverso la fotosintesi, usando gli alberi come fonte di stoccaggio del carbonio. Questa sembra essere una soluzione scientifica a un problema scientifico.

Sara: Ok, può essere cancellata e riutilizzata. Ma quante volte la carta che hai conservato per un paio di settimane ha finito per diventare così malconcia e accartocciata che non c’è modo che una stampante laser possa usarla senza incepparsi? Ho provato a riutilizzare la carta stampata e la mia stampante si è inceppata molte volte. Meglio cercare di stampare solo ciò di cui si ha bisogno e riciclare il resto. Vedo molte persone troppo pigre per portare un oggetto di carta / cartone in un posto dove possono riciclarlo. Sono d’accordo con i commenti sulle piantagioni di alberi (foreste gestite) che sono riserve di carbonio favorendo il controllo dei combustibili fossili.

Justin S: Non riesco davvero a vederne un uso pratico. Voglio dire, la carta è ancora carta, dopo tutto. Dubito che ti porterai dietro lo stesso pezzo di carta per molto tempo senza che accada qualcosa. Credo che sarà più facile per le persone utilizzare e riciclare carta nel modo usuale.

Voi cosa ne pensate?

*Tradotto e adattato da C&EN on line, 9 gennaio 2018

I chimici non si tirano indietro. Ricordo di Gianfranco Mattei.

In evidenza

Claudio Della Volpe

Lo so che domani 27 gennaio non è il 25 aprile, ma d’altronde la persona di cui parliamo oggi morì a febbraio; 19 febbraio per la precisione: morì impiccandosi. Ma non fu un suicidio inteso come fuga, al contrario un sucidio del fare, qualcosa di simile alla scelta di altri chimici di cui abbiamo parlato in queste pagine. Un suicidio che aiutava altri a fare.

A non essere catturati. A continuare una lotta molto dura.

Stiamo parlando di Gianfranco Mattei.

Nella soffitta in via Giulia c’e’ un viavai:
strane visite notturne a Gianfranco Mattei…
“…metti nella sporta il barattolo, è libero, vai!”
ed un ponte salterà al chilometro sei.
Gianfranco Mattei,
la tua scienza è andata troppo in là:
Gianfranco Mattei,
sulla cattedra non tornerai.
Anche se inganni i tedeschi e la polizia,
per finire in via Tasso ti basta una spia,
e se per di più sei un comunista ed un ebreo,
dalle mani dei nazisti ti salvi il tuo Dio!
Gianfranco Mattei,
la tua scienza è andata troppo in là:
Gianfranco Mattei,
sulla cattedra non tornerai.
Toglie il respiro il nitrile nei corridoi,
mentre marciano in divisa baroni plebei:
vanno in processione col camice, il regolo, i quiz
la superbia, l’ignoranza e la routine.
Gianfranco Mattei,
la tua cattedra è rimasta là:
Gianfranco Mattei,
la lezione non si perderà.

 Gianfranco Mattei, Stormy Six, (1975)

Nato l’11 dicembre 1916 a Firenze da una famiglia di cultura mista ebraico cristiana (il padre si era convertito per sposare la madre di Gianfranco) si laureò con lode in Chimica nel 1938 con una tesi dal titolo “Preparazione di acetato di acile da aldeide acetica e alcolati di alluminio secondo la reazione di Tischenko”, sotto la guida di Adolfo Quilico; fu professore incaricato di Chimica Analitica presso UniMi, collaborò con il gruppo di Natta fino al 1943.

Respirò l’antifascismo da piccolo, dato che il padre era dichiaratamente tale e incontrò vari problemi per questo.

I suoi principali temi di ricerca sui quali pubblicò 17 lavori e un paio di brevetti nei pochissimi anni di attività furono le ammine alifatiche e le reazioni in film monomolecolari.

Persona attiva in vari campi, aveva amici che saranno tutti antifascisti o comunisti; sua sorella fu espulsa dalla scuola per aver dichiarato la propria avversione alle leggi razziali (Teresita Mattei, diverrà deputata costituente dopo la guerra).

Appena dopo il 25 luglio 1943 insieme a pochi altri docenti del Politecnico fu tra i firmatari di un documento nel quale si chiedeva l’abrogazione di “ogni discriminazione religiosa, politica e razziale” e si auspicava la riammissione delle università italiane nel novero delle università dei Paesi civili in quel momento di “alba di libertà e dignità risorgenti

Le speranze del 25 luglio furono bruciate in pochi mesi dalla incapacità della classe dirigente italiana e dalla pochezza della casa regnante.

Dopo l’8 settembre Gianfranco abbandonò la carriera universitaria e partì col padre e Teresa in ottobre alla volta di Roma, dove fece una scelta estrema. Pur essendo un giovane intellettuale, non si accontentò di contribuire alla stampa clandestina ma preferì dedicarsi ad un’attività più pericolosa, entrando come artificiere nei GAP centrali, collegati a Giorgio Amendola, rappresentante del Partito comunista nella giunta militare del CLN. Con Giorgio Labò, studente di architettura del Politecnico di Milano, giunto a Roma per il servizio militare come geniere dell’esercito, si dedicò alla preparazione di esplosivi e micce

Fino ai mesi di dicembre e di gennaio lo sbarco di Anzio suscitò speranze destinate ad essere deluse; l’attività dei GAP romani si intensificò con vari attacchi tutti riusciti contro i tedeschi; ma a febbraio Mattei e Labò furono denunciati da una spia ed arrestati.

Entrambi morirono; il primo fu ucciso, Gianfranco fu torturato e temendo di non riuscire a resistere (gli strapparono le unghie) pur di non rivelare i nomi dei compagni si impiccò.

Lasciò un biglietto scritto sul retro di un assegno.

Per più di un anno i Mattei cercarono di avere notizie della salma che, come ulteriore crudele atto, era risultata con gran cura nascosta, finché nell’agosto del 1945 si rintracciò all’obitorio di Prima Porta la seguente indicazione “sconosciuto, età apparente di anni 32, provenienza via Tasso. Entrato il 4.2.1944, uscito per essere inumato il 19.2.1944. Causa della morte: asfissia da impiccagione” … Per non rischiare di parlare e mettere in difficoltà l’organizzazione e gli stessi compagni Gianfranco si era tolto la vita. Era sepolto nel cimitero dei poveri, quello dalle piccole croci di legno ma la salma venne riconosciuta dal fratello Camillo, da Lucio Lombardo Radice e dalla padrona di casa che ospitava Gianfranco in clandestinità. Venne riconosciuta dai capelli, dai denti e da un piccolo lembo di vestito. Aveva le unghie strappate …..

Il ricordo di Gianfranco è tangibile in molte università, ci sono lapidi che forse non avete guardato finora e articoli elencati qui sotto che non avete letto; fatelo adesso (le citazioni in corsivo sono tratte dall’articolo del 2009 uscito su C&I).

E beato il popolo che non ha bisogno di eroi.

Riferimenti

https://www.antiwarsongs.org/canzone.php?id=751&lang=it

https://it.wikipedia.org/wiki/Gianfranco_Mattei

http://www.scienze-ricerche.it/?p=3288

https://ilblogdellasci.wordpress.com/2016/05/01/il-25-aprile-e-la-chimica-2a-parte/

http://www.anpi.it/donne-e-uomini/236/gianfranco-mattei

https://www.google.it/search?q=55-59_Isernia&ie=utf-8&oe=utf-8&gws_rd=cr&dcr=0&ei=VEBmWp7rIc-RkwXRg5WwBQ

https://www.soc.chim.it/sites/default/files/chimind/pdf/2009_2_110_ca.pdf

Scienziate che avrebbero dovuto vincere il Premio Nobel: Kathleen Londsdale (1903-1971)

In evidenza

Rinaldo Cervellati

Nella sessione “Ladies in Waiting for Nobel Prizes” tenutasi al già citato meeting nazionale dell’American Chemical Society in agosto dell’anno scorso, Magdolna Hargittai[1] e altre scienziate hanno steso un elenco ragionato delle donne che a loro avviso avrebbero dovuto ricevere il Premio Nobel per la chimica. Di alcune di esse abbiamo già parlato in precedenza, in questo post ci soffermeremo su una scienziata delle cui fondamentali scoperte si ricordano forse solo i cristallografi: (Dame) Kathleen Londsdale.

Lonsdale (nata Yardley) nacque a Newbridge (Irlanda), il 28 gennaio 1903, la minore dei dieci figli di Harry Frederick Yardley, direttore del locale ufficio postale, e da Jessie Cameron. Nel 1908 la madre di Kathleen, cresciuta a nord di Londra, decise di lasciare l’Irlanda con la famiglia a causa della crescente incertezza politica e della separazione dal marito, uomo intelligente ma forte bevitore. Si trasferirono in Inghilterra, a Seven Kings nell’Essex. Kathleen frequentò la scuola elementare Downshall dal 1908 al 1914, e poi vinse una borsa di studio all’Ilford County High School for Girls che frequentò dal 1914 al 1919 (però negli ultimi due anni seguì corsi di fisica, chimica e matematica superiore alla County High School for Boys, unica ragazza a farlo a quei tempi). All’età di sedici anni vinse un posto al Redford College FOR Women a Londra. Al College cambiò argomento, dalla matematica alla fisica, perché gli aspetti sperimentali della fisica la interessavano di più e intendeva dedicarsi al lavoro sperimentale piuttosto che all’insegnamento. Ottenne il B.Sc. nel 1922 risultando al primo posto in graduatoria. Pertanto le fu offerta una borsa di ricerca all’University College di Londra, da W. H. Bragg[2] che era stato uno degli esaminatori per il suo diploma.

Nel 1923, insieme a W.T. Astbury, e altri, seguì Bragg e il suo gruppo di ricerca cristallografica quando si trasferì alla Royal Institution di Londra.

La sua prima pubblicazione, sulla struttura cristallina dell’anidride, dell’acido succinico e della succinimmide è del 1924 [1]. Questo lavoro le valse il M.Sc. in Fisica dall’University College. Nello stesso anno pubblicò, insieme a Astbury, un’importante tabella di dati cristallografici per 230 gruppi spaziali [2].

Nel 1927 Kathleen sposò Thomas Jackson Lonsdale, che aveva incontrato durante i suoi studi post-diploma all’University College. Si trasferirono a Leeds, dove il marito aveva un posto nella Silk Research Association con sede nel dipartimento tessile della Leeds University. A Leeds Kathleen lavorò sulla struttura dei cristalli di esametilbenzene, dimostrando che gli atomi di carbonio nell’anello benzenico sono complanari e disposti in modo esagonale [3]. Questa è stata la prima evidenza sperimentale sulla struttura esagonale dell’anello del benzene e derivati e anche la prima struttura di un composto aromatico la cui configurazione tridimensionale è stata determinata mediante diffrattometria a raggi X[3]. La scoperta fu fatta indipendentemente dal lavoro dei suoi colleghi a Londra, e fu sostenuta da Bragg, anche se contraddiceva la sua teoria che il composto avesse una forma “piegata”.

Tornati a Londra nel 1929, dopo la nascita della loro prima figlia, Kathleen Lonsdale si dedicò per qualche anno alla famiglia[4], lavorando da casa allo sviluppo di formule per le tabelle dei fattori strutturali. Tuttavia nel 1931 pubblicò un articolo sulla struttura a raggi X dell’esaclorobenzene usando l’analisi di Fourier [4].

Nel 1934 Lonsdale tornò alla Royal Institution, dove rimase con Bragg fino alla morte di questi[5], nel 1942. All’inizio, dopo la deludente notizia che non erano disponibili apparecchiature a raggi X, utilizzò un elettromagnete vecchio e ingombrante riuscendo comunque a fornire un altro importante contributo scientifico. Poiché le suscettibilità diamagnetiche dei composti aromatici sono maggiori perpendicolarmente all’anello benzenico che nello stesso piano, fu in grado di dimostrare che i legami σ hanno dimensioni atomiche mentre quelli π hanno dimensioni molecolari, in accordo con la teoria degli orbitali molecolari [5].

Un anno prima Lonsdale aveva terminato e pubblicato una nuova versione ampliata delle Tabelle dei fattori strutturali e delle densità elettroniche per i 230 gruppi spaziali [6]. Per i suoi studi sui derivati dell’etano [7], riproposti nelle Tabelle, le fu conferito il prestigioso titolo di D.Sc.[6]

Essa rivolse quindi le sue attenzioni al campo delle vibrazioni termiche, trovando che fasci di raggi X divergenti potevano essere usati per misurare la distanza tra gli atomi di carbonio. Anche i diamanti hanno riflessi diffusi, che la condussero a intraprendere uno studio diffrattometrico sui diamanti naturali e artificiali [8].

Nel 1946 tornò all’University College di Londra, costituendo un proprio gruppo di ricerca. Nel 1945 fu eletta membro della Royal Society (F.R.S); nel 1949 fu nominata full professor of chemistry e direttore del dipartimento di cristallografia del College. Questo fu il suo primo incarico accademico stipendiato dopo anni trascorsi fra borse di ricerca e contratti a termine.

Insime a Judith Crenville-Wells Milledge, una studentessa proveniente dal Sud Africa continuò le ricerche sui diamanti come pure su minerali ad alte pressioni e temperature e sul meccanismo delle reazioni in fase solida. Uno fra i più importanti risultati di queste ricerche è stato il rilevamento dei patterns di diffrazione dei raggi X dei prodotti intermedi nella conversione del foto-ossido di antracene in cristalli misti di antracene e antrachinone [9].

Dopo aver osservato una raccolta di “calcoli” di fegato, rene, vescica, ecc., Kathleen Lonsdale decise di intraprendere una vasta indagine chimica e demografica sulla formazione di queste “pietre”. June Sutor, una post doc proveniente dall’università di Cambridge, lavorò con lei a questo progetto e infine lo continuò [10].

Nella dettagliata biografia in memoria per la Royal Society, Dorothy Hodgkin[7] [11] annota:

“[Kathleen] sembrava possedere tutta la cristallografia dei suoi tempi. Amava molto il lavoro di laboratorio quotidiano, conducendo personalmente esperimenti e calcoli quando gli impegni lo consentivano, riconoscendo i contributi dei tecnici condividendo con loro la paternità di molti lavori pubblicati”

Molto interessata anche alla didattica della cristallografia a livello di college, pubblicò un lungo articolo sui contenuti e i metodi utilizzati al London University College [12].

Kathleen Lonsdale è stata capo redattore dei tre volumi delle International X-Rays Tables (1952, 1959, 1962).

Nel 1956 è stata nominata DBE (Dame of the British Empire, titolo onorifico che viene concesso alle donne britanniche che si sono distinte in vari campi culturali)

Kathleen era stata educata come battista fondamentalista, ciò le è sempre sembrato in contrasto con il suo atteggiamento mentale scettico e interrogativo. I Lonsdales divennero quaccheri per convincimento nel 1935 e Kathleen ha considerato la sua vita di scienziata, quacchera e madre come inestricabilmente legate. Nella Conferenza Eddington nel 1964 affermò che la pratica della scienza, della religione e dell’educazione dei figli dovrebbe essere fondata sullo scetticismo e la conoscenza acquisita personalmente. Era d’accordo con Eddington[8] sul fatto che il quaccherismo aiuta lo scienziato perché non asserisce dogmi specifici, suggerendo piuttosto di fare affidamento su proprie esperienze. Kathleen sentiva che fede e scienza avevano molto in comune: per lei, la fede proveniva da esperienze personali non da testi religiosi, e la conoscenza scientifica trova il suo fondamento negli esperimenti. Affermò di ritenere che le attuali conoscenze scientifiche fossero probabilmente “vere”, ma teneva la mente aperta riguardo a nuove e migliori teorie. Come quacchero, Kathleen credeva nel pacifismo assoluto e che tutte le guerre fossero moralmente sbagliate. Riteneva che nessuna nazione armata in modo permanente potesse essere libera e che il completo disarmo mondiale fosse l’unica soluzione ai problemi internazionali. Credeva fermamente nella resistenza nonviolenta di Gandhi e nella disobbedienza civile. Durante la seconda guerra mondiale rifiutò di registrarsi alla difesa civile e a causa del successivo rifiuto di pagare la conseguente multa, scontò un mese di prigione. Le sembrava importante dimostrare la profondità della sua obiezione di coscienza. Dopo la guerra divenne vicepresidente dell’Atomic Scientists Association e fu anche presidente della sezione britannica della Women’s International League for Peace and Freedom, originariamente formata a L’Aia durante la prima guerra mondiale. Partecipò alle riunioni del movimento Pugwash, il gruppo antinucleare degli scienziati, ed era anche membro del comitato est-ovest della Society of Friends. Kathleen fu una delle prime due donne a essere eletta membro della Royal Society (l’altra era Marjory Stephenson). Nell’articolo “Le donne nella scienza: reminiscenze e riflessioni” [13] attribuì la scarsità delle donne nei ranghi più alti della scienza alla mancanza di modelli femminili in questo ruolo. Sosteneva con forza che scuola e famiglia dovessero impegnarsi di più a incoraggiare le ragazze a intraprendere studi scientifici e tecnologici.

Dorothy Hodgkin [11] sostiene che quanto Kathleen scrisse riguardo alle donne nella scienza, in realtà stava raccontando la propria vita e la sua “ricetta” per il successo scientifico. Kathleen pensava che le donne abbiano il diritto di avere una vita famigliare felice oltre a una carriera appagante. Per quanto riguarda la carriera, per essere uno scienziato di prima classe, una donna dovrebbe sapere organizzarsi molto bene, lavorare due volte le solite ore e imparare a concentrarsi in qualsiasi momento disponibile.

Kathleen Lonsdale ha lavorato duramente per tutta la sua vita; viaggiò molto (Europa, Stati Uniti, India, Unione Sovietica e Repubblica Popolare Cinese) sia in relazione alla sua attività scientifica sia a quella di pacifista.

Gravemente ammalata, morì all’University Hospital di Londra, l’1 aprile 1971.

Note. Kathleen Lonsdale è stata una ricercatrice prolifica, qui ho citato i lavori più importanti. Una bibliografia praticamente completa si trova nella biografia in memoria scritta da Dorothy Hodgkin [11], scaricabile gratis da internet

http://rsbm.royalsocietypublishing.org/content/roybiogmem/21/447

Tutti i lavori citati nei Proc. R. Soc. Lond. e nelle Phil. Trans. R. Soc. Lond. sono accessibili gratis dai rispettivi siti archive delle due riviste.

Oltre alla dettagliata biografia di Hodgkin, altre notizie biografiche si trovano in:

http://www.encyclopedia.com/people/history/historians-miscellaneous-biographies/kathleen-lonsdale#1-1G2:3404703959-full

http://www.chemistryexplained.com/Kr-Ma/Lonsdale-Kathleen.html

Bibliografia

[1] K. Yardley, The crystalline structure of succinic acid, succinic anhydride and succinimide., Proc. R. Soc. Lond. A, 1924, 105, 451-460.

[2] W.T. Astbury, K. Yardley, Tabulated Data for the Examination o f the 230 Space-Groups by Homogeneous X-Rays., Phil. Trans. R. Soc. Lond. A, 1924, 224, 221-257.

[3] K. Lonsdale, The structure of the benzene ring in C6(CH3)6., Proc. R. Soc. Lond. A, 1924, 123, 494-515.

[4] K. Lonsdale, An X-ray analysis of the structure of hexachlorobenzene using the Fourier method., Proc. R. Soc. Lond. A, 1931, 133, 536-552.

[5] K. Lonsdale, Magnetic Anisotropy and Electronic Structure of Aromatic Molecules. Proc. R. Soc. Lond. A, 1937, 159, 149-161.

[6] K. Lonsdale, Simplified structure factor and electron density formulae for the 230 space-groups of mathematical crystallography (181 pages). G. Bell & Sons, London, 1936 per conto della Royal Institution.

[7] K. Lonsdale, An X-ray study of some simple derivatives of ethane. Part I. Proc. R. Soc. Lond. A, 1928, 118, 449-484. Part II, Proc. R. Soc. Lond. A, 1928, 118, 485-497.

[8] K. Lonsdale, Extra Reflections from Two Types of Diamonds., Proc. R. Soc. Lond. A, 1942, 179, 315-320.

[9] Dame K. Lonsdale, E. Nave, J. F. Stephens, Phil. Trans. R. Soc. London, 1966, 261, 1-30.

[10] K. Lonsdale, D.J. Suton, S. Wooley, Composition of urinary calculi by X-ray diffraction. Collected data from various localities. British Journal of Urology, 1968, 40, 33-36.

[11] D.M.C. Hodgkin, Kathleen Lonsdale, 28 January 1903 – 1 April 1971, Biogr. Mems Fell. R. Soc., 1975, 21, 447-484.

[12] K. Lonsdale, Crystal Structure Analysis for Undergraduates., J. Chem. Educ., 1928, 41, 240-4.

[13] K. Lonsdale, Women in science: reminiscences and reflections., Impact of science on society, 1970, XX, 45-49.

[1] Magdolna Hargittai (1945- ), ungherese, professore ricercatore del Department of Inorganic and Analytical Chemistry, University of Technology and Economics di Budapest, si interessa di strutturistica sperimentale e computazionale e di storia della chimica, è autrice di più di 200 articoli scientifici. Ha scritto diversi libri, fra i quali: Women Scientists. Reflections, Challenges and Breaking Boundaries, Oxford University Press, 2015.

Un resoconto del Meeting dell’ACS si trova in: https://cen.acs.org/articles/95/i36/female-scientists-should-won-Nobel.html?utm_source=NonMember&utm_medium=Newsletter&utm_campaign=CEN

[2] William Henry Bragg (1862-1942), fisico, chimico e matematico britannico. Vincitore, insieme al figlio William Laurence Bragg del Premio Nobel per la Fisica 1915 per le loro ricerche sull’analisi della struttura cristallina mediante i raggi X.

[3] Lonsdale era consapevole dell’importanza della sua scoperta infatti spedì una nota preliminare alla rivista Nature (K. Lonsdale, The structure of the Benzene Ring, Nature, 1928, 122(3082), 810.

[4] I Lonsdale ebbero, fra il 1930 e il 1934 altri due figli, un’altra femmina e un maschio. Per poter tornare a lavorare Kathleen dovette ricorrere all’aiuto di una bambinaia-casalinga.

[5] Nelle sue memorie K. Lonsdale riguardo a W.H. Bragg ha scritto: “Mi ha ispirato con il suo amore per la scienza pura e con il suo spirito entusiasta di indagine e allo stesso tempo mi ha lasciata completamente libera di seguire la mia linea di ricerca”.

[6] D.Sc (Doctor of Science) è un titolo di ricerca accademico rilasciato in numerosi paesi in tutto il mondo. In alcuni paesi, D.Sc. è il titolo usato per il dottorato nelle scienze; altrove è un “dottorato superiore” conferito in riconoscimento di un contributo sostanziale alle conoscenze scientifiche in aggiunta a quello richiesto per il Ph.D. Può anche essere assegnato come titolo onorario.

[7] Dorothy Crowfoot Hodgkin (1910-1994) chimico inglese ha effettuato fondamentali ricerche sulla struttura di molecole biologiche, proteine, ormoni e vitamine con la diffrattometria a raggi X e analisi di Fourier. Premio Nobel per la chimica 1964 per la sua determinazione, attraverso l’utilizzo di tecniche a raggi X, delle strutture di importanti sostanze biochimiche. Una delle 4 donne Premi Nobel per la Chimica su più di 180 assegnati.

[8] Sir Arthur Stanley Eddington (1882-1944) astrofisico inglese è stato uno dei più importanti astrofisici della prima metà del XX secolo. Giovanissimo divenne direttore dell’Osservatorio Astronomico di Cambridge. E’ soprattutto noto per la conferma della teoria della relatività generale di Einstein. Quacchero e di conseguenza pacifista senza se e senza ma, rifiutò di arruolarsi per la I Guerra Mondiale, grazie all’intervento di amici riuscì a evitare le gravi conseguenze che il suo gesto avrebbe comportato. Interessante il film Einstein and Eddington di P. Martin, 2008 (titolo edizione italiana: Il mio amico Einstein)

Gli idrocarburi policiclici aromatici (IPA) nello spazio. Qual è la loro origine?

In evidenza

Diego Tesauro

Gli IPA sulla Terra costituiscono una classe di composti altamente tossica per i loro effetti sugli esseri viventi essendo la maggior parte di essi classificati come agenti cancerogeni per l’uomo. Si formano dalla combustione in difetto di ossigeno della sostanza organica per cui sono particolarmente diffusi nelle matrici ambientali dove le attività antropiche si servono dei combustili fossili. Ma la loro origine non è legata solo alle attività della società industriale, anzi probabilmente sono stati una delle fonti della materia organica sulla Terra. Non possiamo però considerarli un inquinante dello spazio, come abbiamo già riscontrato in altri post di questo blog per altre molecole, anche gli IPA possono ben rappresentare un esempio della dualità della chimica. Infatti accanto al ruolo dannoso che rivestono in questo caso per l’uomo, ma in generale per tutte le forme viventi attuali, hanno giocato un ruolo importante nelle fasi iniziali della vita sul nostro pianeta.

Infatti gli IPA sono giunti in grande quantità sulla Terra primordiale durante la fase di bombardamento meteorico nelle prime fasi di formazione del sistema solare potrebbero avere svolto un ruolo prebiotico, ad esempio, come elementi di trasduzione energetica ed essere incorporati in doppi strati di vescicole [1] In particolare, l’inserimento di derivati ossidati di IPA come ad esempio l’1-idrossipirene e l’acido 9-antracencarbossilico avrebbe prodotto una diminuzione fino a 4 volte della permeabilità delle vescicole nei confronti di piccoli soluti, suggerendo un potenziale comportamento simile a quello svolto attualmente dal colesterolo nelle protocellule primordiali.[1]

acido 9-antracencarbossilico

1-idrossipirene

Gli IPA quindi erano presenti nella nube interstellare molecolare dove ha avuto inizio il processo di formazione del sistema solare. Nelle nubi interstellari molte piccole molecole organiche in fase gassosa si trovano nelle parti scure protette dalla radiazione ultravioletta (UV), ma queste molecole si scindono negli strati esterni della nube esposte alle radiazioni stellari. Queste regioni irradiate sono popolate dai grandi IPA con caratteristiche emissione di radiazione infrarossa compresa tra i 3 e i 20 mm osservata sia nella nostra galassia [2] che nelle altre compatibile con le caratteristiche vibrazionali del legame C-C aromatico e C-H. L’osservazione di questa radiazione ha permesso oltre trenta anni fa di attribuire a questa classe di composti circa il 10% di tutto il carbonio presente nella materia interstellare [3]. Pur avendo individuato l’intera classe, non è mai stato possibile identificare la struttura molecolare di nessun composto nelle nebulose.

Ma qual è l’origine di queste molecole? Sebbene gli IPA siano grandi molecole, sono considerati dagli astronomi particelle di polvere molto piccole. Pertanto, si ritiene generalmente che si formino negli ambienti densi e caldi degli involucri delle stelle evolute,. Più recentemente, è stata avanzata la possibilità di formazione degli IPA a temperature molto basse nella parte oscura delle nubi interstellari [4] dopo che è stato dimostrato che la reazione CCH + C4H6 , che porta alla formazione di benzene (C6H6) non ha un’elevata energia di attivazione e quindi è efficiente a bassa temperatura [5].
Nella chimica in fase gassosa sia calda che fredda, i derivati del benzene – come C6H4 e C6H5 – possono portare ad un’ulteriore crescita della massa verso specie aromatiche più grandi. Pertanto per avere delle prove sul meccanismo di formazione l’interesse della comunità scientifica si è spostato verso l’osservazione di specie di tipo benzenico fondamentali per avvalorare questi modelli chimici.
Il benzene, tuttavia, è difficile da rilevare perché non ha un momento di dipolo permanente che ne non permette una ricerca per via radioastronomica e può essere rilevato solo attraverso le transizioni di assorbimento IR in presenza di una forte fonte di rumore fondo, per cui ci si è posti alla ricerca di altre specie collegate al benzene. In un articolo pubblicato da Science [6] la scorsa settimana gli autori usando le tecniche radioastronomiche mediante il radiotelescopio Robert C. Byrd Green Bank hanno rilevato, da una ben nota nube di gas interstellare nella costellazione del Toro, le transizioni rotazionali del benzonitrile. Questo composto, avendo un gruppo sostituente come il nitrile, ha un notevole momento di dipolo che facilita il suo rilevamento.

Il benzonitrile si forma probabilmente nella reazione della specie neutra CN con il benzene pertanto la rilevanza della sua presenza permette di stimare l’abbondanza del benzene stesso. Benzonitrile.

McGuire et al., Science 359, 202–205 (2018) 12 January 2018, pag 3

Le abbondanze di benzonitrile calcolate da un modello chimico che include diverse reazioni in fase gassosa a bassa temperatura sono inferiori di quelle osservate di un fattore di quattro. per cui vengono suggeriti dei meccanismi alternativi che coinvolgono la chimica indotta dalla radiazione proveniente dei raggi cosmici sulla superficie dei grani di polvere cosmica che produrrebbero il benzonitrile mancante. La discrepanza tra osservazioni e modelli mostra che, nonostante la bassa abbondanza osservata di benzonitrile, la sua rilevazione rimane importante.

La Taurus Molecular Cloud (TMC1) dove è stata rilevata la presenza del Benzonitrile

Esiste qualche relazione tra la rilevazione del primo anello aromatico in nubi scure interne e la presenza di IPA, che generano le bande di emissione IR, nelle regioni esterne irradiate dalla radiazioni UV delle nubi?

Oltre alle reazioni chimiche in fase gassosa menzionate, gli IPA e specie affini, come il fullerene C60, potrebbero essere prodotti attraverso l’irraggiamento UV dei granelli di polvere [7]. Sono stati anche proposti altri scenari. Ad esempio, idrocarburi di grandi dimensioni, compresi gli IPA, potrebbero essere formati da processi chimici sulla superficie di grani di carburo di silicio, un meccanismo che potrebbe essere efficiente negli involucri di stelle giganti rosse ricche di carbonio.

Non è chiaro quanti degli IPA e dei loro precursori siano sintetizzati nei densi e caldi involucri delle stelle evolute e quanti siano derivati ​​dalla chimica foto- o radiativa negli ambienti interstellari. La scoperta di un derivato del benzene in una nuvola molecolare fredda indica comunque che può formarsi anche a temperature molto basse e senza radiazioni UV.

Esempi di strutture molecolari di IPA

Il percorso quindi che spieghi pienamente la chimica degli IPA e delle specie correlate nello spazio è ancora lungo, ma le conoscenze aumenteranno combinando i dati provenienti dalle onde radio e infrarosse con il James Webb Space Telescope, che verrà lanciato nel 2019.

[1] J. Groen et al. Orig Life Evol Biosph. 2012, 42, 295.

[2] F.J. Low et al. Astrophys 1984, 278, L19.

[3] J.E. Chiar et al. Astrophys 2013, 770,78.

[4] R.I. Kaiser et al. Annu Rev Phys Chem 2015, 66, 43

[5] B.M. Jones et al. Proc.Nat Acad USA 2011, 208, 452.

[6] B.A. McGuire et al, Science 2018, 359, 202.

[7] P. Pilleri et al Astron. Astrophys 2015 577 A16.

Lana per la depurazione

In evidenza

Mauro Icardi

La lana è un materiale che sta facendo il suo ingresso nel settore della depurazione delle acque. La ricerca nel settore si sta orientando verso nuove soluzioni che riescano a coniugare effetti depurativi elevati con costi contenuti. Oltre a questo si sperimentano soluzioni che superino i limiti degli impianti di trattamento tradizionali. Da un punto di vista chimico la fibra della lana è un polimero di origine proteica ed è costituita da cheratine ossia da macromolecole risultanti dall’unione di più amminoacidi legati tra loro tramite un legame peptidico. Da un punto di vista spaziale le catene cheratiniche sono disposte a elica a formare una struttura tridimensionale.

La lana di pecora sarda è entrata a fare parte di una serie di prodotti utilizzati per il disinquinamento in situ di idrocarburi. In particolare quello dovuto a sversamenti accidentali. Il prodotto presentato nel 2016 è frutto di una collaborazione tra l’Università di Cagliari (dipartimenti di Scienze Biomediche e di Ingegneria Sanitaria) e la società Geolana. Il principio di funzionamento è quello di lavorare la lana creando delle microcelle adatte ad essere adoperate come habitat da microrganismi in grado di degradare i prodotti petroliferi. Il prodotto può poi essere confezionato sotto forma di “salsicciotti “ assorbenti (forma piuttosto diffusa anche per prodotti a base di enzimi) che vengono posti come barriere assorbenti nelle aree marine da bonificare.

Il principio in ultima analisi ricorda quello dei sistemi a biomassa adesa sia di vecchia concezione (biodischi) che di quelli più recenti (MBRR- Moving-Bed Biofilm Reactor). Va anche ricordato che negli anni si sono sperimentati diversi sistemi di filtrazione per esempio di aria proveniente da locali di trattamento di fanghi con l’utilizzo di biofilitri. Il materiale di riempimento poteva essere costituto da corteccia di alberi, ma anche da gusci di cozze, che negli anni si sono utilizzati in diversi impianti di depurazione proprio per questo scopo.

http://www.infonodo.org/node/12115

Ritornando alla lana e al suo recupero, destinandola alla depurazione delle acque, una notizia recente è stata pubblicata pochi giorni fa, il 10 Gennaio 2018 sul quotidiano “La Stampa”.

La notizia si riferisce a sperimentazioni in corso presso il centro ricerche Smat a Torino. Il titolo dell’articolo è : “Così gli scarti delle lane rendono l’acqua più sicura”.

Scarti della lavorazione della lana, opportunamente trattati come precisato dalla società per bocca del suo presidente Paolo Romano, utilizzati per la rimozione di metalli.

In particolare si tratterebbe di produrre delle cartucce di lana pressata per sostituire processi di osmosi inversa. Questo per diminuire i costi e per facilitare le manutenzioni, che a loro volta incido dal punto di vista economico. Per quanto riguarda i risultati, relativamente all’arsenico l’articolo indica una riduzione di concentrazione da valori iniziali pari a 2000 microgrammi/litro, fino ad arrivare ad una concentrazione di 10 microgrammi litro.

Nell’articolo è indicata anche l’intenzione di estendere le sperimentazioni su altri metalli, quali zinco, nichel, cadmio e cromo esavalente.

In attesa di notizie più precise, credo occorra ricordare alcune cose. Normalmente nelle acque superficiali l’arsenico è presente nella forma pentavalente, come in AsO43-, cioè lo stato ossidato +5.

Su questa forma il trattamento ad osmosi inversa riesce a trattenere fino al 90% dell’arsenico. Ma è inefficace per il trattamento dell’arsenico in forma ridotta come in AsO33- , cioè lo stato ossidato +3. Occorre quindi essere sicuri che tutto l’eventuale arsenico in questione sia eventualmente ossidato a pentavalente. In caso contrario occorre prevedere di utilizzare ossidanti usualmente impiegati (permanganato di potassio, acqua ossigenata o reattivo di Fenton.)

Nei processi di osmosi inversa occorre per eliminazione di arsenico occorre verificare il problema dello sporcamento delle membrane. Ho trattato il problema dal punto di vista dell’osmosi. Potrebbe essere utilizzata eventualmente la tecnica dell’adsorbimento, ma non mi è chiaro come si potrebbero utilizzare allumina o idrossido di ferro sullo strato di lana che fungerebbe da letto di riempimento. Perché per esempio utilizzando allumina occorre a volte addizionare l’acqua di acido e successivamente neutralizzarla per la rigenerazione del filtro di adsorbimento.

In letteratura si trovano lavori sperimentali che trattano della rimozione dell’arsenico con metodi di questa concezione.

Modificando la struttura delle piume di pollo e verificando sperimentalmente che la cheratina risulterebbe particolarmente efficace nell’assorbimento dell’arsenico.

(RSC Adv. , 2013,3,20800)

Un altro lavoro sperimentale di ricercatori italiani che indica come efficienti agenti di rimozione dell’arsenico nelle acque di falda la chitina ed il chitosano. Ipotizzandone anche l’uso in medicina come nano particella naturale, per i veicolare il triossido di arsenico nei tessuti, ad uso chemioterapico.

(Mars. Drugs 2010 , 8,1518-1525; doi: 10.3390/md 8051518)

Sarà interessante verificare in ogni caso il procedere di questa sperimentazione torinese. Se risulterà promettente sarà un deciso passo in avanti verso recupero di materiali e diminuzione di rifiuti. E in ultima analisi il rilancio di tecniche di filtrazione che a loro tempo furono le prime (ed è intuitivo pensarlo) utilizzate nella purificazione delle acque.

Altra considerazione da fare: utilizzare le materie seconde, studiarne le potenzialità nell’ottica dell’applicazione concreta dell’economia circolare.

Una lingua artificiale.

In evidenza

Rinaldo Cervellati

“Una “lingua artificiale” a base di detergente può identificare le marche di acqua in bottiglia”

E’ il titolo principale di un articolo di Prachi Patel comparso sul fascicolo on-line di Chemistry & Engineering News dell’11 dicembre scorso. Nel sottotitolo, l’estensore specifica che si tratta di un assemblaggio contenente un singolo tipo di sensore fluorescente in grado di rilevare 13 ioni metallici diversi.

Questo assemblaggio (“lingua chimica”) è stata messa a punto da un gruppo di ricerca misto delle Scuole di Chimica e Ingegneria Chimica e di Fisica e Tecnologia dell’Informazione dell’Università di Shaanxi (Cina), coordinati dalla Dr Liping Ding (L. Zhang et al., A Fluorescent Binary Ensemble based on Pyrene Derivative and SDS Assemblies as a Chemical Tongue for Discriminating Metal Ions and Brand Water, ACS Sensors, 2017, DOI: 10.1021/acssensors.7b00634). Il sensore chimico realizzato dai ricercatori cinesi utilizza un singolo tipo di molecola fluorescente per rilevare e quantificare 13 ioni metallici diversi.

I sensori fluorescenti sono particolarmente adatti per la rilevazione in tempo reale di quantità minime (livello nanomolare) di composti o ioni bersaglio in soluzione. In queste applicazioni, le molecole includono tipicamente due parti: un recettore collegato a un colorante fluorescente. Quando il recettore si lega al suo bersaglio, innesca un cambiamento nel colore, nell’intensità o nella durata dell’emissione luminosa del colorante. Questa risposta viene usata per identificare e quantificare la concentrazione della molecola bersaglio (analita).

Per questo tipo di applicazione, i ricercatori hanno in genere utilizzato un insieme di sensori, ciascuno posto in pozzetti separati di una piastra, per misurare la quantità di più tipi di molecole in un campione. Utilizzando tali insiemi di sensori, i ricercatori hanno realizzato lingue artificiali in grado di identificare diverse bevande analcoliche, whisky e vini. Queste “lingue” possono inoltre consentire il monitoraggio della qualità dell’acqua e permettere ai consumatori di testare i prodotti alimentari per la contaminazione da metalli pesanti.

Ma questi insiemi di sensori sono tediosi da utilizzare, richiedono tempo e non poca quantità di campione, afferma Liping Ding, pertanto insieme ai miei colleghi abbiamo cercato di semplificare sia il metodo sia l’apparecchiatura.

Il nuovo sensore messo a punto dai ricercatori cinesi utilizza una singola sonda molecolare che può emettere fluorescenza a quattro diverse lunghezze d’onda, a seconda della lunghezza d’onda della luce applicata al campione. Quando diversi ioni metallici si legano, il pattern di fluorescenza cambia sensibilmente in modo tale da consentire di distinguerli in soluzione.

La parte fluorescente del sensore è un colorante a base di pirene contenente un gruppo funzionale amminico che lega gli ioni metallici. Quando vengono aggiunti all’acqua insieme al detergente più comune, il sodio dodecil solfato (SDS), le molecole del detergente si aggregano in micelle.

Formazione di una micella

Le micelle sono aggregati molecolari di forma sferica con superficie idrofila caricata negativamente, e interno idrorepellente. Gli aggregati incorporano le molecole del sensore: la parte pirenica idrofobica viene intrappolata all’interno delle micelle mentre l’estremità amminica idrofila punta verso l’esterno della soluzione e si lega agli ioni metallici, attratti dalla superficie negativa.

Questa interazione provoca un cambiamento nelle dimensioni e nella forma degli aggregati micellari. Questo cambiamento strutturale a sua volta fa variare l’intensità della fluorescenza in ciascuna delle quattro lunghezze d’onda, tipica per un dato ione metallico. La combinazione dei cambiamenti a diverse lunghezze d’onda costituisce quindi un modello di riconoscimento per un particolare ione metallico, afferma Ding.

Schema del metodo. Quando gli ioni metallici si legano ai fluorofori del sensore (mezzalune rosa) o interagiscono con la parte anionica delle micelle di detergente, la struttura delle sfere cambia, come pure l’intensità della luce dei fluorofori a quattro lunghezze d’onda.

I ricercatori cinesi sono stati in grado di registrare modelli di riconoscimento unici per 13 diversi ioni metallici: Cu2+, Co2+, Ni2+, Cr3+, Hg2+, Fe3+, Zn2+, Cd2+, Al3+, Pb2+, Ca2+, Mg2+ e Ba2+. Applicando un algoritmo di riconoscimento ai diversi pattern dei segnali fluorescenti, si potrebbero individuare più ioni metallici presenti nella soluzione in esame.

Le marche di acque minerali in bottiglia hanno diversa composizione e quantità di ioni metallici, ciò che le rende un test ideale del nuovo sensore. Quando i ricercatori hanno testato tali campioni con il loro sensore, hanno potuto discriminare fra acqua del rubinetto e acqua minerale e identificare otto diverse marche di acqua minerale. Il sensore potrebbe infine essere utilizzato per monitorare la qualità dell’acqua potabile o rilevare contraffazioni dell’acqua in bottiglia, conclude Ding.

Liping Ding

Scienziate che avrebbero potuto vincere il Premio Nobel: Marie Maynard Daly (1921-2003)

In evidenza

Rinaldo Cervellati

Marie Daly nacque il 6 aprile 1921 a Corona, un quartiere nel distretto di Queens, New York da Ivan. C. Daly e Helen Page. Il padre Ivan, immigrato dalle Indie Occidentali, giunto a New York iniziò gli studi di chimica alla Cornell University ma non potè continuarli per mancanza di denaro, trovò lavoro come impiegato postale. La madre Helen, originaria di Washington era un’accanita lettrice in particolare di libri incentrati sulle scienze e gli scienziati. Ispirata dalla vicenda del padre e dalle letture della madre, Marie dopo aver completato gli studi secondari all’Hunter High School, un istituto femminile dove fu ulteriormente incoraggiata a studiare chimica, s’iscrisse al Queens College, a Flushing, un altro quartiere del distretto di Queens. Ottenne il B.Sc. in chimica nel 1942 con lode e il titolo di Queens College Scholar, riservato al top 2,5% dei diplomati dell’anno.

Marie Maynard Daly

Questi risultati, insieme alle necessità di sostenere lo sforzo bellico permisero a Daly di ottenere borse di studio per proseguire la carriera alla New York University e poi alla Columbia University.

Mentre studiava alla New York University, Daly lavorò come assistente di laboratorio al Qeens College. Completò gli studi per il master in un anno, ottenendolo nel 1943. Continuò a lavorare al Queens come tutor di chimica e s’iscrisse al programma di dottorato alla Columbia University, dove ebbe come supervisore Mary L. Caldwell[1], che la aiutò a capire come alcune sostanze prodotte dal corpo umano intervengono nella digestione dei cibi. Daly completò la tesi “Studio dei prodotti formati dall’azione dell’amilasi pancreatica sull’amido di mais”, ottenendo il Ph.D. nel 1947, prima donna afroamericana a ottenere il dottorato in chimica.

Daly in toga e tòcco

Per un anno lavorò come insegnante istruttore di scienze fisiche all’Howard University facendo anche ricerca con Herman Branson[2]. Dopo aver ottenuto dall’American Cancer Society un finanziamento per proseguire gli studi post-dottorato si recò al Rockefeller Institute, dove insieme al Dr A.E. Mirsky[3] studiarono i nuclei dei tessuti cellulari. Lo scopo di queste ricerche era determinare le composizioni degli acidi nucleici deossipentosi presenti nel nucleo. Daly ha inoltre esplorato il ruolo della ribonucleoproteina citoplasmatica nella sintesi proteica. Usando l’amminoacido glicina radiomarcata, è stata in grado di misurare il modo di variazione del metabolismo delle proteine in condizioni di alimentazione e di digiuno nei topi. Ciò le permise di monitorare l’attività del citoplasma mentre la glicina radiomarcata era assorbita nel nucleo della cellula.

Marie Daly in laboratorio

Nel 1953, dopo la descrizione della struttura del DNA di Watson e Crick, la visuale di Daly cambiò in modo significativo: improvvisamente, il campo di ricerca sul nucleo cellulare ebbe molte opportunità di finanziamento.

Nel 1955 Daly ritornò alla Columbia University e lavorò nel College di Medicina e Chirurgia insieme al Dr Quentin B. Deming. In collaborazione con lui iniziò a studiare gli effetti che l’invecchiamento, l’ipertensione e l’aterosclerosi provocano sul metabolismo delle pareti arteriose. Continuò questo lavoro come assistente professore di biochimica e medicina presso l’Albert Einstein College of Medicine della Yeshiva University di New York, dove lei e Deming si trasferirono nel 1960. Le piaceva insegnare agli studenti di medicina e s’impegnò per favorire l’ingresso nelle scuole di medicina a studenti delle minoranze etniche. Nel 1971 è stata promossa a professore associato, per conto dell’ l’American Heart Association studiò l’effetto del fumo di sigaretta sui polmoni e le possibili cause dell’infarto cardiaco.

Daly è sempre stata molto riservata sulle sue esperienze di donna di colore in un ambiente prevalentemente maschile e non poco razzista, ma non c’è dubbio che abbia avuto affrontare una strada tutta in salita e molto irta per emergere.

È stata membro attivo e ha ricoperto incarichi in molte società scientifiche fra le quali l’American Cancer Society, l’American Association for the Advancement of Science, l’American Heart Association. Per due anni è stata membro del consiglio di amministrazione dell’Accademia delle scienze di New York per due anni. È stata designata come ricercatrice in carriera dal Health Research Council della città di New York.

Omaggio a Marie Maynard Daly

Daly andò in pensione dall’Albert Einstein College of Medicine nel 1986 e nel 1988 ha istituto una borsa di studio intitolata al padre, per studenti afroamericani che intendono specializzarsi in chimica e fisica al Queens Colllege. Sicchè Daly non solo si è spinta verso traguardi accademici e di carriera per sé, ma per quanto possibile ha lasciato più aperta la porta per l’ingresso di persone di colore nel mondo della ricerca scientifica.

Nel 1999, è stata riconosciuta dalla National Technical Association come una delle prime 50 migliori donne in Scienze, Ingegneria e Tecnologia.

È morta a New York il 28 ottobre 2003.

Bibliografia

Per il post

Dr. Marie Maynard Daly, a Trailblazer in Medical Research,

http://www.ebony.com/black-history/marie-maynard-daly-ebonywhm#axzz4MdFJbNYu

Marie M. Daly https://www.biography.com/people/marie-m-daly-604034

Marie Maynard Daly https://www.chemheritage.org/historical-profile/marie-maynard-daly

https://en.wikipedia.org/wiki/Marie_Maynard_Daly

Pubblicazioni di Marie M. Daly (periodo el Rockefeller Institute)

Marie M. Daly,* A. E. Mirsky, H. Ris, The Amino Acid Composition and Some Properties of Histones, J. Gen. Physiol., 1951, 34, 439-450.

Marie M. Daly, A. E. Mirsky, Formation of Protein in the Pancreas, J. Gen. Physiol., 1952, 36, 243-254.

Marie M. Daly, V. G. Allfrey, A. E. Mirsky, Uptake OF Glycine-N15 by Components of Cell Nuclei, J. Gen. Physiol., 1952, 36, 173-179.

  1. Allfrey, Marie M. Daly, A, E. Mirsky, Synthesis of Protein in the Pancreas. II. The Role of Ribonucleoprotein in Protein Synthesis, J. Gen. Physiol. 1953, 37, 157-175.

[1] Mary Letitia Caldwell (1890-1972) americana, chimico della nutrizione è nota per i suoi lunghi studi sulle amilasi, enzimi necessari per la demolizione degli amidi. Nota in particolare per aver trovato un metodo per purificare l’amilasi del pancreas suino in forma cristallina.

[2] Herman Russell Branson (1914-1995) fisico e chimico afroamericano, noto per i suoi studi sulla struttura alfa elica delle proteine.

[3] Alfred Ezra Mirsky (1900-1974) biologo americano, è considerato un pioniere in biologia molecolare. Internazionalmente riconosciuto per la scoperta della costanza del DNA che ne stabilì il concetto di “materiale” ereditario. Pubblicò con Linus Pauling un importante articolo sulla struttura generale delle proteine. Ha fornito contributi rivoluzionari nello studio della struttura dei nuclei cellulari nei roditori e nei bovini proponendo dirette analogie con quella dei nuclei delle cellule umane.

Glifosato. Dove siamo? Parte 2. Altri fatti e qualche opinione.

In evidenza

Claudio Della Volpe

Nella prima parte di questo post abbiamo presentato alcuni fatti sul glifosato, il più venduto e discusso erbicida del mondo.

In questo secondo post completerò la mia (sia pur personale) descrizione delle cose e commenterò alcune posizioni a riguardo.

Per comprendere le posizioni delle tre agenzie principali di sicurezza mondiali sul glifosato IARC, EFSA ed ECHA, ricordiamo prima di tutto cosa sono rischio e pericolo. Sono termini usati nel linguaggio comune come sinonimi, ma la legge e la tecnica o la scienza li usano in modo diverso e questo comporta una pesante ambiguità specie sui giornali o negli articoli scientifici quando le cose non sono scritte con attenzione. Perfino nella tecnica giuridica le due terminologie si sovrappongono con risultati non esaltanti; per esempio il pericolo concreto e astratto sono termini tecnici della giustizia che sono completamente lontani dal loro senso comune: per caratterizzare il pericolo, il danno potenziale, di lesione del bene giuridico tutelato, si usano tre elementi: i dati di fatto completi dell’evento, le leggi scientifiche che caratterizzano i fenomeni coinvolti e la probabilità che si verifichino. Il pericolo è astratto quando la norma contiene tutti gli elementi necessari alla caratterizzazione del pericolo ed astrae da fatti concreti, la sua applicazione è dunque automatica, mentre è concreto quando la norma rimanda al giudice la necessità di tener conto di tutta un’ulteriore serie di elementi di fatto, concreti appunto, su cui basarsi per formulare una valutazione definitiva. Dunque in un testo giuridico, una sentenza i due aggettivi riferiti a pericolo hanno un senso del tutto diverso dal loro senso comune. Come vedete insomma ce n’è a sufficienza per stare attenti nell’uso di questi termini.

Il pericolo è una qualità intrinseca di un determinato fattore avente il potenziale di causare danni mentre il rischio è la probabilità di raggiungere il livello potenziale di danno nelle effettive condizioni di impiego; in definitiva una cosa può essere pericolosa ma non rischiosa, ossia costituire un pericolo ma non un rischio, avere una valenza mortale ma non essere concentrata a sufficienza: è la dose che fa il veleno, come diceva il vecchio Paracelso. Per questo motivo la botulina che è un veleno potentissimo è anche contemporaneamente alla base di una tecnologia per ristabilire la freschezza dei lineamenti. E’ pericolosa ma il rischio è trascurabile a dosi molto basse, anzi il suo uso è benvenuto.

 

Gli effetti possono essere comunque “nefasti”, certi visi sono stati rovinati da un uso eccessivo o scorretto, ma questo è un altro problema, che non dipende dal botox in se, ma di cui occorre tener conto.

Cosa dicono allora IARC, EFSA ed ECHA?

Nel marzo 2015 lo IARC ha posto il glifosato in classe 2A in un elenco definito dalla immagine qua sotto.

Lo IARC si occupa di pericolo NON di rischio e dunque ci consiglia di stare attenti al Sole che è certamente un pericolo di cancro alla pelle, ma questo pericolo è gestibile attraverso l’uso di opportune metodologie (evitare le scottature, usare creme solari, stare attenti ai nei e alla loro evoluzione, etc) per ridurre il rischio; e così per ogni altra cosa. Lo IARC si occupa solo di valutazioni di pericolo ed usa una metodologia che è molto precisa: solo lavori scientifici pubblicati SENZA conflitto di interesse, dunque solo lavori non supportati in alcun modo dalle aziende produttrici, riunioni in presenza di rappresentanti delle controparti, relazioni finali pubbliche, tuttavia la discussione non è resa pubblica completamente, anche per tenere i singoli rappresentanti lontani dalla pubblicità e dal character assassination che potrebbe venir fuori, esattamente come è venuto fuori per il glifosato.

IARC è il braccio armato contro il cancro dell’OMS, l’organizzazione mondiale della sanità, mentre ECHA, l’altro ente che si occupa di valutazione SOLO di pericolo delle sostanze “chimiche” è una istituzione squisitamente europea; la terza istituzione che si è occupata del tema è l’EFSA che è una istituzione europea che si occupa di rischio per cibo e ambiente.

Capite allora bene che mentre un conflitto fra le conclusioni di EFSA e IARC è tutto sommato accettabile, la cosa è diversa per le conclusioni di IARC e ECHA.

Entrambi questi organismi si occupano solo di pericolo e dunque le loro differenti conclusioni sono da far risalire alle metodologie diverse di valutazione e al set di dati usati; a questo riguardo aggiungo per chiarezza che IARC non separa il glifosato dai costituenti nelle sue valutazioni, ossia valuta il prodotto come viene usato di fatto, mentre ECHA ed EFSA classificano separatamente le varie sostanze e indicano le proprietà solo per il glifosato lasciando agli stati membri di analizzare le conseguenze dell’aggiunta di altri additivi.

E’ interessante a questo proposito leggere cosa dice l’equivalente americano di Federchimica, l’associazione degli industriali della Chimica USA, American Chemistry Council (ACC).

Like IARC, ECHA performed the latter type of evaluation of glyphosate and found there is no evidence the herbicide qualifies as a cancer hazard. The conflicting conclusions between IARC and ECHA are all the more significant considering ECHA even evaluated the same studies that IARC did, in addition to industry data that IARC refused to use. As the ECHA press release notes:“The committee also had full access to the original reports of studies conducted by industry. RAC has assessed all the scientific data, including any scientifically relevant information received during the public consultation in summer 2016.” The comparison of ECHA and IARC’s findings underscores the need for the IARC Monographs Program to improve how it conducts its evaluations of substances. Until its Monographs are based on transparent evaluations of all available scientific evidence, IARC’s findings are of little value.

Ve li lascio in inglese; la conclusione di ACC è che dato che IARC si rifiuta di usare i dati dell’industria (come dicevo fa questo per evitare ogni tipo di conflitto di interesse) le sue conclusioni sarebbero di poco valore. Ma neanche loro attaccano, almeno in questo caso i metodi di IARC, nel merito.

Questo nei documenti ufficiali; sui giornali e nelle aule dei tribunali la cosa è stata diversa; si è scatenata una vera e propria guerra di religione che ha visto schierata da una parte la stampa filoglifosato, guidata da Reuters e dall’altra la stampa ambientalista guidata da Le Monde (ne ho parlato in parte qui). Il fatto che Reuters, che dal 2008 è parte del gruppo Thomson Reuters, sia uno dei maggiori gruppi a livello mondiale nell’informazione economico-finanziaria aggiunge dubbi e pensieri a questo fatto (fra l’altro Thomson detiene ISI e JCR, che sono cruciali nelle stime bibliometriche). Reuters ha accusato IARC di aver cambiato i risultati dei lavori usati; strano che il rappresentante dei produttori di glifosato, Thomas Sorahan, presente alle riunioni non abbia MAI detto nulla a riguardo. Accuse di conflitto di interesse sono state mosse ad uno degli “invited speakers” dello IARC, Portiers, per aver accettato DOPO la conclusione dei lavori (i lavori sono finiti il 20marzo) un contratto (firmato il 26 marzo) con uno studio legale americano che sta rappresentando alcuni dei 184 casi che hanno chiamato in giudizio la Monsanto per gli effetti del glifosato; sono cause miliardarie e come succede negli USA sono combattute senza esclusione di colpi.

Insomma è chiaro che in questo caso, come nel caso della carne rossa ci sono in gioco interessi miliardari e dunque non è strano che si scateni un conflitto sul giudizio di rischio accettabile contro un pericolo giudicato limitato nell’uomo e provato solo negli animali. La stessa cosa non è successa per sostanze come il benzene che è in classe 1 cancerogeno conclamato ed è usato comunemente come additivo nella benzina (1% in volume); lo si usa ancora ma si cerca di ridurlo, le pompe sono state dotate di aspiratore per ridurne l’evaporazione, ciononostante la concentrazione di benzene nelle aree adiacenti le pompe è più alta delle zone circostanti e può porre problemi almeno ai lavoratori coinvolti (Journal of Environmental Management 91 (2010) 2754e2762, Int. J. Environ. Res. Public Health 2014, 11, 6354-6374); ma non vedo guerre di religione; dipenderà dallo scarso valore del mercato del benzene nella benzina?

Comunque stiano le cose ECHA (ECHA/PR/17/06 Helsinky marzo 2017) ha concluso che il glifosato debba essere classificato come sostanza di sintesi con due rischi precisi:

The committee concluded that the scientific evidence available at the moment warrants the following classifications for glyphosate according to the CLP Regulation:

Eye Damage 1; H318 (Causes serious eye damage)

Aquatic Chronic 2; H411 (Toxic to aquatic life with long lasting effects)

Dunque ha riconosciuto un rischio che riguarda sostanzialmente i lavoratori professionali e l’ambiente, gli animali acquatici, tanto è vero che anche le regole di uso per esempio nel nostro paese escludono i terreni molto sabbiosi perché in questo modo si può raggiungere la falda e anche gli animali acquatici. Ricordo che la questione del rischio per gli invertebrati e i batteri e in genere le specie del terreno è più complesso e non ha ancora una risposta certa. Su questo sarebbero necessari nuovi studi.

Quello che mi colpisce è che su questi due aspetti, i diversi metodi di valutazione fra ECHA e IARC e gli aspetti mancanti di conoscenza sugli effetti ambientali del glifosato manchino articoli e divulgazione.

Aggiungo per chiarezza che su molti siti trovate scritto che l’OMS ha dato parere favorevole, come se lo IARC non fosse parte dell’OMS; in realtà questi siti scorrettamente si riferiscono al giudizio espresso da una commissione FAO-OMS, il JMPR; in questo caso il conflitto di interessi è stato palese come potete leggere qua.

Vengo ora ad un articolo che mi ha molto colpito, scritto da Elena Cattaneo, scienziata e senatrice a vita; l’articolo è stato pubblicato su Repubblica e lo riporto integralmente in figura, sperando che Repubblica non mi colpisca con i suoi strali.

Questo articolo contiene secondo me alcune importanti imprecisioni e dei veri e propri errori oltre ad esprimere una opinione molto specifica sul futuro dell’agricoltura. Vado per punti, seguendo l’articolo.

punto1 )Quello che lo IARC ha detto lo abbiamo visto, si tratta di una valutazione di pericolo fatta esclusivamente su lavori senza conflitto di interesse; la cosa non viene riportata dal testo della senatrice e dunque i successivi paragoni lasciano il tempo che trovano; il fatto che il glifosato si trovi nella stessa categoria del vino o delle carni rosse prodotte in Italia non vuol dire nulla; mangiare la carne rossa o bere vino nei limiti di livelli ragionevoli e controllati è un rischio che ciascun consumatore può assumere in piena coscienza ed autonomia sapendo quel che mangia, mentre la stessa cosa non si può dire del consumo di glifosato dato che le sue quantità effettive non sono riportate da nessuna parte; chi consuma un prodotto contenente glifosato non sa di farlo e non sa quanto ne consuma perchè non c’è nessuna norma che obblighi i produttori a indicarne la presenza o le quantità.

L’altra questione citata al punto 1 è indice di incompleta informazione della Cattaneo; il fatto che Portiers non avesse informato del suo contratto, fatto peraltro una settimana dopo la conclusione dei lavori dello IARC, è falso dato che Portiers è stato sentito come invited speaker e non come membro della commissione proprio per questo motivo! Quanto ai lavori non citati si tratta di una notizia non corretta già circolata precedentemente e smentita sia da IARC che da altri; a questo proposito potete leggere l’articolo di Le Monde (questa è una traduzione in italiano della seconda parte dove trovate anche il link alla prima, se no leggetelo su Internazionale) che avevo già citato in un precedente post. In realtà Iarc ha discusso e deciso di non usare quei dati in modo trasparente. Diciamo che la Cattaneo ha usato solo le notizie Reuters riprese a loro volta da quelle di un sito di uno sconosciuto lobbista, tale Zaruk.

punto 2) Sulla differenza fra le valutazioni di ECHA e IARC abbiamo già detto; c’è un motivo preciso che la Cattaneo non riporta. Non solo; i risultati che ho citato nella prima parte sulla presenza di glifosato nei tessuti umani dimostrano che il glifosato, a differenza di quanto si pensi, è abbastanza stabile nell’ambiente e circola di fatto attraverso il cibo che mangiamo, non solo la pasta, ma qualunque altro cibo in cui siano coinvolti prodotti nella cui filiera sia presente il glifosato e le sue formulazioni. Ripeto quel che ho dettto prima: sarebbe logico sapere se il glifosato c’è o no e non solo accettare che comunque ce n’è meno di quanto è considerato tossico. Fra l’altro non ho accennato e lo faccio adesso al fatto che il glifosato è usato in una formulazione complessa che potrebbe a sua volta contenere sostanze con problemi. E’ vero i valori trovati sono molto più bassi degli attuali limiti, che comunque non sono uguali dappertutto, ma questo facendo il paragone con altri casi simili non rassicura (ricordo ancora i limiti ad hoc che rendevano potabile l’acqua all’atrazina, con il magico intervento di Donat-Cattin), né me né credo il resto della popolazione. Anche le vicende del PFAS o dell’arsenico insegnano che i limiti sono sempre soggetti a cambiamenti, in genere in forte riduzione (per esempio i limiti per l’Arsenico nell’acqua potabile sono stati ridotti di 20 volte in 40 anni (da 200 a 10 μg/l )e quelli attuali hanno più a che fare con le difficoltà di determinazione che con l’effettivo limite dell’As).

Per il glifosato i limiti attuali accettati di assorbimento da cibo sono di 0.3mg/kg di peso al giorno in UE (e circa 6 volte maggiori in USA ; il limite di determinazione è di 0.05ppm e quello considerato per alcuni cibi è 0.1ppm; notate che ppm o mg/kg sono equivalenti in questo caso).

Questi valori sono stati estrapolati da lavori condotti su animali in tempi non recentissimi; esiste un lavoro molto recente in cui si sostiene che valori molto bassi, determinati per diluizione equivalente, possono comunque avere un ruolo biologico importante. Questo lavoro non è stato preso in considerazione anche perchè gli autori (fra i quali Seralini) sono stati coinvolti in una polemica su un precedente lavoro che fu ritirato e poi ripubblicato sugli effetti cancerogeni del glifosato (su tutto questo tema un articolo del gruppo DETOX di cui abbiamo parlato nel caso dei tessuti).

punto 3) Questa del brevetto scaduto per la produzione di glifosato è risaputo da anni. Ma a parte la questione citata nella prima parte di questo post dei LoA, la questione vera è che i brevetti importanti non sono quelli relativi alla produzione del glifosato, ma sono quelli relativi ai semi delle piante resistenti al glifosato per modifica genetica; quelli sono il cuore dei soldi di un monopolio mondiale e di una agricoltura controllata da poche grandi multinazionali. Questo voler mettere in conflitto di interessi noi italiani che produciamo vino e glifosato (in minima percentuale, il glifosato è vietato in Italia per molte applicazioni) è veramente una cosa senza senso: i profitti da glifosato come tale sono una parte minima dei profitti da agricoltura “attraverso” il glifosato, con semi modificati che occorre ricomprare ogni volta dai medesimi produttori.

Al punto 4 la Cattaneo dà per scontato che per controllare le infestanti esistano SOLO gli erbicidi e che siano necessari PER FORZA.

Questo non è vero. Potete leggere voi stessi quanti altri metodi non solo chimici, ma prima di tutto agronomici (di gestione delle colture) e fisici (calore, fuoco o specifiche coperture, la cosiddetta solarizzazione) siano possibili in questo studio commissionato da una associazione ambientalista e gentilmente segnalatomi dal deputato europeo Marco Affronte; nello studio sono indicate le sorgenti scientifiche dei dati. Certo i costi immediati sono maggiori, ma siamo sicuri che non ci siano costi nascosti dell’uso di agenti erbicidi? Per esempio la riduzione dell’80% degli insetti volanti di cui abbiamo parlato in un post precedente non potrebbe essere dovuto anche al fatto che facciamo un deserto monocolturale e lo chiamiamo agricoltura intensiva? Quanto ci costa questo uso così massivo della chimica di sintesi in agricoltura?

https://twitter.com/urtikan_net?lang=it

A questo punto la senatrice Cattaneo comincia a descrivere come vede l’agricoltura del domani.

Beh è una visione bau, diciamo così: fa una critica feroce del cosiddetto biologico, critica che di per se si può anche condividere nel senso che è un settore da considerare con attenzione, da non dare per scontato, con trucchi e imbrogli, ma non credo più di quanti ce ne siano nel non-bio; ma non c’è una parola di critica dell’agricoltura moderna e del sistema di consumi di cui essa é schiava, una che sia una. Secondo questa visione i produttori “biologici” sono imbroglioni e incapaci di produre quanto gli altri, dei cui problemi però non si fa menzione.

Non una parola sugli sprechi alimentari, sul tipo di agricoltura dedicata principalmente a supportare i nostri animali e dunque con un consumo eccessivo di carne, anzi si gira la frittata attribuendo gli animali all’agricoltura bio!

E’ l’agricoltura intensiva che è strutturata proprio per favorire un uso spropositato della carne, esattamente il contrario ! Riciclare le deiezioni umane ed animali per riciclare azoto e fosforo è una necessità, dato che allo scopo di accrescere la quota di carne e sostenere l’agricoltura intensiva l’umanità è diventata la principale dominatrice sia del ciclo dell’azoto che del fosforo mandandoli del tutto fuori equilibrio! Ne abbiamo parlato decine di volte sul blog. A paragone la quota di deiezioni animali riciclate dal bio è solo un esempio virtuoso.

Non una parola sulla distruzione sistematica dell’ecosistema operata da questo tipo di agricoltura che ha raggiunto il poco invidiabile primato di rendere la biomassa nostra e dei nostri animali il 98% di quella di tutti i vertebrati, come ho notato in altri articoli; non una parola sugli effetti climatici di una agricoltura esclusivamente intensiva, che sono stati notati di recente anche da studiosi italiani come Riccardo Valentini, che non è classificabile come un rivoluzionario, membro di IPCC. Nessuno nega che sia possibile usare chimica e biologia al servizio di una agricoltura più sostenibile, lo diciamo anche noi, ma dietro questo c’è un cambio del modello di consumi e degli sprechi, della crescita infinita.

Un quadro, quello della Cattaneo, che non esiterei ad assimilare a chi per risolvere il problema climatico pensa alla geoingegneria: come se l’umanità fosse padrona del pianeta, che invece condivide con tutta la biosfera! Le infestanti per esempio nutrono una quantità di insetti che poi servono a impollinare le nostre piante! L’agricoltura umana non può corrispondere ad una dichiarazione di guerra a tutte le altre specie, nè essere il motivo per modificare in modo industriale la genetica delle altre specie a nostro esclusivo vantaggio, oppure distruggerle; è questo che sta succedendo: dominio o distruzione e a volte entrambi.

(ringrazio Vincenzo Balzani per avermi segnalato la discussione sull’articolo della Cattaneo sviluppatasi su Scienza in rete e che trovate qua e qua)

Secondo me il glifosato rivela questo: una hubris che è tanto più forte quanto più la scienza, non supportata da una visione critica, accetta i punti di vista di un sistema produttivo orientato alla crescita infinita: occorre cambiare registro e ricerca, siamo i custodi non i padroni del pianeta Terra.

Personalmente sono in totale disaccordo con alcuni dei punti della Cattaneo; a parte usare di più la scienza e la biologia ci separa la logica che sta dietro:

  • ridurre il peso dell’azoto e del fosforo di sintesi per esempio attraverso l’ampliamento della coltivazione dei legumi
  • ridurre il consumo di carni rosse in particolare e di carni in genere ancora una volta accrescendo la quota di leguminose ed ELIMINARE la coltivazione di biocombustibili (Emily S Cassidy et al 2013 Res. Lett. 8 034015)
  • usare strumenti di lotta agli insetti e alle piante infestanti che usino metodi di coltura agronomica e a preferenza fisici invece che chimici favorendo il ripristino del numero di insetti volanti, specie di impollinatori
  • vietare la brevettazione privata delle nuove specie ed investire pubblicamente sulla ricerca genetica di tutti i tipi rendendo pubblici e disponibili i risultati più importanti ed utili (sto parlando anche di OGM, ovviamente).
  • rendere sempre più completi i test per l’introduzione di nuove molecole di sintesi usate in agricoltura non presenti in natura ed usate in ampia quantità (questo lo sta facendo REACH, ma ci vuole tempo).

A Napoli, la mia città natale, alla cui cultura non posso sottrarmi, c’è un proverbio che dice:“E’ gghjuta a pazziella ‘mmane e’ criature” è un modo di dire napoletano, dare i giocattoli in mano ai bambini, (versione edulcorata di un’altro a sfondo sessuale) ma che vuol dire “affidare le cose a chi non è capace di gestirle”, la moderna classe dirigente mondiale preoccupata prima di tutto del PIL, la religione della crescita infinita e non della conservazione dell’ambiente in cui viviamo e di cui siamo parte, non padroni, e che si sta degradando tanto da mettere in pericolo la nostra stessa sopravvivenza come specie.

http://blog.aeroportodinapoli.it/napoli-turismo/parco-dei-murales

*A riguardo delle resistenze vorrei precisare che su siti diversi si trovano dati diversi; per esempio sul sito Dupont (https://www.pioneer.com/home/site/us/agronomy/library/glyphosate-resistance-in-weeds/) il numero delle specie infestanti resistenti è indicato 35; altrove si riportano i numeri delle sottospecie che raggiunge quasi i 300; il fatto è che questo numero cresce di continuo soprattutto nei luoghi dove il glifosato è più usato come è ovvio che sia.

Altri files da leggere oltre quelli citati: The Glyphosate Files: Smoke & Mirrors in the Pesticide Approvals Process di Helmut Burtscher-Schaden K&S ed., 2017

https://corporateeurope.org/food-and-agriculture/2017/10/setting-record-straight-false-accusations-dr-c-portier-work-glyphosate

https://www.greens-efa.eu/files/doc/docs/ab61fee42c3217963d3a43bd1c4b1e09.pdf

https://www.sigmaaldrich.com/technical-documents/articles/reporter-us/method-for-determination-of-glyphosate.printerview.html#ref

https://www.efsa.europa.eu/sites/default/files/corporate_publications/files/efsaexplainsglyphosate151112en.pdf

La Chimica nelle cose. Recensione.

In evidenza

Margherita Venturi.

La Chimica nelle cose – Dal vissuto di un chimico, la materia al di là delle apparenze

Fabio Olmi, PM Edizioni, Collana scientifica Albatros

pag. 246 euro 20

 

Recensione

La collana scientifica Albatros della PM Edizioni consta di due tipologie di libri: una è rivolta a lettori “non addetti ai lavori”, ma curiosi di conoscere il mondo delle scienze, mentre l’altra è dedicata a docenti di discipline scientifiche della scuola secondaria, desiderosi di approfondire e aggiornare le proprie conoscenze.

Il libro di cui vi parlo oggi “La Chimica nelle cose – Dal vissuto di un chimico, la materia al di là delle apparenze” di Fabio Olmi fa parte della prima tipologia; infatti con il suo stile semplice e coinvolgente, senza però perdere mai la rigorosità scientifica, l’autore raggiunge pienamente l’obiettivo di incuriosire anche chi di scienza sa poco o nulla. Sicuramente questa bravura gli deriva dalla lunga esperienza acquisita come docente di scienze al liceo scientifico “Leonardo da Vinci” di Firenze, che l’ha messo di fronte alla necessità di coinvolgere e appassionare i giovani di varie generazioni: ha insegnato per oltre 38 anni!

Ma Olmi non è stato solo un bravo docente; da sempre si è dato da fare per migliorare il nostro sistema scolastico e soprattutto l’insegnamento delle discipline scientifiche, battendosi per introdurre attività laboratoriali e per aumentare le ore di scienze (sforzi che le ultime riforme scolastiche hanno purtroppo totalmente vanificato). Nel lontano 1980 sosteneva già l’importanza di inserire l’educazione ambientale nel curricolo di scienze della scuola secondaria di secondo grado; è stato un propugnatore dell’insegnamento inter- e trans-disciplinare e, forse, il primo docente di scuola superiore a parlare della necessità di affrontare con gli studenti i temi legati ai risvolti sociali della scienza. È stato socio fondatore della Divisione di Didattica della SCI e, in quest’ambito, ha svolto un’intensa attività di ricerca didattica e formazione docenti, fornendo contributi significativi per quanto riguarda le metodologie didattiche delle discipline scientifiche, in particolare della chimica, l’analisi storico-epistemologica dei concetti chimici essenziali, le metodologie e gli strumenti per una razionale verifica degli apprendimenti e per la valutazione delle competenze. Ho avuto il piacere di incontrare molte volte Olmi, soprattutto durante i lavori della Divisione di Didattica, ed ho sempre apprezzato il fatto che non facesse mai pesare “il suo sapere” conservando un atteggiamento riflessivo, quasi umile, ma al tempo stesso signorile, anche nelle discussioni più accese.

Durante il Convegno della SCI, che si è tenuto a Paestum nel settembre 2017, ha ricevuto la Medaglia Gabriello Illuminati per i suoi contributi alla didattica della chimica e, anche in quell’occasione in cui io ero presente, Olmi non si è smentito; ha ringraziato commosso, ma soprattutto si è scusato più volte per il fatto di non poter tenere la relazione richiesta ai premiati; il cardiologo gli aveva infatti assolutamente proibito di subire stess o eccessive emozioni e lui candidamente ha detto: ubbisco agli ordini, anche se la più grande emozione è quella di essere qui a ricevere il premio; certamente il tenere una relazione sarebbe stato il male minore. Come non sentire simpatia e affetto per una persona del genere! Allora, quando a Paestum mi ha regalato, quasi con pudore, il suo ultimo libro, mi sono ripromessa che, dopo averlo letto, ne avrei certamente fatto la recensione ed eccomi qui a mantenere la parola.

Il libro ha una bella prefazione di Giorgio Nebbia, un chimico noto internazionalmente, ormai ultra novantenne, che fa parte del nostro blog e che, per la sua vivacità intellettuale, di anni ne dimostra molti, ma molti meno. Anche per Giorgio provo una grande stima e un grande affetto, non smetto mai di imparare da lui e così è successo per queste due pagine di prefazione; con poche parole è riuscito a sintetizzare l’oggetto e lo scopo del libro: presentare la chimica come la scienza e la narrazione delle “cose” e accompagnare il lettore dalla natura, fonte di tutte le “cose utili” e di ogni “valore d’uso”, ai processi di produzione di materie organiche ed inorganiche, ai processi di uso dei beni materiali e all’effetto di tutte queste operazioni sulla natura e sull’ambiente.

Il libro, quindi, parla di “cose” e questo termine mi piace moltissimo perché rende gli oggetti di varia natura descritti da Olmi, anche estremamente complessi dal punto di vista scientifico, molto vicini alle persone comuni. Infatti come dice l’autore nell’introduzione: ho l’ambizione di rivolgermi ad un pubblico che vuole sconfinare per curiosità dal suo specifico campo … per assaporare e possibilmente gustare qualche semplice digressione chimica che affronta il perché le cose sono in un certo modo, il come e il perché si trasformano e perché sono importanti nella nostra vita.

Lo stile letterario, o meglio il felice artificio (per usare le parole di Nebbia) adottato da Olmi, è simile a quello usato da Primo Levi ne “Il Sistema Periodico”, da Oliver Sacks in “Zio Tungsteno” e da Hugh Aldersey-Williams in “Favole Periodiche” ed è così che il lettore scopre ciò che “sta dietro” alle cose che utilizza quotidianamente, imparando ad apprezzarle e, forse, anche a rispettarle, perchè capisce che nulla si ottiene gratis: c’è il grande lavoro della natura per creare tutte le cose utili e quello dell’uomo, altrettanto faticoso, per riuscire ad usare questo ben di Dio che la natura mette a disposizione.

La prima “cosa” utile di cui parla Olmi è il petrolio; si tratta della sua ossessione giovanile e questa attrazione appare chiaramente quando parla del fascino di poter carpire un segreto custodito dalla terra così bene che in superficie nulla fa trapelare la presenza in profondità dell’oro nero. Nonostante questa “attrazione fatale”, l’autore fa un’analisi oggettiva del petrolio sia come fonte energetica che come materia prima, affrontando vizi e virtù, speranze e delusioni, effetti positivi e negativi dal punto di vista dello sviluppo sociale e dell’ambiente.

Il discorso sulle fonti energetiche continua in altri capitoli. Per quanto riguarda il “Re carbone”, a cui si deve la Rivoluzione Industriale, l’autore si sofferma in dettaglio su come esso si è formato, sul suo uso come fonte energetica e sui problemi sanitari e ambientali connessi, concludendo il tema con una digressione sul grafene. Lo sguardo si sposta poi verso il futuro con il capitolo dedicato alle fonti rinnovabili, in particolare energia eolica e solare, sulle quali sono riposte le speranze per un mondo migliore, anche se ci sono molti problemi ancora da risolvere, come la necessità di disporre di sistemi di accumulo e/o di sistemi complessi di collegamento con le reti elettriche. Questo aspetto, dice giustamente l’autore, rappresenta un collo di bottiglia per l’utilizzo delle fonti rinnovabili; dimentica, però, di dire che c’è un altro collo di bottiglia da superare e che riguarda la disponibilità, purtroppo limitata, dei materiali necessari per convertire le fonti rinnovabili in energia utile.

Un corposo capitolo è dedicato a due risorse naturali che sono sicuramente “cose” indispensabili per la vita: aria e acqua. Qui, prendendo spunto da lavori realizzati con i suoi studenti, Olmi presenta in maniera semplice e accattivante le caratteristiche chimico-fisiche dell’acqua, con particolare riguardo ai suoi stati di aggregazione, chiamati in modo molto azzeccato i “diversi abiti” che l’acqua può assumere, soffermandosi sull’acqua “fossile” intrappolata da migliaia di anni nei ghiacci delle regioni polari da cui è possible ricavare informazioni su quella che era la situazione del nostro pianeta in epoche anche molto lontane; passando poi all’altra risorsa, l’autore analizza la composizione dell’aria e come essa varia allontanandosi sempre più dalla superficie terrestre, introducendo il concetto di atmosfera; parla del continuo movimento dell’aria e dell’importanza che esso ha nel determinare il clima del nostro pianeta; sottolinea, inoltre, come l’aria sia un grande serbatoio di risorse, a cui l’uomo sta attingendo sempre più pesantemente, tanto da aver addirittura intaccato la quantità del suo componente principale, l’azoto. Ovviamente viene anche affrontato il grande pericolo che incombe su queste due risorse: l’inquinamento che sta mettendo a dura prova la sopravvivenza dell’umanità e del pianeta.

Un altro capitolo tratta del vino, la grande passione di Olmi; la cosa si avverte molto chiaramente dal modo, appunto appassionato, con cui l’autore descrive la cura e la fatica che servono per trasformare l’uva in un buon vino. Leggendo queste pagine mi è sembrato di vedere l’autore aggirarsi fra i suoi filari di viti selezionate per seguire con trepido amore il colorarsi al Sole dei grappoli d’uva e, poi, scendere in cantina per attuare tutte le operazioni necessarie affinché il processo della fermentazione, ben noto ad un chimico provetto come lui e così ben descritto in queste pagine, avvenga in maniera appropriata.

Il libro comprende inoltre tre capitoli espressamente dedicati allo sviluppo tecnologico. Uno riguarda il vetro, la “cosa” più utile e comune per il lavoro del chimico, ma anche la “cosa” più bella e affascinante che è parte integrante della nostra vita; oltre a descrivere il processo che permette di ottenere il vetro, i vari tipi di vetro e le applicazioni più recenti, Olmi affronta l’aspetto artistico, ricordando le vetrate colorate di molte vecchie cattedrali e i moderni grattacieli che grazie a questo materiale possono svettare luminosi e brillanti sempre più in alto verso il cielo. Un altro capitolo è interamente dedicato al cemento: di cosa è fatto, come viene utilizzato, i vari tipi di cemento; come nel caso del vetro, anche per il cemento l’autore si sofferma sulle opere artistiche realizzate in epoche diverse usando questo materiale.

Infine, un capitolo, l’ultimo del libro, tratta dei metalli più importanti dal punto di vista tecnologico, ripercorrendo in un certo qual modo la storia dell’umanità; l’autore infatti parte dal rame e dal bronzo, l’uso dei quali va molto indietro nel tempo, per passare poi al ferro fino ad arrivare ai nostri giorni e alle applicazioni tecnologiche più nuove basate su metalli dai nomi esotici appartenenti alle Terre Rare; fino a qualche tempo fa neanche chi studiava chimica all’università conosceva questi elementi, mentre ora sono i dominatori della scena e i pochi paesi ricchi dei loro giacimenti stanno tenendo in pugno il mondo.

Fra le applicazioni tecnologiche dei metalli c’è anche, purtroppo, quella che riguarda la produzione di armi e l’autore, a questo proposito, ricorda la visita fatta all’ex stabilimento della Società Metallurgica Italiana, diventato ora museo, dove per molti decenni sono stati fabbricati bossoli e proiettili di ogni tipo. Olmi dice di essere stato fortemente colpito da una frase letta nella guida al museo che, con grande enfasi, sottilineava il fatto che, quando era in attività, lo stabilimento ha prodotto munizioni per tutte le forze armate in tutti i conflitti. Il secco “no comment” dell’autore è molto esplicativo, anche perché, se lo stabilimento in questione è stato chiuso, non abbiamo smesso di produrre armi. Infatti, in un articolo molto interessante, uscito il 5 dicembre 2017 e intitolato “È questo il nostro Natale di pace?”, Alex Zanotelli denuncia il fatto che l’Italia si stia sempre più militarizzando, con ben 10 miliardi di euro destinati al Ministero della Difesa, sia per modernizzare le nostre armi che per costruire un sorta di Pentagono Italiano. Forse, o meglio sicuramente, se il nostro paese investisse di più nell’istruzione e nelle fonti rinnovabili, le cose andrebbero molto meglio! Ma lasciando da parte questa questione spinosa e ritornando al capitolo sui metalli, Olmi, molto giustamente, affronta anche un altro aspetto e cioè l’importanza biologica di molti rappresentanti di questa numerosa famiglia, concentrandosi sul rame e sul ferro. Per quanto riguarda quest’ultimo, si parla ovviamente di emoglobina e di quanto lavoro è stato necessario per risalire alla sua struttura e, allora, mi è tornato alla mente un bell’articolo, che ho letto anni fa, sulla figura di Max Ferdinand Perutz, lo scienziato che ha dedicato praticamente tutta la sua vita a studiare la struttura e la funzione biochimica dell’emoglobina, ricevendo per questo suo lavoro il premio Nobel per la Chimica nel 1962.

Mi sono dilungata anche troppo ed è meglio che vi lasci leggere il libro. Cosa dire per concludere? Potrei ripensare a cosa mi e piaciuto di più e cosa mi è piaciuto di meno.

Forse il capitolo che mi ha creato più perplessità è quello dedicato al carbone: è troppo tecnico e anche un po’ distaccato, non a caso Olmi dice di non aver mai avuto un incontro ravvicinato con questa “cosa”; inoltre io non avrei concluso il capitolo parlando del grafene e delle forme allotropiche del carbonio, perché c’è il rischio che chi non è addetto ai lavori confonda il carbone con l’elemento chimico carbonio.

Mi è, invece, piaciuto molto il capitolo sulle fonti rinnovabili, in particolare per i brani di Tiezzi che l’autore ha selezionato e riportato per introdurre il tema; ricordo solo alcune frasi che a mio avviso non dovremmo mai dimenticare: la Terra non va vista come una nostra proprietà da sfruttare, ma come un capitale naturale avuto in prestito dai nostri genitori per i nostri figli, e ancora, la sfida culturale del terzo millennio è una sfida per mantenere per i figli che verranno questa meravigliosa eredità; una sfida scientifica ed etica ad un tempo; una sfida che non ci possiamo permettere il lusso di perdere.

Mi è anche piaciuto molto lo stile colloquiale e coinvolgente che Olmi ha usato, stemperando le nozioni scientifiche, spesso complesse, con aneddoti, curiosità e cenni storici; ma, soprattutto, mi è piaciuto il fatto che in tutto il libro aleggia una grande passione per la chimica. Per Olmi si è trattato di un amore tardivo, nato solo all’università perché, come lui stesso dice: fu una scoperta per me rivoluzionaria di una disciplina che al liceo mi avevano fatto odiare; la ricordo come una materia arida, fatta solo di formule e reazioni “gesso e lavagna”, mai un esperimento in laboratorio, tanti nomi per me privi di significato. Nonostante Olmi abbia dedicato tutta la sua vita a far sì che la chimica venga amata anche fra i banchi di scuola, purtroppo le cose non sono cambiate molto e c’è ancora un tanto lavoro da fare.

Scienziate che avrebbero potuto vincere il Premio Nobel. Agnes Pockels (1862-1935).

In evidenza

Elisabetta Venuti*

Ascoltando a un congresso un seminario in cui si rendeva omaggio a una grande donna scienziato, Rachel Carson, autrice del mitico, importantissimo e criticatissimo “Primavera Silenziosa”, ho pensato che il discorso in occasione delle proclamazioni dei laureati magistrali della sessione autunnale dovesse anch’esso essere dedicato a una donna. Le ragioni c’erano ed erano ottime: entrambe le commissioni di laurea avrebbero avuto presidenti donna e una di esse sarebbe stata formata interamente da donne, evento mai verificatosi nella storia del nostro Dipartimento/Facoltà. Come se non bastasse, il numero delle future laureate uguagliava quello dei laureati. La prima donna che mi è venuta in mente è stata Agnes. Ovvero: Agnes Wilhemine Louise Pockels.

Di lei avevo letto in un libro che nella fretta dei giorni precedenti le lauree non son riuscita a trovare, perso su scaffali sovraccarichi, ma che adesso ho finalmente davanti : – The Art of Science, A Natural History of Ideas – di Richard Hamblyn, nel capitolo intitolato “Surface Tension”. Poche pagine che ne riassumono la vita e i dati del primo, importantissimo lavoro pubblicato in forma di lettera su Nature. A partire da quello, ho poi trovato le altre preziose, poche notizie su Agnes.

Se nel parlare di una donna di scienza la mia scelta è caduta su Agnes i motivi sono diversi: i suoi studi son di chimica fisica – e di chimica fisica delle interfacce in particolare – una disciplina che mi sta molto simpatica e di cui si occupava l’unica donna ordinario che abbia mai incontrato nel mio percorso di studi, la Prof. Gabriella Gabrielli. Inoltre il mondo di Agnes era quello in cui a molte ragazze capitava di essere relegate (o può ancora capitare, in altre mondi, in altre società, oppure?), ma proprio in quel mondo lei trovò l’ispirazione per le sue ricerche, e ciò probabilmente fa della sua storia la storia di molte donne, almeno nelle aspirazioni, se non nella genialità che la contraddistingue.

Agnes nasce nel 1862 da genitori tedeschi a Venezia, quando il padre è ufficiale dell’esercito austro-ungarico in stanza nel Triveneto. In Italia entrambi i genitori si ammalano di malaria e pertanto il padre viene congedato e si ritira in pensione a Braunschweig, nella bassa Sassonia, quando Agnes è ancora piccola. Qui lei frequenta una scuola femminile, in cui non si insegnano molto le scienze, o comunque non ci si preoccupa di impartire alle allieve un approccio razionale ai problemi. Peccato, perché come dirà lei settantenne :- Avevo un interesse appassionato nella scienza, soprattutto nella fisica, e mi sarebbe piaciuto studiare…”(W. Ostwald, Kolloid Zeitschrift, 58,1 (1932)). Quando la scuola finisce, il ruolo di Agnes diventa quello di curare i genitori, sempre più anziani, sempre più cagionevoli di salute e difficili da trattare. Il legame con la scienza, anzi con la fisica, si forma e si mantiene attraverso il rapporto con il fratello minore Fritz, che la studia all’Università. Dalla cucina in cui passa molto del suo tempo per i lavori domestici, Agnes ha accesso a libri e riviste, che Fritz le procura. Nella cucina trova anche che il complesso comportamento dell’acqua sporca della lavatura dei piatti è affascinante. Con l’acqua comincia quindi a fare esperimenti, tanto da progettare e costruire un semplice strumento – noto adesso come l’apparato di Pockel – che le permette di verificare l’effetto della presenza di impurezze organiche sulla tensione superficiale dei liquidi.

Ma leggiamone la descrizione che lei stessa ne da, tratta dalla lettera di cui fra poco diremo, e vediamo quanto sia simile a uno strumento successivo, quello di Langmuir: “… descriverò un semplice metodo per aumentare o diminuire la superficie di un liquido in ogni proporzione, così che la sua purezza possa essere modificata a piacere. Una vasca rettangolare di stagno, lunga 70 cm, larga 5cm e profonda 2cm, si riempie con acqua fino all’orlo. Una striscia, anch’essa di stagno e larga 1.5 cm, vi viene collocata di traverso, perpendicolarmente alla lunghezza, in modo che la sua faccia inferiore sia in contatto con la superficie dell’acqua e la divida in due porzioni. Muovendo la partizione verso destra o sinistra, la superficie di ciascuna delle porzioni può essere allungata o accorciata, e la quantità dello spostamento può essere letta su una scala posta lungo il lato della vasca. Indubbiamente il sistema presenta un certo grado di imperfezione….Misuro la tensione superficiale del liquido mediante il peso necessario per separare dalla superficie un piccolo disco piatto del diametro di 6 mm, e per misurarlo uso una stadera leggera”.

Agnes non riesce a trovare nella letteratura scientifica del fratello informazioni su quello che lei sta misurando e cioè che all’aumentare della concentrazione delle impurezze organiche presenti diminuisce la tensione superficiale dell’acqua, né riesce a interessare all’argomento nessuno che lavori all’università della sua città. Tuttavia nel 1888 viene a sapere che il fisico inglese Lord Rayleigh, professore di Filosofia Naturale a Cambridge, sta conducendo studi simili. E allora prende il coraggio e gli scrive quella lettera appena menzionata. L’inizio della sua lettera mi commuove ogni volta che lo rileggo : “My Lord, scuserà gentilmente il mio ardire di disturbarla con una lettera in tedesco su un soggetto scientifico? Avendo sentito delle fruttuose ricerche da Lei condotte nell’anno passato sulle proprietà, finora poco capite, delle superfici di acqua, ho pensato che potessero interessarla alcune mie osservazioni sull’argomento. Per varie ragioni io non mi trovo in una posizione che mi permetta di pubblicare in giornali scientifici, e quindi userò questo mezzo per descrivere ciò che mi sembra un risultato interessante.” La lettera continua con la minuziosa e dettagliata descrizione di una serie di evidenze sperimentali, suffragate da moltissime osservazioni. Le conclusioni di Agnes, riguardanti le variazioni della tensione superficiale dell’acqua e gli effetti del contatto fra solidi e superfici, sono così interessanti che Rayleigh la inoltra a Nature, perché ne pubblichino la traduzione, in considerazione del fatto che “una signora tedesca, con mezzi molto casalinghi, è giunta a risultati di valore concernenti le superfici d’acqua contaminate…. muovendosi su argomenti molto simili a quelli di un mio recente lavoro, e in accordo con esso.” (Surface Tension (1891) Nature 46, 437).

Agnes, incoraggiata dall’appoggio di Rayleigh e in grado di mantenere i contatti con il mondo accademico anche grazie al fratello, che vi lavora come fisico teorico, prende confidenza e pubblicherà numerosi lavori negli anni successivi alla prima pubblicazione su Nature del 1891. La sua produzione non è continua e dipende dall’assiduità e dalla gravosità delle cure per i genitori, che si ammalano sempre di più e che non trascurerà mai :” Come un soldato, mi son schierata al mio posto, dove il dovere mi voleva…” (e quante donne non si riconoscono in questa frase?), ma ancora nel 1914 pubblica, per esempio, risultati sull’angolo di contatto ”(W. Ostwald, Kolloid Zeitschrift, 58,1 (1932)). La morte prematura del fratello nel 1913 rende molto più difficili i rapporti con il mondo accademico e poi le condizioni della Germania post-bellica della repubblica di Weimar la fanno scivolare verso la condizione di signora borghese, dedita a pochi, intelligenti passatempi e all’aiuto del prossimo, con il supporto di parenti emigrati negli Stati Uniti.

Il suo notevole lavoro viene riconosciuto quando viene insignita, prima donna, del premio Laura R. Leonard della Kolloid Gesellschaft (ed è interessante una nota trovata su testi che ho consultato: il premio era intitolato a Laura Leonard, moglie di M. Fischer, un fisiologo tedesco, che si occupava di fisiologia dei colloidi, emigrato in USA e rimasto in contatto con i suoi colleghi tedeschi; nella lista dei premiati, ciascuno compare con un titolo accademico o professionale, ma per Agnes l’appellativo è “Hausfrau”, casalinga). Ormai settantenne, prima e unica donna nella storia di TU- Braunschweig, le viene assegnato il dottorato in Ingegneria.

Nell’apprendere che il campo delle sue ricerche si allargava, il suo commento sarà: “Ho saputo con mia grande gioia che il mio lavoro viene usato da altri per i loro stessi studi”.

Elenco dei lavori di Agnes Pockel

(1) Surface Tension, Nature, 46, 437 (1891).

(2) On the relative contamination of the water surface by equal quantities of different substances, Nature 47, 418 (1892).

(3) Relations between the surface tension and relative contamination of water surfaces, Nature, 48, 152 (1893).

(4) On the spreading of oil upon water, Nature 50, 223 (1894).

(5) Beobachtungen über die Adhäsion verschiedener Flüssigkeiten an Glas, Naturwissenschaftliche Rundschau, 14, 190 (1898).

(6) Randwinkel gesättigter Lösungen an Kristallen, Naturwissenschaftliche Rundschau, 14, 383 (1899).

(7) Untersuchungen von Grenzflächenspannungen mit der Cohäsionswaage, (1899) Annalen der Physik, 67, 668 (1899).

(8) Über das spontane Sinken der Oberflächenspannung von Wasser, wässerigen Lösungen und Emulsionen, Annalen der Physik, 8, 854 (1902).

(9) Über Randwinkel und Ausbreitung von Flüssigkeiten auf festen Körpern, Physikalische Zeitschrift, 15, 39 (1914).

(10) Zur Frage der zeitlichen Veränderung der Oberflächenspannung, Physikalische Zeitschrift, 17, 141 (1916).

(11) Über die Ausbreitung reiner und gemischter Flüssigkeiten auf Wasser, Physikalische Zeitschrift, 17, 142 (1916).

(12) Die Anomalie der Wasseroberfläche Die Naturwissenschaften, 5, 137 u. 149 (1917).

(13) Zur Frage der Ölflecke auf Seen Die Naturwissenschaften, 6, 118 (1918).

(14) The measurement of surface tension with the balance Science 64, 304 (1926).

Riferimenti Bibliografici

Agnes Pockels: Life, Letters and Papers by Christiane A. Helm https://www.aps.org/programs/women/workshops/upload/helm.pdf

The Art of Science: a Natural History of Ideas , Picador, Macmillan Publisher Ltd (London), 2011.

Agnes Pockel di Katharina Al-Shamery in European Women in Chemistry, a cura di Jan Apotheker and Livia Simon Sarkadi, WILEY-VCH Verlag GmbH & Co. KGaA, Weinheim, 2011.

*Elisabetta Venuti è professore associato in Chimica Fisica presso il dipartimento di Chimica Industriale “Toso Montanari” dell’Università di Bologna. La sua attività di ricerca recentemente si è focalizzata sull’indagine delle proprietà strutturali, dinamiche e di trasporto di solidi molecolari e in particolare di materiali per l’elettronica organica, mediante l’impiego di tecniche di spettroscopia ottica quali la microscopia Raman confocale su cristalli singoli e in film sottile. L’approccio spettroscopico  viene completato con il supporto di metodi DFT-d per la descrizione dello stato solido, unitamente a metodi di dinamica reticolare e di dinamica molecolare.

Prodotti di ieri e di oggi. 1. La Vegetallumina.

In evidenza

Claudio Della Volpe

Alcuni di noi hanno un’età tale da aver vissuto rivoluzioni epocali in molti campi; il mondo non è stato sempre come appare adesso. Migliore o peggiore non so, ma certamente diverso.

Uno degli aspetti che è cambiato di più è l’attenzione all’uso delle sostanze in farmacologia (ma anche in altri settori); per questo mi ha colpito molto il ritorno di vecchi marchi, di nomi di prodotti che parecchi anni fa erano non solo campioni di incasso, ma soprattutto delle costanti, delle certezze, dei punti fermi della terapia casalinga e in generale della vita quotidiana.

Mi piacerebbe perciò andare ad esaminare come sono cambiati farmaci e altri prodotti che hanno caratterizzato la nostra vita in passato; alcuni pur mantenendo lo stesso nome o marchio hanno però cambiato completamente di composizione, altri invece sono scomparsi del tutto; perchè?

Preciso altresì che non essendo farmacologo o specialista di miscele non sarò …..preciso; me ne scuso con i lettori e li invito a correggermi (e anche a partecipare con i loro post).

Cominciamo con un prodotto che quando ero ragazzino ho consumato a fiumi: la Vegetallumina, una pomata contro i dolori da piccoli traumi, ma anche da reumatismi e soprattutto da geloni, che si vedeva comunemente nell’armadio casalingo delle medicine, gestito nel mio caso da mia nonna e in cui non potevo mettere le mani, uno perchè era messo bello alto e fuori portata e due perchè mi sarei beccato una bella sgridata.

Saggia decisione ancora oggi e comunque mettere i farmaci lontano dalle mani dei bambini.

I geloni oggi sono una cosa rara, ma una volta quando non esisteva il riscaldamento, condominiale o meno, erano comunissimi; (a casa l’unico riscaldamento era un braciere con il carbone, che serviva ad asciugare i panni nelle giornate umide ed anche a riscaldarsi); inoltre il mio banco a scuola era freddissimo e mi beccavo i geloni ad ogni inverno. La Vegetallumina era una soluzione, che dava una mano.

Allora la vecchia Vegetallumina era fatta così:

Canfora 2,0 g,

Metile salicilato 0,3 g,

Alluminio acetato basico 1,7 g,

Essenza di timo 1,0 g,

Trietanolammina 0,3 g,

Biossido di titanio 16,5 g

Il biossido di titanio dava alla pomata quel colore bianchissimo così caratteristico, ma non credo molto di più; oggi è rimasto colorante alimentare (E171) ma comune anche nelle vernici bianche; ricordo ancora a lezione Paolo Corradini che il primo giorno di Chimica generale 1 diceva: sapete quale è il prodotto chimico più importante nell’industria? Il Biossido di titanio che fa tutti i “bianchi” che vedete in giro attorno a voi. Mentre l’azione antinfiammatoria era garantita dal salicilato di metile, un rimedio classico uno dei primissimi FANS, e uno degli antiinfiammatori più diffusi fino a 50 anni fa.

La canfora che è assorbita velocemente attraverso la pelle, produce una sensazione di raffreddamento e funge da leggero anestetico locale e da sostanza antimicrobica. Era coadiuvata dall’essenza di timo un estratto naturale, contenente l’olio essenziale di timo con una  serie di composti come cymene, mircene, borneolo e linalolo anch’essi dotati di proprietà antisettiche.

Anche l’acetato di alluminio svolgeva una attività antisettica e si usa ancora come farmaco galenico in combinazione sostanzialmente uguale alla vecchia vegetallumina, cioè con canfora e metilsalicilato.

La trietanolammina immagino svolgesse un ruolo di regolatore del pH della miscela.

La nuova Vegetallumina è abbastanza diversa come composizione ma ha indicazioni analoghe: un gel al 10% di un derivato di un infiammatorio non steroideo, un inibitore degli enzimi che scatenano la cascata infiammatoria, l’Ibuprofene.

Come il salicilato, ma in modo più potente, l’ibuprofene inibisce la cicloossigenasi piastrinica che sintetizza le prostaglandine dall’acido arachidonico ed inizia la cosiddetta cascata infiammatoria, una serie di reazioni tipiche della reazione infiammatoria nelle cellule e nei tessuti umani.

I suoi effetti collaterali che condivide con gli altri FANS sono ovviamente molto ridotti dall’uso esterno.
Gli altri componenti sono Isopropanolo, idrossietilcellulosa, sodio para-ossibenzoato di metile, sodio para-ossibenzoato di etile, glicerolo, lavanda essenza, acqua depurata.

Come vedete il ruolo di disperdente è stato preso da un derivato della cellulosa, mentre i due parabeni, ossia i due paraossibenzoati di etile e metile sono usati da molti decenni come conservanti e antimicotici nei prodotti per uso personale; i parabeni sono spesso citati come potenti interferenti endocrini, ma parliamo di quelli a catena più lunga, mentre questi due hanno tale attività in grado molto minore, anche se le frasi H412 (H412 – Nocivo per gli organismi acquatici con effetti di lunga durata) e P273 (P273 – Non disperdere nell’ambiente.) ECHA gliele ha appioppate comunque e indicano che il rischio c’è per certe specie animali ma non per noi. Sono da escludere al momento nocività di altro genere specie per l’uomo se ci si tiene nelle soglie di concentrazione indicate dalla legge.

Voi che ne pensate : era meglio la vecchia o la nuova Vegetallumina?

Al prossimo post per un altro esempio di prodotti vecchi e nuovi.

Dalton, chimico daltonico.

In evidenza

Claudio Della Volpe.

John Dalton è uno dei nomi più conosciuti della Chimica perchè a lui si deve la teoria moderna dell’atomo. Ma oggi non vi parlerò di questo.

E’ facile trovare biografie di Dalton anche in giornali di medicina; ne ho trovata una per esempio in Journal of Medical Genetics 1988, 25, 422-426 John Dalton (1766-1844) di Alan E H Emery; il motivo di questa cosa è che Dalton, come molti dei suoi contempoanei si occupò di varie discipline; inizialmente di meteorologia, poi di medicina e solo infine di chimica.

Il suo primo lavoro, publicato nel 1794 era dedicato al fenomeno del daltonismo ed il suo soggetto di studio era se stesso, in quanto Dalton era…… daltonico.

Nonostante fosse chiaro già a Platone che non tutte le persone hanno la medesima percezione dei colori (e dunque forse non tutti gli animali hanno le medesime sensazioni pur condividendo medesimi sensi) bisogna arrivare ai tempi moderni per avere una descrizione del fenomeno; sembra che un altro famoso chimico Boyle, abbia pubblicato un testo sul tema nel 1688 (ma non ne ho il testo); certamente quello di Dalton è il primo testo autorevole a riguardo.

Egli era nato nel villaggio di Eaglesfield, nel Cumberland nel 1766 da famiglia quacchera. Questa sua austera religione fu anche l’occasione per accorgersi del suo problema.

Quando era poco più di un ragazzo regalò a sua madre un paio di calze di seta rosse; e la madre accogliendo il regalo gli disse che erano belle ma non avrebbe mai potuto metterle in pubblico. L’episodio è riportato in Lonsdale H. The worthies of Cumberland-John Dalton. London: George Routledge, 1874. Dalton ci rimase male perchè a lui sembravano grigio scuro; l’episodio si ripetè qualche anno dopo quando, dovendosi recare a Parigi decise di comprare un vestito nuovo e comprò della stoffa in negozio, ma si sentì dire dal negoziante che quella stoffa non aveva il colore adatto ad un quacchero, essendo scarlatta (ibidem).

In effetti in giro sulla rete si trovano racconti vari a questo riguardo e tutti del medesimo contenuto, ma senza la citazione originale per cui non so se sono veri, come per esempio che sia andato con calze rosse ad una riunione quacchera e così via.

Sarà per timidezza o per sussiego, ma nell’articolo citato all’inizio in realtà Dalton non racconta in questo modo l’origine delle cose; egli invece dice che si è accorto del suo problema studiando le piante, cosa che risale al più al 1790.

L’articolo originale è scaricabile da GoogleBooks. Fu letto davanti alla Manchester Literary and Philosophical Society il 31 October 1794 ed infine pubblicato nel 1798.

Egli scrive:

I was never convinced of a peculiarity in my vision til I accidentally observed the colour of the flower of the Geranium zonale by candle-light in the autumn of 1792. The flower was pink, but it appeared to me almost an exact sky-blue by day; in candle-light, however, it was astonishingly changed, not having then any blue init, but being what I called red, a colour which forms a striking contrast to blue.”

Più avanti scrive:

I take my standard idea from grass. This appears to me very litle different from red. The face of a laurel-leaf (Prunus Lauro-cerasus) is a good match to a stick of red sealing-wax; and the back of the leaf answers to the lighter red of wafers. Hence it will be immediately concluded that I see either red or green or both, different from other people

Dalton condusse uno studio dettagliato su come gli apparivano i colori delle cose sia alla luce del sole che di altre sorgenti come la Luna o una candela cercando di costruire una ragionevole teoria del fenomeno.

I see only two or at most three distinctions- these I should cal yellow and blue; or yellow, blue and purple. My yellow comprehends the red, orange,yellow and green of others;and my blue and purple coincides with theirs. That part of the image which others cal red appears to me litle more than a shade or defect of light; after that the orange, yellow and green seem one colour which descends pretty uniformly from an intense to a rare yellow, making what I should call different shades of yellow. The difference between the green part and the blue part is very striking to my eye: they seem to be strongly contrasted. That between the blue and purple is much less so. The purple appears to be blue much darkened and condensed.

Inoltre si confrontò con parenti e amici e altre persone concludendo che ci fosse una familiarità, dato che il fenomeno si riscontrava nelle medesime famiglie in numero significativo (suo fratello aveva il suo medesimo problema); inoltre concluse anche che le donne erano molto meno prone a questo disturbo.

Tutte osservazioni giustissime e convalidate da ciò che sappiamo ora.

Egli concluse dunque che:

“… one of the humours of my eye must be a transparent, but coloured medium so constituted as to absorb red and green rays principally because I obtain no proper ideas of these in the solar spectrum; and to transmit blue and other colours more perfectly.

E diede disposizione che dopo la sua morte venissero esaminati i suoi occhi per confermare questa ipotesi.

Cosa che fu fatta da un suo amico e discepolo

Dr. J. A. Ransome, former pupil and later friend and medical attendant, who found nothing to account for the defect and that colours appeared as usual through it.

Dunque l’ipotesi di Dalton non fu riscontrata, ma portò a numerosi studi che cercarono di comprendere il meccanismo della visione ed oggi sappiamo che la deuteranopia, che affliggeva Dalton è un fenomeno che non dipende da una peculiarità fisica del cristallino, ma comunemente da una componente genetica diversa che implica una ridotta o assente funzionalità dei coni, elementi fotosensibili della retina, sensibili ad uno o più dei tre colori fondamentali; questa classe di mutazioni, presente in elevata percentuale nella popolazione mondiale, può dare origine a parecchi diversi tipi di anomalia nella visione dei colori, non solo la deuteranopia e si verifica sul cromosoma X che è il cromosoma posseduto dai maschi in copia singola, mentre dalle donne in doppia copia (noi abbiamo lo Y); ne segue che questo spiega anche la minore probabilità nelle donne di questa situazione genetica.

La cosa può essere causata anche da danni nervosi o dall’effetto di sostanze chimiche somministrate per altri scopi; per esempio dal farmaco antitubercolotico etanbutolo.

Non è considerata una minorazione, ma semplicemente un modo diverso di vedere le cose e può dare problemi ma risolvibili in certe comuni operazioni (come leggere il semaforo) anche se impedisce di svolgere certe professioni, pur dando opportunità maggiori in certi casi (per esempio scoprire una forma su uno sfondo vario).

Mi chiedo a volte, se le persone come Dalton, nato da una povera famiglia, che non ricevè mai una istruzione sistematica come oggi è comune, erano dei geni totali o semplicemente persone dotate di una intelligenza media ma in un mondo ancora pieno di opportunità di scoperta alla portata dell’uomo medio. Come è cambiata la scienza negli ultimi due secoli e mezzo? Questo mi riporta alle questioni di recente analizzate in un altro post.

Nota:Per vedere il mondo come lo vedeva Dalton: http://www.color-blindness.com/coblis-color-blindness-simulator/

Le molecole più interessanti del 2017

In evidenza

Rinaldo Cervellati

Chemistry & Engineering news ha promosso una indagine fra i lettori su quali molecole sintetizzate e pubblicate nel 2017 sono risultate di maggior interesse. Nel fascicolo on-line del 4 dicembre scorso Stephen K. Ritter ha presentato i risultati di questa consultazione.

Qui riporto le prime tre classificate nella mia traduzione adattata dello scritto di Ritter.

Al primo posto, diremmo “medaglia d’oro”, si è classificata la molecola di arabinogalattano, il polisaccaride quasi due volte più grande e più complesso di qualsiasi altro ottenuto in precedenza:

La sintesi è stata effettuata dal gruppo di ricerca coordinato da Xin-Shan Ye (Yong Wu et al., Total synthesis of mycobacterial arabinogalactan containing 92 monosaccharide units, Nat. Commun, 2017, DOI: 10.1038 / ncomms14851) nel Laboratorio di Sostanze Naturali e Biomimetiche, School of Pharmaceutical Sciences, Università di Pechino.

Si tratta di un componente essenziale della parete cellulare del Mycobacterium tuberculosis, il batterio che causa la tubercolosi. Il farmaco antitubercolare etanbutolo blocca la biosintesi del polisaccaride. La tendenza dei glicani naturali ad assumere forme strutturali diverse e la loro scarsa abbondanza li rende difficili da isolare e studiare come bersagli farmacologici o per lo sviluppo di vaccini. La loro sintesi è altrettanto difficile. Xin-Shan Ye e collaboratori sono riusciti nell’impresa combinando gruppi di glicani corti in un galattano di 30 zuccheri (in blu) e due identici arabinani di 31 zuccheri (in nero), quindi hanno unito i tre frammenti ottenendo l’arabinogalattano contenente 92 zuccheri.

Xin-Shan Ye

L’arabinogalattano, tossina indubbiamente “biologica” mostra ancora una volta quanto sia fuorviante questo aggettivo per indicare prodotti sani perché “naturali”, in contrapposizione a sostanze chimiche, cattive perchè “artificiali”.

La “medaglia d’argento” è stata assegnata a molecole che contengono tre atomi di azoto legati fra loro. Le molecole centrate sull’azoto ricche di elettroni funzionano normalmente come basi di Lewis, donando una coppia di elettroni per creare un legame con un partner accettante. Il gruppo di ricerca coordinato da Mark Gandelman del Technion-Israel Institute of Technology ha riportato il primo esempio di acidi di Lewis stabili centrati sull’atomo di azoto, che forniscono addotti stabili e ben caratterizzati con varie basi di Lewis (A. Pogoreltsev et al., Nitrogen Lewis Acids, J. Am. Chem. Soc.2017139, pp 4062–4067).

Mark Gandelman

Si tratta di triazani ciclici in grado di funzionare come mostrato in figura:Questi composti presentano diverse proprietà e si potrebbero prestare a diverse applicazioni, in particolare come catalizzatori.

Su un altro versante, i radicali triazenilici contenenti azoto, già rilevati spettroscopicamente in precedenza, noti come leganti in complessi di metalli di transizione, risultano difficili da isolare e stabilizzare.

Radicali triazenilico

I ricercatori guidati da Eunsung Lee dell’Institute for Basic Science e l’Univesità di Scienze e Tecnologia di Pohang (Repubblica di Corea), hanno trovato un modo per sintetizzarli usando carbeni N-eterociclici come sostituenti stabilizzanti (Jisu Back et al. Triazenyl Radicals Stabilized by N‑Heterocyclic Carbenes, J. Am. Chem. Soc., 2017, 139, 15300-15303).

I ricercatori hanno poi utilizzato con successo il radicale triazenilico come materiale catodico in una batteria al litio.

Al terzo posto si è classificato questo complesso del palladio a forma pentagrammo-troncata:È una struttura unica non solo perché ha una forma particolare – un pentagono circondato da trapezi isosceli – ma anche perché è la prima molecola pentanucleare multicompartimentale autoassemblante contenente due diversi leganti nonchelanti. I complessi di coordinazione autoassemblati sono in genere costruiti da metalli collegati da un solo tipo di legante. Oltre a ciò, i leganti sono spesso chelanti, il che significa che ogni legante è collegato al metallo attraverso due o più atomi. I chimici indiani e giapponesi, guidati da Dilip Kumar Chand dell’Indian Institute of Technology aMadras, che hanno sintetizzato la molecola l’hanno battezzata “stella molecolare” (S. Prusty et al., A Truncated Molecular Star, Chem. Eur. J., 2017, 23, 12456–12461).

Dilip Kumar Chand

Essi sperano che la loro stella molecolare possa ispirare la sintesi di gabbie simili a cellule per applicazioni biomediche.

Altre tre molecole sono state candidate, in particolare un “nodo molecolare”a tre catene intrecciate, derivati complessi del norborano, una molecola a forma di girasole. Esse hanno però ottenuto percentuali di voti a una cifra. Le prime tre hanno ottenuto invece il 34, 32 e 17% rispettivamente di gradimento.

L’annus horribilis idrico.

In evidenza

Mauro Icardi

Il 2017 che si sta per concludere è stato un anno decisamente critico per l’ambiente. Le ondate di caldo estive, il mai risolto problema degli incendi boschivi, gli straripamenti ed allagamenti alle prime precipitazioni che si verificano dopo mesi di siccità. Sono tutti segnali di un problema ambientale complesso. Ho ascoltato in radio o letto sui giornali molti autorevoli commentatori, ultimo fra tutti il direttore responsabile dell’agenzia Ansa Luigi Conti, che in un programma radiofonico, presentando il libro fotografico dei principali avvenimenti del 2017, relativamente ai problemi ambientali suggerisce di “fermarsi a riflettere”.

No, non è più tempo di riflessioni. Sarebbe tempo di programmare ed agire. Con una prospettiva di lungo periodo. Altrimenti si ripetono scontati refrain. Di fatto ormai inutili.

Dal mio personale punto di osservazione di tecnico del ciclo idrico posso notare alcune cose: la prima che mi riguarda non indirettamente è quella del regime delle precipitazioni, qui in provincia di Varese. Tra i dati annuali degli impianti di depurazione, che poi devono essere trasmessi a regione e provincia ci sono anche quelli relativi alle condizioni meteo (tempo asciutto o pioggia) che devono essere registrati giornalmente.

Questo perché la variazione di precipitazioni può provocare scompensi nel flusso idraulico degli impianti di depurazione, se questi non sono dotati di vasche di accumulo delle acque di pioggia. Le variazioni repentine e violente di precipitazioni piovose provocano intasamenti delle apparecchiature idrauliche, e dei pozzetti in cui esse sono alloggiate.

Osservando le statistiche meteo relative al 2017 e pubblicate sul sito del Centro Geofisico Prealpino si può notare come, nella regione padano alpina vi sia un deficit di precipitazioni che per il periodo Gennaio 2017 – Novembre 2017 è pari a – 326,1 mm di pioggia.

Molti corsi d’acqua minori rimangono privi di acqua per molti giorni, e la diminuzione di piovosità è più evidente nella stagione invernale. Inverni asciutti sono stati quelli del 2010/2011, 2011/2012, 2012/2013, 2015/2016 e 2016/2017.

Molti corsi d’acqua quindi, con sempre maggior frequenza finiscono per essere alimentati soltanto dall’acqua scaricata dai depuratori. Situazione di oggettiva emergenza per quanto riguarda la compromissione dello stato ecologico del fiume, anche se lo scarico rispetta tutti i parametri di normativa. Situazione che però a volte si raggiunge con maggior difficoltà. Perché un altro fenomeno a cui si assiste è l’aumento di concentrazione di alcuni parametri che sono usuali.

Per esempio quello dell’azoto ammoniacale, che non rientra tra i parametri emergenti. In alcuni casi ho riscontrato incrementi percentuali di concentrazione di questo parametro pari a circa il 40%. Sono incrementi puntuali, e analizzando l’intero anno 2017 l’incremento annuale risulta più modesto (10%) ma è un fenomeno da monitorare. Viene a mancare poi l’effetto di depurazione naturale dello scarico trattato in uscita dall’impianto consortile.

Facendo ricerche in rete e digitando la parola “siccità” si vedono inviti a risparmiare acqua, e generici incoraggiamenti all’utilizzo o al recupero delle acqua depurate. Nulla di tutto questo si può ottenere, lo ripeto senza adeguata programmazione e adeguati investimenti.

Ma il cambiamento climatico provoca anche effetti diametralmente opposti. Cioè l’aumento di precipitazioni piovose di intensità elevata. In questo caso l’effetto sugli impianti di trattamento acque è anch’esso opposto. La variazione repentina di portata affluente all’impianto provoca intasamenti, diluizione eccessiva e quindi variazione troppo marcata del carico inquinante. Nel 2009 l’effetto di una forte precipitazione piovosa (si raggiunsero i 150 mm di pioggia caduta in circa tre ore nella zona Induno Olona- Varese, ma con picchi in altre zone della provincia che arrivarono anche a 175mm come nella zona di Porto Ceresio), dovuti ad un temporale autorigenerante. L’impianto dove lavoro venne completamente allagato, a causa della rapida esondazione del fiume Olona, dove sono recapitate le acque depurate. Un nubifragio di sole tre ore, che allagò anche la storica birreria di Induno Olona.

Questa era la condizione della strada che percorro per recarmi al lavoro quel 15 Luglio 2009.

Oltre all’esondazione del fiume si verificò il rigurgito del flusso di acqua depurata che rientrò in impianto attraverso la condotta di scarico, che era ostruita da rami e sedimenti. La precipitazione durò in tutto circa tre ore. Ci vollero circa cinque giorni per pulire l’area di impianto, verificare il funzionamento delle apparecchiature e ripristinare il funzionamento a pieno regime dell’impianto.

Ho voluto scrivere di eventi legati al cambiamento climatico, che mi hanno coinvolto personalmente. Vuole essere una riflessione in più. Un appello alla classe politica, sia nazionale che locale, e alla pubblica opinione.

Siamo chiamati a gestire l’acqua, il ciclo idrico in maniera consapevole.

Dopo le dovute riflessioni ci si deve muovere verso azioni concrete. Improrogabili.