L’annus horribilis idrico.

Mauro Icardi

Il 2017 che si sta per concludere è stato un anno decisamente critico per l’ambiente. Le ondate di caldo estive, il mai risolto problema degli incendi boschivi, gli straripamenti ed allagamenti alle prime precipitazioni che si verificano dopo mesi di siccità. Sono tutti segnali di un problema ambientale complesso. Ho ascoltato in radio o letto sui giornali molti autorevoli commentatori, ultimo fra tutti il direttore responsabile dell’agenzia Ansa Luigi Conti, che in un programma radiofonico, presentando il libro fotografico dei principali avvenimenti del 2017, relativamente ai problemi ambientali suggerisce di “fermarsi a riflettere”.

No, non è più tempo di riflessioni. Sarebbe tempo di programmare ed agire. Con una prospettiva di lungo periodo. Altrimenti si ripetono scontati refrain. Di fatto ormai inutili.

Dal mio personale punto di osservazione di tecnico del ciclo idrico posso notare alcune cose: la prima che mi riguarda non indirettamente è quella del regime delle precipitazioni, qui in provincia di Varese. Tra i dati annuali degli impianti di depurazione, che poi devono essere trasmessi a regione e provincia ci sono anche quelli relativi alle condizioni meteo (tempo asciutto o pioggia) che devono essere registrati giornalmente.

Questo perché la variazione di precipitazioni può provocare scompensi nel flusso idraulico degli impianti di depurazione, se questi non sono dotati di vasche di accumulo delle acque di pioggia. Le variazioni repentine e violente di precipitazioni piovose provocano intasamenti delle apparecchiature idrauliche, e dei pozzetti in cui esse sono alloggiate.

Osservando le statistiche meteo relative al 2017 e pubblicate sul sito del Centro Geofisico Prealpino si può notare come, nella regione padano alpina vi sia un deficit di precipitazioni che per il periodo Gennaio 2017 – Novembre 2017 è pari a – 326,1 mm di pioggia.

Molti corsi d’acqua minori rimangono privi di acqua per molti giorni, e la diminuzione di piovosità è più evidente nella stagione invernale. Inverni asciutti sono stati quelli del 2010/2011, 2011/2012, 2012/2013, 2015/2016 e 2016/2017.

Molti corsi d’acqua quindi, con sempre maggior frequenza finiscono per essere alimentati soltanto dall’acqua scaricata dai depuratori. Situazione di oggettiva emergenza per quanto riguarda la compromissione dello stato ecologico del fiume, anche se lo scarico rispetta tutti i parametri di normativa. Situazione che però a volte si raggiunge con maggior difficoltà. Perché un altro fenomeno a cui si assiste è l’aumento di concentrazione di alcuni parametri che sono usuali.

Per esempio quello dell’azoto ammoniacale, che non rientra tra i parametri emergenti. In alcuni casi ho riscontrato incrementi percentuali di concentrazione di questo parametro pari a circa il 40%. Sono incrementi puntuali, e analizzando l’intero anno 2017 l’incremento annuale risulta più modesto (10%) ma è un fenomeno da monitorare. Viene a mancare poi l’effetto di depurazione naturale dello scarico trattato in uscita dall’impianto consortile.

Facendo ricerche in rete e digitando la parola “siccità” si vedono inviti a risparmiare acqua, e generici incoraggiamenti all’utilizzo o al recupero delle acqua depurate. Nulla di tutto questo si può ottenere, lo ripeto senza adeguata programmazione e adeguati investimenti.

Ma il cambiamento climatico provoca anche effetti diametralmente opposti. Cioè l’aumento di precipitazioni piovose di intensità elevata. In questo caso l’effetto sugli impianti di trattamento acque è anch’esso opposto. La variazione repentina di portata affluente all’impianto provoca intasamenti, diluizione eccessiva e quindi variazione troppo marcata del carico inquinante. Nel 2009 l’effetto di una forte precipitazione piovosa (si raggiunsero i 150 mm di pioggia caduta in circa tre ore nella zona Induno Olona- Varese, ma con picchi in altre zone della provincia che arrivarono anche a 175mm come nella zona di Porto Ceresio), dovuti ad un temporale autorigenerante. L’impianto dove lavoro venne completamente allagato, a causa della rapida esondazione del fiume Olona, dove sono recapitate le acque depurate. Un nubifragio di sole tre ore, che allagò anche la storica birreria di Induno Olona.

Questa era la condizione della strada che percorro per recarmi al lavoro quel 15 Luglio 2009.

Oltre all’esondazione del fiume si verificò il rigurgito del flusso di acqua depurata che rientrò in impianto attraverso la condotta di scarico, che era ostruita da rami e sedimenti. La precipitazione durò in tutto circa tre ore. Ci vollero circa cinque giorni per pulire l’area di impianto, verificare il funzionamento delle apparecchiature e ripristinare il funzionamento a pieno regime dell’impianto.

Ho voluto scrivere di eventi legati al cambiamento climatico, che mi hanno coinvolto personalmente. Vuole essere una riflessione in più. Un appello alla classe politica, sia nazionale che locale, e alla pubblica opinione.

Siamo chiamati a gestire l’acqua, il ciclo idrico in maniera consapevole.

Dopo le dovute riflessioni ci si deve muovere verso azioni concrete. Improrogabili.

Il nuovo scanner chimico, il naso elettronico

Luigi Campanella, già Presidente SCI

Con sempre maggiore frequenza capita di leggere sulla stampa scientifica, ma anche su quella di informazione, circa le applicazioni di nasi e lingue elettronici a problemi di varia importante natura:dalla diagnosi di patologie in atto alla verifica di caratterizzazioni DOC e DOP di alimenti, dal monitoraggio di matrici ambientali al controllo di autenticità di materiali vari. Già in passato mi sono occupato in questo blog dello stesso argomento, collegandolo al contributo ad esso che deriva proprio dai sensi dell’uomo, in particolare in questo caso olfatto e gusto. Vorrei tornare su aspetti storici e tecnici di questi preziosi strumenti analitici. I due punti di partenza per comprendere sono lo sviluppo della sensoristica ed il valore diagnostico di un’impronta sensoriale piuttosto che la risposta di un singolo sensore. Rispetto alle tecniche più largamente usate, come le tecniche cromatografiche che fornivano a livello qualitativo e quantitativo i differenti componenti presenti in una miscela incognita, rappresentano una valida alternativa i sensori elettronici che conducono ad una più ampia caratterizzazione del campione in esame fornendo una cosiddetta “impronta digitale” correlata alla composizione della matrice stessa.

I tipi di sensori sfruttati in tal senso devono necessariamente soddisfare determinati requisiti come la capacità di analizzare un ben preciso composto, la capacità di determinare analiti in concentrazioni ampiamente variabili, un tempo di analisi relativamente breve, un’elevata affidabilità, non influenzata drasticamente da variazioni nelle condizioni di misura, la capacità di fornire dati e misure accurate e ripetibili. In questa logica diverse tipologie di sensori sono stati sviluppati negli ultimi anni classificate in sensori “freddi” e in sensori “caldi”.

Tra i sensori “freddi” si possono annoverare:

  • i sensori CP (conducting organic polymers) formati da un substrato di silicio, una coppia di elettrodi placcati d’oro e un polimero organico conduttore (come polipirrolo, polianilina o politiofene) oppure drogati con carbone per ottenere un segnale analitico. Quando viene imposto un potenziale all’elettrodo una corrente passa attraverso il polimero conduttore. Il passaggio di un composto volatile altera la superficie e modifica il flusso di corrente e quindi la resistenza del sensore. E’ un sensore molto influenzato dall’umidità del campione e perciò inutilizzabili in camioni liquidi (polari) e in aria.
  • i sensori BAW (bulk acoustic wave) costituiti da cristalli piezoelettrici basati sul cambiamento di massa che può essere misurato dal cambiamento della frequenza di risonanza. Quando viene applicato un potenziale elettrico alternato, il cristallo vibra con una frequenza molto stabile definita dalle sue proprietà meccaniche. Quando lo stato che lo ricopre viene esposto ad un vapore, assorbe certe molecole che aumentano la massa e quindi diminuiscono la frequenza di risonanza del cristallo. Questa modifica può essere monitorata e costituisce il segnale del sensore. Questi sensori necessitano di un’elevata concentrazione di composti volatili per fornire risposte significative. Inoltre sono molto sensibili alle variazioni di temperatura e di umidità. Richiedono infine una certa delicatezza nell’uso.

 

Sensors 2009, 9, 6058-6083; doi:10.3390/s90806058

Tra i sensori “caldi” soprattutto per l’applicazione in campo ambientale e sui campioni contenenti acqua, si considerano:

  • i sensori MOSFET Metal Oxide FET (transistor a effetto di campo ad ossido di metallo), i quali si basano sul cambiamento di potenziale elettrostatico. Sono costituiti da tre strati: silicio semiconduttore, un isolante a ossido di silicio ed un metallo catalitico (platino, palladio). Operano come un transistor a cui viene applicato un potenziale che influisce sulla conduttività del transistor stesso. Quando una molecola polare interagisce con il metallo, il campo elettrico viene modificato e di conseguenza anche la corrente che fluisce attraverso il sensore. Si registra la variazione di tensione necessaria per riportare la corrente al valore iniziale. Sono delicati nel trasporto per cui non sono adatti a strumenti portatili.
  • i sensori MOS (metal oxide semiconductor-semiconduttori ad ossidi di metallo), che si basano su variazioni di conducibilità indotti da reazioni superficiali dovute all’adsorbimento del gas da analizzare. Il meccanismo della reazione si basa su uno scambio di ossigeno tra le molecole volatili ed il film metallico; questo causa una variazione di resistenza che viene registrata e confrontata alla quantità di composti adsorbiti. Inoltre la possibilità si poterli riscaldare a diverse temperature permette di sfruttare le diverse caratteristiche del layer (metallo) alle diverse temperature per ottenere segnali analitici cosiddetti “dedicati”. La matrice di sensori costituisce il cuore degli analizzatori sensoriali. Ciascun polimero della matrice, costituita da un numero di sensori variabili, presenta selettività verso diverse e numerose specie chimiche, così che i moderni nasi elettronici sono in grado di rispondere a migliaia di composti.

In tutti i casi il modello elettrico ottenuto viene successivamente elaborato e memorizzato da un software. L’enorme numero di valori ricavati dalle matrici dei sensori necessita infatti di un metodo interpretativo che associ le misure dei sensori alle proprietà di interesse del campione. Il cosiddetto “MODELLO DI RICONOSCIMENTO” è il sistema informativo che correla le misure dei sensori con le proprietà dei campioni permettendone il riconoscimento e la classificazione. Il modello di riconoscimento consta concettualmente di due passaggi fondamentali:

  • Esplorazione: fase in cui per ogni set di campioni, una volta memorizzate le impronte olfattive di ogni campione, si procede alla scelta di quei sensori e parametri che meglio descrivono, discriminano e caratterizzano le impronte olfattive di ogni analita, riducendo quindi la dimensionalità dei dati. E’ una fase in cui non si impone alcuna assunzione circa le caratteristiche dei campioni. La PCA (analisi delle componenti principali) permette questa importante fase di elaborazione. Infatti la PCA correla tra loro i dati ottenuti, descrivendo completamente il sistema. Un’ulteriore distinzione andrebbe eseguita in campo di esplorazione. Di fatti l’esplorazione non richiede conoscenze aggiuntive circa la natura dei dati ma, del resto, alcune conoscenze sono necessarie per l’interpretazione dei risultati.
  • Predizione: fase in cui si ha per obiettivo la costruzione del modello matematico che rappresenti “il più fedelmente possibile” le caratteristiche dei campioni. Le applicazioni della fase di predizioni sono tre: la supervisione (il modello deve distinguere tra campioni accettabili o non accettabili, nel senso di appartenenza o meno ad una data classe), la classificazione (consiste nell’associazione ad ogni campione di una classe di appartenenza tra le diverse identificate) e la quantificazione (il modello deve fornire indicazioni oltre che qualitative anche quantitative, relative cioè all’intensità di odore). Sono tutti passi controllati poiché devono essere formulate e verificate ipotesi circa le caratteristiche dei campioni analizzati, in modo da poter verificare la validità del modello di riconoscimento elaborato. La PLS (regressione che usa i minimi quadrati “parziali”) permette di eseguire la predizione ed è un metodo lineare. Oppure si può procedere con la messa a punto di una rete neurale. Una rete neurale* è un paradigma di elaborazione delle informazioni ispirato dal sistema nervoso-cerebrale umano, in grado di apprendere con l’esperienza.

Esistono già in commercio moltissimi dispositivi preposti alla individuazione di un’impronta olfattiva. Ad esempio la TECHNOBIOCHIP S.c.a r.l. propone un naso elettronico “LIBRA NOSE” in continua evoluzione che rappresenta il frutto di una ricerca avanzata sviluppata dal dipartimento di Ingegneria Elettronica dell’Università di Tor Vergata. Si tratta di uno strumento multi sensoriale che mostra analogie con la struttura olfattiva dei mammiferi. Lo strumento è fornito di una matrice di otto sensori risonanti di quarzo su cui vengono deposte otto diverse metallo porfirine (una diversa porfirina e un diverso metallo ad essa coordinato per ogni sensore), in modo tale da renderle sensibili alle sostanze volatili responsabili dell’odore. La scelta delle metallo porfirine è stata fatta sulla base del loro particolare ruolo in natura, dove presentano diverse funzionalità fondamentali, come il trasporto di ossigeno nel sangue; per questa ragione si suppone che siano dotati di grande affidabilità. D’altro canto le porfirine mostrano proprietà coordinanti marcate rendendole adatte per moltissime applicazioni del naso elettronico. Infatti, sebbene sia noto ben poco circa le strutture proteiche dei recettori olfattivi umani, si può argomentare che molti dei recettori contengano ioni metallici nei loro siti attivi.

Il naso fornisce una differente frequenza di oscillazione dei sensori a seconda della traccia olfattiva lasciata dal campione in esame, che deve essere necessariamente volatile affinché possa essere rilevabile una impronta odorosa. La scelta dei sensori è ricaduta su sistemi specifici che interagissero con le molecole volatili sviluppatesi dal campione. Quando una sostanza viene immessa nello strumento (grazie ad una pompa di gas opportuno collegata con il naso elettronico) potrà dare delle interazioni più o meno deboli (tipo interazioni di Van der Waals) con la porfirina. Questa serie di interazioni fa variare la frequenza di oscillazione dei quarzi e si registra una variazione di frequenza. Sono quindi possibili anche studi di cinetica di reazione, e di termodinamica di reazione basandosi sulla differente interazione che una sostanza ha con le diverse porfirine. Comprensibilmente in base alle diverse interazioni si distinguono le sostanze che appunto mostrano diverse differenze di frequenza. Le uniche problematiche dello strumento sono rappresentate dall’eventuale solubilizzazione delle porfirine con determinati campioni o il loro avvelenamento. Gli studi di ricerca si orientano nella sintesi di porfirine adeguate alle diverse problematiche. Il passo successivo alla determinazione delle diverse frequenze di vibrazione dei cristalli di quarzo è costituito dalla analisi statistica delle diverse variabili che individuano una traccia olfattiva. L’analisi dei dati è un compito importante per un naso elettronico. Nell’olfatto naturale, come precedentemente asserito, avviene un processo di discernimento tra i diversi odori per assegnarli ad una ben definita classe. Tra le numerose tecniche disponibili correntemente per il riconoscimento hanno maggiore rilievo le reti neurali (neural networks). Tra questi la Technobiochip e l’università di Tor Vergata ha posto attenzione su una classe particolare chiamata “organizing maps”. Queste reti hanno manifeste somiglianze biologiche, e sono designate per “mimare” il comportamento della corteccia cerebrale nel trattamento dei dati sensoriali. L’applicazione di queste reti permette di completare l’analisi dei dati e di definire il ruolo giocato da ogni sensore del dispositivo per descrivere l’analita in esame. Scopo ultimo dello strumento è quello di riuscire a realizzare tramite la rete neurale tra i diversi dipartimenti dotati dello strumento un link diretto per il continuo confronto dei dati acquisiti con lo stesso tipo di sensore. Una sorta di banca dati, paragonabile alla lunga con le note librerie di spettrometria di massa.

Le prove eseguite inizialmente prevedevano sostanze organiche elementari, i solventi più comuni, gli odori più semplici sia liberi che in miscela tra loro. Le applicazioni principali riguardano l’analisi ambientale e il controllo di qualità degli alimenti. Non ultima l’applicazione sanitaria nell’individuazione di differenti patologie sulla base della determinazione di diverse impronte olfattive su liquidi biologici di differenti individui.

Anche la Cyrano Sciences ha proposto un suo naso elettronico, chiamandolo opportunamente “CYRANO 320 electronic nose” cercando una via adeguata per digitalizzare ogni odore. Il sensore usato in questo tipo di apparecchiatura è un polimero di carbonio composto da chemiresistori che costituiscono un diodo. L’output complessivo di questo diodo è usato per identificare un analita incognito. Ogni rivelatore del diodo è costituito da un polimero di carbonio conduttivo disperso omogeneamente in un polimero non conduttivo. Quando il rivelatore è esposto ad un analita in fase vapore la matrice polimerica agisce come una spugna e “si rigonfia” mentre lo assorbe. L’aumento in volume è simultaneo ad un aumento di resistenza. Quando l’analita viene rimosso, la spugna polimerica si secca. La relazione tra variazione di volume e resistenza può essere descritta con la teoria della percolazione. La teoria prevede l’interazione tra siti attivi vicinali. Le reti di resistori interagiscono in modo continuo fin tanto che sono connesse, successivamente l’ultimo sistema conduttivo si rompe temporaneamente e il sistema diventa discontinuo. Questo punto di rottura dipende da numerose variabili collegate con l’adsorbimento della sostanza volatile che il sensore sta individuando. La determinazione viene seguita monitorando la variazione della resistenza in funzione del tempo. Assorbendo l’analita con diversi matrici polimeriche si ottengono delle mappe di assorbimento del composto. La determinazione analitica viene completata da un’elaborazione dati.

Un sito** internet elenca le diverse aziende e gruppi di ricerca che lavorano per realizzare o implementare le proprietà di dispositivi sensoriali: la differenza riguarda essenzialmente la scelta dei sensori che attualmente sono quasi sempre trasduttori (come QMB*** o SAW) oppure chemiresistori (basati su ossidi metallici o polimeri conduttori).

Caratteristica comune dei cosiddetti “nasi elettronici” è la discriminazione (risposta aspecifica) fornita da un insieme di sensori esposti contemporaneamente alla miscela in esame.

Elaborando successivamente i dati acquisiti con un algoritmo statistico si può associare un nuovo odore, e quindi un’impronta di segnale, ad un insieme di odori e ad impronte già note.

La sensoristica sempre più all’avanguardia ha continuato a studiare nuovi possibili sensori per ampliare il range delle determinazioni e il campo di applicabilità. La comunità europea dinanzi ad una vera e propria fioritura di brevetti si è trovata costretta a stilare un regolamento con le normative necessarie per un confronto tra i diversi dispositivi per stabilire infine le condizioni e i limiti d’impiego. Lo scopo ultimo è anche quello di realizzare una vera e propria “rete neurale” simile ad internet o che ci si affianchi per connettere i diversi dispositivi e creare una crescente banca dati di risultati confrontabili tra i diversi laboratori che utilizzano questi strumenti. La difficoltà principale è l’uniformazione dei dati che essendo il prodotto di strumenti che non agiscono sulle stesse grandezze non sono confrontabili direttamente senza trovare un sistema di riferimento a cui tutti convertono i propri risultati.

Tuttavia, in Europa esiste la rete NOSE (network on artificial olfactory sensing) il cui scopo è collegare tra i diversi enti, istituti, laboratori e gruppi scientifici sia nel campo universitario che in quello industriale, che sono interessati a queste tematiche. Quindi la rete NOSE cerca anche di promuovere la normazione di queste tecniche.

Il sito www.europa.eu.int rappresenta uno dei sistemi di unione di progetti di ricerca e contatto di reti neurali di diversi interlaboratori dispersi sul territorio europeo. Nell’area progetti si possono già individuare le prime applicazioni di queste tecniche sensoriali, soprattutto per l’analisi degli alimenti e dell’ambiente.

Il sito www.nose.uia.ac.be è un sito in cui si possono seguire le attività eseguite con questi sensori, i progetti, le applicazioni e le ultime tecnologie proposte per il loro utilizzo. Si presenta anche una sessione disposta per la realizzazione delle reti neurali con scopi e obiettivi della rete stessa.

* NOTA:Una rete neurale è costituita da un gran numero di elementi di elaborazione interconnessi in grado di cooperare nella risoluzione dei problemi specifici di complessità troppo elevata per le tecnologie informatiche tradizionali. La problematica specifica dell’applicazione della rete neurale si presenta in particolare per quelle determinate situazioni in cui non esiste un algoritmo risolvente oppure è troppo complesso da determinare. L’ “apprendimento” di una rete neurale è basato sui processi simili a quelli dei sistemi biologici, quali le modifiche delle connessioni sinaptiche tra i neuroni. Una simile elaborazione del segnale consente il riconoscimento dell’odore per confronto con altri dati in memoria.

** http://sch-www.uia.ac.be/struct/review/research@sales.html

*** I trasduttori QMB sono quarzi con legate delle metalloporfirine, il cui funzionamento è basato sulla variazione di frequenza rispetto alla frequenza di oscillazione fondamentale in seguito all’adsorbimento di molecole dalla fase gassosa. L’assorbimento o desorbimento di molecole corrisponde alla variazione di frequenza caratteristica della sostanza adsorbita, descritta dalla relazione di Sauerbrey: Df = – Cf f02 Dm A-1, dove A è la superficie ricoperta dalla porfirina, Cf è la sensibilità di massa costante e f0 è la frequenza fondamentale. La sensibilità chimica è assicurata ricoprendo la superficie del quarzo con la sostanza chimica adeguata.

Mendeleev – La Tavola Periodica degli Elementi

Margherita Venturi

Recensione.

Mendeleev – La Tavola Periodica degli Elementi

Giovanni Villani

Edizioni Grandangolo Scienza (Corriere delle Sera)

Il libro di cui vi parlo oggi “Mendeleev. La Tavola periodica degli elementi” di Giovanni Villani è uscito il 24 maggio 2017; fa parte della Collana Grandangolo Scienze ed era possible acquistarlo assieme al quotidiano Corriere della Sera. Avevo saputo della sua imminente pubblicazione dall’autore, ma devo dire che ho penato non poco ad averlo: in molte edicole non era disponibile e occorreva richiederlo espressamente; conclusione dei fatti è che ne sono venuta in possesso solo alla fine dell’estate. Quindi, ho il sospetto che sia sfuggito a molti e ciò è un vero peccato, dal momento che, a mio parere, è un volumetto che tutti dovrebbero avere nella biblioteca “di casa”.Si tratta di un’edizione tascabile e, pertanto, il libro è comodo da leggere ovunque, anche perché è scritto in maniera agile e con un linguaggio accessibile a chiunque; è la pubblicazione più “leggera” (l’autore non me ne voglia, è un complimento!) di Giovanni Villani, chimico ed epistemologo, ricercatore del CNR di Pisa e presidente della Divisione di Didattica della Società Chimica Italiana.

Nel libro l’autore ha cercato di inquadrare in un contesto storico/epistemologico la figura di Mendeleev e lo sviluppo della Tavola Periodica; proprio in questo sta la fruibilità del libro: anche chi sa poco o nulla di chimica ha sentito parlare di Mendeleev e della Tavola degli Elementi e qui può trovare argomenti di tipo storico, sociale e, ovviamente, scientifico che lo possono interessare, indipendentemente dalla sua estrazione culturale. Ma non mettiamo in carro davanti ai buoi e andiamo per ordine.

Il libro è diviso in tre parti fondamentali: il panorama storico (a cura di Giorgio Rivieccio), il focus scientifico e alcune letture di approfondimento. Benché si tratti di tre parti separate, sono tutte perfettamente consequenziali, compenetranti l’una nell’altra e indispensabili per capire la figura del chimico russo e l’importanza della sua opera scientifica.

Mendeleev è sicuramente uno degli scienziati più imponenti: imponente fisicamente, almeno così ci appare dalle immagini che lo riportano; un uomo grande, con una gran barba e un’espressione sempre molto seria e scrutatrice; imponente scientificamente, perché la sua figura ha dominato la scienza della fine dell’ottocento.

Nel libro, però, emergono anche altri aspetti di Mendeleev, quelli che riguardano l’uomo e che lo avvicinano “ai miseri mortali”: l’amore struggente per la giovanissima Anna Ivanova Popova, osteggiato da tutti, in particolare dalla moglie che non gli voleva concedere il divorzio, il suo difficile rapporto con le istituzioni, prima fra tutte l’Accademia delle Scienze di Pietroburgo di cui non riuscì mai a diventare membro effettivo, il suo atteggiamento critico nei confronti del sistema scolastico, della situazione sociale ed economica del paese, tanto da essere considerato un elemento poco desiderabile.

Il Mendeleev che ci appare è un uomo solo e, quindi, ci ispira un grande affetto, così come ci ispira un grande affetto anche lo scienziato, che cerca di scoprire l’armonia generale della natura avendo a disposizione ben pochi dati oggettivi e che è certo dell’esistenza di questa armonia, tanto da lasciare “buchi vuoti” nella tabella unificatrice che tentava faticosamente di costruire.

Ovviamente questa è la parte più “impegnativa” del libro, in cui si affrontano concetti epistemologici ed altri specificatamente chimici, ma, come ho detto all’inizio, l’autore riesce anche in questo caso ad essere chiaro e piacevole. È molto interessante il confronto fra le idee del chimico russo e quelle degli altri scienziati che si sono posti il problema di ordinare e organizzare gli elementi; da questo confronto appare evidente la superiorità di Mendeleev, l’unico che sia riuscito a tenere assieme l’individualità degli elementi e il loro stare in “gruppo”, ad individuare quello che specifica e quello che unisce; infatti come lui stesso dice: negli atomi vediamo, simultaneamente, le loro peculiarità individuali, la loro molteplicità infinita e la sottomissione della loro apparente libertà all’armonia generale della Natura.

La prima versione della Tavola Periodica

Ho apprezzato moltissimo anche la parte che riguarda l’evoluzione storica del concetto di elemento, dai quattro elementi di Empedocle e di Aristotele agli oltre cento attuali, passando dalla fisica classica alla fisica quantistica, dal Congresso di Karlsruhe del 1860 alla scoperta della radioattività naturale ed artificiale. A proposito del congresso di Karlsruhe, Mendeleev, che vi partecipò, scrisse al suo ritorno: il meeting ebbe un notevolissimo impatto sulla storia della nostra scienza. Ciò si dovette soprattutto all’intervento di Cannizzaro, che aprì la strada allo sviluppo della Tavola Periodica [1]. A tutto ciò fanno da coronamento sei pagine alla fine della sezione iniziale sul panorama storico che descrivono sinteticamente i fatti storici, le idee filosofiche, i movimenti letterari e artistici e le scoperte scientifiche e tecnologiche degli ultimi 50 anni dell’ottocento.

Ho detto prima che Mendeleev ci appare solo, sia come uomo, in costante conflitto con la società dell’epoca, che come scienziato, ripiegato su se stesso alla ricerca di quel filo conduttore fra gli elementi della cui esistenza era certo, ma che faticava a palesarsi. Questo però è il destino “crudele” di che è troppo avanti per i suoi tempi e quanto il nostro sia moderno e attuale è molto evidente nella parte delle letture di approfondimento, in particolare quella che riguarda la sua partecipazione alla Commissione sullo spiritismo. Presiedendo la commissione egli tenta in tutti i modi di far capire agli “spiritisti” che per credere ci vogliono prove concrete e scientifiche, senza però ottenere grandi risultati come si evince dalla sua conclusione sconsolata: quando uno vuole credere, non c’è prova scientifica che tenga; ancora oggi spesso e volentieri ci troviamo a dover combattere questo atteggiamento e, ancora oggi, il più delle volte, è fatica sprecata! Mi ha colpito molto anche quanto Mendeleev dice sempre agli spiritisti: rivolgete piuttosto la vostra attenzione a questioni di ben altra importanza, date il vostro appoggio alla causa di chi, oppresso, lotta e soffre, di chi insorge contro il proprio tiranno. Anche in questi combattimenti si è manifestato uno spirito, e quanto vigile e vigoroso! La sua attenzione per i problemi sociali e per la sofferenza dei più deboli è un’altra dimostrazione di quanto sia stato grande questo scienziato.

Le 166 pagine del libro si completano con un breve glossario, una bibliografia molto snella e una sezione sui luoghi di interesse. Mi è allora tornato alla mente il viaggio in Russia che ho fatto tanti anni fa e il rispetto reverenziale con cui ho visitato l’appartamento di Mendeleev; quasi senza fiato ho girato in quella stanza piena di scaffali traboccanti di libri, pensando che proprio lì era nata la Tavola Periodica, considerata da molti scienziati l’idea più grandiosa degli ultimi dieci secoli.

Sinistra: Monumento a Mendeleev a San Pietroburgo e la versione in cirillico della Tavola Periodica riprodotta sul muro accanto alla statua; destra: una foto dello studio di Mendeleev a San Pietroburgo

Ci sarebbe ancora tantissimo da dire su questo libro, ma mi fermo qui, volutamente, per stuzzicare la curiosità dei potenziali lettori.

Per concludere non posso però evitare di ricordare Primo Levi e il suo libro Il Sistema Periodico; Levi dice giustamente: il Sistema Periodico di Mendeleev, che proprio in quelle settimane imparavamo laboriosamente a dipanare, era una poesia, più alta e più solenne di tutte le poesie digerite in liceo: a pensarci bene aveva perfino le rime! In effetti si tratta proprio di una meravigliosa poesia che racchiude in sé, in maniera concisa e unitaria, buona parte della Chimica e nessun’altra disciplina scientifica può vantare una simile tavola iconografica. Si tratta, però di una poesia senza fine, a cui giorno dopo giorno si aggiungono nuovi versi (nuovi elementi) che andranno a creare nuove rime; questo è forse il motivo per cui la Tavola Periodica conserva ancora oggi quell’alone quasi mistico che ha accompagnato la sua nascita: nonostante sia ormai stato razionalizzato il motivo delle similitudine fra gli elementi, la magia di questo documento sta nel fatto che l’ordine palese degli elementi ci svela un ordine molto più profondo, quello intrinseco della Natura.

[1] Se qualcuno fosse interessato a saperne di più sul convegno di Karlsruhe consiglio l’articolo “When science went International” di Sara Evert pubblicato su Chemical & Engeneering News (2010, 88(36), 60), in occasione del 150° anniversario del congresso.

“Ho sempre fatto vernici.”

Oscar Chiantore*

Non ho avuto la fortuna di conoscere Primo Levi di persona. Mi capitò tuttavia di avere con lui un contatto epistolare qualche tempo dopo che il Sistema Periodico fu pubblicato negli Stati Uniti, cosa che avvenne nel 1984. Ricevevo ogni mese la rivista Chemical & Engineering News, e nel numero di maggio 1985 trovai pubblicata la recensione al libro, The Periodic Table, che qui riporto.

Era una recensione molto bella, che in modo succinto secondo me metteva bene in evidenza gli aspetti essenziali del libro di Levi. Fin dal titolo: ‘Un chimico medita sulla sua vita e sul suo mestiere’, dove vita e mestiere traggono sostentamento ed ispirazione l’uno dall’altra. Il recensore, entusiasta, scriveva: ‘E’ un libro bellissimo, scritto in una prosa sobria e meravigliosa, che spesso rasenta la poesia……”.

Immaginando che recensioni come questa, provenienti da pubblicazioni non letterarie non pervenissero a Levi tramite la casa editrice, gliela mandai con una breve lettera di accompagnamento. Levi rispose esprimendo riconoscenza perché la recensione gli era parsa “molto bella e intelligente”, e non ne avrebbe avuto notizia dal servizio stampa dell’editore. Dichiarava inoltre che leggerla gli aveva “dato una gradevole nostalgia”.

Il Sistema Periodico è riconosciuto essere un libro di interesse universale per le tematiche trattate, e per il modo con cui sono illustrate dato che – parafrasando Levi – ogni elemento è in grado di dire qualcosa a qualcuno e a ciascuno una cosa diversa. Certamente noi chimici vi troviamo una ricchezza superiore, potendo riconoscerci più o meno parzialmente nel mestiere così come viene descritto ‘….un caso particolare, una versione più strenua, del mestiere di vivere’ [Argento], dove si susseguono le “due esperienze della vita adulta…il successo e l’insuccesso.” [Nichel]

Oltre a questo episodio vorrei ricordare un paio di altre situazioni in cui mi è capitato di occuparmi del Levi chimico.

Venti anni fa, con l’amico e collega Edoardo Garrone, organizzammo la mostra Primo Levi e il Sistema Periodico, nella zona antistante quella Biblioteca Chimica così vividamente descritta nel capitolo Azoto, e rimasta simile a quella frequentata da Levi solo più nei tavoli e nelle scaffalature di buon legno di noce. L’evento era programmato nell’ambito delle manifestazioni per il decennale della scomparsa di Levi e, proprio perché fatto ‘a Chimica’, era imperniato sul Sistema Periodico con testimonianze di alcuni suoi compagni di studi, e con documenti e testi relativi al suo percorso universitario.

Esponemmo anche una quindicina di copie di edizioni straniere del Sistema Periodico, tutte quelle che potemmo ottenere semplicemente chiedendo ad amici e colleghi stranieri di procurarci una copia del libro nella lingua del loro Paese.In quell’ occasione la SIVA, dove come è noto Levi svolse la maggior parte della sua attività di chimico, offrì una nuova Tavola Periodica per l’Aula Magna di Chimica, per sostituire quella allora esistente, risalente agli anni ’50 ed offerta a quel tempo dalla Cinzano. Nelle due immagini qui sotto si possono vedere le due Tavole, quella vecchia e quella nuova.

La nuova Tavola Periodica fu inaugurata il 15 Maggio 1997, nella giornata iniziale della manifestazione. La Tavola si trova ancora lì, nell’Aula Magna del Dipartimento di Chimica che qualche anno dopo è stata poi intitolata a Primo Levi. La visibilità della Tavola è oggi diventata più difficile, da quando l’uso diffuso delle proiezioni con power point ha imposto la collocazione di un ampio schermo che, quando srotolato, copre tutta la Tavola Periodica.

La giornata del 15 Maggio 1997 e tutto l’evento sono stati poi documentati da un numero monografico del notiziario dell’Università di cui mostro la pagina iniziale con l’indice del fascicolo contenente testi e immagini sia della giornata che della mostra.

Avigliana – Dinamite Nobel S.A. – Veduta – 1930 – 1940 (foto: Centro per la cultura d’impresa, fondo Edison, Milano)

E’ noto che Levi ha svolto praticamente tutta la sua vita di chimico nell’industria delle vernici. In una intervista così si espresse: “Ho fatto sempre vernici, sono abituato ad una vita concreta, in cui un problema si risolve o si butta.” Il mestiere comincia dopo il ritorno dal lager, nello stabilimento di Avigliana, paese vicino a Torino, di proprietà della Montecatini, che si può vedere nella fotografia dell’epoca.

Questa parte della vita di chimico di Levi emerge magistralmente nel capitolo Cromo del Sistema Periodico con un racconto dove in pagine di prosa squisita, tra molte altre cose Levi cattura l’essenza di come un chimico affronta un problema, e come la scoperta intellettuale procuri una inimitabile felicità. Ma ci racconta anche molto efficacemente come nell’industria chimica possano esserci a volte operazioni o processi che si perpetuano per tradizione, senza reali motivazioni tecniche, e che permangono per anni se non sono causa di inconvenienti. Levi ci parla infatti di come nella fabbrica di Avigliana ha dovuto affrontare e risolvere il problema riguardante una grossa partita di vernice antiruggine ‘impolmonita’ cioè diventata viscosa / gelatinosa e quindi non utilizzabile. Levi affronta il caso esaminando la documentazione di produzione, studia le relazioni tecniche finchè trova l’anomalia ( ‘un chimico deve interessarsi dei particolari. Se non sta attento ai dettagli, rischia di sciupare il lavoro’), correggendo la formulazione che creava problemi. Propone il rimedio per le partite andate a male, consistendo questo nell’aggiunta di un composto in grado di restituire fluidità alla vernice e quindi renderla utilizzabile. Ma quando poi il chimico Levi lascia lo stabilimento per andare a lavorare in un’altra azienda, l’additivo anti-impolmonimento era entrato stabilmente a far parte delle formulazioni per quel tipo di vernici, che nel frattempo avevano subito altre evoluzioni e non avevano più bisogno del “correttivo”!

Quando tempo dopo qualcuno aveva sollevato dei dubbi, in produzione avevano risposto, ‘sorpresi e un po’ scandalizzati’ che quella formulazione ‘esisteva da almeno dieci anni’, l’additivo ‘c’era sempre stato…..a cosa servisse, nessuno sapeva più ma che si guardasse bene dal toglierlo, perché “non si sa mai”.’

Allo stesso modo, leggiamo da Levi, in un’altra fabbrica dove si produceva olio di lino cotto modificato con resine coppali, quando queste ultime dovettero essere sostituite con resine sintetiche meno costose e più disponibili, si continuò ad usare lo stesso trattamento a caldo usato per le coppali, dove era necessario eliminare le frazioni più leggere arrivando fino ad una perdita di peso del 14%. Con le nuove resine sintetiche questo trattamento non sarebbe più stato necessario, e invece continuò ad essere fatto, con perdita di materiale utile e con inutile produzione di “esalazioni pestifere”.

Casi come questo non sono per nulla rari, e nell’industria delle vernici e degli adesivi ancora oggi riscontrabili, come può testimoniare chi si sia occupato dello studio e caratterizzazione di resine e prodotti vernicianti. Molte formulazioni contengono, oltre ai componenti base cioè un legante e i pigmenti, un numero imprecisato di additivi diversi, immessi in quantità opinabili e con giustificazioni nebulose, che derivano nella maggior parte dei casi da storie di chimica empirica dove un’aggiunta dopo l’altra non induce a fare le verifiche su cosa veramente serve, salvo poi il verificarsi di disastri.

La lezione che Levi trae è esemplare anche nella ironia della sua espressione:

Le formulazioni sono come le preghiere, i decreti-legge e le lingue morte e non un iota in esse può essere mutato.’ [Cromo]

Le vernici ad Avigliana erano prodotte nello stabilimento Duco, contiguo al dinamitificio Nobel, e anch’esso di proprietà della Montecatini. In questa immagine di archivio si osserva una fase della fabbricazione delle vernici denominate Dulox. Possiamo cercare di capire se questo marchio ha qualche attinenza con quanto Levi descrive nel Sistema Periodico.

Avigliana – Stabilimento Duco – Produzione resine – Vernice Dulox – Operaio al lavoro (1925 – 1940) (Ufficio fotografico Montecatini / Montecatini Edison / Montedison (1957/ 1985))

DUCO è un marchio che deriva dalla crasi di Dupont Coatings. La DuPont de Nemours è stata una delle principali industrie chimiche degli Stati Uniti, che iniziò la sua attività nel 1802 con la produzione di polvere da sparo e si sviluppò in seguito su altri settori della chimica diventando rapidamente la nota industria di rilevanza mondiale. Esiste tuttora, e in questo anno (2017) ha concluso una fusione con Dow Chemical, oggi la seconda più grande produttrice chimica al mondo.

Nella prima metà del secolo scorso la DuPont è stata fortemente impegnata nello sviluppo delle nuove pitture e vernici, sintetiche o semi-sintetiche, che venivano man mano rese possibili dallo sviluppo delle conoscenza nel campo della chimica delle macromolecole.

L’evoluzione di smalti e pitture da parte di DuPont in quel periodo è delineato nello schema seguente, da cui si capisce anche come le fortune dell’azienda siano dipese anche dallo stretto intreccio di interessi e alla collaborazione con General Motors, allora il principale produttore di automobili.

Ad Avigliana la Montecatini produceva le vernici Duco su licenza della DuPont de Nemours.

In particolare Levi parla di vernici alchidiche, come quelle prodotte negli anni della guerra e come quelle abbandonate perché impolmonite; son per l’appunto alchidiche le vernici di cui tratta la foto d’epoca dove leggiamo il nome Dulox. Nell’appendice alle pagine sparse delle Opere Complete di Primo Levi (a cura di M. Belpoliti, Einaudi Ed.) è riportata una relazione tecnica di Levi risalente agli anni di Avigliana, che reca il titolo “La puntinatura degli smalti Dulox”, dove si citano anche manuali di uso della Du Pont de Nemours.

Le pitture alchidiche continueranno ad essere prodotte per molti anni ancora dalla Montecatini, e per le più svariate applicazioni mentre il marchio Dulox esiste ancora oggi per una ampia gamma di prodotti vernicianti che hanno comunque formulazioni diverse da quelle con cui Levi ebbe a che fare.

E’ il mondo della chimica organica quello in cui comincia a muoversi Levi quando inizia la sua attività di chimico dopo la guerra; egli si trova a doversi occupare di resine e di composti polimerici, con la presenza di prodotti naturali e la fabbricazione di prodotti di sintesi. Un mondo dove, Levi confessa, ci vuole una certa cautela e non ci sono molte certezze quando non ci si può ancorare ‘….alla buona chimica inorganica……paradiso perduto per noi pasticcioni organisti e macromolecolisti.’ [Cromo]

Tanto che, quando è possibile, è ‘meglio ritornare fra gli schemi scoloriti ma sicuri della chimica inorganica’. [Azoto]

Dovendo lavorare con la materia organica Levi capisce presto quanto sia complessa, versatile, e importante. Ne La Chiave a Stella scrive: «…..una vernice è una roba più complicata di quanto uno si immagini». E inoltre:

«Mi sono accorto abbastanza presto che fare vernici è un mestiere strano: in sostanza vuol dire fabbricare pellicole, cioè delle pelli artificiali, che però devono avere molte delle qualità della nostra pelle naturale…….(che è) un prodotto pregiato. Anche le nostre pelli chimiche devono avere qualità che fanno contrasto: devono essere flessibili e insieme resistere alle ferite,………..devono avere dei bei colori delicati e insieme resistere alla luce; devono essere allo stesso tempo permeabili all’acqua e impermeabili, e questo appunto è talmente contradditorio che……»

Si tratta, pertanto, di competere con la natura, che ‘….ha risolto brillantemente (il problema)…con le membrane cellulari, il guscio delle uova, la buccia multipla degli aranci, e la nostra pelle.’ [Cerio]

Noi potremmo oggi aggiungere all’elenco gli altri sistemi oggi diventati di estremo interesse per chimici e scienziati dei materiali: le ali delle farfalle, le zampe del geco, il filo del ragno, l’adesivo della cozza……

Pensando a quanto sono utili i prodotti di questa chimica, Levi scrive in un capitolo del Sistema Periodico quanto gli avrebbe fatto comodo nella sua difficile situazione del Lager il polietilene: ‘………perché è flessibile, leggero e splendidamente impermeabile…..’   [Cerio]. Tuttavia: ‘….a quel tempo non esisteva…

Levi qui intende il polietilene come materiale assoluto per l’imballaggio, quale effettivamente è poi diventato. Può essere interessante ricordare che nel tempo della prigionia di Levi il polietilene, inventato pochi anni prima, era un materiale strategico – protetto da segreto militare – perché si era rivelato fondamentale per lo sviluppo delle apparecchiature radar, contribuendo nella seconda guerra mondiale in modo decisivo alla supremazia anglo-americana in campo aeronautico e navale.

Conclusa l’esperienza di Avigliana, è possibile che nel resto della sua attività di chimico delle vernici Levi non abbia mai più avuto a che fare con la DuPont e i suoi prodotti. Un contatto tuttavia con l’opera e la vita di Levi in area DuPont c’è stato, in anni più recenti, grazie ad una fortuita combinazione di eventi e di miei rapporti personali, che qui riporto.

Nella organizzazione di convegni sulla caratterizzazione dei polimeri per molti anni ho interagito con un ‘chimico macromolecolista’, responsabile di questo settore presso i laboratori centrali della DuPont, a Wilmington, nel Delaware. Quando nel 1997 mi stavo occupando della mostra sul Sistema Periodico a Chimica, mi capitò di parlargliene e questo collega fu subito talmente interessato da prospettare la ipotesi di portare la mostra negli Stati Uniti, coinvolgendo la ACS, Società Chimica Americana, o la Fondazione sulla Storia della Chimica di Filadelfia, o il Museo Nazionale dell’Olocausto a Washington. Questo progetto, ambizioso, non potè andare avanti allora, ma un paio di anni dopo Howard Barth (questo il nome del collega ricercatore) riprese l’iniziativa chiedendomi tutta la documentazione che potevo fornirgli sulla mostra e i documenti riguardanti Levi (tesi di laurea, diploma, immagini della Biblioteca, ecc.) per una presentazione che intendeva portare al convegno nazionale della Società Chimica Americana. Per alcuni mesi Howard si immerse nella vita e nelle opere, di Levi e il 27 Marzo 2000, a San Francisco, alla Divisione Storia della Chimica dell’ACS fece una relazione di cui riporto qui l’Abstract, con la copertina del convegno.

Per qualche tempo, dopo questa occasione, Howard Barth continuò ad essere coinvolto sull’argomento Levi e soprattutto sul ruolo di IG Farben nel campo di Auschwitz Monowitz, leggendo, raccogliendo documentazione e facendo diffusione. Per cercare di cogliere meglio ogni significato si mise anche a studiare l’italiano. Tenne ancora una conferenza su Primo Levi in una riunione della sezione del Delaware della ACS, citando espressamente la mostra sul Sistema Periodico della Università di Torino, e facendo poi proiettare l’importante documentario- intervista della BBC di cui gli avevo fatto avere una copia.

In uno dei resoconti che mi inviava scriveva anche di avere scoperto che Otto Ambrose, il chimico della IG Farben che aveva scelto Auschwitz come luogo dove impiantare la fabbrica della gomma Buna in modo da sfruttare il lavoro dei prigionieri, dopo aver scontato alcuni anni di reclusione a seguito della condanna da parte del tribunale di Norimberga, negli anni ’50 era stato nominato nel consiglio direttivo della W.R. Grace, un importante gruppo chimico americano.

Concludo sottolineando come nella vita e in tutta l’opera di Primo Levi, chimico e scrittore, il rapporto tra uomo e materia emerge come elemento fondamentale di crescita e di scoperte:

Vincere la materia è comprenderla, e comprendere la materia è necessario per comprendere sé stessi e l’universo’ scrive Levi [SP, Ferro]. Si tratta di un rapporto ambiguo, che Levi stesso ha così descritto all’epoca della pubblicazione del Sistema Periodico :

Anche il rapporto tra uomo e materia in questo libro è ambivalente. La materia è madre anche etimologicamente, ma insieme è nemica. Lo stesso si può dire della natura. D’altronde l’uomo stesso è materia ed è in conflitto con se stesso…… La materia è anche una scuola, la vera scuola. Combattendo contro di lei si matura e si cresce. In questo combattimento si vince o si perde……

(Intervista a Giorgio De Rienzo e Ernesto Gagliano, Stampa Sera 1975)

*Oscar Chiantore è  professore ordinario di Chimica e Tecnologia dei Polimeri presso la Facoltà di Scienze MFN della Università degli Studi di Torino. Svolge attività didattica sui materiali polimerici e sulla conservazione dei beni culturali , la sua ricerca riguarda la caratterizzazione e le applicazioni dei materiali polimerici.

“Scienza, quo vadis?”. Recensione.

Claudio Della Volpe

Scienza, quo vadis? Tra passione intellettuale e mercato.

Gianfranco Pacchioni, 11 euro Ed. Il Mulino

Recensione

La collana de Il Mulino Farsi un’idea è forse una delle più azzeccate scelte editoriali degli ultimi anni; libri brevi, compatti, ma densi, che svelano ed approfondiscono, attraverso esperti/protagonisti, aspetti critici della società moderna.

Anche il libro di cui vi parlo oggi fa parte di questa classe; 140 pagine per raccontare, anche attraverso le proprie esperienze personali, ma anche con tanti dati ben fondati e riassunti, il cambiamento che la Scienza ha vissuto e sta ancora vivendo negli ultimi 100 anni.

L’autore, Gianfranco Pacchioni, chimico teorico, è Prorettore all’Università di Milano Bicocca dove è stato direttore del Dipartimento di Scienza dei materiali. Per le sue ricerche ha ricevuto numerosi premi internazionali di prestigio, ha anche pubblicato altri libri su temi divulgativi.

Il titolo fa riferimento ad una famosa locuzione di origine apocrifa (che da il titolo anche ad un romanzo di fine ottocento che procurò al suo autore il premio Nobel per la letteratura nel 1905); la frase sarebbe stata pronunciata da Pietro che fuggiva da Roma incontrando il simulacro di Gesù; la risposta di Gesù avrebbe convinto Pietro a tornare sui suoi passi lasciandosi crocifiggere.

Dopo aver letto il libro ci si convince proprio di questo: che l’autore voglia indurre ad un ripensamento (o almeno ad una riflessione critica) chi fa scienza. Ma certo non per farsi crocifiggere!

La struttura del libro è agile e ben impostata; lo stile amichevole, ho trovato poche parole difficili e quelle poche usate senza boria. Insomma grande leggibilità.

L’argomento è diviso in 8 parti e ciascuna di esse è trattata con riferimento ad un esempio concreto il più delle volte tratto dall’esperienza personale dell’autore.

I temi dei primi capitoli, almeno apparentemente, sono quelli che potremo definire meno controversi; ma non è vero. Probabilmente lo sono per chi nella scienza ci lavora, ma non ho dubbi che ci siano molte persone e anche parecchi politici che non sarebbero d’accordo; per esempio sull’importanza della scienza di base, delle ricerche dettate essenzialmente dalla curiosità e non dall’interesse applicativo; purtroppo l’idea che certi tipi di ricerche non servano se non a chi li fa è molto comune e la ignoranza della storia della ricerca aiuta questa misconcezione, che di fatto è anche alla base di parecchi grandi finanziamenti; se non ci sono aziende interessate pare che i grandi progetti europei non abbiano senso; mi permetto di dissentire.

L’autore secondo me giustamente fa notare che praticamente tutte le grandi scoperte degli ultimi anni sono frutto di questo tipo di ricerca curiosity driven, spinta dalla curiosità, ed hanno avuto effetti enormi sulla nostra società.

L’altro argomento che pure pare scontato ma non lo è, almeno per il grande pubblico, mentre appare evidente a quelli della mia generazione (che è poi quella di Pacchioni) che lo hanno vissuto e che potrebbero portare esempi simili a quelli del libro è il grandissimo cambiamento della ricerca negli ultimi 50 anni (la cosa potrebbe non essere così evidente per i giovani ricercatori). Chi è abituato a fare un plot in pochi secondi con Excel o Kaleida potrebbe non capire che i due lavori all’anno di una volta implicavano tanto impegno quanto i venti lavori annui di alcuni di oggi. Siamo passati da una attività di nicchia, quasi artigianale ad attività di fatto industriale cambiando molti dei modi concreti di operare e coinvolgendo meccanismi complessi e difficilmente gestibili.

E’ cambiata non solo la dimensione delle cose, ma anche la velocità della produzione e (a volte) la sua qualità, e di più alcuni dei metodi di controllo della qualità (come si potrebbero chiamare in gergo industriale i processi di peer review) si dimostrano inadeguati, difficili da adattare alle nuove dimensioni. Questo ha favorito lo svilupparsi di una serie di meccanismi fraudolenti, la cui dimensione e la cui importanza sono spesso correlati con le dimensioni e l’importanza applicativa della scienza. Abbiamo ricordato di recente il caso poliacqua, che però attenzione non fu una frode, fu una incomprensione, un errore; ben diverso dal caso recente di Hendrik Schön, una vera truffa, raccontato da Pacchioni. In entrambi il metodo scientifico e il confronto fra pari sono stati si capaci di rivelare il problema, ma in entrambi si sono dimostrati lenti, probabilmente troppo. E questo della lentezza è dopo tutto uno dei temi del testo.

Ho apprezzato la illustrazione ben fatta dei vari termini che si usano in ambito scientifico che spesso né il grande publico né i giornalisti comprendono appieno: dalla valutazione della ricerca ai meccanismi specifici come il peer review, l’impact factor, etc. con una analisi critica del loro significato.

Qui val la pena di una citazione per la quale ringrazio Rinaldo Cervellati:

Richard R. Ernst (Premio Nobel per la Chimica, 1991) ha scritto:

And as an ultimate plea, the personal wish of the author remains to send all bibliometrics and its diligent servants to the darkest omnivoric black hole that is known in the entire universe, in order to liberate academia forever from this pestilence. And there is indeed an alternative: Very simply, start reading papers instead of merely rating them by counting citations. (Chimia, 2010, 64, 90)*

*rivista ufficiale della Swiss Chemical Society

Pacchioni appare combattuto fra le due visioni diverse della Scienza che emergono dall’analisi storica che egli stesso compie; ne vede aspetti negativi e a volte positivi; e non è il solo. La parte interessante di questa analisi è anche nel denunciare il legame di queste contraddizioni con le altre maggiori contraddizioni della nostra società: riferendosi ad esse Pacchioni scrive:

in un mondo che evolve in queste direzioni, non si può pretendere che la scienza resti un’isola felice e incontaminata, una sorta di porto franco totalmente immune da processi involutivi

Però ecco, se posso dare un contributo critico, qui mi sarei aspettato un passo avanti, un saltino che altri colleghi come Balzani o Armaroli, egualmente bravi sembrano aver fatto: la Scienza può indicare un cammino proprio sulla base dei contenuti che scopre nell’evoluzione tecnica, naturale, sociale ed economica dell’Umanità; per esempio la insostenibilità dei meccanismi di mercato e di crescita infinita è palese, la necessità di un mondo organizzato su basi diverse, più umane e non economicistiche è dimostrabile a partire dalla distruzione dell’ecosistema che la chimica e le altre scienze rivelano.

Dunque una riforma, chiamiamola così, della scienza è possibile insieme ad una riforma del meccanismo economico iperproduttivistico e di crescita continua che l’economia, come è misconcepita ora, tenta di imporci. Non più ricambio organico fra uomo e natura, ma un fondamento autoreferenziale di crescita quantitativa a tutti i costi che si vuole applicare anche alla scienza.

Il libro pone essenzialmente delle domande a cui suggerisce una parziale risposta; e porre domande giuste è dopo tutto il compito dello scienziato, porre domande prima che fornire risposte. Quella che mi ha colpito di più è : Siamo troppi? Che da il titolo al capitolo 6; domanda a cui l’autore non fornisce una risposta ma per la quale fornisce molto materiale, anche non comunemente disponibile sui numeri dei ricercatori nel mondo. Pone anche il problema della definizione dell’attività di ricerca e dello scienziato; ci sarebbe da approfondire di più il senso di questa crescita.

Una chiave di risposta per esempio la suggerisce il collega Luca Pardi del CNR (si veda il recente Picco per capre, ed. Lu.Ce di L. Pardi e J. Simonetta); man mano che ogni iniziativa umana si sviluppa diventa sempre più difficile farla funzionare bene: crescono la complessità ma anche le resistenze interne, la dissipazione; o se volete il costo entropico del sistema aumenta; teoricamente potete organizzare sempre più, ma avete bisogno di dissipare sempre più energia per tenere in piedi l’organizzazione; ma questa è una ipotesi che fanno altri.

Del tutto condivisibile la rivendicazione della slow science che è ormai diventata movimento e che conclude la parte creativa del volume, di una scienza non preoccupata della velocità e della quantità, ma solo dei contenuti e della correttezza etica, e che proprio per questo si dà i tempi che le servono. Anche se qui ci avrei aggiunto la necessità di facilitare le interazioni fra settori; rivendicare solo la specializzazione può far travisare le cose; in Italia abbiamo addirittura la follia di avere una tumulazione dei contenuti scientifici in circa 400 tombette chiamate settori disciplinari, che esistono solo da noi e che, quelli si, sono da eliminare quanto prima.

Anche perchè è anche lo scambio e il contatto fra settori diversi che crea nuove idee e concezioni e modelli.

In coda al testo una ampia bibliografia molto utile per coloro che volessero approfondire i temi discussi dall’autore. Anche solo per questo il libro dovrebbe entrare nella bibiliotechina di ogni scienziato critico.

Scienziate che avrebbero dovuto vincere il Premio Nobel: Maud Leonora Menten (1879-1960)

Rinaldo Cervellati

Tutti i chimici e i biochimici hanno incontrato, nel loro percorso di studi l’equazione di Michaelis-Menten, che interpreta la velocità delle reazioni catalizzate da enzimi attraverso i due parametri Vmax e Km e definisce l’efficienza di un enzima come il rapporto kcat/Km.

Non tutti sanno però che Menten era una donna, precisamente Maud Leonora Menten.

Nata il 26 luglio 1860 a Port Lambton, Ontario (Canada), poco si sa della sua famiglia e della sua infanzia, è certo comunque che si spostarono da Port Lambton a Harrison Mills, nella British Columbia dove la madre lavorò come impiegata postale.

Maud Menten a 7 anni

Dopo aver completato gli studi secondari, Menten frequentò gli studi di medicina all’università di Toronto, ottenendo il B.A. nel 1904 e il M.A. in fisiologia nel 1907. Durante gli studi lavorò come esercitatore nel laboratorio di fisiologia dell’università.

Come studentessa di talento, in grado di applicarsi per molte ore al giorno, Menten ottenne una borsa di ricerca al Rockefeller Institute for Medical Research di New York nel 1907. Qui studiò l’effetto del bromuro di radio sui tumori cancerosi nei ratti, insieme a altri due ricercatori pubblicarono i risultati nella prima monografia dell’istituto [1]. Dopo l’Istituto Rockefeller, Menten fece un breve stage presso l’Infermeria di New York per donne e bambini, quindi tornò a Toronto per concludere gli studi di medicina. Nel 1911 divenne una delle prime donne canadesi a ricevere il Medicine Doctor (MD)[1].

Menten in laboratorio

L’anno seguente Menten si recò a Berlino per studiare il meccanismo di azione degli enzimi con il biochimico tedesco, Leonor Michaelis[2], in un ospedale municipale di Berlino, dove Michaelis aveva accettato un posto di batteriologo ma si occupava anche, insieme all’amico chimico Peter Rona, di problemi chimico-fisici. Secondo A. Cornish- Bowden [2]: “ci sono pochi dubbi che il suo interesse [di Menten] nel lavorare con Michaelis e nell’ottenere un dottorato in biochimica fosse motivato dalla convinzione che un’approfondita conoscenza della biochimica sarebbe stata fondamentale per il progresso nella ricerca medica che costituiva il suo obiettivo a lungo termine.”

Michaelis e Menten studiarono in dettaglio la reazione di inversione del saccarosio (substrato) in glucosio e fruttosio (prodotti) catalizzata dall’enzima[3] invertina (poi chiamato invertasi). Lavorarono in ambiente tamponato a pH e temperatura costante, seguendo l’andamento della reazione per via polarimetrica. In base all’ipotesi che il saccarosio e l’enzima formino un composto (intermedio) molto labile che rapidamente evolve nei prodotti[4], formularono un modello che sviluppato matematicamente forniva curve velocità di reazione vs. concentrazione del substrato in ottimo accordo con i dati sperimentali. L’equazione che svilupparono, formalmente proposta nel 1912 e pubblicata nel febbraio 1913 [3], è ora chiamata in tutti i testi di cinetica e biochimica come equazione di Michaelis-Menten.

Menten e Michaelis

Essi determinarono il valore della costante k (Ks), senza quello di Vmax in base all’andamento della velocità della reazione (in termini di unità di gradi di rotazione ottica al minuto) a diverse concentrazioni iniziali di saccarosio con un procedimento matematico lungo e abbastanza complicato. Michaelis e Menten andarono poi oltre l’analisi limitata al saccarosio, rendendosi conto che il legame substrato-enzima poteva estendersi anche ai prodotti della reazione, fruttosio (F) e glucosio (G), quindi si rendeva necessario estendere il modello per testarne la validità. Cosa che infatti fecero con successo anche su miscele saccarosio/mannitolo e saccarosio/lattosio [3c].

Per il loro trattamento matematico, Michaelis e Menten considerarono il legame saccarosio-invertasi all’equilibrio durante il corso della reazione. L’equazione originale è leggermente diversa da quella che conosciamo [4]. Viene generalmente applicata l’approssimazione dello stato stazionario all’intermedio substrato-enzima, metodo introdotto per l’analisi dei modelli cinetici solo dopo la pubblicazione del lavoro dei due scienziati, più precisamente da David Chapman e Max Bodenstein che la sviluppò nello stesso 1913 applicandola al meccanismo a catena nei casi di particolari reazioni consecutive [5].

L’applicazione dell’approssimazione dello stato stazionario al modello di Michaelis-Menten, così come lo presentiamo oggi ai nostri studenti, è dovuta a G. Briggs e J. Haldane [6].

  1. Johnson [4], autore di una interessante rivisitazione dell’ articolo originale Di Michaelis e Menten si dice sorpreso che i due ricercatori, così abili in matematica, non abbiano pensato a linea rizzare la loro equazione facendone il reciproco. Essi avevano già raggiunto il risultato eccezionale della caratterizzazione delle cinetiche enzimatiche attraverso la Ks. Fatto sta che ci vollero più di venti anni prima che l’idea venisse sviluppata da H. Lineweaver e D. Burk [7] con il loro famoso diagramma chiamato del doppio reciproco. Graficando 1/v contro 1/[S], i punti sperimentali sono ben interpolati da una retta che, estrapolata fino a incontrare gli assi fornisce i valori 1/Vmax e –1/Ks, intercette con x e y rispettivamente, con coefficiente angolare Ks/Vmax. Un metodo davvero molto semplice per ottenere i due parametri caratteristici di una cinetica enzimatica, curioso è il fatto che il loro articolo è ancora il più citato (più di 11000 citazioni) fra quelli apparsi sul Journal of the American Chemical Society.

Tuttavia l’equazione di Michaelis-Menten resta la base dell’enzimologia moderna, ed è stato (e è ancora) il punto di riferimento per la maggior parte degli studi cinetici sulle reazioni enzimatiche. Inoltre, lo sviluppo di molti farmaci e forme farmaceutiche nel XX secolo a oggi non sarebbe stato possibile senza lo studio pionieristico di Michaelis e Menten. Si deve anche considerare che nel 1913 si sapeva poco sull’azione degli enzimi, inclusa la loro natura chimica.

Sebbene il merito della ricerca sia da attribuire in egual misura a entrambi i ricercatori, per molto tempo Maud Menten fu considerata semplicemente come “assistente” di Micaelis e la costante Ks, indicata con Km viene in generale chiamata costante di Michaelis. Ciò, secondo R. Skloot [8] è dovuto in gran parte al fatto che nell’articolo pubblicato, al nome Maud L. Menten viene premesso il titolo “Miss”. Ma, più plausibilmente io ritengo che la sottovalutazione del contributo di Menten sia dovuto all’”effetto Matilda” di cui ho parlato in un precedente post. Quel “Miss” potrebbe anche significare che Menten non aveva ancora ottenuto il Ph.D. il che casomai ne valorizzava il contributo (v. nota 1).

Dopo il periodo berlinese, Menten si recò negli Stati Uniti a Cleveland, dal 1915 al 1916 studiò fenomeni collegati all’insorgenza di tumori alla Western Reserve University nel laboratorio di George W. Crile, il primo chirurgo a effettuare con successo una trasfusione diretta di sangue. Durante lo stesso periodo si iscrisse all’Università di Chicago, dove nel 1916 conseguì il dottorato in biochimica discutendo una tesi sull’alcalinità del sangue nei tumori e in altre patologie.

Successivamente, dal 1918 al 1950 ha lavorato all’Università di Pittsburgh nella School of Medicine diventando prima professore assistente, poi professore associato e direttore del Reparto di Patologia dell’Ospedale Pediatrico di Pittsburgh, fu infine nominata full professor nel 1948. In questo lungo periodo Menten ha effettuato numerose ricerche applicando le sue conoscenze chimico fisiche in campo medico (ematologia, patologia, chemioterapia), pubblicando circa un centinaio di articoli, realizzando così il progetto che si era prefissa con il periodo berlinese. Fra le altre, ha studiato la reazione dei coloranti azoici per la fosfatasi alcalina, ancora utilizzata in istochimica [9], ha caratterizzato le tossine batteriche da B. paratyphosus, Streptococcus scarlatina e Salmonella ssp., utilizzate con successo in un programma di immunizzazione contro la scarlattina. Ha anche condotto la prima separazione elettroforetica delle proteine emoglobiniche, ha lavorato sulle proprietà dell’emoglobina, sulla regolazione del livello di zucchero nel sangue e sulla funzione renale [10]. Altre ricerche hanno riguardato le ossidasi [11], la vitamina C [12], l’istochimica del glicogeno e gli acidi nucleici nel midollo osseo.

Dopo il pensionamento continuò per alcuni anni a lavorare in Canada, all’Istituto di Ricerche Mediche della British Columbia. Muore nel 1960 all’età di 81 anni.

Menten aveva una capacità di lavoro non comune, in certe occasioni era in grado di lavorare per 18 ore consecutive al giorno. Come se non le bastassero gli impegni di lavoro, essa aveva anche una varietà di interessi al di fuori della scienza. Amava la musica, era una brava clarinettista, pittrice e linguista (parlava russo, francese, tedesco, italiano e almeno una lingua dei nativi americani).

Omaggio a Maud Menten

Nel necrologio per Nature, A. Stock e A-M Carpenter [13] scrivono di lei:

Menten era instancabile nei suoi sforzi a favore dei bambini malati, era un’insegnante eccellente che sapeva come stimolare studenti, medici e colleghi di ricerca, sarà da questi a lungo ricordata per la mente acuta e l’ingegno, per la dignità dei modi, per la modestia discreta, e soprattutto per il suo entusiasmo nella ricerca.

Bibliografia

[1] Jobling, J W; Flexner, Simon; Menten, Maud L (1910). Tumors of animalsRockefeller Institute for Medical Research.

[2 ] A. Cornish-Bowden, Part 2: Maud Leonora Menten (1879–1960): her career as an experimental pathologist., in: Ute Deichmann et. Al. Commemorating the 1913 Michaelis–Menten paper Die Kinetik der Invertinwirkung: three perspectives. FEBS Journal, 2014, 281, 435–463.

[3] a) L. Michaelis, Miss M.L. Menten, Die Kinetik der Invertinwirkung, Biochemische Zeitschrift, 191349, 335–369. Trad. Ingl. T.R.C. Boyde in FEBS Letters, 2013, 587, 2712–2720; b) R.S. Goody, K.A. Johnson (translated by), The Kinetics of Invertase Action (Die Kinetik der Invertinwirkung, Von L. Michaelis and Miss Maud L. Menten,

Fai clic per accedere a The%20Kinetics%20of%20Invertase%20Action-1.%20Translation%20of%20Michaelis%20Menten..pdf

[4] K.A. Johnson, R.S. Goody, The Original Michaelis Constant: Translation of the 1913 Michaelis− Menten Paper, Biochemistry, 2011, 50, 8264-8269.

http://dsec.pku.edu.cn/~tieli/notes/stoch_topics2015/MMHist.pdf

[5]  M. Bodenstein, Eine Theorie der photochemischen Reaktionsgeschwindigkeiten, Z. Phys. Chem., 1913, 85, 390–421.

[6] G.E. Briggs, J.B.S. Haldane, A note on the kinetics of enzyme action. Biochem. J., 1925 19, 338−339.

[7] H. Lineweaver, H., D. Burk, The determination of enzyme dissociation constants. J. Am. Chem. Soc. 1934, 56, 658−666.

[8] R. Skloot, Some called her Miss Menten,

http://smilesandvials.tumblr.com/post/105938755686/some-called-her-miss-menten-rebecca-skloot

  1. anche: K. Rogers, Maud Leonora Menten, https://www.britannica.com/biography/Maud-Leonora-Menten

[9] a) M.L. Menten, J. Junge, M.H. Green, Distribution of alkaline phosphatase in kidney following the use of histochemical azo dye test, Proceedings of the Society for Experimental Biology and Medicine1944, 57, 82–86; b) M.L. Menten, J. Junge, J., M.H. Green, A coupling histochemical azo dye test for alkaline phosphatase in the kidney, Journal of Biological Chemistry, 1944, 153, 471–477.

[10] M.A. Andersch, D.A. Wilson, M.L. Menten, (1944). Sedimentation constants and electrophoretic mobilities of adult and fetal carbonylhemoglobin. Journal of Biological Chemistry, 1944, 153, 301–305.

[11] M.L. Menten, A study of the oxidase reaction with a-naphthol and paraphenylenediamine,  Journal of Medical Research, 1919, 40, 433 – 457.

[12] C.G. King, M.L. Menten, The influence of vitamin C level upon resistance to diphtheria toxin I. Changes in body weight and duration of life, Journal of Nutrition, 1953, 10: 129–140.

[13] A. Stock, A.-M. Carpenter, Prof. Maud Menten. Nature,1961, 189 (4769), 965.

[1] In Canada, il M.D. è il diploma in medicina richiesto per praticare la professione. Anche se il M.D. è un diploma professionale e non un dottorato di ricerca, molti M.D. conducono ricerche scientifico cliniche, pubblicano su riviste specializzate e sono generalmente chiamati medici-ricercatori.

[2] Leonor Michaelis (1874-1949) biochimico, chimico-fisico e medico fisiologo iniziò a occuparsi di enzimologia nel 1904 pubblicando il primo lavoro sul meccanismo degli enzimi nel 1907 (E. Abderhalden, L. Michaelis, Der Verlauf der fermentativen Polypeptidspaltung. Hoppe-Seyler’s Z Physiol Chem 1907, 52, 326–337). E’ considerato uno dei fondatori della biochimica moderna (chiamata allora chimica fisiologica) per le sue ricerche che spaziano dalle proteine alle membrane cellulari fino alla biochimica dei mitocondri. Ebreo, amico di Einstein, fu poco riconosciuto in Germania dove gli fu negata la posizione di professore universitario. Fu professore di biochimica prima in Giappone e poi negli USA, alla Johns Hopkins University of Baltimora e infine a New York al Rockefeller Institute for Medical Research. (v. [2])

[3] Nell’articolo originale in tedesco Micaelis e Menten si riferisco al’enzima con il termine “ferment”. Tuttavia la parola “enzima”, fu introdotta nel 1878 dal fisiologo tedesco Wilhelm Kühne (1837-1900) e largamente usata in lingua inglese.

[4] Questa ipotesi fu fatta da Victor Henri (1872-1940) chimico fisico francese di origine russa che in base a essa cercò di ricavare un’equazione fra velocità di reazione e concentrazione del substrato. Egli però, come fecero notare Michaelis e Menten, trascurò l’influenza di H+ e la lenta mutarotazione dei prodotti. A causa di ciò non riuscì a confermare la sua equazione. Henri fu autore di numerose ricerche in campo biochimico e fisiologico e è considerato comunque un pioniere della cinetica enzimatica.

Glifosato: dove siamo? Parte prima: alcuni fatti.

Claudio Della Volpe

Continuo a parlarvi di glifosato dato che nelle ultime settimane la Commissione europea ha deciso di rinnovarne il permesso d’uso per 5 anni. Lo ha fatto a maggioranza dopo un voltafaccia della Germania. L’Italia e la Francia han votato contro. Ovviamente questa situazione ha scatenato le proteste da entrambe le parti in causa ed ha anche scatenato un attacco contro lo IARC, che è un organismo dell’OMS che da sempre si occupa del pericolo delle sostanze cancerogene e che qualche tempo fa aveva classificato il glifosato come potenzialmente cancerogeno. C’è stato anche un intervento su Repubblica della senatrice Elena Cattaneo che commenterò nella 2 parte del post. Dedico questa prima parte ad alcune informazioni sulla molecola che vi riporto qua nella forma in cui le uso per farmi un’idea, raggruppandole per settore e sottolineando le cose che comunemente non si dicono.

Vorrei con voi guardare al glifosato da un punto di vista più generale; ne abbiamo già parlato in precedenti post (https://ilblogdellasci.wordpress.com/2017/07/31/ma-insomma-il-glifosato-e-o-non-e-cancerogeno/); ma proviamo ad allargare il punto di vista.

Cosa è il glifosato.

Il glifosato è un fosfonato sintetico, un derivato dell’acido fosfonico. Dunque una molecola del tipo:

Estere  e derivato dell’acido fosfonico

Acido fosfonico

2-amminoetilfosfonato, fosfonato naturale presente in molte membrane di piante e animali

fosfomicina, antibiotico vie urinarie

Come vedete in tutti i casi il ruolo del fosfonato viene deciso dalla sostituzione in R3; nel caso del glifosato abbiamo:

Glifosato, acido fosfonometilamminoacetico

Si può vedere anche come un derivato fosforilato dell’aminoacido glicina, N-fosfono metilglicina; la glicina, il più semplice amminoacido che costituisce la parte a destra della molecola; il gruppo fosfonico è attaccato sull’azoto dell’aminoacido.

Perchè faccio questa introduzione? Perchè è utile sottolineare come tutte le molecole che usiamo hanno un senso e una struttura ben precisi; e sono spesso analoghe di altre buone o cattive, velenose o utili; i fosfonati sono usati come agenti addolcenti dell’acqua, essendo chelanti; abbiamo parlato di questo meccanismo nel post sui prodotti anticalcare.

Sono impiegati come additivi con vari ruoli, come chelanti ed inibitori della corrosione, disperdenti, flocculanti, etc. nella formulazione degli anticalcare e nei detersivi c’è un ruolo crescente dei fosfonati dopo la decisione UE di ridurre i fosfati nei detersivi, che è del 2012; oggi i fosfonati hanno un mercato mondiale di oltre 500.000 ton, di cui in Europa oltre 130.000; per paragone il derivato fosfonico glifosato è prodotto in oltre 800.000 ton di cui in USA circa 125.000.( https://enveurope.springeropen.com/articles/10.1186/s12302-016-0070-0)

Aggiungo che c’è una seconda molecola di questa classe che viene usata come erbicida ma è presente in natura e che si chiama glufosinato; come vedete il glufosinato ha un atomo di carbonio in più nella catena R3 e il legame fra amminoacido e fosfonato non è sull’azoto amminico ma sul carbonio. Il glufosinato a differenza del glifosato è parecchio più persistente in ambiente.

Il glufosinato (o fosfinotricina) è un erbicida sistemico naturale ad ampio spettro prodotto da parecchie specie del batterio del suolo Streptomyces. Le piante trasformano un altro erbicida il bialaphos, anch’esso naturale in glufosinato. Esso funziona inibendo l’enzima glutaminasintetasi necessario alla sintesi della glutamina e alla eliminazione dell’ammoniaca. Per questo motivo esso ha anche proprietà antibatteriche, antifungine.

Diciamo che stiamo ancora una volta facendo un esperimento di massa spargendo ampiamente derivati fosfonati sintetici e naturali nelle acque superficiali. Vedremo come va a finire; vi racconterò come apparentemente siano molecole molto maneggevoli, ma anche altre volte in passato ci siamo sbagliati in queste valutazioni e maggiore è l’uso di una tipologia di molecole maggiori sono i rischi.

Meccanismo di azione.

(Glyphosate Resistance in Crops and Weeds: History, Development, and Management Vijay K. Nandula (Editor) July 2010)Il glifosato uccide le piante interferendo nella sintesi degli amminoacidi aromatici (fenilalanina, tirosina, triptofano) nella cosiddetta via dello shikimato; ottiene lo scopo inibendo un enzima il 5-enolpiruvilshikimato-3-fosfato sintetasi (sigla: EPSPS), che catalizza la reazione dello shikimato-3-fosfato e del fosfoenolpiruvato per formare il 5-enolpiruvil-shikimato-3-fosfato (EPSP), come mostrato nello schema precedente.

Esso viene assorbito attraverso le foglie e pochissimo dalle radici; ne segue che sia attivo sulla pianta in crescita e non possa impedire ai semi delle infestanti di germinare. Una volta entrato in circolo nella pianta in crescita lo shikimato si accumula nei tessuti costringendo la pianta a concentrarsi sulla sua eliminazione. La crescita della pianta si ferma entro poche ore dall’applicazione mentre ci vogliono alcuni giorni per l’ingiallimento delle foglie. I raggi X hanno mostrato che il glifosato occupa il sito di legame del fosfoenolpiruvato; esso è in grado di inibire l’enzima di diverse specie di piante e di microbi.

Fosfoenolpiruvato vs glifosato

Questa via metabolica non esiste negli animali. Questa è la base, la condizione per la maneggevolezza del glifosato. Attenzione però ciò non esclude altri meccanismi di azione, il fatto che il glifosato non possa espletare la sua azione principale sulle cellule animali non esclude che possa espletarne altre, tanto è vero che come vedremo nella seconda parte ci sono delle indicazioni di rischio ben precise da parte di ECHA (H318 e H411), che implicano azioni tossiche sia sull’uomo che sugli animali. Ne riparleremo nella seconda parte (ne abbiamo accennato in passato).

E’ interessante notare che il glifosato sia uno zwitterione; infatti dato che l’acqua è normalmente esposta all’atmosfera ed è quindi in equilibrio con CO2 a circa 5.5 di pH avremo che il gruppo più acido si dissocierà mentre quello più basico si associerà:(da una presentazione di Arpat, Michele Mazzetti)

Questo spiega la significativa solubilità del glifosato in acqua, 12g/litro circa 0.07M e la relativa insolubilità in solventi organici.

Che fine fa?

Si adsorbe fortemente sul suolo e in genere si stima sia immobilizzato, ma badate è immobilizzato sulle particelle del suolo, ma può circolare in questa forma adsorbita. I microbi del suolo lo degradano ad acido amminometilfosfonico (AMPA) che anch’esso teoricamente si adsorbe sul suolo. Di fatto entrambi, glifosato ed AMPA si ritrovano nel suolo; c’è da notare che esiste una via potenziale di inquinamento da AMPA alternativa ed è quella dei detersivi contenenti derivati fosfonici. Tuttavia il peso relativo delle due forme di inquinamento da AMPA è in discussione. (non confondete AMPA con un’altra molecola che pure usa questa sigla ed è completamente diversa, l’ acido α-ammino-3-idrossi-5-metil-4-isoxazolpropionico ) (Chemosphere 77 (2009) 133–139 e Chemosphere 47 (2002) 655–665).

AMPA da glifosato

anche questa molecola usa l’acronimo AMPA, ma ha tutt’altra origine.

La semivita del glifosato nel suolo è di circa 50 giorni. E’ stato suggerito che la emivita sia più breve in acqua dolce, ma anche più lunga in acqua di mare con effetti possibili sulle barriere coralline (Marine Pollution Bulletin>

Volume 85, Issue 2, 2014, Pages 385-390).

 

I ricercatori dell’Università della California presso la San Diego School of Medicine hanno confrontato i livelli di glifosato nell’urina di 100 persone in un arco di tempo di 23 anni. Hanno cominciato dal 1993, l’anno prima dell’introduzione, da parte della Monsanto, di coltivazioni geneticamente modificate resistenti al Roundup, nome commerciale dell’erbicida. Da quando queste colture si sono diffuse, l’uso del diserbante nel mondo è aumentato di circa 15 volte.

Nelle urine dei partecipanti le quantità di glifosato sono passate da una media di 0,20 microgrammi per litro del periodo 1993-1996 a una media di 0,44 microgrammi per litro del 2014-2016. Le dosi sono ben al di sotto degli 1,75 milligrammi per chilo di peso corporeo fissati come soglia limite di esposizione dall’Agenzia per la protezione ambientale degli Stati Uniti, e dei 0,3 milligrammi per chilo stabiliti dall’Efsa, l’Autorità europea per la sicurezza alimentare. È comunque un aumento importante, che passa in gran parte inosservato, che dipende dall’ampia diffusione, negli USA, di coltivazioni Ogm resistenti al diserbante (prima soia e mais, ora anche grano e avena)”

Il glifosato si ritrova in giro nei cibi e in acqua e dunque si ritrova poi nei nostri tessuti; questo avviene in quantità molto basse, ma è spiacevole sapere che senza che lo vogliamo atomi o molecole sintetiche di questo tipo ci entrino dentro; succede per molte altre specie: il mercurio, il DDT e oggi anche per il glifosato; certo i limiti di tossicità stabiliti ufficialmente sono parecchio più alti delle quote che si ritrovano nei tessuti umani ma il fatto stesso che non ci sia certezza del livello di sicurezza (1750mg pro kilo pro die in USA, 300 mg pro kilo pro die in UE) lascia perplessi.

Brevetti e interessi.

I brevetti relativi alla produzione di glifosato sono scaduti, in questo senso potrebbe sembrare che la sua produzione sia “libera”; ma di fatto ne sono subentrati altri molto più interessanti quando il glifosato è stato scelto come sostanza di elezione con cui correlare la genetica di semi di varie specie modificata con metodi OGM (ma la cosa in se non è particolarmente importante, non credo nei danni da OGM, non è questo lo sottolineo l’oggetto del contendere) in modo da essere resistente al glifosato stesso; in questo modo l’idea è che uno può avere su un campo in cui si usino tale tipo di semi solo la specie resistente, mentre tutte le altre non lo sarebbero. Questa idea è alla base di una crescente importanza dell’uso del glifosato il cui uso è dunque cresciuto soprattutto per questo motivo. I brevetti importanti sono quelli su questi semi non sul glifosato.

Tuttavia rimane un’altra cosa che pochi sanno; che pur essendo “fuori brevetto”, a causa del meccanismo delle cosiddette lettere di accesso (Letter of Access, LoA), un portato del REACH, la Monsanto continua a detenere diritti diretti sul suo uso. In pratica gli altri pagano per avere diritto ad usare i dati in suo possesso che servono alla registrazione REACH.

Sviluppo di resistenza al glifosato.

L’uso di erbicidi o di pesticidi come di antibiotici, cioè di sostanze che interagiscono con la vita di alcune specie colpendo alcuni dei loro processi vitali attraverso il blocco o la competizione con i loro enzimi ha come effetto una risposta di tipo adattativo; la selezione naturale selezionerà quei mutanti che possono usare enzimi diversi mutati e che resistano all’attacco subito. Tenete presente che questo tipo di risposta adattativa è tipica delle specie viventi a qualunque livello e dipende fondamentalmente dalla velocità riproduttiva; nel caso dei batteri che si riproducono in un tempo inferiore all’ora il numero di generazioni è talmente grande che l’adattamento può svilupparsi con grande velocità; prova ne sia che buona parte degli antibiotici che abbiamo sviluppato nel tempo sono diventati oggi inutili; è un argomento di cui abbiamo parlato in altri post a proposito del crescente problema delle resistenze batteriche (https://ilblogdellasci.wordpress.com/2017/11/29/il-mercato-del-sapere/).

Nel caso delle piante o degli insetti la velocità riproduttiva è minore ma comunque la risposta adattativa si sviluppa lo stesso; si sviluppa anche negli umani in risposta alle pressioni ambientali e di altre specie, dunque nulla di strano. Ci si deve aspettare perciò che la strategia dell’erbicida o del pesticida possa entrare in crisi; il DDT per esempio oggi non viene più usato se non i casi molto specifici non solo perchè è un POPs, ma anche a causa di questo tipo di risposta da parte delle zanzare. La medesima risposta avviene anche nel caso degli erbicidi.

Nature ha trattato il tema varie volte introducendo il tema dei cosiddetti “supersemi”, che resistono ai vari tipi di erbicidi (24|NATURE|VOL497|2MAY2013); la Union of concerned Scientists ci ha scritto un documento; al momento la situazione glifosato è che nelle zone di maggiore impiego come gli USA una percentuale significativa di varie piante è resistente al glifosato; in Illinois l’Università segue regolarmente la cosa con una relazione annuale. In quel caso si possono avere infestanti resistenti al glifosato nell’80% dei casi. A livello mondiale 24 specie invasive finora hanno sviluppato resistenza al glifosato.

Contemporaneamente come nel caso degli antibiotici è anche diminuito l’interesse delle grandi compagnie ad investire nella scoperta di nuovi erbicidi:

Esattamente come nel caso degli antibiotici ci avviamo verso un’era in cui i vecchi erbicidi (o pesticidi) diventano meno efficienti mentre diminuisce l’interesse ed aumenta il costo di investimento per svilupparne di nuovi.

(continua).

Gli odori degli oggetti di una volta

Rinaldo Cervellati

Nella Chemistry & Engineering newsletter on-line del 21 novembre scorso è contenuto un articolo dal titolo “How science may help us smell the past”, letteralmente “Come la scienza ci può aiutare ad annusare il passato”, di Carrie Arnold, che ritengo particolarmente interessante per coloro che si occupano di protezione e conservazione dei Beni Culturali oltre che curioso per tutti.

L’autore parte da un’osservazione che più o meno è stata sperimentata da molti. Racconta Arnold: Quando la scrivania in legno di pino di Henry David Thoreau[1] arrivò alla Morgan Library & Museum di Manhattan per una mostra speciale sulla vita dello scrittore, la curatrice Christine Nelson non poté resistere e aprì uno dei cassetti ricevendo una zaffata di odori particolari, un sentore di legno che le fecero venire in mente i profumi del bosco e l’immagine di Thoreau seduto alla scrivania mentre scrive il suo famoso libro Walden, ovvero la vita nei boschi. Dice letteralmente Nelson: “Quando ho messo la testa sulla scrivania e ho sentito l’odore di questo vecchio pino, sono stata sopraffatta dall’emozione e dal senso di connessione con il passato e con questo personaggio”.

Attualmente Christine Nelson fa parte di un gruppo di ricercatori che cercano di identificare gli odori della storica Morgan Library.

Un numero crescente di scienziati e storici è impegnato in ricerche simili per decostruire e ricreare gli odori del passato. I risultati di queste ricerche potrebbero influenzare il modo in cui consideriamo il passato e quello con cui gli scienziati lavorano per preservarlo. Ad esempio, alcuni odori sono segni di decadimento degli artefatti storici che i restauratori potrebbero quindi provare a fermare o rallentare. È accertata la relazione simbiotica tra l’olfatto e l’emozione, quindi la decodifica di ciò che le persone avrebbero potuto odorare può contribuire alle idee che gli storici si fanno su come si sentivano e cosa pensavano.

“L’olfatto è il santo graal della scienza della conservazione”, dice Lorraine Gibson, docente di chimica pura e applicata presso l’Università di Strathclyde. È un modo più profondo ma più sfumato di pensare al passato.

A differenza della vista e del suono infatti, che possono essere misurati quantitativamente, l’odore spesso è percepito in modo soggettivo. Ad esempio le persone descrivono l’odore di uno scantinato allagato come quello di indumenti bagnati, o come l’aroma di una nuova varietà di caffè tostato.

Il problema, dice Michelle Francl, un chimico computazionale del Bryn Mawr College, è che ciò che odora di ribes e cioccolato per una persona può essere quello di una tazza di caffè per altre. Parte della nostra difficoltà nel descrivere gli odori è la mancanza di un vocabolario comune con cui farlo. La classificazione degli odori richiede una connessione standard fra un singolo odore e una parola, in modo tale che chiunque identifichi un odore specifico userà la stessa parola per descriverlo. Sebbene non preciso come uno spettrofotometro per misurare il colore di un oggetto, un vocabolario degli odori standardizzato può fornire ai ricercatori un punto di partenza.

I profumieri e i viticoltori, il cui lavoro dipende in larga misura dalla produzione e descrizione di profumi precisi, furono i primi a costruire un fondamento linguistico di questo tipo.

Negli anni ’80, Ann C. Noble, un chimico sensoriale dell’Università della California a Davis, sviluppò uno strumento chiamato “la ruota aromatica del vino” per standardizzare le descrizioni degli aromi nei vini, introducendo aggettivi precisi per fasce aromatiche facili da identificare, ad esempio fruttato per albicocche e pesche o floreale per rosa e geranio o ancora terroso per funghi e polvere, ecc. Le ruote aromatiche per birra e caffè spuntarono subito dopo, diventando un punto fermo dell’industria alimentare e degli aromi.

Cecilia Bembibre, dottoranda in Scienze della Conservazione all’University College di Londra (UCL), ha centrato il suo progetto di ricerca sulla costruzione di una ruota aromatica per gli odori dei libri allo scopo di standardizzarne le descrizioni che hanno ispirato generazioni di bibliofili e amanti della letteratura.

Cecilia Bembibre annusa un libro antico nella biblioteca della Saint’s Paul Cathedral

Per Bembibre, tuttavia, l’obiettivo non era commerciale; piuttosto quello di mettere a punto uno strumento per migliorare la scienza della conservazione di questi artefatti, partendo dalla considerazione che “molti curatori possono annusare la carta invecchiata e ricavare informazioni su un libro solo attraverso l’esperienza sensoriale, ma è necessario un programma sistematico per identificare, studiare e catalogare questi odori”, dice Bembibre.

Bembibre e il suo supervisore, Matija Strlič dell’Istituto per il Patrimonio Sostenibile (Institute for Sustainable Heritage) dell’UCL, hanno dapprima intervistato i visitatori della biblioteca Dean & Chapter alla St. Paul’s Cathedral di Londra, chiedendo loro di descrivere con parole gli odori che permeavano la stanza. Tutti i partecipanti hanno definito l’odore come “legnoso”, l’86% come “fumoso”, il 71% come “terroso” e il 41% come “vaniglia”. Riguardo all’odore di un singolo libro antico, “cioccolato” è stato il termine più scelto dai 79 intervistati, seguito da “caffè” quindi da “vecchio”, “legno” e ”bruciato”. Per costruire un’accurata ruota storica degli odori del libro, tuttavia, Bembibre e Strlič avevano anche bisogno di identificare i singoli componenti chimici degli odori caratteristici.

Christine Morgan, negli U.S.A., aveva utilizzato la microestrazione in fase solida (SPME)[2], una tecnica in grado di intrappolare e prelevare i composti organici volatili (VOC) emessi da qualsiasi oggetto. In pratica si pone sull’oggetto in esame una campana di vetro nella quale è inserita una siringa che termina con un ago di metallo lungo e sottile rivestito di paraffina che funziona da adsorbente (v. Figura). Dopo diverse ore l’ago rivestito di paraffina è inserito in un gascromatografo / spettrometro di massa, la paraffina si riscalda rilasciando i VOC che sono analizzati dal GC/MS.

Tecnica di intrappolamento dei VOC

Bembibre e Strlič hanno catturato le molecole responsabili degli odori dei vecchi libri nella biblioteca di St. Paul, usando una variante della SPME. La coppia ha intrappolato i VOC emessi da un singolo libro mettendolo in una busta di plastica da alimenti contenente una spugna di carbonio per assorbirli. Per campionare un grande spazio, Bembibre ha semplicemente posto la spugna di carbone nella stanza per farle assorbire gli odori che la permeano. Successivamente le spugne di carbonio sono state analizzate via GC / MS.

È stato anche messo a punto un olfattogramma, cioè una versione di gas cromatogramma standard in cui i picchi sono annotati con l’odore di ogni sostanza chimica che esce dalla colonna, come riportato da un esperto “annusatore” (sniffer). Gli annusatori hanno gli occhi bendati per favorire la concentrazione sui profumi che descriveranno come “vaniglia” o “legnoso”, ecc. secondo una “ruota degli odori” precedentemente stabilita. “È un procedimento molto intenso”, afferma Bembibre, ogni sessione ha una durata di soli 15 minuti per ridurre al minimo l’affaticamento dell’annusatore.

Una sniffer al lavoro

Sebbene il GC / MS possa identificare una sostanza chimica e correlarla con il suo odore caratteristico nel modo descritto, la tecnologia non ha ancora superato la sensibilità del naso umano. Nell’esperienza fatta in U.S.A, gli esseri umani possono rilevare gli odori a concentrazioni che non si registrano nemmeno su un GC / MS. Per alcune molecole, in particolare tioli come la putrescina (tetrametilendiammina) e la cadaverina (1,5-pentanidiamina), il cui odore sgradevole è quello della decomposizione delle carni, la sensibilità del naso umano è di diversi ordini di grandezza superiore a quella delle macchine più sensibili.

15 composti identificati nell’odore dei libri antichi

Usando il metodo dell’olfattogramma, Bembibre e Strlič hanno creato la ruota degli odori dei vecchi libri (C. Brembibre, M. Strlič, Smell of heritage: a framework for the identification, analysis and archival of historic odours, Heritage Science, 2017, DOI: 10.1186 / s40494-016-0114-1). L’odore “legnoso” è dovuto al furfurale nella carta in deperimento. Il D-Limonene dà ai vecchi libri l’aroma di arancia, e la benzaldeide fornisce odori ricchi e simili a cibo. I lattoni aggiungono più note fruttate.

Ruota degli odori di Bembibre e Strlič

Per quanto piacevole possa essere per gli amanti dei libri, Nelson afferma che l’odore dei libri antichi è in definitiva un segno del lento degradamento di un libro.

Tuttavia, analisi chimiche come quelle eseguite da Bembibre e Strlič (e da Nelson negli USA) potrebbero fornire l’opportunità di intervenire e preservare un libro prima che la sua degradazione arrivi al punto di non ritorno. La pasta di legno usata per fare la carta in molti libri del XIX secolo contiene lignina, che lentamente si decompone in una serie di composti acidi. Questi acidi degradano ulteriormente la carta già divenuta fragile. L’analisi dei VOC rilasciati durante questo processo con SPME può suggerire ai restauratori che è necessario un ulteriore intervento.

Infine, questi ricercatori non si limitano a studiare gli odori dei libri antichi. I vecchi negativi dei film realizzati in cellulosa, i dischi in vinile e persino i primi modelli di tute spaziali realizzati dalla National Aeronautics & Space Administration si degradano e si deteriorano nel tempo. Strlič ha utilizzato metodi analoghi di analisi degli odori per caratterizzare questi processi e identificare i modi migliori per conservare artefatti preziosi.

Dice Strlič: “I VOC di plastica e carta storica seguono percorsi di degradazione simili alle molecole organiche. Gli scienziati della conservazione sono sempre stati alla ricerca di modi meno distruttivi di campionamento di oggetti storici per controllarne lo stato, e cosa è meno distruttivo del semplice annusarlo e intrappolarne l’odore?”.

Tradotto e adattato da c&en news on-line November 21, 2017

Nota. La ricerca di Bembibre e Strlič, insieme a una breve intervista ai due autori, è stata oggetto di un articolo pubblicato dal quotidiano La Repubblica del 17 aprile 2017 nella rubrica Scienze.

http://www.repubblica.it/scienze/2017/04/17/news/cioccolato_e_caffe_e_il_profumo_dei_libri_antichi-163216398/?ref=search

[1] Henry David Thoreau (1817-1862), scrittore, filosofo e poeta americano, noto principalmente per il libro autobiografico: Walden; or, Life in the Woods, 1854 (trad. ital. Walden, ovvero Vita nei boschi, a cura di Franco Venturi, La Vita Felice, 2016) e per il saggio Disobbedienza civile in cui sostiene che è ammissibile non rispettare le leggi quando esse vanno contro la coscienza e i diritti dell’uomo, ispirando in tal modo i primi movimenti di protesta e resistenza non violenta.

[2] Sviluppata negli anni ’90 dal chimico Janusz Pawliszyn all’università di Waterloo (Canada).

Terrawash, la nuova “palla” magica.

Mauro Icardi

Ad inizio dicembre un noto quotidiano italiano ha pubblicato un articolo nel quale si decantavano le “miracolose” proprietà di un prodotto denominato “Terrawash”. Prodotto che prometteva e promette di essere un detergente biologico, non inquinante. Mentre leggevo l’articolo qualcosa mi ha fatto pensare di voler approfondire i termini della questione. Prima osservazione, che occorre ripetere è come gli articoli pubblicati sui quotidiani e che trattano temi tecnici, e specificatamente chimici abbiano sempre titoli fuorvianti. Ormai è una situazione alla quale credo ci stiamo purtroppo abituando. Sappiamo che se qualcuno viene ustionato con soda caustica probabilmente il titolo potrà essere “Sfigura il rivale in amore con l’acido”.

Tornando al prodotto miracoloso una ricerca in rete mostra una pagina nelle quali sono elencati i motivi per i quali si dovrebbe utilizzare questo prodotto. Contenuto in un piccolo sacchettino riutilizzabile per più lavaggi. Si parla di magnesio purificato, si decantano le proprietà e poi si dice che il prodotto detergente è privo di sostanze chimiche.

Qui la riflessione è ovviamente doverosa. Posso immaginare che chi ha redatto il foglio illustrativo usi ogni strategia per venderlo. E per far breccia utilizzi la mai sopita chemofobia. Ma qui c’è una confusione ed una leggerezza che sfiorano l’umorismo. Il magnesio viene prodotto industrialmente per elettrolisi di cloruro di magnesio. Una tecnica consolidata di chimica industriale.

Se si va a leggere sul sito dell’azienda https://www.terrawashmg.com/how-it-works-1 viene spiegato il meccanismo per cui il prodotto sarebbe un ottimo detergente.

Magnesio che liberando idrogeno in acqua calda (in realtà all’ebollizione) “forma acqua alcalina ionizzata che facilità l’eliminazione dello sporco dai tessuti”. Il termine acqua ionizzata è molto di moda, basta fare ricerche in rete per rendersene conto.

Mgs) + 2 H2O(l)  Mg++(aq) + 2 OH(aq) + H2(g)

Il meglio però deve ancora venire. Il prodotto non agirebbe come un normale tensioattivo in commercio, cioè diminuendo la tensione superficiale dell’acqua per aumentare la bagnabilità dei tessuti. In realtà la sua caratteristica sarebbe quella “di ridurre le dimensioni delle molecole d’ acqua” o dei loro “clusters” i loro gruppi, che diverrebbero più penetranti. Il motivo sarebbe aver “incontrato” la più piccola molecola di idrogeno!

In realtà tutto si riduce appunto a produrre idrogeno gassoso, un poco di idrossido di magnesio che è poco solubile (il vecchio latte di magnesia) ed ha certamente meno efficacia sgrassante della soda caustica che è uno dei componenti dei normali saponi.Continuando a indagare sul prodotto si scopre che nelle indicazioni di uso però, non si esclude la possibilità di utilizzare normale detersivo insieme al prodotto.

Tutta la cosa una volta vista con un poco di attenzione si rivela per quello che è.

Una assurdità. Una “palla”, una bufala.

Il tutto probabilmente dovuto al fatto che, oltre ad essere chemofobici, stiamo diventando un po’ tutti maniaci della pulizia. E’ pur vero che sono state proprio le schiume dei tensioattivi a dimostrare palesemente negli anni 70 che lo stato dei fiumi era pessimo. Ed in quel periodo eravamo bombardati da pubblicità di ogni tipo che ci invitavano ad avere il bianco più bianco. Sono passati decenni, e lo sviluppo impetuoso di catene di supermercati che vendono esclusivamente prodotti per la detergenza e che si sono moltiplicate e tornano a bombardarci con pubblicità continue.

Probabilmente questo prodotto avrà forse un minimo effetto igienizzante, nulla di più. Ma sfrutta ancor una volta alcune delle idee preconcette che tutti abbiamo. E mi ricorda una vicenda simile per certi versi: quella delle “Biowashball”, “Palla Linda” ed altre con nomi simili che promettevano la stessa cosa. Ridurre l’uso di detersivi, ma che in realtà non avevano alcuna efficacia pulente.

Converrà ritrovare il senso critico perduto, per non credere a chiunque proponga soluzioni miracolose, oppure semplici quando i problemi sono complessi. Ultima annotazione su questa vicenda. L’azienda produttrice sembra essere giapponese, mentre il quotidiano riportava la notizia che il Terrawash fosse invenzione di un imprenditore risicolo italiano. Serve dire altro?

Questione PFAS ovvero l’arte di spostare il problema

Francesca Hinegk*

Nei primissimi anni ’50 i composti poli- e perfluorurati (PFC) conquistarono il mercato grazie alle loro potenzialità d’uso e d’applicazione nei più svariati ambiti: dalle schiume filmogene antincendio a vernici e inchiostri, dall’abbigliamento sportivo idrorepellente all’equipaggiamento medico, dal rivestimento di utensili da cucina all’attrezzatura per il trattamento del cibo, fino ad utilizzi per il trattamento della carta ed a pesticidi. L’elevata resistenza all’idrolisi, alla fotolisi ed alla degradazione microbica di queste sostanze le rende altamente persistenti e dotate di un elevato potenziale di bioaccumulazione e biomagnificazione, comportando un serio problema di natura ambientale e sanitaria.

Figura 1 Esempi di applicazione dei PFC (ntp.niehs.nih.gov)

Sono numerose le misure adottate dai primi anni 2000 nel tentativo di limitare i danni comportati da cinquant’anni di produzione e diffusione delle PFAS (sostanze perfluoro alchiliche), avvenute senza le dovute conoscenze sulle problematiche legate a questa famiglia di composti. Nessuno dei provvedimenti presi può tuttavia dirsi risolutivo: la questione rimane infatti aperta su diversi fronti e per certi versi si è giunti solamente ad un trasferimento del problema, sia in termini di scelta del composto chimico che in senso geografico.

Tra i provvedimenti adottati per la regolamentazione di queste sostanze si possono riconoscere tre tipologie di intervento: la limitazione della produzione, l’apposizione di restrizioni alle vendite e la definizione di valori limite di riferimento per le concentrazioni nelle acque. Le azioni intraprese dalle istituzioni nazionali e sovranazionali sono state mirate principalmente ai due composti all’epoca più diffusi nell’ambiente: l’acido perfluoroottanoico (PFOA) e l’acido perfluoroottansolfonico (PFOS).

Figura 2 Struttura chimica di PFOA e PFOS
( charlestonwaterkeeper.org)

La produzione di PFOS e PFOA subì una prima battuta d’arresto nel maggio del 2000, quando la 3M, la maggiore azienda statunitense produttrice di PFOS, in accordo con la US-EPA iniziò una progressiva riduzione della produzione di questo composto, fino ad una completa cessazione nel 2002. Pochi anni più tardi, nel 2006, l’EPA diede l’avvio al 2010/2015 PFOA Stewardship Program, un programma di gestione mirato ad una riduzione del 95% della produzione di PFOA entro il 2010 fino ad una totale eliminazione delle emissioni di questo composto entro il 2015. Le otto maggiori aziende del settore vi presero parte volontariamente.

Nel dicembre dello stesso 2006 gli PFOS furono inclusi nella lista degli inquinanti organici persistenti (POPs) della Convenzione di Stoccolma, quindi assoggettati alle restrizioni imposte dal Programma delle Nazioni Unite per l’ambiente (UNEP). Il Parlamento Europeo stabilì di conseguenza il divieto di vendita per questo composto su tutto il territorio dell’UE applicabile a partire dal 2008 (2006/122/EC).

La presenza di numerosi casi di forte contaminazione in diversi Paesi degli Stati Uniti e dell’Europa, in Giappone ed in altri Stati, insieme ai risultati di importanti studi di settore dimostrarono la necessità di definire valori di soglia per la presenza di PFAS nelle acque potabili. In particolare fu determinante il C8 Health Project, che mise in luce l’esistenza di una probabile correlazione tra l’esposizione a PFOA ed alcune gravi patologie, come malattie tiroidee, tumori del testicolo e del rene.

Nella tabella sottostante sono raccolti alcuni esempi di valori di riferimento health based adottati in diverse nazioni.

Le restrizioni imposte hanno condotto all’introduzione di sostituti a catena più corta all’interno dei processi industriali che lo permettevano. La scelta di questi composti è giustificata dal minore potenziale di bioaccumulazione e dai minori livelli di tossicità acuta e cronica rispetto ai loro predecessori. Nel paper Helsingør Statement un team di esperti internazionali del settore ha espresso la propria preoccupazione relativa alla sostituzione in atto, argomentando come le PFAS a catena corta non siano un’alternativa priva di rischi. Esse mantengono infatti l’elevata persistenza in ambiente tipica di questo gruppo di sostanze e continuano di conseguenza a rappresentare una minaccia per gli ecosistemi e per la salute umana. In alcuni casi, inoltre, i perfluorurati a catena corta sono meno performanti dei corrispondenti composti a catena lunga, rendendo probabilmente necessario l’impiego di un maggior quantitativo di sostanza e/o di utilizzare più composti per ottenere le stesse prestazioni. Un’ulteriore causa di preoccupazione sono le limitate conoscenze che si hanno riguardo a proprietà, uso e profili tossicologici di queste sostanze, informazioni estremamente costose da ottenere sia in termini economici che in termini di tempo. Tempo durante il quale le crescenti e sempre più disperse emissioni potrebbero avere effetti irreversibili.

Un secondo effetto della regolamentazione della produzione di PFOA e PFOS è stata la delocalizzazione della produzione in Paesi in via di sviluppo come la Cina, che è diventata il maggior produttore ed utilizzatore di queste sostanze. Le stime affermano che l’attuale produzione annuale e l’utilizzo di PFAS a catena lunga in Cina eguagliano o addirittura superano i valori che si avevano in Europa e Nord America prima dello Stewardship Program. Di recente il Ministero cinese per la Protezione dell’Ambiente ha incluso gli PFOS nella lista preliminare di sostanze pericolose prioritarie per la gestione ambientale, ma non sono ancora stati stabiliti valori limite per questa o per altre PFAS.

L’assenza di una legislazione che regoli le emissioni di perfluorurati in Paesi come la Cina rappresenta una minaccia anche per le nazioni che hanno provveduto a porre limitazioni sul proprio territorio. Non va infatti dimenticato che le PFAS sono soggette a global transport, come hanno attestato le numerose ricerche che hanno rilevato la presenza ubiqua di PFOA e PFOS nelle acque degli oceani, nelle precipitazioni, nel biota e nel sangue umano in ogni parte del globo. Il problema, quindi, rimane mondiale.

Figura 3 Schematizzazione del global transport ( worldoceanreview.com)

* Francesca si è laureata nel 2017 in Ingegneria ambientale a Trento discutendo una tesina sul tema dell’inquinamento da PFAS, ed è attualmente iscritta alla laurea quinquennale.

Approfondimenti:

Emerging contaminants – Perfluorooctane Sulfonate (PFOS) and Perfluorooctanoic Acid (PFOA); EPA, 2014.

Madrid Statement; 2015.

Alcune ricerche sulla presenza globale di PFAS:

Scott et al. 2005: Trifluoroacetate profiles in the Arctic, Atlantic and Pacific Oceans.

Yamashita et al. 2005: A global survey of perfluorinated acids in oceans.

Scott et al. 2006: Poly and perfluorinated carboxylates in North American precipitation.

Kannan et al. 2004: Perfluorooctanesulfonate and related fluorochemicals in human blood from several countries. Environ Sci Technol 38:4489–4495

Houde et al. 2006: Biological monitoring of polyfluoroalkyl substances: a review.