La Metanogenesi catalitica sui pianeti rocciosi

In evidenza

Diego Tesauro.

La maggior parte dell’opinione pubblica conosce il metano come fonte energetica, ma nell’universo sicuramente ha una funzione ancora più importante.

E’ infatti il più semplice composto organico sul quale sono basate diverse ipotesi di meccanismi di reazione per la formazione di molecole organiche complesse e delle biomolecole.

Inoltre Il metano è uno dei composti più diffusi dell’universo, come intuitivamente è logico supporre, considerando che la maggior parte dell’universo è costituito da idrogeno (attualmente circa il 74%) ed il carbonio, prodotto nei nuclei delle stelle giganti rosse per fusione sintetica di 3 nuclei di elio, è il quarto elemento per abbondanza (4.6 %) dopo elio ed ossigeno.

Si forma nelle zone periferiche dei sistemi planetari e infatti lo ritroviamo nei giganti gassosi del sistema solare da Giove a Saturno, ma è particolarmente abbondante nelle atmosfere di Urano e Nettuno. Non è presente invece nelle atmosfere dei pianeti terrestri per la loro vicinanza al sole in quanto la radiazione solare, nelle prime fasi dell’evoluzione del sistema planetario, ha energia sufficiente per rompere i legami chimici come il legame C-H. Allora dove e perché lo ritroviamo nelle zone interne del nostro sistema planetario?

Cratere Gale dove opera il rover Curiosity dal 2012

Sulla Terra attualmente il metano ha pressoché totale origine biologica derivando da processi di digestione anaerobica delle sostanze organiche da parte dei batteri. Ma sugli altri pianeti rocciosi e in particolare su Marte, attualmente c’è metano? Recenti misurazioni in situ di CH4 su Marte nel cratere Gale1 da parte del rover della NASA Curiosity ne ha rilevato una concentrazione di fondo di ~ 0,7 parti per miliardo (ppb) ma ha anche riportato variazioni significative nella sua concentrazione, con picchi dieci volte superiori rilevati in quattro occasioni per un periodo di due mesi legata alla stagionalità (Marte a causa dell’inclinazione dell’asse di rotazione sul piano orbitale di 25° presenta l’alternanza delle stagioni nei due emisferi come la Terra).

Questa scoperta induce ad ipotizzare una possibile sintesi abiotica di CH4 come gas riducente in un’atmosfera ricca di CO2 naturale, come è l’attuale atmosfera marziana e come lo era la Terra in passato. Quindi processi attualmente in corso su Marte potrebbero essere stati attivi sulla Terra primordiale.

Entrambi i pianeti hanno la possibilità di utilizzare acqua come fonte di idrogeno e furono esposti nelle prime fasi ad un significativo flusso di radiazione ultravioletta. Basandosi su modelli fotochimici e sull’attuale comprensione della composizione dell’atmosfera marziana, il metano ha una vita chimica di 300-600 anni, che è, su scala geologica, un periodo molto, ma molto breve. Ciò implica che ci deve essere una fonte attualmente attiva su Marte. Hu et al.2 hanno formulato tre ipotesi sull’origine del metano su Marte:

  • La regolite nel cratere Gale assorbe CH4 quando è secca e rilascia CH4 nella deliquescenza durante l’inverno.
  • I microrganismi convertono la materia organica nel terreno in CH4. Tuttavia, questo scenario suppone l’esistenza di una vita esistente su Marte, e fino ad oggi non è stata trovato alcun indizio.
  • Le falde acquifere sotterranee profonde generano emissioni esplosive di CH4.

A queste ipotesi si è aggiunta una quarta formulata da Shkrob et al. 3 basata su una complessa chimica del carbonio governata dalla radiazione ultravioletta che porta alla formazione di metano e monossido di carbonio dalla riduzione del biossido di carbonio. Questa ipotesi è stata ulteriormente sviluppata recentemente in un articolo pubblicato su Nature Astronomy4 mediante esperimenti condotti in laboratorio simulando condizioni presenti su Marte o sulla Terra primordiale.

Il rover Curiosity su Marte. Lanciato da Cape Canaveral il 26 novembre 2011 è « ammartato » il 6 agosto 2012

Pertanto Marte potrebbe essere contemporaneamente un “fotoreattore” di dimensioni planetarie che decompone molecole di materia prima carbossilata che producono CH4 e un pianeta “fotosintetico”, in cui il metano viene generato dal biossido di carbonio su superfici catalitiche.
La sintesi di CH4 da CO2 è influenzata dalle quantità di H2O e di CO2 adsorbite sulle superficie fotocataliche del catalizzatore minerale in presenza di una sufficiente insolazione. Questo modello può essere valido anche per la Terra primordiale, per Titano, il più grande satellite di Saturno ed unico ad essere dotato di un’atmosfera ampiamente costituita da metano (https://ilblogdellasci.wordpress.com/2015/01/25/chimica-da-titano/ed per altri pianeti di tipo roccioso presenti nell’universo.

Marte infatti attualmente non è schermato come la Terra contro la radiazione ultravioletta (come è noto il nostro pianeta possiede lo schermo dello strato dell’ozono, non presente su Marte) e quindi può essere considerato un laboratorio per questo tipo di reazioni. Questi studi hanno permesso di stabilire due importanti aspetti: il ruolo catalitico del minerale anatasio (un minerale costituito da TiO2) e della montmorillonite (un silicato di formula (Na,Ca)0,33(Al,Mg)2(Si4O10)(OH)2.n H2O), entrambi presenti su Marte, anche se al momento non è stata ancora determinata la loro quantità, ma anche sulla Terra. In particolare il biossido di titanio presente nell’anatasio svolge il ruolo di fotocatalizzatore ed un meccanismo di reazione attraverso il gliossale dimostrerebbe la contemporanea formazione in uguale quantità di CO e CH4 mentre per l’altro catalizzatore, non riscontrando la stessa quantità dei due gas, potrebbe intervenire un diverso meccanismo o un effetto dei radicali ossidrilici provenienti nell’acqua intrinsecamente in esso contenuta oppure una fotolisi del metano sulla sua superficie.

La montmorillonite è un minerale, un fillosilicato di alluminio e magnesio. Il nome deriva dalla località di Montmorillon, dipartimento della Vienne, in Francia, dove fu per la prima volta identificato.

Ma anche l’adsorbimento dell’acqua gioca un ruolo decisivo e spiegherebbe la stagionalità delle emissioni di metano che aumentano dalla primavera marziana fino alla fine dell’autunno. Altro aspetto fondamentale per questa ipotesi sintetica è il pH. In ambiente basico o neutro sulla superficie del minerale vengono legati degli ioni ossidrili (OH), mentre l’ambiente acido è in grado piuttosto di permettere l’adesione del biossido di carbonio e dell’acqua per cui la riduzione catalitica dei due minerali è indotta dall’acido cloridrico. L’acido cloridrico è effettivamente presente su Marte sul quale è attivo attualmente un ciclo del cloro proposto di recente da Catling et al. e confermato dalla presenza di ione perclorato5.

Questo modello pertanto oltre a spiegare l’attuale presenza di metano co-generato con il monossido di carbonio su Marte osservata da Curiosity, ha il pregio di interpretare la sua stagionalità. Inoltre può essere anche adattato alle condizioni iniziali della Terra. In questo caso è possibile anche dimostrare la formazione a partire da un’atmosfera riducente di CO2, N2, CH4 e CO di HCN, da cui, a seguito della sua polimerizzazione indotta dal bombardamento meteorico simulato dai laser, la formazioni delle nucleobasi del RNA (adenina, guanina, citosina e uracile) e del più semplice degli amminoacidi la glicina.

  • Webster, C. R. et al. Mars methane detection and variability at Gale crater. Science 347, 415–417 (2015).
  • Hu, R., Bloom, A. A., Gao, P., Miller, C. E. & Yung, Y. L. Hypotheses for near-surface exchange of methane on Mars. Astrobiology 16, 539–550 (2016).
  • Shkrob, I. A., et al. Photocatalytic decomposition of carboxylated molecules on light-exposed Martian regolith and its relation to methane production on Mars. Astrobiology 10, 425–436 (2010).
  • Civiš S. et al. The origin of methane and biomolecules from a CO2 cycle on terrestrial planets Nature Astronomy 1 721–726 (2017).
  • Catling, D. C. et al. Atmospheric origins of perchlorate on Mars and in the Atacama. Geophys. Res. Planets 115, E00E11 (2010).

Quando avremo la Gazzetta Chimica Italiana online?

In evidenza

Maurizio D’Auria

Nel 2013 (è passato un secolo) scrissi il primo post con lo stesso titolo. Dopo cinque anni mi sembra il caso di tirare le somme di quella iniziativa. In risposta al mio appello ho ricevuto diverse comunicazioni di apprezzamento da parte di colleghi e anche alcune telefonate che hanno cercato di spiegarmi le ragioni del ritardo con cui l’operazione Gazzetta in rete si trovava.

Dopo cinque anni possiamo ben dire che non si è mosso nulla. E’ bene notare che le riviste tedesche del settore sono tutte in rete nel sito Wiley-VCH; anche i Recueil des Travaux Chimique des Pays-Bas sono in rete sulla piattaforma Wiley, gli inglesi hanno in rete tutte le loro riviste, gli americani hanno messo in rete tutte le riviste dell’American Chemical Society (solo l’American Chemical Journal non è disponibile direttamente ma lo si può scaricare), i giapponesi hanno messo in rete tutte le loro riviste, i francesi, in compenso, sono quasi come noi (alcune riviste sono però scaricabili). Noi non abbiamo in rete nè la Gazzetta Chimica Italiana, nè gli Annali di Chimica, nè tantomeno i Rendiconti dell’Accademia dei Lincei. Bella prova.

Posso capire che ci siano problemi di fondi per fare questa operazione, ma, nell’ambito delle richieste possibili sui beni culturali, si potrebbero cercare fondi sia al ministero competente, così come sarebbe possibile cercare uno sponsor industriale. La motivazione, poi, che qualcuno mi ha dato, che l’operazione avrebbe significato dover distruggere una copia della rivista, per la necessità di distruggere la legatura per scannerizzarlo, la tecnica ha ormai superato il problema e per la scannerizzazione di libri antichi si può operare senza dover “slegare” il libro: costerà di più ma si può fare.

Perché nessuno se ne occupa?

 

(nota del blogmaster) Il primo numero si trova online grazie a Google http://books.google.it/books?id=5YQcD9OX0b0C&printsec=frontcover&hl=it#v=onepage&q&f=false

Il raffreddore comune. Si potrà contrastarlo dall’inizio?

In evidenza

Rinaldo Cervellati

A tutti è capitato di “prendere il raffreddore” anche più di una volta nella stessa stagione. Come noto, il raffreddore comune, o semplicemente raffreddore, è un’infezione virale infettiva del tratto respiratorio superiore che inizialmente colpisce il naso. Il sintomo iniziale sono sternuti ripetuti e muco al naso che presto si accompagnano a tosse, irritazione alla gola, svogliatezza, scarso appetito, molto raramente febbre. Generalmente questa malattia, ancorchè fastidiosa, si risolve in pochi giorni anche se i sintomi, comunque in regressione, possono durare qualche tempo di più.

Negli umani, il raffreddore comune è causato principalmente dai rhinovirus, che proliferano alla temperatura di 33-35°C, intervallo che contiene appunto le tipiche temperature interne del naso.

Sono state classificate tre specie di rhinovirus (A, B e C), che comprendono circa 160 tipi riconosciuti di rinovirus umani che differiscono in base alle loro proteine ​​di superficie. Sono tra i virus più piccoli, con un diametro di circa 30 nanometri (per confronto, i virus dell’influenza, ben più pericolosi, sono intorno agli 80-120 nm).

Superficie molecolare di un rinovirus umano, i picchi proteici in blu

Non esistono vaccini per il raffreddore comune. Poiché si tratta di una malattia in larghissima misura a decorso benigno viene usualmente trattata con farmaci sintomatici.

Tuttavia, in persone affette da altre patologie, come asma, broncopatie croniche ostruttive e fibrosi cistica,“prendere un raffreddore” può essere molto pericoloso. Inoltre, secondo dati dell’Organizzazione Mondiale della Sanità, nei Paesi in via di sviluppo le infezioni da raffreddore comune sono complicate da infezioni batteriche  più frequentemente rispetto ai paesi industrializzati.

Per questi motivi è interessante la notizia, riportata da Stu Borman nell’edizione on-line di Chemistry & Engineering Newsletter del 17 maggio scorso, della scoperta di una molecola in grado di bloccare la replicazione dei rhinovirus.*

Edward W. Tate e Roberto Solari dell’Imperial College di Londra, coordinatori di un folto gruppo di ricerca, hanno identificato una piccola molecola, IMP-1088, che impedisce la riproduzione del rhinovirus inibendo un enzima umano chiamato N-myristoyltransferase (A. Mousnier, A.S. Bell et al., Fragment-derived inhibitors of human N-myristoyltransferase block capsid assembly and replication of the common cold virus., Nature Chemistry, 2018, DOI: 10.1038/s41557- 018-0039-2).

Edward W. Tate, Faculty of Natural Sciences, Department of Chemistry, Imperial College

Una delle caratteristiche dei virus è l’incapacità di vivere in maniera autonoma. Il virus deve infettare le cellule dell’ospite (in questo caso cellule umane) costringendole a produrre le molecole che gli servono per replicare numerosissime, copie di se stesso. Uno degli strumenti necessari al rhinovirus per costruire l’involucro proteico (il càpside) che custodisce il suo materiale genetico è l’enzima N-miristoiltransferasi, che si trova all’interno delle cellule umane. La molecola individuata dagli inglesi è in grado di “sabotare” questo enzima. Si aggirerebbe così anche il problema della varietà delle molte specie di rhinovirus, poiché tutte usano lo stesso materiale proteico per assemblare il loro càpside.

In breve, diffrattometria a raggi X e altre tecniche hanno dimostrato che due inibitori identificati dai ricercatori all’inizio del loro studio hanno colpito due diversi siti dell’enzima umano. Essi, utilizzando anche la tecnica del drug design per unire frammenti attivi dei due inibitori in una struttura con le desiderate proprietà farmacologiche, hanno infine sintetizzato IMP-1088.

Nei test di attività in vitro, su colture di cellule umane infette, IMP-1088 ha bloccato la miristoilazione, la replicazione virale e l’infettività senza risultare tossica per le cellule. Il composto ha attività antivirale nanomolare contro diversi ceppi di rinovirus e anche contro virus affini come i poliovirus e quelli dell’afta epizootica.

Per essere efficace, l’IMP-1088 deve essere somministrato alle cellule entro poche ore dall’infezione. Gli studi in vivo non sono ancora iniziati, quindi i ricercatori non sanno se questa finestra temporale dovrà essere applicata anche agli animali o alle persone.

Secondo i ricercatori britannici, un potenziale vantaggio di IMP-1088 è che i virus potrebbero avere difficoltà a sviluppare resistenza a un farmaco che contrasta un enzima umano.

Il Dr. Hong Wei Chu, esperto in biologia cellulare delle vie aeree e infezioni virali nel principale ospedale respiratorio, il National Jewish Health, nel ribadire che saranno necessari studi su modelli animali e pre-clinici clinici perché molteplici fattori cellulari e immunitari influenzeranno l’efficacia terapeutica definitiva di IMP-1088.

Hong Wei-Chu

Nel complesso commenta: questi nuovi risultati potrebbero fornire un nuovo approccio per prevenire o curare l’infezione da rhinovirus.

*La notizia è stata anche riportata da Elena Dusi, su La Repubblica Salute del 14 maggio scorso:

Allo studio il farmaco che può bloccare il raffreddore

Una molecola impedisce al virus di replicarsi. La ricerca inglese, pubblicata su Nature Chemistry, è ancora nelle prime fasi di sperimentazione. Ma promette di funzionare su tutti i ceppi di microbi.

Notare la solita confusione fra virus e microbi, a meno che con microbo la giornalista intende riferirsi a tutte le specie viventi invisibili all’occhio nudo, dai virus ai battéri, ecc.

L’articolo completo in:

http://www.repubblica.it/salute/2018/05/14/news/allo_studio_il_farmaco_che_puo_bloccare_il_raffreddore-196396622/?ref=search

La storia della scoperta della fissione nucleare: i chimici risolvono un problema fisico. Seconda parte

In evidenza

Roberto Poeti

 la prima pare di questo post è stata pubblicata qui

Una scoperta che fece fare un passo in avanti

Per tre anni , dal 1934 al 1937 i laboratori di Parigi e Berlino continuarono le loro ricerche sui presunti elementi transuranici prodotti dal bombardamento neutronico dell’Uranio . Non ci furono rilevanti novità . L’impianto teorico su cui si fondavano le ricerche non fu messo in discussione . Nuovi risultati si ebbero solo nel 1937 quando il gruppo di Irene Curie identifica un nuovo radionuclide con t1/2 di 3.5 h , R 3,5h , tra quelli ottenuti nel bombardamento dell’Uranio. Da misure radiochimiche emerge che il radionuclide non era classificabile tra gli elementi transuranici e che si poteva trattare di un isotopo del Torio formato dall’Uranio per cattura di un neutrone e espulsione di una particella α. “ Il corpo R 3,5t non è stato osservato né da noi , né da Hahn , Meitner e Strassmann , prima di aver impiegato schermi che eliminassero l’interferenza provocata dalla presenza dei prodotti di decadimento dell’Uranio naturale , di cui uno era proprio il Torio“ (5). La notizia della scoperta raggiunge il gruppo di Berlino , che però non condivide le conclusioni di Parigi. Curie e Savitch continuano nei tentativi per la sua identificazione , escludono alla fine che si tratti del Torio . Per la sua separazione hanno impiegato come carrier Il Lantanio , inoltre le proprietà chimiche lo avvicinano alle terre rare . “In base alle sue proprietà chimiche , sembrerebbe che questo corpo non possa essere che un isotopo dell’Attinio [n.d.r: stesso gruppo del Lantanio] , o un nuovo corpo transuranico che possiede proprietà chimiche molto differenti da quelle degli omologhi superiori di Renio e Platino “ (6).

Un obbiettivo mancato

Nello stesso anno (ottobre 1938 ) Curie e Savitch inviano al Journal de Phisique et Radium un resoconto del loro lavoro , complesso e minuzioso , portato avanti per stabilire se il Radionuclide poteva essere un isotopo dell’Attinio . Seguendo il metodo introdotto da Maria Curie , eseguono una separazione per precipitazione frazionata di una soluzione contenente Lantanio e il radionuclide R 3,5h   , previa eliminazione di tutti gli altri elementi presenti , con l’aggiunta di un isotopo dell’elemento Attinio come tracciante . Le indagini radiochimiche mostravano la separazione dell’Attinio dal Radionuclide R 3,5h . Il Radionuclide rimaneva con il Lantanio . Quindi l’Attinio e il Radionuclide apparivano elementi diversi. La cosa sorprendente è un’altra successiva esperienza , che riporta l’articolo , sulla separazione compiuta su Lantanio e Il Radionuclide . Ma lo scopo non è quello di verificare la separabilità dei due elementi , intenzione di cui non fanno alcun cenno , quanto quello di confermare che Attinio e Radionuclide R 3,5t sono diversi ! “ Una esperienza di precipitazione incompleta [ sottilineatura mia] con l’ammoniaca di La + R 3,5h indica anche che R 3,5h si concentra nella prima porzione precipitata , sarebbe quindi meno basico [ n.d.r.: più insolubile ] del Lantanio. Mentre sappiamo che l ‘ Attinio è più basico del Lantanio . Pare dunque certo che R 3,5h non è un isotopo dell’ Attinio “ .

La scoperta rientra nel paradigma dominante

Una separazione incompleta , in matrici considerate molto complesse , poteva avere diverse cause, e sarebbe stato necessario indagare ancora , ma non si procede a nessun ulteriore controllo, perché ? . ( Sappiamo che l’Uranio , nel bombardamento neutronico , ha subito una scissione , si sono formati radionuclidi a numero atomico molto più basso . Tra questi si trova anche un isotopo del Lantanio . Perciò R 3,5h , in realtà , è un isotopo del Lantanio, chimicamente indistinguibile , perciò non sono separabili con una cristallizzazione frazionata). Ancorati al concetto che l’Uranio si può modificare, dopo irraggiamento neutronico , formando elementi transuranici attraverso il decadimento β , Curie e Savitch arrivano alla conclusione , dopo aver scartato l’ipotesi dell’Attinio , che anche il radionuclide R 3,5h   deve essere un elemento transuranico . E nel tentativo di inserirlo in quella regione della tavola periodica , pur avendo proprietà chimiche diverse, fanno l’ipotesi che il nuovo elemento transuranico possa avere gusci di valenza variabili . Questa e altre ipotesi appaiono poco plausibili (7) . I due fisici , che primeggiano nel campo della fisica nucleare e della radiochimica, non trovano la soluzione corretta che è a portata di mano perché non la cercano . Non escono dal paradigma dominante.

Nell’articolo del Journal de Phisique et Radium sono rappresentati gli ultimi tre periodi della T.V . L’Actinio compare nel gruppo delle terre rare e gli elementi transuranici sono disposti sotto il Renio e i metalli del gruppo del Platino

Ci provano i chimici Hahn e Strassmann

Questi limiti , vedremo , sono superati dal gruppo di Berlino dove lavorano i chimici Hahn e Strassmann (l’altro componente, la fisica Meitner , è dovuta riparare all’estero perché ebrea, ma , sempre in contatto con Berlino , fornì un aiuto importante ) . Venuti a conoscenza dei risultati del gruppo di Parigi , Hahn e Strassmann si apprestano subito a verificare i risultati . Nella sua Nobel Lecture, (1946) Hahn , rispetto alle ipotesi chimiche su gusci di valenza variabili e altro , fatte dal gruppo di Parigi , afferma che “ le possibilità presentate da loro appaiono difficili da capire e inaccettabili“. La natura di elemento transuranico appare al gruppo di Berlino poco comprensibile . Da qui la spinta a rifare gli esperimenti. Dopo che i presunti   elementi transuranici , derivati dal bombardamento neutronico dell’Uranio , erano stati precipitati e rimossi , la soluzione conteneva ancora qualche prodotto radioattivo . Impiegano , nella separazione di quest’ultimi prodotti , diversi elementi carrier tra cui il Bario . La scelta di questo elemento non è casuale , infatti una delle ipotesi che fanno è la possibile presenza , tra i prodotti , di isotopi del Radio ( precede l’Attinio nella T.P.) . Il Bario è un elemento dello stesso gruppo del Radio , quindi idoneo a fare da carrier .

Alla fine del lungo lavoro di separazione concludono che l’attività dell’isotopo R 3,5h di Curie e Savitch era probabilmente un miscuglio di diversi elementi attivi e che quelli che seguivano il Bario , come carrier , nella precipitazione potevano essere soltanto isotopi del Radio .

Due chimici che escono dagli schemi

La presenza del Radio poteva essere dovuta ad una serie di decadimenti dell’Uranio che portavano all’ Attinio , passando da Torio e Radio .

E’ una ipotesi che presuppone l’emissione di due particelle α. L’emissione di due particelle α da parte di un atomo pesante con neutroni lenti era considerata tuttavia molto improbabile , se si pensa che nei numerosi esperimenti fatti con l’uranio non era stata mai osservata nemmeno una sola emissione α . E’ importante constatare come Hahn e Stassmann , raggiungono questo loro risultato “ liberandosi “ di due modelli fisici del nucleo : il primo riguarda la emissione di particelle α , l’altro la formazione di nuclei a numero atomico maggiore dell’Uranio . Continuano con i loro esperimenti e sono capaci di distinguere almeno quattro distinti isotopi del “ Radio “ prodotti artificialmente dall’Uranio . Per ottenere una verifica più accurata dei loro risultati procedono alla separazione per cristallizzazione frazionata dell’elemento carrier Bario dagli isotopi del “Radio “, in modo da ottenere strati più sottili di materiale , così che la loro attività poteva essere misurata più facilmente . Ma i tentativi per separare il ” Radio “ falliscono (Vedi schema sotto).

Esempio di sequenza delle operazioni con l’elemento Bario come carrier :

1) Bombardamento con neutroni 2) Solubilizzazione dei prodotti 3) Aggiunta dell’elemento carrier (Bario) 4) Precipitazione del “Radio” con Bario come carrier 5) Solubilizzazione 6) Il “ Radio” non si separa dal carrier con la cristallizzazione frazionata

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

La perseveranza dei due chimici

Hahn e Strassmann pensano che la causa potesse dipendere dalle piccolissime quantità di isotopi del “Radio” presenti nel campione così continuano a indagare :

Abbiamo mescolato uno dei nostri isotopi, presunto “Radio “artificiale , con un isotopo naturale noto di radio e poi abbiamo cercato di separare la miscela dal bario con il frazionamento come prima. Gli esperimenti e i loro risultati sono stati piuttosto complicati, e non cercherò di descrivere qui in dettaglio. Ma i risultati sono stati abbastanza chiari. In ogni caso , in accordo con le misure di radioattività , la maggior parte del radium naturale , nella miscela , veniva separato , ma il “Radio” artificiale seguiva il Bario in toto . In breve , il nostro “ Radio “ artificiale non poteva essere separato dal Bario per la semplice ragione che era Bario ! “(8) .

A ulteriore conferma identificano un prodotto del decadimento β di uno degli isotopi artificiali del “Radio “ che risulta essere il Lantanio ( era stato trovato dal gruppo di Parigi !) , dimostrando che il parente da cui proviene non può che essere il Bario , che lo precede nella T.P. .

Non hanno dubbi sui risultati raggiunti , ma procedono con cautela :

I nostri tentennamenti derivavano principalmente dal fatto che, come chimici, abbiamo esitato ad annunciare una scoperta rivoluzionaria in fisica”(8).

Una bella prova sperimentale

C’è ancora una bella prova sperimentale definitiva e senza ambiguità che Hahn e Strassmann forniscono :

“Allo scopo di essere certi , abbiamo effettuato il così detto “ciclo” del Bario. Il più stabile degli isotopi attivi , ora identificato come Bario , fu liberato dai prodotti attivi del suo decadimento e altre impurità con la ricristallizzazione con Bario inattivo [ndr :carrier] ; un quarto della quantità totale fu conservata per il confronto e tre quarti vennero sottoposti alle seguenti precipitazioni nel ciclo del Bario :

Ba-chloride ® Ba-succinate ® Ba-nitrate ® Ba-carbonate ® Ba-ferrimannite ® Ba-chloride .

Dopo aver passato attraverso questa serie di composti , molti dei quali cristallizzati in modo magnifico , l’attività del cloruro di Bario risultante e la preparazione per il confronto erano misurati alternativamente usando lo stesso contatore, con uguale peso e spessore dello strato . L’iniziale attività e l’incremento , come risultato della ulteriore formazione del Lantanio attivo, erano gli stessi per entrambi i campioni , entro i limiti dell’errore : la cristallizzazione di così tanti e differenti sali non ha prodotto una separazione del Bario attivo dal carrier [ ndr : Bario inattivo ] . Si può solo concludere che il prodotto attivo e il carrier erano chimicamente identici cioè Bario “ (8).

Fu un lavoro quasi impossibile

Il nostro racconto termina qui con la scoperta del primo frammento della fissione nucleare , l’atomo di Bario . Ma quanti sono gli isotopi dei vari nuclei che si formavano negli esperimenti di fissione nucleare , che per quattro , cinque anni furono portati avanti prima da Fermi e poi , principalmente , dai gruppi di Parigi e di Berlino ? Hahn scrive nella Nobel Lecture, 1946 :

“ All’inizio del 1945 siamo stati capaci di fare una tabella nella quale erano raccolti , come prodotti diretti e indiretti della fissione dell’Uranio , venticinque differenti elementi sotto forma di circa cento tipi di atomi attivi ( n.d.r. : loro isotopi ). Gli atomi attivi , che abbiamo creduto fino al 1939 elementi transuranici , erano tutti prodotti di fissione o loro successivi prodotti , e non elementi con numero atomico più alto rispetto all’Uranio ! ” (8).

L’opinione di Lise Meitner

Lise Meitner , la fisica che dovette lasciare il gruppo di Berlino nella parte più critica del lavoro, continuò la collaborazione con Hahn e Strassmann , dando un contributo molto importante . Né lei , né Strassmann condivisero il premio Nobel con Hahn . Molti pensano che entrambi avrebbero dovuto ricevere il premio.

Tuttavia i suoi rapporti con Hahn rimasero sempre improntati a grande amicizia . Riporto l’opinione che espresse , anni dopo la scoperta della fissione , sul lavoro fatto dai due chimici :

“Otto Hahn e Fritz Strassmann furono in grado di scoprire la fissione nucleare perché usarono una chimica eccezionale , una chimica incredibilmente avanzata , che era molto più avanti di quanto fosse possibile in quel momento . Gli Stati Uniti appresero ad usarla molto più tardi . Però in quel momento , nel 1938 , Hahn e Strassmann erano gli unici che potevano farlo , perché erano ottimi chimici “

Conclusione

 Fu una impresa quasi impossibile riuscire , da quel paniere di atomi differenti o per numero atomico o per numero di neutroni, con attività diversa per ciascuno , che variava continuamente nel tempo e partendo da ipotesi fuorvianti , a scoprire il fenomeno della fissione nucleare .

(Nota del postmaster: altri post in cui si dicute questo argomento:

https://ilblogdellasci.wordpress.com/2015/08/04/era-bario-davvero/

https://ilblogdellasci.wordpress.com/2017/11/20/scienziate-che-avrebbero-dovuto-vincere-il-premio-nobel-lise-meitner-1878-1968/)

 

Bibliografia completa

 

  1. The Nuclear Fission Table in the Deutsches Museum: A Special Piece of Science History on the Eve of World   War II , di Susanne Rehn-Taube
  2. La fisica e il suo divenire. Sull’esperienza storica della conoscenza fisica , di Fritz Krafft
  3. The detours leading to the discovery of nuclear fission, di Kurt Starke J.C.E. 1979 , Dic
  4. The Transuranium Elements   , Glenn T. J.C.E. Seaborg J.C.E , 1985
  5. Irena Curie et Paul Savitch. de Phys. et Rad., 1937 , 7 , 385
  6. Irene Curie et Paul Savitch , R., 1938 , 206 , 906
  7. Irene Curie et Paul Savitch , de Phys. et Radium ., 1938 , 9, 355
  8. From the natural transmutations of uranium to its artificial fission , Otto Hahn , Nobel Lecture,

La Giornata mondiale dell’ambiente 2018.

In evidenza

Luigi Campanella, già Presidente SCI

Nel 1972 l’Assemblea Generale delle Nazioni Unite proclamava la Giornata Mondiale dell’Ambiente ,che sarebbe stata festeggiata da quel momento in poi il 5 giugno di ogni anno. Quella di quest’anno è stata ospitata alcuni giorni fa in India, con il tema l’inquinamento dei mari e degli oceani. L’Italia è stata nazione ospitante nel 2015. In ogni caso eventi paralleli si svolgono per la celebrazione in 150 Paesi.

Tornando all’oggi il pericolo maggiore per oceani e mari è rappresentato dalla plastica, un pericolo di vecchia data (si pensi che sono stati ripescati pezzi datati 1950!) in linea con il fatto che ogni minuto nel mondo si acquistano un milione di bottiglie di plastica e solo una piccola parte viene riciclata e che 8 milioni di ton di rifiuti plastici finiscono in mare distruggendo l’habitat sottomarino. A tale distruzione contribuiscono anche le buste di plastica: si pensi che se ne acquistano 500 miliardi l’anno e che ovviamente una parte di esse non può non finire in mare.

La scelta dell’India da questo punto di vista è esemplare in quanto si tratta del Paese con il più alto tasso di riciclaggio. Lo slogan dell’evento è per l’appunto: Combatti l’inquinamento da plastica; se non puoi usare lo stesso pezzo più volte rifiutala.

L’UNEP l’organizzazione mondiale contro l’inquinamento ha giustamente riconosciuto questi meriti all’India, peraltro anche impegnata contro i cambiamenti climatici. L’Italia ha celebrato la Giornata con alcuni eventi, fra i quali di notevole rilievo l’Eataly Lingotto dedicato a valorizzare le eccellenze locali in fatto di letteratura,cucina e musica.

Durante la giornata il WWF Italia ha lanciato le borse della spesa riutilizzabili. A Palermo gli universitari hanno organizzato la festa ribattezzata da Fiorello “Aricugghiemu ‘a plastica” , durante la quale i rifiuti plastici dispersi nell’ambiente sono stati raccolti ed avviati al riciclo.

Ancora in Sicilia è stato lanciato un video “Spiagge plastic free”. A Roma è stato organizzato un incontro pubblico sul ciclo di vita dei materiali

Malgrado questi segnali di rinsavimento viviamo ancora in un mondo nel quale c’è un’”isola” (in realtà un ammasso galleggiante) chiamata Great Pacific garbage patch, fra la California e le Hawaii, costituita completamente da rifiuti di plastica , valutati in 8mila tonnellate. Anche le previsioni non aiutano: nel 2050 secondo alcune proiezioni mangeremo plastica, visto che essa avrà colonizzato le nostre risorse alimentari, soprattutto marine.

Qualche dato incoraggiante c’è e viene anche dal nostro Paese dove il consumo dei sacchetti di plastica si è ridotto del 55% dal 2012, quando ne eravamo i primi produttori.

Il cocktail micidiale fatto di aumento dei consumi individuali e crescita della popolazione mondiale sta facendo saltare il banco, cioè il sistema climatico che garantisce le condizioni di sopravvivenza. Il fatto che dinnanzi a questi pericoli si registrino ritardi di correzione di rotta fa riflettere: forse bisognerebbe più che allarmare educare dando immediata speranza di un restituito equilibrio ai teritori, intervenendo sugli aspetti geopolitici, allineando ragioni ambientali e sociali.

Per finire un altro recente allarme: oltre la plastica gli abitanti della terra, o almeno di parti di essa, sono anche potenti smaltitori di mozziconi di sigaretta nella sabbia, sebbene sia vietato.

I ricercatori che studiano il sito del Golfo Persico hanno rilevato in alcune sue zone livelli di ferro, cadmio, arsenico, nichel, rame, zinco e manganese. I filtri di sigaretta – composti da acetato di cellulosa- fanno da mezzo di trasporto ai metalli negli ambienti marini con effetti disastrosi su piante ed animali e la possibilità di ingresso anche nella catena alimentare.

La storia della scoperta della fissione nucleare : i chimici risolvono un problema fisico . Prima parte

In evidenza

Roberto Poeti

 Un “tavolo particolare” al Deutsches Museum di Monaco di Baviera

Una visita al Deutsches Museum riserva tante sorprese nel campo della scienza e della tecnologia . Ma una in particolare lascia a bocca aperta. Nel settore “ Fisica “ del Museo , un vecchio tavolo di legno attira l’attenzione (Fig1). E’ ingombro di materiale elettrico come prese e interruttori in bachelite , vecchi condensatori , amplificatori , batterie , valvole ecc.. e una rete di fili che li collegano . Nel piano inferiore sono alloggiate una serie di batterie . Potrebbe essere il banco di un elettricista prima dell’avvento dei transistor , se non fosse per uno strano cilindro di colore giallognolo e di materiale translucido poggiato ad un lato del tavolo , sembra una torta (Fig 2). Cosa rappresenta il tavolo ? E’ l’originale attrezzatura che usò Otto Hahn, premio Nobel per la Chimica , che insieme a Lise Meitner and Fritz Strassmann scoprirono la fissione dell’uranio nel 1938 (Fig3).

Figura 1

Il piano del tavolo con l’attrezzatura e sotto il piano inferiore dove sono alloggiate le batterie . A destra , del tavolo , di fronte , accanto al quaderno degli appunti , due contatori Geiger e Muller .

Figura 2

Particolare del tavolo

Nell’angolo in alto a destra del tavolo il cilindro , simile ad una torta, è il cuore del sistema. E’ costituito da paraffina e al centro , in una incavatura , è contenuto la sorgente di neutroni costituita da Be/Ra. A lato , sempre immerso nella paraffina , si trova il campione di uranio.

Figura 3

A sinistra Fritz Strassmann (1902–1980), al centro Otto Hahn (1879–1968) che illustra gli strumenti del tavolo ( 1962)

Si ritiene che il tavolo e molti strumenti siano autentici , compreso il cilindro di paraffina . E’ fonte di stupore per i visitatori del museo vedere come la più grande scoperta del ventesimo secolo , la fissione nucleare , che ha segnato la nascita di una nuova era , possa essere contenuta in un tavolo di elettricista . Il tavolo è considerato “ il capolavoro “ della collezione del museo (1) . Va tuttavia precisato che il lavoro completo si svolgeva in tre distinti luoghi : in una stanza avveniva l’irradiazione del campione di uranio con la sorgente di neutroni , in una seconda stanza era allestito il laboratorio di Chimica e in una terza veniva misurata la radioattività dei prodotti . La scoperta della fissione dell’atomo venne attribuita ad Otto Hann , al quale fu conferito il premio Nobel nel 1944 . Una targa commemorativa sulla parete accanto al “ tavolo“ ricorda che la scoperta è condivisa con Lise Meitner e Fritz Straßmann , la prima un fisico e il secondo un chimico .

La percezione del ruolo della chimica

Il paradosso della scoperta della fissione è che , mentre ufficialmente il Nobel fu assegnato ad un chimico , non viene percepita a livello culturale come un obbiettivo raggiunto dalla Chimica . E forse non si conosce neppure in cosa consista il contributo dato dai chimici che vi lavorarono .

La beuta caudata con imbuto Buchner , che si vede accanto al blocco di paraffina nella figura 2 , è il solo richiamo ad una operazione chimica , messa come simbolo . Insomma il “tavolo “ è un oggetto fortemente evocativo , tuttavia non aiuta a comprendere il peso che vi ebbe la scienza chimica.

La Chimica fu fondamentale per Maria Curie

Nel suo libro “ La Fisica e il suo divenire “ Fritz Krafft , storico della scienza, titola un capitolo “ I chimici risolsero un problema fisico . Per una storia della scoperta della fissione nucleare “ (2) . Il titolo centra il nocciolo del problema : senza gli strumenti della Chimica non si sarebbe arrivati al traguardo . Non c’è stato gruppo di ricerca nella storia della radioattività che non abbia visto la partecipazione decisiva diretta o indiretta dei chimici , a partire dalle scoperte degli elementi Radio e Polonio da parte di Maria Curie. La stessa scienziata aveva seguito a Varsavia , prima di venire a Parigi , dei corsi non ufficiali di laboratorio di Chimica presso il Laboratorio del Museum of Industry and Agriculture . Ricordiamo che la Polonia era sotto la dominazione della Russia zarista e l’educazione scientifica era preclusa alle donne . Il direttore del museo, cugino di Maria Curie , era il chimico Josef Boguska, educato a San Pietroburgo sotto Dmitrij Mendeleev di cui era stato poi assistente : “ Sviluppai la mia passione per la ricerca sperimentale durante queste prime prove” , scriverà in seguito la scienziata .

Gustave Bemont , a sinistra della foto, con i coniugi Curie

Durante le sue ricerche sul Polonio e il Radio ebbe come collaboratore un chimico , presto passato in secondo piano , Gustave Bémont ( 1857 – 1937 ) professore all’ École de Physique et Chimie di Parigi. Nel primo numero della rivista Radium appare accanto ai coniugi Curie . L’altro chimico che collaborò con Maria Curie dopo la morte del marito è stato André Debierne (1874-1945) scopritore del l’Attinio . Ma vedremo, più avanti , come la presenza dei chimici si confermerà determinate anche nella scoperta della fissione nucleare .

La scoperta del Neutrone

 La scoperta del neutrone, avvenuta nel 1932 per opera di James Chadwick , determina la nascita di linee di ricerca volte a utilizzare le nuove particelle come proiettili per modificare gli atomi. In realtà già Rutherford nel 1919 , usando particelle α , aveva ottenuto la prima trasmutazione artificiale dell’atomo , a cui però sfuggivano gli atomi degli elementi più pesanti per la repulsione esercitata dalla loro grossa carica positiva sulle particelle α . Si deve a Fermi l’uso dei neutroni e la scoperta della loro efficacia se venivano fatti passare attraverso un mezzo che ne rallentasse la velocità . Da tali programmi si arriva  alla fine a scoprire la fissione nucleare ( 1938 ) .

I protagonisti della scoperta della Fissione Nucleare

 Alla scoperta in se parteciparono solamente tre gruppi di ricerca. Tutti gli altri gruppi di ricerca si erano prevalentemente accontentati della riproduzione e conferma dei risultati ottenuti in rapida sequenza dalle piccole équipes attive a Roma , Parigi e Berlino . Per poter arrivare a comprendere la fissione nucleare occorreva , oltre che alla padronanza dei metodi radio-chimici, una eccezionale abilità analitica e conoscenze chimico–analitiche notevoli , capaci di fornire la spinta decisiva . Il fatto che questi requisiti fossero ben presenti nel gruppo berlinese , specie nella persona di Fritz Strassmann, costituisce una delle ragioni del perché la scoperta poté essere fatta a Berlino e non a Roma o Parigi. In effetti al gruppo romano solo nel 1934 e per breve tempo appartenne un chimico , Oscar D’Agostino, che in precedenza si era familiarizzato a Parigi con i metodi radiochimici . Irène Curie , del laboratorio di Parigi , pur essendo anche lei una fisica , possedeva notevoli esperienze nel campo dei metodi radiochimici messi a punto dai suoi genitori e aveva lavorato nel 1937-38 con il fisico chimico Pavel Savič , tuttavia mancava di profonde conoscenze analitiche . La peculiare composizione però dell’équipe di Berlino , che comprendeva una fisica nucleare , Lise Meitner , un radio chimico , Otto Hann e un chimico analitico , Fritz Strassmann , costituì chiaramente un presupposto della scoperta , giacché garantiva la  «presenza » di tutte quelle conoscenze e abilità che si rivelarono più tardi necessarie .

Anni dopo Enrico Fermi dichiarava che ciò che gli era mancato per raggiungere l’obbiettivo della scoperta della fissione nucleare erano state le conoscenze e competenze dei chimici (3). Troppo tardi e per breve tempo aveva cercato di colmare il vuoto aggiungendo al gruppo un valido chimico come D’Agostino . Nel suo gruppo il rapporto chimici /fisici era di 1 a 5 , in quello di Berlino era 2 a 1 .

Gli ostacoli interni alla Chimica

Alle già complesse operazioni di laboratorio volte a separare e identificare i radio nuclidi derivanti dal bombardamento dell’uranio con neutroni lenti si opponevano grossi ostacoli di natura interna alle discipline di Chimica e Fisica . Per comprendere intanto quelle inerenti alla chimica è necessario tenere presente la tavola periodica come si presentava fino agli anni 1940 .

Allora si era convinti che le configurazioni basate su orbitali f fossero limitate ai solo lantanidi . Non era stato identificato alcun elemento più pesante dell’uranio e le proprietà degli elementi noti più pesanti (Ac , Th , Pa, U ) sembravano rassomigliare a quelle dei metalli di transizione di tipi d dei gruppi III b – VI b ( La , Hf ,Ta, W, Re ) della tavola periodica in modo sufficiente da permettere la classificazione in tali gruppi . Per comprendere quanto fosse radicata questa impostazione che, a parte l’introduzione dei gas nobili e lantanidi, aveva ancora l’impianto della tavola di Mendeleev del 1872 , c’è un episodio che ci racconta Glenn T. Seaborg ( Premio Nobel per la Chimica 1951 ) . Dopo aver dato alla tavola periodica un nuovo arrangiamento ( 1944 ) con l’introduzione della serie degli attinidi e quindi la collocazione corretta degli elementi transuranici , Seaborg decide di pubblicare la scoperta in Chemical and Engineering News . Ma prima mostra  l’articolo ai suoi colleghi :

« They said, “Don’t do it, you’ll ruin your scientific reputation.” I had a great advantage. I didn’t have any scientific reputation at that time, so I went ahead and published it. » (4).

Quanta inerzia culturale ci fosse nelI’ accettare la nuova tavola periodica , ancora nel 1961 , dopo sedici anni dalla scoperta degli Attinidi , lo dimostra La Grande Enciclopedia Italiana della U.T.E.T. , appena pubblicata, che conteneva la Tavola Periodica degli anni trenta ( Fig 4). E per finire , il primo libro di testo di Chimica del biennio, adottato dall’I.T.I.S. di Arezzo, alla sua nascita nel 1960 , proponeva sempre la Tavola Periodica degli anni trenta (Fig5).

Tavola periodica presente nel

Grande Dizionario Enciclopedico “ UTET

pubblicato nel 1961

Figura 4

Tavola periodica nel testo di Chimica per il biennio dell’I.T.I.S. di Arezzo del 1960

Figura 5

Gli ostacoli interni alla Fisica

Nel versante della fisica veniva negata la possibilità che bombardando nuclei pesanti , come l’Uranio , con neutroni vi fosse la possibilità di ottenere la frammentazione del nucleo . In tutti i processi nucleari , fino ad allora osservati sugli elementi più leggeri , il numero atomico era cambiato al massimo di due unità . La sola persona che sostenne la possibilità della frammentazione del nucleo di elementi pesanti fu la chimica e fisica Ida Noddack scopritrice del Renio . Il suo articolo del 1934 , nel quale sosteneva questo punto di vista , fu praticamente ignorato dai fisici nucleari . Poiché i prodotti ottenuti da Fermi , bombardando l’ Uranio , emettevano particelle beta ( non era stata osservata nessuna emissione alfa), lui e i suoi colleghi fecero l’ipotesi plausibile che la trasmutazione produceva isotopi di Uranio a vita breve , che poi, per decadimento β, davano origine a elementi con numero atomico superiore rispetto all’uranio, l’elemento 93 e forse anche 94 ( L’emissione di una particella β comporta l’aumento del numero atomico di una unità , mentre con l’emissione alfa il numero atomico decresce di due unità ) . In una serie di articoli pubblicati tra il 1935 il 1938 Fermi riportava la scoperta di elementi transuranici che venivano chiamati eka-renio , eka – osmio , eka – iridio e eka – platino ( numero atomico 93,94,95,96) .

Quando Fermi ricevette il Premio Nobel nel 1938 venne citato soprattutto per la scoperta degli elementi transuranici!. Rimaneva tuttavia non risolta l’identificazione chimica dei supposti elementi transuranici .

Una ricerca complessa

Mentre il gruppo di Fermi si disperdeva nel 1935 , continuava a Parigi e Berlino la ricerca degli elementi transuranici . Le notevoli difficoltà analitiche che si incontravano nella separazione e identificazione dei radionuclidi provenienti dal bombardamento dell’Uranio con neutroni erano amplificate dalla ipotesi che si ottenessero solo prodotti transuranici . Il bombardamento dell’Uranio produceva una quantità rilevante di differenti radionuclidi e loro isotopi , spesso con rapido decadimento . Le minime quantità che si ottenevano erano rilevabili solo con metodi radiochimici , misurandone la loro attività specifica . L’elemento naturale Uranio , che veniva utilizzato, doveva essere da prima separato dai prodotti della sua stessa radioattività , in particolare un isotopo del Torio . Un operazione complessa senza la quale si sarebbero avute interferenze quando veniva misurata la radioattività dei prodotti ottenuti con il bombardamento neutronico . La separazione e identificazione di questi radionuclidi , ottenuti poi in soluzione , era il vero scoglio da affrontare. Ma quale era il criterio principale di separazione e identificazione su cui si faceva affidamento?.

L’ uso degli elementi Carrier nella separazione dei radionuclidi

Poiché i radioisotopi erano presenti spesso in tracce , per poterli separare , si procedeva con metodi che non potevano essere equiparati con le ordinarie separazioni di quantità pesabili degli elementi stabili. Le tracce di radioisotopi di differenti elementi , spesso con decadimento rapido , potevano essere separati gli uni dagli altri e precipitati con l’aiuto di un elemento carrier . Se in chimica analitica la coprecipitazione è quasi sempre indesiderabile, nell’analisi di tracce di elementi , come in radiochimica , era spesso il solo mezzo di separazione di un elemento. Si doveva scegliere come carrier un metallo che si riteneva potesse essere vicino , nel gruppo o nel periodo , al radionuclide da isolare, avente perciò la stessa carica e solo una piccola differenza nel raggio ionico di quest’ultimo . In questo modo gli ioni del radionuclide avrebbe occupato , sotto forma di inclusione , i siti nella struttura cristallina del composto del carrier , quando questi precipitava dalla soluzione . Ma ci voleva un radiochimico di grande esperienza per distinguere tra un precipitato , sul quale i pochi ioni radioattivi erano assorbiti sulla superfice del cristallo in modo aspecifico , e quello nel quale essi erano parte della struttura cristallina . Solo con la coprecipitazione per inclusione si avevano importanti informazioni sul numero atomico del radionuclide , conoscendo quello dell’elemento usato come carrier . Il passo successivo era quello di separare il radionuclide dal metallo carrier, sfruttando piccole differenze nella solubilità dei loro sali , mediante cristallizzazione frazionata , un processo che richiedeva molto tempo (4) . La scelta dei carrier , nella nostra storia , venne fatta supponendo di ottenere elementi transuranici nel bombardamento dell’uranio e che questi fossero inquadrati nella tavola periodica come elementi di transizione sotto Renio , Osmio , Iridio , Platino . I metalli usati come carrier erano perciò scelti tra questi , e precipitati prevalentemente come solfuri. La coprecipitazione che si otteneva era però aspecifica , spesso per adsorbimento , perché si partiva dalla errata convinzione che si formassero elementi transuranici . Si ottenevano così informazioni fuorvianti sulla identità dei radionuclidi . Questo comportò un lavoro infruttuoso per molto tempo che servì , malgrado tutto , a migliorare le tecniche radiochimiche e analitiche.

( continua nella seconda parte )

Nota del blogmanager: sul medesimo argomento il blog ha pubblicato altri articoli fra cui:

https://ilblogdellasci.wordpress.com/2017/11/20/scienziate-che-avrebbero-dovuto-vincere-il-premio-nobel-lise-meitner-1878-1968/

https://ilblogdellasci.wordpress.com/2017/11/06/scienziate-che-avrebbero-dovuto-vincere-il-premio-nobel-ida-noddack-1896-1978/

Bibliografia

  1. The Nuclear Fission Table in the Deutsches Museum: A Special Piece of Science History on the Eve of World   War

               War II , di Susanne Rehn-Taube

  1. La fisica e il suo divenire. Sull’esperienza storica della conoscenza fisica , di Fritz Krafft
  2. The detours leading to the discovery of nuclear fission, di Kurt Starke J.C.E. 1979 , Dic
  3. The Transuranium Elements   , Glenn T. J.C.E. Seaborg J.C.E , 1985

Salute, ambiente e competitività: il ruolo della chimica.

In evidenza

Fabrizio Demattè*

Documento preparatorio convegno REACH2018 a cura dell’Ordine Regionale dei Chimici del Trentino Alto Adige.

L’Ordine Regionale dei Chimici del Trentino Alto Adige – Südtirol organizzerà venerdì 22 giugno 2018 presso il MUSE a Trento un convegno riguardante i regolamenti REACH e CLP. Nostro scopo è portare all’attenzione del tessuto economico e sociale le novità volute dalla Comunità economica europea in tema di sostanze chimiche, ed in particolare quelle pericolose.

Abbiamo scelto come immagine un dodicenne (perché questo è il tempo trascorso dalla prima emanazione del REACH) il quale maneggia con destrezza i pittogrammi (CLP) che rappresentano graficamente la pericolosità delle sostanze chimiche interessate dal regolamento.

Molti “portatori di interesse” contattati in mesi di preparazione (mondo produttivo, istituzionale, sociale e assicurativo) hanno risposto positivamente all’iniziativa riconoscendo lo studio della pericolosità dei chemicals, la loro valutazione e comunicazione una cosa non soltanto da chimici bensì una questione di pubblica.

REACH e CLP sono due regolamenti europei di fondamentale importanza (Reg. 1907/2006 e Reg.1272/2008) adottati per migliorare la protezione della salute dell’uomo e dell’ambiente dai rischi delle sostanze chimiche ed è rivolto non solo a quelle utilizzate nei processi industriali, ma anche a quelle presenti, nei detergenti, nelle vernici, nei giocattoli, negli abiti, nei mobili, in campo elettronico, cioè nel quotidiano. Ben narrato dalle grafiche di questo sito. https://chemicalsinourlife.echa.europa.eu

Bisfenolo A, noto interferente endocrino utilizzato negli scontrini del bar ed in passato nelle tettarelle dei lattanti, sostanze utilizzate per trattare e tingere i nostri vestiti, pigmenti utilizzati nei tatuaggi, sostanze utilizzate per chiarificare le nostre acque potabili, arsenico nei vetri di Murano, e formaldeide ceduta da alcuni contenitori per alimenti, sono alcuni dei temi di cui discuteremo sicuri della loro importante ricaduta nel nostro quotidiano.

Tali regolamenti impongono a tutto il sistema produttivo europeo uno studio circa la pericolosità o non pericolosità delle sostanze utilizzate in funzione dell’utilizzo che poi ne verrà fatto e si propongono come strumento per stimolare la competitività e l’innovazione: secondo il legislatore europeo sarà il mercato stesso a mettere al bando le sostanze più pericolose.

“No data no market” è il titolo dell’articolo 5 del REACH, ad una lettura superficiale può sembrare un semplice slogan ma è invece una scelta precisa ed elemento di forza innovatrice di REACH. Come “data” si intendono i dati sulle sostanze in circolazione, che devono essere prodotti con studi ad hoc e pagati non più dalle istituzioni ma da chi pone la sostanza sul mercato. Secondo gli scenari del legislatore il controllo delle sostanze pericolose sarà dettato dal mercato stesso che sta già naturalmente andando verso prodotti più salubri all’aumentare della consapevolezza.

In questi 12 anni di applicazione la normativa di prodotto REACH ha delineato quattro importanti nodi da sciogliere:

  1. Chi produce le sostanze industrialmente è già attivo nel loro studio e nella registrazione delle stesse fin dal 2007, ma il mondo delle piccole o micro imprese che acquistano sostanze e le mescolano è ancora lontano sia dall’utilizzare le informazioni che le prime mettono a disposizione e dall’applicare in conseguenza REACH e CLP.
  2. Chi commercia i beni non è ancora bene informato circa le opportunità offerte e circa gli obblighi e le sanzioni della normativa. Sottovalutando perlopiù questo aspetto questo settore si è assunto, inconsapevolmente, un rischio di “no market” ovvero il blocco del mercato per articoli non conformi.
  3. I consumatori hanno il diritto di conoscere, se presenti negli oggetti che stanno acquistando, il contenuto in sostanze particolarmente preoccupanti (SVHC). Ma ancora non sono consapevoli di questo importante strumento.
  4. Intercettare alla fonte sostanze che si rivelano essere pericolose permetterebbe di evitarne la loro diffusione in ambiente. l’ambito di tutela ambientale scaturito dal REACH è ancora molto poco sviluppato e la stessa norma sociale di tutela dell’ambiente non ha recepito i molteplici cambiamenti linguistici di REACH e CLP.

Per questo il 22 giugno a Trento, presso MUSE “luogo dove la scienza incontra l’umanità”, l’Ordine regionale dei chimici TAA ha organizzato un convegno con una ventina di relatori che scambieranno e forniranno informazioni sulla applicazione della nuova disciplina della chimica in Europa

La cura delle malattie scaturisce dall’evidenza contingente mentre l’investimento in prevenzione parte dalla lungimiranza di amministratori saggi.

Come il ragazzino dell’immagine maneggia con destrezza i pericoli guardando con ottimismo al futuro, condividiamo questo momento con chiunque vorrà partecipare all’evento, registrandosi sul sito www.chimicitaa.org. Iscrizione obbligatoria, (gratuita per i cittadini 20€ per professionisti.)

Evento in Facebook https://www.facebook.com/events/242691492947295/

  • Fabrizio Demattè, chimico, professionista ed iscritto alla SCI, si occupa da sempre dei temi del REACH, coordinando l’attività relativa dell’Ordine Regionale Chimici TAA.

Due capitoli significativi del Sistema Periodico di Levi: Cromo e Azoto

In evidenza

Mauro Icardi

Credo che nell’opera di Primo Levi “Il sistema periodico” sia uno dei libri più rappresentativi. Il libro è essenziale, e non è un caso che nel 2006 la Royal Institution britannica lo abbia scelto come il migliore di scienza mai scritto. In realtà non si può definirlo soltanto un testo scientifico, in quanto è un testo anche autobiografico. E’ un libro che ho molto regalato e molto consigliato. Che può essere apprezzato dai chimici e dai non chimici.

Forse può sembrare riduttivo, ma dovendo scegliere due capitoli che incarnino pienamente lo spirito del chimico, ed in particolare quello del chimico che applica la sua conoscenza nella risoluzione di problemi pratici, due risaltino in maniera particolare: “Cromo” e “Azoto”.

Il primo ambientato nell’immediato dopoguerra, racconta l’esperienza di Levi nel suo primo approccio con l’industria dei prodotti vernicianti, che sarà poi il lavoro che lo scrittore svolgerà per buona parte della sua esperienza lavorativa alla SIVA di Settimo Torinese.

Nel 1946 Levi lavora alla Duco di Avigliana. L’esperienza del Lager è recente e viva nella sua memoria. E’ spesso triste, isolato. Ma in quel periodo su uno dei fumosi ed arrangiati treni del dopoguerra che lo trasportano da Torino alla fabbrica in riva al lago, lo scrittore conosce quella che diventerà sua moglie, Lucia Morpurgo. E contemporaneamente, mentre nelle ore morte del lavoro continua la stesura di “Se questo è un uomo”, riceve finalmente un incarico che lo sottrae alla routine ed alla noia. Deve occuparsi di risolvere un problema. Provare a recuperare un lotto di vernici solidificate ed apparentemente inutilizzabili che giacciono in un angolo del cortile dell’azienda.

La soluzione del problema della vernice antiruggine ai cromati affronta uno dei temi cari allo scrittore. Quello del lavoro, della sua etica. Levi che nel primo periodo di lavoro non ha compiti fissi e viene invitato a studiare il processo di produzione delle vernici e a tradurre articoli tecnici dal tedesco, soffre di questa sua inattività pratica.

Ma finalmente il direttore dell’azienda lo incarica di recuperare le vernici inservibili. E Levi si appassiona. Ottiene i certificati di collaudo delle materie prime, i referti analitici delle vecchie analisi di controllo qualità. Si guadagna la nomea di rompiscatole. Ma finalmente capisce da dove origina il problema della solidificazione di quelle vernici. Il cromato acquistato per la produzione delle vernici deve, per contratto, non contenere meno del 28% di ossido di cromo totale. Ma la ricerca d’archivio mostra una anomalia sconcertante. Ogni lotto di cromato acquistato e collaudato mostra una percentuale di ossido fissa ed immutabile, cioè il 29,5% tra un lotto ed un altro. Ed è proprio questa anormalità, questo ripetersi di cifre uguali che fanno torcere le fibre di chimico di Levi. Che recuperate le quasi inviolabili PDC (prescrizioni di collaudo), leggendole con attenzione si accorge di un errore, dovuto ad una dimenticanza. Ovvero la scheda di collaudo è stata revisionata, e nell’istruzione operativa per il colludo del pigmento si legge che dopo la dissoluzione del pigmento, si devono aggiungere 23 gocce di un certo reattivo. Ma nella scheda precedente si legge che dopo la dissoluzione si devono aggiungere 2 o 3 gocce di reattivo. La “o” fondamentale è sparita nella trascrizione e revisione della scheda. L’eccesso ingiustificato di reattivo aggiunto ha falsato le analisi su quel valore fittizio di 29,5%, che ha nascosto ed impedito di respingere lotti di pigmenti troppo basici e che si sarebbero dovuti scartare.

Levi riuscirà a risolvere il problema inserendo nella formulazione di quel tipo di vernice il cloruro d’ammonio, che combinandosi con l’ossido di piombo, e liberando ammoniaca correggerà l’eccesso di basicità. Passeranno poi gli anni, e il cloruro d’ammonio inserito da Levi si continuerà ad usare, anche se a rigor di logica avrebbe dovuto essere utilizzato unicamente per recuperare le vernici non conformi.

Questo capitolo del libro mi è sempre molto piaciuto. Credo non sia così infrequente quando si lavora, dover fare i conti con alcune convenzioni radicate, che si continuano ad osservare, ma che ormai sono prive di significato pratico. Posso dire che mi sono capitate. Molte volte soprattutto nella gestione di alcune sezioni del depuratore. E queste situazioni insegnano a relazionarsi al meglio. Perché prendere il problema di punta, o scontrarsi non sortirebbe alcun risultato. Un episodio ricollegabile all’atmosfera di questo racconto Leviano mi capitò nei primi anni di lavoro. Un addetto alla conduzione dell’impianto mi venne a cercare per dirmi che a suo parere “avevamo fatto estrarre troppo fango di supero, e in disidratazione di fango non ne arrivava più”

Premetto che un’eventualità di questo genere e quantomeno remota se non impossibile. Una vasca di ossidazione si svuota se sono in avaria le pompe di ricircolo. E’ un’impresa svuotarle con un’eventuale errata impostazione delle pompe di spurgo. E questo l’ho capito dalla teoria e da molta pratica sul campo. Ma allora era da poco meno di un anno che lavoravo nel settore. Mi aspettavo di trovare un fango con poca concentrazione di solidi, molto diluito. In realtà non trovai proprio nulla. Semplicemente il trascinamento di materiale sfuggito alla sezione di grigliatura (il famigerato “malloppo” di bastoncini per orecchie, e un groviglio di calze da donna) aveva ostruito la girante di una pompa. E quindi interrotto il flusso idraulico. L’episodio mi fece tornare in mente il racconto di Levi.

Molte volte le abitudini, la potente narcosi delle pratiche burocratiche possono spegnere le migliori intenzioni. E l’atmosfera di “Cromo” ne da conto con uno stile profondamente umoristico.

Il secondo racconto del libro che ho letto e riletto, e che molte volte mi capita di citare è “Azoto”.

In questo racconto è narrata la singolare e fallimentare ricerca di sintetizzare allossana da utilizzare per la formulazione di rossetti per labbra. Essendo la molecola sintetizzabile per demolizione ossidativa dell’acido urico, Levi cerca di procurarsi la materia prima cercando vari tipi di escrementi, di rettili o di uccelli (le galline in questo caso) che ne sono ricchi, perché eliminano l’azoto allo stato solido come acido urico insolubile, e non allo stato liquido come nei mammiferi tramite la molecola di urea.

Qui le riflessioni di Levi sulla materia “né nobile, né vile” sulla poca, anzi nulla importanza della sua origine prossima, meriterebbero di essere lette come programma nei corsi e nelle lezioni divulgative di chimica.

Anche qui c’è un fondo umoristico ed una riflessione autobiografica. Pensare che una materia prima per produrre rossetti destinati ad abbellire le labbra delle signore, possa provenire da escrementi di gallina non turba per nulla Levi. Non è avvezzo a certi ribrezzi, soprattutto dopo l’esperienza del Lager.

Io mi sono servito di questo racconto, e delle riflessioni di Levi sulla materia quando mi è capitato di parlare di argomenti quali il riciclo integrale di acque reflue, o della gestione o analisi di campioni “difficili” quali fanghi, morchie, o residui alimentari, in particolare i fanghi provenienti dalla depurazione di acque di salumificio o dalla produzione di pasti per mense scolastiche.

Non ho mai avuto problemi nell’occuparmi di queste tipologie di campioni, a differenza di colleghi o di studenti che in visita agli impianti di trattamento, o durante gli stages si trovavano in una comprensibile e tutto sommato ovvia difficoltà.

Eppure proprio in “Azoto” Levi descrive in maniera mirabile un ciclo, quello dell’Azoto appunto, con molta naturalezza e semplicità. Cogliendo in pieno la filosofia della chimica come scienza della materia e delle sue trasformazioni. Due capitoli di un libro “Il sistema periodico” che ancor più de “La chiave a stella” avvicina il lettore alla doppia anima di Primo Levi. Al suo mestiere di chimico a quello di scrittore. Sono ancora molte le persone che non sanno che Levi era un chimico. Leggendo questo libro capirebbero alcune cose di chimica, molte altre su Levi. Un autore che va letto perché ha molto da dirci. La dualità di chimico e scrittore è il fondamento del suo stile letterario.

Scienziate che avrebbero potuto vincere il Premio Nobel: Maria Bakunin (1873-1960)

In evidenza

Rinaldo Cervellati

Maria (Marussia, per famigliari e amici) Bakunin, straordinaria figura di donna e scienziata italiana napoletana, merita un post di rilievo in questa rassegna. Di origine russa, terzogenita del famoso filosofo libertario Michail Bakunin[1] e di Antonia (Antossia) Kwiatowoska, nacque a Krasnojarks (Siberia centrale) il 2 febbraio 1873. Tre anni dopo la nascita morì il padre e tutta la famiglia si trasferì a Napoli dove Michail aveva stabilito forti legami fondandovi un giornale e un’associazione libertaria.

Maria Bakunin ha passato praticamente tutta la sua vita personale e professionale a Napoli, fornendo fondamentali contributi in stereochimica, chimica organica di sintesi e fotochimica in un’epoca in cui senza metodi strumentali, ma solo attraverso manipolazioni chimiche, i chimici riuscivano a riconoscere i “pezzi” di una molecola e ad assemblarli in un’unica struttura. Per molto tempo quasi dimenticata, in anni più recenti sono comparse molte biografie e ricordi di studiosi italiani, fra questi vanno in particolare menzionati Rodolfo Alessandro Nicolaus[2] e Pasqualina Mongillo[3] alle cui opere [1,2] ho attinto per questo post. Una sua biografia si trova anche nel libro European Women in Chemistry [3].

Ritratto di Maria Bakunin,dono del Prof. R.A. Nicolaus all’Accademia Pontaniana

A Napoli, fra ideali di libertà e stimoli intellettuali, la giovane Maria ricevette un’ottima educazione: quella educazione distaccata che potenzia il controllo di se stessi [2]. Conseguì il diploma di maturità classica al liceo Umberto I, si iscrisse quindi a chimica cominciando nel 1890, ancora studente, a lavorare all’Istituto Chimico dell’Università di Napoli in qualità di preparatore. Si laureò nel 1895 a 22 anni con una estesa e brillante tesi sugli isomeri geometrici, sotto la guida di Agostino Oglialoro[4], di cui in seguito divenne moglie.

Siamo negli anni in cui la stereochimica, fondata principalmente da Van ‘t Hoff attorno al 1873, era un nuovo, fertile campo di ricerca in chimica e Bakunin apportò un notevole contributo al suo sviluppo con la sua prima pubblicazione riguardante gli stereoisomeri degli acidi fenilnitrocinnamici [4]. Proprio in connessione con gli isomeri geometrici di queste sostanze Bakunin iniziò a condurre indagini di natura fotochimica. E’ interessante sottolineare che anche la fotochimica era all’epoca un settore di ricerca in via di sviluppo specialmente in Italia grazie ai lavori di Giacomo Ciamician e dei suoi collaboratori all’Università di Bologna.

In una nota del 1898 [5], Bakunin riporta che l’esposizione alla luce solare dell’isomero trans dell’acido 2-fenil-p-nitrocinnamico ne provocava la trasformazione nell’isomero cis. La citazione precisa di questa osservazione si trova in una memoria di M. D’Auria [6], dalla quale ho preso la seguente figura:

Fotoisomerizzazione acido 2-fenil-p-nitrocinnamico [6, p. 162]

L’interpretazione elettronica della foto isomerizzazione si trova pure nel lavoro di D’Auria alle pp. 162-163.

Successivamente la reazione venne ottenuta anche utilizzando una lampada ultravioletta ma risultava molto più lenta [7]. In questo lavoro Bakunin osservò che l’acido fenilcinnamico rimaneva inalterato come pure l’acido 2-fenil-o-nitrocinnamico.

Il problema della sicura assegnazione di una struttura trans oppure cis agli isomeri geometrici degli acidi cinnamici sostituiti poteva trovare una soluzione verificando la loro capacità a dare indoni per ciclizzazione (disidratazione). Bakunin elaborò un metodo che, utilizzando l’anidride fosforica dispersa in un solvente inerte, realizzava la ciclizzazione senza che essa fosse accompagnata dalla trasformazione di uno stereoisomero nell’altro. Contemporaneamente riuscì anche a chiarire il meccanismo della ciclizzazione degli acidi cinnamici sostituiti, dimostrando che essa decorre attraverso la formazione di anidridi che furono anche isolate [1]. Durante questi studi, Bakunin notò che il 2-fenil-4-nitroindone (ottenuto per ciclizzazione dell’acido 2-fenil-o-nitrocinnamico) si trasformava alla luce in un prodotto diverso che poteva essere correlato a quello che si otteneva durante la disidratazione come sottoprodotto dopo evaporazione del solvente [8]. L’esposizione al sole del composto puro, non in soluzione, dava luogo alla formazione di un prodotto unico alto fondente [9]. Questo tema venne ulteriormente sviluppato in tre successivi lavori dal 1911 al 1914 con la conclusione che si trattava della dimerizzazione di derivati dell’acido cinnamico. Ma all’epoca non esistevano i mezzi per stabilire di quali e quanti dimeri si trattasse. M. D’Auria [6, p. 168], ci dice che la reazione del 2-fenil-4-indone non è mai stata ripetuta e si meraviglia del fatto che il contributo di Maria Bakunin alla fotochimica sia stato pressoché ignorato. La sua esauriente memoria [6] colma questo “buco”.

L’uso dell’anidride fosforica in solventi inerti sostituì presto la precedente tecnica di condensazione che implicava la fusione dei reagenti e spesso portava alla loro decomposizione. L’anidride fosforica in soluzione permetteva un approccio meno drastico con controllo della temperatura di reazione. La stessa Bakunin la utilizzò per sintetizzare diverse classi di composti, esteri, anidridi, eteri [10]. Questo metodo venne poi applicato in Inghilterra per la produzione industriale dell’aspirina [1].

I lavori di Bakunin attrassero l’attenzione di Stanislao Cannizzaro[5], fra i due nacque un rapporto di amicizia oltre che di reciproca stima, come dimostra una selezione della loro corrispondenza citata da Mongillo [2]. Nel 1896 Maria Bakunin partecipò alle celebrazioni per il 70° compleanno di Cannizzaro, sola donna fra i numerosi chimici che vi presero parte. Nella ormai famosa foto di gruppo:

I chimici italiani ai festeggiamenti per il 70° compleanno di Cannizzaro (1986)

Cannizzaro è al centro della seconda fila, Bakunin è a destra in terza fila.

La foto è emblematica della società dell’epoca dove una donna scienziato era un “fenomeno” più unico che raro[6]. Ma Bakunin appare molto sicura di sé, non a caso i suoi biografi affermano che rivelò un carattere indipendente e generoso sin da ragazza.

Si interessò anche agli eterociclici indolici, affrontando la sintesi del nucleo indolico, che ottenne mediante riscaldamento con idrossido di bario degli o-nitrofenilderivati degli acidi della serie etilenica. Studiò anche le melanine, che ancora oggi costituiscono una classe di pigmenti naturali di grande interesse sia per la loro struttura chimica sia per la loro funzione biologica. Il contributo portato in quell’epoca alla conoscenza dei pigmenti melanici è di rilievo se si considera che Bakunin, utilizzando i soli metodi chimici, riuscì a isolare da un melanoma due diversi pigmenti di diverso aspetto e colore e a prepararne i sali di argento e di ammonio [11].

Fu ammessa come socia dell’Accademia Pontaniana[7] nel 1905, lo stesso anno in cui fu nominata socia della Società Nazionale di Scienze, Lettere e Arti in Napoli.

Dal 1909 al 1912 insegnò chimica applicata come professore incaricato, poi come ordinario Chimica Tecnologica Organica nella Scuola Superiore di Ingegneria dell’università di Napoli.

Stato matricolare di Maria Bakunin, quando era docente alla Scuola di Ingegneria

Pur proseguendo le ricerche di chimica organica, Maria Bakunin si interessò di chimica applicata, studiò in particolare gli scisti bituminosi dell’Italia Meridionale. Si tratta di rocce sedimentarie, ricche di materiale organico derivante da resti fossili di animali, in prevalenza pesci. In questo materiale è contenuto l’ittiolo, un farmaco ancora oggi utilizzato in dermatologia. Negli anni 1911-1913, Bakunin si occupò, tra l’altro, della purificazione chimica dell’ ittiolo estratto dalla miniera di scisto bituminoso sita nel Comune di Giffoni in Valle Piana (provincia di Salerno).

In precedenza aveva assistito insieme a altre personalità, all’eruzione del Vesuvio dell’aprile 1906 a Torre Annunziata, alle Ville Bifulco e De Siena. Analizzò i materiali espulsi e le ceneri. Visitò le sorgenti minerali della Valle di Pompei e le analizzò chimicamente e batteriologicamente evidenziandone peculiarità e qualità [2].

Visitò poi molte aree del territorio italiano dedicandosi alla stesura di una mappa geologica del territorio nazionale commissionata agli scienziati dal Ministero della Pubblica Istruzione qualche anno prima.

Bakunin fu anche un’ottima didatta e educatrice, convinta che proprio l’educazione potesse garantire professionalità tale da assicurare sviluppo tecnico e culturale al Paese.

Per il suo talento e qualità didattiche, nel 1914 Bakunin fu incaricata dal Ministro Nitti,  di studiare i sistemi di insegnamento professionale in Belgio e in Svizzera.

Si recò quindi in questi Paesi che si mostravano professionalmente più evoluti. Nel suo resoconto illustrò le tipologie istituzionali di formazione professionale, con particolare attenzione all’insegnamento della chimica. Lo scopo dei suoi studi  era quello di vedere attivati in Italia provvedimenti simili affinché le scuole italiane diventassero “il vero granaio” che avrebbe dato ricchezza al Paese. Nell’apprendimento sottolineava l’importanza della pratica affinché l’insegnamento non si riducesse a mera memorizzazione e per ottenere delle risposte concrete chiedeva al Ministero maggiore spazio, mezzi strumentali e una mentalità più aperta dei docenti…

Tornando alla chimica organica, importanti devono essere considerati anche gli studi di Bakunin sulla reazione di Perkin che, come noto, consiste nella reazione fra un’aldeide aromatica e un sale di un acido organico in presenza di un’anidride, con l’ottenimento di acidi α-, β-insaturi.

Non esistendo a quei tempi la tecnica della sostituzione isotopica, si era sviluppata un’intensa polemica scientifica, durata circa cinquanta anni, sulla questione se fosse il sale oppure l’anidride ad iniziare la catena di reazioni con l’aldeide. Attraverso accurate indagini, Bakunin. dimostrò che, nelle condizioni in cui ha luogo la condensazione di Perkin, si stabiliscono delle reazioni di scambio e di equilibrio tra le anidridi e i sali di acidi differenti, di modo che tutta la questione controversa venne ricondotta a una semplice questione di reattività di due diverse anidridi, contemporaneamente presenti, verso una stessa aldeide. Bakunin riconobbe anche che la reazione è sempre favorita dalla presenza di sali [12,13], in accordo con quanto oggi noto sulla capacità di questi a promuovere la ionizzazione delle anidridi [1].

Maria Bakunin si occupò anche di argomenti diversi oltre quelli ricordati, come lo studio chimico e biologico della picrotossina, della morfina e della stricnina, sostanze le cui strutture chimiche vennero caratterizzate solo con l’impiego dei moderni metodi fisici di indagine.

Come ricordato, la scienziata Maria Bakunin fu anche una fine intellettuale, una donna appassionata e mossa da un grande senso di giustizia, descritta da molti con un carattere forte e assertivo capace di farsi valere ai limiti della prepotenza. Estremamente esigente e anche discretamente originale era soprannominata “La Signora” nell’Istituto Chimico dove insegnava e faceva ricerca. A questo forte carattere si univa però una notevole umanità e una vasta cultura, per molti anni fu l’animatrice dell’ambiente culturale napoletano e il suo salotto, sempre aperto a esponenti del mondo intellettuale, perseguitati e rifugiati, divenne una istituzione.

Nel 1936 passò alla Cattedra di Chimica Industriale e nel 1940 fu chiamata per trasferimento alla Cattedra di Chimica Organica della Facoltà di Scienze, che ricoprì oltre i limiti di età, fino al suo collocamento a riposo, il 5 novembre 1948.

Maria Bakunin fu anche audace e coraggiosa, nel 1938 salvò dal carcere con uno stratagemma suo nipote, il matematico Renato Caccioppoli[8], reo di aver fatto suonare “La Marsigliese” in un bar in presenza di un gruppo di gerarchi fascisti[9]. Durante la seconda guerra mondiale protesse i libri dalle fiamme del rogo appiccato dalle truppe di occupazione tedesche all’Università di Napoli il 12 settembre 1943. Benedetto Croce anche per questo gesto la nominò presidente dell’Accademia Pontaniana nel 1944, carica che ricoprì fino al 1947. In quell’anno fu ammessa come socio corrispondente dell’Accademia dei Lincei.

Il 19 febbraio 1949, su proposta del Consiglio di Facoltà del 20 ottobre 1948, insieme ai più vivi ringraziamenti per l’opera prestata a vantaggio della Scuola e delle Scienze, il Ministero della Pubblica Istruzione della Repubblica Italiana, le conferì il titolo di professore emerito.

In questa veste “La Signora” continuò a frequentare assiduamente l’Istituto di Chimica fino quasi alla sua morte, avvenuta il 17 aprile 1960.

Desidero terminare questo post con la seguente citazione, presa da un breve ricordo di Maria Bakunin:

probabilmente proprio in quanto donna il suo valore di scienziata ha avuto bisogno di tempo per essere adeguatamente comunicato e per un lungo periodo non è stata ricordata per l’importanza che ha avuto nel pensiero scientifico e culturale dello scorso secolo.

http://renneritalia.com/maria-bakunin-scienziata/

Bibliografia

[1] a) R.A. Nicolaus,  Ricordo di Maria Bakunin., Atti dell’Accademia Pontaniana, LII, Napoli 2004, pp. 27–32; b) R.A. Nicolaus, Marussia Bakunin, Dizionario Biografico degli Italiani, Istituto dell’Enciclopedie Treccani, vol. XXIV (1988).

http://www.treccani.it/enciclopedia/marussia-bakunin_%28Dizionario-Biografico%29/

[2] P.Mongillo,  Marussia Bakunin, una donna nella storia della chimica, Rubbettino 2008, ampi stralci in: http://www.mariabakunin.com/cat/maria-bakunin/

[3] M. Ciardi, M. Focaccia, Maria Bakunin (1873-1960), in: J. Apotheker, L.S. Sarkadi (Eds.), European Women in Chemistry, Wiley-WCH, 2011, pp. 51-54

[4] M. Bakunin, Sugli acidi fenilnitrocinnamici e sui loro isomeri stereometrici, Gazzetta chimica italiana, 1895, XXV, pp. 137-189.

[5] M. Bakunin, 1898. Stereoisomeri degli acidi fenilnitrocinnamici., Gazzetta Chimica Italiana, 1898, XXVII, 34-48.

[6] M. Dall’Auria, Maria Bakunin e i primi studi in fotochimica in Italia., Atti del XIII Convegno di Storia e Fondamenti della Chimica, Roma, 23-26/9/2009, 161-169.

http://media.accademiaxl.it/memorie/S5-VXXXIII-P2-2009/DAuria161-169.pdf

[7]M. Bakunin, Sull’azione dei raggi ultravioletti sugli stereoisomeri della serie cinnamica.,

Rend. Acc. Sci. Fis. Mat. Napoli, 1911, 17, 372-375. Citato in [6]

[8]M. Bakunin, Sulla sintesi degli acidi non saturi e sui loro prodotti di disidratazione.,

Atti Acc. Sci. Fis. Mat. Napoli, 1902, 11, 2-9. Citato in [6]

[9]M. Bakunin, Gl’indoni ed i loro prodotti di trasformazione al sole. Loro comportamento con l’ozono., Rend. Acc. Sci. Fis. Mat. Napoli, 1911, 17, 379-386. Citato in [6]

[10]M. Bakunin, Sulla eterificazione di acidi con fenoli., Gazzetta chimica italiana., 1902, XXXII, 178-185).

[11]M. Bakunin, G. Dragotti, Contributo alla conoscenza dei pigmenti melanici., Rend.  AccSci. Fis. Mat. Napoli, 1904, X s.3, 222-240.

[12]M. Bakunin, Meccanismo della reazione del Perkin., Gazzetta chimica italiana, 1916, XLVI, 77-103,

[13]M. Bakunin, G. Fisceman,Sul meccanismo della sintesi di Perkin-Oglialoro., Rend.  AccSci. Fis. Mat. Napoli, 1932, II s.4, 20-22.

[1] Michail Aleksandrovic Bakunin (1814-1876) filosofo libertario russo è considerato il fondatore del movimento anarchico moderno insieme al francese Pierre-Joseph Proudhon e agli italiani Carlo Cafiero e Errico Malatesta. Scrittore molto prolifico, viaggiatore indefesso spesso ricercato da varie polizie politiche, a Napoli fondò il giornale Libertà e Giustizia e l’associazione Fratellanza internazionale.

[2] Rodolfo Alessandro Nicolaus (1920-2008) fu allievo di Maria Bakunin, chimico dai vasti interessi è stato professore di Chimica organica nelle università di Napoli, Roma e Basilea. Ha compiuto ricerche sulla chimica delle sostanze naturali, con particolare attenzione ai pigmenti. Membro di numerose società scientifiche e culturali, ha lasciato numerose pubblicazioni riguardanti la vita e l’opera di Maria Bakunin.

[3] Pasqualina Mongillo, dottore in Filosofia, scrive e lavora nel Dipartimento di Sociologia e Scienza della Politica, Università di Salerno. Oltre al libro citato in [1] è autrice di altri scritti su Maria Bakunin e di un ampio ricordo di Rodolfo Nicolaus.

[4] Agostino Oglialoro-Todaro (1847-1923) chimico organico allievo di Cannizzaro e Paternò, fu nominato professore ordinario di chimica organica nel 1879, è stato Direttore dell’Istituto Chimico dell’Università di Napoli. A lui si devono sintesi di importanti composti. Mentore di Maria Bakunin, si sposarono nel 1896 e restarono sempre uniti.

[5] Qui ricordo ancora una volta che fino al primo Congresso internazionale dei chimici tenutosi a Karlsruhe nel 1860 dominava grande incertezza nella definizione dei concetti fondamentali della scienza chimica. Questa fu l’occasione per Cannizzaro di esporre le sue idee sul concetto di peso atomico, messo in corretta relazione con quello di peso molecolare e nell’aver quindi posto su salde basi tutta la teoria atomico-molecolare, che aveva precedentemente pubblicato nel famoso Sunto del 1858. Il noto chimico tedesco Julius Lothar Meyer, di ritorno dal Congresso disse in proposito: “Sentii come se mi fossero cadute le bende dagli occhi, i dubbi svaniti e la tranquillità più sicura prese il loro posto”. A mio parere Stanislao Cannizzaro è stato il chimico più importante del XIX secolo.

[6] Tant’è che per molto tempo Maria Bakunin venne ricordata solo per questa fotografia…

[7] L’Accademia Pontaniana, fondata a Napoli nel 1458 come libera iniziativa di uomini di cultura è una delle primissime accademie fondate in Europa e la prima del Regno di Napoli. Riconosciuta con R:D: nel 1925, si propone di coltivare le scienze, le lettere e le arti.

[8] Renato Caccioppoli (1904-1959) matematico, figlio di Giuseppe Caccioppoli e Sofia Bakunin, sorella di Maria, esercitò “un’influenza decisiva sullo sviluppo dell’analisi matematica in Italia in un periodo in cui l’Italia si era isolata culturalmente dal resto del mondo”. Su di lui è stato fatto il film “Morte di un matematico napoletano” di Mario Martone, 1992.

[9] Chissà se gli sceneggiatori del famoso film Casablanca (1942) si siano ispirati a questo fatto per la scena in cui Rick (Humphrey Bogart) e Victor Laszlo (Paul Henreid) fanno suonare “la marsigliese” nel Rick’s bar pieno di ufficiali tedeschi…Chi fosse interessato a vedere o rivedere questa scena può utilizzare il link:

https://youtu.be/kOO9GsiMb1g

REACH: ultima chiamata.

In evidenza

Luigi Campanella, già Presidente SCI

Il prossimo 31 maggio il regolamento europeo REACH completerà la sua ultima fase e diverrà esecutivo a tutti gli effetti. Non sempre si percepisce questa importante scadenza nell’atteggiamento assunto dal sistema industriale nei riguardi di essa,.Vale la pena ricordare alcuni elementi, più direttamente correlati agli aspetti chimici del regolamento, di una storia durata 10 anni, tanti essendo stati necessari per completare le fasi attuative del REACH.

L’art. 3 della Direttiva 92/32/CEE del 30 aprile 1992, che disciplina la classificazione, l’imballaggio e l’etichettatura delle sostanze pericolose commercializzate negli Stati dell’Unione Europea, regola la “determinazione e valutazione delle proprietà delle sostanze” attraverso test tossicologici che prevedono esperimenti su animali. In funzione del risultato degli esperimenti, una sostanza verrà classificata in una delle seguenti categorie:

  • molto tossica
  • tossica
  • nociva
  • non pericolosa.

Un protocollo-tipo prevede lo studio di:

  • Tossicità a breve termine, che si articola nello studio di:
  • Tossicità acuta effettuata normalmente sul ratto o il topo, attraverso la LD50.
  • Studi di irritabilità degli occhi, della pelle e delle mucose solitamente effettuati sui conigli albini in ambito cosmetologico, attraverso i “Draize test” e miranti alla valutazione della tollerabilità della sostanza in esame a contatto con la cute o con le mucose.
  • Studi di sensibilizzazione normalmente eseguiti sul porcellino d’India per valutare la capacità della sostanza chimica di indurre risposte allergiche o immuni in seguito a somministrazioni multiple.
  • Tossicità ripetuta la cui valutazione avviene attraverso lo studio di:
    • tossicità sub-acuta, sub-cronica, cronica, solitamente effettuata su due specie di cui una roditrice (normalmente si usano il topo e la scimmia o il cane). La durata degli studi varia dai due ai quattro anni; la via di somministrazione è quella di esposizione.
  • Studi di tossicità riproduttiva e di teratologia per evidenziare le eventuali interferenze della nuova sostanza sulla sfera riproduttiva e sulla prole, suddivisi in tre gruppi:
    • Studi di fertilità e riproduzione.
    • Studi di teratologia.
    • Studi di tossicità peri-post natale.

Per quanto riguarda la tossicità a breve termine (effetto acuto) il livello di tossicità è definito a partire da test basati sulla quantità di composto chimico letale in funzione della via di esposizione; i limiti della Dose Letale 50 e Concentrazione Letale 50 utilizzate per classificare un prodotto come molto tossico, tossico o nocivo sono riportati nella tabella seguente [2]:

Categoria LD50 orale

mg/kg

LD50 cutanea

mg/kg

LC50 inalatoria

mg/litro/4 ore

Molto tossiche <25 <50 <0,5
Tossiche 25-200 50-400 0,5-2
Nocive 200-2000 400-2000 2-20

LD50: è la dose di una sostanza che, somministrata in una volta sola, provoca la morte nel 50% degli animali da esperimento; indica la tossicità di una sostanza solo a breve termine (tossicità acuta); non a lungo termine (cioè dovuta a contatto con modiche quantità di una certa sostanza per lunghi periodi); viene espressa di solito come quantità di sostanza somministrata rispetto al peso dell’animale usato come campione (es.: milligrammi (mg) di sostanza per 100 grammi (g) per piccoli animali o per chilogrammi (kg) per animali più grandi); va definita anche la via (orale, cutanea, etc.). Una LD50 maggiore di 2000 mg/kg permette di considerare non particolarmente pericolosa la sostanza testata.

Per la LD50 orale la normativa UE prevede come animale da esperimento l’uso del ratto, mentre per la LD50 cutanea è previsto anche l’impiego del coniglio.

LC50: è la concentrazione in aria che provoca la morte nel 50% degli animali da esperimento, se inalata per un determinato periodo di tempo.

Per la LC50 la normativa UE prevede l’uso del ratto come animale da esperimento con una esposizione di 4 ore.

Sostanze da NON registrare: Sostanze escluse completamente dal REACH; Medicinali (esclusi anche da Valutaz. e Autorizz.); Sostanze presenti in alimenti e alimenti per animali, anche usate come additivi o aromatizzanti (esclusi anche da Valutaz. e Autorizz.); Sostanze incluse in Allegato IV; Sostanze incluse in Allegato V; Polimeri (esclusi anche da Valutaz.). Alcuni esempi sostanze in allegato V. Idrati di una sostanza o ioni idrati, formati da associazione di una sostanza con H2O. – Sostanze che non sono esse stesse fabbricate, importate o immesse sul mercato, risultanti da una reazione chimica che ha luogo quando una sostanza (agente stabilizzante, colorante, antiossidante, plastificante, antischiuma, legante, agglomerante, disidratante, neutralizzatore pH, coagulante, ignifugo, chelante, ecc) agisce nel modo previsto. Alcuni esempi sostanze in allegato IV. (Reg. 987/2008 – 8 ottobre 2008 ) acido ascorbico – glucosio – saccarosio puro – acido oleico puro – CO2 – calcare – Ar – C – N2 – acqua distillata – grafite – olio girasole – soia – lino – ricino -colza ecc. – amido – vitamina A.

I metodi o le procedure che conducono alla sostituzione di un esperimento sull’animale o alla riduzione del numero di animali richiesti, nonché all’ottimizzazione delle procedure sperimentali, allo scopo di limitare la sofferenza animale sono i metodi alternativi alla sperimentazione in vivo. Questo concetto corrisponde alla definizione delle “3R” di Russel e Burch [3], dall’inglese replace, reduce, refine laddove:

  • replacement identifica la sostituzione, ove possibile, degli animali superiori con materiali biologici di minore complessità (batteri, colture cellulari, organi isolati, colture in vitro), modelli computerizzati, video, film;
  • reduction implica la maggiore riduzione possibile del numero di animali usati per un particolare esperimento pur conseguendo risultati di studio altrettanto precisi. Ciò può essere ottenuto standardizzando la popolazione animale, fattore principe della variabilità dei risultati;
  • refinement si riferisce alla ricerca di procedure sperimentali sempre più specifiche in grado di ridurre al minimo la sofferenza e lo stress causato agli animali, comunque impiegati.

I metodi del primo tipo consentono di ottenere una determinata informazione sperimentale senza ricorrere all’utilizzazione di animali; i metodi del secondo tipo sono idonei ad ottenere livelli comparabili di informazione utilizzando un minor numero di animali e consentono di ricavare il massimo numero di informazioni con un solo saggio su animali; i metodi del terzo tipo sono tutte le metodologie idonee ad alleviare sofferenze e danni imputabili alle pratiche sperimentali. Tra i metodi del primo tipo si distinguono i “metodi sostitutivi biologici” e i “metodi sostitutivi non biologici”, i primi sono i “metodi in vitro”, ed utilizzano materiale biologico di diverso tipo (di origine animale o umana); mentre i secondi si avvalgono dei contributi di scienze quali la matematica, l’informatica, la statistica, eccetera.

Un nuovo approccio sperimentale, per essere considerato alternativo alla sperimentazione animale tradizionale, deve essere riproducibile, affidabile, rapido e non più costoso di quello che si vuole sostituire. Il centro europeo preposto alla verifica del rispetto dei suddetti parametri da parte del nuovo metodo (cosiddetta “validazione”) è l’ECVAM (European Centre for Validation of Alternative Methods), istituito dalla Commissione Europea nel 1991 su proposta del Parlamento dell’Unione, nell’ambito del “Joint Research Centre” di Ispra in provincia di Varese. L’ECVAM coordina la validazione dei metodi alternativi a livello comunitario, e costituisce un punto di riferimento per lo scambio di informazioni sullo sviluppo di questi metodi, attraverso una banca dati dei metodi disponibili (già validati o in corso di validazione) impostata e gestita dal centro medesimo.

Attraverso il processo di validazione viene stabilita l’affidabilità e la rilevanza di un metodo. L’affidabilità descrive la riproducibilità dei risultati nel tempo e nello spazio, cioè, nello stesso laboratorio e tra laboratori diversi (cosiddetta “standardizzazione”); la rilevanza descrive la misura dell’utilità e della significatività del metodo per un determinato scopo. I test di validazione sono molto lunghi (possono durare anche anni) ed hanno lo scopo di verificare se un nuovo metodo fornisce, per determinate sostanze, risultati simili a quelli in precedenza ottenuti attraverso la sperimentazione sugli animali. L’approdo finale di un nuovo metodo è il suo accoglimento entro la regolamentazione internazionale, con l’introduzione dei test alternativi nelle linee guida dell’OECD (Organization for Economic Cooperation and Development). L’OECD raccoglie non solo i paesi membri dell’Unione Europea ma anche Stati Uniti, Giappone ed altri; ha il compito di armonizzare i differenti protocolli sperimentali, recependoli sotto forma di linee guida. Le linee guida dell’OECD vengono periodicamente modificate per adeguarle alle nuove conoscenze scientifiche nonché alle modifiche legislative eventualmente intervenute.

Un Libro Bianco della Comunità Europea invita la comunità scientifica a fare il più possibile allo scopo di mettere a punto dei test chimici, che non ricorrano alla sperimentazione animale, in grado di dare informazioni – specialmente avvisi di pericolosità – in tempo reale o quasi reale riguardo la tossicità di un composto. A partire dalla mia presidenza in SCI la Società Chimica Italiana ha periodicamente inventariato gli avanzamenti della ricerca nel campo dei metodi chimici di valutazione della tossicità:molte dei nostri Dipartimenti chimici sia universitari che di enti di ricerca sono impegnati in questa direzione. Le soluzioni proposte sono molto diverse fra loro e risentono ovviamente della formazione specifica dei proponenti:

test di screening mediante desorbimento termico ed analisi dello spazio di testa

fotosensori di tossicità

metodi biochimici e biomolecolari

studi in silico e chemiometrici,metodi predittivi volti alla determinazione di proprietà ed attività delle molecole in base alla loro struttura; metodi computazionali e chemoinformatici;rappresentazioni molecolari strutturate;

test in vitro su sistemi cellulari diversi (in particolare innovativi:nematode del terreno e copepode marino)

test di effetto sub letale

studio di scenari di esposizione

studi epidemiologici

Si tratta di Gruppi di Ricerca autorevoli ed accreditati che potranno costituire una preziosa risorsa per le molteplici strutture pubbliche coinvolte nel REACH,dalle autorità di controllo territoriali all’autorità competente nazionale,fino alla stessa Agenzia Europea per le sostanze chimiche

http://www.reach.gov.it/reach-sintesi

L’impatto dell’umanità sulla biosfera.

In evidenza

Claudio Della Volpe

In un recente articolo su PNAS (www.pnas.org/cgi/doi/10.1073/pnas.1711842115) alcuni ricercatori israeliani ed americani hanno stimato la biomassa globale ed anche l’impatto che l’umanità ha avuto su di essa.

L’argomento è certamente di interesse per i fini del nostro blog, per comprendere la portata dell’Antropocene. Ne facciamo un breve e parziale riassunto; tenete presente che l’articolo è fatto di due parti, una è l’articolo vero e proprio e l’altra è un supplemento molto esteso con tutte le stime dettagliate e i ragionamenti e le incertezze sui numeri ottenuti. Entrambe sono scaricabili senza problemi dato che la rivista è Open access.

La massa totale di tutti i tipi di esseri viventi appartenenti a tutti i taxa è stimata in 550 miliardi di ton equivalenti di carbonio (550GtC); ricordo per i lettori meno documentati che questo equivale a dire che la massa è stimata con riferimento alla sola massa del carbonio presente nelle varie specie mentre gli altri elementi variano da caso a caso; dunque il totale effettivo è ben superiore; la stima si può fare in questi termini a causa del fatto che il rapporto fra carbonio ed altri elementi è ampiamente costante nei vari casi.

L’80% di questo totale è costituito dalle piante, dai produttori primari che fanno la fotosintesi; a loro volta le piante sono dominate dalle piante terrestri, che hanno occupato la terra anche grazie all’avvento della difesa anti-UV costituita dall’ozono, a sua volta disceso dalla produzione di ossigeno.

Ricordo che questo elemento si è accumulato come rifiuto a partire da 2.5 miliardi di anni fa portando alla cosiddetta catastrofe dell’ossigeno, con espulsione dal ciclo della gran parte degli organismi anaerobi, rifugiatisi in poche zone povere di ossigeno (fondali marini, intestini degli animali, etc); questo portò all’accumulo di ozono e alla protezione della terra dagli UV che consentì poi la grande esplosione della vita del Cambriano di circa 530 milioni di anni fa sulla crosta.

Quello che vediamo ogni giorno sulla crosta è figlio della catastrofe dell’ossigeno.

Il secondo costituente della biomassa sono i batteri, circa 70GtC e circa il 15% del totale.

In ordine di importanza quantitativa seguono funghi, archaea (antichi batteri), protisti, animali e virus, che coprono il rimanente, inferiore al 10%.

Le biomassa che vive sopra il suolo costituisce il 60% del totale 320GtC (merito dell’ozono stratosferico!!), mentre le radici (130GtC) e i microbi del suolo e nelle superfici profonde (100GtC) costituiscono il grosso del rimanente.

La biomassa delle piante include per il 70% steli e tronchi degli alberi che sono per la maggior parte legno inerte. I batteri sono il 90% della biomassa profonda, sotto la superficie (aquiferi e fondo marino) con un metabolismo lento. Anche escludendo questi contributi comunque la biomassa globale rimane dominata dalle piante (150GtC di radici e foglie, 9GtC di batteri marini e terrestri e 12 GtC di funghi.

D’altra parte gli insetti dominano in termini di ricchezza di specie (circa 1 milione già descritte) mentre la loro biomassa è piccola. Alcune specie contribuiscono alla biomassa più di intere famiglie e classi.

Per esempio il krill antartico Euphausia superba contribuisce per 0.05GtC in modo comparabile a uomini e mucche. Stesso discorso per le termiti che così sorpassano tutti gli uccelli.

da Internazionale, n. 1257

Durante il relativamente breve percorso dell’umanità nella storia della Terra, innovazioni come la domesticazione degli animali, l’agricoltura e la rivoluzione industriale hanno accresciuto la popolazione umana con effetti ecologici molto pronunciati. Oggi la biomassa umana è 0.06GtC e quella degli animali domestici 0.1 GtC. In confronto i mammiferi selvatici sono solo 0.007GtC. Anche per gli uccelli quelli domestici sono circa tre volte più di quelli selvatici (0.005GtC a 0.002).

Di fatto gli uomini ed i loro animali superano tutti gli altri vertebrati esclusi i pesci. Ovviamente essi costituiscono solo una piccola frazione degli animali in complesso, che comprendono prima di tutto artropodi (1GtC) e pesci (0.7GtC)

Impressionante anche il paragone fra la biomassa attuale e quella preumana che dimostra l’impatto umano sulla biosfera.

L’attività umana ha contribuito alla scomparsa della megafauna fra 50.000 e 3.000 anni fa con una sua riduzione da 0.02GtC a 0.003GtC.

La caccia alla balena e agli altri mammiferi marini ha ridotto la loro massa di 5 volte (da ≈0.02 Gt C a ≈0.004 Gt C ).

Mentre la massa totale degli animali selvatici marini e terrestri è diminuita di un fattore 6, quella totale dei mammiferi si è accresciuta di 4 volte per merito della biomassa umana e degli animali domestici. (da ≈0.04 Gt C a ≈0.17 Gt C)

L’azione umana ha avuto anche impatto sullo stock di vertebrati, con una riduzione di 0.1GtC nella massa dei pesci, circa il 50% e all’aumento corrispondente di animali addomesticati.

L’impatto non si è limitato agli animali ma ha anche modificato profondamente la quantità di carbonio totale sequestrato dalle piante.

Si stima che la massa delle piante si sia dimezzata (e dunque anche la massa totale si è praticamente dimezzata) per azione dell’uomo. La biomassa totale delle specie coltivate dall’uomo è stimata in 10GtC che costituisce solo il 2% del totale delle altre piante rimanenti.

Una nota finale sul fatto che gli errori della stima sono abbastanza grandi, ma secondo me non intaccano l’utilità di questo lavoro.

La prima donna docente e ricercatore alla UC di Berkeley: Agnes Fay Morgan (1884-1968)

In evidenza

Rinaldo Cervellati

Navigando nel sito dell’University of California a Berkeley ci si accorge che Judith Pollock Klinman (di cui abbiamo parlato nel precedente post) è stata la prima donna all’University College of Chemistry a Berkeley, ma non è stata in assoluto la prima donna docente e ricercatore chimico alla Università della California a Berkeley. Il “primato” spetta a Agnes Fay Morgan, Ph.D., che è stata fra i fondatori della Chimica della Nutrizione nel Dipartimento di Economia a Berkeley dove ha lavorato e insegnato per più di 30 anni, fino al suo ritiro e anche oltre.

Agnes Fay Morgan

Ha ricoperto per lungo tempo la cattedra di economia domestica, il suo programma aveva profonde radici scientifiche, e gli studenti dovevano avere un livello di conoscenze scientifiche che non erano tipiche dei programmi di economia domestica dell’epoca. Ma andiamo con ordine.

Agnes Fay nasce il 4 maggio 1884 a Peoria (Illinois), terza di quattro figli di Mary Dooley e Patrick Fay, una coppia di immigrati irlandesi. Intelligente e portata per gli studi frequentò la Peoria High School ottenendo il diploma liceale. Ottenuta una borsa di studio da un benefattore locale, dopo un breve periodo al Vassar College (New York), si trasferì all’Università di Chicago dove conseguì il B.Sc. nel 1905 e il master in chimica nel 1907.

Come sappiamo a quei tempi era molto difficile per una donna intraprendere la carriera di ricercatore, sicchè Fay insegnò chimica all’Hardin-Simmons College (Texas) nel 1905-1906, all’Università del Montana nel 1907-1908 e all’Università di Washington nel 1910-1912. L’annuario 1905 dell’ Hardin-Simmons College del 1905 si riferisce a lei come “selvaggiamente anticonformista”. Ancor più anticonvenzionale fu considerato il suo matrimonio con Arthur I. Morgan, veterano della guerra ispano-Usa del 1898 e noto giocatore di football, suo studente all’Università del Montana[1].

Nel 1912 Fay-Morgan ritornò all’Università di Chicago dove ottenne il Ph.D. in soli due anni (1914) sotto la guida del prof. Julius Stieglitz[2]. Parte della dissertazione di dottorato di Agnes Fay Morgan fu pubblicata nel J. Am. Chem. Soc. [1].

Agnes Fay Morgan in laboratorio

Probabilmente è stata l’unica donna sposata a ottenere un dottorato in USA nelle prime due decadi del secolo scorso. Nonostante il fatto che le donne sposate non fossero generalmente accettate nelle università, Stieglitz scrisse una lettera presentando Morgan per un posto all’Università dell’Illinois. Non è noto se l’Università diede seguito a questa lettera [2], tuttavia Morgan aveva accettato un posto di assistant professor al Dipartimento di Economia Domestica (Home Economics) del College of Letters and Arts all’University of California a Berkeley[3]. Quando nel 1915 Morgan arrivò a Berkeley, scoprì che avrebbe dovuto insegnare nutrizione e dietetica. Per alcuni anni i rapporti fra Morgan e gli amministratori dell’università saranno contradditori e conflittuali, in gran parte dovuti alla convinzione di Morgan che la funzione di un dipartimento universitario di economia domestica doveva essere di scoprire e insegnare i “perché” delle cose, piuttosto che limitarsi a stabilire regole e ricette alimentari per “vivere bene”. Racconterà Morgan:

Così… nel gennaio del 1915, ho iniziato a tenere corsi di dietetica e nutrizione, argomenti di cui non sapevo nulla e a quel tempo forse nessun altro ne sapeva molto. Ho dovuto studiare l’argomento per lo più al di fuori di riviste mediche in tedesco o in inglese . . . non avevo nulla a che fare con la cucina vecchio stile combinata con l’aritmetica delle ricette che era considerata parte della dietetica. In primo luogo, non ero affatto un’ottima cuoca e non mi interessava cucinare. Ero stata chiamata qui per fare qualcosa di pratico per la preparazione dei dietologi, ma non ero in grado di suggerire nulla di pratico.[2]

Aggiungendo:

Quello che volevo fare era stabilire una base scientifica per le varie pratiche che venivano insegnate in quel momento come alimentazione. Volevo impegnarmi a costruire un approccio estremamente rigoroso, un curriculum scientifico in economia domestica e nutrizione.

La maggior parte dei dipartimenti di economia domestica non richiede molto in termini di basi scientifiche. Qui invece chimica generale, chimica organica, biochimica, fisiologia, batteriologia, analisi quantitativa e, ovviamente, statistica, sono le conoscenze richieste nel curriculum da me proposto.

Ma l’amministrazione dell’Università della California a Berkeley ha criticato il dipartimento per questi requisiti giudicandoli eccessivamente rigorosi [2].

Il Dipartimento di Economia Domestica aveva poi croniche difficoltà nel reperire fondi per la ricerca anche in periodi di disponibilità di risorse federali e statali. Per raccogliere fondi, Morgan si offrì di svolgere corsi professionali di alimentazione a insegnanti di scuola, infermieri e altre possibili figure interessate. Ma anche questa iniziativa irritò gli amministratori che considerarono questi corsi al di sotto degli standard dell’università, indebolendo così la reputazione del dipartimento. Sicchè Morgan veniva criticata da un lato per il suo insegnamento troppo rigoroso, dall’altro per l’organizzazione di corsi a carattere professionale…

Resta il fatto che a causa di tutto ciò, a Morgan fu proibito di accettare finanziamenti industriali per la ricerca e le venne fornito poco spazio per condurre il suo lavoro di ricerca.

A questo va aggiunto che inizialmente il Dipartimento era diviso in due sezioni, la divisione di scienze alimentari (con Morgan come capo) e la divisione di lavori e arti domestiche (con Mary Patterson come capo). A Morgan non piaceva condividere il dipartimento con Patterson, che aveva un background in arti decorative e nessuna inclinazione verso la scienza. Nel 1920, il Rettore di Berkeley, David Prescott Barrows, acconsentì alla richiesta di Morgan di separare le due divisioni in dipartimenti distinti poiché avevano curricula e filosofie diverse, così Morgan divenne l’unico direttore del Dipartimento di Scienze Domestiche. Le fu però negato un programma per l’istituzione del dottorato di ricerca in alimentazione e dietologia.

Morgan tuttavia non perse mai coraggio e, consapevole che per fare carriera in una prestigiosa università come Berkeley occorreva fare una buona e documentata ricerca iniziò le sue ricerche nel laboratorio didattico dei suoi studenti. Tenne sempre la sua vita privata ben separata da quella professionale, rimase incinta nel 1923, anno in cui fu promossa full professor, ma il suo staff lo venne a sapere solo in prossimità del parto. I suoi collaboratori dissero che non notarono il suo stato di gravidanza perché Morgan indossava camici molto ampi.

Prof. Agnes F. Morgan

I suoi primi lavori si indirizzarono alle richieste nutrizionali umane e alla produzione e conservazione dei cibi.

È stata la prima a dimostrare che un comune conservante alimentare usato, l’anidride solforosa, ha un effetto protettivo sulla vitamina C ma un effetto dannoso sulla tiamina. Ha studiato il contenuto vitaminico di molte importanti coltivazioni californiane, come grano, mandorle e noci e gli effetti

della loro trasformazione in cibo. Si interessò alle possibili cause di basso peso nei bambini, dimostrando che una dieta ricca di frutta, latte e germi di grano favoriva la crescita dei bambini in età scolare. Usando modelli animali analizzò le relazioni tra vitamine e ormoni.

Studiando le quantità di calcio dietetico, fosforo, vitamina D e ormone paratiroideo ha dimostrato che un sovradosaggio di vitamina D è causa di fragilità delle ossa e calcificazione dei tessuti molli.

Ha anche studiato le interazioni tra vitamina A, carotene e secrezioni tiroidee e tra riboflavina, acido pantotenico e secrezioni di ghiandole surrenali.

La sua ricerca sull’acido pantotenico e sulla funzione della ghiandola surrenale è stata probabilmente il suo maggior successo. Nel 1939 ha mostrato che l’acido pantotenico è essenziale per la normale pigmentazione di capelli e pelle [3].

Una dieta carente di vitamine del gruppo B veniva sistematicamente integrata con tiamina, riboflavina, un preparato di germe di grano, estratti di lievito e di corteccia surrenale per mostrare che la depigmentazione dei peli degli animali erano dovuti all’insufficienza surrenale causata da una mancanza di acido pantotenico (vitamina B5). Per giungere a questo risultato è rimasto famoso uno degli esperimenti, quello delle volpi: Morgan convinse un allevatore di volpi a utilizzare due gruppi di animali, un gruppo trattamento e uno controllo per studiare gli effetti di diete contenenti rispettivamente quantità basse e normali di vitamine del gruppo B. Il gruppo trattamento (le volpi alimentate a ridotto contenuto di vitamine) sviluppò un rado mantello grigio opaco, nel gruppo di controllo invece tutte le volpi presentavano una pelliccia nera lucente. Dopo gli esperimenti, fu confezionata una stola di pelliccia con entrambi i gruppi di peli. Morgan indossò questa stola in almeno due importanti occasioni: la presentazione dei dati dello studio al convegno annuale dell’American Society for Experimental Biology nel 1939 e la cerimonia di premiazione della Garvan Medal conferitale dieci anni dopo dall’American Chemical Society.

Nel 1938, il Dipartimento fu trasferito al College of Agriculture, e tutti i suoi docenti e ricercatori fecero riferimento alla California Agricultural Experiment Station. Il Dipartimento fu coinvolto in una ricerca della Stazione finalizzata a valutare lo stato nutrizionale delle persone anziane abitanti nella contea di San Mateo. La ricerca, condotta su circa 600 volonari di entranbi i sessi, includeva esami fisici completi con raggi X delle ossa, analisi del sangue e delle urine oltre a un sondaggio sull’alimentazione dei singoli individui. Dai risultati di questa lunga ricerca Morgan potè dimostrare per la prima volta che la densità ossea delle donne diminuisce tra 50 e 65 anni di età, e che il colesterolo nel siero è correlato all’assunzione di grassi (HDL e LDL) nella dieta [4].

Prima del suo pensionamento, avvenuto nel 1954, ha pubblicato circa 200 articoli scientifici, un libro di testo (Experimental Food Study, insieme a I. Sanborn Hall, Farrar & Rinehart Inc., NY, 1938) e 77 reviews. Dopo il suo ritiro ha pubblicato circa altri 40 lavori scientifici.

Morgan è stata a volte chiamata come consulente su problemi pubblici per conto di governi statali o del governo federale. In questa veste ha esaminato la qualità del cibo nella prigione di San Quintino nel 1939 e negli anni ’40 è stata fondatrice e presidente del California Nutrition War Committee e prestò servizio nell’ufficio di ricerca scientifica e sviluppo. Nel 1960, Morgan ha fatto parte della Commissione che ha esaminato la tossicità dei pesticidi usati in agricoltura.

Nonostante l’importanza della ricerca di Morgan, molti dei suoi sforzi rimasero non riconosciuti fin verso la fine della sua carriera. Nel 1949 fu insignita della prestigiosa medaglia Garvan dall’American Chemical Society per la sua ricerca pionieristica in campo nutrizionale. Nel 1950 divenne la prima donna a ricevere lo status di docente di ricerca presso l’Università della California. Altri riconoscimenti conferiti a Morgan includono il Borden Award del 1954 dell’American Institute of Nutrition e la Heare Gold Medal di Phoebe Apperson, che la riconobbe come una delle dieci donne eccezionali a San Francisco nel 1963.

Finalmente, nel 1961 l’edificio che ospitava il Dipartimento di Economia Domestica fu rinominato Dipartimento di Scienze Nutrizionali e dal 1963 si chiama Agnes Fay Morgan Hall.

Come appare evidente dal numero di pubblicazioni dianzi riportate Agnes Fay Morgan ha continuato a lavorare nel Dipartimento nella sua qualità di professore emerito fino a che fu colpita da un infarto due settimane prima della morte, il 20 luglio 1968.

Bibliografia

[1] a) Ph. D. Dissertation of Agnes Fay Morgan. I. The Molecular Rearrangements of Some Triarylmethylchloroamines. II. The Viscosities of Various Methyl- and Ethylimido-benzoate Salts and of Para- and Meta-nitrobcnzoylchloramides in moderately concentrated Aqueous Solutions.

(Typewritten.) Abstract in Univ. Chicago Science Series, I, 213-17 (1922-23);

  1. b) Agnes Fay Morgan, The Molecular Rearrangements of Some Triarylmethylchloroamines., Am. Chem. Soc., 1916, 38, 2095–2101.

[2] M. Nerad, The Academic Kitchen., State University of New York Press, Albany, 1999, Cit. in: J.C. King, Contributions of Women to Human Nutrition., J. Nutr., 2003, 133, 3693-3697.

[3] A.F. Morgan, H.D. Simms, Greying of fur and other disturbances in several species due to vitamin deficiency., J. Nutr., 1940, 18, 233-250.

[4] H.L. Gillum, A.F. Morgan et al., The nutritional status of the aging. A summary of the biochemical findings in a study of 577 supposedly healthy men and women over 50 years of age., J. Nutr., 1955, 55(2-4), 1-685.

[1] Come riportato in un precedente post, all’epoca in molti stati USA se una insegnante si sposava doveva rinunciare all’insegnamento…

[2] Julius Stieglitz (1867–1937), chimico americano di origini ebraico tedesche. Ha interpretato il comportamento e la struttura dei composti organici in base alla teoria della valenza e ha applicato i metodi fisico-chimici in chimica organica. Notevole docente con ampi interessi in chimica farmaceutica e medicinale.

[3] Quel posto era pagato 1800 $ annui, ma a un maschio con medesimo curriculum ne sarebbero stati corrisposti 2400…

Scienziate che potrebbero vincere il Premio Nobel: Judith Pollock Klinman (1941- )

In evidenza

Rinaldo Cervellati

Come ricordato nel precedente post, quando Darleane Hoffman si trasferì da Los Alamos all’University College a Berkeley nel 1984, trovò una sola altra donna docente all’UC, Judith Klinman, 15 anni più giovane di lei. Klinman è infatti nata il 7 aprile 1941, quindi ha festeggiato da poco il settantasettesimo compleanno.

Judith Pollock Klinman

Ottenuto il B.A. nel 1962 e poi il Ph.D. in chimica fisica organica nel 1966 all’Università della Pennsylvania, Klinman ha svolto ricerche come post-doc per un anno al Weizman Institute of Science in Israele, poi è stata ricercatore all’Institute of Cancer Research di Filadelfia (Pennsylvania) fino al 1978 quando è entrata a far parte dello staff dell’University College a Berkeley (California)[1].

All’inizio della sua carriera, sviluppò l’uso della sostituzione isotopica negli studi cinetici sulla catalisi enzimatica, mostrando come i composti marcati possano essere utili per verificare ipotesi sui meccanismi di reazione, per determinare ordini e costanti di velocità, nonchè per ottenere costanti di dissociazione del substrato.

Ben presto attorno a Kliman si formò un gruppo di ricerca che continua a dare contributi fondamentali in enzimologia.

Judith Klinman 1990 ca

Nel 1990, Kliman e il suo gruppo scoprì la presenza della neurotossina 6-idrossidopa chinone (TPQ) nel sito attivo di una ammino ossidasi contenente rame nel plasma bovino, superando anni di speculazioni errate riguardo la natura della struttura del sito attivo e aprendo il campo di ricerca sui cofattori derivati da proteine [1].

Il lavoro successivo del gruppo ha dimostrato che la proteina lisilossidasi extracellulare, responsabile del legame incrociato fra collagene ed elastina, contiene una variante reticolata di lisina del TPQ [2]. Dagli anni ’90, gli studi cinetici di Klinman sulle reazioni enzimatiche hanno dimostrato anomalie che implicano il tunnelling quantistico dell’idrogeno nelle reazioni di attivazione dell’idrogeno catalizzate da enzimi [3]. Al momento attuale vi è una scarsità di informazioni riguardanti i profili delle barriere di energia potenziale ai siti attivi degli enzimi, così come il contributo delle dinamiche proteiche ai processi di allentamento del legame. Un approccio estremamente valido per affrontare questi problemi, è appunto il rilevamento e la quantificazione del tunneling dell’idrogeno nelle reazioni enzimatiche. Il gruppo Klinman ha accumulato prove che il tunneling quantomeccanico a temperatura ambiente si verifica in moltissime reazioni enzimatiche.

H tunneling, Me transfer and protein dynamics

Un trattamento quantitativo dei dati fornisce informazioni sul ruolo dei movimenti di proteine ​​/ atomi pesanti nel promuovere l’attivazione del legame C-H attraverso un processo di tunneling [4].

Inoltre, l’uso di mutagenesi sito-specifica e scambio H / D, insieme a proteine ​​omologhe provenienti da nicchie di temperatura, sta rendendo possibile affrontare il modo in cui le interazioni di legame substrato-proteina e le dinamiche proteiche influenzano l’efficienza del processo di tunneling.

Negli ultimi anni è stato sviluppato un set unico di sonde sperimentali per determinare il meccanismo di attivazione dell’ossigeno. Queste sonde stanno iniziando a far luce su come le proteine possono ridurre l’O2 a intermedi radicali liberi, evitando nel contempo il danno ossidativo cellulare.

Schema attivazione ossigeno [5]

Fino a poco tempo fa, si pensava che la maggior parte dei cofattori enzimatici fossero composti a basso peso molecolare che si legavano in modo reversibile alle loro affini proteine . Negli ultimi anni è stata descritta una famiglia di proteine che contengono il loro cofattore all’interno della catena polipeptidica proteica. Una nuova classe di tali proteine è emersa dal laboratorio Klinman, nota come chino-enzimi. Due tipi distinti di cofattori sono stati scoperti negli eucarioti: il 2,4,5-triidrossifenetilammina-chinone (TPQ) derivato da una singola catena laterale di tirosina e osservato nelle ubiquitarie ammineossidasi contenenti rame; e la lisina tirosil chinone (LTQ) derivato dalla reticolazione di lisina e tirosina ossidata all’interno del sito attivo delle lisilossidasi. Nel caso del TPQ è stato stabilito che un singolo ripiegamento proteico catalizza sia la biogenesi del cofattore che il successivo turnover dell’enzima. Queste proteine vengono chiamate proteine a doppia funzione, ponendo il problema di come un singolo ripiegamento proteico possa catalizzare due reazioni apparentemente dissimili. Sono in corso studi approfonditi su questi chino-enzimi, come pure sul cofattore batterico derivato da peptidi, il pirrolo-chinolina chinone. Sono stati anche avviati studi per sondare il ruolo fisiologico di una classe di ossidasi al rame che si trova sulle superfici cellulari, generando perossido di idrogeno, un probabile agente di segnali cellulari.

La vita aerobica pone interrogativi unici. Nello specifico, come le proteine catalizzano l’attivazione dell’ossigeno molecolare evitando di generare intermedi radicalici con sufficiente stabilità per provocare il danno ossidativo cellulare. Il gruppo di Klinman ha proposto un approccio sistematico a questa domanda investigando un’ampia gamma di proteine ​​che funzionano con cofattori organici da soli, con metalli da soli o con una combinazione cofattori organico – centro metallico. La metodologia utilizzata combina mutagenesi sito-specifica, stato stazionario e cinetica rapida, sonde spettroscopiche per intermedi e la misurazione di effetti isotopici O18 [6].

Judith Klinman professore alla Graduate School in Chemistry and Molecular Biology

Judith P. Klinman ha percorso tutte le tappe della carriera accademica a Berkeley fino a professore ordinario nella Graduate School in Chemistry and Molecular and Cell Biology e membro del California Institute for Quantitative Biosciences. E’ stata la prima donna membro della Facoltà di Chimica, di cui è stata anche Preside. Oggi è professore emerito della Facoltà, in questa veste continua a fare ricerca nel gruppo da lei costituito. E’ autrice o co-autrice di più di 400 pubblicazioni scientifiche di cui venti nel quadriennio 2014-2017. Ha ottenuto numerose onoreficienze e premi da importanti istituzioni nazionali e internazionali, fra le quali la National Medal of Science, la più alta onorificenza pubblica che uno scienziato può ricevere negli Stati Uniti e il Premio Willard Gibbs dell’American Chemical Society.

Judith P. Klinman, Medaglia Gibbs dell’ACS

L’American Society for Biochemistry and Molecular Biology, di cui è stata anche Presidente, le ha conferito il Premio Mildred Cohn per la Biochimica.

Fonti consultate:

Bekely College of Chemistry https://chemistry.berkeley.edu/faculty/chem/klinman

The first woman at Cal https://chemistry.berkeley.edu/news/first-women-chemists-cal

http://www.asbmb.org/uploadedfiles/AboutUs/ASBMB_History/Past_Presidents/1990s/1998Klinman.html

Bibliografia

[1] S. M. Janes, D. Mu, D. Wemmer, A. J. Smith, S. Kaur, D. Maltby, A. L. Burlingame, Judith P Klinman, A new redox cofactor in eukaryotic enzymes: 6-hydroxydopa at the active site of bovine serum amine oxidase., Science, 1990, 248, 981-987.

[2] S.X. Wang, N. Nakamura, M. Mure, Judith P. Klinman, J. Sanders-Loehr, Characterization of the native lysine tyrosylquinone cofactor in lysyl oxidase by Raman spectroscopy., J. Biol. Chem. 1997, 272, 28841-28844.

[3] a) Y. Cha, C. J. Murray, Judith P. Klinman, Hydrogen tunneling in enzyme reactions., Science, 1989, 243, 1325-1330; b) A. Kohen, R. Cannio, S. Bartolucci, Judith P. Klinman, Enzyme dynamics and hydrogen tunneling in a thermophilic alcohol deydrogenase., Nature, 1999, 399, 496.

[4] a) M. J. Knapp, K. Rickert, Judith P. Klinman, Temperature-dependent isotope effects in soybean lipoxygenase-1: correlate hydrogen tunneling with protein dynamics., J. Am. Chem. Soc., 2002, 124, 3865-3874; b) Z.D. Nagel, Judith P. Klinman, Tunneling and dynamics in enzymatic hydrogen transfer., Chem. Rev., 2006, 106, 3095-3118.

[5] Judith P. Klinman, How Do Enzymes Activate Oxygen without Inactivating Themselves?, Acc. Chem. Res, 2007, 40, 325-333).

[6] L.M. Mirica, K.P. McCusker, J.W. Munos, H. Liu, Judith P. Klinman, 18O kinetic isotope effects in non-heme iron enzymes: Probing the nature of Fe/O2 intermediates., J. Am. Chem. Soc., 2008, 130, 8122-8123.

[1] Prima donna chimico a far parte dello staff all’University of California a Berkeley. Berkeley è stata fondata nel 1868 per cui festeggia quest’anno il 150° anniversario. In uno dei siti consultati si afferma che: “Una delle eredità più importanti del sistema UC è che le donne furono ammesse due anni dopo la fondazione dell’università, nel 1870. I Regents avevano approvato all’unanimità una risoluzione per ammettere le donne che all’epoca costituivano circa il 36% della popolazione dello stato. L’annuncio dell’University Registrar era chiaramente inteso a incoraggiarle a partecipare: “Le Giovani Donne sono ammesse all’Università a parità di condizioni, a tutti gli effetti come i giovani uomini”. Tuttavia fra il dire e il fare…

La depurazione delle acque reflue e il problema dell’antibiotico resistenza

In evidenza

Mauro Icardi

Gli impianti di depurazione tradizionali a fanghi attivi sono stati sviluppati negli anni che vanno dalla fine dell’ottocento, fino ai primi anni del novecento. L’invenzione del processo a fanghi attivi è collegato con gli sforzi degli ingegneri inglesi e americani per migliorare la depurazione biologica che fino a quel momento avveniva tramite sistemi a biomassa adesa (filtri percolatori).

Partendo dalla necessità iniziale di diminuire i problemi di odori nelle reti fognarie Arden & Locket notarono che ricircolando il fango formatosi durante il periodo di aerazione dei liquami ,si migliorava l’efficienza di trattamento e di intensità del processo depurativo. Questo sistema tradizionale adesso mostra qualche limite, relativamente alla diffusione di inquinanti emergenti di difficile o, in qualche caso, impossibile degradazione per via biologica. L’altro limite del sistema a fanghi attivi tradizionale è quello legato alla produzione di fanghi, e al loro corretto smaltimento o riutilizzo.

Posto che i fanghi sono il prodotto inevitabile di questa tecnica depurativa in essi si concentrano gli inquinanti rimossi dal liquame depurato, ma anche parte dei nuovi inquinanti.

Studi recenti hanno dimostrato che negli impianti di depurazione, ma anche nei fanghi prodotti dal trattamento possono avvenire processi nei quali aumenta la resistenza antibiotica. Il meccanismo è quello del trasferimento di geni tra batteri non patogeni e batteri patogeni.

La resistenza agli antibiotici da parte dei microrganismi può diventare uno dei principali problemi di salute pubblica. Si stima un aumento di decessi legati a problemi di resistenza antibiotica che potrebbe arrivare a causare 10 milioni di decessi causati da infezioni che i normali antibiotici in commercio non sarebbero più in grado di debellare. Quanto maggiore è il numero di antibiotici utilizzati, tanto più veloce sarà la diffusione della resistenza agli stessi. Quindi ottimizzare l’utilizzo degli antibiotici in ambito agricolo e clinico è il primo passo da compiere.

Contestualmente all’estensione di sistemi di trattamento adeguati delle acque reflue nei paesi che ne sono ancora privi.

Laddove invece i depuratori siano presenti è necessario implementare il trattamento terziario di ultima generazione (sistemi MBR o filtri in nanotubi di carbonio)

Per quanto attiene al trattamento dei fanghi prodotti negli impianti di depurazione occorre implementare sistemi efficienti di trattamento, che igienizzino i fanghi, e ne riducano il potenziale patogeno.

Il trattamento di digestione anaerobica può essere già parzialmente efficace nel ridurre il fenomeno dell’antibiotico resistenza. Per migliorare ulteriormente l’efficacia sarebbe opportuno intervenire sulla gestione di processo dei digestori.

I digestori anaerobici che normalmente lavorano in un range di temperatura favorevole al metabolismo dei batteri mesofili (valori ottimali di temperatura di esercizio 30-35°C), dovrebbero passare al trattamento termofilo (valori ottimali 55-60° C) . Questo favorirebbe una maggior igienizzazione del fango.

Il processo termofilo se associato alla codigestione di matrici organiche esterne, quali frazione umida di rifiuti organici (FORSU) avrebbe anche benefici consistenti nella maggior produzione di biogas . Un circolo virtuoso che in alcuni paesi europei quali Francia e Norvegia è già stato diffusamente sviluppato.

Ma il fenomeno della resistenza antibiotica si verifica anche sui fanghi che sono stati sottoposti al trattamento di disidratazione. Un recente studio pubblicato su “Environmental Science Water & research technology” lo scorso Aprile ha confermato questa ipotesi. Ed ha proposto di estendere al trattamento di disidratazione, ed eventuale essicamento dei fanghi, quello termochimico di pirolisi.

Per verificarne l’efficacia si sono utilizzati come indicatori sia il gene rRNA16s, sia gli integroni di classe 1.

I secondi sono già normalmente utilizzati come indicatori di contaminazione e stress ambientale dovute alla diffusione dell’antibiotico resistenza nell’ambiente.

Le prove di pirolisi eseguite in laboratorio su fanghi provenienti da depuratori municipali hanno rivelato che per esempio il gene del rRNA 16S è stato significativamente ridotto operando con temperature di pirolisi tra i 300 e i 700°C.

Lo studio suggerisce quindi di utilizzare il trattamento di pirolisi come tecnica per ridurre l’antibiotico resistenza nei fanghi da destinare a smaltimento finale, o a utilizzo agricolo. I prodotti ottenuti dal trattamento pirolitico, cioè syngas e biochair, sarebbero riutilizzabili. Il primo come combustibile, il secondo come concime o ammendante per terreni. Il trattamento di pirolisi ridurrebbe nel biochair prodotto in primo luogo la contaminazione da antibiotico resistenza, ma anche la presenza di altri inquinanti indesiderati, quali il PCB e le diossine tra gli altri. Mantenendo solo gli elementi essenziali quali azoto e fosforo. Un modo per contrastare anche lo sbilanciamento dei cicli biogeochimici di questi due elementi.

Come si può vedere dalle premesse, il settore del trattamento delle acque reflue si trova davanti ad alcune sfide primarie. La prima fra tutte è quella di una profonda evoluzione delle tecniche da applicare per trattamenti spinti di depurazione delle acque reflue, che sempre più si caricano di inquinanti emergenti. Ma anche di riutilizzo e corretta gestione dei fanghi prodotti dai trattamenti tradizionali, così da renderli riutilizzabili ed ecocompatibili. La diffusione generalizzata ed ubiquitaria di nuovi inquinanti non può più essere sottovalutata. E il problema dell’antibiotico resistenza è una emergenza in qualche modo sottovalutata. Occorre pensare in termini di lungo periodo. E destinare risorse economiche ed umane a questa rivoluzione del settore. Una rivoluzione tecnica che si collegherebbe idealmente con quella del secolo scorso, che diede il via allo sviluppo e alla maturità tecnica della depurazione delle acque reflue. E a cui, almeno noi abitanti dei paesi occidentali dobbiamo anche una buona parte del nostro benessere e della nostra salute.

Link di approfondimento.

http://pubs.rsc.org/en/content/articlelanding/2018/ew/c8ew00141c#!divAbstract

https://www.laboratoriol2a.it/inquinamento-da-antibiotici/

http://verbanonews.it/index.php/categorie/primo-piano/8580-antibiotici-e-metalli-pesanti-nelle-acque-reflue-lo-studio-del-cnr-di-pallanza-pubblicato-da-una-prestigiosa-rivista-scientifica

La qualità dell’aria negli ambienti confinati.

In evidenza

Luigi Campanella, già Presidente SCI

(altri post sull’ argomento:

https://ilblogdellasci.wordpress.com/2017/11/01/strategie-contro-linquinamento-indoor/

https://ilblogdellasci.wordpress.com/2017/08/25/inquinamento-ospedaliero/)

L’espressione ‘ambiente indoor’ è riferita agli ambienti confinati di vita e di lavoro non industriali, ed in particolare, a tutti i luoghi chiusi adibiti a dimora, svago, lavoro e trasporto. Secondo questa definizione, il termine ‘indoor’ comprende: le abitazioni, gli uffici pubblici e privati, le strutture comunitarie (ospedali, scuole, uffici, caserme, alberghi, banche, etc.), i locali destinati ad attività ricreative e/o sociali (cinema, bar, ristoranti, negozi, strutture sportive, etc.) ed infine i mezzi di trasporto pubblici e/o privati (auto, treno, aereo, nave, etc.).

Negli ultimi decenni, con l’eccezionale sviluppo del settore terziario, la popolazione dei paesi industrializzati trascorre una parte sempre maggiore del proprio tempo (fino al 90%) negli ambienti confinati; contemporaneamente, si sono verificati profondi mutamenti nella qualità dell’aria indoor a causa di un progressivo aumento delle sostanze inquinanti. Lo scadimento della qualità dell’aria interna è dovuto in parte agli alti livelli esterni di inquinamento ma, soprattutto, alle numerose sorgenti interne che determinano concentrazioni di inquinanti a volte superiori a quelle presenti all’esterno.

In seguito alla crisi delle risorse energetiche mondiali, si sono imposti nuovi criteri tecnico-progettuali per gli edifici ad uso civile: la necessità di contenere i consumi per il riscaldamento e per la ventilazione ha imposto un migliore isolamento degli edifici, con conseguente tendenza a sigillare gli ambienti interni. Alle modifiche strutturali degli edifici si sono accompagnate modifiche rilevanti degli arredi (nuovi materiali per mobili, rivestimenti, etc.) e degli strumenti di lavoro (crescente impiego di fotocopiatrici, videoterminali, stampanti, etc.).

L’attenzione dei paesi industrializzati è stata rivolta già da tempo allo studio dei fenomeni di inquinamento dell’aria ‘esterna’, di cui ben presto sono state identificate le cause (traffico automobilistico, impianti industriali, impianti di riscaldamento domestico), gli effetti (preoccupante crescita della incidenza di malattie polmonari e neoplastiche) e le eventuali misure di contenimento (lotta all’inquinamento dell’aria urbana). Di contro, solo negli anni più recenti, dall’acquisizione di informazioni ed esperienze sui danni alla salute causati da una scadente qualità dell’aria interna, è emersa l’esigenza di un approfondimento delle conoscenze relative alle fonti di inquinamento indoor, nonché dei rapporti di causa-effetto tra esposizione e salute dell’uomo.

L’inquinamento dell’aria negli ambienti confinati rappresenta un problema importante per la sanità pubblica, con grandi implicazioni sociali ed economiche: in primo luogo la prolungata permanenza della popolazione negli ambienti interni di varia natura implica una continua esposizione a inquinanti indoor; inoltre, il rischio espositivo non è limitato a categorie ben definite. Tale rischio, infatti, non è esclusivamente di tipo professionale od occupazionale, ma è di particolare gravità per alcuni gruppi più suscettibili quali bambini, anziani e persone affette da patologie croniche (malattie cardiache, respiratorie, asma bronchiale, allergie), che trascorrono negli ambienti chiusi una percentuale di tempo particolarmente elevata.

La presenza di numerosi inquinanti (es. fumo passivo) e il clima caldo-umido delle abitazioni (che favorisce la crescita degli acari e di funghi nella polvere domestica), hanno sicuramente contribuito all’aumento della incidenza di patologie respiratorie croniche, come ad esempio l’asma, ed all’incremento della loro evoluzione verso forme persistenti, gravi ed invalidanti.

Recenti studi scientifici hanno evidenziato come alcuni inquinanti siano in grado di contribuire all’aumento dell’incidenza di tumori maligni: un maggior rischio di cancro ai polmoni è stato associato all’esposizione al “fumo di tabacco ambientale” ed ai prodotti di decadimento del Radon. Quest’ultimo è un gas radioattivo incolore, estremamente volatile, prodotto dal decadimento di tre nuclidi capostipiti che danno luogo a tre diverse famiglie radioattive: il Thorio 232, l’Uranio 235 e l’Uranio 238. Il Radon viene generato continuamente da alcune rocce della crosta terrestre, in particolar modo da lave, tufi, pozzolane, alcuni graniti, ma anche da rocce sedimentarie come i marmi. Come gas disciolto, esso viene veicolato anche a grandi distanze dal luogo di formazione nelle falde acquifere ed è nota, inoltre, la sua presenza in alcuni materiali da costruzione. Generalmente, tale gas giunge all’interno delle abitazioni attraverso fessure e piccoli fori delle cantine e dei piani seminterrati degli edifici.

Molti composti chimici presenti nell’aria indoor sono causa, sospetta o accertata, di stimolazione e/o irritazione dell’apparato sensoriale e possono dare vita a senso di disagio e ad altri sintomi comunemente presenti nella cosiddetta “Sindrome da Edificio Malato” (Sick Building Syndrome). Studi condotti in uffici ed in altri edifici destinati ad uso pubblico in diversi paesi hanno rivelato una frequenza di disturbi tra gli occupanti compresa tra il 15 e il 50% .

Un altro acronimo che deve la sua nascita in massima parte proprio all’inquinamenti indoor è la SCM (sensibilità chimica multipla,MCS in inglese).La prolungata presenza in ambienti indoor caratterizzati da inquinamenti combinati,complessi e variabili ha comportato la sensibilizzazione di alcuni individui, immunologicamente più deboli, verso questa nuova patologia,riconosciuta ormai come malattia sociale,anche in PaesiEuropei,primo fra tutti la Germania

L’ipotesi Siluriana.

In evidenza

Claudio Della Volpe

Per un blog col nostro sottotitolo questo è un argomento chiave; quali sono le condizioni geologiche per parlare di Antropocene? Ne abbiamo parlato estesamente in post recenti; sappiamo che ci sono varie ipotesi, almeno 4. E sono legate alla difficoltà di trovare segni di livello geologico del nostro passaggio nella biosfera, di livello geologico, cioè che rimangano saldi per milioni di anni, non per qualche migliaio o centinaia di migliaia. La cosa, come abbiamo documentato, non è banale e la discussione è accesa.

Ma proprio per questo nasce spontanea una domanda: e se in passato ci fossero state altre civiltà come la nostra, da cosa ce ne accorgeremmo? Come potremmo distinguere gli effetti di cause “naturali” da quelli di cause “artificiali”?

Ecco in due parole il senso dell’articolo pubblicato di recente da Gavin Schmidt e Adam Frank.Non tutto il grande pubblico conosce il nome di Gavin; ma per me che mi sono appassionato di clima e ci ho lavorato e insegnato per un pò, Gavin è una sorta di geniaccio; impossibile non conoscerlo.

Ricercatore alla NASA, è stato il fondatore di RealClimate, la pagina di climatologia che ha reso in tutto il mondo la discussione sul clima e la lotta contro il negazionismo climatico, la divulgazione ad altissimo livello della Fisica e della Chimica del clima un argomento di valenza culturale e, diciamolo, anche politica. Ma senza mai dismettere la coerenza e la autorevolezza di essere tenuto e gestito da scienziati militanti. Un esempio da imitare.

E per questo l’articolo di Gavin è estremamente stimolante ed importante.

L’analisi parte dall’equazione di Drake, coniata per stimare la probabilità che esistano altre civiltà; si tratta di una equazione che è semplicemente il prodotto di una serie di termini ciascuno dei quali esprime la probabilità (inferiore all’unità) che un certo evento appartenente alla sequenza necessaria per riprodurre una civiltà tecnologica (come noi la immaginiamo) abbia luogo nelle stelle della galassia o dell’Universo conosciuto.

Alcuni termini si conoscono ormai dallo studio dell’astronomia, altri da quello della geologia della Terra, altri sono stimati anche a partire dalla nostra esperienza. A questo riguardo è interessante notare come per risolvere l’equazione occorra stimare la probabilità che la vita e l’intelligenza si riproducano o si siano riprodotte nella storia della Terra; è possibile che si siano riprodotte più volte? Quasi sicuramente si: vite non basate sul DNA e intelligenze diverse da quella umana (delfini o scimpanzè) sono state robustamente ipotizzate o sono studiate.

Allo stesso modo lo studio della astronomia planetaria tramite i satelliti sta facendo scoprire ed ipotizzare altri ambienti in cui la vita può essersi sviluppata nel passato remoto (Venere e Marte o alcuni dei satelliti di Giove costituiscono ambienti possibili).

Altre note interessanti sono legate al modo in cui raccogliamo informazioni di tipo geologico e antropologico: culture diverse da Homo sapiens sono state già scoperte e recenti sviluppi riguardano per esempio Homo sapiens neanderthalensis che è stato provato capace di arte e culto dei morti, molti eoni prima di noi (fra l’altro dal mio collega di Trento, Diego Angelucci); ricordiamo sempre che il fuoco l’ha inventato Homo erectus, quasi un milione di anni fa mentre noi abbiamo solo 200mila anni.

Quanto dura un manufatto complesso? Il più complesso manufatto “tecnologico” che conosciamo è il meccanismo di Antikythera (probabilmente un planetario alessandrino, una sorta di calcolatore analogico) datato 205aC e trovato in fondo al mare. I nostri computer quanto dureranno?

(Thanassis Stavrakis, Associated Press)

Nonostante la ampia e stimolante introduzione il lavoro è comunque ristretto all’analisi delle condizioni geochimiche necessarie ad individuare una civiltà industriale pre-quaternaria dai record geologici compresi fra il Devoniano e il Pliocene, dunque fra 400 e 4Ma fa.

Il primo pezzo dell’articolo è dunque dedicato all’impronta geologica dell’Antropocene (The geological footprint of the Anthropocene), l’epoca che viviamo e a cui il nostro blog è dedicato.

La discussione verte su tracce geologiche che rimangano stabili per milioni di anni; a questo riguardo Gavin dice una cosa molto interessante. C’è un paradosso; uno si aspetta che la civiltà umana lasci tracce più evidenti col trascorrere del tempo, ma in effetti, nota l’articolo, se una civiltà dura molto tempo vuol dire che diventa sostenibile e se diventa sostenibile allora la sua impronta ecologica diminuirà, NON crescerà. Voi che ne dite? Già questa è una domanda di quelle che meritano, e fare domande è il ruolo dello scienziato.

Alcuni elementi di livello geologico sono:

-l’alterazione del rapporto 13C/12C legato all’aver bruciato in due secoli e mezzo oltre 500Gton di C di origine fossile e dunque con bassissimo tenore di 13C; il rapporto fra i due isotopi è dunque diminuito e rimarrà tale nel record geologico;

– a causa dell’aumento di temperatura indotto da questa combustione è cambiato il δ18O, ossia è cambiato il rapporto 18O:16O, che sono i due isotopi stabili dell’ossigeno;

– e infine l’effetto combinato della combustione dei fossili, della sintesi Haber-Bosch, dell’applicazione su larga scala della concimazione sintetica e la selezione di piante che fissano più azoto ha alterato profondamente il ciclo dell’azoto così da alterare anche δ15N in sedimenti lontani da quelli delle zone “civilizzate”.

Sono cambiati i sedimenti oceanici sia in quantità sia in composizione a causa dell’aumentato flusso di materiali.

Alcuni animali “domestici” hanno avuto uno sviluppo enorme mentre altri invece sono scomparsi a causa della scomparsa dei loro habitat.

Queste modifiche si noterebbero anche a molti milioni di anni di distanza. Poi ci sono le molecole sintetiche per esempio i cosiddetti POPs, ossia le molecole organiche persistenti che si comportano di fatto come degli inquinanti molto insidiosi; molti di essi sono costituiti da molecole con legami C-Cl o C-F, più forti e stabili di quelli C-C e C-O, anche se non sappiamo in effetti quanti anni effettivamente queste molecole persisterebbero nell’ambiente.If an industrial civilization had existed on Earth many millions of years prior to human era, what traces would it have left and would they be detectable today? Image credit: Michael Osadciw, University of Rochester.

http://www.sci-news.com/featurednews/silurian-hypothesis-05921.html

Sappiamo comunque che nei sedimenti alcune molecole persistono per tempi molto lunghi; questo si sa che avviene per i grassi e gli steroidi; questa situazione deve essere considerata anche alla luce del fatto che le molecole di origine naturale e sintetica hanno spesso una differenza: quelle sintetiche sono presenti con entrambi i loro racemi, se le molecole sono otticamente attive, mentre quelle naturali al contrario sono presenti solo in una delle forme.

Anche le cosiddette plastiche sono ampiamente presenti in ambiente e rappresentano nei sedimenti materiali notevolmente persistenti.

Ed infine ci sono almeno due isotopi transuranici la cui origine è prevalentemente sintetica: Plutonio-244 (semivita 80.8 milioni di anni) e il Curio-247 (semivita 15 milioni di anni) sarebbero ritrovabili per un tempo molto lungo; ovviamente le quantità in gioco sarebbero significative in caso di eventi estremi come esplosioni atomiche generalizzate.

Nella seconda parte dell’articolo Schmidt considera quali eventi del passato abbiano avuto conseguenze simili a quelle che abbiamo analizzato finora per l’Antropocene. Ora questi episodi esistono nel passato geologico e sono conosciuti come ipertermali, periodi della durata di 10-100.000 anni in cui la temperatura è variata significativamente verso l’alto ritornando poi lentamente alla “normalità”.

Fra gli altri ipertermali 4 gruppi vengono esaminati in dettaglio differenziandoli a seconda della loro età geologica, situati nell’Eocene, nel Paleocene, nel Giurassico-Cretacico e poi più indietro nel Mesozoico e nel Paleozoico.

Gavin conclude che è difficile al momento attribuire o escludere con certezza cause artificiali (come una civiltà di tipo industriale) considerate come origine di fenomeni passati che presentano di fatto molti punti di contatto con quelli che stiamo vivendo adesso: esteso e rapido aumento della concentrazione di gas serra, aumento generalizzato della temperatura planetaria, alterazione della composizione anche isotopica dei depositi, alterazione della fauna e della flora con estesa riduzione del numero di specie, presenza di molecole od isotopi la cui origine naturale è improbabile o impossibile; si augura che una maggiore attenzione ad una ipotesi di questo tipo possa in futuro consentire di accettare od escludere la possibilità prospettata. Gli autori del lavoro sono al momento convinti che la loro ipotesi sia falsa; ma rimangono aperti a scoperte emozionanti.

Ho avuto modo di discutere dell’ipotesi con alcuni studenti nei vari corsi che tengo e che coinvolgono essenzialmente futuri ingegneri; parecchi la hanno considerata una ipotesi da “fisici” da “scienziati”, non cose da ingegneri; il che onestamente mi appare riduttivo. Ma la cosa che mi ha preoccupato di più è stata la riflessione di uno studente che dato che è molto probabile che tra qualche milione di anni ragionevolmente non ci sarà più traccia di noi allora tanto vale che viviamo come meglio ci aggrada, senza preoccuparci del futuro.

Voi che ne pensate?

Riferimenti.

Preprint su arxiv: https://arxiv.org/abs/1804.03748

Articolo di Gavin Schmidt:

https://www.cambridge.org/core/journals/international-journal-of-astrobiology/article/silurian-hypothesis-would-it-be-possible-to-detect-an-industrial-civilization-in-the-geological-record/77818514AA6907750B8F4339F7C70EC6

Un nuovo sistema per l’elettrolisi dell’acqua di mare a energia solare*

In evidenza

Rinaldo Cervellati

La frase del titolo è parte molto accattivante del titolo di una notizia riportata da Mark Peplow il 30 marzo scorso su Chemistry & Engineering newsletter on-line del 4 aprile.

Peplow inizia osservando che la produzione di idrogeno attraverso l’elettrolisi dell’acqua potrebbe portare a una fonte rinnovabile del combustibile, ma per piccole nazioni insulari come ad esempio Singapore, l’acqua dolce è però una risorsa preziosa. Quindi un gruppo di ricercatori della Nanyang Technological University (NTU) di Singapore, coordinati dai Prof. Bin Liu (Singapore) e S.Z. Quiao (University of Adelaide, Australia), ha rivolto l’attenzione al mare, sviluppando catalizzatori che porterebbero a elettrolizzare l’acqua di mare con efficienza record, generando ossigeno e idrogeno che potrebbero alimentare le celle a combustibile (S-H. Hsu et al., An Earth-Abundant Catalyst-Based Seawater Photoelectrolysis System with 17.9% Solar-to-Hydrogen Efficiency, Adv. Mater., 2018, DOI: 10.1002/adma.201707261).

  Un sistema di elettrolisi ad energia solare sviluppa idrogeno al catodo (a sinistra) e ossigeno all’anodo (a destra).

Il sistema è alimentato da energia solare, formando idrogeno con un’efficienza complessiva del 17,9%. Per quanto ne sappiamo, questa è la massima efficienza ottenuta con l’acqua di mare, afferma Bin Liu della NTU di Singapore, che fa parte dei coordinatori del gruppo di ricerca.

Prof. Bin Liu

Gli oceani sono un’enorme riserva di atomi di idrogeno, ma ottenere idrogeno molecolare per elettrolisi di acqua marina è una grande sfida. In una cella elettrolitica, la corrente usata per dissociare l’acqua salmastra forma anche altri prodotti, per esempio trasforma gli ioni cloruro in cloro gassoso indesiderato, mentre altri ioni come il calcio e il magnesio formano precipitati insolubili che inibiscono i catalizzatori depositati sugli elettrodi. Le reazioni di elettrolisi possono poi anche causare variazioni di pH con conseguente corrosione degli elettrodi.

Il gruppo di Liu aveva in precedenza sviluppato un catalizzatore al solfuro di molibdeno e nichel che abbassa la differenza di potenziale necessaria per generare idrogeno dall’acqua marina al catodo. (J. Miao et al., Hierarchical Ni-Mo-S nanosheets on carbon fiber cloth: A flexible electrode for efficient hydrogen generation in neutral electrolyte., Sci. Adv. 2015, DOI: 10.1126 / sciadv.1500259).

Il loro nuovo catalizzatore per l’anodo si basa su elementi abbondanti in natura (Fe, Co) per l’ossidazione anodica con sviluppo di ossigeno gas e formazione di ioni idrogeno. I ricercatori hanno coltivato nano cristalli aghiformi di carbonato di cobalto basico su tessuto in fibra di carbonio. Quindi hanno immerso il tessuto in 2-metilimidazolo formando uno strato sottile di struttura organometallica cobalto-imidazolo (MOF, Metal Organic Framework) all’esterno degli aghi. L’aggiunta di ferrocianuro di sodio lo ha trasformato in esacianoferrato di cobalto, che ha mantenuto la nanostruttura porosa del MOF formando gusci catalitici di 20 nm di spessore attorno ai nanoaghi conduttori.

Schema di un elettrolizzatore a energia solare per acqua di mare. Il catalizzatore esacianoferrato di cobalto favorisce lo sviluppo di ossigeno sull’anodo (freccia gialla, a destra). Nel contempo, il catalizzatore di solfuro di molibdeno e nichel sul catodo favorisce lo sviluppo di idrogeno (freccia rossa, a sinistra). Il pannello solare è mostrato a sinistra con il collegamento agli elettrodi.

Con una cella solare a tripla giunzione commerciale per fornire elettricità, il gruppo di ricercatori ha testato il sistema utilizzando acqua di mare locale, aggiungendo solo un tampone fosfato per mantenere neutro il pH. Dopo 100 ore di funzionamento continuo, l’elettrolizzatore aveva prodotto idrogeno e ossigeno, senza cloro. Inoltre, i suoi elettrodi e catalizzatori erano intatti e la produzione diminuita solo del 10%.

Al contrario, un elettrolizzatore che utilizzava catalizzatori convenzionali di platino e ossido di iridio per decomporre l’acqua marina locale ha subito una diminuzione di attività molto più rapida, producendo anche cloro.

Il fatto che sia selettivo per l’evoluzione dell’ossigeno piuttosto che per l’evoluzione del cloro è molto significativo, afferma Michael E. G. Lyons, ricercatore elettrochimico al Trinity College di Dublino, aggiungendo: È un risultato molto difficile da ottenere.

Michael E.G. Lyons

Peter Strasser dell’Università tecnica di Berlino, che ha lavorato all’elettrolisi dell’acqua di mare, sottolinea che il sistema ha una densità di corrente molto bassa. Per produrre utili quantità di idrogeno, il sistema avrebbe bisogno di una densità di corrente molto più elevata, che potrebbe innescare l’evoluzione del cloro o altre reazioni collaterali indesiderate, e aggiunge: I problemi sorgono quando si passa a densità di corrente elevate“.

Peter Strasser

Bin Liu afferma che i test iniziali a densità di corrente più elevate non hanno prodotto alcun cloro. Ma riconosce che le prestazioni del sistema potrebbero essere migliorate. Ad esempio, con l’utilizzo di acqua dolce, gli elettrolizzatori ad energia solare hanno raggiunto efficienze da solare a idrogeno superiori al 30% (J. Jia et al., Solar water splitting by photovoltaic-electrolysis with a solar-to-hydrogen efficiency over 30%., Nat. Commun. 2016, DOI: 10.1038/ncomms13237).

Il gruppo di Liu sta ora lavorando con i ricercatori del Dalian Institute of Chemical Physics (Dalian, Rep. Pop. Cinese), per sviluppare il loro sistema in un prototipo di dispositivo per la produzione pilota di idrogeno dall’acqua di mare.

Dopo i commenti dei due ricercatori Michael Lyons e Peter Strasser, riportiamo quelli di due esperti che fanno parte della redazione del blog.

Vincenzo Balzani dice:

Argomento importantissimo, studiato da molti scienziati. Ai catalizzatori buoni ci si arriva un po’ per caso. Tutto plausibile. Il punto è se è vero che “Dopo 100 ore di funzionamento continuo, l’elettrolizzatore aveva prodotto idrogeno e ossigeno, senza cloro. Inoltre, i suoi elettrodi e catalizzatori erano intatti e la  produzione diminuita solo del 10%.”  e se “ i test iniziali a densità di corrente più elevate non hanno prodotto alcun cloro”. Poi bisognerebbe sapere se è economicamente convenente rispetto ai metodi basati su osmosi inversa (elettrodialisi inversa).

Claudio Della Volpe commenta:

Il cobalto usato come catalizzatore nel processo non è il massimo come materiale; in un solo posto al mondo (miniera di Bou Azzer in Marocco che ha riserve limitate) si estrae cobalto direttamente, altrimenti è una impurezza di altri metalli; in altre tecnologie come le batterie al litio il cobalto ha mostrato problemi proprio nei limiti di produzione come risorsa; se ne producono solo 100.000 ton all’anno e quelle da risorsa primaria sono solo meno di 2mila; in definitiva il cobalto è una risorsa limitata e costosa.

Non mi pronuncio sugli altri aspetti, ma già l’articolo chiarisce che c’è un limite nei dati; gli sperimentatori hanno usato una densità di corrente bassa, ossia non hanno esplorato veramente la sovratensione del sistema e inoltre aumentando la corrente non solo aumenterebbe la sovratensione (che è una sorgente di dissipazione energetica, di inefficienza) ma sorgerebbe anche il problema potenziale di innescare altri processi, un tipico problema elettrochimico. Nel libro di elettrochimica di Bianchi e Mussini (G. Bianchi, T. Mussini, Fondamenti di Elettrochimica. Teoria e Applicazioni, CEA, Milano, 1993) la parte teorica termina proprio con questo tipo di analisi: due reazioni con diverse sovratensioni: quella termodinamicamente favorita potrebbe essere quella più limitata da motivi cinetici (sovratensione).

Infine come giustamente dice Vincenzo non ci sono analisi differenziali del processo contro altri concorrenti agguerriti e attualissimi; diciamo che gli autori fanno pensare di non aver approfondito ancora cose veramente importanti, d’altronde basta aspettare e vedere se il risultato viene confermato.

*Tradotto e ampliato da c&en del 4 aprile 2018.

I controlli sulle acque reflue come monitoraggio sanitario

In evidenza

Mauro Icardi

Dal 2004 fino a tutto il 2012 presso l’impianto di depurazione di Varese, si sono svolte diverse campagne di monitoraggio aventi lo scopo di verificare le quantità e le concentrazioni di metaboliti di farmaci e di droghe d’abuso, in particolare la cocaina. In particolare io mi sono occupato del controllo dell’impostazione corretta dei campionatori programmabili, e della supervisione ai campionamenti . I prelievi venivano predisposti nell’arco temporale di una settimana e in periodi di tempo secco. Queste attività si sono svolte in collaborazione con l’Istituto farmacologico Mario Negri di Milano, e con l’Università dell’Insubria di Varese. L’ateneo ha successivamente svolto altre campagne di campionamento focalizzando maggiormente l’attenzione su altri aspetti , in particolare la verifica di funzionalità degli impianti di depurazione tradizionali relativamente alle rese di abbattimento di questi particolari inquinanti che rientrano tra quelli definiti emergenti. Nel caso delle verifiche effettuate in collaborazione con l’Istituto Mario Negri i campioni venivano prelevati all’ingresso impianto. Per le successive campagne svolte con l’Università di Varese, anche all’uscita dell’impianto. In questo caso per ottenere dati congruenti   la partenza del ciclo di prelievi era ritardata tenendo conto del tempo di ritenzione idraulica, relativo a tutte le fasi di trattamento delle acque fognarie. Entrambi i campionatori erano comunque impostati con frequenza di campionamento proporzionale alle variazioni di portata idraulica.

Nel 2005 venne pubblicato il risultato della campagna di monitoraggio del lavoro svolto dal gruppo di Fanelli e Zuccato dell’Istituto di Ricerche Farmacologiche Mario Negri in collaborazione con Davide Calamari dell’Università dell’Insubria, purtroppo deceduto prematuramente.

https://ehjournal.biomedcentral.com/articles/10.1186/1476-069X-4-14I campionamenti furono effettuati anche su altri tre impianti di depurazione di acque reflue, quelli di Cuneo, Latina e Cagliari e sul fiume Po.

La determinazione della Cocaina e del suo principale metabolita, la benzoilecgonina (BE) furono determinati attraverso l’utilizzo combinato di cromatografia liquida e spettrometria di massa, presumendo il riscontro di quantità basse. Questo servì a stabilire che effettivamente i due composti si potevano misurare e per verificare che il loro rapporto fosse compatibile con quello che viene indicato da altri studi nell’uomo, e cioè circa 0,15 parti di cocaina per ogni parte di BE eliminata. La BE è escreta completamente attraverso le urine, la cocaina solo in parte.

Le misure effettuate presso i depuratori di quattro città di provincia italiane e cioè Cagliari, Cuneo, Latina e Varese stabilirono inoltre le concentrazioni di BE che oscillavano a seconda delle città da 383.000 a 751.000 picogrammi per litro. Sulle acque superficiali del fiume Po si ci si rese conto, considerando una portata media di 750 m3/sec ,che il fiume trasportava 4 kg al giorno di cocaina. Ogni anno poco più di una tonnellata (1,3 t).
Nello stesso modo considerando i valori di portata influente sugli impianti oggetto di monitoraggio si verificarono le quantità di cocaina che vi transitavano. Il valore per Varese risultò pari a circa 13 kg/anno di cocaina, del tutto simile a quelli degli impianti di Cuneo e Latina, pari a 11 e 12 kg/anno rispettivamente. Il valore più elevato riscontrato a Cagliari (47kg/anno) è da riferirsi ad una città con dimensioni e popolazione maggiori. Successivamente due monitoraggi   effettuati da studenti del corso di Ingegneria della sicurezza dell’ambiente dell’Università dell’Insubria , effettuati sul depuratore di Varese hanno mostrato incremento di concentrazione di metaboliti della cocaina nei campioni di acque prelevate nel fine settimana. L’incremento di concentrazione aveva anche punte del 40-50% rispetto ai giorni feriali. Situazione abbastanza prevedibile considerando che a fronte di un consumo già diffuso e abbastanza generalizzato di cocaina, esso si incrementi molto nei fine settimana. L’uso di cocaina per il fenomeno dello sballo del week end.L’altro aspetto che si ipotizzava e che si e confermato, è che il trattamento biologico tradizionale avesse efficacia molto limitata nella rimozione di questo genere di inquinanti, che transitano praticamente inalterati allo scarico finale. Questo, come altri studi simili, dimostra come l’adeguamento generalizzato degli impianti di depurazione, con adatti trattamenti di tipo terziario sia urgente e indifferibile. Ciò che il depuratore non riesce a trattenere finisce inevitabilmente nell’ambiente. Questo è argomento che deve essere affrontato dalla politica, sia a livello nazionale che locale. Studiosi e gestori hanno fornito documentazioni e dati, e considero che il loro compito sia stato correttamente svolto. Molti altri articoli e studi mostrano gli effetti nefasti dei modificanti endocrini e dei composti organici persistenti sulla fauna ittica. Ma purtroppo si può dire, utilizzando una battuta sarcastica, che i pesci sono muti.

E non sentiamo quindi i loro lamenti. Un inquinamento di questo tipo è subdolo. Generalmente non provoca evidenti morie di pesci. Ma per esempio muta i loro caratteri sessuali e la fertilità. Un inquinamento che non si percepisce immediatamente, se non quando il numero di specie ittiche sono ormai ridotte. E un altro importante aspetto da considerare, è quello dell’accumulo di metaboliti provenienti da consumo di farmaci, antidolorifici o calmanti che sono tra quelli più usati. Spesso anche dei farmaci si fa un uso che dovrebbe essere maggiormente ponderato. E occorre verificare gli effetti collaterali che questi metaboliti potrebbero avere sulla nostra salute, attraverso il loro concentrarsi tramite la catena alimentare. Questo aspetto ha del surreale, un effetto boomerang.

Per quanto riguarda l’aspetto morale del consumo di stupefacenti non voglio pronunciarmi. Personalmente ho avuto la fortuna di non subire nessuna fascinazione in tal senso nel corso degli anni. Mi è capitato spesso di parlare con persone cercando quantomeno di sfatare un mito, cioè quello che la cocaina non dia assuefazione e non sia dannosa. Purtroppo molti associano l’uso di questo stupefacente a sensazioni diffuse di benessere e di potenza sessuale. E normalmente a quel punto la conversazione finisce per infilarsi in un “cul de sac” e io solitamente la interrompo.

Questo primo studio ha però dato adito ad un nuovo ulteriore approccio che per altro origina fin dagli anni 90. Cioè il monitoraggio delle acque in ingresso ai depuratori, come strumento per verificare le condizioni di benessere e salute della popolazione in maniera anonima. Questo è il contenuto di un articolo che mi è stato segnalato dal collega di redazione Rinaldo Cervellati che ringrazio.

Pubblicato sulla rivista Chem Eng News suggerisce che, non solo le droghe e i farmaci possano essere monitorati, ma anche per esempio i lipidi, o i metaboliti legati al fumo di sigaretta.

Secondo Rolf Haden un ingegnere ambientale e direttore del Centro per l’Ingegneria della Salute Ambientale presso l’Arizona State University’s Biodesign Institute, all’ingresso di un impianto di trattamento delle acque reflue “Si può osservare tutta la chimica che viene utilizzata in una città. È possibile misurare i metaboliti che sono migrati attraverso il corpo umano. È possibile guardare i farmaci che vengono presi. In sostanza, sei in un luogo dove è possibile osservare la salute umana in tempo reale“.

Nel 2010 , i ricercatori di sette organizzazioni che effettuano misurazioni di questi nuovi inquinanti si sono riuniti per formare la rete SCORE, acronimo di Sewage Analysis CORe group Europe.

Dal 2011 la rete Score ha coordinato misure annuali di quattro droghe illecite-cocaina, 3,4-Methylenedioxymethamphetamine (MDMA, la droga sintetica comunemente nota come ecstasy), anfetamine, e metanfetamine in tutta Europa. La rete riporta tali dati all’Osservatorio europeo delle droghe e delle tossicodipendenze (OEDT), che rilascia i risultati al pubblico nell’ambito dei suoi sforzi in corso per fornire informazioni sui problemi di droga in Europa.

Sebbene l’epidemiologia basata sulle acque reflue si sia finora concentrata principalmente sulle droghe illecite, i ricercatori si stanno attivando per esaminare altri composti. Ad esempio, i membri del SCORE hanno utilizzato l’approccio per monitorare il consumo di composti legali, tra cui caffeina, nicotina e alcol

L’articolo decisamente molto interessante interessante può essere consultato qui:

https://cen.acs.org/environment/water/monitor-health-citiesresidents-look-further/96/i18

La lettura è consigliata perché mostra quali siano le possibilità di un approccio di questo genere, e anche quali gli aspetti organizzativi e pratici. Dalla creazione di circuiti interlaboratorio per la verifica delle performance analitiche, la scelta delle molecole da determinare in funzione delle loro stabilità e delle eventuali modificazioni durante il transito negli impianti, fino alla gestione di altri dati da interfacciare ai risultati delle analisi (popolazione residente, portate affluenti agli impianti di trattamento ecc..).

E concentrandosi non solo sulle fasi acquose, ma a maggior ragione sui fanghi di risulta, dove si accumulano le sostanze depurate in fase acquosa.

Rispetto ai lavori precedenti sulle droghe illecite, l’epidemiologia basata sulle acque reflue con marcatori di salute endogeni ha avuto un avvio lento. Ma è auspicabile che possa essere sviluppata ulteriormente.

Il mio personale auspicio è ovviamente quello che queste iniziative portino in primo luogo maggior consapevolezza nella popolazione. Siamo noi consumatori che, dobbiamo e possiamo modificare i nostri stili di vita. La tecnologia nulla può nel risanamento ambientale se non è affiancata a questo basilare concetto. Dovremmo cercare di essere maggiormente equilibrati da questo punto di vista.

Per semplificare non è che la possibilità di avere depuratori più efficienti ci possa indurre a consumare più droghe o farmaci, e quindi a scaricarne maggiormente i residui e i metaboliti nelle acque, sentendoci giustificati in qualche modo.

Iniziative volte ad un monitoraggio maggiormente capillare delle acque reflue, sia per scopi di controllo della salute pubblica, che della qualità delle acque è necessario. Ultima considerazione quella di estendere i confronti e lo scambio di informazioni tra più soggetti. Università, centri di ricerca, gestori di impianto, enti di controllo.

Dalla terapia fotodinamica alla fotofarmacologia: le applicazioni mediche di una delle prime macchine molecolari

In evidenza


Rinaldo Cervellati

Ne parla diffusamente Katharine Sanderson in un articolo intervista su* Chemistry & Engineering newsletter del 2 aprile scorso, che vale certamente la pena di riportare integralmente.

Nella terapia fotodinamica, le cellule tumorali sono esposte alla luce laser, a volte tramite sonde a fibre ottiche. Un’impostazione simile potrebbe presto essere utilizzata in fotofarmacologia, oppure i medici potrebbero aver bisogno di impiantare LED per illuminare le aree bersaglio del corpo umano.

Terapia fotodinamica: le cellule tumorali sono esposte alla luce laser, a volte tramite sonde a fibre ottiche.

Nella lotta contro il cancro, le nostre opzioni terapeutiche sono migliorate nel corso degli anni. Ma sono ancora lontane dall’essere ottimali. Oggi i medici somministrano farmaci chemioterapici nella speranza di eliminare o ridurre un tumore prima che provochi troppi danni ad altre parti adiacenti del corpo del malato.

Ora i chimici sperano di guadagnare ancor più terreno in questa battaglia, progettando piccole molecole che possono essere attivate dalla luce all’interno dell’organismo dopo aver raggiunto il bersaglio, limitando così drasticamente gli effetti collaterali.

Gli scienziati mirano a utilizzare questi farmaci fotosensibili non solo per combattere il cancro, ma pensano anche che composti con un comportamento simile potrebbero essere utili nel trattamento della cecità e di altre gravi malattie. Antibiotici regolabili con segnali luminosi potrebbero persino aiutare a combattere la farmacoresistenza. Si deve pensare a questi farmaci come a interruttori molecolari, quando colpito dalla luce il farmaco si attiva, quando si spegne la luce il farmaco si disattiva. Mantenendo quindi la luce spenta quando il farmaco non lavora si impedirà ai patogeni di riconoscerlo come pericoloso e quindi di svilupparne resistenza.

Sebbene l’interesse per lo sviluppo di questi interruttori molecolari sia in aumento, la ricerca nel settore presenta ancora importanti problemi da risolvere. Ad esempio, i ricercatori devono assicurarsi che gli interruttori molecolari funzionino a lunghezze d’onda clinicamente inerti, per intenderci quelle che possono passare attraverso i tessuti senza fare danni. Inoltre i ricercatori devono poter lavorare in stretta collaborazione con i clinici per trovare dispositivi adatti a accendersi e spegnersi in prossimità di uno o più bersagli all’interno del corpo del malato.

L’idea di usare la luce per trattare alcune patologie non è completamente nuova. Ad esempio, la terapia fotodinamica (PDT) tratta i tumori e altre malattie della pelle. In questo tipo di terapia ai malati vengono somministrati farmaci colorati sotto forma di pillole, iniezioni sottocutanee o creme applicate sulla cute. La pelle così trattata viene illuminata con luce di opportuna lunghezza d’onda, che attiva le molecole del farmaco le quali convertono l’ossigeno dal suo stato normale di tripletto allo stato eccitato di singoletto, un potente radicale libero che distrugge le cellule malate.

Il fatto però che molti tumori sono ipossici, cioè richiedenti abbondante ossigeno, può ridurre molto l’efficacia di questo tipo di strategia.

Edith C. Glazer e il suo gruppo all’Università del Kentucky ha sviluppato complessi polipiridilici del rutenio (II) che espellono un ligando quando attivati dalla luce.

Effetto della luce su uno dei complessi di Glazer

Il composto residuo si lega poi al DNA delle cellule cancerose provocandone l’apoptosi.

Edith C. Glazer

A differenza delle molecole colorate nella PDT, le terapie fotofarmacologiche “utilizzano l’energia di un fotone per provocare un cambiamento chimico all’interno della struttura del farmaco”, spiega Glazer, “e questa nuova struttura si lega a un particolare bersaglio causando la morte delle cellule cancerose”.

In altre parole l’espulsione irreversibile di un ligando consente ai complessi di reticolare il DNA delle cellule cancerose provocandone danni irreparabili. Glazer può regolare la solubilità dei complessi e le lunghezze d’onda della luce che assorbono scegliendo opportuni ligandi, oppure creare composti a “doppia azione” che espellono i ligandi e sviluppano ossigeno singoletto (S.B. Howerton et al. Strained Ruthenium Complexes are Potent Light-Activated Anticancer Agents., J. Am. Chem. Soc. 2012, DOI: 10.1021/ja3009677).

Queste molecole possono essere davvero potenti, dice Glazer. “Le cellule si sono evolute per opporre resistenza all’ossigeno singoletto, poiché questo si forma naturalmente, ma addotti DNA-metallo non esistono in natura e quindi può essere più difficile per la cellula sviluppare una resistenza”.

Ma molti chimici, come Wiktor Szymanski dell’University Medical Center di Groningen, vogliono fare un ulteriore passo avanti e utilizzare la luce per “accendere” (attivare) e “spegnere” (disattivare) farmaci, facendoli diventare veri e propri interruttori. Recentemente si è concentrato su antibiotici fotocommutabili.

Viktor Szymansky

In questo modo il medico potrebbe decidere non solo quando ma anche dove gli antibiotici dovranno andare ad agire all’interno del corpo del malato. Una volta che un antibiotico attivato dal segnale luminoso ha esercitato il suo effetto, potrebbe essere disattivato con un diverso segnale luminoso.

Struttura di un antibiotico di Szymanski

Per rendere questi antibiotici on-off, Szymanski e collaboratori hanno modificato alcuni noti antibiotici inserendo nella loro molecola un gruppo azobenzenico, un gruppo fotosensibile a isomeria trans-cis. La luce ultravioletta converte l’azobenzene dalla sua forma trans alla forma cis. La luce blu può invertire il processo rapidamente. Altrimenti, l’azobenzene recupererà lentamente nel tempo la sua forma stabile, trans. L’isomerizzazione modifica la dimensione, la forma o la polarità complessiva della molecola, consentendole di colpire il microorganismo bersaglio.

Szymanski afferma che è sorprendente il numero di farmaci a cui basta aggiungere un gruppo fotocommutatore per conferir loro questa proprietà, esiste quindi la potenzialità per migliorarne la capacità di azione.

Glazer dice che un tale approccio è senza dubbio attraente ma osserva che ha alcune limitazioni. Una è la lunghezza d’onda della luce necessaria per eseguire la commutazione. Le migliori lunghezze d’onda per innescare l’isomerizzazione sono nella regione UV. La luce UV non è molto utile dal punto di vista medico, afferma Glazer, “poiché essa non penetra più di qualche millimetro nel tessuto e può inoltre indurre mutazioni del DNA nelle cellule sane”.

La luce rossa e infrarossa, d’altra parte, penetrano nel tessuto in profondità e in sicurezza. Stefan Hecht dell’Università Humboldt di Berlino sottolineava però che la luce rossa e infrarossa ha in genere i propri limiti. “Con la luce UV c’è molta energia che colpisce la molecola, ma se si irradia una molecola con luce rossa o quasi IR, la quantità di energia che scarichi nella molecola è minore piccola, e continuava: “fondamentalmente, quando la luce rossa o IR colpisce un gruppo foto-commutatore, lo fa con meno energia, e quindi l’isomerizzazione può essere meno probabile che con la luce UV. Ciò significa che il farmaco potrebbe essere meno potente. Sarebbe possibile superare alcuni di questi limiti e sintonizzare le molecole su lunghezze d’onda più lunghe concentrandosi sulla progettazione di interruttori migliori”, affermava Hecht.

Stefan Hecht

Alla fine dello scorso anno, Szymanski e collaboratori, fra i quali Ben Feringa[1], hanno fatto un passo avanti con gli antibiotici foto commutabili proprio nella direzione indicata da Hecht (M. Wegener et al. Photocontrol of Antibacterial Activity: Shifting from UV to Red Light Activation., J. Am. Chem. Soc., 2017, DOI: 10.1021/jacs.7b09281).

Essi hanno aggiunto alla molecola dell’antibiotico trimetoprim, azobenzeni in diverse posizioni sull’unità metossifenilica del farmaco per creare una libreria di molecole attivate da UV.

Nello screening su Escherichia coli, hanno trovato che una fra le molecole della libreria, è particolarmente potente quando attivata dalla luce UV. Per spostare la lunghezza d’onda a cui si verifica l’isomerizzazione trans-cis di questa molecola, il gruppo di Szymanski ha sostituito gli atomi sugli azobenzeni con fluoro e cloro. Una versione sostituita da cloro potrebbe essere isomerizzata da luce rossa. Non solo, ma quando questo trimetroprim fotoattivabile è stato attivato con luce rossa, risultò otto volte più potente contro E. coli rispetto a quando si interrompeva la luce. Per spegnere completamente il farmaco, i ricercatori hanno usato luce viola, che ha restituito rapidamente il farmaco alla sua forma originale, trans.

Fare farmaci antitumorali fotocommutabili “on”- “off” richiede un approccio diverso da quello per la progettazione di antimicrobici, afferma Oliver Thorn-Seshold della Ludwig Maximilian University di Monaco.

Oliver Thorn-Seshold

Con farmaci foto commutabili antitumorali selezionabili, i ricercatori devono infatti assicurarsi che i composti si leghino alle proteine bersaglio solo nella loro configurazione “on”. Legarli nella configurazione “off” significherebbe che i farmaci potrebbero danneggiare le cellule sane, anche esse contenenti quella proteina. Gli antibiotici fotocommutabili, d’altra parte, mirano a proteine specifiche dei batteri, non presenti nelle cellule umane sane. Sicchè essi non danneggiano le cellule sane qualsiasi sia la configurazione che assumono.

Thorn-Seshold fa parte del gruppo di ricerca e sviluppo CytoSwitch di Monaco, guidato da Yelena Wainman e sta progettando composti chiamati fotostatine, o PSTs (M. Borowiak et al. Photoswitchable Inhibitors of Microtubule Dynamics. Optically Control Mitosis and Cell Death., Cell, 2015, DOI: 10.1016/j.cell.2015.06.049). Quando attivati ​​dalla luce blu, questi composti, basati sulla struttura del prodotto naturale combretastatina A-4, interferiscono con la replicazione delle cellule tumorali prendendo di mira elementi strutturali chiamati microtubuli.

Antitumorali di Thorn-Seshold e Dirk Trauner: colpiti da luce blu cambiano configurazione da trans a cis, in questa configurazione interferiscono con i microtubuli che regolano la replicazione delle cellule tumorali.

Le fotostatine di CytoSwitch (originariamente sviluppati da Thorn-Seshold e Dirk Trauner, ora alla New York University), sono completamente inattive prima di essere colpite dalla luce, dice Thorn-Seshold. Ciò significa che i medici potrebbero somministrare ai pazienti anche alte dosi di questi farmaci senza preoccuparsi degli effetti collaterali negativi. Alte dosi significano anche che si possono utilizzare lunghezze d’onda a bassa intensità e biocompatibili, perché anche se solo una piccola frazione del farmaco viene attivata, i livelli risultanti di molecole attive saranno sufficienti per il trattamento. Come altre molecole fotosensibili, dopo essere state inizialmente attivate con la luce, le fotostatine tornano alla loro forma originale, inattiva con una tipica emivita di 15 minuti, afferma Wainman.

Nello sviluppo delle fotostatine, Thorn-Seshold si sta imbattendo in un problema pratico estremamente importante per l’applicazione pratica: come fare arrivare la luce nella parte del corpo dove è necessario attivare o disattivare il farmaco. Ritiene che i diodi ad emissione di luce opportunamente impiantati potrebbero essere un’opzione praticabile. E’ infatti una tecnologia esistente, resa popolare da alcuni tatuatori che impiantano i LED sotto la pelle come espressione di una moda originale. I LED sono anche usati in studi di fisiologia optogenetica in modelli animali (topi).

Dirk Trauner

Trauner, uno dei pionieri della fotofarmacologia, non deve preoccuparsi tanto del problema della luce in almeno uno dei progetti cui sta lavorando, ripristinare la vista ai ciechi. Colpire gli occhi di un individuo con luce brillante non richiede alcuna procedura invasiva di impianto LED, sebbene possa essere necessaria una sorta di visiera protettiva.

Fra la miriade di composti fotocommutatori che Trauner sta studiando ve ne è uno che, acceso negli occhi di topi ciechi, sblocca un canale ionico e ripristina la sensibilità alla luce degli animali (A. Polouskina et al., Photochemical Restoration of Visual Responses in Blind Mice., Neuron 2012, 75, 271-282, DOI: 10.1016/j.neuron.2012.05. 022). Questi topi erano ciechi perché le i coni e i bastoncelli nei loro occhi non funzionavano più, il che accade anche nella degenerazione maculare umana.

Trauner è sicuro che questo lavoro di ripristino della visione diventerà clinicamente rilevante presto, o al massimo fra pochi anni. Dice che ora ha circa 120 esempi di molecole fotocommutabili che funzionano in colture cellulari o modelli animali. Alcuni di queste sono quasi allo stadio preclinico o clinico. E prevede che i suoi farmaci per il ripristino della vista saranno i primi farmaci fotofarmacologici approvati clinicamente.

Tuttavia, fare arrivare luce in aree del corpo umano diverse dagli occhi per periodi prolungati, come giorni o settimane nel caso di antibiotici, potrebbe presentare un problema significativo per la fotofarmacologia, afferma il chimico farmaceutico Dennis Liotta della Emory University (Atlanta), editor-in chief della rivista ACS Pharmaceutical Chemistry Letters. “Dal momento che la luce non può facilmente penetrare in profondità nella pelle degli adulti, bisogna superare la barriera tecnica di portare la luce sul luogo di azione”, dice, e prosegue: “Ci sono vari modi per farlo, ma per quanto ne so, tutti implicano l’uso di dispositivi sofisticati, e sono tutti impiegati in ambiente ospedaliero.”

Dennis Liotta

I punti più facili da raggiungere sono la pelle e gli occhi perché si può fare arrivare la luce direttamente su di essi. Per organi più difficili da raggiungere come il tratto gastrointestinale, i polmoni o la vescica, gli endoscopi potrebbero essere gli strumenti idonei. Per aree davvero difficili da raggiungere, tra cui il cervello e il midollo osseo, dovranno essere sviluppate nuove strategie.

Trauner concorda con Thorn-Seshold che a differenza dagli occhi, per molte di queste aree i LED impiantati potrebbero essere in definitiva il modo più utile per fornire luce.

Il settore dovrà affrontare anche possibili ostacoli normativi prima che questi farmaci fotocommutabili possano raggiungere la sperimentazione clinica. Szymanski afferma che ognuno di questi farmaci è in realtà costituito da due molecole – la versione “on” e la versione “off” – che devono essere sviluppate, testate per la sicurezza e la tossicità e sottoposte all’approvazione di un Organismo di Regolamentazione.

Hecht dice che i chimici farmaceutici con cui discute sono spesso scettici su quanto siano commerciabili medicinali foto commutabili. “Produrre una molecola di piccole dimensioni è già così complicato, l’introduzione del gruppo fotosensibile potrebbe aggiungere complicazioni che renderebbero più difficile il processo di approvazione.”

Liotta invece è più ottimista: “L’unico problema che vedo sono i profili tossicologici dei composti attivi e inattivi. Se sono entrambi sicuri, non dovrebbero esserci problemi intrinseci “.

Sia la Food and Drug Administration statunitense che l’Agenzia Europea per i Medicinali (EMA) non hanno ancora parlato di procedure normative per i farmaci fotocommutabili perché il settore è ancora agli inizi.

A causa di questo per ora vuoto normativo, Glazer sostiene che è importante concentrarsi sulla sperimentazione pre-clinica e clinica e assicurarsi che le molecole che i chimici stanno sviluppando possano condurre a trattamenti fattibili. Ciò è importante al fine che tempo e risorse non vengano spesi perseguendo idee anche teoricamente possibili, ma che in pratica sarebbe troppo macchinoso mettere in atto.

Abbiamo chiesto il parere di Vincenzo Balzani che volentieri di seguito riportiamo.

Si tratta di problemi noti; in linea di principio molto utili, ma, come al solito, bisogna vedere che risultati si ottengono. In questo campo la difficoltà maggiore, come qua e là accennato nel testo, è che i tessuti umani non sono trasparenti a luce visibile-UV, cioè di alta energia, che in genere è necessaria sia per fotosensibilizzare la formazione di ossigeno singoletto, sia per provocare reazioni di dissociazione di leganti o di fotoisomerizzazione. Altro problema è che la forma al buio e gli eventuali prodotti secondari della fotoreazione (qualcosa c’é sempre) non siano dannosi.

C’é molto da fare per cercare composti che siano attivabili  con infrarosso. Altrimenti si può usare eccitazione a due fotoni infrarossi, per avere l’energia necessaria a provocare  la fotoreazione. Si possono anche usare luce UV visibile  con guide ottiche se il tumore da distruggere è in una cavità del corpo (es. esofago). Alcune di queste cose sono descritte succintamente nel libro: V. Balzani, P. Ceroni, A. Juris, Photochemistry and Photophysics. Concepts, Research, Applications. Wiley, 2014, p. 370.

In conclusione, l’articolo è interessante, come una piccola review, anche se poco approfondito.

[1] Bernard Feringa, insieme a Jeanne-Pierre Sauvage e Fraser J. Stoddard, vincitori del Premio Nobel per la Chimica 2016 per la progettazione e la sintesi di macchine molecolari. Il comitato Nobel chimica si è però dimenticato che Vincenzo Balzani ha contribuito in modo fondamentale non solo alla realizzazione dei primi prototipi di macchine molecolari, in collaborazione con Fraser Stoddart e Jean-Pierre Sauvage, ma anche allo sviluppo e al consolidamento dei concetti alla base di questo campo di ricerca, divenuto negli anni uno dei settori più attivi e stimolanti della chimica moderna. Balzani e il suo gruppo posero le basi progettuali per la costruzione di macchine molecolari in un articolo del 1987. Anche il termine “molecular machine” venne pienamente discusso per la prima volta in un articolo firmato da Balzani, Stoddart e collaboratori nel 1993.

http://bologna.repubblica.it/cronaca/2016/10/12/news/chimica_il_nobel_mancato_l_appello_degli_scienziati-149629201/

*Katharine Sanderson- Photoswitchable drugs could light the way to more targeted treatments​

Termodinamica ferroviaria.

In evidenza

Mauro Icardi

Spesso mi trovo a pensare a quanto la curiosità sia stata e sia ancora una delle spinte ad approfondire il mio bagaglio di conoscenze. Ricordo anche che venivo spesso indicato come il bambino che chiedeva spesso perché. Mia madre mi raccontava che per trovare un attimo di riposo da questo continuo fare domande, spesso mi affidava ad amici e conoscenti, che la sollevavano da questa incombenza. Considerato che (e oggi potrebbe sembrare impossibile), fino a quando io non ho compiuto i sei anni, a casa nostra si viveva tranquillamente senza auto privata. Il modo usuale di viaggiare era ovviamente l’utilizzo dei mezzi pubblici ed in particolare del treno. Utilizzato per andare da Torino fino al piccolo paese del Monferrato, Mombaruzzo, dove vivevano nonni e zii. Proprio questi ultimi, saliti magari in qualche stazione precedente, e al corrente della mia passione per i mezzi che viaggiano su rotaia mi facevano passeggiare su e giù per tutto il convoglio. Se è vero, sostenuto da alcuni studi di psicologia, che la personalità si forma nei primi cinque-sei anni di vita, ecco spiegata sia la mia passione per i treni, sia per i temi che riguardano l’energia ed il suo corretto uso. Il periodo dell’austerity del 1973/74 avrebbe ulteriormente rinforzato in me passione e curiosità per entrambi.

Acqua ed energia sono due parole certamente legate in maniera particolare al motore a vapore, e particolarmente alle locomotive.

Nella sua forma più semplice, la locomotiva comprende una caldaia, cioè un lungo cilindro colmo d’acqua e attraversato longitudinalmente dai tubi bollitori; attraverso questi tubi passano i fumi prodotti dalla combustione del carbone, che avviene nel forno, situato in cabina di guida. Il calore riscalda l’acqua e la fa evaporare, portandola ad una certa pressione: il vapore si concentra in una apposita camera (duomo), posta nella parte superiore della caldaia, e da qui viene prelevato per essere inviato al motore. Il motore è costituito da almeno due cilindri, in cui, grazie a un meccanismo di distribuzione, è possibile immettere il vapore stesso ora a un estremo, ora all’altro. Il vapore è così in grado di premere contro lo stantuffo, contenuto nel cilindro, facendolo muovere avanti e indietro: il moto alternativo viene trasformato in rotativo attraverso due bielle motrici (una per cilindro), imperniate sulle ruote della locomotiva che costituiscono un asse.

Col passare degli anni e l’evoluzione della ferrovia nel mondo, la necessità pratica di aumentare il rendimento delle locomotive diede l’avvio allo studio teorico delle leggi della termodinamica. Fino a definire che il rendimento massimo teorico di un motore a vapore è legato solo alla differenza tra le due temperature estreme del ciclo di lavoro, che nel nostro caso sono quella del vapore e quella dell’ambiente esterno in cui esso verrà scaricato. Rendimenti teorici che spesso erano molto superiori a quelli reali.

In Italia che da sempre ha sofferto la carenza di materie prime, vennero sviluppate diverse soluzioni che miravano a migliorare il rendimento delle macchine a vapore, e nello stesso tempo diminuire il consumo di carbone. Considerato come periodo d’oro in Italia per la trazione a vapore quello dei primi anni del novecento, dopo la fine della prima guerra mondiale la trazione a vapore inizia un lento declino, anche se molte locomotive arriveranno ad essere pienamente operative sino alla fine degli anni settanta. E nel contempo il periodo precedente la seconda guerra mondiale, le sanzioni economiche giustamente inflitte all’Italia per l’invasione dell’Etiopia, avranno almeno il merito di essere uno stimolo per lo sviluppo di queste tecniche, e più in generale di razionalizzare per quanto possibile l’utilizzo di energia e materiali.

La prima innovazione però risale ai primi anni del XX secolo e si tratta della doppia espansione. Il ragionamento era semplice: dato che il vapore scaricato dai cilindri contiene ancora molta energia, è possibile immetterlo in una seconda coppia di cilindri, per farlo ulteriormente espandere, e sfruttare quindi un’ulteriore percentuale di quell’energia. Per questo motivo sulle locomotive che montavano una coppia di stantuffi e cilindri per lato, vengono aggiunti altri due cilindri più grandi, i cilindri denominati a bassa pressione.

Il miglioramento termodinamico portava anche diversi inconvenienti legati all’ingombro dei cilindri più grandi, all’aumento della pressione in caldaia per poter garantire una pressione utile anche nel secondo cilindro, nonché a complicazioni nella costruzione e manutenzione.

Nello stesso periodo però venne sviluppata un’altra innovazione per aumentare il rendimento. L’utilizzo del vapore surriscaldato.

La temperatura e la pressione di un fluido sono legate fra loro: di conseguenza, data la pressione, non è possibile alzare ulteriormente la temperatura del vapore saturo, cioè del fluido “bifase” costituito da acqua e vapore, che è appunto presente in caldaia.

Quindi anziché prelevare direttamente il vapore dalla caldaia e inviarlo direttamente ai cilindri, lo si faceva passare attraverso una serpentina di condotti, infilati nei tubi bollitori della caldaia. In questo modo il vapore aumentava la propria temperatura, cioè si “surriscaldava”, dal momento che non era più in contatto con l’acqua della caldaia. Il surriscaldatore, costituito da quei condotti, aumentava la temperatura del vapore dai 200°C del punto di saturazione a oltre 300°C (per caldaie a 12 bar), rendendo disponibile una maggiore quantità di energia per il motore. Anche il rendimento termodinamico migliorava, data la maggiore differenza tra le temperature estreme del ciclo di lavoro. Non si dovevano affrontare spese più alte e problemi costruttivi dovuti all’installazione di una caldaia che lavorasse a pressione più alta.

L’ultima innovazione tecnica sulle locomotive a vapore in Italia sarà il sistema di preriscaldamento studiato e perfezionato dagli ingegneri Attilio Franco e Piero Crosti. Il sistema era stato studiato già negli anni venti dal solo ingegner Attilio Franco, ma a partire dal 1940 nella versione migliorata da Piero Crosti venne applicato diffusamente su vari modelli di locomotive circolanti sulla rete italiana in quel periodo. Le tecniche di preriscaldamento consistono nel non iniettare direttamente in caldaia l’acqua fredda prelevata dal tender, bensì nel farle dapprima percorrere uno scambiatore di calore che utilizza il vapore esausto proveniente dal motore. Il sistema Franco-Crosti era innovativo perché , oltre al vapore esausto, usava anche i gas di scarico per il preriscaldamento dell’acqua.

Il risparmio del consumo di carbone fu soddisfacente, mantenendosi su valori mediamente del 15% ma arrivando anche al 18%. I preriscaldatori applicati lateralmente alla caldaia come nel caso della locomotiva 743 sono come delle caldaie supplementari. All’interno vi sono i fasci tubieri e il vapore esausto dei cilindri, ed i gas di scarico non si scaricano all’esterno dal normale fumaiolo della locomotiva posto nella parte anteriore, ma percorrono in senso inverso il preriscaldatore e sono poi espulsi da un fumaiolo sistemato lateralmente e più vicino alla cabina di guida.

Nella foto in alto si vede una locomotiva modello 743 che montava due preriscaldatori laterali ed aveva due fumaioli laterali ai lati della cabina.

Le locomotive modello 741 avevano invece in solo preriscaldatore sistemato sotto la caldaia ed un solo fumaiolo di scarico.

Il sistema non passava inosservato e l’estetica delle macchine ne risentiva. Queste due locomotive sono rimaste in servizio fino alla prima metà degli anni settanta in val Pusteria e sulle linee minori della pianura padana. Nei miei viaggi ricordo di avere incrociato qualche volta locomotive modello 743 in stazione di Nizza Monferrato, adibite al traino di treni merci. La Cavallermaggiore- Alessandria vedeva un discreto traffico merci per le industrie dello spumante. Era la linea descritta anche da Cesare Pavese, oggi purtroppo chiusa al traffico.

Per completare il quadro occorre anche citare la costruzione di tre automotrici sperimentali costruite dall’Ansaldo, e funzionanti a gas povero conosciuto con il nome di gassogeno, cioè monossido carbonio e idrogeno (ma anche diossido di carbonio, azoto e acqua, dunque veramente un combustibile povero) ottenuto per combustione incompleta di carbone di legna.

Il gas necessario al funzionamento dei motori veniva prodotto da due generatori sistemati nella zona centrale del veicolo, accessibili soltanto dall’esterno per eliminare ogni possibile pericolo di infiltrazione di gas tossici nell’ambiente destinato ai viaggiatori.

Queste macchine utilizzate in Toscana, nei collegamenti ferroviari tra Firenze e Grosseto entrarono in servizio tra il 1940 e il 1941. Nelle corse di prova nonostante il combustibile povero riuscirono a raggiungere la ragguardevole velocità di 120km/h.   Nel 1942 furono trasferite a Mantova. Dopo la fine della guerra rimasero solo due automotrici erano integre e vennero riconvertite a trazione diesel con l’utilizzo di motori di recupero.

Bibliografia

Italo Briano Storia delle ferrovie in Italia Volume 2° Cavallotti Editrice Milano 1977 pp. 73-75,116,171-173

Erminio Mascherpa, Un accessorio discusso: il preriscaldatore sulle locomotive a vapore, in I treni oggi, 1 (1980), n. 3, pp. 12–18

Marcello Cruciani, Ansaldo e le sue automotrici. Seconda parte: le automotrici a gassogeno, in I treni oggi, vol. 7, nº 59, 1986, pp. 14-19.

Il Santo Graal del riciclo della plastica.

In evidenza

Claudio Della Volpe

C&N ossia Chemical and Engineering news è una della più brillanti riviste divulgative ed informative di Chimica; curata dall’ACS, la American Chemical Society, la potremmo considerare la sorella maggiore de La Chimica e l’Industria. Ha un settore ampio dedicato proprio alla divulgazione dove sforna figure come questa che vi mostro fatta da Andy Brunning (April 19, 2018 | APPEARED IN VOLUME 96, ISSUE 17):


Vi dà un’idea immediata della situazione del riciclo della plastica (a livello americano e mondiale, guardate i dati con attenzione nelle due colonne), che è stata il tema della recente Giornata della Terra del 22 aprile.

Per fare una cosa del genere ci vuole conoscenza sia della Chimica che della Comunicazione, e anche una abilità grafica e persone che vi si dedicano; eh già direte voi ma dove le troviamo noi? Questo blog si fonda su alcuni volontari quasi tutti pensionati (lo 0.3% degli iscritti SCI e non tutti sono iscritti) che lavorano gratis e C&I ha una redazione fatta da 1 persona a tempo pieno; non azzardo ipotesi sulle cause, mi accontento di considerare le conseguenze disastrose in cui è facile ricevere critiche, ma molto più difficile avere una mano dai medesimi colleghi che criticano: provate voi a scrivere un post, colleghi criticoni, giuro che sarà pubblicato. Ma torniamo al riciclo.

Come vedete dalla grafica la situazione mondiale è tragica; dei 6.3 miliardi di tonnellate di plastica prodotte fra il 1950 e il 2015 solo il 9% è stato riciclato e in effetti buona parte è stato disperso in ambiente, è da questi 6.3 miliardi di ton che arrivano le isole della monnezza dell’oceano. La situazione del riciclo americana è tremenda dato che al massimo riciclano meno del 20% (in media il 9), mentre la situazione europea ed italiana è un poco meglio, siamo in media quasi al doppio.

Dai dati, discussi al recentissimo show del riciclo, PRS, si evince che l’Europa (che ha l’ambizioso progetto di riciclare la plastica completamente dal 2030) ricicla al momento il 41% circa del totale dei rifiuti di plastica.

Se fate il confronto con il riciclo del ferro (>40%), del vetro (80%), dell’alluminio (75% dell’ alluminio mai estratto è ancora in circolazione), Piombo (>60%), della carta (56%) o di sua maestà l’oro che è il materiale più riciclato (chissà perchè?! Si calcola che l’85% di tutto l’oro estratto nella storia umana sia ancora in circolazione) la plastica nella sua media è piazzata veramente maluccio. D’altronde è anche l’ultima arrivata fra tutti i materiali che ho nominato, è un prodotto di massa da pochi decenni, l’alluminio lo è da ben più di un secolo e il ferro o il vetro lo sono da parecchi millenni! I tempi di maturazione delle tecnologie non sono così veloci dopo tutto.

La decisione della Cina di bloccare l’importazione dei rifiuti in plastica ha messo in crisi il giovane apparato industriale di riciclo plastica dell’Europa; l’Europa produce all’incirca un quinto del totale della plastica mondiale (60Mton su 330).

(dati da https://www.plasticseurope.org/application/files/5715/1717/4180/Plastics_the_facts_2017_FINAL_for_website_one_page.pdf)

Solo nel 2016 per la prima volta il riciclo europeo ha superato la discarica, (31% a 27%) ma ATTENZIONE; l’industria considera riciclo “energetico” anche bruciare la plastica, un affare (a mio parere) ecologicamente assurdo che recupera solo una frazione del totale dell’energia immessa nel ciclo e che in realtà serve a mascherare il fatto che il grosso della plastica NON viene riciclata per problemi tecnici, il PVC e il PP per esempio sono di fatto non riciclabili o lo sono poche volte, e nonostante le loro proprietà tecnologiche notevoli non dovrebbero trovare posto nella nostra produzione se non in settori di nicchia (applicati solo in usi di lunga durata, non in altri) mentre fanno la parte del leone.

Quali sono i tempi di uso della plastica? Molto variabili da 1 a 50 anni a seconda dei casi e occorrerebbe evitare di usare in usi dai tempi corti materiali NON riciclabili; per esempio mi risulta che la schiuma di PP come imballaggio sia una sciocchezza: vive pochissimo e non è riciclabile, al massimo la bruciano. Se è così è una assurdità.

Il recupero energetico della plastica (al momento) è un affare solo a certe condizioni: da noi in Italia grazie ai notevoli supporti economici statali verso gli inceneritori: il caso CIP6 in Italia ne è una dimostrazione palese; una scelta che ha deformato il settore energetico, facilitando la costruzione di giganteschi impianti di incenerimento che costituiscono investimenti di lungo periodo e che hanno senso solo pensando a voler continuare a bruciare e non a riciclare; sono i proprietari di questi impianti a combattere una battaglia CONTRO le rinnovabili.

In altri paesi che si sono affidati al “mercato”, (seguendo la più grande bufala concettuale mai inventata ossia che il mercato oligopolistico attuale sia un mezzo efficiente di allocazione delle risorse, posizione che non ha alcuna dimostrazione teorica seria) cosa succede?

In Germania ci sono molti impianti che a causa della riduzione dei consumi nel periodo della crisi e con l’aumento sia pur lento del vero riciclo hanno conosciuto un deficit di offerta. Per riempire il deficit alcuni impianti tedeschi importano regolarmente rifiuti da Italia, Irlanda, Gran Bretagna e Svizzera. La Germania non è l’unica nazione a importare immondizia altrui: la Svezia anche importa rifiuti per alimentare i proprii impianti di generazione termoelettrica mano a mano che i residenti riciclano sempre più: nel 2014 la Svezia ha importato 800.000ton di rifiuti. Se vi sembra una politica “ecologica”!

Considerate infine che il “recupero energetico” della plastica NON elimina le scorie (da recupero fumi) e le ceneri , che rappresentano una quota significativa (5-10%); queste sono poi rifiuti tossici e dunque anche complessi da smaltire e a volte finiscono in discariche speciali.

La realtà è che occorre cambiare strada, e prima di tutto cambiare plastica; o si inventano metodi di riciclo efficienti per materiali come PVC o PP o si rinuncia ad essi: so che molti storceranno il naso. Lo ripeto: prodotti tecnologicamente notevoli ma attualmente non riciclabili come il PVC od il PP che di fatto sono pochissimo riciclati per vari problemi (in genere esistono le tecnologie ma sono costose e poco diffuse), bene per questi o si aggiornano le tecniche oppure occorre passare ad altri prodotti come il PET o altri ancora che consentirebbero proprietà meccaniche E riciclo completo o quasi.

Basterebbe una legge mondiale di un solo articolo: è vietato produrre polimeri che non si possano concretamente riciclare a costi ed in condizioni ragionevoli. La plastica non riciclabile si può usare solo per applicazioni limitate e durature e chi la produce ne deve garantire lo smaltimento a sue spese.

Vi presento una scoperta di questi giorni che affronta il problema in modo radicale e che secondo me potrebbe, se confermata, riconciliare tecnologia e ambiente.

Si tratta del 3,4-T6GBL, una sigla che nasconde un intelligente derivato del γ-butirrolattone; quest’ultimo è un lattone ciclico, un estere ciclico di formula:

sulle cui proprietà di solvente e anche di droga ci sarebbe molto da dire, ma al momento ci concentriamo sul fatto che un polimero basato su questo monomero esiste già e non ha proprietà notevoli.

Alcuni anni fa Eugene X.-Y. Chen all’Università del Colorado pubblicò un lavoro sulla possibilità di ottenere un polimero dalla reazione di apertura del ciclo del GBL, a sua volta ottenibile dallo zucchero. Ma la reazione che proponevano era difficile da realizzare su ampia scala a causa del fatto che occorreva gestirla a -40°C o meno e inoltre il polimero così ottenuto era poco stabile e aveva basso peso molecolare come anche proprietà fisiche e meccaniche che ne limitavano l’uso pratico.

Nel frattempo un gruppo dell’Università di Yamagata aveva provato una nuova strada, polimerizzare non il GBL ma un suo derivato ottenuto fondendo il suo ciclo con quello del cicloesano e i cui risultati vedete rappresentati nella figura seguente.

Polymer Journal

Vol.46  No.2 (2014)   pp.89 – 93

Questa sintesi non produsse risultati utili, ma diede l’idea ai ricercatori del Colorado di sfruttare una sintesi simile ma con un nuovo obiettivo che vedete rappresentato nella parte centrale della figura seguente, con lo spostamento dell’afferraggio dell’anello a 6 termini in posizione 3-4 e che ha consentito di realizzare un nuovo polimero molto interessante.

Il nuovo polimero si può ottenere in forma ciclica o lineare con peso molecolare fino ad 1 milione di dalton, quindi con migliaia di monomeri; può essere rapidamente depolimerizzato a temperature accettabili (inferiori a 200°C) con l’aggiunta di un catalizzatore a base di cloruro di zinco; il polimero ottenuto usando i due enantiomeri del monomero ha proprietà eccellenti; la resistenza a rottura è dell’ordine di quella del polipropilene; il limite principale è che la sintesi del nuovo monomero a partire dalla anidride dell’acido trans-1,2-ciclo­esancarbossilico appare costosa e dunque occorre un ulteriore passo verso una diversa sorgente.

Sembra dunque una scoperta molto interessante che potrebbe fornire un polimero termoplastico “ideale”, una sorta di Santo Graal del riciclo plastica, in grado di essere polimerizzato e depolimerizzato in condizioni tali da non esserne danneggiato e di mantenere proprietà meccaniche di primo ordine nella sua forma pratica anche dopo un numero indefinito di ricicli. In questo modo basterebbe un catalizzatore poco costoso per depolimerizzare il materiale di un oggetto qualunque ottenuto dal nuovo polimero e riforgiare una molecola perfettamente identica, senza danni significativi dal processo di depolimerizzazione, come invece avviene attualmente in altri casi di polimeri termoplastici. Il futuro ci dirà se questa scoperta può aiutarci nello sviluppo di una plastica effettivamente riciclabile e con proprietà analoghe se non superiori a quelle del PET e di altri polimeri canonici.

Nel frattempo pensateci anche voi (sia a nuovi polimeri riciclabili che a scrivere qualcosa per il blog).

https://cen.acs.org/materials/polymers/Strong-stable-polymer-recycled-again/96/i18

Zhu et al., Science 360, 398–403 (2018)         27 April 2018

Creare le connessioni.

In evidenza

Mauro Icardi

In questi giorni mi è capitato nuovamente di trovarmi a riflettere su un tema sul quale mi interrogo da diversi anni. Cioè la necessità, a mio parere fondamentale, di riuscire ad utilizzare una comunicazione efficace quando si parla di argomenti tecnici, e a maggior ragione di quelli scientifici.

Non è un problema superficiale. Negli anni passati, seguendo con molto impegno e passione le attività di stages e di tutoraggio di studenti universitari, ho avuto la fortuna di riuscire a stabilire una buona comunicazione. Ma riflettendoci adesso, mi rendo conto che vi erano le condizioni adatte.

Dovevo insegnare a persone mai entrate prima in un laboratorio, prima di tutto a lavorare in sicurezza, poi ad eseguire campionamenti ed analisi in maniera che producessero alla fine dati corretti e rappresentativi.

E la cosa ha sempre funzionato bene. Creando un legame di amicizia e di reciproco scambio umano e culturale con molti di loro, con cui sono in contatto ancora oggi. Ma in quelle condizioni gioca a favore il fatto di trasmettere con molta immediatezza l’entusiasmo che ancora oggi provo per il lavoro che svolgo.

Può sembrare banale, ma in realtà quando il lavoro si svolge sul comparto fanghi e digestione anaerobica, può non essere immediato che un giovane abbia lo stesso entusiasmo quando si rende conto di quale sia esattamente la materia prima su cui deve operare. Io in quel caso citavo invariabilmente il capitolo “Azoto” de “Il sistema periodico”. Cioè il tentativo di Levi di ricavare l’allossana usando come materia prima la pollina, ovvero le deiezioni delle galline. E questo invariabilmente funzionava. L’analogia con il lavoro da fare per ottenere una migliore produzione di biogas dai fanghi stabiliva una connessione comunicativa efficace. E faceva agevolmente superare un eventuale ritrosia. In fin dei conti sempre citando Levi “La materia è materia, né nobile né vile, infinitamente trasformabile

Il discorso invece diventa molto più difficile, quando si passa da situazioni pratiche al dover fare informazione e divulgazione. Non posso dire che questa sia una seconda attività che mi occupa molto, ma mi è capitato diverse volte di essere invitato a tenere lezioni presso scuole, dalle elementari fino agli istituti tecnici.

E ho scoperto che il modo migliore per attirare l’attenzione degli studenti fosse quello di proporre oltre alle slide, delle operazioni basilari di laboratorio. Per fare questo mi attrezzavo con una piccola cassettina portatile, dove mettevo un pH-metro, qualche indicatore e dei becher. Semplici misure di pH, viraggio di indicatori catturavano l’attenzione.

In altri casi, come per esempio serate dedicate alla situazione ecologica dei corsi d’acqua e fra tutti il lago di Varese, oppure nel periodo precedente al referendum del 2011 se partecipavo a serate dedicate a questi temi, anche non in veste di relatore, ma intervenendo, mi sono trovato in palese difficoltà.

Perché notavo come ognuno avesse una sua personale ricetta. E soprattutto avesse delle granitiche certezze. Relativamente a chi attribuire le responsabilità del degrado ambientale, alle iniziative da intraprendere. In sostanza percepivo una sorta di “sciachimismo idrico” che mi lasciava, e mi lascia tutt’ora piuttosto perplesso.

Col passare degli anni la situazione non è migliorata. Ormai viviamo in una società dei media che è caratterizzata da una forte interattività di informazioni. Ma nel periodo di tempo di una sola decina di anni, la possibilità di connessioni in rete più veloci ha purtroppo amplificato il fenomeno della ripetitività all’interno di un gruppo, omogeneo e chiuso , di informazioni spesso distorte o errate. In un primo momento pensavo che questo tipo di fenomeni non fosse legato a argomenti di carattere tecnico- scientifico. Ma mi sono sbagliato. Dalle scie chimiche, fino alle acque alcaline ionizzate e miracolose il web pullula di queste amenità. Se poi allarghiamo il campo al problema ambientale e climatico le amenità, o fake news aumentano.

Devo ammettere che in questi anni non ho ottenuto grandi risultati da questo punto di vista. Cioè ho ottenuto buoni risultati come tutor di studenti, o divulgatore sempre per studenti. Su altri temi quali il corretto uso dell’acqua, o su come ridurre il proprio impatto ambientale molto meno.

Una cosa è significativa da questo punto di vista. Dove lavoro sono il solo a bere regolarmente acqua del rubinetto. Il resto dei colleghi beve acqua in bottiglia. Qualcuno si è dimostrato particolarmente coraggioso ed ha cominciato a bere quelle delle casette dell’acqua. Ma la cosa non è durata molto. Non sono riuscito a scalfire questa sorta di muro di gomma. Sia che utilizzassi un linguaggio tecnico, sia che modificassi il mio approccio in maniera più discorsiva. Venivo spesso rimandato ad informazioni che i colleghi avevano recepito in rete.

La pervasività di miti, di bufale, di schemi mentali ed abitudini difficili da cambiare sta diventando un problema su cui porre attenzione. Attualmente sempre più spesso si possono leggere articoli in cui siamo invitati ad una disintossicazione dalla rete e dai social. Ma il problema è stato solamente scalfito. Ed è un problema complesso. Soprattutto quando l’utilizzo della rete incrina il senso critico che ognuno dovrebbe sviluppare sia autonomamente, sia durante il proprio percorso di formazione.

Internet è una opportunità che, a posteriori, mi spiace di non aver potuto avere quando studiavo. Ma allo stesso modo dover reperire fonti tramite per esempio le librerie le biblioteche mi è servito molto. Non ho mai pensato che si debbano introdurre correttivi o censure sul web. Ma che si abbia la necessaria capacità di educare ad utilizzarlo correttamente. Cosa che ho fatto con mia figlia.

Relativamente alla divulgazione di temi importanti ma tendenzialmente non graditi alla maggioranza delle persone, credo che si debba attuare un maggior dialogo tra scienze naturali e scienze umane.

Entrambe possono contribuire a mettere insieme concetti acquisiti, ma oggi molto frammentari. I mezzi di comunicazione ci sono, e ci offrono molte opportunità. E’ un peccato utilizzarli per regredire fino alla teorizzazione della terra piatta. Eppure si, si riesce a credere e teorizzare anche a questo, e basta fare un giro in rete per rendersene tristemente conto. Per affrontare in maniera logica e coerente il cambiamento di paradigma a cui siamo chiamati bisogna fare ordine. Essere rigorosi e coerenti nelle attività scientifiche, senza dimenticare le altre condizioni a contorno, cioè creare per quanto possibile una vera formazione intellettuale dell’uomo moderno. Che potrebbe ( e direi dovrebbe) crearsi una formazione di base anche sui rami più significativi della conoscenza umana, anche se esulano dalle sue attività ordinarie.

Scienziate che avrebbero potuto vincere il Premio Nobel: Darleane C. Hoffman (1926- )

In evidenza

Rinaldo Cervellati

Al momento in cui scrivo questo post Darleane Christian Hoffmann si avvia a compiere 92 anni, nella sua lunga vita professionale ha dato fondamentali contributi in chimica nucleare e delle radiazioni per i quali avrebbe meritato il Premio Nobel per la Chimica.

Darleane Christian nasce l’8 novembre 1926 a Terril, una piccola città della Contea di Dickinson nel nord-ovest dell’Iowa[1]. I suoi genitori si erano trasferiti in quella cittadina un anno prima, quando il padre Carl B. Christian, insegnante di matematica, aveva ottenuto il posto di sovrintendente della locale scuola. La madre, casalinga, organizzava eventi e feste scolastiche inoltre scriveva articoli per il giornale cittadino. Scriveva sotto pseudonimo perché questa attività non era considerata conveniente per la moglie del sovrintendente scolastico. Darleane frequentò la locale scuola, a quei tempi dominio quasi assoluto di donne non sposate, un mondo monotono e ristretto di vedove e zitelle. Racconterà la stessa Darleane:

Se una giovane insegnante si sposava era obbligatorio per lei dare le dimissioni… giurai a me stessa di non diventare mai un’insegnante [1].

Nel 1944 Darleane Christian si iscrisse allo Iowa State College[2] frequentando il corso di chimica tenuto da Nellie Naylor, il cui insegnamento la affascinò. Dirà infatti:

Darleane Christian nel 1944

Il suo insegnamento mi ha convinto che la chimica era la scienza più logica, interessante e pratica nel mondo [1].

Dopo essersi diplomata nel 1948 con un B.Sc. in chimica e matematica, Hoffman decise di rimanere allo Iowa State College per proseguire gli studi di dottorato, per il quale ha continuato il lavoro di ricerca con il chimico nucleare Donald S. Martin.

Insieme hanno scoperto diversi nuovi isotopi usando il sincrotrone, uno strumento allora innovativo che utilizza elettroni accelerati per generare raggi X ad alta energia.

Darleane allo Iowa State College per il dottorato, 1950

Nel suo primo semestre di scuola di specializzazione, Darleane incontrò Marvin Hoffman, uno studente di fisica che aveva contribuito a costruire il sincrotrone e pertanto aveva il permesso di utilizzarlo anche di notte. Darleane e Marvin spesso continuavano gli esperimenti fino a tarda sera. Darleane completò la sua tesi di ricerca in tre anni, conseguendo il dottorato nel dicembre 1951. Si sposò con Marvin Hoffman il giorno dopo Natale 1951.

All’inizio del 1952 Dearlane Hoffman iniziò a lavorare all’Oak Ridge National Laboratory, in Tennessee, dove Marvin la raggiunse alcuni mesi dopo aver completato la sua dissertazione di tesi.

Tuttavia fu Marvin a suggerire di spostarsi al Los Alamos National Laboratory, dove egli aveva fatto uno stage di ricerca quando era studente.

Come noto Los Alamos è stata la sede del Progetto Manhattan che ha realizzato le bombe atomiche che hanno azzerato la popolazione civile di Hiroshima e Nagasaki. Negli anni ’50 in piena guerra fredda gli esperimenti nucleari proseguivano nel Nevada Test Site, un desolato tratto di 1.360 miglia quadrate di deserto a nord di Las Vegas. Si calcola che in quel periodo vi furono più di 1000 esplosioni nucleari, per più del 90% sotterranee.

Il lavoro che interessava Darleane Hoffman era comunque l’analisi dei prodotti della fissione. Molti campioni, altamente radioattivi, venivano prelevati dai crateri con opportune precauzioni e inviati ai laboratori di Los Alamos per dettagliate analisi radiochimiche, che a volte rivelavano la presenza di nuovi isotopi. Proprio dai residui di una di queste esplosioni fu fatta una scoperta inaspettata: un nuovo isotopo del plutonio, il plutonio 244 (Pu 244). Misure successive dimostrarono che il Pu 244 aveva un’emivita di oltre 80 milioni di anni.

Racconta Hoffman [1]: Per anni si è supposto che l’uranio 238, che ha un’emivita di 4,5 miliardi di anni, fosse l’isotopo radioattivo più pesante in natura. Con la scoperta del plutonio 244, abbiamo iniziato a ipotizzare che potrebbe essersi formato durante l’ultima nucleosintesi nel nostro sistema solare da 4,5 a 5 miliardi anni fa. Se quell’evento ha prodotto uranio 238 potrebbe anche aver prodotto il plutonio 244, e parte di esso avrebbe potuto essere ancora presente sul nostro pianeta. La caccia al Pu 244 sulla Terra si era aperta.

Darleane Hoffman, da ottimo chimico sapeva bene che le proprietà redox del plutonio erano simili a quelle del cerio, un elemento dei lantanidi (terre rare) situati appena sopra agli attinidi (cui appartiene il plutonio) nella tavola periodica degli elementi. Questo la portò a cercare un luogo ricco di minerali contenenti cerio. Negli Stati Uniti la fonte più nota di minerali contenenti terre rare era all’epoca il Mountain Pass di California dove Hoffman si procurò il minerale, principalmente bastnasite, il cui componente principale è fluorocarbonato di cerio. Utilizzando procedimenti chimici standard su larga scala e piuttosto complicati di estrazione con solventi e cristallizzazione frazionata, nell’ipotesi basata sulle proprietà chimiche, che cerio e plutonio si sarebbero concentrati nel solvente, Hoffman e collaboratori riuscirono a purificare il campione di minerale fino a rilevare in esso la presenza dell’isotopo Pu 244 attraverso misure di spettrometria di massa, in concentrazione stimata di 1 parte su 1018 parti[3]. Il risultato fu pubblicato nel 1971 [2].

Successivamente Glen T. Seaborg[4] definì questa impresa “un tour de force sperimentale”.

Va ricordato che fra il 1952 e il 1960 Darleane Hoffman iniziò a crescere una famiglia, una figlia, Maureane nel 1957 e un figlio, Daryl nel 1959, continuando comunque attivamente il lavoro di ricerca.

Darleane Hoffman col marito e i due figli a Los Alamos nel 1974

Lavoro di ricerca che fece un altro importante passo avanti proprio nel 1971.

Hoffman stava continuando a cercare nuovi isotopi radioattivi di elementi pesanti nei campioni provenienti da test nucleari sotterranei. L’elemento più pesante che fu in grado di rilevare era il fermio 257[5], un attinide con numero atomico 100 e emivita di circa 100 giorni.

Il suo gruppo aveva isolato abbastanza isotopo per studiarne la fissione spontanea, ricontrollando i dati della frammentazione Hoffman fece una scoperta sorprendente. Una parte significativa dei nuclei di fermio 257 non si divideva in modo coerente con la teoria esistente, secondo la quale nella fissione il nucleo atomico si spacca in due nuclei diversi, non simmetrici. La fissione di questi nuclei di fermio produceva invece due frammenti simmetrici di massa uguale, quindi doveva esserci qualcosa di cui la teoria esistente non aveva tenuto conto. Quando Hoffman presentò questi risultati a una riunione dell’American Physical Society, i fisici l’ascoltarono con fare sprezzante. Pare che alcuni le abbiano detto con una risatina: “Bene, i chimici non sanno come misurare queste cose, è meglio che tu vada a casa a controllare i tuoi rivelatori”. Dice Hoffman [1]:

Pensavano che io, come chimico, dovevo aver fatto un errore.

Ma il gruppo a Los Alamos, insieme ai colleghi del Lawrence Livermore National Laboratory (LLNL) confermarono presto i risultati.

Hoffman aveva scoperto l’importanza dei gusci nucleari nella fissione spontanea. Diversi anni prima era stato postulato che il nucleo atomico fosse costituito da gusci simili ai gusci degli elettroni.

Hoffman seguì questa ipotesi per chiarire il ruolo di questi gusci nucleari nella fissione spontanea degli isotopi del fermio. Hoffman e collaboratori identificarono diversi isotopi del fermio con diverso numero di neutroni nel nucleo. Riporta Hoffman [1]:

L’isotopo fermio 258 ha un tempo di emivita molto basso e può scindersi simmetricamente in due frammenti di massa uguale, entrambi consistenti di gusci nucleari di neutroni e protoni quasi pieni.

È stata una delle mie scoperte più importanti.

L’importanza dei gusci nucleari nei frammenti di fissione fu un notevole passo avanti nella comprensione della fissione spontanea, disse G. T. Seaborg quando commentò i risultati da Berkeley.

Nel 1975, Hoffman divenne una leader del settore di ricerca avente lo scopo di studiare la diffusione dei radionuclidi lontano dal sito dei test nucleari sotterranei. Il suo lavoro in questo progetto è stato un contributo fondamentale alla comprensione del comportamento dei radionuclidi nell’ambiente.

Durante gli anni ’70, Seaborg aveva sviluppato un crescente rispetto per il lavoro scientifico di Hoffman. Nel 1978, grazie a una borsa di ricerca Guggenheim, Seaborg la invitò a lavorare nel Lawrence Berkeley National Laboratory (LBNL) da lui diretto. Hoffman accettò e rimase a lavorare a Bekeley per quasi un anno intero sulla fusione spontanea utilizzando il ciclotrone da 88 pollici disponibile all’LBNL.

Hoffman con la collaboratrice Lee al sincrotrone da 88, Berkeley 1979

Tornò a Los Alamos nel 1979, chiamata a dirigere la Divisione di chimica nucleare, prima donna alla guidare una divisione scientifica a Los Alamos. Anche se per un certo tempo ha provato a fare avanti e indietro fra Berkeley e Los Alamos, i suoi doveri amministrativi le ha lasciavano poco tempo per la propria ricerca e la situazione stava diventando sempre più difficile.

Nel 1982 Seaborg compiuti 70 anni sarebbe andato in pensione. Conoscendo il desiderio di Hoffman di continuare la sua ricerca, vide un’opportunità per attirarla al LBNL assicurando così una continuità per la chimica nucleare a Berkeley. Con l’aiuto di altri chimici nucleari del LBNL e dell’

University College di Berkeley, fu in grado di offrire a Hoffman una cattedra a pieno titolo allo University College e la leadership del gruppo di chimica nucleare e radiochimica del LBNL.

Incerta, chiese consiglio al marito Marvin che pare le abbia detto: “Saresti una pazza a rifiutare l’offerta.”

Nell’agosto del 1984, dopo 31 anni a Los Alamos, Darleane e Marvin fecero il grande passo di trasferirsi a Berkeley. Racconta Hoffman [1]:

Ero esitante, di certo non sono andata per sostituire Glenn Seaborg, nessuno poteva farlo, piuttosto ero molto devota alla mia divisione a Los Alamos, sentivo però che era in buone condizioni e che era giunto il momento di aiutare a educare la prossima generazione di studenti nel settore nucleare e radiochimico. E aggiunge: Ovviamente, ciò significava che dovevo rinnegare il voto che avevo fatto in gioventù di non insegnare mai! Ma negli anni ’80 c’erano pochissime donne professori nei dipartimenti di chimica delle principali università e ho sentito l’obbligo di aiutare a formare donne e uomini nel settore. Ero solo la seconda donna all’University College di Berkeley, arrivata poco dopo Judith Klinman, che in seguito divenne la prima donna Preside della Facoltà di Chimica.

In effetti, dall’arrivo di Hoffman a Berkeley altre quattro donne si aggiunsero al personale docente dell’University College e Darleane ne fu molto orgogliosa.

Hoffman è grata per gli anni in cui ha lavorato con Seaborg, morto nel 1999. Di lui dice [1]:

Era gentile, generoso e un meraviglioso mentore. Seaborg era alto un metro e settantacinque, io sono a malapena sopra 1,50. Preferiva le scale per partecipare alle riunioni nel campus ed era letteralmente difficile per me tenere il suo passo.

Darleane C. Hoffman e G.T. Seaborg

Insieme a Seaborg e a Albert Ghiorso hanno pubblicato il libro “The Transuranium People. The Inside Story” [3].

Una volta stabilitasi a Berkeley, Hoffman ha continuato il suo lavoro di individuazione degli isotopi di elementi transuranici. Continuò dapprima il lavoro sul fermio, poi ha contribuito alla caratterizzazione del bohrio (Bh), l’elemento 107, oltre a verificare l’esistenza di elementi più pesanti. Il suo gruppo ha anche confermato la scoperta nel 1974 dell’elemento 106, permettendo così che fosse chiamato Seaborgio (Sg) in onore di Glenn Seaborg.

Il gruppo di Hoffman è stato il primo a studiare la chimica in soluzione acquosa dell’elemento 105[6] . Tali studi sono stati condotti utilizzando un isotopo del 105 avente un’emivita di 34 secondi !.

Nel 1991 si ritirò dall’insegnamento attivo per aiutare a fondare il Seaborg Institute for Transactinium Science al LLNL, di cui è stata il primo direttore dal 1991-96. Nel 1997, il presidente Bill Clinton l’ha premiata con la National Medal of Science, la più alta onorificenza pubblica che uno scienziato può ricevere negli Stati Uniti. Nel 2000 ha ottenuto La Medaglia Priestley della American Chemical Society, la più prestigiosa onorificenza conferita da questa società. In precedenza, nel 1983 la stessa ACS le aveva assegnato il Premio per la Chimica Nucleare.

Hoffmann riceve la National Medal of Science, 1997

Ma l’infaticabile Darleane non si ferma, nel 2011 si reca a Oslo per partecipare a un Convegno in ricordo del centenario del Premio Nobel a Marie Curie dove parlò verso la fine della conferenza, dopo l’intervento della nipote della Curie, Helène. “Era un compito difficile perché Helène è un noto fisico nucleare francese, ma mi sono concentrata sulla lezione tenuta da Marie Curie in occasione del ricevimento del Nobel, in cui predisse l’uso della chimica per identificare nuovi elementi”.

Ma i coniugi Hoffman erano già stati in Norvegia nel 1964 con borse di studio postdottorato e vi rimasero per un anno. Visitarono anche l’antica casa del bisnonno di Darleane, di nazionalità norvegese. La figlia Marleane frequentò la prima elementare a Oslo, imparando un “norvegese di primo livello”. Nel 1991 Darleane Hoffman fu eletta membro della Norvegian Academy of Science and Letters.

Hoffman non è stata solo un modello per le donne che intendevano intraprendere la carriera scientifica ma ha lavorato con organizzazioni aventi lo scopo di incoraggiare le giovani donne allo studio delle scienze. Quando le è stato chiesto perché tanti importanti ricercatori nel nucleare sono state donne, Hoffman rispose: Era un campo nuovo, e poi le donne sono sempre in grado di assumere nuovi ruoli. Inoltre vi era una gerarchia meno consolidata e le donne incontravano meno ostacoli che in campi scientifici più tradizionali [1].

Oltre al riferimento [1] altre informazioni biografiche si trovano in SMALL-TOWN IOWA GIRL MAKES GOOD, http://pubs.acs.org/cen/hotarticles/cenear/032700/print/7813pries.html

 

Bibliografia

[1] D. Hoffman, Adventures in the nature of matter, Catalyst, 2011/2012, 6(2), 12-15.

[2] D.C. Hoffman, F.O. Lawrence, J.L. Mewherter, F.M. Rourke, Detection of Plutonium-244 in Nature., Nature, 1971, 234, 132–134.

[3] D. Hoffman, A. Ghiorso, G.T. Seaborg, The Transuranium Peole. The Inside Story., 2000, Imperial College Press, London, 2000.

[1] Terril è veramente un piccolissimo comune di circa 400 abitanti allora come oggi, con una scuola (elementare e media) e una chiesa, vedere la mappa satellitare:

https://www.google.it/maps/@43.3059332,-94.9782066,2299m/data=!3m1!1e3

[2] Dal 1960 Iowa State University of Science and Technology.

[3] Il procedimento utilizzato da Hoffman è in scala più ridotta, simile a quello che portò Marie Curie a isolare prima il polonio e poi il radio da tonnellate di pechblenda, un minerale contenente uranio, nel 1898. Del resto Hoffman afferma che fino da ragazza aveva avuto Marie Curie come modello di donna completamente realizzata [1].

[4] Glenn Theodore Seaborg (1912-1999) chimico statunitense di origine svedese, allievo di G.N. Lewis a Berkeley Premio Nobel per la chimica 1951 (insieme a E.M. McMillan e A.J. Porter Martin) con la motivazione: per le loro scoperte sulla chimica degli elementi transuranici.

[5] Il fermio, elemento transuranico artificiale radioattivo fu scoperto nel 1952 nei frammenti dell’esplosione della prima bomba nucleare all’idrogeno, dal gruppo di ricerca di Abert Ghiorso, scienziato statunitense che ha contribuito alla scoperta di molti elementi transuranici.

[6] All’epoca, 105 era conosciuto informalmente come hahnium (uno dei nomi proposti), ma in seguito fu ufficialmente chiamato dubnio.

Nulla si distrugge, tutto si trasforma.

In evidenza

Mauro Icardi

Nulla si distrugge, tutto si trasforma!Antoine-Laurent de Lavoisier

La vicenda relativa alla chiusura in Lombardia di un impianto destinato al trattamento di fanghi di depurazione destinati al riutilizzo agricolo, è il tipico esempio di una vicenda che, nel suo svolgersi mostra come ancora oggi si ricada nei medesimi errori. Errori di valutazione e di comprensione che riguardano un po’ tutti.

Vediamo di approfondire il problema. Partendo da un dato oggettivo, conosciuto da chi lavora nel settore, ma probabilmente meno da altri.

La depurazione di acque reflue è la chiusura del cerchio del ciclo idrico. Questo significa in poche parole che tutto quello che viene scaricato nelle acque che abbiamo usato deve subire un trattamento. Perché non è pensabile che le acque reflue possano essere scaricate nei fiumi o nei laghi, senza subire nessun tipo di trattamento. Questa perlomeno è la situazione dei paesi economicamente avanzati. Purtroppo non in tutti i paesi a livello mondiale le cose stanno in questo modo. Ma torniamo a concentrare l’attenzione, per comodità sulla situazione italiana.

Nel processo di depurazione di tipo biologico, i fanghi sono un normale ed inevitabile prodotto del trattamento di depurazione. E’ mediamente si può stimare che si producano 0,3 kg di sostanza secca per ogni kg di COD rimosso con umidità che può variare dal 75% all’85% In letteratura i dati possono essere variabili, ma è importante questo concetto.

Ricordo che il termine COD (dall’acronimo inglese Chemical Oxygen Demand) che in italiano può essere reso come domanda chimica di ossigeno, è la quantità di ossigeno( mg O2/lt) necessaria per l’ossidazione completa delle sostanze organiche e inorganiche contenute in un campione di acqua. Si associa al valore del BOD5 che è la misura che esprime la quantità di ossigeno necessaria per l’ossidazione biochimica delle sostanze organiche contenute in un’acqua da parte di microrganismi aerobici, già presenti oppure inoculati nel refluo. Il saggio del BOD5 si esegue in condizioni controllate (alla temperatura di 20°C tenendo il campione al buio, e misurando il consumo di ossigeno (mg O2/lt) dopo 5 giorni. Il rapporto COD/BOD è l’indice che misura la biodegradabilità di un refluo. Un rapporto tra i due parametri che abbia un valore di 1,9-2,5 indica una buona biodegradabilità. Rapporti con valori più alti indicano una minor presenza di sostanze biodegradabili, tipicamente quelle contenenti una maggior componente di scarichi di origine industriale.

Il fango ottenuto dal trattamento acque deve subire un trattamento che lo renda certamente stabilizzato ed igienizzato, un trattamento che sia economicamente sostenibile, e anche accettato socialmente.

Per meglio dire, il concetto che io ho sempre sostenuto personalmente, ma credo di non essere il solo, è che tutto quello che può far funzionare bene un impianto di trattamento acque reflue è la corretta progettazione e gestione della linea di trattamento fanghi. Adottando anche le nuove tecniche di riduzione della produzione degli stessi. Su questo blog ne ho scritto. Trattamenti di lisi termica, aumento della funzionalità dei digestori anaerobici sfruttando la possibilità della codigestione di matrici adatte (per esempio la Forsu che migliorando la funzionalità del digestore anaerobico, contestualmente riduce le quantità di fango da destinare al successivo trattamento di disidratazione.) Le possibilità tecniche esistono. Vanno valutate attentamente caso per caso.

https://ilblogdellasci.wordpress.com/2015/05/15/trattamento-e-recupero-dei-fanghi-di-depurazione/

I fanghi concentrano i materiali e i composti che possono essere trattati in un trattamento biologico convenzionale. Sappiamo che la diffusione di composti refrattari a questo tipo di trattamento convenzionale può innescare situazioni di criticità. Quindi parallelamente alla gestione e alla progettazione corretta del comparto fanghi, vanno potenziati i sistemi di trattamento terziario. Sistema di solito presente negli impianti di grandi potenzialità e solitamente assenti in quelli di piccoli (potenzialità intorno 5000 abitanti equivalenti). Come si nota i problemi sono sempre collegati in serie. Non aiutano in questo senso molti articoli di stampa generalista che parlano dei fiumi di cocaina o dei metaboliti di farmaci nei fiumi italiani. Occorre fare un ragionamento un po’ più critico sul perché sono finiti lì. Per esempio far notare che su un totale di 75 milioni di abitanti equivalenti effettivi serviti, solo 50 milioni sono quelli che hanno un trattamento terziario (66%). Se ragioniamo sul numero di impianti la percentuale scende addirittura al 19%, cioè 2309 impianti dotati di trattamento terziario su 17897, dato che fa riferimento al territorio nazionale, dati istat 2015. E’ un trattamento terziario potrebbe semplicemente essere, nella realtà una semplice disinfezione finale, anche se dal punto di vista tecnico non sarebbe ovviamente corretto.

Tornando ai fanghi, questi una volta usciti dal depuratore e disidratati diventano rifiuti, a meno che non abbiano caratteristiche tali da renderne idoneo l’utilizzo in agricoltura.

La normativa italiana fa ancora riferimento al decreto legislativo 99 del 1992. Decreto ormai invecchiato e che necessiterebbe di una nuova versione. Il decreto per valutare l’idoneità dei fanghi all’utilizzo agronomico concentra l’attenzione solo sui metalli pesanti dando limiti per la concentrazione dei metalli pesanti. Vista l’attenzione ovviamente doverosa sui nuovi inquinanti la Regione Lombardia ha per esempio introdotto una normativa maggiormente strutturata che prevede i controlli analitici della qualità dei fanghi in funzione della potenzialità in abitanti equivalenti degli impianti che li hanno prodotti, inserendo tra i parametri da determinare anche gli idrocarburi policiclici aromatici, oltre ai più consueti azoto e fosforo totale, che ne caratterizzano la possibilità di utilizzo agronomico. Sulla base di queste caratterizzazioni ha stabilito tre diverse classi di caratterizzazione (fanghi di alta qualità, fanghi idonei, e non idonei). Questo è un primo passo.

Ma non basta. Tornando alla vicenda dell’azienda incriminata per traffico illecito di rifiuti, è doveroso ricordare come in Italia troppo spesso il caos normativo porti alla tentazione di utilizzare e smaltire rifiuti illegalmente. Triste pensare che spesso il business del fango sia più redditizio di quello degli stupefacenti. E che dove le istituzioni sono distratte o assenti prospera la criminalità, che riempie un vuoto.

Tornando a temi meno tristi e più tecnici, occorrerebbe che gli investimenti da destinare al ciclo idrico nel complesso non fossero ulteriormente procrastinati o rimandati. Investimenti che dovrebbero comprendere anche una quota destinata alla ricerca. Sugli inquinanti persistenti, sui loro effetti su salute ed ecosistema. Ricerca che dovrebbe necessariamente interfacciarsi in maniera imprescindibile con i gestori degli impianti. Non ultima la necessità di inserire l’educazione idrica anche nelle scuole elementari. Educazione che non dovrebbe limitare i suoi temi soltanto nel doveroso intento di insegnare come si possa e si debba risparmiare l’acqua. Ma che dovrebbe anche insegnare i concetti di base della depurazione delle acque.

Un piccolo aiuto potrebbe venire anche dall’informazione. Che dovrebbe cercare meno il sensazionalismo e più la correttezza informativa tecnico scientifica. Viviamo nel periodo di dissipazione della realtà oggettiva, delle fake news, problema ritenuto critico anche dal World Economic Forum.

E’ doveroso segnalare i problemi, ma anche indicare le soluzioni possibili e le scelte che si prospettano. I fanghi non possono sparire per magia, come vuol suggerire il titolo. Possono essere ridotti, gestiti con attenzione e rigorosità. Ma se non destinati all’uso agricolo, che può effettivamente far storcere il naso a molti, le alternative sono discarica, riutilizzo per laterizi o incenerimento. E francamente non so quante persone di un pubblico generalista gradirebbero una qualunque di queste soluzioni.

E a volte mi piacerebbe che la parola fosse maggiormente lasciata a ricercatori o tecnici. Che possano ricordare ccome tutto si trasformi e non si distrugga, magari ricordandolo ai distratti, o a chi lo aveva studiato ed ora lo ha dimenticato.

Si veda anche:

http://www.de-gustare.it/fanghi-agricoltura-solito-caos-allitaliana/

https://www.ilgiorno.it/lodi/cronaca/fanghi-agricoltura-1.3505437

https://www.ilcittadino.it/cronaca/2017/03/17/inchiesta-fanghi-chiesto-il-processo-per-12-persone/UF2ldivngd1z4rjeRP9ix3/index.html

Oggi 25 aprile non ho testi.

In evidenza

Claudio Della Volpe

Non ho testi da pubblicare; eh si capita che il ritmo si rallenti, che le parole si fermino; e allora ci si rivolge al passato, ci si ferma a pensare .

Voglio ricordarvi qui due brevi poesie del nostro indimenticato cantore, Primo Levi; la prima la conoscete certamente è quella celeberrima, Shemà:

Ne trovate facilmente il testo completo, scritta il 10 gennaio 1946:

Voi che vivete sicuri
Nelle vostre tiepide case
Voi che trovate tornando a sera
Il cibo caldo e visi amici:
Considerate se questo è un uomo
Che lavora nel fango
Che non conosce pace
Che lotta per mezzo pane
Che muore per un sì o per un no.
Considerate se questa è una donna,
Senza capelli e senza nome
Senza più forza di ricordare
Vuoti gli occhi e freddo il grembo
Come una rana d’inverno.
Meditate che questo è stato:
Vi comando queste parole.
Scolpitele nel vostro cuore
Stando in casa andando per via,
Coricandovi alzandovi;
Ripetetele ai vostri figli.
O vi si sfaccia la casa,
La malattia vi impedisca,
I vostri nati torcano il viso da voi.
10 gennaio 1946

E’ la poesia della denuncia e dell’orrore, scritta nell’immediato del ritorno, piena di patos.

Ce n’è poi una seconda che sempre ha come titolo una parola ebraica, Bereshid, nel principio, la prima parola della sacra scrittura una poesia che Levi scrisse nel 1970 , in occasione della pubblicazione su Scientific American di un articolo sul Big Bang; stavolta sono passati 25 anni dall’orrore e piano piano l’occhio del poeta riesce a staccarsi da quel ricordo e ad ammirare la bellezze e la grandezza della natura; un inno materialistico ma pieno di amore per la natura, per la grandiosa immagine del Big Bang origine di tutto ciò che conosciamo.

Dunque l’alfa e l’omega, dall’orrore umano allo splendore maestoso dell’Universo.

Anche di questa si trova il testo su molte pagine web e dunque non temo di ripubblicarla qui (comunque mi scuso se sto violando una qualche regola), ma come si fa a limitare una poesia con la P maiuscola di un autore che è nel cuore di noi tutti?

 

Fratelli umani a cui è lungo un anno
Un secolo un venerando traguardo,
Affaticati per il vostro pane,
Stanchi, iracondi, illusi, malati, persi;
Udite, e vi sia consolazione e scherno:
Venti miliardi d’anni prima d’ora,
Splendido, librato nello spazio e nel tempo,
Era un globo di fiamma, solitario, eterno,
Nostro padre comune e nostro carnefice
Ed esplose, ed ogni mutamento prese inizio.
Ancora, di quest’una catastrofe rovescia
L’eco tenue risuona dagli ultimi confini.
Da quell’unico spasimo tutto è nato
Lo stesso abisso che ci avvolge e ci sfida,
Lo stesso tempo che ci partorisce e travolge,
Ogni cosa che ognuno ha pensato,
Gli occhi di ogni donna che abbiamo amato,
E mille e mille soli, e questa
Mano che scrive.

 

Levi scrive di tanto in tanto come poeta, “ ad ora incerta” , come titola la sua prima raccolta; e anche noi lo seguiamo in momenti incerti come questi che viviamo.

https://phys.org/news/2015-02-big-quantum-equation-universe.html

Emergenza in Veneto.

In evidenza

Mauro Icardi.

Una delle cose che più mi fanno pensare è la gran massa di informazioni dalle quali siamo costantemente bombardati. Molte a mio personale parere francamente inutili (penso a quelle di gossip e moda).

Altre sono rilanciate dai quotidiani e dagli organi di informazione, ma decisamente quasi sottotraccia, mentre meriterebbero maggior attenzione.

La notizia invece sparita troppo presto dai media è relativa ad un problema di cui si è scritto su questo blog. Il problema della contaminazione da PFAS nelle acque destinate al consumo umano in alcune zone del Veneto. Nel mese di Marzo il Consiglio dei ministri ha dichiarato lo stato di emergenza per i Pfas in Veneto, con la contestuale nomina di un commissario.

La situazione, nota da tempo, almeno dal 2013, non si è riuscita a risolvere se non con una delibera di emergenza. E su questo vorrei ovviamente riflettere. Le province interessate sono tre, Vicenza, Verona, e Padova, area dove la popolazione residente ammonta ad oltre 350.000 persone. L’inquinamento riguarda l’acquifero della valle dell’Agno e il sistema delle risorgive di media pianura. La delibera di emergenza stanzia fondi per 56 milioni di euro, che vanno a sommarsi a quanto già stanziato dalla Regione Veneto.

L’origine della contaminazione era stata a suo tempo individuata negli scarichi di un’azienda della zona, la MIteni di Trissino. Tale conclusione è stata ribadita in due differenti relazioni della commissione parlamentare di inchiesta sui rifiuti, pubblicate a distanza di un anno (8 Febbraio 2017-14 Febbraio 2018),riportanti le conclusioni di studi dell’IRSA-CNR e di verifiche dell’Arpa. L’azienda è stata identificata come sito potenzialmente contaminato e quindi ha iniziato nel Novembre 2013 la messa in opera di un piano per la realizzazione di piezometri per il controllo delle acque di falda, verifiche della qualità ambientale dei terreni e la messa in sicurezza del sito. L’Arpa Veneto ha effettuato verifiche sulla presenza di PFAS sia sulle acque superficiali , sia su quelle reflue. Si sono riscontrate concentrazioni elevate di PFAS anche a monte dei collettori di acque reflue che recapitano nei corsi d’acqua superficiali, a causa della particolare complessità e conformazione del sistema idrico della zona. A seguito della pubblicazione di questi dati da parte di Arpa l’azienda ha rilasciato una dichiarazione nella quale, come già in passato si ritiene se non estranea, quantomeno non l’unica responsabile dello stato di inquinamento della zona.

Permangono in ogni caso alcune questioni fondamentali: la necessità di un controllo capillare del territorio e del suolo. Controllo che deve essere effettuato anche preventivamente. Inquinare il suolo significa un rischio di compromissione delle acque di falda. Situazione non nuova. Quindi occorre porre attenzione sulla prevenzione di questo tipo di inquinamento. Le fonti inquinanti possono continuare ad emettere per lunghi periodi di tempo. I siti contaminati su larga scala sono il risultato e l’eredità di impatti antropici del passato che persistono ancora oggi, come i siti industriali e le aree portuali, dove può essere difficile se non impossibile ripristinare lo stato naturale delle aree interessate con le tecnologie attuali o con un dispendio di risorse ed energie sostenibile. Su questo una riflessione è necessaria.

Altro problema riguarda l’industria chimica che dovrà rivedere i propri processi produttivi. Questo comporterà ovviamente uno sforzo notevole. La questione PFAS in Veneto è la famigerata punta di un iceberg che riguarda tutti i composti chimici biorefrattari. In passato abbiamo sintetizzato molecole durature, indistruttibili. Ci sono servite per innumerevoli usi. Possiamo imparare dal passato. Così come per i tensioattivi, anche per i PFAS le industrie statunitensi e giapponesi hanno fatto uscire dal mercato le molecole di PFAS a lunga catena, ritenute più tossiche e più stabili, e quindi meno degradabili. Una singolare analogia con quanto già avvenuto negli anni 70 per i tensioattivi. Per fare questo è stata importante la sinergia con l’EPA l’agenzia di protezione ambientale degli Usa. Purtroppo la presidenza Trump ha ridotto i fondi all’agenzia statunitense. Tagliati i fondi di 2,6 miliardi di dollari, dimezzato il settore di ricerca, cancellato il Chemical Safety Board per le indagini sugli incidenti nelle raffinerie e in altri impianti industriali. Un programma di rara miopia. Il problema della contaminazione da PFAS investe non solo il Veneto, ma buona parte degli Stati Uniti dove questo tipo di contaminazione riguarda circa 6 milioni di persone. E’ auspicabile che quanto prima questi composti siano normati su indicazioni provenienti dall’OMS e vengano ricercati usualmente. Sarebbe un importante primo passo. La stessa commissione parlamentare italiana, in chiusura della relazione invita a definire in modo completo la fissazione di limiti allo scarico per tutte le matrici ambientali, e per ogni tipo di molecola appartenente alla categoria dei PFAS.

Attualmente un limite di concentrazione univoco non esiste. Per i soli PFOA e PFOAS l’EPA (Environmental Protection Agency) ha stabilito, per le acque destinate al consumo umano una valore limite di 70 ng/lt. In Veneto il limite è fissato 90, e in Svezia sempre 90 ma riferito alla alla somma di undici PFAS (PFBS, PFHxS, PFOS, 6:2 FTS, PFBA, PFpeA, PFHxA, PFHpA, PFOA, PFNA, PFDA). Per quanto riguarda gli studi sulla tossicità di questi composti rimane il problema che gli effetti sulla salute variano con la specie e sono difficili da isolare negli studi sugli esseri umani. Per ora viene indicato il possibile nesso di causalità tra l’esposizione a PFAS e l’insorgenza di patologie quali alcuni tipi di tumore, disordini del sistema endocrino, problemi della fertilità, problemi cardiovascolari. Il che deve indurre un ovvio principio di precauzione . E sarebbe auspicabile (ma forse aleatorio) che le aziende si occupassero con maggior attenzione degli impatti ambientali che provocano. L’azienda moderna dovrebbe avere una attenzione sostanziale agli aspetti etici del proprio modo di operare. A mio parere questo dovrebbe essere uno dei punti distintivi delle aziende moderne.

Rimane poi sempre attuale la necessità di informare la pubblica opinione, rendendola consapevole che anche le scelte personali di ognuno di noi posso influire nel determinare quello che veramente vogliamo per il futuro del nostro ambiente. E per capirlo bisogna anche fare uno sforzo costante di informazione e di conoscenza di base, su concetti tecnici e scientifici. Capiti o ripassati alcuni concetti di base dovrebbe essere più agevole rendersi conto della necessità di modificare i nostri stili di vita.

L’ultimo appello che ultimamente spesso rivolgo, riguarda la collaborazione che le il pensiero tecnico-scientifico deve riallacciare con quello umanistico.

Non riesco a vedere nessuna logica razionale nel chiudere gli occhi, o nel rimuovere i problemi che si stanno ponendo alla nostra attenzione, e che vengono ostinatamente negati o rimossi.

Non vedo niente di razionale né di positivo quando si creano miti consolatori. Quando l’acqua scarseggia, oppure diventa di fatto imbevibile si resiste due giorni. Al terzo giorno bisogna andare da un’altra parte.

Eppure di acqua, di guerre per l’acqua, di scarsità e inquinamento sentiamo parlare da decenni.

Mi piacerebbe che su queste questioni fondamentali si avesse almeno l’accortezza di non banalizzare, né sottovalutare. Gli investimenti sulle reti idriche, sui depuratori, sui laboratori, sull’adeguamento degli impianti esistenti non sono ulteriormente rimandabili. Fermo restando che l’acqua sia un bene indispensabile per la vita umana, e non si debba ridurre ad essere un bene di consumo, su cui creare profitti senza considerare l’aspetto ecologico e sociale della questione, non è pensabile che per esempio il problema della dispersione sulle reti idriche in Italia si trascini da decenni senza trovare una soluzione pratica.

Altri post sul tema:

https://ilblogdellasci.wordpress.com/2017/12/08/questione-pfas-ovvero-larte-di-spostare-il-problema/

https://ilblogdellasci.wordpress.com/2017/05/05/inquinamento-da-pfas-in-veneto-riflessioni/

https://ilblogdellasci.wordpress.com/2017/07/14/smontare-i-mattoncini/

Link utili per approfondire.

https://www.certifico.com/categorie/274-news/5911-delibera-del-consiglio-dei-ministri-21-marzo-2018?tmpl=component&page=

(Delibera consiglio die ministri 21 Marzo 2018)

http://www.veronasera.it/cronaca/pfas-miteni-commenta-dati-arpav-9-aprile-2018.html

http://www.quotidianosanita.it/allegati/allegato5940771.pdf (Relazione commissione parlamentare)

http://www.arpa.veneto.it/arpav/pagine-generiche/documenti/Relazione%20PFAS_2013_2016.pdf/view?searchterm=pfas (Relazione Arpa Veneto Acque reflue)

http://www.arpa.veneto.it/temi-ambientali/acqua/file-e-allegati/documenti/acque-interne/pfas/PFAS_AcqueSup_2015_2016.pdf/view?searchterm=pfas

(Relazione Arpa Veneto su PFAS in acque superficiali)

Charles Schimdt “Acqua non Potabile” Le Scienze ed. Italiana Giugno 2017

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4187289/

(Changing Interpretation of Human Health Risks from Perfluorinated Compounds )

Una storia islandese.

In evidenza

Claudio Della Volpe.

Il mio personale interesse per l’Islanda è cominciato quando mia sorella Irene (che fra parentesi mi batteva sistematicamente a scacchi) ha fatto la sua mossa del cavallo e mi ha regalato, a uno dei miei compleanni, il primo libro giallo di Arnaldur Indriðason; da allora il mio interesse per questa isola lontana e misteriosa è cresciuto e mi sono anche letto quasi tutti i libri di Indridason, che consiglio anche a voi. Nel frattempo mia sorella ci è andata a vedere le balene. Io invece, che pur essendo un ciclista, sono tendenzialmente più sedentario, ho approfondito le questioni islandesi; ed ho trovato una storia che mi ha fatto molto riflettere.

L’Islanda è una isola di 103mila kmq, situata nel Nord Atlantico, riscaldata, oltre che dai vulcani, che ne hanno generato il territorio negli ultimi 20 milioni di anni (terra giovanissima quindi) anche da un (per ora) favorevole contributo della Corrente del Golfo; attualmente abitata da poche centinaia di migliaia di persone (340.000) con una economia sostanzialmente limitata (fra l’altro produce anche alluminio e cloro e li esporta), ha un territorio coperto per il 10% di ghiacci ed una agricoltura esercitata in avverse condizioni climatiche; ma non solo.      

Quando alla fine del 1 millenio dC (ufficialmente dopo l’874dC) i Vichingi scoprirono e colonizzarono l’isola, questa era ricoperta da una foresta di betulle per circa il 25-40% (per un approfondimento del tema si veda: http://www.nabohome.org/postgraduates/theses/nt/NT_PhD_thesis.pdf). Al momento le foreste la ricoprono solo per meno di un decimo di questa superficie e per i tre quinti sono foreste di betulle; questo nonostante un imponente contributo artificiale: dal 1950 gli islandesi piantano più alberi di quasi tutti al mondo, ma le foreste sono cresciute tutto sommato di poco, non è facile farle riscrescere dopo averle distrutte. Anche se gli islandesi sembrano tipi tenaci.
In questa foto, scattata attorno al 1910 in uno dei siti dove oggi si sviluppa un parco nazionale, si vede quello che allora quasi certamente era il più alto albero di Islanda. Foto: Skógræktin/CE Flensborg.

Quando si racconta la storia umana raramente si tiene conto del potenziale distruttivo che pochi individui possono avere in certi contesti delicati; in poco meno di tre secoli una popolazione vichinga stimata in al massimo qualche decina di migliaia di persone rase al suolo l’intera foresta islandese. Essi erano pastori, contadini e pescatori; le loro pecore volevano spazio di pastura ed erano ghiotte delle piantine del principale albero dell’isola, la betulla.

Considerate le zone verde scuro di questa immagine, che rappresentano una stima minimale.
Nel “Libro degli islandesi” una cronistoria della colonizzazione dell’Islanda scritto nel primo 12°secolo, Ari Thorgilsson scriveva che “in quei giorni (NdT ossia prima dell’avvento dei Vichinghi), l’Islanda era coperta di boschi dalle montagne alle spiagge”. A ulteriore riprova di ciò, nel 1300 la chiesa islandese nei suoi documenti riconosceva un particolare valore agli ormai rari territori alberati in terra d’Islanda.
Nella pagina web del servizio forestale islandese http://www.skogur.is/english/forestry-in-a-treeless-land/ si cita un articolo del 2004 che dice:
Fra le prime cose che un visitatore nota usualmente in Islanda ci sono che fa più freddo del paese da cui viene e che mancano le foreste nel paesaggio. Logicamente egli connnette questi due fatti ed arriva alla conclusione che l’Islanda è troppo fredda per le foreste. Questa impressione è spesso rinforzata quando egli vede le “foreste” di betulle spontanee che sono basse e deformi. Comunque oltre un secolo di afforestazione ha dimostrato che questo non è vero, che è l’uso passato del territorio e non il clima a spiegare il paesaggio privo di alberi. Di fatti le foreste crescono in Islanda come in qualunque altro paese del mondo laddove costituiscano una delle maggiori industrie.
La situazione attuale è questa, considerate sempre le ormai rare aree verde scuro:

Indubbiamente la cosa non è stata inusuale nella storia umana, ma in Islanda la deforestazione fu particolarmente grave in quanto la foresta aveva solo alberi di betulla, che, data la voracità verso i loro germogli da parte di pecore e capre, non poterono nemmeno ricrescere dopo l’abbattimento.
La conseguenza di ciò è il paesaggio islandese attuale, un paesaggio in ampia parte desertico pur in presenza di forti precipitazioni; queste e il vento portano via il terreno e rendono dunque impossibile la rinascita delle piante, la deforestazione ha condotto alla desertificazione pur in presenza di acqua e di tutti gli elementi fondamentali della vita contenuti in abbondanza nella roccia vulcanica: un ossimoro, un “deserto bagnato”; che ha reso possibili, pensate un po’, le tempeste di sabbia al circolo polare artico! Si tratta in effetti di un meccanismo di retroazione positiva: la riduzione della primitiva copertura forestale e il continuo attacco da parte delle specie che pascolano e degli uomini che le supportano riduce la possibilità della sua ricrescita, e dunque meno piante ora, meno piante in futuro, fino alla loro scomparsa: il terreno non è una miscela di nutrienti, ma una struttura dinamica, ricca di sostanze organiche e di esseri viventi che ci vivono, insomma è a sua volta una struttura viva (senza fare vitalismo)!
E’ anche un esempio di come i sistemi complessi siano contro-intuitivi.

Cosa hanno fatto gli islandesi moderni per contrastare il fenomeno?
Beh anzitutto si sono resi conto della situazione solo alla fine del XIX secolo. Nel 1882, dopo una tempesta di sabbia particolarmente devastante a est di Reykjavík, il governo decise che la riforestazione e la conservazione del suolo dovevano diventare una priorità.
La sede del Servizio di Conservazione del suolo è stata posta a Gunnarsholt, ad un centinaio di chilometri da Reykjavik, in una fattoria che nel 1882 fu messa in ginocchio da una terribile tempesta di sabbia che sconvolse tutta l’area ad est della capitale. La fattoria e tutto quello che la attorniava fu sepolto dalla sabbia, centinaia di pecore morirono, la vegetazione scomparve e un lago vicino venne completamente riempito dalla polvere.
Gli islandesi hanno iniziato una serie di politiche di riforestazione che però sono culminate solo dopo il 1950; nella seconda metà del XX secolo è iniziata una riforestazione che prosegue al ritmo di alcuni milioni di alberi all’anno; tuttavia questo corrisponde solo a qualche migliaio di ettari all’anno e dunque in totale solo lo 0.5% del territorio nazionale è stato riforestato finora.Tuttavia gli islandesi hanno un collaboratore naturale che è molto utile nel preparare il suolo alla riforestazione introducendo in esso le componenti azotate necessarie: il lupino dell’Alaska (Lupinus nootkatensis) di un luminoso colore viola-azzurro.

La storia di questo lupino e dei benefici e dei conflitti che ha generato sono raccontati su Internazionale (p. 50 Internazionale 1251 | 13 aprile 2018) Invasione viola da Egill Bjarnason.
Lupinus nootkatensis è una pianta pioniera che serve appunto alla colonizzazione dei terreni abbandonati e impoveriti e che è capace come tutte le leguminose di catturare l’azoto atmosferico tramite i batteri del genere Rhizobium che vivono sulle sue radici; per questo motivo negli anni 40 il servizio di conservazione del suolo la scelse come pianta pioniera da usare sui territori da rimboschire il cui suolo presentava gli aspetti deteriorati del terreno sul quale di solito il lupino dell’Alaska attecchisce. L’uso del lupino prepara il suolo arricchendolo di composti azotati e quando, dopo qualche anno, la situazione è sufficientemente migliorata possono spontaneamente subentrare altre specie.
Il progetto di seminarlo nel deserto di lava nera a Nord Est, Holasandur (The Sand of Hills) un deserto fra Husavik ed il lago Myvatn è un progetto umano.

Nell’Holasandur che è attualmente un deserto di 130kmq di sabbia nera le forze distruttive dell’uomo e della Natura hanno giocato per 300 anni riducendolo come è mentre tutto attorno c’è suolo buono e terra fertile. E’ un deserto a qualche centinaio di metri di quota, un “deserto bagnato” sul quale agisce ora un progetto di rimboschimento finanziato dalla vendita di buste di plastica, e che prevede che milioni di semi di lupino siano sistemati colà senza altra azione, senza usare concimi di alcun genere; su uno spazio così ampio e con quelle condizioni atmosferiche il costo dei metodi tradizionali di rimboschimento che prevederebbero concimi di sintesi sarebbe del tutto insopportabile. Comunque è alto anche il costo del metodo di piantare semi di lupino dell’Alaska.
http://www.diamondringroad.com/holasandur.html
Ovviamente il deserto è diventato una attrazione come è, viene visitato da migliaia di persone ed, a torto o a ragione, è una delle attrazioni dell’Islanda moderna, è entrato nella sua cultura profondamente. Ma è giusto lasciarlo così?
La fase di ricostruzione del suolo dura da 15 a 35 anni, durante i quali zone crescenti di territorio vengono letteralmente invase dal lupino; il lupino, anche grazie ai cambiamenti climatici prospera più del dovuto anche dove sarebbe stato inimmaginabile vederlo crescere.
Nel suo lavoro di rimboschimento il servizio statale addetto usa varie piante anche indigene, ma ha scelto l’aiuto fin dal 1940 di questa pianta “estera”. Il Nootka lupin (Lupinus nootkatensins), viene usato in modo crescente in questo progetto nazionale di rimboschimento. Il lupino è una pianta aggressiva , forma strutture dense e compatte e può dominare le altre vegetazioni per 15-35 anni riducendone la ricchezza in specie. Solo quando il terreno cambia il lupino si ritrae consentendo la colonizzazione di altre specie e col tempo la crescita di alberi ne ridurrà lo sviluppo togliendogli letteralmente il sole. E’ sicuramente una pianta efficace ma la sua forza è imprevista; aiutato dai cambiamenti climatici certamente il lupino ha effetti inaspettati che devono essere attentamente gestiti. Come racconta l’articolo di Internazionale la situazione è dinamica; ci sono città dell’Est dell’Islanda che forniscono gratuitamente strumenti per estirpare il lupino mentre in altre zone, soprattutto ad Ovest avviene il contrario; ci sono coloro che amano incondizionatamente il lupino valutando che possa aiutare a rimboschire l’isola islandese una volta verde e ci sono quelli che difendono lo status quo che dopo tutto ha un suo fascino (anche se perverso!).
Voi cosa ne dite?

https://www.nytimes.com/interactive/2017/10/20/climate/iceland-trees-reforestation.html
Rimboschimento islandese: una sfida difficile.
Per approfondire:
http://www.skogur.is/english/history-of-icelands-forests-for-kids/
https://www.cbd.int/doc/world/is/is-nr-01-en.pdf

Scienziate che avrebbero dovuto vincere il Premio Nobel: Marietta Blau (1894-1970)

In evidenza

Rinaldo Cervellati

I am taking the liberty of drawing your attention to a case close to my heart. Since three years my colleague, the physicist Dr. Marietta Blau, lives in Mexico City…I know Miss Blau as a very capable experimental physicist who could render valuable service to your country.“

Albert Einstein

(parte della lettera scritta da Einstein al Ministro dell’Educazione del Messico nel 1941)

Chi è stata e cosa ha fatto dunque Marietta Blau? Nasce a Vienna il 29 aprile 1894 da Mayer (Marcus) Blau e  Florentine Goldzweig Blau, una famiglia ebrea benestante. Suo padre, famoso avvocato ed editore musicale attivamente impegnato nei circoli culturali della Vienna di fine secolo, promosse la sua educazione. Dopo aver ottenuto con distinzione il diploma di maturità dal liceo femminile gestito dall’Associazione per l’Educazione Estesa delle Donne, Marietta studiò fisica e matematica all’Università di Vienna dal 1914 al 1918; ottenne quindi il dottorato nel marzo del 1919 discutendo una tesi sui raggi gamma.

Marietta Blau

Dal momento che le opportunità di lavoro accademico in fisica erano molto scarse per le donne, si rivolse all’industria. Nel 1921 si trasferì a Berlino per lavorare presso un produttore di tubi a raggi X. Rinunciò a questa posto per diventare assistente presso l’Istituto di Fisica Medica dell’Università di Francoforte sul Meno. Questa fu l’occasione per Blau di lavorare in fisica medica, istruendo i medici sulle basi teoriche e pratiche della radiologia e di pubblicare articoli di ricerca nel settore. Entrambe queste attività si sarebbero dimostrate importanti più avanti nella sua carriera quando si occupò di radioterapia dei tumori e lavorò ad applicazioni pratiche di dispositivi di conteggio che utilizzavano sostanze radioattive, progettati da lei stessa.

Dal 1923 lavorò come ricercatore non retribuito presso l’Istituto per la Ricerca sul Radio dell’Accademia delle scienze austriaca a Vienna. Tra il 1923 e il 1937, Blau contribuì ad ogni aspetto essenziale della fisica delle emulsioni. Nel 1925 riuscì a distinguere le tracce di particelle alfa, protoni veloci ed eventi fondamentali in emulsioni commerciali, e nel 1927 determinò le energie dei protoni misurando le distanze fra le loro collisioni e i microscopici grani delle emulsioni. Per registrare le lunghe tracce di protoni veloci in modo più accurato, convinse il produttore cinematografico britannico Ilford a addensare le emulsioni usate nei suoi film, sperimentando ogni altro parametro: granulometria, ritenzione delle immagini latenti, condizioni di sviluppo ecc., al fine di migliorare la visibilità delle tracce lasciate da particelle alfa e protoni veloci.

Blau in laboratorio

A partire dal 1932, Blau e la sua assistente Hertha Wambacher determinarono le energie dei neutroni misurando le tracce dei protoni di rinculo in emulsioni contenenti sostanze grasse ricche di idrogeno; nel 1936 iniziarono ad usare emulsioni per studi quantitativi sui raggi cosmici esponendo pile di lastre fotografiche per diversi mesi ad un’altitudine di 2300 metri. Come previsto, registrarono le tracce di protoni e neutroni extraterrestri, ma con loro sorpresa scoprirono anche diverse “stelle di disintegrazione”, che potevano essersi formate solo da particelle cosmiche che disintegravano i nuclei pesanti nell’emulsione.

Questa scoperta suscitò scalpore tra i fisici nucleari e dei raggi cosmici di tutto il mondo poiché dimostrava che la tecnica delle emulsioni aveva raggiunto caratteristiche tali da permettere la registrazione di rari eventi nucleari ad alta energia, aprendo così la strada a ulteriori ricerche in fisica delle particelle. Per questo lavoro, Marietta Blau e Hertha Wambacher ricevettero il premio Lieben dell’Accademia delle scienze austriaca nel 1937.

Negli anni 1932-33 frequentò, con una borsa di ricerca dell’Associazione Austriaca delle Donne Universitarie, l’Istituto del Radio di Marie Curie a Parigi e il Centro di Ricerche di Göttingen.

Blau chiese diverse volte di diventare un membro regolare, stipendiato dell’Istituto di Ricerca, ma la sua domanda fu sempre rifiutata con la solita risposta: “Sai, sei una donna e una ebrea, le due cose insieme lo rendono impossibile”. Quindi per poter continuare a fare ricerca, Marietta Blau dipese dalla sua famiglia per il sostegno finanziario.

A causa della sua discendenza ebrea, Blau dovette lasciare l’Austria nel 1938 dopo l’annessione del paese alla Germania nazista, fatto che causò ovviamente un’interruzione della sua carriera scientifica. Si recò prima ad Oslo, poi grazie anche all’intercessione di Einstein, ottenne una posto di docente all’Instituto Politécnico Nacional di Città del Messico e successivamente all’Università di Vasco de Quiroga. Tuttavia, nell’economicamente disastrato Messico non aveva quasi nessuna possibilità di continuare la sua ricerca.

Nel 1944 riuscì a trasferirsi negli Stati Uniti, dove lavorò nell’industria fino al 1948, in seguito alla Columbia University, al Brookhaven National Laboratory e all’Università di Miami, fino al 1960. In queste istituzioni, è stata responsabile dell’applicazione del metodo fotografico per il rilevamento delle particelle in esperimenti con gli acceleratori di particelle ad alta energia.

Marietta Blau negli USA

Di solito Marietta era descritta come una persona ritirata ed estremamente modesta, che non cercava consensi e evitava la pubblicità. Solo in discussioni e discorsi scientifici perdeva la sua timidezza.

Fu nominata da Erwin Schrödinger (due volte) e Hans Thirring per il premio Nobel.

Nel 1950 il Nobel per la Fisica fu assegnato a Cecil Franck Powell con la motivazione: “per il suo sviluppo del metodo fotografico di studio dei processi nucleari e le sue scoperte riguardanti i mesoni fatta con questo metodo”. Ma Powell, come tutti gli altri ricercatori del settore, iniziò a utilizzare il film fotografico solo nel 1938 dopo che furono riconosciuti i vantaggi del metodo dell’emulsione. Sicchè anche la scoperta del pione di Powell era basata sui lavori di Marietta Blau. Quindi lei avrebbe dovuto essere inclusa, ma il suo nome non fu nemmeno menzionato da Powell.

A questo proposito Ruth Lewin Sime, scrive [1]:

Nel considerare la storia del 20° secolo, bisogna essere attenti agli effetti della persecuzione razziale e dell’emigrazione forzata sull’attribuzione e il riconoscimento del lavoro scientifico. Blau, in quanto ebrea, fu costretta ad abbandonare l’Austria nel 1938. Per 10 anni trascorse una fragile esistenza come rifugiata a Oslo, in Norvegia; Città del Messico, e New York, impossibilitata a perseguire la propria ricerca. Nel frattempo, a Vienna, i suoi ex soci, tutti i nazisti ferventi (inclusa Wambacher), espropriarono il suo lavoro e soppressero il suo nome.

L’emarginazione di Blau è evidente nel processo decisionale per il conferimento del premio Nobel per la fisica nel 1950 a Powell… Sebbene il Premio Nobel del 1936 per Victor Hess e Carl Anderson fornisse un precedente per dividere il premio tra una fondamentale scoperta iniziale e una che venne dopo, è evidente che le donne non erano obiettivamente considerate,…. la documentazione mostra che il comitato di fisica per il Nobel preparò una valutazione sfacciatamente inesatta che ha negato l’importanza e la priorità del lavoro di Blaue e Wambacher.

 

La necessità di un’operazione agli occhi, che non poteva permettersi negli Stati Uniti, riportò Marietta a Vienna nel 1960, dove lei, ancora una volta non pagata, diresse un gruppo di ricerca presso l’Institute for Radium Research.

Nonostante la sua precaria situazione finanziaria rifiutò di accettare una pensione offerta da Ilford e Agfa, che avrebbero desiderato contraccambiare il suo contributo allo sviluppo di emulsioni fotografiche.

Nel 1962 ottenne il premio Erwin Schrödinger dall’Accademia Austriaca delle Scienze, che però allo stesso tempo rifiutò di ammetterla come membro corrispondente.

Gravemente malata, presumibilmente a causa della frequente esposizione alla radioattività, Marietta Blau è morta nel 1970 nel reparto di terapia intensiva di un ospedale di Vienna. Come persona da contattare aveva indicato il custode del suo condominio.

Nessuna rivista scientifica ha pubblicato un necrologio dopo la sua morte.

Marietta Blau is the most tragic figure in the history around cosmic rays. Her life and her work were characterised by adversity and backlashes, yet her achievements and the results of her work excel those of many others, who were awarded the Nobel Prize in context with cosmic rays.

Georg Federmann

 

Siti consultati

Maria Rentetzi, Marietta Blau (1894-1970) ENCYCLOPEDIA https://jwa.org/encyclopedia/article/blau-marietta

R.L. Sime, https://www.academia.edu/4280335/Marietta_Blau_Pioneer_of_Photographic_Nuclear_Emulsions_and_Particle_Physics

  1. Rahmatian, Unlearned Lessons http://www.unless-women.eu/biography-details/items/blau.html

Bibliografia

[1] Ruth Lewin Sime , Marietta Blau in the history of cosmic rays., Physics Today, 2012, 65, 8.

https://physicstoday.scitation.org/doi/pdf/10.1063/PT.3.1728

Il rifiuto di tutti i rifiuti

In evidenza

Mauro Icardi

Il rapporto annuale sullo stato dell’ambiente in Italia , redatto dall’Ispra e presentato lo scorso mese di marzo, relativamente ai rifiuti mostra dati solo parzialmente incoraggianti. In crescita la produzione dei rifiuti urbani (+2%), in linea con l’andamento degli indicatori socio-economici. La produzione pro capite aumenta, passando da 487 kg/abitante nel 2015 a 497 kg/abitante nel 2016.

Il dato incoraggiante riguarda la diminuzione , rispetto al 2014, delle quantità totali di rifiuti smaltiti in discarica pari al 8,3%. Tale diminuzione si deve principalmente ai rifiuti urbani , che diminuiscono di circa il 16,2%, mentre i rifiuti speciali diminuiscono dell’1,8%. La percentuale di raccolta differenziata dei rifiuti a livello nazionale arriva al 52,6% nel 2016 e cresce del 5% rispetto al 2014. Il dlgs 152/2006 (Norme in materia ambientale) prevedeva che si dovesse raggiungere il valore percentuale del 65% di rifiuti destinati alla raccolta differenziata nel 2012. Il dato invece decisamente negativo riguarda la produzione di rifiuti speciali. Diminuiti del 4% nel biennio 2011-2013 principalmente nel segmento dei rifiuti speciali non pericolosi derivanti da attività di demolizione e scavo. Fenomeno da attribuire alla crisi del settore edile.

Nel triennio 2012-2015 la produzione di rifiuti speciali torna ad aumentare (+ 6,8%).

Questa la situazione attuale. Nel passato però, ed in particolare negli anni in del cosiddetto boom economico i consumi crescono, quasi che il consumo stesso si identifichi come l’elemento unificante dell’Italia, insieme alla visione di Carosello. Io non voglio ovviamente scrivere nulla dell’aspetto sociologico di quegli anni. Voglio solo far notare come consumando di più, si producano ovviamente più rifiuti e scarti.

Oggi in qualche modo siamo più attenti al problema. Ma in passato io ricordo perfettamente che nel piccolo paese di montagna dove soggiornavo in estate con i miei genitori non esisteva un servizio di raccolta rifiuti. Ci venne detto di portare i rifiuti in una depressione a lato del torrente che attraversava la valle. Una discarica a cielo aperto bonificata successivamente, quando i rifiuti vennero poi depositati in una discarica nelle vicinanze di Pinerolo, località poco distante. E quindi la passeggiata serale consisteva in questo. Portare una sacchetto di plastica di rifiuti (ovviamente indifferenziati) pochi metri prima di un parco giochi per bambini. Ho ripensato molte volte negli anni a questo episodio, che allora era purtroppo la normalità. In quegli anni la forma corrente di smaltimento dei rifiuti era la discarica. Il problema che questo tipo di atteggiamento ci ha lasciato in eredità è la gestione del percolato che si forma. Ovvero il rifiuto di tutti i rifiuti.Negli anni le caratteristiche del percolato tendono a variare, e ogni discarica produce percolati qualitativamente e quantitativamente diversi. I trattamenti devono essere valutati attentamente, e possono richiedere nel tempo anche variazioni all’impianto di trattamento originale, oppure la necessità di dover trasportare il percolato fuori dal sito, per destinarlo ad altri impianti di trattamento. I trattamenti biologici aerobici possono essere efficaci nel ridurre i composti organici biodegradabili (BOD) e la maggior parte di quelli totali (COD). Anche nel caso di basse concentrazioni di sostanza organica e BOD5/COD < 0,2 si ha una riduzione del COD fino al 50%. Come per tutti i processi di depurazione occorre porre attenzione a pH, temperatura, e a valutare con attenzione lo stato di salute della biomassa attraverso verifiche di respirometria del fango biologico, per valutarne l’eventuale intossicazione.

I trattamenti chimico fisici invece vanno scelti con attenzione e in generale non esiste un solo trattamento che sia efficace. I trattamenti principali possono andare dall’adsorbimento, all’ossidazione chimica, all’evaporazione, allo stripping. Ognuno di essi ha i suoi vantaggi e le sue problematiche. In generale un pretrattamento chimico fisico può diminuire le percentuali di sostanza organica biorefrattaria per i successivi eventuali trattamenti di tipo biologico. E’ importante ovviamente valutare anche quelli che sono i consumi energetici. Un impianto di evaporazione può arrivare a richiedere da 40 a 70 kWh elettrici e tra i 18 e i 40 kWh termici per metro cubo di percolato trattato.

Il problema del trattamento del percolato si lega ovviamente a quello della salvaguardia delle acque di falda. E se si digita su un qualunque motore di ricerca “percolato e falde acquifere” si potrà vedere come questo problema sia tutt’ora uno di quelli su cui occorre porre molto impegno ed attenzione.

In provincia di Varese proprio in questi giorni è tornato alla ribalta quello della discarica di Gerenzano. E’ una discarica che si trova al confine con la provincia di Varese, situata in una zona fortemente urbanizzata.

La storia di questo sito probabilmente è simile a quella di molti altri. Dal 1960 al 1984 vengono scaricati rifiuti speciali e urbani in maniera indifferenziata. Dal 1985 al 1990 (anno di chiusura della discarica) vengono scaricati i soli rifiuti urbani, fino alla chiusura avvenuta nel 1990. Quello che rimane adesso è un sito di circa 30 ettari con 11 milioni di mc di rifiuti depositati. Con le variazioni di livello della falda, spesso questi rifiuti sono venuti e vengono tutt’ora a contatto con la falda poggiando su strati di ghiaia, non essendo impermeabilizzato il fondo della discarica.

Nel 1981 venne prescritta la costruzione di una barriera idraulica realizzata nel 1987 che aveva lo scopo di abbassare il livello della falda e contenere il deflusso degli inquinanti a valle. Nel 1996 viene realizzato un impianto di depurazione sul sito della discarica. Prima il percolato veniva scaricato direttamente nel torrente Bozzente. Durante gli anni sono stati impermeabilizzati gli strati superiori di rifiuti, si è recuperato all’incirca il 10% di biogas prodotto dalla discarica, questo per mitigare i costi di gestione di un sito che ai sensi della normativa del decreto legislativo 152/206 risulta essere in stato di messa in sicurezza operativa.

Rimane l’incognita dell’inquinamento della falda freatica. Al momento i pozzi di captazione di acqua potabile sono posti al di fuori del flusso di acqua che percola dalla discarica.

Ma la parte di falda contaminata è ormai esclusa dalla possibilità di essere utilizzata per un successivo utilizzo a scopo idropotabile.

La discarica di Gerenzano risulta essere censita da Regione Lombardia nell’elenco dei siti contaminati.

La storia di questo sito è probabilmente uguale a quello di molti altri siti simili presenti in tutta Italia. Ma non solo. Per rendersene conto basterebbe andare a vedere (o rivedere) un film emblematico. Il documentario “Trashed” con Jeremy Irons.Stiamo già vedendo, abbiamo notizia della diffusione ambientale di plastica nell’ambiente, le ormai conosciute isole di rifiuti che galleggiano negli oceani. Ma forse non abbiamo coscienza del fatto che in futuro potremmo trovarci in difficoltà con le acque di falda che dovessero contaminarsi.

Le tecniche per il trattamento abbiamo visto esistono. Ma allo stesso modo occorre adottare atteggiamenti diversi, diminuire per quanto più possibile la produzione di rifiuti, e differenziarli.

E considerando le eredità che ci vengono da un passato spensieratamente consumistico, e le situazioni che invece ancora oggi non sono gestite correttamente nei paesi non meno sviluppati, ma con minori risorse economiche, e meno attenzione tecnico-legislativa al problema la gestione corretta di percolato e rifiuti è un ulteriore anello di una catena di impegni da assumere nei confronti dell’ambiente. E di noi stessi.

https://www.slideshare.net/PierAngeloGianni/indagine-sullo-stato-dellinquinamento-della-falda-a-valle-della-discarica-di-gerenzano

https://www.slideshare.net/PierAngeloGianni/discarica-di-gerenzano-per-non-dimenticare-regione-lombardia-09062014

http://www.varesenews.it/2018/04/ex-discarica-linquinamento-della-falda-freatica-non-si-ferma/704544/

Attualmente non risultano compromesse le falde dalle quali si prelevano acque destinate all’uso potabile, perché poste al di fuori della direzione di flu

Breve storia dell’aspirina.

In evidenza

Luigi Campanella

FANS è l’acronimo dell’espressione “farmaci anti-infiammatori non steroidei” e individua una classe di farmaci dall’effetto anti-infiammatorio, analgesico ed antipiretico.

L’aspirina e il salicilato di sodio sono stati i primi FANS ad essere introdotti nella pratica clinica ai primi del ‘900. Infatti l’aspirina è considerata il prototipo dei FANS nonostante l’introduzione di nuovi congeneri. E’ tuttora il farmaco analgesico-antipiretico-antinfiammatorio più usato e rappresenta il termine di paragone per la valutazione e il confronto con altri analgesici periferici.

Le origini dell’aspirina vanno ricercate nella natura ed esaminando le tappe della scoperta e dell’applicazione delle proprietà dell’acido salicilico, si può paragonare la nascita dell’Aspirinaâ alla composizione di un puzzle, in cui diversi studiosi, con le loro  scoperte, hanno messo un tassello dopo l’altro.

La storia dell’aspirina, che è poi la storia della corteccia e della foglia del salice, incomincia nel 400 a.C.  anche se le  sue virtù terapeutiche vengono menzionate già nel papiro di Ebers, all’incirca 2000 anni prima di Cristo.

Già Ippocrate  di Kos (460-377 a.C.), il padre della medicina, si accorse delle proprietà antidolorifiche contenute nella corteccia e nelle foglie di salice e consigliò ai suoi pazienti afflitti dai più svariati dolori, di curarsi con un infuso di quelle foglie.  Troviamo infatti segnalata negli scritti del medico ateniese (“Corpus Hippocraticum”, V secolo a.C.) l’azione analgesica della linfa estratta dalla corteccia di salice che conteneva, come oggi sappiamo, l’acido salicilico.

Ur III, è un testo medico della Terza Dinastia di Ur

Dall’epoca della grande intuizione di Ippocrate gli uomini per secoli hanno fatto uso del salice per combattere mali di testa, febbri, reumatismi. Ancora oggi i contadini greci masticano le sue foglie per combattere e addirittura prevenire i dolori reumatici.

Le proprietà della corteccia del Salix alba vulgaris contro febbri e dolori in genere furono celebrate un secolo dopo Cristo dal medico greco Dioscoride e, ancor prima, dagli Egizi con infusi a base di corteccia.

Anche Plinio, nel I secolo d.C. concorda nell’attribuire agli infusi a base di Salice proprietà febbrifughe ed analgesiche.

Nel Medioevo, pur essendo dimenticato dai medici, l’uso della cottura della corteccia del salice si mantenne nell’ambiente contadino: le venditrici di erbe aromatiche e medicinali facevano bollire la corteccia di salice e somministravano l’amaro decotto alle persone afflitte da dolori. In seguito, la raccolta dei rami di salice venne proibita, perché questo materiale era necessario per la fabbricazione dei cesti, data l’elevata flessibilità dei giovani rami. Il medicamento naturale cadde così in disuso.

Nello stesso periodo, ma in altri continenti, perfino in popolazioni primitive quali gli Ottentotti del Sud Africa o le popolazioni indiane d’America, il valore terapeutico del Salice era ben conosciuto.

La vera storia dell’aspirina avrebbe avuto inizio nel XVIII secolo grazie alle fortuite associazioni mentali di un pastore della contea di Oxford.

Un giorno passeggiando in un bosco, il reverendo Edward Stone, esperto botanico, assaggiò, per caso, un pezzetto di corteccia di un salice. Trovandola particolarmente amara richiamò nella sua mente l’amaro sapore della cinchona, pianta dalla quale veniva estratto il chinino, conosciutissimo anti-malarico, importata dal Perù.

Il reverendo, esperto anche di questioni mediche, iniziò a pensare che la scorza di salice poteva essere utile per combattere le febbri malariche, pur essendo stupito del fatto che, paradossalmente, questo albero crescesse proprio nelle regioni più umide e insalubri.

Il 2 giugno 1763, Edward Stone lesse una relazione alla riunione della Royal Society di Londra, in cui venivano presentati i successi ottenuti, nella lotta alle febbri malariche, con il decotto di scorza di salice su 50 soggetti febbricitanti. Nella sua ricerca intitolata: “Sulla corteccia di salice nella cura delle febbri malariche” avviò sulla scena terapeutica i salicilati e quindi l’aspirina.

Il decotto di corteccia di salice tanto esaltato da questo ecclesiastico di Chipping Norton nell’Oxfordshire agiva effettivamente nelle febbri malariche. Poco importava se l’azione antifebbrile non era associata a quella anti-malarica effettiva del chinino.

Napoleone Bonaparte, a sua insaputa, diede una svolta storica negli studi sul Salice,  imponendo, il 20 giugno del 1803, il blocco all’importazione di qualsiasi merce proveniente dalle colonie inglesi e dall’Inghilterra sul continente.

Con tale decisione venne bloccata l’importazione dall’America anche della corteccia di China (originaria dell’America meridionale, un tempo utilizzata, dato l’elevato contenuto in alcaloidi, principalmente come antipiretico); questo spinse la ricerca di un valido sostituto farmacologico autoctono europeo.

Fu in questo periodo che ci si ricordò dell’azione medicamentosa della linfa di salice e, in particolare, delle sue proprietà antipiretiche.

Iniziarono nei primi decenni del XIX secolo indagini serrate in punti disparati dell’Europa nel tentativo di ottenere allo stato puro quella che veniva ritenuta la sostanza attiva del salice.

Nel 1828 il professor Johann Andreas Buchner di Monaco di Baviera ne ricavò, mediante ebollizione, una massa gialla che chiamò salicina.

L’anno seguente il farmacista francese Henri Leroux isolò la salicina, principio composto da glucosio ed alcool salicilico in forma cristallina:
30 grammi di “salicina” vengono estratti da 500 grammi di scorza di salice.

Nel 1835, in Svizzera, in diversi vegetali come nei fiori di ulmaria e nell’olio di gualteria (essenza di Wintergreen) si trova una sostanza simile: viene chiamata “spirsauro” e qualche anno dopo ci si accorge che è acido acetilsalicilico allo stato puro. Si deve però, a Raffaele Piria, chimico Napoletano, il merito di aver scoperto che dalla salicina si poteva giungere all’acido salicilico. Piria ne dette comunicazione in due articoli, “Ricerche sulla salicina ed i prodotti che ne derivano” (1838) e “Ricerche di chimica organica sulla salicina” (1845).

Nel 1853 il chimico Charles Frédéric Gerhardt di Strasburgo produsse per la prima volta l’acido acetilsalicilico, in forma tuttavia chimicamente impura e quindi non stabile. Il procedimento di acetilazione risultò così complesso da scoraggiare le aziende farmaceutiche, tanto da ritardare di circa 44 anni il passo successivo.

Al prof. Hermann Kolbe di Marburgo va invece il merito di aver scoperto la struttura dell’acido salicilico e di averlo sintetizzato.

Sintesi di Kolbe

Nel 1874 si poté così avviare la produzione industriale dell’acido salicilico, il cui prezzo era dieci volte inferiore a quello del prodotto naturale.
Questa sostanza aveva tuttavia un gusto sgradevole e spesso aggrediva la mucosa gastrica, costringendo le persone afflitte da dolori a scegliere tra due mali.

Felix Hoffmann, era un giovane chimico dell’industria chimica tedesca Bayer di Leverkusen, in Renania. Il padre di Felix, affetto da una grave forma di malattia reumatica, assumeva il salicilato di sodio che gli conferiva un grande giovamento, nonostante il sapore sgradevole e l’effetto gastrolesivo. Nel tentativo di  migliorare la qualità di vita del padre, Felix Hoffmann iniziò a condurre indagini sistematiche alla ricerca di un composto efficace e tollerabile, alternativo al salicilato di sodio. Muovendo dalle esperienze di Gerhardt, Hoffmann tentò di nobilitare l’acido salicilico per migliorarne la tollerabilità e riuscì nel suo intento mediante l’acetilazione. Il 10 agosto 1897 egli descrisse nelle sue note di laboratorio l’acido acetilsalicilico (ASA), da lui sintetizzato in forma chimicamente pura e stabile.

 

Sintesi dell’acido acetilsalicilico

Il vero scopritore dell’aspirina non è stato lo scienziato cui da sempre viene attribuita l’impresa, ma il suo superiore, ebreo tedesco, Arthur Eichengruen, il cui ruolo è stato cancellato con l’ascesa al potere dei nazisti in Germania>>

Questa rivelazione è stata fatta di recente da Walter Sneader, vicecapo del dipartimento di scienze farmaceutiche all’Università di Strathclyde, a Glasgow a seguito di alcune ricerche che gli hanno permesso di trovare una descrizione della scoperta dell’aspirina di Hoffmann nella Storia della Tecnologia Chimica datata 1934 (un anno dopo la presa del potere di Adolf Hitler). Sneader sostiene che:
– Hoffmann era una delle 10 persone che lavoravano sotto Eichengruen ai tempi dellasoperta.
– un procedimento messo a punto da Eichengruen è stato seguito negli esperimenti che hanno portato all’aspirina

Secondo il professore scozzese, Eichengruen non aveva condizioni di contestare Hoffmann nel 1924 perché stava lottando contro la marea di antisemitismo e contemporaneamente sperava di salvare la Eichengruen Lavori Chimici, l’azienda che aveva fondato dopo aver lasciato la Bayer nel 1908.
Eichengruen non ce la fece. La sua azienda e gran parte dei suoi averi sono stati sequestrati e, a 75 anni, è stato mandato al campo di concentramento di Theresienstadt nell’attuale Repubblica Ceca. E’ sopravvissuto, ma non è stato in grado di pubblicare le sue rivendicazioni sulla scoperta dell’aspirina fino al 1949. Lo ha fatto in un allora oscuro giornale scientifico tedesco chiamato Pharmazie, un mese prima di morire.

La Bayer, da un lato smentisce tali affermazioni, ma proclama che, se davvero fosse Eichengruen lo scopritore, non avrebbe avuto problemi ad assegnargliene il merito, anche perché lui possedeva altri 47 brevetti, che non gli furono molto utili a Teresienstadt.

Prima della sua registrazione, l’ASA fu sottoposto dalla Bayer a sperimentazione clinica – una prassi fino ad allora sconosciuta. I risultati furono così positivi che la direzione dell’azienda non esitò ad avviare la produzione del farmaco.

Fotografia dell’epoca.

Quando l’1 febbraio 1897 la Bayer mette in commercio l’aspirina il nome non è scelto a caso: la “a” è l’abbreviazione di acido acetilsalicilico, “spir” viene da “spirsäure” che in lingua tedesca sta per “acido della spirea”, la pianta da cui per la prima volta venne
estratto l’acido. Il nome “aspirina”, dunque, è una testimonianza precisa di quanto di utile può essere contenuto nelle erbe ma costituisce anche il punto di arrivo di una lunga ricerca scientifica.

Il 1° febbraio 1899 venne depositato il marchio Aspirinaâ che un mese dopo, il 6 marzo, fu registrato nella lista dei marchi di fabbrica dell’Ufficio Imperiale dei Brevetti di Berlino.
Iniziava così una marcia trionfale: l’affermazione dell’aspirina fu da questo punto un crescendo.

 

L’aspirina ® o acido acetilsalicilico (ASA) o, più correttamente secondo la nomenclatura IUPAC, acido 2-acetossibenzoico, è il capostipite della famiglia dei FANS.

Struttura dell’acido acetilsalicilico

Questa lunga storia dovrebbe insegnare 2 cose:l’importanza nella ricerca di partire sempre da quanto già si conosce,e la necessità di salvaguardare la Storia della Scienza,in questo caso della Chimica, all’interno dei curricula universitari.

*******************

Fra i siti consultati oltre a wikipedia,  http://www.minerva.unito.it/Storia/aspirina/Aspirina.html

Su argomento analogo:https://ilblogdellasci.wordpress.com/2016/04/04/aspirina-breve-storia-di-un-farmaco-pluripotente/

Cambiamenti climatici: influenza sui cicli vitali delle piante

In evidenza

Rinaldo Cervellati

Sul numero del 22 marzo di NUTRAIngredients-Botanicals and Herbals, una newsletter di notizie e analisi su integratori, salute e nutrizione, Stephen Daniells ha pubblicato una analisi dettagliata sugli effetti dei cambiamenti climatici sui cicli vitali delle piante, intitolata The erosion of predictability: Climate Change and the botanical supply chain (L’erosione della prevedibilità: cambiamenti climatici e catena di approvvigionamento botanico)[1].

L’autore intende mostrare che i cambiamenti climatici hanno influenzato in modo significativo i tempi di fioritura, fruttificazione e raccolta, nonché le interruzioni della sincronizzazione fra le piante e i loro insetti impollinatori, influenzando la filiera botanica per cui le aziende sono chiamate a reagire in tempi brevi.

Daniells prende in esame soprattutto le piante utilizzate nelle medicine tradizionali orientali che rivestono una sempre maggior attenzione in erboristeria ma non solo. Sono riportati brani di interviste a esponenti delle principali aziende che forniscono prodotti erboristici. Data l’attualità dell’argomento ci è sembrato opportuno fornire ai nostri followers un ampio stralcio del lavoro di Daniells, oltre che qualche commento.

Vale la pena ricordare anzitutto che la medicina erboristica ha basi scientifiche tanto che anche in Italia sono da anni attivi corsi di laurea in Erboristeria o similari in varie Università[2]. Non va quindi confusa con l’omeopatia che al contrario non ha attualmente alcuna base scientifica.

L’articolo inizia ricordando che nel 2008 Mr. Josef Brinckmann[3], Vice Presidente per Ricerca & Sviluppo della Traditional Medicinals Inc., mentre cercava di stabilire un nuovo sito di produzione della Schisandra sphenanthera, una pianta molto usata nella medicina tradizionale cinese (nanwuweizi), fu informato dagli anziani del luogo che il tempo di raccolta delle bacche era stato “da sempre” fra metà settembre e i primi di ottobre. Però negli ultimi dieci anni, i periodi di fioritura e fruttificazione erano stati ogni anno radicalmente diversi.

Le modifiche al raccolto della Schisandra sono solo un esempio, ha detto Brinckmann, afferma infatti che in generale la prevedibilità su quando è possibile stabilire il raccolto è diminuita sensibilmente dappertutto”. “Ci sono eventi che stanno avendo un impatto sui periodi di fioritura e fruttificazione e così su quando sarà possibile il raccolto”, ha detto Brinckmann.

Josef Brinckmann

Questo sta accadendo ovunque io vada. Penso che se si parla con agricoltori in tutto il mondo, si sentirebbero storie simili – e non si tratta necessariamente di piante medicinali, può trattarsi di colture alimentari”.

“E non è solo l’imprevedibilità del tempo, è la scala e la frequenza di eventi meteorologici di grandi dimensioni che possono causare il fallimento totale del raccolto”.

Daniells ci informa che uno dei primi, se non il primo articolo a esplorare l’impatto dei cambiamenti climatici sulle piante medicinali e aromatiche è stato pubblicato su HerbalGram[4] nel 2009 [1]. Il dettagliato articolo ha investigato molti aspetti del cambiamento climatico, incluso l’impatto su ecosistemi specifici, come le regioni artiche e alpine.

Le piante alpine sono in pericolo perché il loro ambiente di nicchia diventa più caldo di qualche grado e le piante non sono in grado di scalare la montagna per raggiungere le temperature più basse alle quali sono abituate. Il loto di neve (Saussurea laniceps) del Tibet è un altro esempio “, ha dichiarato Mark Blumenthal, direttore esecutivo dell’American Botanical Council e redattore/ editore di HerbalGram.

Un’altra pianta himalayana interessata è la Picrorhiza karroa (kutki), che cresce a un’altitudine da 3500 a 4800 m sul livello del mare”, spiega Shaheen Majeed, presidente della Sabinsa Corporation, una multinazionale della nutraceutica. “Queste aree hanno una nicchia climatica specifica in cui queste piante possono prosperare”. Continua Majeed: “Ora però, a causa della variazione delle condizioni climatiche, principalmente l’aumento della temperatura, la crescita di altre piante, in prevalenza infestanti, è aumentata in quelle zone. Queste erbe infestanti soffocano la crescita delle piante kutki distruggendo in tal modo il loro habitat”.

Negli ultimi cinque anni abbiamo trovato molto difficile trovare l’arnica (Arnica montana, Arnica cordifolia)”, ha affermato Beth Lambert, direttore esecutivo di Herborist & Alchemist, una azienda produttrice e distributrice di prodotti erboristici. “Le persone la sostituivano con una versione messicana (Heterotheca inuloides), che non è nemmeno della stessa famiglia.

Beth Lambert

Dal punto di vista aziendale, abbiamo avuto più sfide nell’approvvigionamento di materie prime negli ultimi cinque anni rispetto a quante ne avessimo avuto nei precedenti 30”, ha osservato David Winston, fondatore e Presidente di Herbalist & Alchemist . “Abbiamo avuto siccità, inondazioni e problemi con gelate precoci e gelate tardive. Questi modelli erratici, creano problemi significativi a molte piante.”

Spiega Winston: “Il cambiamento climatico colpisce il suolo e quindi colpisce la crescita dei funghi nel terreno (e tutte le piante possono avere una qualche forma di simbiosi micotica), l’aumento di calore e umidità fa aumentare il rischio di molte malattie delle piante.

David Winston

Dopo che la siccità ha avuto un impatto significativo sul raccolto del Palmetto nel 2007, ad esempio, i 10 anni successivi hanno visto sempre più piogge durante il periodo di fioritura e fruttificazione”, ha affermato Steven Foster, erborista, autore, fotografo e membro del Board of Trustees dell’American Botanical Council (ABC). “Questo ha influito sul raccolto perché le condizioni umide favoriscono la crescita di un fungo specifico che fa maturare prematuramente il frutto”.

I cambiamenti climatici hanno anche ripercussioni sulla popolazione degli insetti, con alcune specie dannose che espandono il loro raggio d’azione o aumentano in modo spropositato.

Per far fronte al problema si è pensato di ricorrere all’uso di erbicidi, fungicidi e pesticidi. Ciò però aumentava il rischio di immettere nel mercato prodotti con un elevato carico chimico.

Un esempio di ciò è un’erba cinese chiamata Tienqi ginseng (Panax notoginseng), ha dichiarato Beth Lambert, direttore esecutivo di Herborist & Alchemist . “Producevamo prodotti con Tienqi ginseng perché è un’erba incredibile, ma abbiamo smesso di usarla perché continuando a testarli abbiamo scoperto che non potevano soddisfare le specifiche richieste per pesticidi ed erbicidi” .

Sostiene David Winston: “Il cambiamento climatico sta influenzando anche la composizione fitochimica delle piante. Alcuni stress sono importanti per la maggior parte delle piante perché la produzione dei metaboliti secondari è fondamentalmente innescata dallo stress. Ad esempio, se si coltiva l’erba gatta (Nepeta cataria) in un ambiente povero di pioggia, aumenta il livello di monoterpeni contenuti nell’olio essenziale, usato dalla pianta per combattere lo stress, a spese di una pianta più piccola ma con un livello di monoterpeni più alto.”

Ma i cambiamenti climatici provocano periodi di siccità troppo lunghi e anche supponendo di poter mantenere la pianta viva, l’effetto sarà opposto, perchè la qualità e la chimica della pianta cambieranno drasticamente”.

Un altro esempio è una pianta chiamata Yellow Dock (Rumex crispus), che viene tradizionalmente raccolta durante la siccità della tarda estate. Dice Winston:

Vorresti raccogliere questa pianta dove è stato asciutto per preferibilmente da cinque a sette giorni perché il livello dei componenti nella radice è molto più alto. D’altra parte, la scorsa estate abbiamo avuto un agosto veramente umido e le radici contenevano molta più acqua e quantità minori di componenti attivi. Invece di essere giallo brillante, la radice era giallo pallido, segno di mutazioni fitochimiche.”

“In Cina, moltissime persone hanno notato un cambiamento nel gusto del tè, presumibilmente dovuto a variazioni nel profilo fitochimico della pianta, un indicatore di cambiamento delle proprietà nutrizionali e dell’attività farmacologica”, ha detto Blumenthal dell’ABC. Un articolo del 2014 su HerbalGram [2] ha esplorato l’impatto del cambiamento climatico sul gusto del tè in Cina, concludendo che se i cambiamenti climatici stanno interessando il tè può essere che interessino anche la fitochimica di altre piante.”

Raccolta del tè in una piantagione del Kenya

Josef Brinckmann, della Traditional Medicinals, afferma che l ‘”erosione della prevedibilità” e il conseguente aumento di incertezza stanno cambiando il modo in cui le aziende si approvvigionano di materie prime, ma fa esplicitamente riferimento anche alla geopolitica.

È sempre stato saggio spalmare il rischio nella catena di rifornimento, dice Brinckmann, e negli ultimi 10 anni abbiamo dovuto implementare attivamente la nostra politica di spread risking, in modo da avere due, se non tre o quattro basi di produzione che si trovano in distinti ambiti agro-climatici e geopolitici”, spiega Brinckmann. “Tener conto di entrambi gli aspetti è importante perché l’altro fenomeno cui abbiamo assistito negli ultimi dieci anni è che disordini e rivoluzioni sono causa di interruzione degli scambi”

“La camomilla è un buon esempio. La pianta cresce spontaneamente nella Repubblica Ceca, in Slovacchia, Ungheria e Polonia. La coltivazione si estende in Germania, poi in Croazia e attraverso il Mediterraneo fino all’Italia, alla Grecia e all’Egitto.

L’Egitto è un paese importante per i medicinali tradizionali, ma l’offerta è stata influenzata da eventi sia climatici che geopolitici.”

“L’anno precedente la primavera araba del 2011, racconta Brinckmann, c’era stato un grosso problema con la camomilla egiziana perché durante il periodo di fioritura aveva nevicato. “La gente diceva, ‘non è mai successo prima’. Purtroppo questo fenomeno ha arrestato la crescita dei fiori e ha cambiato la composizione chimica, quindi la qualità e la quantità dell’olio essenziale erano diverse dal solito. I rendimenti erano più bassi. E poi l’anno successivo è scoppiata la rivoluzione “.

“La nostra azienda è in attività da 44 anni, ha aggiunto Brinckmann, “Abbiamo realizzato decenni fa che il metodo per ottenere un’uniformità da lotto a lotto e di dimostrarlo scientificamente, è di avere buoni rapporti con i produttori delle materie prime in modo da selezionarle avvicinandole il più possibile per qualità a quelle all’anno precedente. I cambiamenti climatici stanno però rendendo questo obiettivo sempre più complicato da raggiungere. Dobbiamo lavorare sempre più duramente con i nostri partner per ampliare le nostre basi di produzione mantenendo nel contempo i requisiti di qualità, con materie prime equivalenti da almeno due diverse zone agro-climatiche e geopolitiche. Non è una impresa facile, ma è quello che stiamo facendo, ha concluso Brinckmann.

L’azienda Herborist and Alchemist punta invece all’utilizzo, se possibile, di materiale vegetale di provenienza USA, puntando però all’estensione del proprio approvvigionamento considerando lotti di più coltivatori, così che se il raccolto da una certa area sarà scarso, se ne potrà ottenere una quantità maggiore da un’altra.”Stiamo realizzando che dobbiamo fare sempre di più”, ha detto Beth Lambert. “Non possiamo dipendere da un solo agricoltore o gruppo di raccoglitori per il nostro approvvigionamento.” Nel Vermont un gruppo di coltivatori si è costituito in cooperativa, la Vermont Herb Growers Cooperative fondata per fornire un’unica, affidabile fonte di erbe di alta qualità e certificate biologicamente provenienti da coltivazioni diversificate su piccola scala nello Stato. “La H&A che inizialmente acquistava da alcuni di questi coltivatori individualmente ora si rivolge principalmente alla cooperativa ritenendola un ottimo modello per garantire l’acquisto di materie prime basate su un adeguato equilibrio fra tecnologia agricola e rispetto per la qualità del prodotto”, ha affermato Lambert.

Infine, Shaheen Majeed, Presidente della multinazionale Sabinsa Corporation, dopo aver affermato: Stiamo affrontando la più grande sfida ambientale che la nostra generazione abbia mai visto. Non importa ciò che ci appassiona, qualcosa a cui teniamo molto sarà influenzata dal cambiamento climatico.

Shaheen Majeed

Preferisce piuttosto citare alcuni esempi di importanti piante officinali che nell’esperienza di Sabinsa Corp. saranno colpite dal cambiamento climatico.

Curcuma. La normale stagione di semina per la curcuma è durante maggio, con l’arrivo delle piogge iniziali, ma se i cambiamenti climatici faranno ritardare le piogge iniziali, la semina dovrà essere spostata in avanti. Se anche questa estate sarà secca come quella dell’anno precedente, ciò significherà una minore quantità di acqua a disposizione.

Ci vogliono otto mesi perché la curcuma raggiunga la piena crescita e quindi inizi il raccolto. Se a causa delle mutate condizioni climatiche non viene raggiunta la piena crescita delle piante, avremo un minor rendimento e una minor qualità del prodotto.

Menta indiana (Coleus). Normalmente la stagione di semina per Coleus va da settembre a ottobre, quando ci sono piogge intermittenti. Quest’anno (2017-18) ci sono state forti piogge nelle aree di coltivazione tradizionali. Ciò ha reso impossibile piantare durante la stagione normale spostandola a novembre – dicembre, e anche a gennaio in alcuni casi. Il periodo di crescita della pianta è di sei mesi con inizio raccolto in marzo, ma a causa del cambiamento climatico le colture non saranno pronte per la raccolta fino a maggio – giugno, con conseguente indisponibilità di materia prima da marzo a luglio. Inoltre quantità e qualità del raccolto saranno scarse causa dell’alterato periodo di crescita.

Per i cambiamenti anzidetti alle stagioni di crescita delle colture nel corso degli anni dovute al cambiamento climatico, le aree tradizionali sono diventate inadatte alla coltivazione. Passare a nuove aree significa nuovi agricoltori e nuove condizioni sul campo. Ciò avrà un impatto sulla quantità e sulla qualità della materia prima prodotta.

Bacopa (pianta acquatica, fam. Scrophulariaceae). Le condizioni migliori per la coltivazione sono terre paludose con abbondante acqua ma il cambiamento climatico riduce la disponibilità di acqua in alcune aree e queste terre paludose si convertono lentamente in terre asciutte. La pianta è usata nella medicina ayurvedica per i disturbi della memoria. E’ di aiuto anche in problemi digestivi. Piante come la Bacopa che di solito prosperano bene nelle condizioni paludose verranno lentamente sostituite con altre piante che possono prosperare meglio nelle mutate condizioni.

Tutti gli esponenti intervistati riconoscono gli avvenuti cambiamenti climatici e i loro effetti sulla coltivazione e anche sul profilo fitochimico di importanti piante officinali, ma non viene mai nominata esplicitamente la probabile causa di questi effetti, il global warming o riscaldamento globale. Eppure implicitamente si parla di aumento della temperatura in alta montagna, di siccità o piovosità eccessive o fuori stagione in zone del Pianeta in passato regolari da questo punto di vista, insomma a fenomeni riconducibili al riscaldamento globale. Poiché questi personaggi sono americani o naturalizzati e l’attuale Presidente USA è un dichiarato negazionista, non ci sarà un certo timore a nominare financo la parola? Oppure essi non ritengono che il global warning sia la causa dei comunque riconosciuti cambiamenti climatici? Le proposte emerse per contrastare questi effetti sembrerebbero dar credito alla seconda ipotesi: dall’individuazione di zone alternative per le coltivazioni in pericolo fino alla sostituzione con altre piante.

Eppure, in particolare i segnali su variazioni del profilo fitochimico dovrebbero far suonare un insistente campanello d’allarme. La maggior parte dei principi attivi contenuti nei rimedi erboristici sono infatti metaboliti secondari delle piante. Fra i primi a chiedersi a cosa servissero questi composti chimici prodotti dalle piante vorrei ricordare le ricerche di Giacomo Ciamician[5] e del suo collaboratore Ciro Ravenna. Essi, dopo numerose ricerche giunsero alla conclusione che gli alcaloidi esercitavano una funzione molto simile a quella degli ormoni negli animali [3].

Oggi è noto che polifenoli e loro glicosidi (potenti antiossidanti contenuti e reclamizzati negli integratori alimentari), svolgono nelle piante principalmente un ruolo di difesa. Non solo difesa da parassiti animali e vegetali ma anche dalle condizioni ambientali in cui una determinata specie è abituata a crescere. Per esempio un glicoside della cianidina, il pigmento caratteristico delle arance rosse di Sicilia servirebbe alla pianta per sopportare le escursioni termiche fra il dì e la notte caratteristiche della zona vulcanica di crescita di quella varietà di agrumi [4].

Quindi, le variazioni di profili fitochimici consolidati in decine se non centinaia di migliaia di anni dovrebbero far pensare che i cambiamenti climatici siano a loro volta effetti di una causa che viene generalmente chiamata global warming, effetto a sua volta causato dall’epoca attuale, caratterizzata dalle attività dell’uomo che stanno cambiando la geomorfologia del Pianeta.

Allora, le misure da prendere nei tempi brevi per fermare il fenomeno sono la drastica riduzione delle emissioni, i programmi di risparmio energetico, la sostenibilità delle produzioni e l’impulso alla ricerca sull’utilizzo delle “energie rinnovabili”.

Bibliografia

[1] C. Cavaliere, The Effects of Climate Change on Medicinal and Aromatic Plants., HerbalGram, 2009, 81, 44-57.  http://cms.herbalgram.org/herbalgram/issue81/article3379.html?ts=1522770451&signature=f321feb52f87b18f2c564acad28968a

[2] S. Ahmed, Tea and the Taste of Climate Change: Understanding Impacts of Environmental Variation on Botanical Quality., HerbalGram, 2014, 103, 44-51.

http://cms.herbalgram.org/herbalgram/issue103/HG103-feat-teaclimate.html?ts=1522856019&signature=1146c4bfb2da34647434bc997e1eb715

[3] R. Cervellati, V. Saiola, E. Greco, Le ricerche di Giacomo Ciamician sulla chimica delle piante. Atti del XIV Convegno Nazionale di Storia e Fondamenti della Chimica, Rendic. Acad. Naz. Sci. Detta dei XL, DOI: 10.4399/978885485146710, pp. 123-136.

http://media.accademiaxl.it/memorie/S5-VXXXV-P2-2011/Cervellati-Saiola-Greco123-137.pdf

[4] Arancia rossa. https://www.cibo360.it/alimentazione/cibi/frutta/arancia_rossa_sicilia.htm

[1] L’articolo in lingua originale si trova al sito

https://www.nutraingredients.com/Article/2018/03/22/The-erosion-of-predictability-Climate-change-and-the-botanical-supply-chain?utm_source=newsletter_product&utm_medium=email&utm_campaign=02-Apr-2018&c=Ys8M3ElSTSw9q7Z2fptn3A%3D%3D&p2=

[2] Va ricordato che esiste una disciplina specifica, la farmacognosia che si occupa delle proprietà fisiche, chimiche, biochimiche e biologiche di farmaci o sostanze medicinali di origine vegetale. Inoltre,  l’Organizzazione Mondiale della Sanità è impegnata a promuovere e valorizzare su basi scientifiche l’uso dei rimedi naturali derivati da piante medicinali ancora largamente usate nei PVS (si stima infatti che l’85% della popolazione mondiale ricorra all’uso della medicina tradizionale per la prevenzione/cura di diverse patologie).

[3] Josef Brinckmann è Vice Presidente alla Sostenibilità della Traditional Medicinals, Inc., USA, dal 19 aprile 2016. Brinckmann ha ricoperto la carica di Vice Presidente per Ricerca & Sviluppo presso Traditional Medicinals, Inc. fino al 19 aprile 2016. Mr. Brinckmann è Membro del comitato consultivo editoriale del Nutrition Business Journal.

[4] HerbalGram è il Journal of the American Botanical Council.

[5] Giacomo Ciamician (1857-1922), Professore di Chimica Generale nell’Università di Bologna dal 1889 fino alla scomparsa è considerato il fondatore della fotochimica moderna, collaborò al progetto dell’edificio dell’Istituto di Chimica dell’Università di Bologna che oggi ospita il Dipartimento a lui intitolato. Si è occupato attivamente della sintesi di prodotti organici naturali. Oltre a essere uno dei fondatori della fotochimica moderna, Giacomo Ciamician è considerato anche il precursore dell’utilizzo pratico dell’energia solare.

Ancora chimica e sottomarini. Freon, killer a bordo!

In evidenza

Giuseppe Poeta Paccati

L’8 novembre 2008 si verificò un gravissimo incidente sul sottomarino* nucleare russo K-152 Nerpa della flotta del Pacifico provocata da un’avaria al sistema antincendio a Freon che provocò la morte per asfissia di 20 persone e 41 feriti tra il personale tecnico civile e quello militare.

Sottomarino russo Nerpa (K-152), oggi in dotazione alla marina indiana come INS Chakra

Costruito presso il cantiere di Komsomol’sk-na-Amure (unico sottomarino nucleare russo a non essere in costruzione nei cantieri Sevmaš di Severodvinsk), il sottomarino appartiene alla classe di sottomarini nucleari sovietici dal nome in codice NATO Akula, Progetto 971 Ščuka-B ed era destinato ad essere ceduto in leasing alla marina indiana.

I battelli di questa classe sono in grado di attaccare con successo sia gruppi di unità navali ostili (subacquee e di superficie), sia installazioni terrestri. Grazie ai due scafi in acciaio amagnetico più distanziati del normale, in caso di incidente, hanno una maggiore probabilità di evitare danni allo scafo interno che è, a sua volta, diviso in otto compartimenti. Dotati di un reattore nucleare OK-650B da 190 MW (100’000 hp) per la propulsione che consente una velocità di 20 nodi in emersione e 35 in immersione, sono costruiti con materiali e tecnologie pensate appositamente per rendere minima la loro traccia acustica e renderli più difficilmente localizzabili in immersione.

L’unità incrociava nel golfo di Pietro il Grande, una vasta insenatura lungo la costa russa nell’estremo oriente, situata nella parte nordoccidentale del mare del Giappone per svolgere un programma di collaudi e, per questo motivo, l’equipaggio che era a bordo il giorno dell’incidente era molto più numeroso del solito: 208 persone di cui 81 militari e 127 ingegneri civili dei cantieri navali Amursky, responsabili della costruzione e dell’allestimento del sottomarino.

I compartimenti di un sottomarino russo sono presidiati da stazioni di erogazione di gas freon R-114B2 (dibromotetrafluoroetano, noto come khladon in russo) per estinguere rapidamente gli incendi in spazi chiusi.

Dibromotetrafluoroetano, R-114B2, Halon 2402, CAS Number 124-73-2   (1,2-isomer)

Alle 8:30 PM (ora locale), durante la prima prova di immersione, l’attivazione accidentale del sistema di estinzione del sottomarino causò la chiusura ermetica di due compartimenti adiacenti che furono saturati di gas estinguente prima che il personale lì presente potesse essere evacuato. Il dibromotetrafluoroetano, in alte concentrazioni, può causare narcosi, che progredisce per fasi in eccitazione, confusione mentale, letargia e, infine, asfissia. Molti dei feriti hanno sofferto degli effetti delle ustioni da congelamento causate dal gas.

  1. Personnel working in front section of submarine affected when fire extinguishers set off unexpectedly
    2. Affected area may have been sealed off, trapping personnel inside. There were more staff than usual on board as submarine was undergoing tests
    3. Fire extinguishers release freon gas, which displaces breathable oxygen, causing workers to suffocate

http://news.bbc.co.uk/2/hi/europe/7718156.stm

Il dibromotetrafluoroetano è un liquido incolore con punto di ebollizione di 47,2 °C.

Dal 1994 il protocollo di Montreal prevede l’eliminazione, la produzione, l’utilizzo e il commercio delle sostanze dannose per l’ozono stratosferico (ozone-depleting substance, ODS). Il dibromotetrafluoroetano ha un elevato potenziale di distruzione dell’ozono (ozone-depleting potential, ODP).

Il Potenziale di eliminazione dell’ozono (Ozone Depletion Potential o ODP) di un composto indica la capacità di danneggiare lo strato di ozono rispetto a quella esercitata da un composto preso come standard di riferimento, il triclorofluorometano (R-11), cui viene dato il valore di ODP pari a 1,0. Ad esempio, in questa scala, il clorodifluorometano (R-22), ha un ODP di 0,05 mentre il dibromotetrafluoroetano di 6.[1]

Secondo le testimonianze dei sopravvissuti, le vittime non sarebbero state avvertite in tempo perché l’allarme sonoro di segnalazione di pericolo d’incendio sarebbe scattato solo dopo che il gas aveva già iniziato ad essere erogato nei compartimenti. Alcune delle vittime sono state trovate che indossavano i loro kit di respirazione di emergenza mentre altre, si stabilì in seguito, non furono in grado di attivare i kit respiratori d’emergenza prima di rimanere asfissiate.[2]

Gli esperti individuarono due principali spiegazioni del disastro: un malfunzionamento del sistema antincendio di bordo e l’errore umano. Secondo questa seconda ipotesi un membro dell’equipaggio avrebbe attivato il sistema “senza permesso o alcun motivo particolare”.

Questa grave accusa sarebbe però destituita di fondamento perché il membro dell’equipaggio che era stato accusato risultò essere uno specialista esperto e competente. L’attribuzione delle responsabilità all’equipaggio sarebbe il tentativo della marina russa di individuare un “capro espiatorio”[3] Alcuni ufficiali della marina in pensione riferirono alla stampa che era impossibile che una persona soltanto fosse l’unica responsabile dell’incidente perché il sistema antincendio doveva ricevere più livelli di conferma prima di poter essere attivato.

L’incidente al K-152 Nerpa è stato il peggior incidente per la Marina russa dopo la perdita del sottomarino a propulsione nucleare K-141 Kursk avvenuta nel 2000 nel Mare di Barents durante un’esercitazione militare navale in cui perì tutto il suo equipaggio di 118 uomini.

  • (NdP. Un sottomarino a differenza di un sommergibile è una unità che viaggia essenzialmente sott’acqua, con prestazioni migliori che in superficie , mentre il sommergibile, viceversa, è una unità che viaggia essenzialmente in  superficie)

[1]          http://gestis-en.itrust.de/nxt/gateway.dll/gestis_en/031750.xml?f=templates$fn=default.htm$3.0

[2]          Halpin, Tony (13 November 2008). “Crew member blamed for Russian submarine disaster”. London: The Times.

[3]          “Russia accused of cover-up over gassing of 20 sailors on nuclear submarine”, Daily Mail, 13 November 2008.

Il riciclo “di fatto” della plastica.

In evidenza

Claudio Della Volpe

Molti pensano che il riciclo sia fatto una volta che i rifiuti siano separati nei vari cassonetti; poi le famose “mani invisibili”, quelle inventate da Adam Smith, ci penseranno; beh le cose non stanno così.

La separazione dei rifiuti è solo il primo passo, necessario ma non sufficiente; i rifiuti devono poi arrivare in un deposito e successivamente in un luogo di produzione dove l’azione venga perfezionata. (I comuni “ricicloni” non stanno riciclando, stanno solo separando.)

Ora questa strada verso il riciclo è lunga, molto lunga e anche pericolosa per i poveri rifiuti o materie prime seconde, come si dice in politicalcorrettese.

Un esempio di cosa succede ai rifiuti anche nostrani si vede in questo film che potete scaricare o di cui potete vedere qualche fotogramma qui:

La Cina è stata di fatto il deposito intermedio dei rifiuti di mezzo mondo; la cosa dà da “vivere” a un po’ di cinesi ma con qualche problema, tanto è vero che i politici cinesi si sono resi conto che qualcosa non quadrava ed hanno deciso di BLOCCARE, ripeto bloccare, l’import di rifiuti plastici da riciclo dall’Europa dal 1 gennaio di quest’anno di grazia 2018. La cosa ha avuto qualche effetto che adesso analizzeremo brevemente.

Il Corepla (Consorzio nazionale per la raccolta, il riciclo, il recupero degli imballaggi in plastica) scrive in un recentissimo report:

Le aumentate quantità raccolte hanno generato un incremento dei costi di selezione; i costi di recupero sono aumentati in quanto, a seguito della saturazione degli spazi disponibili presso i recuperatori, causata dai volumi provenienti dalla raccolta urbana, sono cresciuti i corrispettivi medi. Questo ha anche generato la necessità di trasferire materiali dal centro-sud al nord, con conseguente aumento dei costi di trasporto.  Laddove ciò non è stato possibile si è reso necessario trasferire del materiale in discarica, con conseguente aumento anche dei costi di smaltimento.”

Dice Il Sole 24 ore: Senza mercato, in Europa i carichi di materiali diventati inutilizzabili vengono deviati verso gli inceneritori affinché almeno vengano ricuperati sotto forma di combustibile di qualità.

http://www.ilsole24ore.com/art/impresa-e-territori/2018-01-12/la-cina-blocca-l-import-rifiuti-caos-riciclo-europa-160732.shtml?uuid=AELQpUhD

Dunque c’è troppo da riciclare e la plastica finisce in…discarica o nell’inceneritore. (Poi dicono che al classico non si impara nulla? Signori miei questo è un esempio di dialettica hegeliana: la negazione della negazione!)

Ma non solo; molto “riciclo” arriva in depositi di materiale plastico che non riescono a perfezionare il passaggio né verso le fabbriche vere e proprie che sono spesso altrove, casomai in Cina, né perfino verso gli inceneritori.

Sempre il solerte giornale di Confindustria ci avverte:

I pochi impianti italiani di ricupero energetico marciano a tutta forza e non bastano;  in una situazione di forte domanda di incenerimento e di poca offerta di impianti di ricupero energetico le tariffe praticate dagli inceneritori salgono a prezzi sempre più alti, oltre i 140 euro la tonnellata.

Già in ottobre Andrea Fluttero, presidente di un’associazione di imprese del riciclo (Fise Unire), aveva avvertito che «purtroppo sta diventando sempre più difficile la gestione degli scarti da processi di riciclo dei rifiuti provenienti da attività produttive e da alcuni flussi della raccolta differenziata degli urbani, in particolare quelli degli imballaggi in plastica post-consumo».

(notate la raffinatezza di quel “di poca offerta di impianti di ricupero energetico” messo lì con nonchalance! E facciamo altri inceneritori, dai!)

Di conseguenza con o senza l’aiuto di malavitosi compiacenti la plastica prende la via dello smaltimento forzato, della “termovalorizzazione obbligata” tramite incendio doloso; nella seconda metà del 2017 il numero di incendi dei depositi di plastica nella zona Lombardo Piemontese è aumentata di quasi il 50%; difficile dimostrarne la origine dolosa, ma come avviene negli incendi dei boschi c’è qualche traccia e soprattutto i numeri parlano chiaro. (Attenzione anche ai depositi di carta e alle cartiere!).

Potete leggere a proposito un recente e brillante articolo comparso sulla cronaca milanese del Corriere del 3 aprile a firma di Andrea Galli (Milano, il «sistema» degli incendi gemelli: affari sporchi nella terra dei fuochi).

(http://milano.corriere.it/notizie/cronaca/18_aprile_03/milano-sistema-incendi-gemelli-affari-sporchi-terra-fuochi-6ab3f2e2-36a0-11e8-a836-1a6391d71628.shtml)

C’è una terra dei fuochi anche nel cuore del triangolo industrializzato, fatta di depositi di plastica (o di carta) che scoppiano anche grazie al divieto cinese, ma non solo, e il cui problema viene risolto bruciando tutto e contando sulle inefficienze o sulle compiacenze dell’apparato statale; l’industria chimica esalta i successi del riciclo, ma i 2700 impianti di deposito plastiche del Nord Italia, sulla via del riciclo, non potendo contare più sulla via della Cina, via alla rovescia, che una volta importava seta ed adesso esporta rifiuti, cercano soluzioni alternative.

Il rischio è che qualcuno (ricordate la frase del Sole citata prima) dica “visto che lo bruciano comunque allora fatecelo bruciare per bene”; col cavolo! rispondo io; la plastica non va bruciata MAI! Riciclare e cambiare la sua produzione e il suo uso.

Dunque paradossalmente il successo della differenziata ha messo in luce un problema serio: la via del riciclo è complessa e costosa; in alcuni casi come il PET, la plastica delle bottiglie di cui abbiamo anche parlato di recente la cosa più o meno funziona, ma di plastiche, al plurale ce ne sono tanti tipi che non sono miscibili fra di loro e il loro riciclo costituisce un serio problema, ancora non risolto.

Paradossalmente il PET è un esempio negativo nel senso che occorrerebbe semplicemente consumarne di meno, usare più acqua del rubinetto e meno acqua da bottiglia, meno acqua minerale. Ma è anche il caso in cui il riciclo viene meglio, il caso guida, anche se con qualche problema di qualità.

Come abbiamo detto altrove il riciclo comincia dalla produzione, la materia deve essere trattata dal momento della prima produzione con l’ottica del riciclo, non si può riciclare tutto (dopo averlo ben mescolato!!!) poichè i costi energetici della separazione, dovuti all’onnipresente effetto del 2° principio della termodinamica sono ENORMI. E d’altronde riciclare non il 100% ma poniamo il 95, non risolve il problema, ma lo sposta nel tempo: 0.9510=0.6 ; se ricicliamo dieci volte di seguito una cosa al 95% alla fine ce ne ritroveremo solo il 60% e dovremo comunque attingere a risorse casomai non rinnovabili o al collasso.

Questo è un analizzatore di colore che separa i flakes di PET (ottenuti per macinazione) per colore, realizzando una parte del costoso processo antientropico di separazione.

La realtà vera è che riciclare è assolutamente necessario, ma COSTA! Servono tecnologie sofisticate e spazio di stoccaggio.

E il costo di questo passaggio epocale al momento non è stato ancora né quantificato né chiarito. Lo spazio grigio viene riempito dalla malavita o da imprenditori di pochi scrupoli. Il successo (inaspettato) del riciclo della plastica deve essere a sua volta “curato” riducendone la produzione e l’uso: imballaggi in numero e quantità eccessivi devono essere eliminati e le tipologie di plastica devono essere scelte con l’occhio al loro fine vita. Per fare un esempio pratico, lo stesso PET nel momento in cui si cerca di esaltarne le caratteristiche aggiungendo altri materiali come nanosilicati, grafene o altri diventa più difficilmente riciclabile; la soluzione non è una strategia supertecno dal punto di vista dello scopo ma molto meno dal punto di vista complessivo dell’economia circolare; cosa faremo quando tutto il PET sarà “caricato” di diversi qualcosa? Sarà ancora riciclabile come adesso?

L’economia circolare non può coincidere col riciclare quello che c’è già, e che si fa come si fa adesso e con i medesimi scopi (mercato, profitto, crescita dei consumi); finora l’industra ha riciclato in quest’ottica (vetro, ferro, alluminio, PET), ma adesso le dimensioni sono diventate planetarie e il metodo tradizionale non funziona più.(D’altronde la “pattumiera” oceanica è satura.)

Ora si deve necessariamente trasformare il contenuto “fisico” dei prodotti e della loro manipolazione e anche in definitiva tutto il nostro rapporto con la Natura: non solo riciclare, ma consumare meno e meglio, riprogettando dal principio ogni materiale ed oggetto che usiamo.

Una rivoluzione. In cui la chimica gioca la parte del leone.

Il clorometano, killer silenzioso dei sommergibilisti italiani.

In evidenza

Mauro Icardi

La seconda guerra mondiale continua ancora oggi ad esercitare interesse ed attenzione. Sia degli storici, ma anche di moltissime persone comuni. Spesso l’interesse non si focalizza sulle vicende storiche o politiche, ma in molti casi sulle vicende quotidiane dei combattenti, oppure sulle caratteristiche tecniche degli armamenti usati in quel conflitto.

Per quanto riguarda l’Italia, è ormai una verità storica che entrò in guerra in maniera affrettata e con una scarsa, se non nulla preparazione militare. Restata inizialmente fuori dal conflitto entra in guerra il 10 Giugno 1940. Povero di materie prime, con un’industria ancora complessivamente debole, provato dal consumo di materiali bellici prima nella guerra italo-etiopica poi nella guerra civile spagnola, il paese non era stato in grado né finanziariamente né tecnicamente di formare un esercito pronto a misurarsi con grandi potenze.

Delle tre armi la marina sembrava essere quella più solida e meglio armata. Ma le deficienze tecniche pesarono anche su di essa. E in particolare sui sommergibili che operarono nell’Africa Orientale Italiana.

Sui sommergibili italiani erano montati impianti di condizionamento dell’aria in cui veniva utilizzato il clorometano (ma in tutte le cronache dell’epoca indicato come cloruro di metile), la cui tossicità e pericolosità si era già evidenziata negli anni precedenti al conflitto.

A differenza di quanto avveniva durante le esercitazioni, durante le azioni di guerra l’impianto di condizionamento dei sommergibili maggiormente sollecitato tendeva a favorire le fughe di gas. Dopo diversi altri incidenti nel 1939 la pericolosità era ormai nota, ma sottovalutata pensando che non si raggiungessero concentrazioni eccessive ed esposizioni prolungate.

L’entrata in guerra vide i sommergibilisti italiani risentire in maniera invece evidente di questo problema.

Se il sommergibile per necessità doveva prolungare l’immersione gli effetti del gas diventavano letali.

Molti membri dell’equipaggio, sia ufficiali che soldati passavano da stati di follia e di perdita di lucidità, fino alla morte a causa dell’atmosfera inquinata all’interno dei sommergibili. Se per ovviare a questo problema si disponeva lo spegnimento prudenziale dell’impianto le condizioni ambientali diventavano insopportabili. Sul sommergibile Perla in camera di lancio la temperatura arriva a toccare i 64°C.

E le fughe di gas porteranno ad una strage di mezzi e di uomini.

Il sommergibile Archimede partì per la sua prima missione il 19 giugno 1940, ma dovette rientrare ad Assab (Eritrea) dopo una settimana perchè le perdite di cloruro di metile avevano ucciso sei uomini; ventiquattro marinai rimasero gravemente intossicati e otto impazzirono. L’apparato di condizionamento fu poi modificato sostituendo il cloruro di metile con il freon.

Il sommergibile Macallè partito da Massaua il dieci giugno 1940, giorno della dichiarazione di guerra finì incagliato il giorno 14 davanti al faro di Hindi Giber. Erano intossicati tutti gli ufficiali e quasi tutto l’equipaggio. Si verificarono casi di impazzimento e delirio.

Questa erano le condizioni in cui i nostri soldati dovettero combattere in guerra. E la vicenda dei sommergibili non fu purtroppo l’unica. Dopo queste intossicazioni su alcune unità si sostituì il clorometano con il Freon. Esiste un progetto di crowfunding patrocinato da “Produzioni dal basso” che vuol produrre un documentario dal titolo “Tornando a casa” e riportare nel cimitero di Castiglione Falletto in provincia di Cuneo i resti del marinaio Carlo Acefalo, morto per intossicazione sul sommergibile Macallè. La madre Cichina (diminutivo di Francesca) aspettò invano il suo ritorno, e poi la restituzione della salma. E morta nel 1978 indossando al collo un ciondolo con la foto di Carlo.

Scienziate che avrebbero potuto vincere il Premio Nobel: Marguerite Perey (1909-1975 )

In evidenza

Rinaldo Cervellati

Marguerite Perey ha scoperto l’elemento chimico francio nel 1939. Il Francio, numero atomico 87, è stato l’ultimo elemento scoperto in natura. Tutti gli elementi identificati successivamente sono stati prodotti artificialmente in laboratorio.

Marguerite Perey nasce il 19 ottobre 1909 a Villemoble una cittadina poco fuori Parigi situata vicino all’Istituto del Radio di Marie Curie. E’ la figlia più piccola di un proprietario di un mulino e di una casalinga. Da ragazza vorrebbe seguire gli studi per frequentare poi la facoltà di medicina, ma l’improvvisa morte del padre lasciò la famiglia in difficoltà finanziarie tanto che la madre si vide costretta a impartire lezioni private di pianoforte per tirare avanti. Marguerite frequentò allora un istituto professionale per tecnici chimici, diplomandosi con il massimo dei voti.

Marguerite Perey

L’Istituto del Radio assumeva ricercatori e tecnici da tutto il mondo, Perey era una giovane ragazza del luogo risultata la più brava della sua classe e fu quindi chiamata per un colloquio nel 1928. Ecco come racconterà successivamente alla bisnipote il primo impatto con Maria Curie[1]:

Senza un suono, qualcuno entrò nella stanza come un’ombra. Era una donna vestita interamente di nero. Aveva i capelli grigi, raccolti in una crocchia, portava occhiali spessi e era di un estremo pallore. Trasmetteva un’impressione di estrema fragilità. Pensai che fosse una segretaria, poi mi resi conto di essere alla presenza proprio di Marie Curie.

A quei tempi Marie Curie era già una figura di grande spicco e impatto mediatico, quasi mistico: aveva isolato due nuovi elementi (polonio e radio), vinto due Premi Nobel, incontrato due presidenti USA, fondato l’Istituto del Radio insieme alla figlia Irène e al genero Frédéric Joliot, era chiamata Nostra Signora del Radio, perché le applicazioni medicali di questo elemento erano note al grande pubblico.

A Marguerite l’incontro fece quasi paura, disse[1]: Lasciai quella casa buia, persuasa che fosse per la prima e ultima volta. Tutto mi era sembrato malinconico e cupo e fui sollevata nel pensare che senza dubbio non sarei tornata.

Ma aveva torto, infatti diversi giorni dopo ricevette una lettera che le comunicava che era stata assunta. Fu subito messa a un lavoro di notevole impegno chimico, estrarre, concentrare e purificare le piccole quantità di attinio[1] contenute nella pechblenda, un minerale grezzo di uranio nel quale i Curie avevano in precedenza scoperto il polonio e poi il radio. Le quantità via via ottenute venivano quindi controllate da Curie che ne studiava e caratterizzava la radioattività. In questo lavoro Perey si dimostrò così abile che Curie la nominò sua personale assistente preparatore.

Marguerite Perey (seconda da sinistra) in laboratorio con la collega Sonia Cotelle nel 1930

Alla morte di Maria Curie, nel 1934, Perey continuò il lavoro sull’attinio sotto la supervisione di André Debierne e Irène Joliot-Curie e per le sue notevoli capacità di ricerca fu promossa al grado di radiochimico.

Nel 1935, a 26 anni, Perey lesse un articolo di ricercatori statunitensi che affermavano di aver rilevato particelle beta emesse dall’attinio. Perey sapeva tutto sull’attinio, forse meglio di chiunque altro al mondo, ci lavorava da sette anni. Pensò che i ricercatori americani probabilmente avevano torto sull’attinio come fonte di particelle beta con l’energia di decadimento riportata nell’articolo.

Sospettava che l’attinio stesse decadendo in un altro atomo responsabile dell’emissione beta con quella energia. Decise pertanto di preparare un campione di attinio ultra-puro e di studiarne le radiazioni prima che formasse altri prodotti di decadimento. Ciò era eccezionalmente difficile: il campione di attinio ultra-puro avrebbe dovuto essere preparato e la sua radiazione studiata in un brevissimo arco di tempo. Perey preparò il campione ultra-puro e fece la sua scoperta cruciale: una piccola frazione – circa l’1% – della radioattività totale dell’attinio proveniva dall’emissione di particelle alfa (nuclei di elio), non di particelle beta. Come noto una particella alfa è composta da 2 protoni e 2 neutroni. L’attinio è l’elemento 89 nella tavola periodica, il che significa che emettendo una particella alfa perde 2 protoni e diventa un atomo con 87 protoni, l’elemento 87.

Nel 1939 la casella 87 nella tavola periodica era ancora vuota. Sebbene si sospettasse che esistesse, nessuno era stato ancora in grado di trovarlo. Perey aveva scoperto un nuovo elemento! Il nuovo elemento si era formato dall’emissione alfa degli atomi di attinio.

Espulsione α e decadimento Attinio → Francio

Con 87 protoni il nuovo elemento apparteneva al gruppo 1 della tavola periodica, unendosi agli altri metalli alcalini: litio, sodio, potassio, rubidio e cesio. Perey chiamò Francio il nuovo elemento in onore del suo Paese di nascita [2].

Meno di 30 grammi di francio naturale sono presenti sulla Terra a ogni istante perché sebbene sia costantemente prodotto dal decadimento radioattivo dell’attinio, esso subisce costantemente un decadimento radioattivo nei suoi prodotti derivati. La sua emivita non è lunga, circa 22 minuti.

Perey sperava che il nuovo elemento sarebbe stato utile nei trattamenti contro il cancro, sfortunatamente avvenne proprio l’opposto.

Dopo essersi aggiunta all’ élite di scienziati che hanno scoperto un elemento chimico, Marguerite Perey si dedicò a ottenere un dottorato di ricerca alla prestigiosa Sorbona di Parigi. L’assegnazione di un dottorato di ricerca non era in dubbio, perché la tesi descriveva la sua scoperta di un nuovo elemento. Il problema era che non aveva abbastanza titoli di scuola superiore per essere ammessa alla Sorbona. La Sorbona si rifiutava di assegnare il dottorato di ricerca a persone prive dei requisiti di ingresso richiesti, anche se avevano scoperto un nuovo elemento!

Copertina della tesi di dottorato, 1946

Così, durante gli anni della seconda guerra mondiale, Perey trascorse del tempo seguendo corsi alla Sorbona per ottenere l’equivalente di un diploma B.S. Dopo averlo ottenuto, le fu assegnato il dottorato, che le fu conferito nel 1946.

Con il suo dottorato Perey divenne ricercatore senior presso l’Istituto del Radio. Ha continuato a lavorare lì fino a quando, nel 1949, a 40 anni, ottenne la cattedra di Chimica Nucleare presso l’Università di Strasburgo. È stata nominata capo del dipartimento di chimica nucleare di quella università dove ha continuato il suo lavoro sul francio. Ha fondato un laboratorio che nel 1958 è diventato Laboratory of Nuclear Chemistry nel Centre for Nuclear Research, di cui pure è stata direttore.

Il gruppo di ricerca all’Istituto del Radio. Sedute, da sinistra: M. Perey, L. Razet, I. Archinard e S. Cotelle. In piedi, da sinistra: A. Régnier, A. Yakimach, R. Grégoire, R. Galabert, T. Tcheng e Frédéric Joliot-Curie. Collezione Credit Musée Curie / ACJC

Ironia della sorte, sperava che il francio aiutasse a diagnosticare il cancro, ma in realtà era esso stesso cancerogeno e Perey sviluppò un cancro alle ossa che alla fine la uccise.

Dal 1950 al 1963, Perey ha fatto parte della Commissione sui Pesi Atomici.

Nel 1962 è stata la prima donna ad essere eletta all’Accademia delle Scienze francese, onore negato perfino a Marie Curie. Oltre a questa, ha ottenuto altre onoreficienze e premi fra cui il Premio Lavoisier della Società Chimica Francese, la medaglia di ufficiale della Legion d’Onore, il Premio Le Conte dell’Accademia Francese delle Scienze.

Marguerite Perey è morta a 65 anni il 13 maggio 1975. Come Marie Curie e molti altri scienziati che avevano lavorato presso l’ Istituto del Radio, morì per una malattia legata alle radiazioni. In effetti, il suo corpo è risultato essere insolitamente radioattivo. Dalla fine anni ’40 era stata determinante nell’introduzione di migliori misure di sicurezza nei laboratori sotto il suo controllo. Tristemente, era troppo tardi per salvarsi la vita, ma fu un salvavita per le future generazioni di scienziati nucleari.

Incredibilmente, all’estrema pericolosità dei radioisotopi fu inizialmente posta scarsa attenzione, anzi furono prese poche misure di sicurezza anche nelle applicazioni pratiche. La bisnipote di Marguerite Perey ricorda nella biografia della bisnonna [1], il caso delle lavoratrici della fabbrica statunitense Radium Corporation di Orange, N.J., che nel 1917 iniziò ad assumere giovani donne per dipingere i quadranti degli orologi con vernice radioluminescente. Alle ragazze fu detto che la vernice era innocua. Ma negli anni che seguirono, le donne cominciarono a soffrire di deterioramento fisico, accompagnato da anemia, necrosi e infine tumori. Il sensazionale caso giudiziario iniziato – e vinto – dalle moribonde Radium Girls, come venivano chiamate, è un punto di riferimento nella storia della medicina del lavoro. Ciò accadde nel 1928, quattro mesi prima che Marguerite Perey arrivasse all’Istituto Radium per iniziare una carriera di trent’anni di forte esposizione alle radiazioni.

Infine, va ricordato che Perey è stata candidata al Nobel cinque volte, nel 1952 il Comitato Nobel decise che i suoi studi sul francio valevano indubbiamente la pena di essere riconosciuti, ma non rientravano nell’importanza necessaria per un premio Nobel [3].

Ulteriori notizie biografiche su Marguerite Perey sono contenute in: Marguerite Perey.” Famous Scientists. famousscientists.org. 7 Dec. 2014 https://www.famousscientists.org/marguerite-perey/

Bibliografia

[1] V. Greenwood, My Great-Great-Aunt Discovered Francium. And It Killed Her., The New York Time Magazine, December. 3, 2014

https://www.nytimes.com/2014/12/07/magazine/my-great-great-aunt-discovered-francium-and-it-killed-her.html

[2] a) M.Perey, Sur un élément 87, dérivé de l’actinium., Comptes-rendus hebdomadaires des séances de l’Académie des sciences, 1939, 208, 97. b) M. Perey, Francium: élément 87., Bulletin de la Société chimique de France, 1951, 18, 779. c) M. Perey, On the Descendants of Actinium K: 87Ac223., Journal de Physique et le Radium, 1956, 17, 545.

[3] E. Norrby, Nobel Prizes and Nature’s Surprises, World Scientific Publishing Co., Singapore, 2013.

[1] Elemento radioattivo scoperto nel 1899 da André-Louis Debierne (1874-1949) chimico francese, amico e collaboratore dei Curie.

ancora: Jean-Pierre Adloff†and George B. Kauffman, Francium (Atomic Number 87), the Last Discovered Natural Element  Chem. Educator 2005, 10, 387–394 387

La chimica delle uova di Pasqua e altre storie.

In evidenza

Claudio Della Volpe

Le uova di Pasqua sono una tradizione che risale a ben prima della cultura cristiana.

Dioniso con l’uovo e il càntaro, IV sec. a.C. Parigi, Louvre | © RMN

Il Dioniso di Tanagra (Beozia, dove Dioniso sarebbe nato) figura tombale o quello del Louvre, che mostrano un uovo, ricordano l’uso di donare uova (casomai colorate o dipinte) come augurio di fecondità e salute all’inizio della primavera, tradizione che risale al primo millennio a.C. (Egitto, Persia). Solo poi, nella cultura cristiana, l’uovo, apparentemente minerale, ma che nasconde la vita, acquista il senso della rinascita dalla morte e, dunque, della resurrezione.

Le uova di cioccolata invece sono un prodotto recente non foss’altro perchè la cioccolata è stata importata in Europa come dolce frutto dello scambio “colombiano” di cui abbiamo parlato in altro post. E infine solo il macchinismo industriale le ha rese comuni perchè lavorare l’uovo di cioccolata a mano non è certo semplice: roba da re al tempo del Re Sole, le uova di cioccolata diventarono comuni solo dopo la 2 guerra mondiale dalle nostre parti.

Eppure uova colorate cuocendole con foglie e fiori opportuni erano comuni già nel medioevo. Insomma, a parte il simbolismo, le uova colorate e la chimica che c’è dietro sono un prodotto “popolare” dell’”oscuro” medioevo tedesco. (ma poi perchè il medioevo è sempre oscuro?).

Hieronymus Bosch, Concerto nell’uovo, Lille, Palais des Beaux-Arts | © RMN - 
Copia anonima del XVI sec. Fra gli altri significati di quest'opera perduta 
l'uovo potrebbe essere il contenitore  dell'Universo, un contenitore dove 
il chimico ermetico mette a reagire gli elementi creandone una sinfonia,
un pò folle.

La parola “Ostern” in tedesco non si riferisce all’origine greca e latina della festa ebraica per celebrare l’emigrazione degli ebrei dall’Egitto, ma si riferisce invece alla dea “Ostara”. Nella Germania delle figurine bruciate negli “Osterfeuer” (fuochi di Pasqua), pratica molto popolare nel nord del paese ma nota anche in altre regioni, (figurine che erano simboli dell’inverno e bruciate dopo la “Tag-und-Nacht-Gleiche” (giorno e notte dell’equinozio)), lo “Osterhase” (Coniglio di Pasqua), che “nasconde” dolciumi (soprattutto uova di Pasqua di cioccolata) è più popolare dell’agnello come animale simbolico della Pasqua. Già, ma come si fanno le uova colorate e come funziona il meccanismo di colorazione delle uova? Ovviamente c’è un meccanismo base di assorbimento della superficie dell’uovo che è porosa. Ma non solo.

Hamilton, R. M. G. (1986) “The Microstructure of the Hen’s Egg Shell – A Short Review,” Food Structure: Vol. 5: No. 1, Article 13.

Available at: http://digitalcommons.usu.edu/foodmicrostructure/vol5/iss1/13

https://www.researchgate.net/publication/51895246_The_eggshell_structure_composition_and_mineralization/figures       Figure 4. Artistic rendition of cross-sectional view of chicken eggshell. The major morphological features are labelled.

Questo bel grafico lo troviamo su Chemical and Engineering News; il metodo è semplice ed è spiegato bene qui.

Il guscio dell’uovo di gallina è fatto principalmente di carbonato di calcio e, immergendolo in un acido debole come l’aceto, si hanno due effetti:

1) il guscio reagisce con l’acido producendo diossido di carbonio gassoso (vedrete formarsi delle bollicine sulla superficie dell’uovo). Il guscio inizia a sciogliersi il che ne acccresce l’area e ne espone una maggiore superficie al contatto con l’esterno.S. O’Malley su https://www.sciencefriday.com/educational-resources/eggs-to-dye-for/

2) le proteine nella sottile cuticola del guscio reagiscono con l’acido debole e si protonano, acquistano ioni idrogeno e dunque cariche positive in eccesso. Sono proprio queste cariche positive a legare le molecole di colorante se queste sono caricate negativamente come quelle che sceglierete opportunamente seguendo i consigli di C&En News.S. O’Malley su https://www.sciencefriday.com/educational-resources/eggs-to-dye-for/

Ovviamente potrete sperimentare usando acidi deboli diversi come quelli elencati qui sotto (aspirina, succo d’arancia, aceto o vitamina C; o altri) e diversi coloranti che si usano in cucina.Fra i coloranti da cucina: succo di barbabietola, di carota o di cavolo rosso, curcumina dalla curcuma, le antocianine del vino o dei mirtilli, il succo di altri frutti o il thè o il caffè, succo di pomodoro, etc.

Una volta che sarete diventati esperti con questi metodi potrete andare oltre le uova di Pasqua e far cambiare il colore del thè aggiungendo un acido o una base (succo di limone, soda Solvay (carbonato di sodio) o bicarbonato) oppure perfino il colore dei fiori come le ortensie facendo cambiare l’acidità del terreno.

Provate e sappiatemi dire.

Un enzima per la degradazione e riciclaggio del polietilene tereftalato (PET)

In evidenza

Rinaldo Cervellati.

La notizia è riportata da Melissae Fellet in uno speciale dell’ultimo numero di Chemistry & Engineering News on-line (28 febbraio 2018).

Ricercatori americani sono riusciti a inserire uno zucchero in un enzima batterico che potrebbe migliorarne la capacità di degradare il polietilene tereftalato (PET), favorirne il riciclo, evitando quindi che finisca in discarica (Abhijit N. Shirke et al., Stabilizing leaf and branch compost cutinase (LCC) with glycosylation: Mechanism and effect on PET hydrolysis, Biochemistry, 2018, DOI: 10.1021/acs.biochem.7b01189).

Le bottiglie di acqua minerale, bevande, shampoo, ecc. in polietilene tereftalato (PET), una delle plastiche più comuni e usate, vengono in genere riciclate macinandole in piccole scaglie, che vengono poi utilizzate per fabbricare prodotti come contenitori di plastica, tappeti, e altri materiali. Ma alcuni di questi manufatti non possono più essere riciclati e finiscono nelle discariche o nell’ambiente. Usando enzimi per degradare il PET in glicole etilenico e acido tereftalico, i riciclatori potrebbero usare gli ingredienti recuperati per produrre nuove bottiglie di plastica della stessa qualità. Tale processo consentirebbe di riciclare ripetutamente il materiale, contribuendo a risolvere il problema sempre crescente dei rifiuti di plastica.

Rifiuti di plastica

I funghi fitopatogeni responsabili di alcune malattie delle piante usano enzimi chiamati cutinasi per saponificare gli esteri contenuti nella cutina danneggiando così i tessuti vegetali. Sebbene di origine non ben chiara le cutinasi sono simili a enzimi batterici. E’ noto che le cutinasi, particolarmente quella delle foglie (LCC), possono anche “digerire” il PET scomponendolo nei suoi ingredienti monomerici. Le cutinasi degradano il PET più efficacemente a circa 75 ° C, una temperatura alla quale le catene di PET si allentano aprendo spazi fra di esse. Le cutinasi vanno a occupare questi spazi e fanno il loro lavoro degradando la plastica. Tuttavia l’enzima non funziona a lungo a queste temperature perché inizia a aggregarsi con se stesso inattivandosi.

Nel lavoro citato all’inizio, Richard A. Gross del Rensselaer Polytechnic Institute a Troy NY, responsabile della ricerca e i suoi collaboratori hanno cercato di impedire alla LCC di formare questi aggregati inattivi.

Il Gruppo del Prof. Gross (al centro)

Essi hanno pensato di inserire zuccheri in posizioni strategiche, in modo da mantenere intatta la struttura dell’enzima anche a temperature elevate, creando cioè barriere fisiche che rendessero più difficile la formazione degli aggregati.

Sebbene i batteri non rivestano naturalmente le loro proteine ​​con zuccheri, come invece succede per le cellule eucariote, i ricercatori hanno notato tre siti sulla cutinasi in cui le cellule eucariote potrebbero aggiungere una breve stringa di zuccheri. Utilizzando tecniche di ingegnera genetica hanno programmato un lievito, eucariota, per produrre una cutinasi batterica originariamente isolata da microbi trovati nel compost di foglie e rami. Dopo aver prodotto la cutinasi, le cellule hanno naturalmente glicosilato l’enzima nei siti previsti.

Struttura della cutinasi glicosilata: in rosso i siti glicosilati, in verde i siti attivi

I ricercatori hanno purificato la cutinasi glicosilata e ne hanno valutato la tendenza all’aggregazione studiando la luce diffusa attraverso una soluzione dell’enzima a varie temperature.

La cutinasi glicosilata ha iniziato ad aggregarsi e disperdere la luce a temperature intorno agli 80 ° C, mentre l’enzima non glicosilato ha diffuso molta più luce a partire da 70 ° C, formando anche ammassi visibili in alcuni test. La cutinasi glicosilata, lavorando a temperatura e concentrazione ottimali, ha degradato più PET rispetto alla proteina non glicosilata.

La maggiore stabilità e attività della cutinasi glicosilata è un grande passo avanti verso l’ottimizzazione dell’enzima al fine di una sua commercializzazione, dice Gross.

“Questa tecnologia potrebbe contribuire a rendere più degradabile una delle plastiche maggiormente utilizzate”, afferma Lucia Gardossi dell’Università di Trieste, che utilizza gli enzimi per produrre plastiche rinnovabili.

Non molto tempo fa la Cina riciclava circa la metà dei rifiuti di plastica e carta del pianeta. Ma l’anno scorso, la Cina ha vietato l’importazione di 24 tipi di rifiuti solidi, lasciando gli altri Paesi alla ricerca di soluzioni efficaci per smaltire montagne di plastica.

Montagna di rifiuti di plastica

“Il problema dei rifiuti di plastica è così urgente, e lo sviluppo di soluzioni per la gestione della plastica così veloce, da farmi ritenere che un enzima efficace come questo troverà applicazioni pratiche in poco tempo”, ha detto Gardossi.

*Tradotto e adattato da c&en news, web: February 28, 2018

Cosa vogliamo scegliere?

In evidenza

Mauro Icardi

Ho ritrovato recentemente in un angolo della mia libreria, un numero della rivista “Urania” risalente al 1977. E’ il primo volume dei racconti di Isaac Asimov intitolato “Antologia del bicentenario”.

Più che i racconti ho trovato molto interessante la rilettura di un articolo che Asimov scrisse originariamente nel 1975 intitolato “ Best foot backward “ e che in Italiano è stato tradotto “Cosa sceglierete?

Il noto scrittore britannico di fantascienza, ma anche divulgatore scientifico, in questo articolo si schiera apertamente a favore della ricerca scientifica, e delle ricadute che essa ha avuto sulla nostra vita quotidiana, in particolare nel miglioramento delle sue condizioni.

Asimov oltre ad essere considerato uno dei maggiori scrittori di fantascienza, era anche un biochimico.

E in questo articolo fa due esempi legati in qualche modo alla chimica, che ci mostrano come non sempre le scelte siano facili, e come il giudizio su di esse debba essere meditato.

Il primo esempio che ho trovato molto interessante riguarda il chimico italiano Ascanio Sobrero e le sue ricerche sulla nitrazione di composti organici, che portarono alla sintesi prima della piroglicerina e successivamente della nitroglicerina. Sobrero però rimase molto colpito dagli incidenti che si potevano verificare nella manipolazione di questo prodotto. Decise quindi di studiarne altre proprietà in particolare quella di essere utile per la vasodilatazione sanguigna a basso dosaggio in campo farmacologico, nel trattamento delle insufficienze cardiache. Nello stesso periodo Alfred Nobel che soggiornava in quel periodo in Piemonte si dedicò a portare avanti lo studio degli esplosivi ed in particolare della nitroglicerina riuscendo a perfezionarne l’uso attraverso l’invenzione delle cartucce di dinamite, riempite di farina fossile o di segatura. L’industria degli esplosivi diventò quindi una realtà. Nel 1873 la fabbrica Dinamite Nobel di Avigliana entrò in funzione. Entrambi gli scienziati, soprattutto Nobel furono tormentati dal possibile utilizzo a scopi bellici delle loro scoperte. E Alfred Nobel decise per questa ragione di istituire il premio intitolato al suo nome. Certamente per lasciare un ricordo migliore di se.

Asimov però nel suo articolo ci ricorda come l’utilizzo della dinamite sia servito anche per rendere meno faticoso per esempio lo sviluppo delle reti ferroviarie.

Per secoli i lavori di edificazione di qualunque tipo di manufatto (Asimov cita per esempio l’edificazione di edifici) si erano serviti di una massa di operai non qualificati, ma prima ancora di schiavi. Quindi l’invenzione degli esplosivi non può essere vista unicamente in maniera negativa. Purtroppo la tendenza ad utilizzare le nuove invenzioni per scopi di guerra ed aggressione è un tema che deve essere affrontato probabilmente da etica e filosofia. Ma la storia della creazione dell’industria degli esplosivi ben si presta a far comprendere quanto non sia possibile esprimere giudizi affrettati su quanto la ricerca produce. E in particolare la ricerca in chimica.

Una seconda parte dell’articolo poi prende in esame l’aumento della vita media, dovuto allo sviluppo delle reti fognarie e dell’ingegneria ambientale. Ricordando che prima di queste realizzazioni molte malattie rendevano la vita più breve e meno piacevole. La difterite per esempio.

L’articolo riletto oggi è nel suo complesso attuale, forse un po’ troppo improntato ad un’esaltazione quasi positivistica del progresso scientifico. Ma è una lettura che fa riflettere. Senza tutte le scoperte degli ultimi due secoli, abbiamo mai provato ad immaginare quale potrebbe essere la nostra vita? Senza medicinali, reti fognarie, e per restare a scoperte in campo prettamente chimico la nostra stessa vita di relazione che si è modificata per esempio dopo l’introduzione della pillola anticoncezionale.

Tutto questo oggi è messo in discussione da problemi che ci pressano. E che si possono riassumere in un solo grande problema. La necessità di capire che non possiamo oltrepassare i limiti fisici su questo pianeta. Dobbiamo diventare parsimoniosi e capire che possiamo vivere in modo da garantire a tutti un tenore di vita accettabile, e ridurre alcune macroscopiche diversità. Ma rileggere questo articolo mi ha in qualche modo dato la possibilità di trovare il modo di rispondere a chi, quando si parla di questi temi non ha altre argomentazioni che quella di tacciarmi da retrogrado. Ed allo stesso tempo un articolo che può aiutare a confutare alcune tendenze odierne decisamente pericolose. Perché Asimov cita anche i progressi della medicina dovuti a Jenner inventore del vaccino e a Pasteur cui dobbiamo l’invenzione della moderna microbiologia.

Asimov chiude l’articolo con queste parole.

Adesso tiriamo le somme. La grande strada presa dalla scienza e dalla tecnologia moderne può anche non piacervi. Ma non ne esistono altre. Quindi potete scegliere: una vittoria possibile con la scienza e la tecnologia, o una sicura disfatta senza di loro. Che cosa scegliete?

Mai come adesso dobbiamo essere coscienti del tenore di vita di cui abbiamo potuto godere, almeno nel mondo occidentale. Ora dobbiamo affrontare cambiamenti che potrebbero modificare le nostre abitudini. E cambiare le abitudini è sempre faticoso, a qualunque livello. Ma dobbiamo in ogni caso utilizzare le conoscenze che già possediamo, orientandole verso queste nuove sfide. Cedere alle mitizzazioni non credo porti da nessuna parte.

 altri articoli sul tema:

https://ilblogdellasci.wordpress.com/2013/10/03/i-due-volti-della-chimica/

https://ilblogdellasci.wordpress.com/2013/05/02/molecole-a-due-facce/

 

Scienziate che avrebbero potuto vincere il Premio Nobel: Isabella Karle (1921-2017)

In evidenza

Rinaldo Cervellati

Il 3 ottobre dello scorso anno (2017), all’età di 95 anni è deceduta Isabella Helen Lugosky Karle che diede fondamentali contributi all’elucidazione di strutture molecolari con la tecnica dello scattering dei raggi X. Suo marito, Jerome Karle (1918-2013), ottenne il Premio Nobel per la Chimica nel 1985 insieme a Herbert Aaron Hauptman (1917-2011) per i loro successi nello sviluppo dei metodi diretti per la determinazione delle strutture dei cristalli.

Isabella Helen Lugosky nasce il 2 dicembre 1921 a Detroit da genitori immigrati polacchi, il padre dipingeva le lettere e i numeri dei tram della città, la madre gestiva un ristorante e cuciva tappezzerie di interni di auto per le case automobilistiche di Detroit. Frequentò le locali scuole pubbliche dove una insegnante di chimica la incoraggiò a approfondire lo studio delle scienze. Fu influenzata in questo senso anche dalla lettura di una biografia di Marie Curie, unica persona e donna a vincere due Premi Nobel, uno per la Fisica (1903), l’altro per la Chimica (1911), originaria della Polonia come i genitori di Isabella.

Terminato il liceo frequentò l’Università del Michigan, grazie a una borsa di studio. Scelse come materia principale chimica fisica, ottenendo il B.Sc. nel 1941 ancora dicannovenne e il Master nell’anno successivo. Durante gli studi incontrò Jerome Karle anche lui studente di chimica fisica. I due si sposarono nel 1942. Entrambi ebbero come supervisore delle loro tesi per il dottorato Lawrence Olin Brockway[1]. Isabella conseguì il Ph.D. nel 1944.

Isabella Lugosky Karle

Durante la 2a Guerra mondiale, Isabella lavorò, al Progetto Manhattan (una delle poche donne ammesse al Progetto), mettendo a punto tecniche per ottenere cloruro di plutonio da minerali contenenti l’ossido. Per qualche tempo insegnò chimica all’Università del Michigan.

Isabella Karle mentre fa lezione

Nel 1946 trovò impiego nel Laboratorio di Struttura della Materia del Naval Research Laboratory riunendosi così al marito Jerome che già vi lavorava da due anni. All’inizio si dedicò allo studio della struttura di molecole allo stato di vapore attraverso la diffrazione elettronica, logica continuazione del suo lavoro di tesi. Ben presto però si mise a collaborare alla ricerca del marito che stava esplorando, insieme al collega H.A. Hauptman, la possibilità di sfruttare lo scattering (diffrazione) dei raggi X per determinare le posizioni degli atomi nelle molecole in vari stati di aggregazione, gas, liquidi, solidi amorfi.

Mi occupo della parte pratica del progetto mentre Jerome di quella teorica, insieme formiamo una buona squadra che necessita di entrambe le competenze, disse Isabella [1].

Isabella e Jerome Karle al NRL

Prima del lavoro dei Karle e di Hauptman, i cristallografi potevano indagare le strutture cristalline e molecolari solo attraverso il processo lungo e laborioso della riflessione dei raggi X esaminando gli schemi di riflessione delle sostanze colpite dai raggi.

La messa a punto degli apparecchi a diffrazione e il trattamento analitico delle immagini di scattering permise la delucidazione più semplice e “diretta” delle strutture cristalline e molecolari, risparmiando tempo e guadagnando in precisione.

Per molti anni, questo metodo fu praticamente ignorato da molti scienziati.

È stato il lavoro di Isabella a richiamare l’attenzione sulla sua utilità, attraverso l’analisi e la pubblicazione delle strutture molecolari di molte migliaia di molecole complicate [2].

Isabella Karle mostra una struttura molecolare

Isabella Karle infatti mise a punto procedure pratiche basate sul lavoro teorico sviluppato dal marito per la determinazione delle fasi direttamente dalle intensità misurate degli scattering dei raggi X. Queste procedure sono state in seguito adottate in tutto il mondo e sono state essenziali per l’enorme diffusione della diffrattometria a raggi X per la soluzione di problemi in una vasta gamma di discipline scientifiche: chimica, biochimica, biofisica, mineralogia, scienza dei materiali, prodotti farmaceutici, drug design e chimica medicinale, solo per citarne alcune. Isabella Karle ha applicato personalmente il metodo alla delucidazione delle formule molecolari e alla determinazione delle conformazioni di steroidi, alcaloidi, prodotti di fotoriarrangiamento causati da radiazioni, nanotubi e in particolare peptidi. Questo tipo di informazioni strutturali ha fornito le basi per la chimica computazionale, le analisi conformazionali e la previsione delle proprietà di nuove sostanze. Ha pubblicato più di 350 articoli scientifici, in particolare sul Journal of the American Chemical Society e Acta Crystallographica.

Instancabile Isabella…

Quando Jerome Karle ricevette il Nobel nel 1985, disse che sperava che un giorno l’onore sarebbe spettato anche a Isabella.

All’Associated Press affermò: Non riesco a pensare a nessuno che sia più qualificato di mia moglie [1].

Va ricordato in particolare che Isabella Karle è stata una pioniera nella strutturistica di piccole molecole biologiche applicando il metodo con cui sono state poi verificate importanti ipotesi sulla struttura e funzione dei peptidi. Senza i suoi contributi pionieristici in questo campo, gran parte del lavoro che seguì non sarebbe stato possibile [2].

Isabella Karle ha ricevuto molti riconoscimenti per le sue ricerche, fra i quali il Premio Garvan dell’American Chemical Society, il Premio Gregori Aminoff dalla Società Reale Svedese, la Medaglia Bijvoet dalla Società Reale Olandese, nonché otto lauree ad honorem. E’ stata eletta membro della National Academy of Sciences, dell’American Academy of Arts and Sciences e della American Philosophical Society. Ha ricoperto il ruolo di Presidente dall’American Crystallographic Association. Nel 1993 è stata insignita del prestigioso Premio Bowe e del Premio per l’Avanzamento della Scienza dal Franklin Institute, nel 1995 ha ricevuto il premio National Academy of Sciences in Scienze chimiche e la National Medal of Science dal Presidente Clinton. Infine, nel 2007 ha ricevuto il Premio Merrifield dalla American Peptide Society.

Per più di 60 anni ha lavorato al Naval Research Laboratory insieme al marito. Entrambi si ritirarono nel 2009, in occasione del pensionamento la Marina USA organizzò una particolare cerimonia nella quale fu consegnata a entrambi la medaglia e il Certificato di Navy Distinguished Civilian Service, il più alto riconoscimento che la Marina USA può conferire a un dipendente civile.

Jerome e Isabella Karle alla cerimonia del pensionamento

Jerome Karle è morto nel 2013, Isabella Lugosky Karle, ritiratasi in una Casa di riposo di Alexandria in Virginia, si è spenta il 3 ottobre 2017.

Bibliografia

[1] E. Langer, Isabella Karle: Chemist who revealed molecular structures and helped husband win Nobel prize. Obituary. The Washington Post, 15 November 2017.

http://www.independent.co.uk/news/obituaries/isabella-karle-chemist-who-revealed-molecular-structures-and-helped-husband-win-nobel-prize-a8055781.html

[2] D. McKinney, Jerome and Isabella Karle Retire from NRL Following Six Decades of Scientific Exploration, US Naval Research Laboratory, press release, July 21, 2009.

https://www.nrl.navy.mil/media/news-releases/2009/jerome-and-isabella-karle-retire-from-nrl-following-six-decades-of-scientific-exploration

 

[1] Lawrence Olin Brockway (1907-1979), chimico fisico statunitense ha fatto tutta la carriera all’Università del Michigan, dove ha sviluppato le prime tecniche di diffrazione elettronica.

Giornata mondiale dell’acqua 2018 “La natura per l’acqua”

In evidenza

Mauro Icardi

Anche quest’anno si celebra la giornata mondiale dell’acqua. Il tema di quest’anno è “Acqua e natura”, ovverosia ricercare soluzioni basate sulla natura per affrontare le sfide idriche del nuovo millennio.

L’appuntamento annuale, sia pur simbolico va ovviamente ricordato. Dovrebbe servire a ricordarci che l’acqua è un bene indispensabile per la vita umana. Imprescindibile.

Credo che molte, troppe, persone si dimentichino di questo concetto di base, distratti dal semplice gesto di aprire un rubinetto e vedere scorrere l’acqua. Senza chiedersi cosa ci sia dietro, quali risorse in termini monetari e di personale qualificato siano necessarie per la corretta gestione. Ho sostenuto diverse volte, sulle pagine di questo blog, come sul tema acqua si faccia spesso confusione, e in qualche caso anche dell’inutile demagogia. Mi rendo conto che troppo spesso informazioni che oggi chiamiamo bufale o fake news, e che una volta avremmo definito chiacchiere da bar hanno purtroppo maggior riscontro di interesse ma provocano notevoli danni, che spesso sembra rendano inutili gli sforzi di informazione e di divulgazione. E’ un problema che ovviamente coinvolge tutte le tematiche riguardanti i temi ambientali. Qualcosa che i tecnici o i ricercatori non possono risolvere da soli, senza l’aiuto determinante di chi si interessa del comportamento umano. Io ho ricordi personali di come mia nonna, che già anziana doveva pescare acqua dal pozzo della cascina dove viveva, e che per questa ragione poneva molta attenzione all’uso che faceva dell’acqua. Anche nelle pratiche di irrigazione, dell’orto e dei vasi di fiori che disponeva sui davanzali. Questo ricordo è stato utile e formativo. Anche se succedeva nel Monferrato negli anni 70 e non in un paese africano ai giorni nostri.

Da tecnico mi sono reso conto che molte volte gli appelli al risparmio idrico vengano colpevolmente sottovalutati, anche se nutro fiducia che questo tipo di malcostume dovrà cessare.

La scorsa estate è stata significativa in questo senso, basta andare a rivedere le cronache per rendersene conto.

Tra le iniziative che si possono segnalare quella che si terrà a Roma a cura dell’Istituto Superiore per la protezione e la ricerca ambientale.

http://www.sinanet.isprambiente.it/gelso/eventi/xviii-giornata-mondiale-dell2019acqua-2018

I temi del convegno si focalizzano sulla corretta gestione delle acque sotterranee destinate al consumo umano. Quelle che necessitano di maggior protezione dalle contaminazioni di agenti inquinanti.

Oltre a questo i prelievi eccessivi, per esempio l’acquifero di Ogallala negli Stati Uniti dove i prelievi di acqua cosiddetta fossile (e quindi non rinnovabile) ammontano circa 26 km3 all’anno (consumo stimato nel 2000).

Sappiamo da anni che occorre incrementare non solamente il risparmio, ma il riuso e la diversa destinazione di vari tipi di acqua. Non ha molto senso utilizzare acqua potabile per i servizi igienici.

Il tema acqua e natura allarga la visuale anche alla protezione dei corsi d’acqua, delle aree umide. E si lega a quello dell’inquinamento ambientale in senso più ampio.

La natura ci ha già dato una mano in passato, considerando che per esempio le tecniche di depurazione classiche sono nate proprio trasferendo in impianti dotati di depurazione quelli che sono i processi autodepurativi naturali. Attualmente queste tecniche sono supportate da altre innovative, che migliorano il processo nel suo insieme. Ma nessuna tecnica, qualunque essa sia, potrà funzionare se non ci si rende conto di quanto sia importante l’acqua. Che è un diritto non solo per noi esseri umani, ma per le comunità ecologiche in generale. Questo credo vada sottolineato, perché spesso è un concetto dimenticato e non conosciuto. Per chiudere occorre anche doverosamente ricordare l’impegno che il settore chimico ha per la protezione dell’acqua. Non fosse altro che per il controllo a livello analitico di inquinanti vecchi e nuovi, che devono essere monitorati. Per i nuovi limiti di concentrazione e di rilevabilità che dal punto di vista quantitativo sono sempre più bassi.

Non siamo ovviamente i soli che si devono occupare di questo tema, ed è fondamentale la collaborazione con altre discipline scientifiche e tecniche. Anche questa collaborazione è imprescindibile. E in ultimo l’appello che sempre mi sento di dover ripetere. La collaborazione sia a scopo operativo, che divulgativo con le scuole e le Università. Educazione idrica e ambientale diffusa. A partire dalle scuole elementari. Quando ho tenuto lezioni nelle scuole ho sempre riscontrato interesse e arricchimento reciproco.

Auguro a tutti una buona giornata dell’acqua. Per chiudere ci sarebbero moltissimi aforismi che si prestano.

Ma questo tratto da “La ballata del vecchio marinaio” di Samuel Taylor Coleridge credo sia il più adatto.

“Acqua, acqua ovunque. E non una goccia da bere”

Entropia e biosfera.2.

In evidenza

Claudio Della Volpe

Continuiamo a presentare la relazione fra la biosfera e il flusso entropico che la attraversa, la cui prima parte è stata presentata qui. Il flusso di entropia può essere visualizzato molto più semplicemente dell’entropia stessa che appare un concettto molto astratto.

Dato che le sue dimensioni sono quelle di una energia diviso una temperatura diviso un tempo, il flusso di entropia corrisponderà a quello di una potenza diviso una temperatura; se la temperatura del sistema o della sua interfaccia è costante la potenza dissipata dal sistema sarà di fatto proporzionale al flusso entropico.

La biosfera, il sistema Terra, come lo abbiamo definito nel post precedente è di fatto una gigantesca macchina termica che trasforma in energia meccanica, potenziale e chimica la radiazione che arriva dal Sole e anche l’ormai flebile flusso di calore proveniente dal’interno della pianeta. In realtà quel flusso di entropia ha il suo corrispondente, il suo alter-ego diciamo così in quella che noi chimici chiamiamo energia libera, produzione di entropia e grandi gradienti di energia libera che lo sostengono: produzione e flusso di entropia e flusso di potenza che gli corrisponde.

Quanto è grande questo flusso?

Si sente spesso dire che il flusso di energia solare è decine di migliaia di volte superiore a quello che usiamo perciò non dobbiamo preoccuparci: se passiamo alle rinnovabili non avremo più problemi di energia. Ma è così?

Vediamo da vicino.

Certo se stimiamo la quantità netta di energia che arriva dal Sole essa è veramente grande, ma quanta di quella energia si può effettivamente sfruttare? In genere le macchine termiche tradizionali, quelle dotate di due sorgenti una calda ed una fredda hanno un limite di trasformazione che è dato dal famoso teorema di Carnot.

Efficienza= 1-Tbassa/Talta

Di fatto il criterio di Carnot è solo un limite teorico insuperabile; ma esistono altri criteri che consentono di arrivare semplicemente più vicino alla realtà della cose; uno di questi criteri è il cosidetto criterio endoreversibile (AJP, Courzon e Ahlborn, vol. 43 p. 22, 1975) frutto del cosiddetto approccio della termodinamica a tempo finito. L’idea di base è che per avere potenza da una macchina termica occorre considerare dei salti finiti di temperatura e che se si semplificano le condizioni di calcolo considerando ideale la macchina in se e attribuendo la irreversibilità al solo salto termico per di più semplificato considerando degli scambiatori “lineari” ossia in cui la trasmissione del calore è proporzionale al salto termico è possibile arrivare ad una condizione concreta: se la macchina termica così concepita lavora alla massima potenza, allora la sua efficienza effettiva diventa

Efficienza= 1-√(Tbassa/Talta).

Dato che le moderne macchine termiche sono il frutto di oltre due secoli di perfezionamenti e i materiali degli scambiatori sono anch’essi sofisticati l’approssimazione funziona alla grande, anche se pochi testi di fisica tecnica ne fanno menzione; in pratica gli ingegneri snobbano questo approccio mentre i teorici come Callen lo hanno accolto a braccia aperte (Callen, Thermodynamics and an introduction to thermostatistics, 2 ed. p. 125-127, 1985)

Per poter applicare questa stima al nostro caso, alla nostra particolare macchina termica, però dovremmo dimostrare che valgono le condizioni che ho detto prima.

Sulla approssimazione lineare del trasporto di calore nel nostro caso essa è certamente grossolana, anche se considerando valori medi la cosa è certamente applicabile; mentre è più facile immaginare di essere in una situazione di massima potenza e dunque di massima entropia prodotta.

Non ci sono criteri assoluti di evoluzione nei sistemi lontani dall’equilibrio, ma va facendosi strada l’idea che se c’è un numero sufficientemente alto di gradi di libertà l’evoluzione di un sistema seguirà la regola della massima produzione di entropia (MEPP); attenzione non confondete questa idea con quella di Prigogine, valida solo per i sistemi stazionari, in quel caso il sistema produce la minima quantità di entropia compatibile, ma quello è un sistema stazionario.

Dopo tutto l’idea della MEPP è una sorta di generalizzazione del 2 principio; nei sistemi isolati il sistema evolve verso il massimo di entropia; l’evoluzione verso il massimo seguirebbe a sua volta una legge di massimo: va verso il massimo di entropia e ci va alla massima velocità possibile; ripeto non ci sono dimostrazioni, si tratta di una proposta che di fatto è entrata a far parte di alcuni dei sistemi più importanti lontani dall’equilibrio, come quelli ecologici, ma non abbiamo dimostrazioni valide in assoluto (si pensi qui al principio di Odum , principio della massima potenza o anche al caso del teorema di Thevenin per i circuiti elettrici; la massima potenza di una batteria si ottiene quando la resistenza interna e quella esterna sono uguali; mi piace anche ricordare qui la discussione a riguardo di Enzo Tiezzi e Nadia Marchettini in un loro indimenticato libro di qualche anno fa (Che cos’è lo sviluppo sostenibile?: le basi scientifiche della sostenibilità …Donzelli Ed. 1999)

Con queste due ipotesi tuttavia il calcolo è facile: al confine fra Sistema Terra e spazio esterno che viene arbitrariamente posto sulla superficie dove il flusso di radiazione solare in ingresso eguaglia quella terrestre in uscita si hanno, tenendo conto della riflessione dell’albedo circa 235W/m2, come spiegato nel post precedente.

La superficie di cui parliamo è poco più di 500 milioni di chilometri quadri e dunque l’ordine di grandezza della potenza in ingresso è di 100.000 TW, centomila terawatt!! Contro questa sta il consumo di energia primaria dell’uomo di circa 18TW di potenza equivalente*; poco, ma abbiate pazienza, c’è un trucco o due da tener presenti:

  • anzitutto tutta questa energia che entra nella macchina termica usa come piastra calda una sorgente che è alla temperatura media della Terra, molti chilometri più in basso; è lì che la radiazione si assorbe, la temperatura per effetto serra è di circa 15°C, ossia 288K; alla superficie di uscita invece dove effetto serra non ce n’è la temperatura media è stimabile in 254K circa; dunque la nostra macchina che efficienza avrebbe in termini endoreversibili? Beh circa il 6%, perchè 1-√(Tbassa/Talta).=1- √(254/288)= 0.06 dunque solo 6000 TW arrivano come energia meccanica e servono prima di tutto a rimescolare l’atmosfera! A questa quantità occorre sommare sostanzialmente l’energia radiante catturata come fotosintesi, 200TW, e il debole flusso dal centro della Terra, ma sono solo 40TW, è un flusso che ci mette anni a forgiare la forma del pianeta e secoli ad accumulare l’energia meccanica che si scarica poi nei terremoti e nelle eruzioni.
  • L’umanità usa 18TW di energia primaria, intesa come potenza media continua, ma di fatto ne usa di più; perchè per esempio in questa potenza non c’è la quota di energia solare catturata nel nostro cibo; non c’è la quota di energia solare necessaria a pompare l’acqua come pioggia verso la sommità dei nostri bacini di accumulo e tanti altri servizi naturali che di fatto sfruttiamo di “stramacchio”; in totale Kleidon stima la quota di potenza umana media continua a circa 50TW, pensate più di quella che l’interno della Terra cede alla superficie!

Ora facciamo qualche precisazione; questa descrizione che vi ho fatto è una forma diversa da quella usata da Kleidon nei lavori che ho già citato e che ricito qui; ho cercato di essere molto semplice e ho usato un paio di strade concettuali che probabilmente non sono mai state pubblicate per questo scopo, e il mio risultato è uguale quello di Kleidon, che fa però un modello più dettagliato e preciso.

Dalla seguente figura vedete subito i rapporti espressi come potenze istantanee in terawatt e se li intendete come flussi di energia libera (per unità di tempo ovviamente) e li dividete per la temperatura assoluta dissipati dai vari processi avrete i flussi di entropia corrispondenti.

Dunque l’umanità non è tanto piccola; la quota di potenza catturabile qui giù in fondo all’oceano atmosferico non può superare i 6000TW; di questi la fotosintesi vecchia di miliardi di anni ne cattura 200 circa e noi ne rubiamo 50 in due quote: una relativa a quella che la fotosintesi aveva accumulato negli ultimi 400 milioni di anni come combustibili fossili ed un’altra che intercettiamo come servizi di mobilità di acqua e materiali vari (vento, onde, pioggia, etc)che trasformiamo in idroelettrico,eolico e altre cosette tipo cibo per 7 miliardi e mezzo; in tutto sono 50TW (18 è solo energia primaria esplicita diciamo così).

50TW sono all’incirca l’1% del totale di energia libera disponibile (sempre per unità di tempo), ma è molto di più se si pensa che la quota di attività fotosintetica intercettata ad ogni ciclo è dell’ordine del 15-20%. La biomassa terrestre dei vertebrati è praticamente tutta al nostro servizio, ne abbiamo il 98% (uomo e animali domestici mentre i leoni gli elefanti e i lupi e gli orsi sono il 2% e vogliamo anche ammazzarli ancora). Ma anche quella oceanica è talmente sovrasfruttata da essere ridotta al lumicino; dobbiamo interrompere la pesca ogni anno in molte zone per consentire un ripopolamento appena sufficiente.

Certo in una visione dysoniana (la sfera di Dyson ricordate?) potremmo sostituirci alla grande macchina termica; volete sapere come? Beh piazziamo alcune centinaia di milioni di chilometri quadri di pannelli al bordo dell’atmosfera; intercettiamo così il 20% dell’energia in arrivo, sono 20.000TW, energia elettrica pura mica quella povertà di 6000TW attuali da macchina termica!) e li usiamo noi per fare tutto: moto ondoso, venti, monsoni, luce diretta, tutto controllato da una adeguata intelligenza artificiale; vi sembra abbastanza grandioso?

A me sembra una follia ma il fatto è che siamo diretti da quelle parti se continuiamo a crescere così, e sono sicuro che troverei qualcuno che mi finanzierebbe una ricerca in merito. Povero me!!

Voi che ne dite?

* per avere il consumo annuo dovete moltiplicare questo numero per quello dei secondi: 18TWx31.5 milioni di secondi= oltre 500 exajoule

Riferimenti:

1) Axel Kleidon

Phil. Trans. R. Soc. A 2012 370, doi: 10.1098/rsta.2011.0316, published 30 January 2012

2) A.Kleidon R.D.Lorenz (Eds.)

Non-equilibrium Thermodynamics and the Production of Entropy

Life, Earth, and Beyond, Springer 2005

3) . Kleidon Physics of Life Reviews 7 (2010) 424–460

Una riflessione sulle Università (ed i loro musei).

In evidenza

Luigi Campanella, già Presidente SCI

L’attuale situazione dell’Università è caratterizzata da problemi nazionali relativi sia agli aspetti giuridico-istituzionali che a quelli economico-finanziari sia infine a quelli di rete, quella degli Atenei essendo caratterizzata da troppe macroscopiche differenze fra i suoi poli per essere un Sistema.

In più la riforma dei cicli didattici-sulla quale pesano ancora alcuni dubbi circa il suo reale interesse verso le esigenze del Paese, degli studenti, e soprattutto del territorio- non ha rinforzato il legame di questo con gli Atenei che su di esso insistono, mentre tale legame sarebbe una garanzia ad una visione articolata del suddetto Sistema.

Si pensi alle specificità locali in termine di differenza di impegno industriale, tradizioni sociali e culturali, di risorse endogene.

Quanto detto riguarda anche la Chimica ed i suoi corsi di laurea, ma rivendico per essi un risveglio culturale che credo dovrebbe essere assunto anche in altri settori. Se andiamo ad osservare la trasformazione della lauree in chimica e chimica industriale negli ultimi 60 anni possiamo affermare che essa ha soprattutto riguardato lo sforzo di coniugare un’impostazione precedente prevalentemente disciplinare con una tematica, nella convinzione che la conoscenza non possa essere smembrata in informazioni; da qui l’impegno ad aggregare queste attorno alle tematiche sociali e culturali del nostro tempo.

Questa impostazione punta a creare nei giovani una sensibilità nuova. Un esempio recente riguarda il riconoscimento della laurea in chimica fra quelle di interesse sanitario: mai ciò sarebbe potuto avvenire solo 30-40 anni fa, a quel tempo prevalendo un’impostazione di colonizzazione della scienza e della ricerca. Vorrei che tale processo sia sostenuto dalle forze industriali e sindacali, che si riapproprino di una visione della formazione e dell’educazione dei giovani che non sia solo strettamente didattica, ma anche culturale.

Peraltro il recupero delle esigenze culturali è di certo una delle caratteristiche del nostro tempo. Tale recupero è avvenuto, e sta avvenendo, non in chiave elitaria – se così fosse esso resterebbe un fenomeno tanto limitato nel tempo, nello spazio e nei riflessi di costume da costituire oggetto di studi piuttosto che di interesse sociale – ma con una dimensione di partecipazione e di iniziative che ha coinvolto non soltanto le istituzioni “pertinenti”, ma anche istanze del lavoro e della società.

In questo senso un ruolo particolare assumono, o meglio dovrebbero assumerere, le proiezioni di queste in quelle; ed allora quando ci si muove all’interno di strutture culturalmente avanzate ci si viene a trovare nella condizione ideale per concretizzare tali proiezioni.

Questo dovrebbe essere colto da chi si trova in questa fortunata situazione. Con tali premesse si comprende come, dinnanzi alle novità che l’attuale contingenza prevede e consente con la rivoluzione telematica, con i totem di Industria 4.0 e web 3.0, con le nuove capacità di rete e partecipazione, sia forse giunto il momento di una vertenza “cultura”, con un coordinamento scientifico attorno ad iniziative su Arte e Scienza, superando la discrasia fra Facoltà Scientifiche ed Umanistiche, su Ambiente e Territorio superando quella fra discipline soft e discipline hard, su tecnologie ICT integrando piuttosto che tagliando il rapporto con alcune istituzioni anche universitarie, telematiche, sui musei universitari e cultura,superando la visione storicamente solo artistica del ns Paese.

http://news.mytemplart.com/it/arte-e-scienza-le-universita-investono-musei-e-gallerie-scientifiche/

I Musei Universitari rappresentano una preziosa risorsa culturale e scientifica del nostro Paese. La qualità di collezioni, strumenti, pezzi unici in essi raccolti è riconosciuta dagli addetti, ma soltanto di recente intorno ad essi si è andato costituendo un notevole interesse civile e sociale. Al tempo stesso si assiste ad un altro fenomeno: il turismo sempre più assume connotati anche culturali ed i tour operator sempre con maggiore frequenza inseriscono- a richiesta dei loro utenti- la visita di musei scientifici, oltre che di arte, come nella tradizione più riconosciuta del nostro Paese,all’interno dei loro programmi ed itinerari. In tale doppio contesto una rete di musei universitari attiva in tutto il territorio nazionale può rappresentare preziosa occasione di diffusione della cultura delle nostre tradizioni artistiche e scientifiche ed al tempo stesso una fonte di risorse.

Gli alberi e le siepi Lego vengono dalla canna da zucchero.

In evidenza

Rinaldo Cervellati

Lego plants to be made from plants è il titolo originale e accattivante di una interessante notizia riportata da Chemistry & Engineering news on-line del 6 marzo scorso, a firma Alex Scott.

Lego, la società danese di giocattoli, famosa per i suoi mattoncini di plastica, ha iniziato a fabbricare gli elementi botanici, come foglie, cespugli e alberi, con polietilene (PE) ottenuto dalla lavorazione della canna da zucchero.

L’iniziativa è un primo passo del piano annunciato dalla società nel 2015 per ridurre il suo impatto sull’ambiente eliminando gradualmente la plastica derivata da combustibili fossili. Il PE non è però impiegato per gli altri mattoncini iconici e da costruzione, che sono ancora costituiti da acrilonitrile-butadiene-stirene (ABS), un copolimero di tre prodotti della petrolchimica.

Il fornitore del polietilene “organico” è l’azienda brasiliana Braskem, titolare di un processo per convertire l’alcol etilico dalla canna da zucchero in etilene, il monomero del polietilene. Lo zucchero sarà certificato come materia prima nella produzione di “bio”polietilene da Bonsucro, un’organizzazione per l’uso sostenibile dello zucchero di canna.

Piantagione di canna da zucchero

Secondo la Braskem, ogni tonnellata di “bio”polietilene prodotto consuma 3,09 tonnellate di metri cubi di anidride carbonica dall’atmosfera.

Inizialmente, la Lego userà il “bio”polietilene solo per gli elementi botanici, ovvero l’1-2% delle sue parti in plastica.

“Siamo orgogliosi che i primi elementi Lego realizzati con materie plastiche di origine sostenibile siano in produzione e quest’anno saranno presenti nelle scatole Lego”, afferma Tim Brooks, vice presidente dell’azienda per la sicurezza ambientale.

Tim Brooks

Lego non si è pronunciata sull’estensione del biopolietilene anche agli altri elementi iconici e ai mattoncini. Trovare il materiale giusto per tutti presenta una particolare sfida. Nel 2012, Styrolution, uno dei fornitore di ABS alla Lego, ha dichiarato a C&EN che la materia prima deve avere determinate specifiche in modo che i blocchi si incastrino senza uno sforzo eccessivo che potrebbe danneggiarli. Il polietilene, che non è resistente come l’ABS, potrebbe non possedere questa caratteristica sostiene Styrolution.

Nel 2014, Lego ha utilizzato 77.000 tonnellate di materie prime per realizzare oltre 60 miliardi di pezzi. Braskem ha la capacità di produrre 180.000 tonnellate all’anno di “bio”polietilene nello stabilimento di Rio Grande do Sul, in Brasile.

Lego, nell’annunciare l’iniziativa del polietilene “organico”, si è comunque impegnata a investire 150 milioni di dollari e assumere più di 100 dipendenti per la ricerca e lo sviluppo di materie prime sostenibili per sostituire i polimeri a base di derivati del petrolio entro il 2030.

Lego ha collaborato con il World Wildlife Fund e con Bioplastic Feedstock Alliance al progetto. “La decisione del Gruppo Lego di proseguire la ricerca di materie plastiche da materie prime sostenibili rappresenta un’incredibile opportunità per ridurre la dipendenza da risorse limitate”, ha affermato Alix Grabowski, senior program officer del WWF.

(Fin qui il testo è Tradotto e adattato da c&en news, march 6, 2018.)

Ma non è tutto oro quello che luccica, già nel 2013 uno studio di Valutazione del Ciclo di Vita (LCA = Life Cycle Assessment) del biopolietilene fu commissionato dalla Braskem alle E4tech e LCAworks [1]. Queste valutazioni hanno lo scopo di esaminare la somma delle emissioni e l’impatto ambientale totale dalla materia prima (in questo caso la canna da zucchero) alla fine del prodotto dopo l’uso (riciclaggio, compostaggio, discarica). Sia questo studio, sia le successive indagini condotte da gruppi di ricerca in scienze ambientali europei [1] e americani [2] evidenziarono alcune criticità, quali ad esempio la deforestazione per dare spazio a colture intensive di canna da zucchero, l’uso di fertilizzanti e pesticidi nelle colture stesse, l’impiego di energia da combustibili fossili per la trasformazione dello zucchero in alcol etilico e poi in etilene e nel polimero, ecc. Tutto ciò avrebbe ridotto di molto il vantaggio di una minor emissione di CO2 nell’atmosfera.

I suggerimenti per limitare questi svantaggi sono ridurre il più possibile le sorgenti delle criticità e valutare il modo migliore di smaltimento, fra riciclaggio e compostaggio.

Nota. A costo di sembrare ovvio, a beneficio dei non chimici che ci leggono desidero ricordare che il polietilene si ottiene dall’etilene (entrambi prodotti chimici) attraverso un processo chimico che chiamiamo polimerizzazione. Il fatto che l’etilene si ottenga da derivati del petrolio o dalla canna da zucchero e che il prodotto lo si chiami polietilene o biopolietilene non cambia nulla nella sua struttura chimica a parità di numero di etileni nel prodotto stesso. Quello che cambia è l’impatto ambientale che potrebbe essere minore nel caso di etilene ottenuto dalla canna da zucchero (attraverso procedimenti chimici).

Bibliografia

[1] [1] http://www.braskem.com.br/Portal/Principal/Arquivos/ModuloHTML/Documentos/1204/20131206-enviro-assessment-summary-report-final.pdf

[2] I. Tsiropolous et al. Life cycle impact assessment of bio-based plastics from sugarcane Ethanol., Journal of Cleaner Production, 2015, 90, 114-127.

[3] T.A.Hottle, M. M.Bilec, A. E.Landis, Biopolymer production and end of life comparisons using life cycle assessment., Resources, Conservation and Recycling, 2017, 122, 305-326.

Acque amare

In evidenza

Mauro Icardi

Nella mia formazione personale il tema della tutela delle risorse idriche e dell’inquinamento idrico è presente direi da quando ho iniziato il percorso scolastico, cioè dalla scuola elementare. Oltre ad aver seguito lezioni scolastiche, ero interessato e mi preoccupavo di questo tema.

Gli anni 70 come sappiamo sono stati quelli in cui per la prima volta il tema dell’inquinamento ( non solo quello idrico) arrivò anche all’opinione pubblica. Finendo poi per diventare un mantra al quale forse troppi si sono abituati. A distanza di decenni la situazione della risorsa idrica mostra sia segnali incoraggianti, che situazioni molto preoccupanti che dovrebbero essere valutate con attenzione. E a cui si dovrebbero destinare finanziamenti e risorse.

In Italia per molti anni, leggendo libri sia di divulgazione, che testi scolastici o universitari si citavano molto spesso i fiumi Lambro, Seveso, Olona come i casi più eclatanti di inquinamento. Ma anche il caso del fiume Po. La promulgazione della legge Merli diede l’avvio alla costruzione dei depuratori, ai controlli sugli scarichi. Fu un importante primo passo. Che di solito è sempre il più faticoso.

Ma se a distanza di decenni osserviamo la situazione a livello mondiale, possiamo constatare che c’è ancora molto lavoro da fare.

Molti fiumi in tutto il mondo sono sottoposti a grave stress per diverse ragioni. Inquinamento, pesca, dighe e canali artificiali sono le principali cause dello sconvolgimento di interi ecosistemi che si sono sviluppati nel tempo lungo i corsi d’acqua.  Alcuni fiumi sono ancora oggi l’esempio di quello che per noi furono i fiumi Italiani. Ed è abbastanza sconfortante, anzi piuttosto triste vedere che ci sono alcuni fiumi in condizioni davvero molto precarie.

Il Rio Bravo o Rio Grande è il più importante confine naturale tra gli Stati Uniti e il Messico: a causa della costruzione di dighe e canali di irrigazione per deviare le acque verso i campi coltivati e le città, gravi siccità hanno colpito l’area. Il volume del grande fiume diminuisce giorno per giorno, e le sue acque sono inquinate dagli scarichi di varie industrie.

Il Danubio soffre di un eccesso di nutrienti, soprattutto da fertilizzanti. A questo problema si aggiunge un cattivo trattamento delle acque reflue, che aumenta l’inquinamento.

Un bambino nuota nel Gange, fiume sacro per gli indiani

 Il fiume Gange è poi l’esempio di una forte contraddizione. Situato nel nord dell’India, questo fiume, considerato sacro per milioni di indiani che vi si recano in pellegrinaggio, è diventato una discarica di resti umani, industriali e corpi animali. Circa un miliardo di litri di liquami non trattati vengono scaricati ogni giorno nel fiume. La rapida crescita della popolazione dell’India, insieme a normative permissive del settore, ha portato enormi pressioni sul corso d’acqua più importante del Paese. Migliaia di corpi umani e animali vengono cremati sulle sue rive o gettati nella corrente, nella speranza che le loro anime possano accedere al Paradiso.

Per chiudere questo triste elenco (per altro del tutto parziale) possiamo ancora citare il fiume Yangtze.

 Rifiuti, pesticidi e fertilizzanti hanno quasi annientato il fiume più lungo del continente asiatico. Dalla sua origine nell’altopiano del Tibet, lo Yangtze si estende per quasi 6.400 chilometri, sfociando nel mare dal porto di Shanghai. La sua devastazione è stata causata dallo sviluppo di infrastrutture, di centrali idroelettriche, inondazioni, deforestazione, inquinamento, sedimentazione, distruzione delle zone umide e interruzione dei flussi idrici.

Tutto questo lascia perplessi. Si sono ripetuti negli anni errori già fatti. Eccessiva costruzione di dighe che hanno finito per modificare l’equilibrio idrogeologico. La considerazione totalmente sbagliata, ma che si sarebbe già dovuta superare che esistesse un potere autodepurativo o di diluizione degli scarichi praticamente infinito. Ma se tutto questo poteva essere comprensibile a metà ottocento, quando il fenomeno chiamato la “grande puzza di Londra” diede il primo segnale di allarme dell’effetto disastroso dei reflui non trattati nelle acque di un fiume, questa situazioni oggigiorno lasciano sbigottiti.

Il fiume Yangze presso Shangai

 E ovvio che si debbano adottare tutte le misure del caso. E che questo lavoro debba coinvolgere più soggetti in un grande lavoro. Ma rimane come sospeso il problema fondamentale. Che a mio parere non credo sia esagerato definire antropologico, ancor prima che sociale. La presa di coscienza che occorre che siano cambiati diversi atteggiamenti. Che insistere nel considerare i fiumi i collettori di scarico non solo dei nostri rifiuti metabolici , o dei nostri residui industriali, ma anche della nostra incapacità di immaginare e costruire un nuovo modo di pensare a come utilizziamo le risorse del pianeta, in special modo quelle non rinnovabili. Qualcuno potrebbe obbiettare che in teoria l’acqua non è una risorsa non rinnovabile, ed avrebbe ragione. L’acqua ha un ciclo. Ma questo ciclo è ormai disequilibrato. Esistono innumerevoli tecniche di trattamento delle acque. Alcune sono tecniche mature, altre emergenti. Ma è un errore concettuale grave quello di affidare le nostre speranze, in maniera acritica alla sola tecnologia. E quindi le riserve di acqua di buona qualità vanno tutelate. E vanno differenziati gli usi dell’acqua. Occorre un cambiamento di mentalità, ed occorre iniziare il prima possibile a metterlo in pratica. La chimica ha davanti a se la necessità di modificare i propri cicli di produzione, attivandosi per trovare il modo di non produrre molecole biorefrattarie. Lo sta già facendo attraversando un suo cambiamento intrinseco. Ma non può essere vista come la sola responsabile. E’ importante un grande mutamento che per prima cosa ci faccia riscoprire il valore della consapevolezza. Tutto dovrebbe partire da questo. Dal ritornare a guardare la realtà delle cose.

Scienziate che avrebbero potuto vincere il Premio Nobel: Katharine Blodgett (1898-1979)

In evidenza

Rinaldo Cervellati

Anche questo nome figura fra le donne che la sessione “Ladies in Waiting for Nobel Prizes” nel meeting dell’American Chemical Society (agosto 2017) ha inserito fra le scienziate che avrebbero meritato il Premio Nobel. Chi era Katharine Blodgett e quali contributi ha fornito per l’avanzamento della scienza? Ne parliamo in questo post.

Katharine Burr Blodgett nasce a Schenectady il 10 gennaio 1898 (stato di New York), seconda figlia di Katharine Burr e George Blodgett. Suo padre, un avvocato specializzato in brevetti per la General Electric, fu tragicamente ucciso da un ladro penetrato nella loro casa poche settimane prima della nascita di Katharine. Lasciò la sua famiglia in buone condizioni economiche, consentendole di trasferirsi a New York poco dopo la nascita della figlia, e poi in Francia nel 1901.

Undici anni dopo, nel 1912, la famiglia Burr Blodgett tornò a New York dove Katharine fu iscritta alla Rayson School. In questa scuola ricevette un’istruzione equivalente a quella dei maschi della sua età mostrando subito un interesse per la matematica. La giovane finì precocemente il liceo all’età di 15 anni, ottenendo una borsa di studio per il Bryn Mawr College.

Katharine Burr Blodgett

Al college studiò matematica e fisica, eccellendo in entrambe e cominciò a pensare cosa avrebbe desiderato fare dopo il diploma. Era interessata alla ricerca scientifica e nella pausa invernale dell’ultimo anno di college gli ex-colleghi di suo padre le presentarono il Dr. Irving Langmuir[1] ricercatore chimico al General Electric Research Laboratory at Schenectady [2]. Langmuir le fece visitare la struttura rendendosi subito conto delle attitudini e del potenziale della ragazza, poi definita da lui sperimentatore di talento con una rara combinazione di abilità teoriche e pratiche. Le consigliò quindi di proseguire gli studi e poi presentare domanda di impiego alla General Electric. Blodgett seguì il consiglio ottenendo dapprima il B.A. al Bryn Mawr e poi il M.Sc. in fisica all’Università di Chicago nel 1918 discutendo una ricerca sulle capacità di adsorbimento del carbone per maschere antigas. Nel 1920 fu assunta come assistente ricercatrice di Langmuir, prima donna ricercatrice nei laboratori della General Electric. Inizialmente Blodgett collaborò alle ricerche di Langmuir sull’adsorbimento e evaporazione dei gas sui filamenti di tugnsteno usati nelle lampadine. Langmuir si stava occupando anche di chimica delle superfici liquido – liquido, in particolare era riuscito a ottenere strati sottilissimi di olio su superfici acquose e Blodgett si concentrò attivamente in questo campo dove diede successivamente suoi contributi originali.

Nel contempo le fu offerta una partecipazione nel programma di dottorato in fisica dell’Università di Cambridge, ottenne il dottorato nel 1926, prima donna a ricevere un Ph.D. in fisica da quella Università. Fra il 1920 e i primi anni ‘30 pubblicarono insieme importanti lavori, uno dei quali sulla forma a molla del tungsteno per mantenere sempre tesi i filamenti [1-4].

Svilupparono una tecnica che permetteva di ricoprire superfici acquose, metalliche o vetrose con strati monomolecolari di lipidi, proteine o polimeri e di verificarne lo spessore [5].

Nel 1932 Lagmuir aveva ottenuto il Premio Nobel per la Chimica per le sue ricerche sperimentali e teoriche sulla chimica delle superfici.

Blodgett continuò, estendendolo, il lavoro sulla deposizione di successivi strati monomolecolari di varie sostanze su superfici di materiali diversi. Nella nota a piede della prima pagina del suo fondamentale articolo del 1935 [6], Blodgett scrive:

Gli esperimenti descritti in questo articolo sono stati avviati in collaborazione con il Dr. Irving Langmuir e sono proseguiti mentre lui era all’estero. L’autrice è in debito con il dottor Langmuir per averla spinta a sviluppare ulteriormente il metodo descritto nell’articolo precedente*, e per aver contribuire con molti importanti suggerimenti che sono inclusi in questo lavoro[6].

*Con articolo precedente Blodgett si riferisce a una nota preliminare da lei inviata alla stessa rivista e pubblicata l’anno precedente [7].

Nell’articolo viene descritto lo strumento e la tecnica per sovrapporre rivestimenti monomolecolari uno alla volta su vetro o metallo. Immergendo ripetutamente una piastra metallica in acqua ricoperta da uno strato di sostanza grassa (molecole a terminazione idrofila e coda idrofoba), Blodgett riuscì a impilare centinaia di strati di sostanza sulla piastra con precisione molecolare. L’apparecchio usato e perfezionato da Blodgett è oggi conosciuto come trogolo di Langmuir-Blodgett (trough).

Schema e apparecchio di Langmuir-Blodgett

Blodgett individuò i possibili usi pratici di questa tecnica: utilizzando lo stearato di bario ricoprì una lastra di vetro su entrambi i lati con strati monomolecolari di questa sostanza fino a che la luce riflessa dagli strati annullasse quella riflessa dal vetro, rendendolo più trasmettente del 90% rispetto a prima. Aveva realizzato un vetro “invisibile” [8]. Il vetro non riflettente fu usato per la prima volta in cinematografia negli obiettivi delle cineprese per il famoso film Via Col Vento (1939), la nitidezza dei colori fece molta presa sul pubblico e sugli addetti ai lavori, sicchè l’industria presto cominciò a fare largo uso del vetro di Blodgett.

Durante la 2a Guerra mondiale il vetro antiriflesso fu impiegato anche nei periscopi dei sommergibili e per le telecamere degli aerei da ricognizione. Blodgett contribuì inoltre allo sforzo bellico riprendendo la sua vecchia tesi di master, rese più efficaci i filtri delle maschere antigas e inventò un dispositivo per eliminare il ghiaccio dalle ali degli aerei permettendo ai piloti volare su zone prima considerate troppo pericolose.

Blodgett inventò anche l’indicatore di colore, uno strumento per misurare lo spessore dei rivestimenti molecolari depositati sul vetro. Questo “calibro” si basa sul fatto che spessori diversi dei rivestimenti imprimono al vetro colori diversi. Mentre esaminava la stratificazione dell’acido stearico su una lastra di vetro, si rese conto che l’aggiunta di ogni strato, spesso circa 2 / 10.000.000 di pollice (circa 2 nm), cambiava in modo percettibile il colore della lastra. Prima della sua invenzione, i migliori strumenti di misurazione erano accurati fino a pochi millesimi di centimetro. Il suo “calibro di colore” mostra quindi un’alta precisione nell’individuare la progressione dei colori e il loro corrispondente spessore.

Katharine Blodgett al lavoro

Come afferma Jacobs [8], si può dire che le migliori scoperte e invenzioni di Blodgett sono state “invisibili”, ma l’influenza che hanno avuto sulla società è visibile e chiara. Oggi il vetro non riflettente, basato sulla scoperta di Blodgett, viene utilizzato per schermi di computer, occhiali, parabrezza e quasi altro oggetto che richiede una superficie perfettamente trasparente. Gli scienziati stanno ancora studiando i film di Blodgett per cercare di individuare nuovi usi per questa tecnologia nei microchip e nei sensori.

Per i suoi lavori ottenne prestigiosi riconoscimenti, fa i quali l’Achievement Award dall’American Association of University Women (1945) e la prestigiosa Medaglia Francis Garvan dall’American Chemical Society (1951) per il suo lavoro sui film monomolecolari.

Nella sua lunga carriera in General Electric, Katharine Blodgett ha ottenuto otto brevetti USA dal 1940 al 1953, due soli dei quali in collaborazione e ha pubblicato 30 articoli su riviste scientifiche, raggiungendo anche in certa misura la popolarità apparendo in servizi sui noti periodici Life e Time. Ciononostante è riuscita a mantenere riservata la sua vita privata parlando solo delle sua vita professionale e del suo successo come donna.

Dopo il suo ritiro dalla General Electric nel 1963, Blodgett ha vissuto la sua pensione in una Casa di Riposo per donne single. Muore il 12 ottobre 1979 all’età di 81 anni.

Nota. Nel meeting citato all’inizio del post, una delle partecipanti ha suggerito che il Nobel per la chimica 1932 avrebbe potuto essere condiviso da Langmuir e Blodgett. Tuttavia a quel tempo Blodgett non aveva ancora sviluppato i suoi importanti contributi originali, come la ricopertura multistrato, la tecnica di misura degli spessori monomolecolari e relative applicazioni. La mia personale opinione è che avrebbe potuto ottenere il Nobel dopo il 1940.

Chi fosse interessato a ulteriori informazioni biografiche, può trovarle in:

  1. Venezia, Katharine Burr Blodgett: An Innovative, Accomplished Schenectady Native,

http://thefreegeorge.com/thefreegeorge/schenectady-katharine-burr-blodgett/

o in: http://physicstoday.scitation.org/doi/10.1063/1.2913969

Irving Langmuir and Katharine Burr Blodgett

https://www.sciencehistory.org/historical-profile/irving-langmuir-and-katharine-burr-blodgett

oltre che nella citazione bibliografica [8]

Bibliografia

[1] I. Langmuir, K.B. Blodgett, Current Limited by Space Charge between Coaxial Cylinders., Phys. Rev., 1923, 22, 347-356.

[2] I. Langmuir, K.B. Blodgett, Current Limited by Space Charge between Concentric Spheres., Phys. Rev., 1924, 24, 49-59.

[3] I. Langmuir, S. MacLane, K.B. Blodgett, The Effect of end Losses on the Characteristics of Filaments of Tungsten and other Materials, Phys. Rev., 1930, 35, 478-503.

[4] K.B. Blodgett, I. Langmuir, The Design of Tungsten Springs to the Hold Tungsten Filaments Taut., Rev. Sci. Instr., 1934, 5, 321-332.

[5] K.B. Blodgett, I. Langmuir, Accomodation Coefficient of Hydrogen; A Sensitive Detector of Surface Films., Phys. Rev., 1932, 40, 78-104.

[6] K.B. Blodgett, Films Built by Depositing Successive Monomolecular Layers on a Solid Surface., J. Am. Chem. Soc., 1935, 57, 1007-1022.

[7] K.B. Blodgett, Monomolecular Films of Fatty Acids on Glass, J. Am. Chem. Soc., 1934, 56, 495

[8] R. Jacobs, The Invisible Woman, Chemical Heritage Magazine, 2014, 32, 7.

https://www.sciencehistory.org/distillations/magazine/the-invisible-woman

[1] Irving Langmuir (1881-1957) chimico fisico americano ha effettuato ricerche importanti in diversi campi, dai filamenti per lampadine alla teoria del legame chimico, dalla chimica delle superfici alla fisica del plasma. Premio Nobel per la Chimica 1932 con la seguente motivazione: “per le sue scoperte ed i suoi studi sulla chimica delle superfici”.

[2] Scienziati come W.R.Whitney, W.D. Coolidge e Hull avevano contribuito a rendere il General Electric Research Laboratory al tempo stesso uno dei più quotati centri per la ricerca di base e più fecondi nella scienza applicata.

Entropia e sistema Terra.1.

In evidenza

Claudio Della Volpe

Abbiamo esaminato in un precedente post la relazione fra entropia e corpo umano, fra flusso entropico e organizzazione corporea; oggi parleremo di flusso entropico e sistema Terra.

Anche la biosfera come il corpo umano è un sistema aperto; infatti se ne delimitiamo i confini in modo da escludere l’interno della Terra, possiamo immaginare che sia un vero e proprio superorganismo che riceve energia radiante dal sole riemettendola verso lo spazio e solo in piccola quantità dall’interno del pianeta al quale invece attinge e verso il quale restituisce quantità molto grandi di materiale.In alternativa possiamo immaginare una definizione più semplice, la intera crosta terrestre come un sistema Terra; in tal caso parliamo di un sistema chiuso, che scambia essenzialmente energia col Sole e il vuoto dello spazio, ma che non scambia che pochissima materia (pochissima su base cosmica ovviamente raggi cosmici e meteoriti in entrata per migliaia di tonnellate all’anno e idrogeno in uscita, dato che l’idrogeno atomico o molecolare così leggero può raggiungere facilmente la velocità di fuga, 3kg/sec, ossia 105 ton/year [http://faculty.washington.edu/dcatling/Catling2009_SciAm.pdf]).

La delimitazione esatta del sistema può essere critica per certi aspetti, ma per quel che vogliamo fare oggi ci basta questa definizione più semplice.

E’ l’approccio scelto dal solito Aoki al cui lavoro ci siamo già rifatti per il corpo umano, che in un lavoro di poco successivo spostò la sua attenzione su questo particolare sistema e su tutti quelli analoghi costituiti dai pianeti del sistema solare.Con questa impostazione il sistema Terra è un sistema diabatico (senza la a-!!!), ossia che scambia energia non sotto forma di lavoro ma essenzialmente di energia radiante.

Siamo in una situazione non dissimile da quella del corpo umano del post precedente, ma non identica; il flusso energetico radiante dal Sole verso la Terra e il flusso entropico che vi si accompagna però si distribuisce su una superficie crescente con il quadrato della distanza, per cui il flusso energetico e quello entropico per unità di superficie si possono calcolare tenendo conto di questo fattore geometrico; inoltre la Terra è a sua volta una sfera che intercetta la radiazione lungo la sua sezione massima e la ripartisce nella media su una superficie della sfera stessa che è 4 volte maggiore dell’area di intercettazione del cerchio massimo.

Il flusso di energia in entrata è dunque di circa 342W/m2, che corrisponde a circa 0.08W/ m2 K di entropia in ingresso.

Infine una parte di questo flusso energetico ed entropico va incontro ad una riflessione significativa (l’albedo che esprime questo fatto è di 0.3, ossia solo il 70% della radiazione incidente penetra nel sistema). E il flusso radiativo che è in equilibrio viene poi riemesso alla temperatura della Terra (che possiamo stimare senza effetto serra ai bordi dell’atmosfera a 254K); se rifacciamo con Aoki il conto otteniamo adesso sempre la stessa potenza radiativa di 342W/m2, ripartita fra una riflessione ed una riemissione vera e propria di 235W/m2 che corrisponderà adesso ad un flusso entropico in uscita negativo di 1.27 W/ m2 K; la somma dei due flussi dà circa -1.19 W/ m2 K; questo flusso in uscita di cui la Terra si libera costantemente corrisponde alla formazione di ordine sulla sua superficie sia di strutture atmosferiche che della biosfera.

Usando una scala con unità di misura miste MKS-CGS (W/ cm2 K) quindi con numeri circa 10000 volte minori, Aoki calcola il flusso entropico in uscita dei pianeti del sistema solare che vi mostro qui:

Si vede qui che tale flusso entropico si riduce enormemente con la distanza dal Sole. Potremmo concludere che una delle condizioni necessarie (ma non sufficienti) della vita e della struttura atmosferica è questo parametro di flusso entropico.

Un altro autore, Kleidon, ha poi esteso queste riflessioni in un articolo (Phil. Trans. R. Soc. A (2012) 370, 1012–1040) ed in un libro(A.Kleidon R.D.Lorenz (Eds.) Non-equilibrium Thermodynamics and the Production of Entropy Life, Earth, and Beyond, Springer 2005).

Kleidon va più a fondo di Aoki, partendo dalle considerazioni originali di James Lovelock, chimico, che fu inventore dell’ECD, uno dei rivelatori basici della gascromatografia; ma anche uno dei maggiori studiosi di questi temi; fra l’altro concepì insieme con Lynn Margulis l’idea di Gaia, la biosfera intesa come un superorganismo che di fatto si identificherebbe con essa ed in grado attraverso vari meccanismi di retroazione positiva e negativa di controllarne la storia, sforzandosi di mantenere constanti le sue condizioni, in sostanza difendendo la propria esistenza, nulla di vitalistico, un semplice ma grandioso meccanismo omeostatico.

http://didawiki.cli.di.unipi.it/lib/exe/fetch.php/modellisticaambientale/daisyworld.pdf

Lovelock, ingaggiato dalla NASA ai tempi delle prime sonde solari, sostenne che la semplice osservazione della composizione atmosferica lontana dall’equilibrio è un indizio molto forte dell’esistenza della vita.

Per esempio, come sappiamo la nostra atmosfera è lontanissima dall’equilibrio termodinamico. Ossigeno ed azoto possono reagire per formare ossidi di azoto, ma per nostra fortuna la energia di attivazione del processo è elevata, ma anche la presenza di metano è un indizio di forte non equilibrio, come lo è anche la situazione di non equilibrio del vapore acqueo che non è a saturazione, cioè in condizione di equilibrio. Lovelock sviluppò un modello della interazione fra biosfera ed energia solare che chiamò Daisyworld, il pianeta delle margherite in cui mostrò come (senza alcun vitalismo o religione) una forma di vita semplice può contribuire ad equilibrare la temperatura del suo pianeta rispondendo e resistendo al costante incremento di radiazione solare che è basico della vita del nostro Sole (negli ultimi 4 miliardi di anni la radiazione solare è cresciuta di circa il 30% ma la temperatura è rimasta sostanzialmente costante e questo è uno dei motivi fondamentali per cui la percentuale di CO2 atmosferica si è ridotta nel tempo su scala geologica, da decine di migliaia di ppm a poche centinaia)

Kleidon porta avanti questa riflessione in modo più dettagliato dividendo il Sistema terra nelle sue componenti ed analizzando in dettaglio gli scambi di materia ed energia e i flussi di entropia fra le sue parti e chiedendosi quale sia l’importanza della attività umana in questo quadro; ve ne parlerò in un prossimo post.

(continua)

Ministri e commissari.

In evidenza

Luigi Campanella, già Presidente SCI

In Italia si dice che ci siano parecchi commissari tecnici della nazionale di calcio, nel senso che molti parlano come se occupassero quella posizione.

Credo che questa immagine possa tranquillamente trasferirsi, mutatis mutandis, ad altri settori, per esempio l’ambiente di cui molto parlano non sempre a proposito, proprio come avviene per la nostra nazionale dello sport più popolare. Voglio anche io per una volta tanto adeguarmi a questa aspirazione: cosa farei se fossi il nuovo Ministro dell’Ambiente (siamo alla soglia di una nuova legislatura)?

Partirei dalla constatazione che la pressione umana sulla natura ed i conseguenti modelli economici devono essere modificati nel rispetto di un maggiore equilibrio fra società e generazioni diverse. Il capitale umano e quello naturale, alternativi a quello materiale, sono risorse che devono essere esaltate e valorizzate.

Il secondo punto importante lo individuo nel fatto che il nostro Paese fa parte di comunità mondiali all’interno delle quali ha siglato impegni ed accordi,in particolare applicazione Agenda 2030 ed Accordo di Parigi sui cambiamenti climatici. Il terzo punto riguarda quanto è stato avviato: credo che sia profondamente sbagliato applicare il metodo della lavagna bianca, cioè del ricominciare sempre da zero. La Strategia Nazionale per lo Sviluppo Sostenibile, il Piano Nazionale per l’Adattamento ai cambiamenti climatici, la nuova Strategia Energetica Nazionale (SEN), l’introduzione nel codice penale dell’ecoreato, la legge n. 221/2015 che ha introdotto alcuni strumenti per consentire allo Stato di raggiungere l’obbiettivo di un modello economico più sostenibile, istituendo il Comitato Nazionale per il capitale naturale ed il Catasto dei Sussidi ambientalmente favorevoli e sfavorevoli, l’individuazione degli indicatori BES, di benessere equo e sostenibile sono tutti passi importanti che sono indice di una, sia pure lenta, maturazione del sistema ed apparato pubblici, ma che necessitano di un consolidamento e di un rafforzamento, a partire da un’integrazione fra le Strutture Centrali preposte a contrastare l’emergenza quotidiana: si pensi alle strutture di Missione Italia Sicura e Progetto Casa Italia. La green economy – si deve assolutamente comprendere – non è una camicia di forza all’economia,ma un’opportunità, peraltro già colta da oltre 350.000 mila imprese che hanno investito su prodotti e tecnologie green,sulla sostenibilità ed efficienza energetica. Questi dati indicano l’urgenza di abbandonare la vecchia idea che l’ambiente e la salute siano variabili indipendenti dalla politica e dai piani dei Grandi Industriali.

Ritengo queste le premesse alle prime iniziative che dovrà assumere il nuovo Ministro dell’Ambiente, o che per lo meno io assumerei se lo fossi:

1)regolamenti e norme per dare attuazione alla fuoriuscita dall’utilizzo del carbone nella trasformazione di energia a partire dal 2025;

2)rigorosa definizione delle aree per le attività di prospezione,ricerca e sfruttamento di idrocarburi sia a mare che a terra;

3) varo di uno strumento legislativo quadro che armonizzi e sancisca l’obbiettivo di decarbonizzazione dell’economia;

4)aggiornamento del Piano Generale dei Trasporti del marzo 2000 attraverso un Piano Nazionale della Mobilità;

5)applicazione della VINCA, valutazione di incidenza,a protezione della Rete Natura 2000;

6) riproposizione eventualmente aggiornata del ddl sul consumo del suolo ed il suo riuso gia’ discusso nel 2016;

7) introduzione della cauzione sugli imballaggi monouso;

8) iniziative legislative in favore di chi investe in natura con agevolazioni fiscali,in particolare per le giovani imprese che investono in green jobs;

9) promozione di un’azione interministeriale (Mibaact,Mipaaf,MinAmb) per definire una strategia integrata per i territori, la natura, il paesaggio facendo riferimento ai molteplici strumenti messi a punto a tal fine negli altri Paesi (Carte del Paesaggio o del Territorio in Francia,Statuto dei Luoghi in Gran Bretagna);

10) introduzione dell’educazione ambientale e per la sostenibilità nei piani di studio della Scuola .

Queste le prime urgenze da affrontare. Nel corso della legislatura poi non mi dimenticherei di biodiversità, mare e montagna, agricoltura, turismo.

Cosa c’entra in tutto ciò la Chimica?

Credo che le risposte siano molteplici sia perché le competenze necessarie ad affrontare i problemi indicati sono sì, come sempre del resto, inter- e multi-disciplinari, ma la chimica gioca al loro interno un ruolo primario e poi perché qualsiasi iniziativa innovativa a qualunque campo la si voglia riferire richiede la conoscenza del presente e la conoscenza dell’ambiente è settore ampiamente a carattere chimico.

Quando l’arsenico si beveva a fiumi.

In evidenza

Claudio Della Volpe

Uno dei motivi per cui l’acqua in bottiglia ha successo è che in alcuni casi le acque delle sorgenti del sindaco hanno problemi naturali non da inquinamento; per esempio molte sorgenti vicine alle grandi montagne o in zone vulcaniche contengono una piccola percentuale del tutto naturale di arsenico (ma anche di fluoruri o di altri ioni fra i quali boro e vanadio). Fino a qualche anno fa sia le acque minerali che alcune acque del sindaco avevano “le deroghe” per certi componenti fra i quali proprio l’arsenico, cosa che è durata fino al 31-12-2012 in Italia (in realtà è andata avanti in qualche forma fino al 2013-2014).

Potete leggere un vecchio articolo de Le Scienze del 2010 che conteneva molti dati. Nel 2014 un documento dell’ARPA Lazio confermava e approfondiva la situazione in Lazio.

Nella zona dove abito io, il Trentino, la cosa è stata relativamente comune ed è stata affrontata prima diluendo le acque di alcune sorgenti con altre e poi con specifici apparati depurativi (la depurazione si effettua comunemente ossidando l’As e adsorbendolo su idrossido di ferro, in pratica ruggine, presente in filtri di speciale costruzione, in cui l’acqua da trattare viene fatta passare). Al momento la nostra acqua del sindaco é del tutto a norma, As < 10 μg/l  (microgrammi per litro). Ciò che colpisce è la storia di questi limiti e la situazione che si è generata in alcune parti del mondo; è una storia che vale la pena di essere raccontata questa dei limiti dell’arsenico.

Le norme UE parlano di un un aumento del livello di rischio di insorgenza di tumori; il Comitato congiunto di esperti della FAO/OMS (JECFA) ha proposto una dose di riferimento fissandola a 3 microgrammi/ Kg di peso corporeo al giorno, che provoca un rischio supplementare, rispetto al rischio standard, dello 0,5% di tumori ai polmoni. Sono considerati test significativi gli aumenti di insorgenza di 4 fenomeni: tumori alla vescica, ai polmoni, alla pelle e lesioni cutanee (iper e ipopigmentazioni, cheratosi, melanosi). Le norme si riferiscono ad Arsenico totale anche se As+3 è molto più pericoloso di As+5.

L’arsenico è un elemento la cui tossicità è conosciuta da tempo lunghissimo; l’arsenico è conosciuto nei suoi effetti fin dal “calcolitico” ed è stato isolato da Alberto Magno nel 1250; usato come componente di cosmetici e di altri materiali ha una vasta eco letteraria; chi non ricorda i casi della letteratura?

Per esempio ne “Il Conte di Montecristo”, l’arsenico è uno dei protagonisti del romanzo: il suo uso e i modi per resistere all’avvelenamento da arsenico, all’”acqua tofana” (che conteneva anche Pb) inventata a Palermo nel 1640, usata dall’avvelenatrice, la signora di Villefort, per proteggere i diritti di suo figlio contro la figlia di primo-letto del procuratore del re, Valentine, e il cui uso viene supportato dal Conte proprio per stimolare i peggiori istinti della donna e, dunque, realizzare la sua vendetta contro Villefort.

Potrei citarne altri.

Insoma si sa che l’arsenico è velenoso; ma i suoi effetti a basse dosi, che Dumas ritiene salubri e difensivi, in grado di garantire da avvelenatori improvvisati, sono stati compresi solo dopo molti anni di studi.

Oggi si sa che anche basse e costanti dosi di arsenico possono indurre tumori, diabete e molte altre malattie (Environ Health Perspect; DOI:10.1289/ehp.1510209).

Prima del 1958 non c’erano limiti dell’arsenico nelle acque potabili: la storia di questi limiti può essere rintracciata nei documenti dell’OMS[vedi altri riferimenti] ed è mostrata nel grafico seguente:

In 50 anni i limiti sono quindi scesi di 20 volte mettendo in crisi ripetutamente le scelte fatte dai vari governi; nel 1987 poi lo IARC ha definito l’As come cancerogeno di gruppo 1, dunque stabilito che c’é pericolo di tumore nel consumo di arsenico; e negli ultimi anni si sta concludendo che anche a queste dosi altre malattie come il diabete, di cui è in atto una epidemia mondiale, possono essere indotte dal suo uso. E’ un caso importante, stabilisce che nel tempo come società umana impariamo gli effetti delle sostanze “NATURALI” sul nostro organismo e che tali sostanze non sono di per se “BUONE A PRESCINDERE”, come taluno immagina.

«O natura, o natura, / perchè non rendi poi / quel che prometti allor? perchè di tanto / inganni i figli tuoi?» (G. Leopardi, A Silvia, 1828)

L’italia è stata messa in mora ripetutamente per la difficoltà che ha avuto nel ridurre i valori di As in alcuni dei suoi acquedotti; ci sono zone del paese, come il centro Italia, l’alto Lazio, Viterbo, ma anche Latina, per esempio dove le sorgenti arseniacali sono frequenti; d’altronde l’Italia è terra vulcanica, recente, spinta dal profondo dalla zolla africana; se si eccettua la Sardegna tutto il territorio italiano è zolla africana; anche il Trentino dove vivo io è geologicamente zolla africana, terra di movimenti tellurici profondi e duraturi; tutta la terra italica sotto la geosutura della linea Insubrica è zolla africana, soggetta alla spinta verso Nord; le rocce che emergono contengono arsenico, le Alpi come l’Himalaia sono una catena montuosa sorta dallo scontro fra due placche tettoniche che hanno portato allo scoperto zone profonde. In un bel lavoro del 2005[Atti Acc. Rov. Agiati, a. 255, 2005, ser VIII, vol V, B: 59-94] il collega Fuganti del mio Dipartimento ha analizzato la composizione delle rocce della Val d’Adige

La geosutura insubrica.

concludendo che quantità significative di arsenico sono presenti nelle rocce della val d’Adige e sono rilasciate nelle acque in alcuni casi ai limiti o sopra i valori oggi ritenuti sicuri.

Analisi di questo tipo consentono poi di intervenire attivamente per la salvaguardia della qualità delle acque potabili.

Il problema è generale.

Luca Lucentini, 3 corso regionale sui prodotti Fitosanitari, nov. 2017

In questa slide Lucentini che è Direttore del Reparto di Igiene delle Acque Interne dell’Istituto Superiore di Sanità, è coautore di Linee Guida sulla qualità delle acque potabili dell’Organizzazione mondiale della Sanità ci mette in guardia dal considerare come scontati certi fatti: la tossicità dell’arsenico e la necessità di controllarne la concentrazione è stata maturata tutto sommato lentamente e recentemente. Quando sono nato io (1950) questa coscienza non c’era.

Esistono casi in cui l’intervento umano si è risolto in un enorme problema; consideriamo la questione acque potabili in Bangladesh; si stima che decine di milioni di persone (da 20 a 35) siano esposte all’intossicazione da arsenico di falda in quel territorio; come si è arrivati a questo risultato drammatico? (fra l’altro quando vedrete la prossima volta qualcheduno del Bangladesh che scappa verso l’Europa, casomai dalle nostre parti, potreste immaginarvi perchè lo fa). Come forse ricorderete il Bangladesh si separò dal Pakistan a maggioranza islamica nel 1971, e questo evento spostò milioni di persone di religione induista dall’attuale Pakistan al Bangladesh. La pressione sulle povere risorse del paese si accrebbe.

La storia è raccontata in questo articolo di Human Rights Watch (https://www.hrw.org/report/2016/04/06/nepotism-and-neglect/failing-response-arsenic-drinking-water-bangladeshs-rural).

Fino ad allora l’agricoltura si era basata su una irrigazione che usava le acque superficiali, fortemente inquinate; la nuova situazione peggiorò le cose incrementando problemi di acque inquinate da scarichi fecali.water research 44 (2010) 5789e5802

Per risolvere il problema le organizzazioni internazionali spinsero verso l’uso di acqua estratta da pozzi non dai fiumi; tuttavia nessuno si rese conto che le acque estratte dai primi 10-20 metri erano fortemente inquinate da arsenico per motivi naturali. O meglio nei primi 10-20 metri l’arsenico era molto più disponibile; d’altronde per motivi di costo la maggior parte dei pozzi si fermava a quella profondità.water research 44 (2010) 5789e5802

Racconta The Guardian, 23/5/2006

In 1990 the BGS obtained a commission from the UK government’s aid agency, then known as the Overseas Development Agency , to survey deep wells dug in the previous decade. Samples from the wells were taken to BGS laboratories to test for toxic elements. BGS argues that its report did not give the water a clean bill of health for drinking, but the report’s author indicated in a published paper in 1994: “The groundwaters are … suitable for crop irrigation and domestic usage.”

BGS è il British Geological Survey, una organizzazione governativa inglese, la quale NON condusse un test per l’arsenico.

In quel medesimo 1994 cominciava a venir fuori il problema

Questo scatenò una causa da parte di una ONG bengalese contro il governo di sua maestà; la risposta tardò ad arrivare e quando arrivò fu molto deludente:

Lord Hoffman’s ruling at the time was that the relevant agencies, such as the BGS, in cases like this were ‘liable only for the things they did and the statements they made, not for what they did not do‘. (trovate i dettagli di questa storia qui)

La conclusione della BBC:

Correspondents say that if successful the legal action could have cost the British taxpayer millions of dollars in compensation.water research 44 (2010) 5789e5802 water research 44 (2010) 5789e5802

Nel frattempo milioni di pozzi entrarono in funzione, distribuendo acqua con tassi di arsenico da decine a centinaia di volte superiori alla norma OMS; ancora oggi in Bangladesh è legale acqua con 50 microgrammi di arsenico per litro; e ancora oggi decine o centinaia di migliaia di pozzi pompano acqua da bassa profondità con tassi altissimi di arsenico.

L’OMS parla di un caso di avvelenamento di massa, il maggiore mai visto nella storia umana recente e forse in tutta la storia, che ha come condizione base la Natura, come condizione storica interventi umanitari poco accorti ed è aggravato dalla sovrappopolazione, dalla povertà, dalla lotta politica e religiosa in un paese che è da sempre ultimo in tutte le graduatorie del mondo.

La chimica si intreccia così drammaticamente con la salute e la vita di decine di milioni di uomini.

Altri riferimenti.

http://www.enkiwater.it/valori-di-arsenico-nelle-acque-minerali/

 

Il DDT: origini, successo e declino

In evidenza

Rinaldo Cervellati

Nel post su Rachel Carson ho particolarmente insistito sul suo libro Silent Springs, denuncia scientificamente argomentata del disastro ambientale provocato negli USA dall’uso massiccio e indiscriminato di insetticidi organo clorurati, in particolare il diclorodifenil-tricloroetano (DDT) negli anni ’50 e ’60 del secolo scorso. Si è anche discusso l’uso di questo prodotto per debellare la malaria, malattia trasmessa da una zanzara della famiglia Anopheles*. In questo post intendo approfondire l’origine, il successo e il declino del DDT. Cominciamo dall’inizio.

Nella seconda metà del XIX secolo la sintesi dell’acido acetico effettuata da Kolbe decretò la fine della concezione vitalista sull’origine dei composti organici e lo sviluppo di un numero sempre crescente di sostanze organiche di sintesi[1]. Attorno al 1873, Othmar Zeidler[2] studente di dottorato nel laboratorio di Adolf von Baeyer[3] all’Università di Strasburgo, lavorando al progetto di tesi sui possibili prodotti di reazione fra il cloralio (tricloroacetaldeide) e cloro e bromo derivati del benzene ottenne, fra l’altro il composto che oggi chiamiamo p-diclorodifenil-tricloroetano (abbreviato DDT):

Sebbene i risultati del lavoro di Zeidler siano stati pubblicati [1], le proprietà del composto non furono oggetto di indagine fino al 1939.

A scoprirle fu il chimico svizzero Paul Herman Müller (1899-1965).

Müller cominciò a interessarsi di chimica durante il periodo liceale, lavorando come assistente in una azienda chimica, la Dreyfuss & Cie. Nel 1919 fu ammesso all’Università di Basilea, diplomandosi in chimica nel 1922. Continuò gli studi perfezionandosi in chimica organica e ottenne il dottorato summa cum laude nel 1925 discutendo una tesi sull’ossidazione chimica ed elettrochimica della m-xilidina e di suoi derivati metil sostituiti [2]. Nello stesso anno Müller trovò impiego come chimico ricercatore per la divisione coloranti dell’azienda Geigy AG a Basilea. I primi compiti assegnatigli riguardarono la ricerca di coloranti di origine naturale e sintetica e agenti concianti. Questo lavoro portò al brevetto e commercializzazione degli agenti concianti sintetici tannici[4] Irgatan G, Irgatan FL e Irgatan FLT.

Nel 1935 la Geigy diede inizio a un progetto di ricerca su agenti protettivi per le piante. Müller che aveva un grande interesse per il mondo vegetale, tanto da aver scelto botanica come materia complementare nel suo corso di studi per il diploma in chimica, partecipò quindi al progetto iniziando a sintetizzare personalmente fitosanitari chimici. Questa ricerca lo portò brevettare composti cianici e tiocianici che mostravano attività battericida e insetticida e, nel 1937 al graminone, un disinfettante per semi meno pericoloso di quelli a base di mercurio usati all’epoca.

Dopo il successo con gli agenti concianti e disinfettanti, Müller fu incaricato di sviluppare un insetticida. A quel tempo gli unici insetticidi disponibili erano prodotti naturali costosi o sintetici poco efficaci contro gli insetti, i soli composti che erano sia efficaci che poco costosi erano composti di arsenico, altrettanto tossici per gli esseri umani e altri mammiferi [3].

Nel corso della ricerca, Müller scoprì che gli insetti assorbivano le sostanze chimiche in modo diverso rispetto ai mammiferi. Ciò lo portò a supporre che probabilmente ci sono sostanze chimiche tossiche esclusivamente per gli insetti. Cercò quindi di sintetizzare l’insetticida di contatto ideale, che avrebbe avuto un effetto tossico rapido e potente sul numero più grande possibile di specie di insetti causando nel contempo poco o nessun danno alle piante e agli animali a sangue caldo. L’effetto di questo insetticida ideale avrebbe anche dovuto essere di lunga durata il che implica un alto grado di stabilità chimica, nonché facile e economico da produrre.

Studiò tutti i dati che poteva trovare sul tema degli insetticidi, e sulla base delle caratteristiche che aveva stabilito si mise alla ricerca di un composto adatto ai suoi scopi. Müller trascorse quattro anni su questa ricerca e fallì 349 volte prima del settembre 1939, quando infine trovò il composto che stava cercando. Spruzzò una gabbietta piena di mosche con questo composto e dopo pochissimo tempo non ne restò una viva [3]. Il composto in questione era il diclorodifeniltricloroetano[5], che il farmacista viennese Othmar Zeidler aveva sintetizzato per la prima volta nel 1873 [1].

Müller si rese presto conto che il DDT era la sostanza chimica che stava cercando. I test del DDT da parte del governo svizzero e del Dipartimento per l’agricoltura degli Stati Uniti confermarono non solo la sua efficacia contro insetti nocivi in agricoltura ma anche contro una vasta gamma di altri parassiti, tra cui zanzare, pidocchi, pulci e mosche della sabbia, che, rispettivamente, diffondevano malaria, tifo, peste e varie malattie tropicali. Questi test fecero pensare che il DDT fosse praticamente innocuo per gli umani e i mammiferi in generale.

Nel 1940 il prodotto fu brevettato in Svizzera, due anni dopo in Gran Bretagna e nel 1943 negli USA. La Geigy iniziò la commercializzazione di due prodotti, uno spray al 5% (Gesarol) e una polvere al 3% (Neocid). Il nome DDT fu impiegato per la prima volta dal Ministero britannico per l’approvvigionamento nel 1943 e il prodotto fu aggiunto alle liste di rifornimento dell’esercito statunitense nel maggio dello stesso anno.

Struttura del DDT

Durante la seconda guerra mondiale, le truppe alleate ne fecero un massiccio utilizzo su civili e militari. La prima volta fu per sconfiggere un focolaio di tifo a Napoli, in seguito fu largamente usato in Veneto e Sardegna per sconfiggere le zanzare anofele molto diffuse nelle zone paludose e responsabili della trasmissione della malaria*. Fu proprio il risultato conseguito in Italia nel periodo bellico a spingere l’Organizzazione Mondiale della Sanità (OMS) a lanciare una campagna planetaria per l’utilizzo del DDT con lo scopo di eradicare completamente questa malattia. Di certo si può affermare che il DDT ha consentito di debellare la malaria in Europa e in tutto il Nord America [4].

Nel 1946 Müller fu nominato vicedirettore della ricerca scientifica sulle sostanze per la protezione delle piante della Geigy. Nel 1948 gli fu assegnato il premio Nobel per la Fisiologia e la Medicina[6], con la seguente motivazione:

“per la sua scoperta dell’efficienza del DDT come veleno di contatto contro diversi artropodi”.

Paul Hermann Muller, Pemio Nobel 1948

Il fatto che gli sia stato accordato questo onore, anche se non era né un medico né un fisiologo ricercatore, riflette l’enorme impatto che il DDT aveva avuto nella lotta contro le malattie. Il Comitato per il Nobel dichiarò: “Il DDT è stato utilizzato in grandi quantità nell’evacuazione dei campi di concentramento, delle prigioni e dei deportati, senza dubbio questa sostanza ha già salvato la vita e la salute di centinaia di migliaia di persone”.

Sfortunatamente, come praticamente sempre accade, il suo abuso produsse, come si è detto nel precedente post su Rachel Carson danni ambientali molto gravi. Nel medio e lungo termine questi danni sono dovuti alle sue proprietà chimico fisiche.

Utilizzi indiscriminati del DDT

Anzitutto la sua alta stabilità lo rende scarsamente reattivo all’aria e alla luce sicchè esso si disperde nell’aria a lunghe distanze e penetra facilmente nel suolo con un effetto di accumulo a quantità pericolose molto duraturo. Una conseguenza è stata lo sviluppo di generazioni di parassiti nocivi sempre più resistenti all’insetticida. Gli insetti sono infatti molto più bravi di noi a adattarsi ai cambiamenti ambientali, forse solo i battèri sono ancora più bravi a sviluppare specie resistenti agli antibiotici…

La molecola del DDT è apolare, insolubile in acqua e soluzioni acquose ma solubile nei grassi. Esso quindi si accumula nei tessuti adiposi dell’uomo e degli animali fino a raggiungere concentrazioni critiche. E’ stato accertato che effetti mortali sono stati riscontrati negli uccelli per un’interferenza di questo composto con l’enzima che regola la distribuzione del calcio. Ne consegue un assottigliamento del guscio delle loro uova che finiscono per rompersi precocemente durante la cova [4].

A prescindere quindi dalla potenziale cancerogenità, questi effetti del prodotto ne hanno fatto vietare l’impiego per uso agricolo negli Stati Uniti e in Europa.

Tuttavia il DDT continua a essere impiegato contro il vettore della malaria in India e in gran parte dell’Africa. Secondo un rapporto della Stockolm Convention on Persistent Pollutants, nel  2008 solo 12 paesi utilizzavano il DDT a tale scopo, anche se il numero era previsto in aumento [5]. Non ho trovato dati più recenti ma certamente il dibattito fra fautori e oppositori del DDT è ancora acceso.

*Nota. Su questo argomento Claudio Della Volpe ha scritto qualche anno fa il dettagliato post “Chimica, zanzare e altre storie”.

https://ilblogdellasci.wordpress.com/2013/09/16/chimica-zanzare-ed-altre-storie/

Bibliografia

[1] O. Zeidler, Beitrag zur Kenntnisss der Verbindunngen zwischen Aldehyden und aromatische Kohlenwasserstoffen. (Contributo alla conoscenza dei composti tra aldeidi e idrocarburi aromatici), cit. in: Verzeichniss der an der Kaiser-wilhelms-universität Strassburg vom Sommer Semester 1872 bis Ende 1884 erschienenen Schriften., Heitz & Mündel, 1890, p. 11.

https://archive.org/details/verzeichnissder00stragoog?q=Othmar+Zeidler

[2] F. Fichter, P. Müller,  Die Chemische und Elektrochemische Oxidation des as. m-Xylidins und seines Mono- und Di-Methylderivates, Helv. Chim. Acta, 1925, 8, 290-300.

[3] Paul Hermann Müller Biography, in: K.L. Lerner, B. Wilmot Lerner (Eds.), The World of Anatomy and Physiology, Gale Group Inc. Farmington Hills, MI, 2002.

[4] F. Bagatti, E. Corradi, A. Desco, C. Ropa, Chimica, Zanichelli, Bologna 2012, Cap. 12.

[5] H van den Berg, Global Status of DDT and its Alternatives for Use in Vector Control to Prevent Disease, Stockolm Convention on Persistent Pollutants, Oct. 23, 2008.

https://www.webcitation.org/5uKxOub8a?url=http://www.pops.int/documents/ddt/Global%20status%20of%20DDT%20SSC%2020Oct08.pdf

[1] v. R. Cervellati, Fiedrich Wölher e gli albori della chimica organica di sintesi.

https://ilblogdellasci.wordpress.com/2016/05/30/friedrich-wolher-e-gli-albori-della-chimica-organica-di-sintesi/

[2] Othmar Zeidler (1850-1911) chimico austriaco, dopo il dottorato a Strasburgo lavorò per qualche tempo nel Laboratorio chimico dell’Università di Vienna poi fece il farmacista in un distretto della capitale austriaca.

[3] Adolf von Baeyer (1835-1917) chimico tedesco particolarmente noto per la sintesi dell’indaco, Premio Nobel per la Chimica 1905 con la motivazione: in riconoscimento dei suoi servizi per il progresso della chimica organica e dell’industria chimica, con il suo lavoro sui coloranti e sui composti aromatici.

[4] O tanninici, composti contenuti in diversi estratti vegetali in grado di combinarsi con le proteine della pelle animale trasformandola in cuoio. Sono sostanze polifenoliche presenti in moltissime piante. Un vino rosso contenente molti tannini lascia tipiche tracce colorate nelle pareti del bicchiere dove viene versato.

[5] Nome IUPAC: 1,1,1-tricloro-2,2-bis (4-clorofenil) etano.

[6] Questo particolare Premio Nobel viene assegnato da un comitato del Karolinska Institute contrariamente agli altri che vengono attribuiti dall’Accademia Reale Svedese delle Scienze.

Accanimento non terapeutico.

In evidenza

Mauro Icardi

Certamente non è una cosa che faccia piacere ai chimici pensare a come venga percepita, la Chimica, nell’immaginario dei non chimici. E questo atteggiamento preconcetto, io credo non deponga in generale a favore di una necessità evidente di contrastare la diffusione dell’analfabetismo di ritorno, delle fake news, e in generale della sovraesposizione a notizie banali, quali ad esempio quelle che si occupano di gossip.

Essere interessati alla propria professione, all’interesse mai interrotto per la scienza che è diventata strumento di lavoro e apprendimento, spesso espone a fraintendimenti che, personalmente trovo molto fastidiosi.

E tutto questo aumenta una sensazione di estraneità che qualche volta pesa.

L’ultimo episodio mi è capitato durante una degenza ospedaliera. In questa circostanza, oltre a pensare alla guarigione, è necessario pensare ad impiegare il tempo in maniera proficua.

Io ho chiesto a mia moglie di portarmi il libro di Marco Malvaldi “L’architetto dell’invisibile – ovvero come pensa un chimico”. Era sul comodino della stanza d’ospedale. Una sera, un’operatrice sanitaria lo ha adocchiato, preso in mano, e dopo aver guardato la copertina e letto il titolo, posato di scatto con un atteggiamento piuttosto plateale. Le ho chiesto il perché, ricevendo come risposta una sorta di borbottio, ed una molto generica spiegazione di idiosincrasia alla materia.

Ora, se una persona frequenta le librerie (purtroppo da proteggere come qualsivoglia animale in via d’estinzione), si può accorgere delle decine di libri che insegnano a vincere la paura della matematica, o della fisica.

Si trovano molti libri di divulgazione chimica, anche se a mio parere in numero leggermente minore, ma l’idea di scrivere un libro per vincere la paura della chimica potrebbe essere interessante.

Nelle pagine di questo blog si è scritto più volte in difesa della chimica, si è ripetuto quali siano i più diffusi luoghi comuni su questa scienza. Luoghi comuni che lo stesso Malvaldi riesamina, a partire da quello più diffuso che vede i termini “sintetico” o “chimico” come negativi, in contrapposizione a “naturale” che invece è percepito univocamente come positivo. Ma le aflatossine ad esempio, o la cicuta sono quanto di più naturale vi sia , eppure le prime sono molto tossiche e cancerogene, e l’estratto della seconda fu responsabile della morte che Socrate volle autoimporsi.

Altra riflessione che mi sento di fare è questa: occorre trovare un modo per appassionare le persone non solo alla scienza, ma in generale alla lettura, alla riflessione e allo sviluppo di capacità critiche. Tutte capacità ormai rare. La chimica ha nella sua dualità benefici/rischi già una sorta di peccato originale, una sorta di destino per il quale è tacciata di ogni nefandezza. E tutto questo fa dimenticare a troppi quanto invece le dobbiamo, e quanto del benessere (per altro da ripensare nei suoi aspetti maggiormente dissipativi) di cui attualmente possiamo ancora godere, sia dovuto alle scoperte dei laboratori o dei reparti di produzione.

Come dicevo i libri di divulgazione chimica ci sono. Sono disponibili credo nelle biblioteche di qualunque città o piccolo centro. Si possono acquistare così da averli sempre a disposizione per riguardarli. In rete ci sono innumerevoli siti per chi abbia il coraggio, la voglia e la curiosità di conoscere questa scienza. Basta avere un poco di quella che una volta veniva definita “buona volontà”. Per altro da estendersi a tutte le discipline scientifiche. Ma per la chimica almeno per tentare di modificare una cattiva reputazione decisamente immeritata. E sono convinto che una volta conosciuta, possa riservare sorprese a chi, per abitudine ne ha una visione negativa, ma non reale.