REACH: ultima chiamata.

Luigi Campanella, già Presidente SCI

Il prossimo 31 maggio il regolamento europeo REACH completerà la sua ultima fase e diverrà esecutivo a tutti gli effetti. Non sempre si percepisce questa importante scadenza nell’atteggiamento assunto dal sistema industriale nei riguardi di essa,.Vale la pena ricordare alcuni elementi, più direttamente correlati agli aspetti chimici del regolamento, di una storia durata 10 anni, tanti essendo stati necessari per completare le fasi attuative del REACH.

L’art. 3 della Direttiva 92/32/CEE del 30 aprile 1992, che disciplina la classificazione, l’imballaggio e l’etichettatura delle sostanze pericolose commercializzate negli Stati dell’Unione Europea, regola la “determinazione e valutazione delle proprietà delle sostanze” attraverso test tossicologici che prevedono esperimenti su animali. In funzione del risultato degli esperimenti, una sostanza verrà classificata in una delle seguenti categorie:

  • molto tossica
  • tossica
  • nociva
  • non pericolosa.

Un protocollo-tipo prevede lo studio di:

  • Tossicità a breve termine, che si articola nello studio di:
  • Tossicità acuta effettuata normalmente sul ratto o il topo, attraverso la LD50.
  • Studi di irritabilità degli occhi, della pelle e delle mucose solitamente effettuati sui conigli albini in ambito cosmetologico, attraverso i “Draize test” e miranti alla valutazione della tollerabilità della sostanza in esame a contatto con la cute o con le mucose.
  • Studi di sensibilizzazione normalmente eseguiti sul porcellino d’India per valutare la capacità della sostanza chimica di indurre risposte allergiche o immuni in seguito a somministrazioni multiple.
  • Tossicità ripetuta la cui valutazione avviene attraverso lo studio di:
    • tossicità sub-acuta, sub-cronica, cronica, solitamente effettuata su due specie di cui una roditrice (normalmente si usano il topo e la scimmia o il cane). La durata degli studi varia dai due ai quattro anni; la via di somministrazione è quella di esposizione.
  • Studi di tossicità riproduttiva e di teratologia per evidenziare le eventuali interferenze della nuova sostanza sulla sfera riproduttiva e sulla prole, suddivisi in tre gruppi:
    • Studi di fertilità e riproduzione.
    • Studi di teratologia.
    • Studi di tossicità peri-post natale.

Per quanto riguarda la tossicità a breve termine (effetto acuto) il livello di tossicità è definito a partire da test basati sulla quantità di composto chimico letale in funzione della via di esposizione; i limiti della Dose Letale 50 e Concentrazione Letale 50 utilizzate per classificare un prodotto come molto tossico, tossico o nocivo sono riportati nella tabella seguente [2]:

Categoria LD50 orale

mg/kg

LD50 cutanea

mg/kg

LC50 inalatoria

mg/litro/4 ore

Molto tossiche <25 <50 <0,5
Tossiche 25-200 50-400 0,5-2
Nocive 200-2000 400-2000 2-20

LD50: è la dose di una sostanza che, somministrata in una volta sola, provoca la morte nel 50% degli animali da esperimento; indica la tossicità di una sostanza solo a breve termine (tossicità acuta); non a lungo termine (cioè dovuta a contatto con modiche quantità di una certa sostanza per lunghi periodi); viene espressa di solito come quantità di sostanza somministrata rispetto al peso dell’animale usato come campione (es.: milligrammi (mg) di sostanza per 100 grammi (g) per piccoli animali o per chilogrammi (kg) per animali più grandi); va definita anche la via (orale, cutanea, etc.). Una LD50 maggiore di 2000 mg/kg permette di considerare non particolarmente pericolosa la sostanza testata.

Per la LD50 orale la normativa UE prevede come animale da esperimento l’uso del ratto, mentre per la LD50 cutanea è previsto anche l’impiego del coniglio.

LC50: è la concentrazione in aria che provoca la morte nel 50% degli animali da esperimento, se inalata per un determinato periodo di tempo.

Per la LC50 la normativa UE prevede l’uso del ratto come animale da esperimento con una esposizione di 4 ore.

Sostanze da NON registrare: Sostanze escluse completamente dal REACH; Medicinali (esclusi anche da Valutaz. e Autorizz.); Sostanze presenti in alimenti e alimenti per animali, anche usate come additivi o aromatizzanti (esclusi anche da Valutaz. e Autorizz.); Sostanze incluse in Allegato IV; Sostanze incluse in Allegato V; Polimeri (esclusi anche da Valutaz.). Alcuni esempi sostanze in allegato V. Idrati di una sostanza o ioni idrati, formati da associazione di una sostanza con H2O. – Sostanze che non sono esse stesse fabbricate, importate o immesse sul mercato, risultanti da una reazione chimica che ha luogo quando una sostanza (agente stabilizzante, colorante, antiossidante, plastificante, antischiuma, legante, agglomerante, disidratante, neutralizzatore pH, coagulante, ignifugo, chelante, ecc) agisce nel modo previsto. Alcuni esempi sostanze in allegato IV. (Reg. 987/2008 – 8 ottobre 2008 ) acido ascorbico – glucosio – saccarosio puro – acido oleico puro – CO2 – calcare – Ar – C – N2 – acqua distillata – grafite – olio girasole – soia – lino – ricino -colza ecc. – amido – vitamina A.

I metodi o le procedure che conducono alla sostituzione di un esperimento sull’animale o alla riduzione del numero di animali richiesti, nonché all’ottimizzazione delle procedure sperimentali, allo scopo di limitare la sofferenza animale sono i metodi alternativi alla sperimentazione in vivo. Questo concetto corrisponde alla definizione delle “3R” di Russel e Burch [3], dall’inglese replace, reduce, refine laddove:

  • replacement identifica la sostituzione, ove possibile, degli animali superiori con materiali biologici di minore complessità (batteri, colture cellulari, organi isolati, colture in vitro), modelli computerizzati, video, film;
  • reduction implica la maggiore riduzione possibile del numero di animali usati per un particolare esperimento pur conseguendo risultati di studio altrettanto precisi. Ciò può essere ottenuto standardizzando la popolazione animale, fattore principe della variabilità dei risultati;
  • refinement si riferisce alla ricerca di procedure sperimentali sempre più specifiche in grado di ridurre al minimo la sofferenza e lo stress causato agli animali, comunque impiegati.

I metodi del primo tipo consentono di ottenere una determinata informazione sperimentale senza ricorrere all’utilizzazione di animali; i metodi del secondo tipo sono idonei ad ottenere livelli comparabili di informazione utilizzando un minor numero di animali e consentono di ricavare il massimo numero di informazioni con un solo saggio su animali; i metodi del terzo tipo sono tutte le metodologie idonee ad alleviare sofferenze e danni imputabili alle pratiche sperimentali. Tra i metodi del primo tipo si distinguono i “metodi sostitutivi biologici” e i “metodi sostitutivi non biologici”, i primi sono i “metodi in vitro”, ed utilizzano materiale biologico di diverso tipo (di origine animale o umana); mentre i secondi si avvalgono dei contributi di scienze quali la matematica, l’informatica, la statistica, eccetera.

Un nuovo approccio sperimentale, per essere considerato alternativo alla sperimentazione animale tradizionale, deve essere riproducibile, affidabile, rapido e non più costoso di quello che si vuole sostituire. Il centro europeo preposto alla verifica del rispetto dei suddetti parametri da parte del nuovo metodo (cosiddetta “validazione”) è l’ECVAM (European Centre for Validation of Alternative Methods), istituito dalla Commissione Europea nel 1991 su proposta del Parlamento dell’Unione, nell’ambito del “Joint Research Centre” di Ispra in provincia di Varese. L’ECVAM coordina la validazione dei metodi alternativi a livello comunitario, e costituisce un punto di riferimento per lo scambio di informazioni sullo sviluppo di questi metodi, attraverso una banca dati dei metodi disponibili (già validati o in corso di validazione) impostata e gestita dal centro medesimo.

Attraverso il processo di validazione viene stabilita l’affidabilità e la rilevanza di un metodo. L’affidabilità descrive la riproducibilità dei risultati nel tempo e nello spazio, cioè, nello stesso laboratorio e tra laboratori diversi (cosiddetta “standardizzazione”); la rilevanza descrive la misura dell’utilità e della significatività del metodo per un determinato scopo. I test di validazione sono molto lunghi (possono durare anche anni) ed hanno lo scopo di verificare se un nuovo metodo fornisce, per determinate sostanze, risultati simili a quelli in precedenza ottenuti attraverso la sperimentazione sugli animali. L’approdo finale di un nuovo metodo è il suo accoglimento entro la regolamentazione internazionale, con l’introduzione dei test alternativi nelle linee guida dell’OECD (Organization for Economic Cooperation and Development). L’OECD raccoglie non solo i paesi membri dell’Unione Europea ma anche Stati Uniti, Giappone ed altri; ha il compito di armonizzare i differenti protocolli sperimentali, recependoli sotto forma di linee guida. Le linee guida dell’OECD vengono periodicamente modificate per adeguarle alle nuove conoscenze scientifiche nonché alle modifiche legislative eventualmente intervenute.

Un Libro Bianco della Comunità Europea invita la comunità scientifica a fare il più possibile allo scopo di mettere a punto dei test chimici, che non ricorrano alla sperimentazione animale, in grado di dare informazioni – specialmente avvisi di pericolosità – in tempo reale o quasi reale riguardo la tossicità di un composto. A partire dalla mia presidenza in SCI la Società Chimica Italiana ha periodicamente inventariato gli avanzamenti della ricerca nel campo dei metodi chimici di valutazione della tossicità:molte dei nostri Dipartimenti chimici sia universitari che di enti di ricerca sono impegnati in questa direzione. Le soluzioni proposte sono molto diverse fra loro e risentono ovviamente della formazione specifica dei proponenti:

test di screening mediante desorbimento termico ed analisi dello spazio di testa

fotosensori di tossicità

metodi biochimici e biomolecolari

studi in silico e chemiometrici,metodi predittivi volti alla determinazione di proprietà ed attività delle molecole in base alla loro struttura; metodi computazionali e chemoinformatici;rappresentazioni molecolari strutturate;

test in vitro su sistemi cellulari diversi (in particolare innovativi:nematode del terreno e copepode marino)

test di effetto sub letale

studio di scenari di esposizione

studi epidemiologici

Si tratta di Gruppi di Ricerca autorevoli ed accreditati che potranno costituire una preziosa risorsa per le molteplici strutture pubbliche coinvolte nel REACH,dalle autorità di controllo territoriali all’autorità competente nazionale,fino alla stessa Agenzia Europea per le sostanze chimiche

http://www.reach.gov.it/reach-sintesi

L’impatto dell’umanità sulla biosfera.

Claudio Della Volpe

In un recente articolo su PNAS (www.pnas.org/cgi/doi/10.1073/pnas.1711842115) alcuni ricercatori israeliani ed americani hanno stimato la biomassa globale ed anche l’impatto che l’umanità ha avuto su di essa.

L’argomento è certamente di interesse per i fini del nostro blog, per comprendere la portata dell’Antropocene. Ne facciamo un breve e parziale riassunto; tenete presente che l’articolo è fatto di due parti, una è l’articolo vero e proprio e l’altra è un supplemento molto esteso con tutte le stime dettagliate e i ragionamenti e le incertezze sui numeri ottenuti. Entrambe sono scaricabili senza problemi dato che la rivista è Open access.

La massa totale di tutti i tipi di esseri viventi appartenenti a tutti i taxa è stimata in 550 miliardi di ton equivalenti di carbonio (550GtC); ricordo per i lettori meno documentati che questo equivale a dire che la massa è stimata con riferimento alla sola massa del carbonio presente nelle varie specie mentre gli altri elementi variano da caso a caso; dunque il totale effettivo è ben superiore; la stima si può fare in questi termini a causa del fatto che il rapporto fra carbonio ed altri elementi è ampiamente costante nei vari casi.

L’80% di questo totale è costituito dalle piante, dai produttori primari che fanno la fotosintesi; a loro volta le piante sono dominate dalle piante terrestri, che hanno occupato la terra anche grazie all’avvento della difesa anti-UV costituita dall’ozono, a sua volta disceso dalla produzione di ossigeno.

Ricordo che questo elemento si è accumulato come rifiuto a partire da 2.5 miliardi di anni fa portando alla cosiddetta catastrofe dell’ossigeno, con espulsione dal ciclo della gran parte degli organismi anaerobi, rifugiatisi in poche zone povere di ossigeno (fondali marini, intestini degli animali, etc); questo portò all’accumulo di ozono e alla protezione della terra dagli UV che consentì poi la grande esplosione della vita del Cambriano di circa 530 milioni di anni fa sulla crosta.

Quello che vediamo ogni giorno sulla crosta è figlio della catastrofe dell’ossigeno.

Il secondo costituente della biomassa sono i batteri, circa 70GtC e circa il 15% del totale.

In ordine di importanza quantitativa seguono funghi, archaea (antichi batteri), protisti, animali e virus, che coprono il rimanente, inferiore al 10%.

Le biomassa che vive sopra il suolo costituisce il 60% del totale 320GtC (merito dell’ozono stratosferico!!), mentre le radici (130GtC) e i microbi del suolo e nelle superfici profonde (100GtC) costituiscono il grosso del rimanente.

La biomassa delle piante include per il 70% steli e tronchi degli alberi che sono per la maggior parte legno inerte. I batteri sono il 90% della biomassa profonda, sotto la superficie (aquiferi e fondo marino) con un metabolismo lento. Anche escludendo questi contributi comunque la biomassa globale rimane dominata dalle piante (150GtC di radici e foglie, 9GtC di batteri marini e terrestri e 12 GtC di funghi.

D’altra parte gli insetti dominano in termini di ricchezza di specie (circa 1 milione già descritte) mentre la loro biomassa è piccola. Alcune specie contribuiscono alla biomassa più di intere famiglie e classi.

Per esempio il krill antartico Euphausia superba contribuisce per 0.05GtC in modo comparabile a uomini e mucche. Stesso discorso per le termiti che così sorpassano tutti gli uccelli.

da Internazionale, n. 1257

Durante il relativamente breve percorso dell’umanità nella storia della Terra, innovazioni come la domesticazione degli animali, l’agricoltura e la rivoluzione industriale hanno accresciuto la popolazione umana con effetti ecologici molto pronunciati. Oggi la biomassa umana è 0.06GtC e quella degli animali domestici 0.1 GtC. In confronto i mammiferi selvatici sono solo 0.007GtC. Anche per gli uccelli quelli domestici sono circa tre volte più di quelli selvatici (0.005GtC a 0.002).

Di fatto gli uomini ed i loro animali superano tutti gli altri vertebrati esclusi i pesci. Ovviamente essi costituiscono solo una piccola frazione degli animali in complesso, che comprendono prima di tutto artropodi (1GtC) e pesci (0.7GtC)

Impressionante anche il paragone fra la biomassa attuale e quella preumana che dimostra l’impatto umano sulla biosfera.

L’attività umana ha contribuito alla scomparsa della megafauna fra 50.000 e 3.000 anni fa con una sua riduzione da 0.02GtC a 0.003GtC.

La caccia alla balena e agli altri mammiferi marini ha ridotto la loro massa di 5 volte (da ≈0.02 Gt C a ≈0.004 Gt C ).

Mentre la massa totale degli animali selvatici marini e terrestri è diminuita di un fattore 6, quella totale dei mammiferi si è accresciuta di 4 volte per merito della biomassa umana e degli animali domestici. (da ≈0.04 Gt C a ≈0.17 Gt C)

L’azione umana ha avuto anche impatto sullo stock di vertebrati, con una riduzione di 0.1GtC nella massa dei pesci, circa il 50% e all’aumento corrispondente di animali addomesticati.

L’impatto non si è limitato agli animali ma ha anche modificato profondamente la quantità di carbonio totale sequestrato dalle piante.

Si stima che la massa delle piante si sia dimezzata (e dunque anche la massa totale si è praticamente dimezzata) per azione dell’uomo. La biomassa totale delle specie coltivate dall’uomo è stimata in 10GtC che costituisce solo il 2% del totale delle altre piante rimanenti.

Una nota finale sul fatto che gli errori della stima sono abbastanza grandi, ma secondo me non intaccano l’utilità di questo lavoro.

La prima donna docente e ricercatore alla UC di Berkeley: Agnes Fay Morgan (1884-1968)

Rinaldo Cervellati

Navigando nel sito dell’University of California a Berkeley ci si accorge che Judith Pollock Klinman (di cui abbiamo parlato nel precedente post) è stata la prima donna all’University College of Chemistry a Berkeley, ma non è stata in assoluto la prima donna docente e ricercatore chimico alla Università della California a Berkeley. Il “primato” spetta a Agnes Fay Morgan, Ph.D., che è stata fra i fondatori della Chimica della Nutrizione nel Dipartimento di Economia a Berkeley dove ha lavorato e insegnato per più di 30 anni, fino al suo ritiro e anche oltre.

Agnes Fay Morgan

Ha ricoperto per lungo tempo la cattedra di economia domestica, il suo programma aveva profonde radici scientifiche, e gli studenti dovevano avere un livello di conoscenze scientifiche che non erano tipiche dei programmi di economia domestica dell’epoca. Ma andiamo con ordine.

Agnes Fay nasce il 4 maggio 1884 a Peoria (Illinois), terza di quattro figli di Mary Dooley e Patrick Fay, una coppia di immigrati irlandesi. Intelligente e portata per gli studi frequentò la Peoria High School ottenendo il diploma liceale. Ottenuta una borsa di studio da un benefattore locale, dopo un breve periodo al Vassar College (New York), si trasferì all’Università di Chicago dove conseguì il B.Sc. nel 1905 e il master in chimica nel 1907.

Come sappiamo a quei tempi era molto difficile per una donna intraprendere la carriera di ricercatore, sicchè Fay insegnò chimica all’Hardin-Simmons College (Texas) nel 1905-1906, all’Università del Montana nel 1907-1908 e all’Università di Washington nel 1910-1912. L’annuario 1905 dell’ Hardin-Simmons College del 1905 si riferisce a lei come “selvaggiamente anticonformista”. Ancor più anticonvenzionale fu considerato il suo matrimonio con Arthur I. Morgan, veterano della guerra ispano-Usa del 1898 e noto giocatore di football, suo studente all’Università del Montana[1].

Nel 1912 Fay-Morgan ritornò all’Università di Chicago dove ottenne il Ph.D. in soli due anni (1914) sotto la guida del prof. Julius Stieglitz[2]. Parte della dissertazione di dottorato di Agnes Fay Morgan fu pubblicata nel J. Am. Chem. Soc. [1].

Agnes Fay Morgan in laboratorio

Probabilmente è stata l’unica donna sposata a ottenere un dottorato in USA nelle prime due decadi del secolo scorso. Nonostante il fatto che le donne sposate non fossero generalmente accettate nelle università, Stieglitz scrisse una lettera presentando Morgan per un posto all’Università dell’Illinois. Non è noto se l’Università diede seguito a questa lettera [2], tuttavia Morgan aveva accettato un posto di assistant professor al Dipartimento di Economia Domestica (Home Economics) del College of Letters and Arts all’University of California a Berkeley[3]. Quando nel 1915 Morgan arrivò a Berkeley, scoprì che avrebbe dovuto insegnare nutrizione e dietetica. Per alcuni anni i rapporti fra Morgan e gli amministratori dell’università saranno contradditori e conflittuali, in gran parte dovuti alla convinzione di Morgan che la funzione di un dipartimento universitario di economia domestica doveva essere di scoprire e insegnare i “perché” delle cose, piuttosto che limitarsi a stabilire regole e ricette alimentari per “vivere bene”. Racconterà Morgan:

Così… nel gennaio del 1915, ho iniziato a tenere corsi di dietetica e nutrizione, argomenti di cui non sapevo nulla e a quel tempo forse nessun altro ne sapeva molto. Ho dovuto studiare l’argomento per lo più al di fuori di riviste mediche in tedesco o in inglese . . . non avevo nulla a che fare con la cucina vecchio stile combinata con l’aritmetica delle ricette che era considerata parte della dietetica. In primo luogo, non ero affatto un’ottima cuoca e non mi interessava cucinare. Ero stata chiamata qui per fare qualcosa di pratico per la preparazione dei dietologi, ma non ero in grado di suggerire nulla di pratico.[2]

Aggiungendo:

Quello che volevo fare era stabilire una base scientifica per le varie pratiche che venivano insegnate in quel momento come alimentazione. Volevo impegnarmi a costruire un approccio estremamente rigoroso, un curriculum scientifico in economia domestica e nutrizione.

La maggior parte dei dipartimenti di economia domestica non richiede molto in termini di basi scientifiche. Qui invece chimica generale, chimica organica, biochimica, fisiologia, batteriologia, analisi quantitativa e, ovviamente, statistica, sono le conoscenze richieste nel curriculum da me proposto.

Ma l’amministrazione dell’Università della California a Berkeley ha criticato il dipartimento per questi requisiti giudicandoli eccessivamente rigorosi [2].

Il Dipartimento di Economia Domestica aveva poi croniche difficoltà nel reperire fondi per la ricerca anche in periodi di disponibilità di risorse federali e statali. Per raccogliere fondi, Morgan si offrì di svolgere corsi professionali di alimentazione a insegnanti di scuola, infermieri e altre possibili figure interessate. Ma anche questa iniziativa irritò gli amministratori che considerarono questi corsi al di sotto degli standard dell’università, indebolendo così la reputazione del dipartimento. Sicchè Morgan veniva criticata da un lato per il suo insegnamento troppo rigoroso, dall’altro per l’organizzazione di corsi a carattere professionale…

Resta il fatto che a causa di tutto ciò, a Morgan fu proibito di accettare finanziamenti industriali per la ricerca e le venne fornito poco spazio per condurre il suo lavoro di ricerca.

A questo va aggiunto che inizialmente il Dipartimento era diviso in due sezioni, la divisione di scienze alimentari (con Morgan come capo) e la divisione di lavori e arti domestiche (con Mary Patterson come capo). A Morgan non piaceva condividere il dipartimento con Patterson, che aveva un background in arti decorative e nessuna inclinazione verso la scienza. Nel 1920, il Rettore di Berkeley, David Prescott Barrows, acconsentì alla richiesta di Morgan di separare le due divisioni in dipartimenti distinti poiché avevano curricula e filosofie diverse, così Morgan divenne l’unico direttore del Dipartimento di Scienze Domestiche. Le fu però negato un programma per l’istituzione del dottorato di ricerca in alimentazione e dietologia.

Morgan tuttavia non perse mai coraggio e, consapevole che per fare carriera in una prestigiosa università come Berkeley occorreva fare una buona e documentata ricerca iniziò le sue ricerche nel laboratorio didattico dei suoi studenti. Tenne sempre la sua vita privata ben separata da quella professionale, rimase incinta nel 1923, anno in cui fu promossa full professor, ma il suo staff lo venne a sapere solo in prossimità del parto. I suoi collaboratori dissero che non notarono il suo stato di gravidanza perché Morgan indossava camici molto ampi.

Prof. Agnes F. Morgan

I suoi primi lavori si indirizzarono alle richieste nutrizionali umane e alla produzione e conservazione dei cibi.

È stata la prima a dimostrare che un comune conservante alimentare usato, l’anidride solforosa, ha un effetto protettivo sulla vitamina C ma un effetto dannoso sulla tiamina. Ha studiato il contenuto vitaminico di molte importanti coltivazioni californiane, come grano, mandorle e noci e gli effetti

della loro trasformazione in cibo. Si interessò alle possibili cause di basso peso nei bambini, dimostrando che una dieta ricca di frutta, latte e germi di grano favoriva la crescita dei bambini in età scolare. Usando modelli animali analizzò le relazioni tra vitamine e ormoni.

Studiando le quantità di calcio dietetico, fosforo, vitamina D e ormone paratiroideo ha dimostrato che un sovradosaggio di vitamina D è causa di fragilità delle ossa e calcificazione dei tessuti molli.

Ha anche studiato le interazioni tra vitamina A, carotene e secrezioni tiroidee e tra riboflavina, acido pantotenico e secrezioni di ghiandole surrenali.

La sua ricerca sull’acido pantotenico e sulla funzione della ghiandola surrenale è stata probabilmente il suo maggior successo. Nel 1939 ha mostrato che l’acido pantotenico è essenziale per la normale pigmentazione di capelli e pelle [3].

Una dieta carente di vitamine del gruppo B veniva sistematicamente integrata con tiamina, riboflavina, un preparato di germe di grano, estratti di lievito e di corteccia surrenale per mostrare che la depigmentazione dei peli degli animali erano dovuti all’insufficienza surrenale causata da una mancanza di acido pantotenico (vitamina B5). Per giungere a questo risultato è rimasto famoso uno degli esperimenti, quello delle volpi: Morgan convinse un allevatore di volpi a utilizzare due gruppi di animali, un gruppo trattamento e uno controllo per studiare gli effetti di diete contenenti rispettivamente quantità basse e normali di vitamine del gruppo B. Il gruppo trattamento (le volpi alimentate a ridotto contenuto di vitamine) sviluppò un rado mantello grigio opaco, nel gruppo di controllo invece tutte le volpi presentavano una pelliccia nera lucente. Dopo gli esperimenti, fu confezionata una stola di pelliccia con entrambi i gruppi di peli. Morgan indossò questa stola in almeno due importanti occasioni: la presentazione dei dati dello studio al convegno annuale dell’American Society for Experimental Biology nel 1939 e la cerimonia di premiazione della Garvan Medal conferitale dieci anni dopo dall’American Chemical Society.

Nel 1938, il Dipartimento fu trasferito al College of Agriculture, e tutti i suoi docenti e ricercatori fecero riferimento alla California Agricultural Experiment Station. Il Dipartimento fu coinvolto in una ricerca della Stazione finalizzata a valutare lo stato nutrizionale delle persone anziane abitanti nella contea di San Mateo. La ricerca, condotta su circa 600 volonari di entranbi i sessi, includeva esami fisici completi con raggi X delle ossa, analisi del sangue e delle urine oltre a un sondaggio sull’alimentazione dei singoli individui. Dai risultati di questa lunga ricerca Morgan potè dimostrare per la prima volta che la densità ossea delle donne diminuisce tra 50 e 65 anni di età, e che il colesterolo nel siero è correlato all’assunzione di grassi (HDL e LDL) nella dieta [4].

Prima del suo pensionamento, avvenuto nel 1954, ha pubblicato circa 200 articoli scientifici, un libro di testo (Experimental Food Study, insieme a I. Sanborn Hall, Farrar & Rinehart Inc., NY, 1938) e 77 reviews. Dopo il suo ritiro ha pubblicato circa altri 40 lavori scientifici.

Morgan è stata a volte chiamata come consulente su problemi pubblici per conto di governi statali o del governo federale. In questa veste ha esaminato la qualità del cibo nella prigione di San Quintino nel 1939 e negli anni ’40 è stata fondatrice e presidente del California Nutrition War Committee e prestò servizio nell’ufficio di ricerca scientifica e sviluppo. Nel 1960, Morgan ha fatto parte della Commissione che ha esaminato la tossicità dei pesticidi usati in agricoltura.

Nonostante l’importanza della ricerca di Morgan, molti dei suoi sforzi rimasero non riconosciuti fin verso la fine della sua carriera. Nel 1949 fu insignita della prestigiosa medaglia Garvan dall’American Chemical Society per la sua ricerca pionieristica in campo nutrizionale. Nel 1950 divenne la prima donna a ricevere lo status di docente di ricerca presso l’Università della California. Altri riconoscimenti conferiti a Morgan includono il Borden Award del 1954 dell’American Institute of Nutrition e la Heare Gold Medal di Phoebe Apperson, che la riconobbe come una delle dieci donne eccezionali a San Francisco nel 1963.

Finalmente, nel 1961 l’edificio che ospitava il Dipartimento di Economia Domestica fu rinominato Dipartimento di Scienze Nutrizionali e dal 1963 si chiama Agnes Fay Morgan Hall.

Come appare evidente dal numero di pubblicazioni dianzi riportate Agnes Fay Morgan ha continuato a lavorare nel Dipartimento nella sua qualità di professore emerito fino a che fu colpita da un infarto due settimane prima della morte, il 20 luglio 1968.

Bibliografia

[1] a) Ph. D. Dissertation of Agnes Fay Morgan. I. The Molecular Rearrangements of Some Triarylmethylchloroamines. II. The Viscosities of Various Methyl- and Ethylimido-benzoate Salts and of Para- and Meta-nitrobcnzoylchloramides in moderately concentrated Aqueous Solutions.

(Typewritten.) Abstract in Univ. Chicago Science Series, I, 213-17 (1922-23);

  1. b) Agnes Fay Morgan, The Molecular Rearrangements of Some Triarylmethylchloroamines., Am. Chem. Soc., 1916, 38, 2095–2101.

[2] M. Nerad, The Academic Kitchen., State University of New York Press, Albany, 1999, Cit. in: J.C. King, Contributions of Women to Human Nutrition., J. Nutr., 2003, 133, 3693-3697.

[3] A.F. Morgan, H.D. Simms, Greying of fur and other disturbances in several species due to vitamin deficiency., J. Nutr., 1940, 18, 233-250.

[4] H.L. Gillum, A.F. Morgan et al., The nutritional status of the aging. A summary of the biochemical findings in a study of 577 supposedly healthy men and women over 50 years of age., J. Nutr., 1955, 55(2-4), 1-685.

[1] Come riportato in un precedente post, all’epoca in molti stati USA se una insegnante si sposava doveva rinunciare all’insegnamento…

[2] Julius Stieglitz (1867–1937), chimico americano di origini ebraico tedesche. Ha interpretato il comportamento e la struttura dei composti organici in base alla teoria della valenza e ha applicato i metodi fisico-chimici in chimica organica. Notevole docente con ampi interessi in chimica farmaceutica e medicinale.

[3] Quel posto era pagato 1800 $ annui, ma a un maschio con medesimo curriculum ne sarebbero stati corrisposti 2400…

Scienziate che potrebbero vincere il Premio Nobel: Judith Pollock Klinman (1941- )

Rinaldo Cervellati

Come ricordato nel precedente post, quando Darleane Hoffman si trasferì da Los Alamos all’University College a Berkeley nel 1984, trovò una sola altra donna docente all’UC, Judith Klinman, 15 anni più giovane di lei. Klinman è infatti nata il 7 aprile 1941, quindi ha festeggiato da poco il settantasettesimo compleanno.

Judith Pollock Klinman

Ottenuto il B.A. nel 1962 e poi il Ph.D. in chimica fisica organica nel 1966 all’Università della Pennsylvania, Klinman ha svolto ricerche come post-doc per un anno al Weizman Institute of Science in Israele, poi è stata ricercatore all’Institute of Cancer Research di Filadelfia (Pennsylvania) fino al 1978 quando è entrata a far parte dello staff dell’University College a Berkeley (California)[1].

All’inizio della sua carriera, sviluppò l’uso della sostituzione isotopica negli studi cinetici sulla catalisi enzimatica, mostrando come i composti marcati possano essere utili per verificare ipotesi sui meccanismi di reazione, per determinare ordini e costanti di velocità, nonchè per ottenere costanti di dissociazione del substrato.

Ben presto attorno a Kliman si formò un gruppo di ricerca che continua a dare contributi fondamentali in enzimologia.

Judith Klinman 1990 ca

Nel 1990, Kliman e il suo gruppo scoprì la presenza della neurotossina 6-idrossidopa chinone (TPQ) nel sito attivo di una ammino ossidasi contenente rame nel plasma bovino, superando anni di speculazioni errate riguardo la natura della struttura del sito attivo e aprendo il campo di ricerca sui cofattori derivati da proteine [1].

Il lavoro successivo del gruppo ha dimostrato che la proteina lisilossidasi extracellulare, responsabile del legame incrociato fra collagene ed elastina, contiene una variante reticolata di lisina del TPQ [2]. Dagli anni ’90, gli studi cinetici di Klinman sulle reazioni enzimatiche hanno dimostrato anomalie che implicano il tunnelling quantistico dell’idrogeno nelle reazioni di attivazione dell’idrogeno catalizzate da enzimi [3]. Al momento attuale vi è una scarsità di informazioni riguardanti i profili delle barriere di energia potenziale ai siti attivi degli enzimi, così come il contributo delle dinamiche proteiche ai processi di allentamento del legame. Un approccio estremamente valido per affrontare questi problemi, è appunto il rilevamento e la quantificazione del tunneling dell’idrogeno nelle reazioni enzimatiche. Il gruppo Klinman ha accumulato prove che il tunneling quantomeccanico a temperatura ambiente si verifica in moltissime reazioni enzimatiche.

H tunneling, Me transfer and protein dynamics

Un trattamento quantitativo dei dati fornisce informazioni sul ruolo dei movimenti di proteine ​​/ atomi pesanti nel promuovere l’attivazione del legame C-H attraverso un processo di tunneling [4].

Inoltre, l’uso di mutagenesi sito-specifica e scambio H / D, insieme a proteine ​​omologhe provenienti da nicchie di temperatura, sta rendendo possibile affrontare il modo in cui le interazioni di legame substrato-proteina e le dinamiche proteiche influenzano l’efficienza del processo di tunneling.

Negli ultimi anni è stato sviluppato un set unico di sonde sperimentali per determinare il meccanismo di attivazione dell’ossigeno. Queste sonde stanno iniziando a far luce su come le proteine possono ridurre l’O2 a intermedi radicali liberi, evitando nel contempo il danno ossidativo cellulare.

Schema attivazione ossigeno [5]

Fino a poco tempo fa, si pensava che la maggior parte dei cofattori enzimatici fossero composti a basso peso molecolare che si legavano in modo reversibile alle loro affini proteine . Negli ultimi anni è stata descritta una famiglia di proteine che contengono il loro cofattore all’interno della catena polipeptidica proteica. Una nuova classe di tali proteine è emersa dal laboratorio Klinman, nota come chino-enzimi. Due tipi distinti di cofattori sono stati scoperti negli eucarioti: il 2,4,5-triidrossifenetilammina-chinone (TPQ) derivato da una singola catena laterale di tirosina e osservato nelle ubiquitarie ammineossidasi contenenti rame; e la lisina tirosil chinone (LTQ) derivato dalla reticolazione di lisina e tirosina ossidata all’interno del sito attivo delle lisilossidasi. Nel caso del TPQ è stato stabilito che un singolo ripiegamento proteico catalizza sia la biogenesi del cofattore che il successivo turnover dell’enzima. Queste proteine vengono chiamate proteine a doppia funzione, ponendo il problema di come un singolo ripiegamento proteico possa catalizzare due reazioni apparentemente dissimili. Sono in corso studi approfonditi su questi chino-enzimi, come pure sul cofattore batterico derivato da peptidi, il pirrolo-chinolina chinone. Sono stati anche avviati studi per sondare il ruolo fisiologico di una classe di ossidasi al rame che si trova sulle superfici cellulari, generando perossido di idrogeno, un probabile agente di segnali cellulari.

La vita aerobica pone interrogativi unici. Nello specifico, come le proteine catalizzano l’attivazione dell’ossigeno molecolare evitando di generare intermedi radicalici con sufficiente stabilità per provocare il danno ossidativo cellulare. Il gruppo di Klinman ha proposto un approccio sistematico a questa domanda investigando un’ampia gamma di proteine ​​che funzionano con cofattori organici da soli, con metalli da soli o con una combinazione cofattori organico – centro metallico. La metodologia utilizzata combina mutagenesi sito-specifica, stato stazionario e cinetica rapida, sonde spettroscopiche per intermedi e la misurazione di effetti isotopici O18 [6].

Judith Klinman professore alla Graduate School in Chemistry and Molecular Biology

Judith P. Klinman ha percorso tutte le tappe della carriera accademica a Berkeley fino a professore ordinario nella Graduate School in Chemistry and Molecular and Cell Biology e membro del California Institute for Quantitative Biosciences. E’ stata la prima donna membro della Facoltà di Chimica, di cui è stata anche Preside. Oggi è professore emerito della Facoltà, in questa veste continua a fare ricerca nel gruppo da lei costituito. E’ autrice o co-autrice di più di 400 pubblicazioni scientifiche di cui venti nel quadriennio 2014-2017. Ha ottenuto numerose onoreficienze e premi da importanti istituzioni nazionali e internazionali, fra le quali la National Medal of Science, la più alta onorificenza pubblica che uno scienziato può ricevere negli Stati Uniti e il Premio Willard Gibbs dell’American Chemical Society.

Judith P. Klinman, Medaglia Gibbs dell’ACS

L’American Society for Biochemistry and Molecular Biology, di cui è stata anche Presidente, le ha conferito il Premio Mildred Cohn per la Biochimica.

Fonti consultate:

Bekely College of Chemistry https://chemistry.berkeley.edu/faculty/chem/klinman

The first woman at Cal https://chemistry.berkeley.edu/news/first-women-chemists-cal

http://www.asbmb.org/uploadedfiles/AboutUs/ASBMB_History/Past_Presidents/1990s/1998Klinman.html

Bibliografia

[1] S. M. Janes, D. Mu, D. Wemmer, A. J. Smith, S. Kaur, D. Maltby, A. L. Burlingame, Judith P Klinman, A new redox cofactor in eukaryotic enzymes: 6-hydroxydopa at the active site of bovine serum amine oxidase., Science, 1990, 248, 981-987.

[2] S.X. Wang, N. Nakamura, M. Mure, Judith P. Klinman, J. Sanders-Loehr, Characterization of the native lysine tyrosylquinone cofactor in lysyl oxidase by Raman spectroscopy., J. Biol. Chem. 1997, 272, 28841-28844.

[3] a) Y. Cha, C. J. Murray, Judith P. Klinman, Hydrogen tunneling in enzyme reactions., Science, 1989, 243, 1325-1330; b) A. Kohen, R. Cannio, S. Bartolucci, Judith P. Klinman, Enzyme dynamics and hydrogen tunneling in a thermophilic alcohol deydrogenase., Nature, 1999, 399, 496.

[4] a) M. J. Knapp, K. Rickert, Judith P. Klinman, Temperature-dependent isotope effects in soybean lipoxygenase-1: correlate hydrogen tunneling with protein dynamics., J. Am. Chem. Soc., 2002, 124, 3865-3874; b) Z.D. Nagel, Judith P. Klinman, Tunneling and dynamics in enzymatic hydrogen transfer., Chem. Rev., 2006, 106, 3095-3118.

[5] Judith P. Klinman, How Do Enzymes Activate Oxygen without Inactivating Themselves?, Acc. Chem. Res, 2007, 40, 325-333).

[6] L.M. Mirica, K.P. McCusker, J.W. Munos, H. Liu, Judith P. Klinman, 18O kinetic isotope effects in non-heme iron enzymes: Probing the nature of Fe/O2 intermediates., J. Am. Chem. Soc., 2008, 130, 8122-8123.

[1] Prima donna chimico a far parte dello staff all’University of California a Berkeley. Berkeley è stata fondata nel 1868 per cui festeggia quest’anno il 150° anniversario. In uno dei siti consultati si afferma che: “Una delle eredità più importanti del sistema UC è che le donne furono ammesse due anni dopo la fondazione dell’università, nel 1870. I Regents avevano approvato all’unanimità una risoluzione per ammettere le donne che all’epoca costituivano circa il 36% della popolazione dello stato. L’annuncio dell’University Registrar era chiaramente inteso a incoraggiarle a partecipare: “Le Giovani Donne sono ammesse all’Università a parità di condizioni, a tutti gli effetti come i giovani uomini”. Tuttavia fra il dire e il fare…

La depurazione delle acque reflue e il problema dell’antibiotico resistenza

Mauro Icardi

Gli impianti di depurazione tradizionali a fanghi attivi sono stati sviluppati negli anni che vanno dalla fine dell’ottocento, fino ai primi anni del novecento. L’invenzione del processo a fanghi attivi è collegato con gli sforzi degli ingegneri inglesi e americani per migliorare la depurazione biologica che fino a quel momento avveniva tramite sistemi a biomassa adesa (filtri percolatori).

Partendo dalla necessità iniziale di diminuire i problemi di odori nelle reti fognarie Arden & Locket notarono che ricircolando il fango formatosi durante il periodo di aerazione dei liquami ,si migliorava l’efficienza di trattamento e di intensità del processo depurativo. Questo sistema tradizionale adesso mostra qualche limite, relativamente alla diffusione di inquinanti emergenti di difficile o, in qualche caso, impossibile degradazione per via biologica. L’altro limite del sistema a fanghi attivi tradizionale è quello legato alla produzione di fanghi, e al loro corretto smaltimento o riutilizzo.

Posto che i fanghi sono il prodotto inevitabile di questa tecnica depurativa in essi si concentrano gli inquinanti rimossi dal liquame depurato, ma anche parte dei nuovi inquinanti.

Studi recenti hanno dimostrato che negli impianti di depurazione, ma anche nei fanghi prodotti dal trattamento possono avvenire processi nei quali aumenta la resistenza antibiotica. Il meccanismo è quello del trasferimento di geni tra batteri non patogeni e batteri patogeni.

La resistenza agli antibiotici da parte dei microrganismi può diventare uno dei principali problemi di salute pubblica. Si stima un aumento di decessi legati a problemi di resistenza antibiotica che potrebbe arrivare a causare 10 milioni di decessi causati da infezioni che i normali antibiotici in commercio non sarebbero più in grado di debellare. Quanto maggiore è il numero di antibiotici utilizzati, tanto più veloce sarà la diffusione della resistenza agli stessi. Quindi ottimizzare l’utilizzo degli antibiotici in ambito agricolo e clinico è il primo passo da compiere.

Contestualmente all’estensione di sistemi di trattamento adeguati delle acque reflue nei paesi che ne sono ancora privi.

Laddove invece i depuratori siano presenti è necessario implementare il trattamento terziario di ultima generazione (sistemi MBR o filtri in nanotubi di carbonio)

Per quanto attiene al trattamento dei fanghi prodotti negli impianti di depurazione occorre implementare sistemi efficienti di trattamento, che igienizzino i fanghi, e ne riducano il potenziale patogeno.

Il trattamento di digestione anaerobica può essere già parzialmente efficace nel ridurre il fenomeno dell’antibiotico resistenza. Per migliorare ulteriormente l’efficacia sarebbe opportuno intervenire sulla gestione di processo dei digestori.

I digestori anaerobici che normalmente lavorano in un range di temperatura favorevole al metabolismo dei batteri mesofili (valori ottimali di temperatura di esercizio 30-35°C), dovrebbero passare al trattamento termofilo (valori ottimali 55-60° C) . Questo favorirebbe una maggior igienizzazione del fango.

Il processo termofilo se associato alla codigestione di matrici organiche esterne, quali frazione umida di rifiuti organici (FORSU) avrebbe anche benefici consistenti nella maggior produzione di biogas . Un circolo virtuoso che in alcuni paesi europei quali Francia e Norvegia è già stato diffusamente sviluppato.

Ma il fenomeno della resistenza antibiotica si verifica anche sui fanghi che sono stati sottoposti al trattamento di disidratazione. Un recente studio pubblicato su “Environmental Science Water & research technology” lo scorso Aprile ha confermato questa ipotesi. Ed ha proposto di estendere al trattamento di disidratazione, ed eventuale essicamento dei fanghi, quello termochimico di pirolisi.

Per verificarne l’efficacia si sono utilizzati come indicatori sia il gene rRNA16s, sia gli integroni di classe 1.

I secondi sono già normalmente utilizzati come indicatori di contaminazione e stress ambientale dovute alla diffusione dell’antibiotico resistenza nell’ambiente.

Le prove di pirolisi eseguite in laboratorio su fanghi provenienti da depuratori municipali hanno rivelato che per esempio il gene del rRNA 16S è stato significativamente ridotto operando con temperature di pirolisi tra i 300 e i 700°C.

Lo studio suggerisce quindi di utilizzare il trattamento di pirolisi come tecnica per ridurre l’antibiotico resistenza nei fanghi da destinare a smaltimento finale, o a utilizzo agricolo. I prodotti ottenuti dal trattamento pirolitico, cioè syngas e biochair, sarebbero riutilizzabili. Il primo come combustibile, il secondo come concime o ammendante per terreni. Il trattamento di pirolisi ridurrebbe nel biochair prodotto in primo luogo la contaminazione da antibiotico resistenza, ma anche la presenza di altri inquinanti indesiderati, quali il PCB e le diossine tra gli altri. Mantenendo solo gli elementi essenziali quali azoto e fosforo. Un modo per contrastare anche lo sbilanciamento dei cicli biogeochimici di questi due elementi.

Come si può vedere dalle premesse, il settore del trattamento delle acque reflue si trova davanti ad alcune sfide primarie. La prima fra tutte è quella di una profonda evoluzione delle tecniche da applicare per trattamenti spinti di depurazione delle acque reflue, che sempre più si caricano di inquinanti emergenti. Ma anche di riutilizzo e corretta gestione dei fanghi prodotti dai trattamenti tradizionali, così da renderli riutilizzabili ed ecocompatibili. La diffusione generalizzata ed ubiquitaria di nuovi inquinanti non può più essere sottovalutata. E il problema dell’antibiotico resistenza è una emergenza in qualche modo sottovalutata. Occorre pensare in termini di lungo periodo. E destinare risorse economiche ed umane a questa rivoluzione del settore. Una rivoluzione tecnica che si collegherebbe idealmente con quella del secolo scorso, che diede il via allo sviluppo e alla maturità tecnica della depurazione delle acque reflue. E a cui, almeno noi abitanti dei paesi occidentali dobbiamo anche una buona parte del nostro benessere e della nostra salute.

Link di approfondimento.

http://pubs.rsc.org/en/content/articlelanding/2018/ew/c8ew00141c#!divAbstract

https://www.laboratoriol2a.it/inquinamento-da-antibiotici/

http://verbanonews.it/index.php/categorie/primo-piano/8580-antibiotici-e-metalli-pesanti-nelle-acque-reflue-lo-studio-del-cnr-di-pallanza-pubblicato-da-una-prestigiosa-rivista-scientifica

La qualità dell’aria negli ambienti confinati.

Luigi Campanella, già Presidente SCI

(altri post sull’ argomento:

https://ilblogdellasci.wordpress.com/2017/11/01/strategie-contro-linquinamento-indoor/

https://ilblogdellasci.wordpress.com/2017/08/25/inquinamento-ospedaliero/)

L’espressione ‘ambiente indoor’ è riferita agli ambienti confinati di vita e di lavoro non industriali, ed in particolare, a tutti i luoghi chiusi adibiti a dimora, svago, lavoro e trasporto. Secondo questa definizione, il termine ‘indoor’ comprende: le abitazioni, gli uffici pubblici e privati, le strutture comunitarie (ospedali, scuole, uffici, caserme, alberghi, banche, etc.), i locali destinati ad attività ricreative e/o sociali (cinema, bar, ristoranti, negozi, strutture sportive, etc.) ed infine i mezzi di trasporto pubblici e/o privati (auto, treno, aereo, nave, etc.).

Negli ultimi decenni, con l’eccezionale sviluppo del settore terziario, la popolazione dei paesi industrializzati trascorre una parte sempre maggiore del proprio tempo (fino al 90%) negli ambienti confinati; contemporaneamente, si sono verificati profondi mutamenti nella qualità dell’aria indoor a causa di un progressivo aumento delle sostanze inquinanti. Lo scadimento della qualità dell’aria interna è dovuto in parte agli alti livelli esterni di inquinamento ma, soprattutto, alle numerose sorgenti interne che determinano concentrazioni di inquinanti a volte superiori a quelle presenti all’esterno.

In seguito alla crisi delle risorse energetiche mondiali, si sono imposti nuovi criteri tecnico-progettuali per gli edifici ad uso civile: la necessità di contenere i consumi per il riscaldamento e per la ventilazione ha imposto un migliore isolamento degli edifici, con conseguente tendenza a sigillare gli ambienti interni. Alle modifiche strutturali degli edifici si sono accompagnate modifiche rilevanti degli arredi (nuovi materiali per mobili, rivestimenti, etc.) e degli strumenti di lavoro (crescente impiego di fotocopiatrici, videoterminali, stampanti, etc.).

L’attenzione dei paesi industrializzati è stata rivolta già da tempo allo studio dei fenomeni di inquinamento dell’aria ‘esterna’, di cui ben presto sono state identificate le cause (traffico automobilistico, impianti industriali, impianti di riscaldamento domestico), gli effetti (preoccupante crescita della incidenza di malattie polmonari e neoplastiche) e le eventuali misure di contenimento (lotta all’inquinamento dell’aria urbana). Di contro, solo negli anni più recenti, dall’acquisizione di informazioni ed esperienze sui danni alla salute causati da una scadente qualità dell’aria interna, è emersa l’esigenza di un approfondimento delle conoscenze relative alle fonti di inquinamento indoor, nonché dei rapporti di causa-effetto tra esposizione e salute dell’uomo.

L’inquinamento dell’aria negli ambienti confinati rappresenta un problema importante per la sanità pubblica, con grandi implicazioni sociali ed economiche: in primo luogo la prolungata permanenza della popolazione negli ambienti interni di varia natura implica una continua esposizione a inquinanti indoor; inoltre, il rischio espositivo non è limitato a categorie ben definite. Tale rischio, infatti, non è esclusivamente di tipo professionale od occupazionale, ma è di particolare gravità per alcuni gruppi più suscettibili quali bambini, anziani e persone affette da patologie croniche (malattie cardiache, respiratorie, asma bronchiale, allergie), che trascorrono negli ambienti chiusi una percentuale di tempo particolarmente elevata.

La presenza di numerosi inquinanti (es. fumo passivo) e il clima caldo-umido delle abitazioni (che favorisce la crescita degli acari e di funghi nella polvere domestica), hanno sicuramente contribuito all’aumento della incidenza di patologie respiratorie croniche, come ad esempio l’asma, ed all’incremento della loro evoluzione verso forme persistenti, gravi ed invalidanti.

Recenti studi scientifici hanno evidenziato come alcuni inquinanti siano in grado di contribuire all’aumento dell’incidenza di tumori maligni: un maggior rischio di cancro ai polmoni è stato associato all’esposizione al “fumo di tabacco ambientale” ed ai prodotti di decadimento del Radon. Quest’ultimo è un gas radioattivo incolore, estremamente volatile, prodotto dal decadimento di tre nuclidi capostipiti che danno luogo a tre diverse famiglie radioattive: il Thorio 232, l’Uranio 235 e l’Uranio 238. Il Radon viene generato continuamente da alcune rocce della crosta terrestre, in particolar modo da lave, tufi, pozzolane, alcuni graniti, ma anche da rocce sedimentarie come i marmi. Come gas disciolto, esso viene veicolato anche a grandi distanze dal luogo di formazione nelle falde acquifere ed è nota, inoltre, la sua presenza in alcuni materiali da costruzione. Generalmente, tale gas giunge all’interno delle abitazioni attraverso fessure e piccoli fori delle cantine e dei piani seminterrati degli edifici.

Molti composti chimici presenti nell’aria indoor sono causa, sospetta o accertata, di stimolazione e/o irritazione dell’apparato sensoriale e possono dare vita a senso di disagio e ad altri sintomi comunemente presenti nella cosiddetta “Sindrome da Edificio Malato” (Sick Building Syndrome). Studi condotti in uffici ed in altri edifici destinati ad uso pubblico in diversi paesi hanno rivelato una frequenza di disturbi tra gli occupanti compresa tra il 15 e il 50% .

Un altro acronimo che deve la sua nascita in massima parte proprio all’inquinamenti indoor è la SCM (sensibilità chimica multipla,MCS in inglese).La prolungata presenza in ambienti indoor caratterizzati da inquinamenti combinati,complessi e variabili ha comportato la sensibilizzazione di alcuni individui, immunologicamente più deboli, verso questa nuova patologia,riconosciuta ormai come malattia sociale,anche in PaesiEuropei,primo fra tutti la Germania

L’ipotesi Siluriana.

Claudio Della Volpe

Per un blog col nostro sottotitolo questo è un argomento chiave; quali sono le condizioni geologiche per parlare di Antropocene? Ne abbiamo parlato estesamente in post recenti; sappiamo che ci sono varie ipotesi, almeno 4. E sono legate alla difficoltà di trovare segni di livello geologico del nostro passaggio nella biosfera, di livello geologico, cioè che rimangano saldi per milioni di anni, non per qualche migliaio o centinaia di migliaia. La cosa, come abbiamo documentato, non è banale e la discussione è accesa.

Ma proprio per questo nasce spontanea una domanda: e se in passato ci fossero state altre civiltà come la nostra, da cosa ce ne accorgeremmo? Come potremmo distinguere gli effetti di cause “naturali” da quelli di cause “artificiali”?

Ecco in due parole il senso dell’articolo pubblicato di recente da Gavin Schmidt e Adam Frank.Non tutto il grande pubblico conosce il nome di Gavin; ma per me che mi sono appassionato di clima e ci ho lavorato e insegnato per un pò, Gavin è una sorta di geniaccio; impossibile non conoscerlo.

Ricercatore alla NASA, è stato il fondatore di RealClimate, la pagina di climatologia che ha reso in tutto il mondo la discussione sul clima e la lotta contro il negazionismo climatico, la divulgazione ad altissimo livello della Fisica e della Chimica del clima un argomento di valenza culturale e, diciamolo, anche politica. Ma senza mai dismettere la coerenza e la autorevolezza di essere tenuto e gestito da scienziati militanti. Un esempio da imitare.

E per questo l’articolo di Gavin è estremamente stimolante ed importante.

L’analisi parte dall’equazione di Drake, coniata per stimare la probabilità che esistano altre civiltà; si tratta di una equazione che è semplicemente il prodotto di una serie di termini ciascuno dei quali esprime la probabilità (inferiore all’unità) che un certo evento appartenente alla sequenza necessaria per riprodurre una civiltà tecnologica (come noi la immaginiamo) abbia luogo nelle stelle della galassia o dell’Universo conosciuto.

Alcuni termini si conoscono ormai dallo studio dell’astronomia, altri da quello della geologia della Terra, altri sono stimati anche a partire dalla nostra esperienza. A questo riguardo è interessante notare come per risolvere l’equazione occorra stimare la probabilità che la vita e l’intelligenza si riproducano o si siano riprodotte nella storia della Terra; è possibile che si siano riprodotte più volte? Quasi sicuramente si: vite non basate sul DNA e intelligenze diverse da quella umana (delfini o scimpanzè) sono state robustamente ipotizzate o sono studiate.

Allo stesso modo lo studio della astronomia planetaria tramite i satelliti sta facendo scoprire ed ipotizzare altri ambienti in cui la vita può essersi sviluppata nel passato remoto (Venere e Marte o alcuni dei satelliti di Giove costituiscono ambienti possibili).

Altre note interessanti sono legate al modo in cui raccogliamo informazioni di tipo geologico e antropologico: culture diverse da Homo sapiens sono state già scoperte e recenti sviluppi riguardano per esempio Homo sapiens neanderthalensis che è stato provato capace di arte e culto dei morti, molti eoni prima di noi (fra l’altro dal mio collega di Trento, Diego Angelucci); ricordiamo sempre che il fuoco l’ha inventato Homo erectus, quasi un milione di anni fa mentre noi abbiamo solo 200mila anni.

Quanto dura un manufatto complesso? Il più complesso manufatto “tecnologico” che conosciamo è il meccanismo di Antikythera (probabilmente un planetario alessandrino, una sorta di calcolatore analogico) datato 205aC e trovato in fondo al mare. I nostri computer quanto dureranno?

(Thanassis Stavrakis, Associated Press)

Nonostante la ampia e stimolante introduzione il lavoro è comunque ristretto all’analisi delle condizioni geochimiche necessarie ad individuare una civiltà industriale pre-quaternaria dai record geologici compresi fra il Devoniano e il Pliocene, dunque fra 400 e 4Ma fa.

Il primo pezzo dell’articolo è dunque dedicato all’impronta geologica dell’Antropocene (The geological footprint of the Anthropocene), l’epoca che viviamo e a cui il nostro blog è dedicato.

La discussione verte su tracce geologiche che rimangano stabili per milioni di anni; a questo riguardo Gavin dice una cosa molto interessante. C’è un paradosso; uno si aspetta che la civiltà umana lasci tracce più evidenti col trascorrere del tempo, ma in effetti, nota l’articolo, se una civiltà dura molto tempo vuol dire che diventa sostenibile e se diventa sostenibile allora la sua impronta ecologica diminuirà, NON crescerà. Voi che ne dite? Già questa è una domanda di quelle che meritano, e fare domande è il ruolo dello scienziato.

Alcuni elementi di livello geologico sono:

-l’alterazione del rapporto 13C/12C legato all’aver bruciato in due secoli e mezzo oltre 500Gton di C di origine fossile e dunque con bassissimo tenore di 13C; il rapporto fra i due isotopi è dunque diminuito e rimarrà tale nel record geologico;

– a causa dell’aumento di temperatura indotto da questa combustione è cambiato il δ18O, ossia è cambiato il rapporto 18O:16O, che sono i due isotopi stabili dell’ossigeno;

– e infine l’effetto combinato della combustione dei fossili, della sintesi Haber-Bosch, dell’applicazione su larga scala della concimazione sintetica e la selezione di piante che fissano più azoto ha alterato profondamente il ciclo dell’azoto così da alterare anche δ15N in sedimenti lontani da quelli delle zone “civilizzate”.

Sono cambiati i sedimenti oceanici sia in quantità sia in composizione a causa dell’aumentato flusso di materiali.

Alcuni animali “domestici” hanno avuto uno sviluppo enorme mentre altri invece sono scomparsi a causa della scomparsa dei loro habitat.

Queste modifiche si noterebbero anche a molti milioni di anni di distanza. Poi ci sono le molecole sintetiche per esempio i cosiddetti POPs, ossia le molecole organiche persistenti che si comportano di fatto come degli inquinanti molto insidiosi; molti di essi sono costituiti da molecole con legami C-Cl o C-F, più forti e stabili di quelli C-C e C-O, anche se non sappiamo in effetti quanti anni effettivamente queste molecole persisterebbero nell’ambiente.If an industrial civilization had existed on Earth many millions of years prior to human era, what traces would it have left and would they be detectable today? Image credit: Michael Osadciw, University of Rochester.

http://www.sci-news.com/featurednews/silurian-hypothesis-05921.html

Sappiamo comunque che nei sedimenti alcune molecole persistono per tempi molto lunghi; questo si sa che avviene per i grassi e gli steroidi; questa situazione deve essere considerata anche alla luce del fatto che le molecole di origine naturale e sintetica hanno spesso una differenza: quelle sintetiche sono presenti con entrambi i loro racemi, se le molecole sono otticamente attive, mentre quelle naturali al contrario sono presenti solo in una delle forme.

Anche le cosiddette plastiche sono ampiamente presenti in ambiente e rappresentano nei sedimenti materiali notevolmente persistenti.

Ed infine ci sono almeno due isotopi transuranici la cui origine è prevalentemente sintetica: Plutonio-244 (semivita 80.8 milioni di anni) e il Curio-247 (semivita 15 milioni di anni) sarebbero ritrovabili per un tempo molto lungo; ovviamente le quantità in gioco sarebbero significative in caso di eventi estremi come esplosioni atomiche generalizzate.

Nella seconda parte dell’articolo Schmidt considera quali eventi del passato abbiano avuto conseguenze simili a quelle che abbiamo analizzato finora per l’Antropocene. Ora questi episodi esistono nel passato geologico e sono conosciuti come ipertermali, periodi della durata di 10-100.000 anni in cui la temperatura è variata significativamente verso l’alto ritornando poi lentamente alla “normalità”.

Fra gli altri ipertermali 4 gruppi vengono esaminati in dettaglio differenziandoli a seconda della loro età geologica, situati nell’Eocene, nel Paleocene, nel Giurassico-Cretacico e poi più indietro nel Mesozoico e nel Paleozoico.

Gavin conclude che è difficile al momento attribuire o escludere con certezza cause artificiali (come una civiltà di tipo industriale) considerate come origine di fenomeni passati che presentano di fatto molti punti di contatto con quelli che stiamo vivendo adesso: esteso e rapido aumento della concentrazione di gas serra, aumento generalizzato della temperatura planetaria, alterazione della composizione anche isotopica dei depositi, alterazione della fauna e della flora con estesa riduzione del numero di specie, presenza di molecole od isotopi la cui origine naturale è improbabile o impossibile; si augura che una maggiore attenzione ad una ipotesi di questo tipo possa in futuro consentire di accettare od escludere la possibilità prospettata. Gli autori del lavoro sono al momento convinti che la loro ipotesi sia falsa; ma rimangono aperti a scoperte emozionanti.

Ho avuto modo di discutere dell’ipotesi con alcuni studenti nei vari corsi che tengo e che coinvolgono essenzialmente futuri ingegneri; parecchi la hanno considerata una ipotesi da “fisici” da “scienziati”, non cose da ingegneri; il che onestamente mi appare riduttivo. Ma la cosa che mi ha preoccupato di più è stata la riflessione di uno studente che dato che è molto probabile che tra qualche milione di anni ragionevolmente non ci sarà più traccia di noi allora tanto vale che viviamo come meglio ci aggrada, senza preoccuparci del futuro.

Voi che ne pensate?

Riferimenti.

Preprint su arxiv: https://arxiv.org/abs/1804.03748

Articolo di Gavin Schmidt:

https://www.cambridge.org/core/journals/international-journal-of-astrobiology/article/silurian-hypothesis-would-it-be-possible-to-detect-an-industrial-civilization-in-the-geological-record/77818514AA6907750B8F4339F7C70EC6

Un nuovo sistema per l’elettrolisi dell’acqua di mare a energia solare*

Rinaldo Cervellati

La frase del titolo è parte molto accattivante del titolo di una notizia riportata da Mark Peplow il 30 marzo scorso su Chemistry & Engineering newsletter on-line del 4 aprile.

Peplow inizia osservando che la produzione di idrogeno attraverso l’elettrolisi dell’acqua potrebbe portare a una fonte rinnovabile del combustibile, ma per piccole nazioni insulari come ad esempio Singapore, l’acqua dolce è però una risorsa preziosa. Quindi un gruppo di ricercatori della Nanyang Technological University (NTU) di Singapore, coordinati dai Prof. Bin Liu (Singapore) e S.Z. Quiao (University of Adelaide, Australia), ha rivolto l’attenzione al mare, sviluppando catalizzatori che porterebbero a elettrolizzare l’acqua di mare con efficienza record, generando ossigeno e idrogeno che potrebbero alimentare le celle a combustibile (S-H. Hsu et al., An Earth-Abundant Catalyst-Based Seawater Photoelectrolysis System with 17.9% Solar-to-Hydrogen Efficiency, Adv. Mater., 2018, DOI: 10.1002/adma.201707261).

  Un sistema di elettrolisi ad energia solare sviluppa idrogeno al catodo (a sinistra) e ossigeno all’anodo (a destra).

Il sistema è alimentato da energia solare, formando idrogeno con un’efficienza complessiva del 17,9%. Per quanto ne sappiamo, questa è la massima efficienza ottenuta con l’acqua di mare, afferma Bin Liu della NTU di Singapore, che fa parte dei coordinatori del gruppo di ricerca.

Prof. Bin Liu

Gli oceani sono un’enorme riserva di atomi di idrogeno, ma ottenere idrogeno molecolare per elettrolisi di acqua marina è una grande sfida. In una cella elettrolitica, la corrente usata per dissociare l’acqua salmastra forma anche altri prodotti, per esempio trasforma gli ioni cloruro in cloro gassoso indesiderato, mentre altri ioni come il calcio e il magnesio formano precipitati insolubili che inibiscono i catalizzatori depositati sugli elettrodi. Le reazioni di elettrolisi possono poi anche causare variazioni di pH con conseguente corrosione degli elettrodi.

Il gruppo di Liu aveva in precedenza sviluppato un catalizzatore al solfuro di molibdeno e nichel che abbassa la differenza di potenziale necessaria per generare idrogeno dall’acqua marina al catodo. (J. Miao et al., Hierarchical Ni-Mo-S nanosheets on carbon fiber cloth: A flexible electrode for efficient hydrogen generation in neutral electrolyte., Sci. Adv. 2015, DOI: 10.1126 / sciadv.1500259).

Il loro nuovo catalizzatore per l’anodo si basa su elementi abbondanti in natura (Fe, Co) per l’ossidazione anodica con sviluppo di ossigeno gas e formazione di ioni idrogeno. I ricercatori hanno coltivato nano cristalli aghiformi di carbonato di cobalto basico su tessuto in fibra di carbonio. Quindi hanno immerso il tessuto in 2-metilimidazolo formando uno strato sottile di struttura organometallica cobalto-imidazolo (MOF, Metal Organic Framework) all’esterno degli aghi. L’aggiunta di ferrocianuro di sodio lo ha trasformato in esacianoferrato di cobalto, che ha mantenuto la nanostruttura porosa del MOF formando gusci catalitici di 20 nm di spessore attorno ai nanoaghi conduttori.

Schema di un elettrolizzatore a energia solare per acqua di mare. Il catalizzatore esacianoferrato di cobalto favorisce lo sviluppo di ossigeno sull’anodo (freccia gialla, a destra). Nel contempo, il catalizzatore di solfuro di molibdeno e nichel sul catodo favorisce lo sviluppo di idrogeno (freccia rossa, a sinistra). Il pannello solare è mostrato a sinistra con il collegamento agli elettrodi.

Con una cella solare a tripla giunzione commerciale per fornire elettricità, il gruppo di ricercatori ha testato il sistema utilizzando acqua di mare locale, aggiungendo solo un tampone fosfato per mantenere neutro il pH. Dopo 100 ore di funzionamento continuo, l’elettrolizzatore aveva prodotto idrogeno e ossigeno, senza cloro. Inoltre, i suoi elettrodi e catalizzatori erano intatti e la produzione diminuita solo del 10%.

Al contrario, un elettrolizzatore che utilizzava catalizzatori convenzionali di platino e ossido di iridio per decomporre l’acqua marina locale ha subito una diminuzione di attività molto più rapida, producendo anche cloro.

Il fatto che sia selettivo per l’evoluzione dell’ossigeno piuttosto che per l’evoluzione del cloro è molto significativo, afferma Michael E. G. Lyons, ricercatore elettrochimico al Trinity College di Dublino, aggiungendo: È un risultato molto difficile da ottenere.

Michael E.G. Lyons

Peter Strasser dell’Università tecnica di Berlino, che ha lavorato all’elettrolisi dell’acqua di mare, sottolinea che il sistema ha una densità di corrente molto bassa. Per produrre utili quantità di idrogeno, il sistema avrebbe bisogno di una densità di corrente molto più elevata, che potrebbe innescare l’evoluzione del cloro o altre reazioni collaterali indesiderate, e aggiunge: I problemi sorgono quando si passa a densità di corrente elevate“.

Peter Strasser

Bin Liu afferma che i test iniziali a densità di corrente più elevate non hanno prodotto alcun cloro. Ma riconosce che le prestazioni del sistema potrebbero essere migliorate. Ad esempio, con l’utilizzo di acqua dolce, gli elettrolizzatori ad energia solare hanno raggiunto efficienze da solare a idrogeno superiori al 30% (J. Jia et al., Solar water splitting by photovoltaic-electrolysis with a solar-to-hydrogen efficiency over 30%., Nat. Commun. 2016, DOI: 10.1038/ncomms13237).

Il gruppo di Liu sta ora lavorando con i ricercatori del Dalian Institute of Chemical Physics (Dalian, Rep. Pop. Cinese), per sviluppare il loro sistema in un prototipo di dispositivo per la produzione pilota di idrogeno dall’acqua di mare.

Dopo i commenti dei due ricercatori Michael Lyons e Peter Strasser, riportiamo quelli di due esperti che fanno parte della redazione del blog.

Vincenzo Balzani dice:

Argomento importantissimo, studiato da molti scienziati. Ai catalizzatori buoni ci si arriva un po’ per caso. Tutto plausibile. Il punto è se è vero che “Dopo 100 ore di funzionamento continuo, l’elettrolizzatore aveva prodotto idrogeno e ossigeno, senza cloro. Inoltre, i suoi elettrodi e catalizzatori erano intatti e la  produzione diminuita solo del 10%.”  e se “ i test iniziali a densità di corrente più elevate non hanno prodotto alcun cloro”. Poi bisognerebbe sapere se è economicamente convenente rispetto ai metodi basati su osmosi inversa (elettrodialisi inversa).

Claudio Della Volpe commenta:

Il cobalto usato come catalizzatore nel processo non è il massimo come materiale; in un solo posto al mondo (miniera di Bou Azzer in Marocco che ha riserve limitate) si estrae cobalto direttamente, altrimenti è una impurezza di altri metalli; in altre tecnologie come le batterie al litio il cobalto ha mostrato problemi proprio nei limiti di produzione come risorsa; se ne producono solo 100.000 ton all’anno e quelle da risorsa primaria sono solo meno di 2mila; in definitiva il cobalto è una risorsa limitata e costosa.

Non mi pronuncio sugli altri aspetti, ma già l’articolo chiarisce che c’è un limite nei dati; gli sperimentatori hanno usato una densità di corrente bassa, ossia non hanno esplorato veramente la sovratensione del sistema e inoltre aumentando la corrente non solo aumenterebbe la sovratensione (che è una sorgente di dissipazione energetica, di inefficienza) ma sorgerebbe anche il problema potenziale di innescare altri processi, un tipico problema elettrochimico. Nel libro di elettrochimica di Bianchi e Mussini (G. Bianchi, T. Mussini, Fondamenti di Elettrochimica. Teoria e Applicazioni, CEA, Milano, 1993) la parte teorica termina proprio con questo tipo di analisi: due reazioni con diverse sovratensioni: quella termodinamicamente favorita potrebbe essere quella più limitata da motivi cinetici (sovratensione).

Infine come giustamente dice Vincenzo non ci sono analisi differenziali del processo contro altri concorrenti agguerriti e attualissimi; diciamo che gli autori fanno pensare di non aver approfondito ancora cose veramente importanti, d’altronde basta aspettare e vedere se il risultato viene confermato.

*Tradotto e ampliato da c&en del 4 aprile 2018.

I controlli sulle acque reflue come monitoraggio sanitario

Mauro Icardi

Dal 2004 fino a tutto il 2012 presso l’impianto di depurazione di Varese, si sono svolte diverse campagne di monitoraggio aventi lo scopo di verificare le quantità e le concentrazioni di metaboliti di farmaci e di droghe d’abuso, in particolare la cocaina. In particolare io mi sono occupato del controllo dell’impostazione corretta dei campionatori programmabili, e della supervisione ai campionamenti . I prelievi venivano predisposti nell’arco temporale di una settimana e in periodi di tempo secco. Queste attività si sono svolte in collaborazione con l’Istituto farmacologico Mario Negri di Milano, e con l’Università dell’Insubria di Varese. L’ateneo ha successivamente svolto altre campagne di campionamento focalizzando maggiormente l’attenzione su altri aspetti , in particolare la verifica di funzionalità degli impianti di depurazione tradizionali relativamente alle rese di abbattimento di questi particolari inquinanti che rientrano tra quelli definiti emergenti. Nel caso delle verifiche effettuate in collaborazione con l’Istituto Mario Negri i campioni venivano prelevati all’ingresso impianto. Per le successive campagne svolte con l’Università di Varese, anche all’uscita dell’impianto. In questo caso per ottenere dati congruenti   la partenza del ciclo di prelievi era ritardata tenendo conto del tempo di ritenzione idraulica, relativo a tutte le fasi di trattamento delle acque fognarie. Entrambi i campionatori erano comunque impostati con frequenza di campionamento proporzionale alle variazioni di portata idraulica.

Nel 2005 venne pubblicato il risultato della campagna di monitoraggio del lavoro svolto dal gruppo di Fanelli e Zuccato dell’Istituto di Ricerche Farmacologiche Mario Negri in collaborazione con Davide Calamari dell’Università dell’Insubria, purtroppo deceduto prematuramente.

https://ehjournal.biomedcentral.com/articles/10.1186/1476-069X-4-14I campionamenti furono effettuati anche su altri tre impianti di depurazione di acque reflue, quelli di Cuneo, Latina e Cagliari e sul fiume Po.

La determinazione della Cocaina e del suo principale metabolita, la benzoilecgonina (BE) furono determinati attraverso l’utilizzo combinato di cromatografia liquida e spettrometria di massa, presumendo il riscontro di quantità basse. Questo servì a stabilire che effettivamente i due composti si potevano misurare e per verificare che il loro rapporto fosse compatibile con quello che viene indicato da altri studi nell’uomo, e cioè circa 0,15 parti di cocaina per ogni parte di BE eliminata. La BE è escreta completamente attraverso le urine, la cocaina solo in parte.

Le misure effettuate presso i depuratori di quattro città di provincia italiane e cioè Cagliari, Cuneo, Latina e Varese stabilirono inoltre le concentrazioni di BE che oscillavano a seconda delle città da 383.000 a 751.000 picogrammi per litro. Sulle acque superficiali del fiume Po si ci si rese conto, considerando una portata media di 750 m3/sec ,che il fiume trasportava 4 kg al giorno di cocaina. Ogni anno poco più di una tonnellata (1,3 t).
Nello stesso modo considerando i valori di portata influente sugli impianti oggetto di monitoraggio si verificarono le quantità di cocaina che vi transitavano. Il valore per Varese risultò pari a circa 13 kg/anno di cocaina, del tutto simile a quelli degli impianti di Cuneo e Latina, pari a 11 e 12 kg/anno rispettivamente. Il valore più elevato riscontrato a Cagliari (47kg/anno) è da riferirsi ad una città con dimensioni e popolazione maggiori. Successivamente due monitoraggi   effettuati da studenti del corso di Ingegneria della sicurezza dell’ambiente dell’Università dell’Insubria , effettuati sul depuratore di Varese hanno mostrato incremento di concentrazione di metaboliti della cocaina nei campioni di acque prelevate nel fine settimana. L’incremento di concentrazione aveva anche punte del 40-50% rispetto ai giorni feriali. Situazione abbastanza prevedibile considerando che a fronte di un consumo già diffuso e abbastanza generalizzato di cocaina, esso si incrementi molto nei fine settimana. L’uso di cocaina per il fenomeno dello sballo del week end.L’altro aspetto che si ipotizzava e che si e confermato, è che il trattamento biologico tradizionale avesse efficacia molto limitata nella rimozione di questo genere di inquinanti, che transitano praticamente inalterati allo scarico finale. Questo, come altri studi simili, dimostra come l’adeguamento generalizzato degli impianti di depurazione, con adatti trattamenti di tipo terziario sia urgente e indifferibile. Ciò che il depuratore non riesce a trattenere finisce inevitabilmente nell’ambiente. Questo è argomento che deve essere affrontato dalla politica, sia a livello nazionale che locale. Studiosi e gestori hanno fornito documentazioni e dati, e considero che il loro compito sia stato correttamente svolto. Molti altri articoli e studi mostrano gli effetti nefasti dei modificanti endocrini e dei composti organici persistenti sulla fauna ittica. Ma purtroppo si può dire, utilizzando una battuta sarcastica, che i pesci sono muti.

E non sentiamo quindi i loro lamenti. Un inquinamento di questo tipo è subdolo. Generalmente non provoca evidenti morie di pesci. Ma per esempio muta i loro caratteri sessuali e la fertilità. Un inquinamento che non si percepisce immediatamente, se non quando il numero di specie ittiche sono ormai ridotte. E un altro importante aspetto da considerare, è quello dell’accumulo di metaboliti provenienti da consumo di farmaci, antidolorifici o calmanti che sono tra quelli più usati. Spesso anche dei farmaci si fa un uso che dovrebbe essere maggiormente ponderato. E occorre verificare gli effetti collaterali che questi metaboliti potrebbero avere sulla nostra salute, attraverso il loro concentrarsi tramite la catena alimentare. Questo aspetto ha del surreale, un effetto boomerang.

Per quanto riguarda l’aspetto morale del consumo di stupefacenti non voglio pronunciarmi. Personalmente ho avuto la fortuna di non subire nessuna fascinazione in tal senso nel corso degli anni. Mi è capitato spesso di parlare con persone cercando quantomeno di sfatare un mito, cioè quello che la cocaina non dia assuefazione e non sia dannosa. Purtroppo molti associano l’uso di questo stupefacente a sensazioni diffuse di benessere e di potenza sessuale. E normalmente a quel punto la conversazione finisce per infilarsi in un “cul de sac” e io solitamente la interrompo.

Questo primo studio ha però dato adito ad un nuovo ulteriore approccio che per altro origina fin dagli anni 90. Cioè il monitoraggio delle acque in ingresso ai depuratori, come strumento per verificare le condizioni di benessere e salute della popolazione in maniera anonima. Questo è il contenuto di un articolo che mi è stato segnalato dal collega di redazione Rinaldo Cervellati che ringrazio.

Pubblicato sulla rivista Chem Eng News suggerisce che, non solo le droghe e i farmaci possano essere monitorati, ma anche per esempio i lipidi, o i metaboliti legati al fumo di sigaretta.

Secondo Rolf Haden un ingegnere ambientale e direttore del Centro per l’Ingegneria della Salute Ambientale presso l’Arizona State University’s Biodesign Institute, all’ingresso di un impianto di trattamento delle acque reflue “Si può osservare tutta la chimica che viene utilizzata in una città. È possibile misurare i metaboliti che sono migrati attraverso il corpo umano. È possibile guardare i farmaci che vengono presi. In sostanza, sei in un luogo dove è possibile osservare la salute umana in tempo reale“.

Nel 2010 , i ricercatori di sette organizzazioni che effettuano misurazioni di questi nuovi inquinanti si sono riuniti per formare la rete SCORE, acronimo di Sewage Analysis CORe group Europe.

Dal 2011 la rete Score ha coordinato misure annuali di quattro droghe illecite-cocaina, 3,4-Methylenedioxymethamphetamine (MDMA, la droga sintetica comunemente nota come ecstasy), anfetamine, e metanfetamine in tutta Europa. La rete riporta tali dati all’Osservatorio europeo delle droghe e delle tossicodipendenze (OEDT), che rilascia i risultati al pubblico nell’ambito dei suoi sforzi in corso per fornire informazioni sui problemi di droga in Europa.

Sebbene l’epidemiologia basata sulle acque reflue si sia finora concentrata principalmente sulle droghe illecite, i ricercatori si stanno attivando per esaminare altri composti. Ad esempio, i membri del SCORE hanno utilizzato l’approccio per monitorare il consumo di composti legali, tra cui caffeina, nicotina e alcol

L’articolo decisamente molto interessante interessante può essere consultato qui:

https://cen.acs.org/environment/water/monitor-health-citiesresidents-look-further/96/i18

La lettura è consigliata perché mostra quali siano le possibilità di un approccio di questo genere, e anche quali gli aspetti organizzativi e pratici. Dalla creazione di circuiti interlaboratorio per la verifica delle performance analitiche, la scelta delle molecole da determinare in funzione delle loro stabilità e delle eventuali modificazioni durante il transito negli impianti, fino alla gestione di altri dati da interfacciare ai risultati delle analisi (popolazione residente, portate affluenti agli impianti di trattamento ecc..).

E concentrandosi non solo sulle fasi acquose, ma a maggior ragione sui fanghi di risulta, dove si accumulano le sostanze depurate in fase acquosa.

Rispetto ai lavori precedenti sulle droghe illecite, l’epidemiologia basata sulle acque reflue con marcatori di salute endogeni ha avuto un avvio lento. Ma è auspicabile che possa essere sviluppata ulteriormente.

Il mio personale auspicio è ovviamente quello che queste iniziative portino in primo luogo maggior consapevolezza nella popolazione. Siamo noi consumatori che, dobbiamo e possiamo modificare i nostri stili di vita. La tecnologia nulla può nel risanamento ambientale se non è affiancata a questo basilare concetto. Dovremmo cercare di essere maggiormente equilibrati da questo punto di vista.

Per semplificare non è che la possibilità di avere depuratori più efficienti ci possa indurre a consumare più droghe o farmaci, e quindi a scaricarne maggiormente i residui e i metaboliti nelle acque, sentendoci giustificati in qualche modo.

Iniziative volte ad un monitoraggio maggiormente capillare delle acque reflue, sia per scopi di controllo della salute pubblica, che della qualità delle acque è necessario. Ultima considerazione quella di estendere i confronti e lo scambio di informazioni tra più soggetti. Università, centri di ricerca, gestori di impianto, enti di controllo.

Dalla terapia fotodinamica alla fotofarmacologia: le applicazioni mediche di una delle prime macchine molecolari


Rinaldo Cervellati

Ne parla diffusamente Katharine Sanderson in un articolo intervista su* Chemistry & Engineering newsletter del 2 aprile scorso, che vale certamente la pena di riportare integralmente.

Nella terapia fotodinamica, le cellule tumorali sono esposte alla luce laser, a volte tramite sonde a fibre ottiche. Un’impostazione simile potrebbe presto essere utilizzata in fotofarmacologia, oppure i medici potrebbero aver bisogno di impiantare LED per illuminare le aree bersaglio del corpo umano.

Terapia fotodinamica: le cellule tumorali sono esposte alla luce laser, a volte tramite sonde a fibre ottiche.

Nella lotta contro il cancro, le nostre opzioni terapeutiche sono migliorate nel corso degli anni. Ma sono ancora lontane dall’essere ottimali. Oggi i medici somministrano farmaci chemioterapici nella speranza di eliminare o ridurre un tumore prima che provochi troppi danni ad altre parti adiacenti del corpo del malato.

Ora i chimici sperano di guadagnare ancor più terreno in questa battaglia, progettando piccole molecole che possono essere attivate dalla luce all’interno dell’organismo dopo aver raggiunto il bersaglio, limitando così drasticamente gli effetti collaterali.

Gli scienziati mirano a utilizzare questi farmaci fotosensibili non solo per combattere il cancro, ma pensano anche che composti con un comportamento simile potrebbero essere utili nel trattamento della cecità e di altre gravi malattie. Antibiotici regolabili con segnali luminosi potrebbero persino aiutare a combattere la farmacoresistenza. Si deve pensare a questi farmaci come a interruttori molecolari, quando colpito dalla luce il farmaco si attiva, quando si spegne la luce il farmaco si disattiva. Mantenendo quindi la luce spenta quando il farmaco non lavora si impedirà ai patogeni di riconoscerlo come pericoloso e quindi di svilupparne resistenza.

Sebbene l’interesse per lo sviluppo di questi interruttori molecolari sia in aumento, la ricerca nel settore presenta ancora importanti problemi da risolvere. Ad esempio, i ricercatori devono assicurarsi che gli interruttori molecolari funzionino a lunghezze d’onda clinicamente inerti, per intenderci quelle che possono passare attraverso i tessuti senza fare danni. Inoltre i ricercatori devono poter lavorare in stretta collaborazione con i clinici per trovare dispositivi adatti a accendersi e spegnersi in prossimità di uno o più bersagli all’interno del corpo del malato.

L’idea di usare la luce per trattare alcune patologie non è completamente nuova. Ad esempio, la terapia fotodinamica (PDT) tratta i tumori e altre malattie della pelle. In questo tipo di terapia ai malati vengono somministrati farmaci colorati sotto forma di pillole, iniezioni sottocutanee o creme applicate sulla cute. La pelle così trattata viene illuminata con luce di opportuna lunghezza d’onda, che attiva le molecole del farmaco le quali convertono l’ossigeno dal suo stato normale di tripletto allo stato eccitato di singoletto, un potente radicale libero che distrugge le cellule malate.

Il fatto però che molti tumori sono ipossici, cioè richiedenti abbondante ossigeno, può ridurre molto l’efficacia di questo tipo di strategia.

Edith C. Glazer e il suo gruppo all’Università del Kentucky ha sviluppato complessi polipiridilici del rutenio (II) che espellono un ligando quando attivati dalla luce.

Effetto della luce su uno dei complessi di Glazer

Il composto residuo si lega poi al DNA delle cellule cancerose provocandone l’apoptosi.

Edith C. Glazer

A differenza delle molecole colorate nella PDT, le terapie fotofarmacologiche “utilizzano l’energia di un fotone per provocare un cambiamento chimico all’interno della struttura del farmaco”, spiega Glazer, “e questa nuova struttura si lega a un particolare bersaglio causando la morte delle cellule cancerose”.

In altre parole l’espulsione irreversibile di un ligando consente ai complessi di reticolare il DNA delle cellule cancerose provocandone danni irreparabili. Glazer può regolare la solubilità dei complessi e le lunghezze d’onda della luce che assorbono scegliendo opportuni ligandi, oppure creare composti a “doppia azione” che espellono i ligandi e sviluppano ossigeno singoletto (S.B. Howerton et al. Strained Ruthenium Complexes are Potent Light-Activated Anticancer Agents., J. Am. Chem. Soc. 2012, DOI: 10.1021/ja3009677).

Queste molecole possono essere davvero potenti, dice Glazer. “Le cellule si sono evolute per opporre resistenza all’ossigeno singoletto, poiché questo si forma naturalmente, ma addotti DNA-metallo non esistono in natura e quindi può essere più difficile per la cellula sviluppare una resistenza”.

Ma molti chimici, come Wiktor Szymanski dell’University Medical Center di Groningen, vogliono fare un ulteriore passo avanti e utilizzare la luce per “accendere” (attivare) e “spegnere” (disattivare) farmaci, facendoli diventare veri e propri interruttori. Recentemente si è concentrato su antibiotici fotocommutabili.

Viktor Szymansky

In questo modo il medico potrebbe decidere non solo quando ma anche dove gli antibiotici dovranno andare ad agire all’interno del corpo del malato. Una volta che un antibiotico attivato dal segnale luminoso ha esercitato il suo effetto, potrebbe essere disattivato con un diverso segnale luminoso.

Struttura di un antibiotico di Szymanski

Per rendere questi antibiotici on-off, Szymanski e collaboratori hanno modificato alcuni noti antibiotici inserendo nella loro molecola un gruppo azobenzenico, un gruppo fotosensibile a isomeria trans-cis. La luce ultravioletta converte l’azobenzene dalla sua forma trans alla forma cis. La luce blu può invertire il processo rapidamente. Altrimenti, l’azobenzene recupererà lentamente nel tempo la sua forma stabile, trans. L’isomerizzazione modifica la dimensione, la forma o la polarità complessiva della molecola, consentendole di colpire il microorganismo bersaglio.

Szymanski afferma che è sorprendente il numero di farmaci a cui basta aggiungere un gruppo fotocommutatore per conferir loro questa proprietà, esiste quindi la potenzialità per migliorarne la capacità di azione.

Glazer dice che un tale approccio è senza dubbio attraente ma osserva che ha alcune limitazioni. Una è la lunghezza d’onda della luce necessaria per eseguire la commutazione. Le migliori lunghezze d’onda per innescare l’isomerizzazione sono nella regione UV. La luce UV non è molto utile dal punto di vista medico, afferma Glazer, “poiché essa non penetra più di qualche millimetro nel tessuto e può inoltre indurre mutazioni del DNA nelle cellule sane”.

La luce rossa e infrarossa, d’altra parte, penetrano nel tessuto in profondità e in sicurezza. Stefan Hecht dell’Università Humboldt di Berlino sottolineava però che la luce rossa e infrarossa ha in genere i propri limiti. “Con la luce UV c’è molta energia che colpisce la molecola, ma se si irradia una molecola con luce rossa o quasi IR, la quantità di energia che scarichi nella molecola è minore piccola, e continuava: “fondamentalmente, quando la luce rossa o IR colpisce un gruppo foto-commutatore, lo fa con meno energia, e quindi l’isomerizzazione può essere meno probabile che con la luce UV. Ciò significa che il farmaco potrebbe essere meno potente. Sarebbe possibile superare alcuni di questi limiti e sintonizzare le molecole su lunghezze d’onda più lunghe concentrandosi sulla progettazione di interruttori migliori”, affermava Hecht.

Stefan Hecht

Alla fine dello scorso anno, Szymanski e collaboratori, fra i quali Ben Feringa[1], hanno fatto un passo avanti con gli antibiotici foto commutabili proprio nella direzione indicata da Hecht (M. Wegener et al. Photocontrol of Antibacterial Activity: Shifting from UV to Red Light Activation., J. Am. Chem. Soc., 2017, DOI: 10.1021/jacs.7b09281).

Essi hanno aggiunto alla molecola dell’antibiotico trimetoprim, azobenzeni in diverse posizioni sull’unità metossifenilica del farmaco per creare una libreria di molecole attivate da UV.

Nello screening su Escherichia coli, hanno trovato che una fra le molecole della libreria, è particolarmente potente quando attivata dalla luce UV. Per spostare la lunghezza d’onda a cui si verifica l’isomerizzazione trans-cis di questa molecola, il gruppo di Szymanski ha sostituito gli atomi sugli azobenzeni con fluoro e cloro. Una versione sostituita da cloro potrebbe essere isomerizzata da luce rossa. Non solo, ma quando questo trimetroprim fotoattivabile è stato attivato con luce rossa, risultò otto volte più potente contro E. coli rispetto a quando si interrompeva la luce. Per spegnere completamente il farmaco, i ricercatori hanno usato luce viola, che ha restituito rapidamente il farmaco alla sua forma originale, trans.

Fare farmaci antitumorali fotocommutabili “on”- “off” richiede un approccio diverso da quello per la progettazione di antimicrobici, afferma Oliver Thorn-Seshold della Ludwig Maximilian University di Monaco.

Oliver Thorn-Seshold

Con farmaci foto commutabili antitumorali selezionabili, i ricercatori devono infatti assicurarsi che i composti si leghino alle proteine bersaglio solo nella loro configurazione “on”. Legarli nella configurazione “off” significherebbe che i farmaci potrebbero danneggiare le cellule sane, anche esse contenenti quella proteina. Gli antibiotici fotocommutabili, d’altra parte, mirano a proteine specifiche dei batteri, non presenti nelle cellule umane sane. Sicchè essi non danneggiano le cellule sane qualsiasi sia la configurazione che assumono.

Thorn-Seshold fa parte del gruppo di ricerca e sviluppo CytoSwitch di Monaco, guidato da Yelena Wainman e sta progettando composti chiamati fotostatine, o PSTs (M. Borowiak et al. Photoswitchable Inhibitors of Microtubule Dynamics. Optically Control Mitosis and Cell Death., Cell, 2015, DOI: 10.1016/j.cell.2015.06.049). Quando attivati ​​dalla luce blu, questi composti, basati sulla struttura del prodotto naturale combretastatina A-4, interferiscono con la replicazione delle cellule tumorali prendendo di mira elementi strutturali chiamati microtubuli.

Antitumorali di Thorn-Seshold e Dirk Trauner: colpiti da luce blu cambiano configurazione da trans a cis, in questa configurazione interferiscono con i microtubuli che regolano la replicazione delle cellule tumorali.

Le fotostatine di CytoSwitch (originariamente sviluppati da Thorn-Seshold e Dirk Trauner, ora alla New York University), sono completamente inattive prima di essere colpite dalla luce, dice Thorn-Seshold. Ciò significa che i medici potrebbero somministrare ai pazienti anche alte dosi di questi farmaci senza preoccuparsi degli effetti collaterali negativi. Alte dosi significano anche che si possono utilizzare lunghezze d’onda a bassa intensità e biocompatibili, perché anche se solo una piccola frazione del farmaco viene attivata, i livelli risultanti di molecole attive saranno sufficienti per il trattamento. Come altre molecole fotosensibili, dopo essere state inizialmente attivate con la luce, le fotostatine tornano alla loro forma originale, inattiva con una tipica emivita di 15 minuti, afferma Wainman.

Nello sviluppo delle fotostatine, Thorn-Seshold si sta imbattendo in un problema pratico estremamente importante per l’applicazione pratica: come fare arrivare la luce nella parte del corpo dove è necessario attivare o disattivare il farmaco. Ritiene che i diodi ad emissione di luce opportunamente impiantati potrebbero essere un’opzione praticabile. E’ infatti una tecnologia esistente, resa popolare da alcuni tatuatori che impiantano i LED sotto la pelle come espressione di una moda originale. I LED sono anche usati in studi di fisiologia optogenetica in modelli animali (topi).

Dirk Trauner

Trauner, uno dei pionieri della fotofarmacologia, non deve preoccuparsi tanto del problema della luce in almeno uno dei progetti cui sta lavorando, ripristinare la vista ai ciechi. Colpire gli occhi di un individuo con luce brillante non richiede alcuna procedura invasiva di impianto LED, sebbene possa essere necessaria una sorta di visiera protettiva.

Fra la miriade di composti fotocommutatori che Trauner sta studiando ve ne è uno che, acceso negli occhi di topi ciechi, sblocca un canale ionico e ripristina la sensibilità alla luce degli animali (A. Polouskina et al., Photochemical Restoration of Visual Responses in Blind Mice., Neuron 2012, 75, 271-282, DOI: 10.1016/j.neuron.2012.05. 022). Questi topi erano ciechi perché le i coni e i bastoncelli nei loro occhi non funzionavano più, il che accade anche nella degenerazione maculare umana.

Trauner è sicuro che questo lavoro di ripristino della visione diventerà clinicamente rilevante presto, o al massimo fra pochi anni. Dice che ora ha circa 120 esempi di molecole fotocommutabili che funzionano in colture cellulari o modelli animali. Alcuni di queste sono quasi allo stadio preclinico o clinico. E prevede che i suoi farmaci per il ripristino della vista saranno i primi farmaci fotofarmacologici approvati clinicamente.

Tuttavia, fare arrivare luce in aree del corpo umano diverse dagli occhi per periodi prolungati, come giorni o settimane nel caso di antibiotici, potrebbe presentare un problema significativo per la fotofarmacologia, afferma il chimico farmaceutico Dennis Liotta della Emory University (Atlanta), editor-in chief della rivista ACS Pharmaceutical Chemistry Letters. “Dal momento che la luce non può facilmente penetrare in profondità nella pelle degli adulti, bisogna superare la barriera tecnica di portare la luce sul luogo di azione”, dice, e prosegue: “Ci sono vari modi per farlo, ma per quanto ne so, tutti implicano l’uso di dispositivi sofisticati, e sono tutti impiegati in ambiente ospedaliero.”

Dennis Liotta

I punti più facili da raggiungere sono la pelle e gli occhi perché si può fare arrivare la luce direttamente su di essi. Per organi più difficili da raggiungere come il tratto gastrointestinale, i polmoni o la vescica, gli endoscopi potrebbero essere gli strumenti idonei. Per aree davvero difficili da raggiungere, tra cui il cervello e il midollo osseo, dovranno essere sviluppate nuove strategie.

Trauner concorda con Thorn-Seshold che a differenza dagli occhi, per molte di queste aree i LED impiantati potrebbero essere in definitiva il modo più utile per fornire luce.

Il settore dovrà affrontare anche possibili ostacoli normativi prima che questi farmaci fotocommutabili possano raggiungere la sperimentazione clinica. Szymanski afferma che ognuno di questi farmaci è in realtà costituito da due molecole – la versione “on” e la versione “off” – che devono essere sviluppate, testate per la sicurezza e la tossicità e sottoposte all’approvazione di un Organismo di Regolamentazione.

Hecht dice che i chimici farmaceutici con cui discute sono spesso scettici su quanto siano commerciabili medicinali foto commutabili. “Produrre una molecola di piccole dimensioni è già così complicato, l’introduzione del gruppo fotosensibile potrebbe aggiungere complicazioni che renderebbero più difficile il processo di approvazione.”

Liotta invece è più ottimista: “L’unico problema che vedo sono i profili tossicologici dei composti attivi e inattivi. Se sono entrambi sicuri, non dovrebbero esserci problemi intrinseci “.

Sia la Food and Drug Administration statunitense che l’Agenzia Europea per i Medicinali (EMA) non hanno ancora parlato di procedure normative per i farmaci fotocommutabili perché il settore è ancora agli inizi.

A causa di questo per ora vuoto normativo, Glazer sostiene che è importante concentrarsi sulla sperimentazione pre-clinica e clinica e assicurarsi che le molecole che i chimici stanno sviluppando possano condurre a trattamenti fattibili. Ciò è importante al fine che tempo e risorse non vengano spesi perseguendo idee anche teoricamente possibili, ma che in pratica sarebbe troppo macchinoso mettere in atto.

Abbiamo chiesto il parere di Vincenzo Balzani che volentieri di seguito riportiamo.

Si tratta di problemi noti; in linea di principio molto utili, ma, come al solito, bisogna vedere che risultati si ottengono. In questo campo la difficoltà maggiore, come qua e là accennato nel testo, è che i tessuti umani non sono trasparenti a luce visibile-UV, cioè di alta energia, che in genere è necessaria sia per fotosensibilizzare la formazione di ossigeno singoletto, sia per provocare reazioni di dissociazione di leganti o di fotoisomerizzazione. Altro problema è che la forma al buio e gli eventuali prodotti secondari della fotoreazione (qualcosa c’é sempre) non siano dannosi.

C’é molto da fare per cercare composti che siano attivabili  con infrarosso. Altrimenti si può usare eccitazione a due fotoni infrarossi, per avere l’energia necessaria a provocare  la fotoreazione. Si possono anche usare luce UV visibile  con guide ottiche se il tumore da distruggere è in una cavità del corpo (es. esofago). Alcune di queste cose sono descritte succintamente nel libro: V. Balzani, P. Ceroni, A. Juris, Photochemistry and Photophysics. Concepts, Research, Applications. Wiley, 2014, p. 370.

In conclusione, l’articolo è interessante, come una piccola review, anche se poco approfondito.

[1] Bernard Feringa, insieme a Jeanne-Pierre Sauvage e Fraser J. Stoddard, vincitori del Premio Nobel per la Chimica 2016 per la progettazione e la sintesi di macchine molecolari. Il comitato Nobel chimica si è però dimenticato che Vincenzo Balzani ha contribuito in modo fondamentale non solo alla realizzazione dei primi prototipi di macchine molecolari, in collaborazione con Fraser Stoddart e Jean-Pierre Sauvage, ma anche allo sviluppo e al consolidamento dei concetti alla base di questo campo di ricerca, divenuto negli anni uno dei settori più attivi e stimolanti della chimica moderna. Balzani e il suo gruppo posero le basi progettuali per la costruzione di macchine molecolari in un articolo del 1987. Anche il termine “molecular machine” venne pienamente discusso per la prima volta in un articolo firmato da Balzani, Stoddart e collaboratori nel 1993.

http://bologna.repubblica.it/cronaca/2016/10/12/news/chimica_il_nobel_mancato_l_appello_degli_scienziati-149629201/

*Katharine Sanderson- Photoswitchable drugs could light the way to more targeted treatments​