Scienziate che potrebbero vincere il Premio Nobel: Judith Pollock Klinman (1941- )

In evidenza

Rinaldo Cervellati

Come ricordato nel precedente post, quando Darleane Hoffman si trasferì da Los Alamos all’University College a Berkeley nel 1984, trovò una sola altra donna docente all’UC, Judith Klinman, 15 anni più giovane di lei. Klinman è infatti nata il 7 aprile 1941, quindi ha festeggiato da poco il settantasettesimo compleanno.

Judith Pollock Klinman

Ottenuto il B.A. nel 1962 e poi il Ph.D. in chimica fisica organica nel 1966 all’Università della Pennsylvania, Klinman ha svolto ricerche come post-doc per un anno al Weizman Institute of Science in Israele, poi è stata ricercatore all’Institute of Cancer Research di Filadelfia (Pennsylvania) fino al 1978 quando è entrata a far parte dello staff dell’University College a Berkeley (California)[1].

All’inizio della sua carriera, sviluppò l’uso della sostituzione isotopica negli studi cinetici sulla catalisi enzimatica, mostrando come i composti marcati possano essere utili per verificare ipotesi sui meccanismi di reazione, per determinare ordini e costanti di velocità, nonchè per ottenere costanti di dissociazione del substrato.

Ben presto attorno a Kliman si formò un gruppo di ricerca che continua a dare contributi fondamentali in enzimologia.

Judith Klinman 1990 ca

Nel 1990, Kliman e il suo gruppo scoprì la presenza della neurotossina 6-idrossidopa chinone (TPQ) nel sito attivo di una ammino ossidasi contenente rame nel plasma bovino, superando anni di speculazioni errate riguardo la natura della struttura del sito attivo e aprendo il campo di ricerca sui cofattori derivati da proteine [1].

Il lavoro successivo del gruppo ha dimostrato che la proteina lisilossidasi extracellulare, responsabile del legame incrociato fra collagene ed elastina, contiene una variante reticolata di lisina del TPQ [2]. Dagli anni ’90, gli studi cinetici di Klinman sulle reazioni enzimatiche hanno dimostrato anomalie che implicano il tunnelling quantistico dell’idrogeno nelle reazioni di attivazione dell’idrogeno catalizzate da enzimi [3]. Al momento attuale vi è una scarsità di informazioni riguardanti i profili delle barriere di energia potenziale ai siti attivi degli enzimi, così come il contributo delle dinamiche proteiche ai processi di allentamento del legame. Un approccio estremamente valido per affrontare questi problemi, è appunto il rilevamento e la quantificazione del tunneling dell’idrogeno nelle reazioni enzimatiche. Il gruppo Klinman ha accumulato prove che il tunneling quantomeccanico a temperatura ambiente si verifica in moltissime reazioni enzimatiche.

H tunneling, Me transfer and protein dynamics

Un trattamento quantitativo dei dati fornisce informazioni sul ruolo dei movimenti di proteine ​​/ atomi pesanti nel promuovere l’attivazione del legame C-H attraverso un processo di tunneling [4].

Inoltre, l’uso di mutagenesi sito-specifica e scambio H / D, insieme a proteine ​​omologhe provenienti da nicchie di temperatura, sta rendendo possibile affrontare il modo in cui le interazioni di legame substrato-proteina e le dinamiche proteiche influenzano l’efficienza del processo di tunneling.

Negli ultimi anni è stato sviluppato un set unico di sonde sperimentali per determinare il meccanismo di attivazione dell’ossigeno. Queste sonde stanno iniziando a far luce su come le proteine possono ridurre l’O2 a intermedi radicali liberi, evitando nel contempo il danno ossidativo cellulare.

Schema attivazione ossigeno [5]

Fino a poco tempo fa, si pensava che la maggior parte dei cofattori enzimatici fossero composti a basso peso molecolare che si legavano in modo reversibile alle loro affini proteine . Negli ultimi anni è stata descritta una famiglia di proteine che contengono il loro cofattore all’interno della catena polipeptidica proteica. Una nuova classe di tali proteine è emersa dal laboratorio Klinman, nota come chino-enzimi. Due tipi distinti di cofattori sono stati scoperti negli eucarioti: il 2,4,5-triidrossifenetilammina-chinone (TPQ) derivato da una singola catena laterale di tirosina e osservato nelle ubiquitarie ammineossidasi contenenti rame; e la lisina tirosil chinone (LTQ) derivato dalla reticolazione di lisina e tirosina ossidata all’interno del sito attivo delle lisilossidasi. Nel caso del TPQ è stato stabilito che un singolo ripiegamento proteico catalizza sia la biogenesi del cofattore che il successivo turnover dell’enzima. Queste proteine vengono chiamate proteine a doppia funzione, ponendo il problema di come un singolo ripiegamento proteico possa catalizzare due reazioni apparentemente dissimili. Sono in corso studi approfonditi su questi chino-enzimi, come pure sul cofattore batterico derivato da peptidi, il pirrolo-chinolina chinone. Sono stati anche avviati studi per sondare il ruolo fisiologico di una classe di ossidasi al rame che si trova sulle superfici cellulari, generando perossido di idrogeno, un probabile agente di segnali cellulari.

La vita aerobica pone interrogativi unici. Nello specifico, come le proteine catalizzano l’attivazione dell’ossigeno molecolare evitando di generare intermedi radicalici con sufficiente stabilità per provocare il danno ossidativo cellulare. Il gruppo di Klinman ha proposto un approccio sistematico a questa domanda investigando un’ampia gamma di proteine ​​che funzionano con cofattori organici da soli, con metalli da soli o con una combinazione cofattori organico – centro metallico. La metodologia utilizzata combina mutagenesi sito-specifica, stato stazionario e cinetica rapida, sonde spettroscopiche per intermedi e la misurazione di effetti isotopici O18 [6].

Judith Klinman professore alla Graduate School in Chemistry and Molecular Biology

Judith P. Klinman ha percorso tutte le tappe della carriera accademica a Berkeley fino a professore ordinario nella Graduate School in Chemistry and Molecular and Cell Biology e membro del California Institute for Quantitative Biosciences. E’ stata la prima donna membro della Facoltà di Chimica, di cui è stata anche Preside. Oggi è professore emerito della Facoltà, in questa veste continua a fare ricerca nel gruppo da lei costituito. E’ autrice o co-autrice di più di 400 pubblicazioni scientifiche di cui venti nel quadriennio 2014-2017. Ha ottenuto numerose onoreficienze e premi da importanti istituzioni nazionali e internazionali, fra le quali la National Medal of Science, la più alta onorificenza pubblica che uno scienziato può ricevere negli Stati Uniti e il Premio Willard Gibbs dell’American Chemical Society.

Judith P. Klinman, Medaglia Gibbs dell’ACS

L’American Society for Biochemistry and Molecular Biology, di cui è stata anche Presidente, le ha conferito il Premio Mildred Cohn per la Biochimica.

Fonti consultate:

Bekely College of Chemistry https://chemistry.berkeley.edu/faculty/chem/klinman

The first woman at Cal https://chemistry.berkeley.edu/news/first-women-chemists-cal

http://www.asbmb.org/uploadedfiles/AboutUs/ASBMB_History/Past_Presidents/1990s/1998Klinman.html

Bibliografia

[1] S. M. Janes, D. Mu, D. Wemmer, A. J. Smith, S. Kaur, D. Maltby, A. L. Burlingame, Judith P Klinman, A new redox cofactor in eukaryotic enzymes: 6-hydroxydopa at the active site of bovine serum amine oxidase., Science, 1990, 248, 981-987.

[2] S.X. Wang, N. Nakamura, M. Mure, Judith P. Klinman, J. Sanders-Loehr, Characterization of the native lysine tyrosylquinone cofactor in lysyl oxidase by Raman spectroscopy., J. Biol. Chem. 1997, 272, 28841-28844.

[3] a) Y. Cha, C. J. Murray, Judith P. Klinman, Hydrogen tunneling in enzyme reactions., Science, 1989, 243, 1325-1330; b) A. Kohen, R. Cannio, S. Bartolucci, Judith P. Klinman, Enzyme dynamics and hydrogen tunneling in a thermophilic alcohol deydrogenase., Nature, 1999, 399, 496.

[4] a) M. J. Knapp, K. Rickert, Judith P. Klinman, Temperature-dependent isotope effects in soybean lipoxygenase-1: correlate hydrogen tunneling with protein dynamics., J. Am. Chem. Soc., 2002, 124, 3865-3874; b) Z.D. Nagel, Judith P. Klinman, Tunneling and dynamics in enzymatic hydrogen transfer., Chem. Rev., 2006, 106, 3095-3118.

[5] Judith P. Klinman, How Do Enzymes Activate Oxygen without Inactivating Themselves?, Acc. Chem. Res, 2007, 40, 325-333).

[6] L.M. Mirica, K.P. McCusker, J.W. Munos, H. Liu, Judith P. Klinman, 18O kinetic isotope effects in non-heme iron enzymes: Probing the nature of Fe/O2 intermediates., J. Am. Chem. Soc., 2008, 130, 8122-8123.

[1] Prima donna chimico a far parte dello staff all’University of California a Berkeley. Berkeley è stata fondata nel 1868 per cui festeggia quest’anno il 150° anniversario. In uno dei siti consultati si afferma che: “Una delle eredità più importanti del sistema UC è che le donne furono ammesse due anni dopo la fondazione dell’università, nel 1870. I Regents avevano approvato all’unanimità una risoluzione per ammettere le donne che all’epoca costituivano circa il 36% della popolazione dello stato. L’annuncio dell’University Registrar era chiaramente inteso a incoraggiarle a partecipare: “Le Giovani Donne sono ammesse all’Università a parità di condizioni, a tutti gli effetti come i giovani uomini”. Tuttavia fra il dire e il fare…

La depurazione delle acque reflue e il problema dell’antibiotico resistenza

In evidenza

Mauro Icardi

Gli impianti di depurazione tradizionali a fanghi attivi sono stati sviluppati negli anni che vanno dalla fine dell’ottocento, fino ai primi anni del novecento. L’invenzione del processo a fanghi attivi è collegato con gli sforzi degli ingegneri inglesi e americani per migliorare la depurazione biologica che fino a quel momento avveniva tramite sistemi a biomassa adesa (filtri percolatori).

Partendo dalla necessità iniziale di diminuire i problemi di odori nelle reti fognarie Arden & Locket notarono che ricircolando il fango formatosi durante il periodo di aerazione dei liquami ,si migliorava l’efficienza di trattamento e di intensità del processo depurativo. Questo sistema tradizionale adesso mostra qualche limite, relativamente alla diffusione di inquinanti emergenti di difficile o, in qualche caso, impossibile degradazione per via biologica. L’altro limite del sistema a fanghi attivi tradizionale è quello legato alla produzione di fanghi, e al loro corretto smaltimento o riutilizzo.

Posto che i fanghi sono il prodotto inevitabile di questa tecnica depurativa in essi si concentrano gli inquinanti rimossi dal liquame depurato, ma anche parte dei nuovi inquinanti.

Studi recenti hanno dimostrato che negli impianti di depurazione, ma anche nei fanghi prodotti dal trattamento possono avvenire processi nei quali aumenta la resistenza antibiotica. Il meccanismo è quello del trasferimento di geni tra batteri non patogeni e batteri patogeni.

La resistenza agli antibiotici da parte dei microrganismi può diventare uno dei principali problemi di salute pubblica. Si stima un aumento di decessi legati a problemi di resistenza antibiotica che potrebbe arrivare a causare 10 milioni di decessi causati da infezioni che i normali antibiotici in commercio non sarebbero più in grado di debellare. Quanto maggiore è il numero di antibiotici utilizzati, tanto più veloce sarà la diffusione della resistenza agli stessi. Quindi ottimizzare l’utilizzo degli antibiotici in ambito agricolo e clinico è il primo passo da compiere.

Contestualmente all’estensione di sistemi di trattamento adeguati delle acque reflue nei paesi che ne sono ancora privi.

Laddove invece i depuratori siano presenti è necessario implementare il trattamento terziario di ultima generazione (sistemi MBR o filtri in nanotubi di carbonio)

Per quanto attiene al trattamento dei fanghi prodotti negli impianti di depurazione occorre implementare sistemi efficienti di trattamento, che igienizzino i fanghi, e ne riducano il potenziale patogeno.

Il trattamento di digestione anaerobica può essere già parzialmente efficace nel ridurre il fenomeno dell’antibiotico resistenza. Per migliorare ulteriormente l’efficacia sarebbe opportuno intervenire sulla gestione di processo dei digestori.

I digestori anaerobici che normalmente lavorano in un range di temperatura favorevole al metabolismo dei batteri mesofili (valori ottimali di temperatura di esercizio 30-35°C), dovrebbero passare al trattamento termofilo (valori ottimali 55-60° C) . Questo favorirebbe una maggior igienizzazione del fango.

Il processo termofilo se associato alla codigestione di matrici organiche esterne, quali frazione umida di rifiuti organici (FORSU) avrebbe anche benefici consistenti nella maggior produzione di biogas . Un circolo virtuoso che in alcuni paesi europei quali Francia e Norvegia è già stato diffusamente sviluppato.

Ma il fenomeno della resistenza antibiotica si verifica anche sui fanghi che sono stati sottoposti al trattamento di disidratazione. Un recente studio pubblicato su “Environmental Science Water & research technology” lo scorso Aprile ha confermato questa ipotesi. Ed ha proposto di estendere al trattamento di disidratazione, ed eventuale essicamento dei fanghi, quello termochimico di pirolisi.

Per verificarne l’efficacia si sono utilizzati come indicatori sia il gene rRNA16s, sia gli integroni di classe 1.

I secondi sono già normalmente utilizzati come indicatori di contaminazione e stress ambientale dovute alla diffusione dell’antibiotico resistenza nell’ambiente.

Le prove di pirolisi eseguite in laboratorio su fanghi provenienti da depuratori municipali hanno rivelato che per esempio il gene del rRNA 16S è stato significativamente ridotto operando con temperature di pirolisi tra i 300 e i 700°C.

Lo studio suggerisce quindi di utilizzare il trattamento di pirolisi come tecnica per ridurre l’antibiotico resistenza nei fanghi da destinare a smaltimento finale, o a utilizzo agricolo. I prodotti ottenuti dal trattamento pirolitico, cioè syngas e biochair, sarebbero riutilizzabili. Il primo come combustibile, il secondo come concime o ammendante per terreni. Il trattamento di pirolisi ridurrebbe nel biochair prodotto in primo luogo la contaminazione da antibiotico resistenza, ma anche la presenza di altri inquinanti indesiderati, quali il PCB e le diossine tra gli altri. Mantenendo solo gli elementi essenziali quali azoto e fosforo. Un modo per contrastare anche lo sbilanciamento dei cicli biogeochimici di questi due elementi.

Come si può vedere dalle premesse, il settore del trattamento delle acque reflue si trova davanti ad alcune sfide primarie. La prima fra tutte è quella di una profonda evoluzione delle tecniche da applicare per trattamenti spinti di depurazione delle acque reflue, che sempre più si caricano di inquinanti emergenti. Ma anche di riutilizzo e corretta gestione dei fanghi prodotti dai trattamenti tradizionali, così da renderli riutilizzabili ed ecocompatibili. La diffusione generalizzata ed ubiquitaria di nuovi inquinanti non può più essere sottovalutata. E il problema dell’antibiotico resistenza è una emergenza in qualche modo sottovalutata. Occorre pensare in termini di lungo periodo. E destinare risorse economiche ed umane a questa rivoluzione del settore. Una rivoluzione tecnica che si collegherebbe idealmente con quella del secolo scorso, che diede il via allo sviluppo e alla maturità tecnica della depurazione delle acque reflue. E a cui, almeno noi abitanti dei paesi occidentali dobbiamo anche una buona parte del nostro benessere e della nostra salute.

Link di approfondimento.

http://pubs.rsc.org/en/content/articlelanding/2018/ew/c8ew00141c#!divAbstract

https://www.laboratoriol2a.it/inquinamento-da-antibiotici/

http://verbanonews.it/index.php/categorie/primo-piano/8580-antibiotici-e-metalli-pesanti-nelle-acque-reflue-lo-studio-del-cnr-di-pallanza-pubblicato-da-una-prestigiosa-rivista-scientifica

La qualità dell’aria negli ambienti confinati.

In evidenza

Luigi Campanella, già Presidente SCI

(altri post sull’ argomento:

https://ilblogdellasci.wordpress.com/2017/11/01/strategie-contro-linquinamento-indoor/

https://ilblogdellasci.wordpress.com/2017/08/25/inquinamento-ospedaliero/)

L’espressione ‘ambiente indoor’ è riferita agli ambienti confinati di vita e di lavoro non industriali, ed in particolare, a tutti i luoghi chiusi adibiti a dimora, svago, lavoro e trasporto. Secondo questa definizione, il termine ‘indoor’ comprende: le abitazioni, gli uffici pubblici e privati, le strutture comunitarie (ospedali, scuole, uffici, caserme, alberghi, banche, etc.), i locali destinati ad attività ricreative e/o sociali (cinema, bar, ristoranti, negozi, strutture sportive, etc.) ed infine i mezzi di trasporto pubblici e/o privati (auto, treno, aereo, nave, etc.).

Negli ultimi decenni, con l’eccezionale sviluppo del settore terziario, la popolazione dei paesi industrializzati trascorre una parte sempre maggiore del proprio tempo (fino al 90%) negli ambienti confinati; contemporaneamente, si sono verificati profondi mutamenti nella qualità dell’aria indoor a causa di un progressivo aumento delle sostanze inquinanti. Lo scadimento della qualità dell’aria interna è dovuto in parte agli alti livelli esterni di inquinamento ma, soprattutto, alle numerose sorgenti interne che determinano concentrazioni di inquinanti a volte superiori a quelle presenti all’esterno.

In seguito alla crisi delle risorse energetiche mondiali, si sono imposti nuovi criteri tecnico-progettuali per gli edifici ad uso civile: la necessità di contenere i consumi per il riscaldamento e per la ventilazione ha imposto un migliore isolamento degli edifici, con conseguente tendenza a sigillare gli ambienti interni. Alle modifiche strutturali degli edifici si sono accompagnate modifiche rilevanti degli arredi (nuovi materiali per mobili, rivestimenti, etc.) e degli strumenti di lavoro (crescente impiego di fotocopiatrici, videoterminali, stampanti, etc.).

L’attenzione dei paesi industrializzati è stata rivolta già da tempo allo studio dei fenomeni di inquinamento dell’aria ‘esterna’, di cui ben presto sono state identificate le cause (traffico automobilistico, impianti industriali, impianti di riscaldamento domestico), gli effetti (preoccupante crescita della incidenza di malattie polmonari e neoplastiche) e le eventuali misure di contenimento (lotta all’inquinamento dell’aria urbana). Di contro, solo negli anni più recenti, dall’acquisizione di informazioni ed esperienze sui danni alla salute causati da una scadente qualità dell’aria interna, è emersa l’esigenza di un approfondimento delle conoscenze relative alle fonti di inquinamento indoor, nonché dei rapporti di causa-effetto tra esposizione e salute dell’uomo.

L’inquinamento dell’aria negli ambienti confinati rappresenta un problema importante per la sanità pubblica, con grandi implicazioni sociali ed economiche: in primo luogo la prolungata permanenza della popolazione negli ambienti interni di varia natura implica una continua esposizione a inquinanti indoor; inoltre, il rischio espositivo non è limitato a categorie ben definite. Tale rischio, infatti, non è esclusivamente di tipo professionale od occupazionale, ma è di particolare gravità per alcuni gruppi più suscettibili quali bambini, anziani e persone affette da patologie croniche (malattie cardiache, respiratorie, asma bronchiale, allergie), che trascorrono negli ambienti chiusi una percentuale di tempo particolarmente elevata.

La presenza di numerosi inquinanti (es. fumo passivo) e il clima caldo-umido delle abitazioni (che favorisce la crescita degli acari e di funghi nella polvere domestica), hanno sicuramente contribuito all’aumento della incidenza di patologie respiratorie croniche, come ad esempio l’asma, ed all’incremento della loro evoluzione verso forme persistenti, gravi ed invalidanti.

Recenti studi scientifici hanno evidenziato come alcuni inquinanti siano in grado di contribuire all’aumento dell’incidenza di tumori maligni: un maggior rischio di cancro ai polmoni è stato associato all’esposizione al “fumo di tabacco ambientale” ed ai prodotti di decadimento del Radon. Quest’ultimo è un gas radioattivo incolore, estremamente volatile, prodotto dal decadimento di tre nuclidi capostipiti che danno luogo a tre diverse famiglie radioattive: il Thorio 232, l’Uranio 235 e l’Uranio 238. Il Radon viene generato continuamente da alcune rocce della crosta terrestre, in particolar modo da lave, tufi, pozzolane, alcuni graniti, ma anche da rocce sedimentarie come i marmi. Come gas disciolto, esso viene veicolato anche a grandi distanze dal luogo di formazione nelle falde acquifere ed è nota, inoltre, la sua presenza in alcuni materiali da costruzione. Generalmente, tale gas giunge all’interno delle abitazioni attraverso fessure e piccoli fori delle cantine e dei piani seminterrati degli edifici.

Molti composti chimici presenti nell’aria indoor sono causa, sospetta o accertata, di stimolazione e/o irritazione dell’apparato sensoriale e possono dare vita a senso di disagio e ad altri sintomi comunemente presenti nella cosiddetta “Sindrome da Edificio Malato” (Sick Building Syndrome). Studi condotti in uffici ed in altri edifici destinati ad uso pubblico in diversi paesi hanno rivelato una frequenza di disturbi tra gli occupanti compresa tra il 15 e il 50% .

Un altro acronimo che deve la sua nascita in massima parte proprio all’inquinamenti indoor è la SCM (sensibilità chimica multipla,MCS in inglese).La prolungata presenza in ambienti indoor caratterizzati da inquinamenti combinati,complessi e variabili ha comportato la sensibilizzazione di alcuni individui, immunologicamente più deboli, verso questa nuova patologia,riconosciuta ormai come malattia sociale,anche in PaesiEuropei,primo fra tutti la Germania

L’ipotesi Siluriana.

In evidenza

Claudio Della Volpe

Per un blog col nostro sottotitolo questo è un argomento chiave; quali sono le condizioni geologiche per parlare di Antropocene? Ne abbiamo parlato estesamente in post recenti; sappiamo che ci sono varie ipotesi, almeno 4. E sono legate alla difficoltà di trovare segni di livello geologico del nostro passaggio nella biosfera, di livello geologico, cioè che rimangano saldi per milioni di anni, non per qualche migliaio o centinaia di migliaia. La cosa, come abbiamo documentato, non è banale e la discussione è accesa.

Ma proprio per questo nasce spontanea una domanda: e se in passato ci fossero state altre civiltà come la nostra, da cosa ce ne accorgeremmo? Come potremmo distinguere gli effetti di cause “naturali” da quelli di cause “artificiali”?

Ecco in due parole il senso dell’articolo pubblicato di recente da Gavin Schmidt e Adam Frank.Non tutto il grande pubblico conosce il nome di Gavin; ma per me che mi sono appassionato di clima e ci ho lavorato e insegnato per un pò, Gavin è una sorta di geniaccio; impossibile non conoscerlo.

Ricercatore alla NASA, è stato il fondatore di RealClimate, la pagina di climatologia che ha reso in tutto il mondo la discussione sul clima e la lotta contro il negazionismo climatico, la divulgazione ad altissimo livello della Fisica e della Chimica del clima un argomento di valenza culturale e, diciamolo, anche politica. Ma senza mai dismettere la coerenza e la autorevolezza di essere tenuto e gestito da scienziati militanti. Un esempio da imitare.

E per questo l’articolo di Gavin è estremamente stimolante ed importante.

L’analisi parte dall’equazione di Drake, coniata per stimare la probabilità che esistano altre civiltà; si tratta di una equazione che è semplicemente il prodotto di una serie di termini ciascuno dei quali esprime la probabilità (inferiore all’unità) che un certo evento appartenente alla sequenza necessaria per riprodurre una civiltà tecnologica (come noi la immaginiamo) abbia luogo nelle stelle della galassia o dell’Universo conosciuto.

Alcuni termini si conoscono ormai dallo studio dell’astronomia, altri da quello della geologia della Terra, altri sono stimati anche a partire dalla nostra esperienza. A questo riguardo è interessante notare come per risolvere l’equazione occorra stimare la probabilità che la vita e l’intelligenza si riproducano o si siano riprodotte nella storia della Terra; è possibile che si siano riprodotte più volte? Quasi sicuramente si: vite non basate sul DNA e intelligenze diverse da quella umana (delfini o scimpanzè) sono state robustamente ipotizzate o sono studiate.

Allo stesso modo lo studio della astronomia planetaria tramite i satelliti sta facendo scoprire ed ipotizzare altri ambienti in cui la vita può essersi sviluppata nel passato remoto (Venere e Marte o alcuni dei satelliti di Giove costituiscono ambienti possibili).

Altre note interessanti sono legate al modo in cui raccogliamo informazioni di tipo geologico e antropologico: culture diverse da Homo sapiens sono state già scoperte e recenti sviluppi riguardano per esempio Homo sapiens neanderthalensis che è stato provato capace di arte e culto dei morti, molti eoni prima di noi (fra l’altro dal mio collega di Trento, Diego Angelucci); ricordiamo sempre che il fuoco l’ha inventato Homo erectus, quasi un milione di anni fa mentre noi abbiamo solo 200mila anni.

Quanto dura un manufatto complesso? Il più complesso manufatto “tecnologico” che conosciamo è il meccanismo di Antikythera (probabilmente un planetario alessandrino, una sorta di calcolatore analogico) datato 205aC e trovato in fondo al mare. I nostri computer quanto dureranno?

(Thanassis Stavrakis, Associated Press)

Nonostante la ampia e stimolante introduzione il lavoro è comunque ristretto all’analisi delle condizioni geochimiche necessarie ad individuare una civiltà industriale pre-quaternaria dai record geologici compresi fra il Devoniano e il Pliocene, dunque fra 400 e 4Ma fa.

Il primo pezzo dell’articolo è dunque dedicato all’impronta geologica dell’Antropocene (The geological footprint of the Anthropocene), l’epoca che viviamo e a cui il nostro blog è dedicato.

La discussione verte su tracce geologiche che rimangano stabili per milioni di anni; a questo riguardo Gavin dice una cosa molto interessante. C’è un paradosso; uno si aspetta che la civiltà umana lasci tracce più evidenti col trascorrere del tempo, ma in effetti, nota l’articolo, se una civiltà dura molto tempo vuol dire che diventa sostenibile e se diventa sostenibile allora la sua impronta ecologica diminuirà, NON crescerà. Voi che ne dite? Già questa è una domanda di quelle che meritano, e fare domande è il ruolo dello scienziato.

Alcuni elementi di livello geologico sono:

-l’alterazione del rapporto 13C/12C legato all’aver bruciato in due secoli e mezzo oltre 500Gton di C di origine fossile e dunque con bassissimo tenore di 13C; il rapporto fra i due isotopi è dunque diminuito e rimarrà tale nel record geologico;

– a causa dell’aumento di temperatura indotto da questa combustione è cambiato il δ18O, ossia è cambiato il rapporto 18O:16O, che sono i due isotopi stabili dell’ossigeno;

– e infine l’effetto combinato della combustione dei fossili, della sintesi Haber-Bosch, dell’applicazione su larga scala della concimazione sintetica e la selezione di piante che fissano più azoto ha alterato profondamente il ciclo dell’azoto così da alterare anche δ15N in sedimenti lontani da quelli delle zone “civilizzate”.

Sono cambiati i sedimenti oceanici sia in quantità sia in composizione a causa dell’aumentato flusso di materiali.

Alcuni animali “domestici” hanno avuto uno sviluppo enorme mentre altri invece sono scomparsi a causa della scomparsa dei loro habitat.

Queste modifiche si noterebbero anche a molti milioni di anni di distanza. Poi ci sono le molecole sintetiche per esempio i cosiddetti POPs, ossia le molecole organiche persistenti che si comportano di fatto come degli inquinanti molto insidiosi; molti di essi sono costituiti da molecole con legami C-Cl o C-F, più forti e stabili di quelli C-C e C-O, anche se non sappiamo in effetti quanti anni effettivamente queste molecole persisterebbero nell’ambiente.If an industrial civilization had existed on Earth many millions of years prior to human era, what traces would it have left and would they be detectable today? Image credit: Michael Osadciw, University of Rochester.

http://www.sci-news.com/featurednews/silurian-hypothesis-05921.html

Sappiamo comunque che nei sedimenti alcune molecole persistono per tempi molto lunghi; questo si sa che avviene per i grassi e gli steroidi; questa situazione deve essere considerata anche alla luce del fatto che le molecole di origine naturale e sintetica hanno spesso una differenza: quelle sintetiche sono presenti con entrambi i loro racemi, se le molecole sono otticamente attive, mentre quelle naturali al contrario sono presenti solo in una delle forme.

Anche le cosiddette plastiche sono ampiamente presenti in ambiente e rappresentano nei sedimenti materiali notevolmente persistenti.

Ed infine ci sono almeno due isotopi transuranici la cui origine è prevalentemente sintetica: Plutonio-244 (semivita 80.8 milioni di anni) e il Curio-247 (semivita 15 milioni di anni) sarebbero ritrovabili per un tempo molto lungo; ovviamente le quantità in gioco sarebbero significative in caso di eventi estremi come esplosioni atomiche generalizzate.

Nella seconda parte dell’articolo Schmidt considera quali eventi del passato abbiano avuto conseguenze simili a quelle che abbiamo analizzato finora per l’Antropocene. Ora questi episodi esistono nel passato geologico e sono conosciuti come ipertermali, periodi della durata di 10-100.000 anni in cui la temperatura è variata significativamente verso l’alto ritornando poi lentamente alla “normalità”.

Fra gli altri ipertermali 4 gruppi vengono esaminati in dettaglio differenziandoli a seconda della loro età geologica, situati nell’Eocene, nel Paleocene, nel Giurassico-Cretacico e poi più indietro nel Mesozoico e nel Paleozoico.

Gavin conclude che è difficile al momento attribuire o escludere con certezza cause artificiali (come una civiltà di tipo industriale) considerate come origine di fenomeni passati che presentano di fatto molti punti di contatto con quelli che stiamo vivendo adesso: esteso e rapido aumento della concentrazione di gas serra, aumento generalizzato della temperatura planetaria, alterazione della composizione anche isotopica dei depositi, alterazione della fauna e della flora con estesa riduzione del numero di specie, presenza di molecole od isotopi la cui origine naturale è improbabile o impossibile; si augura che una maggiore attenzione ad una ipotesi di questo tipo possa in futuro consentire di accettare od escludere la possibilità prospettata. Gli autori del lavoro sono al momento convinti che la loro ipotesi sia falsa; ma rimangono aperti a scoperte emozionanti.

Ho avuto modo di discutere dell’ipotesi con alcuni studenti nei vari corsi che tengo e che coinvolgono essenzialmente futuri ingegneri; parecchi la hanno considerata una ipotesi da “fisici” da “scienziati”, non cose da ingegneri; il che onestamente mi appare riduttivo. Ma la cosa che mi ha preoccupato di più è stata la riflessione di uno studente che dato che è molto probabile che tra qualche milione di anni ragionevolmente non ci sarà più traccia di noi allora tanto vale che viviamo come meglio ci aggrada, senza preoccuparci del futuro.

Voi che ne pensate?

Riferimenti.

Preprint su arxiv: https://arxiv.org/abs/1804.03748

Articolo di Gavin Schmidt:

https://www.cambridge.org/core/journals/international-journal-of-astrobiology/article/silurian-hypothesis-would-it-be-possible-to-detect-an-industrial-civilization-in-the-geological-record/77818514AA6907750B8F4339F7C70EC6

Un nuovo sistema per l’elettrolisi dell’acqua di mare a energia solare*

In evidenza

Rinaldo Cervellati

La frase del titolo è parte molto accattivante del titolo di una notizia riportata da Mark Peplow il 30 marzo scorso su Chemistry & Engineering newsletter on-line del 4 aprile.

Peplow inizia osservando che la produzione di idrogeno attraverso l’elettrolisi dell’acqua potrebbe portare a una fonte rinnovabile del combustibile, ma per piccole nazioni insulari come ad esempio Singapore, l’acqua dolce è però una risorsa preziosa. Quindi un gruppo di ricercatori della Nanyang Technological University (NTU) di Singapore, coordinati dai Prof. Bin Liu (Singapore) e S.Z. Quiao (University of Adelaide, Australia), ha rivolto l’attenzione al mare, sviluppando catalizzatori che porterebbero a elettrolizzare l’acqua di mare con efficienza record, generando ossigeno e idrogeno che potrebbero alimentare le celle a combustibile (S-H. Hsu et al., An Earth-Abundant Catalyst-Based Seawater Photoelectrolysis System with 17.9% Solar-to-Hydrogen Efficiency, Adv. Mater., 2018, DOI: 10.1002/adma.201707261).

  Un sistema di elettrolisi ad energia solare sviluppa idrogeno al catodo (a sinistra) e ossigeno all’anodo (a destra).

Il sistema è alimentato da energia solare, formando idrogeno con un’efficienza complessiva del 17,9%. Per quanto ne sappiamo, questa è la massima efficienza ottenuta con l’acqua di mare, afferma Bin Liu della NTU di Singapore, che fa parte dei coordinatori del gruppo di ricerca.

Prof. Bin Liu

Gli oceani sono un’enorme riserva di atomi di idrogeno, ma ottenere idrogeno molecolare per elettrolisi di acqua marina è una grande sfida. In una cella elettrolitica, la corrente usata per dissociare l’acqua salmastra forma anche altri prodotti, per esempio trasforma gli ioni cloruro in cloro gassoso indesiderato, mentre altri ioni come il calcio e il magnesio formano precipitati insolubili che inibiscono i catalizzatori depositati sugli elettrodi. Le reazioni di elettrolisi possono poi anche causare variazioni di pH con conseguente corrosione degli elettrodi.

Il gruppo di Liu aveva in precedenza sviluppato un catalizzatore al solfuro di molibdeno e nichel che abbassa la differenza di potenziale necessaria per generare idrogeno dall’acqua marina al catodo. (J. Miao et al., Hierarchical Ni-Mo-S nanosheets on carbon fiber cloth: A flexible electrode for efficient hydrogen generation in neutral electrolyte., Sci. Adv. 2015, DOI: 10.1126 / sciadv.1500259).

Il loro nuovo catalizzatore per l’anodo si basa su elementi abbondanti in natura (Fe, Co) per l’ossidazione anodica con sviluppo di ossigeno gas e formazione di ioni idrogeno. I ricercatori hanno coltivato nano cristalli aghiformi di carbonato di cobalto basico su tessuto in fibra di carbonio. Quindi hanno immerso il tessuto in 2-metilimidazolo formando uno strato sottile di struttura organometallica cobalto-imidazolo (MOF, Metal Organic Framework) all’esterno degli aghi. L’aggiunta di ferrocianuro di sodio lo ha trasformato in esacianoferrato di cobalto, che ha mantenuto la nanostruttura porosa del MOF formando gusci catalitici di 20 nm di spessore attorno ai nanoaghi conduttori.

Schema di un elettrolizzatore a energia solare per acqua di mare. Il catalizzatore esacianoferrato di cobalto favorisce lo sviluppo di ossigeno sull’anodo (freccia gialla, a destra). Nel contempo, il catalizzatore di solfuro di molibdeno e nichel sul catodo favorisce lo sviluppo di idrogeno (freccia rossa, a sinistra). Il pannello solare è mostrato a sinistra con il collegamento agli elettrodi.

Con una cella solare a tripla giunzione commerciale per fornire elettricità, il gruppo di ricercatori ha testato il sistema utilizzando acqua di mare locale, aggiungendo solo un tampone fosfato per mantenere neutro il pH. Dopo 100 ore di funzionamento continuo, l’elettrolizzatore aveva prodotto idrogeno e ossigeno, senza cloro. Inoltre, i suoi elettrodi e catalizzatori erano intatti e la produzione diminuita solo del 10%.

Al contrario, un elettrolizzatore che utilizzava catalizzatori convenzionali di platino e ossido di iridio per decomporre l’acqua marina locale ha subito una diminuzione di attività molto più rapida, producendo anche cloro.

Il fatto che sia selettivo per l’evoluzione dell’ossigeno piuttosto che per l’evoluzione del cloro è molto significativo, afferma Michael E. G. Lyons, ricercatore elettrochimico al Trinity College di Dublino, aggiungendo: È un risultato molto difficile da ottenere.

Michael E.G. Lyons

Peter Strasser dell’Università tecnica di Berlino, che ha lavorato all’elettrolisi dell’acqua di mare, sottolinea che il sistema ha una densità di corrente molto bassa. Per produrre utili quantità di idrogeno, il sistema avrebbe bisogno di una densità di corrente molto più elevata, che potrebbe innescare l’evoluzione del cloro o altre reazioni collaterali indesiderate, e aggiunge: I problemi sorgono quando si passa a densità di corrente elevate“.

Peter Strasser

Bin Liu afferma che i test iniziali a densità di corrente più elevate non hanno prodotto alcun cloro. Ma riconosce che le prestazioni del sistema potrebbero essere migliorate. Ad esempio, con l’utilizzo di acqua dolce, gli elettrolizzatori ad energia solare hanno raggiunto efficienze da solare a idrogeno superiori al 30% (J. Jia et al., Solar water splitting by photovoltaic-electrolysis with a solar-to-hydrogen efficiency over 30%., Nat. Commun. 2016, DOI: 10.1038/ncomms13237).

Il gruppo di Liu sta ora lavorando con i ricercatori del Dalian Institute of Chemical Physics (Dalian, Rep. Pop. Cinese), per sviluppare il loro sistema in un prototipo di dispositivo per la produzione pilota di idrogeno dall’acqua di mare.

Dopo i commenti dei due ricercatori Michael Lyons e Peter Strasser, riportiamo quelli di due esperti che fanno parte della redazione del blog.

Vincenzo Balzani dice:

Argomento importantissimo, studiato da molti scienziati. Ai catalizzatori buoni ci si arriva un po’ per caso. Tutto plausibile. Il punto è se è vero che “Dopo 100 ore di funzionamento continuo, l’elettrolizzatore aveva prodotto idrogeno e ossigeno, senza cloro. Inoltre, i suoi elettrodi e catalizzatori erano intatti e la  produzione diminuita solo del 10%.”  e se “ i test iniziali a densità di corrente più elevate non hanno prodotto alcun cloro”. Poi bisognerebbe sapere se è economicamente convenente rispetto ai metodi basati su osmosi inversa (elettrodialisi inversa).

Claudio Della Volpe commenta:

Il cobalto usato come catalizzatore nel processo non è il massimo come materiale; in un solo posto al mondo (miniera di Bou Azzer in Marocco che ha riserve limitate) si estrae cobalto direttamente, altrimenti è una impurezza di altri metalli; in altre tecnologie come le batterie al litio il cobalto ha mostrato problemi proprio nei limiti di produzione come risorsa; se ne producono solo 100.000 ton all’anno e quelle da risorsa primaria sono solo meno di 2mila; in definitiva il cobalto è una risorsa limitata e costosa.

Non mi pronuncio sugli altri aspetti, ma già l’articolo chiarisce che c’è un limite nei dati; gli sperimentatori hanno usato una densità di corrente bassa, ossia non hanno esplorato veramente la sovratensione del sistema e inoltre aumentando la corrente non solo aumenterebbe la sovratensione (che è una sorgente di dissipazione energetica, di inefficienza) ma sorgerebbe anche il problema potenziale di innescare altri processi, un tipico problema elettrochimico. Nel libro di elettrochimica di Bianchi e Mussini (G. Bianchi, T. Mussini, Fondamenti di Elettrochimica. Teoria e Applicazioni, CEA, Milano, 1993) la parte teorica termina proprio con questo tipo di analisi: due reazioni con diverse sovratensioni: quella termodinamicamente favorita potrebbe essere quella più limitata da motivi cinetici (sovratensione).

Infine come giustamente dice Vincenzo non ci sono analisi differenziali del processo contro altri concorrenti agguerriti e attualissimi; diciamo che gli autori fanno pensare di non aver approfondito ancora cose veramente importanti, d’altronde basta aspettare e vedere se il risultato viene confermato.

*Tradotto e ampliato da c&en del 4 aprile 2018.

I controlli sulle acque reflue come monitoraggio sanitario

In evidenza

Mauro Icardi

Dal 2004 fino a tutto il 2012 presso l’impianto di depurazione di Varese, si sono svolte diverse campagne di monitoraggio aventi lo scopo di verificare le quantità e le concentrazioni di metaboliti di farmaci e di droghe d’abuso, in particolare la cocaina. In particolare io mi sono occupato del controllo dell’impostazione corretta dei campionatori programmabili, e della supervisione ai campionamenti . I prelievi venivano predisposti nell’arco temporale di una settimana e in periodi di tempo secco. Queste attività si sono svolte in collaborazione con l’Istituto farmacologico Mario Negri di Milano, e con l’Università dell’Insubria di Varese. L’ateneo ha successivamente svolto altre campagne di campionamento focalizzando maggiormente l’attenzione su altri aspetti , in particolare la verifica di funzionalità degli impianti di depurazione tradizionali relativamente alle rese di abbattimento di questi particolari inquinanti che rientrano tra quelli definiti emergenti. Nel caso delle verifiche effettuate in collaborazione con l’Istituto Mario Negri i campioni venivano prelevati all’ingresso impianto. Per le successive campagne svolte con l’Università di Varese, anche all’uscita dell’impianto. In questo caso per ottenere dati congruenti   la partenza del ciclo di prelievi era ritardata tenendo conto del tempo di ritenzione idraulica, relativo a tutte le fasi di trattamento delle acque fognarie. Entrambi i campionatori erano comunque impostati con frequenza di campionamento proporzionale alle variazioni di portata idraulica.

Nel 2005 venne pubblicato il risultato della campagna di monitoraggio del lavoro svolto dal gruppo di Fanelli e Zuccato dell’Istituto di Ricerche Farmacologiche Mario Negri in collaborazione con Davide Calamari dell’Università dell’Insubria, purtroppo deceduto prematuramente.

https://ehjournal.biomedcentral.com/articles/10.1186/1476-069X-4-14I campionamenti furono effettuati anche su altri tre impianti di depurazione di acque reflue, quelli di Cuneo, Latina e Cagliari e sul fiume Po.

La determinazione della Cocaina e del suo principale metabolita, la benzoilecgonina (BE) furono determinati attraverso l’utilizzo combinato di cromatografia liquida e spettrometria di massa, presumendo il riscontro di quantità basse. Questo servì a stabilire che effettivamente i due composti si potevano misurare e per verificare che il loro rapporto fosse compatibile con quello che viene indicato da altri studi nell’uomo, e cioè circa 0,15 parti di cocaina per ogni parte di BE eliminata. La BE è escreta completamente attraverso le urine, la cocaina solo in parte.

Le misure effettuate presso i depuratori di quattro città di provincia italiane e cioè Cagliari, Cuneo, Latina e Varese stabilirono inoltre le concentrazioni di BE che oscillavano a seconda delle città da 383.000 a 751.000 picogrammi per litro. Sulle acque superficiali del fiume Po si ci si rese conto, considerando una portata media di 750 m3/sec ,che il fiume trasportava 4 kg al giorno di cocaina. Ogni anno poco più di una tonnellata (1,3 t).
Nello stesso modo considerando i valori di portata influente sugli impianti oggetto di monitoraggio si verificarono le quantità di cocaina che vi transitavano. Il valore per Varese risultò pari a circa 13 kg/anno di cocaina, del tutto simile a quelli degli impianti di Cuneo e Latina, pari a 11 e 12 kg/anno rispettivamente. Il valore più elevato riscontrato a Cagliari (47kg/anno) è da riferirsi ad una città con dimensioni e popolazione maggiori. Successivamente due monitoraggi   effettuati da studenti del corso di Ingegneria della sicurezza dell’ambiente dell’Università dell’Insubria , effettuati sul depuratore di Varese hanno mostrato incremento di concentrazione di metaboliti della cocaina nei campioni di acque prelevate nel fine settimana. L’incremento di concentrazione aveva anche punte del 40-50% rispetto ai giorni feriali. Situazione abbastanza prevedibile considerando che a fronte di un consumo già diffuso e abbastanza generalizzato di cocaina, esso si incrementi molto nei fine settimana. L’uso di cocaina per il fenomeno dello sballo del week end.L’altro aspetto che si ipotizzava e che si e confermato, è che il trattamento biologico tradizionale avesse efficacia molto limitata nella rimozione di questo genere di inquinanti, che transitano praticamente inalterati allo scarico finale. Questo, come altri studi simili, dimostra come l’adeguamento generalizzato degli impianti di depurazione, con adatti trattamenti di tipo terziario sia urgente e indifferibile. Ciò che il depuratore non riesce a trattenere finisce inevitabilmente nell’ambiente. Questo è argomento che deve essere affrontato dalla politica, sia a livello nazionale che locale. Studiosi e gestori hanno fornito documentazioni e dati, e considero che il loro compito sia stato correttamente svolto. Molti altri articoli e studi mostrano gli effetti nefasti dei modificanti endocrini e dei composti organici persistenti sulla fauna ittica. Ma purtroppo si può dire, utilizzando una battuta sarcastica, che i pesci sono muti.

E non sentiamo quindi i loro lamenti. Un inquinamento di questo tipo è subdolo. Generalmente non provoca evidenti morie di pesci. Ma per esempio muta i loro caratteri sessuali e la fertilità. Un inquinamento che non si percepisce immediatamente, se non quando il numero di specie ittiche sono ormai ridotte. E un altro importante aspetto da considerare, è quello dell’accumulo di metaboliti provenienti da consumo di farmaci, antidolorifici o calmanti che sono tra quelli più usati. Spesso anche dei farmaci si fa un uso che dovrebbe essere maggiormente ponderato. E occorre verificare gli effetti collaterali che questi metaboliti potrebbero avere sulla nostra salute, attraverso il loro concentrarsi tramite la catena alimentare. Questo aspetto ha del surreale, un effetto boomerang.

Per quanto riguarda l’aspetto morale del consumo di stupefacenti non voglio pronunciarmi. Personalmente ho avuto la fortuna di non subire nessuna fascinazione in tal senso nel corso degli anni. Mi è capitato spesso di parlare con persone cercando quantomeno di sfatare un mito, cioè quello che la cocaina non dia assuefazione e non sia dannosa. Purtroppo molti associano l’uso di questo stupefacente a sensazioni diffuse di benessere e di potenza sessuale. E normalmente a quel punto la conversazione finisce per infilarsi in un “cul de sac” e io solitamente la interrompo.

Questo primo studio ha però dato adito ad un nuovo ulteriore approccio che per altro origina fin dagli anni 90. Cioè il monitoraggio delle acque in ingresso ai depuratori, come strumento per verificare le condizioni di benessere e salute della popolazione in maniera anonima. Questo è il contenuto di un articolo che mi è stato segnalato dal collega di redazione Rinaldo Cervellati che ringrazio.

Pubblicato sulla rivista Chem Eng News suggerisce che, non solo le droghe e i farmaci possano essere monitorati, ma anche per esempio i lipidi, o i metaboliti legati al fumo di sigaretta.

Secondo Rolf Haden un ingegnere ambientale e direttore del Centro per l’Ingegneria della Salute Ambientale presso l’Arizona State University’s Biodesign Institute, all’ingresso di un impianto di trattamento delle acque reflue “Si può osservare tutta la chimica che viene utilizzata in una città. È possibile misurare i metaboliti che sono migrati attraverso il corpo umano. È possibile guardare i farmaci che vengono presi. In sostanza, sei in un luogo dove è possibile osservare la salute umana in tempo reale“.

Nel 2010 , i ricercatori di sette organizzazioni che effettuano misurazioni di questi nuovi inquinanti si sono riuniti per formare la rete SCORE, acronimo di Sewage Analysis CORe group Europe.

Dal 2011 la rete Score ha coordinato misure annuali di quattro droghe illecite-cocaina, 3,4-Methylenedioxymethamphetamine (MDMA, la droga sintetica comunemente nota come ecstasy), anfetamine, e metanfetamine in tutta Europa. La rete riporta tali dati all’Osservatorio europeo delle droghe e delle tossicodipendenze (OEDT), che rilascia i risultati al pubblico nell’ambito dei suoi sforzi in corso per fornire informazioni sui problemi di droga in Europa.

Sebbene l’epidemiologia basata sulle acque reflue si sia finora concentrata principalmente sulle droghe illecite, i ricercatori si stanno attivando per esaminare altri composti. Ad esempio, i membri del SCORE hanno utilizzato l’approccio per monitorare il consumo di composti legali, tra cui caffeina, nicotina e alcol

L’articolo decisamente molto interessante interessante può essere consultato qui:

https://cen.acs.org/environment/water/monitor-health-citiesresidents-look-further/96/i18

La lettura è consigliata perché mostra quali siano le possibilità di un approccio di questo genere, e anche quali gli aspetti organizzativi e pratici. Dalla creazione di circuiti interlaboratorio per la verifica delle performance analitiche, la scelta delle molecole da determinare in funzione delle loro stabilità e delle eventuali modificazioni durante il transito negli impianti, fino alla gestione di altri dati da interfacciare ai risultati delle analisi (popolazione residente, portate affluenti agli impianti di trattamento ecc..).

E concentrandosi non solo sulle fasi acquose, ma a maggior ragione sui fanghi di risulta, dove si accumulano le sostanze depurate in fase acquosa.

Rispetto ai lavori precedenti sulle droghe illecite, l’epidemiologia basata sulle acque reflue con marcatori di salute endogeni ha avuto un avvio lento. Ma è auspicabile che possa essere sviluppata ulteriormente.

Il mio personale auspicio è ovviamente quello che queste iniziative portino in primo luogo maggior consapevolezza nella popolazione. Siamo noi consumatori che, dobbiamo e possiamo modificare i nostri stili di vita. La tecnologia nulla può nel risanamento ambientale se non è affiancata a questo basilare concetto. Dovremmo cercare di essere maggiormente equilibrati da questo punto di vista.

Per semplificare non è che la possibilità di avere depuratori più efficienti ci possa indurre a consumare più droghe o farmaci, e quindi a scaricarne maggiormente i residui e i metaboliti nelle acque, sentendoci giustificati in qualche modo.

Iniziative volte ad un monitoraggio maggiormente capillare delle acque reflue, sia per scopi di controllo della salute pubblica, che della qualità delle acque è necessario. Ultima considerazione quella di estendere i confronti e lo scambio di informazioni tra più soggetti. Università, centri di ricerca, gestori di impianto, enti di controllo.

Dalla terapia fotodinamica alla fotofarmacologia: le applicazioni mediche di una delle prime macchine molecolari

In evidenza


Rinaldo Cervellati

Ne parla diffusamente Katharine Sanderson in un articolo intervista su* Chemistry & Engineering newsletter del 2 aprile scorso, che vale certamente la pena di riportare integralmente.

Nella terapia fotodinamica, le cellule tumorali sono esposte alla luce laser, a volte tramite sonde a fibre ottiche. Un’impostazione simile potrebbe presto essere utilizzata in fotofarmacologia, oppure i medici potrebbero aver bisogno di impiantare LED per illuminare le aree bersaglio del corpo umano.

Terapia fotodinamica: le cellule tumorali sono esposte alla luce laser, a volte tramite sonde a fibre ottiche.

Nella lotta contro il cancro, le nostre opzioni terapeutiche sono migliorate nel corso degli anni. Ma sono ancora lontane dall’essere ottimali. Oggi i medici somministrano farmaci chemioterapici nella speranza di eliminare o ridurre un tumore prima che provochi troppi danni ad altre parti adiacenti del corpo del malato.

Ora i chimici sperano di guadagnare ancor più terreno in questa battaglia, progettando piccole molecole che possono essere attivate dalla luce all’interno dell’organismo dopo aver raggiunto il bersaglio, limitando così drasticamente gli effetti collaterali.

Gli scienziati mirano a utilizzare questi farmaci fotosensibili non solo per combattere il cancro, ma pensano anche che composti con un comportamento simile potrebbero essere utili nel trattamento della cecità e di altre gravi malattie. Antibiotici regolabili con segnali luminosi potrebbero persino aiutare a combattere la farmacoresistenza. Si deve pensare a questi farmaci come a interruttori molecolari, quando colpito dalla luce il farmaco si attiva, quando si spegne la luce il farmaco si disattiva. Mantenendo quindi la luce spenta quando il farmaco non lavora si impedirà ai patogeni di riconoscerlo come pericoloso e quindi di svilupparne resistenza.

Sebbene l’interesse per lo sviluppo di questi interruttori molecolari sia in aumento, la ricerca nel settore presenta ancora importanti problemi da risolvere. Ad esempio, i ricercatori devono assicurarsi che gli interruttori molecolari funzionino a lunghezze d’onda clinicamente inerti, per intenderci quelle che possono passare attraverso i tessuti senza fare danni. Inoltre i ricercatori devono poter lavorare in stretta collaborazione con i clinici per trovare dispositivi adatti a accendersi e spegnersi in prossimità di uno o più bersagli all’interno del corpo del malato.

L’idea di usare la luce per trattare alcune patologie non è completamente nuova. Ad esempio, la terapia fotodinamica (PDT) tratta i tumori e altre malattie della pelle. In questo tipo di terapia ai malati vengono somministrati farmaci colorati sotto forma di pillole, iniezioni sottocutanee o creme applicate sulla cute. La pelle così trattata viene illuminata con luce di opportuna lunghezza d’onda, che attiva le molecole del farmaco le quali convertono l’ossigeno dal suo stato normale di tripletto allo stato eccitato di singoletto, un potente radicale libero che distrugge le cellule malate.

Il fatto però che molti tumori sono ipossici, cioè richiedenti abbondante ossigeno, può ridurre molto l’efficacia di questo tipo di strategia.

Edith C. Glazer e il suo gruppo all’Università del Kentucky ha sviluppato complessi polipiridilici del rutenio (II) che espellono un ligando quando attivati dalla luce.

Effetto della luce su uno dei complessi di Glazer

Il composto residuo si lega poi al DNA delle cellule cancerose provocandone l’apoptosi.

Edith C. Glazer

A differenza delle molecole colorate nella PDT, le terapie fotofarmacologiche “utilizzano l’energia di un fotone per provocare un cambiamento chimico all’interno della struttura del farmaco”, spiega Glazer, “e questa nuova struttura si lega a un particolare bersaglio causando la morte delle cellule cancerose”.

In altre parole l’espulsione irreversibile di un ligando consente ai complessi di reticolare il DNA delle cellule cancerose provocandone danni irreparabili. Glazer può regolare la solubilità dei complessi e le lunghezze d’onda della luce che assorbono scegliendo opportuni ligandi, oppure creare composti a “doppia azione” che espellono i ligandi e sviluppano ossigeno singoletto (S.B. Howerton et al. Strained Ruthenium Complexes are Potent Light-Activated Anticancer Agents., J. Am. Chem. Soc. 2012, DOI: 10.1021/ja3009677).

Queste molecole possono essere davvero potenti, dice Glazer. “Le cellule si sono evolute per opporre resistenza all’ossigeno singoletto, poiché questo si forma naturalmente, ma addotti DNA-metallo non esistono in natura e quindi può essere più difficile per la cellula sviluppare una resistenza”.

Ma molti chimici, come Wiktor Szymanski dell’University Medical Center di Groningen, vogliono fare un ulteriore passo avanti e utilizzare la luce per “accendere” (attivare) e “spegnere” (disattivare) farmaci, facendoli diventare veri e propri interruttori. Recentemente si è concentrato su antibiotici fotocommutabili.

Viktor Szymansky

In questo modo il medico potrebbe decidere non solo quando ma anche dove gli antibiotici dovranno andare ad agire all’interno del corpo del malato. Una volta che un antibiotico attivato dal segnale luminoso ha esercitato il suo effetto, potrebbe essere disattivato con un diverso segnale luminoso.

Struttura di un antibiotico di Szymanski

Per rendere questi antibiotici on-off, Szymanski e collaboratori hanno modificato alcuni noti antibiotici inserendo nella loro molecola un gruppo azobenzenico, un gruppo fotosensibile a isomeria trans-cis. La luce ultravioletta converte l’azobenzene dalla sua forma trans alla forma cis. La luce blu può invertire il processo rapidamente. Altrimenti, l’azobenzene recupererà lentamente nel tempo la sua forma stabile, trans. L’isomerizzazione modifica la dimensione, la forma o la polarità complessiva della molecola, consentendole di colpire il microorganismo bersaglio.

Szymanski afferma che è sorprendente il numero di farmaci a cui basta aggiungere un gruppo fotocommutatore per conferir loro questa proprietà, esiste quindi la potenzialità per migliorarne la capacità di azione.

Glazer dice che un tale approccio è senza dubbio attraente ma osserva che ha alcune limitazioni. Una è la lunghezza d’onda della luce necessaria per eseguire la commutazione. Le migliori lunghezze d’onda per innescare l’isomerizzazione sono nella regione UV. La luce UV non è molto utile dal punto di vista medico, afferma Glazer, “poiché essa non penetra più di qualche millimetro nel tessuto e può inoltre indurre mutazioni del DNA nelle cellule sane”.

La luce rossa e infrarossa, d’altra parte, penetrano nel tessuto in profondità e in sicurezza. Stefan Hecht dell’Università Humboldt di Berlino sottolineava però che la luce rossa e infrarossa ha in genere i propri limiti. “Con la luce UV c’è molta energia che colpisce la molecola, ma se si irradia una molecola con luce rossa o quasi IR, la quantità di energia che scarichi nella molecola è minore piccola, e continuava: “fondamentalmente, quando la luce rossa o IR colpisce un gruppo foto-commutatore, lo fa con meno energia, e quindi l’isomerizzazione può essere meno probabile che con la luce UV. Ciò significa che il farmaco potrebbe essere meno potente. Sarebbe possibile superare alcuni di questi limiti e sintonizzare le molecole su lunghezze d’onda più lunghe concentrandosi sulla progettazione di interruttori migliori”, affermava Hecht.

Stefan Hecht

Alla fine dello scorso anno, Szymanski e collaboratori, fra i quali Ben Feringa[1], hanno fatto un passo avanti con gli antibiotici foto commutabili proprio nella direzione indicata da Hecht (M. Wegener et al. Photocontrol of Antibacterial Activity: Shifting from UV to Red Light Activation., J. Am. Chem. Soc., 2017, DOI: 10.1021/jacs.7b09281).

Essi hanno aggiunto alla molecola dell’antibiotico trimetoprim, azobenzeni in diverse posizioni sull’unità metossifenilica del farmaco per creare una libreria di molecole attivate da UV.

Nello screening su Escherichia coli, hanno trovato che una fra le molecole della libreria, è particolarmente potente quando attivata dalla luce UV. Per spostare la lunghezza d’onda a cui si verifica l’isomerizzazione trans-cis di questa molecola, il gruppo di Szymanski ha sostituito gli atomi sugli azobenzeni con fluoro e cloro. Una versione sostituita da cloro potrebbe essere isomerizzata da luce rossa. Non solo, ma quando questo trimetroprim fotoattivabile è stato attivato con luce rossa, risultò otto volte più potente contro E. coli rispetto a quando si interrompeva la luce. Per spegnere completamente il farmaco, i ricercatori hanno usato luce viola, che ha restituito rapidamente il farmaco alla sua forma originale, trans.

Fare farmaci antitumorali fotocommutabili “on”- “off” richiede un approccio diverso da quello per la progettazione di antimicrobici, afferma Oliver Thorn-Seshold della Ludwig Maximilian University di Monaco.

Oliver Thorn-Seshold

Con farmaci foto commutabili antitumorali selezionabili, i ricercatori devono infatti assicurarsi che i composti si leghino alle proteine bersaglio solo nella loro configurazione “on”. Legarli nella configurazione “off” significherebbe che i farmaci potrebbero danneggiare le cellule sane, anche esse contenenti quella proteina. Gli antibiotici fotocommutabili, d’altra parte, mirano a proteine specifiche dei batteri, non presenti nelle cellule umane sane. Sicchè essi non danneggiano le cellule sane qualsiasi sia la configurazione che assumono.

Thorn-Seshold fa parte del gruppo di ricerca e sviluppo CytoSwitch di Monaco, guidato da Yelena Wainman e sta progettando composti chiamati fotostatine, o PSTs (M. Borowiak et al. Photoswitchable Inhibitors of Microtubule Dynamics. Optically Control Mitosis and Cell Death., Cell, 2015, DOI: 10.1016/j.cell.2015.06.049). Quando attivati ​​dalla luce blu, questi composti, basati sulla struttura del prodotto naturale combretastatina A-4, interferiscono con la replicazione delle cellule tumorali prendendo di mira elementi strutturali chiamati microtubuli.

Antitumorali di Thorn-Seshold e Dirk Trauner: colpiti da luce blu cambiano configurazione da trans a cis, in questa configurazione interferiscono con i microtubuli che regolano la replicazione delle cellule tumorali.

Le fotostatine di CytoSwitch (originariamente sviluppati da Thorn-Seshold e Dirk Trauner, ora alla New York University), sono completamente inattive prima di essere colpite dalla luce, dice Thorn-Seshold. Ciò significa che i medici potrebbero somministrare ai pazienti anche alte dosi di questi farmaci senza preoccuparsi degli effetti collaterali negativi. Alte dosi significano anche che si possono utilizzare lunghezze d’onda a bassa intensità e biocompatibili, perché anche se solo una piccola frazione del farmaco viene attivata, i livelli risultanti di molecole attive saranno sufficienti per il trattamento. Come altre molecole fotosensibili, dopo essere state inizialmente attivate con la luce, le fotostatine tornano alla loro forma originale, inattiva con una tipica emivita di 15 minuti, afferma Wainman.

Nello sviluppo delle fotostatine, Thorn-Seshold si sta imbattendo in un problema pratico estremamente importante per l’applicazione pratica: come fare arrivare la luce nella parte del corpo dove è necessario attivare o disattivare il farmaco. Ritiene che i diodi ad emissione di luce opportunamente impiantati potrebbero essere un’opzione praticabile. E’ infatti una tecnologia esistente, resa popolare da alcuni tatuatori che impiantano i LED sotto la pelle come espressione di una moda originale. I LED sono anche usati in studi di fisiologia optogenetica in modelli animali (topi).

Dirk Trauner

Trauner, uno dei pionieri della fotofarmacologia, non deve preoccuparsi tanto del problema della luce in almeno uno dei progetti cui sta lavorando, ripristinare la vista ai ciechi. Colpire gli occhi di un individuo con luce brillante non richiede alcuna procedura invasiva di impianto LED, sebbene possa essere necessaria una sorta di visiera protettiva.

Fra la miriade di composti fotocommutatori che Trauner sta studiando ve ne è uno che, acceso negli occhi di topi ciechi, sblocca un canale ionico e ripristina la sensibilità alla luce degli animali (A. Polouskina et al., Photochemical Restoration of Visual Responses in Blind Mice., Neuron 2012, 75, 271-282, DOI: 10.1016/j.neuron.2012.05. 022). Questi topi erano ciechi perché le i coni e i bastoncelli nei loro occhi non funzionavano più, il che accade anche nella degenerazione maculare umana.

Trauner è sicuro che questo lavoro di ripristino della visione diventerà clinicamente rilevante presto, o al massimo fra pochi anni. Dice che ora ha circa 120 esempi di molecole fotocommutabili che funzionano in colture cellulari o modelli animali. Alcuni di queste sono quasi allo stadio preclinico o clinico. E prevede che i suoi farmaci per il ripristino della vista saranno i primi farmaci fotofarmacologici approvati clinicamente.

Tuttavia, fare arrivare luce in aree del corpo umano diverse dagli occhi per periodi prolungati, come giorni o settimane nel caso di antibiotici, potrebbe presentare un problema significativo per la fotofarmacologia, afferma il chimico farmaceutico Dennis Liotta della Emory University (Atlanta), editor-in chief della rivista ACS Pharmaceutical Chemistry Letters. “Dal momento che la luce non può facilmente penetrare in profondità nella pelle degli adulti, bisogna superare la barriera tecnica di portare la luce sul luogo di azione”, dice, e prosegue: “Ci sono vari modi per farlo, ma per quanto ne so, tutti implicano l’uso di dispositivi sofisticati, e sono tutti impiegati in ambiente ospedaliero.”

Dennis Liotta

I punti più facili da raggiungere sono la pelle e gli occhi perché si può fare arrivare la luce direttamente su di essi. Per organi più difficili da raggiungere come il tratto gastrointestinale, i polmoni o la vescica, gli endoscopi potrebbero essere gli strumenti idonei. Per aree davvero difficili da raggiungere, tra cui il cervello e il midollo osseo, dovranno essere sviluppate nuove strategie.

Trauner concorda con Thorn-Seshold che a differenza dagli occhi, per molte di queste aree i LED impiantati potrebbero essere in definitiva il modo più utile per fornire luce.

Il settore dovrà affrontare anche possibili ostacoli normativi prima che questi farmaci fotocommutabili possano raggiungere la sperimentazione clinica. Szymanski afferma che ognuno di questi farmaci è in realtà costituito da due molecole – la versione “on” e la versione “off” – che devono essere sviluppate, testate per la sicurezza e la tossicità e sottoposte all’approvazione di un Organismo di Regolamentazione.

Hecht dice che i chimici farmaceutici con cui discute sono spesso scettici su quanto siano commerciabili medicinali foto commutabili. “Produrre una molecola di piccole dimensioni è già così complicato, l’introduzione del gruppo fotosensibile potrebbe aggiungere complicazioni che renderebbero più difficile il processo di approvazione.”

Liotta invece è più ottimista: “L’unico problema che vedo sono i profili tossicologici dei composti attivi e inattivi. Se sono entrambi sicuri, non dovrebbero esserci problemi intrinseci “.

Sia la Food and Drug Administration statunitense che l’Agenzia Europea per i Medicinali (EMA) non hanno ancora parlato di procedure normative per i farmaci fotocommutabili perché il settore è ancora agli inizi.

A causa di questo per ora vuoto normativo, Glazer sostiene che è importante concentrarsi sulla sperimentazione pre-clinica e clinica e assicurarsi che le molecole che i chimici stanno sviluppando possano condurre a trattamenti fattibili. Ciò è importante al fine che tempo e risorse non vengano spesi perseguendo idee anche teoricamente possibili, ma che in pratica sarebbe troppo macchinoso mettere in atto.

Abbiamo chiesto il parere di Vincenzo Balzani che volentieri di seguito riportiamo.

Si tratta di problemi noti; in linea di principio molto utili, ma, come al solito, bisogna vedere che risultati si ottengono. In questo campo la difficoltà maggiore, come qua e là accennato nel testo, è che i tessuti umani non sono trasparenti a luce visibile-UV, cioè di alta energia, che in genere è necessaria sia per fotosensibilizzare la formazione di ossigeno singoletto, sia per provocare reazioni di dissociazione di leganti o di fotoisomerizzazione. Altro problema è che la forma al buio e gli eventuali prodotti secondari della fotoreazione (qualcosa c’é sempre) non siano dannosi.

C’é molto da fare per cercare composti che siano attivabili  con infrarosso. Altrimenti si può usare eccitazione a due fotoni infrarossi, per avere l’energia necessaria a provocare  la fotoreazione. Si possono anche usare luce UV visibile  con guide ottiche se il tumore da distruggere è in una cavità del corpo (es. esofago). Alcune di queste cose sono descritte succintamente nel libro: V. Balzani, P. Ceroni, A. Juris, Photochemistry and Photophysics. Concepts, Research, Applications. Wiley, 2014, p. 370.

In conclusione, l’articolo è interessante, come una piccola review, anche se poco approfondito.

[1] Bernard Feringa, insieme a Jeanne-Pierre Sauvage e Fraser J. Stoddard, vincitori del Premio Nobel per la Chimica 2016 per la progettazione e la sintesi di macchine molecolari. Il comitato Nobel chimica si è però dimenticato che Vincenzo Balzani ha contribuito in modo fondamentale non solo alla realizzazione dei primi prototipi di macchine molecolari, in collaborazione con Fraser Stoddart e Jean-Pierre Sauvage, ma anche allo sviluppo e al consolidamento dei concetti alla base di questo campo di ricerca, divenuto negli anni uno dei settori più attivi e stimolanti della chimica moderna. Balzani e il suo gruppo posero le basi progettuali per la costruzione di macchine molecolari in un articolo del 1987. Anche il termine “molecular machine” venne pienamente discusso per la prima volta in un articolo firmato da Balzani, Stoddart e collaboratori nel 1993.

http://bologna.repubblica.it/cronaca/2016/10/12/news/chimica_il_nobel_mancato_l_appello_degli_scienziati-149629201/

*Katharine Sanderson- Photoswitchable drugs could light the way to more targeted treatments​