Il ciclo dello zolfo ancora da chiarire

Rinaldo Cervellati

In un post sull’elemento zolfo (https://ilblogdellasci.wordpress.com/2019/03/06/elementi-della-tavola-periodica-zolfo-s/), come già brevemente inserito nella nota in fondo al post aggiunta dal postmaster riguardante il suo ciclo biogeochimico, sono state formulate varie ipotesi sull’effetto climatico del DMS (dimetilsolfuro N.d.R.) e presentati due schemi alternativi sul suo ruolo climatico.

In questo post, liberamente adattato da un articolo di Rachel Brazil su Chemistry Word[1], cercheremo in dettaglio di colmare le lacune che influiscono sulla nostra capacità di modellizzare correttamente gli effetti dello zolfo sul clima.

Infatti, come per il carbonio, l’azoto e il fosforo, il suo uso e la sua conversione chimica attraverso il mondo fisico e biologico sono descritti in un ciclo. Ma parte di quel ciclo non è ben compreso, in particolare come vengano prodotte e utilizzate piccole molecole di organo-zolfo negli oceani. Uno dei motivi principali del rinnovato interesse per il ciclo dello zolfo è la sua influenza sul clima, dovuta alle emissioni oceaniche di dimetilsolfuro (DMS). Spencer Williams, professore di chimica all’Università di Melbourne (Australia), afferma: “Una volta si pensava che lo zolfo fosse rilasciato da alghe marine e microbi come idrogeno solforato, ma ora sappiamo che circa 300 milioni di tonnellate di DMS vengono rilasciate dagli oceani ogni anno. L’odore dell’oceano che tutti conosciamo è caratterizzato da livelli molto bassi di DMS“.

Prof. Spencer Williams

È stato lo scienziato ambientale britannico James Lovelock a proporre l’idea che il DMS potrebbe essere un fattore importante nella regolazione del clima.

Lovelock è noto per aver proposto l’ipotesi  secondo cui la vita sulla Terra agiva di concerto come un sistema complesso tipo un organismo. Nel 1987 suggerì che incoraggiando la formazione di nubi, il DMS agisse da termostato terrestre e prevenisse il surriscaldamento, conosciuta come “ipotesi CLAW”.

James Lovelock

Spiega Martí Galí Tàpias, scienziato marino (Istituto di scienze marine, Barcellona, Spagna):

Martí Galí Tàpias

I prodotti di ossidazione del DMS, come l’anidride solforosa e altri composti [solfati] possono eventualmente formare nuove particelle di aerosol. Le particelle portano alla nucleazione del vapore acqueo, formando nuvole e provocando una maggiore riflessione delle radiazioni per effetto dell’albedo[2]. Ciò potrebbe quindi compensare alcuni degli impatti del riscaldamento dei gas serra”.

L’oceano è un importante serbatoio di zolfo, contenente grandi quantità di solfato disciolto, dilavato dal gesso e da altri minerali. Le specie batteriche possono ridurlo a solfuri come composti organici. Piccole molecole contenenti zolfo eventualmente rilasciate nell’oceano ritornano nell’atmosfera come DMS, che viene quindi ossidato e riciclato tramite l’acqua piovana (Figura 1).

Figura 1 . Il ciclo dello zolfo dipende da percorsi biologici nei batteri e nel fitoplancton che non sono ancora completamente compresi. Credit: Dan Bright

È la parte biologica del ciclo dello zolfo, dove c’è ancora tanto da imparare. Lo zolfo è un costituente di molte proteine ​​e cofattori ed è presente in due degli aminoacidi proteinogenici, la metionina e la cisteina. Afferma Bryndam Durham, microbiologo marino dell’Università della Florida (USA): “Negli organismi marini, la sua abbondanza è paragonabile al fosforo in termini di modo in cui si accumula nella biomassa”.

Bryndam Durham

Oltre alla sua relativa ubiquità, Georg Pohnert (ecologista e chimico, Friedrich Schiller University a Jena (Germania),  spiega che il suo ruolo in biologia scaturisce dalla sua versatilità chimica, con un’ampia gamma di stati di ossidazione da -2 a +6. Dal momento che si può trovare in così diversi stati di ossidazione, ha molti modi per accedere come entità biologica e ha sempre più modi per elaborarli. Questa flessibilità lo rende un protagonista in molti processi cellulari.

Georg Pohnert

Da diversi decenni è noto che il DMS emesso dagli oceani deriva in gran parte dalla scomposizione della molecola di zolfo dimetil sulfinoproprianato (DMSP), una molecola altamente polare contenente uno ione solfonio caricato positivamente. Il DMSP è prodotto dal fitoplancton, l’alga microscopica fotosintetizzante che si trova nello strato superficiale dell’oceano. “Alcuni organismi lo producono in enormi quantità, fino a concentrazioni intracellulari di metà molare; chiaramente impiegano molte energie per farlo“, afferma Jonathan Todd (biologo molecolare, Università dell’East Anglia, Regno Unito). Quando viene degradata, la molecola viene scissa in DMS, gran parte del quale finisce nell’atmosfera, e un frammento proprionato che può essere metabolizzato come fonte di carbonio.

Ma il fitoplancton non è l’unico produttore di DMSP. Afferma Todd: “Una recente scoperta chiave del mio laboratorio è che l’ipotesi che il DMSP sia prodotto solo da organismi eucarioti marini è completamente falsa”. Il suo gruppo ha trovato alti livelli di DMSP e DMS in paludi e sedimenti costieri legati a batteri produttori di DMSP, stimando che potrebbero esserci come minimo fino a 100 milioni di batteri produttori di DMSP per grammo di sedimento di palude salata, una parte del ciclo dello zolfo precedentemente trascurato.

Jonathan Todd

Il gruppo di Todd ha studiato il ciclo del DMSP nei campioni di sedimenti di superficie costiera e ha scoperto che la sua concentrazione nei sedimenti è di uno o addirittura due ordini di grandezza superiore a quello che si vede nell’acqua di mare superficiale. Il fitoplancton resta ancora il principale produttore, ma questo studio mostra che i batteri nelle distese fangose e nelle regioni marine devono essere presi in considerazione come attori significativi.

Una domanda che Todd e altri si stanno ponendo è perché così tanti organismi producono DMSP e qual è il suo uso. La percezione comune è che sia prodotto da organismi eucarioti marini come composto antistress. Qualche anno fa il suo laboratorio ha identificato il gene chiave responsabile della sua biosintesi nei batteri marini e ha anche notato che il gene era sovraregolato in ambienti in cui la salinità era aumentata, le temperature abbassate o le concentrazioni di azoto limitate.

Il DMSP sembra avere un ruolo nella regolazione osmotica di alcuni fitoplancton, sfruttando le sue proprietà zwitterioniche[3]. Ad esempio, le diatomee sono alghe racchiuse in modo univoco da una parete cellulare di silice trasparente, il che significa che non sono in grado di regolare la loro concentrazione cambiando dimensione. Quello che fanno invece è usare la molecola DMSP, spiega Pohnert: “Producono sali mediante processi biosintetici, e poi possono anche regolarlo nuovamente“. Todd afferma che il DMSP, e i suoi prodotti DMS e acido propionico, possono anche essere prodotti come molecole di segnalazione da una varietà di microbi; per esempio, l’acido propionico può essere tossico per alcuni organismi ma il DMS è anche un chemio-attrattivo.

Un indizio sulla diversità dell’uso del DMSP viene anche dal lavoro svolto da Todd e collaboratori per identificare le vie enzimatiche che lo scompongono. Dopo aver identificato il primo enzima liasi, hanno pensato che “sarebbe stata la fine della storia“. Ma alla fine hanno trovato otto enzimi unici in alghe e batteri, tutti provenienti da famiglie proteiche distinte con percorsi chimici unici. Il gruppo ha scoperto che esisteva un’enorme biodiversità nei modi in cui i microrganismi e gli organismi superiori degradano il DMSP per generare DMS.

Recentemente è anche diventato evidente che si è sviluppato un ecosistema oceanico diversificato che non solo produce, ma consuma DMSP e altri composti organo-solforati. “In genere pensiamo che gli ambienti marini siano inondati di nutrienti, ma in realtà l’oceano aperto è piuttosto scarso e il DMSP è un nutriente chiave. Un’ampia gamma di microrganismi importa il DMSP e lo metabolizza come fonte di carbonio e zolfo per l’energia”, spiega Todd. Secondo Durham, questi alimentatori DMSP fanno parte di una serie di interazioni cooperative. “I batteri che possono utilizzare il DMSP sono ritenuti benefici per il fitoplancton [che lo produce], producendo vitamine, molecole di segnalazione, ormoni, e altre sostanze bio-organiche.”

Pohnert ha scoperto un altro percorso mancante o “scorciatoia” nel ciclo dello zolfo marino, con l’esistenza del dimetilsolfonio propionato (DMSOP) trovato in tutti i campioni oceanici dall’Artico al Mediterraneo. Esiste un’intera famiglia di composti strutturalmente correlati al DMSP e il gruppo di ricerca è rimasto piuttosto sorpreso di trovare persino un composto sulfoxonio, che è chimicamente molto insolito. DMSOP è anche uno zwitterione che può essere scomposto dagli enzimi in due unità non cariche, ma con lo zolfo in uno stato di ossidazione superiore a quello del DMSP.

Non possiamo spiegare perché sono necessari entrambi i composti”, afferma Pohnert, ma suggerisce che convertendo il DMSP in DMSOP, alcune specie di alghe e batteri sono in grado di sopravvivere a un aumento delle specie reattive dell’ossigeno che possono incontrare spostandosi rapidamente attraverso un oceano che cambia, essenzialmente un meccanismo di disintossicazione interno. “È davvero solo un’altra messa a punto della loro capacità di adattarsi al loro ambiente”, spiega Pohnert, che sospetta che la produzione di DMSOP possa anche essere collegata all’invecchiamento, in cui l’equilibrio ossidativo negli organismi può essere distorto; questa è un’idea che sta seguendo ora il gruppo.

Pohnert ha colmato le lacune di questa parte del ciclo dello zolfo. Come il DMSP, esistono batteri in grado di metabolizzare il DMSOP, formando dimetilsolfossido (DMSO), che può essere esso stesso convertito in DMS o assorbito da altri batteri.

In particolare ha trovato il 2,3-diidrossipropan-1-solfonato (DHPS) prodotto nelle diatomee in concentrazioni millimolari che viene metabolizzato dai batteri come fonte di carbonio e zolfo. “Quello che capiamo sui solfonati è in ritardo rispetto a come comprendiamo il DMSP”, afferma Durham. Il motivo per cui sono realizzati non è chiaro, ma un suggerimento di Durham è che potrebbe essere un modo per regolare la fotosintesi: sanno dagli organismi coltivati ​​in laboratorio che il DHPS viene prodotto solo durante il giorno. “Se c’è molta luce in arrivo, il fitoplancton non ha la protezione solare, deve solo affrontarla. Quindi l’assimilazione del solfonato è ad alta intensità energetica e potrebbe essere un buon modo per scaricare gli elettroni in eccesso… questo è quello che stiamo immaginando”.

La scoperta del DHPS e il suo legame con la fotosintesi hanno eccitato Williams, chimico dei carboidrati che studia le vie della glicolisi e processi biologici simili per metabolizzare il monosaccaride sulfochinovosio sulfonato. Dice Williams: “Io chiamo sulfochinovosio la molecola più importante e praticamente sconosciuta. Sembra glucosio, tranne per il fatto  che ha un legame carbonio-zolfo”. Si stima che costituisca circa il 50% di tutte le molecole di organozolfo (il restante è in gran parte costituito da cistina e metionina).

“Quasi ogni singolo organismo fotosintetico, che si tratti di cianobatteri, alghe, diatomee, piante o muschio, produce sulfochinovosio”, afferma Williams. La sua ubiquità è spiegata dal suo ruolo nella fotosintesi, essendo parte delle membrane che circondano i compartimenti noti come thulakoidi, all’interno dei cloroplasti dove avviene la reazione fotochimica. Oltre ai fosfolipidi, queste membrane contengono i glicolipidi, sulfochinovosil diacilgliceroli (SQDG).

Williams ha chiarito i percorsi enzimatici attraverso i quali i batteri di nicchia del suolo sono in grado di raccogliere e scomporre il sulfochinovosio dalla materia vegetale. “In ogni grammo di terreno che puoi trovare  ci sarà un insetto che ha un percorso enzimatico latente, in attesa di avere fortuna e ottenere un po’ di questo sulfochinovosio. Ma è stato osservato che nessun singolo organismo può scomporre il sulfochinovosio”. Invece, spiega Williams, tendono a emettere un frammento di zolfo che viene trasmesso ad altri organismi. Una di queste molecole contenenti zolfo è il DHPS, il solfonato osservato per la prima volta negli oceani da Durham nel 2019. Sebbene non ci siano ancora prove chiare, Williams suggerisce che il sulfochinovosio del fitoplancton potrebbe essere la fonte del DHPS oceanico. “Forse è da lì che viene“, dice, ma ammette che nessuno sa davvero cosa succede.

Il sulfochinovosio è anche uno dei modi in cui gli esseri umani interagiscono con il ciclo dello zolfo. Il nostro microbioma intestinale comprende la famiglia di batteri Firmicutes, che metabolizzano il sulfochinovosio dal cibo che mangiamo. “Ad esempio, mangiando grosse quantità di spinaci, potresti ottenere qualche centinaio di milligrammi di sulfochinovosio al giorno”, afferma Williams. Ma questo è sufficiente per supportare questo batterio di nicchia. Il processo alla fine produce una fonte aggiuntiva di idrogeno solforato, che verrà restituito all’atmosfera per essere riciclato.

Per i modellizzatori climatici, la comprensione del ciclo dello zolfo e del modo in cui risponde ai cambiamenti climatici è importante per una previsione climatica più accurata. Mentre lo zolfo rilasciato dai combustibili fossili ha raddoppiato i livelli ambientali dalla rivoluzione industriale ed è ancora la fonte predominante, il DMS proveniente dagli oceani rappresenta un terzo dello zolfo atmosferico totale. Lo zolfo antropogenico è la causa delle piogge acide, che possono degradare significativamente gli ecosistemi.

C’è ancora incertezza sull’impatto dei composti dello zolfo. Nel suo libro del 2006 The Revenge of Gaia, Lovelock ha ampliato le sue idee precedenti e ha suggerito che il riscaldamento globale stava portando a una diminuzione della biomassa oceanica che produce DMS, riducendo i potenziali effetti di feedback positivi che aveva previsto in precedenza e forse creando un effetto a spirale.

Se questo sia il caso, non è ancora chiaro. “Attualmente i modelli della produzione DMS presentano alcune carenze“, afferma Galì. Indica i quattro modelli climatici all’avanguardia pubblicati nel 2021 dal Programma mondiale di ricerca sul clima e alla base del sesto rapporto di valutazione dell’IPCC. “Quattro di loro hanno una rappresentazione alternativa delle emissioni DMS… due modelli prevedevano un aumento nel corso del prossimo secolo, gli altri due prevedevano una diminuzione”. È ora un forte imperativo per modellizzare in modo più accurato la produzione di DMS. Todd è d’accordo e aggiunge che anche il contributo di DMSP da altri ambienti, come le paludi che ha studiato, deve essere preso in considerazione.

Ci sono anche nuove scoperte in altre parti del ciclo. Uno studio del 2020 della National Oceanic and Atmospheric Administration degli Stati Uniti, ad esempio, ha identificato che il 30% del DMS è ossidato a idroperossimetil tioformiato, identificato attraverso l’osservazione nell’aria. Il suo impatto sulla formazione di aerosol e sulla condensazione delle nubi deve ancora essere studiato.

Su scala globale, Galì ha iniziato il lavoro di misurazione e modellizzazione del DMS. Egli ha creato un algoritmo per stimare i livelli di DMS marini utilizzando i dati satellitari di telerilevamento. Ad esempio, calcola i livelli di biomassa del fitoplancton sulla base di misurazioni ottiche in grado di stimare la quantità di clorofilla presente dall’analisi dell’intensità del colore. Ma afferma che ciò che ora è veramente importante è essere in grado di stabilire con precisione i tassi di cambiamento globali, e questo richiederà molto lavoro.

Ora spera di creare un database dei tassi globali di produzione e consumo di DMS, attraverso lo Special Committee on Oceanic Research, un’ONG che gestisce la ricerca marina internazionale. Ciò alla fine fornirebbe dati per modelli climatici più accurati. Richiederà un’analisi molto più dettagliata di quella attualmente esistente; ad esempio, essere in grado di distinguere i produttori bassi o alti di DSM e comprendere appieno come altri microbi contribuiscono al consumo e alla produzione di composti organosolforati correlati. “Devi rappresentare tutti questi processi nei  modelli per ottenere la concentrazione di zolfo giusta”, dice Galì. “È piuttosto complesso“. E date le recenti scoperte, potrebbero esserci parti del ciclo dello zolfo ancora da scoprire. Ma, come conclude Pohnert, per individuare davvero il suo impatto sul clima, dovremo migliorare la nostra comprensione del ciclo dello zolfo e dovrà essere uno sforzo multidisciplinare; “necessita un’interazione tra modellizzazione, microbiologia e chimica”.


[1] Rachel Brazil, The secrets of the sulfur cycle, Chemistry World weekly, 28 March, 2022.

[2] L’albedo è la frazione di luce riflessa da un oggetto o da una superficie rispetto a quella che vi incide. Nel caso della Terra, il valore dell’albedo dipende dalla presenza o meno di un’atmosfera, da eventuali nubi e dalla natura della superficie (rocce scure, terreno erboso, deserto sabbioso, oceani); le calotte polari o zone coperte da ghiacci e neve innalzano l’albedo perché hanno un alto potere riflettente.

[3] Lo zwitterione (dal tedesco zwitter, ermafrodita) è una molecola elettricamente neutra che quindi non subisce l’azione di un campo elettrico.

Governo degli scienziati o governo dei politici?

Articolo pubblicato su Bo7 del 10-4

Vincenzo Balzani, professore emerito, Università di Bologna

L’importante ruolo giocato dagli scienziati per contrastare la pandemia ha riproposto un antico dilemma: il governo deve essere affidato ai politici o agli scienziati? Su questo argomento si era già espresso il filosofo greco Platone: “Le tecniche sanno come le cose devono essere fatte, ma non se devono essere fatte e a che scopo devono essere fatte. Per questo occorre quella tecnica) che è la politica, capace di far trionfare ciò che è giusto attraverso il coordinamento e il governo di tutte le conoscenze, le tecniche e le attività che si svolgono nella città.” Platone, quindi, ci dice che sono i politici che debbono governare; ma non siamo più ai tempi di Platone. Sono passati 2400 anni e la società umana oggi deve fare i conti con l’enorme sviluppo della scienza e della tecnologia

Governare è un’attività molto complessa; anche perché, come ha scritto Hanna Arendt “La realtà ha la sconcertante abitudine di metterci di fronte all’imprevisto, per cui, appunto, non eravamo preparati”.Gli imprevisti, in una società complessa come quella attuale, sono molti, ma anche senza imprevisti è la complessità stessa che rende difficile prendere decisioni, cioè governare.

Egard Morin ha scritto che “I problemi importanti sono sempre complessi e spesso sono pieni di contraddizioni. Bisogna quindi affrontarli globalmente, con saperi diversi che debbono interagire fra loro”. Questa è una buona ricetta per un buon governo: utilizzare tutti i saperi per conoscere in profondità i vari aspetti di ogni problema e metterli a confronto per riuscire a trarre una conclusione. I saperi diversi sono quelli che costituiscono la scienza, ma anche altri, non meno importanti, come l’etica, l’economia, il lavoro, le disuguaglianze. La capacità di coordinare situazioni complesse e di prendere decisioni sono le caratteristiche richieste alle persone che, nei paesi democratici, vengono elette, cioè scelte per governare: quelle che chiamiamo “politici”. I quali, però, dovrebbero essere consapevoli che molti dei problemi che devono affrontare sono più grandi di loro, da cui la necessità di consultare chi è più esperto: gli scienziati.

Dovremmo, pertanto, avere un Governo politico affiancato da un Comitato Scientifico Interdisciplinare. Gli scienziati sanno guardare al futuro molto meglio dei politici, che spesso sono condizionati dal desiderio di essere rieletti o dalle pressioni delle grandi industrie. I membri del Comitato Scientifico dovrebbero essere nominati dal Presidente della Repubblica per un certo periodo, non legato alle scadenze elettorali. Nelle situazioni di emergenza, poi, come è accaduto per l’attuale pandemia, si dovrebbe far ricorso a Comitati Scientifici specifici, i cui componenti dovrebbero essere nominati dal Comitato Scientifico Interdisciplinare. Ciascun ministero importante dovrebbe avere un suo Comitato Scientifico senza aspettare che si creino situazioni di emergenza, ma per prevenirle. La necessità di una tale forma politico-scientifica di governo è urgente in particolare per il ministero della Transizione Ecologica, che oggi è il problema più importante che dobbiamo affrontare.

Arte ed economia

Luigi Campanella, già Presidente SCI

Ricordo una frase di un ex ministro che fece tanto discutere: la cultura non fa economia. Allora si disse che per un Paese come il nostro nel quale i Beni Culturali rappresentano la prima ricchezza pensare da parte di un uomo di Governo che ad essi non debba corrispondere un valore economico fosse un grande errore ed uscirono per la prima volta alcuni dati sulla capacità italiana di ricavare PIL dai propri siti culturali.

Venne così fuori che l’Inghilterra con la metà dei Siti UNESCO dell’Italia portava a casa il doppio dell’Italia ma anche Francia e Germania erano più efficienti nel trasformare il capitale culturale in capitale economico.

Allora emerse chiaramente che il difetto era nel manico cioè nella incapacità gestionale. Da allora sono passati molti anni ed alcuni nodi di quel cattivo funzionamento sono stati sciolti: difetti di comunicazione, mancanza di personale preparato, mancanza di infrastrutture, pigrizia all’innovazione.

Oggi possiamo guardare con molto più ottimismo ed a conferma di ciò viene il Primo Rapporto di Arte Generali la piattaforma di servizi dedicata all’assicurazione delle opere d’arte.

Il Rapporto è stato realizzato anche utilizzando il supporto dei sistemi di Intelligenza Artificiale di Wondeur, partner esclusivo in Europa di Arte Generali, applicati all’integrale dell’arte italiana rappresentato da musei, gallerie, istituti di cultura, collezioni pubbliche e private per un totale complessivo di 3000 musei 230.000 artisti e 3600 località.

https://wondeur.ai/

Arte Generali vuole arrivare ad un quadro nazionale dal quale emerga quale è il sostegno alla produzione di beni culturali nel nostro Paese. Questo primo Report è stato dedicato all’arte contemporanea, in particolare dagli anni 80, che seguirono al ventennio 50-70, gli anni dell’arte Povera, oltre che di personaggi importanti come Burri e Fontana.

In questo ultimo ventennio abbiamo assistito ad una crescita del valore commerciale delle opere italiane che con sempre maggiore frequenza sono state esposte nelle grandi Gallerie ed Esposizioni e nelle aste internazionali. Purtroppo però i nomi coinvolti sono sempre gli stessi, una decina (da Cattelan a Bonvicini, da Perrone a Vezzoli) con un valore d’asta di circa 2 milioni, a dimostrare che le risorse impiegate non hanno dato le gambe a chi voleva superare l’energia di attivazione: ha solo contribuito al successo di chi quell’energia l’aveva già superata. Certamente la pandemia ha rappresentato un ostacolo aggiuntivo ma sono mancate le idee della creatività italiana, il che ci ricollega al punto dal quale siamo partiti.

Politiche fiscali di stimolo alla valorizzazione anche economica di opere d’arte distinguendo collezionismo da speculazione, facilitazioni per la realizzazione di eventi di divulgazione e promozione, manutenzione ordinaria prevalente su quella ordinaria, infrastrutture espositive: queste alcune delle iniziative di cui si sente il bisogno, ma che ancora, malgrado se ne parli da tempo, non partono, come il Rapporto di Arte Generali correttamente denuncia.

C’è poi un aspetto più tecnico che riguarda l’applicazione delle nuove tecnologie ai Beni Culturali. Per molti anni in passato questa è avvenuta con ritardi e pigrizia mentale comprensibili: la prudenza nel trattare un’opera d’arte è un must che obbliga a rifugiarsi nel consolidato. È pero anche vero che senza innovazione non si migliora nelle capacità operative. Oggi la situazione è cambiata: le nuove tecnologie esplorative e conservative si sono imposte innalzando il grado di capacità a proteggere il patrimonio artistico.

In questo processo la Chimica ha contribuito largamente in particolare con la green chemistry: nuovi processi e nuovi prodotti. nanotecnologie e biotecnologie, nuovi composti naturali, sensoristica hanno trovato opportunità di valorizzazione al tempo stesso svolgendo un ruolo prezioso per la salvaguardia di quel patrimonio da cui l’economia del nostro Paese non può prescindere.

https://www.beniculturali.it/evento/la-sostenibilita-nel-restauro-stato-dellarte-applicazioni-e-prospettive-future-il-restauro-sostenibile-enea-progetto-es-pa

Pierre-Joseph Macquer e il primo Dizionario di Chimica, 1766

Roberto Poeti

La comparsa del primo Dizionario di Chimica in senso moderno risale al 1766. Il suo autore fu Pierre-Joseph Macquer (1718-84), uno dei massimi chimici dell’epoca, un rappresentante eminente dell’illuminismo francese, che simboleggia  il problematico passaggio verso la nuova chimica di Lavoisier.

Macquer  aveva studiato chimica al celebre Jardin du Roi sotto Guillaume-Francois Rouelle (1703-1770) e, all’età di 24 anni, aveva conseguito una laurea in medicina. I suoi interessi non erano però centrati nella medicina, ma nelle scienze fisiche, in particolare nella chimica, e nel 1745 fu eletto chimico aggiunto della Académie des Sciences, per ricoprire alla fine la carica di direttore nel 1774. Condusse ricerche e pubblicò molte memorie su un’ampia varietà di argomenti chimici e tecnologici. Nel 1757, Macquer e Antoine Baumé (1728-1804) collaborarono e insegnarono chimica nel loro laboratorio a Parigi. Prima di questo, tuttavia, Macquer aveva pubblicato un ottimo libro di testo Elemens de Chymie Theorique (1749), che trattavano i principi di base della chimica teorica e pratica. I libri scritti con cura di Macquer presentavano la chimica come un ramo distinto delle scienze naturali, indipendente, dalla farmacia e dalla medicina, e hanno avuto un impatto immediato sul mondo scientifico. 

Tra il 1749 e il 1752 fu il primo a condusse gli studi sul blu di Prussia, allo scopo di capirne la composizione, attraverso una analitica e dettagliata attività sperimentale, che è  riportata nella sua memoria  Examen Chymique du Bleu de Prusse. Collaborò con  Jean Hellot  (1685-1766) nello sviluppo dei principi scientifici della tintura e pubblicò anche un importante libro sulla tintura della seta. Quando Hellot morì nel 1766, gli succedette come commissario per i coloranti al Bureau du commerce . Nel 1757, Macquer fu nominato “Chimico accademico” alla Real Fabbrica di Porcellane di Sèvres, carica che  ricoprì dal 1757 al 1766. Il suo compito era quella della ricerca del segreto di fabbricazione di una porcellana dura identica a quella della Cina o del Giappone. Questo lavoro durante il quale eseguì più di 1.800 esperimenti ed esaminò 1.200 paste diverse, occupò Macquer nel biennio 1757 e 1758. Queste due funzioni ufficiali a Sèvres e al Bureau du commerce, che mantenne fino alla sua morte nel 1784, pur svolgendo anche un  ruolo trainante all’interno della Reale Accademia delle Scienze, gli permisero di partecipare allo sviluppo industriale della Francia della seconda metà del diciottesimo secolo.  Membro influente della comunità scientifica parigina, le sue ricerche svolte nell’ambito delle sue funzioni ufficiali – attività industriali e contatto permanente con gli artigiani – gli permisero di acquisire conoscenze pratiche che andavano di pari passo con la sua grande conoscenza degli aspetti teorici .

Il dizionario

Indiscutibilmente, la più grande opera letteraria di Macquer fu il Dictionnaire de Chymie (Parigi, 1766). La sua vasta esperienza nella chimica pura e applicata lo ha particolarmente aiutato nel compito di compilare un’opera così completa e ambiziosa. Lessici chimici erano apparsi in precedenza, ma il dizionario di Macquer fu il primo tentativo di coprire l’intero campo della chimica, sia pura che applicata, in modo enciclopedico.

Macquer si riferisce alla famosa teoria del flogisto, e poi elogia Stahl come:

. . .il più grande e il più sublime di tutti i chimici filosofici. . .La teoria del Becher, che ha adottato quasi interamente, è diventata, nei suoi scritti, di tutte le teorie la più illuminante e la più conforme ai fenomeni della chimica. . . .la teoria di Stahl è la guida più sicura che possiamo prendere per la nostra condotta nelle ricerche chimiche; e i numerosi esperimenti che ogni giorno vengono fatti, lungi dall’invalidarlo, diventano nuove prove per la sua conferma

L’alta considerazione di Macquer per la teoria del flogisto è evidente e conclude l’introduzione storica con una nota di incoraggiamento:

Ora abbiamo il vantaggio di vedere i giorni migliori per la  chimica. Il gusto della nostra epoca per le questioni filosofiche… e. . .la profonda abilità e l’ardore dei chimici moderni. . . sembrano promettere il successo più grande e più brillante.

Il dizionario divenne subito popolare e passò attraverso diverse edizioni in francese. Fu tradotto in tedesco (1767), inglese (1771), danese (1771-72) e italiano (1783-84). Il traduttore dell’edizione inglese, James Keir, dà una valutazione del dizionario e la stima in cui fu tenuto nel 1771:

. . .è stato universalmente attribuito al signor Macquer. . .che ha giustamente acquisito presso i chimici una illustre reputazione. . . .Il lavoro. . .contiene una conoscenza molto ampia della storia chimica, dei fatti e delle opinioni e delle esatte descrizioni delle operazioni e degli strumenti della chimica. . .(quali). . .sono spiegati bene e completamente, per quanto lo stato attuale delle conoscenze chimiche lo consenta. L’Autore ha inoltre reso la sua opera di grande utilità. . .dalle applicazioni che ha fatto della chimica alla storia naturale, alla medicina, alla farmacia, alla metallurgia e a tutte le numerose arti e mestieri, le cui operazioni dipendono da principi chimici. In questo piano globale è incluso tutto ciò che riguarda la Chimica; e. . .possiamo giustamente affermare che questo Dizionario contiene più conoscenze chimiche di qualsiasi altro libro esistente.

La novità e la portata enciclopedica del dizionario sono immediatamente evidenti dalla  precedente dichiarazione. Macquer era consapevole che un dizionario era molto imperfetto per insegnare una scienza e si era reso conto che la conoscenza chimica a metà del diciottesimo secolo era rudimentale, poiché la chimica “a malapena aveva diritto al nome di scienza”. Presentare i fatti chimici in ordine alfabetico (con numerosi rimandi) gli ha permesso tuttavia di includere molti argomenti che altrimenti sarebbero stati difficili da introdurre. Il dizionario è apparso durante il periodo in cui la teoria del flogisto ha tenuto il campo. Sebbene imperfetta nello spiegare l’aumento di peso dei metalli sulla calcinazione (cioè l’ossidazione), fatto ben noto ai chimici del diciottesimo secolo, la teoria è stata enormemente utile nel correlare molte osservazioni chimiche apparentemente disconnesse. Macquer sostenne fermamente l’ipotesi flogistica, ma verso la fine della sua vita propose un’ingegnosa modifica della versione stahliana, nel tentativo di conciliarla con i dati sperimentali quantitativi addotti da Lavoisier relativi all’aumento di peso dei metalli per calcinazione in aria. Macquer ha spiegato l’aumento di peso postulando che il metallo ha prima perso il flogisto (come nella teoria classica), e poi si è combinato con una quantità d’aria che ha superato il peso del flogisto perso! Questa teoria ingegnosa, ma erronea, fu alla fine superata dal brillante lavoro sperimentale quantitativo di Lavoisier, che rese possibile la nascita del periodo moderno della chimica. Macquer intendeva che il suo lavoro fosse un trattato completo di chimica e tecnologia chimica e nel 1766 era possibile coprire adeguatamente questi argomenti in due piccoli volumi. Le sue definizioni gettano una luce considerevole sullo stato della conoscenza chimica di duecentocinquanta anni fa:

La chimica è una scienza il cui scopo è scoprire le proprietà dei corpi attraverso l’analisi e la combinazione

Macquer afferma che i vantaggi risultanti da questa scienza sono ben noti. Significativamente, l’alchimia non è inclusa nella definizione, né la chimica è una branca della farmacia o della medicina. Chiaramente, l’atteggiamento di Macquer è moderno nel considerare la chimica come una scienza distinta. Per quanto riguarda l’alchimia, Macquer afferma:

I veri chimici considerano l’alchimia una scienza immaginaria, e coloro che vi sono devoti sono persone che, per mancanza di una migliore istruzione, abbandonano una realtà per amore di un’ombra.

Elemento

La definizione di elemento nel dizionario ci sorprende :

Ma questa analisi, e la decomposizione dei corpi, è limitata: possiamo portarla fino ad un certo punto, oltre la quale tutti i nostri sforzi sono vani. Indipendentemente dal modo in cui lo facciamo, siamo sempre fermati da sostanze che troviamo inalterabili, che non possiamo più decomporre e che fungono da barriere oltre le quali non possiamo andare. È a queste sostanze che dobbiamo, credo, dare il nome di principi o elementi (…) Perché sebbene ci sia evidenza che queste sostanze non sono realmente le parti essenziali della materia, e gli elementi più semplici; poiché l’esperienza ci ha insegnato che è impossibile riconoscere dai nostri sensi quali siano i principi di cui essi stessi sono composti, ritengo più ragionevole lasciar perdere e considerarli come corpi semplici, omogenei, e come principi di altri: invece di stancarci di indovinare da quali parti o elementi potrebbero essere composti, non c’è modo di essere sicuri se abbiamo ragione, o se le nostre idee sono solo chimere.

In  questo passaggio, Macquer esprime un approccio simile a quello successivamente proposto da Lavoisier, come spiegato brevemente da quest’ultimo nel “Discorso preliminare” al suo Trattato elementare di chimica del 1789:

Confrontiamolo con la definizione proposta  da Lavoisier:

se… applichiamo il nome di elementi o principi di corpi all’idea dell’ultimo termine a cui arriva l’analisi, tutte le sostanze che non siamo ancora riusciti a decomporre in qualche modo sono per noi elementi. Non che possiamo garantire che questi corpi che consideriamo semplici non siano, essi stessi, composti da due o anche un numero maggiore di principi, poiché questi non sono separati, o meglio, non abbiamo mezzi per separarli, essendo per noi corpi semplici . Non dobbiamo supporre che siano composti finché l’esperienza e l’osservazione non ci hanno fornito la prova.

È un approccio in linea con quello di Macquer, a cui Lavoisier si sarà certamente ispirato venti anni dopo. Ma Macquer è prigioniero della concezione dei quattro principi e il suo approccio operativo rimane incompiuto:

  questi [elementi] sono principalmente Terra e Acqua, a cui si possono aggiungere aria e fuoco. (…) guardiamo a queste quattro sostanze come principi o elementi di tutti i diversi composti che la natura ci offre, perché, infatti, di tutte quelle che conosciamo, sono le più semplici, e che il risultato di tutte le nostre analisi e dalle nostre esperienze di altri corpi, ci fa capire che finalmente sono ridotti a queste parti primitive. Questi principi non sono nella stessa quantità in corpi diversi; ci sono anche alcune miscele nella cui combinazione questo o quel principio non entra: ad esempio, aria e acqua sono completamente escluse dalla composizione dei metalli.

Seguendo inoltre  una concezione molto tradizionale, Macquer ha evidenziato nella distillazione un mezzo privilegiato per favorire la separazione tra i principi costitutivi dei materiali:

Il metodo più utilizzato per decomporre i corpi, è quello di esporli in contenitori idonei a raccogliere ciò che viene esalato, con calore graduale, dal più mite al più forte. In questo modo i principi vengono successivamente separati l’uno dall’altro, salendo prima il più volatile, e poi gli altri, mentre sperimentano il grado di calore che è capace di rimuoverli; questo è ciò che si chiama distillazione. (…) [Il] fuoco, nel decomporre il corpo, in genere altera molto sensibilmente i suoi principi secondari combinandoli in vario modo tra loro, o anche decomponendoli parzialmente, e li riduce a principi primitivi (. ..)

Una teoria atomica in embrione

Nel dizionario da nessuna parte ricorre la parola “atomo”, sebbene sotto “cristallizzazione” Macquer avesse chiaramente in mente una teoria atomica:

Per capire. . .il meccanismo di cristallizzazione, dobbiamo notare, 1. Che le parti integranti di tutti i corpi hanno una tendenza l’una all’altra, per cui si avvicinano, si uniscono e aderiscono insieme. . .2. Che in corpi. . .semplici, questa tendenza delle parti integranti è più evidente. . .che in altri più composti. . .3. Che anche se non lo conosciamo la forma  delle molecole integranti primitive di qualsiasi corpo, non possiamo dubitare che…molecole di ogni diverso corpo hanno una forma costantemente uniforme e peculiare. 4. Che queste parti integranti non possono avere un’eguale tendenza ad unirsi indiscriminatamente da uno qualsiasi dei loro lati, ma da alcuni preferibilmente ad altri, eccetto tutti i lati di una parte integrante. . .essere uguali e simili; e probabilmente i lati, per i quali tendono ad unirsi, sono quelli per cui possono toccarsi più estesamente e immediatamente.

Le affermazioni fatte in questa definizione illustrano la preveggenza di Macquer riguardo alla costanza della composizione dei composti chimici, all’impacchettamento delle molecole nei cristalli e alle molte forme geometriche delle molecole. Questa straordinaria definizione prefigura la teoria chimica atomica che fu successivamente delineata in termini approssimativi da Higgins e sviluppata in una teoria funzionante da Dalton. Sfortunatamente, poiché Macquer (e altri chimici della metà del XVIII secolo) erano ostacolati dalla teoria dei “quattro elementi”, i loro “atomi” (“molecole o “parti integranti”) erano composti da varie miscele di fuoco, aria, acqua e terra ! Per inciso, nella definizione di cui sopra, Macquer è stato uno dei primi chimici ad utilizzare il termine “molecola”.

Il dizionario di Macquer comprende molti argomenti che riguardano il flogisto , la calcinazione , la riduzione, i metalli, gli alcali, gli acidi , i sali , i composti organici.  E a proposito dei composti organici è riportata la sintesi dell’acetato di etile. Distillando una miscela di alcol e acido acetico ottiene “etere acetoso” grezzo (acetato di etile). Questo è stato purificato agitandolo con “alcali fissi liquidi” (una miscela di soluzioni di Na2C03 e K2C03), e di nuovo distillando “a calore di lampada”, dopodiché

. . si ottenne un etere acetoso esente da acido sovrabbondante, e molto più simile al vero etere. . . .come questa scoperta è stata fatta solo di recente, le proprietà dell’etere acetoso. . . non sono stati ancora sufficientemente esaminati

Quanto sopra è una delle prime descrizioni della sintesi di un estere da un alcol e un acido organico!

  Secondo lo storico J.R. Partington, Macquer ha cercato di sostituire i vecchi nomi di sostanze chimiche con altri più sistematici, e cita come esempio una classificazione dei sali, presente in un’ampia voce nel suo Dictionnaire.

Il contributo alla nuova chimica

In conclusione possiamo dire che l’apparato teorico  di Macquer rappresenta quella  fase in cui intuizioni innovative   si intrecciano ancora  a concezioni tradizionali ; è il momento in cui il paradigma che ancora domina sta entrando in crisi per essere  sostituito da un nuovo quadro teorico. Personaggi come Macquer, assieme a Joseph Priestley ( 1733 – 1804), Carl Wilhelm Scheele 1742 –1786) e altri contribuiscono alla nascita del  nuovo corso che vedrà come principale protagonista Lavoisier, perché pur rimanendo ancorati alla teoria del flogisto, hanno in comune la stessa  tensione conoscitiva verso un orizzonte che ancora non riescono a vedere ,  ma  che si  esprime in una attività sperimentale che ancora oggi stupisce, leggendo le loro memorie di laboratorio,  per la loro capacità manipolativa, per la serie di innumerevoli prove che compiono seguendo un metodo ipotetico deduttivo rigoroso. Sono gli attori di una attività di laboratorio che sarà sempre più aperta e pubblica rispetto al mondo chiuso del vecchio laboratorio del farmacista. I notevoli risultati  che raggiungono saranno riletti e reinterpretati da Lavoisier all’interno del nuovo paradigma che egli elaborerà.          

Lavoisier e Macquer

Lavoisier, dopo aver terminato i suoi studi alla Sorbona, diventa pochi mesi dopo avvocato. Tuttavia non seguirà le orme del padre , anch’ egli avvocato, perché saranno le scienze ha occupare i suoi interessi , anche se ancora non ha una preferenza verso una particolare disciplina scientifica. Il suo obbiettivo sarà perciò quello di entrare come membro all’Academie des Sciences. L’Accademia è l’istituzione dove viene praticata la ricerca, provvista di un laboratorio ben attrezzato, di una biblioteca e i cui membri son ben remunerati. La ricerca è indirizzata verso le scienze matematiche  (ovvero geometria, astronomia  e meccanica) e le scienze fisiche (ovvero chimica, anatomia, botanica).  L’interesse verso la chimica si manifesterà già nel 1766 ( all’età di ventidue anni), quando acquista diverse opere di chimica della biblioteca del defunto Jean Hellot, chimico dei più influenti, membro dell’Academie des Sciences e grande estimatore di Macquer . Lavoisier è un avido lettore che conosce anche  la letteratura scientifica di  Pierre-Joseph Macquer che è uno dei più grandi  chimici francesi. È certo che Il Dizionario di chimica di Macquer,  che è pubblicato proprio  nel 1766,  per la sua importanza e influenza,   contribuirà a orientare l’inclinazione di Lavoisier verso la chimica. In particolare Il ruolo che la chimica assume nel Dizionario,  dove è esaltata la sua autonomia di scienza rispetto alla medicina e alla farmacia , l’ha sicuramente resa agli occhi del giovane Lavoisier degna dei suoi studi

Negli anni 1772-73  Macquer e Lavoisier, che nel frattempo è diventato membro dell’Accademia,   lavoreranno insieme  alla soluzione della natura del diamante . Un’altra grande impresa sperimentale, che vide ancora Macquer e Lavoisier collaborare dal 1775 al 1783, fu il tentativo di produrre salnitro, tentativo sponsorizzato dal re.

Assemblaggio molecolare catalizzato da elettroni

Rinaldo Cervellati

tratto da [1]


Semplici catalizzatori possono favorire il riconoscimento molecolare e l’assemblaggio molecolare.

Bastano pochi elettroni per aumentare significativamente la velocità di assemblaggio supramolecolare di una molecola che si infila in un’altra. La scoperta estende la catalisi elettronica, che viene utilizzata nella chimica covalente sintetica, alla chimica non covalente e può portare a nuove forme complesse di materiali.

I processi di legame non covalenti, come il riconoscimento molecolare e l’assemblaggio supramolecolare, si verificano ampiamente in chimica e biologia. La velocità di questi fenomeni, che è generalmente bassa, può essere accelerata, ma ciò richiede sistemi catalitici complessi.

Il 20 marzo scorso, alla riunione primaverile dell’American Chemical Society, Yang Jiao (fig.1) della Northwestern University (Illinois, USA), ha riferito che la velocità di assemblaggio di un complesso ospite-ospite può essere aumentato di un fattore 640 in presenza di semplici catalizzatori: elettroni.

Figura 1. Yang Jiao

Parlando in una sessione organizzata dalla Divisione di Chimica Organica, Jiao ha descritto uno studio che coinvolge l’assemblaggio di un complesso costituito da un ricevente molecolare a forma di anello e un ospite a forma di manubrio. Il ricevente contiene due cationi radicali bipiridinio (BIPY), L’ospite è composto da tre unità; un sito di legame del catione radicale bipirdinio al centro, che guida l’assemblaggio con il ricevente tramite interazioni di accoppiamento radicalico; un ingombrante gruppo diisopropilfenile su un’estremità che non può infilarsi attraverso l’anello e un catione dimetilpiridinio (PY) sull’altra estremità (figura2).

Figura 2. Un macrociclo ricevente a forma di anello e un ospite a forma di manubrio, ciascuno contenente siti radicalici (punti bianchi) e cationici (+), formano rapidamente un complesso quando catalizzati dagli elettroni. Credit: Nature

In condizioni normali, la repulsione tra il catione PY e i cationi radicali BIPY impedisce l’assemblaggio dell’ospite con il ricevente.

I ricercatori hanno scoperto che quantità catalitiche di vari tipi di sorgenti chimiche di elettroni, inclusi metalli, complessi metallici e comuni agenti riducenti,  aumentano rapidamente la velocità di reazione con poca dipendenza dal tipo di sorgente. Anche l’applicazione di corrente elettrica a una soluzione contenente le molecole ha catalizzato il processo di assemblaggio. L’aggiunta di elettroni al sistema riduce la repulsione coulombiana, consentendo all’estremità PY del manubrio di infilare l’anello, come mostrato anche da calcoli quantistici.

Jiao e altri, tra cui Sir J. Fraser Stoddart della Northwestern (Premio Nobel per la chimica 2016, fig. 3) e William A. Goddard III del California Institute of Technology, hanno recentemente pubblicato questo lavoro su Nature [1].

Figura 3. Sir James Stoddard

La formazione redox di molecole intrecciate meccanicamente è nota da molto tempo, ma “il coinvolgimento della catalisi elettronica durante il processo è notevole e apre gli occhi”, ha affermato Rafal Klajn del Weizmann Institute of Science (Israele). Egli ipotizza che l’attività catalitica potrebbe essere ulteriormente aumentata se l’anello o il manubrio fossero immobilizzati in superficie.

Bibliografia

[1] Yang Jiao, Yunyan Qiu et al., Electron-catalysed molecular recognition, Nature, 2022, 603, 265-270.


[1] Mitch Jacoby, Electrons catalyze molecular assembly, Chem. & Eng. News, March 23, 2022

La crisi degli oppioidi.

Claudio Della Volpe

Qualcuno potrebbe pensare che ho sbagliato il titolo del post, ma non è così; cominciamo da questo. Parliamo di oppioidi non oppiacei.

La differenza tra oppioide e oppiaceo è che oppioide è un termine più ampio usato per descrivere qualsiasi tipo di sostanza, naturale o sintetica che si leghi ai recettori degli oppioidi nel cervello (questi recettori controllano il dolore, i comportamenti piacevoli e di dipendenza).

Gli oppioidi includono sostanze naturali, come codeina, morfina ed eroina (in realtà solo la morfina si estrae, le altre sono comunque prodotti di una reazione; la morfina è stato il primo principio attivo estratto da una fonte vegetale ed è uno degli almeno 50 alcaloidi di diversi tipi presenti nell’oppio. La morfina è generalmente contenuta in un 8-17 per cento del peso a secco dell’oppio, anche se può raggiungere il 26 per cento in alcune specie); sostanze completamente sintetiche come fentanil e metadone; e sostanze semisintetiche come l’idrocodone (Vicodin) e l’ossicodone (Oxycontin).

La parola oppiaceo invece si riferisce a sostanze naturali che possono essere estratte dalla pianta di papavero da oppio in fiore, come eroina, morfina e codeina (con le precisazioni fatte sopra).

Da questa distinzione segue che mentre tutti gli oppiacei sono anche oppioidi, non tutti gli oppioidi sono oppiacei.

E’ anche importante notare che gli oppiacei sono naturali, ma questo non significa che siano meno dannosi dei sintetici; dipende.

Gli oppiacei sono tra i farmaci più antichi al mondo e già dal 3000 a.C .Ci sono tracce della conoscenza di alcune proprietà̀ dell’oppio nelle culture cinesi e arabe. A partire dal 300 a.C.si trovano i primi documenti scritti sulle proprietà̀ dell’oppio grazie a Teofrasto, un filosofo e botanico Greco.

Parecchi articoli recenti di importanti giornali come Nature o The Lancet hanno analizzato il fenomeno indicato come “crisi degli oppioidi”; ne riporto qualcuno di recente in fondo.

Cosa si intende?

Si intende il fenomeno illustrato dal grafico successivo, consistente nell’incremento massiccio del consumo di oppioidi negli USA, ma non solo, con un corrispondente incremento dei loro pesantissimi effetti collaterali: morte da overdose!

Il fenomeno è stato tanto enorme da sollecitare la costituzione di parecchi gruppi di studio sia ufficiali che non, per comprendere le cause del fenomeno e cercare una soluzione.

Negli USA ci sono zone come per esempio le grandi città (in particolare della costa ovest, anche per una diversa politica della citta di New York)  dove i morti da overdose sono diventati un fenomeno quotidiano, innescando un panorama di morti mattutini da rimuovere dalle strade, una cosa per noi impensabile.

La Stanford-Lancet Commission on the North American Opioid Crisis è stata costituita in risposta all’impennata della morbilità e della mortalità correlata agli oppioidi negli Stati Uniti e in Canada negli ultimi 25 anni. La Commissione è sostenuta dalla Stanford University e riunisce diversi studiosi di Stanford e altri importanti esperti negli Stati Uniti e in Canada, con l’obiettivo di comprendere la crisi degli oppioidi, proporre soluzioni alla crisi a livello nazionale e tentare di fermarne la diffusione a livello internazionale.

La Commissione ha concluso che l’ondata iniziale della crisi degli oppioidi è sorta a causa della debolezza delle leggi e dei regolamenti e della loro scarsa attuazione. Ciò ha incluso veri e proprii errori della Food and Drug Administration degli Stati Uniti, che ha approvato OxyContin con quella che in seguito si è dimostrata essere una descrizione fraudolenta del farmaco. Ulteriori problemi sono sorti a causa di relazioni eccessivamente intime tra produttori di oppioidi e università, società professionali, gruppi di difesa dei pazienti e legislatori e promozione aggressiva del prodotto ai prescrittori e (in misura minore) al pubblico in generale.

Scrive Nature:

Nel 2015, negli Stati Uniti è successo qualcosa che non si era verificato lì negli ultimi 100 anni: l’aspettativa di vita è entrata in un periodo di declino sostenuto. Secondo il Gruppo della Banca Mondiale, l’aspettativa di vita media del paese è scesa da 78,8 anni nel 2014 a 78,7 anni nel 2015, e poi a 78,5 anni nel 2016 e nel 2017. Nella maggior parte dei paesi ad alto reddito, l’aspettativa di vita è aumentata, gradualmente ma costantemente, per decenni. L’ultima volta che l’aspettativa di vita negli Stati Uniti ha mostrato un declino simile è stato nel 1915-18, a causa delle morti militari nella prima guerra mondiale e nella pandemia influenzale del 1918. Questa volta, il colpevole è stata un’ondata di overdose di droga e suicidi, entrambi legati all’uso di farmaci oppioidi. Il tasso di mortalità per droga le overdose sono più che triplicate tra il 1999 e il 2017 e quelle da overdose da oppioidi sono aumentate di quasi sei volte nello stesso periodo.

Uno dei motivi di questo fenomeno, secondo Nature è stata la sottovalutazione degli effetti degli oppioidi utilizzati in clinica, basata su alcune pubblicazioni relative alle sostanze. L’opinione prevalente è che questi lavori sono stati sovra-interpretati ed hanno contribuito alla percezione che gli oppioidi creavano dipendenza solo se usati a scopo ricreativo – e non quando usati per trattare il dolore.

Negli Stati Uniti, oltre il 3% della popolazione adulta è in terapia cronica con oppioidi e si registrano casi di abuso e overdose da farmaci oppioidi prescritti per il controllo del dolore non oncologico in quasi tutte le fasce d’età, con un picco del tasso di mortalità (per entrambi i sessi) tra i 45 e i 54 anni.( https://www.farmacovigilanzasardegna.it/2018/05/03/oppiacei-per-il-trattamento-del-dolore-cronico-in-italia/ )

L’affermazione che OxyContin creava meno dipendenza di altri antidolorifici oppioidi era falsa: Purdue Pharma, il produttore, sapeva che creava dipendenza, come ha ammesso in una causa del 2007 che ha portato a una multa di 635 milioni di dollari per la società. Ma medici e pazienti non ne erano a conoscenza all’epoca.

L’International Narcotics Control Board stima che 11,5 tonnellate di ossicodone siano state prodotte in tutto il mondo nel 1998, con una crescita a 75,2 tonnellate nel 2007. Di tutti i paesi, gli Stati Uniti avevano il più alto consumo totale di ossicodone nel 2007 (82% del totale mondiale di 51,6 tonnellate) e inoltre il più alto consumo pro capite, seguiti da Canada, Danimarca, Australia e Norvegia.

Nei 12 mesi tra aprile 2020 e 2021 negli Stati Uniti sono state registrate 100’000 vittime da overdose di oppiacei. L’ossicodone, di per sé, non è considerato fatale, se assunto come da prescrizione. Tuttavia, oltre i 320 mg giornalieri può diventare pericoloso, soprattutto nei casi di abuso (attraverso inalazione o iniezione per via endovenosa) e quando associato ad altri farmaci, droghe o sostanze, come benzodiazepine, antidepressivi e alcool. In Italia l’abuso di ossicodone è di gran lunga meno preoccupante che in Nord America, ma rappresenta comunque il farmaco oppiaceo che ha causato il maggior numero di tossicodipendenti dal 2010 a oggi. Nel rapporto OsMed del 2015, che ha valutato il periodo compreso tra il 2007 e il 2015, era stato documentato un aumento delle prescrizioni di oppioidi di circa 4 volte, potenzialmente correlabile alla riduzione della prescrizione dei FANS, che si è osservata (da 25 DDD nel 2007 a 20 DDD nel 2015). Tra i farmaci più prescritti, risultano esserci l’ossicodone in associazione (ad esempio ossicodone/naloxone) e il tapentadolo, per i quali occorre ricordare che i numeri italiani di consumo in partenza erano molto bassi, vicini allo zero.Tuttavia, in Italia l’incremento nelle prescrizioni degli oppioidi maggiori è modesto, rispetto ad altri paesi europei come per esempio la Germania e l’utilizzo di analgesici oppiacei rimane di gran lunga inferiore al Nord Europa e agli USA.

https://it.oldmedic.com/opioid-potency-comparison

Anche la struttura del sistema sanitario negli Stati Uniti ha contribuito alla sovraprescrizione degli oppioidi. Poiché molti medici sono in uno studio privato, possono beneficiare finanziariamente aumentando il volume di pazienti che vedono, oltre a garantire la soddisfazione del paziente, e questo può incentivare la sovraprescrizione di farmaci antidolorifici.

Gli oppioidi da prescrizione sono anche economici a breve termine. I piani di assicurazione sanitaria dei pazienti spesso coprivano i farmaci antidolorifici ma non gli approcci di gestione del dolore come la terapia fisica. “Gli incentivi erano lì per le persone a prescrivere sempre di più, in particolare quando erano già convinti che fosse la cosa giusta da fare – la cosa compassionevole da fare“, riporta Nature.

I medici in Europa non sono motivati finanziariamente a fare prescrizioni. E mentre la comunità medica statunitense ha abbracciato con entusiasmo i piccoli studi che suggerivano che le persone avevano un basso rischio di sviluppare una dipendenza da oppiacei, gli specialisti del dolore europei hanno visto la cosa in modo più scettico, dice Jan Van Zundert, anestesista presso l’ospedale East Limburg di Genk, Belgio. “Negli ultimi 20 anni, quasi non ho prescritto oppioidi per il dolore cronico non oncologico“, dice Van Zundert. Questa pratica “si basa sul fatto che non esiste letteratura che la supporti“, aggiunge.

Gli atteggiamenti razziali e le tendenze socio-economiche hanno anche aiutato l’epidemia di oppioidi a prendere piede negli Stati Uniti. Purdue Pharma ha focalizzato la commercializzazione iniziale di OxyContin sulle comunità bianche suburbane e rurali. Questa strategia ha approfittato dell’immagine prevalente di un tossicodipendente come una persona afro-americana o ispanica che viveva nel centro della città per scongiurare potenziali preoccupazioni sulla dipendenza, dice Helena Hansen, antropologa e psichiatra presso la NYU Langone Health di New York City. La società ha preso di mira i medici che stavano “servendo pazienti che non si pensava fossero a rischio di dipendenza”, dice Hansen. “C’era un sottotesto razziale definito in questo.”

L’epidemia di oppioidi ha avuto tre fasi: la prima è stata dominata da oppiacei da prescrizione, la seconda dall’eroina e la terza da oppioidi sintetici più economici – ma più potenti – come il fentanil.

Di fronte a un contraccolpo negli Stati Uniti e in Canada, i produttori di oppioidi stanno aumentando le loro attività ovunque. Un’indagine del 2016 del Los Angeles Times (vedi go.nature.com/2z1oa0r) ha rivelato che Mundipharma International, la controparte globale di Purdue Pharma, che ha sede a Cambridge, nel Regno Unito, aveva usato tattiche simili, come il marketing aggressivo e le affermazioni di non dipendenza, per promuovere OxyContin in numerosi altri paesi, tra cui Australia, Brasile, Cina, Colombia, Egitto, Messico, Filippine, Singapore, Corea del Sud e Spagna.

E per quanto le autorità degli Stati Uniti stiano lavorando per affrontare la crisi degli oppioidi, il paese potrebbe ancora essere vulnerabile alle epidemie di altri tipi di farmaci da prescrizione. Alcuni ricercatori sono preoccupati che le benzo-diazepine, una classe ampiamente utilizzata di sedativi, siano sovraprescritte. Le pillole in eccesso sono spesso condivise con familiari o amici – in modo simile a quello che è successo all’inizio della crisi degli oppioidi. Ma le benzodiazepine sono addictive (danno dipendenza) e possono essere pericolose se mescolate con altri farmaci. In effetti, circa il 23% dei decessi per overdose di oppiacei negli Stati Uniti nel 2015 ha coinvolto anche benzodiazepine.

Detto questo possono apparire preoccupanti e discutibili le affermazioni di alcuni emeriti medici italiani:

Per il professor Guido Fanelli, direttore della struttura di terapia antalgica all’Azienda ospedaliero-universitaria di Parma, “è emersa la necessità di migliorare in tutta Europa l’educazione dei pazienti, che non devono più temere i farmaci oppioidi, ma anche la formazione dei clinici, affinché impostino le cure più appropriate”.

Attenti dunque all’uso di oppioidi di qualunque tipo eccetto che nei casi di dolore estremo non gestibile in altro modo (dolore da tumore). Messaggi medici in controtendenza potrebbero risentire della potente campagna di vendite orchestrata dai produttori mondiali di oppioidi di sintesi o semisintesi.

Il Position Paper della Società italiana di Farmacologia (2018) conclude che, benché l’utilizzo di analgesici oppiacei in Italia sia di gran lunga inferiore al Nord Europa e agli USA, grande attenzione debba essere posta nell’evitare il rischio di abuso, pur garantendo a tutti i pazienti con dolore il diritto all’accesso alle cure, come previsto dalla legge 38/2010.

Articoli consultati:

http://www.thelancet.com/public-health Vol 7 March 2022 p.195

http://www.thelancet.com Vol 399 February 5, 2022 p.555

NATURE | VOL 573 | 12 SEPTEMBER 2019 p S12

https://www.farmacovigilanza.eu/content/oppioidi-la-vera-preoccupazione-%C3%A8-che-non-si-usano-nel-dolore

https://www.farmacovigilanzasardegna.it/2018/05/03/oppiacei-per-il-trattamento-del-dolore-cronico-in-italia/

http://www.sifweb.org/documenti/PositionPaper/position_paper_2018-04-03

Wikipedia ha due voci:

https://en.wikipedia.org/wiki/Opioid_epidemic

https://en.wikipedia.org/wiki/Opioid_epidemic_in_the_United_States

Il post contiene ampie citazioni degli articoli elencati o linkati.

Rinnovabili al palo.

Luigi Campanella, già Presidente SCI.

L’Italia è il Paese del Sole e per rispondere alle richieste dell’Europa e della nostra coscienza dobbiamo spostarci verso le energie rinnovabili. Oggi (dati 2020) il pacchetto energia elettrica in Italia è composto (se pesato sui consumi) da gas naturale (43%), altre non rinnovabili (7%), rinnovabili (38%, in ordine di produzione totale idroelettrico, fotovoltaico, eolico, carbone, biogas, geotermico, bioliquidi, biomasse). Il restante è importato.

Dovendo spostare l’impegno verso le rinnovabili la considerazione di partenza sembrerebbe configurare una situazione ideale per lo sviluppo del solare. Poi invece si vanno a vedere i dati e ci si accorge che di quel 38% di rinnovabili solo poco più di 1/5  è coperto dal solare che pesa complessivamente solo per l’8% della richiesta totale elettrica con un incremento nell’ultimo anno del 9.6%. Eppure entro il 2030 dovrebbero essere installati nuovi 70 gigawatt di solare dei quali ad oggi solo lo 0.8% è attivo. Gli impianti attivi sono oggi quasi 1 milione con Veneto e Lombardia che coprono quasi il 30 % del totale. Le ragioni di questo ritardo sono innanzitutto, ma non solo, burocratiche: si pensi che dei 33 Gigawatt di opere  presentate dal 2018 soltanto il 9 % ha ricevuto il via libera definitivo e che 35 miliardi di investimenti privati già pronti per essere spesi sono bloccati, secondo quanto denuncia l’Alleanza per il Fotovoltaico, il network di imprese impegnate nel settore. Il procedimento per la realizzazione di un parco fotovoltaico in zone non vincolate si compone di 2 procedimenti, valutazione di impatto ambientale ed autorizzazione unica.

Tra i numerosi pareri positivi da acquisire ci sono quelli di Sovrintendenza e Uffici Regionali relativamente all’impatto sul paesaggio, che finiscono per rappresentare una strozzatura temporale e sostanziale  verso la realizzazione. Il ritardo temporale comporta come conseguenza il rischio di ritrovarsi con progetti tecnologicamente superati. Gli ultimi interventi del Governo in materia concretizzati nei decreti energia e semplificazioni hanno in parte agevolato il superamento di questi ostacoli: ad esempio nel caso di impianti sopra i 10 mega watt entrambi i procedimenti ricordati, VIA ed autorizzazione unica, vengono affidati ad una speciale  commissione PNRR(programma nazionale ripresa e resilienza)-PNIEC(piano nazionale energia e clima).

La responsabilità della burocrazia è indiscutibile, come anche la necessità di una semplificazione normativa, ma un’altra carenza è certamente di tipo più tecnico e meno amministrativo. L’istruzione delle pratiche autorizzative richiede una capacità tecnica che, se manca, preclude il rispetto dei dovuti tempi e modi. Da questo punto di vista la creazione ipotizzata di task force regionali può agevolare nel superare questo collo di bottiglia.

Covid: ancora chimica e medicina.

Luigi Campanella, già Presidente SCI

Più volte mi sono soffermato sugli insegnamenti del Covid-19 che non sempre sono stati colti completamente, ma che certamente hanno aperto alla nostra vita prospettive nuove sia rispetto ad alcuni valori sia rispetto alle tecnologie che ci ha obbligato a sviluppare e sfruttare.

Una di queste è di certo collegata alla possibilità di respirare aria pulita in casa e per strada. Il punto di partenza di questa tecnologia è proprio la mascherina Ffp2 che abbiamo indossato con continuità per tanti mesi: sul mercato sta per arrivare una cuffia bluetooth con filtro analogo a quello delle mascherine, capace di cancellare il rumore e con una visiera applicata che fornisce aria purificata alla bocca ed al naso. Gli studi su questo progetto sono iniziati ben prima del Covid per proteggere soprattutto da ossidi di azoto, allergeni e particolato atmosferico. Durante la pandemia l’aria esterna era di migliore qualità, ma oggi stiamo tornando alla situazione precedente.

L ‘aria viene aspirata e purificata mediante un ventilatore e filtri HEPA (microfibre alternate ad alluminio e a carbone attivo fino al 99% delle particelle di 0,1 micron). Mediante un’ app il monitoraggio può avvenire anche da remoto. Il sistema si presta assai bene anche per l’atmosfera interna spesso inquinata da prodotti della frittura o della cottura, da peli di animali domestici, da prodotti della pulizia domestica

Un altro insegnamento del Covid ci viene dal Dipartimento di Salute Pubblica di San Francisco che ha creato il Covid hospital data depository (CHDR). Si tratta di un database che unisce i pazienti sulla base del livello di gravità della malattia e di tutta una serie di informazioni su di essi realizzando per ognuno quello che viene chiamato il documento di conoscenza, che sostituiva il precedente foglio elettronico definito provocatoriamente di fantasia in quanto privo dei dati essenziali al suo sfruttamento.

Purtroppo è mancata in questa prima applicazione l’automazione della gestione per cui i dati venivano postati manualmente dal personale del Dipartimento. Questa situazione é stata superata grazie all’impegno del Direttore Eric Raffin che collaborando con sistemi diversi, attivi nella medicina del territorio locale, è riuscito a centralizzare una buona parte dei dati informativi compresi risultati di analisi cliniche, diagnosi, demografia dei pazienti, lunghezza della degenza in.ospedale, terapia adottata.

Attenzione è stata posta anche alla qualità dei dati centralizzati al fine di poterli considerare fruibili. A tal fine è stata realizzata una scala di attendibilità delle fonti che potesse aiutare a generare indici di accuratezza. Il CHDR è oggi un prezioso strumento che consente di prevenire e curare individuando situazioni mediche e sociali più esposte al Covid-19. La gestione del sistema consente alla medicina del territorio interventi preliminari che evitino il sovraffollamento delle strutture ospedaliere confinandole soltanto ai casi di vero pericolo. Anche su questo progetto la Chimica dà il suo contributo: andando a verificare nel data base la natura dei dati immagazzinati ci si rende conto del loro prevalente carattere chimico. Questa esperienza dimostra ancora una volta come in una visione olistica della scienza i periodi storici siano caratterizzati da apparentamenti: quello più significativo nell’era del Covid-19 è senz’altro fra chimica e medicina.

Misurare le emissioni di metano è importante per ridurle

Rinaldo Cervellati

Il titolo del post è il titolo con cui Jamie Durrani ha scritto un bell’articolo su Chemistry World il 21 marzo scorso [1]. Qui ne riportiamo una versione tradotta e adattata da chi scrive.

Alla conferenza sul clima Cop26 dello scorso anno a Glasgow più di 100 paesi hanno firmato il “Global Methane Pledge”, l‘intenzione di ridurre le emissioni mondiali di metano del 30% entro il 2030. Si stima che il metano (figura 1), che ha un potenziale di riscaldamento globale più di 80 volte quello dell’anidride carbonica in un periodo di 20 anni, sia responsabile di un quarto degli aumenti di temperatura che si osservano oggi.

Figura 1. Formula di struttura del metano (a sinistra), immagine stick and balls (a destra).

Ma c’è un problema con cui le autorità devono confrontarsi quando stabiliscono obiettivi per ridurre queste emissioni: la maggior parte dei paesi in realtà non sa quanto metano rilascia nell’atmosfera. I firmatari dell’accordo di Parigi del 2015 devono riportare regolarmente un inventario nazionale delle emissioni di gas serra, incluso il metano, alla Convenzione quadro delle Nazioni Unite sui cambiamenti climatici (UNFCCC). Ma queste stime variano e nella maggior parte dei casi non richiedono che siano verificate da misurazioni quantitative.

Negli ultimi anni numerosi studi indipendenti di monitoraggio del metano hanno evidenziato grandi discrepanze tra le quantità misurate di gas naturale immesso nell’atmosfera e quanto registrato negli inventari nazionali. In particolare, le perdite dalle infrastrutture del petrolio e del gas sembrano spiegare quantità allarmanti di emissioni di metano non dichiarate.

Thomas Lauvaux, uno scienziato atmosferico dell’Università di Parigi- Saclay (Francia), afferma: “Capire perché le emissioni riportate non sembrano corrispondere ai dati atmosferici raccolti è fondamentale per le politiche climatiche a lungo termine”.

Si tratta essenzialmente dell’approccio “dal basso verso l’alto” mediante il quale vengono compilati gli inventari. Nella maggior parte dei casi un’azienda è tenuta a valutare le potenziali fonti di emissioni di cui è responsabile: quante miglia di gasdotto e il numero di serbatoi di stoccaggio, vecchi pozzi, valvole, pompe e così via. Quindi moltiplica questi numeri per i fattori di emissione: stime di quanto metano perderà da ciascuna fonte.

Beh, sappiamo che questi numeri sono sbagliati“, dice Lauvaux (fig. 2) “Sono di parte. Non tengono conto di tutta la complessità dei sistemi operativi reali.

Figura 2. Thomas Lauvaux.

Esistono tre diversi livelli di segnalazione utilizzati negli inventari nazionali di metano, che l’UNFCCC chiama livelli uno, due e tre. Il livello tre rappresenta i protocolli più rigorosi, con stime più dettagliate che sono suffragate da un grado di monitoraggio a livello di sorgente. I rapporti di primo livello utilizzano fattori di emissione molto generici e generalmente forniscono i dati meno accurati.

Jasmin Cooper (fig. 3) dell’Imperial College di Londra (Regno Unito), la cui ricerca verte sull’analisi quantitativa delle emissioni delle strutture petrolifere e del gas, osserva: “Purtroppo, sono i più comunemente usati perché molti paesi semplicemente non hanno i dati. È perché il metano non è stato davvero una priorità fino a dopo l’accordo di Parigi, quella è stata la prima volta in cui si è effettivamente enfatizzato che il metano e altri inquinanti climatici sono importanti per affrontare il cambiamento climatico”.

Figura 3. Jasmin Cooper.

Uno dei principali problemi con il modo in cui gli inventari sono attualmente compilati è che non possono tenere conto di “incidenti” che contribuiscono con grandi quantità di metano all’atmosfera. Nel febbraio di quest’anno, il gruppo di Lauvaux ha pubblicato i dati raccolti dal Tropospheric Monitoring Instrument (Tropomi), un sistema di rilevamento del metano a bordo del satellite Sentinel 5-P dell’Agenzia spaziale europea. I dati di Tropomi rivelano l’entità sorprendente delle emissioni di metano associate a eventi “ultra-emittenti” in tutto il mondo (fig. 4).

Figura 4. Immagine di un evento “ultra-emittente”.

Quando abbiamo aggregato tutti questi numeri, abbiamo scoperto che c’erano centinaia di queste perdite “, afferma Lauvaux. “E sto parlando di perdite giganti, più di 20 tonnellate di metano l’ora, che equivale circa a un gasdotto aperto“.

Nel corso di due anni, dal 2019 al 2020, Tropomi ha rilevato circa 1200 eventi di ultra-emissioni associati alle infrastrutture del petrolio e del gas, con punti critici notevoli in Turkmenistan, Russia, Stati Uniti, Medio Oriente e Algeria. Il gruppo di Lauvaux calcola che queste perdite rappresentano circa 8 milioni di tonnellate di metano perse nell’atmosfera all’anno, circa il 10% delle emissioni totali associate alla produzione di petrolio e gas.

Egli afferma: “E stiamo guardando solo la punta dell’iceberg: sappiamo che ci sono molte più perdite al di sotto della soglia di rilevamento. Quindi per la prima volta abbiamo stabilito che queste perdite giganti si verificano più spesso di quanto pensassimo e rappresentano una quantità significativa di metano.  Se queste perdite fossero riparate, le emissioni si ridurrebbero del 10 o 20%.

Sebbene le misurazioni satellitari abbiano il potenziale per migliorare il monitoraggio, questi strumenti sono costosi e sono attualmente ostacolati dalla bassa risoluzione e dalle condizioni meteorologiche, che le rendono più difficili specialmente nelle regioni più umide. Possono, tuttavia, essere integrate da una tecnologia di misurazione più localizzata montata su torri, furgoni e aeroplani.

Molte delle più grandi compagnie petrolifere e del gas utilizzano già queste tecniche in una certa misura per rilevare le perdite: infatti, per l’industria energetica una perdita di gas significa perdita di profitto. Secondo la Oil and Gas Methane Partnership (OGMP)[1], solo nel 2021 sono stati sprecati 19 miliardi di dollari di metano a livello globale.

Cooper, che non è stata coinvolta nel progetto Tropomi, osserva che con i sistemi di monitoraggio satellitare sta “diventando più difficile nascondere le emissioni. Una scoperta interessante dello studio è che la manutenzione è una grande fonte di emissioni, poiché non è qualcosa che viene segnalato dalle aziende. Ci sono linee guida su come prevenire lo sfiato durante la manutenzione, ma dipende dalle pratiche del singolo operatore.”

Lauvaux ritiene che il set di dati del suo gruppo potrebbe aiutare i funzionari a cercare di capire perché alcune regioni sembrano avere prestazioni migliori di altre nella prevenzione di eventi di ultra-emissione. Dice: “Per me, ora c’è più un aspetto politico. Sulla base di quanto riportato, vorrei che i responsabili politici esaminassero la questione con più attenzione e dicessero: Ok, chi sta facendo un ottimo lavoro? Perché stanno facendo un ottimo lavoro? E cosa si potrebbe implementare in modo che domani diminuiscano le emissioni dagli Stati Uniti, dal Turkmenistan e dalla Russia.

Dal 2014 la OGMP ha visitato più di 70 aziende, che rappresentano metà della produzione mondiale di petrolio e gas. Alla fine del 2020, ha pubblicato nuove proposte con l’obiettivo di ridurre del 45% le emissioni di metano del settore entro il 2025 e del 60-75% entro il 2030. La chiave della proposta è giungere a “un quadro completo di segnalazione di tutte le fuoriuscite di metano basato su misurazioni” che, secondo OGMP, “sarà in grado di rendere più facile per i funzionari monitorare e confrontare accuratamente le prestazioni di tutte le società in modi che prima non erano possibili”.

Spiega Cooper: “Se aderisci al progetto OGMP in pratica stai riconoscendo che la tua azienda prende molto sul serio il monitoraggio delle emissioni di metano. Quindi avrai una serie molto rigorosa di standard su ciò che stai (o non stai) facendo “.

Il quadro di riferimento di OGMP consente alle aziende di segnalare le emissioni di ciascuna delle loro operazioni a uno dei cinque livelli, con l’obbligo di portare tutti i rapporti al livello cinque (il più rigoroso) entro tre anni.

Ora spetta ai responsabili politici cercare di incoraggiare più aziende a utilizzare la migliore tecnologia disponibile per raggiungere questo obiettivo. A dicembre, la Commissione europea è diventata la prima firmataria dell’impegno a raggiungere gli obiettivi per le emissioni, con una nuova enfasi posta sul monitoraggio delle perdite di metano. La commissione vuole utilizzare il progetto OGMP come modello per migliorare l’accuratezza dei rapporti sull’inventario. Vuole inoltre che l’Osservatorio internazionale delle emissioni di metano fornisca un controllo aggiuntivo degli inventari delle emissioni, incrociandoli con “altre fonti come l’imaging satellitare“.

Maria Olczak, esperta di politica del metano, (Florence School of Regulation, Istituto universitario europeo in Italia), osserva: “Questo è un punto piuttosto interessante, perché è la prima volta che la Commissione europea dà importanza a un organismo internazionale che parteciperà al modo in cui viene attuato il regolamento”. Tuttavia, Olczak avverte che queste disposizioni potrebbero suscitare resistenza da parte degli operatori. Afferma: “Le aziende più piccole non sono favorevoli a fare campagne di rilevamento e riparazione ogni tre mesi. Secondo la mia esperienza, le aziende più grandi lo fanno una volta all’anno e per molte di loro non è nemmeno sull’intera struttura“.

Figura 5. Maria Olczak.

Il piano della commissione include anche nuovi meccanismi di trasparenza sulle importazioni di combustibili fossili. “La Commissione europea ha suggerito di creare due banche dati. Il primo sarà il database delle emissioni di metano relativo ai combustibili fossili importati nell’Unione Europea. Quindi, gli importatori dovranno divulgare informazioni esatte sulla provenienza dei diversi combustibili fossili, se tali paesi sono parti dell’accordo di Parigi, come segnalano le emissioni, e altro”, spiega Olczak. “Il secondo è lo strumento di monitoraggio globale del metano che utilizza le osservazioni satellitari: qui, penso, la commissione si concentrerà principalmente sul rilevamento dei super-emettitori“. Tuttavia, Olczak osserva che la commissione ha riconosciuto che l’attuale mancanza di dati di alta qualità sul metano renderebbe difficile l’attuazione di nuove tariffe sulle emissioni importate. Aggiunge quindi: “La Commissione europea ha anche menzionato in una delle disposizioni che rivedrà il suo approccio alle emissioni importate e proporrà alcune misure aggiuntive entro il 2025”.

Prima che possano essere trasformate in legge, le proposte della Commissione saranno esaminate dal Consiglio e dal Parlamento europeo in un processo che richiederà almeno un anno. Olczak sottolinea che, mentre è sempre probabile che le politiche vengano attenuate, è possibile che la crisi energetica in Europa faccia diminuire le misure che aumentano il prezzo del gas.

Bibliografia

[1] Measuring methane emissions is crucial to cutting them, Jamie Durrani, Chemistry World, 21 marzo, 2022.

Sul metano il blog ha pubblicato una serie di articoli, ad es:


[1] OGMP è un’iniziativa multi-stakeholder lanciata dal Programma delle Nazioni Unite per l’ambiente (UNEP) e dalla Coalizione per il clima e l’aria pulita e sostenuta dalla Commissione europea.

Ripensare la forza del legame chimico

Rinaldo Cervellati

Nel numero del 16 novembre di Chemistry World, Kyra Welter riporta un interessante articolo che discute come la differenza di elettronegatività fra due atomi non sia sempre correlata alla forza del legame che si instaura fra essi [1].

Nei testi di chimica si afferma che i legami chimici diventano più forti all’aumentare della differenza di elettronegatività tra gli atomi partecipanti. Ma alcuni ricercatori hanno raccolto prove che minano questo assunto: in alcuni casi sono le differenze nelle dimensioni degli atomi, e non le differenze di elettronegatività, che determinano le tendenze della forza del legame.

Un gruppo di ricerca proveniente da università olandesi, coordinato dal Prof. Dr. F. Matthias Bickelhaupt (Radboud University, Nijmegen and Vrije Universiteit, Amsterdam), afferma: “Una delle straordinarie eccezioni al modello dell’elettronegatività è la serie di legami carbonio-alogeno che, ironia della sorte, è un esempio popolare per illustrare questo approccio troppo semplificato”.

Un esempio da manuale è infatti l’indebolimento del legame carbonio alogeno in H3C−Y lungo Y=F, Cl, Br e I. Nonostante una serie di studi di legame su elementi del primo e secondo periodo, e altri studi sul legame chimico, esiste poca conoscenza quantitativa dell’effettivo meccanismo dei legami polari  al di là di argomenti basati sulle differenze di elettronegatività [2].

Utilizzando la teoria del funzionale densità, il gruppo olandese ha analizzato i legami elemento-elemento che coinvolgono atomi dei periodi 2 e 3 e dei gruppi da 14 a 17, che rappresentano una serie sistematica di situazioni di legame archetipico attraverso la tavola periodica [2]. Spiega il collega di Bickelhaupt Trevor A Hamlin.: “Questi legami sono onnipresenti nelle scienze chimiche e sono presenti in prodotti naturali, sostanze chimiche e materiali.”

I ricercatori mostrano che lungo un periodo, la variazione dell’elettronegatività è l’origine dell’andamento della forza di legame; è all’interno di un gruppo che il modello tradizionale si rompe. Il gruppo di Bickelhaupt ha analizzato attentamente come cambia l’energia di legame tra due atomi quando vengono avvicinati. Tali cambiamenti energetici hanno diverse componenti a causa dei diversi modi in cui gli elettroni e i nuclei interagiscono tra loro. I ricercatori hanno scomposto l’energia del legame in componenti, utilizzando il modello della deformazione di attivazione e l’analisi della decomposizione energetica, e quindi hanno esaminato la loro influenza relativa.  Ciò ha permesso loro di identificare le forze trainanti alla base della formazione di diversi legami e di scoprire come questi cambiano nei periodi e nei gruppi (figura 1).

Fig.1 Entalpia di dissociazione del legame (ΔH) dei sistemi HnX−YHn in funzione dell’elettronegatività di Pauling dell’elemento del gruppo principale. Elettronegatività di Pauling χ dal valore più basso a quello più alto: Si (1,90), P (2,19), C (2,55), S (2,58), N (3,04), Cl (3,16), O (3,44) e F (3,98).  ΔH calcolato a 298,15 K e 1 atm. [2]

Durante un periodo, ad esempio da carbonio-carbonio a carbonio-fluoro, i legami si rafforzano perché la differenza di elettronegatività tra di loro aumenta man mano che la coppia di elettroni di legame si stabilizza sempre di più sull’atomo più elettronegativo. Ma in un gruppo, ad esempio da carbonio-fluoro a carbonio-iodio, l’aumento delle dimensioni effettive dell’atomo è il fattore causale dietro l’indebolimento del legame, attraverso l’aumento della repulsione sterica di Pauli.

Il fatto che lo studio abbia valutato più distanze elemento-elemento, e non solo la geometria all’equilibrio, è importante perché è l’unico modo per scoprire cosa guida la formazione del legame, aggiunge Bickelhaupt: “Il nostro intuitivo “meccanismo di legame di dimensioni atomiche effettive” può essere applicato per comprendere la lunghezza e la forza del legame per più serie di legami attraverso la tavola periodica”.

Prof. Dr. F. Matthias Bickelhaupt

L’esperta di legami chimici Catharine Esterhuysen  (Stellenbosch University, Sudafrica), che non è stata coinvolta nello studio, dice: “La struttura e la reattività delle molecole dipendono fortemente dalla stabilità e dalla lunghezza dei legami chimici, quindi è fondamentale capire come questi parametri variano per le diverse combinazioni elemento-elemento nella tavola periodica. Ciò può aiutare gli scienziati a progettare metodi migliori per produrre nuove molecole, come composti farmaceutici e materiali funzionali”.

Esterhuysen afferma infine: “Questo articolo è un intrigante promemoria del fatto che nella scienza dovremmo sempre stare attenti a dare una risposta semplice. Come sottolineano i ricercatori, se si vuole davvero ottenere una piena comprensione di un meccanismo di legame, deve essere studiato a un livello profondo e fondamentale.”

Bibliografia

[1] K. Welter, Electronegativity’s role in determining bond strengths needs to be rethought., Chemistry World, 16 November, 2021

[2] E. Blokker et al., The Chemical Bond: When Atom Size Instead of Electronegativity Difference Determines Trend in Bond Strength., Chem. Eur. J.,  2021, 27, 15616–15622.