Dietro la siccità.

In evidenza

Luigi Campanella, già Presidente SCI

Il dramma della siccità -2 miliardi di persone entro il 2025 prive di risorse idriche- ha portato all’attenzione alcuni dati a dir poco scioccanti: ogni italiano consuma 419 l di acqua al giorno contro i 260 della media mondiale; altro dato:il 40% dell’acqua distribuita, in alcune regioni fino al 70%, non arriva a destinazione ma si perde nelle reti colabrodo. Tale situazione è dovuta in parte alla vecchia età degli impianti, ma in parte anche alle manomissioni per allacci abusivi. Sorge il dubbio che dietro questi dati ci sia una valutazione economica sbagliata indotta dai costi: in Italia l’acqua costa poco, solo 2 euro a metro cubo (0.2centesimi al litro), contro i 5 euro della Germania ed i 6 euro della Francia. La siccità però non fa sconti ed anche noi dobbiamo affrontare il problema delle risorse idriche che scarseggiano. È vero che siamo in buona compagnia e possiamo adeguarci con iniziative che tutti i Paesi del mondo sono costretti ad adottare: il Paese che più sembra avere capito che l’acqua è proprio l’oro blu e come tale va trattato e difeso è di certo Israele. Premesso che è difficile pensare da noi alla progettazione di un nuovo acquedotto, il primo romano, l’acqua Appia,  risale al III secolo a.C., è la tecnologia soprattutto legata a metodi chimici che viene in nostro soccorso. In particolare la desalinizzazione (evaporazione, distillazione, osmosi inversa) dell’acqua marina attraverso 17 mila impianti fornisce acqua a 300 milioni di persone. In Italia l’impianto più importante è quello di Sarroch (Cagliari) che produce 12mila metri cubi di acqua dolce al giorno con un investimento di 22 milioni di euro (il costo energetico dell’acqua desalinizzata è fra 2 e 4 kWh/m3). Un’altra opzione tecnologica è rappresentata dal recupero dell’acqua presente come umidità nell’aria: questa viene spinta da turbine eoliche verso uno scambiatore di calore dove viene raffreddata con condensazione del vapore acqueo. Un’’altra via di comportamento è rappresentata dal risparmio: doccia e non bagno, rubinetti aperti per lo stretto tempo necessario, recupero dell’acqua piovana, canalizzazione dei fiumi con l’utilizzo degli invasi, impianti goccia a goccia per l’agricoltura. Infine il riciclo: in Israele con le tecnologie di riciclo 1l di acqua vale 1,5 l. Numerosi brevetti e ricerche hanno messo a punto metodi di rimozione di inquinanti mediante assorbimento su fase solida, mediante separazione fra fasi, mediante flocculazioni dei solidi sospesi, mediante igienizzazione. Ovviamente i cambiamenti climatici inducono a pensare che andando avanti la situazione peggiorerà e saranno necessari investimenti crescenti.

L’anomalia umidità al suolo stimata via satellite dall’IRPI-CNR.

Il PNRR ha già messo a disposizione quasi 1 miliardo di euro che però, tenuto conto del ventennale ritardo accumulato, sono assolutamente insufficienti e tali da richiedere congrui adeguamenti. E qui torna in prima evidenza l’aspetto politico della questione: abbiamo fatto riferimento ad Israele, uno dei pochi Paesi schierato decisamente a favore del carattere completamente pubblico dell’acqua con conseguenti investimenti e regole. In Italia 10 anni fa il referendum (il primo Paese il nostro ad averlo adottato per l’acqua pubblica) ha superato lo scoglio del quorum; in più sedi sociali e politiche qualunque ipotesi di privatizzazione dell’acqua, magari strumentalmente giustificata dalla carenza di risorse, è stata decisamente scartata, ma l’attesa legge ancora non è arrivata. Una legge è necessaria perché il basso costo e consumi elevati potrebbero andare bene per altre situazioni ed altri prodotti industriali, non per l’acqua, preziosa risorsa naturale; che per altra via, quella delle acque imbottigliate, preferite dalla maggior parte degli italiani malgrado l’ottima qualitá delle nostre risorse idriche, rappresenta un business privato quantificabile in 220 litri di acqua imbottigliata consumata all’anno per cittadino, acquistata dalle ditte imbottigliatrici a frazioni di  centesimo a bottiglia dallo Stato e rivenduta a 20 centesimi la bottiglia con canoni al valore dello 0,79% dei costi. Questo modo particolare di gestire fonti pubbliche è diventata cultura sociale che va modificata attraverso uno sforzo informativo ed educativo. La legge dovrebbe anche evitare pericoli concreti quali la risalita dell’acqua del mare con conseguenze tragiche per l’irrigazione e la carenza idrica e anche come causa di una caduta del contributo idroelettrico alla produzione di energia.

Consigli di lettura per comprendere il presente.

In evidenza

Mauro Icardi

La fine del 2019 segna uno spartiacque, tra un passato che era percepito dalla maggioranza delle persone come un tempo felice e spensierato, rispetto ad un tempo presente che viene percepito come difficile, faticoso da vivere e soprattutto ingiusto. In questo tipo di giudizio assume una grande importanza l’abitudine. Credo che tutti siamo degli abitudinari, le abitudini riescono a darci un certo senso di sicurezza. La pandemia e la guerra in Ucraina hanno pesantemente minato le sicurezze di ognuno di noi. La prima reazione alla quarantena del 2020 è coincisa con uno slogan denso di speranze, ma a mio parere ingenuo: “Andrà tutto bene”. Purtroppo le cose non sono andate proprio come ci si aspettava, le speranze che si potesse tornare ad una normalità, che era in effetti una normalità distorta, piena di incongruenze e disuguaglianze, non si sono verificate. Ora stiamo facendo i conti con un conflitto che ci mette di fronte una realtà persino peggiore della pandemia. Ci è voluta una guerra per far riflettere quella che un tempo si definiva opinione pubblica, sull’importanza centrale del tema energetico. E nel frattempo, nascosto per molti mesi dalle cronache di guerra, un problema altrettanto importante come quello della siccità, legato al cambiamento climatico si sta manifestando in tutta la sua gravità.

Per comprendere appieno queste problematiche, ricordando la mia formazione personale, mi convinco ogni giorno di più che si debba essere preparati.  Conoscere i principi di base della termodinamica rappresenta uno strumento culturale imprescindibile.

Quindi ecco il mio primo consiglio di lettura: “Il secondo principio” di Marco Malvaldi, editrice il Mulino.

Il libro fa parte della collana “Formule per leggere il mondo”. Il libro è uscito nel 2021, sono 131 pagine di agevole lettura.

Leggere questo libro aiuta ad approcciare il mondo reale con razionalità. Raccontare la storia di chi la termodinamica l’ha creata, partendo dalla prima rudimentale macchina a vapore di Thomas Newcomen e via via introducendoci alle esperienze e riflessioni di James Watt, Sadi Carnot, Rudolf Clausius, William Gibbs. Ci sono le formule di base studiate a scuola, ma che probabilmente si sono dimenticate. Presi dall’abitudine negativa del consumismo, dimenticando che la terra non è un pozzo senza fondo, una cornucopia che ci elargisce cibo, materie prime in abbondanza per compiacere i nostri desideri. Comprendere tutto questo sarebbe un primo passo importante, fondamentale. Eviterebbe di dover leggere commenti sui social o sui giornali che per esempio vedono come soluzione al problema della mobilità privata la produzione di auto ad aria compressa, ovvero la realizzazione del moto perpetuo di primo grado.

A tutti coloro che magari in perfetta buona fede credono a queste cose, e per incoraggiare lo studio della termodinamica, anche se ormai già diplomati o laureati, dedico questo aforisma di Albert Einstein:

Una teoria è tanto più importante quanto maggiore è la semplicità delle sue premesse, tanto più sono diversi i tipi di cose che correla e quanto più esteso è il campo della sua applicabilità. Di qui, la profonda impressione che ho ricevuto dalla termodinamica classica. È la sola teoria fisica di contenuto universale di cui sono convinto che nell’ambito di applicabilità dei suoi concetti di base non verrà mai superata.”

Quando si affrontano temi ambientali, molto spesso risulta difficile utilizzare un linguaggio adatto a divulgare temi importanti, ma spesso rifiutati dalla maggioranza delle persone. Per questo ho voluto leggere un libro pubblicato nel 2017 dalla casa editrice Neri Pozza cioè “La grande cecità” di Amitav Gosh.

L’autore mentre lavorava ad un suo romanzo dal titolo “Il paese delle maree” si accorge dei cambiamenti di natura geologica che stanno avvenendo nel Bengala. In particolare il ritirarsi delle linee costiere, e la sempre maggiore contaminazione di acqua salina che si infiltra nelle terre coltivate. Il libro non è recente, in Italia è stato pubblicato nel 2017. Recente è invece la constatazione che l’acqua di mare sta risalendo lungo il letto del Po, mettendo a rischio l’utilizzo delle sue acque che diventano salmastre per l’uso irriguo, e potrebbero anche contaminare le falde acquifere destinate all’uso potabile. In questi giorni in cui si parla molto di siccità italiana, una delle frasi che più spesso sento pronunciare è “Mai visto niente di simile”. Amitav Ghosh che oltre ad essere uno scrittore è anche antropologo riflette su cosa ci impedisca di accettare la realtà di questi cambiamenti, e perché la letteratura non sempre riesca o voglia utilizzare il cambiamento climatico come argomento principale di un romanzo.

La prima risposta dell’autore a queste domande è che, la vita di oggi con la sua ricerca di regolarità ci impedisca di considerare plausibili gli scenari che per esempio l’IPPC, o nel caso italiano L’ENEA, hanno pubblicato. Tesi che condivido. L‘abitudine a considerare il benessere un diritto acquisito, distorce significativamente la capacità di percezione dell’impatto dei cambiamenti climatici nelle nostre vite e frena l’approccio ad un cambiamento di abitudini. Potrebbe sembrare che nei paesi più poveri vi sia una percezione maggiore, o un’abitudine maggiore alla resilienza. Ma non è esattamente così: nel 2015 durante un’alluvione che ha colpito Mumbai lo scrittore racconta le difficoltà ed i danni che le classi più agiate (politici e star di Bollywood) hanno dovuto subire. Questo perché era ritenuto uno status symbol avere la casa direttamente affacciata sulla spiaggia, con vista mare. Ma il ciclone che colpì la città non fece distinzioni. Costruire abitazioni in una città che sorge su due isole che in alcuni punti sono anche al di sotto del livello del mare non è una primaria regola di prudenza.

La seconda risposta, cioè perché il cambiamento climatico non sia nella maggior parte dei casi il tema centrale di un romanzo, va ricercata ugualmente nello stile di vita di chi ritiene che la propria vita non possa essere sconvolta da catastrofi, e da un pregiudizio ancora largamente diffuso. Cioè che la letteratura che prospetta scenari futuri plausibili, sia una letteratura minore meno degna di attenzione critica. Insomma un certo affettato disprezzo per la letteratura fantascientifica.

Personalmente io ho sempre apprezzato la letteratura di questo genere, in particolare la cosiddetta fantascienza sociologica, cioè quella che cerca di immaginare scenari di evoluzione della società umana. Esistono pregevoli romanzi e libri di questo genere di letteratura fantascientifica. Per esempio le raccolte di racconti di Primo Levi “Storie naturali”, e “Vizio di forma

Per quanto riguarda la letteratura non di genere, in Italia è uscito un romanzo che ha avuto come argomento narrativo il cambiamento climatico: “Qualcosa la fuori” di Bruno Arpaia.

Il romanzo pubblicato da Guanda nel 2016 racconta di un’Europa ormai devastata dai cambiamenti climatici, in cui solo alle latitudini della Scandinavia è possibile trovare territori adatti agli insediamenti umani. Il sud del continente è ormai diventato invivibile. Pianure screpolate, argini di fango secco, fiumi aridi, polvere giallastra, case e capannoni abbandonati. E proprio per la rimozione dei problemi, per la disattenzione e lentezza nel risolverli che inizia l’era dei migranti climatici. Il protagonista Livio Delmastro, anziano professore di neuroscienze, è uno di loro. Ha insegnato a Stanford, ha avuto una magnifica compagna, è diventato padre, ma alla fine è stato costretto a tornare in un’Italia quasi desertificata, sferzata da profondi sconvolgimenti sociali e politici, dalla corruzione, dagli scontri etnici, dalla violenza per le strade.

Una trama simile ricorre in un interessante volume della storica collana Urania. Il titolo è “La carovana” di Stephen Goldin. Il romanzo in originale è del 1975, in Italia è stato pubblicato nel 1979 nel volume 771 della collana omonima.

Anche qui ci sono dei migranti in fuga da una società ormai disgregata. Tra loro viene accolto il protagonista Peter Stone che è l’autore di un libro intitolato “Il collasso mondiale”. Libro che è stato molto venduto, molto criticato e di fatto completamente ignorato. Stone viaggia in un America dove il denaro non ha più valore, dove si è tornati al baratto, e lo fa sotto falso nome per paura di essere oggetto di ritorsioni e violenze proprio per aver scritto e previsto il collasso del sistema. Il romanzo è di facile lettura. Ma soprattutto sono interessanti i brani tratti dall’immaginario libro di Stone, che di fatto è l’altro protagonista del romanzo, che aprono come nota ogni capitolo. Questo è un piccolo estratto: “Stiamo diventando una società dell’io prima di tutto, in cui il bene dell’individuo spesso è in contrasto con il bene della società. E nella struttura di una civiltà che ha assoluto bisogno di una perfetta cooperazione tra i suoi vari elementi, questo può avere una sola, disastrosa conseguenza…” (da Il collasso mondiale di Peter Stone).

Come ho cercato di far capire, la lettura e la curiosità possono e devono essere una chiave di conoscenza a vari livelli per affrontare il nostro tempo incerto. Poi occorre rimboccarsi le maniche, sporcarsi le mani e iniziare non solo a lavorare sulle nostre abitudini individuali, ma anche sulle pressioni che possiamo fare sulla classe politica. La scienza ha già detto cosa doveva dire. Ma come si può vedere anche la letteratura nelle sue diverse accezioni lo ha fatto. Non è più tempo di indugi. Constatare che alcuni degli scenari previsti in libri di letteratura, confermano previsioni e scenari fatti dalla scienza sono alla fine una sorta di triste privilegio.  Se poi non seguono azioni concrete, se la maggior parte delle persone insiste nel negare i problemi climatici e ambientali. Le generazioni che si troveranno a vivere in un pianeta diverso da quello che abbiamo conosciuto noi, ci stanno già richiamando alle nostre responsabilità, rinfacciandoci il troppo tempo perso.

Vaccini e profitti: il covid-19 rimane con noi per difendere i brevetti.

In evidenza

Claudio Della Volpe

66.3% of the world population has received at least one dose of a COVID-19 vaccine.
12 billion doses have been administered globally, and 6.33 million are now administered each day.
Only 17.8% of people in low-income countries have received at least one dose.

https://ourworldindata.org/covid-vaccinations

La situazione attuale della pandemia e delle vaccinazioni è che mentre una buona parte del mondo occidentale é plurivaccinata, altri paesi in Africa, Sud America ed Asia è molto al di sotto del 25%; l’Africa in particolare è attorno al 10% della popolazione vaccinata.

https://lab24.ilsole24ore.com/vaccinazioni-mondo/#

Questa costituisce una sconfitta secca nei confronti della pandemia virale in quanto le persone non vaccinate sono un enorme serbatoio in cui incubano versioni nuove del COVID-19 che rimarranno con noi per molti anni trasformando la pandemia in problema perpetuo, una epidemia. E questa è GIA’ verosimilmente la situazione.

La pandemia non è finita e siamo alla mercé di omicron; potrebbe andarci bene o meno bene, ma non siamo in grado di fermarlo. Nel mentre gli introiti dei vaccini hanno superato i 26 miliardi di dollari fino a dicembre scorso (di cui il 70% profitti) e si avvicina il nuovo vaccino anti-omicron.

Come siamo arrivati a questa sconfitta?

Ci siamo arrivati certamente per la povertà di molti paesi e per la loro mancanza di un robusto sistema sanitario (che però dipende essenzialmente dal loro basso reddito, anche se dobbiamo dire che molti paesi ricchi mancano di un buon sistema sanitario pubblico, in primis gli USA, mentre la povera ed isolata Cuba ha sviluppato un vaccino da sola, cosa che noi italiani non siamo stati capaci di fare) ma prima di tutto ci siamo arrivati per la difesa a spada tratta da parte dei paesi ricchi dei privilegi brevettuali DEI LORO RICCHI PRODUTTORI DI FARMACI, spesso aiutati dai loro stati.

Un paio di settimane fa, mascherata dal clamore mediatico sulla guerra si è avuta una riunione cruciale della WTO, Organizzazione mondiale del commercio, l’organizzazione che controlla le regole del mercato globale e che dunque è la difesa del sistema capitalistico cosiddetto del “libero mercato”; la riunione era dedicata al problema di allentare le regole sui brevetti vaccinali.(leggete qua)

In questa riunione tenutasi a Ginevra, e dopo 2 anni di defatiganti discussioni, cosa si è concluso?

Difficile trovare sintesi sulla stampa italiana, qualcosa qui.

La riunione si era conclusa ufficialmente due giorni prima, dunque ci sono voluti i tempi supplementari per trovare una sorta di compromesso su vari temi: sicurezza alimentare, pesca e dazi moratori sui download oltre che vaccini.

La decisione sui vaccini corrisponde ad una revoca temporanea sui brevetti a vantaggio dei paesi poveri ed è limitata per molti aspetti pratici.

Anzitutto la risposta arriva troppo tardi e non è tale da poter migliorare per migliorare i risultati sanitari dei paesi in via di sviluppo contro il COVID-19.

La deroga non si applica alla produzione di test e trattamenti COVID-19 e il suo mandato non copre i segreti commerciali della produzione dei vaccini.

La dottoressa Patricia Ranald, convocatrice dell’Australian Fair Trade and Investment Network, ha affermato che l’accordo potrebbe non soddisfare le esigenze dei paesi in via di sviluppo. “Siamo rimasti delusi dall’accordo finale perché è un notevole indebolimento della deroga temporanea originale, proposta da India e Sud Africa“, ha detto. “La nostra preoccupazione è che questo non consentirà l’effettiva produzione di più vaccini e trattamenti e avremo ancora una situazione in cui la maggior parte dei paesi a basso reddito ha tassi molto bassi di vaccinazione… che prolungherà la pandemia“.

La proposta iniziale è venuta da India e Sud Africa e le resistenze maggiori da paesi come Svizzera e Inghilterra che detengono molti brevetti farmaceutici.

(Noto di passaggio che questa divisione riproduce anche quella sulla guerra in Ucraina a dimostrazione del fatto che il mondo è attraversato da profonde ed evidenti spaccature sociopolitiche)

Lo scontro era iniziato dal principio della pandemia ed era stato portato avanti dai “bricks” ossia i paesi cosidetti in via di sviluppo, capitalismi più piccoli ma robusti di varie zone del mondo, per esempio dal Brasile come racconta il premio Nobel Joseph Stglitz in un articolo tradotto anche in italiano su Internazionale di dicembre, ma che potete trovare in inglese qui. Si trattava di riconoscere che già l’articolo 73  dell’accordo TRIPS consente questo uso in deroga, ma la cosa non è passata; il governo Bolsonaro (quello che sta finendo di distruggere la foresta amazzonica) la ha bloccata usando i propri diritti di veto.

Dice Stiglitz: il senatore Paulo Paim ha presentato una proposta di legge che permetterebbe al paese di aggirare il Trips. La proposta si fonda sull’idea che l’articolo 73 dell’accordo fornisca a ogni governo l’autorità necessaria per sospendere i diritti di proprietà intellettuale. Se quest’opzione è già disponibile, perché tanti paesi aspettano ancora l’autorizzazione della Wto? La risposta è che, fin dalla creazione dell’organizzazione, i paesi ricchi hanno punito quelli in via di sviluppo quando hanno provato a prendere l’iniziativa su questioni del genere. Quando negli anni scorsi Sudafrica, Brasile, India e Thailandia hanno cercato di scavalcare i monopoli che rendevano troppo costosi i farmaci antiretrovirali contro l’Hiv , gli Stati Uniti e l’Unione europea si sono opposti e in alcuni casi li hanno perfino portati in tribunale.

Il nostro governo non ha fatto che seguire l’andazzo, d’altronde abbiamo un presidente del consiglio che è stato capo della banca europea e dunque uno dei rappresentanti di questo mondo di ricchi commercianti profittevoli e ultravaccinati.

Il papa aveva già espresso parere contrario, “abbandonare i nostri individualismi e promuovere il bene comune“. Il Pontefice riteneva necessario “uno spirito di giustizia che ci mobiliti per assicurare l’accesso universale al vaccino e la sospensione temporanea dei diritti di proprietà intellettuale“. Parole dette in un videomessaggio ai giovani partecipanti al “Vax Live”.

Il massimo è stato un compromesso striminzito, fuori tempo massimo e ormai poco utile; vediamo cosa succederà, ma ripeto il COVID19 è qui per restare come endemico, non ce ne libereremo mai più mentre i profitti delle grandi farmaceutiche (sempre ben supportate dai nostri stati, che potrebbero invece fare da soli) aumenteranno. Voi che ne dite?

La rivoluzione culturale: ecologica e sociale

In evidenza

Vincenzo Balzani

(già pubblicato su Bo7 del 19 giugno 2022)

La nostra epoca è caratterizzata da due insostenibilità: ecologica, come mostrato, ad esempio, dal cambiamento climatico, e sociale, testimoniata dalle sempre crescenti disuguaglianze. Possiamo e dobbiamo porvi rimedio.

Papa Francesco, nell’enciclica Laudato si’, ci esorta a compiere una rivoluzione culturale che ci porti a custodire il pianeta. La principale causa dell’insostenibilità ecologica è l’uso dei combustibili fossili. È necessario, dunque, ricorrere a fonti energetiche alternative, le energie rinnovabili del Sole (fotovoltaica), del vento (eolica) e dell’acqua (idroelettrica) che, senza generare inquinamento e senza causare cambiamento climatico, forniscono elettricità, una forma di energia molto più pregiata del calore prodotto dai combustibili fossili. Le energie rinnovabili non sono solo la risposta alla crisi climatica, ma anche la chiave per combattere la povertà energetica. Come denunciato proprio su Avvenire dal direttore del Centro studi Power Shift Africa, alcune nazioni sviluppate, soprattutto Italia e Germania, anziché sostenere l’Africa nello sviluppo delle energie rinnovabili, spingono molti Paesi africani a riversare le loro limitate riserve finanziarie nello sviluppo di un’industria di estrazione dei combustibili fossili.

In natura, le energie fornite dal Sole, dal vento e dall’acqua sono molto abbondanti, ma per convertirle in elettricità servono apparecchiature (pannelli fotovoltaici, pale eoliche, dighe, ecc.) che dobbiamo costruire partendo dalle risorse materiali che ci fornisce la Terra. La quantità di questi materiali è però limitata, per cui dobbiamo utilizzarli con la massima efficienza e riciclarli. Per questa ed altre ragioni è necessario abbandonare l’economia lineare dell’usa e getta, alimentata dai combustibili fossili, e adottare un’economia circolare che utilizza le energie rinnovabili e che è basata su riuso, riparazione e riciclo di tutto quello che produciamo. Parallelamente, dobbiamo abbandonare il consumismo e vivere in modo più sobrio.

C’è poi un altro problema. Le limitate risorse materiali necessarie per convertire in energia elettrica le energie del Sole, del vento e dell’acqua non sono equamente distribuite sulla Terra. Ad esempio, alcuni elementi chimici fondamentali, come il Litio per le batterie e il Neodimio per le pale eoliche, non si trovano né in Italia né in Europa, ma prevalentemente in Cile, il primo, e in Cina, il secondo. Alla scarsità di una risorsa importante un Paese può far fronte in due modi: con la guerra, come spesso è accaduto in passato per il petrolio, o con accordi di collaborazione e scambi commerciali. Le nazioni continueranno ad essere così incoscienti da fare guerre per conquistare le risorse che non hanno, o finalmente capiranno che ogni guerra è una sconfitta per l’umanità intera?

Ecco allora l’altro aspetto della necessaria rivoluzione culturale, indicato da papa Francesco nell’enciclica Fratelli tutti: promuovere un’aspirazione mondiale alla fraternità e all’amicizia sociale per costruire un mondo migliore, a partire dalla comune appartenenza alla famiglia umana e dal riconoscerci fratelli perché figli di un unico Creatore.

Ridurre la sperimentazione animale.

In evidenza

Luigi Campanella, già Presidente SCI.

La mia contrarietà alla sperimentazione animale è storica, ma mai sostenuta solo per principio preso. Per questo sono attento a quanto attorno ad essa succede

La proroga alla moratoria sulla legge 2014 sulla sperimentazione animale scadrà a giugno, a meno che non venga, come già avvenuto, prorogata. Peraltro questa ipotesi è sostenuta dall’osservazione che l’Italia è l’unico Paese che ha modificato in senso restrittivo quanto suggerito dalla Commissione Europea elaborando divieti aggiuntivi all’uso di questa sperimentazione nella ricerca sugli xenotrapianti e sulle sostanze di abuso.

Questo atteggiamento è costato all’Italia un richiamo e sanzioni pecuniarie. L’ultima proroga di moratoria – di fatto l’unico provvedimento adottato dai Governi che si sono succeduti dal 2014 ad oggi – è del 2021 con il decreto legge milleproroghe che ha prorogato di 1 anno l’applicazione delle 2 restrizioni suddette. Questa moratoria contrasta con il fatto che sia il Min.ro della Salute sia il Comitato per la biosicurezza, le biotecnologie e le scienze della vita della Presidenza del Consiglio si sono espressi contro questi divieti ed abbiano chiesto una congrua dilatazione nel tempo della moratoria ed un adeguamento alle regole europee, rispettando i principi etici stabiliti dai codici internazionali come elementi di valori di una società basata sulla conoscenza.

La ricerca nel frattempo cerca di rispettare le raccomandazioni UE della Direttiva 3R sulla sperimentazione animale: ridurre, sostituire, rimodulare.

In particolare per rispondere alle problematiche etiche si tenta di spostare la sperimentazione verso specie meno senzienti cioè a più basso sviluppo cognitivo, in particolare invertebrati. L’Unione Zoologi Italiani insieme a Research4Life, il consorzio nato nel 2015 per dare voce sul tema della sperimentazione animale ai ricercatori biomedici, in un webinar ad hoc hanno in questa direzione illustrato l’utilizzo in ricerca di vermi, moscerini, zanzare, mitili e sanguisughe che potrebbe tornare utile non solo rispetto alla raccomandazione 3R, ma anche in genetica ed in medicina delle malattie rare. Nel webinar peraltro si è parlato di una ricaduta della nuova linea sulla riduzione del ricorso a vertebrati in sperimentazione animale tagliandola almeno del 10%. Questo approccio è una risposta diretta alla legge 63 del 2010 che prevede la sostituzione parziale o totale della sperimentazione animale in tutti i casi nei quali si può ricorrere ad alternative. Gli zoologi osservano che il principio è sano, ma deve essere applicato razionalmente: infatti non tutti gli invertebrati sono utilizzabili e soprattutto non tutti sono meno senzienti, portando l’esempio dei cefalopodi, a partire dai polpi, specie tutelate.

Il polpo Paul durante i mondiali del 2010.

Se si guarda alla bibliografia scientifica si trova così che i polpi hanno un numero di cellule di 6 volte superiore a quello dei topi e 350 milioni di neuroni nei loro tentacoli che rappresentano il loro sistema nervoso periferico. Negli USA per merito dell’Animals Act è stata regolata la sperimentazione animale rispetto al dolore o stress che può indurre nell’animale concludendo che i vertebrati da questo punto di vista devono essere considerati da proteggere e che il polipo è l’unico invertebrato a meritare di entrare in questa fascia protetta.

Come si vede la problematica è in continua evoluzione alla ricerca di un equilibrio non facile da conseguire fra diritti degli animali e sperimentazione per il progresso biomedico. Mi permetto di ricordare ancora una volta da chimico che quando fu pubblicata la direttiva 3R, le linee guida raccomandavano alla chimica di mettere a punto metodi alternativi che consentissero di rispettare la Direttiva 3R, ma al tempo stesso di mettere a disposizione della Scienza strumenti preziosi per l’avanzamento della ricerca biomedica, ambientale, alimentare

Le creme solari distruggono i coralli

In evidenza

Rinaldo Cervellati

La barriera corallina è una formazione tipica dei mari e oceani tropicali, composta da formazioni rocciose sottomarine biogeniche costituite e accresciute dalla sedimentazione degli scheletri calcarei dei coralli, animali polipoidi facenti parte della classe Anthozoa, phylum Cnidaria. Per questo le barriere sono uno degli organismi più importanti per la biodiversità.

L’ossibenzone, un ingrediente attivo comune nelle creme solari, è noto per danneggiare le barriere coralline. La tossicità segnalata delle creme solari a base di ossibenzone per i coralli ha sollevato preoccupazioni circa l’impatto di questi prodotti, ampiamente usati dagli “eco” turisti, sui coralli già indeboliti da fattori globali di stress. Per questo alcuni Paesi e gli USA hanno vietato ai nuotatori di utilizzare creme solari che lo contengano. Circa l’11% delle creme solari contiene ossibenzone, un bloccante della radiazione ultravioletta UVA e UVB, secondo un rapporto del 2017 della Food and Drug Administration.

Un gruppo di ricercatori, guidato da William Mitch della Stanford University (fig. 1), ha chiarito il meccanismo dell’azione sui coralli.

Figura 1. Prof. William Mitch

I coralli metabolizzano l’ossibenzone per generare un composto tossico per gli organismi sotto l’azione dei raggi solari. Il gruppo ha studiato in dettaglio gli effetti dell’esposizione all’ossibenzone su due organismi modello della famiglia dei coralli: un anemone di mare e un corallo fungo [1]. Quotidianamente, il gruppo ha aggiunto ossibenzone in vasche di acqua di mare simulata, a livelli vicini a quelli di alcune zone della barriera corallina. Dopo 17 giorni, tutti gli anemoni di mare erano morti. Hanno scoperto che gli animali metabolizzano l’ossibenzone in coniugati glucosidici fototossici (fig.2)

Figura 2. Ossibenzone e suo glucoside

L’ossibenzone agisce assorbendo la radiazione UV, rilasciandone poi l’energia sotto forma di calore. Questa capacità è dovuta al gruppo OH sull’ossibenzone, spiega Djordje Vuckovic, dottore di ricerca nel laboratorio di Mitch. Una volta nello stato di alta energia, il gruppo OH è in grado di allontanare l’energia. Ma questo non è più possibile una volta che i coralli metabolizzano l’ossibenzone, continua Vuckovic. Il composto reagisce attraverso una reazione di glicosilazione, in cui l’OH viene deprotonato e una molecola di glucosio si aggiunge all’O-. Il nuovo coniugato ossibenzone glucoside può ancora assorbire la luce, ma non ha modo di rilasciare l’energia sotto forma di calore. Invece, il composto eccitato forma specie reattive dell’ossigeno. Ciò innesca una reazione radicalica, che causa danni alle cellule o ai tessuti. I coralli sostanzialmente convertono l’ossibenzone di una crema solare in ciò che è essenzialmente l’opposto, cioè una fototossina.

L’effetto visivo più evidente è la variazione di colore del corallo: da quello naturale a bianco (fig.3).

Figura 3. Corallo sbiancato al largo dell’isola di Huahine, Polinesia francese. Credit: Shutterstock

I risultati dello studio suggeriscono anche che i coralli che si sono sbiancati sono ancora più vulnerabili all’ossibenzone, afferma Vuckovic. Lo sbiancamento si verifica quando i coralli rispondono a stress come l’aumento delle temperature oceaniche, espellendo le alghe simbiotiche che vivono nelle loro cellule, e sono una delle principali fonti di cibo ed energia per i coralli. Questo esodo di alghe li fa diventare bianchi. Negli esperimenti del gruppo, gli anemoni di mare sbiancati sono morti circa 5 volte più velocemente di quelli sani. Il gruppo ha scoperto che le alghe simbiotiche degli anemoni assorbono i coniugati dell’ossibenzone glucoside, sequestrando la fototossina lontano dalle cellule degli animali quindi proteggendole.

Craig Downs, un biologo cellulare e molecolare che dirige l’Haereticus Environmental Laboratory, un laboratorio senza scopo di lucro, afferma che lo studio mette in evidenza la relazione tra inquinamento e cambiamento climatico: “L’inquinamento da creme solari può interagire con i fattori del cambiamento climatico per ridurre la resilienza delle barriere coralline”.

L’ossibenzone non dovrebbe essere presente nei filtri solari sicuri per i coralli o per la barriera corallina. Anche gli ingredienti della creme solari con strutture e meccanismi d’azione simili, come avobenzone, octisalato e octocrilene, possono danneggiare i coralli, ma sono necessarie ulteriori ricerche.

Bibliografia

[1] D. Vuckovic et al., Conversion of oxybenzone sunscreen to phototoxic glucoside conjugates by sea anemones and corals., Science2022, 376 (6593), 644-648, DOI: 10.1126/science.abn2600


Questo post è stato tradotto e adattato da: Leigh K. Boerner, Sunscreen chemical kills corals—now scientists know why, May 9, 2022 C&EN

Molecole ibride RNA–proteine alla base delle origini della vita sulla Terra.

In evidenza

Diego Tesauro

Il concetto di mondo a RNA, formulato nel 1986 dal premio Nobel William Gilbert [1], è uno dei pilastri fondamentali accettati dagli scienziati all’origine della teoria della vita. Le prime ipotesi si basavano quindi su sistemi autoreplicanti che fossero costituiti da RNA, che portavano l’informazione, e proteine, che fornivano tutte le attività enzimatiche necessarie a fare copie di RNA e riprodurre loro stessi. Dalla metà degli anni ottanta sembra possibile che sia le proprietà relative all’informazione che catalitiche di questi due costituenti possono essere combinate in un’unica specie molecolare [1]. Infatti nel 1986 Westheimer descrisse la scoperta di attività enzimatiche in molecole di RNA di Escherichia coli, in cui la ribonucleasi-P taglia i legami fosfodiesterei durante la maturazione dell’RNA trasfer (t-RNA) [2].

E se c’è un’attività enzimatica, ce ne possono essere anche altre, per cui si può catalizzare la sintesi di un nuovo RNA da precursori; di conseguenza, non ci sarebbe bisogno di proteine enzimatiche all’inizio dell’evoluzione. A questo punto uno degli enigmi più misteriosi dell’evoluzione è come questo mondo dell’RNA sia poi avanzato allo stadio successivo, in cui le proteine ​​​​sono diventate i catalizzatori della vita e l’RNA ha ridotto la sua funzione principalmente alla memorizzazione di informazioni. Un processo centrale nella vita cellulare e tra i più antichi processi evolutivi, che risale all’ipotetico mondo dell’RNA, è la sintesi dei peptidi in cui l’RNA ribosomiale (r-RNA) ne catalizza la formazione con l’aiuto dei t-RNA,che funzionano come molecole di trasporto di amminoacidi. La domanda su come e quando l’RNA abbia istruito la sintesi dei peptidi è una delle grandi sfide irrisolte nella ricerca evolutiva prebiotica. L’immensa complessità della traslazione ribosomiale richiede un processo evolutivo graduale. Dal punto di vista del mondo dell’RNA, a un certo punto l’RNA deve aver acquisito la capacità di istruire e catalizzare la sintesi, inizialmente, solo di piccoli peptidi. Ciò ha avviato la transizione da un mondo a RNA puro a un mondo a RNA-peptidi, ottenendo nell’evoluzione una maggiore efficienza nella traduzione e nella replicazione. Recentemente per ottenere informazioni sui processi iniziali, che potrebbero aver consentito l’emergere di un mondo RNA-peptide, sono stati indagati nucleosidi vestigia non canonici presenti in natura, componenti chiave degli RNA contemporanei, (se ne conoscono ben 120 alcuni esempi sono riportati in Figura 1 [3]) che sembrano essere il residuo del mondo a RNA [4]. Queste specie sono in grado di dotare l’RNA della capacità di auto-funzionalizzarsi con peptidi formando strutture chimeriche.

Il gruppo di Thomas Caroll ha sintetizzato una molecola di RNA sintetica che includeva due di questi nucleosidi modificati unendo due pezzi di RNA che si trovano comunemente nelle cellule viventi [5]. Nel primo dei siti esotici, la molecola sintetica lega un amminoacido, che poi si sposta lateralmente per legarsi con il secondo nucleoside esotico adiacente. Dopo aver separato i loro filamenti di RNA originali può essere introdotto uno nuovo, contenente un altro aminoacido che è nella posizione appropriata per formare un forte legame covalente con l’amminoacido precedentemente attaccato al secondo filamento. Il processo reiterato passo dopo passo, ha permesso di far crescere una sequenza amminoacidica ottenendo una chimera RNA-peptide.  In queste molecole entrambe le entità chimiche possono co-evolvere in una forma covalentemente connessa, generando strutture RNA-peptidi gradualmente sempre più sofisticate e complesse.  

Sebbene, sia stata osservato l’accoppiamento peptidico sull’RNA con buone rese, l’efficienza migliorerà sicuramente con l’ottimizzazione delle strutture e delle sequenze degli RNA-peptidi mediante l’evoluzione chimica. La presenza simultanea delle funzionalità chimiche dell’RNA e degli amminoacidi aumenta sicuramente la possibilità di generare strutture cataliticamente in competizione. Ad esempio la stabilizzazione dell’RNA mediante incorporazione di nucleotidi metilati in posizione 2 (Figura 2) ha migliorato significativamente la resa di scissione. È interessante notare che nella fase di accoppiamento sono state osservate grandi differenze nelle costanti di velocità di reazione, il che suggerisce che il sistema ha il potenziale per generare preferenzialmente determinati peptidi. Inoltre i peptidi possono crescere simultaneamente in più siti sull’RNA, sulla base di regole determinate dalla complementarità della sequenza, il che è  requisito indispensabile per una crescita efficiente dei peptidi. Tutti questi dati insieme supportano l’idea che i nucleosidi vestigia non canonici nell’RNA hanno il potenziale per creare chimere relativamente stabili, per cui è ipotizzabile che, alcune di queste strutture, abbiano imparato, ad un certo punto, ad attivare gli amminoacidi mediante adenilazione[6] e a trasferirli sui gruppi ossidrilici del ribosio per catturare la reattività in strutture che erano grandi e abbastanza idrofobe da escludere l’acqua. Questa sarebbe stata quindi la transizione dal mondo a RNA-peptide non canonico basato su nucleosidi al processo traslazionale centrato sul ribosoma che è un segno distintivo di tutta la vita sulla Terra oggi.

Figura 1 Esempi di basi non canoniche dell’RNA. Dall’alto verso il basso: modifiche da Adenina (blu scuro), modifiche da Citosina (blu medio), modifiche da Guanina (azzurro), modifiche da Uracile (verde scuro), basi puriniche ipermodificate (verde chiaro) , e basi pirimidiniche (uridina) ipermodificate (gialle)

Figura 2 Nucleotide metilato in posizione 2

Figura 3  Carell e collaboratori sono stati ispirati dai ribosomi qui mostrati nella traduzione dell’RNA  (Omikron/Science Photo Library)

References

  1. W. Gilbert Origin of life: the RNA world. Nature 1986, 319, 618 https://doi.org/10.1038/319618a0.

2) 3) F H Westheimer Polyribonucleic acids as enzymes. Nature 1986, 319(6054), 534-535.  https://doi.org/10.1038/319534a0.

3) T. Carell, C. Brandmayr, A. Hienzsch, M. Müller, D. Pearson, V. Reiter, I. Thoma, P. Thumbs, M. Wagner Structure and function of noncanonical nucleobases Angew Chem 2012, 51(29), 7110-7131 https://doi.org/10.1002/anie.201201193.

4) S. Becker, C. Schneider, A. Crisp, T. Carell Non-canonical nucleosides and chemistry of the emergence of life. Nat Commun 2018, 95174 (1-4) https://doi.org/10.1038/s41467-018-07222-w

5) F. Müller, L. Escobar, F. Xu, E. Węgrzyn, M. Nainytė, T. Amatov, C.Y. Chan, A. Pichler, T. Carell A prebiotically plausible scenario of an RNA–peptide world.Nature 2022, 605, 279–28 https://doi.org/10.1038/s41586-022-04676-3.

6) L’adenilazione è un processo con il quale l’ATP fornisce energia ad un processo biochimico. Questo processo consiste in un attacco nucleofilo in posizione α con rimozione di un gruppo pirofosfato (che successivamente viene scisso in due gruppi fosfato) e trasferimento di adenilato.

L’infinitene è aromatico?

In evidenza

Rinaldo Cervellati

Nel dicembre 2021 appare sul JACS on line la sintesi di un poliarene a forma di infinito comprendente anelli di 12-benzene fusi consecutivamente formando un anello chiuso con un’energia di deformazione di 60,2 kcal·mol–1, chiamato infinitene dal gruppo di ricerca coordinato da H. Ito e K. Itami dell’Università di Nagoya (Giappone) [1].

Hideto Ito e Kenichiro Itami

L’infinitene (fig. 1) rappresenta un topoisomero[1] del [12]circulene ancora ipotetico, e la sua struttura può essere formalmente visualizzata come il risultato della “cucitura” di due subunità omochirali [6]elicene da entrambe le loro estremità.

Figura 1. Struttura infinitene

La sintesi ha compreso la trasformazione di un ditiaciclofano in ciclofadiene attraverso il riarrangiamento di Stevens[2] e la pirolisi del corrispondente S,S′-bis(ossido) seguito da fotociclizzazione. La struttura in figura 1 è un ibrido unico di elicene e circulene[3] con una formula molecolare di C48H24, che può essere considerato un isomero di kekulene, e [12]ciclacene.

L’infinitene è un solido giallo stabile con fluorescenza verde, solubile in comuni solventi organici. La sua struttura molecolare a forma di otto è stata confermata inequivocabilmente dalla cristallografia a raggi X (fig. 2).

Figura 2. Schema del twist dell’infinitene (C48H24)

L’impalcatura dell’infinitene è compressa con una distanza notevolmente ridotta (3,152–3,192 Å) tra i centroidi dei due anelli benzenici centrali e con distanza C···C più vicina di 2,920 Å. Le proprietà fotofisiche della molecola sono state chiarite mediante studi spettroscopici di assorbimento UV-vis e fluorescenza e da calcoli teorici in base alla teoria del funzionale densità [1].

Il gruppo dell’Università di Nagoya ha inoltre calcolato che l’aromaticità è confinata ai singoli anelli piuttosto che diffusa sull’intera molecola.

I lettori di C&EN hanno votato l’infinitene “Molecola dell’anno 2021”[4].

Tuttavia, la struttura della nuova molecola è piuttosto una sfida per il calcolo dell’aromaticità, la sua forma contorta significa che le semplici regole di conteggio degli elettroni come quelle di Hückel o di Möbius non sono valide.

Pertanto Mesías Orozco-Ic, Rashid R. Valiev e Dage Sundholm, della Facoltà di Scienza, University of Helsinki (Finlandia), hanno deciso di eseguire una propria analisi teorica. Il gruppo di ricerca ha utilizzato un pacchetto software di chimica quantistica, Turbomole[5], per simulare la risposta dell’infinitene a un campo magnetico esterno. I loro calcoli indicano che in un campo magnetico, gli elettroni delocalizzati fluirebbero lungo i due bordi della molecola in due percorsi non intersecanti, una caratteristica delle molecole aromatiche [2].

Man mano che i chimici sintetizzano strutture più contorte, questo tipo di calcoli potrebbe scoprire molecole aromatiche che non obbediscono alle semplici regole di conteggio degli elettroni.

Bibliografia

[1] Maciej Krzeszewski, Hideto Ito, Kenichiro Itami, Infinitene: A Helically Twisted Figure-Eight [12]Circulene Topoisomer., J. Am. Chem. Soc. 2022, 144, 862–871. DOI: 10.1021/jacs.1c10807

[2] M. Orozco-Ic, R. R. Valiev, D. Sundholm, Non-intersecting ring currents in [12]infinitene., Phys. Chem. Chem. Phys., 2022, 24, 6404-6409. (open access)


[1] I topoisomeri o isomeri topologici sono molecole con la stessa formula chimica e connessioni di legame stereochimico ma topologie diverse. Esempi di molecole per le quali esistono topoisomeri includono il DNA, che può formare nodi, e i catenani.

[2] Il riarrangiamento di Stevens in chimica organica è una reazione organica che converte i sali di solfonio nei corrispondenti solfuri in presenza di una base forte in un riarrangiamento 1,2 .

[3] I circuleni sono macrocicli in cui un poligono centrale è circondato da benzenoidi. La nomenclatura all’interno di questa classe di molecole si basa sul numero di anelli benzenici che circondano il nucleo, che è equivalente alla dimensione del poligono centrale. Esempi che sono stati sintetizzati includono [5]circulene (corannulene), [6]circulene (coronene), [7]circulene, e [12]circulene (kekulene). Con il termine eliceni si indicano dei composti aromatici policiclici  nei quali alcuni anelli benzenici sono disposti i maniera angolata, dando luogo ad una struttura molecolare di forma elicoidale.

[4] Laura Howes, Infinitene might be aromatic. Chem. & Eng. News, April 7, 2022

[5] TURBOMOLE è un programma di chimica computazionale ab initio che implementa vari metodi di chimica quantistica.

La rivoluzione culturale: tutti fratelli

In evidenza

Vincenzo Balzani

(pubblicato su Bo7 di Avvenire)

Il mondo è malato a causa del cattivo rapporto fra la società umana e il pianeta che la ospita e ancor più a causa delle discordie all’interno della società umana. Stiamo scivolando sempre di più verso l’insostenibilità ecologica e sociale. Lo dicono sia gli scienziati che i filosofi e lo riafferma papa Francesco nella Laudato sì: Le previsioni catastrofiche ormai non si possono più guardare con disprezzo e ironia. Lo stile di vita attuale, essendo insostenibile, può sfociare solo in catastrofi. Ecco allora che, come scrive il papa “E’ necessaria una coraggiosa rivoluzione culturale”.

Da parecchi anni nella società umana domina il mito della crescita continua e permanente. Un mito assurdo che porta a considerare il nostro pianeta soltanto come un fornitore di risorse, senza limiti. Il pianeta, in realtà, è un sistema con risorse limitate, costituite da elementi chimici e loro composti, alcuni relativamente abbondanti, altri scarsi. Per di più, le risorse sono distribuite sul pianeta in modo disomogeneo, per cui è in atto una forte competizione sia fra le persone che fra le nazioni per impadronirsene. Le indagini dell’agenzia internazionale Oxfam attestano che la forbice della disuguaglianza tra i ricchi e i poveri, sia a livello delle persone che delle nazioni, continua ad allargarsi senza freno. Ne deriva che, come ha scritto papa Francesco nella già citata Laudato sì, «Non ci sono due crisi separate, una ambientale e un’altra sociale, bensì una sola e complessa crisi socio-ambientale che va affrontata con una visione unitaria dei problemi ecologici ed economici”.

Nella più recente enciclica Fratelli, tutti papa Francesco spiega che la rivoluzione culturale necessaria per giungere alla sostenibilità ecologica e sociale non può compiersi mediante qualche parziale modifica del rapporto uomo-pianeta o delle relazioni fra le nazioni. Si tratta, invece, di cambiare radicalmente la base su cui poggiano le nostre culture: bisogna accettare e valutare positivamente le diversità, ammettere i propri limiti e riconoscere che siamo tutti figli di Dio, fratelli che nascono, vivono e muoiono nella stessa casa comune, il pianeta Terra. In altre parole, la necessaria rivoluzione culturale richiede che gli uomini e anche le nazioni passino dalla situazione di abitanti nello stesso pianeta, spesso in competizione commerciale o addirittura in guerra fra loro, a quella di fratelli che si amano e si stimano.

Solo così si potrà giungere alla sostenibilità ecologica perché il pianeta verrà custodito e non degradato e le sue risorse verranno condivise nella sobrietà. Si potranno, o meglio si dovranno, anche mettere in atto una saggia politica per ridurre le disuguaglianze mediante lo sviluppo dei servizi comuni (scuola, sanità, trasporti, ecc.) e un’economia basata su tasse e sussidi mirati ad aiutare i più deboli, perché ogni persona vale e non va dimenticata. La consapevolezza che in un mondo globalizzato nessuno è autosufficiente ci permetterà di intraprendere collaborazioni proficue fra le nazioni e di dare forza alla pace.

Nutraceutica

In evidenza

Luigi Campanella, già Presidente SCI

La data della nascita ufficiale della nutraceutica è incerta, ma a me piace collocarla negli anni 70 dello scorso secolo quando l’ennesimo controllo sulla qualità delle acque dei fiumi europei (Tamigi Senna, Po, Danubio….) ha dimostrato che in 30 anni i residui di farmaci nelle acque fluviali erano aumentati di quasi 2 ordini di grandezza, sfiorando le condizioni di tossicità. Come conseguenza apparvero le prime raccomandazioni dall’Europa all’uso dei farmaci, non al loro abuso.

Sono gli anni in cui sono partiti i primi progetti, ad es. Repharmwater, dedicati alla rimozione preliminare dei farmaci dalle acque superficiali, tenuto conto anche che i depuratori non erano attrezzati per rimuovere questi inquinanti di nuova generazione. Parallelamente l’analisi statistica dei farmaci consumati dimostrava che in molti casi di trattava di medicinali a base di prodotti naturali, che potevano essere ritrovati in molti alimenti: con una dieta intelligente si poteva così ridurre il consumo di farmaci a favore di nutrienti funzionali.

Da quel momento le guide e le direttive nutraceutiche si sono succedute, con alcuni punti fermi.

A tavola con i colori: i colori degli alimenti e le loro proprietà ... blog.bimbonaturale.org

Il primo di questi è il cosiddetto arcobaleno degli alimenti: il rosso per proteggere il cuore con la vitamina C, il bianco contro i tumori con la fibra, il viola a favore del sistema cardiovascolare per i pigmenti relativi, il giallo arancione contro lo stress ossidativo, eccesso di radicali liberi non smaltiti, per i carotenoidi antiossidanti presenti, il verde per proteggere il fegato per l’acido folico e la fibra contenuti.

A proposito del bianco mi piace ricordare una esperienza personale. In Cina per una serie di conferenze sono stato gratificato da molti segnali di amicizia e riconoscenza e da un piccolo segreto, la cura dell’Aglio della antica cultura cinese.

L'aglio cinese diventa "dop"anche per l'Unione Europea | Quotidiano.net ...L’80% dell’aglio viene prodotto in Cina

Si tratta di un alimento, ricondotto nell’arcobaleno alimentare al bianco, utilizzato in passato come antibiotico naturale ed impiegato insieme alla cipolla per regolarizzare la pressione e prevenire la formazione di trombi. Incuriosito dalla ricetta fornitami dai colleghi cinesi ho voluto verificare se essa, basata sulla estrazione dalle teste di aglio dei composti preziosi contenuti, potesse essere applicata utilizzando gli innumerevoli prodotti commerciali offerti dal mercato, che soprattutto durante i miei viaggi all’estero mi era capitato di scoprire con numeri continuamente crescenti.

Il risultato di quella ricerca è stato, in parte, sorprendente, in parte atteso: l’aglio deve essere consumato fresco e non trattato, pena la perdita di alcune preziose componenti e proprietà.

Ma oltre ai colori la chimica degli alimenti ci ha insegnato molte altre cose che rendono più efficace e “nutraceutica” l’alimentazione;

-evitare il consumo nello stesso pasto di proteine animali e vegetali che producono insieme un agglomerato difficile da digerire;

-combinare nello stesso pasto fonti di carboidrati, proteine, grassi e fibra;

-combinare carne con alimenti contenenti vitamina C che facilità l’assorbimento del ferro contenuto nella carne.

-Altri abbinamenti giustificati da considerazioni chimiche sono tuorlo di uovo e latticini: il primo contiene vitamina D che facilita l’adsorbmento del calcio contenuto nel secondo;

I legumi forma incompleta di carboidrati e di proteine necessitano di opportune integrazioni

Per chiudere una curiosa osservazione: pizza e birra è una combinazione storica e di gran successo, ma potenzialmente di non facile digestione a causa della presenza di lieviti in tutte e due le sue componenti.

Negazioni insensate e sciocche

In evidenza

Mauro Icardi

La Giunta Regionale della Lombardia sulla base del monitoraggio condotto in queste settimane sta per dichiarare lo stato di crisi idrica regionale. Saranno applicate misure finalizzate al contenimento dei prelievi e al risparmio idrico.

In California meridionale Il Metropolitan Water District, che fornisce acqua a circa 19 milioni di persone, ha dichiarato due mesi fa un’emergenza per la carenza d’acqua e ha votato all’unanimità per ridurne l’uso, limitando l’irrigazione all’aperto o con altri mezzi. “Il Metropolitan non ha mai applicato questo tipo di restrizioni, ma stiamo affrontando riduzioni senza precedenti delle nostre forniture e dobbiamo rispondere con misure senza precedenti”, ha affermato Adel Hagekhalil, direttore generale del distretto. “Ci stiamo adattando ai cambiamenti climatici in tempo reale”, ha aggiunto.

Ho voluto mettere in evidenza queste due notizie, perché mi sembrano esemplificative di un problema di cui non vedo purtroppo la soluzione.

Non mi riferisco alle soluzioni tecnologiche; negli anni di collaborazione a questo blog ne ho scritto. Potrei forse suggerirne di nuove, ma in realtà mi sto ponendo altri interrogativi. Anche questi purtroppo non nuovi.

La mia formazione e crescita personale sono state fortemente influenzate non solo dal percorso di formazione scolastica (qui è doveroso un ringraziamento ai docenti che ho avuto), ma anche da una parallela educazione al rispetto delle risorse e alla loro gestione attenta e parsimoniosa, impartitami da mia nonna materna. Ne ho già scritto in un altro articolo; passavo l’estate in una cascina del Monferrato, e avevo l’incarico di attingere acqua dal pozzo con una carrucola. Per diversi anni prima che mio padre e mio zio provvedessero all’installazione di una pompa sommersa, ho capito perfettamente il valore dell’acqua e la necessità di non sprecarne nemmeno una goccia. Nonna mi diceva come provvedere ad innaffiare l’orto. L’acqua piovana era recuperata. Io sono nato nel 1962 e già a due anni ho iniziato a passare le estati in quella cascina. Quindi dal 1964 al 1980 (anno nel quale venne installata l’acqua corrente) ho imparato come si può vivere senza le comodità necessarie e come si possa essere resilienti. La cosa non mi è mai pesata, anzi l’ho vissuta come una necessaria e benedetta iniziazione personale.

In questa foto si può vedere, oltre al sottoscritto, parte del cortile, il mastello per il bucato, si intravede a sinistra l’abbeveratoio per le galline. Il pozzo era situato dietro la scala dove vi era il porticato, chiuso con una porta dotata di un grosso chiavistello. Qualcosa ho imparato, ma spesso penso che avrei dovuto imparare molto di più.

Mi domando se gli abitanti delle metropoli lombarde, o meglio ancora quelli di Los Angeles, San Bernardino e Ventura possano pensare, o stiano pensando di doversi e potersi adattare a vivere qualcosa di simile.

Credo che la stessa parola razionamento possa riuscire ostica, quasi irricevibile. L‘atteggiamento con cui pensiamo all’acqua a volte può essere distorto. Pensiamo all’acqua potabile più per le necessità igieniche, piuttosto che per dissetarci. Secondo i dati Istat, in Italia si consumano in media 215 litri di acqua per abitante al giorno, con forti differenze sul territorio: dal valore minimo di 118 litri per abitante al giorno nella provincia di Enna a quello massimo di 446 nella provincia di Aosta. La maggior parte (39%) è utilizzata per doccia e bagno, generando spesso uno spreco di acqua: solo per lavarsi i denti, se non si chiude il rubinetto, si possono sprecare fino a 30 litri d’acqua al giorno. Da considerare anche il fenomeno della dispersione dell’acqua immessa, ovvero della quantità che si perde a causa del cattivo funzionamento delle reti idriche: la media nazionale è del 40%. Come reagirà un cittadino degli Stati Uniti che secondo l’UNICEF-OMS-Water Report del 2019 consuma quantità enormi di acqua (425 litri al giorno, mentre un abitante del Madagascar si deve accontentare di 10 litri)?

Quando esco di casa, mi sembra di vivere una situazione surreale che coinvolge la popolazione in maniera trasversale. Una negazione ostinata di questi problemi. Non cito più le riposte banali o decisamente singolari che ricevo quando tento di parlare di questi temi. Purtroppo molti scenari che non ritenevamo possibili si stanno verificando.

Cito solo come esempio la risalita del cuneo salino nel delta del Po, che negli ultimi anni ha fatto risalire l’acqua salata di mare di circa 30 km, a causa della diminuita portata del maggiore fiume italiano.

Non mi sembra di vedere una reale e diffusa percezione del problema. Nelle poche trasmissioni radiofoniche o televisive che trattano di questi temi, colgo troppo spesso la sensazione che il problema non sia ben compreso. Solo sulla stampa locale si possono leggere i vari allarmi lanciati dai consorzi di irrigazione e bonifica, praticamente in tutta Italia: difficoltà di irrigazione, scarsità di fertilizzanti e mancato innevamento invernale. Dovrebbero essere gli argomenti più dibattuti.

L‘attuale situazione geopolitica ha forse fatto risuonare un campanello d’allarme. Non sarà facile cambiare le abitudini. Ma credo sia necessario farlo senza nessuna esitazione.

Mi tornano in mente le parole pronunciate da Donella Meadows, co-autrice del “Rapporto sui limiti alla crescita”, che riporto a chiusura di questo articolo. Sono più che mai attuali, e dovrebbero essere meditate.

“Non mi considero in alcun modo migliore di ogni altro essere umano, ma ho vissuto per vent’anni con questi modelli globali e riesco a vedere, a capire istintivamente le conseguenze globali delle mie azioni personali. E conosco il tipo di mondo in cui voglio vivere. Non voglio vivere in un mondo che collassa, non voglio vivere in un mondo che diventa sempre più grigio, in cui non si riesca a mantenere un livello di vita decente. Voglio vivere in un mondo sostenibile, dove non ci siano povertà, fame e uso irrazionale delle risorse.”

Sono parole che dovrebbero essere lette in tutte le istituzioni scolastiche. E che meritano di essere conosciute da più persone possibili. Non c’è più tempo per negazioni insensate e sciocche.

La storia del verde brillante

In evidenza

Roberto Poeti

La intensa attività sperimentale di Carl Scheele(1742-1786)  ha abbracciato i campi della chimica organica e di quella inorganica, ottenendo risultati incredibili nella sua breve esistenza ( è morto all’età di quaranta anni), avendo a disposizione come laboratori i  retrobottega delle farmacie in cui ha lavorato. Vi sono scoperte di Scheele che hanno avuto un grande  impatto, come per esempio la scoperta dell’ossigeno sullo sviluppo della chimica, le sue ricerche sul fosforo nell’industria dei fiammiferi svedese, o le sue indagini sulla fotochimica dei sali di argento  sullo sviluppo della  fotografia ecc. Ma c’è un risultato sperimentale di Scheele, non tra i più importanti come rilevanza scientifica , che però  ha avuto più impatto sull’arte, la moda e in generale il costume.  Si tratta della invenzione del  colorante verde che ha preso poi il nome verde di Scheele.  Il legame tra i pigmenti e Scheele è stato  il risultato inaspettato  di ricerche che avevano un fine diverso. Già nel 1770, nel tentativo di ottenere soda direttamente dal sale comune, un campo che è sempre stato allettante per un chimico, Scheele aveva mescolato litargirio (una delle forme naturali dell’ossido di piombo II) in polvere con una soluzione acquosa di cloruro di sodio, e la soluzione di soda caustica formata era stata carbonatata con esposizione all’aria. Nel  procedimento veniva ottenuta una modesta quantità di soda , insieme a ossicloruro di piombo che si presentava di un bel colore giallo. Il pigmento ottenuto venne brevettato nel 1801 in Inghilterra, molti anni dopo la morte di Scheele, da James Turner, un produttore di sostanze chimiche, conosciuto poi come  Giallo di Turner.

Questo pigmento giallo ha lasciato tuttavia scarse tracce nell’arte di quel tempo , la sua sensibilità alla luce e ai fumi di zolfo ne ha limitato l’uso ed è stato sostituito dai pigmenti giallo cromo. Cinque anni  dopo la sintesi del pigmento giallo, Scheele, mentre era intento a sperimentare sui composti dell’arsenico, ottiene un pigmento verde, chiamato in seguito verde di Scheele. È una scoperta che non sembra  essere il frutto anch’essa di un piano preordinato. Ma la sua risonanza sembra questa volta maggiore rispetto al primo pigmento, tanto che l’Accademia Svedese  delle scienze lo invita a pubblicare negli atti della stessa accademia un resoconto della sua scoperta. Scheele lo farà solo dopo tre anni, vincendo la sua proverbiale refrattarietà a pubblicare le sue ricerche. Lo fa con una nota breve rivolgendosi all’accademia  con la  consueta cortesia e modestia.

Memoria di Scheele :

Di seguito è la traduzione integrale della sua memoria dalla lingua svedese. Le unità di misura per pesi e volumi che utilizza  erano quelle in uso nella  Svezia prima dell’introduzione del Sistema Internazionale. Sono state convertite nel S.I.

Traduzione:

Accademia reale svedese delle scienze   1778                          

 Preparazione  di un nuovo colore verde di Carl Wilhelm Scheele 

Che si riesca a malapena a concepire l’aiuto della Chimica nella preparazione dei colori per la pittura, e che con il suo aiuto si scoprano ancora nuovi colori, è una verità della quale nessuno dubita. Per assecondare la richiesta dell’Accademia delle Scienze, e cioè che il colore verde, che ho scoperto nei miei esperimenti con l’arsenico, così come il suo metodo di preparazione, dovessero diventare più familiare al pubblico; ho l’onore di essere dello stesso avviso , ancora di più , perchè  ho scoperto che  il colore non solo è utile, così per  un colore ad olio simile all’acqua, ma anche che ora, dopo tre anni, non è cambiato minimante.

Due skålpund [  1 skålpund = 0,425 kg]  di vitriolo di rame blu [ solfato di rame] vengono sciolte in un bollitore di rame sul fuoco, con 6 kannor di acqua pulita [1 kannor = 2.6 litri] ; quando il vitriolo si è sciolto , il bollitore viene tolto dal fuoco.

Quindi, in un altro bollitore di rame, si sciolgono 2 skålpund di cenere bianca secca e 22 lod [1 lod = 0.013301 kg] di arsenico bianco in polvere * in 2 kannor di acqua pura sul fuoco; quando tutto è disciolto, questa liscivia viene filtrata attraverso il lino in un altro recipiente. Un po’ alla volta questa liscivia arsenicale viene versata nel contenitore  della  soluzione del suddetto vetriolo di rame mescolando continuamente con un cucchiaio di legno. ** Quando tutto è stato aggiunto, la miscela  viene lasciata inalterata per alcune ore, mentre il colore verde si deposita  al fondo; quindi si versa via il liquido limpido [surnatante] e si versano ancora alcune brocche d’acqua calda, che vengono poi ben mescolate; quando la vernice si è depositata di nuovo, l’acqua limpida viene versata via; si prosegue altre due volte allo stesso modo, versando dell’acqua calda. Dopo che la vernice è ben lisciviata,*** tutto viene versato su un panno di lino teso e, quando l’acqua è sgocciolata, la vernice viene stesa in piccoli grumi su carta grigia e asciugata a fuoco leggero. Della quantità specificata si ottiene 1 skålpunde 13 lod [ totale 0.560 Kg ], di bel colore verde.

* È sempre più sicuro polverizzare da soli l’arsenico intero che acquistare lo stesso precedentemente in polvere, perché capita che il supporto sia mescolato con gesso grattugiato. Si può esserne convinti, se ne si mette un pizzico su un fuoco ardente: se poi fuma completamente spoglio, senza che nulla venga lasciato indietro, allora tale arsenico è puro.

** Vista la effervescenza che qui si produce , il bollitore in cui viene contenuta la miscela non dovrebbe essere troppo piccolo, ma dovrebbe poter ospitare 16  kannor [ circa 35 L]

*** Tutta l’acqua con cui è stata lisciviata la vernice contiene un po’ di arsenico; quindi dovrebbe essere portato  in un luogo tale , che dopo  il bestiame non può avervi accesso

Carl Wilhelm Scheele  – 1778

I rapporti ponderali presenti nella memoria:

La formula più rappresentativa possiamo assumere che sia:

Il composto insolubile arsenito acido di rame II non è il solo componete del verde di Scheele, la cui composizione tende a variare a seconda delle modalità della preparazione.

 Alcune puntualizzazioni

Il bellissimo verde smeraldo conquistò l’Europa dell’ottocento. Occorre però fare due precisazioni prima di parlare dell’impiego e delle conseguenze che derivarono dall’uso indiscriminato del pigmento. La prima è legata ad alcune affermazioni che troviamo in alcuni blog circa il ruolo di Scheele nel commercializzare il suo pigmento e trarne profitto. Niente è più lontano dalla verità. Scheele ha condotto una esistenza di scienziato schivo da onori, tutta dedica alla ricerca, rifiutando posizioni remunerative. Egli è morto molto prima che il suo pigmento venisse diffuso. La  seconda precisazione riguarda la tossicità del pigmento di cui egli è consapevole e avverte nelle nota ** che le acque di lavaggio devono essere scaricate in luoghi non accessibili agli animali !

L’esplosione del verde

Nell’ottocento abbiamo una rivalutazione del colore verde. Fu Goethe, per primo, nella sua “Teoria dei colori”, a considerare la tinta verde “rasserenante” e a raccomandarne l’impiego nei locali destinati al riposo e al convivio. La sua diffusione venne favorita migliorando le caratteristiche del verde di Scheele agli inizi  dell’ottocento.  Venne prodotto il verde di Vienna o verde Parigi ( due dei tanti nomi che prenderà il verde di Scheele modificato) che era acetato arsenito di rame(II), Cu(C2H3O2)2·3Cu(AsO2)2, di tonalità simile al pigmento di Scheele, ma più resistente alla luce.  Il nuovo pigmento fu immediatamente commercializzato e adottato praticamente in tutti i rami dell’industria. Il pigmento verde brillò nei vestiti alla moda delle donne, gilet, scarpe, guanti e pantaloni, nelle candele, come vernice nei giocattoli per bambini e perfino nell’industria dolciaria con le bellissime foglie di zucchero verde appoggiate sulle torte glassate e nella carta parati.  

Il verde di Scheele divenne così popolare che poteva essere trovato in tutta la Gran Bretagna e in gran parte del continente per tutto il diciannovesimo secolo. Era così popolare che si diceva che la Gran Bretagna vi fosse immersa. La tossicità dell’arsenico era volutamente ignorata, la raccomandazione di Scheele che accompagnava la preparazione del suo pigmento era stata inutile. Scheele aveva immaginato che il suo colore avrebbe abbellito la tavolozza dei pittori . Non immaginava certo l’uso esteso che ne avrebbe fatto l’Inghilterra vittoriana e a seguire l’Europa e l’America.

Il verde nella pittura

Nella  pittura  l’uso del pigmento verde venne impiegato nelle loro tavolozze da artisti esponenti del movimento romantico agli inizi dell’800 come Georg Friedrich Kersting (1785 –1847) fino a esponenti dell’impressionismo come Monet e Renoir  e del post- impressionismo come Gauguin, Cezanne e Van Gogh.

Ma , come abbiamo visto, il suo uso andò ben oltre il campo della pittura.

Il verde nella carta da parati

 Il quadro precedente di Georg Kersting, Donna che ricama, fotografa efficacemente la moda del tempo: nelle case della borghesia   le pareti dei salotti  e dei  soggiorni erano colorate di verde Scheele. Soprattutto la carta da parati verde divenne molto popolare all’epoca e, quando il movimento romantico iniziò a prendere piede, divenne ancora più di moda addobbare il soggiorno o il salotto con scene di viti di fragole stilizzate e tulipani verdi dalla testa svolazzante. Il fiorente mercato della carta per pareti, dove dominava il verde, era la causa del contatto più diffuso con il pigmento, si stima che nel 1858 ci fossero cento milioni di miglia quadrate di carta da parati verde Scheele nella sola Gran Bretagna.

 I fiori di carta .

Ma , come abbiamo visto, il suo uso andò ben oltre il campo della pittura. Nel fiorente mercato di fiori finti di carta, il pigmento verde divenne quanto mai prezioso. Molti produttori facevano affidamento sul lavoro minorile per arricciare i petali, cucire i fiori e svolgere altri compiti che richiedevano piccole mani abili. Questi lavoratori di fiori si avvelenavano lentamente  a causa del loro contatto con il pigmento verde e per inalazione della polvere, spolverando le foglie artificiali con il verde per farle sembrare più realistiche. Si tratta di una delle più severe malattie professionali che si ricordi nell’800.


MAKING ARTIFICIAL FLOWERS, NEW YORK, 1912

Voci inascoltate

Già nel 1839, il chimico tedesco Leopold Gmelin aveva notato che le stanze umide tappezzate con il colore producevano un acido tossico. Nel 1891, il medico italiano Bartolomeo Gosio confermò che l’umidità delle pareti delle case e le muffe che nascevano nella pasta per carta da parati metabolizzavano l’arsenico per produrre un gas velenoso, poi identificato nel 1933 dal chimico Frederick Challenger che lo riconobbe come trimetilarsina.

La morte di Napoleone e l’arsenico nei suoi capelli

Nel 1961 una analisi condotta su un campione di capelli di Napoleone rinveniva una concentrazione di arsenico molto alta . Il risultato metteva in discussione la morte per cause naturali e si prospettava l’ipotesi dell’avvelenamento. È sorto così un animato dibattito sulle cause della morte di Napoleone. I  risultati di uno  studio interdisciplinare, pubblicato in  Advances in Anatomic Pathology  March 2011, dal titolo The Medical Mystery of Napoleon Bonaparte An Interdisciplinary Expose pone fine alla diatriba. Lo studio si avvale del punto di vista del gastroenterologo, del patologo , e soprattutto la determinazione dell’arsenico nei campioni di capelli di Napoleone e dei suoi familiari, tramite Analisi per attivazione neutronica, NAA. I risultati raggiunti escludono l’avvelenamento per arsenico dell’imperatore .

 Ma allora perché la concentrazione di arsenico nei capelli di Napoleone è in tutti i casi molto più alta rispetto ai valori comuni oggi ? L’imperatore ha condiviso i gusti e le tendenze del suo tempo:  amava il colore verde e i suoi  abiti, le tappezzerie e le pareti dei suoi salotti  sfoggiavano spesso questo colore. Ma questo colore era il verde Scheele a base di arsenico e Napoleone ne ebbe ampia esposizione. Infine, la maggior parte dei cosmetici e delle polveri per capelli a quel tempo contenevano arsenico e Napoleone fece un uso abbondante di polvere per capelli. Pertanto, il potenziale di contaminazione diretto e indiretto dei capelli dell’imperatore era molto alto.

La scarsa coscienza del pericolo

Per tutto il diciannovesimo secolo, ci sono state innumerevoli segnalazioni di malattie e decessi correlati all’uso del pigmento. Le persone deperivano frequentando stanze verdi o quando venivano accese  candele verdi. È difficile immaginare oggi come un uso di composti di arsenico così diffuso non abbia provocato una presa di coscienza del suo pericolo. Possiamo pensare che poiché i sintomi da avvelenamento con verde all’arsenico, che iniziavano con mal di testa, sonnolenza e problemi gastrointestinali, non erano acuti, ma restavano latenti per molto tempo e si manifestavano gradualmente, facevano perdere il nesso causa – effetto. I sintomi più visibili dell’avvelenamento acuto da arsenico – nausea, vomito, diarrea e dolore addominale – potevano essere facilmente confusi con altre malattie comuni dell’epoca (p. es., colera e polmonite).  La polvere del pigmento o il gas  che si sprigionavano dalla carta da parati dei salotti della buona borghesia non si evidenziavano poi concretamente. Nei giovani lavoranti, che venivano impiegati nella lavorazione  dei fiori finti, i sintomi erano più acuti, ma la medicina del lavoro doveva ancora nascere, così come la tutela sindacale.

L’inerzia dell’industria 

 Per ultimo, ma non meno importante, erano sorte tante attività che  impiegavano il pigmento verde e le  alternative non erano pronte. Un caso emblematico è il produttore di stoffe e carta da parati  William Morris (1834 –1896), artista e scrittore britannico che, tra i principali fondatori in Inghilterra del movimento delle Arts and Crafts, è considerato antesignano dei moderni designer ed ebbe una notevole influenza sull’architettura del suo tempo. Continuò a usare sia il verde di Scheele che il verde Parigi nella sua linea  estremamente  popolare di carta da parati, tappeti e tessuti. William Morris  era molto scettico riguardo alle affermazioni secondo cui l’arsenico poteva essere pericoloso.

 Intorno al 1870, Morris si piegò alle pressioni dell’opinione pubblica e iniziò a utilizzare verdi senza arsenico nei suoi laboratori.

Quando i governi europeo, britannico e americano hanno iniziato a regolamentare l’arsenico, la vivida carta da parati verde era già passata di moda.

L’arsenico per essere più belle

Ma c’è un altro motivo che ostacolava  l’associazione dell’arsenico a un pericolo. Insolitamente per un veleno, l’arsenico ha avuto molti altri usi comuni nel corso della storia, dopo la sua scoperta.

 L’arsenico era un trattamento comune per la pelle fino all’inizio del XIX secolo. Nel periodo vittoriano, l’arsenico veniva assunto come integratore per uso interno per migliorare la carnagione con il risultato di una pelle bluastra e traslucida. I medici vittoriani ed edoardiani lo prescrivevano per l’asma, il tifo, la malaria, il dolore mestruale, la sifilide, la nevralgia e come rimedio non specifico. Il manifesto seguente del 1896 pubblicizza cialde e saponi a base di arsenico per la bellezza della pelle !

L’ultimo atto di questa storia

È improbabile che molti dei prodotti verde Scheele o Parigi siano ancora in circolazione. Tuttavia, Victoria Finley scrive in The Brilliant History of Colour in Art, “Ancora nel 1950 l’ambasciatrice degli Stati Uniti in Italia, Clare Boothe Luce, si ammalò di avvelenamento da arsenico. La CIA sospettava dei sovietici e ha inviato una squadra a Roma per indagare. Alla fine hanno scoperto che il soffitto della sua camera da letto era decorato con pigmenti pieni di arsenico. Nella stanza sopra era stata installata una nuova lavatrice. Il suo sussulto aveva rilasciato polvere di arsenico, che lei respirava mentre dormiva”.

Clare Boothe Luce, ambassador to Italy, with husband Henry Luce (1954)

Riferimenti

Scheele C.W. Preparazione di un nuovo colore verde. Kongl. Vetenskaps  Academiens Handlingar 1778 Vol.XXXIX.

https://cameo.mfa.org/wiki/Turner%27s_yellow

The soda process, and proposed improvements. The Chemical News and Journal of Physical Science, Vol. XXVII 1873; 164

Ball P. William Morris made poisonous wallpaper. Nature. 2003

Meharg A.A. Science in culture: The arsenic green. Nature. 2003

https://www.focus.it/cultura/curiosita/verde-arsenico-timore-mistero

Forshufvud S, Smith H, Wassen A. Arsenic content of

Napoleon I’s hair probably taken immediately after his death. Nature. 1961;192:103–105.

Lugli A, Clemenza M, e altri. The Medical Mystery of Napoleon Bonaparte.

An Interdisciplinary Expose. Adv Anat Pathol 2011;18:152–158

Colleghi inaspettati.

In evidenza

Mauro Icardi

Molto spesso su questo blog abbiamo scritto, e ci siamo decisamente rammaricati, di come la chimica sia, tra le discipline scientifiche quella che troppo spesso viene, in maniera molto superficiale, vista come la causa di molti se non di tutti i mali. Non è sempre facile superare le etichette ed i luoghi comuni, quando diventano patrimonio comune. Credo a questo proposito di saperne qualcosa. Come persona che predilige per i propri spostamenti la bicicletta e i mezzi pubblici spesso mi trovo a dover intavolare discussioni che rischiano di diventare a volte molto faticose.

Eppure la chimica, che ha avuto tra i suoi narratori migliori Primo Levi, è riuscita in qualche modo ad affascinare altri personaggi più o meno famosi a cui possiamo fare ricorso per cercare di combattere questa percezione negativa che si porta dietro, quasi come un fardello.

Sempre Levi quando doveva spiegare come si conciliasse il suo lavoro di chimico con quello di scrittore, si riferiva al linguaggio delle nozioni di chimica come un grande patrimonio di metafore e termini, che si potevano utilizzare anche in altri campi ed ambiti.

Ecco allora che il primo nome che mi viene in mente è quello di Johann Wolfgang von Goethe.

Nel suo quarto romanzo “Le affinità elettive”( 1809) Goethe utilizza gli argomenti dell’affinità chimica (da cui il titolo) come metafora delle relazioni interpersonali, narrando l’attrazione tra quattro personaggi che, non vogliono rinunciare ai loro legami reciproci, pur sentendosi attirati verso altre scelte dal punto di vista sentimentale. Significativo che Goethe utilizzi questo artificio narrativo ispirato dagli studi studi del chimico svedese Torber Olof Bergman che nel 1775 pubblicò “Una dissertazione sulle attrazioni elettive”

Un’altra persona che non è rimasta insensibile al fascino della chimica, anzi ha dichiarato di esserne sempre stato attratto è Jorge Mario Bergoglio ovvero Papa Francesco.

L’attuale Pontefice ha frequentato un istituto tecnico ad indirizzo chimico diplomandosi come perito, ha lavorato in Laboratorio ed ha insegnato chimica per qualche tempo. Nella recente intervista rilasciata nella trasmissione “Che tempo che fa” ha utilizzato per definire la sua passione per lo studio della chimica addirittura il termine seduzione. La chimica affascina quindi, e in qualche modo l’appartenenza del pontefice ad un ordine come quello dei gesuiti forse può aver rafforzato questa passione.

Anche l’ex cancelliera tedesca Angela Merkel che inizialmente consegui la laurea in fisica, successivamente lavorò all’istituto centrale per la chimica fisica dell’accademia delle scienze di Berlino, conseguendo poi il dottorato con una tesi di chimica quantistica.

 Chimica-fisica e chimica quantistica sono il presente ed il futuro della chimica, dal punto di vista teorico e da quello applicativo. Forse è questa la ragione che spinse l’ex politica tedesca ad intraprendere questo tipo di percorso formativo. Per altro in un paese che ha una grande tradizione (nel bene e nel male) nel campo. Basti pensare ai nomi di Fritz Haber e di Carl Bosh. Il primo ricordato per la sintesi dell’ammoniaca, il secondo per quella del metanolo.

  Un altro leader politico molto conosciuto ovvero Margaret Thatcher prima di diventare avvocato si laureò in chimica al Sommerville College dell’università di Oxford, e trovò lavoro come ricercatrice chimica presso la BX plastic. Successivamente si laureò in Giurisprudenza per intraprendere la carriera politica. Ma ebbe una significativa esperienza di lavoro nell’ambito della chimica industriale.

Bud Spencer invece si iscrisse al corso di laurea in chimica alla Sapienza di Roma dopo aver terminato gli studi al liceo, nel 1946. Le vicende legate al lavoro del padre lo costrinsero ad abbandonare gli studi.

Certo rimane una certa curiosità nell’immaginare un uomo con una corporatura imponente come la sua, muoversi agevolmente in un laboratorio chimico.

Rimanendo in ambito cinematografico, anche un famoso regista di origine italiana come Frank Capra, conseguì nel 1918 una laurea in ingegneria chimica presso il Throop Institute (futuro California Institute of Technology).

Sempre in ambito cinematografico un attore conosciuto per il ruolo di Ivan Drago nel film Rocky IV cioè Dolph Lundgren ha conseguito una laurea in chimica presso l’istituto reale di tecnologia di Stoccolma.

La Svezia e le sue istituzioni universitarie, non solo Stoccolma ma anche Uppsala hanno radicate e fiorenti tradizioni accademiche legate alla chimica. Ma anche per questo attore valgono le considerazioni già espresse per Bud Spencer!

 Questo è ovviamente un elenco non esaustivo. Anche altre due personalità dello spettacolo come l’attore Paolo Rossi, (diplomato perito chimico), il cantante Alex Baroni hanno affrontato lo studio della chimica.

Se si riesce a capirne la bellezza, se si è curiosi e attenti la chimica può dare davvero molto. Anche se questi personaggi sono diventati famosi svolgendo altre attività, il richiamo di questa disciplina li ha sicuramente incuriositi. E credo anche in qualche modo aiutati nello svolgere le loro nuove attività in maniera positiva.

Alimentazione per fotosintesi di un microprocessore

In evidenza

Rinaldo Cervellati

Un microprocessore è un componente fondamentale dei computer, in cui la logica e il controllo dell’elaborazione dei dati sono inclusi in un singolo circuito integrato o in un loro piccolo numero. Il microprocessore contiene i circuiti aritmetici, logici e di controllo necessari per eseguire le funzioni dell’unità di elaborazione centrale (CPU) di un computer. Il circuito integrato è in grado di interpretare ed eseguire istruzioni di programma ed eseguire operazioni aritmetiche. Il microprocessore è costituito da un circuito integrato digitale multiuso, che accetta dati binari come input, li elabora secondo le istruzioni contenute nella sua memoria e fornisce risultati (anche in forma binaria) come output. I microprocessori contengono sia la logica combinatoria che la logica digitale sequenziale e operano su numeri e simboli rappresentati nel sistema numerico binario.

Secondo una nuova ricerca, i microprocessori possono essere alimentati utilizzando microrganismi fotosintetici alla luce ambientale senza la necessità di una fonte di alimentazione esterna.

Il gruppo internazionale di ricercatori inglesi, italiani e norvegesi, coordinati da Christopher Howe dell’Università di Cambridge (UK), ha introdotto i cianobatteri Synechocystis sp. PCC6803, in una batteria alluminio-aria per creare un dispositivo biofotovoltaico. Il dispositivo ha dimensioni simili a una batteria AA, è realizzato con materiali durevoli e molto riciclabili e non richiede una fonte di luce dedicata per funzionare. È il primo sistema bioelettrochimico segnalato in grado di alimentare continuamente un microprocessore al di fuori delle condizioni controllate di laboratorio [1].

Figura 1. Il sistema testato su un davanzale a Cambridge (UK). Credit: Christopher Howe (UC)

Commenta Paolo Bombelli, angloitaliano, uno dei ricercatori dell’Università di Cambridge: “Abbiamo deciso che non volevamo far funzionare il sistema con una fonte di energia dedicata. Avevamo bisogno di dimostrare che possiamo operare in condizioni di luce ambientale e siamo stati in grado di farlo”.

Il gruppo ha testato la stabilità e la biocompatibilità del substrato di alluminio e ha dimostrato che il sistema può alimentare continuamente un processore Arm Cortex-M0+[2] per sei mesi in diverse condizioni ambientali, entro l’intervallo di temperatura 13,8–30,7°C. Il processore ha eseguito 1,23 ×1011 cicli di 45 minuti di calcolo seguiti da un periodo di standby di 15 minuti. Alimentato interamente dalla cella biofotovoltaica, il processore assorbe una corrente media di 1,4μA con una tensione di 0,72V. Il sistema ha smesso di funzionare solo quando è stato utilizzato un impacco di ghiaccio per abbassare la temperatura a 5°C.

Il gruppo ha lasciato intenzionalmente aperto il sistema biofotovoltaico. Una volta stabilito il sistema, le specie Halomonas e Pseudomonas erano cresciute insieme alla specie iniziale Synechocystis, un battèrio di acqua dolce. Spiega Bombelli: “Abbiamo deliberatamente mantenuto il sistema in condizioni non sterili. Consentendo ai contaminanti di entrare nel sistema, permettiamo l’evoluzione di un bioma. Siamo stati molto lieti di scoprire questo complesso e intricato mix di colture che lavorano insieme, che è uno degli elementi chiave del buon funzionamento del sistema. Queste colture miste danno un bioma stabile e duraturo, ma aiutano anche il processo di trasporto degli elettroni”.

I ricercatori ipotizzano che il sistema biofotovoltaico operi sia in modalità elettrochimica che bioelettrochimica. Nella modalità elettrochimica, i microrganismi forniscono un ambiente favorevole per l’ossidazione elettrochimica dell’alluminio, che emette elettroni. Nella modalità bioelettrochimica, gli elettroni vengono trasferiti direttamente dai batteri, ad esempio dalla membrana cellulare esterna, e trasportati all’alluminio (fig. 2).

Figura 2. Meccanismi proposti per il trasporto degli elettroni all’interno del mix idrossido di alluminio e matrice extracellulare. Credit: Paolo Bombelli (UC)

Marin Sawa, esperta di bioelettronica basata sulla fotosintesi (Università di Newcastle, UK), afferma: “Il dispositivo biofotovoltaico riportato mostra la natura imprevedibile della biologia ma anche il suo lato adattabile e resiliente. L’alimentazione continua senza reintegrare il bioanodo per un massimo di sei mesi è notevole. Sembra essere molto più robusto e adattabile di quanto immaginassi per generare bioelettricità”.

Le applicazioni del sistema potrebbero includere l’alimentazione di piccoli dispositivi elettronici. Esiste un potenziale significativo per l’utilizzo della tecnologia in località remote in cui l’elettricità di rete non è un’opzione e dove l’utilizzo di batterie che richiedono la sostituzione regolare è scomodo.

Kevin Redding, un esperto di conversione di energia fotosintetica dell’Arizona State University (USA), è colpito dalla stabilità del sistema: “Questo studio serve come prova incoraggiante del concetto che una cellula microbica può utilizzare la fotosintesi per la produzione di energia a lungo termine sufficiente per alimentare una CPU. Ciò potrebbe convincere l’industria a prendere questa tecnologia abbastanza seriamente da investire il tempo e le risorse necessarie per trasformarla in una tecnologia utile. L’abbinamento di tali dispositivi di alimentazione con piccole CPU potrebbe spronare i produttori di chip a sviluppare nuovi chip efficienti dal punto di vista energetico progettati per funzionare con le celle biofotovotaiche in futuro”.

Nota. Questo post è stato scritto il 12 maggio. La notizia è stata poi riportata dal quotidiano La Repubblica il 28 maggio nella pagina Green and Blue: https://www.repubblica.it/green-and-blue/2022/05/27/news/batteria_alghe_energia-351167578/?ref=RHVS-VS-I271182744-P3-S3-T1&__vfz=medium%3Dsharebar

Bibliografia

[1] P. Bombelli et al., Powering a microprocessor by photosynthesis., Energy Environ. Sci., 2022, DOI: 10.1039/d2ee00233g


[1] Tradotto e adattato da: Ellis Wilde, Photosynthesis used to power a microprocessor for over six months, Chemistry World, 12 May 2022

[2] ARM Cortex è una famiglia di microprocessori della società High Tech ARM Holdings. Anche ricercatori della Arm Ltd. di Cambridge hanno partecipato alla ricerca.

Pitagora e la farmacogenomica.

In evidenza

Claudio Della Volpe

Il “non mangiare le fave” era un comandamento astruso del catechismo pitagorico. Perché Pitagora era contrario alle fave, tanto che si racconta che si lasciò uccidere pur di non attraversarne un campo?

Potrebbe essere che soffrisse di favismo, una malattia genetica che comporta una anemia, ma che, superata la crisi emolitica, comporta nelle forme croniche, recidivanti una nutrita serie di sintomi spiacevolissimi (facile stancabilità, dispnea da sforzo, palpitazioni tachicardia, ronzii auricolari, vertigini, insonnia). Insomma una malattia seria di cui si può tranquillamente morire e che interessa solo nel nostro paese 400mila persone.

Solo nel 1950 il favismo fu attribuito alla deficienza di un importante enzima, la glucosio-6-fosfato deidrogenasi (G6PH), illustrato qui di seguito. L’enzima ha una serie di ruoli importantissimi nel nostro metabolismo cosicché la sua deficienza o la sua relativa efficienza può generare disturbi molto importanti.

Per approfondire il legame fra il favismo e la deficienza di G6PH potete leggere questo articolo di due ricercatori italiani.

I difetti genetici che hanno come conseguenza la mancanza o la scarsa efficienza di enzimi hanno un peso in tutte le reazioni biologiche, comprese quelle che metabolizzano i farmaci.

La farmacogenomica è lo studio del ruolo del genoma nella risposta ai farmaci. Il suo nome (farmaco + genomica) riflette la sua combinazione di farmacologia e genomica. La farmacogenomica analizza come il corredo genetico di un individuo influisce sulla sua risposta ai farmaci. Si occupa dell’influenza della variazione genetica acquisita ed ereditaria sulla risposta al farmaco nei pazienti correlando l’espressione genica o i polimorfismi a singolo nucleotide (ossia le modifiche dell’enzima conseguenti a singoli errori del DNA) con la farmacocinetica (assorbimento, distribuzione, metabolismo ed eliminazione del farmaco) e la farmacodinamica (effetti mediati attraverso i bersagli biologici di un farmaco).

Il termine farmacogenomica è spesso usato in modo intercambiabile con la farmacogenetica. Sebbene entrambi i termini si riferiscano alla risposta ai farmaci basata su influenze genetiche, la farmacogenetica si concentra sulle interazioni singolo farmaco-gene, mentre la farmacogenomica comprende un approccio di associazione più ampio a livello di genoma, incorporando genomica ed epigenetica (caratteri non legati direttamente al DNA ma alla sua espressione e mediati per esempio da modifiche ambientali sul DNA (metilazione) che impediscono la sua espressione tramite i meccanismi che coinvolgono gli istoni, le molecole che impacchettano e spacchettano il DNA) mentre si occupa degli effetti di più geni sulla risposta ai farmaci.

Il tipico approccio della medicina anche moderna è espressa dall’inglese “one-dose-fits-all” ossia le medicine e le loro posologie vanno bene a tutti uomini e donne e qualunque sia la loro capacità metabolica o la loro espressione genica, al massimo si considera il peso e dunque la loro “diluizione” corporea. Ma le cose sono più complicate.

E lo sono perché i geni incidono sull’efficacia dei farmaci che prendiamo, anche i più comuni.

Per esempio nell’8% della popolazione britannica è inefficace l’analgesico oppioide codeina per l’assenza dell’enzima che la metabolizza e la converte in morfina.

Finora gli scienziati hanno individuato circa centoventi coppie di farmaci e geni collegati al loro metabolismo. Secondo Henk-Jan Guchelaar, farmacologo dell’università di Leida, nei Paesi Bassi, in circa metà dei casi è possibile intervenire modificando la dose o sostituendo il farmaco per ottenere risultati migliori. Munir Pirmohamed, farmacologo e genetista dell’università di Liverpool, dice che i britannici con più di settant’anni hanno il 70 per cento di probabilità di assumere almeno un farmaco la cui sicurezza o efficacia è compromessa dai geni.

Tuttavia al momento non vi sono molti metodi diffusi per gestire l’incompatibilità tra farmaci e geni a parte un rischioso meccanismo di tentativo-errore, ossia provare e vedere cosa succede, una cosa che funziona bene in molti casi pratici ma è potenzialmente suscettibile di effetti devastanti.

Nel caso di malattie croniche e dunque di farmaci prescritti per il controllo della pressione o del colesterolo o del glucosio, mentre il medico sperimenta cercando il farmaco giusto possono verificarsi effetti della malattia come ictus, infarti o altri gravi danni agli organi.

Questo è importante non solo per il singolo paziente ma anche per la società nel suo complesso dati i costi enormi dell’assistenza per questi effetti indesiderati.

Rappresentazione della taurochenodeossicolato 6alfa-idrossilasi, o CYP3A4, uno degli enzimi maggiormente coinvolti nella degradazione dei farmaci

Tra le proteine in grado di interferire con il metabolismo dei farmaci vi sono sicuramente gli enzimi appartenenti alla famiglia del citocromo P450 (CYP), una famiglia che comprende 18 famiglie, 44 sottofamiglie e 57 geni, i quali rientrano nella stessa categoria a causa della similarità che accomuna le varie sequenze amminoacidiche. Questo enzima è presente in tutti i domini dei viventi (infatti sono note più di 7.700 distinte macromolecole di tipo CYP), appartiene alla sottoclasse enzimatica delle ossidasi a funzione mista (o monoossigenasi).

I citocromi P450 sono i maggiori attori coinvolti nella detossificazione dell’organismo, essendo in grado di agire su un gran numero di differenti substrati, sia esogeni (farmaci e tossine di origine esterna) sia endogeni (prodotti di scarto dell’organismo). Spesso prendono parte a complessi con funzione di catena di trasporto di elettroni, noti come sistemi contenenti P450.

Le reazioni catalizzate dalle isoforme del citocromo P450 sono svariate. La più comune è una classica reazione da monossigenasi: il trasferimento di un atomo di ossigeno dall’ossigeno molecolare a un substrato organico, con riduzione del secondo atomo di ossigeno ad acqua:

RH + O2 + 2H+ + 2e → ROH + H2O

Le proteine enzimatiche appartenenti a questa categoria sono i principali responsabili della metabolizzazione farmacologica. Farmaci utilizzati per il trattamento di un’ampia varietà di condizioni patologiche, compresi depressione e altri sintomi psichiatrici, nausea, vomito, cinetosi e malattie cardiache, vengono degradati da queste proteine, e così anche componenti della famiglia degli oppiacei come la morfina e la codeina.

Debrisochina, un farmaco antipertensivo, usabile anche per stabilire la presenza di difetti genetici nel gene CYP2D6.

In particolare, il gene CYP2D6 è correlato al 25-30% dei farmaci assunti. Il gene CYP2D6 codifica per un polipeptide noto come debrisochina idrossilasi, in grado di inattivare tramite idrossilazione il ruolo anti-ipertensivo della debrisochina in soggetti sensibili. CYP2D6 mostra la più grande variabilità fenotipica tra i CYP. Infatti, esistono più di 70 alleli noti di CYP2D6 e a seconda del genotipo possono originarsi (un allele è ciascuna delle sequenze alternative di un gene o di altra sequenza di DNA):

  • metabolizzatori scarsi; deficit di debrisochina idrossilasi.
  • metabolizzatori intermedi; un allele nullo e un allele che codifica una versione difettosa della debrisochina idrossilasi.
  • metabolizzatori completi; un allele pienamente funzionante
  • metabolizzatori ultrarapidi; un numero di copie del gene superiore al normale, come risultato di eventi di duplicazione genica.

Il fenotipo CYP2D6 di un paziente è spesso determinato clinicamente tramite la somministrazione di debrisochina e la successiva analisi della concentrazione plasmatica del metabolita (4-idrossidebrisochina) (il fenotipo corrisponde alla espressione concreta del genotipo, ossia del gene, del DNA, in questo caso alla proteina coinvolta). Il profilo metabolico di un paziente è di importanza cruciale nel determinare il dosaggio appropriato. Infatti, un metabolizzatore scarso presenterà un rischio maggiore di effetti collaterali dannosi o di sovradosaggio, perché l’organismo eliminerà il farmaco in maniera inefficiente, mentre un metabolizzatore ultrarapido avrà probabilmente bisogno di una dose maggiore per ottenere un effetto benefico, a causa della sua aumentata capacità di modificarlo e rimuoverlo.

Un altro esempio di farmacogenomica applicata è evidente nella terapia farmacologica contro HIV, il virus dell’immunodeficienza umana. Un gruppo di ricercatori italiani (https://cattolicanews.it/news-dalle-sedi-giuliodori-dio-ci-chiede-di-non-rimanere-immobili/news-dalle-sedi-hiv-un-test-anti-reazioni-da-abacavir) ha messo a punto un test del DNA che rileva la predisposizione ad una reazione tossica all’uso dell’Abacavir, un importante farmaco antiretrovirale somministrato, insieme ad altri farmaci, durante il trattamento terapeutico contro HIV.

Solitamente l’Abacavir è ben tollerato dalla maggior parte dei pazienti; tuttavia esiste una piccola percentuale di soggetti (5-8%) che, nelle prime sei settimane di trattamento, risulta ipersensibile al farmaco. Essendo questa reazione di ipersensibilità molto pericolosa per la salute, coloro che tendono a svilupparla non potranno assolutamente essere trattati con questo tipo di farmaco. Ad oggi, infatti, la prescrizione dell’Abacavir è consentita solo a quei pazienti che, dopo il test, non risultino soggetti a rischio; da qui l’enorme vantaggio di avere a disposizione un esame che fornisca risposte in tempi brevi (il test in questione sfrutta la real time PCR) e che sia facilmente accessibile da tutti i pazienti. Lo stesso principio è applicato nel trattamento terapeutico contro il cancro; qui i test di farmacogenomica vengono impiegati per identificare quali pazienti risulteranno ipersensibili oppure non risponderanno affatto a farmaci antitumorali comunemente usati nella pratica clinica.

Purtroppo queste ricerche sono solo all’inizio e la farmacogenomica legata a comuni farmaci come l’aspirina poniamo non è ancora ben conosciuta; c’è spazio per molte ricerche di base su questo tema per una medicina di precisione a partire dal ruolo delle modifiche genetiche presenti in maggiore o minore percentuale nelle varie etnie del mondo e fra uomini e donne.

Una lista aggiornata dei farmacogeni, ossia dei geni associati al metabolismo di un certo farmaco è qui. La lista è gestita dalla FDA.

NdA. Alcune parti del testo sono estratte dalle voci corrispondenti di Wikipedia, l’enciclopedia libera.

Ho comunque introdotto alcune definizioni dei termini meno comuni.

La sofferenza del chimico.

In evidenza

Luigi Campanella, già Presidente SCI

Da chimico soffro un po’ quando sento parlare di motore elettrico alternativo a quello ad idrogeno, soffro perché si tratta di due motori, elettrici entrambi, essendo diverso solo il serbatoio sostituito in un caso da batterie e in un altro da idrogeno gassoso. E’ questo che poi con una reazione elettrochimica con l’ossigeno dell’aria produce energia ed acqua: questo avviene nelle celle a combustibile.

La differenza quindi tra i due modelli non è nel tipo di motore, elettrico per entrambi, ma nel tipo di alimentazione. Ed allora può sorgere spontanea la domanda: quale delle 2 soluzioni è la migliore? In effetti come sempre nelle due facce di un problema ci sono per entrambe vantaggi e svantaggi. Oggi il mercato è decisamente orientato verso le batterie, ma non credo si possano escludere variazioni nei prossimi 10 anni, quando i vantaggi di una potrebbero divenire svantaggi e tutto l’opposto per l’altra. L’autonomia viene considerata confrontabile, la ricarica è ovviamente a favore dell’idrogeno con semplicità e tempi ridotti: questi sono gli stessi delle macchine a benzina, mentre malgrado i progressi negli accumulatori la ricarica delle batterie richiede circa 10 volte più tempo, addirittura molte ore se ci si serve della rete di casa. Il grande vantaggio del sistema a batterie sta nella difficoltà e negli alti costi per realizzare gli impianti a ricarica di idrogeno: l’elemento va stoccato a 700 atmosfere cosa difficile da fare tanto che in Italia c’è un solo distributore a Bolzano.

Il risultato è che benché macchine ad idrogeno già esistano, da noi non possono essere utilizzate perché non c’è modo di rifornirle. Stanno meglio altri Paesi Europei come Francia e Germania, ma più di tutti hanno scommesso su questi modelli giapponesi e coreani.

https://leganerd.com/2017/06/28/auto-elettriche-vs-auto-idrogeno/

Superato questo gap l’idrogeno potrebbe avere un vantaggio sul piano ambientale: non certo per le emissioni che sono a zero in tutti e due i casi, ma nella produzione e smaltimento in quanto gli accumulatori sono costosi e utilizzano materiali non tutti ecofriendly. Forse nella stessa logica di vantaggi e svantaggi alternativi nel tempo richiesto dall’idrogeno per installare la sua rete, le batterie aumenteranno la loro densità energetica, diverranno meno ingombranti, meno pesanti e meno costose. Il mercato ci dirà quale soluzione sarà più convincente per i cittadini. Oggi già si intravedono orientamenti di scelta: l’idrogeno è più adatto per i veicoli pesanti, le batterie per le vetture che offrono meno spazio disponibile.

Un’altra alternativa è rappresentata dalle hybrid con motore termico ed elettrico e quindi alimentazione a batterie ed idrocarburi. Rappresentano il top innovativo già in uso e rispondono ad una esigenza al tempo stesso ambientale e di resistenza ai cambiamenti bruschi.  Si tratta di una mediazione che riduce l’impatto ambientale ma non lo annulla:  le emissioni di CO2 e di altri gas è solo ridotta.

In effetti ci sono varie forme di ibridizzazione con costi e risultati molto diversi.La guidabilita e l’uso più conveniente sono legati alla velocità ed alle condizioni e caratteristiche della strada.Ci sono ibridi che non hanno alcun collegamento tra il propulsore elettrico e la trasmissione.La parte ibrida sta nello stoccaggio dell’energia poi utilizzata solo dal propulsore elettrico. C’e poi un altro ibrido: idrogeno e batteria su cui si accentuano le attenzioni scientifiche delle case automobilistiche. Sarà la soluzione? Difficile dirlo, ma da chimico mi permetto di trasferire a questo settore quanto vale in qualsiasi processo: quando si può arrivare con una sola reazione la semplicità diventa un elemento di preferenza, la doppia soluzione è sempre elemento di complessità.

Almanacco della Scienza CNR dedicato ai rifiuti.

In evidenza

Rinaldo Psaro*

Cari colleghi, vi segnalo che al tema dei rifiuti è dedicato l’Almanacco della Scienza, il magazine dell’Ufficio Stampa del Cnr on line da oggi.

A svilupparlo, come sempre, sono ricercatrici e ricercatori del Consiglio nazionale delle ricerche, chiamati ad indagare i rischi ma anche le opportunità legati al rifiuto, le innovazioni disponibili al riguardo e le molte significazioni di questo termine.

Nel Focus , i danni ambientali determinati dalla pandemia, in seguito all’uso massiccio di dispositivi quali mascherine e guanti monouso che si sono aggiunti alla spazzatura tradizionale, e dalla moda usa e getta o fast fashion: ne parlano rispettivamente Matteo Guidotti dell’Istituto di scienze e tecnologie chimiche e Giampaolo Vitali dell’Istituto di ricerca sulla crescita economica sostenibile. C’è poi sempre il problema della plastica, specialmente micro‐ e nano‐, per la salute (ne parlano Sandra Baldacci, Amalia Gastaldelli e Sara Maio dell’Istituto di fisiologiaclinica), per le spiagge e i mari ( Marco Faimali, Chiara Gambardella e Francesca Garaventa dell’Istituto per lo studio degli impatti antropici e sostenibilità in ambiente marino), tema trattato anche nel video interno all’articolo da SilviaMerlino dell’Istituto di scienze marine e da Marco Paterni dell’Istituto di fisiologia clinica.

Ma le nuove soluzioni non mancano.

Serena Doni dell’Istituto di ricerca sugli ecosistemi terrestri, Carmelo Drago dell’Istituto di chimica biomolecolare e Matteo Panizza dell’Istituto di chimica della materia condensata e di tecnologia per l’energia ricordano rispettivamente l’utilizzo di rifiuti organici come fertilizzanti, il ricorso agli oli di frittura esausti per ottenere biocarburanti e il riuso dei resti delle demolizioni come materiale da costruzione. Ci sono poi gli aspetti legati alla salute Anna Lo Bue dell’Istituto di farmacologia traslazionale parla della disposofobia, un disturbo che impedisce di disfarsi dei propri oggetti, indipendentemente dal loro valore.

Il medico Roberto Volpe dell’Unità prevenzione e protezione, nella nuova rubrica Salute a tavola, illustra i rischi del cibo spazzatura o junk food.

Sul tema è essenziale il ruolo dei media. Protagonista del Faccia a faccia è Licia Colò, la nota conduttrice di programmi ambientali. Mario Tozzi, divulgatore e ricercatore dell’Istituto di geologia ambientale e geoingegneria, in Cinescienza commenta il film d’animazione Wall‐e.

Ma essenziale resta l’impegno civico: in Altra ricerca si ricordano le giornate di volontariato ambientale organizzate da Unicoop Firenze con Legambiente e l’evento promosso dalla campagna nazionale A buon rendere dell’associazione Comuni virtuosi.

Le Recensioni , infine, propongono lo spettacolo teatrale Muttura, incentrato sull’interramento illecito di rifiuti in Salento. E i volumi L’era degli scarti, che il ricercatore Marco Armiero dedica al wasteocene, di cui parla anche in un video, e il Plasticene del biologo Nicola Nurra, collaboratore dell’Istituto di scienze marine del Cnr: gli autori ricorrono a due neologismi ispirati all’antropocene per definire l’era contemporanea, in cui il Pianeta è invaso dagli scarti prodotti dagli esseri umani.

*Rinaldo Psaro è Direttore dell’Istituto CNR per le scienze e le tecnologie molecolari; autore di oltre 160 pubblicazioni e vari brevetti nel campo della chimica organometallica delle superfici, della caratterizzazione dei catalizzatori  e della catalisi eterogenea.

Tensioattivi “biologici” in cosmetica e cura della persona

In evidenza

(In base al testo di C. Bettenhausen, Switching to sustainable surfactants., C&EN, May 1, 2022)

Rinaldo Cervellati

Mentre la maggior parte delle industrie punta a zero emissioni entro il 2050, i marchi di prodotti di consumo che producono sapone, shampoo, lozioni e cosmetici fissano i loro obiettivi di sostenibilità al 2030. Questi obiettivi vanno anche oltre alle sole emissioni di anidride carbonica.

Infatti, quando le persone acquistano prodotti per la cura della persona, cercano anche biodegradabilità, basso impatto ambientale e un approvvigionamento sostenibile ed etico.

I tensioattivi sono un ingrediente primario per rendere i prodotti più efficienti. Queste molecole svolgono un ruolo centrale in tutti i tipi di prodotti per la cura della persona, avendo il potere di rimuovere lo sporco e il grasso contenuti nei cosmetici per viso e corpo. Molti tensioattivi aiutano anche a idratare e levigare la pelle e i capelli.

Neil Burns, amministratore delegato di un’azienda produttrice di cosmetici, dice: “È un buon momento per vendere nuovi ingredienti, i marchi per la cura della persona sono più ricettivi di quanto lo fossero un tempo. Grandi nomi aziendali si impegnano per obiettivi piuttosto ambiziosi in materia di sostenibilità. Data la portata degli impegni e data la lista odierna di materie prime prontamente disponibili, hanno bisogno di ingredienti nuovi”.

Ma quali sono le loro opzioni per questi ingredienti e quali sono le migliori per il pianeta? Mentre le aziende produttrici cercano di sostituire i tensioattivi sintetici con alternative più ecologiche e a basse emissioni di carbonio, sono tre le categorie principali tra cui scegliere: biotensioattivi microbici, tensioattivi intrinsecamente biobased[1] e versioni biobased dei tensioattivi convenzionali. Le decisioni che verranno prese potrebbero avere un impatto duraturo sul nostro ambiente.

Biotensioattivi Microbici

Chimicamente parlando, i tensioattivi sono molecole che hanno sezioni sia idrofile che idrofobiche. Il tradizionale sapone ha una testa di acido carbossilico attratta dall’acqua e una lunga coda di idrocarburi attratta dai grassi. Molte altre molecole naturali, sintetiche e semisintetiche possono avere lo stesso effetto con diverse combinazioni di motivi molecolari polari e apolari.

Il termine biotensioattivo si riferisce ai glicolipidi prodotti da alcuni microrganismi. La testa idrosolubile è un gruppo zuccherino e la coda idrosolubile è una lunga catena di idrocarburi per lo più satura. In natura, i microbi utilizzano i glicolipidi per il rilevamento di adesione, lubrificazione e competizione con altri microrganismi.

I due biotensioattivi commercialmente più avanzati sono i ramnolipidi e i soforolipidi, che presentano rispettivamente ramnosio e soforosio nelle loro teste zuccherine (fig.1 e 2). All’interno di ciascuna di queste famiglie, le variazioni strutturali possono alterare le proprietà del tensioattivo.

Figura 1. Struttura di un soforolipide. Classe: Biotensioattivo; Concentrazione tipica in uno shampoo: 0,5–10%; Quantità di schiuma: bassa; Mitezza: molto lieve; Applicazione comune: struccanti in acqua micellare.

La coda idrocarburica dei soforolipidi, ad esempio, può fluttuare liberamente e terminare in un acido carbossilico (fig. 1) o avvolgersi e attaccarsi alla testa dello zucchero, creando un anello di lattone. I biotensioattivi non sono nuovi; i riferimenti nella letteratura chimica risalgono agli anni ’50, tuttavia di recente sono disponibili per il mercato commerciale.

L’indicatore più forte dell’interesse per i biotensioattivi è il ritmo con il quale vengono presi gli accordi. Pochi giorni prima di In-cosmetics Global, la fiera degli ingredienti per la cura della persona tenutasi a Parigi, Holiferm ha firmato un accordo con l’azienda chimica Sasol, che acquisterà la maggior parte dei soforolipidi prodotti nel Regno Unito.

La BASF, concorrente di Sasol, ha pure un accordo con Holiferm e una partecipazione nel produttore giapponese di soforolipide Allied Carbon Solutions.

All’inizio di quest’anno, l’industria specialista della fermentazione dei tensioattivi Locus Performance Ingredients, ha firmato un accordo simile per la fornitura alla ditta Dow di soforolipidi per i mercati della cura della casa e della persona.

E a gennaio, Evonik Industries ha annunciato l’intenzione di costruire un impianto di ramnolipidi in Slovacchia.

Figura 2. Struttura di un ramnolipide. Classe: Biotensioattivo; Concentrazione tipica in uno shampoo: 2–10%; Quantità di schiuma: alta; Mitezza: molto lieve. Applicazione: Detergenti

Holiferm utilizza un ceppo di lievito isolato dal miele, che consuma zucchero e olio di girasole per produrre il tensioattivo bersaglio. Clarke afferma che il processo semicontinuo dell’azienda, che estrae i soforolipidi durante cicli di fermentazione lunghi settimane, la distingue da quelle che utilizzano metodi di produzione in batch.

Oltre ad essere a base biologica, i biotensioattivi hanno un impatto ecologico inferiore rispetto ai tensioattivi convenzionali come il sodio lauriletere solfato (SLES) (fig. 3).

Figura 3. Struttura di sodio lauriletere solfato. Classe: Tensioattivo semisintetico; Concentrazione tipica in uno shampoo: 40%; Quantità di schiuma: alta; Mitezza: Moderata; Applicazione: detergenti

Secondo Dan Derr, un esperto di bioprocessi che ha contribuito a sviluppare la tecnologia dei ramnolipidi, il vantaggio ecologico deriva principalmente dalle condizioni di fermentazione, che viene effettuata a temperatura e pressione ambiente.

Infatti, lo SLES è solitamente prodotto facendo reagire gli alcoli grassi derivati ​​dall’olio di palma con l’ossido di etilene e il triossido di zolfo. Questi passaggi consumano molta energia perché si svolgono a temperature e pressioni elevate. E sebbene la componente grassa sia a base biologica, l’olio di palma è molto preoccupante per la sostenibilità, inclusa la deforestazione necessaria per costruire fattorie di palme e le emissioni di gas serra dalla rimanente materia vegetale legnosa.

I biotensioattivi sono anche più potenti rispetto allo SLES e alla maggior parte delle altre opzioni, rendendo possibile un minor utilizzo in una formulazione finale.

Intrinsecamente biobased

Altri tensioattivi a base biologica, prodotti modificando chimicamente e combinando molecole estratte dalle piante, sono disponibili da anni ma ora stanno riscuotendo un crescente interesse.

La classe più popolare in questa categoria sono gli alchil poliglucosidi o APG (fig. 4).

Figura 4. Struttura di un alchil poliglucoside. Classe: sintetico; Concentrazione in uno shampoo: 15–25%; Quantità di schiuma: moderata; Mitezza: irritante; Applicazioni: creme e gel.

Chimicamente simili ai glicolipidi microbici, gli APG sono prodotti combinando glucosio o altri zuccheri con alcoli grassi derivati ​​da oli vegetali. La reazione è guidata da catalizzatori inorganici o enzimi. Come i biotensioattivi, gli APG sono più delicati e generalmente hanno un impatto di CO2 inferiore rispetto ai tensioattivi convenzionali, però costano fino a tre volte gli SLES e non sono molto schiumogeni. La formazione di schiuma non migliora molto l’efficacia dei detergenti, ma le persone vedono le bolle schiumose come un segno di efficacia.

Sebbene non siano così popolari come lo SLES e i relativi ingredienti etossilati, gli APG sono già diffusi.

Marcelo Lu, vicepresidente senior di BASF per i prodotti chimici per la cura in Nord America, afferma che per fornire tensioattivi biobased a basso contenuto di CO2 nella quantità necessaria per le ambizioni ecologiche delle aziende globali, gli APG sono i più adatti.

Convenzionali, ma biobased

Anche con l’aiuto dei fornitori, la riformulazione degli ingredienti non è banale; per un’azienda è costoso e rischioso cambiare una linea di prodotti che già funziona. Evitare la riformulazione è la proposta che alcune grandi aziende chimiche stanno portando avanti con le versioni biobased dei tensioattivi convenzionali.

Soprattutto nella cura della persona, molti tensioattivi, come lo SLES, sono già parzialmente biobased. Circa la metà degli atomi di carbonio in un tensioattivo a base di olio vegetale etossilato ha origini da biomassa.

Due produttori chimici, Croda International e Clariant, hanno apportato una modifica che ha consentito loro di arrivare al 100% di biobased. Essi stanno ricavando ossido di etilene dalle piante invece che dalle risorse fossili. La chimica utilizzata da entrambi è stata sviluppata principalmente dalla società di ingegneria Scientific Design (New Jersey, USA). Il processo inizia disidratando l’etanolo di origine vegetale in etilene. Le fasi successive dell’ossidazione dell’etilene in ossido di etilene, cioè la sintesi di tensioattivi etossilati, sono le stesse del percorso sintetico, sebbene Scientific Design offra sistemi che integrano tutte e tre le fasi.

Sebbene i consumatori apprezzino le etichette di tali prodotti a base biologica, per i sostenitori dell’ambiente, essere derivati ​​​​dalle piante non è un obiettivo centrale come lo era prima. Gran parte del discorso sulla sostenibilità nell’industria chimica oggi riguarda le emissioni di carbonio e i danni della CO2 e dell’ossido di etilene a base biologica non vengono eliminati.

David Schwalje, responsabile dello sviluppo dei mercati per l’azienda di ingegneria chimica e dei combustibili Axens, afferma che la provenienza della materia prima per l’etanolo fa la differenza quando si tratta di misurare l’intensità di CO2 dei prodotti risultanti. L’ossido di etilene ottenuto da alcol di mais o canna da zucchero coltivato in modo convenzionale, spesso chiamato etanolo di prima generazione, non è affidabile dal punto di vista delle emissioni rispetto all’ossido di etilene prodotto dal petrolio.

Uno sguardo ad alcuni numeri pubblicamente disponibili mostra quanto può variare l’emissione di CO2 per il composto. Le emissioni di carbonio della coltivazione del mais necessarie per produrre un chilogrammo di ossido di etilene a base biologica, anche dalla produzione di fertilizzanti, carburante per trattori e altre fonti di emissioni, erano comprese tra 0,8 e 2,8 kg di CO2, secondo i calcoli basati sulle stime di Argonne National Laboratory e University of Minnesota [1,2], tenendo conto dei numeri sulla produzione di ossido di etilene, il percorso biobased offre una riduzione dell’86% a un aumento del 46% delle emissioni di CO2 rispetto al percorso petrolchimico.

Tuttavia, afferma Schwalje, l’etanolo di seconda generazione ottenuto da rifiuti o cellulosa coltivata in modo sostenibile in cui le apparecchiature di fermentazione e distillazione utilizzano la cattura del carbonio può essere fortemente carbonio-negativo e portare quel vantaggio di CO2 a valle dei prodotti che ne derivano.

Sia Croda che Clariant stanno usando etanolo di prima generazione, almeno per ora. Croda produce i suoi prodotti Eco da etanolo a base di mais in un impianto alimentato da metano catturato da una discarica vicina, riducendo l’impatto di carbonio degli ingredienti prodotti.

L’impianto di Clariant a base di canna da zucchero e mais si trova a Uttarakhand (India), parte di una joint venture con India Glycols. Fabio Caravieri, responsabile del marketing di Clariant, afferma che il solo uso di ossido di etilene a base biologica non renderà uno shampoo o un bagnoschiuma negativo al carbonio, ma offre un miglioramento. Clariant afferma che grazie alla materia prima e alle attrezzature specifiche dello stabilimento in India, un produttore può rivendicare una riduzione dell’impatto del carbonio fino a 2 kg di CO2 per ogni kg di tensioattivo. E l’azienda Clariant è in grado di fare di più. Essa gestisce uno degli unici impianti di etanolo di seconda generazione al mondo, una struttura da 50.000 tonnellate all’anno, in Romania, che ha iniziato a produrre etanolo dalla paglia nel 2021. L’etanolo cellulosico potrebbe diventare una materia prima per i prodotti cura della persona in futuro, se una tale combinazione sarà redditizia una volta che l’azienda avrà acquisito più esperienza.

La via del bilancio di massa

Altre importanti aziende chimiche stanno soddisfacendo la domanda di contenuto di carbonio rinnovabile attraverso un approccio noto come bilancio di massa. Come per gli etossilati a base di etanolo, i tensioattivi ottenuti con questo metodo sono chimicamente identici a quelli già presenti sul mercato. Ma l’approccio del bilancio di massa introduce la biomassa più a monte. Viene miscelata con materie prime di carbonio fossile come la nafta o il gas naturale poiché queste sostanze vengono immesse nei cracker che producono l’etilene e altre sostanze chimiche costitutive.

I metodi di contabilizzazione del bilancio di massa variano, ma l’idea di base è che un operatore ottenga crediti per ogni atomo di carbonio a base biologica immesso nel suo cracker. Può assegnare quei crediti a una parte della produzione dell’impianto contenente lo stesso numero di atomi di carbonio. I clienti che vogliono acquistare dalla parte biobased pagano la tariffa di mercato per la chimica convenzionale più un supplemento per la biomassa, o carbonio rinnovabile.

Nonostante i vantaggi logistici del bilancio di massa, l’approccio non convince tutti gli utenti finali. Le abbreviazioni di certificazione di bilancio di massa come ISCC e REDcert non significano molto per il consumatore. E anche se la contabilità del bilancio di massa è legittima, le emissioni di carbonio nel prodotto finale sono un mix di origine vegetale e fossile, e questo non è ciò che molti acquirenti vogliono.

Ivo Grgic, Global Purchase Category Manager di Henkel per i tensioattivi, riconosce queste preoccupazioni, ma afferma che il bilancio di massa è il passo successivo più veloce che l’azienda può compiere per rendere i suoi prodotti più sostenibili.

Sostiene Grgic: “Siamo un’azienda che produce enormi volumi. Dal nostro punto di vista, dobbiamo avere un impatto e abbiamo deciso che l’equilibrio della biomassa è l’approccio con cui possiamo sostituire il carbonio fossile su larga scala nel modo più veloce. Altre tecnologie, come la cattura della CO2 e i biotensioattivi, seguiranno nei prossimi anni”.

I marchi di prodotti di consumo che cercano di diventare biobased hanno diverse opzioni: nuovi ingredienti come i glicolipidi, uso esteso di ingredienti speciali come gli APG e nuove versioni biobased degli ingredienti a cui sono abituati. Ma le scelte implicano un complesso equilibrio tra sostenibilità, efficacia, disponibilità e, naturalmente, costo. Caravieri afferma che i consumatori ecoconsapevoli sono disposti a tollerare un sovrapprezzo del 25-40%.

La chimica dietro i tensioattivi a base biologica è nota da anni. Il cambiamento verso di loro sta avvenendo ora, perché i consumatori sono più consapevoli di ciò che stanno usando. In numero sempre crescente, vogliono prodotti sostenibili a base biologica.

Aziende come Henkel stanno adottando un approccio completo per soddisfare tale domanda, anche se guardano alla via  per approcci migliori. “I clienti sono alla ricerca della sostenibilità e vogliono provare ad accedervi da tutte le aree possibili”.

Bibliografia

[1] T.M. Smith et al., Subnational mobility and consumption-based environmental accounting of US corn in animal protein and ethanol supply chains., Proc. Natl. Acad. Sci. U.S.A. Sept 5, 2017, DOI: 10.1073/pnas.1703793114.

[2] U. Lee et al., Retrospective analysis of the U.S. corn ethanol industry for 2005–2019: implications for greenhouse gas emission reductions. Biofuels, Bioprducts & Biorefining, 2021, 15, 1318-1331. DOI: 10.1002/bbb.2225.


[1]  Il termine “biobased” è utilizzato per materiali o prodotti che siano interamente o parzialmente derivati da biomassa

In occasione della Giornata della Terra

In evidenza

 Vincenzo Balzani

Cos’è la Terra? Un frammento apparentemente insignificante dell’Universo, formatosi 4,5 miliardi di anni fa dall’aggregazione di materiali provenienti dal Sole, che è una delle centomila miliardi di miliardi (1 seguito da 23 zeri) di stelle dell’Universo. In una famosa fotografia della NASA, scattata dalla sonda spaziale Cassini quando si trovava a una distanza di 1,5 miliardi di chilometri da noi, la Terra appare come un puntino blu-pallido nel buio cosmico. Non c’è evidenza che si trovi in una posizione privilegiata dell’Universo, non ci sono segni che facciano pensare ad una sua particolare importanza. Fotografata da più vicino, la Terra sembra una grande astronave che viaggia senza meta nell’Universo; sappiamo che trasporta più di 8 miliardi di persone.

La terra vista dalla sonda Cassini.

La scienza ha stabilito che 3,5 miliardi di anni fa sulla Terra è emersa quella “entità” misteriosa che chiamiamo “vita”, confinata fra due altri misteri che chiamiamo “nascita” e “morte”. L’evoluzione della vita ha poi portato all’uomo. La civiltà umana ha solo 10.000 anni!

La Terra è, forse, l’unico luogo nell’Universo in cui c’è la “vita”. In ogni caso, è certamente l’unico luogo dove noi possiamo vivere perché se anche nell’Universo esistesse un’altra stella con un suo pianeta in una situazione simile a quella Sole-Terra, essa sarebbe lontana da noi almeno quattro anni luce; quindi, irraggiungibile.

Nel Salmo 115 della Bibbia è scritto che “I cieli sono i cieli del Signore, ma ha dato la Terra ai figli dell’uomo”. La Terra, quindi, è un dono di Dio. Come dice papa Francesco è la nostra casa comune. Siamo legati alla Terra come i figli alla madre, ma anche come la madre ai figli perché, proprio come se fosse nostra figlia, dobbiamo avere cura della Terra, dobbiamo custodirla, amarla e renderla accogliente per le prossime generazioni.

Purtroppo, non lo stiamo facendo. Viviamo in un’epoca chiamata Antropocene, caratterizzata dal degrado del pianeta (insostenibilità ecologica) e della stessa società umana, come dimostrato dalla guerra Russia-Ucraina e dalle altre 871 fra guerre e guerriglie, coinvolgenti 70 stati, che si combattono oggi nel mondo, quasi sempre senza che si riesca a comprenderne le ragioni.

Si potrebbe pensare che la Terra, questo luogo allo stesso tempo così insignificante e così speciale, non sia adatto ad ospitare l’umanità perché ha troppi difetti: è fragile, ha risorse spesso insufficienti e, soprattutto, non distribuite in maniera equa. In realtà è proprio con questi suoi difetti che la Terra ci insegna, spesso inascoltata maestra, come dovremmo vivere. Con la sua fragilità ci ricorda che è nostro dovere prenderci cura delle persone che ci sono state affidate. Con la scarsità di certe risorse ci insegna a vivere non nella dissolutezza dell’usa e getta e dell’egoismo, ma nell’aiuto reciproco e nella sobrietà del risparmio e del riciclo. Infine, con la diseguale distribuzione delle risorse nelle varie regioni, sprona le nazioni a collaborare in amicizia e rispetto, senza farsi la guerra. Che si tratti di una persona o di una nazione o della Terra stessa non c’è salvezza senza aiuto reciproco.

Recensioni. Società, Conoscenza e Nuove Tecnologie

In evidenza

Luigi Campanella, già Presidente SCI

Sono un appassionato lettore ed ero rimasto molto dispiaciuto per non avere potuto in questo 2022 rispettare la mia media di 1 libro al mese.

Nel periodo prepasquale fra i dolori della guerra ed il ritorno alla vita sociale che ho rilevato nella mia città ho deciso di recuperare e cosi mi sono dedicato a queste letture che mi piace segnalare agli amici del blog: Antropocene e le sfide del XXI secolo di A.F. De Toni, G. Marzano e A. Vianello Meltemi ed. 2022, ;132p 13 euro

Il secolo della Fraternità di M. Ceruti e F. Bellusci ed. Castelvecchi 2021, 80p 11 euro

Indagini sul Futuro di S. Rossi , Laterza, 2022, 176 p , 14 euro

L’abbecedario del post umanismo a cura di E. Baioni, L.M. Quadrado-Payeras, M. Macelloni. Ed. Mimesis, 2022, 446p 24 euro

Perché ho deciso di scrivere questo post di sintesi a queste letture?

Perché credo -non lo sapevo davvero quando le ho scelte- che siano in qualche misura collegate rappresentando la trasformazione della nostra società per gli aspetti di stratificazione sociale e per il ruolo svolto rispetto ad essi dalle nuove tecnologie da una parte e dai nuovi valori che i cambiamenti climatici hanno imposto.

I media e la rete, discutendo con continuità di questi valori di fatto creano una disarticolazione fra quanti accedono a questi nuovi strumenti cognitivi e chi ad essi rinuncia per scelta o, come più spesso avviene, per incapacità.

L’invecchiamento della popolazione ha sviluppato una silver economy che finisce, proprio per i prevalenti interessi economici, per alimentare questa nuova stratificazione.

A un mondo in rapida trasformazione serve un nuovo linguaggio che tenga conto del fatto che la visione antropocentrica della natura è superata da quella ben più universale del pancentrismo, puntando ad una sorta di umanità postumana.

Il primo passo consiste nell’aggiornare il significato di alcuni termini.

Ambientalismo, ad esempio, ha significato attenzione al paesaggio ecologico in cui la sola specie sapiens è attrice principale, sicché per essa l’ambiente è solo sfondo e non fondamento.

Oggi ambientalismo significa superare l’antropocentrismo per evitare che la specie sapiens e le sue civiltà possano trascurare le comunità multispecie.

Altrettanto importante per inquadrare la realtà è trovare nuovi termini: nell’abbecedario si fa l’esempio del termine solastalgia, il sentimento di sconforto che si prova alla degradazione del luogo che da sempre abbiamo considerato casa, ma anche di antropocene, termine ideato dall’ecologo Eugene F.Stoermer per sottolineare come l’attività umana sia arrivata ormai ad incidere sui processi climatici e geologici.

Siamo perciò dentro un passaggio epocale dall’umano al post umano rispetto al quale la disponibilità delle nuove tecnologie digitali che contaminano la specie umana comporta una serie di domande sull’evoluzione umana, sulla trasmissione della cultura, sulla stessa storia. Oggi grazie alle comunità intelligenti connesse si profilano importanti opportunità di sviluppo per l’organizzazione della memoria culturale con la prospettiva di un nuovo umanesimo tecnologico.

La chimica è scienza che sta percorrendo questo percorso: dal focus solo economico al ruolo di garante del diritto umano all’ambiente sano, agli alimenti, alla sicurezza.

Il dubbio nasce rispetto all’unitarietà di questa comunità digitale che invece viene spesso gestita settorialmente con connessioni talvolta troppo rare. Ed allora ecco che dovrebbe intervenire uno dei valori collegati al progresso, cioè la creatività di cui si sente la mancanza, per cui, in mancanza di fantasia, si deve ricorrere a strumenti di previsione.

Questi nel libro di Salvatore Rossi vengono cercati intervistando 5 esperti, una studiosa di neuroscienze e senatrice a vita, Elena Cattaneo, l’amministratore delegato di Google Cloud, Thomas Kurian, la direttrice di un’organizzazione sui cambiamenti climatici Cristiana Fragola, il giornalista Ferruccio De Bortoli e l’architetto Carlo Ratti.

Emerge dalle risposte come la passione per la conoscenza sia il motore del processo innovativo, la cui alimentazione è affidata allo Stato ed alle sue istituzioni, prime fra tutte le università, ma con l’impegno anche della magistratura, del mercato affinché prevalga il metodo scientifico nel separare i fatti verificati dalle opinioni e nell’evitare che prevalgano le paure contro il nuovo -ed il futuro di certo ne conterrà- e contro il diverso che tendono sempre a riemergere.

Il pericolo è che il guadagno di produttività ottenuto con le nuove tecnologie, i robot le intelligenze artificiali resti nelle mani di chi le possiede. Al riequilibrio deve presiedere lo Stato senza però dimenticare le esigenze delle imprese e del mercato: e questo è un riequilibrio ancor più difficile da raggiungere dell’altro.

Chi ha scoperto il cesio-137?

In evidenza

Rinaldo Cervellati

Il cesio-137 è un isotopo radioattivo del cesio, che si forma come uno dei prodotti più comuni dalla fissione nucleare dell’uranio-235 e di altri isotopi fissili nei reattori e nelle armi nucleari. Il cesio-137 ha attualmente una serie di usi pratici.  Viene utilizzato per calibrare apparecchiature di rilevamento delle radiazioni, in medicina è usato nella radioterapia, nell’industria in flussimetri, misuratori di spessore, misuratori di densità dell’umidità e in dispositivi di registrazione di raggi gamma.

Chi ha scoperto il cesio-137?  Rebecca Trager, su Chemistry World Weekly news[1], racconta la storia di Margaret Melhase (sposata Fuchs), una brillante studentessa universitaria che scoprì il cesio-137 nel 1941, ma fu dimenticata fino alla fine degli anni ’60. Qui ne presentiamo una breve storia e i motivi per cui fu così a lungo trascurata.

Margaret Melhase nacque a Berkeley (California) il 13 agosto 1919, unica figlia di John Melhase e Margaret Orchard, discendente della famiglia di pionieri Orchard di Sunflower Valley.

La storia del cesio inizia con Glenn Seaborg[2], che stava identificando una miriade di nuovi radionuclidi che venivano prodotti dal ciclotrone di Lawrence all’Università di Berkeley dalla reazione nucleare dell’uranio. C’erano radionuclidi prodotti dalle interazioni tra particelle cariche e anche altri prodotti dalla fissione indotta da particelle neutre: i neutroni. Seaborg notò qualcosa di interessante. In tutti i prodotti della fissione individuati nel 1940 non c’erano radioisotopi a lunga emivita degli elementi del gruppo I (Na, K, Rb, Cs), sebbene sembrasse non esistere una ragione per cui non dovessero esserci. E intendeva scoprirne uno.

Glenn T. Seaborg nel 1940

Nel 1940, Margaret Melhase era studentessa di chimica a Berkeley e intendeva proseguire gli studi per il dottorato. A quel tempo, gli studenti molto dotati intraprendevano generalmente un progetto di ricerca e Margaret chiese consiglio all’amico Gerhart Friedlander che aveva ottenuto il dottorato sotto la supervisione di Seaborg.  Lui le suggerì di contattare Seaborg per un progetto. Seaborg le propose la ricerca di un elemento del I Gruppo tra i prodotti di fissione.

Margaret Melhase nel 1941, l’anno in cui scoprì il cesio 137.

Nel marzo 1941 Melhase ricevette 100 grammi di un composto di uranio (nitrato di uranile) irradiato con neutroni con cui lavorare. Trascorse i mesi successivi a estrarre gli elementi di altri gruppi e ad analizzare ciò che è rimaneva. La maggior parte dell’attività residua precipitava con il silicotungstato, che identificò come un radioisotopo del cesio. L’attività era abbastanza intensa da poter essere misurata con un semplice elettroscopio. Nelle due settimane successive, l’attività non diminuì in modo misurabile e Melhase poté solo concludere che, qualunque fosse l’isotopo del cesio, aveva un’emivita molto lunga. Fu presto identificato come Cs-137 con emivita di 30 anni [1].

Anche se Melhase aveva ragione, i tempi non erano propizi per divulgare la notizia. Infatti era in atto la seconda guerra mondiale e tutte le informazioni riguardanti la fissione nucleare vennero secretate,  pertanto Seaborg e Melhase sono stati privati di un tempestivo riconoscimento attraverso la pubblicazione su una rivista scientifica. Molte ricerche furono fatte con il cesio-137, tutte classificate, ma i risultati non furono rilasciati fino a dopo la guerra, e la scoperta non interessava più.

È piuttosto sorprendente che il radiocesio non sia stato trovato prima del 1941; la resa dalla fissione dell’uranio è di circa il 6%, più alta di qualsiasi altra.

Melhase ottenne dall’Università di Berkeley un diploma in chimica nel 1941 e desiderava continuare per il dottorato, ma incontrò improvvisamente un ostacolo quando il presidente del dipartimento di chimica dell’università, il famoso Gilbert Lewis[3],  rifiutò di lasciarglielo conseguire. Apparentemente, una precedente studentessa di Lewis aveva ottenuto un dottorato ma aveva lasciato la scienza per sposarsi e avere figli. Lewis lo considerava uno spreco di dottorato, una perdita del suo tempo e del tempo dell’università, e quindi  decise di bloccare Melhase esclusivamente a causa del genere [2].

Poiché Berkeley era considerata più liberale[4], Margaret poteva insistere, ma non lo fece. Lavorò nell’industria chimica e al Progetto Manhattan fino al 1946 ma, mancando di un grado avanzato, non perseguì una carriera nella scienza. Durante la sua permanenza alla UC a Berkeley, Melhase è stata membro dei Berkeley Folk Dancers e ha curato la newsletter del gruppo.

Incontrò Robert A. Fuchs, insegnante di matematica, a un ballo popolare. I due si sposarono nel 1945 ed ebbero tre figli. Quando si trasferirono a Los Angeles, Margaret decise di occuparsi della famiglia. È stata una sostenitrice delle cause sociali, organizzando marce per i lavoratori agricoli e aiutando le famiglie di immigrati laotiani.

Esistono pochi riferimenti ai primi lavori con il cesio-137. Come fa notare D. Patton [2]:

“Nella tabella degli isotopi del 1946 emessa dal Progetto Plutonio curato da J.M. Siegel, sotto cesio 137 ci sono riferimenti piuttosto indiretti: Seaborg, GT e M. Melhase, comunicazione privata a CD Coryell (1941),  in Coryell-Sugarman  sulla radiochimica: G. T. Seaborg, comunicazione privata (1942), infine un rapporto di Berkeley:  M. Melhase, Rapporto di ricerca, Università della California, Berkeley (settembre 1941).”

Lo stesso Patton ci informa tuttavia che Glenn Seaborg riconobbe, in un intervento alla Society of Nuclear Medicine, nel 1970, il contributo di Margaret Melhase [2]:

In the late fall of 1940 I asked an undergraduate student, Margaret Melhase (now Mrs. Fuchs), to take some uraniumwhich had been bombarded with neutronsfurnished by the 60 inch cyclotron  and make chemical separationsdesigned to look for hitherto unknown radioactivefission products such as cesium. She performedher chemical separations on the top floorof the old “Rat House” which even at that timewas an ancient, ramshackle wooden buildingdating from the earliest days of the Departmentof Chemistry at Berkeley. Her measurements ofthe radioactive decay and radiation absorptionproperties were performed through the use of aLauritsen quartz fiber electroscope. Miss Melhase continued her work until the summer of 1941, bywhich time she had established the presence of avery long-lived radioactive fission product in thecesium fraction which on the basis of subsequentwork we can now identify as being due to the30-year cesium 137.

Quindi, dal 1970 in poi è stato riconosciuto che il cesio-137 è stato scoperto da G.T. Seaborg e Margaret Melhase, anche se il contributo fondamentale di quest’ultima non è stato riconosciuto per circa trenta anni. 

Bibliografia

[1] Dennis D. Patton, How Cesium-137 Was Discovered by an undergraduate student, J. Nucl. Med., 1999, 40, 15N e 31N.

[2] Dennis D. Patton, Part 5: The discovery of cesium 137: The untold story, Acad. Radiol. , 1994, 1, 51–58. 


[1] R. Trager, Margaret Melhase Fuchs and the radioactive isotope, Chem. World Week., 4 April 2022.

[2] Glenn Theodore Seaborg (1912-1999) radiochimico americano, premio Nobel per la Chimica 1951 e premio Enrico Fermi 1959, ha sintetizzato e isolato il plutonio e scoperto altri elementi transuranici dall’americio al fermio. È considerato il fondatore della moderna chimica nucleare.

[3] Vedi: https://ilblogdellasci.wordpress.com/2016/05/07/gilbert-newton-lewis-1875-1946-un-premio-nobel-mancato-parte-1/; https://ilblogdellasci.wordpress.com/2016/05/20/gilbert-newton-lewis-1875-1946-un-premio-nobel-mancato-parte-2/.

[4] Nel 1871, il Board of Regents dell’University of Berkeley, stabilì che le donne dovevano essere ammesse su base di parità con gli uomini.

L’iperaccumulo, un modo alternativo di estrarre il Nickel (e altri metalli).

In evidenza

Claudio Della Volpe

Del Nickel abbiamo parlato ripetutamente; per esempio qui oppure qui.

Si tratta di un elemento molto importante dal punto di vista applicativo e dotato di un complesso ciclo biogeochimico che ricopio da uno dei post sopracitati.

L’ìmmagine è a sua volta estratta da un fondamentale lavoro sui cicli biogeochimici che non smetterò di citare (2009 (GLOBAL BIOGEOCHEMICAL CYCLES, VOL. 23, GB2001, doi: 10.1029/2008GB003376, 2009).

Come si vede la parte naturale del ciclo del Nickel non è così ridotta ed il Nickel è un elemento che arriva anche dallo spazio come anche è presente nel nucleo terrestre; insomma un elemento veramente principe.

Proprio per questo trovo veramente importante la sottolineatura di un recente articolo giornalistico sull’accumulo di questo elemento in varie piante; l’articolo originale è stato pubblicato dal Guardian, che personalmente considero uno dei migliori quotidiani del mondo e tradotto in italiano da Internazionale, una rivista mensile di articoli da tutto il mondo a cui sono abbonato da molti anni (nel numero 1459 ).

Cominciamo col dire che la percentuale del metallo nei minerali è attualmente in discesa, il che è OVVIO; abbiamo già estratto le risorse più ricche di molti elementi e dunque non possiamo meravigliarci di questa continua discesa della ricchezza dei depositi dei principali elementi che stiamo usando.

Il mondo che abitiamo è limitato e le sue risorse non sono affatto infinite come invece sottintende o ipotizza una ridicola visione economica cosiddetta “neoclassica” sulla quale sono ahimè basati molti programmi economici anche nel nostro paese e le cognizioni “scientifiche” di molti colleghi economisti e di altrettanti uomini politici, fra i quali il nostro attuale Presidente del Consiglio.

Come vedete i minerali dai quali estraiamo il nickel hanno attualmente una percentuale di metallo che si avvicina al 2% e tende a ridursi sempre più; ricordiamo che questo dato è simile in parecchi altri metalli importanti.

Torniamo all’argomento sull’accumulo. In realtà sarebbe più corretto parlare di iperaccumulo, in inglese hyperaccumulation, un fenomeno scoperto in effetti da molto tempo ed ancora in studio.

Di che si tratta?

È interessante notare che ci sono piante che sopravvivono, crescono e si riproducono su terreni metalliferi naturali e su siti inquinati con metalli pesanti a seguito di attività antropogeniche. La maggior parte delle specie che tollerano concentrazioni di metalli pesanti altamente tossici per le altre piante si comportano come “esclusori” (Fig. 1), basandosi su strategie di tolleranza e persino ipertolleranza utili per limitare l’ingresso del metallo. Trattengono e disintossicano la maggior parte dei metalli pesanti nei tessuti radicali, con una traslocazione ridotta al minimo alle foglie le cui cellule rimangono sensibili agli effetti fitotossici. Tuttavia, un certo numero di specie ipertolleranti, definite “iperaccumulatori”, mostra un comportamento opposto per quanto riguarda l’assorbimento e la distribuzione di metalli pesanti nell’organismo (Fig. 1).

Il termine “iperaccumulatore” è stato coniato per le piante (Fig. 1) che, a differenza delle piante che si comportano come “esclusori”, assorbono attivamente grandi quantità di uno o più metalli pesanti dal suolo. Inoltre, i metalli pesanti non vengono trattenuti nelle radici ma vengono traslocati nel germoglio e accumulati in organi fuori terra, in particolare foglie, a concentrazioni 100-1000 volte superiori a quelle che si trovano nelle specie non iperaccumulanti. Non mostrano sintomi di fitotossicità [12,13]. Sebbene sia una caratteristica distinta, l’iperaccumulazione si basa anche sull’ipertolleranza, una proprietà chiave essenziale che consente alle piante di evitare l’avvelenamento da metalli pesanti, a cui le piante iperaccumulatrici sono sensibili quanto quelle che non lo sono.

È il testo di una review scritta da due autrici italiane:

Il lavoro spiega quali meccanismi interni vengono usati dalla pianta per iperaccumulare, quali enzimi servono per trasferire senza danno gli ioni da una zona all’altra e illustra anche le ipotesi che si fanno sull’origine di questo comportamento, che sembrerebbe legato alla difesa della pianta dall’attacco di specie animali di varia natura; è da dire che esistono anche insetti specializzati che riescono comunque a cibarsi della pianta iperaccumulatrice. Le applicazioni che si intravedono per queste proprietà sono due: la depurazione di suoli inquinati (fitodepurazione) e l’estrazione mineraria (fitominazione).

Sierra Exif JPEG

Streptanthus polygaloides – Milkwort jewelflower (bozzolina)

Sierra Exif JPEG

Alyssum bertolonii (in regione mediterranea)

Uno studio pionieristico sulla fitominazione è stato condotto utilizzando l’iperaccumulatore di Ni S. polygaloides: una resa di 100 kg ha−1 di Ni senza zolfo potrebbe essere ottenuta dopo un’applicazione moderata di fertilizzanti. La rimozione del Ni dal suolo mediante fitominazione è praticabile in linea di principio, poiché esistono molte piante iperaccumulatrici, come Alyssum spp. e B. coddii, che soddisfano il criterio di raggiungere concentrazioni di Ni nei germogli superiori a 10 g kg-1 su base di sostanza secca e producendo più di 10.000 kg ha −1 all’anno. A. bertolonii può anche accumulare 10 mg di materia secca Ni g−1 da terreni serpentini. Sono stati condotti esperimenti sul potenziale utilizzo di questa pianta iperaccumulatrice nella fitominazione di terreni serpentini. Nel campo di prova piante di A. bertolonii sono state concimate con N + P + K per un periodo di 2 anni. La fertilizzazione aumenta la biomassa di 3 volte senza diluizione della concentrazione di Ni nelle piante fertilizzate. Si è concluso che A. bertolonii, con una biomassa dopo fertilizzazione di circa 13.500 kg ha-1, o altre specie di Alyssum potrebbero essere utilizzate per la fitominazione. In un’altra prova sul campo B. coddii, con una biomassa non fecondata di 12.000 kg ha-1, è stato segnalato come uno dei migliori candidati per la fitominazione del Ni con fertilizzanti applicati e umidità adeguata, dopo di che è stata raggiunta una biomassa di 22.000 kg ha-1 e un’alta concentrazione di Ni [159.162.177.180 ?].

Da altri lavori si ricavano dati su altre piante iperaccumulatrici; i rapporti estrattivi sono espressi sui grammi di sostanza secca e in questo caso stiamo parlando dunque di concentrazioni che sono comparabili con quelle ottenute da minerale; stiamo parlando di valori fra 0.X e X%, dove X può superare 3-4; inoltre in questo caso si parla anche in resa per ettaro di coltivazione, in analogia a quella ottenuta in campo alimentare.

L’altra cosa da notare è che per avere valori ragionevoli della resa non è necessario coltivare le piante su suoli inquinati o particolarmente ricchi poiché le radici sono in grado di concentrare moltissimo i valori presenti nel suolo (notate la frase sui terreni serpentini, ossia originato dalla degradazione di rocce di tipo serpentinoscisto).

Ecco dunque un metodo che può certamente aiutare nel riciclo dei metalli e che riduce di gran lunga l’impatto umano sul pianeta, almeno in potenza.

Oltre ai metalli elencati nella tabella sono stati condotti esperimenti sull’iperaccumulo di metalli preziosi ed anche in quel caso i risultati sono di tutto rispetto anche se inferiori quantitativamente al caso del Nichel.

Voi ve lo sareste aspettato?

Lavori consultati.

https://onlinelibrary.wiley.com/doi/epdf/10.2307/1221970

https://www.annualreviews.org/doi/abs/10.1146/annurev-arplant-042809-112156

https://scialert.net/fulltext/?doi=jest.2011.118.138

https://www.sciencedirect.com/science/article/abs/pii/S0168945210002402

Una lista di piante iperaccumulatrici la trovate qui con i riferimenti di letteratura.

Rame, croce e delizia; le tre facce del rame

In evidenza

Luigi Campanella, già Presidente SCI

Si discute molto intorno alle 3 facce del rame, quella buona come oligoelemento biologicamente essenziale per tutti gli esseri viventi, ioni rame essendo componenti insostituibili di enzimi, fattori di trascrizione ed altre strutture proteiche, il rame fungendo da cofattore di numerosi enzimi;

quella ambigua fungicida da una parte e fertilizzante dall’altra;

quella cattiva come inquinante ambientale stabile, bioaccumulabile e tossico (criterio pbt).

ll problema sta nel fatto che la faccia buona si esercita a concentrazione dei decimi di ppm ed invece per le attività connesse a quella ambigua bisogna raggiungere concentrazioni delle unità e decine di ppm che ovviamente comportano il rischio di inquinamento ambientale (faccia cattiva).

È questa la ragione per cui il rame sulla base del regolamento europeo REACH è sostanza candidata alla sostituzione.

In opposizione a questa valutazione e con l’intento di supportare l’utilizzo del rame in agricoltura, è nata nel 1999 un’associazione fra 12 imprese europee, la Copper Task Force che nel 2016 ha contestato questa valutazione a partire dalla considerazione che il criterio pbt per sancire la pericolosità ambientale è stato sviluppato per le sostanze organiche persistenti e non è applicabile alle inorganiche, in accordo anche con quanto stabilito dal REACH.

L’azione della Copper Task Force si è anche sviluppata nella direzione di ottenere il rinnovo dell’approvazione dei sali di rame indicati dalla Direttiva 91/414 e successivamente dal Regolamento 1107/2009. Il prossimo rinnovo è previsto per il dicembre di quest’anno e l’impressione che si ha leggendo tutta la pratica è che saranno necessari alcuni ulteriori dati per rispettare il regolamento europeo per ottenere il rinnovo.

La storia del rame é in continua evoluzione sia in ambito tecnologico che normativo nei processi di rivalutazione tossicologica ed ambientale degli agrofarmaci. La sua nascita come fitofarmaco risale al 18mo secolo, ma solo 100 anni dopo le varie forme a cessione controllata sono divenute prodotti di mercato.

I processi produttivi riguardano la poltiglia bordolese ottenuta dalla neutralizzazione del solfato di rame con idrossido di calcio, l’ossicloruro di rame a partire da cloruro di rame e successiva ossidazione ed idrolisi; l’idrossido di rame a partire da una soluzione acquosa di solfato rameico a cui si aggiungono idrossido di ammonio e poi idrossido di sodio; ossido rameoso ottenuto per via elettrochimica o per riduzione dell’ossido rameico.

Questi formulati vengono prodotti sia come liquidi che solidi: questi ultimi rappresentati da microgranuli idro-disperdibili, i primi da sospensioni stabili di materia attiva. Da qualche decina di anni è poi iniziato il riassestamento normativo ed ambientale dei giorni nostri a cui più su accennavamo

Il mondo ha bisogno di uno stop completo ai combustibili fossili

In evidenza

Rinaldo Cervellati

Intervista di Cheryl Hogue, di Chemistry & Engineering news, a Holly Jean Buck, analista ambientale, autrice del libro Ending Fossil Fuels: Why Net Zero is Not Enough, Verso Ed. 2021.

La breve intervista è stata rilasciata il 18 marzo scorso a C&EN, qui ne riportiamo una versione tradotta e adattata da chi scrive[1].

Holly Jean Buck, nata a Columbia (Maryland, USA), PhD in sociologia dello sviluppo, Cornell University (Ithaca, N.Y.), è attualmente professoressa di ambiente e sostenibilità alla Buffalo University (N.Y.), fig. 1.

Figura 1. Holly Jean Buck

Buck, nel suo libro, sostiene che l’obiettivo zero di emissioni entro il 2050 si concentra esclusivamente sui gas serra e di conseguenza distolgono l’attenzione dai combustibili fossili. Le aziende di diversi settori, compreso il settore chimico, si stanno impegnando per ridurre le proprie emissioni di gas serra a zero. Per raggiungere tale obiettivo, compenseranno il carbonio attraverso varie azioni, tipo piantare molti alberi o catturare l’anidride carbonica per immagazzinarla e utilizzarla come materia prima. Ma, sostiene Buck, il raggiungimento di emissioni zero netto non garantirà che il pianeta sia protetto dagli impatti sulla salute e sull’ambiente dovuti all’estrazione e all’uso di combustibili fossili. Secondo Buck, il cambiamento climatico non è l’unico motivo per eliminare gradualmente i combustibili fossili, che sono collegati a molti impatti negativi, incluso l’inquinamento atmosferico e il sostegno finanziario a governi corrotti e oppressivi.

Buck è una delle centinaia di autori che stanno contribuendo al prossimo rapporto dell’IPCC (Intergovernmental Panel on Climate Change), gruppo di lavoro delle Nazioni Unite che valuta i modi per rimuovere i gas serra dall’atmosfera. Il gruppo di lavoro pubblicherà una sintesi della relazione l’1 aprile.

Buck ha anche fatto parte di un comitato delle accademie nazionali di scienza, ingegneria e medicina degli Stati Uniti che ha scritto il rapporto “A Research Strategy for Ocean Carbon Dioxide Removal and Sequestration”, pubblicato nel dicembre 2021.

In precedenza Buck è stata ricercatrice scientifica presso l’Università della California, Los Angeles, Institute of the Environment and Sustainability e ricercatrice climatica presso la UCLA School of Law, dove la sua ricerca si è concentrata sulla governance dell’ingegneria climatica.

Ecco l’intervista:

CH. Quali sono i vantaggi e gli svantaggi delle politiche e degli obiettivi dello zero netto?

HJB. Il vantaggio dello zero netto come obiettivo è che offre una certa flessibilità, sia nel tempo sia nello spazio. Forse il tuo paese produce molto bestiame. Nuova Zelanda e Uruguay sono in questa situazione. Molte delle loro emissioni provengono dal bestiame ed è difficile decarbonizzare.

Inoltre, alcune cose sarebbero possibili da decarbonizzare completamente in pochi decenni, ma manca ancora la tecnologia. Esistono percorsi plausibili per il carburante sostenibile per l’aviazione o l’idrogeno verde per alimentare le fabbriche, ma non sono abbastanza maturi.

Ma ci sono anche altri problemi. Il più grande è il pericolo che l’obiettivo zero netto sia usato come una sorta di scappatoia o un modo per rimandare transizioni più costose. Potrebbe ritardare i tagli alle emissioni. Questo è ciò che preoccupa molti sostenitori del clima.

CH. Il tuo libro sostiene che un allontanamento dai combustibili fossili è essenziale per affrontare il cambiamento climatico causato dall’uomo. Ne discuteresti, soprattutto a proposito dello zero netto?

JHB. Sappiamo che dobbiamo ridurre la produzione di combustibili fossili, non solo aumentare le rinnovabili. Dobbiamo fare entrambe le cose. Se vogliamo limitare il riscaldamento a 1,5 ºC, cosa che molti paesi hanno accettato di provare a fare, dovremmo ridurre la produzione di combustibili fossili del 6% all’anno in questo decennio. Eppure stanno pianificando di aumentare la produzione del 2% circa. Non siamo davvero sulla strada giusta.

CH. Lei afferma che la decarbonizzazione del settore petrolchimico è particolarmente difficile. Come mai?

JHB. In questo momento, circa l’80% di un barile di petrolio va per i combustibili e il resto ai prodotti petrolchimici. Ci sono emissioni legate a varie parti di quella produzione. Sia l’estrazione di petrolio e gas che il cracking delle molecole hanno un’impronta sul gas serra. La plastica non è ben riciclata, quindi è una specie di problema climatico a sé stante.

CH. Quali sono le sfide e le opportunità che l’industria chimica deve affrontare per porre fine ai combustibili fossili, piuttosto che lottare per lo zero netto?

JHB. È un settore difficile da convincere perché molte strutture sono estremamente costose e impegnano  grossi capitali. Ma penso che ci siano opportunità in termini di nuovi settori. Ad esempio, cattura, utilizzo e stoccaggio della CO2. Ci sono molte opportunità interessanti nell’utilizzo della CO2 in termini di prodotti chimici come metanolo, polimeri e anche materiali da costruzione. La CO2 può essere utilizzata in tutte queste diverse applicazioni. I prodotti petrolchimici potrebbero essere realizzati con carbonio riciclato. Queste opportunità potrebbero attirare nuove società in competizione con le attività petrolchimiche usuali.

CH. Qual è il tuo messaggio per i chimici o i ricercatori che escogitano nuovi materiali in relazione allo zero netto?

JHB. È un momento così interessante ed emozionante per essere veramente innovativi nel settore. Il movimento per affrontare il cambiamento climatico sta aprendo opportunità economiche per prodotti che ora non sarebbero competitivi con i prodotti petrolchimici. Questa potrebbe essere una sorta di nuova rivoluzione chimica, sia in termini di biomateriali sia di utilizzo della CO2.

Breve recensione del libro Ending Fossil Fuels: Why Net Zero is Not Enough[2].

Il libro è costituito da due parti. La prima parte, “L’ottimismo crudele dello zero netto”, discute vantaggi e svantaggi dello zero netto. Pur riconoscendo che raggiungere lo zero netto entro il 2050 è un obiettivo ambizioso in contrasto con l’attuale ritmo di decarbonizzazione globale, i capitoli di questa parte sostengono che l’assunzione del concetto di equilibrio e stabilità creerebbe ambiguità che l’industria dei combustibili fossili potrebbero sfruttare. La seconda parte, “Cinque modi di guardare all’eliminazione graduale dei combustibili fossili”, valuta cinque approcci per avviare un declino pianificato dei combustibili fossili, un’impresa estremamente difficile che richiederà uno stretto coordinamento in tutti i settori della società. Di conseguenza, gli approcci delineati in questa parte non operano in modo isolato. Solo attraverso gli sforzi collettivi, la società può iniziare a delegittimare le basi materiali e ideologiche della produzione e del consumo di combustibili fossili. In paesi come gli Stati Uniti, i combustibili fossili sono saldamente radicati nell’immaginario sociale della “buona vita della classe media” poiché forniscono la base energetica per la vita suburbana e la proprietà dei veicoli. Il più grande ostacolo alla decarbonizzazione sono quindi le strutture culturali e politiche che legittimano la dipendenza dai combustibili fossili come norma sociale. Si propone dunque di modificare la consapevolezza pubblica con un discorso sui fini per trasformare l’attuale cultura neoliberista in una che pianifica. Secondo la ricerca di Buck, ciò che rende particolarmente problematiche molte delle soluzioni offerte dai giganti della tecnologia, come Apple, Microsoft e Google, a parte le loro tendenze tecnocratiche, è quanto siano inestricabilmente intrecciate queste soluzioni con il fossile. Il loro obiettivo collettivo è costruire un mondo fossile più pulito senza introdurre cambiamenti strutturali nell’accumulazione di capitale.


[1] https://cen.acs.org/environment/climate-change/world-needs-full-stop-fossil-fuels-sustainability-analyst-Holly-Jean-Buck-says/100/i13

[2] https://blogs.lse.ac.uk/impactofsocialsciences/2021/11/06/book-review-ending-fossil-fuels-why-net-zero-is-not-enough-by-holly-jean-buck/

Museo interattivo della chimica dedicato a Primo Levi.

In evidenza

Mauro Icardi

Uno dei nostri lettori, il signor Oliviero del Toso, mi ha segnalato questa notizia, che confesso mi era completamente sfuggita.  Quindi è d’obbligo un caloroso ringraziamento.

Il prossimo 1 Luglio verrà inaugurato il primo museo interattivo della chimica, e la sede di questo museo è stata realizzata proprio nell’area dell’ex fabbrica di vernici Siva, a Settimo Torinese, dove Primo Levi lavorò dal 1947 al 1975.

Da ex cittadino di Settimo Torinese non posso che essere davvero contento per diverse ragioni.

La città di Settimo è riuscita negli anni a intraprendere molte iniziative culturali di notevole importanza, e a riqualificare aree dismesse creando poli culturali importanti. E con la chimica conserva uno speciale legame.

Proprio nell’area di un’altra ex fabbrica chimica dove si producevano vernici, la Paramatti, è stata realizzata la nuova biblioteca interattiva “Archimede”. La biblioteca ha una forte vocazione scientifica. Nel 2017 nell’ambito del festival dell’innovazione e della scienza quella edizione fu dedicata proprio alla chimica.

Ora alla chimica viene dedicato un museo interattivo, il MU-CH. Il museo si propone di avvicinare alla cultura della chimica. Pensato per potere essere interessante per le persone di qualunque formazione, per gli studenti di ogni età, ma con una particolare attenzione per quelli più giovani, cioè ragazzi delle scuole elementari e medie.

Leggo che saranno allestiti diversi spazi, sale di lettura, uno spazio dedicato chiamato “C LAB” dove potere effettuare esperimenti di chimica in sicurezza.

Grazie alla collaborazione del Centro Internazionale di Studi Primo Levi, sarà possibile visitare l’ufficio dove lavorava lo scrittore. Anzi per meglio dire, il “chimico scrittore.”

Il percorso di visita inizierà con una sala dedicata alla nucleosintesi stellare, ovvero la fabbrica degli elementi chimici, per poi proseguire spiegando quello che la chimica comprende. Stati della materia, elettrochimica, forze di coesione, molecole di interesse biologico come acqua e DNA. Una disciplina affascinante, ma troppo spesso vittima di quella chemiofobia di cui su questo blog spesso si è scritto.

Personalmente penso che la visita a questo museo sarà utile anche per un altro motivo. Cioè la possibilità di creare un ponte, un legame, giusto per utilizzare un termine molto usato in chimica, tra discipline scientifiche e discipline umanistiche. Mi sono convinto che questo legame sia assolutamente necessario per meglio comprendere e affrontare le sfide che ci troviamo a dover affrontare. Mi riferisco alle varie crisi, economiche, ecologiche, all’esaurimento delle risorse. Occorre trovare le modalità comunicative adatte per superare le banalizzazioni, per non essere sopraffatti da un pensiero che si ancora a tempi ormai passati.

Il nostro tempo attuale non è più quello della crescita infinita, del boom economico di cui molte persone sentono una struggente nostalgia. Oggi dobbiamo essere coscienti del fatto che non possiamo più vivere senza fare i conti con queste realtà. Anche in questo Primo Levi può esserci d’aiuto. Molte delle sue pagine sono una sintesi affascinante tra cultura strettamente chimica, e brani che sono dei gioielli letterari.

Oggi che stiamo vivendo un periodo in cui la crisi delle materie prime si sta manifestando con molta evidenza, rileggere il capitolo Potassio del Sistema Periodico può essere un aiuto. Levi non può spendere un solo quattrino per la sua tesi sperimentale: “l’Assistente mi precisò che avevo mano del tutto libera, potevo rovistare dappertutto dalle cantine al solaio, impossessarmi di qualsiasi strumento o prodotto, ma non acquistare nulla: neppure lui lo poteva, era un regime di autarchia assoluta”.

Il museo è nato dalla collaborazione tra il comune di Settimo Torinese, la fondazione ECM (Esperienze di cultura metropolitana) e progettato dal Gruppo Pleiadi.  I finanziamenti

provengono dal Piano nazionale per la riqualificazione sociale e culturale delle aree urbane. È il primo museo d’Europa a proporre un percorso interattivo dedicato alla chimica. 

https://www.ansa.it/sito/notizie/cultura/arte/2022/05/03/a-settimo-torinese-il-museo-della-chimica-dove-lavoro-primo-levi_01467e14-b01d-43cb-8acb-ca9904a1ac4d.html

Il caso Federica Pozzi

In evidenza

Luigi Campanella, già Presidente SCI

Il caso di Federica Pozzi rientrata in posizione di eccellenza con un concorso in Italia al Centro Conservazione e Restauro “La Venaria Reale” dopo 11 anni trascorsi negli Stati Uniti  (gli ultimi dei quali al Metropolitan Museum di New York)  ci insegna tante cose e ci dà un po’di speranza per i nostri giovani che hanno intrapreso la carriera del diagnosta nel campo dei Beni Culturali.

Federica dopo la Laurea ed un Dottorato di Ricerca in Scienze Chimiche presso l’Università degli Studi di Milano, sta sviluppando una bella carriera.

E qui ecco il secondo motivo di soddisfazione: la chimica che pilota giovani capaci e preparati verso il settore dei Beni Culturali dove possono affermarsi.

Il terzo motivo di soddisfazione viene dalle dichiarazioni di Federica: le opere d’arte meritano di essere esaminate come pazienti da curare con gli strumenti più avanzati offerti dalla tecnologia dagli spettrometri Raman alla fluorescenza X alla TAC, dai microscopi elettronici agli spettrometri infrarosso.

Un dipinto di Renoir dell’Art Institute of Chicago, “Madame Léon Clapisson”, il colore del cui sfondo è stato ricostruito digitalmente sulla base dei risultati delle analisi scientifiche svolte da Federica.

Questa somiglianza è anche giustificata da alcune procedure di prelievo campioni, simili a quelle che i medici compiono con le biopsie, per l’analisi dei materiali quali pigmenti e coloranti. Con riferimento ai corsi di laurea di Conservazione e Restauro che avrebbero dovuto creare una nuova figura, il diagnosta o conservation scientist, Federica vuole rendersi utile per una valorizzazione di queste figure (ed un recente bando del competente Ministero fa ben sperare), ed ha sostenuto il Centro Conservazione e Restauro “La Venaria Reale” nel programmare un evento ad hoc, lo Young Professionals Forum, dedicato alle tecnologie digitali applicate ai Beni Culturali: e siamo all’ultimo motivo di soddisfazione e speranza legato a Federica!

Peraltro l’evento intende catturare l’attenzione dell’osservatore attraverso lo stupore ripercorrendo in un certo senso il percorso kircheriano.

È ben nota l’espressione Museo Kircheriano per indicare un Museo largamente multidisciplinare anche se non strutturato e non organizzato secondo linee guida schematizzabili: quindi tantissimi reperti esposti anche disordinatamente, ma capaci di stupire.

L’espressione parte da Athanasius Kircher (1602-1680) che volle cimentarsi in imprese scientifiche molto diverse  fra loro e difficilmente fra loro correlabili: dalla decifrazione dei geroglifici all’orologio mosso dai girasoli ( queste piante risentirebbero dell’influsso magnetico del Sole rendendole pertanto capaci di seguirlo), dall’Arca di Noè dell’evoluzione ( sistemare nell’Arca avendone valutate le dimensioni ogni tipo di animale) alle scoperte egittologiche, dalle fasi lunari alle maree, dallo studio del magma ai trattati musicali. In questa multiforme ed ingegnosa attività gli si possono perdonare alcuni errori: quando dichiarò di essere in grado di interpretare i geroglifici si riferiva all’opera sbagliata, l’Obelisco di Piazza della Minerva: in effetti la sua interpretazione andò a buon fine oltre un secolo dopo, ma con la stele di Rosetta. Oggi la sua collezione è smembrata, ma pur così ci insegna ad essere curiosi e disposti alla fantasia: dopo ci vuole però un po’di sana razionalità e di metodo scientifico come avvenne a lui il cui modello di Museo, la camera delle meraviglie, venne superato dai primi musei organizzati della Scienza con articolazioni secondo il metodo scientifico di tipo disciplinare o tematico. Chissà se questa razionalizzazione varrà nel prossimo futuro per le Esposizioni dedicate alle tecnologie digitali per i Beni Culturali, spesso prive di un percorso formativo logico.

Un altro tassello sull’origine della vita.

In evidenza

Claudio Della Volpe

L’articolo di cui vi parlo oggi mi ha fatto ricordare una vecchia storia sessantottina di Napoli. Quando ero ancora un giovane e brillante studente di Chimica e anche impegnato in politica; tutto era politica anche la tesi.

Oggi, 50 anni dopo, può fare un po’ ridere, ma allora, inizio anni 70, le cose erano diverse.

Non metterò nomi, inutile rivangare, ma vi racconto l’essenziale. Fui affascinato dalla proposta di tesi di un gruppo di ricerca, ripetere l’esperimento di Miller-Urey ed analizzare i prodotti con l’NMR; all’epoca l’NMR era una tecnica innovativa di quelle che affascinavano gli studenti e inorgoglivano i ricercatori che ci lavoravano.

Ma non avevo fatti i conti con la “politica”; il gruppo che avevo scelto era diretto da un docente “democratico”, come si diceva allora, ma agiva nel territorio scientifico dominato da alcuni docenti la cui fama politica era opposta. Ne nacque uno scontro fra i docenti più politicamente schierati e quello che avevo scelto io; una ampia discussione tutta fra amici, fatta a casa del docente in questione, ma con feroci polemiche sul non coinvolgere giovani menti in progetti dominati da ambienti politicamente retrogradi; non ho mai capito bene tutta la questione, ma alla fine rinunciai a quella tesi dopo averci lavorato teoricamente un bel po’.

Poi la tesi la feci su argomenti completamente diversi, sempre NMR, ma legata alla struttura dell’acqua; Miller e Urey mi rimasero nell’immaginario e nel rimpianto; feci bene? Feci male? Non lo so ancora. Il fatto è che allora la politica ti travolgeva la vita, tutto era politico. Comunque c’era anche un po’ la gara a coinvolgere gli studenti apparentemente più brillanti, con le medie più alte; e io a spettroscopia, tenuto allora da un docente severissimo, avevo avuto 30; me lo ricordo ancora: scrivere un hamiltoniano estratto a caso e ricordando tutto a mente e all’impronta e analizzando i vari passaggi e tirando fuori numeri e dati, gruppi di simmetria, etc etc.

Ma veniamo all’esperimento di Miller.

L’esperimento Miller-Urey era una simulazione delle condizioni sulla Terra primordiale che testava l’idea che la vita, o più specificamente certe molecole organiche, avrebbe potuto formarsi da nient’altro che semplici reazioni chimiche. Il successo di Miller ha convalidato le idee teoriche di A.I. Oparin ed è considerato il classico esperimento che indaga il concetto di abiogenesi. Conservo ancora i testi classici sul tema scritti da Oparin, da Haldane già negli anni 20 del secolo scorso.

Stiamo parlando di due scienziati di posizioni comuniste e dunque, in se, l’argomento era più che “politicamente corretto”.

Aleksandr Oparin (nel 1924) e John Haldane (nel 1929, prima che il primo libro di Oparin fosse tradotto in inglese), suggerirono indipendentemente che se l’atmosfera primitiva fosse chimicamente riducente (anziché ricca di ossigeno) e se vi fosse un adeguato apporto di energia, come fulmini o luce ultravioletta, potrebbe essere sintetizzata un’ampia gamma di composti organici. Oparin ha suggerito che i composti organici potrebbero aver subito una serie di reazioni che portano a molecole sempre più complesse. Ha proposto che le molecole formassero aggregati colloidali, o “coacervati”, in un ambiente acquoso. I coacervati erano in grado di assorbire e assimilare i composti organici dall’ambiente in un modo che ricorda il metabolismo. Avrebbero preso parte ai processi evolutivi, portando infine alle prime forme di vita. Le idee di Haldane sull’origine della vita erano molto simili a quelle di Oparin. Haldane propose che il mare primordiale fungesse da vasto laboratorio chimico alimentato dall’energia solare. L’atmosfera era priva di ossigeno e la combinazione di anidride carbonica, ammoniaca e radiazioni ultraviolette ha dato origine a una miriade di composti organici. Il mare divenne una “zuppa calda diluita” contenente grandi popolazioni di monomeri e polimeri organici. Haldane prevedeva che gruppi di monomeri e polimeri acquisissero membrane lipidiche e che ulteriori sviluppi alla fine portassero alle prime cellule viventi. Haldane coniò il termine “zuppa prebiotica”, e questo divenne un potente simbolo della visione Oparin-Haldane dell’origine della vita.

(https://simsoup.info/Origin_Landmarks_Oparin_Haldane.html)

Questa intuizione si è poi arricchita arrivando all’ipotesi dell’iperciclo di cui abbiamo parlato in altri post.

L’esperimento di Miller-Urey condotto nel 1953 è schematizzato nella figura sopra, tratta dal lavoro che racconto oggi: Miller effettuò un esperimento nel 1953 in cui passò una scarica continua di scintille a 60.000 Volt attraverso un pallone contenente i gas identificati da Urey, insieme all’acqua. Miller scoprì che dopo una settimana, la maggior parte dell’ammoniaca e gran parte del metano erano stati consumati. I principali prodotti gassosi erano il monossido di carbonio (CO) e l’azoto (N2). Inoltre, c’era un accumulo di materiale scuro nell’acqua. Pochi dei costituenti specifici di questo non potevano essere identificati, ma era chiaro che il materiale includeva una vasta gamma di polimeri organici. L’analisi della soluzione acquosa ha mostrato che erano stati sintetizzati anche i seguenti composti: 25 aminoacidi (i principali sono glicina, alanina e acido aspartico), diversi acidi grassi, idrossiacidi, prodotti ammidici.

Si possono rivolgere varie critiche, prima di tutto alla composizione dell’atmosfera usata, che probabilmente non era esatta o al fatto che avere i materiali non comporta in tempi brevi lo sviluppo di sistemi ad iperciclo e dunque la vita, ma oggi si è compresa però la termodinamica di questi processi e la loro possibilità effettiva; ne abbiamo parlato in alcuni post.

Ma in cosa consiste la novità dell’articolo citato da cui ho tratto l’immagine? Consiste nel riconoscere il ruolo del contenitore e del pH; nell’esperimento originale il contenitore era di vetro borosilicato, come era ed è tipico in laboratorio.

Gli autori concludono che:

I nostri risultati dimostrano che la parete dei reattori svolge un ruolo cruciale nella sintesi di composti organici nell’esperimento Miller-Urey. Come riassunto in Fig. 3A, la diversità molecolare è minima nel reattore di teflon, aumenta quando si immergono pezzi di vetri di borosilicato nell’acqua del reattore di teflon e raggiunge il massimo sia nella varietà molecolare che nella resa nel reattore al borosilicato. Inoltre, poche ore dopo l’accensione, la parete del pallone di borosilicato è ricoperta da una sottile pellicola marrone di materia organica. È evidente che questo film si forma solo sulla parte della parete sopra il livello dell’acqua del reattore. Il colore della soluzione nei reattori di borosilicato è giallo-marrone ed è pieno di particelle organiche marroni visibili ad occhio nudo. In nessuno dei reattori di teflon è stata osservata la formazione di questo film organico. Tuttavia, nell’esperimento eseguito con un reattore di teflon “seminato” con pezzi di vetro borosilicato, all’interno della soluzione sono state notate particelle marroni. I gruppi silanolici sulla superficie del vetro e le tracce di metallo che potrebbero essere rilasciate per dissoluzione nelle condizioni alcaline dell’esperimento possono contribuire alla reattività osservata. La presenza di gruppi Si–O–H esaltati dalle condizioni alcaline facilita l’assorbimento delle molecole organiche sintetizzate nel gas e dell’acqua liquida a contatto con il vetro.

La fig 3a del lavoro: Scientific reports: (2021) 11:21009 | https://doi.org/10.1038/s41598-021-00235-4 .

Dunque i materiali per la vita si formano spontaneamente in un ambiente gassoso riducente, in presenza di scariche elettriche, silicati e un pH opportuno, legato verosimilmente alla presenza dei silicati stessi.

Un altro piccolo passo avanti nella comprensione della più riuscita reazione chimica: la vita sulla Terra dell’Adeano.

Il ciclo dello zolfo ancora da chiarire

In evidenza

Rinaldo Cervellati

In un post sull’elemento zolfo (https://ilblogdellasci.wordpress.com/2019/03/06/elementi-della-tavola-periodica-zolfo-s/), come già brevemente inserito nella nota in fondo al post aggiunta dal postmaster riguardante il suo ciclo biogeochimico, sono state formulate varie ipotesi sull’effetto climatico del DMS (dimetilsolfuro N.d.R.) e presentati due schemi alternativi sul suo ruolo climatico.

In questo post, liberamente adattato da un articolo di Rachel Brazil su Chemistry Word[1], cercheremo in dettaglio di colmare le lacune che influiscono sulla nostra capacità di modellizzare correttamente gli effetti dello zolfo sul clima.

Infatti, come per il carbonio, l’azoto e il fosforo, il suo uso e la sua conversione chimica attraverso il mondo fisico e biologico sono descritti in un ciclo. Ma parte di quel ciclo non è ben compreso, in particolare come vengano prodotte e utilizzate piccole molecole di organo-zolfo negli oceani. Uno dei motivi principali del rinnovato interesse per il ciclo dello zolfo è la sua influenza sul clima, dovuta alle emissioni oceaniche di dimetilsolfuro (DMS). Spencer Williams, professore di chimica all’Università di Melbourne (Australia), afferma: “Una volta si pensava che lo zolfo fosse rilasciato da alghe marine e microbi come idrogeno solforato, ma ora sappiamo che circa 300 milioni di tonnellate di DMS vengono rilasciate dagli oceani ogni anno. L’odore dell’oceano che tutti conosciamo è caratterizzato da livelli molto bassi di DMS“.

Prof. Spencer Williams

È stato lo scienziato ambientale britannico James Lovelock a proporre l’idea che il DMS potrebbe essere un fattore importante nella regolazione del clima.

Lovelock è noto per aver proposto l’ipotesi  secondo cui la vita sulla Terra agiva di concerto come un sistema complesso tipo un organismo. Nel 1987 suggerì che incoraggiando la formazione di nubi, il DMS agisse da termostato terrestre e prevenisse il surriscaldamento, conosciuta come “ipotesi CLAW”.

James Lovelock

Spiega Martí Galí Tàpias, scienziato marino (Istituto di scienze marine, Barcellona, Spagna):

Martí Galí Tàpias

I prodotti di ossidazione del DMS, come l’anidride solforosa e altri composti [solfati] possono eventualmente formare nuove particelle di aerosol. Le particelle portano alla nucleazione del vapore acqueo, formando nuvole e provocando una maggiore riflessione delle radiazioni per effetto dell’albedo[2]. Ciò potrebbe quindi compensare alcuni degli impatti del riscaldamento dei gas serra”.

L’oceano è un importante serbatoio di zolfo, contenente grandi quantità di solfato disciolto, dilavato dal gesso e da altri minerali. Le specie batteriche possono ridurlo a solfuri come composti organici. Piccole molecole contenenti zolfo eventualmente rilasciate nell’oceano ritornano nell’atmosfera come DMS, che viene quindi ossidato e riciclato tramite l’acqua piovana (Figura 1).

Figura 1 . Il ciclo dello zolfo dipende da percorsi biologici nei batteri e nel fitoplancton che non sono ancora completamente compresi. Credit: Dan Bright

È la parte biologica del ciclo dello zolfo, dove c’è ancora tanto da imparare. Lo zolfo è un costituente di molte proteine ​​e cofattori ed è presente in due degli aminoacidi proteinogenici, la metionina e la cisteina. Afferma Bryndam Durham, microbiologo marino dell’Università della Florida (USA): “Negli organismi marini, la sua abbondanza è paragonabile al fosforo in termini di modo in cui si accumula nella biomassa”.

Bryndam Durham

Oltre alla sua relativa ubiquità, Georg Pohnert (ecologista e chimico, Friedrich Schiller University a Jena (Germania),  spiega che il suo ruolo in biologia scaturisce dalla sua versatilità chimica, con un’ampia gamma di stati di ossidazione da -2 a +6. Dal momento che si può trovare in così diversi stati di ossidazione, ha molti modi per accedere come entità biologica e ha sempre più modi per elaborarli. Questa flessibilità lo rende un protagonista in molti processi cellulari.

Georg Pohnert

Da diversi decenni è noto che il DMS emesso dagli oceani deriva in gran parte dalla scomposizione della molecola di zolfo dimetil sulfinoproprianato (DMSP), una molecola altamente polare contenente uno ione solfonio caricato positivamente. Il DMSP è prodotto dal fitoplancton, l’alga microscopica fotosintetizzante che si trova nello strato superficiale dell’oceano. “Alcuni organismi lo producono in enormi quantità, fino a concentrazioni intracellulari di metà molare; chiaramente impiegano molte energie per farlo“, afferma Jonathan Todd (biologo molecolare, Università dell’East Anglia, Regno Unito). Quando viene degradata, la molecola viene scissa in DMS, gran parte del quale finisce nell’atmosfera, e un frammento proprionato che può essere metabolizzato come fonte di carbonio.

Ma il fitoplancton non è l’unico produttore di DMSP. Afferma Todd: “Una recente scoperta chiave del mio laboratorio è che l’ipotesi che il DMSP sia prodotto solo da organismi eucarioti marini è completamente falsa”. Il suo gruppo ha trovato alti livelli di DMSP e DMS in paludi e sedimenti costieri legati a batteri produttori di DMSP, stimando che potrebbero esserci come minimo fino a 100 milioni di batteri produttori di DMSP per grammo di sedimento di palude salata, una parte del ciclo dello zolfo precedentemente trascurato.

Jonathan Todd

Il gruppo di Todd ha studiato il ciclo del DMSP nei campioni di sedimenti di superficie costiera e ha scoperto che la sua concentrazione nei sedimenti è di uno o addirittura due ordini di grandezza superiore a quello che si vede nell’acqua di mare superficiale. Il fitoplancton resta ancora il principale produttore, ma questo studio mostra che i batteri nelle distese fangose e nelle regioni marine devono essere presi in considerazione come attori significativi.

Una domanda che Todd e altri si stanno ponendo è perché così tanti organismi producono DMSP e qual è il suo uso. La percezione comune è che sia prodotto da organismi eucarioti marini come composto antistress. Qualche anno fa il suo laboratorio ha identificato il gene chiave responsabile della sua biosintesi nei batteri marini e ha anche notato che il gene era sovraregolato in ambienti in cui la salinità era aumentata, le temperature abbassate o le concentrazioni di azoto limitate.

Il DMSP sembra avere un ruolo nella regolazione osmotica di alcuni fitoplancton, sfruttando le sue proprietà zwitterioniche[3]. Ad esempio, le diatomee sono alghe racchiuse in modo univoco da una parete cellulare di silice trasparente, il che significa che non sono in grado di regolare la loro concentrazione cambiando dimensione. Quello che fanno invece è usare la molecola DMSP, spiega Pohnert: “Producono sali mediante processi biosintetici, e poi possono anche regolarlo nuovamente“. Todd afferma che il DMSP, e i suoi prodotti DMS e acido propionico, possono anche essere prodotti come molecole di segnalazione da una varietà di microbi; per esempio, l’acido propionico può essere tossico per alcuni organismi ma il DMS è anche un chemio-attrattivo.

Un indizio sulla diversità dell’uso del DMSP viene anche dal lavoro svolto da Todd e collaboratori per identificare le vie enzimatiche che lo scompongono. Dopo aver identificato il primo enzima liasi, hanno pensato che “sarebbe stata la fine della storia“. Ma alla fine hanno trovato otto enzimi unici in alghe e batteri, tutti provenienti da famiglie proteiche distinte con percorsi chimici unici. Il gruppo ha scoperto che esisteva un’enorme biodiversità nei modi in cui i microrganismi e gli organismi superiori degradano il DMSP per generare DMS.

Recentemente è anche diventato evidente che si è sviluppato un ecosistema oceanico diversificato che non solo produce, ma consuma DMSP e altri composti organo-solforati. “In genere pensiamo che gli ambienti marini siano inondati di nutrienti, ma in realtà l’oceano aperto è piuttosto scarso e il DMSP è un nutriente chiave. Un’ampia gamma di microrganismi importa il DMSP e lo metabolizza come fonte di carbonio e zolfo per l’energia”, spiega Todd. Secondo Durham, questi alimentatori DMSP fanno parte di una serie di interazioni cooperative. “I batteri che possono utilizzare il DMSP sono ritenuti benefici per il fitoplancton [che lo produce], producendo vitamine, molecole di segnalazione, ormoni, e altre sostanze bio-organiche.”

Pohnert ha scoperto un altro percorso mancante o “scorciatoia” nel ciclo dello zolfo marino, con l’esistenza del dimetilsolfonio propionato (DMSOP) trovato in tutti i campioni oceanici dall’Artico al Mediterraneo. Esiste un’intera famiglia di composti strutturalmente correlati al DMSP e il gruppo di ricerca è rimasto piuttosto sorpreso di trovare persino un composto sulfoxonio, che è chimicamente molto insolito. DMSOP è anche uno zwitterione che può essere scomposto dagli enzimi in due unità non cariche, ma con lo zolfo in uno stato di ossidazione superiore a quello del DMSP.

Non possiamo spiegare perché sono necessari entrambi i composti”, afferma Pohnert, ma suggerisce che convertendo il DMSP in DMSOP, alcune specie di alghe e batteri sono in grado di sopravvivere a un aumento delle specie reattive dell’ossigeno che possono incontrare spostandosi rapidamente attraverso un oceano che cambia, essenzialmente un meccanismo di disintossicazione interno. “È davvero solo un’altra messa a punto della loro capacità di adattarsi al loro ambiente”, spiega Pohnert, che sospetta che la produzione di DMSOP possa anche essere collegata all’invecchiamento, in cui l’equilibrio ossidativo negli organismi può essere distorto; questa è un’idea che sta seguendo ora il gruppo.

Pohnert ha colmato le lacune di questa parte del ciclo dello zolfo. Come il DMSP, esistono batteri in grado di metabolizzare il DMSOP, formando dimetilsolfossido (DMSO), che può essere esso stesso convertito in DMS o assorbito da altri batteri.

In particolare ha trovato il 2,3-diidrossipropan-1-solfonato (DHPS) prodotto nelle diatomee in concentrazioni millimolari che viene metabolizzato dai batteri come fonte di carbonio e zolfo. “Quello che capiamo sui solfonati è in ritardo rispetto a come comprendiamo il DMSP”, afferma Durham. Il motivo per cui sono realizzati non è chiaro, ma un suggerimento di Durham è che potrebbe essere un modo per regolare la fotosintesi: sanno dagli organismi coltivati ​​in laboratorio che il DHPS viene prodotto solo durante il giorno. “Se c’è molta luce in arrivo, il fitoplancton non ha la protezione solare, deve solo affrontarla. Quindi l’assimilazione del solfonato è ad alta intensità energetica e potrebbe essere un buon modo per scaricare gli elettroni in eccesso… questo è quello che stiamo immaginando”.

La scoperta del DHPS e il suo legame con la fotosintesi hanno eccitato Williams, chimico dei carboidrati che studia le vie della glicolisi e processi biologici simili per metabolizzare il monosaccaride sulfochinovosio sulfonato. Dice Williams: “Io chiamo sulfochinovosio la molecola più importante e praticamente sconosciuta. Sembra glucosio, tranne per il fatto  che ha un legame carbonio-zolfo”. Si stima che costituisca circa il 50% di tutte le molecole di organozolfo (il restante è in gran parte costituito da cistina e metionina).

“Quasi ogni singolo organismo fotosintetico, che si tratti di cianobatteri, alghe, diatomee, piante o muschio, produce sulfochinovosio”, afferma Williams. La sua ubiquità è spiegata dal suo ruolo nella fotosintesi, essendo parte delle membrane che circondano i compartimenti noti come thulakoidi, all’interno dei cloroplasti dove avviene la reazione fotochimica. Oltre ai fosfolipidi, queste membrane contengono i glicolipidi, sulfochinovosil diacilgliceroli (SQDG).

Williams ha chiarito i percorsi enzimatici attraverso i quali i batteri di nicchia del suolo sono in grado di raccogliere e scomporre il sulfochinovosio dalla materia vegetale. “In ogni grammo di terreno che puoi trovare  ci sarà un insetto che ha un percorso enzimatico latente, in attesa di avere fortuna e ottenere un po’ di questo sulfochinovosio. Ma è stato osservato che nessun singolo organismo può scomporre il sulfochinovosio”. Invece, spiega Williams, tendono a emettere un frammento di zolfo che viene trasmesso ad altri organismi. Una di queste molecole contenenti zolfo è il DHPS, il solfonato osservato per la prima volta negli oceani da Durham nel 2019. Sebbene non ci siano ancora prove chiare, Williams suggerisce che il sulfochinovosio del fitoplancton potrebbe essere la fonte del DHPS oceanico. “Forse è da lì che viene“, dice, ma ammette che nessuno sa davvero cosa succede.

Il sulfochinovosio è anche uno dei modi in cui gli esseri umani interagiscono con il ciclo dello zolfo. Il nostro microbioma intestinale comprende la famiglia di batteri Firmicutes, che metabolizzano il sulfochinovosio dal cibo che mangiamo. “Ad esempio, mangiando grosse quantità di spinaci, potresti ottenere qualche centinaio di milligrammi di sulfochinovosio al giorno”, afferma Williams. Ma questo è sufficiente per supportare questo batterio di nicchia. Il processo alla fine produce una fonte aggiuntiva di idrogeno solforato, che verrà restituito all’atmosfera per essere riciclato.

Per i modellizzatori climatici, la comprensione del ciclo dello zolfo e del modo in cui risponde ai cambiamenti climatici è importante per una previsione climatica più accurata. Mentre lo zolfo rilasciato dai combustibili fossili ha raddoppiato i livelli ambientali dalla rivoluzione industriale ed è ancora la fonte predominante, il DMS proveniente dagli oceani rappresenta un terzo dello zolfo atmosferico totale. Lo zolfo antropogenico è la causa delle piogge acide, che possono degradare significativamente gli ecosistemi.

C’è ancora incertezza sull’impatto dei composti dello zolfo. Nel suo libro del 2006 The Revenge of Gaia, Lovelock ha ampliato le sue idee precedenti e ha suggerito che il riscaldamento globale stava portando a una diminuzione della biomassa oceanica che produce DMS, riducendo i potenziali effetti di feedback positivi che aveva previsto in precedenza e forse creando un effetto a spirale.

Se questo sia il caso, non è ancora chiaro. “Attualmente i modelli della produzione DMS presentano alcune carenze“, afferma Galì. Indica i quattro modelli climatici all’avanguardia pubblicati nel 2021 dal Programma mondiale di ricerca sul clima e alla base del sesto rapporto di valutazione dell’IPCC. “Quattro di loro hanno una rappresentazione alternativa delle emissioni DMS… due modelli prevedevano un aumento nel corso del prossimo secolo, gli altri due prevedevano una diminuzione”. È ora un forte imperativo per modellizzare in modo più accurato la produzione di DMS. Todd è d’accordo e aggiunge che anche il contributo di DMSP da altri ambienti, come le paludi che ha studiato, deve essere preso in considerazione.

Ci sono anche nuove scoperte in altre parti del ciclo. Uno studio del 2020 della National Oceanic and Atmospheric Administration degli Stati Uniti, ad esempio, ha identificato che il 30% del DMS è ossidato a idroperossimetil tioformiato, identificato attraverso l’osservazione nell’aria. Il suo impatto sulla formazione di aerosol e sulla condensazione delle nubi deve ancora essere studiato.

Su scala globale, Galì ha iniziato il lavoro di misurazione e modellizzazione del DMS. Egli ha creato un algoritmo per stimare i livelli di DMS marini utilizzando i dati satellitari di telerilevamento. Ad esempio, calcola i livelli di biomassa del fitoplancton sulla base di misurazioni ottiche in grado di stimare la quantità di clorofilla presente dall’analisi dell’intensità del colore. Ma afferma che ciò che ora è veramente importante è essere in grado di stabilire con precisione i tassi di cambiamento globali, e questo richiederà molto lavoro.

Ora spera di creare un database dei tassi globali di produzione e consumo di DMS, attraverso lo Special Committee on Oceanic Research, un’ONG che gestisce la ricerca marina internazionale. Ciò alla fine fornirebbe dati per modelli climatici più accurati. Richiederà un’analisi molto più dettagliata di quella attualmente esistente; ad esempio, essere in grado di distinguere i produttori bassi o alti di DSM e comprendere appieno come altri microbi contribuiscono al consumo e alla produzione di composti organosolforati correlati. “Devi rappresentare tutti questi processi nei  modelli per ottenere la concentrazione di zolfo giusta”, dice Galì. “È piuttosto complesso“. E date le recenti scoperte, potrebbero esserci parti del ciclo dello zolfo ancora da scoprire. Ma, come conclude Pohnert, per individuare davvero il suo impatto sul clima, dovremo migliorare la nostra comprensione del ciclo dello zolfo e dovrà essere uno sforzo multidisciplinare; “necessita un’interazione tra modellizzazione, microbiologia e chimica”.


[1] Rachel Brazil, The secrets of the sulfur cycle, Chemistry World weekly, 28 March, 2022.

[2] L’albedo è la frazione di luce riflessa da un oggetto o da una superficie rispetto a quella che vi incide. Nel caso della Terra, il valore dell’albedo dipende dalla presenza o meno di un’atmosfera, da eventuali nubi e dalla natura della superficie (rocce scure, terreno erboso, deserto sabbioso, oceani); le calotte polari o zone coperte da ghiacci e neve innalzano l’albedo perché hanno un alto potere riflettente.

[3] Lo zwitterione (dal tedesco zwitter, ermafrodita) è una molecola elettricamente neutra che quindi non subisce l’azione di un campo elettrico.

Governo degli scienziati o governo dei politici?

In evidenza

Articolo pubblicato su Bo7 del 10-4

Vincenzo Balzani, professore emerito, Università di Bologna

L’importante ruolo giocato dagli scienziati per contrastare la pandemia ha riproposto un antico dilemma: il governo deve essere affidato ai politici o agli scienziati? Su questo argomento si era già espresso il filosofo greco Platone: “Le tecniche sanno come le cose devono essere fatte, ma non se devono essere fatte e a che scopo devono essere fatte. Per questo occorre quella tecnica) che è la politica, capace di far trionfare ciò che è giusto attraverso il coordinamento e il governo di tutte le conoscenze, le tecniche e le attività che si svolgono nella città.” Platone, quindi, ci dice che sono i politici che debbono governare; ma non siamo più ai tempi di Platone. Sono passati 2400 anni e la società umana oggi deve fare i conti con l’enorme sviluppo della scienza e della tecnologia

Governare è un’attività molto complessa; anche perché, come ha scritto Hanna Arendt “La realtà ha la sconcertante abitudine di metterci di fronte all’imprevisto, per cui, appunto, non eravamo preparati”.Gli imprevisti, in una società complessa come quella attuale, sono molti, ma anche senza imprevisti è la complessità stessa che rende difficile prendere decisioni, cioè governare.

Egard Morin ha scritto che “I problemi importanti sono sempre complessi e spesso sono pieni di contraddizioni. Bisogna quindi affrontarli globalmente, con saperi diversi che debbono interagire fra loro”. Questa è una buona ricetta per un buon governo: utilizzare tutti i saperi per conoscere in profondità i vari aspetti di ogni problema e metterli a confronto per riuscire a trarre una conclusione. I saperi diversi sono quelli che costituiscono la scienza, ma anche altri, non meno importanti, come l’etica, l’economia, il lavoro, le disuguaglianze. La capacità di coordinare situazioni complesse e di prendere decisioni sono le caratteristiche richieste alle persone che, nei paesi democratici, vengono elette, cioè scelte per governare: quelle che chiamiamo “politici”. I quali, però, dovrebbero essere consapevoli che molti dei problemi che devono affrontare sono più grandi di loro, da cui la necessità di consultare chi è più esperto: gli scienziati.

Dovremmo, pertanto, avere un Governo politico affiancato da un Comitato Scientifico Interdisciplinare. Gli scienziati sanno guardare al futuro molto meglio dei politici, che spesso sono condizionati dal desiderio di essere rieletti o dalle pressioni delle grandi industrie. I membri del Comitato Scientifico dovrebbero essere nominati dal Presidente della Repubblica per un certo periodo, non legato alle scadenze elettorali. Nelle situazioni di emergenza, poi, come è accaduto per l’attuale pandemia, si dovrebbe far ricorso a Comitati Scientifici specifici, i cui componenti dovrebbero essere nominati dal Comitato Scientifico Interdisciplinare. Ciascun ministero importante dovrebbe avere un suo Comitato Scientifico senza aspettare che si creino situazioni di emergenza, ma per prevenirle. La necessità di una tale forma politico-scientifica di governo è urgente in particolare per il ministero della Transizione Ecologica, che oggi è il problema più importante che dobbiamo affrontare.

Arte ed economia

In evidenza

Luigi Campanella, già Presidente SCI

Ricordo una frase di un ex ministro che fece tanto discutere: la cultura non fa economia. Allora si disse che per un Paese come il nostro nel quale i Beni Culturali rappresentano la prima ricchezza pensare da parte di un uomo di Governo che ad essi non debba corrispondere un valore economico fosse un grande errore ed uscirono per la prima volta alcuni dati sulla capacità italiana di ricavare PIL dai propri siti culturali.

Venne così fuori che l’Inghilterra con la metà dei Siti UNESCO dell’Italia portava a casa il doppio dell’Italia ma anche Francia e Germania erano più efficienti nel trasformare il capitale culturale in capitale economico.

Allora emerse chiaramente che il difetto era nel manico cioè nella incapacità gestionale. Da allora sono passati molti anni ed alcuni nodi di quel cattivo funzionamento sono stati sciolti: difetti di comunicazione, mancanza di personale preparato, mancanza di infrastrutture, pigrizia all’innovazione.

Oggi possiamo guardare con molto più ottimismo ed a conferma di ciò viene il Primo Rapporto di Arte Generali la piattaforma di servizi dedicata all’assicurazione delle opere d’arte.

Il Rapporto è stato realizzato anche utilizzando il supporto dei sistemi di Intelligenza Artificiale di Wondeur, partner esclusivo in Europa di Arte Generali, applicati all’integrale dell’arte italiana rappresentato da musei, gallerie, istituti di cultura, collezioni pubbliche e private per un totale complessivo di 3000 musei 230.000 artisti e 3600 località.

https://wondeur.ai/

Arte Generali vuole arrivare ad un quadro nazionale dal quale emerga quale è il sostegno alla produzione di beni culturali nel nostro Paese. Questo primo Report è stato dedicato all’arte contemporanea, in particolare dagli anni 80, che seguirono al ventennio 50-70, gli anni dell’arte Povera, oltre che di personaggi importanti come Burri e Fontana.

In questo ultimo ventennio abbiamo assistito ad una crescita del valore commerciale delle opere italiane che con sempre maggiore frequenza sono state esposte nelle grandi Gallerie ed Esposizioni e nelle aste internazionali. Purtroppo però i nomi coinvolti sono sempre gli stessi, una decina (da Cattelan a Bonvicini, da Perrone a Vezzoli) con un valore d’asta di circa 2 milioni, a dimostrare che le risorse impiegate non hanno dato le gambe a chi voleva superare l’energia di attivazione: ha solo contribuito al successo di chi quell’energia l’aveva già superata. Certamente la pandemia ha rappresentato un ostacolo aggiuntivo ma sono mancate le idee della creatività italiana, il che ci ricollega al punto dal quale siamo partiti.

Politiche fiscali di stimolo alla valorizzazione anche economica di opere d’arte distinguendo collezionismo da speculazione, facilitazioni per la realizzazione di eventi di divulgazione e promozione, manutenzione ordinaria prevalente su quella ordinaria, infrastrutture espositive: queste alcune delle iniziative di cui si sente il bisogno, ma che ancora, malgrado se ne parli da tempo, non partono, come il Rapporto di Arte Generali correttamente denuncia.

C’è poi un aspetto più tecnico che riguarda l’applicazione delle nuove tecnologie ai Beni Culturali. Per molti anni in passato questa è avvenuta con ritardi e pigrizia mentale comprensibili: la prudenza nel trattare un’opera d’arte è un must che obbliga a rifugiarsi nel consolidato. È pero anche vero che senza innovazione non si migliora nelle capacità operative. Oggi la situazione è cambiata: le nuove tecnologie esplorative e conservative si sono imposte innalzando il grado di capacità a proteggere il patrimonio artistico.

In questo processo la Chimica ha contribuito largamente in particolare con la green chemistry: nuovi processi e nuovi prodotti. nanotecnologie e biotecnologie, nuovi composti naturali, sensoristica hanno trovato opportunità di valorizzazione al tempo stesso svolgendo un ruolo prezioso per la salvaguardia di quel patrimonio da cui l’economia del nostro Paese non può prescindere.

https://www.beniculturali.it/evento/la-sostenibilita-nel-restauro-stato-dellarte-applicazioni-e-prospettive-future-il-restauro-sostenibile-enea-progetto-es-pa

Pierre-Joseph Macquer e il primo Dizionario di Chimica, 1766

In evidenza

Roberto Poeti

La comparsa del primo Dizionario di Chimica in senso moderno risale al 1766. Il suo autore fu Pierre-Joseph Macquer (1718-84), uno dei massimi chimici dell’epoca, un rappresentante eminente dell’illuminismo francese, che simboleggia  il problematico passaggio verso la nuova chimica di Lavoisier.

Macquer  aveva studiato chimica al celebre Jardin du Roi sotto Guillaume-Francois Rouelle (1703-1770) e, all’età di 24 anni, aveva conseguito una laurea in medicina. I suoi interessi non erano però centrati nella medicina, ma nelle scienze fisiche, in particolare nella chimica, e nel 1745 fu eletto chimico aggiunto della Académie des Sciences, per ricoprire alla fine la carica di direttore nel 1774. Condusse ricerche e pubblicò molte memorie su un’ampia varietà di argomenti chimici e tecnologici. Nel 1757, Macquer e Antoine Baumé (1728-1804) collaborarono e insegnarono chimica nel loro laboratorio a Parigi. Prima di questo, tuttavia, Macquer aveva pubblicato un ottimo libro di testo Elemens de Chymie Theorique (1749), che trattavano i principi di base della chimica teorica e pratica. I libri scritti con cura di Macquer presentavano la chimica come un ramo distinto delle scienze naturali, indipendente, dalla farmacia e dalla medicina, e hanno avuto un impatto immediato sul mondo scientifico. 

Tra il 1749 e il 1752 fu il primo a condusse gli studi sul blu di Prussia, allo scopo di capirne la composizione, attraverso una analitica e dettagliata attività sperimentale, che è  riportata nella sua memoria  Examen Chymique du Bleu de Prusse. Collaborò con  Jean Hellot  (1685-1766) nello sviluppo dei principi scientifici della tintura e pubblicò anche un importante libro sulla tintura della seta. Quando Hellot morì nel 1766, gli succedette come commissario per i coloranti al Bureau du commerce . Nel 1757, Macquer fu nominato “Chimico accademico” alla Real Fabbrica di Porcellane di Sèvres, carica che  ricoprì dal 1757 al 1766. Il suo compito era quella della ricerca del segreto di fabbricazione di una porcellana dura identica a quella della Cina o del Giappone. Questo lavoro durante il quale eseguì più di 1.800 esperimenti ed esaminò 1.200 paste diverse, occupò Macquer nel biennio 1757 e 1758. Queste due funzioni ufficiali a Sèvres e al Bureau du commerce, che mantenne fino alla sua morte nel 1784, pur svolgendo anche un  ruolo trainante all’interno della Reale Accademia delle Scienze, gli permisero di partecipare allo sviluppo industriale della Francia della seconda metà del diciottesimo secolo.  Membro influente della comunità scientifica parigina, le sue ricerche svolte nell’ambito delle sue funzioni ufficiali – attività industriali e contatto permanente con gli artigiani – gli permisero di acquisire conoscenze pratiche che andavano di pari passo con la sua grande conoscenza degli aspetti teorici .

Il dizionario

Indiscutibilmente, la più grande opera letteraria di Macquer fu il Dictionnaire de Chymie (Parigi, 1766). La sua vasta esperienza nella chimica pura e applicata lo ha particolarmente aiutato nel compito di compilare un’opera così completa e ambiziosa. Lessici chimici erano apparsi in precedenza, ma il dizionario di Macquer fu il primo tentativo di coprire l’intero campo della chimica, sia pura che applicata, in modo enciclopedico.

Macquer si riferisce alla famosa teoria del flogisto, e poi elogia Stahl come:

. . .il più grande e il più sublime di tutti i chimici filosofici. . .La teoria del Becher, che ha adottato quasi interamente, è diventata, nei suoi scritti, di tutte le teorie la più illuminante e la più conforme ai fenomeni della chimica. . . .la teoria di Stahl è la guida più sicura che possiamo prendere per la nostra condotta nelle ricerche chimiche; e i numerosi esperimenti che ogni giorno vengono fatti, lungi dall’invalidarlo, diventano nuove prove per la sua conferma

L’alta considerazione di Macquer per la teoria del flogisto è evidente e conclude l’introduzione storica con una nota di incoraggiamento:

Ora abbiamo il vantaggio di vedere i giorni migliori per la  chimica. Il gusto della nostra epoca per le questioni filosofiche… e. . .la profonda abilità e l’ardore dei chimici moderni. . . sembrano promettere il successo più grande e più brillante.

Il dizionario divenne subito popolare e passò attraverso diverse edizioni in francese. Fu tradotto in tedesco (1767), inglese (1771), danese (1771-72) e italiano (1783-84). Il traduttore dell’edizione inglese, James Keir, dà una valutazione del dizionario e la stima in cui fu tenuto nel 1771:

. . .è stato universalmente attribuito al signor Macquer. . .che ha giustamente acquisito presso i chimici una illustre reputazione. . . .Il lavoro. . .contiene una conoscenza molto ampia della storia chimica, dei fatti e delle opinioni e delle esatte descrizioni delle operazioni e degli strumenti della chimica. . .(quali). . .sono spiegati bene e completamente, per quanto lo stato attuale delle conoscenze chimiche lo consenta. L’Autore ha inoltre reso la sua opera di grande utilità. . .dalle applicazioni che ha fatto della chimica alla storia naturale, alla medicina, alla farmacia, alla metallurgia e a tutte le numerose arti e mestieri, le cui operazioni dipendono da principi chimici. In questo piano globale è incluso tutto ciò che riguarda la Chimica; e. . .possiamo giustamente affermare che questo Dizionario contiene più conoscenze chimiche di qualsiasi altro libro esistente.

La novità e la portata enciclopedica del dizionario sono immediatamente evidenti dalla  precedente dichiarazione. Macquer era consapevole che un dizionario era molto imperfetto per insegnare una scienza e si era reso conto che la conoscenza chimica a metà del diciottesimo secolo era rudimentale, poiché la chimica “a malapena aveva diritto al nome di scienza”. Presentare i fatti chimici in ordine alfabetico (con numerosi rimandi) gli ha permesso tuttavia di includere molti argomenti che altrimenti sarebbero stati difficili da introdurre. Il dizionario è apparso durante il periodo in cui la teoria del flogisto ha tenuto il campo. Sebbene imperfetta nello spiegare l’aumento di peso dei metalli sulla calcinazione (cioè l’ossidazione), fatto ben noto ai chimici del diciottesimo secolo, la teoria è stata enormemente utile nel correlare molte osservazioni chimiche apparentemente disconnesse. Macquer sostenne fermamente l’ipotesi flogistica, ma verso la fine della sua vita propose un’ingegnosa modifica della versione stahliana, nel tentativo di conciliarla con i dati sperimentali quantitativi addotti da Lavoisier relativi all’aumento di peso dei metalli per calcinazione in aria. Macquer ha spiegato l’aumento di peso postulando che il metallo ha prima perso il flogisto (come nella teoria classica), e poi si è combinato con una quantità d’aria che ha superato il peso del flogisto perso! Questa teoria ingegnosa, ma erronea, fu alla fine superata dal brillante lavoro sperimentale quantitativo di Lavoisier, che rese possibile la nascita del periodo moderno della chimica. Macquer intendeva che il suo lavoro fosse un trattato completo di chimica e tecnologia chimica e nel 1766 era possibile coprire adeguatamente questi argomenti in due piccoli volumi. Le sue definizioni gettano una luce considerevole sullo stato della conoscenza chimica di duecentocinquanta anni fa:

La chimica è una scienza il cui scopo è scoprire le proprietà dei corpi attraverso l’analisi e la combinazione

Macquer afferma che i vantaggi risultanti da questa scienza sono ben noti. Significativamente, l’alchimia non è inclusa nella definizione, né la chimica è una branca della farmacia o della medicina. Chiaramente, l’atteggiamento di Macquer è moderno nel considerare la chimica come una scienza distinta. Per quanto riguarda l’alchimia, Macquer afferma:

I veri chimici considerano l’alchimia una scienza immaginaria, e coloro che vi sono devoti sono persone che, per mancanza di una migliore istruzione, abbandonano una realtà per amore di un’ombra.

Elemento

La definizione di elemento nel dizionario ci sorprende :

Ma questa analisi, e la decomposizione dei corpi, è limitata: possiamo portarla fino ad un certo punto, oltre la quale tutti i nostri sforzi sono vani. Indipendentemente dal modo in cui lo facciamo, siamo sempre fermati da sostanze che troviamo inalterabili, che non possiamo più decomporre e che fungono da barriere oltre le quali non possiamo andare. È a queste sostanze che dobbiamo, credo, dare il nome di principi o elementi (…) Perché sebbene ci sia evidenza che queste sostanze non sono realmente le parti essenziali della materia, e gli elementi più semplici; poiché l’esperienza ci ha insegnato che è impossibile riconoscere dai nostri sensi quali siano i principi di cui essi stessi sono composti, ritengo più ragionevole lasciar perdere e considerarli come corpi semplici, omogenei, e come principi di altri: invece di stancarci di indovinare da quali parti o elementi potrebbero essere composti, non c’è modo di essere sicuri se abbiamo ragione, o se le nostre idee sono solo chimere.

In  questo passaggio, Macquer esprime un approccio simile a quello successivamente proposto da Lavoisier, come spiegato brevemente da quest’ultimo nel “Discorso preliminare” al suo Trattato elementare di chimica del 1789:

Confrontiamolo con la definizione proposta  da Lavoisier:

se… applichiamo il nome di elementi o principi di corpi all’idea dell’ultimo termine a cui arriva l’analisi, tutte le sostanze che non siamo ancora riusciti a decomporre in qualche modo sono per noi elementi. Non che possiamo garantire che questi corpi che consideriamo semplici non siano, essi stessi, composti da due o anche un numero maggiore di principi, poiché questi non sono separati, o meglio, non abbiamo mezzi per separarli, essendo per noi corpi semplici . Non dobbiamo supporre che siano composti finché l’esperienza e l’osservazione non ci hanno fornito la prova.

È un approccio in linea con quello di Macquer, a cui Lavoisier si sarà certamente ispirato venti anni dopo. Ma Macquer è prigioniero della concezione dei quattro principi e il suo approccio operativo rimane incompiuto:

  questi [elementi] sono principalmente Terra e Acqua, a cui si possono aggiungere aria e fuoco. (…) guardiamo a queste quattro sostanze come principi o elementi di tutti i diversi composti che la natura ci offre, perché, infatti, di tutte quelle che conosciamo, sono le più semplici, e che il risultato di tutte le nostre analisi e dalle nostre esperienze di altri corpi, ci fa capire che finalmente sono ridotti a queste parti primitive. Questi principi non sono nella stessa quantità in corpi diversi; ci sono anche alcune miscele nella cui combinazione questo o quel principio non entra: ad esempio, aria e acqua sono completamente escluse dalla composizione dei metalli.

Seguendo inoltre  una concezione molto tradizionale, Macquer ha evidenziato nella distillazione un mezzo privilegiato per favorire la separazione tra i principi costitutivi dei materiali:

Il metodo più utilizzato per decomporre i corpi, è quello di esporli in contenitori idonei a raccogliere ciò che viene esalato, con calore graduale, dal più mite al più forte. In questo modo i principi vengono successivamente separati l’uno dall’altro, salendo prima il più volatile, e poi gli altri, mentre sperimentano il grado di calore che è capace di rimuoverli; questo è ciò che si chiama distillazione. (…) [Il] fuoco, nel decomporre il corpo, in genere altera molto sensibilmente i suoi principi secondari combinandoli in vario modo tra loro, o anche decomponendoli parzialmente, e li riduce a principi primitivi (. ..)

Una teoria atomica in embrione

Nel dizionario da nessuna parte ricorre la parola “atomo”, sebbene sotto “cristallizzazione” Macquer avesse chiaramente in mente una teoria atomica:

Per capire. . .il meccanismo di cristallizzazione, dobbiamo notare, 1. Che le parti integranti di tutti i corpi hanno una tendenza l’una all’altra, per cui si avvicinano, si uniscono e aderiscono insieme. . .2. Che in corpi. . .semplici, questa tendenza delle parti integranti è più evidente. . .che in altri più composti. . .3. Che anche se non lo conosciamo la forma  delle molecole integranti primitive di qualsiasi corpo, non possiamo dubitare che…molecole di ogni diverso corpo hanno una forma costantemente uniforme e peculiare. 4. Che queste parti integranti non possono avere un’eguale tendenza ad unirsi indiscriminatamente da uno qualsiasi dei loro lati, ma da alcuni preferibilmente ad altri, eccetto tutti i lati di una parte integrante. . .essere uguali e simili; e probabilmente i lati, per i quali tendono ad unirsi, sono quelli per cui possono toccarsi più estesamente e immediatamente.

Le affermazioni fatte in questa definizione illustrano la preveggenza di Macquer riguardo alla costanza della composizione dei composti chimici, all’impacchettamento delle molecole nei cristalli e alle molte forme geometriche delle molecole. Questa straordinaria definizione prefigura la teoria chimica atomica che fu successivamente delineata in termini approssimativi da Higgins e sviluppata in una teoria funzionante da Dalton. Sfortunatamente, poiché Macquer (e altri chimici della metà del XVIII secolo) erano ostacolati dalla teoria dei “quattro elementi”, i loro “atomi” (“molecole o “parti integranti”) erano composti da varie miscele di fuoco, aria, acqua e terra ! Per inciso, nella definizione di cui sopra, Macquer è stato uno dei primi chimici ad utilizzare il termine “molecola”.

Il dizionario di Macquer comprende molti argomenti che riguardano il flogisto , la calcinazione , la riduzione, i metalli, gli alcali, gli acidi , i sali , i composti organici.  E a proposito dei composti organici è riportata la sintesi dell’acetato di etile. Distillando una miscela di alcol e acido acetico ottiene “etere acetoso” grezzo (acetato di etile). Questo è stato purificato agitandolo con “alcali fissi liquidi” (una miscela di soluzioni di Na2C03 e K2C03), e di nuovo distillando “a calore di lampada”, dopodiché

. . si ottenne un etere acetoso esente da acido sovrabbondante, e molto più simile al vero etere. . . .come questa scoperta è stata fatta solo di recente, le proprietà dell’etere acetoso. . . non sono stati ancora sufficientemente esaminati

Quanto sopra è una delle prime descrizioni della sintesi di un estere da un alcol e un acido organico!

  Secondo lo storico J.R. Partington, Macquer ha cercato di sostituire i vecchi nomi di sostanze chimiche con altri più sistematici, e cita come esempio una classificazione dei sali, presente in un’ampia voce nel suo Dictionnaire.

Il contributo alla nuova chimica

In conclusione possiamo dire che l’apparato teorico  di Macquer rappresenta quella  fase in cui intuizioni innovative   si intrecciano ancora  a concezioni tradizionali ; è il momento in cui il paradigma che ancora domina sta entrando in crisi per essere  sostituito da un nuovo quadro teorico. Personaggi come Macquer, assieme a Joseph Priestley ( 1733 – 1804), Carl Wilhelm Scheele 1742 –1786) e altri contribuiscono alla nascita del  nuovo corso che vedrà come principale protagonista Lavoisier, perché pur rimanendo ancorati alla teoria del flogisto, hanno in comune la stessa  tensione conoscitiva verso un orizzonte che ancora non riescono a vedere ,  ma  che si  esprime in una attività sperimentale che ancora oggi stupisce, leggendo le loro memorie di laboratorio,  per la loro capacità manipolativa, per la serie di innumerevoli prove che compiono seguendo un metodo ipotetico deduttivo rigoroso. Sono gli attori di una attività di laboratorio che sarà sempre più aperta e pubblica rispetto al mondo chiuso del vecchio laboratorio del farmacista. I notevoli risultati  che raggiungono saranno riletti e reinterpretati da Lavoisier all’interno del nuovo paradigma che egli elaborerà.          

Lavoisier e Macquer

Lavoisier, dopo aver terminato i suoi studi alla Sorbona, diventa pochi mesi dopo avvocato. Tuttavia non seguirà le orme del padre , anch’ egli avvocato, perché saranno le scienze ha occupare i suoi interessi , anche se ancora non ha una preferenza verso una particolare disciplina scientifica. Il suo obbiettivo sarà perciò quello di entrare come membro all’Academie des Sciences. L’Accademia è l’istituzione dove viene praticata la ricerca, provvista di un laboratorio ben attrezzato, di una biblioteca e i cui membri son ben remunerati. La ricerca è indirizzata verso le scienze matematiche  (ovvero geometria, astronomia  e meccanica) e le scienze fisiche (ovvero chimica, anatomia, botanica).  L’interesse verso la chimica si manifesterà già nel 1766 ( all’età di ventidue anni), quando acquista diverse opere di chimica della biblioteca del defunto Jean Hellot, chimico dei più influenti, membro dell’Academie des Sciences e grande estimatore di Macquer . Lavoisier è un avido lettore che conosce anche  la letteratura scientifica di  Pierre-Joseph Macquer che è uno dei più grandi  chimici francesi. È certo che Il Dizionario di chimica di Macquer,  che è pubblicato proprio  nel 1766,  per la sua importanza e influenza,   contribuirà a orientare l’inclinazione di Lavoisier verso la chimica. In particolare Il ruolo che la chimica assume nel Dizionario,  dove è esaltata la sua autonomia di scienza rispetto alla medicina e alla farmacia , l’ha sicuramente resa agli occhi del giovane Lavoisier degna dei suoi studi

Negli anni 1772-73  Macquer e Lavoisier, che nel frattempo è diventato membro dell’Accademia,   lavoreranno insieme  alla soluzione della natura del diamante . Un’altra grande impresa sperimentale, che vide ancora Macquer e Lavoisier collaborare dal 1775 al 1783, fu il tentativo di produrre salnitro, tentativo sponsorizzato dal re.

Assemblaggio molecolare catalizzato da elettroni

In evidenza

Rinaldo Cervellati

tratto da [1]


Semplici catalizzatori possono favorire il riconoscimento molecolare e l’assemblaggio molecolare.

Bastano pochi elettroni per aumentare significativamente la velocità di assemblaggio supramolecolare di una molecola che si infila in un’altra. La scoperta estende la catalisi elettronica, che viene utilizzata nella chimica covalente sintetica, alla chimica non covalente e può portare a nuove forme complesse di materiali.

I processi di legame non covalenti, come il riconoscimento molecolare e l’assemblaggio supramolecolare, si verificano ampiamente in chimica e biologia. La velocità di questi fenomeni, che è generalmente bassa, può essere accelerata, ma ciò richiede sistemi catalitici complessi.

Il 20 marzo scorso, alla riunione primaverile dell’American Chemical Society, Yang Jiao (fig.1) della Northwestern University (Illinois, USA), ha riferito che la velocità di assemblaggio di un complesso ospite-ospite può essere aumentato di un fattore 640 in presenza di semplici catalizzatori: elettroni.

Figura 1. Yang Jiao

Parlando in una sessione organizzata dalla Divisione di Chimica Organica, Jiao ha descritto uno studio che coinvolge l’assemblaggio di un complesso costituito da un ricevente molecolare a forma di anello e un ospite a forma di manubrio. Il ricevente contiene due cationi radicali bipiridinio (BIPY), L’ospite è composto da tre unità; un sito di legame del catione radicale bipirdinio al centro, che guida l’assemblaggio con il ricevente tramite interazioni di accoppiamento radicalico; un ingombrante gruppo diisopropilfenile su un’estremità che non può infilarsi attraverso l’anello e un catione dimetilpiridinio (PY) sull’altra estremità (figura2).

Figura 2. Un macrociclo ricevente a forma di anello e un ospite a forma di manubrio, ciascuno contenente siti radicalici (punti bianchi) e cationici (+), formano rapidamente un complesso quando catalizzati dagli elettroni. Credit: Nature

In condizioni normali, la repulsione tra il catione PY e i cationi radicali BIPY impedisce l’assemblaggio dell’ospite con il ricevente.

I ricercatori hanno scoperto che quantità catalitiche di vari tipi di sorgenti chimiche di elettroni, inclusi metalli, complessi metallici e comuni agenti riducenti,  aumentano rapidamente la velocità di reazione con poca dipendenza dal tipo di sorgente. Anche l’applicazione di corrente elettrica a una soluzione contenente le molecole ha catalizzato il processo di assemblaggio. L’aggiunta di elettroni al sistema riduce la repulsione coulombiana, consentendo all’estremità PY del manubrio di infilare l’anello, come mostrato anche da calcoli quantistici.

Jiao e altri, tra cui Sir J. Fraser Stoddart della Northwestern (Premio Nobel per la chimica 2016, fig. 3) e William A. Goddard III del California Institute of Technology, hanno recentemente pubblicato questo lavoro su Nature [1].

Figura 3. Sir James Stoddard

La formazione redox di molecole intrecciate meccanicamente è nota da molto tempo, ma “il coinvolgimento della catalisi elettronica durante il processo è notevole e apre gli occhi”, ha affermato Rafal Klajn del Weizmann Institute of Science (Israele). Egli ipotizza che l’attività catalitica potrebbe essere ulteriormente aumentata se l’anello o il manubrio fossero immobilizzati in superficie.

Bibliografia

[1] Yang Jiao, Yunyan Qiu et al., Electron-catalysed molecular recognition, Nature, 2022, 603, 265-270.


[1] Mitch Jacoby, Electrons catalyze molecular assembly, Chem. & Eng. News, March 23, 2022

La crisi degli oppioidi.

In evidenza

Claudio Della Volpe

Qualcuno potrebbe pensare che ho sbagliato il titolo del post, ma non è così; cominciamo da questo. Parliamo di oppioidi non oppiacei.

La differenza tra oppioide e oppiaceo è che oppioide è un termine più ampio usato per descrivere qualsiasi tipo di sostanza, naturale o sintetica che si leghi ai recettori degli oppioidi nel cervello (questi recettori controllano il dolore, i comportamenti piacevoli e di dipendenza).

Gli oppioidi includono sostanze naturali, come codeina, morfina ed eroina (in realtà solo la morfina si estrae, le altre sono comunque prodotti di una reazione; la morfina è stato il primo principio attivo estratto da una fonte vegetale ed è uno degli almeno 50 alcaloidi di diversi tipi presenti nell’oppio. La morfina è generalmente contenuta in un 8-17 per cento del peso a secco dell’oppio, anche se può raggiungere il 26 per cento in alcune specie); sostanze completamente sintetiche come fentanil e metadone; e sostanze semisintetiche come l’idrocodone (Vicodin) e l’ossicodone (Oxycontin).

La parola oppiaceo invece si riferisce a sostanze naturali che possono essere estratte dalla pianta di papavero da oppio in fiore, come eroina, morfina e codeina (con le precisazioni fatte sopra).

Da questa distinzione segue che mentre tutti gli oppiacei sono anche oppioidi, non tutti gli oppioidi sono oppiacei.

E’ anche importante notare che gli oppiacei sono naturali, ma questo non significa che siano meno dannosi dei sintetici; dipende.

Gli oppiacei sono tra i farmaci più antichi al mondo e già dal 3000 a.C .Ci sono tracce della conoscenza di alcune proprietà̀ dell’oppio nelle culture cinesi e arabe. A partire dal 300 a.C.si trovano i primi documenti scritti sulle proprietà̀ dell’oppio grazie a Teofrasto, un filosofo e botanico Greco.

Parecchi articoli recenti di importanti giornali come Nature o The Lancet hanno analizzato il fenomeno indicato come “crisi degli oppioidi”; ne riporto qualcuno di recente in fondo.

Cosa si intende?

Si intende il fenomeno illustrato dal grafico successivo, consistente nell’incremento massiccio del consumo di oppioidi negli USA, ma non solo, con un corrispondente incremento dei loro pesantissimi effetti collaterali: morte da overdose!

Il fenomeno è stato tanto enorme da sollecitare la costituzione di parecchi gruppi di studio sia ufficiali che non, per comprendere le cause del fenomeno e cercare una soluzione.

Negli USA ci sono zone come per esempio le grandi città (in particolare della costa ovest, anche per una diversa politica della citta di New York)  dove i morti da overdose sono diventati un fenomeno quotidiano, innescando un panorama di morti mattutini da rimuovere dalle strade, una cosa per noi impensabile.

La Stanford-Lancet Commission on the North American Opioid Crisis è stata costituita in risposta all’impennata della morbilità e della mortalità correlata agli oppioidi negli Stati Uniti e in Canada negli ultimi 25 anni. La Commissione è sostenuta dalla Stanford University e riunisce diversi studiosi di Stanford e altri importanti esperti negli Stati Uniti e in Canada, con l’obiettivo di comprendere la crisi degli oppioidi, proporre soluzioni alla crisi a livello nazionale e tentare di fermarne la diffusione a livello internazionale.

La Commissione ha concluso che l’ondata iniziale della crisi degli oppioidi è sorta a causa della debolezza delle leggi e dei regolamenti e della loro scarsa attuazione. Ciò ha incluso veri e proprii errori della Food and Drug Administration degli Stati Uniti, che ha approvato OxyContin con quella che in seguito si è dimostrata essere una descrizione fraudolenta del farmaco. Ulteriori problemi sono sorti a causa di relazioni eccessivamente intime tra produttori di oppioidi e università, società professionali, gruppi di difesa dei pazienti e legislatori e promozione aggressiva del prodotto ai prescrittori e (in misura minore) al pubblico in generale.

Scrive Nature:

Nel 2015, negli Stati Uniti è successo qualcosa che non si era verificato lì negli ultimi 100 anni: l’aspettativa di vita è entrata in un periodo di declino sostenuto. Secondo il Gruppo della Banca Mondiale, l’aspettativa di vita media del paese è scesa da 78,8 anni nel 2014 a 78,7 anni nel 2015, e poi a 78,5 anni nel 2016 e nel 2017. Nella maggior parte dei paesi ad alto reddito, l’aspettativa di vita è aumentata, gradualmente ma costantemente, per decenni. L’ultima volta che l’aspettativa di vita negli Stati Uniti ha mostrato un declino simile è stato nel 1915-18, a causa delle morti militari nella prima guerra mondiale e nella pandemia influenzale del 1918. Questa volta, il colpevole è stata un’ondata di overdose di droga e suicidi, entrambi legati all’uso di farmaci oppioidi. Il tasso di mortalità per droga le overdose sono più che triplicate tra il 1999 e il 2017 e quelle da overdose da oppioidi sono aumentate di quasi sei volte nello stesso periodo.

Uno dei motivi di questo fenomeno, secondo Nature è stata la sottovalutazione degli effetti degli oppioidi utilizzati in clinica, basata su alcune pubblicazioni relative alle sostanze. L’opinione prevalente è che questi lavori sono stati sovra-interpretati ed hanno contribuito alla percezione che gli oppioidi creavano dipendenza solo se usati a scopo ricreativo – e non quando usati per trattare il dolore.

Negli Stati Uniti, oltre il 3% della popolazione adulta è in terapia cronica con oppioidi e si registrano casi di abuso e overdose da farmaci oppioidi prescritti per il controllo del dolore non oncologico in quasi tutte le fasce d’età, con un picco del tasso di mortalità (per entrambi i sessi) tra i 45 e i 54 anni.( https://www.farmacovigilanzasardegna.it/2018/05/03/oppiacei-per-il-trattamento-del-dolore-cronico-in-italia/ )

L’affermazione che OxyContin creava meno dipendenza di altri antidolorifici oppioidi era falsa: Purdue Pharma, il produttore, sapeva che creava dipendenza, come ha ammesso in una causa del 2007 che ha portato a una multa di 635 milioni di dollari per la società. Ma medici e pazienti non ne erano a conoscenza all’epoca.

L’International Narcotics Control Board stima che 11,5 tonnellate di ossicodone siano state prodotte in tutto il mondo nel 1998, con una crescita a 75,2 tonnellate nel 2007. Di tutti i paesi, gli Stati Uniti avevano il più alto consumo totale di ossicodone nel 2007 (82% del totale mondiale di 51,6 tonnellate) e inoltre il più alto consumo pro capite, seguiti da Canada, Danimarca, Australia e Norvegia.

Nei 12 mesi tra aprile 2020 e 2021 negli Stati Uniti sono state registrate 100’000 vittime da overdose di oppiacei. L’ossicodone, di per sé, non è considerato fatale, se assunto come da prescrizione. Tuttavia, oltre i 320 mg giornalieri può diventare pericoloso, soprattutto nei casi di abuso (attraverso inalazione o iniezione per via endovenosa) e quando associato ad altri farmaci, droghe o sostanze, come benzodiazepine, antidepressivi e alcool. In Italia l’abuso di ossicodone è di gran lunga meno preoccupante che in Nord America, ma rappresenta comunque il farmaco oppiaceo che ha causato il maggior numero di tossicodipendenti dal 2010 a oggi. Nel rapporto OsMed del 2015, che ha valutato il periodo compreso tra il 2007 e il 2015, era stato documentato un aumento delle prescrizioni di oppioidi di circa 4 volte, potenzialmente correlabile alla riduzione della prescrizione dei FANS, che si è osservata (da 25 DDD nel 2007 a 20 DDD nel 2015). Tra i farmaci più prescritti, risultano esserci l’ossicodone in associazione (ad esempio ossicodone/naloxone) e il tapentadolo, per i quali occorre ricordare che i numeri italiani di consumo in partenza erano molto bassi, vicini allo zero.Tuttavia, in Italia l’incremento nelle prescrizioni degli oppioidi maggiori è modesto, rispetto ad altri paesi europei come per esempio la Germania e l’utilizzo di analgesici oppiacei rimane di gran lunga inferiore al Nord Europa e agli USA.

https://it.oldmedic.com/opioid-potency-comparison

Anche la struttura del sistema sanitario negli Stati Uniti ha contribuito alla sovraprescrizione degli oppioidi. Poiché molti medici sono in uno studio privato, possono beneficiare finanziariamente aumentando il volume di pazienti che vedono, oltre a garantire la soddisfazione del paziente, e questo può incentivare la sovraprescrizione di farmaci antidolorifici.

Gli oppioidi da prescrizione sono anche economici a breve termine. I piani di assicurazione sanitaria dei pazienti spesso coprivano i farmaci antidolorifici ma non gli approcci di gestione del dolore come la terapia fisica. “Gli incentivi erano lì per le persone a prescrivere sempre di più, in particolare quando erano già convinti che fosse la cosa giusta da fare – la cosa compassionevole da fare“, riporta Nature.

I medici in Europa non sono motivati finanziariamente a fare prescrizioni. E mentre la comunità medica statunitense ha abbracciato con entusiasmo i piccoli studi che suggerivano che le persone avevano un basso rischio di sviluppare una dipendenza da oppiacei, gli specialisti del dolore europei hanno visto la cosa in modo più scettico, dice Jan Van Zundert, anestesista presso l’ospedale East Limburg di Genk, Belgio. “Negli ultimi 20 anni, quasi non ho prescritto oppioidi per il dolore cronico non oncologico“, dice Van Zundert. Questa pratica “si basa sul fatto che non esiste letteratura che la supporti“, aggiunge.

Gli atteggiamenti razziali e le tendenze socio-economiche hanno anche aiutato l’epidemia di oppioidi a prendere piede negli Stati Uniti. Purdue Pharma ha focalizzato la commercializzazione iniziale di OxyContin sulle comunità bianche suburbane e rurali. Questa strategia ha approfittato dell’immagine prevalente di un tossicodipendente come una persona afro-americana o ispanica che viveva nel centro della città per scongiurare potenziali preoccupazioni sulla dipendenza, dice Helena Hansen, antropologa e psichiatra presso la NYU Langone Health di New York City. La società ha preso di mira i medici che stavano “servendo pazienti che non si pensava fossero a rischio di dipendenza”, dice Hansen. “C’era un sottotesto razziale definito in questo.”

L’epidemia di oppioidi ha avuto tre fasi: la prima è stata dominata da oppiacei da prescrizione, la seconda dall’eroina e la terza da oppioidi sintetici più economici – ma più potenti – come il fentanil.

Di fronte a un contraccolpo negli Stati Uniti e in Canada, i produttori di oppioidi stanno aumentando le loro attività ovunque. Un’indagine del 2016 del Los Angeles Times (vedi go.nature.com/2z1oa0r) ha rivelato che Mundipharma International, la controparte globale di Purdue Pharma, che ha sede a Cambridge, nel Regno Unito, aveva usato tattiche simili, come il marketing aggressivo e le affermazioni di non dipendenza, per promuovere OxyContin in numerosi altri paesi, tra cui Australia, Brasile, Cina, Colombia, Egitto, Messico, Filippine, Singapore, Corea del Sud e Spagna.

E per quanto le autorità degli Stati Uniti stiano lavorando per affrontare la crisi degli oppioidi, il paese potrebbe ancora essere vulnerabile alle epidemie di altri tipi di farmaci da prescrizione. Alcuni ricercatori sono preoccupati che le benzo-diazepine, una classe ampiamente utilizzata di sedativi, siano sovraprescritte. Le pillole in eccesso sono spesso condivise con familiari o amici – in modo simile a quello che è successo all’inizio della crisi degli oppioidi. Ma le benzodiazepine sono addictive (danno dipendenza) e possono essere pericolose se mescolate con altri farmaci. In effetti, circa il 23% dei decessi per overdose di oppiacei negli Stati Uniti nel 2015 ha coinvolto anche benzodiazepine.

Detto questo possono apparire preoccupanti e discutibili le affermazioni di alcuni emeriti medici italiani:

Per il professor Guido Fanelli, direttore della struttura di terapia antalgica all’Azienda ospedaliero-universitaria di Parma, “è emersa la necessità di migliorare in tutta Europa l’educazione dei pazienti, che non devono più temere i farmaci oppioidi, ma anche la formazione dei clinici, affinché impostino le cure più appropriate”.

Attenti dunque all’uso di oppioidi di qualunque tipo eccetto che nei casi di dolore estremo non gestibile in altro modo (dolore da tumore). Messaggi medici in controtendenza potrebbero risentire della potente campagna di vendite orchestrata dai produttori mondiali di oppioidi di sintesi o semisintesi.

Il Position Paper della Società italiana di Farmacologia (2018) conclude che, benché l’utilizzo di analgesici oppiacei in Italia sia di gran lunga inferiore al Nord Europa e agli USA, grande attenzione debba essere posta nell’evitare il rischio di abuso, pur garantendo a tutti i pazienti con dolore il diritto all’accesso alle cure, come previsto dalla legge 38/2010.

Articoli consultati:

http://www.thelancet.com/public-health Vol 7 March 2022 p.195

http://www.thelancet.com Vol 399 February 5, 2022 p.555

NATURE | VOL 573 | 12 SEPTEMBER 2019 p S12

https://www.farmacovigilanza.eu/content/oppioidi-la-vera-preoccupazione-%C3%A8-che-non-si-usano-nel-dolore

https://www.farmacovigilanzasardegna.it/2018/05/03/oppiacei-per-il-trattamento-del-dolore-cronico-in-italia/

http://www.sifweb.org/documenti/PositionPaper/position_paper_2018-04-03

Wikipedia ha due voci:

https://en.wikipedia.org/wiki/Opioid_epidemic

https://en.wikipedia.org/wiki/Opioid_epidemic_in_the_United_States

Il post contiene ampie citazioni degli articoli elencati o linkati.

Rinnovabili al palo.

In evidenza

Luigi Campanella, già Presidente SCI.

L’Italia è il Paese del Sole e per rispondere alle richieste dell’Europa e della nostra coscienza dobbiamo spostarci verso le energie rinnovabili. Oggi (dati 2020) il pacchetto energia elettrica in Italia è composto (se pesato sui consumi) da gas naturale (43%), altre non rinnovabili (7%), rinnovabili (38%, in ordine di produzione totale idroelettrico, fotovoltaico, eolico, carbone, biogas, geotermico, bioliquidi, biomasse). Il restante è importato.

Dovendo spostare l’impegno verso le rinnovabili la considerazione di partenza sembrerebbe configurare una situazione ideale per lo sviluppo del solare. Poi invece si vanno a vedere i dati e ci si accorge che di quel 38% di rinnovabili solo poco più di 1/5  è coperto dal solare che pesa complessivamente solo per l’8% della richiesta totale elettrica con un incremento nell’ultimo anno del 9.6%. Eppure entro il 2030 dovrebbero essere installati nuovi 70 gigawatt di solare dei quali ad oggi solo lo 0.8% è attivo. Gli impianti attivi sono oggi quasi 1 milione con Veneto e Lombardia che coprono quasi il 30 % del totale. Le ragioni di questo ritardo sono innanzitutto, ma non solo, burocratiche: si pensi che dei 33 Gigawatt di opere  presentate dal 2018 soltanto il 9 % ha ricevuto il via libera definitivo e che 35 miliardi di investimenti privati già pronti per essere spesi sono bloccati, secondo quanto denuncia l’Alleanza per il Fotovoltaico, il network di imprese impegnate nel settore. Il procedimento per la realizzazione di un parco fotovoltaico in zone non vincolate si compone di 2 procedimenti, valutazione di impatto ambientale ed autorizzazione unica.

Tra i numerosi pareri positivi da acquisire ci sono quelli di Sovrintendenza e Uffici Regionali relativamente all’impatto sul paesaggio, che finiscono per rappresentare una strozzatura temporale e sostanziale  verso la realizzazione. Il ritardo temporale comporta come conseguenza il rischio di ritrovarsi con progetti tecnologicamente superati. Gli ultimi interventi del Governo in materia concretizzati nei decreti energia e semplificazioni hanno in parte agevolato il superamento di questi ostacoli: ad esempio nel caso di impianti sopra i 10 mega watt entrambi i procedimenti ricordati, VIA ed autorizzazione unica, vengono affidati ad una speciale  commissione PNRR(programma nazionale ripresa e resilienza)-PNIEC(piano nazionale energia e clima).

La responsabilità della burocrazia è indiscutibile, come anche la necessità di una semplificazione normativa, ma un’altra carenza è certamente di tipo più tecnico e meno amministrativo. L’istruzione delle pratiche autorizzative richiede una capacità tecnica che, se manca, preclude il rispetto dei dovuti tempi e modi. Da questo punto di vista la creazione ipotizzata di task force regionali può agevolare nel superare questo collo di bottiglia.

Covid: ancora chimica e medicina.

In evidenza

Luigi Campanella, già Presidente SCI

Più volte mi sono soffermato sugli insegnamenti del Covid-19 che non sempre sono stati colti completamente, ma che certamente hanno aperto alla nostra vita prospettive nuove sia rispetto ad alcuni valori sia rispetto alle tecnologie che ci ha obbligato a sviluppare e sfruttare.

Una di queste è di certo collegata alla possibilità di respirare aria pulita in casa e per strada. Il punto di partenza di questa tecnologia è proprio la mascherina Ffp2 che abbiamo indossato con continuità per tanti mesi: sul mercato sta per arrivare una cuffia bluetooth con filtro analogo a quello delle mascherine, capace di cancellare il rumore e con una visiera applicata che fornisce aria purificata alla bocca ed al naso. Gli studi su questo progetto sono iniziati ben prima del Covid per proteggere soprattutto da ossidi di azoto, allergeni e particolato atmosferico. Durante la pandemia l’aria esterna era di migliore qualità, ma oggi stiamo tornando alla situazione precedente.

L ‘aria viene aspirata e purificata mediante un ventilatore e filtri HEPA (microfibre alternate ad alluminio e a carbone attivo fino al 99% delle particelle di 0,1 micron). Mediante un’ app il monitoraggio può avvenire anche da remoto. Il sistema si presta assai bene anche per l’atmosfera interna spesso inquinata da prodotti della frittura o della cottura, da peli di animali domestici, da prodotti della pulizia domestica

Un altro insegnamento del Covid ci viene dal Dipartimento di Salute Pubblica di San Francisco che ha creato il Covid hospital data depository (CHDR). Si tratta di un database che unisce i pazienti sulla base del livello di gravità della malattia e di tutta una serie di informazioni su di essi realizzando per ognuno quello che viene chiamato il documento di conoscenza, che sostituiva il precedente foglio elettronico definito provocatoriamente di fantasia in quanto privo dei dati essenziali al suo sfruttamento.

Purtroppo è mancata in questa prima applicazione l’automazione della gestione per cui i dati venivano postati manualmente dal personale del Dipartimento. Questa situazione é stata superata grazie all’impegno del Direttore Eric Raffin che collaborando con sistemi diversi, attivi nella medicina del territorio locale, è riuscito a centralizzare una buona parte dei dati informativi compresi risultati di analisi cliniche, diagnosi, demografia dei pazienti, lunghezza della degenza in.ospedale, terapia adottata.

Attenzione è stata posta anche alla qualità dei dati centralizzati al fine di poterli considerare fruibili. A tal fine è stata realizzata una scala di attendibilità delle fonti che potesse aiutare a generare indici di accuratezza. Il CHDR è oggi un prezioso strumento che consente di prevenire e curare individuando situazioni mediche e sociali più esposte al Covid-19. La gestione del sistema consente alla medicina del territorio interventi preliminari che evitino il sovraffollamento delle strutture ospedaliere confinandole soltanto ai casi di vero pericolo. Anche su questo progetto la Chimica dà il suo contributo: andando a verificare nel data base la natura dei dati immagazzinati ci si rende conto del loro prevalente carattere chimico. Questa esperienza dimostra ancora una volta come in una visione olistica della scienza i periodi storici siano caratterizzati da apparentamenti: quello più significativo nell’era del Covid-19 è senz’altro fra chimica e medicina.

Misurare le emissioni di metano è importante per ridurle

In evidenza

Rinaldo Cervellati

Il titolo del post è il titolo con cui Jamie Durrani ha scritto un bell’articolo su Chemistry World il 21 marzo scorso [1]. Qui ne riportiamo una versione tradotta e adattata da chi scrive.

Alla conferenza sul clima Cop26 dello scorso anno a Glasgow più di 100 paesi hanno firmato il “Global Methane Pledge”, l‘intenzione di ridurre le emissioni mondiali di metano del 30% entro il 2030. Si stima che il metano (figura 1), che ha un potenziale di riscaldamento globale più di 80 volte quello dell’anidride carbonica in un periodo di 20 anni, sia responsabile di un quarto degli aumenti di temperatura che si osservano oggi.

Figura 1. Formula di struttura del metano (a sinistra), immagine stick and balls (a destra).

Ma c’è un problema con cui le autorità devono confrontarsi quando stabiliscono obiettivi per ridurre queste emissioni: la maggior parte dei paesi in realtà non sa quanto metano rilascia nell’atmosfera. I firmatari dell’accordo di Parigi del 2015 devono riportare regolarmente un inventario nazionale delle emissioni di gas serra, incluso il metano, alla Convenzione quadro delle Nazioni Unite sui cambiamenti climatici (UNFCCC). Ma queste stime variano e nella maggior parte dei casi non richiedono che siano verificate da misurazioni quantitative.

Negli ultimi anni numerosi studi indipendenti di monitoraggio del metano hanno evidenziato grandi discrepanze tra le quantità misurate di gas naturale immesso nell’atmosfera e quanto registrato negli inventari nazionali. In particolare, le perdite dalle infrastrutture del petrolio e del gas sembrano spiegare quantità allarmanti di emissioni di metano non dichiarate.

Thomas Lauvaux, uno scienziato atmosferico dell’Università di Parigi- Saclay (Francia), afferma: “Capire perché le emissioni riportate non sembrano corrispondere ai dati atmosferici raccolti è fondamentale per le politiche climatiche a lungo termine”.

Si tratta essenzialmente dell’approccio “dal basso verso l’alto” mediante il quale vengono compilati gli inventari. Nella maggior parte dei casi un’azienda è tenuta a valutare le potenziali fonti di emissioni di cui è responsabile: quante miglia di gasdotto e il numero di serbatoi di stoccaggio, vecchi pozzi, valvole, pompe e così via. Quindi moltiplica questi numeri per i fattori di emissione: stime di quanto metano perderà da ciascuna fonte.

Beh, sappiamo che questi numeri sono sbagliati“, dice Lauvaux (fig. 2) “Sono di parte. Non tengono conto di tutta la complessità dei sistemi operativi reali.

Figura 2. Thomas Lauvaux.

Esistono tre diversi livelli di segnalazione utilizzati negli inventari nazionali di metano, che l’UNFCCC chiama livelli uno, due e tre. Il livello tre rappresenta i protocolli più rigorosi, con stime più dettagliate che sono suffragate da un grado di monitoraggio a livello di sorgente. I rapporti di primo livello utilizzano fattori di emissione molto generici e generalmente forniscono i dati meno accurati.

Jasmin Cooper (fig. 3) dell’Imperial College di Londra (Regno Unito), la cui ricerca verte sull’analisi quantitativa delle emissioni delle strutture petrolifere e del gas, osserva: “Purtroppo, sono i più comunemente usati perché molti paesi semplicemente non hanno i dati. È perché il metano non è stato davvero una priorità fino a dopo l’accordo di Parigi, quella è stata la prima volta in cui si è effettivamente enfatizzato che il metano e altri inquinanti climatici sono importanti per affrontare il cambiamento climatico”.

Figura 3. Jasmin Cooper.

Uno dei principali problemi con il modo in cui gli inventari sono attualmente compilati è che non possono tenere conto di “incidenti” che contribuiscono con grandi quantità di metano all’atmosfera. Nel febbraio di quest’anno, il gruppo di Lauvaux ha pubblicato i dati raccolti dal Tropospheric Monitoring Instrument (Tropomi), un sistema di rilevamento del metano a bordo del satellite Sentinel 5-P dell’Agenzia spaziale europea. I dati di Tropomi rivelano l’entità sorprendente delle emissioni di metano associate a eventi “ultra-emittenti” in tutto il mondo (fig. 4).

Figura 4. Immagine di un evento “ultra-emittente”.

Quando abbiamo aggregato tutti questi numeri, abbiamo scoperto che c’erano centinaia di queste perdite “, afferma Lauvaux. “E sto parlando di perdite giganti, più di 20 tonnellate di metano l’ora, che equivale circa a un gasdotto aperto“.

Nel corso di due anni, dal 2019 al 2020, Tropomi ha rilevato circa 1200 eventi di ultra-emissioni associati alle infrastrutture del petrolio e del gas, con punti critici notevoli in Turkmenistan, Russia, Stati Uniti, Medio Oriente e Algeria. Il gruppo di Lauvaux calcola che queste perdite rappresentano circa 8 milioni di tonnellate di metano perse nell’atmosfera all’anno, circa il 10% delle emissioni totali associate alla produzione di petrolio e gas.

Egli afferma: “E stiamo guardando solo la punta dell’iceberg: sappiamo che ci sono molte più perdite al di sotto della soglia di rilevamento. Quindi per la prima volta abbiamo stabilito che queste perdite giganti si verificano più spesso di quanto pensassimo e rappresentano una quantità significativa di metano.  Se queste perdite fossero riparate, le emissioni si ridurrebbero del 10 o 20%.

Sebbene le misurazioni satellitari abbiano il potenziale per migliorare il monitoraggio, questi strumenti sono costosi e sono attualmente ostacolati dalla bassa risoluzione e dalle condizioni meteorologiche, che le rendono più difficili specialmente nelle regioni più umide. Possono, tuttavia, essere integrate da una tecnologia di misurazione più localizzata montata su torri, furgoni e aeroplani.

Molte delle più grandi compagnie petrolifere e del gas utilizzano già queste tecniche in una certa misura per rilevare le perdite: infatti, per l’industria energetica una perdita di gas significa perdita di profitto. Secondo la Oil and Gas Methane Partnership (OGMP)[1], solo nel 2021 sono stati sprecati 19 miliardi di dollari di metano a livello globale.

Cooper, che non è stata coinvolta nel progetto Tropomi, osserva che con i sistemi di monitoraggio satellitare sta “diventando più difficile nascondere le emissioni. Una scoperta interessante dello studio è che la manutenzione è una grande fonte di emissioni, poiché non è qualcosa che viene segnalato dalle aziende. Ci sono linee guida su come prevenire lo sfiato durante la manutenzione, ma dipende dalle pratiche del singolo operatore.”

Lauvaux ritiene che il set di dati del suo gruppo potrebbe aiutare i funzionari a cercare di capire perché alcune regioni sembrano avere prestazioni migliori di altre nella prevenzione di eventi di ultra-emissione. Dice: “Per me, ora c’è più un aspetto politico. Sulla base di quanto riportato, vorrei che i responsabili politici esaminassero la questione con più attenzione e dicessero: Ok, chi sta facendo un ottimo lavoro? Perché stanno facendo un ottimo lavoro? E cosa si potrebbe implementare in modo che domani diminuiscano le emissioni dagli Stati Uniti, dal Turkmenistan e dalla Russia.

Dal 2014 la OGMP ha visitato più di 70 aziende, che rappresentano metà della produzione mondiale di petrolio e gas. Alla fine del 2020, ha pubblicato nuove proposte con l’obiettivo di ridurre del 45% le emissioni di metano del settore entro il 2025 e del 60-75% entro il 2030. La chiave della proposta è giungere a “un quadro completo di segnalazione di tutte le fuoriuscite di metano basato su misurazioni” che, secondo OGMP, “sarà in grado di rendere più facile per i funzionari monitorare e confrontare accuratamente le prestazioni di tutte le società in modi che prima non erano possibili”.

Spiega Cooper: “Se aderisci al progetto OGMP in pratica stai riconoscendo che la tua azienda prende molto sul serio il monitoraggio delle emissioni di metano. Quindi avrai una serie molto rigorosa di standard su ciò che stai (o non stai) facendo “.

Il quadro di riferimento di OGMP consente alle aziende di segnalare le emissioni di ciascuna delle loro operazioni a uno dei cinque livelli, con l’obbligo di portare tutti i rapporti al livello cinque (il più rigoroso) entro tre anni.

Ora spetta ai responsabili politici cercare di incoraggiare più aziende a utilizzare la migliore tecnologia disponibile per raggiungere questo obiettivo. A dicembre, la Commissione europea è diventata la prima firmataria dell’impegno a raggiungere gli obiettivi per le emissioni, con una nuova enfasi posta sul monitoraggio delle perdite di metano. La commissione vuole utilizzare il progetto OGMP come modello per migliorare l’accuratezza dei rapporti sull’inventario. Vuole inoltre che l’Osservatorio internazionale delle emissioni di metano fornisca un controllo aggiuntivo degli inventari delle emissioni, incrociandoli con “altre fonti come l’imaging satellitare“.

Maria Olczak, esperta di politica del metano, (Florence School of Regulation, Istituto universitario europeo in Italia), osserva: “Questo è un punto piuttosto interessante, perché è la prima volta che la Commissione europea dà importanza a un organismo internazionale che parteciperà al modo in cui viene attuato il regolamento”. Tuttavia, Olczak avverte che queste disposizioni potrebbero suscitare resistenza da parte degli operatori. Afferma: “Le aziende più piccole non sono favorevoli a fare campagne di rilevamento e riparazione ogni tre mesi. Secondo la mia esperienza, le aziende più grandi lo fanno una volta all’anno e per molte di loro non è nemmeno sull’intera struttura“.

Figura 5. Maria Olczak.

Il piano della commissione include anche nuovi meccanismi di trasparenza sulle importazioni di combustibili fossili. “La Commissione europea ha suggerito di creare due banche dati. Il primo sarà il database delle emissioni di metano relativo ai combustibili fossili importati nell’Unione Europea. Quindi, gli importatori dovranno divulgare informazioni esatte sulla provenienza dei diversi combustibili fossili, se tali paesi sono parti dell’accordo di Parigi, come segnalano le emissioni, e altro”, spiega Olczak. “Il secondo è lo strumento di monitoraggio globale del metano che utilizza le osservazioni satellitari: qui, penso, la commissione si concentrerà principalmente sul rilevamento dei super-emettitori“. Tuttavia, Olczak osserva che la commissione ha riconosciuto che l’attuale mancanza di dati di alta qualità sul metano renderebbe difficile l’attuazione di nuove tariffe sulle emissioni importate. Aggiunge quindi: “La Commissione europea ha anche menzionato in una delle disposizioni che rivedrà il suo approccio alle emissioni importate e proporrà alcune misure aggiuntive entro il 2025”.

Prima che possano essere trasformate in legge, le proposte della Commissione saranno esaminate dal Consiglio e dal Parlamento europeo in un processo che richiederà almeno un anno. Olczak sottolinea che, mentre è sempre probabile che le politiche vengano attenuate, è possibile che la crisi energetica in Europa faccia diminuire le misure che aumentano il prezzo del gas.

Bibliografia

[1] Measuring methane emissions is crucial to cutting them, Jamie Durrani, Chemistry World, 21 marzo, 2022.

Sul metano il blog ha pubblicato una serie di articoli, ad es:


[1] OGMP è un’iniziativa multi-stakeholder lanciata dal Programma delle Nazioni Unite per l’ambiente (UNEP) e dalla Coalizione per il clima e l’aria pulita e sostenuta dalla Commissione europea.

Ripensare la forza del legame chimico

In evidenza

Rinaldo Cervellati

Nel numero del 16 novembre di Chemistry World, Kyra Welter riporta un interessante articolo che discute come la differenza di elettronegatività fra due atomi non sia sempre correlata alla forza del legame che si instaura fra essi [1].

Nei testi di chimica si afferma che i legami chimici diventano più forti all’aumentare della differenza di elettronegatività tra gli atomi partecipanti. Ma alcuni ricercatori hanno raccolto prove che minano questo assunto: in alcuni casi sono le differenze nelle dimensioni degli atomi, e non le differenze di elettronegatività, che determinano le tendenze della forza del legame.

Un gruppo di ricerca proveniente da università olandesi, coordinato dal Prof. Dr. F. Matthias Bickelhaupt (Radboud University, Nijmegen and Vrije Universiteit, Amsterdam), afferma: “Una delle straordinarie eccezioni al modello dell’elettronegatività è la serie di legami carbonio-alogeno che, ironia della sorte, è un esempio popolare per illustrare questo approccio troppo semplificato”.

Un esempio da manuale è infatti l’indebolimento del legame carbonio alogeno in H3C−Y lungo Y=F, Cl, Br e I. Nonostante una serie di studi di legame su elementi del primo e secondo periodo, e altri studi sul legame chimico, esiste poca conoscenza quantitativa dell’effettivo meccanismo dei legami polari  al di là di argomenti basati sulle differenze di elettronegatività [2].

Utilizzando la teoria del funzionale densità, il gruppo olandese ha analizzato i legami elemento-elemento che coinvolgono atomi dei periodi 2 e 3 e dei gruppi da 14 a 17, che rappresentano una serie sistematica di situazioni di legame archetipico attraverso la tavola periodica [2]. Spiega il collega di Bickelhaupt Trevor A Hamlin.: “Questi legami sono onnipresenti nelle scienze chimiche e sono presenti in prodotti naturali, sostanze chimiche e materiali.”

I ricercatori mostrano che lungo un periodo, la variazione dell’elettronegatività è l’origine dell’andamento della forza di legame; è all’interno di un gruppo che il modello tradizionale si rompe. Il gruppo di Bickelhaupt ha analizzato attentamente come cambia l’energia di legame tra due atomi quando vengono avvicinati. Tali cambiamenti energetici hanno diverse componenti a causa dei diversi modi in cui gli elettroni e i nuclei interagiscono tra loro. I ricercatori hanno scomposto l’energia del legame in componenti, utilizzando il modello della deformazione di attivazione e l’analisi della decomposizione energetica, e quindi hanno esaminato la loro influenza relativa.  Ciò ha permesso loro di identificare le forze trainanti alla base della formazione di diversi legami e di scoprire come questi cambiano nei periodi e nei gruppi (figura 1).

Fig.1 Entalpia di dissociazione del legame (ΔH) dei sistemi HnX−YHn in funzione dell’elettronegatività di Pauling dell’elemento del gruppo principale. Elettronegatività di Pauling χ dal valore più basso a quello più alto: Si (1,90), P (2,19), C (2,55), S (2,58), N (3,04), Cl (3,16), O (3,44) e F (3,98).  ΔH calcolato a 298,15 K e 1 atm. [2]

Durante un periodo, ad esempio da carbonio-carbonio a carbonio-fluoro, i legami si rafforzano perché la differenza di elettronegatività tra di loro aumenta man mano che la coppia di elettroni di legame si stabilizza sempre di più sull’atomo più elettronegativo. Ma in un gruppo, ad esempio da carbonio-fluoro a carbonio-iodio, l’aumento delle dimensioni effettive dell’atomo è il fattore causale dietro l’indebolimento del legame, attraverso l’aumento della repulsione sterica di Pauli.

Il fatto che lo studio abbia valutato più distanze elemento-elemento, e non solo la geometria all’equilibrio, è importante perché è l’unico modo per scoprire cosa guida la formazione del legame, aggiunge Bickelhaupt: “Il nostro intuitivo “meccanismo di legame di dimensioni atomiche effettive” può essere applicato per comprendere la lunghezza e la forza del legame per più serie di legami attraverso la tavola periodica”.

Prof. Dr. F. Matthias Bickelhaupt

L’esperta di legami chimici Catharine Esterhuysen  (Stellenbosch University, Sudafrica), che non è stata coinvolta nello studio, dice: “La struttura e la reattività delle molecole dipendono fortemente dalla stabilità e dalla lunghezza dei legami chimici, quindi è fondamentale capire come questi parametri variano per le diverse combinazioni elemento-elemento nella tavola periodica. Ciò può aiutare gli scienziati a progettare metodi migliori per produrre nuove molecole, come composti farmaceutici e materiali funzionali”.

Esterhuysen afferma infine: “Questo articolo è un intrigante promemoria del fatto che nella scienza dovremmo sempre stare attenti a dare una risposta semplice. Come sottolineano i ricercatori, se si vuole davvero ottenere una piena comprensione di un meccanismo di legame, deve essere studiato a un livello profondo e fondamentale.”

Bibliografia

[1] K. Welter, Electronegativity’s role in determining bond strengths needs to be rethought., Chemistry World, 16 November, 2021

[2] E. Blokker et al., The Chemical Bond: When Atom Size Instead of Electronegativity Difference Determines Trend in Bond Strength., Chem. Eur. J.,  2021, 27, 15616–15622.

La Chimica delle molecole odorose

In evidenza

Pierandrea Lo Nostro*

Fra tutti i sensi di cui gli animali dispongono, l’olfatto è molto particolare. Per gli umani la vista è il principale senso che consente di controllare il presente, ciò che entra nell’orizzonte immediato, mentre l’udito è probabilmente più legato alla riflessione, al pensiero astratto, come ad esempio la musica. L’olfatto è invece il senso più legato alle emozioni e ai ricordi. Ognuno di noi nella propria vita associa un particolare odore a qualcuno, e questa memoria è molto potente, può arrivare a ritroso fino ai primi anni dell’infanzia e segnare in modo indelebile il ricordo di una persona cara, di una situazione, o di un ambiente.

La specie umana ha perso molto in termini di capacità olfattiva. Il cane da caccia ha una quantità di cellule sensoriali strepitosa (220 milioni di recettori), l’uomo ne possiede molte meno (20 milioni). Eppure anche nel parlato comune i modi di dire legati all’olfatto sono suggestivi: espressioni del tipo “a naso…”, oppure “questa cosa mi puzza”, o “essere in odore di…” o “sentire odor di quattrini” ci raccontano quanto gli odori siano fondamentali nel modo in cui percepiamo e interpretiamo la realtà.

Se consideriamo poi l’importanza degli odori nel mondo del sacro e del trascendente (pensiamo all’incenso) e più in generale nella vita culturale e nella storia dell’umanità (mulier recte olet, ubi nihil olet ci riferisce Plauto1), ci rendiamo conto di quanto questo felice connubio tra molecole più o meno volatili, recettori olfattivi e specifiche zone del cervello, sia fondamentale nella vita di ciascuno.

Nel mondo vegetale e animale poi le essenze2 giocano un ruolo ancora più vitale, si pensi ad esempio all’importanza e al ruolo dei feromoni.

Insieme al gusto, l’olfatto si basa evidentemente su una percezione sensoriale legata strettamente alla struttura chimica delle molecole. E qui si apre un orizzonte praticamente infinito. La Chimica è ovviamente coinvolta nei processi che presiedono all’olfatto. La Chimica Organica ci permette infatti di individuare i gruppi funzionali (come il gruppo aldeidico o “aromatico”) che determinano certi effetti olfattivi3, ma anche di progettare nuove molecole con lo scopo di ottenere nuove fragranze, ad esempio mimetiche di quelle di origine animale (il famoso musk) o di quelle vegetali per ovviare ai problemi legati alla variabilità genetica e stagionale degli estratti. Inoltre, la Stereochimica permette di spiegare come differenti stereoisomeri abbiano proprietà olfattive totalmente differenti. E infatti le hanno, ma purtroppo sappiamo troppo poco a questo riguardo, e le relazioni tra struttura e attività sono state ad oggi ancora troppo poco approfondite.

La Chimica Analitica ci offre potenti mezzi (per esempio GC/MS, gas cromatografia accoppiata con gas massa)) che ci permettono di capire quali componenti siano presenti in una miscela e quale sia la loro concentrazione. Questo riveste un’importanza capitale ovviamente anche sul controllo di qualità delle materie prime e dei prodotti finiti o sul regulatory, e altri aspetti ancora dell’attività industriale.

La possibilità di percepire una fragranza dipende, gioco forza, dalla volatilità delle molecole. È sempre la volatilità a determinare la classificazione in note di testa, di corpo e di coda. Queste vengono sprigionate dal profumo in sequenza, e su questo fenomeno gioca con maestrìa il profumiere accorto ed esperto. Questa è Chimica Fisica. Oltre a studiare gli aspetti legati alla caratterizzazione spettroscopica dei gruppi funzionali presenti nelle molecole, ad esempio mediante spettroscopia infrarossa o risonanza magnetica nucleare, il chimico fisico riesce a interpretare in termini di interazioni intermolecolari (guarda caso!) le proprietà olfattive delle molecole odorose. E questo non solo per gli odori gradevoli (i profumi), ma anche per nascondere o eliminare  odori sgradevoli. Ricordiamo a questo proposito l’uso delle ciclodestrine per inglobare molecole più o meno idrofobiche in un complesso host-guest e quindi abbatterne la volatilità. Ma la Chimica Fisica è essenziale anche per comprendere e proporre una parametrizzazione di concetti come la tenacità, il sillage (la scia lasciata da un profumo), la persistenza, il bloom, e altri ancora, tutti aspetti legati in qualche modo alle interazioni fra le molecole odorose e il substrato cui aderiscono. Insomma, tutti quegli aspetti essenziali per il formulatore di fragranze, sui quali la ricerca scientifica deve fare ancora molta strada.

Non parliamo solo di profumi o di accessori del cosiddetto mondo fashion, ma anche di prodotti cosmetici inclusi i deodoranti e gli antitraspiranti, detergenti per usi civili e industriali, prodotti per la deodorazione e la profumazione di ambienti. Letteralmente un mondo di formulati attende che la Chimica sviluppi a livello teorico e sperimentale modelli e metodologie, utili al progresso scientifico e alle realtà produttive.

Tutto questo, oltre che di packaging, design e marketing, di neurofisiologia dell’olfatto e di tossicologia, di storia e cultura del profumo, e soprattutto di formulazioni e di risposta olfattiva, ci occupiamo nell’ambito del corso di perfezionamento post-laurea in “Chimica delle molecole odorose” organizzato dal Dipartimento di Chimica “Ugo Schiff” dell’Università di Firenze in collaborazione con alcune delle più prestigiose realtà imprenditoriali nel settore delle fragranze. Tutte le informazioni sono disponibili online (www.corsofragranze.eu).

Note.

1: la donna profuma di buono quando non profuma (Plaut. Most. 273 Mart. 2, 12, 4)

2: il termine olio essenziale deriva direttamente dalla quintessenza, il quinto elemento introdotto da Aristotele, che per gli alchimisti sarà il componente principale della pietra filosofale

3: l’introduzione delle aldeidi ha garantito un successo imperituro a Chanel N° 5 a partire dal 1921.

L’autore:

*Pierandrea Lo Nostro (pierandrea.lonostro@unifi.it) è professore associato presso il Dipartimento di Chimica “Ugo Schiff” dell’Università di Firenze, dove insegna Chimica Fisica delle Formulazioni, Chimica Fisica Applicata, Soft Matter Materials e Storia della Chimica. È editor-in-chief di Substantia e svolge attività di ricerca nell’ambito della Chimica Fisica dei Sistemi Dispersi e delle Interfasi.

Elementi della Tavola periodica. Mercurio, Hg (seconda parte)

In evidenza

Rinaldo Cervellati

Applicazioni

Il mercurio viene utilizzato principalmente per la produzione di sostanze chimiche industriali o per applicazioni elettriche ed elettroniche. È utilizzato in alcuni termometri, in particolare quelli usati per misurare le alte temperature. Una quantità ancora crescente viene utilizzata come mercurio gassoso nelle lampade fluorescenti, mentre la maggior parte delle altre applicazioni viene gradualmente eliminata a causa delle normative in materia di salute e sicurezza e in alcune applicazioni viene sostituita con lega Galinstan[1], a bassa tossicità ma notevolmente più costosa.

Produzione di cloro e soda caustica

Il cloro viene prodotto dal cloruro di sodio (sale comune, NaCl) utilizzando l’elettrolisi per separare il sodio metallico dal cloro gassoso. Di solito il sale viene sciolto in acqua per produrre una salamoia. I sottoprodotti di tali processi cloroalcali sono l’idrogeno (H2) e l’idrossido di sodio (NaOH), comunemente chiamato soda caustica. Di gran lunga il più grande uso di mercurio alla fine del XX secolo era nel processo delle celle di mercurio (chiamato anche processo di Castner-Kellner) dove il sodio metallico si forma come un’amalgama su un catodo di mercurio; questa amalgama viene quindi fatta reagire con acqua per produrre idrossido di sodio. Molti dei rilasci di mercurio industriale del XX secolo provenivano da questo processo, sebbene gli impianti moderni affermassero di essere sicuri a questo riguardo. Dopo il 1985 circa, tutti i nuovi impianti di produzione di cloroalcali costruiti negli Stati Uniti hanno utilizzato le tecnologie delle celle a membrana o delle celle a diaframma per produrre cloro.

Usi di laboratorio

Alcuni termometri, specialmente quelli per alte temperature, sono riempiti di mercurio, ma stanno gradualmente scomparendo. Negli USA, la vendita senza prescrizione di termometri per febbre a mercurio è stata vietata dal 2003.

Alcuni telescopi utilizzano una vasca di mercurio per formare uno specchio piano e assolutamente orizzontale, utile per determinare un riferimento verticale o perpendicolare assoluto. Specchi parabolici orizzontali concavi possono essere formati ruotando mercurio liquido su un disco, la forma parabolica del liquido così formato riflette e focalizza la luce incidente. Tali telescopi a specchio liquido sono più economici dei telescopi a specchio grande convenzionali fino a un fattore 100, ma lo specchio non può essere inclinato ed è sempre rivolto verso l’alto.

Il mercurio liquido fa parte del popolare elettrodo di riferimento secondario (elettrodo a calomelano) in elettrochimica, come alternativa all’elettrodo di idrogeno standard. L’elettrodo a calomelano viene utilizzato per misurare i potenziale redox.  Ultimo, ma non meno importante, il punto triplo del mercurio, -38,8344 °C, è un punto fisso utilizzato come standard di temperatura per la scala internazionale della temperatura (ITS-90).

In polarografia, sia l’elettrodo di mercurio a caduta che l’elettrodo a goccia di mercurio sospeso usano mercurio elementare. Questo utilizzo consente di avere a disposizione un nuovo elettrodo non contaminato per ogni misura o ogni nuovo esperimento.

I composti contenenti mercurio sono anche utili nel campo della biologia strutturale. Composti mercurici come il cloruro di mercurio (II) o il tetraiodomercurato di potassio (II) possono essere aggiunti ai cristalli proteici nel tentativo di creare derivati ​​di atomi pesanti che possono essere utilizzati per risolvere il problema di fase nella cristallografia a raggi X tramite sostituzione isomorfa o metodi di diffusione anomala.

Altri usi

Il mercurio gassoso viene utilizzato nelle lampade ai vapori di mercurio e in alcune insegne pubblicitarie del tipo “insegna al neon” e nelle lampade fluorescenti.

Figura 7. Lampada a vapori di mercurio (sopra), assortimento di lampade fluorescenti (sotto)

Queste lampade a bassa pressione emettono linee spettralmente strette, che sono tradizionalmente utilizzate nella spettroscopia ottica per la calibrazione della posizione spettrale. A questo scopo vengono vendute lampade di calibrazione commerciali; riflettere una plafoniera fluorescente in uno spettrometro è una pratica di calibrazione comune. Il mercurio gassoso si trova anche in alcuni tubi elettronici, inclusi gli ignitroni, i tiratroni e i raddrizzatori ad arco di mercurio. Viene anche utilizzato in lampade per cure mediche specialistiche, per l’abbronzatura e la disinfezione della pelle. Il mercurio gassoso viene aggiunto alle lampade a catodo freddo riempite di argon per aumentare la ionizzazione e la conduttività elettrica. Una lampada riempita di argon senza mercurio avrà punti opachi e non si illuminerà correttamente. Quando viene aggiunta a tubi pieni di neon, la luce prodotta sarà a punti rosso / blu incoerenti fino al completamento del processo di accensione iniziale; alla fine si illuminerà di un colore blu sporco opaco.

Le batterie al mercurio sono batterie elettrochimiche non ricaricabili, comuni dalla metà del XX secolo. Sono state utilizzate in un’ampia varietà di applicazioni ed erano disponibili in varie dimensioni, in particolare le dimensioni dei bottoni. La loro tensione costante e la lunga durata di conservazione ne hanno fatto un uso di nicchia per esposimetri, apparecchi acustici e orologi da polso. La batteria al mercurio è stata effettivamente vietata nella maggior parte dei paesi negli anni ’90, a causa delle preoccupazioni per la contaminazione da mercurio nelle discariche.

Usi in medicina

Il mercurio e i suoi composti sono stati usati in medicina, anche se oggi sono molto meno comuni di una volta, visto che gli effetti tossici del mercurio e dei suoi composti sono oggi più ampiamente compresi. La prima edizione del Manuale farmaceutico Merck (1899) presentava più di venti composti mercurici usati come medicinali. Oggi, l’uso del mercurio in medicina è notevolmente diminuito sotto tutti gli aspetti, soprattutto nei paesi sviluppati. I termometri e gli sfigmomanometri contenenti mercurio furono inventati rispettivamente all’inizio del XVIII e alla fine del XIX secolo. Dall’inizio del XXI secolo, il loro uso è in declino ed è stato vietato in alcuni paesi, stati e istituzioni mediche. I composti del mercurio si trovano ancora in alcuni farmaci da banco, come antisettici topici, lassativi stimolanti, pomate per dermatiti da pannolino, colliri e spray nasali, sebbene ora esistano sostituti per la maggior parte di questi usi terapeutici.

Il mercurio è stato largamente usato per amalgame dentali. L’amalgama dentale è comunemente costituita da mercurio (50%), argento (~ 22–32%), stagno (~ 14%), zinco (~ 8%) e altri metalli in tracce. Nel XIX e in gran parte del XX secolo, l’amalgama divenne il materiale da restauro dentale preferito grazie al suo basso costo, facilità di applicazione, resistenza e durata. Tuttavia nel luglio 2018 l’Unione Europea ha vietato l’amalgama per il trattamento dentale dei bambini sotto i 15 anni e delle donne incinte o che allattano.

Tossicità e misure di sicurezza

Il mercurio e la maggior parte dei suoi composti sono estremamente tossici e devono essere maneggiati con cura; in caso di fuoriuscite (ad esempio da alcuni termometri o lampadine fluorescenti), vengono utilizzate procedure di pulizia specifiche per evitare l’esposizione e contenere la fuoriuscita. I protocolli richiedono l’unione delle goccioline più piccole su superfici dure, combinandole in un’unica goccia più grande per una più facile rimozione con un contagocce o per spingerla delicatamente in un apposito contenitore. Aspirapolvere e scope provocano una maggiore dispersione del mercurio e non devono essere utilizzati.

In seguito vengono spruzzati sull’area della fuoriuscita zolfo in polvere fine, zinco o qualsiasi altra polvere metallica che formi immediatamente un’amalgama con il mercurio a temperature ordinarie, che vengono raccolte e adeguatamente smaltite. La pulizia delle superfici porose e degli indumenti non è efficace per rimuovere tutte le tracce di mercurio e pertanto si consiglia di scartare questi tipi di oggetti se esposti a una fuoriuscita di mercurio.

Il mercurio può essere assorbito attraverso la pelle e le mucose e i vapori di mercurio possono essere inalati, quindi i contenitori sono sigillati per evitare fuoriuscite ed evaporazione. Il riscaldamento del mercurio, o dei composti di mercurio che possono decomporsi se riscaldati, deve essere effettuato con un’adeguata ventilazione per ridurre al minimo l’esposizione ai suoi vapori.

Le forme più tossiche di mercurio sono i suoi composti organici, come il dimetilmercurio e il metilmercurio. Può causare avvelenamento sia cronico che acuto.

Gli effetti tossici includono danni al cervello, ai reni e ai polmoni. L’avvelenamento da mercurio può provocare diverse malattie, tra cui l’acrodinia[2], la sindrome di Hunter-Russell e la malattia di Minamata[3].

I sintomi includono tipicamente compromissione sensoriale (vista, udito, linguaggio), sensazioni disturbate e mancanza di coordinazione. Il tipo e il grado dei sintomi esposti dipendono dalla tossina individuale, dalla dose e dal metodo e dalla durata dell’esposizione. Studi caso-controllo hanno mostrato effetti come tremori, capacità cognitive alterate e disturbi del sonno nei lavoratori con esposizione cronica ai vapori di mercurio anche a basse concentrazioni nell’intervallo 0,7–42 μg /m3. Uno studio ha dimostrato che l’esposizione acuta (4-8 ore) a livelli calcolati di mercurio elementare da 1,1 a 44 mg/m3 provoca dolore toracico, dispnea, tosse, emottisi, compromissione della funzione polmonare ed evidenza di polmonite interstiziale. È stato dimostrato che l’esposizione acuta ai vapori di mercurio provoca effetti profondi sul sistema nervoso centrale, comprese reazioni psicotiche caratterizzate da delirio, allucinazioni e tendenza al suicidio. L’esposizione professionale ha provocato disturbi funzionali di ampio respiro, inclusi eretismo, irritabilità, eccitabilità, eccessiva timidezza e insonnia. Con l’esposizione continua, si sviluppa un lieve tremore che può degenerare in violenti spasmi muscolari. Il tremore inizialmente coinvolge le mani e successivamente si diffonde alle palpebre, alle labbra e alla lingua. L’esposizione a lungo termine e di basso livello è stata associata a sintomi più sottili di eretismo, tra cui affaticamento, irritabilità, perdita di memoria, sogni vividi e depressione.

La ricerca sul trattamento dell’avvelenamento da mercurio è limitata. I farmaci attualmente disponibili includono chelanti N-acetil-D, L-penicillamina (NAP), British Anti-Lewisite (BAL), acido 2,3-dimercapto-1-propansolfonico (DMPS) e acido dimercaptosuccinico (DMSA) . In un piccolo studio che includeva 11 operai edili esposti al mercurio elementare, i pazienti sono stati trattati con DMSA e NAP. La terapia chelante con entrambi i farmaci ha portato alla mobilizzazione di una piccola frazione del mercurio corporeo totale stimato. Il DMSA è stato in grado di aumentare l’escrezione di mercurio in misura maggiore rispetto al NAP.

Rilascio nell’ambiente

I tassi di deposizione preindustriale di mercurio dall’atmosfera possono essere di circa 4 ng/L di ghiaccio. Sebbene questo possa essere considerato un livello naturale di esposizione, le fonti regionali o globali hanno effetti significativi. Le eruzioni vulcaniche possono aumentare la sorgente atmosferica di 4-6 volte.

Le fonti naturali, come i vulcani, sono responsabili di circa la metà delle emissioni di mercurio atmosferico. La metà generata dall’uomo può essere suddivisa nelle seguenti percentuali stimate:

65% dalla combustione stazionaria, di cui le centrali elettriche a carbone sono la principale fonte aggregata (40% delle emissioni di mercurio degli USA nel 1999). Questo include le centrali elettriche alimentate a gas in cui il mercurio non è stato rimosso. Le emissioni della combustione del carbone sono tra uno e due ordini di grandezza superiori alle emissioni della combustione del petrolio, a seconda del paese.

11% dalla produzione d’oro. Il rilascio idrogeochimico di mercurio dai residui delle miniere d’oro è stato considerato una fonte significativa di mercurio atmosferico nel Canada orientale.

6,8% dalla produzione di metalli non ferrosi, tipicamente dalle fonderie.

6,4% dalla produzione di cemento.

3,0% dallo smaltimento dei rifiuti, inclusi rifiuti urbani e pericolosi, e incenerimento dei fanghi di depurazione.

3,0% dalla produzione di soda caustica.

1,4% dalla produzione di ghisa e acciaio.

1,1% dalla produzione di mercurio, principalmente per le batterie.

2,0% da altre fonti.

Le percentuali di cui sopra sono stime delle emissioni globali di mercurio causate dall’uomo nel 2000, esclusa la combustione di biomassa, una fonte importante in alcune regioni.

La recente contaminazione atmosferica da mercurio nell’aria urbana esterna è stata misurata in 0,01–0,02 µg/m3.

I laghi artificiali possono essere contaminati dal mercurio a causa dell’assorbimento da parte dell’acqua da alberi e suolo sommersi.

Il mercurio entra nell’ambiente anche attraverso lo smaltimento improprio (ad esempio, riempimento di discariche, incenerimento) di alcuni prodotti come ricambi auto, batterie, lampadine fluorescenti, prodotti medicali, termometri e termostati. A causa dei problemi di salute che provoca, gli sforzi di riduzione dell’uso di sostanze tossiche stanno tagliando o eliminando il mercurio in tali prodotti.

La maggior parte dei termometri ora utilizza alcol pigmentato al posto del mercurio e anche i termometri in lega galinstan sono un’opzione. I termometri a mercurio sono ancora occasionalmente utilizzati in campo medico perché sono più precisi dei termometri ad alcool, sebbene entrambi siano comunemente sostituiti da termometri elettronici e meno comunemente da termometri galinstan. I termometri a mercurio sono ancora ampiamente utilizzati per alcune applicazioni scientifiche a causa della loro maggiore precisione e raggio di azione.

Figura 8. Termometro a mercurio per la febbre

Storicamente, una delle più grandi emissioni proveniva dall’impianto di Colex, un impianto di separazione degli isotopi di litio a Oak Ridge, nel Tennessee (USA). L’impianto ha funzionato negli anni ’50 e ’60. I registri sono incompleti e poco chiari, ma le commissioni governative hanno stimato che mancano circa due milioni di libbre di mercurio.

Un grave disastro industriale è stato lo scarico di composti di mercurio nella baia di Minamata, in Giappone. Si stima che oltre 3000 persone abbiano sofferto di varie deformità, gravi sintomi di avvelenamento da mercurio o morte a causa di quella che divenne nota come malattia di Minamata.

La pianta del tabacco assorbe prontamente e accumula nelle sue foglie metalli pesanti come il mercurio dal terreno circostante. Questi vengono successivamente inalati durante il fumo di tabacco. Sebbene il mercurio sia un costituente del fumo di tabacco, gli studi non sono riusciti in gran parte a scoprire una correlazione significativa tra il fumo e l’assorbimento di Hg da parte degli esseri umani rispetto a fonti come l’esposizione professionale, il consumo di pesce inquinato e le otturazioni dei denti con amalgama.

I sedimenti all’interno dei grandi estuari urbani-industriali agiscono come un’importante sorgente di inquinamento diffuso da mercurio all’interno dei bacini. Uno studio del 2015 sui sedimenti costieri dell’estuario del Tamigi ha misurato il mercurio totale da 0,01 a 12,07 mg/kg con una media di 2,10 mg/kg. È stato dimostrato che le più alte concentrazioni di mercurio si verificano nella città di Londra e nei dintorni, in associazione con fanghi a grana fine e un alto contenuto di carbonio organico totale. La forte affinità del mercurio per i sedimenti ricchi di carbonio è stata osservata anche nei sedimenti delle paludi salmastre del fiume Mersey (Regno Unito), in media da 2 mg/kg fino a 5 mg/kg.  Queste concentrazioni sono di gran lunga superiori a quelle mostrate nei sedimenti dei torrenti delle paludi salate del New Jersey (USA) e nelle mangrovie della Cina meridionale, che mostrano basse concentrazioni di mercurio, circa 0,2 mg/kg.

A causa degli effetti sulla salute dell’esposizione al mercurio, gli usi industriali e commerciali sono regolamentati in molti paesi. L’Organizzazione mondiale della sanità, l’OSHA e il NIOSH degli USA, trattano il mercurio come un rischio professionale e hanno stabilito limiti di esposizione professionale specifici.

Pesci e crostacei hanno una tendenza naturale a concentrare il mercurio nei loro corpi, spesso sotto forma di metilmercurio, un composto organico altamente tossico. Le specie di pesci che sono in cima alla catena alimentare, come lo squalo, il pesce spada, lo sgombro reale, il tonno rosso, il tonno bianco e il pesce tegola, contengono concentrazioni di mercurio più elevate rispetto ad altre. Poiché il mercurio e il metilmercurio sono liposolubili, si accumulano principalmente nei visceri, sebbene si trovino anche in tutto il tessuto muscolare. La presenza di mercurio nei muscoli dei pesci può essere studiata utilizzando biopsie muscolari non letali. Il mercurio presente nei pesci preda si accumula nel predatore che li consuma. Poiché i pesci sono meno efficienti nella depurazione rispetto all’accumulo di metilmercurio, le sue concentrazioni nel tessuto dei pesci aumentano nel tempo. Pertanto, le specie che sono in cima alla catena alimentare accumulano carichi corporei di mercurio che possono essere dieci volte superiori alle specie che consumano. Questo processo è chiamato biomagnificazione.

Regolamenti

A livello internazionale, 140 paesi hanno aderito alla Convenzione di Minamata sul mercurio dal Programma delle Nazioni Unite per l’ambiente (UNEP) per prevenire le emissioni. La convenzione è stata firmata il 10 ottobre 2013.

Negli Stati Uniti, l’Agenzia per la protezione ambientale (EPA) ha il compito di regolare e gestire la contaminazione da mercurio. Inoltre, la legge sulla gestione delle batterie contenenti mercurio, approvata nel 1996, elimina gradualmente l’uso del mercurio nelle batterie e prevede lo smaltimento efficiente ed economico di quelle usate. Lo United States Clean Air Act, approvato nel 1990, ha inserito il mercurio in un elenco di inquinanti tossici che devono essere controllati nella massima misura possibile. Pertanto, le industrie che rilasciano elevate concentrazioni di mercurio nell’ambiente hanno deciso di installare tecnologie di controllo massimo ottenibili (MACT). Nel marzo 2005, l’EPA ha promulgato un regolamento che ha aggiunto le centrali elettriche all’elenco delle fonti che dovrebbero essere controllate e ha istituito un sistema nazionale di limitazione e scambio. L’EPA ha annunciato nuove regole per le centrali elettriche a carbone il 22 dicembre 2011. I dati più recenti pubblicati nel 2015 hanno mostrato che dopo l’introduzione di controlli più severi il mercurio è diminuito drasticamente, indicando che il Clean Air Act ha avuto il suo impatto previsto.

Nell’Unione Europea, la direttiva sulla restrizione dell’uso di sostanze pericolose nelle apparecchiature elettriche ed elettroniche vieta il mercurio in determinati prodotti elettrici ed elettronici e limita la quantità di mercurio in altri prodotti a meno di 1000 ppm. Esistono restrizioni per la concentrazione di mercurio negli imballaggi (il limite è 100 ppm per la somma di mercurio, piombo, cromo esavalente e cadmio) e batterie (il limite è 5 ppm). Nel luglio 2007, l’Unione Europea ha anche vietato il mercurio nei dispositivi di misurazione non elettrici, come termometri e barometri. Il divieto si applica solo ai nuovi dispositivi e contiene esenzioni per il settore sanitario e un periodo di esenzione di due anni per i produttori di barometri.

Figura 8. Barometro a mercurio

La Norvegia ha emanato un divieto totale sull’uso del mercurio nella produzione e importazione / esportazione di prodotti a base di mercurio, dall’1 ° gennaio 2008 e la Svezia ha vietato i prodotti contenenti mercurio nel 2009.

Riciclaggio

I processi per il riciclaggio dei rifiuti contenente mercurio sono utilizzati da imprese specializzate in diversi paesi. Qui riportiamo un progetto di UNIDO, l’agenzia specializzata delle Nazioni Unite che promuove lo sviluppo industriale per la sostenibilità ambientale, la riduzione della povertà e la globalizzazione inclusiva. Il progetto è stato realizzato dall’industria giapponese Nomura Kohsan, come frutto di un accordo concluso tra UNIDO e il governo del Giappone (UNIDO-ITPO Tokyo) [1]. Lo schema del processo è mostrato in figura 9:

Figura 9. Schema del processo UNIDO-ITPO Tokyo

In breve, i rifiuti contenenti mercurio (batterie, lampade fluorescenti, ecc.), dopo un pretrattamento, vengono scaldati in una fornace a una temperatura compresa fra 600 e 800 oC, così che il mercurio vaporizza. I vapori di Hg vengono fatti fluire in una torre di raffreddamento e uno scrubber (torre di abbattimento polveri e altre impurezze solide) e quindi raccolto allo stato liquido. Poiché c’è sempre la preoccupazione che piccole tracce di mercurio possano uscire entrando nell’atmosfera, per evitare che ciò accada, Nomura Kohsan utilizza un adsorbente al mercurio nel processo finale.

Ciclo biogeochimico

Il ciclo biogeochimico del mercurio è stato riportato da E-I Ochiai nel 2009 [2] ed è riportato in figura 10.

Figura 10. Ciclo biogeochimico del mercurio [2]

Lo spazio della figura è diviso in quattro sfere: la biosfera (al centro), l’atmosfera, l’idrosfera e la litosfera che la circondano. La quantità totale di un elemento in una sfera è espressa in kg e il numero è sottolineato. La velocità di trasferimento (flusso) da una sfera all’altra è data in termini di kg annui (kg y–1) e il valore è inserito in un freccia che mostra la direzione del trasferimento. Alcune delle principali forme chimiche di elementi (ad es. minerali, composti chimici, ecc.) sono indicati, se del caso. I trasferimenti antropogenici sono indicati da una linea tratteggiata che attraversa la biosfera. La quantità di un elemento è data come la massa dell’elemento contenuto in tutti i composti che lo contengono. È molto difficile stimare la quantità di un elemento nella biosfera. Le stime possono essere considerate accurate all’interno di più o meno un ordine di grandezza. Anche le stime per le velocità di flusso sono difficili e variabili, in particolare per il trasferimento antropogenico.

Nel 2020 un nutrito gruppo di ricercatori internazionale, coordinato da Mae Sexauer Gustin, professore del Dipartimento di Risorse Naturali e Scienze Ambientali dell’Università Nevada-Reno, ha pubblicato un’approfondita sintesi delle recenti scoperte sul ciclo biogeochimico del mercurio [3]. L’obiettivo dell’articolo è discutere i principali progressi del pensiero scientifico riguardo ai processi per governare il destino e il trasporto del mercurio nell’ambiente, ai progressi nei metodi di misurazione e su come questi progressi nella conoscenza si inseriscono nel contesto della Convenzione di Minamata sul mercurio.

Bibliografia

[1] http://www.unido.or.jp/en/technology_db/1716/

[2] E-I. Ochiai, Biogeochemical Cycling of Micronutrients and Other Elements. In: Earth System: History and Natural Variability – Vol. IV, p. 237-238, Eolss Publisher Ltd., Oxford, UK, 2009.

[3] M. Sexauer Gustin et al., Mercury biogeochemical cycling: A synthesis of recent scientific advances., Science of the Total Environment, 2020, DOI: 10.1016/j.scitotenv.2020.139619


[1] Galinstan è il marchio di una lega eutettica composta da gallio (68,5%), indio (21,5%) e stagno (10,0%), bassofondente, quindi liquida a temperatura ambiente.

[2] L’acrodinia infantile (nota anche come “malattia da calomelano” e “malattia rosa”) è un tipo di avvelenamento da mercurio. Colpisce prevalentemente i bambini in età prescolare e scolare. 

[3] La malattia di Minamata o malattia di Chisso-Minamata, è una sindrome neurologica causata da intossicazione acuta da mercurio. 

Sul mercurio ricordate anche alcuni altri popst del blog da cercare con il search in alto a destra:

Qualche nota sulle ricerche in rete.

In evidenza

Claudio Della Volpe

A novembre questo blog compirà 10 anni; e sono dunque 10 anni (ma in realtà di più) che mi occupo di cosa succede alle cose che pubblichiamo in rete.

Ho cominciato in realtà nei primi anni 90, quando si usavano browser come Mosaic; quasi nessuno lo ricorda; il nome mi fu dato, quasi di nascosto, dall’amico Gustavo Avitabile che era l’autorità indiscussa sulla rete del dipartimento di Chimica di Napoli;

allora usavo un Apple IIe e un modem a 2400baud (bit per secondo), ossia oltre 50mila volte più lento di quello che uso adesso a casa e circa 500mila-1 milione di volte più lento di quello che uso al lavoro.

La SCI non aveva una pagina web; la prima girò sul mio Macintosh di studio usando un name-server, cioè un programma che collegava i nomi dei siti ed i loro indirizzi di rete e che girava sulla medesima macchina (eravamo nel 1995-96 e si poteva ancora fare) e l’unica informazione che dava era una lista dei congressi e delle iniziative; anche la SCI-list partì così e ce n’erano addirittura due, una di avvisi e una di discussione, ma c’erano solo 300 iscritti; oggi SCI-list (che gira su Cineca per motivi di sicurezza) non è più l’unica lista della Sci e ci sono oltre 3500 iscritti; la pagina web gira seguita da uno specialista e il blog cammina indipendentemente su un servizio come WordPress, con circa 1000 accessi giornalieri (niente di eccezionale per carità) insomma la rete è diventata un altro mondo, ma proprio per questo occorre cercare di capirci un po’ di più.

Oggi vi parlerò di un solo argomento che però credo sia poco conosciuto al pubblico degli utenti, le SERP.

SERP è l’acronimo di Search Engine Result Page, ossia la pagina di risultati che ci viene mostrata quando cerchiamo qualcosa su internet.

Vi mostro quella di Google, perché è quella che più comunemente viene usata ma ricordate che non è l’unica possibile perché esistono molti e diversi motori di ricerca: Bing, Duck Duck Go, Wikipedia, Iandex, Baidoo, etc., che potete selezionare dalle impostazioni del vostro browser. Come vedete la pagina delle ricerche viene comandata da un meccanismo economico, i risultati che vedete per primi sono a pagamento e precedono quelli che non sono a pagamento; dunque la vostra ricerca non è del tutto “libera” o “corretta” ma influenzata dalla ricchezza di chi posta le informazioni su internet. Questa scelta dipende dal fatto che l’utente medio guarda quasi esclusivamente la prima pagina dei risultati; un grafico a riguardo è il seguente:

Dunque essere in prima pagina diventa economicamente decisivo. Tenete presente che le prime tre posizioni di ogni SERP fanno il 75% dei click totali!!

I risultati che cercate non dipendono dal contenuto!!!!

Occorre sapere che anche solo la lingua scelta per la ricerca influenza i risultati ottenuti; usare inglese o italiano per esempio fa ottenere risultati completamente diversi; anche la vostra posizione geografica fa cambiare i risultati per il semplice motivo che i risultati a pagamento sono spesso “localizzati”; se cercate anche solo “acqua” troverete risultati che dipendono dalla vicinanza di iniziative economiche a pagamento nella vostra zona.

Questi meccanismi sono legati anche al fatto che ci sono dei minuscoli programmini, i cookies, che vengono installati sul vostro computer ogni volta che vi collegate e che tengono nota (formalmente col vostro permesso) di cosa cercate e di quali sono le vostre preferenze.

E’ sostanzialmente impossibile evitare le trappole legate a questi meccanismi di ricerca; a meno che il vostro motore non sia molto particolare; per esempio Wikipedia è un motore che è basato sui contenuti perché si finanzia con i suoi lettori e dunque non traccia e non tiene nota delle vostre ricerche, non ha cookies; (tuttavia anche qui la lingua influenza i risultati che devono essere tradotti e non lo sono sempre) è un esempio di quel che scrivevano alcuni filosofi dell’800: da ciascuno secondo le sue capacità a ciascuno secondo i suoi bisogni, una filosofia che non è detto che dia sempre i migliori risultati, ma che nel tempo ha consentito a Wikipedia di diventare l’enciclopedia più consultata del mondo sulla base del lavoro gratuito dei suoi volontari. Adesso che sono diventato pensionato sto pensando di contribuire anche io, non solo economicamente ma culturalmente.

Il limite è che Wikipedia mostra solo le proprie pagine e dunque la ricerca è limitata e controllata dalle attività dei suoi contributori. Occorre anche dire che col tempo la precisione di Wikipedia e la sua correttezza si sono alzate significativamente. Sempre più difficile trovare errori e se li trovate potete segnalarli.

Invece tutti gli altri motori di ricerca attingono alle pagine presenti dappertutto e affibbiano ad ogni pagina un ranking, un punteggio, che viene scelto sulla base di un meccanismo abbastanza complesso; la posizione lungo le SERP, nella zona che segue la zona pagata e che viene definita “organica” è scelta sulla base di questa valutazione, di questo algoritmo che nessuno conosce completamente eccetto i motori di ricerca stessi, e dunque non sappiamo bene quali criteri vengano usati nella lista delle SERP; certamente uno di essi è il numero di click generati dal sito, ma non solo.

Un’altra cosa basica della rete di oggi è che il grosso del traffico ha finalità commerciali e spesso illegali; questo influenza enormemente tutto ma in particolare l’invio delle mails; tutti i vostri programmi e servizi di posta elettronica DEVONO effettuare un controllo sul cosiddetto SPAM, ossia l’invio, attraverso indirizzi generici non verificati o sconosciuti, di messaggi pubblicitari indesiderati o non richiesti; questo influenza ogni altra mail.

All’inizio dallo stesso Macintosh che gestiva name-server e pagina web inviavo anche la posta della SCI; ma ad un certo punto ho dovuto smettere perché sono stato attaccato da un virus che ha preso silenziosamente il controllo del mio computer e ha iniziato ad inviare mail di spam; esistono delle autorità di rete che a quel punto intervengono e vi mettono in quarantena; e così finì uno dei periodi più belli di vita della Rete (almeno per me).

In conclusione usate la rete con giudizio, non credete a tutto quel che vedete scritto, imparate ad usare e discriminare i vari strumenti di ricerca, usatene più di uno, non fermatevi MAI alla prima pagina e nemmeno al primo browser; personalmente uso Firefox, ma a volte anche Tor che cerca addirittura di costruire una rete protetta ma anche quella non è affatto sicura. Altre volte devo usare Chrome; per esempio lo SPID, la firma elettronica scelta dallo stato italiano non gira bene su Firefox; ma gira su Chrome; perché? Bah.

Non ci sono polizie mondiali di rete (per fortuna o per sfortuna), ma solo controllori che cercano di bloccare lo spam o l’invio di virus; quando fui “bucato” dal virus il mio computer fu messo in lista nera, ossia su una lista pubblica che contiene tutti i computer che inviano spam e che viene aggiornata, ma non quotidianamente e dunque se ci finite dentro, ci restate per un po’; può capitare a chiunque.

E’ questo anche il motivo per cui la SCI-list non ha mai inviato e per quanto sta a me non invierà mai attachments; anche il CINECA, che è il nostro centro di calcolo nazionale, è stato bucato almeno una volta da un virus; in quella occasione in pochi giorni mi sono visto cancellare l’intero elenco degli iscritti; sapete come? Gli altri computer hanno visto che il CINECA era in lista nera e lo hanno bloccato; e dunque rifiutavano di scambiare posta con esso. Quando un iscritto rifiuta la posta per parecchie volte il programma di posta Unix del Cineca lo cancella; conclusione in pochi giorni grazie a queste geniale regola da IA mi sono visto sparire a blocchi tutti gli iscritti; per fortuna avevo una copia.

Non ci sono agenti di controllo sui contenuti; o almeno non ci sono in genere; di fatto sui cosiddetti social il controllo viene esercitato spesso a sproposito; basti vedere cosa succede se postate su Facebook (oggi Meta) una immagine di nudo di qualche famoso quadro del passato.; rischiate di essere bloccato per aver diffuso immagini improprie o perfino porno.

In realtà la rete come altri potenti strumenti ci mette di fronte alle nostre responsabilità come specie sociale, come specie che vive soprattutto delle sue relazioni interne alla specie stessa e che oggi sono controllate non dall’etica o dalla cultura ma dall’economia e dalla forza bruta.

Come andare per strada ci sono regole, ma questo non vi assicura contro gli incidenti.

Dunque ancora una volta attenti alla Rete, usatela, sarebbe assurdo ed impossibile farne a meno, ma con un grano di sale. E occhi aperti; sempre.

Elementi della tavola periodica. Mercurio, Hg (prima parte)

In evidenza

Rinaldo Cervellati

Il mercurio (inglese mercury), simbolo Hg, è l’elemento n. 80 della tavola periodica, collocato al 12° gruppo, 6° periodo, unico metallo liquido a temperatura ambiente. È molto raro nella crosta terrestre, la sua abbondanza media è valutata in 0,08 ppm.

Figura 1. Gocce di mercurio

Nomi utilizzati anticamente per indicare il mercurio sono argento vivo (inglese quicksilver) e idrargirio, dal latino hydrargyrum (Hydrargyrum è il nome da cui deriva il simbolo Hg) che a sua volta deriva dal greco hydrárgyros, composto da ὕδωρ, “hydor” (acqua) e ἄργυρος, “árgyros” (argento).

Il mercurio è noto fin dall’antichità, è stato trovato in tombe egizie che risalgono al 1500 a.C.

In Cina e in Tibet si pensava che l’uso del mercurio prolungasse la vita, guarisse le fratture e mantenesse una salute generalmente buona, sebbene ora sia noto che l’esposizione al vapore di mercurio porta a gravi effetti negativi sulla salute. Il primo imperatore di una Cina unificata, Qín Shǐ Huáng Dì (presumibilmente sepolto in una tomba che conteneva mercurio fluente su un modello della terra che governava, rappresentativo dei fiumi della Cina) morì bevendo una miscela di mercurio e giada in polvere, formulata dagli alchimisti Qin che intendevano dargli la vita eterna. 

Nel novembre 2014 sono state scoperte quantità di mercurio in una camera a 60 piedi sotto la piramide di 1800 anni fa conosciuta come il “Tempio del serpente piumato”, la terza piramide più grande di Teotihuacan, in Messico, insieme a statue di giada, resti di giaguaro, una scatola piena di conchiglie intagliate e palline di gomma.

Gli antichi greci usavano il minerale cinabro (solfuro di mercurio) negli unguenti; gli antichi egizi e romani lo usavano nei cosmetici. A Lamanai, un tempo una delle principali città della civiltà Maya, è stata trovata una pozza di mercurio sotto un campo da ballo mesoamericano.

Nel 500 d.C. il mercurio veniva utilizzato per produrre amalgama (dal latino medievale, “lega di mercurio”) con altri metalli.

Gli alchimisti pensavano al mercurio come alla Prima Materia da cui si formavano tutti i metalli. Credevano che diversi metalli potessero essere prodotti variando la qualità e la quantità di zolfo miscelato al mercurio. Il più puro di questi era l’oro, e il mercurio era richiesto nei tentativi di trasmutazione di metalli vili (o impuri) in oro, che era l’obiettivo di molti alchimisti.

Figura 2. Simbolo alchemico per il mercurio

Proprietà fisiche

Il mercurio è un metallo liquido pesante, bianco-argenteo. Rispetto ad altri metalli è un cattivo conduttore di calore, ma un discreto conduttore di elettricità.

Ha un punto di fusione di -38,83 °C e un punto di ebollizione di 356,73 °C, entrambi più bassi di qualsiasi metallo stabile, sebbene esperimenti preliminari sul copernicio  (l’elemento inferiore al mercurio nella tavola periodica), abbiano indicato che ha un punto di ebollizione ancora inferiore, seguendo la tendenza alla diminuzione dei punti di ebollizione nel gruppo 12. Dopo solidificazione, il volume del mercurio diminuisce del 3,59% e la sua densità cambia da 13,69 g/cm3 a 14,184 g/cm3.

Figura 3. Una moneta da una sterlina galleggiante sul mercurio

Il mercurio solido è malleabile e duttile e può essere tagliato con un coltello.

Una spiegazione completa dell’estrema volatilità del mercurio si trova della fisica quantistica, ma può essere riassunta come segue: il mercurio ha una configurazione elettronica unica [Xe]4f155d106s2, in cui gli elettroni riempiono tutti gli orbitali disponibili. Poiché questa configurazione resiste fortemente alla rimozione di un elettrone, si comporta in modo simile ai gas nobili, che formano legami deboli e quindi fondono a basse temperature.

La stabilità del guscio 6s è dovuta alla presenza di un guscio 4f pieno. Un guscio f scherma scarsamente la carica nucleare che aumenta l’interazione coulombiana attraente del guscio 6s e del nucleo. L’assenza di un guscio interno pieno è la ragione per la temperatura di fusione più alta di cadmio e zinco, sebbene entrambi questi metalli fondano ancora facilmente e, inoltre, abbiano punti di ebollizione insolitamente bassi.

Il mercurio ha sette isotopi stabili, essendo 202Hg il più abbondante (29,86%).199Hg (16,94%) e 201Hg (13,17%) sono i nuclei NMR-attivi più studiati, con spin rispettivamente di 1⁄2 e 3⁄2.  I radioisotopi più longevi sono 194Hg con un’emivita di 444 anni e 203Hg con un’emivita di 46.61 giorni. La maggior parte dei radioisotopi rimanenti ha un’emivita inferiore a un giorno.

Proprietà chimiche e amalgame

Il mercurio non reagisce con la maggior parte degli acidi diluiti, come l’acido solforico diluito, sebbene acidi ossidanti come l’acido solforico concentrato e l’acido nitrico o l’acqua regia lo dissolvano per dare solfato, nitrato e cloruro. Come l’argento, reagisce con l’idrogeno solforato atmosferico. Reagisce con i fiocchi di zolfo solido, che vengono utilizzati nei kit di fuoriuscita di mercurio per assorbirlo (i kit di fuoriuscita utilizzano anche carbone attivo e zinco in polvere).

Dissolve molti metalli come l’oro e l’argento per formare amalgame. Il ferro è un’eccezione e le fiasche di ferro sono state tradizionalmente utilizzate per contenere mercurio. Anche molti altri metalli di transizione del quarto periodo, ad eccezione di manganese, rame e zinco, sono resistenti alla formazione di amalgame. Altri elementi che non formano prontamente amalgame con il mercurio includono il platino. L’amalgama di sodio è un agente riducente comune in sintesi organica ed è utilizzata anche nelle lampade al sodio ad alta pressione.

Il mercurio si combina facilmente con l’alluminio per formare un’amalgama di mercurio-alluminio quando i due metalli entrano in contatto. Poiché l’amalgama distrugge lo strato di ossido di alluminio che protegge l’alluminio metallico dall’ossidazione (come nella ruggine del ferro), anche piccole quantità di mercurio possono corroderlo seriamente. Per questo motivo, nella maggior parte delle circostanze, il mercurio non è consentito a bordo di un aereo a causa del rischio che si formi un amalgama con parti di alluminio esposte dell’aereo.

Principali composti

Il mercurio esiste in due stati di ossidazione, I e II. Nonostante le affermazioni contrarie, i composti Hg (III) e Hg (IV) rimangono sconosciuti.

Composti di mercurio (I)

A differenza dei suoi vicini più leggeri, cadmio e zinco, il mercurio di solito forma composti stabili semplici con legami metallo-metallo. La maggior parte dei composti del mercurio (I) sono diamagnetici e presentano il catione dimerico, Hg2+2. I derivati ​​stabili includono il cloruro e il nitrato. Il trattamento della complessazione dei composti di Hg (I) con forti leganti come solfuro, cianuro, ecc. induce una disproporzione rispetto a Hg2+ e mercurio elementare.

Il mercurio (I) cloruro, un solido incolore noto anche come calomelano (dal greco “bel nero”), è in realtà il composto con la formula Hg2Cl2, con legami Cl-Hg-Hg-Cl. È uno standard in elettrochimica. Reagisce con il cloro per dare cloruro mercurico, che resiste a un’ulteriore ossidazione. Il mercurio (I) idruro, un gas incolore, ha la formula HgH, che non contiene legami Hg-Hg.

Indicativo della sua tendenza a legarsi a se stesso, il mercurio forma policationi di mercurio, che consistono in catene lineari di centri di mercurio, ricoperti da una carica positiva. Un esempio è Hg32+(AsF6)2.

Composti di mercurio (II)

Il mercurio (II) è lo stato di ossidazione più comune ed è anche il principale in natura. Tutti e quattro gli alogenuri mercurici sono noti. Formano complessi tetraedrici con altri ligandi ma gli alogenuri adottano una geometria di coordinazione lineare, un po’ come fa Ag+. Il più noto è il cloruro di mercurio (II), un solido bianco facilmente sublimabile. HgCl2 forma complessi di coordinazione che sono tipicamente tetraedrici, ad es. HgCl42−.

L’ossido di mercurio (II), il principale ossido di mercurio, si forma quando il metallo è esposto all’aria per lunghi periodi a temperature elevate. Ritorna agli elementi se riscaldato a 400° C, come è stato dimostrato da Joseph Priestley (1733-1804) in una prima sintesi dell’ossigeno puro.

Gli idrossidi di mercurio sono scarsamente caratterizzati, come per i suoi vicini oro e argento.

Essendo un metallo tenero, il mercurio forma derivati ​​molto stabili con i calcogeni più pesanti. Preminente è il solfuro di mercurio (II), HgS, che si trova in natura come minerale cinabro, un brillante pigmento vermiglio. Come ZnS, HgS cristallizza in due forme, la forma cubica rossastra e la forma nera come la blenda dello zinco. Quest’ultima a volte si presenta naturalmente come metacinabro.  Sono anche noti seleniuro di mercurio (II) (HgSe) e tellururo di mercurio (II) (HgTe). Essi, così come i vari derivati, ad es. tellururo di cadmio mercurio e tellururo di zinco mercurio, sono semiconduttori utili come materiali rilevatori di infrarossi.

I sali di mercurio (II) formano una varietà di derivati ​​complessi con l’ammoniaca. Questi includono la base di Millon (Hg2N+), il polimero unidimensionale (sali di (HgNH+2)n) e il “precipitato bianco fusibile” o [Hg (NH3)2]Cl2. Conosciuto come reagente di Nessler, il tetraiodomercurato di potassio (II) (HgI42−) è ancora occasionalmente utilizzato per testare l’ammoniaca a causa della sua tendenza a formare lo ioduro di colore intenso.

Il fulminato di mercurio (cianato di mercurio, Hg(CNO)2), è un detonatore ampiamente utilizzato negli esplosivi.

Composti organomercurici

I composti organici del mercurio sono storicamente importanti ma hanno scarso valore industriale nel mondo occidentale. I sali di mercurio (II) sono un raro esempio di complessi metallici semplici che reagiscono direttamente con gli anelli aromatici. I composti organomercurici sono sempre bivalenti, di solito con geometria lineare. A differenza dei composti organocadmio e organozinco, non reagiscono con l’acqua. Di solito hanno la formula HgR2, che sono spesso volatili, o HgRX, che sono spesso solidi, dove R è arile o alchile e X è solitamente un alogenuro o acetato. Il metilmercurio, un termine generico per i composti con la formula CH3HgX, è una pericolosa famiglia di composti che si trova spesso nelle acque inquinate. Nascono da un processo noto come biometilazione.

Disponibilità

Poiché il mercurio non si fonde geochimicamente con gli elementi che costituiscono la maggior parte della massa crostale, i minerali di mercurio possono essere straordinariamente concentrati considerando l’abbondanza dell’elemento nella roccia ordinaria. I minerali più ricchi contengono fino al 2,5% di mercurio in massa, e anche i depositi meno concentrati contengono almeno lo 0,1% di mercurio (12.000 volte l’abbondanza media della crosta). Si trova come metallo nativo (raro) o nel cinabro, metacinabro, corderoite, livingstonite e altri minerali, con il cinabro (HgS) che è il minerale più comune.

Figura 4. Cinabro (sopra) e metacinabro (sotto)

I minerali di mercurio di solito si trovano in cinture orogeniche molto giovani, dove le rocce ad alta densità sono costrette alla crosta terrestre, spesso nelle sorgenti calde o in altre regioni vulcaniche.

Figura 5. Raro campione di mercurio nativo su cinabro

Dal 1558, con l’invenzione del processo patio[1] per estrarre l’argento dal minerale utilizzando il mercurio, quest’ultimo divenne una risorsa essenziale nell’economia della Spagna e delle sue colonie americane. Il mercurio veniva utilizzato per estrarre l’argento dalle lucrose miniere della Nuova Spagna e del Perù. Inizialmente, le miniere della Corona spagnola ad Almadén, nel sud della Spagna, fornivano tutto il mercurio per le colonie. Depositi di mercurio furono scoperti nel Nuovo Mondo e più di 100.000 tonnellate di mercurio furono estratte dalla regione di Huancavelica, Perù, nel corso di tre secoli dopo la scoperta dei depositi nel 1563. Il processo patio e il successivo processo pan amalgamation[2], continuarono a creare una grande richiesta di mercurio per trattare i minerali d’argento fino alla fine del XIX secolo.

Le ex miniere in Italia, Stati Uniti e Messico, che un tempo producevano una grande percentuale della fornitura mondiale, sono state ora completamente estratte o, nel caso di Idrija (Slovenia) e Almadén (Spagna), chiuse per la caduta del prezzo del mercurio. La McDermitt Mine del Nevada, l’ultima miniera di mercurio negli Stati Uniti, è stata chiusa nel 1992. Il prezzo del mercurio è stato molto variabile nel corso degli anni e nel 2006 era $ 650 per 76 libbre (34,46 kg).

Il mercurio viene estratto riscaldando il cinabro in una corrente d’aria e condensando il vapore. L’equazione per questa estrazione è:

HgS + O2 → Hg + SO2

Nel 2005, la Cina era il primo produttore di mercurio con quasi due terzi della quota globale seguita dal Kirghizistan. Si ritiene che diversi altri paesi abbiano una produzione non registrata di mercurio dai processi di elettroestrusione del rame e dal recupero dagli effluenti.

A causa dell’elevata tossicità del mercurio, sia l’estrazione del cinabro sia la raffinazione del mercurio sono cause storiche e pericolose di avvelenamento da mercurio. La salute dei lavoratori nelle miniere funzionanti è ad alto rischio.

La direttiva dell’Unione Europea che rende obbligatorie le lampadine fluorescenti entro il 2012, ha incoraggiato la Cina a riaprire le miniere di cinabro per ottenere il mercurio necessario per la produzione di lampadine CFL.

Figura 6. Lampadina CFL a mercurio

I pericoli ambientali sono stati una preoccupazione, in particolare nelle città meridionali di Foshan e Guangzhou, e nella provincia di Guizhou nel sud-ovest della Cina.

I siti di lavorazione delle miniere di mercurio abbandonate spesso contengono quantitativi di rifiuti molto pericolosi di cinabro esausto. Il deflusso dell’acqua da tali siti è una fonte riconosciuta di danno ecologico. Le ex miniere di mercurio possono essere adatte per un riutilizzo costruttivo. Ad esempio, nel 1976, la contea di Santa Clara, in California, ha acquistato la storica miniera di Almaden Quicksilver e ha creato sul sito un parco, dopo aver condotto un’ampia analisi sulla sicurezza e sull’ambiente dell’ex-miniera.

(continua)

Opere consultate

Handbook of Chemistry and Physics, 85th Ed., p. 4-19

https://en.wikipedia.org/wiki/Mercury_(element)


[1] Il processo patio è un processo per estrarre l’argento dal minerale. Il processo, che utilizza la fusione del mercurio per recuperare l’argento dal minerale, sarebbe stato inventato da Bartolomé de Medina a Pachuca, Messico, nel 1554.

[2] Il processo pan amalgamation è un metodo per estrarre l’argento dai suoi minerali, utilizzando sale e solfato di rame (II) oltre al mercurio. Il processo è stato ampiamente utilizzato dal 1609 fino al XIX secolo; oggi non è più usato.

Oggi 22 marzo, giornata mondiale dell’acqua.

In evidenza

Luigi Campanella e Mauro icardi

Si celebra  oggi 22 marzo la Giornata Mondiale dell’Acqua, noi lo facciamo con ben due post dedicati al tema, uno di Luigi Campanella ed uno di Mauro Icardi.

Luigi Campanella, già Presidente SCI

Molto si è scritto sulla carenza di acqua e di acqua potabile in molte parti del mondo. Generalmente ci si sofferma sugli aspetti ambientali e sanitari, ma altre sono le ricadute della  mancanza o al contrario della disponibilità di acqua.

Una di queste riguarda l’istruzione: la carenza di acqua pulita nelle zone rurali di Kenya, Burkina Faso, Costa d’Avorio comporta il diffondersi di malattie ed infezioni che obbligano i bambini colpiti a saltare le lezioni rimanendo indietro nel percorso di studi, ma con il rischio di finire a mendicare nella strada perché ogni giorno in più lontano dai libri è un giorno in più vicino all’abbandono scolastico.

Un’altra ricaduta della carenza o disponibilità di acqua pulita è il tasso di mortalità infantile: dati statistici dell’ONU e della FAO chiaramente evidenziano una correlazione diretta fra carenze idriche e tasso di mortalità infantile con il risultato di impegnare risorse per contrastarla mentre basterebbe una ricchezza idrica maggiore e di  nuocere allo sviluppo demografico.

Una terza osservazione riguarda i mezzi di approvigionamento. Il nodo degli invasi per raccogliere acqua piovana è stato affrontato in sedi diverse, non sempre tutte d’accordo su tale strumento che invece, abbinato a pompe azionate da energia solare, può rappresentare un supporto significativo. Se poi la raccolta dell’acqua piovana avviene in cisterne, contenitori che si aprono solo in occasione delle piogge, rimanendo chiusi per il resto del tempo è possibile nei Paesi caldi-e molti di quelli poveri lo sono- riscaldare l’acqua fornendo un servizio prezioso in medicina neonatale. Infine vorrei ricordare la importanza nella formazione dei giovani dell’attività fisica che ovviamente sia per l’acqua emessa con il sudore sia per il sudore stesso che bagna la pelle e richiede di lavarla comporta la necessità di una minima quantità di acqua disponibile per ristorare il corpo, quindi poca acqua poca attività fisica con ricadute negative sullo sviluppo del corpo.

Anche l’aspetto energetico sembra oggi cambiare coinvolgendo l’acqua nell’era dell’idrogeno. La nuova forma pulita di energia ci obbliga a considerare l’acqua anche da questo punto di vista: risorsa preziosa di idrogeno. Se poi gli aspetti economici di bilancio non saranno soddisfatti, questo nulla toglie ad un’ennesima preziosità dell’acqua, essere un abbondante potenziale contenitore di idrogeno. Tra l’altro l’impiego della luce solare (in presenza di un catalizzatore) come energia estrattiva apre ulteriori spazi da percorrere. C’è infine il problema del monitoraggio: per proteggere e per correggere bisogna conoscere. I metodi analitici degli inquinanti in matrice acquosa sono stati messi a punto e pubblicati in forme diverse, praticamente in tutti i paesi sviluppati del mondo. C’è però bisogno di metodi alternativi capaci di fornire risposte in tempo reale, capaci di controllare sistemi automatici di correzione, capaci di indicare in tempo reale gli eventuali inconvenienti prodottisi in un impianto acquedottistico. La Scienza fa grandi progressi e sensoristica e biosensoristica ci vengono incontro.

I test di tossicità integrale rappresentano in tale linea un’ulteriore opportunità in quanto fornendo una risposta integrale ed in tempo reale ci affrancano, in una fase di urgenza, dalle analisi specifiche e puntuali che possono essere eseguite soltanto quando necessario. La ricchezza d’acqua non sempre significa disponibilità: in un terreno agricolo ad esempio si possono creare a seguito di ripetuti interventi sbagliati da parte dell’uomo delle condizioni assai negative a fini della trasferibilità e del trasporto dell’acqua. Anche su questo punto sono stati messi a punto test idonei propri e finalizzati a misurare non la quantità di acqua presente, ma il grado della sua disponibilità e quindi di sfruttamento da parte dell’uomo e della coltura scelta per il terreno.

Mauro Icardi

Giornata mondiale dell’acqua 2022. La ricorrenza è triste

Su questo blog, abbiamo cercato di celebrare la giornata mondiale dell’acqua tutti gli anni.

Francamente in questo 2022 sono davvero troppe le notizie che rischiano di oscurare la celebrazione di questa giornata. La guerra in Ucraina è la prima fra tutte. E in guerra si comprende crudelmente quanto sia importante.

Nelle città assediate, nei rifugi l’acqua comincia a scarseggiare. Come il cibo, i medicinali.

Intanto in un’Europa che subisce una sorta di sospensione della realtà dovuta alla guerra, la situazione della siccità e mostrata in questa immagine.

Le aree in rosso nella cartina rappresentano le zone dove la situazione di siccità si può definire da eccezionale a estremo.

Le conseguenze di questo stato di cose sono facilmente intuibili. Problemi per l’agricoltura, già in crisi per la contemporanea scarsità di materie prime e di fertilizzanti.

La produzione di energia elettrica soffre questo stato di cose.  «La siccità che stiamo affrontando è unica da quando esistono i sistemi di misurazione», spiega Paolo Taglioli, direttore generale di Assoidroelettrica, l’associazione di categoria che rappresenta 427 operatori, circa il 40 per cento delle società del settore per energia prodotta. «Possiamo inventarci qualsiasi cosa, ma se non piove o nevica siamo impotenti».

Se guardiamo all’Italia praticamente non piove da quasi tre mesi. L’innevamento invernale è stato scarso soprattutto nel nord Ovest.

In passato ho scritto articoli che suggerivano modalità e tecniche per il risparmio idrico. Ma oggi, lo dico con franchezza la cosa mi sembra fuori luogo. È trascorso mezzo secolo dalla pubblicazione de “I limiti alla crescita”. 

I problemi globali, non solo quello delle risorse idriche sono ormai tragicamente evidenti.

Nulla però sembra scalfire una mentalità unica, una negazione diffusa. Cosa che da sempre cerco di chiarire prima di tutto a me stesso. Senza trovare una spiegazione razionale.

Nessuna soluzione tecnica o scientifica può funzionare se non si cerca di riportare al centro dei dibattiti e delle iniziative la coscienza del bene comune.

Questa è la foto del lago artificiale di Ceresole Reale, in provincia di Torino. Mi ha molto colpito.

Ho passato da giovane molte delle mie estati in una valle dell’arco alpino occidentale, durante le vacanze estive. Li ho imparato dalle persone del luogo ad avere cura dell’acqua. Ma negli anni in cui trascorrevo le mie vacanze, l’acqua che vedevo scorrere nei torrenti e dalle fontane era percepita come inesauribile. Io stesso avevo questa idea. Ma le cose sono cambiate rapidamente. E penso che occorra fare attenzione a non subire un nuovo shock emozionale. Non solo quello del ritorno della guerra, ma anche a quello delle scarsità. Perché la scarsità di acqua, si porta dietro tutte le altre. E quando scorrendo i giornali vedo articoli che magnificano l’innevamento artificiale, oppure l’aumento delle spese militari, dentro di me c’è qualcosa che sento completamente dissonante. Vorrei che tutti ci risvegliassimo da questo sogno infranto. Da quella mentalità che spesso ci fa adagiare sulle rassicuranti favole, piuttosto che affrontare in maniera razionale le azioni che siamo obbligati a intraprendere.

Buona giornata mondiale dell’acqua, nonostante tutto.

Sulle origini dell’8 marzo.

In evidenza

Luigi Campanella

L’ideale socialista ha contagiato molti giovani, me compreso: avevo 20 anni quando mi sembrò che la politica non potesse esprimere niente di meglio. Sono passati 60 anni, di acqua sotto i ponti ne è passata molta, molti valori si sono deteriorati, molti ideali hanno deluso, alcuni convinti principi restano vivi ed integri ancora. Io stesso spesso rifletto sulla dinamica della vita e dei tempi.

In ogni caso però sono stato felicissimo di leggere una notizia che non conoscevo e che assegna al Partito Socialista la nascita della Festa della Donna. Da parte di qualcuno si sostiene che nella Festa specifica è già insito un principio di discriminazione. Non sono d’accordo: la festa vuole essere una celebrazione del ruolo che la donna svolge nella vita, dal parto all’allattamento, dal sacrificio alla propria autonomia in favore della famiglia alla cultura dell’accoglienza e della gentilezza. Queste notizie recuperate sulla nascita della Festa della Donna sono la conferma di ciò.

In particolare l’occasione da cui nacque la celebrazione è legata al Parito Socialista Americano che nel 1909 decise di indire la prima giornata della donna per ricordare il grande sciopero organizzato dalle lavoratrici del settore tessile nell’anno precedente. i motivi per cui  moltissime donne, affiancate da uomini del Partito Socialista Americano, scioperavano erano legati alle precarie condizioni di lavoro a cui erano costrette. Anche il secondo evento sulla festa della donna nasce in ambito socialista: l’Internazionale Socialista di Copenaghen riconobbe la celebrazione americana e diede il via ad una serie di congressi e manifestazioni in Europa, tutte finalizzate a migliorare le condizioni di lavoro della donna ed a garantire alle donne il diritto di voto. Oggi la festa della donna viene spesso legata a episodi della storia dai quali emergono sempre i valori della donna, i suoi sacrifici per conquistare un futuro di eguaglianza e dignità. Anche da questo punto di vista i due colossi, USA e Russia, sembrano a volte essere divisi su valori unificanti. Negli USA tradizione vuole che l’8 marzo si festeggi la donna per ricordare le vittime dell’incendio della Fabbrica Triangle a New York. 123 madri, sorelle, figlie che cucivano camicie per oltre 14 ore al giorno, chiuse a chiave dentro il palazzo della fabbrica, per non consentire distrazioni, rimasero intrappolate quando scoppiò un incendio. Era il 25 marzo del 1911 che fu ricondotto come data all’8 marzo già focalizzato. Questo spostamento non si è reso necessario nel caso di un altro incendio scoppiato nella fabbrica Cotton a New York, anch’esso assunto a simbolo delle condizioni precarie di lavoro della donna: era l’8 marzo del 1908.

Anche la Russia assegna all’8 marzo il significato di giornata delle rivendicazioni femminili, ma senza riferimento agli incendi americani. Per la Russia questo  significato  è intrecciato con la rivolta delle donne che filavano il cotone nella fabbrica Krasnaja di San Pietroburgo. Straziate dai dolori per la perdita di mariti, figli fratelli al fronte per la prima guerra mondiale si ribellarono; ma tutto finì in una sorta di solidale partecipazione da parte dei cosacchi che dovevano reprimere la rivolta: era la prima scintilla della Rivoluzione di Ottobre

Scienza e pace

In evidenza

Vincenzo Balzani

Vincenzo Balzani

Secondo la definizione data dai vocabolari (“pace è la situazione contraria allo stato di guerra”) e il pensiero comune (“per amor di pace”, “mettersi il cuore in pace”, “lasciare in pace”), pace è sinonimo di condiscendenza, tranquillità, quieto vivere, rassegnazione; in altre parole, è una situazione statica, è mancanza d’azione. In realtà, la pace vera è tutt’altro: non è vivere isolati in un fortino invalicabile; non è rinuncia, ma è azione, reazione consapevole nei confronti di quello che accade nel mondo che ci circonda. La pace, quella vera, ci porta a ricercare la verità, ad esercitare giustizia, a vivere nella libertà, a perdonare le offese, ad amare il prossimo e a praticare la misericordia. Se l’agire della scienza si interfaccia all’agire della vera pace, avremo un mondo più giusto e più solidale; se invece si intreccia all’egoismo, alla sopraffazione e all’odio, il mondo diventa un luogo inabitabile. Lo è già per il miliardo di persone che soffrono per la fame e la povertà.

Un famoso biologo, Stephen Gould, parlando della situazione dell’umanità, ha introdotto un concetto molto interessante indicato come “la grande asimmetria”: La tragedia umana, e anche la fonte della grande potenzialità cattiva della scienza, sta nel fatto che la realtà, le leggi naturali, sono caratterizzate da una grande asimmetria: per fare qualcosa di buono, ci vuole molto tempo. Per rovinare tutto, basta un attimo. Così la biblioteca di Alessandria, dove erano raccolte le conoscenze di un millennio, è stata distrutta in un giorno di fuoco e un attentato può compromettere in un attimo anni di colloqui di pace.

Questo concetto è quanto mai attuale. Negli ultimi decenni si è avuto un forte sviluppo della scienza e della tecnologia; basti a pensare ai settori dei trasporti e delle telecomunicazioni. Nello stesso tempo abbiamo potuto verificare che è praticamente impossibile controllare le frontiere (sbarchi degli immigrati), la sicurezza degli aeroporti e degli aerei (attentato delle Torri Gemelle) e persino le caserme dei soldati (strage di Nassirya); ci siamo inoltre accorti che basta un piccolo incidente (la caduta di un albero) per causare black out elettrici disastrosi anche nelle nazioni più avanzate. Tutto questo dimostra che i sistemi tecnologici che sorreggono il nostro mondo occidentale sono estremamente fragili e vulnerabili. Per questo, è illusorio pensare che il nostro benessere possa essere difeso con le guerre, perché le guerre seminano odio, l’odio alimenta il terrorismo ed il terrorismo ha buon gioco proprio per la fragilità delle nostre strutture.

Questo significa che la pace, oltre ad essere un imperativo morale, è una necessità perché un mondo altamente tecnologico caratterizzato dallagrande asimmetria” può sopravvivere solo nella pace.

Più cresce la scienza, più si sviluppa la tecnologia, più c’è bisogno di pace.

La Solvay di Rosignano: inquinamento e greenwashing.

In evidenza

Claudio Della Volpe

Pochi sanno o ricordano che il nostro ministro per la transizione ecologica, Roberto Cingolani era stato nominato nel 2019 Chief Technology & Innovation Officer di Leonardo, un’azienda italiana che produce armi e tecnologie aerospaziali.

Non risulta che il suddetto ministro si sia dimesso da Leonardo  dopo essere stato nominato Ministro, ma invece si è messo in congedo o come si dice in inglese “to take a leave”; in sostanza abbiamo un ministro della transizione ecologica che rimane dipendente in congedo di una grande azienda e questo prefigura un bel conflitto di interessi; questo conflitto è stato fatto notare recentemente in occasione del rinnovo dei permessi relativi agli scarichi della Solvay di Rosignano, una  delle più grandi aziende chimiche italiane.

L’autorizzazione (denominata IPPC ossia Integrated Pollution Prevention and Control) è stata rinnovata con 5 anni di anticipo rispetto alla sua naturale scadenza e vale per altri 12 anni ossia fino al 2034. Sarà un caso, ma giusto 11 giorni prima di essere nominato ministro (nel febbraio 2021) Cingolani aveva firmato un accordo, o come si dice nel gergo, una joint-venture fra le due aziende, la Solvay e la Leonardo: ça va sans dire.

La Solvay è talmente integrata nella vita locale della comunità toscana che il nome del paese di Rosignano è in effetti Rosignano Solvay e questo perché sono più di 100 anni che lo stabilimento Solvay è a Rosignano con quel che ne consegue e che andiamo a presentare brevemente.

Sul numero di settembre 2021 di Vogue Italia, una rivista di moda c’è una foto di una spiaggia bianchissima ed un mare dai colori spettacolari (a destra); è la spiaggia prospiciente allo stabilimento della Solvay di Rosignano; invertendo la visuale di 180°(foto a sinistra) lo stabilimento compare sullo sfondo (mica tanto) a dimostrare come cambiare punti di vista è facile e spesso produttivo.

Il giornale Il Tirreno scrive a riguardo:nelle scorse ore è arrivata la nota di Francesco Berti, deputato labronico del Movimento Cinque Stelle. «Vogue Italia alimenta la narrazione truffaldina delle “Maldive toscane”, quelle di Rosignano Solvay. Un Luogo rappresentativo di “un nuovo inizio” (titolo e tema, come detto, del nuovo numero, ndr), dove sfoggiare la bellezza in tutte le sue forme. Niente di più ipocrita, falso e crudele». E aggiunge il deputato livornese: «Inutile nascondersi, le spiagge bianche sono sinonimo di avvelenamento dell’ambiente da parte di una multinazionale cui nessuno ha mai propriamente chiesto il conto. Se il fotografo avesse ruotato il suo obiettivo di 180 gradi, avrebbe immortalato la Springfield della Toscana”

Springfield è la città dei Simpson, con la sua grande centrale nucleare dove il capofamiglia del famoso fumetto lavora.

Il Gruppo Solvay, fondato in Belgio da Ernest Solvay nel 1863 ha sede a Bruxelles ed opera nel settore chimico e delle materie plastiche in 64 paesi con oltre 24mila dipendenti ed un fatturato superiore a 10 miliardi di euro. Solvay è particolarmente nota per la produzione di carbonato di sodio, mediante l’applicazione del cosiddetto “processo Solvay all’ammoniaca”. La Solvay rappresenta attualmente uno dei più importanti gruppi chimici presenti in Italia con 1.900 dipendenti in sette siti produttivi localizzati a: Ospiate (Milano), Spinetta Marengo (Alessandria, ne abbiamo parlato discutendo di PFAS), Mondovì (Cuneo), Livorno, Massa, Rosignano Solvay (Livorno) e Bollate (Milano).

Il ciclo produttivo dello stabilimento di Rosignano, che esiste dal 1912 ed impiega oggi meno di 500 dipendenti rispetto alle migliaia di appena qualche anno fa, è complesso e prevede molti aspetti non illustrati nella figura qui sopra; questa figura per esempio non dice da dove vengono due dei materiali importanti, ossia l’acqua e il sale che servono in grande quantità per l’impianto cloro-soda.

In effetti gli effetti ambientali sono enormi e si estendono ben al di fuori dello spazio dello stabilimento o delle immediate vicinanze; il sale dalle miniere di Volterra, quasi interamente, e di altre località toscane, acqua dai fiumi Cecina e Fine, quest’ultimo sbarrato in un lago di origine artificiale, il Santa Luce, che lascia poi passare poca acqua.

Da tenere presente che la salina di Volterra per la sua natura non può essere coltivata estraendo a secco perché è fatta di lenti poco spesse e dunque viene estratta mediante un flusso di acqua che la trasforma in salamoia.

In conclusione il totale dell’acqua “assoggettata” alla produzione dello stabilimento di Rosignano è veramente enorme (stimata in oltre cento milioni di metri cubi all’anno) e comporta un’alterazione ambientale notevole, che non viene direttamente considerata quasi in nessuna valutazione diretta sugli effetti ambientali del sito Solvay. Diciamo che il dissesto geologico del territorio di Volterra ha avuto un bel contributo da questa estrazione, che oggi è dedicata in prevalenza a Solvay.

Ultima cosa da dire è quanto paga la Solvay per l’acqua; non paga nulla per il dissesto ambientale corrispondente sia geologico che ecologico, ma paga anche pochissimo l’acqua come tale: 4 centesimi di euro a m3 fate voi il confronto con i costi tipici dell’acqua, che certo non è potabile, non tutta almeno, ma che sul mercato dell’acqua italiana costa in genere dieci volte di più alle grandi industrie che la comprano (sui 40centesimi al metro cubo).

In modo simmetrico un altro problema ambientale si verifica per l’emissione diretta in mare, dal famoso Fosso Bianco, del residuo di calcare e cloruro di calcio e altri composti inorganici che si depositano sul fondo marino per molti chilometri quadrati modificando enormemente la natura ecologica della zona circostante lo stabilimento. Il polo industriale Solvay è infatti dotato di un unico punto di scarico finale (SF) nel Fosso Bianco in cui afferiscono gli scarichi parziali derivanti, dalle Unità produttive Clorometani ed Elettrolisi della Società Inovyn SpA e dalle Unità produttive Perossidati e Sodiera/Cloruro di calcio della Società Solvay Chimica Italia SpA.

Gli effetti ecologici sono ancora in valutazione e non riesco a darvene conto, ma l’arretramento della pianura di posidonia è documentato. Nei confronti di questo problema c’è stata una iniziativa scientifica e pubblica con il tentativo di reimpianto della posidonia, documentato in uno dei documenti citati in fondo; tale tentativo a distanza di anni manifesta molte criticità e non ha avuto il successo sperato (progetto SEPOSSO).

Nel 2014 l’ARPAT scriveva:

è necessario evidenziare che la prateria di Posidonia oceanica ha subito nel tempo una regressione verso il largo del proprio limite superiore, causata dall’elevato apporto di sedimenti presenti nello scarico. Tale situazione, sulla quale non sono disponibili informazioni quantitative recenti, sarà oggetto di indagini successive, in fase di programmazione

Oltre che sull’ecologia l’attenzione pubblica e di varie associazioni ambientaliste si è soffermata nel corso del tempo sugli apporti di metalli pesanti che sono stati scaricati in oltre un secolo in questo tratto di costa e che hanno avuto due origini, una naturale ed una artificiale; naturale perché quel tratto di costa raccoglie le piogge che arrivano su minerali naturali ricchi di certi metalli pesanti, ma anche artificiali perché nel carbonato di calcio residuo delle lavorazioni ci sono alte percentuali di arsenico, mercurio e cromo (nel solo 2017 3.88 ton di arsenico, 3.7 di cromo e 59 kilogrammi di mercurio per dichiarazione Solvay); in totale si stima che nei decenni di attività la Solvay di Rosignano abbia scaricato dalle decine alle centinaia di tonnellate di questi metalli nel mare antistante.

Questo mare è valutato contraddittoriamente: pulito dal punto di vista microbiologico,(tanto da avere una valutazione di “eccellente” dal punto di vista biologico, ossia assenza di Escherichia Coli ed Enterobacter) ma il suo inquinamento in mercurio è parecchio più alto del massimo valore ammissibile; dunque il mare non è balneabile, ma di fatto costituisce una attrazione turistica a causa del colore bianco delle spiagge a sua volta causato dagli scarichi di carbonato di calcio.

Nel 2003 (quando la Solvay scaricava 200mila ton/anno di polveri o meglio di solidi sospesi) ci fu un accordo di programma fra l’amministrazione pubblica e la Solvay per ridurre gli scarichi a “sole” 60mila tonnellate; ma si vide ben presto che questo valore non era possibile tecnicamente alla Solvay la quale non lo ha mai rispettato; l’amministrazione pubblica rifacendosi ai valori e metodi di livello europeo stabilì allora un livello 250mila ton/anno che è il valore che il ministro Cingolani ha confermato per altri 12 anni pochi mesi fa. Comunque prima di arrivare a questa conclusione l’amministrazione pubblica in varie forme ha finanziato per decine di milioni di euro l’aggiornamento ambientale Solvay.

Cerchiamo di seguire il ragionamento Solvay e del Ministero; questo ragionamento si basa sulle cosiddette BAT e sulle corrispondenti BREF; di che si tratta? BAT= Best available techniques, migliori tecniche disponibili mentre BREF significa BAT references documents, documenti di riferimento delle BAT; questi documenti finalizzati a rendere diffusa ed efficace la conoscenza sulle BAT disponibili, sono predisposti a livello europeo e sono disponibili sul sito dell’European IPPC Bureau.

La logica delle BAT è riconoscere che c’è un rischio accettabile e che occorre bilanciare rischio ambientale e beneficio produttivo. Su questa base il gestore dello stabilimento di Rosignano afferma che dato che le sue emissioni si collocano al di sotto dei valori di emissione previsti dalle BAT per unità di prodotto non c’è modo di abbassare ulteriormente gli scarichi.

Ovviamente questo ragionamento è valido a condizione che non si consideri la possibilità di abbassare la produzione!

Ecco allora che attraverso un mezzo tecnico (le BAT) si accetta la logica di produzione continuamente crescente; tenete presente che nel 2003 la Solvay di Rosignano scaricava già 200mila ton di residui/anno; alla fine del processo di aggiornamento quando la Solvay rifiuta l’accordo del 2003 e il Ministero accetta la logica BAT-BREF (siamo nel 2015) la emissione totale SALE a 250mila tonnellate; dunque non si dice solo che non si può scendere sotto un tot di emissioni per kg di prodotto ma che la produzione DEVE salire; è un po’ la versione adattata del paradosso di Jevons (se aumenta la produttività in realtà non si lavora di meno ma di più perché si allarga il mercato e sale la produzione); per questa seconda implicita scelta non c’è spiegazione logica a parte quella indicata socialmente dai numeri che mostravo prima; se uno riduce la produzione, riduce l’occupazione e questo ha un costo sociale: nessuno lo dice ma questo è quanto in un posto che dipende di fatto dalla Solvay.

Sono rimaste poche voci che protestano contro questa situazione; il precedente ministro dell’ambiente Costa ha dichiarato che non poteva non concedere la deroga sulla base delle BAT e che dunque occorre cambiare le regole europee; l’ARPAT scarica sul ministero e sulle regole esistenti; alcuni medici fanno notare che i problemi di inquinamento di metalli pesanti ci sono, ma sono (anche giustamente) interessati a far notare un altro aspetto dell’attività Solvay che si evidenzia facilmente: fra gli operai dello stabilimento ci sono decine di casi di mesotelioma pleurico (il 300% dei casi in più rispetto al numero atteso in quella popolazione); questo vuol dire una cosa sola: AMIANTO; le cause sono in corso.

In questa situazione quasi kafkiana, in cui la Solvay nonostante questi ed altri problemi ambientali (l’impianto di Spinetta Marengo di cui abbiamo parlato discutendo di PFAS, vedi qui), è quotata alla Borsa di Bruxelles, con il massimo dei voti (tripla A per l’ambiente), rilasciato da parte delle agenzie (come Msci) che danno i “voti” alle aziende, anche se operano in campo chimico o petrolifero, questo fatto ha prodotto degli anticorpi interni all’ambiente industriale e finanziario.

Ormai miliardi di dollari vanno su asset Esg cioè Environmental, Social and Governance, (ossia le istanze ambientali, sociali e di governance) che sarebbero i criteri chiave di natura non finanziaria che gli investitori possono integrare nel loro processo d’investimento e l’affare sta diventando enorme, si parla di investimenti ESG totali che raggiungono i 50 trilioni di dollari nel mondo; dunque fregiarsi di questo titolo è importante per chi va in borsa.

Cosa succede allora? Ce lo racconta Il Sole -24 ore: Bluebell, società londinese guidata dagli italiani Marco Taricco, Giuseppe Bivona e Francesco Trapani, famosi per le battaglie assembleari su Telecom, Ansaldo Sts e per l’ingresso in Mediobanca, ha avviato un’azione ormai di moda tra i fondi attivisti: si chiama «One Share Esg Campaign», nella quale i fondi mettono a disposizione la propria esperienza per causa ambientaliste, chiedendo alla società nel mirino determinati e immediati interventi. Dopo averne acquistato una sola azione han diritto di dire la loro e Bluebell ha iniziato a fare domande e proposte scomode chiedendo la testa dell’attuale AD della Solvay di Rosignano; potrà questa strategia riuscire dove han fallito le altre?

Vedremo; noi chimici dovremmo dire la nostra; in particolare cosa può fare la Solvay per ridurre VERAMENTE il suo impatto ambientale? Quali tecniche si possono applicare per migliorare le cose, per esempio far depositare gli effluenti prima di scaricare l’acqua in mare? Costa; ma quanto costa alla società italiana un inquinamento che dura da oltre 100 anni?

Documenti consultati

https://www.corr.it/news/adnkronos/30516712/bluebell-capital-partners—response-to-solvay-board-open-letter-regarding-soda-ash-operations-in-rosignano.amp

https://www.solvay.com/en/news/solvay-board-issues-open-letter-regarding-soda-ash-operations-rosignano

https://www.bloomberg.com/press-releases/2022-02-17/bluebell-capital-partners-response-to-solvay-board-open-letter-regarding-soda-ash-operations-in-rosignano

https://www.ilsole24ore.com/art/il-fondo-attivista-bluebell-attacca-solvay-bonificare-spiaggia-rosignano-ADFvm29

https://iltirreno.gelocal.it/cecina/cronaca/2021/09/02/news/spiagge-bianche-da-film-su-vogue-come-springfield-altro-che-maldive-1.40658696

https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&ved=2ahUKEwikzdfSgY72AhVRJMUKHUBAAOQQFnoECEkQAQ&url=https%3A%2F%2Fva.minambiente.it%2FFile%2FDocumento%2F267112&usg=AOvVaw2jdmyQa4qtrmYIoQjVMB-f

https://www.ilpost.it/2021/01/02/spiaggia-solvay-bluebell-esg/

Su Raiplay potete assistere alla trasmissione Report (dal minuto 26:30 secondi circa) dedicata alla Solvay non solo di Rosignano:

https://www.raiplay.it/video/2019/12/report-del-02122019-bicarbonato-di-sodio-4e7df2c0-27df-4a22-a5a7-01f2a6739cc9.html

L’accordo del 2003 è scaricabile qui.

Il decreto del Ministero 177/2015 che riportava a 250mila tonnellate è sul sito del ministero:

Codice elaborato: DVA-DEC-2010-0000896-INEOS-ROSIGN

Devo dire che non è banalissimo trovarlo ma ci si riesce con un po’ di attenzione, se qualcuno lo vuole posso mandarglielo via mail in pdf. Se cliccate sull’indirizzo qui sopra è il primo documento della lista, poco meno di 5 megabytes.Nella medesima lista anche gli altri documenti allegati; non sono veri pdf e non si può usare il search, sono documenti grafici leggibili ma poco usabili tecnicamente.

Documento ARPAT su scarichi Solvay:

Lotto marzo.

In evidenza

Luigi Campanella, già Presidente SCI

Un recente articolo di Licia Troisi, la conduttrice di Terza Pagina RAI 5 ha portato alla luce una interessante storia dalla quale in anticipo si possono ridurre due conclusioni: non è vero quanto si scrive circa la scienza- materia per uomini concetto peraltro più volte ed in sedi diverse già contrastato e poi che sulla base di ricerche successive trovano a volte la loro prima essenza meno noti eventi e fatti precedenti che finiscono per riavere la giusta visibilità.

Il caso descritto è quello di Augusta Ada Byron figlia del grande poeta Byron (da lei però mai conosciuto) e della matematica Anne Isabel Milbanke, meglio conosciuta come Ada Lovelace, l’incantatrice di numeri.

Galeotta fu l’attrazione che provò per il matematico Charles Babbage. Da una corrispondenza fra di loro uscì uno scritto di lei che di fatto conteneva il primo programma per computer. Era stata stimolata dalla Macchina Analitica costruita su progetto originario del suo amore Charles Babbage che non si limitava a calcolare i valori delle funzioni ma, nelle intenzioni del suo ideatore, sarebbe stata in grado di compiere calcoli di qualsiasi genere: si tratta del primo esempio di macchina che ragiona come un moderno computer.

Ada già appassionata al funzionamento del sistema nervoso e del cervello restò affascinata dalla macchina Analitica e ne cominciò a studiare le potenzialità e quali calcoli si sarebbero potuti portare a termine, si concentrò insomma sul software da collegare all’hardware di Babbage. Così in un suo successivo scritto a commento della macchina di Babbage, Ada descrisse un algoritmo-un elenco di istruzioni- che avrebbe permesso alla macchina di Babbage di calcolare i numeri di Bernoulli, ossia una successione di numeri razionali utili in una vasta gamma di problemi matematici.

Quello ora riportato è un caso di ieri diuna scienziata per caso. Oggi l’attenzione per la donna è sbocciata anche nell’organizzazione di impresa con importanti riconoscimenti alle manager donne che da una serie di analisi condotte nel mondo stanno dimostrando di essere le trascinatrici verso la crescita. Secondo i dati di Manageritalia, la Federazione Nazionali dei Dirigenti, il bilancio 2020 si è chiuso con un + per loro ed un – per i loro colleghi uomini e nel 2021 la crescita nel terziario è a 2 cifre per le donne ed a una sola per gli uomini. La percentuale complessiva di donne manager in Italia e pari al 19,1 %,ma con un aumento di quasi il 5% fra 2020 e 2021. Dove questo avanzamento non si avverte, anche se un’inversione di tendenza già si intravede, è nel caso delle neo imprese e delle imprese in crisi: in questi casi quando l’azienda cerca un responsabile a tempo si affida prevalentemente ad uomini.

Un altro aspetto negativo si coglie nei gradi più alti: cioè più si sale più si fatica  per una donna, come dimostra la percentuale degli amministratori delegati scesa dal 4 al 3%. Questo dato è tanto più negativo se lo si confronta con il + 13 % dell’Europa dove l’emergenza COVID ha proprio spinto per un maggiore impegno delle donne al top: prima del covid il suddetto dato era solo un 8% a dimostrazione della fiducia nella donna nelle contingenze difficili.

Il diagramma di Ada Lovelace per calcolare i numeri di Bernoulli, che servono nel calcolo delle potenze di interi successivi a loro volta utili in molti campi di applicazione.

Da consultare

Le microalghe.

In evidenza

Luigi Campanella, già Presidente SCI

L’Organizzazione Mondiale della Sanità definisce una terza età sana il processo che sviluppa e mantiene l’abilità funzionale che rende possibile il buono stato in vecchiaia, il cui mantenimento richiede particolare attenzione alla nutrizione.

In questo senso l ‘attenzione si è concentrata sulle microalghe per il loro contenuto di composti. antiossidanti, anticancro, antidiabetici, antiipertensivi, antiiperlipidemici. Le alghe sono state presenti in molte fasi della mia vita di ricerca: come indicatori ambientali (la loro doppia funzione, fotosintetica e respiratoria, è molto sensibile alla qualità ambientale), come sensori di tossicità, come materia prima per composti di restauro della carta degradata, come risorsa alimentare.

Prima di parlare di quest’ultima su cui è incentrato questo post vorrei parlare brevemente del sensore ambientale e  di tossicità: in ragione della suddetta doppia funzione le alghe consumano ossigeno al buio e ne producono alla luce; entrambi i processi e quindi, in  un’alternanza luce/ buio, l’andamento della concentrazione dell’ossigeno nel tempo risente delle condizioni di qualità ambientale e della tossicità di composti messi a  contatto con le alghe.

Circa invece le applicazioni nel campo dei Beni Culturali, esse derivano dalla possibilità di estrarre dalle alghe polisaccaridi capaci, con le loro catene molecolari, di ricomporre quelle della cellulosa frammentate nei processi di degradazione della carta.

Tornando agli aspetti alimentari negli anni 80 la mia università, nell’ambito di un accordo con Cuba, aveva sviluppato una ricerca di caratterizzazione e valorizzazione delle alghe cubane come risorsa alimentare. Rilevo con piacere che dopo 40 anni questo tema presenta spunti di rinnovata attualità. La spirulina è stata per secoli considerata come un superalimento consumato come polvere disidratata, pasticche, tavolette o anche come prodotto fresco, in relazione alle sue eccellenti componenti proteiche. Questo cianobatterio è anche un’ottima fonte di ferro e selenio ed inoltre delle vitamine A, E, D, del gruppo B e K,  di elementi minerali come calcio, magnesio, di carboidrati, acidi grassi, pigmenti.

Chlorella è un’altra alga verde unicellulare con una composizione proteica al 60%, grassa al20%, carboidratica al 20%, anch’essa ricca di vitamine, minerali e fitonutrienti.Una sua capacità particolare è stata di recente esaltata: si tratta di controllore del peso, proprietà molto richiesta in una società dove la componente obesa non è trascurabile. Un’altra proprietà, più nota da tempo, è quella nutraceutica per il controllo del colesterolo, della sintesi epatica degli acidi grassi, della secrezione di insulina. La spirulina è anche ricca di fibre  come il betaglucano che viene metabolizzato ad acidi grassi a catena corta  come il  propionato.

I betaglucani promuovono anche la crescita di probiotici, mentre il propionato ha proprietà antiinfiannatorie. La chlorella per parte sua, se consumata in concomitanza allo svolgimento di attività fisica aerobica, aiuta significativamente  nel miglioramento del controllo glicemico attraverso l’accresciuta attivazione del segnale di fosforilazione dei muscoli.  Da quanto detto non è improprio quanto alcuni affermano circa la natura di alimenti funzionali di queste alghe.

https://www.alghitaly.it/blog/94-alga-spirulina-e-chlorella-i-due-super-food-di-cui-non-potrai-pi-fare-a-meno.html

L’attività biologica della Spirulina e della Chlorella vulgaris nel controllo del peso e nella protezione della salute in terza età è attribuita alla loro composizione  in acidi grassi come linoleico, arachidonico, linolenico determinanti per il metabolismo cellulare e tissutale, inclusi la regolazione della fluidità della membrana, il trasporto di ossigeno, l’adattamento termico. Si tratta per  tutte e 2 le alghe di materiali  commerciali prodotti in molti Paesi nel mondo. Per  la chlorella, di cui peraltro a seconda del processo di produzione esistono diversi tipi (verde, gialla, bianca), la produzione mondiale è pari a 2000 tonn/anno. La produzione avviene in condizioni fotoautropiche all’aperto o eterotropicamente in adatti fermentatori.

Commenti alla conferenza stampa dell’IPCC  

In evidenza

Antonio Guterres, segretario generale ONU

Antonio Guterres,  Segretario Generale dell’ONU

Commenti alla conferenza stampa dell’IPCC 

Ginevra, 28 febbraio 2022

Ho visto molti rapporti scientifici nella mia vita, ma nessuno come questo. Il rapporto dell’IPCC di oggi è una mappa della sofferenza umana e un’accusa schiacciante al fallimento della leadership climatica. Con fatti su fatti, questo rapporto rivela come le persone e il pianeta sono stati colpiti dal cambiamento climatico.  

Quasi la metà dell’umanità vive nella zona di pericolo – ora. 

Molti ecosistemi sono al punto di non ritorno – ora.

L’inquinamento da carbonio incontrollato sta costringendo i più vulnerabili del mondo ad una marcia obbligata verso la distruzione – ora.  

I fatti sono innegabili.

Questa rinuncia alla leadership è criminale. 

I più grandi inquinatori del mondo sono colpevoli di aver incendiato la nostra unica casa.

È essenziale per raggiungere l’obiettivo di limitare l’aumento della temperatura globale a 1,5 gradi. La scienza ci dice che questo richiederà al mondo di ridurre le emissioni del 45% entro il 2030 e di raggiungere emissioni nette zero entro il 2050.  Ma secondo gli impegni attuali, le emissioni globali sono destinate ad aumentare di quasi il 14% nel decennio in corso.  

Questo significa una catastrofe. Distruggerà ogni possibilità di rimanere sotto il grado e mezzo di aumento.

Il rapporto di oggi sottolinea due verità fondamentali. 

Primo, il carbone e altri combustibili fossili stanno soffocando l’umanità.  

Tutti i governi del G20 hanno accettato di smettere di finanziare il carbone all’estero. Ora devono urgentemente fare lo stesso a casa e smantellare le loro flotte carboniere.  Quelli del settore privato che ancora finanziano il carbone devono essere tenuti a rispondere. Anche i giganti del petrolio e del gas – e i loro sottoscrittori – sono avvisati. 

Non potete affermare di essere verdi mentre i vostri piani e progetti minano l’obiettivo del 2050 e ignorano i grandi tagli alle emissioni che devono avvenire in questo decennio. La gente vede attraverso questa cortina di fumo. 

I paesi dell’OCSE devono eliminare gradualmente il carbone entro il 2030, e tutti gli altri entro il 2040. L’attuale mix energetico globale è finito. 

Come gli eventi attuali rendono fin troppo chiaro, la nostra continua dipendenza dai combustibili fossili rende l’economia globale e la sicurezza energetica vulnerabile agli shock geopolitici e alle crisi.  

Invece di rallentare la decarbonizzazione dell’economia globale, ora è il momento di accelerare la transizione energetica verso un futuro di energia rinnovabile.

I combustibili fossili sono un vicolo cieco – per il nostro pianeta, per l’umanità, e sì, per le economie.  Una transizione rapida e ben gestita verso le energie rinnovabili è l’unica via per la sicurezza energetica, l’accesso universale e i lavori verdi di cui il nostro mondo ha bisogno.

Chiedo ai paesi sviluppati, alle banche multilaterali di sviluppo, ai finanziatori privati e ad altri di formare coalizioni per aiutare le principali economie emergenti a porre fine all’uso del carbone. Questi meccanismi mirati di sostegno sarebbero ben al di là degli attuali obiettivi di sviluppo sostenibile.

Il secondo risultato centrale di questo rapporto è una notizia leggermente migliore: gli investimenti nell’adattamento funzionano. L’adattamento salva delle vite, e quando gli impatti climatici peggioreranno – e lo faranno – aumentare gli investimenti sarà essenziale per la sopravvivenza. L’adattamento e la mitigazione devono essere perseguiti con la stessa forza e urgenza, ed è per questo che ho spinto per arrivare al 50% di tutti i finanziamenti per l’adattamento. 

L’impegno di Glasgow per il finanziamento dell’adattamento non è chiaramente sufficiente per affrontare le sfide delle nazioni in prima linea nella crisi climatica. Sto anche premendo per rimuovere gli ostacoli che impediscono ai piccoli stati insulari e ai paesi meno sviluppati di ottenere i finanziamenti di cui hanno disperatamente bisogno per salvare vite e mezzi di sussistenza. Abbiamo bisogno di nuovi sistemi di ammissibilità (ai finanziamenti) per affrontare questa nuova realtà. Ritardo significa morte. 

Prendo ispirazione da tutti coloro che sono in prima linea nella battaglia climatica e che si confrontano con le soluzioni. Tutte le banche per lo sviluppo – multilaterali, regionali, nazionali – sanno cosa deve essere fatto: lavorare con i governi per disegnare pipeline di progetti di adattamento “bancabili” e aiutarli a trovare i finanziamenti, pubblici e privati. E ogni paese deve onorare l’impegno di Glasgow di rafforzare i piani climatici nazionali ogni anno fino a quando non saranno allineati a 1,5°C.  

Il G20 deve fare da guida, o l’umanità pagherà un prezzo ancora più tragico. So che le persone ovunque sono ansiose e arrabbiate. Lo sono anch’io. Ora è il momento di trasformare la rabbia in azione. Ogni frazione di grado conta, ogni voce può fare la differenza. E ogni secondo conta. Grazie.

Testo inglese originale. ( tradotto da C. Della Volpe)

I have seen many scientific reports in my time, but nothing like this.  Today’s IPCC report is an atlas of human suffering and a damning indictment of failed climate leadership. With fact upon fact, this report reveals how people and the planet are getting clobbered by climate change.   

Nearly half of humanity is living in the danger zone – now.  

Many ecosystems are at the point of no return – now. 

Unchecked carbon pollution is forcing the world’s most vulnerable on a frog march to destruction – now.   

The facts are undeniable. 

This abdication of leadership is criminal.  The world’s biggest polluters are guilty of arson of our only home. It is essential to meet the goal of limiting global temperature rise to 1.5 degrees. Science tells us that will require the world to cut emissions by 45 percent by 2030 and achieve net zero emissions by 2050.  But according to current commitments, global emissions are set to increase almost 14 per cent over the current decade.   

That spells catastrophe.  

It will destroy any chance of keeping 1.5 alive. Today’s report underscores two core truths.  First, coal and other fossil fuels are choking humanity.  All G20 governments have agreed to stop funding coal abroad. They must now urgently do the same at home and dismantle their coal fleets.  Those in the private sector still financing coal must be held to account. Oil and gas giants – and their underwriters – are also on notice.  You cannot claim to be green while your plans and projects undermine the 2050 net-zero target and ignore the major emissions cuts that must occur this decade.  

People see through this smokescreen. OECD countries must phase out coal by 2030, and all others by 2040. The present global energy mix is broken.  

As current events make all too clear, our continued reliance on fossil fuels makes the global economy and energy security vulnerable to geopolitical shocks and crises.  Instead of slowing down the decarbonization of the global economy, now is the time to accelerate the energy transition to a renewable energy future. Fossil fuels are a dead end – for our planet, for humanity, and yes, for economies.  A prompt, well-managed transition to renewables is the only pathway to energy security, universal access and the green jobs our world needs. 

I am calling for developed countries, Multilateral Development Banks, private financiers and others to form coalitions to help major emerging economies end the use of coal. These targeted mechanisms of support would be over and above existing sustainable development needs.The second core finding from this report is slightly better news:  investments in adaptation work. Adaptation saves lives.As climate impacts worsen – and they will – scaling up investments will be essential for survival.Adaptation and mitigation must be pursued with equal force and urgency.That’s why I have been pushing to get to 50% of all climate finance for adaptation.  

The Glasgow commitment on adaptation funding is clearly not enough to meet the challenges faced by nations on the frontlines of the climate crisis.I’m also pressing to remove the obstacles that prevent small island states and least developed countries from getting the finance they desperately need to save lives and livelihoods. We need new eligibility systems to deal with this new reality. Delay means death.  

I take inspiration from all those on the frontlines of the climate battle fighting back with solutions. All development banks – multilateral, regional, national – know what needs to be done: work with governments to design pipelines of bankable adaptation projects and help them find the funding, public and private. And every country must honour the Glasgow pledge to strengthen national climate plans every year until they are aligned with 1.5C.   

The G20 must lead the way, or humanity will pay an even more tragic price. I know people everywhere are anxious and angry. I am, too. Now is the time to turn rage into action. Every fraction of a degree matters.Every voice can make a difference. And every second counts. Thank you.

Superare l’effetto ribrezzo

In evidenza

Mauro Icardi

I rincari record del gas fanno sentire i propri effetti. I costi dei fertilizzanti sono aumentati a causa dell’incremento della domanda e della diminuzione dell’offerta. Tutto ciò è stato scatenato dai prezzi record del gas naturale, che hanno a loro volta innescato tagli alla produzione nel settore dei fertilizzanti. Così facendo, l’urea ha aumentato i prezzi di più del 200%, mentre i prezzi del fosfato biammonico (DAP) sono quasi raddoppiati. La cronaca di questi giorni poi aumenta le apprensioni, visto lo scoppio della guerra  tra Russia e Ucraina.

Tornano quindi di attualità i  progetti che puntano a riutilizzare tutto il riutilizzabile. Perché va ricordato, il problema della scarsità di nutrienti per l’agricoltura non proviene solo da questioni geopolitiche, ma anche dalla perturbazione dei cicli di azoto e fosforo, che furono  segnalati già nel 2009 dallo Stockholm Resilience Centre ( SRC ) Centro di resilienza di Stoccolma. Il lavoro fu pubblicato sulla rivista “Ecology and Society.

Andiamo ad affrontare quindi un problema delicato, cioè quello dell’utilizzo dell’urina umana come materia seconda per la produzione di fertilizzante. Ricordando quello che scriveva Primo Levi nel Sistema Periodico : “Lungi dallo scandalizzarmi, l’idea di ricavare un cosmetico da un escremento, ossia aurum de stercore, mi divertiva e mi riscaldava il cuore come un ritorno alle origini, quando gli alchimisti ricavavano il fosforo dall’urina. Era un’avventura inedita e allegra, e inoltre nobile, perché nobilitava, restaurava e ristabiliva.”

Il fosforo è particolarmente prezioso. Indispensabile nell’agricoltura come fertilizzante e complemento alimentare, sta infatti diventando sempre più raro. Gli esperti ritengono che le riserve potrebbero esaurirsi nei prossimi ottant’anni.

L’elemento centrale di qualsiasi progetto di recupero e trasformazione dell’urina in fertilizzante sono degli speciali servizi  igienici, ossia gabinetti non collegati a un sistema fognario, che permettono di separare l’urina dalle feci grazie alla presenza di due scompartimenti.

 Non sono le caratteristiche tecniche a creare dei problemi. In molte parti del mondo la disapprovazione sociale per chi  ha a che fare con gli escrementi umani è enorme. Un tabù molto radicato.

L’urina è uno dei componenti delle acque reflue. Nelle urine sono presenti, in quantità variabili, nutrienti preziosi quali fosforo, azoto e potassio. Non è conveniente un recupero direttamente dalle acque reflue perché ancora oggi in generale si utilizza troppa acqua (potabile va sottolineato) per accompagnare i nostri residui corporei alla fognatura, e poi all’impianto centralizzato di depurazione.

Vediamo ora alcune tecniche sviluppate per la trasformazione dell’urina in fertilizzante. Non tratterò dell’utilizzo tal quale dell’urina, che pure è stato praticato nell’antichità e che in qualche caso viene suggerito ancora oggi. Preferisco occuparmi di alcune tecniche e ricerche sviluppate a partire dallo scorso decennio di questo secolo, che utilizzano le tecniche tradizionali, sia del trattamento delle acque reflue, che della chimica industriale.

Urina nitrificata concentrata.

Questo processo (nitrificazione parziale seguita da distillazione) è stato sviluppato dall’Istituto federale svizzero per la Scienza e la Tecnologia dell’Acqua (EAWAG) dove è stato installato un impianto pilota. Il fertilizzante liquido ottenuto è ora commercializzato dalla società “VUNA”. Il prodotto è stato approvato dall’Ufficio federale dell’agricoltura ed è venduto in Svizzera con il nome commerciale di Aurin.

Il processo per ricavare fertilizzante avviene in tre  fasi: la prima fase è un normale processo di nitrificazione biologica, la seconda è la concentrazione dell’urina estraendo una parte dell’acqua tramite distillazione, la terza e ultima fase una filtrazione su carboni attivi. In questo modo l’azoto organico è mineralizzato durante la nitrificazione, la distillazione ad alta temperatura riduce notevolmente la quantità di agenti patogeni.  Infine la filtrazione su carbone attivo rimuove i composti quali residui di farmaci o simili.

Urina granulare disidratata.

In questo caso il processo è stato sviluppato dall’Università svedese di scienze agricole (SLU). Attualmente sono in fase di test degli impianti pilota e il processo viene commercializzato da una società svedese, la Sanitation 360.L’azoto può essere stabilizzato e immagazzinato come urea alcalinizzando l’urina fresca. Questo perché un alto pH impedisce all’enzima ureasi (secreto dai microrganismi) di essere attivo e di degradare l’urea in azoto ammoniacale. Quando viene aggiunto all’urina idrolizzata, l’aumento del pH promuove la volatilizzazione dell’ammoniaca. Si possono usare diversi tipi di basi, come idrossidi di calcio, magnesio o potassio o  cenere di legno.

Un esempio di base facilmente disponibile è l’idrossido di calcio Ca(OH)₂(calce spenta). L’aggiunta di 10 g di Ca(OH)₂ per litro di urina fresca permette la stabilizzazione dell’urea. La miscela calce/urina viene poi disidratata con un ventilatore,  una volta solidificata può essere trasformata in forma granulare, con un processo di pellettizzazione.

Estrazione dei nutrienti.

I trattamenti estrattivi mirano a recuperare uno o più dei nutrienti presenti nell’urina per ottenere un fertilizzante concentrato.  L’azoto può essere recuperato sotto forma di solfato di ammonio (ad esempio in una colonna di strippaggio ). Il fosforo può essere recuperato per precipitazione ottenendo struvite, processo per altro maturo e abbastanza consolidato.

Recupero del fosforo da acque reflue e allevamenti | La Chimica e la Società (wordpress.com)

Mi sono venuti diversi dubbi e interrogativi mentre scrivevo quest’articolo. Perché non è usuale parlare di alcune funzioni del nostro corpo, così come non è usuale (e potrebbe sembrare maleducato o scortese) menzionare i prodotti di rifiuto del nostro metabolismo.  Gli anni che stiamo vivendo ci stanno riportando in maniera direi brutale, a dover fare i conti con problemi che non abbiamo mai voluto affrontare con la necessaria serietà. Sono passati cinquant’anni esatti dalla pubblicazione del lavoro conosciuto da molti come “I limiti dello sviluppo” ma che in realtà fu tradotto approssimativamente perché si sarebbe dovuto tradurre “I limiti alla crescita”, come ha giustamente fatto la LU CE  edizioni ripubblicandolo.

Da tecnico che si è occupato di acque reflue, non ho mai avuto troppi ribrezzi li ho superati facilmente. Ricordandomi ancora di Primo Levi al quale non importava l’origine prossima della materia.

Prendere finalmente coscienza di questi limiti, dell’impossibilità di forzare le leggi della natura, della fisica ai nostri desideri invece è un tema che da sempre mi pone degli interrogativi.  Ma i segnali di allarme ormai stanno squillando come impazziti. Mentre non solo le persone comuni, ma purtroppo la classe politica e quella dirigente non trovano il coraggio necessario per cambiare radicalmente il nostro modo di vivere sull’unico pianeta che abbiamo. Quasi fossimo senza più capacità di riflessione o di reazione. E questo davvero mi inquieta.

In questi giorni solo la tragedia di una guerra ci fa riflettere sulla nostra fragilità e sul modo con il quale ci approcciamo a problemi reali. Se scarseggiano i fertilizzanti prima o poi scarseggia il cibo. E forse solo in quel momento diventa meno importante per tutti da dove abbia potuto avere origine il fertilizzante che spargeremo sul campo da coltivare.

Museo diffuso: il caso Valselice.

In evidenza

Luigi Campanella, già Presidente SCI

Sono da oltre 50 anni un sostenitore del modello diffuso di Museo per motivi diversi

-valorizzazione dell’esistente

-delocalizzazione dei siti culturali nel territorio con rispetto delle periferie

-possibile ottimizzazione delle risorse disponibili rendendone più articolata la fruizione

Questo modello richiede strumenti che ne possano rendere fruibile al massimo i contenuti: penso ad itinerari storici, disciplinari, didattici, tematici.

A tutto ciò che ho più volte scritto aggiungo oggi un ulteriore vantaggio del Museo Diffuso: aggregare realtà piccole e meno note all’interno di percorsi culturali di eccellenza. Di recente in questo senso ho fatto una bella scoperta: salendo sulle colline sopra Torino ci si imbatte nell’Istituto Valselice, una scuola frequentata da un migliaio di giovani dalla media ai licei, ma dotato su 2 piani di un Museo Naturalistico dedicato a Don Bosco, suo fondatore. La nascita risale a quando il suo fondatore divenne proprietario di una raccolta di un centinaio di animali imbalsamati e classificati avuti in dono nel 1871 dal suo originale detentore il canonico Gianbattista Giordano.

Don Bosco ha finalizzato la collezione all’insegnamento per il quale ha sempre voluto valorizzare la componente sperimentale rispetto alla teorica. Per noi chimici titolari di una disciplina a prevalente carattere induttivo della conoscenza questo atteggiamento di Don Bosco suona in perfetta sintonia. Nel Museo sono conservati documenti e testimonianze di molti salesiani (Gaudi,Verri) assegnando al Museo un altro grande valore, quello di conservatore delle tradizioni di una comunità tramandandole con i loro significati, anche i meno palesi, ai posteri.

Un momento di svolta nella storia del Museo è rappresentato dal passaggio alla Direzione da parte di don Giuseppe Brocardo infatti con lui il Museo da strumento didattico interno è divenuto struttura aperta al pubblico inaugurata dal Sindaco di Torino nel 1969. È così anche iniziata la sua implementazione con 5000 campioni di rocce e minerali provenienti da tutto il mondo e ordinata secondo i più recenti criteri scientifici e con una raccolta di strumenti scientifici anche obsoleti, ma preziosi didatticamente per la loro trasparenza. Oggi gli strumenti sempre più sono assimilabili a scatole nere sconosciute per il loro funzionamento e quindi reperti dei tempi passati mantengono una specificità didattica che non finisce di stupire anche i non addetti. Per il Museo di Valselice questo avviene per strumenti del XIX secolo di natura fisica (ottica, acustica, meccanica, elettromagnetismo) e Chimica. Una sezione del Museo è dedicata a vertebrati ed invertebrati con alcune specie che vivono solo in Nuova Zelanda. Ottenere esemplari non sempre è stato facile e di recente è considerato un grande successo la donazione al Museo di 2 specie dal Madagascar a riconoscimento del ruolo didattico ed educativo del Museo anche rispetto ai giovani africani. Collezioni importanti su scala mondiale sono quelle di farfalle, coleotteri e conchiglie con un campione del peso di 120 kg. Nel settore di antropologia è  possibile vedere crani ed ossa preistoriche del 10000a.C.provenienti dalla Patagonia. Nel 1900 partì anche la raccolta fossili e più di recente l’erbario, con 15000 specie vegetali rappresentate, recuperate da salesiani in giro per il mondo (Gresini, Crespi,Allioni)

Per chi crede un messaggio di Don Bosco a caratterizzare il suo museo: la bellezza salverà il mondo ed il creato con le sue meraviglie è il depositario primo di questa bellezza di cui il mio ( di Don Bosco) Museo è rappresentazione e sintesi.