W la CO2. Possiamo trasformare il piombo in oro? Recensione

In evidenza

Claudio Della Volpe

W la CO2. Possiamo trasformare il piombo in oro?

Ed. Il Mulino, pag. 208 15 euro – 2021

Il libro di Gianfranco Pacchioni che commento qui oggi potrebbe dare adito ad una ambiguità. Il motivo è che in giro si trovano numerosi “difensori” della CO2; anzi che l’aumento di questo gas serra sia da considerare un vantaggio è uno degli argomenti del peggiore negazionismo; purtroppo anche in Italia abbiamo avuto un libro con questo taglio e scritto da due ingegneri che non nomino per non fargli pubblicità.

Diciamo subito che il libro di Pacchioni NON si situa in questa classe di libri; al contrario è frutto dello sforzo complesso e non banale di un chimico che riflette da chimico di razza su questi temi.

Già il sottotitolo, d’altra parte, chiarisce che la CO2 è “il piombo”, insomma una specie chimica che può giocare un ruolo negativo (ricordiamoci che tutto può giocare un ruolo negativo, come diceva il mio mentore Guido Barone, ogni cosa ha due corni o se volete il mondo, la natura è dialettica, contraddittoria).

La prima parte del libro è dedicata a ricostruire la figura chimica della CO2 nei suoi innumerevoli ruoli.

Una cosa da sottolineare è la riscoperta, almeno per l’Italia, di Ebelmen, uno scienziato francese oggi dimenticato che fu il primo scopritore del meccanismo basilare del ciclo del carbonio geologico, il weathering dei silicati, la reazione mediante la quale l’acqua satura di CO2 degrada le rocce silicee assimilandosi come carbonato. Ebelmen scoprì questo processo nel 1845, ma il suo lavoro fu dimenticato e riscoperto solo dopo molti decenni e ancora oggi non è ben assimilato sebbene alcune delle sue conclusioni siano state riscoperte; ma per esempio Arrhenius non lesse mai quel lavoro. E se è per questo si riscopre anche il ruolo di una donna americana, una scienziata poco conosciuta che probabilmente anticipò varie idee sulla CO2 e il clima (ma vedrete voi stessi).

Nei primi tre capitoli il libro racconta la storia della CO2 come molecola. Chi l’ha scoperta, da dove viene, ossia quali processi geologici possono giustificarne l’esistenza, quali processi biologici o chimici la producono e così via. Nel far questo l’autore è costretto a raccontare (e lo fa con grande abilità) la storia geologica del nostro pianeta, che è un argomento affascinante.

Nei capitoli successivi esplora invece la fotosintesi e la storia della sua delucidazione scientifica. Questa parte è molto completa e mi sembra veramente un lavoro ben fatto.

Ovviamente a questo punto l’autore introduce la scoperta e l’approfondimento del global warming e presenta alcune delle numerose prove chimiche che si possono trovare in letteratura. Anche qui la trattazione sebbene non tecnica è completa e piacevole da leggere.

Infine presenta il quadro di cosa si possa fare per affrontare il problema a partire dalle tecnologie rinnovabili ma anche da quelle legate all’assorbimento della CO2 con reazioni “naturali” come la reazione di Sabatier.

Trovo che questa parte avrebbe dovuto essere più attenta alle questioni che nascono dalla applicazione massiva di tecnologie di assorbimento della CO2 dunque per esempio spiegare o introdurre almeno i concetti di EROEI (energy return on energy investment) o di LCA (Life cycle analysis) perché al momento i punti deboli delle rinnovabili e delle tecnologie di assorbimento sono proprio legati non alla loro possibilità, ma alla loro applicabilità estesa, industriale.

Comunque il testo di Pacchioni rimane un ottimo esercizio di lettura per lo studente di chimica o di ingegneria ambientale che volesse informarsi su questi temi, ma anche per il lettore evoluto che non si ferma alla prima difficoltà.

Fra l’altro i limiti generali dei vari approcci sono ben spiegati.

Il compendio di note, immagini e citazioni è sufficiente a fornire una base del tutto sufficiente non solo al lettore evoluto, ma generico, ma anche al lettore che sia specialista di altri settori e voglia farsi un’idea di questi problemi.

Ho avuto modo di partecipare in qualche modo alla formulazione del testo, fornendo dei consigli che l’autore ha, bontà sua, accettato ma questo non mi rende di parte nella valutazione, anche perché l’accettazione è stata parziale e l’autore conserva i suoi punti di vista originali.

Nelle conclusioni l’autore, in modo per me inaspettato scrive delle cose, relative alla storia umana (il ruolo ipotizzabile della grande eruzione di Toba nella storia della nostra specie) che personalmente mi trovano molto d’accordo e che anzi avevo riassunto in un testo che circolò più di dieci anni fa per qualche tempo in ambienti politicamente impegnati della mia zona e nell’associazione ASPO Italia di cui in quel momento facevo parte.

In conclusione trovo il libro di Gianfranco Pacchioni molto ben scritto e interessante e ve ne consiglio caldamente la lettura.

Il nostro blog ha recensito un altro bel libro di Pacchioni.

Chimica e crisi energetica.

In evidenza

Luigi Campanella, già Presidente SCI

Sono sempre più numerosi i settori che dinnanzi alla crisi energetica producono documenti finalizzati ad evidenziare le rispettive specificità rispetto ad un problema assolutamente generale

L’industria farmaceutica si pone il problema quasi etico dell’impegno sociale, ponendosi la questione: se, come è successo, siamo in grado di produrre in un anno un vaccino contro il covid allora non possiamo chiedere ad un paziente malato di cancro di aspettare 10 anni. Per rispondere è stato cambiato qualche modello produttivo.

Bristol Myers Squibb, guidata, unico caso di un colosso USA, da un presidente italiano, Giovanni Caforio, ha per esempio cambiato il modo di fare ricerca, aprendo hub innovativi nei luoghi dove è possibile lavorare insieme ai centri di ricerca migliori al mondo, quindi Seattle, San Francisco, Boston.

Ma la burocrazia resta un freno: durante la pandemia era sufficiente richiedere una riunione alla Food Drug Administration o all’Agenzia Europea del Farmaco per ottenere la convocazione in poche ore, mentre oggi possono volerci settimane o mesi.

C’è poi una specificità che pesa moltissimo, che fa dell’industria farmaceutica un settore unico: nel suo caso i prezzi sono fissati dalle autorità nazionali, quindi senza possibilità di agire sulla leva dei prezzi per ammortizzare i costi maggiori. Purtroppo però questo recupero avviene con una visione solo speculativa incurante degli interessi del paziente

Un altro settore che soffre per i costi delle materie prime legate al superbonus e delle forniture energetiche, fino al 1500 % di aumento, è quello delle costruzioni, sia dal lato delle grandi opere che dell’edilizia privata con aumenti denunciati in alcuni casi fino al 200%. I materiali energivori sono tantissimi praticamente tutti, e la lievitazione dei prezzi induce difficoltà nell’acquisizione di tali materiali, ma a cascata di ogni prodotto che li utilizza.

La ricaduta sulle pratiche avviate in tempi migliori per bonus ed ecobonus è la prima responsabile della crisi del settore edilizia.

Infine anche l’Agricoltura viene colpita per la crisi produttiva delle industrie dei fertilizzanti. Queste hanno scritto alla presidente della Commissione Europea von der Leyen per chiedere una urgente azione sui prezzi del gas perché le chiusure degli impianti di produzione di fertilizzanti faranno aumentare le emissioni globali di carbonio e la dipendenza dell’Europa dai mercati terzi.

La guerra russo-ucraina ha fatto schizzare i prezzi del gas ed ha bloccato le esportazioni di fertilizzanti dai 2 paesi coinvolti direttamente nella guerra che ne sono grandi produttori. Al porto di Ravenna sono arrivate 800 mila tonnellate di fertilizzanti per il 70% da questi 2 Paesi  con un calo del 15% rispetto all’anno prima. Il timore è che gli agricoltori non riescano a concimare ed accettino quello che viene dai campi riducendo rese e qualità o, addirittura, abbandonando l’attività, con la differenza rispetto all’industria  che i campi non possono essere spenti e riaccesi. Qui la chimica può essere un importante supporto indicando la valorizzazione di alcuni sottoprodotti che possono sostituire i concimi tradizionali e sostenere la ricerca scientifica; il problema principale però resta quello dei costi energetici e della  relativa politica di gestione.

Buone e cattive notizie.

In evidenza

Luigi Campanella, già Presidente SCI

Come spesso avviene le notizie sull’ambiente arrivano sempre in coppia: non si fa a tempo a rallegrarsi per quella buona che subito si devono fare i conti con quella cattiva.

Cominciando da quest’ultima è scattato nelle ville di Roma l’allarme ozono: con soglia di allarme a 240 microgrammi per metro cubo ne sono stati rilevati 220. Al suolo l’ozono si forma quando precursori costituiti da inquinanti antropici e composti naturali, in primis i terpeni prodotti dagli alberi resinosi, in un mix estremamente eterogeneo, vengono irradiati dalla luce solare. Le condizioni di intensità di questa e di esposizione alla luce, la temperatura e le altre condizioni metereologiche, la direzione e velocità dei venti sono responsabili della variabilità degli effetti e quindi della concentrazione dell’ozono prodottasi. I valori più alti si raggiungono nelle ore più calde della giornata. La situazione della città, 766 fra auto e motorini ogni 1000 abitanti, di certo è un aggravante.

Da tutto quanto detto si comprende come l’impegno che Roma si é assunta di raggiungere la neutralità climatica entro il 2030 e le zero emissioni entro il 2050 sia gravoso e richieda interventi efficaci e tempestivi.

C’è da dire che in una valutazione dinamica dell’inquinamento quale risulta dall’ultimo rapporto del Kyoto Club e dell’Istituto Inquinamento Atmosferico del CNR la situazione- ed è questa la buona notizia – tende a migliorare, i giorni di superamento dei limiti si sono ridotti, anche in presenza di eventi, come gli incendi, che non sono direttamente correlati all’inquinamento ed al traffico veicolare.

Il covid19 ha agevolato questi miglioramenti con il ridotto traffico e la controllata mobilità

L’estate della pianta aliena.

In evidenza

Mauro Icardi

La condizione di siccità prolungata, la riduzione delle portate nei corsi d’acqua principali, l’aumento di temperatura dell’acqua sono le condizioni che hanno permesso che la pianta acquatica Elodea nuttallii si sia diffusa in buona parte del Nord Italia. Questa pianta acquatica è originaria del Nord America e si sviluppa nei fondali di laghi, stagni e corsi d’acqua poco profondi e a lento scorrimento. In Italia, la pianta è stata rilevata attualmente solo in cinque regioni: Piemonte, Lombardia, Veneto, Friuli-Venezia Giulia, Emilia-Romagna e Provincia di Trento.

Con il termine “invasivo” s’intendono quelle specie aliene, ovvero non autoctone, in grado di mettere in pericolo un ecosistema. La Elodea è stata introdotta in Europa come pianta ornamentale per laghetti, stagni ed acquari. Il fenomeno in sé esiste da sempre, ma è l’incremento consistente di tale fenomeno negli ultimi anni a destare forte preoccupazione.

In questa foto si può vedere la condizione del Po a Torino nella zona dei Murazzi che si trova in prossimità del centro storico.

 Diverse caratteristiche di questa specie di pianta sono tipiche degli infestanti di difficile controllo: crescita rapida, riproduzione vegetativa attraverso frammenti e facile dispersione da parte degli uccelli acquatici e delle correnti. Quando questo genere di pianta colonizza un corso d’acqua può formare strati molto spessi e resistenti, che necessitano di operazioni frequenti di sfalcio e rimozione.  Può ostruire i sistemi di drenaggio, le tubazioni e gli eventuali sistemi di chiuse. 

Un altro problema è che questa pianta infestante sostituisce le specie autoctone che sono di norma il nutrimento per i pesci compromettendo l’equilibrio ecologico ;inoltre, gli strati compatti impediscono l’ossigenazione delle acque.

Un problema del tutto simile si era già verificato negli anni 70 del secolo scorso ed era dovuto all’eccesso di nutrienti quali azoto e fosforo presenti nelle acque reflue, che venivano scaricati nei corpi idrici senza trattamenti di depurazione, o con trattamenti parziali che si limitavano a grigliatura e sedimentazione primaria. Il problema venne risolto con la costruzione degli impianti di depurazione delle acque reflue. Ora si ripresenta con aspetti diversi. Non è solo un problema dovuto all’introduzione di specie non autoctone, ma anche strettamente connesso con la modifica del regime di portata di molti fiumi italiani. Nel caso del fiume Po lo scorrere lento con flusso laminare, e la temperatura elevata delle acque sono condizioni che, come già detto, ne favoriscono il proliferare incontrollato.

Gli sfalci però non sono risolutivi ma si tratta soltanto di un’operazione indifferibile per impedire la marcescenza e putrefazione dello strato di piante cercando così di limitare il problema delle molestie olfattive.

https://www.lastampa.it/torino/2022/07/19/news/la_giungla_sul_fiume_a_un_mese_dallultimo_sfalcio_le_piante_si_riprendono_il_po-5461490/

Come si può facilmente capire, i problemi ambientali sono spesso collegati. E gli effetti finiscono per avere un effetto a cascata. Precipitazioni nevose praticamente assenti, siccità prolungata hanno compromesso gravemente lo stato ecologico dei fiumi italiani. Ripeto il solito appello di sempre: non possono essere solo le soluzioni tecnologiche, che pure ci sono e funzionano, a risolvere questo tipo di situazioni. Ci vuole una mentalità diversa. E questa mentalità deve essere acquisita in primo luogo dall’opinione pubblica che poi dovrebbe fare pressione sulla classe politica. Oltre a questo è fondamentale diffondere una generalizzata educazione ambientale che mi sembra ancora decisamente carente, o mal compresa.  Posso disporre dell’impianto di depurazione migliore al mondo, ma se questo scarica in un fiume che è completamente in secca è evidente che qualcosa non funziona come dovrebbe. Mettere la testa sotto la sabbia, dissimulare la gravità delle situazioni, pensare che tutto si risolverà senza un necessario cambio di atteggiamento nei confronti del nostro modo di vivere su questo pianeta non potrà che portare a fallimenti e delusioni.

Mi prendo la libertà di allegare questa vignetta che ritengo significativa.

L’estate del 2022 dovrebbe insegnarci qualcosa, cerchiamo di ricordarcelo non appena le prime piogge ci illuderanno di vivere la “normalità” a cui tanto aspiriamo.

Qualche considerazione sui cosidetti “termovalorizzatori”.1.

In evidenza

Claudio Della Volpe

Premetto che questo non è un trattato sul tema ma un breve post e dunque non potrà essere esaustivo ma solo indicare alcuni punti. Eventualmente continuerò ad occuparmi del tema in altri post.

Le parole sono pietre e spesso la scelta di un termine implica tutta una serie di contenuti che però non appaiono subito chiari.

A me questo appare il caso del termovalorizzatore, ossia un impianto di incenerimento dei rifiuti a carattere “organico” in senso chimico, ossia basati su scheletri di carbonio. Ci sono due categorie di rifiuti di questo tipo, quelli propriamente organici, biologici insomma e quelli di plastica che ne rappresentano la assoluta maggioranza.

I tipici termovalorizzatori sono alimentati non tanto con combustibile “secco” generico quanto con il cosiddetto CDR, combustibile-derivato-da-rifiuto, ossia un tipo di rifiuto solido ottimizzato per la combustione in termovalorizzatore e in cui la componente di eteroatomi come cloro o fluoro è ridotta ed anche quella puramente biologica. La riduzione degli eteroatomi serve a ridurre la formazione di acidi inorganici aggressivi che renderebbero molto più impegnativa e costosa la combustione e le operazioni di filtraggio di fumi e polvere.

Il Combustibile derivato dai rifiuti (CDR) è un combustibile ottenuto dal trattamento chimico-fisico dei rifiuti solidi urbani che consente di ottenere energia dai rifiuti. Il combustibile derivato dai rifiuti è conosciuto anche con la sigla inglese RDF (Refuse Derived Fuel). Il CDR è composto essenzialmente da materie derivate dal petrolio (plastica, gomma, ecc.). Si ottiene eliminando le frazioni organiche e gli elementi non combustibili dai rifiuti. Al termine del trattamento il CDR viene sistemato in blocchi cilindrici, denominati ecoballe, e consegnato per l’incenerimento finale ai termovalorizzatori.

Questo tipo di cernita (che ha a sua volta un costo energetico) va considerata nel quadro del bilancio complessivo di energia.

La produzione della plastica dal petrolio è una operazione energeticamente intensiva; da un “compito in classe” di uno studente di Stanford (ma si possono trovare altre fonti di letteratura) ricaviamo che una tipica plastica come il PET costa in termini produttivi (petrolio ed operazioni conseguenti incluso il trasporto) qualcosa come 100MJ per chilogrammo; a fronte di questo costo sta il contenuto entalpico, ossia ottenibile dalla mera combustione del materiale, che è espressa nella tabella seguente:

La differenza fra i due dati mostra che la pretesa termovalorizzazione è un imbroglio dal punto di vista termodinamico, in quanto la plastica che bruciamo ci è costata per la sua produzione più del doppio dell’energia che ne ricaveremo, (come vedete nessuna produce più di 46.5 MJ/kg); in questo senso la sua combustione è un ben misero risultato anche perché, come sappiamo bene dalla termodinamica la trasformazione del calore in energia elettrica anche nelle migliori condizioni ottenibili è dell’ordine della metà; se ne conclude che con la “termovalorizzazione” recuperiamo la metà della metà, circa ¼ (un quarto) dell’energia che abbiamo speso per produrre la plastica dal petrolio.

Aggiungiamo un altro dato, sia pure approssimato: per quanto tempo l’abbiamo usata questa benedetta plastica? In genere se si escludono appunto prodotti come il PVC che sono a lunga vita (una finestra in PVC dura molti decenni) ma non sono bruciabili almeno non in un comune inceneritore a causa della estesa formazione di HCl, la vita media di un oggetto in plastica è breve; non sono stato in grado di trovare stime affidabili e complete, ma la stima corrente è inferiore all’anno.

Ne segue che di fatto la combustione della plastica è una sorta di combustione di petrolio “differita”  ed a bassissima efficienza che non è esente dai problemi generali della combustione di petrolio, ossia da quelli climatici su cui torneremo fra un momento.

Analizziamo il momento della combustione vera e propria. E’ un processo che noi uomini usiamo da oltre un milione di anni (lo usavano già i nostri progenitori della specie Homo, noi lo facciamo da quando esistiamo, circa 200mila anni) e che è stato profondamente ottimizzato.

Su questa fase dobbiamo dare torto al senso comune: è possibile con opportuni accorgimenti, a partire dalla cernita delle ecoballe (e quindi escludendo una parte dei rifiuti pur bruciabili) e dalla costanza della loro composizione come da tutti i metodi di filtraggio e di abbattimento, ottenere dagli impianti migliori, come quello di Acerra per esempio, emissioni ben al di sotto dei limiti di legge e dunque esenti da problemi ambientali.

Esistono numerosi lavori nel merito, per Acerra c’è un corposo libretto del CNR che ha studiato l’impianto già nel 2016, per esempio.

Ma su questo ho una prova inoppugnabile che è nel mio caso “di famiglia”, per così dire. Ho un cugino che ha fatto il veterinario della ASL Na2Nord; e che dopo la pensione essendo un appassionato di api da sempre ed un esperto da molti anni di api è stato coinvolto in uno studio che è stato poi pubblicato (dalla Regione Campania, nella rivista della ASLNa2Nord 2020); Patrizio Catalano ha allevato un bel po’ di api nel recinto del termovalorizzatore; le api sono libere di muoversi in tutto il territorio circostante e di ricavarne il loro miele, la cera e tutti i prodotti tipici della loro attività; questi prodotti sono stati studiati e analizzati per parecchio tempo da enti terzi, insieme alle api defunte e NON MOSTRANO alcuna criticità; ne segue che per quanto concerne gli effetti diretti dell’impianto sull’ambiente circostante un indicatore sensibile come le api, che sono un classico della bioanalisi ambientale, provano che non ci sono emissioni nocive.

Oggi il termovalorizzatore regala il miele prodotto da queste api ai visitatori, come anche il pepe rosa che nasce e cresce nel cortile interno dell’impianto, arricchendolo col suo forte profumo.

Insomma se si usano i migliori sistemi di combustione e di controllo delle emissioni bruciare le ecoballe si può senza inquinare l’aria. Per converso il territorio su cui si è bruciato liberamente e si è inquinato terribilmente (la cosiddetta “terra dei fuochi”, che non è così lontana da Acerra) la situazione si rovescia, lì l’inquinamento e gli effetti sulle api sono palesi.

Conclusione il termovalorizzatore se condotto bene può non inquinare l’aria.

Procediamo ancora; la combustione produce non solo fumi e gas ma anche ceneri; in questo caso la massa delle ceneri varia fra il 20 e il 30% della massa del combustibile usato; non è una percentuale trascurabile; a causa della sua composizione tuttavia il suo VOLUME è parecchio inferiore (le ceneri sono costituite da ossidi di metalli residui essenzialmente a partire da sodio e potassio a finire agli eventuali metalli pesanti presenti nella plastica e dunque hanno una densità molto più alta dei rifiuti); inoltre questo tipo di ceneri che costituisce a sua volta un rifiuto non è stoccabile nelle medesime condizioni del rifiuto di partenza, ma solo in condizioni molto più difficili da ottenere (almeno pro quota) e in parecchie regioni NON CI SONO depositi di rifiuti adeguati alla bisogna. Ne segue dunque che una volta bruciate le ecoballe occorre trasferire una massa che va da un quinto ad un terzo delle ecoballe in appositi depositi (anche questo, come la raccolta e la cernita delle ecoballe ha un costo energetico); si sta cercando di riusare queste ceneri essenzialmente vetrificandole e trasformandole in materiale da costruzione, ma la cosa non è ancora un fatto commerciale.

Dunque è pur vero che le emissioni gassose di un termovalorizzatore ben gestito sono trascurabili in termini di inquinamento atmosferico, ma ricordiamoci che ci sono le ceneri che occorre come le ecoballe, trasferire per molti chilometri in apposite discariche, almeno al momento.

Ed arriviamo qui alle dolenti note climatiche.

Il termovalorizzatore sia pur depurato delle sue emissioni più nocive in termini di fumi e gas emetterà comunque molte tonnellate di gas serra; essenzialmente acqua ed anidride carbonica.

Come sappiamo fra i due il vero gas serra che può alterare il bilancio serra del pianeta è l’anidride carbonica. Per ogni chilo di rifiuto avremo circa tre chili di gas serra.

Questo è un dato inoppugnabile e di solito trascurato; ma non si può farlo; un caso recente ce lo fa capire bene:

Il famoso inceneritore di Copenhagen, quello su cui si può sciare, è diventato a livello mondiale il simbolo della termovalorizzazione pulita, ma…..

C’è un ma; anche quell’impianto esemplare manca di un modo di bloccare le emissioni climalteranti; certo si può, si potrebbe costruire un impianto di assorbimento della CO2 prodotta, anche se poi si dovrebbe stoccarla e metodi sicuri e certi per questo stoccaggio non ci sono, a parte i costi di trasporto; ma il costo di questa parte del dispositivo è molto alto; la comunità danese si è rifiutata di farlo;

https://europa.today.it/ambiente/copenaghen-emissioni-zero-termovalorizzatore.html

La conclusione è che anche l’impianto da sogno su cui si può sciare non è una soluzione perché non può bloccare le emissioni climalteranti e se si applicasse questo metodo a tutti i rifiuti possibili l’effetto sarebbe tragico per il clima.

L’Europa almeno formalmente ha scritto già nel 2018 che i termovalorizzatori non sono la soluzione per i rifiuti proprio per questo motivo.

https://www.pressenza.com/it/2018/01/leuropa-dice-no-agli-inceneritori-aumentano-leffetto-serra/

Un ultimo punto che non è di tipo scientifico ma che fa capire come poi l’inceneritore reagisce con la nostra struttura sociale.

Ma come ha fatto l’inceneritore di Copenaghen a continuare a bruciare tanti rifiuti quando poi la Danimarca è effettivamente all’avanguardia nel riciclo? Semplice; per far si che l’impianto non fosse in perdita la Danimarca ha IMPORTATO la monnezza o meglio i CDR di altri paesi in modo da poter continuare a bruciare.

Mentre in origine l’impianto era stato costruito per bruciare solo i rifiuti di parte della città di Copenaghen, dopo qualche anno per non rinunciare ai profitti ed andare in perdita la regola è stata “superata” e si è andati verso la crescita inarrestabile sia della quantità dei rifiuti trattati (quasi 600mila tonnellate all’anno), sia all’espansione dell’impianto per bruciare anche rifiuti di tipo vegetale.

Ma ovviamente questo non ha fatto proprio piacere ai cittadini danesi. Il governo dopo opportuna riflessione ha deciso di cambiare strada.

Dunque la conclusione è che mentre in Europa si abbandona la strada dell’incenerimento qui da noi si continua a puntare su una tecnologia che è ritenuta SUPERATA dai fatti climatici; i costruendi inceneritori di Roma, di Trento-Rovereto e l’espansione di Acerra rimangono un sogno tecnologico ma insostenibile; i rifiuti si devono ridurre, riducendo la produzione di manufatti e riciclando e riusando gli oggetti e i materiali.

Ma questo confligge con la natura sempre crescente dell’economia capitalistica; per cui o lei o noi, l’economia capitalistica del Pil sempre crescente è insostenibile per noi e per il pianeta e deve passare anch’essa in qualche tipo di pattumiera.

(continua)

Etica della ricerca sotto i riflettori.

In evidenza

Luigi Campanella, già Presidente SCI

L’etica della scienza è di certo ambito di cui continuiamo a scoprire nuovi aspetti e risvolti.

L’ultimo è quello delle intelligenze artificiali capaci di creare opere complesse basate su immagini e parole memorizzate con il rischio di fake news e di contenuti disturbanti.

Per evitare che ciò accada si sta procedendo filtrando secondo criteri di autocensura i dati da cui l’intelligenza artificiale parte.

Comincia ad intravedersi un futuro prossimo di competizione fra autori umani ed artificiali nel quale sarà importante, quando i loro prodotti saranno indistinguibili, dichiararne l’origine.

Come si comprende, si conferma che gli aspetti etici dell’innovazione e della ricerca si diversificato sempre di più.

La biologia molecolare e la genetica già in passato hanno posto all’attenzione comune aspetti di etica della scienza che hanno indotto a nuove riflessioni circa i limiti delle ricerche.

L’argomento, sempre attuale, torna sulle prime pagine a seguito della pubblicazione di una ricerca della Università di Cambridge che ha sviluppato una struttura cellulare di un topo con un cuore che batte regolarmente.

Magdalena Zernicka-Goetz

Gianluca Amadei

Del gruppo fa parte anche uno scienziato italiano Gianluca Amadei,che dinnanzi alle obiezioni di natura etica sulla realizzazione della vita artificiale si è affrettato a sostenere che non è creare nuove vite il fine primario della ricerca, ma quello di salvare quelle esistenti, di dare contributi essenziali alla medicina citando il caso del fallimento tuttora non interpretato di alcune gravidanze e di superare la sperimentazione animale, così contribuendo positivamente alla soluzione di un altro dilemma etico.

L’embrione sintetico ha ovviamente come primo traguardo il contributo ai trapianti oggi drammaticamente carenti nell’offerta rispetto alla domanda, con attese fino a 4 anni per i trapianti di cuore ed a 2 anni per quelli di fegato. Il lavoro dovrebbe adesso continuare presso l’Ateneo di Padova per creare nuovi organi e nuovi farmaci.

Come rimediare alla diminuzione del gas russo

In evidenza

Vincenzo Balzani, professore emerito UniBo

Per far fronte alla diminuzione del gas russo, il governo, sotto la spinta delle compagnie petrolifere, ha adottato soluzioni, in parte giustificate dalla necessità di intervenire con urgenza, che ci legheranno all’uso dei combustibili fossili per 10-15 anni e rallenteranno lo sviluppo delle energie rinnovabili.

Aumentare l’utilizzo delle centrali a carbone è una proposta inammissibile non solo perché non abbiamo carbone, ma anche perché è il più dannoso fra combustibili fossili.

Riprendere le trivellazioni di gas in Italia è una soluzione illusoria perché al massimo saremmo in grado di coprire appena un anno e mezzo della domanda nazionale di gas. La ricerca spasmodica di fonti fossili in Africa ci mette nella condizione di dipendere da paesi politicamente instabili, caratterizzati da un basso grado di democrazia.

I rigassificatori per usare gas liquefatto proveniente dagli USA o dal Medioriente sono costosi e pericolosi e ci incateneranno all’utilizzo del metano ancora per molti anni.

La produzione di biocombustibili da colture dedicate non è una soluzione; se si considera l’energia usata per seminare, raccogliere, trasportare e convertire i raccolti in biocombustibili, in molti casi il bilancio energetico è negativo. L’ impatto ambientale dei biocombustibili può essere addirittura maggiore di quello dei combustibili fossili. Si crea inoltre una competizione fra l’uso del terreno per produrre cibo e quello per ottenere energia; il “pieno” di bioetanolo per un SUV utilizza il mais sufficiente a nutrire una persona per un anno. Infine, i biocombustibili ostacolano la transizione dai motori a combustione ai motori elettrici, che sono 3-4 volte più efficienti e non producono gas inquinanti e clima alteranti. L’efficienza di conversione dei fotoni del Sole in energia meccanica delle ruote di un’automobile (sun-to-wheels efficiency) è più di 100 volte superiore per la filiera che dal fotovoltaico porta alle auto elettriche rispetto alla filiera che dalle biomasse porta alle auto alimentate da biocombustibili

I biocombustibili sono anche i protagonisti delle campagne pubblicitarie e delle operazioni di greenwashing delle compagnie petrolifere. L’Autorità Antitrust ha multato ENI con una sanzione di 5 milioni di euro per aver pubblicizzato come green il suo Diesel+composto per l’85% di diesel fossile e 15% di Hydrotreated Vegetable Oil prodotto da olio di palma.

La soluzione vera e strutturale del problema energia sta nello sviluppo delle energie rinnovabili: impianti fotovoltaici ed eolici per la produzione di energia elettrica, reti per la sua distribuzione e batterie e pompaggi per accumularla. Lo sfruttamento delle energie rinnovabili è sostenibile non solo in termini climatici e sanitari, ma anche in termini economici perché i costi riguardano solo la costruzione, l’ammortamento e la manutenzione. L’energia che ci forniscono Sole e vento è gratuita e, a differenza dei combustibili fossili, sicura e inesauribile. Un’accelerazione spinta sulle rinnovabili avrebbe effetti occupazionali molto positivi.

Articolo già pubblicato su Bo7 del 4 settembre 2022

Mineralizzare i PFAS.

In evidenza

Claudio Della Volpe

L’inquinamento da PFAS, da perfluoroalchili e derivati (si tratta di parecchie molecole alcune non ancora bene individuate) è un argomento che abbiamo affrontato in vari post che sono elencati alla fine di questo. E’ un problema di dimensione internazionale e che non si riferisce solo al nostro paese, dove appare localizzato in certe regioni, per esempio in Veneto (ma anche in Piemonte). La regione Veneto sta seguendo un piano di sorveglianza dal quale si evince che nella popolazione interessata la quota sierica di PFAS sta lentamente diminuendo, più velocemente nelle femmine che nei maschi. Parliamo, in totale, di centinaia di migliaia di persone esposte, anche se le analisi sono state accettate solo da una piccola quota.

https://www.regione.veneto.it/documents/10793/12935055/Bollettino+PFAS+Febbraio_2022_DEF.pdf/eb985d55-7096-4f84-838d-87b624f867d8

Che il problema sia globale si evince da un recente lavoro comparso su Environmental Science Technology di cui riportiamo sotto l’abstract.

Nell’abstract di questo lavoro si  scrive:

Si ipotizza che la contaminazione ambientale per sostanze per- e polifluoroalchiliche (PFAS) definisce un separato confine planetario e che questo confine è stato superato. Questa ipotesi viene testata confrontando i livelli di quattro acidi perfluoroalchilici selezionati (PFAA) (cioè perfluoroottanosolfonici) acido (PFOS), acido perfluoroottanoico (PFOA), perfluoroesano- acido solfonico (PFHxS) e acido perfluorononanoico (PFNA)) in vari media ambientali globali (ad esempio, acqua piovana, suoli e acque superficiali) con livelli orientativi recentemente proposti. Sulla base dei quattro PFAA considerati, si conclude che (1) livelli di PFOA e PFOS nell’acqua piovana spesso superano di gran lunga il livello indicato da EPA per l’uso umano per tutta la vita. I livelli di Water Health Advisory e la somma dei suddetti quattro PFAA (Σ4 PFAS) nell’acqua piovana sono spesso superiori ai valori limite danesi per l’acqua potabile basati anche su Σ4 PFAS; (2) i livelli di PFOS nelle acque piovane sono spesso superiori allo standard di qualità ambientale per le acque superficiali interne dell’Unione europea; e (3) la deposizione atmosferica porta anche a contaminare i suoli globali in modo ubiquitario e ad essere spesso al di sopra dei valori delle linee guida olandesi proposte. Si conclude, pertanto, che la diffusione globale di questi quattro PFAA nell’atmosfera ha portato al superamento del confine planetario per l’inquinamento chimico. I livelli di PFAA nella deposizione atmosferica sono particolarmente scarsamente reversibili a causa dell’elevata persistenza dei PFAA e della loro capacità di ciclo continuo nell’idrosfera, compresi gli aerosol di spruzzo marino emessi dagli oceani. A causa della scarsa reversibilità dell’esposizione ambientale ai PFAS e dei loro effetti associati, è di vitale importanza che gli usi e le emissioni di PFAS siano rapidamente limitati.

Vista la natura globale del problema, nei cui confronti non ci sono al momento azioni internazionali paragonabili a quelle che si sono avute in altri casi con l’accordo di Stoccolma per i terribili 12 o con l’accordo di Montreal-Kigali per il buco dell’ozono è importante notare cosa fa la comunità chimica a riguardo e le ricerche ci sono, di alcune abbiamo già dato conto (si veda per esempio il post del 2019 elencato sotto, un enzima che può degradare i PFAS).

L’articolo di Cousins ha avuto grande risonanza mondiale.

Sebbene alcuni PFAS siano stati gradualmente eliminati dai principali produttori già decenni fa, le misurazioni ambientali mostrano che i livelli non sono in notevole diminuzione. Gli autori spiegano che i PFAS sono molto persistenti e circoleranno continuamente attraverso diversi media ambientali e in tutto il mondo senza rompersi. Cousins et al. hanno inoltre sottolineato che con la pubblicazione di nuovi dati tossicologici, i valori delle linee guida per i PFAS nell’acqua potabile sono diminuiti drasticamente negli ultimi 22 anni man mano che vengono alla luce nuove informazioni sugli effetti dei PFAS. Negli Stati Uniti, le linee guida per il PFOA sono diminuite di 37,5 milioni di volte.

Gli autori hanno sottolineato di aver considerato solo alcune delle molte migliaia di PFAS, la maggior parte dei quali ha rischi ancora sconosciuti. Pertanto è probabile che i problemi associati ai PFAS siano molto più alti di quelli valutati nell’articolo. Martin Scheringer, uno dei co-autori del documento, ha sottolineato che “ora, a causa della diffusione globale di PFAS, i media ambientali ovunque supereranno le linee guida sulla qualità ambientale progettate per proteggere la salute umana e possiamo fare molto poco per ridurre la contaminazione da PFAS. In altre parole, ha senso definire un confine planetario specifico per i PFAS e, come concludiamo nel documento, questo limite è stato ora superato”.

Un confine planetario viene superato quando qualcosa è onnipresente, non facilmente reversibile e sconvolge i sistemi vitali della Terra. L’inquinamento chimico è uno dei nove confini planetari originariamente proposti che è stato successivamente rinominato in confine “nuove entità” (NE). Le “nuove entità” includono prodotti chimici industriali e sostanze chimiche nei prodotti di consumo (FPF riportato). Cousins e co-autori hanno descritto nel loro articolo che il confine dei NE “può essere pensato come un segnaposto per più confini planetari per i NE che possono emergere” e sostengono che i PFAS sono solo uno di questi confini.

In un altro articolo open access pubblicato su Expo Health (2022). https://doi.org/10.1007/s12403-022-00496-y da Obsekov, V., Kahn, L.G. & Trasande, L. dal titolo Leveraging Systematic Reviews to Explore Disease Burden and Costs of Per- and Polyfluoroalkyl Substance Exposures in the United States gli autori valutano i costi dell’inquinamento da PFAS.

Prove sempre crescenti confermano il contributo delle sostanze per- e polifluoroalchiliche (PFAS) al carico di malattia e alla disabilità nell’arco della vita. Dato che i responsabili delle politiche sollevano gli alti costi di bonifica e di sostituzione dei PFAS con alternative più sicure nei prodotti di consumo come barriere per affrontare gli esiti avversi sulla salute associati all’esposizione ai PFAS, è importante documentare i costi dell’inazione anche in presenza di incertezza. Abbiamo quindi quantificato i carichi di malattia e i relativi costi economici dovuti all’esposizione ai PFAS negli Stati Uniti nel 2018. Abbiamo fatto leva su revisioni sistematiche e utilizzato input meta-analitici quando possibile, identificato relazioni esposizione-risposta precedentemente pubblicate e calcolato gli aumenti attribuibili a PFOA e PFOS in 13 condizioni. Questi incrementi sono stati poi applicati ai dati del censimento per determinare i casi annuali totali di malattia attribuibili a PFOA e PFOS, da cui abbiamo calcolato i costi economici dovuti alle cure mediche e alla perdita di produttività utilizzando i dati sul costo della malattia precedentemente pubblicati. Abbiamo identificato i costi delle malattie attribuibili ai PFAS negli Stati Uniti, pari a 5,52 miliardi di dollari per cinque endpoint di malattie primarie che le meta-analisi hanno dimostrato essere associate all’esposizione ai PFAS. Questa stima rappresenta il limite inferiore, con analisi di sensibilità che rivelano costi complessivi fino a 62,6 miliardi di dollari. Sebbene sia necessario un ulteriore lavoro per valutare la probabilità di causalità e stabilire con maggiore certezza gli effetti della più ampia categoria di PFAS, i risultati confermano ulteriormente la necessità di interventi politici e di salute pubblica per ridurre l’esposizione a PFOA e PFOS e i loro effetti di interferenza endocrina. Questo studio dimostra le grandi implicazioni economiche potenziali dell’inazione normativa.

Un lavoro recentissimo che appare degno di menzione è dedicato ad un metodo poco costoso e da realizzare in condizioni non drastiche per la mineralizzazione di questi composti pubblicato su Science.

Trang et al., Science 377, 839–845 (2022)  19 August 2022

Nell’abstract gli autori scrivono:

Le sostanze per- e polifluoroalchiliche (PFAS) sono inquinanti persistenti e bioaccumulabili presenti nelle risorse idriche in concentrazioni dannose per la salute umana. Mentre le attuali strategie di distruzione dei PFAS utilizzano meccanismi di distruzione non selettivi, abbiamo scoperto che gli acidi perfluoroalchilici carbossilici (PFCA) possono essere mineralizzati attraverso un percorso di defluorurazione mediato da idrossido di sodio. La decarbossilazione dei PFCA in solventi polari aprotici ha prodotto intermedi reattivi di ioni perfluoroalchilici che si sono degradati in ioni fluoruro (dal 78 al ~100%) entro 24 ore. Gli intermedi e i prodotti contenenti carbonio non sono coerenti con i meccanismi di accorciamento a catena monocarbonica spesso proposti, e abbiamo invece identificato computazionalmente percorsi coerenti con molti esperimenti. La degradazione è stata osservata anche per gli acidi carbossilici perfluoroalchilici ramificati e potrebbe essere estesa per degradare altre classi di PFAS man mano che vengono identificati i metodi per attivare i loro gruppi di testa polari.

Uno schema semplificato delle reazioni trovate è riportato nella seguente immagine; il vantaggio basico è di usare solventi poco costosi e condizioni non drastiche di reazione che corrispondono a minori costi.

Rimane tuttavia dolorosamente vero che ancora una volta la chimica è stata usata per fare enormi profitti ed introdurre beni e processi che, seppure parzialmente utili, possono avere conseguenze disastrose per l’ambiente  e dunque per noi stessi; in questo caso specifico abbiamo introdotto in grandi quantità un legame, C-F, che è pochissimo presente in natura e dunque per il quale la rete della biosfera non ha strumenti di controllo e di difesa; questo legame deve essere scartato, eliminato dalle produzioni industriali, ma deve essere ancora presente nella nostra ricerca per individuare metodi di eliminazione e di depurazione poco costosi ed efficaci.

Avevo trattato questo argomento in un articolo del luglio 2020 su C&I:

Inoltre sempre su questo argomento deve valere la regola che non ci possono essere brevetti, argomenti usabili a difesa di diritti privati e che impediscano di approfondire gli studi a riguardo (rileggetevi a questo proposito il post del 2021 sulle vongole di Chioggia)

Se la Chimica ed i chimici vogliono riguadagnare prestigio agli occhi della pubblica opinione questo è un caso utile, ma anche senza appello; se proseguiremo nella politica degli occhi bendati nei riguardi delle malefatte del profitto applicato alla chimica la nostra reputazione è destinata ad un continuo peggioramento.

Mai stato contro la ricerca o il progresso, ma sempre per una applicazione delle novità che portassero vantaggi alla collettività non a singoli e che evitassero danni inaccettabili all’ambiente. La ricerca deve essere libera ma non l’applicazione delle nuove scoperte, quella deve sottostare a regole rigide basate PRIMA DI TUTTO NON SU UNA VALUTAZIONE ECONOMICA MA sull’evitare danni alla biosfera in cui viviamo e a noi stessi. E’ anche per questo che i brevetti sono un povero e superato metodo di controllo, basato su una concezione sociale ormai insostenibile.

Lista dei post dedicati in passato all’inquinamento da perfluoroalchili.

A che serve la cultura?

In evidenza

Luigi Campanella, già Presidente SCI

In una recente statistica circa il ritorno in termini di PIL del patrimonio storico artistico è emerso che l’Italia non riesce a raccogliere i frutti economici attesi: con un parco monumenti e siti culturali quasi doppio dell’Inghilterra, in termini di numero di siti UNESCO, riesce ad ottenere un ritorno economico pari a circa la metà degli inglesi, ed anche Spagna, Germania e Francia fanno meglio di noi. La domanda ovvia che ci si pone è allora: dove sta il problema? Perché questo avviene?


La risposta non è semplice in quanto in essa confluiscono aspetti tecnico-scientifici, aspetti di politica del lavoro, aspetti organizzativi e soprattutto incapacità a sfruttare completamente il potenziale culturale a disposizione. Per gli aspetti tecnico scientifici il rilievo principale che si può fare riguarda una certa inerzia del settore dei Beni Culturali rispetto all’applicazione delle innovazioni tecnologiche che pure consentirebbero monitoraggi continui da remoto, anche in situazioni ambientali difficili, che pure eviterebbero con le corrispondenti capacità preventive di cadere in situazioni di urgenza ed emergenza, che pure consentirebbero un maggiore grado di fruibilità e di fruizione dei capolavori esposti. Ma oggi, anche in relazione alla situazione romana di emergenza vorrei parlare delle altre due carenze, le scarse risorse investite nella promozione e l’organizzazione dei grandi eventi e del mercato del lavoro e delle competenze in esso coinvolte. Per quanto riguarda il primo punto fino all’anno scorso Roma spendeva soltanto 1 milione di euro l’anno per attività promozionali. Oggi finalmente quella cifra è stata raddoppiata e, cosa ancora più importante, sono in arrivo risorse per un’app per rilanciare l’immagine della capitale:13 milioni di euro sono stati  erogati attraverso un bando UNESCO Il servizio applicherà le metodologie più avanzate della digitalizzazione: si pensi che un assistente virtuale indicherà ai turisti cosa visitare ed i percorsi per evitare le file. Cambierà anche la segnaletica: non più grigi cartelloni ma paline tecnologiche per illustrare la storia dei monumenti più belli. Arriviamo all’ultimo punto, quello più dolente. Forse anche a causa di ritardi connessi a burocrazia e covid i nostri Musei, a partire da quelli romani, mancano di tecnici e custodi. Il turn over è fermo da anni con il risultato che da Ostia Antica ai Musei Capitolini si registrano chiusure a rotazione per molti siti e sale, con conseguente ridotto ritorno economico. Aree archeologiche vengono chiuse durante la settimana per essere riaperte solo nel week-end ad orari contingentati e rigorosamente su prenotazione. Mancano anche tecnici che possano garantire una manutenzione ordinaria evitando i periodici ricorsi alla straordinaria, più costosa ed anche improgrammabile ed amministrativi che possano espletare le pratiche richieste, a partire da quelle correlate alla sicurezza dei visitatori ed alla protezione delle opere esposte. Conoscendo le mie passioni non vi stupirete se concludo con un memento circa il Museo della Scienza: sembra che i primi passi necessari, una guida scientifica, una programmazione temporale ed economica, una collocazione definita e ragionevole, siano stati compiuti. Purtroppo già in passato situazioni come questa si erano realizzate senza però mai sfociare in passi avanti più concreti, fatta eccezione per un tentativo piano di fattibilità degli anni 80-90. Roma è forse la città al mondo con la maggiore concentrazione di strutture scientifiche, anche predisposte alla diffusione e comunicazione: un Museo della Scienza, ritornando al punto da cui siamo partiti, avrebbe di certo ricadute economiche significative.

Decalogo energetico, climatico, sociale.

In evidenza

Vincenzo Balzani

DECALOGO per le elezioni del 25 settembre 2022

Il gruppo di ricercatori “Energia per l’Italia” (http://www.energiaperlitalia.it/), coordinato dal prof. Vincenzo Balzani, si rivolge alle elettrici e agli elettori, chiamati al voto in un momento critico per il futuro del Paese.
Siamo in una “tempesta perfetta” nella quale le difficoltà sociali ed economiche della pandemia non ancora risolta si sommano all’emergenza climatica e alla crisi energetica, resa ancor più drammatica dalla guerra scatenata dalla Russia nel cuore dell’Europa. In questo momento nel quale le italiane e gli italiani sono ancora preoccupati per la propria salute fisica, ma ancor più per le bollette di gas e luce e per i rincari del cibo, nel quale gli agricoltori vedono sparire i raccolti e le aziende energivore sono costrette a fermare gli impianti, nel quale i giovani vedono sfumare il loro futuro, siamo chiamati a votare avendo ben chiari i programmi dei partiti che si candidano a governare.

La voce dei ricercatori invita pertanto elettori e politica a ragionare su un Decalogo di azioni e proposte.

Quando andrai a votare, considera questi dieci punti

1 TRANSIZIONE ENERGETICA, DALLE FONTI FOSSILI ALL’EFFICIENZA E ALLE FONTI RINNOVABILI

Secondo l’Agenzia Europea dell’Ambiente dal 1980 al 2019, a causa degli eventi estremi dovuti alla crisi climatica, l’Italia ha subito perdite economiche stimate in 72,5 miliardi di euro. L’inquinamento è responsabile in Italia di 60mila morti ogni anno. La dipendenza dalle importazioni di gas e petrolio ci espone ai rischi della speculazione dei mercati e ci rende soggetti ai ricatti di regimi autocratici e antidemocratici. La crisi idrica che sta colpendo il Paese mette a rischio dal 30 al 50% della produzione agricola nazionale, penalizza la filiera agroalimentare, a causa dell’aumento generalizzato dei prezzi ed aumenta quindi le diseguaglianze sociali e di genere. È necessario accelerare la transizione dalle fonti fossili ed inquinanti ad un sistema basato sul risparmio energetico, l’efficienza e le fonti rinnovabili. Con queste scelte, dipenderemo meno dalle importazioni di gas e petrolio, avremo rapidamente bollette più basse, benefici ambientali e climatici, e anche una crescita virtuosa degli investimenti e dell’occupazione.

2 DEMOCRAZIA ENERGETICA, ENERGIA COME BENE COMUNE

Il Sole è il più grande “reattore a fusione nucleare” già disponibile per la produzione di energia rinnovabile e fornisce ogni anno 15mila volte l’energia di cui l’umanità necessita. La ricerca scientifica ha sviluppato le tecnologie necessarie a catturare l’energia solare come il fotovoltaico, il solare termico e l’eolico, così come quelle per conservare l’energia in maniera molto efficiente, ad esempio con le batterie al litio e i pompaggi idroelettrici. È necessario che ognuno di noi sia messo nelle condizioni di produrre energia pulita e soprattutto di condividere e scambiare l’energia prodotta attraverso la rete elettrica e il relativo mercato, che devono essere riorganizzati per gestire il 100% di energia elettrica rinnovabile. L’energia deve diventare un bene comune, staccandosi dalla logica dei sistemi centralizzati in cui pochi producono/distribuiscono e tutti consumano la risorsa, se hanno la possibilità di acquistarla. La democrazia energetica si può realizzare attraverso un’economia di condivisione del vettore energetico che alimenta le nostre società e una rete che supporta l’autoconsumo collettivo, attraverso l’indispensabile evoluzione delle comunità energetiche.

3 BASTA CON I SUSSIDI ALLE FONTI FOSSILI

In Italia ogni anno ben 35,5 miliardi di euro di denaro pubblico vanno a sostenere la produzione e l’impiego di fonti fossili. Secondo l’OCSE, questi sussidi gravano in modo importante sui conti pubblici e sulle tasche dei contribuenti, sono dannosi per l’ambiente, socialmente iniqui e inefficienti; l’onere che ne deriva grava sulla fiscalità generale e sottrae risorse che potrebbero essere destinate ad altri finanziamenti di pubblica utilità. Un tale fardello ambientalmente dannoso e socialmente iniquo va rimosso e le risorse economiche così liberate devono essere utilizzate per sostenere la transizione ecologica.

4 L’ENERGIA NUCLEARE NON È LA RISPOSTA GIUSTA ALLA CRISI

Un ritorno al nucleare per supportare la transizione ecologica e combattere il cambiamento climatico, come alcuni politici stanno affermando, è totalmente sbagliato per vari motivi. Non si tratta di una fonte energetica verde perché, se è vero che nelle centrali nucleari viene prodotta elettricità senza generare CO2, a monte se ne genera moltissima per processare il combustibile, per costruire e infine smantellare la centrale; l’uranio non è una fonte energetica rinnovabile e le scorte di combustibile sono limitate; il problema delle scorie non ha ancora una soluzione e sussiste il pericolo di gravi incidenti alle centrali, come Chernobyl e Fukushima dimostrano; la costruzione di una centrale nucleare richiede grandi investimenti e almeno 15 anni per completare i lavori; la dismissione di una centrale è un’impresa ancora più costosa della sua costruzione e produce altre scorie che non sappiamo dove mettere. Nel caso specifico dell’Italia, poi, c’è da considerare che il nostro paese non è adatto al nucleare, essendo un territorio densamente popolato e sismico, che non ha riserve di uranio e, ormai, non ha neanche più le competenze per costruire e gestire una centrale nucleare, cosa che ci renderebbe dipendenti da altre nazioni che hanno uranio e tecnologia.

5 EDIFICI E TRASPORTI EFFICIENTI, SOSTENIBILI E NON INQUINANTI

Gli edifici italiani costruiti durante il boom economico del dopoguerra mostrano gravissimi limiti dal punto di vista energetico, generando alti costi energetici e forti emissioni di CO2 per il riscaldamento e il raffrescamento. Si deve assolutamente rimettere mano alla coibentazione e al miglioramento energetico di tutti gli edifici pubblici e privati

puntando alla sostituzione delle caldaie a gas con efficienti termopompe elettriche, alimentate da fonti rinnovabili. Occorre inoltre un piano straordinario per l’installazione di pannelli solari termici per la produzione di acqua calda sanitaria.

I trasporti in Italia generano il 25% di tutte le emissioni di gas serra, un fortissimo inquinamento dell’aria e sono quasi del tutto dipendenti dalle importazioni di petrolio. È necessario potenziare i trasporti pubblici locali a trazione elettrica, trasferire quote rilevanti delle merci su treno e vietare la vendita di nuovi motori termici entro una data ravvicinata. È necessario istituire prezzi politici per gli abbonamenti mensili o annuali sull’intera rete del trasporto pubblico, utilizzare solo motori elettrici, estendere i treni veloci sull’intera rete, costruire una rete ciclabile nazionale molto capillare.

6 ATTIVARE SUBITO IL PIANO NAZIONALE DI ADATTAMENTO AL NUOVO CLIMA

Il cambiamento climatico è già in atto e sta creando impatti notevoli su popolazione ed ecosistemi. Bisogna assolutamente ridurre le emissioni di gas serra e quindi l’uso dei combustibili fossili (mitigazione) e allo stesso tempo bisogna agire sugli effetti del nuovo clima con azioni di adattamento, per ridurre i rischi già presenti e quelli futuri, anche maggiori e più frequenti. In Italia esiste una Strategia di Adattamento Nazionale da dieci anni, ma non c’è ancora un Piano Nazionale di Adattamento che selezioni le azioni prioritarie e le metta in atto, al contrario di quanto avviene in tutti i Paesi Europei. È tempo che l’Italia si allinei; siamo già in clamoroso ritardo!

7 FORMAZIONE PER UNA CITTADINANZA CONSAPEVOLE E RICERCA FINALIZZATA A RISOLVERE LE CRISI

Il Paese deve investire in formazione e ricerca, a maggior ragione in un momento di crisi. La formazione è necessaria per avere cittadini e politici consapevoli delle grandi sfide che li attendono, mentre la ricerca è fondamentale per lo sviluppo. Formazione significa fornire agli studenti una preparazione inter- e trans-disciplinare creando lo spirito critico, necessario per muoversi nel mare delle informazioni oggi disponibili, e affrontare il problema della sostenibilità nelle sue tre dimensioni, ambientale, economica e sociale, facendo riferimento all’Agenda 2030. Ricerca significa investire il denaro pubblico avendo sempre in mente il bene sociale. Poiché i finanziamenti, per quanto cospicui, sono sempre limitati, occorre definire le linee di ricerca da potenziare; dovranno essere privilegiate quelle tematiche che ci permettono di trovare possibili soluzioni ai gravi problemi sanitari, ambientali, economici e sociali che caratterizzano la nostra epoca.

8 AGRICOLTURA SOSTENIBILE, CONSERVAZIONE DEL SUOLO E PROTEZIONE DELLE FORESTE

Il clima è cambiato e cambierà ancora; è dunque essenziale un adattamento del sistema agricolo italiano al nuovo clima: diminuzione e compatibilità ambientale delle produzioni animali, oggi eccessive e sostanzialmente insostenibili; potenziamento del settore biologico e delle produzioni locali; drastico abbattimento dei danni arrecati dall’agricoltura industriale ai suoli, alle acque e alla biodiversità; massima integrazione con l’ambiente e le risorse naturali disponibili. Le foreste non vanno tagliate ma protette e devono continuare a crescere e assorbire CO2. Serve un serio impegno per fermare il consumo irreversibile di suolo che si riflette sul dissesto idrogeologico, sul ciclo dell’acqua e indirettamente sul clima. I soldi pubblici che vanno alle imprese agroalimentari devono essere condizionati all’effettivo miglioramento sul fronte ambientale.

9 PROTEGGERE LA SALUTE DALL’INQUINAMENTO DELL’ARIA

La protezione dell’atmosfera deve agire sia sulle emissioni di gas serra, per limitarne gli impatti sul clima, sia sulle emissioni di inquinanti primari e secondari, per minimizzare le concentrazioni di composti insalubri nell’aria che respiriamo. Esempi di inquinanti sono il black carbon e l’ozono a bassa quota, che hanno effetti sulla salute e sul riscaldamento a breve termine del pianeta. In generale, come afferma l’Organizzazione Mondiale della Sanità nel suo rapporto 2021, gli sforzi per migliorare la qualità dell’aria possono ridurre i cambiamenti climatici e gli sforzi per la mitigazione dei cambiamenti climatici possono, a loro volta, migliorare la qualità dell’aria. Diminuendo cioè l’uso dei combustibili fossili si crea un circolo virtuoso che impedisce in Italia e nel mondo milioni di morti premature dovute sia alla cattiva qualità dell’aria che alle conseguenze del cambiamento climatico.

10 PIÙ EQUITÀ SOCIALE IN ITALIA E NEGOZIARE PER LA PACE IN EUROPA

I dati Istat informano che nel 2022 la povertà assoluta ha raggiunto il massimo storico in Italia, con circa 5,6 milioni di poveri. La pandemia COVID-19 e il cambiamento climatico hanno aumentato le disuguaglianze, esacerbando le difficoltà sociali e sanitarie. Per ridurre le disuguaglianze occorre, da un alto, redistribuire il reddito mediante tassazione progressiva più spinta, tetti agli stipendi più elevati, alte tasse di successione e tasse sui patrimoni elevati e, dall’altro, sviluppare e potenziare i servizi e i beni pubblici: sanità, scuola, trasporti, strutture sportive, parchi.

L’invasione dell’Ucraina da parte della Russia ha riportato la guerra nel cuore dell’Europa, ha fatto decine di migliaia di vittime ed è già un conflitto di lunga durata con drammatiche conseguenze. Questa guerra va fermata subito e va cercata una soluzione negoziale; con le principali reti pacifiste e organizzazioni della società civile del nostro paese, raccolte nel cartello Europe for Peace, chiediamo che l’Italia si impegni affinché riprendano i negoziati per un immediato cessate il fuoco.

Ti invitiamo a votare, perché solo così sarai l’artefice del tuo futuro e di quello dei tuoi figli

La prima conferenza non si scorda mai.

In evidenza

Luigi Campanella, già Presidente SCI

Come il primo amore anche la prima conferenza davanti ad un folto pubblico di esperti ed illustri ricercatori non si dimentica mai.

La mia prima è stata dedicata a I PROCESSI NATURALI INDICATORI DELLO STATO DELL’AMBIENTE. Non c’era il powerpoint e si operava con i lucidi. Ne ricordo 3 rispettivamente dedicati all’inaridimento del legno dei tronchi misurabile per gli effetti sulla struttura della cellulosa/lignina con la spettroscopia ir, al colore delle foglie misurabile con la tristimolo-colorimetria, al deserto lichenico misurabile con la misura della perdita di specie licheniche nel tempo.

Si trattava di 3 indicatori dello stato dell’ambiente: come un tronco vivo e vegeto, foglie di un colore verde acceso, accumulo lichenico in natura sono di certo segnali di un ambiente sano, altrettanto lo sono di un ambiente inquinato tronchi secchi e fessurati, foglie di un colore verde ingiallito, assenza di deposizioni licheniche.

Parto da questa considerazione per correlare ad essa un altro processo naturale indicatore di uno stato ambientale particolarmente pericoloso e diffuso nel nostro tempo. Con l’accresciuta siccità e la conseguente riduzione della portata dei fiumi avviene spesso che il mare risalga lungo i loro corsi creando condizioni pericolose di salinità in ambienti il cui carattere naturale non prevede concentrazioni saline comparabili con quelle dei corpi idrici marini. Il risultato può essere la perdita di culture e di diversità biologica e la formazione di depositi e sedimenti dovuti all’effetto della salinità sulla solubilità dei diversi componenti e, peggio, la variazione delle proprietà fisico meccaniche dei suoli. In chimica la presenza di concentrazioni saline significative corrisponde a due effetti diversi e che esercitano azione opposta: l’effetto sale e l’effetto salatura.

Senza entrare nei particolari il primo favorisce la solubilità delle specie ioniche, quindi cariche, il secondo la deprime, minore essendo gli effetti sulle specie non cariche. Proprio dalla differenza di salinità fra l’acqua dei fiumi e quella del mare alla foce dei fiumi si producono i cosiddetti delta provocati dal convogliamento in bacini di acqua relativamente stazionaria di depositi e dall’accumulo di sedimenti terrigeni, o corpo sedimentario.

Da quanto detto si comprende come potrebbe essere importante riferirsi ad un processo naturale come indicatore di uno stato ambientale caratterizzato dalla risalita di acqua salina in ambienti dolci. Per rispondere a questa esigenza ancora una volta la natura ci viene incontro con una pianta la Salicornia (nome che deriva dai termini sale e corno) che vive nelle condizioni di salamoia, quindi spesso presente nelle saline crescendo con efflorescenze a punta di corno e la cui presenza rappresenta quell’indicatore di salinità risalita a cui accennavo.

Si tratta di una pianta che ha anche la proprietà di accumulare sale tanto da meritarsi il nome di sale dei poveri, visti i suoi costi più bassi di quelli del sale vero e proprio, spesso indicato come l’oro bianco. Vive con altre piante alofite con le quali forma i cosiddetti salicornieti destinati a diffondersi, in relazione all’intrusione crescente del cuneo salino nel delta del Po; ecco un altro indicatore prezioso che la natura ci mette a disposizione: sapremo osservarlo?

Tossicità inattese e dialettica della natura.

In evidenza

Claudio Della Volpe

Può una pianta comune, che serve addirittura da cibo per uomini ed animali, diventare mortale?

Il caso delle 50 mucche morte per aver mangiato il sorgo piantato per loro dall’allevatore in Piemonte è un esempio molto interessante della complessità ed ambivalenza dei fenomeni naturali; proviamo ad approfondirlo.

https://torino.corriere.it/cronaca/22_agosto_08/sommariva-bosco-50-mucche-muoiono-pochi-minuti-avvelenate-sorgo-8c9498da-16ed-11ed-b75e-23db5ddc9f20.shtml?refresh_ce

Il sorgo è un cereale tradizionale che ha molte interessanti proprietà, fra le altre una ottima resistenza alla siccità, che probabilmente le deriva dall’essere una pianta C4 (vedi nota), dunque la sua coltivazione potrebbe aiutarci ad affrontare i problemi di adattamento del riscaldamento globale; in modo abbastanza inatteso però delle 160 mucche dell’allevatore cuneese ben 50 sono morte poco dopo aver iniziato a brucare il cereale.

La sostanza responsabile della loro morte è il cianuro, CN, prodotta nei loro stomaci a partire dalla durrina, una molecola che è presente nel sorgo Sorghum bicolor (ed anche in altri vegetali come le mandorle amare o la cassava), un cereale ampiamente usato nell’alimentazione umane ed animale, il quinto in termini di peso consumato nel mondo.

Molecole analoghe potenzialmente mortali sono usate come strumenti di autodifesa da migliaia di tipi di piante. In questo caso le molecole che contengono la funzione -CN sono presenti in speciali comparti a doppia sede insieme al sistema enzimatico che serve a liberare il cianuro:

Questo complesso armamentario serve perché il cianuro è tossico prima di tutto per la pianta stessa, che d’altronde usa quest’arma a difesa dei propri semi, un po’ come un’orsa che difenda i propri cuccioli, ma anche delle foglie. Comunque tutti i tessuti del sorgo sono cianogenici eccetto il seme alla fine della parabola maturativa; teniamo presente questo fatto importante.

Secondo un interessante ma datato articolo (Michael Wink, Special Nitrogen Metabolism, Plant Biochemistry 1997)

L’HCN è altamente tossico per animali o microrganismi a causa della sua inibizione degli enzimi della catena respiratoria (cioè le citocromo ossidasi) e del suo legame ad altri enzimi contenenti ioni di metalli pesanti. La dose letale di HCN nell’uomo è di 0,5-3,5 mg/kg dopo applicazione orale e la morte dell’uomo o degli animali è stata riportata dopo il consumo di piante con glicosidi cianogenici, le cui concentrazioni possono essere fino a 500 mg di HCN/100 g di semi. Normalmente sono stati registrati 50-100 mg di HCN/100 g di semi e 30-200 mg di HCN/100 g di foglie (Teuscher & Lindequist, 1994). Gli alimenti che contengono cianogeni, come il manihot (Cassava esculenta), hanno ripetutamente causato intossicazioni e persino morti nell’uomo e negli animali. Gli animali hanno sviluppato delle contromosse; infatti alcuni si possono disintossicare rapidamente da piccole quantità di HCN tramite la rodanasi, uno zolfoenzima

Come si vede le stesse piante hanno meccanismi di difesa per il semplice motivo che, essendo l’azoto un elemento non banale da assumere dall’ambiente, i glicosidi in questione sono anche serbatoi di azoto utile, che può essere rimosso un po’ alla volta dal serbatoio “armi” ed usato per altri scopi al momento opportuno. Ma questo tipo di contromisura perde di efficacia negli animali se le quantità sono grandi.

Nel caso del sorgo occorre chiarire che (C. Blomsteldt et al Plant Biotechnology Journal (2012) 10, pp. 54–66 ):

La produzione di durrina nelle popolazioni di controllo del sorgo è elevata durante la germinazione iniziale e la crescita della piantina e poi diminuisce man mano che la pianta matura (Loyd e Gray, 1970; Wheeler et al., 1990; Busk e Møller, 2002; Møller e Conn, 1980) che lo rende adatto come coltura foraggera altamente nutriente. Tuttavia, i fattori ambientali, come la siccità e l’alto contenuto di azoto, sono problematici in quanto possono aumentare il contenuto di durrina nelle piante di sorgo adulto a livelli tossici (Loyd e Gray, 1970; Wheeler et al., 1990).

CN è mortale a 3-5mg/kg di peso corporeo in un mammifero. Facciamo due conti. Uno ione di CN viene prodotto da una molecola di durrina, e dunque per una mole di ioni cianuro ci vuole una mole di durrina: 311 grammi di durrina per 26 di cianuro. Una mucca di 400kg muore con 1-2g di cianuro ed un uomo con 400mg, pari rispettivamente a circa 12-24g e 4-5 grammi di durrina, contenuta in genere in un rapporto che può arrivare fino a 1000ppm nel tessuto della pianta.

Un uomo però mangerebbe solo i semi della pianta mentre una mucca mangia anche le foglie. Un uomo dovrebbe mangiare da mezzo chilo ad alcuni chili di semi di sorgo (non maturi completamente) per morire, mentre una mucca potrebbe suicidarsi con una adeguata quantità, alcuni kg, della pianta intera (a tutti gli stadi della crescita) le cui foglie, specie in condizioni di stress idrico possono essere molto più ricche di durrina.

A Sommariva Bosco, teatro dell’episodio, la quantità di durrina assommava allo 0.1% o alla millesima parte del peso della pianta; dunque bastavano una decina di chilogrammi di sorgo per uccidere una mucca, il che si è puntualmente verificato.

Per i tempi del fatto occorre considerare anche che i sintomi dell’intossicazione da cianuro compaiono subito in caso di inalazione mentre, se il cianuro è stato ingerito, compaiono nel giro di alcune decine di minuti o più (in funzione dello stato di riempimento dello stomaco). L’intervallo è molto più lungo se il composto tossico è di tipo organico. Inoltre i ruminanti possiedono come si sa più stomaci e solo l’ultimo, l’abomaso possiede quella acidità simile al nostro che potrebbe facilitare l’azione del veleno, facilitandone l’assorbimento nel flusso sanguigno, tramite la formazione di HCN.

Gli allevatori conoscono il problema, ma forse non hanno valutato sia che il sorgo era capace di crescere anche in condizioni di fortissimo stress idrico, come quello che si è verificato in questo periodo (che in se è una cosa buona), sia che in quelle condizioni la concentrazione relativa di durrina poteva essere maggiore e che le mucche avrebbero mangiato più sorgo per calmare l’appetito, sia che negli stati iniziali della crescita e in terreni ben concimati la durrina può aumentare notevolmente.

Fatto sta che nei loro tessuti gli organi preposti hanno trovato centinaia di ppm di cianuro, una quantità enorme.

La conclusione che ne ricaviamo è che da una parte il riscaldamento globale, responsabile primario della crisi idrica, ci mette di fronte a situazioni limite in tutti i campi e che per resistere dobbiamo ricorrere alle migliori conoscenze che abbiamo; dall’altra cresce in noi la consapevolezza di ciò che ho spesso citato su questo blog; una massima che ripeteva sempre Guido Barone: Ogni cosa nel mondo ha due corni, o se volete la consapevolezza della natura contraddittoria e complessa della realtà.

Le semplificazioni basate su una concezione lineare e meccanica non bastano certo in un mondo ricco e dialettico come quello in cui viviamo e nel quale i sistemi che abbiamo sviluppato sono proprio basati su meccanismi di controllo retroazionati, ossia contraddittori.

Noi chiamiamo retroazione un meccanismo che la filosofia dell’ottocento aveva chiamato dialettica.

Concludo considerando che oggi, grazie alla genetica conosciamo anche i meccanismi grazie ai quali la pianta sintetizza la durrina, illustrati nella figura qua sotto, tratta da wikipedia:

La sintesi parte da un amminoacido, la tirosina ed è controllata da alcuni sistemi enzimatici che possono essere esclusi geneticamente o per lo meno controllati, per eventualmente ridurre i problemi di intossicazione; però questo indebolisce la pianta, la quale si difende anche dagli insetti con questo meccanismo e quindi ancora una volta ponendoci di fronte a situazioni paradossali: se facciamo un sorgo geneticamente più sicuro lo rendiamo il cibo preferito degli insetti che possono attaccarlo.

https://it.wikipedia.org/wiki/Sorghum_vulgare#Alimentazione_animale

https://en.wikipedia.org/wiki/Sorghum_bicolor

https://en.wikipedia.org/wiki/Dhurrin#Regulation_in_Sorghum_bicolor

Nota.Per approfondire la differenza C3-C4, che ci porterebbe troppo lontano, potete leggere questa pagina:

https://followingcancun.com/it/differenza-tra-c3-c4-e-cam/

che spiegano con alcuni particolari le differenze fra piante C3-C4 (e CAM).

L’ignoranza scientifica.

In evidenza

Danilo Tassi

Sbagliare humanus est” disse l’allenatore a mio figlio che aveva appena fallito un gol a porta vuota durante una partita fra “pulcini” del calcio. Il lodevole intento consolatorio non cancellò il massacro alla nostra bella lingua madre.

Se un qualsivoglia giornalista di infimo ordine fosse incorso in un infortunio del genere, anche se pubblicato dopo i necrologi del più scalcinato giornale, avrebbe dovuto cambiar mestiere perché nessuno gli avrebbe più concesso la fiducia di accettare un suo articolo.

Lo stesso metro non è però usato per le castronerie scientifiche perché evidentemente per cultura si intende solo quella umanistica, mentre la scientifica è considerata opzionale e non indispensabile.

Non è affatto così. Inventare termini latini o non trattare col neutro un verbo all’infinito, come ha fatto il buon allenatore, provoca effetti che si limitano ad un leggero fastidio a chi ha fatto il “classico” o forse nemmeno quello, ma mescolare, per esempio, la varechina con l’acido muriatico può provocare danni ingentissimi alla salute. È successo alla mia amica Grazia, del tutto ignara della chimica, che dopo aver passato lo straccio per terra con un po’ di varechina, allo scopo di migliorare pulizia e igiene del pavimento, pensò bene di aggiungere al secchio anche una certa quantità di acido muriatico. Pur non sapendo che si stava sviluppando Cloro ha immediatamente scaricato il secchio nella tazza del water, ma quel po’ che ha inalato le ha lasciato danni permanenti alla respirazione.

Ciononostante in una rubrica di curiosità scientifiche di una nota rivista di enigmistica si è recentemente raccomandato di non mescolare varechina e ammoniaca perché la cosa è molto pericolosa, senza specificare che è invece l’acido muriatico quello ben più pericoloso se mescolato alla varechina. Secondo me il curatore della rubrica ha confuso ammoniaca e acido muriatico, ma è meglio non fare di questi errori nella realtà.

Passando ad altri episodi è ormai cosa normale trovare scritto il Cobalto sui giornali mentre si intende scrivere ossido di Carbonio: Co invece di CO. Questo genere di errore non provoca soverchi danni poiché la gente in casa non è normalmente in grado di far reagire il Cobalto con qualcos’altro e chi lo può fare generalmente la chimica la conosce. È comunque un errore innocuo come il  neutro mancato dell’allenatore, ma che, a differenza di quello, non ha alcuna ripercussione sulla reputazione del giornalista. Anche una firma quotata nel mondo della divulgazione scientifica come Luca Mercalli in un recente articolo ha scritto varie volte della Co2 intendendo l’anidride carbonica. L’errore è sicuramente della dattilografa o del correttore, ma il fatto che nessuno si curi di correggerlo, mentre si continua a sbagliare, sta a significare che non gli si dà troppa importanza.

Un altro svarione frequentissimo è l’utilizzo di “quantizzare” intendendo dire “quantificare”. Chi ha studiato, anche solo superficialmente, un po’ di fisica sa cosa sono i quanti e cos’è la quantizzazione dell’energia, ma i nostri forbitissimi giornalisti sanno di greco e di latino, e questo è un bene, ma ignorano completamente nozioni elementari anche di fisica.

Ma la materia di gran lunga più bistrattata è senza dubbio la matematica a proposito della quale si leggono cose ben più gravi dell’errore commesso dal nostro allenatore. Per scrivere dell’assedio russo all’acciaieria di Mariupol in Ukraina, al fine di sottolinearne l’enorme estensione, molti giornalisti hanno scritto e anche detto in televisione che l’area interessata copriva un’estensione di dodicimila metri quadrati anziché dei dodici chilometri quadrati della realtà. Dodicimila fa più impressione di dodici e pertanto gli astuti giornalisti hanno trasformato i chilometri in metri ottenendo un numero mille volte più grande (questo lo sanno tutti) e quindi più in grado di impressionare il lettore. Peccato però che i chilometri ed i metri fossero al quadrato e che l’equivalenza non fosse di un millesimo, ma di un milionesimo. Le equivalenze una volta si studiavano in quarta elementare e adesso forse un po’ prima o un po’ dopo, ma certamente non all’Università e neppure nelle medie superiori. Forse varrebbe la pena che la cultura di chi scrive sui giornali venisse valutata un po’ più approfonditamente anche sotto il profilo scientifico, anche se scomodare la scienza per delle equivalenze è come sparare ai passeri con un cannone.

Sedicenti scienziati, digiuni di matematica e di fisica che non compaiono nel piano di studi della loro laurea (per cui non si capisce quale concetto di scienza abbiano), nei giorni in cui crescevano i malati di Covid, hanno parlato di aumento esponenziale dei contagi. I più forbiti hanno parlato di aumento “addirittura” logaritmico, probabilmente senza rendersi conto che è la stessa cosa perché il logaritmo è anch’esso un esponente. Comunque sia, se i contagi passano da cento a duecento in una data zona, non si può parlare di aumento logaritmico o esponenziale: è un forte aumento, un aumento tragico, enorme, ma non esponenziale.  Cento è dieci alla seconda potenza; i cento per arrivare a duecento devono crescere di cento, ma se aumenta solo di uno (non di cento) l’esponente il totale arriva a mille perché è dieci alla terza. Sono concetti banali ai quali si arriva senza equazioni differenziali o integrali tripli, basta la matematica delle medie inferiori.

Molti di questi “scienziati” sono a capo di gruppi di scienziati veri che studiano con modelli matematici il diffondersi delle epidemie o sperimentano nuovi sistemi diagnostici basati su concetti fisici e chimici a loro completamente sconosciuti. Mi è capitato di chiedere, per pura curiosità scientifica, ad un Primario di Radiologia che tipo di raggi usassero nelle radioterapie oncologiche; mi ha guardato come se gli avessi chiesto qualcosa che poi non sarei stato in grado di capire e poi mi ha risposto, con la sicurezza di chi sa di sapere quel che gli altri non sanno:” Onde fotoniche.

L’ignoranza scientifica è alla base del guazzabuglio di pareri contrastanti che abbiamo sentito e letto durante gli anni del Covid e questo mi persuade che sarebbe ora di modernizzare la laurea in Medicina facendone una Facoltà scientifica a tutti gli effetti e non pseudo umanistica come l’attuale.  Si sentirebbero sicuramente meno incompetenti a concionare di malattie ed epidemie. La selezione non la farebbero più i quiz delle prove d’ingresso, ma gli esami del biennio, a tutto vantaggio della preparazione dei medici e della salute degli ammalati.

Anche in politica si percepisce l’ignoranza scientifica dei commentatori quando dicono che “le forze politiche stanno cercando il minimo comun denominatore” intendendo dire che cercano invece il massimo comun denominatore, cioè tutti quegli argomenti sui quali tutti ci si possa trovare d’accordo. Il minimo comun denominatore è il numero 1, cioè il più piccolo dei numeri che dividono i numeratori di ogni frazione. Il minimo comune denominatore fra le idee potrebbe essere voler bene alla mamma. Siamo sicuri che tutti sono concordi in questo, ma non è quel che il commentatore politico voleva dire perché non è una ragione sufficiente a formare un’alleanza politica.

Per tornare alla chimica, è capitato di leggere di persone intossicate dentro una vasca sotterranea dai vapori di acido solforico derivato dalla fermentazione delle sostanze organiche.

Chiunque abbia frequentato anche per poche ore un laboratorio chimico sa bene che l’acido solforico non ha odori a temperatura ambiente; quasi tutti gli altri acidi hanno odore, ma il solforico proprio no e quindi non può esalare alcunché a meno che non sia portato a 290 gradi centigradi perché si decompone e 290 gradi centigradi sono troppi per una vasca interrata.

 Evidentemente l’esistenza dell’acido solfidrico non è stata neppur sospettata dal giornalista, ma se qualcuno lo fa presente passa per un saccentino che va a cercare il pelo nell’uovo.

È capitato a me di scrivere dell’odore che si spande allorquando il maniscalco posa il ferro incandescente sull’unghia di un cavallo al fine di farlo ben aderire. Raccontando di mio padre, che praticava l’arte della mascalcia, ho precisato che lo stesso odore si sviluppa bruciando capelli o penne perché è lo stesso componente a bruciare: la cheratina. Mi è venuto spontaneo scriverlo, anche perché quasi nessuno sospetta che capelli, penne, corna e unghie abbiano questa proteina in comune e mi sembrava interessante sottolinearlo, ma la precisazione è stata cassata d’ufficio con la scusa che non avrebbe interessato nessuno.

Come se invece il detto latino fosse ben più interessante!

Brisighella 8 Agosto 2022.

Danilo Tassi

eunike.tassi@libero.it

Un ricordo personale di Piero Angela.

In evidenza

Luigi Campanella

La scomparsa di Piero Angela è di certo una grande perdita per il mondo della scienza e della diffusione della cultura scientifica. Ho avuto l’onore e la fortuna per un breve periodo di lavorare con lui e con il figlio Alberto che cominciava proprio allora la sua stupenda carriera. L’oggetto del nostro incontro era collegato al mio ruolo di responsabile di un progetto della Provincia di Roma per dotare la città di un Museo della Scienza e di un Planetario. Io ero impegnato per la Sapienza, la mia Università, in una serie di progetti con le Scuole con il fine di ricomporre un’unità culturale e progettuale fra Scuola ed Università. La Mostra 5 miliardi di anni che si aprì a Roma nel 1972 accese in me la lampadina del Museo Diffuso.

Negli anni seguenti con un gruppo di amici collocammo nella città 123 bandierine corrispondenti ad altrettanti luoghi di Scienza, potenziali poli di un Museo della Scienza Diffuso nella Citta. Ne parlai con alcuni amici fra cui Paco Lanciano, Luigi Guariniello, l’assessore Borgna, Marco Visalberghi, Franco Foresta Martin e lo stesso Piero Angela, che avevo avuto la fortuna di conoscere in occasione di un evento accademico, con coinvolgimento anche di Alberto giovanissimo.

Nacque MUSIS alla cui conferenza di presentazione non mancò Piero Angela che però ricordo bene, mi consigliò sin da allora: un programma che precludeva la nascita di un vero e proprio Museo non era forse opportuno, tanto che mi suggerì di tenere vive le 2 ipotesi. Dopo qualche tempo con il primo finanziamento di Stato e Comune di Roma ed assegnazione di uno spazio fisico per la nuova struttura, partì il primo progetto di Museo della Scienza a Roma sulla base di una proposta formulata proprio  da un gruppo coordinato da Piero Angela.

Ammirai alla Conferenza Stampa il grande giornalista che ebbe parole di apprezzamento per il progetto del Museo diffuso, sostenendone il valore culturale al di là della nuova strada intrapresa. In effetti alcuni degli itinerari didattici del Museo Diffuso venivano riproposti nella fattibilità dell’istituendo Museo della Scienza di Roma. Ebbi la fortuna di incontrarlo molte altre volte, a partire dai periodici incontri sul Museo della Scienza di Roma e dalle mie presenze ad alcuni esperimenti presentati in TV nei programmi di Piero Angela, con il coordinamento di Paco Lanciano e Marco Visalberghi.

Ogni incontro con lui era un’occasione di crescita di cultura e conoscenza, mai di semplice informazione

Grandi alberi e foreste secolari.

In evidenza

In ogni parte del mondo, foreste secolari, essenziali per la vita sulla Terra, vengono distrutte per produrre carne bovina, olio di palma, cacao, legname e carta per mercati mai sazi .Una buona notizia viene proprio da uno di questi mercati. I legislatori negli Stati Uniti stanno vagliando nuove leggi di grande impatto per bandire dal Paese i prodotti legati alla deforestazione. Questo potrebbe davvero cambiare le regole del gioco.

Secondo un.lavoro pubblicato dai giapponesi su Environmental Research Letters negli ultimi 70 anni l’azione dell’uomo ha comportato la distruzione  di 437 milioni di ettari di foreste abbattendo il valore pro capite da 1,4 ettari nel 1960 a 0,50 nel 2019.A sostegno della richiesta inversione di politica ambientale rispetto alle deforestazione l’IPCC (Gruppo Intergovernativo sui cambiamenti climatici) in un recente rapporto ha dimostrato come sia impossibile limitare ad 1,5 gradi il riscaldamento globale senza invertire i ritmi della deforestazione entro il 2030. Fino al 2050, secondo il Rapporto, dovremmo aumentare le aree boschive di 34 milioni di ettari a cominciare dall’ampliamente delle  megaforeste, la Taiga in Russia, la Nuova Guinea, l’Amazzonia, la foresta equatoriale e quella boreale dal Canada fino all’Alaska.

Un concetto a me nuovo che ho visto descritto nel saggio Salvare le Grandi Foreste dall’economista John W.Reid e dal biologo climatico Tommaso E. Lovejoy è quello di  paesaggio forestale intatto.

Questi sistemi occupano un quarto delle terre boschive del nostro pianeta e costituiscono i nuclei meno intaccati delle megaforeste: si tratta di aree prive di strade, reti elettriche, industrie, città per almeno 500 km quadrati.

Negli ultimi 20 anni le attività antropiche hanno ridotto del 10% l’estensione  dei paesaggi forestali intatti. Nel saggio che prima citavo c’è anche una valutazione economica: trattenere il carbonio nelle foreste tropicali costa un quinto rispetto alle spese per la riduzione delle emissioni del settore industriale statunitense o europeo ed è almeno 7 volte più conveniente di fare ricrescere le foreste dopo averle abbattute.

Un ruolo fondamentale nella protezione del verde viene dai due autori del saggio assegnato agli indigeni che agli alberi devono la propria vita e cultura fino a considerarsi con essi un integrale di valori che protegge la stessa esistenza di quelle popolazioni rispetto alla dilagante urbanizzazione.

Oggi parlando di alberi il primo pensiero va ovviamente al loro ruolo per contrastare 

i cambiamenti climatici. Uno studio recente che ha esaminato lo stoccaggio del carbonio nelle foreste dei Paesi del Nord Pacifico ha dimostrato che, sebbene gli alberi con il tronco di diametro superiore ai 50 cm siano solo il 3% del totale, tuttavia sono responsabili del 40% del carbonio stoccato. Lo studio afferma con decisione quanto sia perciò importante la manutenzione delle foreste, soprattutto degli alberi a tronco largo, per consentire loro di continuare a svolgere con efficacia il ruolo attivo nello stoccaggio del carbonio, consentendo di fornire all’ecosistema un sistema di controllo climatico efficace ed economico.

I tronchi larghi sono capaci di stoccare carbonio in modo non proporzionale rispetto a quelli più piccoli. Proprio per questo al fine di proteggere gli alberi con i tronchi più grandi negli Stati Uniti lato Pacifico dal 1994 è addirittura stata promulgata una legge per rallentare la perdita dei vecchi alberi di largo tronco, oggi integrata con alcune proposte finalizzate non solo alla protezione, ma soprattutto alla piantagione di questo tipo di alberi. Esistono anche studi finalizzati a trovare un algoritmo di correlazione fra carbonio stoccato e diametro del tronco e un altro per correlare la diminuzione di carbonio stoccato all’abbattimento/morte di questi alberi, partendo dal dato che metà della biomassa in un albero è costituita da carbonio. Una ulteriore valorizzazione degli alberi quasi a collegarli col mondo della tecnologia avanzata spesso tanto lontano dalla natura, è stata la loro capacità  di ispirare la costruzione di un robot capace di entrare nel terreno grazie a sensori che crescono e si muovono nel terreno come radici. Per studiare il suolo quale migliore strumento della pianta che vi cresce sopra? Le radici infatti per ridurre l’attrito si muovono dalla pianta e arrivano ovunque, riuscendo a rompere anche i terreni più duri, formando reti e ramificazioni alla ricerca dell’acqua.

È così possibile studiare il suolo per migliorare l’agricoltura, riducendo lo spreco di acqua e l’impiego di fertilizzanti, come l’azoto  e il fosforo ,che per quanto utili vanno limitati.

L’ingegnere che ha progettato il robot, Barbara Mazzolai, ha anche ipotizzato che il robot, battezzato Plantoide, possa in un domani divenire uno strumento per indagare il corpo umano, una sorta di endoscopio di nuova generazione, visto che le sue punte non danneggiano i tessuti. Quelle braccia possono anche raggiungere i sopravvissuti ad un disastro o recuperare reperti archeologici in anfratti inaccessibili.

Nota del Postmaster:
ne avevamo parlato anni fa: https://ilblogdellasci.wordpress.com/brevissime/grandi-alberi/

il-progresso-non-coincide-con-la-crescita

In evidenza

Vincenzo Balzani

Pubblicato il 4 agosto u.s. su Il Manifesto

https://ilmanifesto.it/il-progresso-non-coincide-con-la-crescita

“Per il bene del Paese è importante che la politica ascolti la scienza”. A dirlo è Vincenzo Balzani, professore emerito dell’Università di Bologna, socio dell’Accademia nazionale dei Lincei, in lizza per il Nobel per la Chimica nel 2006.

Professore, il manifesto del gruppo “Energia per l’Italia”, che lei coordina, è stato firmato da numerosi scienziati. Ha aderito anche il premio Nobel per la Fisica Giorgio Parisi. Avete ricevuto risposte dal governo? Il ministro Cingolani lo ha letto?

Il documento non aveva come finalità ottenere risposte immediate ma spingere le forze politiche al ripensamento delle scelte compiute in merito alla crisi del gas seguita all’aggressione russa all’Ucraina. Questo ripensamento non c’è stato: l’azione di governo è schiacciata su una dimensione emergenziale ma la crisi energetica è strutturale. Manca una vera strategia climatica, ambientale e industriale, la sola che possa mettere in sicurezza il Paese.Non sappiamo se il ministro Cingolani abbia letto il nostro manifesto. Se ci sarà richiesto, ci renderemo disponibili ad illustrarlo. In vista delle elezioni, stiamo lavorando alla stesura di un “Decalogo” che verrà presentato e discusso con le forze politiche che vorranno ascoltarci, senza pregiudiziale alcuna.

L’indipendenza dalla Russia sembrerebbe possibile entro il prossimo inverno. Si passerà dalla dipendenza russa ad altre dipendenze. Ancora combustibili fossili. Cambiano gli scenari, ma la sostanza resta. Siamo affetti da gattopardismo?

Più che di gattopardismo parlerei di incapacità, di mancanza di una memoria storica condivisa e di una chiara visione strategica. Dal ‘73, anno della guerra del Kippur a cui seguì l’embargo petrolifero dei paesi Opec, abbiamo attraversato diverse crisi energetiche dovute all’instabilità delle aree in cui sono concentrate le principali riserve di gas e petrolio. Ciò nonostante abbiamo continuato a dipendere dalle fonti fossili: una scelta dannosa dal punto di vista climatico ed energetico che ha accresciuto la vulnerabilità del nostro Paese esposto al ricatto di regimi autoritari ed autocratici. Il governo dimissionario si è impegnato nel ricercare nuove fonti di approvvigionamento soprattutto in Africa, ottenendo in un colpo solo due risultati nefasti: incoraggiare lo sfruttamento di paesi poveri, anziché aiutarli ad investire nello sviluppo di energie rinnovabili, e mantenere il sistema energetico nazionale ancorato alle fonti fossili.

Con la crisi politica e le imminenti elezioni, c’è la possibilità che il Paese sia governato dai cosiddetti negazionisti climatici. Cosa manca ai nostri politici per compiere le scelte giuste?

Manca spesso la capacità di vedere nel futuro. Alcide De Gasperi diceva: “La differenza tra un politico e uno statista sta nel fatto che il politico pensa alle prossime elezioni, lo statista alle prossime generazioni”. In Italia abbondano i politici e scarseggiano i veri statisti. Molti non si sono ancora resi conto che il cambiamento climatico potrebbe portare gravi danni: estensione delle zone desertiche, diminuzione della produttività agricola, perdita di biodiversità, probabile diffusione di virus, aumento del livello del mare, inondazioni, siccità e riduzione del manto nevoso con conseguenti problemi per turismo estivo e invernale. Ancora più importante, l’aumento delle temperature e l’estensione di zone desertiche nella vicina Africa causerebbero un forte aumento dei migranti climatici. Altri politici, invece, sono preoccupati che l’attività di certi settori industriali, specie quelli estrattivi, subiranno un drastico ridimensionamento.

Voi escludete il ricorso al nucleare, ma qualche giorno fa il Parlamento europeo ha confermato la volontà di includerlo – insieme al gas – nella tassonomia green. Basterà un nome a cambiarne gli effetti?

Lo sviluppo del nucleare per combattere la crisi climatica non ha senso per molti motivi. Non è una fonte energetica rinnovabile, le scorte di combustibile sono limitate; non emettono CO2 mentre funzionano, ma ne generano moltissima per processare il combustibile e costruire la centrale. Ci sono poi ragioni di tempo, di costi e di sicurezza. Ad esempio la centrale di Olkiluoto 3 costruita dai francesi in Finlandia, progettata nel 2000, i cui lavori sono iniziati nel 2005, è entrata in funzione nel 2022, con un costo finale di circa 9 miliardi di euro contro i 3,2 stimati inizialmente; in Francia in questi mesi è stato necessario chiudere 12 reattori a causa di impreviste corrosioni; il problema delle scorie non ha soluzioni; la siccità rende problematico il raffreddamento dei reattori; gli incidenti di Chernobyl e Fukushima hanno dimostrato la pericolosità intrinseca degli impianti nucleari, che sono anche punti sensibili in caso di guerra. C’è poi una stretta connessione fra nucleare civile e armi nucleari.

In merito all’efficientamento energetico, proponete la coibentazione delle case. Con il decreto Rilancio è già stato approvato un super bonus del 110%. Ma è molto osteggiato. Secondo lei va eliminato o è efficace?

Il settore edile è fra i principali responsabili delle emissioni di gas serra e dei consumi energetici. Molto si può fare nell’efficientamento delle nostre case e di tutti gli edifici, pubblici e privati. Le nuove tecniche edilizie, i nuovi materiali e le tecnologie oggi ci danno l’opportunità di ottenere edifici a consumo energetico zero, migliorando il confort abitativo.  Il super bonus del 110% in linea di principio ha considerato il tema e ha, in parte, contribuito a quanto detto. Tuttavia, è stato gestito in modo inefficace, lasciando spazio a speculazioni e a comportamenti non corretti.

In merito ai trasporti, la Germania di recente ha promosso i mezzi pubblici con un abbonamento mensile di 9 euro. Potrebbe essere questa la scelta vincente anche nel nostro Paese?

Le tecnologie rinnovabili permettono di produrre energia elettrica in grande quantità. Parallelamente bisogna ridurre i consumi, prediligendo i mezzi pubblici alle automobili. Favorire stili di vita più sobri richiede però molto tempo e società ben organizzate. Il risultato dell’abbonamento mensile a 9 euro potrebbe essere vincente per aiutare le famiglie che fanno già uso dei mezzi pubblici. Il rincaro sui carburanti ha già spinto gli italiani ad utilizzare mezzi pubblici. L’Agi stima che già 16,3 milioni di italiani utilizzano ogni giorno un mezzo pubblico. Non abbiamo nulla da invidiare con i nostri 24,94 barili di petrolio, consumati ogni 1000 abitanti al giorno, ad altri Paesi che sono noti per una maggior organizzazione dei trasporti pubblici come la Germania che ne consuma 30,69 o la Norvegia o i Paesi Bassi rispettivamente 47,01 e 60,32.

Si attende che il ministro Cingolani firmi il decreto sulle comunità energetiche rinnovabili (Cer) e poi occorrerà l’ok del dicastero delle Politiche agricole e della Cultura in merito ai vincoli paesaggistici. Cosa pensa del modello di autoconsumo collettivo?

Le comunità energetiche sono lo strumento necessario per la gestione dell’energia rinnovabile prodotta e consumata nella rete di bassa tensione a cui sono collegati il 97% di tutte le utenze nazionali (famiglie, imprese, attività commerciali). Da sempre gli utenti che immettono energia elettrica dai loro impianti fotovoltaici la scambiano con gli utenti più prossimi così come definito dalla legge n. 8/2020 sulle comunità energetiche. Il 70% dell’energia che consumiamo è ubicato nelle nostre famiglie per cui se ogni famiglia producesse e consumasse la propria energia, allora cittadini e imprese elettrificandosi e producendo energia da fonte rinnovabile su scala locale potrebbero affrancarsi dai combustibili fossili. In questo momento è necessario che il 30% di rinnovabili centralizzate, parchi eolici, impianti fotovoltaici, idroelettrico e in piccola parte biomasse, venga realizzato quanto prima. Il restante 70% avrà certamente tempi più lunghi.

Ondate di calore anomale, incendi, siccità, inondazioni. La crisi climatica è sotto gli occhi di tutti. Secondo Greenpeace però se ne parla ancora poco in tv: i media italiani sarebbero condizionati dall’industria estrattiva. Cosa ne pensa?

Di clima si parla e si scrive troppo poco, abusando di termini non appropriati. Per “emergenza”, ad esempio, si intende una circostanza non prevista né prevedibile; ciò che invece sta accadendo è diretta conseguenza delle emissioni di gas climalteranti causate dalle attività antropiche, documentate dall’Ipcc già dall’88. I media si stanno occupando della crisi idrica e della siccità che sta mettendo a rischio fino al 30% della produzione agricola nazionale ma spesso non mettono in evidenza la relazione tra causa (utilizzo gas, petrolio e carbone) ed effetto (emissioni di CO2, surriscaldamento del pianeta, siccità e povertà alimentare). Ovviamente non si può generalizzare ma certi titoli negazionisti sono frutto dell’incultura scientifica e, pertanto, inaccettabili.

Il 28 luglio – secondo Global Footprint Network – ha segnato la fine delle risorse naturali per il 2022. L’overshoot day per l’Italia è arrivato ancora prima, il 15 maggio. Siamo in debito ecologico col Pianeta di 19 anni. I dati scientifici aumentano ma poco attecchiscano sulla politica. Come mai persiste questo scollamento?

Sono trascorsi più di  40 anni dalla pubblicazione del rapporto Charney sugli effetti delle attività umane sul clima. Da tempo gli scienziati hanno lanciato il grido d’allarme sul depauperamento, l’esaurimento e lo spreco delle risorse naturali. Purtroppo, sempre inascoltati. Molti studiosi, scienziati, filosofi hanno proposto modelli di sviluppo disaccoppiati dai consumi, proponendo la necessità e l’urgenza di un’accresciuta sobrietà, si tratta della sufficiency, la sufficienza, indicata come l’unica strada per un futuro sostenibile. Dobbiamo prevedere di utilizzare solo la quantità di risorse realmente sufficiente per garantire una qualità di vita dignitosa a tutti. La politica invece continua a mantenere un modello che noi definiamo vecchio e sorpassato: quello secondo cui lo sviluppo e il progresso devono coincidere con la crescita economica, l’aumento del Pil, la crescita dei consumi. Sappiamo che è sbagliato.

(Vincenzo Balzani, insignito del Premio Unesco-Russia Mendeleev 2021 e vincitore quest’anno del riconoscimento Ssf Molecular Machinery e del premio internazionale Cervia Ambiente).

Deserto lichenico e inquinamento

In evidenza

Dopo l’allarme del CNR sullo stato di pericolo a cui sono esposti i nostri tesori romani, dal Colosseo ai Fori, a causa dell’inquinamento, viene  a consolarci uno studio dell’INGV (Istituto Nazionale di Geofisica e Vulcanologia) e dell’Università di Siena, supervisionato dall’Accademia dei Lincei che dimostra come lo stato di pericolo denunciato dal CNR sia in parte mitigato dalla protezione, ovviamente laddove c’è, da parte delle piante circostanti capaci di assorbire il particolato atmosferico e gli inquinanti evitandone la deposizione sui monumenti ed i conseguenti danni. Questa protezione è direttamente correlata con la superficie media delle foglie ed inversamente con la distanza fra verde e sito archeologico.

Il rilievo dell’INGV che ha utilizzato come sito di studio Villa Farnesina, sede dei Lincei, con i suoi tesori di pittori famosi a partire da Raffaello, è affidato ai licheni.

Questi organismi, simbiosi fra un fungo e un’alga o un cianobatterio (il fungo fornisce all’alga acqua e sali minerali e riceve da questa risorse energetiche create come biomassa, foto-sinteticamente) sono caratterizzati da un coefficiente di diversità biologica molto elevato, circa 400, che però si riduce bruscamente con l’inquinamento e con la vicinanza alle sue fonti.

Il deserto lichenico è così divenuto un indicatore di inquinamento.

Il dato che l’INGV ha riportato è che lo stato di salute dei licheni che colonizzano il sito culturale studiato è ottimo il che sta ad indicare che, malgrado il traffico intenso di zona, l’azione protettiva del verde, in questo caso soprattutto platani, ha evitato che lo stato dell’inquinamento, di cui il CNR ha denunciato i corrispondenti pericoli per i monumenti, realmente impattasse sul sistema storico-artistico studiato.

I licheni in questa funzione confermano il ruolo biologico che hanno: sono precursori della vita vegetale sulle superfici minerali che vengono attaccate e colonizzate per lunghi anni, fino ad oltre 100 anni. Quello che lo studio dell’INGV ci insegna riguarda il verde di cui non ci si stanca di ricordare l’importanza in genere affidata alla sua capacità rigenerativa dell’ambiente attraverso la fotosintesi, ma di cui questo studio fa comprendere l’importanza anche dal punto di vista fisico: alberi a foglia larga rappresentano vere barriere protettive per la salute nostra e dei nostri preziosi patrimoni monumentali.

Attenzione: acqua in stratosfera!

In evidenza

Claudio Della Volpe

Abbiamo parlato spesso di acqua nei post più recenti a causa della ricorrente siccità che sta causando enormi problemi a noi ed all’ambiente. Eppure ci sono zone del pianeta dove le cose sono molto diverse e in modo insospettabile. Il 15 gennaio di quest’anno il vulcano sottomarino Hunga Tonga-Hunga Ha’apai situato poche decine di chilometri a sud dell’isola di Tonga nel Pacifico del sud, ha eruttato con una enorme esplosione che ha scosso tutta l’atmosfera terrestre e la cui foto vedete nella seconda figura.

Hunga Tonga e Hunga Ha’apai erano due isole a sud di Tonga distrutte quasi completamente dalla eruzione del 15 gennaio.

L’eruzione dell’ Hunga Tonga-Hunga Ha’apai non ha precedenti nella storia recente per vari motivi; anzitutto per la potenza dell’eruzione che ha avuto effetti immediati in tutta l’atmosfera terrestre sia sonori che di pressione: l’esplosione è stata equivalente a quella di 30 milioni di tonnellate di tritolo, dunque da centinaia a migliaia di volte maggiore della bomba di Hiroshima; il terremoto corrispondente ha avuto una energia misurata sulla scala Richter di 7.4; infine l’esplosione ha generato onde di maremoto che hanno fatto il giro del globo e onde di pressione atmosferica che hanno fatto per 4 volte il giro del globo.
Già queste sarebbero misure al di là del conosciuto; ma c’è un altro effetto di cui vi parlo oggi e che ha superato qualunque altra cosa conoscessimo.
Essendo un vulcano sottomarino Hunga Tonga – Hunga Ha’apai ha sollevato una enorme colonna di acqua oltre a ceneri e polveri solforose che producono aerosol di solfato. Queste ultime hanno, come sappiamo, un effetto di raffreddamento, nel senso che le particelle di solfato riflettono le radiazioni solari (0.2-0.8W/m2) e riducono il corrispondente effetto serra; ma cosa succede all’acqua immessa in atmosfera?
Di solito nulla o meglio poco, come abbiamo spiegato in un recente post; ma stavolta la potenza eruttiva è stata sottomarina e inoltre è stata enorme e questo ha portato l’acqua in stratosfera dove di solito ce n’è molto poca.
Si stima che in tutta la stratosfera ci siano 1.4 miliardi di tonnellate di vapor d’acqua; facciamo due conti.
Il peso dell’atmosfera è di circa 5milioni di miliardi di tonnellate; di queste l’80% è troposfera e si stima che di queste circa 100.000 miliardi di tonnellate siano di vapor d’acqua. Mentre come si diceva prima nella stratosfera ci sono solo circa 1.4 miliardi di tonnellate di vapore d’acqua. L’eruzione ha portato dentro la stratosfera ad un’altezza di oltre 50km oltre 140 milioni di tonnellate di nuova acqua; quale sarà l’effetto di questa aggiunta?
Un recente lavoro pubblicato il 2 giugno scorso su Geophysical Research Letters,
Millán, L., Santee, M. L., Lambert, A., Livesey, N. J., Werner, F., Schwartz,
M. J., et al. (2022). The Hunga Tonga-Hunga Ha’apai Hydration of the Stratosphere. Geophysical Research Letters, 49, e2022GL099381. https://doi. org/10.1029/2022GL099381 ha usato i dati del satellite AURA della NASA, che è in grado di misurare la composizione della stratosfera per via spettroscopica, per calcolare questo numero e ne ha poi modellato l’effetto per gli anni a venire.
I risultati non sono confortanti per noi.
Anzitutto i ricercatori hanno stimato le quantità, come si diceva prima 140 milioni di tonnellate, sono il 10% dell’acqua già presente ed anche il più massiccio apporto di acqua mai misurato finora, come appare dalla figura seguente tratta dal lavoro citato.

Tale apporto supera di gran lunga quello che gli altri fenomeni studiati finora sono stati in grado di fornire: la super-convezione, le tempeste indotte da forti incendi e altre eruzioni vulcaniche. La seguente immagine in falsi colori ci fa capire la natura assolutamente straordinaria dell’evento, visibile all’estrema destra del grafico a colori.
Il riscaldamento indotto dall’acqua in stratosfera, a differenza di quella in troposfera di cui abbiamo parlato in passato non è un effetto di retroazione del GW, ma deve essere considerata una vera e propria forzante climatica, che in questo caso comporterà effetti per almeno 10 anni.

I ricercatori concludono che:
In sintesi, le misurazioni MLS indicano che una quantità eccezionale di H2O è stata iniettata direttamente nella stratosfera dall’eruzione HT-HH. Stimiamo che l’entità dell’iniezione costituisse almeno il 10% del carico stratosferico totale di H2O. Il giorno dell’eruzione, il pennacchio H2O ha raggiunto ∼53 km di altitudine…………. e potrebbe alterare la chimica e la dinamica stratosferica mentre il pennacchio H2O di lunga durata si propaga attraverso la stratosfera ……..
A differenza delle precedenti forti eruzioni nell’era satellitare, HT-HH potrebbe avere un impatto sul clima non attraverso il raffreddamento superficiale a causa di aerosol di solfato, ma piuttosto attraverso il riscaldamento superficiale dovuto all’eccesso di forzante stratosferico H2O. Date le potenziali conseguenze ad alto impatto dell’iniezione di HT-HH H2O, è fondamentale continuare a monitorare i gas vulcanici di questa eruzione e quelli futuri per quantificare meglio i loro diversi ruoli nel clima.

Decisamente il 2022 è uno dei peggiori anni della nostra vita.

La ricerca della Verità.

In evidenza

Vincenzo Balzani,

  

Il campo della scienza si estende dalle cose più semplici a quelle più complesse e i vari gradi di complessità richiedono categorie interpretative diverse. Sappiamo tutto sulle molecole, ma questo non ci permette di spiegare le proprietà dell’uomo, che pure è fatto di molecole. È impossibile, almeno per ora, dare una base scientifica alle manifestazioni più elevate che caratterizzano l’uomo, quali la mente, i sentimenti, la coscienza. Inoltre, la scienza può spiegare “come”, ma non “perché” avvengono i fenomeni naturali. Ad esempio, sappiamo che c’ è la forza di gravità e conosciamo le sue leggi, ma non sappiamo perché essa ci sia. La scienza, poi, non può dare risposte alle domande che sorgono nell’intimo di ogni uomo: che senso ha la vita? esiste Dio? perché c’è il male? Le risposte a queste domande vanno cercate nella filosofia e la religione. Scienza, filosofia e religione sono tre branche del sapere distinte; sono tutte e tre molto importanti per l’uomo, per cui non possono essere separate da nette linee di demarcazione. Questo però non autorizza sconfinamenti ingiustificati.

Un esempio di sconfinamento della scienza nei campi della filosofia e della religione è fornito dal famoso libro di Stephen Hawking La Teoria del Tutto – Origine e Destino dell’Universo, nel quale l’autore considera la possibilità di unificare tutte le teorie della fisica e conclude che se saremo abbastanza intelligenti per scoprire questa teoria unificata saremo in grado di capire perché l’universo esiste e, quindi, di conoscere il pensiero stesso di Dio. Hawking afferma anche che, mentre la scienza è in continuo sviluppo, la filosofia è in declino. Ma ha senso paragonare lo sviluppo della scienza con quello della filosofia?

Ludwig Wittgestein, il filosofo più illustre del XX secolo, è famoso per aver detto: ”Di ciò di cui non si può parlare, è meglio tacere”. Mi sembra una posizione molto saggia, che però gli scienziati talvolta abbandonano per cimentarsi in ragionamenti che esulano dalla scienza. Infatti, tornando all’esempio di prima, anche se la fisica giungerà a scoprire una teoria del tutto, che sarà una formula matematica più o meno complessa, non vedo come si potrà capire perché l’universo esiste e conoscere il pensiero stesso di Dio. Rimarranno, comunque, molte cose da spiegare: perché i fenomeni fisici che accadono nell’universo sono interpretati proprio da quella teoria e non da altre, quale è il senso di quella teoria, quale è la sua relazione con l’origine e la presenza della vita sulla Terra, perché l’evoluzione ha portato all’uomo, perché la nostra mente può comprendere l’origine e il destino dell’universo.

La scienza ci insegna che dietro ad ogni come si nasconde un perché che essa non è in grado di svelare. Per cui, davanti a ciascuna scoperta scientifica, si deve scegliere fra “mi basta” e “non mi basta”; nel secondo caso si aspira a qualcosa che va oltre il sapere scientifico. Tornano allora alla mente le parole di Martin Buber nei racconti dei Chassidim: “Se hai acquistato conoscenza, allora soltanto sai cosa ti manca”. Parole che esprimono il desiderio dell’uomo di continuare a cercare, nel mistero, la Verità ultima della sua vita.

(pubblicato suBo7 24 luglio)

Siccità, agricoltura e biodiversità.

In evidenza

Mauro Icardi

Quando riflettiamo sull’acqua troppo spesso ci interessiamo unicamente degli effetti che la scarsità o la qualità compromessa possono avere sulla comunità umana.

I commenti che leggo sugli articoli che affrontano il tema siccità sono di carattere totalmente antropocentrico. Il problema siccità viene commentato con l’idea che saranno le innovazioni tecnologiche a risolvere il problema, quasi che l’attenzione e l’impegno personale passino in secondo piano quando si tratta di avere il necessario rispetto e la dovuta attenzione nell’uso dell’acqua.

Acqua, agricoltura e biodiversità sono temi strettamente legati tra di loro. Gli apicoltori italiani in questa estate del 2022 stanno segnalando la sofferenza delle colonie di api, che faticano a trovare fonti di nettare. La causa è la mancata fioritura o il disseccamento dei prati. Una delle soluzioni provvisorie che vengono adottate per cercare di garantirne la sopravvivenza è quella di alimentare le api con soluzioni zuccherine. Ovviamente non si tratta di una soluzione a lungo termine poiché acqua e zucchero non possono sostituire tutti i nutrimenti presenti nel nettare deifiori. Si tratta dunque di un aiuto temporaneo che possa in parte dare un sostegno a questi animali, soprattutto quando sono sfiniti dal caldo e dall’intensa attività di ricerca del nettare che riescono a procurarsi con sempre maggiore difficoltà.

Il comparto agricolo sta soffrendo per la riduzione dei raccolti e si vede costretto a dover effettuare un triste “triage idrico”, ovvero a dover scegliere quali campi irrigare abbandonando quelli più distanti dai canali di irrigazione. In molte aree del nord ovest, la sommersione delle risaie è ormai un ricordo di tempi passati. Non soffrono la siccità solo i corsi d’acqua principali, ma anche il sistema delle risorgive tipico della campagna lombarda. L’abbassamento delle falde acquifere, provocato dalla mancanza di piogge e dalla scarsità idrica, le sta mettendo in grave crisi. La fascia delle risorgive è una zona di transizione tra l’alta e la bassa pianura che attraversa il territorio lombardo da ovest a est, tra le province di Milano, Pavia, Lodi, Bergamo, Brescia, Cremona e Mantova, dove si distribuiscono gli oltre 800 fontanili ancora attivi.

Oltre a permettere in diverse zone l’irrigazione delle campagne coltivate, i fontanili rappresentano un habitat rifugio per molte specie animali e vegetali.

Queste foto le ho scattate nella primavera del 2011 in occasione di una visita al parco dei fontanili di Capralba (CR). Sono passati undici anni e la situazione attuale leggendo quanto riportato dai giornali locali è estremamente grave. Questo un estratto dal quotidiano “Cremona oggi”.

“Una scena così dalle nostre parti non si era mai vista – racconta Sergio Vismara, cerealicoltore di Cisliano, nel Milanese – Normalmente dalla testa di un fontanile esce un flusso d’acqua di trenta litri al secondo e si forma un laghetto, adesso non arriviamo nemmeno al litro e c’è solo un sottile strato di limo. Le falde si sono abbassate troppo, così è impossibile pescare l’acqua. Questa è una zona ricca di fontanili che vengono usati per irrigare dove non arriva la rete del Villoresi. Adesso su questi stessi campi rischiamo di perdere l’80 per cento del mais seminato”.

I problemi si intrecciano e si rafforzano andando a colpire pesantemente sia la produzione agricola che la biodiversità. Probabilmente se mi recassi oggi in quella zona non potrei scattare le idilliache fotografie di pesci che nuotano nella pura acqua dei fontanili, perché non credo che riuscirei a vederne.

La siccità ha colpito duramente anche gli alpeggi soprattutto in tutta la zona dell’arco alpino e nel nord dell’Appenino. Le mandrie non hanno acqua da bere, e poca erba da brucare. In alcune zone si sono riforniti gli abbeveratoi trasportando l’acqua con gli elicotteri. L’informazione prova ad edulcorare le notizie, forse per cercare di sminuirne l’impatto su chi legge. Il termine che forse è adatto ma che si è restii ad usare dovrebbe essere carestia.

La siccità ha ovviamente effetti molto negativi su pesci e anfibi. Leggiamo notizie di pesci salvati da fiumi ormai in secca totale e trasferiti in altri che conservano una portata ancora sufficiente per permetterne la sopravvivenza. Anche questa operazione si rende necessaria per ragioni di emergenza.  I pesci trasportati in un habitat diverso da quello originario possono avere problemi se si trovano nel loro periodo riproduttivo, soffrendo di uno stress da spostamento.

 La siccità e il cambiamento dei cicli stagionali mettono sotto forte stress gli anfibi, per natura legati alle aree umide: nell’area del Parco del Meisino situato nell’area della città metropolitana di Torino, lo scorso anno la natalità è stata pari a zero. E progetti di ripopolamento, come quello dedicato al pelobate fosco insubrico, noto anche come ‘rospo della vanga’, devono segnare il passo: a causa della scarsità d’acqua la stagione riproduttiva è fortemente ridotta. Si aggrava la moria di pesci: la siccità sta decimando specie autoctone quali lo scazzone, la trota marmorata e la lasca, a vantaggio delle specie esotiche più adattabili, tra le quali il pesce siluro e il cobite asiatico. 

La siccità sta causando sofferenze a piante quali le querce e gli ontani. Muoiono le querce, un fenomeno diffuso in molte zone in Italia che di anno in anno si sta intensificando; patiscono gli ontani neri abituati ad affondare le radici nell’acqua, gli subentrano frassini e altre specie frugali.

La cosa peggiore che potrebbe capitare è che terminata l’estate, con le prime piogge ci si dimentichi di queste situazioni. Invece è necessario comprendere a fondo quanto l’uomo non possa prescindere per la sua stessa sopravvivenza, da interazioni meno impattanti e distruttive con l’ambiente in cui è inserito.  Qualunque tipo di modifica dello stile di vita esageratamente consumistico e dissipativo viene percepito come la privazione di un diritto. Senza capire che noi non siamo i padroni della biosfera. Ne facciamo parte. E dobbiamo capirne e studiarne il funzionamento convincendoci che si deve rispettarla. 

Oggi abbiamo a disposizione molte più risorse di un tempo anche per informarci correttamente, per riprendere in mano i libri scolastici. Non è più possibile rimanere indifferenti. Questa fotografia della differente concezione dell’evoluzione, è tratta da un mio testo scolastico del biennio delle scuole superiori. Su quel libro nell’edizione del 1976  erano già oggetto di studio temi quali l’eutrofizzazione, il cambiamento climatico, l’inquinamento di acqua e aria, la gestione delle risorse idriche. Il volume è ancora (come molti altri testi scolastici) nella mia libreria. Adesso è il momento di agire, di accettare un cambiamento che non può essere rinviato. Impegno che deve trovare spazio nelle agende della politica anche grazie ad un ritrovato senso civico. Nei confronti delle nuove generazioni noi abbiamo un debito enorme, per l’incapacità ostinata a cambiare una direzione sbagliata, nella quale ci siamo mossi fino ad oggi. I segnali di pericolo e gli allarmi risuonano ormai da tempo. E non possono più essere colpevolmente ignorati.

Un breve ricordo di James Lovelock.

In evidenza

Claudio Della Volpe

E’ appena morto un grande chimico ed anche un grande ricercatore.

James Lovelock, ci ha lasciati alla bella età di 103 anni esatti; era infatti nato il 26 luglio del 1919.

Conobbi questa figura grazie ad una delle persone che hanno influito sulla mia formazione, PAT, ossia Pierandrea Temussi, che molti anni prima di altri, ne apprezzava l’opera e l’ingegno.

Lovelock nei primi anni 60 del secolo scorso era già famoso nell’ambito chimico per aver inventato uno dei più sensibili ed importanti rivelatori per gascromatografia, il rivelatore a cattura di elettroni.

Una lamina d’oro ricoperta di isotopo radioattivo 63Ni, viene utilizzato come sorgente di raggi β, ovvero elettroni veloci che ionizzano il gas di trasporto, producendo elettroni lenti e ioni positivi che ci danno un determinato valore di corrente. La lamina radioattiva costituisce l’anodo e gli ioni generati vanno a chiudere il circuito producendo un segnale elettrico. Composti contenenti atomi elettronegativi, fortemente assorbenti il flusso di elettroni lenti tra la sorgente ed un rivelatore di elettroni, possono essere rilevati via via che effluiscono dalla colonna gascromatografica. Infatti queste molecole catturano gli elettroni lenti che si generano dalla ionizzazione del gas di trasporto e quindi vanno a ridurre la corrente di fondo che normalmente si genera essendo queste ultime di minore mobilità. I picchi di conseguenza sono negativi, ossia comportano una diminuzione della corrente e questa diminuzione sarà proporzionale alla quantità di ioni prodotti e quindi alla concentrazione della sostanza presente nel campione.

Questa geniale, e tutto sommato semplice, idea lo rese ricco e gli consentì di fare il “libero” ricercatore.

Ricordiamo qui alcune delle sue più importanti intuizioni.

La prima, suggerita dalla sua collaborazione con la NASA sul problema dell’esplorazione di Marte è stata sviluppata insieme ad una biologa Lynn Margulis, famosa per la sua teoria dello sviluppo “cooperativo” della cellula eucariota, una teoria olobiontica, in conflitto concettuale con l’applicazione pedissequa della teoria darwiniana. Ed insieme ad Andrew Watson, un biogeochimico inglese. Sto parlando della cosiddetta ipotesi Gaia; la biosfera come enorme sistema dinamico che ha molti meccanismi di retroazione negativa e dunque appare come un sistema complessivamente autoregolato, tendenzialmente omeostatico; attenzione a non confondere questa ipotesi, che è matematicamente espressa dai vari lavori pubblicati su Daisyworld “il pianeta delle margherite”, con una visione teleologica o perfino religiosa; probabilmente il nome dell’ipotesi, che di fatto in modo meno formale era stata avanzata da altri, per esempio da Vernadsky, uno dei padri fondatori dell’ecologia, ripeto il nome non ha giovato a favore di questa visione che comunque è diventata, grazie alla disponibilità di modelli matematici complessivi dell’ecosistema una visione comunemente accettata.

Un sistema con un attrattore forte, mostra molte delle caratteristiche di Gaia; per esempio guardiamo alla attuale crisi climatica attraverso questo tipo di modello; da una parte vediamo che il sistema biosfera cerca continuamente una stabilità attorno a valori delle variabili fondamentali, dall’altra vediamo che le transizioni fra i vari stati possono essere brusche e forti; riporto qui due grafici di fase costruiti su questa idea; il primo dai lavori di Westerhold sulle transizioni della terra recente, nel Cenozoico, negli ultimi 50 milioni di anni, l’altro di Etkin sulla transizione in corso; e si vede sempre che il sistema Terra ha degli attrattori forti dai quali si separa in modo non banale ma sempre cercandone altri, un sistema fortemente retroazionato dunque.

Science Journals — AAAS

Westerhold et al., Science 369, 1383–1387 (2020) 11 September 2020

Etkin applicando idee analoghe mostra come nel medesimo spazio bidimensionale di Westerhold, temperatura contro concentrazione dei gas serra, il sistema stia subendo una veloce transizione che non sappiamo ancora dove ci porterà, alla faccia di tutti gli ignoranti difensori di analisi solo numeriche (per capirci ai vari Battaglia, Scafetta, Prodi) che sostengono che non sta succedendo nulla.

Termino questo brevissimo ricordo con un’altra idea originale che dobbiamo a Lovelock, quella sul ciclo dello zolfo e la sua relazione con l’oceanografia, la cosiddetta ipotesi CLAW.

In questo caso Lovelock suggerì che il composto DMS, dimetilsolfuro, prodotto dal plancton   oceanico svolga un ruolo chiave nel controllo delle precipitazioni; anche la ipotesi opposta che ci sia un meccanismo di retroazione positiva può in realtà essere riconsiderato in modo unitario semplicemente in un modello matematico espresso dalle stesse equazioni del pianeta delle margherite come suggerito di recente da un brillante studente di UniTrento in una sua tesina, (Deidda Paolo, DMS chemistry in the marine troposphere and climate feedbacks).

Lovelock è stato sempre uno spirito libero ed ha espresso alcune delle contraddizioni più evidenti del movimento ambientalista; ne ricordo per concludere un paio;

  • Quando fu scoperto il buco dell’ozono ed il ruolo dei composti clorofluorocarburi Lovelock sostenne a lungo che non c’era problema, che il sistema si sarebbe difeso bene; ma a noi umani interessavano alcuni effetti specifici (come l’aumento dei cancri della pelle) che per nostra fortuna hanno portato agli accordi di Montreal e poi di Kigali (interazione fra buco dell’ozono ed effetto serra)
  • Lovelock ha sempre difeso l’energia nucleare sostenendo che contro il GW questa era l’unica risposta possibile, fondò perfino una società di ambientalisti per il nucleare; anche qui il tempo ha dimostrato che aveva torto, la fissione costa ormai più del PV e dell’eolico con accumulo e a parte i problemi di decommissioning, non appare più così attraente per l’umanità.

Ma quale grande mente non ha anche sbagliato? Newton fu per la maggior parte della sua vita un sostenitore della alchimia, Galileo difese una teoria erronea delle maree; ma non li valutiamo per questi loro errori; e così dobbiamo fare per Lovelock.

James che la terra ti sia lieve!

PS Luigi Campanella mi segnala che nell’ultimo saggio di Lovelock, L’età dell’Iperintelligenza è contenuto il suo testamento spirituale dove viene ipotizzato l’avvento di una nuova era in cui la specie umana terrestre sarà costretta ad abdicare in favore delle macchine intelligenti vista la raggiunta inabitabilità della terra. Come noi non piangiamo per le specie della cui scomparsa siamo responsabili, così le macchine non piangeranno per la nostra scomparsa. Era un ragazzaccio!

Da consultare.

https://www.iltascabile.com/scienze/gaia-lovelock/   sito ricco di informazioni ma ad impostazione a volte negazionista, fate attenzione ai contenuti

https://it.wikipedia.org/wiki/Ipotesi_Gaia

https://it.wikipedia.org/wiki/James_Lovelock

Sorella acqua.

In evidenza

Luigi Campanella, già Presidente SCI.

Quando si parla di acqua generalmente lo si fa con riferimento alle carenze, agli sprechi, ai trattamenti, ma c’è un aspetto fisiologico che merita di essere considerato accanto a quelli più tradizionali. Il fegato ad esempio ha bisogno dell’acqua per rilasciare il glicogeno, la nostra riserva di carboidrati che viene frammentata a glucosio, utilizzato poi dal nostro organismo come carburante. Ma l’acqua ha numerose altre funzioni: regola la temperatura corporea, elasticizza le mucose, lubrifica le articolazioni, favorisce la digestione e il trasporto dei nutrienti, rimuove le scorie metaboliche ed altro ancora. Il nostro corpo, a seconda dell’età, dal 75% nei bambini al 50% negli anziani, è costituito da acqua sicché – ad esempio nel mio caso, peso ed età considerati -circolano dentro di me circa 40 litri di acqua.


Luigi Campanella - Premio Nazionale di Divulgazione Scientifica ...  

La maggior parte è contenuta all’interno delle cellule, circa 2/3, il rimanente intorno alle cellule e, circa il 10%,nel sangue, la cui parte liquida, il plasma ne rappresenta il 55%. Da quanto detto si comprende come la disidratazione del nostro corpo rappresenti un pericolo e che perciò va assolutamente reintegrata l’acqua che eliminiamo ogni giorno attraverso sudorazione (circa 1 l), urina (circa 700 ml), tanto da consigliare i tradizionali 2l di acqua da assumere giornalmente sia come tale sia come alimenti ricchi di essa, frutta e verdura in primis. Il bilancio idrico non si può separare da quello elettrolitico: gli elettroliti sono i sali minerali contenuti nei liquidi biologici e, per il corretto svolgimento di tutte le funzioni organiche, è fondamentale che essi mantengano una concentrazione adeguata. All’interno della cellula troviamo una quantità prevalente di potassio, mentre all’esterno il sodio è l’elettrolita preponderante. Quando l’organismo avverte una variazione nella quantità di acqua totale o nella concentrazione dei sali mette in atto dei meccanismi di compensazione, basati essenzialmente sull’assunzione (processo della sete) o sull’eliminazione (urine, sudore) di liquidi. Ad esempio, quando mangiamo un pasto molto salato (es. pizza) la concentrazione di sodio nei fluidi corporei aumenta e i centri ipotalamici della sete vengono stimolati e ci inducono a bere, mentre i reni sono spinti a espellere meno acqua. A regolare il bilancio idroelettrolitico entrano in gioco strutture endocrine come l’ipotalamo, luogo dei centri della sete, l’ipofisi, i surreni, con la secrezione rispettivamente degli ormoni vasopressina e aldosterone. L’idratazione del corpo umano può essere misurata con un apposito test, il test bio-impedenziometrico per il quale vengono applicati degli elettrodi sulle mani e sui piedi.

  Lo strumento induce il passaggio di una lieve corrente elettrica attraverso il corpo e viene misurata  la resistenza offerta dall’organismo a questa corrente, dal cui valore si ricavano poi  tutti i dati richiesti dal test.Il monitoraggio del livello di idratazione e oggi possibile con una  app che permette di notificare agli utenti quando il livello d’acqua nel corpo si abbassa troppo; può ,inoltre, fornire un report dei liquidi che la persona ha consumato durante il giorno e misurare automaticamente l’assunzione d’acqua proveniente da cibi e bevande tramite un sensore di impedenza, che viene utilizzato per misurare il livello complessivo dei liquidi presenti nel corpo di una persona. I risultati vengono visualizzati su uno smartphone e le persone vengono avvisate mediante una notifica su display, spingendo l’individuo ad assumere  più acqua se il livello di liquidi nel corpo è troppo basso Il firmware per il monitoraggio è parte della app . La tecnologia prende anche in considerazione l’attività fisica della persona e calcola la quantità di calorie bruciate.

Monumenti in pericolo

In evidenza

Luigi Campanella, già Presidente SCI

Il CNR ha lanciato un allarme, ripreso oggi dalla stampa, circa i pericoli per i nostri siti storico artistici outdoor, a partire dal Colosseo, Fori, Vittoriano e dall’Altare che derivano dai cambiamenti climatici, dai loro effetti ma anche dalle loro cause, prima fra tutte l’inquinamento.

Alessandra Bonazza, ISAC_CNR, coordinatrice della macroarea di ricercai su Ambiente, Beni Culturali e Salute Umana”.

https://www.saperescienza.it/biologia/author/215-alessandrabonazza

I processi responsabili di questa condizione di pericolo sono di natura principalmente chimica, ma anche fisica e biologica e mi piace in quanto professore di chimica dell’Ambiente e dei Beni Culturali ritornare su questo allarme cercando di spiegarne i contenuti.

La situazione ambientale che si correla a questo allarme è caratterizzata da temperature anormalmente elevate, gradi di umidità molto alti, concentrazione di inquinanti sempre sopra o al limite dei valori di soglia.

I materiali dei Beni Culturali sono tradizionalmente classificati in lapidei, metallici, cellulosici, pittorici, ceramici, vetrosi, plastici. A seconda del tipo di materiale cambiano i nemici primari, ma possiamo dire che due sono comuni: umidità ed acidità atmosferica, in quanto sempre comportano la dissoluzione dei materiali di base e la distruzione del bene artistico. Nel caso poi dei materiali lapidei la trasformazione dei carbonati (di cui sono per la maggior parte costituiti) in solfati per l’azione di uno dei nemici comuni, l’acido solforico, non solo porta alla volgarizzazione a gesso di materiali preziosi come i marmi, ma anche alla capacità di rendere una superficie a scarsa affinità assorbente come il marmo, in una capace di assorbire il particolato atmosferico producendo su di essa le croste nere. La negatività di queste croste non è solo estetica: esse rappresentano una discontinuità materica con il risultato che in corrispondenza di forti riscaldamenti si creano delle disomogeneità di dilatazione che innescano fratture pericolose.

Al di la del problema croste nere l’acidità atmosferica accoppiata con la forte umidità comporta in ogni caso reazioni di dissoluzione, così il carbonato del marmo si scioglie come nitrato in presenza di acido nitrico, i cui precursori gli ossidi di azoto, vengono prodotti dagli autoveicoli o come cloruro per azione dell’aerosol marino ricco di cloruro. La dissoluzione avviene anche a carico dei materiali ferrosi che si sciolgono come sali o dei materiali  più aggredibili degli altri come cellulosici. Nel caso dei primi come carta e legno: i polimeri cellulosici vengono frammentati dal processo di idrolisi acida e portano al degrado del materiale di base; la chimica dei Beni Culturali ha studiato e spiegato l’aggressione da parte delle condizioni create dai cambiamenti climatici anche nel caso di materiali meno tradizionali dei BBCC, in particolare ceramiche, mosaici, materie plastiche. Le reazioni sono sostanzialmente di due tipi: acido/base di cui abbiamo parlato e complessazione. Queste ultime si basano sulla caratterizzazione chimica dei vari composti in elettron-attrattori ed elettron-repulsori portati ad interagire gli uni con gli altri: fra i primi i metalli, tra i secondi molti dei composti naturali ambientali.

Accanto agli effetti fisici, in particolare termici, e chimici si deve ricordare che esistono anche processi biologici che attraverso la modulazione delle colture microbiche portano a situazioni aggressive. Ed infine i batteri sono organismi che per la loro capacità di colonizzare differenti ambienti, per le proprietà di resistere a situazioni avverse e crescere in condizioni limitanti sono tra i principali agenti di deterioramento dei beni culturali e delle opere d’arte.

La sostenibilità, il messaggio di Mentone e la “legge Sullo”.

In evidenza

Claudio Della Volpe

Nel raccogliere i materiali per questo post, in cui vi parlo del cinquantenario della conferenza ONU sullo Human environment che vide la costituzione del programma Onu sull’ambiente (UNEP) e delle iniziative che si sono sviluppate a riguardo ho cercato di ricostruire un po’ l’ambiente culturale di quel momento.

Erano anni tumultuosi che seguivano l’esplosione sessantottina nel mondo, ma anche anni in cui si erano fatti strada idee e concetti rivoluzionari; basti pensare che quel medesimo 1972 vide la pubblicazione di Limits to growth, l’opera collettiva, voluta dal Club di Roma , fondato da Aurelio Peccei (un manager FIAT) e portata avanti dalle menti più brillanti dell’MIT, i coniugi Meadows, Jorgen Randers; la nostra folta rappresentanza a quella conferenza era capeggiata da un ministro democristiano (dell’Università), Fiorentino Sullo, un democristiano abnorme che aveva legato il suo nome ad una proposta di legge (data 1963!!) che vi ricordo più avanti e che non passò e alla cui sconfitta dobbiamo molti dei disastri cosiddetti “naturali” che poi si sono verificati nel nostro paese.

http://www.aladinpensiero.it/?p=15812

Il giornalista Enrico Lobina scrive a riguardo:

La riforma prevedeva la prevalenza, nella pianificazione urbanistica, dell’interesse generale rispetto a quello privato. La rendita è un guadagno non legato al lavoro, bensì al semplice possesso di un terreno, che per qualche ragione aumenta di valore. L’aumento è legato al fatto che un PUC stabilisce che in quel terreno, dove prima non si poteva costruire, ora si può. In linea di massima, questo atteggiamento ha fatto del male alle città, a chi ci abita ed al paesaggio.
Fiorentino Sullo voleva riportare quella rendita nella sfera del pubblico, mediante uno schema di appropriazione pubblica della rendita. Per dare un senso della portata della riforma, si sappia che il tentativo di colpo di stato del generale De Lorenzo, progettato in quegli anni, non aveva come obiettivo principale il centrosinistra dei primi anni sessanta, come molti hanno scritto e sostenuto, bensì la riforma Sullo.

Non so se sia credibile l’ipotesi sul colpo di stato De Lorenzo, “il tintinnar di sciabole”, ma quel che è certo è che esistevano nel nostro paese, come in molti altri, menti sveglie che avevano compreso come lo sviluppo del dopoguerra non era tutto rose e fiori e doveva essere gestito e controllato con una programmazione pubblica, che sottolineasse gli interessi collettivi e li considerasse prevalenti su quelli privati (art. 41 della Costituzione).

Se ci pensate la situazione è del tutto cambiata oggi e quel generoso tentativo è stato sconfitto.

Il pensiero unico del PIL oggi è l’idea prevalente di mondo; non abbiamo ministri che si battano per interessi collettivi. La Costituzione è subordinata a regole “europee” che prevedono che il mercato e il profitto siano l’elemento dominante.

Oggi abbiamo un ministro dell’ambiente e della transizione tecnologica che è un “tecnico”, un manager, in aspettativa, della maggiore industria italiana di armi, la Leonardo, dei cui conflitti di interesse ambientali abbiamo già parlato in altro post, e nessun italiano figura fra gli autori dei testi e degli articoli di cui parleremo. Alla conferenza di commemorazione UNEP la capodelegazione era un sottosegretario, Ilaria Fontana.

Nature ha celebrato il 50esimo della fondazione UNEP con un breve articolo (Nature | Vol606 | 9June2022 | p. 225 ) intitolato Why are world leaders ignoring sustainability? di cui vi riporto il testo integrale.

Cinquant’anni fa, le Nazioni Unite tennero la loro conferenza sull’ambiente umano a Stoccolma. Questo evento storico ha dato al concetto di sviluppo sostenibile il suo primo riconoscimento internazionale. La Svezia e l’ONU hanno segnato l’occasione la scorsa settimana con un incontro commemorativo, Stoccolma+50. Nel marzo 1972, un team di ricercatori e politici pubblicò The Limits to Growth, uno dei primi rapporti a prevedere conseguenze catastrofiche se gli esseri umani avessero continuato a sfruttare la limitata offerta di risorse naturali della Terra. La conferenza di Stoccolma è seguita pochi mesi dopo e ha portato all’istituzione del programma delle Nazioni Unite per l’ambiente (UNEP), con sede a Nairobi. L’UNEP ha continuato a facilitare una nuova legge internazionale — il protocollo di Montreal del 1987 per eliminare gradualmente le sostanze che riducono lo strato di ozono — e ha co-fondato il Gruppo intergovernativo sui cambiamenti climatici (IPCC).

Ha contribuito alla definizione dei primi piani d’azione per lo sviluppo sostenibile attraverso accordi internazionali di riferimento sulla biodiversità, il clima e la desertificazione. Ma ci sono stati errori e opportunità mancate. L’istituzione di più agenzie e strumenti politici ha creato un sistema di governance disarticolato. I ministri dell’ambiente di nuova creazione esercitavano poco potere. Nei bilanci nazionali, la protezione dell’ambiente è stata isolata da sviluppo economico e preoccupazioni sociali. E così, 50 anni dopo quell’importante conferenza, il mondo rimane in crisi. Con le imminenti crisi climatiche e della biodiversità, gli avvertimenti fatti da pochi visionari sono sempre più realistici. Stoccolma+50 ha promesso “raccomandazioni chiare e concrete e messaggi per l’azione a tutti i livelli”. Più di 90 ministri hanno partecipato, ma solo circa 10 capi di governo. E’ stata un’occasione mancata per un’azione ad alto livello.

I leader mondiali sono necessari perché la loro presenza segnala che la sostenibilità rimane in cima alle loro agende. In vista della conferenza del 1972, 2.200 scienziati ambientalisti firmarono una lettera — chiamata Messaggio di Mentone — all’allora segretario generale delle Nazioni Unite U Thant. I firmatari avevano la sensazione che il mondo si stesse muovendo verso molteplici crisi. Hanno sollecitato “una massiccia ricerca sui problemi che minacciano la sopravvivenza dell’umanità”, come la fame, le guerre, il degrado ambientale e il degrado delle risorse naturali. I ricercatori possono ora unirsi a un successore del Messaggio di Mentone che è stato organizzato dall’International Science Council, la rete scientifica globale Future Earth e lo Stockholm Environment Institute. In un opuscolo aperto rivolto ai cittadini del mondo, gli autori scrivono: “Dopo 50 anni, l’azione a favore dell’ambiente sembra un passo avanti e due indietro. Il mondo produce più cibo del necessario, eppure molte persone soffrono ancora la fame. Continuiamo a sovvenzionare e investire nei combustibili fossili, anche se l’energia rinnovabile è sempre più conveniente. Estraiamo risorse dove il prezzo è più basso, spesso in diretto disprezzo dei diritti e dei valori locali” (vedi https://science4stockholm50.world). I leader mondiali devono ascoltare la comunità di ricerca e accettare le prove e la narrativa offerte per aiutarli a navigare in un cambiamento significativo. La sostenibilità ambientale non ostacola la prosperità e il benessere, anzi, è fondamentale per loro. Le persone al potere devono sedersi e prendere nota.

In quella lontana occasione fu anche lanciato un proclama, firmato da 2200 scienziati, il cosiddetto “messaggio di Mentone”, che in realtà era stato scritto e consegnato all’allora segretario dell’ONU, il mitico U-Thant nell’anno precedente e che comparve nella rivista UNESCO, The UNESCO Courier luglio 1971. Come potete vedere dall’immagine era diretto “ai nostri 3miliardi e mezzo di vicini del pianeta Terra”.

Tra i 2.200 firmatari del saggio di Mentone ci sono quattro premi Nobel (Salvador Luria, Jacques Monod, Albert Szent-Gyorgyi e George Wald), e nomi famosi del mondo della scienza come Jean Rostand, Sir Julian Huxley, Thor Heyerdahl, Paul Ehrlich, Margaret Mead, René Dumont, Lord Ritchie-Calder, Shutaro Yamamoto, Gerardo Budowski, Enrique Beltran e Mohamed Zaki Barakat. I partecipanti erano fondamentalmente appartenenti ai settori biologico ed ambientale.

Cosa diceva il messaggio di Mentone?

Gli scienziati mettevano in guardia i loro “vicini” dal fatto che vari grandi problemi si andavano fondendo per costituire un gigantesco rischio per il benessere e perfino per la sopravvivenza dell’umanità.

I problemi indicati erano: il deterioramento ambientale causato dall’inquinamento di quelli che erano allora composti liberamente scaricabili ma sono poi diventati proprio grazie al cosiddetto accordo di Stoccolma “la sporca dozzina”, ma anche legato alla prospettiva dell’uso ancora maggiore dell’energia nucleare di fissione e al crescente inquinamento delle città; l’impoverimento delle risorse naturali, a partire da quelle energetiche ma anche minerali, legato ad un enorme sovrasfruttamento in un pianeta finito e non infinito, l’uso sconsiderato del suolo quasi completamente occupato da infrastrutture umane; l’eccesso di popolazione, il sovraffollamento e la fame, dato che secondo il documento nemmeno nelle migliori condizioni la Terra avrebbe potuto garantire consumi a tutti gli uomini in linea con quelli dei paesi più ricchi, ed infine la guerra.

A proposito della guerra il documento diceva:

È chiaro che non è sufficiente attribuire la guerra alla naturale belligeranza dell’umanità quando gli uomini sono di fatto riusciti a stabilire in alcuni punti società stabili e relativamente pacifiche in aree geografiche limitate. Nel nostro tempo è evidente che i pericoli della guerra globale si concentrano su due punti: la disuguaglianza che esiste tra le parti industrializzate e non industrializzate del mondo e la determinazione di milioni di esseri umani impoveriti a migliorare la loro sorte; la competizione per il potere e il vantaggio economico tra gli stati-nazione anarchici che non vogliono rinunciare agli interessi egoistici per creare una società più equa.

Riguardo alla soluzione dei problemi il messaggio era alquanto ampio e preciso perché iniziava citando casi in cui gli uomini avevano dato prova di poter lavorare efficacemente e su grande scala: la costruzione della bomba atomica, la ricerca spaziale sia in USA che in URSS; questa stessa capacità organizzativa avrebbe dovuto essere applicata alle situazioni critiche dell’umanità, ma con una priorità più alta ancora. Il documento invitava le nazioni più ricche che avevano beneficiato di più delle risorse a mettersi alla testa di tali azioni di cambiamento.

Quattro punti basilari erano esplicitati:
Una moratoria sulle innovazioni tecnologiche i cui effetti non possiamo predire e che non sono essenziali per sopravvivenza umana. (nuovi sistemi d’arma, trasporti di lusso, pesticidi nuovi e non testati, la fabbricazione di nuove materie plastiche, la creazione di vasti nuovi progetti di energia nucleare, ecc. progetti di ingegneria ecologicamente non studiati, lo sbarramento di grandi fiumi, la “bonifica” della terra della giungla, i progetti minerari sottomarini, ecc.)

-L’applicazione dei controlli sull’inquinamento esistenti alla produzione di energia e all’industria in generale, al riciclaggio su larga scala dei materiali al fine di rallentare l’esaurimento delle risorse e alla rapida conclusione di accordi internazionali sulla qualità ambientale, soggetti a revisione man mano che le esigenze ambientali diventano più pienamente note.

Programmi intensificati in tutte le regioni del mondo per frenare la crescita della popolazione, nel pieno rispetto della necessità di raggiungere questo obiettivo senza abrogare i diritti civili. E’ importante che questi programmi siano accompagnati da una diminuzione del livello di consumo da parte delle classi privilegiate e che si sviluppi una distribuzione più equa del cibo e di altri beni tra tutte le persone.

Indipendentemente dalla difficoltà di raggiungere accordi, le nazioni devono trovare un modo per abolire la guerra, disinnescare i loro armamenti nucleari e distruggere le loro armi chimiche e biologiche. Le conseguenze di una guerra globale sarebbero immediate e irreversibili, ed è quindi anche responsabilità degli individui e dei gruppi rifiutarsi di partecipare a ricerche o processi che potrebbero, se utilizzati, portare allo sterminio della specie umana.

Occorre dire che da allora ad oggi alcuni e limitati accordi su questi punti sono stati trovati ed applicati, basta ricordare gli accordi sul buco dell’ozono (Montreal) o sui terribili 12 (Stoccolma) o gli accordi sulla moratoria nucleare.

Tuttavia le cose basilari sono rimaste sul tappeto perché alcuni punti di vista non hanno fatto breccia nelle menti e nella pratica umana, soprattutto della parte più ricca della popolazione.

Riassumerei così il testo di un nuovo messaggio scritto in questa occasione (1 giugno 2022) dallo International Science Council, dove fra l’altro si dice:

In primo luogo, il pensiero individualista, materialista, sfruttatore a breve termine ci ha portato a perdere di vista il bene pubblico. Il consumismo e l’auto-indulgenza sono glorificati, mentre si traducono in cattiva salute, ingiustizia e apatia.

In secondo luogo, concentrarsi sulla crescita economica distrae dal raggiungimento del benessere e della felicità. La crescita incontrollata distrugge le nostre risorse condivise. Allo stesso modo, sebbene l’innovazione tecnologica ci abbia permesso di eludere alcuni limiti naturali, la convinzione che possiamo piegare tutta la natura alla nostra volontà attraverso l’uso illimitato delle nuove tecnologie è un’illusione.

In terzo luogo, le attuali istituzioni economiche, politiche e sociali ci stanno deludendo

Concluderei come concludeva il primo messaggio, quello di Mentone

La Terra, che è sembrata così grande, ora deve essere vista nella sua piccolezza. Viviamo in un sistema chiuso, assolutamente dipendenti dalla Terra e gli uni dagli altri per le nostre vite e quelle delle generazioni successive. Le molte cose che ci dividono sono quindi infinitamente meno importanti dell’interdipendenza e del pericolo che ci uniscono. Crediamo che sia letteralmente vero che solo trascendendo le nostre divisioni gli uomini saranno in grado di mantenere la Terra come loro casa. Le soluzioni ai problemi reali dell’inquinamento, della fame, della sovrappopolazione e della guerra possono essere più semplici da trovare rispetto alla formula dello sforzo comune attraverso il quale la ricerca di soluzioni deve avvenire, ma dobbiamo fare un inizio.

Ringrazio il collega Pino Suffritti che ha portato alla mia attenzione la riunione di Stoccolma+50.

Riutilizzo di acque reflue depurate.

In evidenza

Mauro Icardi

 Le risorse idriche disponibili stanno diventando scarse sia per la diminuzione di precipitazioni, sia a causa dell’aumento delle pressioni antropiche e del conseguente inquinamento ambientale. Negli ultimi anni sta crescendo l’interesse per il riutilizzo delle acque reflue depurate nei programmi di pianificazione delle risorse idriche, con particolare interesse per l’irrigazione.

In passato, in virtù dell’abbondanza delle risorse idriche, soprattutto confrontando le disponibilità con quelle del resto del mondo, l’Unione Europea non aveva investito in maniera consistente sul riuso delle acque sebbene, in generale, si potesse notare un diverso approccio nei Paesi Nord-Europei rispetto a quelli Mediterranei. In generale quando le risorse idriche sono abbondanti non sempre si è portati ad avere una pianificazione rigorosa ed attenta. Oltre a questo  in passato esistevano perplessità sulla qualità delle acque reflue in uscita dagli impianti di depurazione, situazione che negli ultimi vent’anni è decisamente mutata in positivo con l’adozione di nuove tecniche di trattamento (impianti a membrana), e con il generale miglioramento delle tecniche di trattamento terziario (filtrazione e disinfezione tramite acido peracetico o raggi uv).

Nell’Unione Europea diversi paesi hanno definito norme e linee guida per il riuso delle acque reflue in agricoltura, come ad esempio Francia, Spagna, Cipro e Italia.

Dal punto di vista legislativo in Italia è vigente Il D.M. 185/03 che regolamenta il riutilizzo delle acque reflue, ai fini della tutela qualitativa e quantitativa delle risorse idriche, limitando il prelievo delle acque superficiali e sotterranee, riducendo l’impatto degli scarichi sui fiumi e favorendo il risparmio idrico, mediante l’utilizzo multiplo delle acque di depurazione. Secondo il Decreto il riutilizzo deve avvenire in condizioni di sicurezza per l’ambiente, evitando alterazioni agli ecosistemi, al suolo ed alle colture, nonché rischi igienico-sanitari per la popolazione. Inoltre, il riutilizzo irriguo deve essere realizzato con modalità che assicurino il risparmio idrico. Nel riutilizzo sono considerate ammissibili le seguenti destinazioni d’uso:  

Uso irriguo: per l’irrigazione di colture destinate sia alla produzione di alimenti per il consumo umano ed animale sia a fini non alimentari, nonché per l’irrigazione di aree destinate al verde o ad attività ricreative o sportive.

 Uso civile: per il lavaggio delle strade nei centri urbani; per l’alimentazione dei sistemi di riscaldamento o raffreddamento; per l’alimentazione di reti duali di adduzione, separate da quelle delle acque potabili, con esclusione dell’utilizzazione diretta dell’acqua negli edifici a uso civile, ad eccezione degli impianti di scarico nei servizi igienici.

Uso industriale: come acqua antincendio, di processo, di lavaggio e per i cicli termici dei processi industriali, con l’esclusione degli usi che comportano un contatto tra le acque reflue recuperate e gli alimenti o i prodotti farmaceutici e cosmetici.

Il prossimo anno entrerà in vigore il regolamento europeo 2020/741 che prevede  per gli Stati membri il riutilizzo delle acque reflue depurate, sostituendo il DM 185. La data prevista è fissata per il Giugno 2023.

Attualmente in Italia sono già in funzione 79 impianti per la produzione di acque di riuso, ma rappresentano solo il 5% della potenzialità, che è stimata in un volume di circa 9 miliardi di m3/anno.

I dati provengono dall’indagine di Utilitalia “Il riutilizzo delle acque reflue in Italia”, presentata a Napoli nel corso del convegno “Climate change e servizio idrico: la sfida del PNRR per un sistema efficiente e resiliente” organizzato dalla Federazione in collaborazione con l’Università degli Studi Federico II e con l’Associazione Idrotecnica Italiana.

Esistono in Italia già da diversi anni esempi di riuso delle acque reflue, sia per l’irrigazione che per fini industriali. Il quadro complessivo presenta nette differenze tra regione e regione. Si può però fare la seguente osservazione di carattere generale: il ricorso alle acque reflue per scopi irrigui o industriali è avvenuto quasi esclusivamente in situazioni di “emergenza idrica”, che si possono sostanzialmente distinguere in due tipologie distinte: carenza di disponibilità idrica; elevata esigenza di acqua in porzioni del territorio limitate. Due esempi tipici sono i distretti industriali con elevate necessità e consumi di acqua, e la presenza di vaste aree destinate all’agricoltura intensiva. Solo negli ultimi anni si è iniziato a programmare il riuso delle acque reflue con una visione più ampia, tenendo conto dei vantaggi indiretti di questa pratica, quali il beneficio ambientale del “non scarico” nel corpo idrico ricettore e la possibilità di non fare ricorso ad acque qualitativamente migliori, soprattutto acque di falda preservandone la disponibilità.

La situazione di assoluta emergenza di questi giorni potrebbe però aggiungere due nuove destinazioni d’uso. Il ricarico di acque di faldae l’aiuto per aumentare i flussi di portata nel caso di secche persistenti destinando le acque di scarico su corsi d’acqua in particolare sofferenza. Occorre far notare che la realizzazione di queste due ultime destinazioni d’uso necessita della realizzazione di infrastrutture al momento mancanti (condotte e canalizzazioni). Per altro come avevo già scritto in precedenti articoli, occorre rendersi conto che la secca di molti fiumi anche piuttosto importanti, come ad esempio il Lambro o il Brenta che in questi giorni sono completamente asciutti devono spingere ad adottare provvedimenti lungimiranti e non rimandabili. Da attuarsi con una programmazione il più possibile condivisa.

Se un fiume della lunghezza di 130 km come il Lambro si trasforma in una fiumara, o per volgere lo sguardo fuori dai nostri confini, il Colorado non riesce più ad arrivare al mare per eccessivo prelievo di acqua non è più possibile né sottovalutare, né minimizzare il fatto che ci troviamo di fronte ad un problema reale.

Le nuove regole aiuteranno l’Europa ad adattarsi alle conseguenze dei cambiamenti climatici. Il regolamento migliorerà la disponibilità di acqua e ne incoraggerà un uso efficiente. Infatti garantire la disponibilità di acqua sufficiente per l’irrigazione dei campi, in particolare durante ondate di calore e siccità gravi, può aiutare a prevenire la carenza di colture e la carenza di cibo. Dato che le condizioni geografiche e climatiche variano notevolmente tra gli Stati, uno Stato membro potrà decidere che non è appropriato utilizzare l’acqua di recupero per l’irrigazione agricola in parte o in tutto il suo territorio.

Gli Stati membri avranno piena autonomia per poter decidere l’utilizzo più appropriato delle acque destinate al riuso (civile, irriguo, industriale, ricreativo).

Il regolamento contiene requisiti rigorosi per la qualità delle acque di recupero e il relativo monitoraggio per garantire la protezione della salute umana e animale nonché dell’ambiente.

Il fattore chiave nel determinare la possibilità concreta del riuso di acque reflue è la certezza di rigorosi controlli sulla qualità degli effluenti impiegati e di una continua azione di monitoraggio sull’evoluzione qualitativa dei vari comparti coinvolti (acqua, suolo, piante). I limiti di qualità per le acque riutilizzabili in irrigazione, ad esempio, richiedono non solo di salvaguardare gli aspetti sanitari, ma di contrastare tutti i problemi che si potrebbero manifestare sulle colture e nel terreno, nonché sulla stessa funzionalità degli impianti irrigui.

La filosofia di approccio deve identificare certamente dei limiti di sostanze inquinanti, ma nello stesso tempo adattarsi alle condizioni locali. In aggiunta alla mitigazione dei possibili effetti sulla salute, l’uso delle acque reflue depurate per esempio in agricoltura deve assicurare produzioni agricole comparabili con quelle ottenute normalmente e impatti accettabili sull’ambiente.

Le pratiche agricole dovrebbero tenere presenti alcuni fattori tra i quali:

• quantità d’acqua utilizzata

• caratteristiche del suolo (infiltrazione, drenaggio)

• sistemi di irrigazione;

• tipo di coltivazione e pratiche di utilizzo.

I parametri da tenere monitorati per l’utilizzo di acque reflue depurate in agricoltura sono di varia tipologia.

I nutrienti, azoto, fosforo, potassio, zinco, boro e zolfo, devono essere presenti nell’acqua reflua depurata nelle corrette concentrazioni altrimenti possono danneggiare sia le coltivazioni che l’ambiente. Ad esempio il quantitativo di nitrati necessario varia nei diversi stadi di sviluppo delle piante, mentre durante la crescita sono necessarie alte quantità di nitrati, queste si riducono durante la fase di fioritura. Il controllo sulle concentrazioni dei nitrati è fondamentale per ridurre la lisciviazione negli acquiferi che rappresenta un potenziale rischio di inquinamento delle acque destinate al consumo umano. Le concentrazioni di sodio, cloruri, boro e selenio dovrebbero essere attentamente controllate a causa della sensibilità di molte piante a queste sostanze. Il selenio risulta tossico anche a basse concentrazioni e il boro si ritrova in alte concentrazioni per la presenza di detergenti nelle acque di scarico. La qualità delle acque rappresenta anche un aspetto da considerare nella scelta del sistema di irrigazione. In condizioni di alte temperature e bassa umidità, quando è favorita l’evapotraspirazione, è sconsigliato l’utilizzo dell’irrigazione a pioggia se le acque contengono alte concentrazioni di sodio e cloruri in quanto possono arrecare danni alle foglie.

Come si può vedere il concetto di gestione dell’acqua rimane un tema multidisciplinare. E soprattutto uno dei temi tra i più importanti da affrontare (ma non è il solo). Serviranno risorse, conoscenza e soprattutto collaborazione. Occorre ribaltare il concetto che l’acqua non sia un diritto, ma occorre anche avere una formazione di base. Bisogna superare la tendenza a guardare l’orticello di casa, ridare senso al bene comune che non è patrimonio di una mentalità liberista e miope che vorrebbe mercificare ogni risorsa planetaria.  E in ultimo mi sento di fare una piccola tirata d’orecchie a chi di professione si occupa di scegliere i titoli dei pezzi sui giornali. Ad Assago l’acqua depurata viene utilizzata per rifornire le spazzatrici municipali che lavano le strade. Questo avviene dal 2019. Il dato di fatto è che si risparmiano circa 8000 litri anno di acqua potabile. Ma la stampa locale diede la notizia con questo titolo: “Assago, le strade della città si lavano con l’acqua di fogna” Un titolo inopportuno, quando sarebbe stato molto meglio scrivere “Assago, le strade della città si lavano con l’acqua trattata dai depuratori”. Questo può fare molta differenza nella percezione di quello che è stato realizzato. Non è un dettaglio trascurabile.

August Wilhelm von Hofmann: chimica organica con annessi e connessi

In evidenza

Rinaldo Cervellati

Il primo a distinguere fra chimica inorganica e organica è stato Jöns Jakob Berzelius (1779-1848) nel 1806, per indicare quei composti che erano formati da quattro soli elementi – carbonio, ossigeno, idrogeno e talvolta azoto, perché sembravano sempre essere i prodotti di esseri viventi composti da sistemi complessi ma altamente organizzati. Il pensiero era che tali sostanze non potessero essere ottenute in laboratorio da materiali inorganici, e quindi era necessaria una “forza vitale” al di là della comprensione dei chimici per spiegare la loro esistenza, dottrina detta “vitalismo”.

Nel 1828, Friedrich Wöhler[1] (1800-1882) ottenne l’urea (un componente dell’urina) partendo da un composto inorganico, il cianato d’ammonio NH4CNO e scrisse una lettera a Berzelius di cui era stato allievo (figura 1):

Figura 1. Lettera di Wöhler a Berzelius e traduzione parziale: Caro Signor Professore, devo dirvelo, ho fatto l’urea senza bisogno di reni o di nessun animale, uomo o cane che sia…

Berzelius capì rapidamente che urea e cianato d’ammonio avevano la stessa composizione centesimale ma struttura diversa e coniò il termine “isomeri” e lo estese come concetto generale, comprendendo fulminati e cianati, acido tartarico e acido racemico.

Tuttavia l’enorme sviluppo della chimica organica si ebbe solo alcune decine di anni dopo, poiché Berzelius era convinto del vitalismo e Wöhler e Justus von Liebig (1803-1873), pur nutrendo seri dubbi, non si pronunciarono mai esplicitamente contro[2].

Il declino del vitalismo iniziò probabilmente agli inizi degli anni ’40 del XIX secolo, dovuto a Hermann Kolbe[3] (1818-1884) che fra il 1843 e il 1845 riuscì a ottenere acido acetico partendo da solfuro di carbonio e cloro, due sostanze inorganiche.

Nel frattempo, tuttavia, erano stati scoperti e riconosciuti diversi composti organici ricavati da piante, fra cui i terpeni[4] e nel 1825 il benzene dai residui oleosi del gas illuminante, da Michael Faraday (1791-1867).

A mettere ordine fra queste migliaia di sostanze ci pensò August Wilhelm von Hofmann. 

Nato a Giessen, Granducato d’Assia, l’8 aprile 1818, figlio di Johann Philipp Hofmann, consigliere privato e architetto provinciale della corte di Darmstadt. Si iscrisse all’Università di Giessen nel 1836. Inizialmente intraprese gli studi di diritto e filologia. Potrebbe essersi interessato alla chimica quando suo padre ampliò i laboratori Giessen di Liebig nel 1839. August Wilhelm abbandonò diritto e filologia per studiare chimica sotto la guida di Justus von Liebig. Ottenne il dottorato di ricerca nel 1841. Nel 1843 divenne uno degli assistenti di Liebig, il rapporto con Liebig alla fine divenne personale oltre che professionale.

August Wilhelm Hofmann a) nel 1846 e b) in maturità

Il principe Albert, consorte della regina Vittoria, come presidente della Royal Society di Londra, era determinato a promuovere il progresso scientifico in Gran Bretagna. Nel 1845 propose di avviare una scuola di chimica pratica a Londra, il Royal College of Chemistry. Liebig fu contattato per un consiglio e raccomandò Hofmann alla direzione della nuova istituzione. L’istituto aprì nel 1845 con Hofmann come primo direttore. La situazione finanziaria della nuova istituzione era alquanto precaria, quindi Hofmann accettò l’incarico a condizione che fosse nominato professore straordinario a Bonn, con aspettativa di due anni, in modo da poter riprendere la sua carriera in Germania se l’incarico inglese non fosse andato bene. Nonostante questo inizio difficile, l’istituto ha avuto successo per un certo periodo ed è stato leader internazionale nello sviluppo di coloranti all’anilina. Molti degli uomini che vi studiarono diedero un contributo significativo alla storia della chimica.

Nel 1853, il Royal College of Chemistry entrò a far parte del Dipartimento Governativo di Scienza e Arte, sotto la nuova School of Mines, ricevendo dei finanziamenti governativi. Tuttavia, con la morte del principe Albert nel 1861, l’istituzione perse uno dei suoi sostenitori più significativi. Nel 1864 a Hofmann fu offerta una cattedra di chimica all’Università di Bonn e un’altra all’Università di Berlino e progettò edifici di laboratorio per entrambe le università, che furono costruite successivamente. Nel 1865 succedette a Eilhard Mitscherlich (1794-1863) all’Università di Berlino come professore di chimica e direttore del laboratorio chimico, mantenendo la carica fino alla sua morte nel 1892. Dopo il suo ritorno in Germania, Hofmann fu il principale fondatore della Società chimica tedesca e ne fu presidente per molti anni.

Il lavoro di Hofmann coprì un’ampia gamma della chimica organica. Egli e i suoi collaboratori hanno dato un importante contributo allo sviluppo di tecniche per la sintesi organica, che ha avuto origine nel laboratorio di Liebig a Giessen. Hofmann e John Blyth (1814-1871) furono i primi a usare il termine “sintesi”, nel loro articolo “On Styrole, and Some of the Products of Its Decomposition“[1], precedendo di alcuni mesi l’uso del termine da parte di Kolbe. Ciò che Blyth e Hofmann chiamavano “sintesi” consentiva loro di fare inferenze sulla costituzione dello stirolo (fig. 2).

Figura 2. Parte dell’articolo di Hofmann dove compare la parola “sintesi”

Un articolo successivo, “Sulla toluidina” di Muspratt (1821-1871) e Hofmann, descrisse alcuni dei primi “esperimenti sintetici” nel campo della chimica organica [2]. Sebbene l’obiettivo finale di tali esperimenti fosse produrre artificialmente sostanze presenti in natura, tale obiettivo non era praticamente raggiungibile in quel momento. Lo scopo immediato della tecnica era l’applicazione di reazioni note a una varietà di materiali per scoprire quali prodotti potevano essere formati. La comprensione del metodo di formazione di una sostanza è stato un passo importante per collocarla all’interno di una tassonomia in via di sviluppo delle sostanze. Questa tecnica divenne la base del programma di ricerca di Hofmann. Usò la sintesi organica come metodo di indagine, per aumentare la comprensione chimica dei prodotti di reazione e dei processi attraverso i quali si sono formati [3].

La prima ricerca di Hofmann, condotta nel laboratorio di Liebig a Giessen, fu un esame delle basi organiche del catrame di carbon fossile. Hofmann isolò con successo le sostanze precedentemente riportate da Friedlieb Ferdinand Runge (1794-1867), e mostrò che il kyanol era quasi interamente anilina, un prodotto di decomposizione del colorante vegetale indaco.

Nella sua prima pubblicazione (1843) dimostrò che una varietà di sostanze che erano state identificate nella letteratura chimica contemporanea come ottenibili dalla nafta di catrame di carbon fossile e dai suoi derivati ​​erano tutte un’unica base azotata, l’anilina. Gran parte del suo lavoro successivo ha ulteriormente sviluppato la comprensione degli alcaloidi naturali.

Hofmann tracciò inoltre un’analogia tra anilina e ammoniaca, volendo convincere i chimici che le basi organiche potevano essere descritte in termini di derivati ​​dell’ammoniaca. Hofmann convertì con successo l’ammoniaca in etilammina e nei composti dietilammina, trietilammina e tetraetilammonio. Fu il primo chimico a sintetizzare le ammine quaternarie. Il suo metodo per convertire un’ammide in un’ammina è noto come il riarrangiamento di Hofmann [4].

Mentre le ammine primarie, secondarie e terziarie erano stabili quando distillate ad alte temperature in condizioni alcaline, l’ammina quaternaria non lo era. Il riscaldamento dell’idrossido di tetraetilammonio quaternario produce vapore di trietilammina terziaria. Questa divenne la base di quella che oggi è conosciuta come l’eliminazione di Hofmann, un metodo per convertire le ammine quaternarie in ammine terziarie. Hofmann applicò con successo il metodo alla coniina, il veleno colinergico della cicuta, per ricavare la prima struttura di un alcaloide. Il suo metodo è diventato estremamente significativo come strumento per esaminare le strutture molecolari degli alcaloidi e alla fine è stato applicato a morfina, cocaina, atropina e tubocurarina, tra gli altri. Alla fine la coniina divenne il primo degli alcaloidi ad essere sintetizzato artificialmente [4].

Nel 1848, lo studente di Hofmann, Charles Blachford Mansfield (1819-1855), sviluppò un metodo di distillazione frazionata del catrame di carbon fossile e separò benzene, xilene e toluene, un passo essenziale verso lo sviluppo di prodotti dal catrame di carbon fossile.

Nel 1856, un altro studente di Hofmann, William Henry Perkin (1838-1907), stava tentando di sintetizzare il chinino al Royal College of Chemistry, quando scoprì il primo colorante all’anilina, la mauveina. La scoperta ha portato alla creazione di una vasta gamma di coloranti tessili artificiali, rivoluzionando il mondo della moda. Le ricerche di Hofmann sulla rosanilina, da lui preparata per la prima volta nel 1858, furono l’inizio di una serie di ricerche sulle materie coloranti. Nel 1863, Hofmann dimostrò che il blu anilina è un trifenile derivato della rosanilina e scoprì che diversi gruppi alchilici potevano essere introdotti nella molecola della rosanilina per produrre coloranti di varie sfumature di violetto, che divennero noti come “viole di Hofmann”.

Dopo il suo ritorno in Germania, Hofmann continuò a sperimentare con i coloranti, ottenendo infine il rosso chinolina nel 1887.

Hofmann studiò le basi azotate, compreso lo sviluppo di metodi per separare miscele di ammine. Lavorò con Auguste Cahours (1813-1891) su basi di fosforo tra il 1855 e il 1857. Con lui, nel 1857, Hofmann preparò il primo alcool alifatico insaturo, l’alcool allilico, C3H5OH. Nel 1868 esaminò anche il suo derivato, l’isotiocianato di allile (olio di senape), e studiò vari altri isocianati e isonitrili (isocianuri o carbilammine).

Hofmann sviluppò anche un metodo per determinare i pesi molecolari dei liquidi dalle densità di vapore.

Nel 1865, ispirato da Auguste Laurent (1807-1853), Hofmann suggerì una nomenclatura sistematica per gli idrocarburi e i loro derivati. Fu adottata a livello internazionale dal Congresso di Ginevra, con alcune modifiche, nel 1892 [5].

Probabilmente fu Hofmann il primo a proporre modelli molecolari in chimica organica, dopo l’introduzione della teoria della struttura chimica da parte di August Kekulé (1829-1896) nel 1858 e l’introduzione di formule strutturali stampate di Alexander Crum Brown (1838-1922) nel 1861. In un discorso alla Royal Institution di Londra il 7 aprile 1865 mostrò modelli molecolari di semplici sostanze organiche come metano, etano e cloruro di metile, che aveva costruito con palline di colore diverso collegate tra loro con sottili tubi di ottone (fig. 3).

Figura 3. Modello del metano di Hofmann

La combinazione di colori originale di Hofmann (carbonio = nero, idrogeno = bianco, azoto = blu, ossigeno = rosso, cloro = verde e zolfo = giallo) si è evoluta nella combinazione di colori in uso ancora oggi. Dopo il 1874, quando van’t Hoff[5] e Le Bel suggerirono indipendentemente che le molecole organiche potessero essere tridimensionali, i modelli molecolari iniziarono ad assumere il loro aspetto moderno.

A Hofmann si devono anche i termini alifatico e aromatico.

Nel libro Geschichte der Organischen Chemie, Berlin, 1920, di Carl Graebe, la nota 2 a pag. 277 riporta:

2) Den Namen aliphatisch hat A. W. Hofmann fur die Fettkörper in die Chemie eingenführt.

AW Hofmann ha introdotto il nome alifatico nella chimica dei corpi grassi.

Gradualmente, come si è detto, diversi composti collegati al benzene entrarono a far parte del lessico chimico e nel 1855 Hofmann introdusse il termine aromatico per distinguere la serie di acidi monobasici (capostipite l’acido benzoico) da quella dei bibasici (capostipite l’acido ftalico), fig.6 [6]:

Figura 6. Parte dell’articolo di Hofmann del 1855

L’aggettivo aromatico fu quindi introdotto da Hofmann per indicare le loro caratteristiche chimiche, non tanto perché i primi composti di questa classe a essere identificati possedessero odori caratteristici e intensi [7 pp. 2-3].

Nota. Per chi volesse approfondire l’antica origine dei termini “organico”, “sintesi”, ecc. si consiglia l’ottimo articolo di Curt Wentrup in European Journal of Organic Chemistry, pubblicato on-line il 22 marzo 2022, DOI: 10.1002/ejoc.202101492 Open access

Bibliografia

[1] J. Blyth, A.W. Hofmann, CXXXVIII. On styrole, and some of the products of its decompositionMemoirs and Proceedings of the Chemical Society, 18432, 334–58.

[2]   J. S. Muspratt, A. W. Hofmann, On Toluidine, a New Organic Base. MCPS, 18452, 367–383.

[3] C. M. Jackson, Synthetical Experiments and Alkaloid Analogues: Liebig, Hofmann, and the Origins of Organic Synthesis., in: Historical Studies in the Natural Sciences, Vol. 44, No. 4, 2014, pp. 319-363.

[4] T.A. Alston, The Contributions of A. W. Hofmann, Anesthesia & Analgesia, 2003, 96, 622–625.

[5] August Wilhelm Hofmann in Encyclopædia Britannica.

[6] A.W. Hofmann, On insolinic acid., Proceedings of the Royal Society. 18568, 1–3.

[7] A.J. Rocke, It Began with a Daydream: The 150th Anniversary of the Kekulé Benzene Structure., Angew. Chem. Int. Ed., 2014, 53, 2–7.


[1] Di Wöhler si può trovare una breve biografia in: R. Cervellati, Friedrich Wöhler e Hermann Kolbe: dal primo composto organico sintetizzato da materiali inorganici alla prima sintesi totale, CnS-La Chimica nella Scuola, 2018, 2, 67-75.

[2] v. nota 1.

[3] v. nota 1.

[4]terpeni sono biomolecole costituite da multipli dell’unità isoprenica (2-metil1,3-butadiene). Vengono prodotti da molte piante, sono i componenti principali delle resine e degli oli essenziali , miscele di sostanze che conferiscono a ogni  pianta un caratteristico odore o aroma. Molti aromi usati nei cibi o nei profumi sono derivati da terpeni o terpenoidi naturali.

[5] v. Nota 1.

A proposito di nanomateriali.

In evidenza

Luigi Campanella, già Presidente SCI.

La strada da percorrere per una gestione sicura e responsabile dei nanomateriali è ancora molto lunga. L’Europa attraverso direttive e regolamenti ha posto i primi paletti a partire dalla prima esigenza conoscitiva: raccogliere quanti più dati scientifici possibile circa questa nuova tipologia di sostanze impegnando su questo fronte già dal 2020 tutte le aziende europee che con esse operano. Negli ultimi decenni, grazie al progresso scientifico si sono fatti sempre più largo prodotti contenenti nanoforme e nanotecnologie. Nel Mercato Europeo sono già presenti numerosi prodotti contenenti nanomateriali (ad esempio farmaci, batterie, rivestimenti, indumenti antibatterici, cosmetici, prodotti alimentari). La presenza di particelle nanostrutturate conferisce molto spesso al prodotto finito caratteristiche superiori all’attesa e prestazioni elevate. Però, come spesso accade in questi casi, l’aspetto commerciale ha di gran lunga preceduto la valutazione di quale potrebbe essere l’effetto di queste sostanze sull’uomo e sull’ambiente. Per capire di cosa parliamo dobbiamo rifarci all’unica definizione legalmente riconosciuta a livello nazionale ed europeo di nanomateriale: con nanomateriale si intende un materiale naturale, derivato o fabbricato, contenente particelle allo stato libero, aggregato o agglomerati, ed in cui per almeno il 50% delle particelle nella distribuzione dimensionale numerica, una o più dimensioni sono comprese fra 1nm e 100nm. I fullereni, i fiocchi di grafene, i nanotubi di carbonio a parete singola con una o più dimensioni esterne inferiori a 1nm dovrebbero di conseguenza essere considerati nanomateriali.

Diversamente dai prodotti chimici a cui il mondo scientifico e produttivo è sempre stato abituato i nanomateriali hanno rivoluzionato il modo di pensare in quanto le proprietà chimiche che dimostrano a causa delle loro estreme dimensioni sono spesso diverse o addirittura opposte a quelle previste dai rispettivi materiali in forma macro. C’è poi l’aspetto conoscitivo: in un coro di 1000 voci fra le quali una sola è stonata (similmente una cellula sola fra le tante modificata) come individuarla? A livello macro la stonatura vocale o biologica non si percepisce. La risposta viene dalle nanotecnologie.  L’inquadramento legale delle nanoforme commerciali rispetto ai nanomateriali con riferimento al Testo Unico di Sicurezza (l. 81/08) e la gestione del rischio da parte dei valutatori e dei datori di lavoro dovrebbero portare ad indicazioni pratiche, senza le quali ogni situazione può risultare come nuova e quindi di difficile gestione. Tali preoccupazioni sono giustificate da un lato dall’ignoranza su come le nanoparticelle interagiscano con l’organismo umano e dall’altro dal crescente uso di esse in applicazioni molto comuni, come la medicina, la cosmetica, la farmaceutica, l’alimentare.

Un ulteriore motivo di preoccupazione deriva dai fenomeni di aggregazione delle particelle in funzione della distribuzione dimensionale. I dati di tossicità dei composti in forma macro non sono trasferibili alla forma nano. Uno dei problemi principali che la scienza deve affrontare nella definizione di queste proprietà ignote, visto che quelle note non valgono, è la realizzazione di sospensioni stabili delle nanoparticelle nei liquidi biologici come sangue ed urine, l’aggregazione essendo il primo processo destabilizzante. Un grande aiuto alla soluzione del problema è venuto dagli ultrasuoni e dalla sonicazione delle sospensioni capace di stabilizzarle per oltre 3gg e da alcuni composti con proprietá disperdenti, come il polivinilpirrolidone ed il polietilenglicole, in ogni caso frutto di ricerche e considerazioni di natura squisitamente chimica.

Dissalazione acque marine: qualche considerazione tecnica.

In evidenza

Mauro Icardi

L’attuale situazione di siccità prolungata ha riproposto il tema dell’utilizzo delle tecniche di dissalazione come risposta alla scarsità di acqua, sia per uso potabile che irriguo.

Vorrei dare in questo articolo alcune indicazioni di carattere tecnico. Questo perché dal tenore dei commenti che leggo in rete su articoli che ipotizzano questa possibilità, mi rendo che non sono sufficientemente spiegate le fasi di trattamento, e le relative problematiche connesse. Oltre a questo occorre tenere conto dei consumi di energia e dei costi per metro cubo di acqua trattata. Essere consapevoli che le salamoie residue necessitano, analogamente per quanto accade per i fanghi di depurazione, di uno smaltimento o riutilizzo corretto ed economico.

Ho voluto fare questa premessa doverosa per varie ragioni. La prima è che mi sembra che in Italia si sia sempre data per scontata la disponibilità di acqua. Sia per uso irriguo che potabile. E che si sia trascurato invece di prendere coscienza del fatto che questa del 2022 è la terza crisi idrica grave, dopo quelle del 2015 e del 2017 che ebbero molto risalto mediatico. Alle prime piogge però il problema nella percezione di molti sparisce. E se ne riparla alla prossima siccità. In ogni caso gli impianti di dissalazione non si costruiscono in poco tempo. Occorre una pianificazione, e sarebbe anche opportuno proteggere le fonti e le falde di acqua dolce. Tutto questo attiene a quella che io ho voluto chiamare educazione idrica. Che personalmente mi sembra piuttosto carente.

Come per qualsiasi altro tipo di acqua da sottoporre a trattamento, l’acqua di mare da inviare al trattamento di desalinizzazione deve essere sottoposta ad analisi, questo perché il contenuto salino nell’acqua trattata potrà avere concentrazioni differenti a seconda dell’uso a cui sarà destinata. In altre parole per ogni data applicazione è necessario trovare la combinazione più adatta di processi per la concentrazione del volume finale degli effluenti, o per ottenere prodotti finali che possano essere eliminati con il minimo dei problemi. Se si prevedono variazioni stagionali che possono provocare o compromettere la normale operatività dell’impianto di dissalazione, esse potranno essere risolte o minimizzate solo con l’ausilio di un laboratorio specializzato.

Un primo elenco non esaustivo di parametri indispensabili per la caratterizzazione delle acque marine da sottoporre a dissalazione prevede come minimo i seguenti parametri: pH, conduttività, durezza totale, durezza carbonatica, Ferro, Manganese, Rame, Ione ammonio, Cloruri, Solfati, Fosfati.

Le principali tecniche di dissalazione sono principalmente le seguenti:

  • Osmosi inversa
  • Elettrodialisi
  • Distillazione a membrana
  • Evaporazione a compressione di vapore
  • Scambio ionico.

In questa immagine possiamo vedere uno schema a blocchi di un impianto di dissalazione. Si può notare che si tratta di uno schema con complessità più elevata rispetto ad impianti che trattano invece acque dolci, e che le tecniche che si possono utilizzare possano comprendere anche la presenza di più tipologie nello stesso sito, quando si voglia differenziare la tipologia di acqua prodotta per usi diversi.

Prima di sottoporre le acque alla fase di desalinizzazione vera e propria vi sono delle fasi di trattamento preliminare che possono comprendere una normale fase di grigliatura, una clorazione delle acque grezze per prevenire successivi problemi di formazione di incrostazioni o biofouling. In caso si usino trattamenti di desalinizzazione a membrana non è conveniente utilizzare dosaggi di cloro superiori a 0,9 gr/L.

Particelle e colloidi possono essere rimossi con il cosiddetto “trattamento convenzionale”, che consiste nella coagulazione seguita da una filtrazione, per acque a bassa torbidità. In caso di acque molto torbide si possono aggiungere fasi di flocculazione e sedimentazione. Il pretrattamento non convenzionale per particelle e colloidi è l’ultrafiltrazione. Prima delle membrane a osmosi inversa è necessario dosare una soluzione antincrostante per prevenire la formazione di precipitati di carbonato di calcio e solfati.

La filtrazione fine (5 micron) è necessaria come ultima fase prima del passaggio sulle membrane per evitare che detriti, particelle di sabbia o materiale proveniente delle tubature a monte possano danneggiarle.

La produzione di acqua potabile da dissalazione è da considerarsi una soluzione praticabile quando non si disponga di una fonte di acqua dolce. I costi di investimento sono ben lontani dall’essere la considerazione più importante. Infatti, i consumi chimici ed elettrici sono quelli che più incidono nella gestione dell’impianto.

 Uno dei sistemi per il recupero energetico consiste nel recupero dell’acqua di scarto tramite una pompa centrifuga che alimenta una turbina Pelton adattata per il funzionamento con salamoia. Questo sistema permette un risparmio di energia stimabile attorno ad un valore 0,2Kwh/m.³ L’energia ottenuta dalle pompe ad alta pressione può essere recuperata e reimmessa nel ciclo di desalinizzazione. Cercando in rete ho trovato che il consumo di energia per m3 di acqua trattata tramite desalinizzazione si possa oggi stimare tra i 2,3 e i 3,5 kWh/m3. Il ciclo idrico integrato tradizionale (captazione, potabilizzazione, depurazione) mediamente arriva a 1 kWh/m3. Ricordiamoci sempre che il fattore energia è importante in questo tipo di valutazioni.

Lo smaltimento delle salamoie residue (denominate brine) è un problema emergente degli impianti di dissalazione delle acque marine.

Uno studio recente (dicembre 2018) commissionato dall’Onu rivela che la capacità di produzione di acqua più o meno dolce degli impianti di desalinizzazione è pari a circa 95 milioni di metri cubi al giorno.

 Lo stesso studio mette in luce l’altra faccia del trattamento di desalinizzazione: per ogni litro di acqua desalinizzata c’è un residuo di 1,5 litri di salamoia  a concentrazione variabile, in funzione della salinità dell’acqua di partenza.

Questo materiale spesso contaminato dai residui dei prodotti usati per la pulizia e manutenzione delle tubature dovrebbe essere destinato ad uno smaltimento adeguato, o in alternativa al recupero di materia.

Purtroppo nella maggior parte dei casi il residuo del flusso di salamoia viene scaricato a mare, confidando nel mai dimenticato effetto diluizione, che era quello che spesso possiamo ancora riscontrare quando vediamo vecchi collettori di acque fognarie che scaricano a distanza dalla linea di costa.

 La concentrazione di sali nella salamoia varia dai 50 ai 75 g/L e ha una densità molto maggiore dell’acqua marina, tendendo perciò a fluire verso il fondale presso la bocca di scarico creando così uno strato altamente salino d’acqua che può avere un impatto negativo sulla flora e fauna marina, e sulle attività umane correlate come pesca e balneazione.

Oltre a questo la salamoia esaurisce l’ossigeno disciolto nelle acque riceventi, alterando in questo modo l’equilibrio ecologico.

Sono in fase di sviluppo ricerche volte a implementare il recupero di materia dalle salamoie, tra gli altri cloruro di sodio, acido cloridrico e soda caustica.

(Qui il link di uno studio pubblicato sulla rivista Nature dedicato al recupero di acido cloridrico e soda caustica dalla salamoia. https://www.nature.com/articles/s41929-018-0218-y)

Concludo dicendo che la dissalazione è a mio parere una delle tecniche che si possono o si potranno forse utilizzare in futuro per risolvere il problema di carenza idrica. Ma non credo sia l’unica. Per esempio il riutilizzo di acque depurate ad uso irriguo in Italia può e deve essere ulteriormente implementato, come sta avvenendo in Emilia Romagna.

https://www.cesenatoday.it/cronaca/progetto-rivoluzionario-hera-acque-depuratore-all-agricoltura.html

 Una soluzione più ragionevole dell’ipotizzare un faraonico progetto di pompaggio di acqua dissalata per esempio dalle coste liguri alla pianura padana. Questa è una mia impressione, ma non la vedo poi così impossibile visto che di idee balzane ne sono scaturite molte negli anni.  Non esiste una sola soluzione opportuna e praticabile, ma serve una maggiore attenzione alla gestione della risorsa acqua nel suo insieme. Sono tanti gli attori coinvolti, e ancora molta la corretta informazione da fare. L’Italia è un paese che a volte sembra disprezzare l’acqua pubblica più per conformismo e abitudine, che per una reale necessità. Non vorrei più sentire parlare di negazionismo idrico come ho potuto constatare in questi giorni leggendo commenti totalmente surreali che negavano lo stato di siccità, ipotizzando non ben chiari complotti dei soliti “poteri forti”. Cerchiamo di essere seri per cortesia.

Chimica dell’espirato

In evidenza

Luigi Campanella, già Presidente SCI

Il collega Fabio Di Francesco dell’Universitá di Pisa con grande intuito scientifico ha promosso un importante convegno internazionale, svoltosi a Pisa nel  mese di giugno e dedicato all’analisi chimica dell’espirato, un campo di ricerca che contribuisce con successo all’avanzamento della collaborazione fra Medicina e Chimica, come dimostra la presenza al convegno organizzato in ambito chimico da parte di alcuni clinici illustri come i prof. George Hanna dell’Imperial College e Jochen Schubert, dell’Università di Rostock.

Il progetto base rileva alcune patologie attraverso differenti analisi dell’espirato, ma da parte di altre scuole, come quella di ingegneria di Tor Vergata, viene la proposta della estensione al suono del respiro, come marker di stato di salute, eventualmente modificato attraverso un filtro o con un diapason. Il convegno ha avuto grande successo del quale va dato merito al prof Di Francesco, tanto che -visto l’interesse particolare in sede nazionale- si pensa ad un ulteriore evento, limitato eventualmente al nostro Paese.

Vorrei osservare come questo approccio innovativo si stia sviluppando anche in direzioni completamente diverse dalla medicina preventiva. Intendo riferirmi al riconoscimento di una persona attraverso indicatori diversi, i più noti dei quali fanno riferimento alla biometria per cui il riconoscimento dell’identità è affidata a dati geometrici del volto. Oggi applicata allo sblocco degli smartphone o per i check-in in aeroporto, la biometria avrà presto applicazioni in ICT sostituendo con i suoi dati le comuni password: Mastercard la userà presto per i pagamenti. Ovviamente come sempre le innovazioni comportano anche problemi. È di recente la denuncia di un furto di impronte digitali, oltre ovviamente al nodo privacy. Ed ancora in Europa, mentre il Parlamento a maggioranza vota contro il riconoscimento biometrico, viene approvato un Regolamento che prevede una Banca Europea dei dati biometrici da mettere a disposizione delle Forze di Polizia e dei Carabinieri. In Spagna ed Iran si sta sperimentando come indicatore selettivo il battito cardiaco. Ma i giapponesi hanno già scavalcato anche questa frontiera e la loro nuova proposta per il riconoscimento rinuncia ad impronte digitali ed al riconoscimento facciale in favore di un naso elettronico che riconosce mediante un’analisi chimica dei composti volatili emessi dal respiro umano. Si tratta di sensori a 16 canali capaci di distinguere 1 persona fra 20 con la precisione del 97%. Siamo cosi tornati al punto di partenza: l’impronta chimica al servizio dei problemi della società civile, in questo caso salute e sicurezza. Su tutto quanto detto i problemi sono 2: i costi dovuti all’impiego di tecnologie che usano dispositivi costosi ed i possibili errori, falsi negativi e falsi positivi

Ricerche su micro e nanoparticelle di plastica

In evidenza

Rinaldo Cervellati

I ricercatori del NIST (National Institute of Standards and Technology, USA) hanno realizzato uno studio su quanto i prodotti di consumo di tutti i giorni contribuiscano al contenuto di particelle di plastica di dimensioni nanometriche nell’acqua [1].

Le microplastiche (diametro inferiore a 5 mm) e le nanoplastiche (diametro inferiore a 1 µm) sembrano essere ovunque: nell’acqua, nell’aria, nel cibo, nel sangue umano, nei tessuti polmonari e nelle feci. Ma cosa significhi la loro presenza per la salute umana e l’ambiente non è completamente chiaro.

Le autorità di regolamentazione stanno valutando i rischi delle microplastiche tenendo conto che queste particelle hanno composizioni complesse e dimensioni e forme variabili. I dati sull’esposizione sono molto limitati come pure gli studi tossicologici [2-4]. I ricercatori stanno iniziando a identificare le fonti e le composizioni delle microplastiche per condurre gli studi di tossicità necessari per comprendere gli effetti dell’esposizione sulla vita umana e sull’ambiente.

Perché è importante la caratterizzazione

La maggior parte degli studi tossicologici finora pubblicati hanno utilizzato perline di polistirene, facili da acquistare in diverse dimensioni e con vari gruppi funzionali, ma non rappresentative delle microplastiche che i ricercatori stanno trovando nell’ambiente.

Christie Sayes, professoressa di scienze ambientali alla Baylor University (Texas, USA), ha collaborato con i ricercatori dell’Agenzia per la protezione ambientale degli Stati Uniti, a Cincinnati, per analizzare le particelle di microplastica nei campioni d’acqua. Le particelle in quei campioni, così come in quelli realizzati nel suo laboratorio, tendono a essere frammenti frastagliati, dai lati taglienti, con bordi appuntiti (fig. 1).

Figura 1. Frammenti di microplastica

La composizione è un’altra sfida. I ricercatori hanno rilevato il polistirene ma anche molti altri polimeri: polietilene, polipropilene e poliammide. E le microplastiche raramente iniziano come un polimero puro. Contengono anche plastificanti, pigmenti e metalli.

Inoltre, uno dei modi in cui le microplastiche entrano nell’ambiente è l’invecchiamento atmosferico  dalla radiazione ultravioletta dei detriti di plastica in frammenti sempre più piccoli nel tempo. Questo processo può cambiare la chimica della plastica. I materiali possono diventare meno idrofobici e rivestirsi di biomolecole, minerali e metalli. Questi contaminanti possono modificare le proprietà di una particella, come la sua carica o polarità. Le proprietà fisiche e chimiche dei nanomateriali ingegnerizzati[1] influenzano il modo in cui interagiscono con le cellule. Lo stesso sembra essere vero per le micro e nanoplastiche.

Alcune delle prime prove che la forma e la lunghezza dei nanomateriali influiscono sulla loro tossicità sono state pubblicate in un innovativo studio in vivo nel 2008, che ha dimostrato che i nanotubi di carbonio possono suscitare nei topi la stessa risposta patologica dell’amianto [5]. Martin Clift, professore di tossicologia delle particelle nella Swansea University Medical School (UK), ricorda un esperimento condotto diversi anni fa con i colleghi dell’Helmholtz Zentrum München che ha anche rivelato che la forma non è l’unico fattore di tossicità delle nano particelle [6].

I ricercatori hanno osservato che le nanoparticelle d’oro di forma diversa interagivano con le cellule in modo simile. Afferma Clift: “Quando abbiamo iniziato a guardare ai percorsi meccanicistici associati all’infiammazione, allo stress ossidativo e alla morte cellulare, quelli con il maggior numero di bordi hanno mostrato la maggiore tossicità. In questo esperimento, ciò che c’era sulla superficie delle particelle e il numero di bordi erano fattori. È una combinazione di proprietà fisico-chimiche e il modo in cui questi elementi interagiscono con cellule e tessuti che guida l’effetto biologico per qualsiasi nanomateriale ingegnerizzato”.

Uno dei risultati della nanotossicologia che continua a sorprendere alcuni ricercatori è l’importanza di ciò che è attaccato alle superfici delle particelle. I ricercatori hanno appreso che attaccare gruppi di ammine alle superfici delle particelle può suscitare una risposta biologica avversa più forte rispetto ad altri gruppi chimici, come i carbossilati. Le superfici caricate negativamente sembrano anche essere meno tossiche delle superfici caricate positivamente.

Fabbricare microplastiche

La maggior parte dei ricercatori caratterizza le proprie particelle di microplastica in base alle dimensioni. Ma la caratterizzazione delle impurità, come metalli, sostanze organiche ed endotossine, non è ancora stata completata.

I ricercatori si sono affrettati ad acquistare nanoparticelle ingegnerizzate disponibili in commercio per studi di tossicità, quindi le impurezze e la variabilità da lotto a lotto hanno reso difficile confrontare i risultati tra gli studi.

Nel tentativo di controllare meglio le proprietà dei nanomateriali utilizzati negli studi di tossicologia e di comprendere più esposizioni nell’ambiente reale, Demokritou ha istituito un centro per la ricerca sulla nanosicurezza ad Harvard nel 2016.

Il centro è stato in prima linea nella ricerca sulle interazioni dei nanomateriali ingegnerizzati emergenti con i sistemi biologici e sulle loro potenziali implicazioni per la salute. I ricercatori negli Stati Uniti e nell’Unione Europea usano i nanomateriali negli studi di tossicologia. Afferma Demokritou, direttore del centro: “Li produciamo in modo controllato, ci assicuriamo che non ci siano impurezze e li conserviamo in condizioni controllate. Ciò ci consente di avere una certa riproducibilità nei nostri dati sulla bioattività”.

Demokritou sta ora sviluppando un programma simile per le microplastiche. Lui e i suoi collaboratori stanno producendo particelle di micro e nanoplastiche che sono più rilevanti per l’ambiente rispetto alle perle di polistirene.

Dice Demokritou: “Il nostro obiettivo è sviluppare una sorta di libreria di microplastiche di riferimento che possiamo utilizzare per i nostri studi. Vogliamo scoprire le regole fondamentali della bioattività, come la struttura o le proprietà dei materiali influenzano i risultati sulla salute. Per fare ciò, devi avere un modo per controllare le proprietà” (fig. 2).

Figura 2. (a)” spaghetti” di microplastica; (b) micro e nanoplastiche di diverse dimensioni; (c) particelle di microplastiche al microscopio elettronico.

Potenziali rischi per la salute

Le persone sono esposte alle microplastiche principalmente dall’ingestione delle particelle nel cibo e nell’acqua, nonché dall’inalazione di particelle nell’aria. Utilizzando sistemi in vitro che simulano la digestione o l’inalazione, gli scienziati stanno iniziando a costruire un quadro di come le particelle di micro e nanoplastiche possono danneggiare l’intestino umano e le cellule polmonari.

Tuttavia non si possono testare subito questi miliardi di combinazioni di micro e nanoplastiche in vivo. Si deve iniziare con un approccio in vitro fisiologicamente rilevante e con gli approcci di tossicologia computazionale per avere un’idea della bioattività. I materiali che hanno dimostrato di avviare eventi molecolari associati a effetti negativi sulla salute possono poi essere ulteriormente studiati in vivo.

Demokritou e colleghi stanno utilizzando un modello in vitro dell’epitelio dell’intestino tenue per verificare se le micro e nanoplastiche interferiscono con la digestione e l’assorbimento dei nutrienti. Le particelle di microplastica possono raddoppiare la biodisponibilità di alcuni grassi e influenzare l’assorbimento dei micronutrienti, come le vitamine. Non sono stati condotti studi in vivo, ma il fatto che l’effetto sia stato osservato in vitro è piuttosto allarmante.

Sayes e i suoi colleghi di Baylor esaminano le particelle di microplastica nei campioni d’acqua raccolti dall’EPA e le particelle di plastica che fabbricano nel loro laboratorio per i loro effetti sulla tossicità delle cellule intestinali umane. Il loro sistema di test gut-on-a-chip incorpora le cellule epiteliali intestinali per studiare la vitalità cellulare, i macrofagi per l’assorbimento delle particelle e le cellule immunitarie per le risposte immunitarie. I ricercatori separano le particelle in base alle dimensioni: maggiori di 100 µm, da 1a100 µm e inferiori a 1 µm. Quindi espongono ogni gruppo al sistema gut-on-a-chip, nonché a tre ceppi di batteri che sono rilevanti dal punto di vista ambientale e fanno parte dell’intestino umano. In generale, le particelle  da 1 a 100 µm hanno ridotto la vitalità delle cellule epiteliali intestinali e diminuito la crescita dei tre ceppi di batteri, ma la crescita batterica è aumentata in presenza di particelle più grandi.

Clift e Wright stanno collaborando per studiare come le microplastiche inalate influiscono sulla salute umana. “Aerosolizziamo micro e nanoplastiche attraverso una camera aerosol e le depositiamo sulle nostre colture in vitro del polmone inferiore per iniziare a comprendere il loro potenziale rischio per la salute umana.”

Il gruppo di Wright produce particelle di microplastica macinando manualmente polveri di plastica congelate di poliammidi e polietilene. I ricercatori raccolgono anche campioni d’aria da ambienti interni, come la palestra della loro università, per comprendere meglio le esposizioni dell’ambiente. Wright ha presentato alcuni risultati preliminari di questo studio alla riunione annuale della Society of Toxicology. Il lavoro deve ancora essere pubblicato, ma Wright afferma di aver trovato alti livelli di microplastiche nei campioni prelevati nella palestra.

I gruppi di ricerca, utilizzando diverse tecniche spettroscopiche, hanno identificato la maggior parte delle particelle come poliammidi (fig. 3).

Figura 3. Metodi per la fabbricazione di micro e nanoplastiche da polimeri come polietilene e poliammide da utilizzare negli studi di tossicità. L’obiettivo è quello di creare particelle che siano più rappresentative di ciò che è nell’ambiente rispetto alle perle di polistirene.

I ricercatori stanno appena iniziando a condurre studi di tossicologia meccanicistica per capire come si comportano le particelle di microplastica nei sistemi cellulari. In definitiva, sperano che il lavoro venga utilizzato per sviluppare modelli che aiutino a progettare materiali più sicuri in futuro.

Cambiare i comportamenti

Secondo il prof. Andrew Maynard, direttore del Risk Innovation Lab (Arizona State University): “Quando i ricercatori capiscono come si comportano le particelle di microplastica nei sistemi cellulari, possono creare modelli di tossicità. Quando viene prodotto un nuovo tipo di plastica che rilascia un tipo leggermente diverso di microplastica, si possono inserire le sue caratteristiche nei nostri modelli e ottenere un profilo di rischio di quel nuovo materiale”.

Tuttavia, mentre scienziati e agenzie di finanziamento potrebbero entusiasmarsi per le microplastiche nei prossimi 2-3 anni e spendere miliardi di dollari per ricercare le implicazioni sulla salute, Maynard è preoccupato che tra 10 anni, nulla sarà cambiato e nessuno parlerà di esse. Questo è quello che è successo con i nanomateriali ingegnerizzati.

Contrariamente a Maynard, Colvin (Brown University) ritiene che la ricerca sulla nanotossicologia abbia avuto un impatto sull’industria delle nanotecnologie. Una volta che gli scienziati hanno sollevato le potenziali implicazioni ambientali, sanitarie e di sicurezza dei nanomateriali, l’industria ha rallentato e cambiato marcia per evitare conseguenze negative.

Dice invece Maynard che “C’è l’opportunità per ottenere un corretto dialogo questa volta, ma non sono ottimista sul fatto che le autorità di regolamentazione affronteranno tutte le proprietà rilevanti delle microplastiche. Una decina di anni fa stavamo discutendo sul fatto che dobbiamo guardare a ciò che è fisiologicamente importante, ma molte normative si basano ancora sulla ‘massa di materiale che finisce nell’ambiente o su ciò a cui gli individui sono esposti’. Un tale approccio non è basato sulla scienza, perché non ti dice nulla sui meccanismi di come queste cose causano danni. Ma è un modo molto, molto grezzo per mantenere le concentrazioni abbastanza basse da non vedere danni significativi o “sostanziali”.

La FDA USA ad esempio, stabilisce dei limiti alla massa totale di un polimero che può migrare dagli imballaggi alimentari. Tutti i campioni misurati dai ricercatori del NIST, comprese le tazze da caffè usa e getta, hanno rilasciato masse di particelle di plastica al di sotto dei limiti normativi della FDA. Ma le particelle erano di 30-100 nm, una dimensione che potrebbe avere effetti sulla salute che non derivano da particelle di diametro maggiore.

Le micro e nanoplastiche sono ovunque, dice Demokritou. “E le esposizioni aumenteranno perché abbiamo già 6 miliardi di tonnellate di plastica nell’ambiente che si sta costantemente degradando, e l’industria sta mettendo in circolazione oltre 400 milioni di tonnellate di plastica ogni anno. I finanziamenti per progetti per colmare le lacune nei dati sono scarsi. Dobbiamo davvero lanciare un consorzio di sicurezza per micro e nanoplastiche simile a quello che abbiamo fatto con i nanomateriali e riunire molti gruppi e scienziati per affrontare queste domande fondamentali”.

Sostiene Maynard: “Le agenzie dovrebbero finanziare la ricerca su come le forme specifiche di microplastiche portano a rischi specifici. Abbiamo bisogno di una ricerca meccanicistica che leghi forma, dimensione e chimica a ciò che entra nell’ambiente, dove va e cosa fa quando ci arriva”.

Nota. Adattato e tradotto da:     .

Bibliografia

[1] C.D. Zangmeister et al., Common Single-Use Consumer Plastic Products Release Trillions of Sub-100 nm Nanoparticles per Liter into Water during Normal Use.,Environ. Sci. Technol. 2022, 56, 5448–5455. DOI: 10.1021/acs.est.1c06768

[2] A. McCormick et al.., Microplastic is an Abundant and Distinct Microbial Habitat in an Urban River.,Environ. Sci. Technol. 2014, 48, 11863−11871.

[3] A. Dick Vertaak, H.A. Leslie, Plastic Debris Is a Human Health Issue., Environ. Sci. Technol. 2016, 50, 6825−6826.

[4] M. Al-Sid-Cheikh et al., Uptake, Whole-Body Distribution, and Depuration of Nanoplastics by the Scallop Pecten maximus at Environmentally Realistic Concentrations., Environ. Sci. Technol. 2018, 52, 14480−14486.

[5] C.A. Poland et al., Carbon nanotubes introduced into the abdominal cavity of mice show asbestoslike pathogenicity in a pilot study., Nature Nanotechnology, 2008, 3, 423-427

[6] Furong Tian et al., Investigating the role of shape on the biological impact of gold nanoparticles in vitro., Nanomedicine, 2015, 10, DOI: 10.2217/nnm.15.103.


[1] Per nanomateriale ingegnerizzato si intende un materiale prodotto intenzionalmente e caratterizzato da una o più dimensioni dell’ordine di 100 nm o inferiori, o che è composto di parti funzionali distinte, interne o in superficie, molte delle quali presentano una o più dimensioni nell’ordine di 100 nm o inferiori, compresi strutture, agglomerati o aggregati che possono avere dimensioni superiori all’ordine di 100 nm ma che presentano caratteristiche della scala nanometrica. (Regolamento UE n. 2015/2283)

Recensioni di un chimico/scrittore.

In evidenza

Claudio Della Volpe

I chimici scrittori sono parecchi; (d’altronde non isolati nel senso che abbiamo avuto un celeberrimo ingegnere scrittore, Carlo Emilio Gadda) la tradizione inaugurata da Levi in Italia è continuata solidamente con parecchi nomi illustri; abbiamo un giallista famoso Marco Malvaldi chimico-scrittore che è assurto agli onori della TV (la serie del Bar Lume è sua), ma abbiamo avuto anche Ettore Luzzatto, un ingegnere chimico, nome d’arte Edgar Luzzatto, morto nel 2011 e ancora Pietro Greco che a questo punto ci aprirebbe l’ampio campo dei chimici che hanno scritto in primis per motivi divulgativi fra i quali devo ricordare per dovere di blog: Vincenzo Balzani, Margherita Venturi e Rinaldo Cervellati, oltre ovviamente a Nicola Armaroli, direttore di Sapere, uno dei pochi chimici che ci mettano la faccia sui media, come si dice; e mi scuso se dimentico altri.

Il chimico a cui mi riferisco non è affatto uno sconosciuto ai più; ha per molti anni e con successo tenuto una rubrica su C&I, Specchio deformante; mi riferisco a Gianni Fochi che si è cimentato in entrambi i campi che dicevo prima: la letteratura vera e propria e la divulgazione scientifica.

Mi riferisco qui a due titoli recenti

LORAINE L’Anastasia del Titanic  

e più di recente Il Chimico Autodidatta, La via più facile per capire il difficile, un libro scritto a quattro mani con Stefano Casarosa, docente nel complesso liceale “Francesco Cecioni” di Livorno

. Entrambi autopubblicati.

In effetti Fochi ha già scritto vari testi di chimica fra i quali ricordo con piacere “La Chimica fa bene”, recensito da Anna Raspolli nel 2012 sul nostro blog; ma credo Lorraine sia il suo primo tentativo nella letteratura vera e propria. È pur vero che Fochi ha scritto un libro per ragazzi, Il chimico segreto, ma credo che quello rientri a giusta ragione nel novero dei libri divulgativi, anche se in forma di romanzo, un romanzo come si dice “di formazione”, dedicato ad un giovane ambientalista che scopre la bellezza della chimica, partendo da una avversione totale, idea non malvagia ed anche originale direi.

Loraine è una storia doppia, nel senso che si ricordano e rintracciano gli estremi di due storie simili; una è quella di Anastasia la presunta figlia dello Zar sopravvissuta all’eccidio della sua famiglia e l’altra Loraine Cooper presunta figlia del progettista del Titanic sopravvissuta all’affondamento.

Entrambe le storie sono vivacemente riassunte ed entrambe le storie chiamano in causa alla fine la scienza come mezzo di soluzione dell’enigma, le analisi del DNA, anche mitocondriale; in realtà ci sono vari punti in cui la scienza rientra, per esempio per chiarire la morte accidentale ma “strana” del vero figlio del progettista e dunque fratello della presunta Loraine; in qualche modo si tratta di un saggio che riproduce le due storie in forma estesa, senza aggiungervi fronzoli, ma approfondendone i vari aspetti.

L’altro libro invece è un testo di chimica di cui gli stessi autori dichiarano esplicitamente gli scopi: è rivolto ai giovani che pensano d’iscriversi a un corso di laurea chimico, e vogliono partire da una base culturale adeguata. E agli insegnanti che desiderano riflettere su ciò che devono insegnare. Infine a chi a scuola la chimica non l’ha capita, e ora intuisce che gli sfugge una parte importante della realtà.

Il libro è scritto in modo piano ed introduce sia aspetti della chimica generale che della chimica organica, dotato di un certo numero di esercizi basici con un elenco di soluzioni in fondo al testo.

Un volume scritto con caratteri  grandi ma comunque di ben 350 pagine, dunque un vero libro, un libro non tanto da leggere ma da studiare; per questo penso che il ruolo principale non sia tanto divulgativo ma di vera e propria preparazione del lettore; lo vedo meglio indicato per uno studente che si prepara ad un primo anno di corso universitario o che voglia approfondire quel che già studia in una scuola media superiore, meno agli adulti illetterati di chimica, a meno che non abbiano scopi precisi di apprendimento.

Gianni Fochi è certamente una risorsa per il nostro mondo, povero di divulgatori efficaci, ma proprio per questo mi permetto di auspicare che una serie di sue prese di posizione pubbliche su alcuni temi di rilevanza generale come il clima o la transizione energetica siano più approfondite; leggere che qualche giorno fa ha invitato sulla crisi energetica come esperto ad un dibattito tenutosi a Pisa un personaggio che considero totalmente ideologizzato su questi temi come Battaglia, sostenendo che smonta “luoghi comuni”, mi lascia perplesso.

Termino queste brevi recensioni ricordando che Gianni Fochi è anche pittore; una lista dei suoi dipinti con le illustrazioni è sulla pagina: http://www.fochi.altervista.org/QuadriNuovo.html

Dietro la siccità.

In evidenza

Luigi Campanella, già Presidente SCI

Il dramma della siccità -2 miliardi di persone entro il 2025 prive di risorse idriche- ha portato all’attenzione alcuni dati a dir poco scioccanti: ogni italiano consuma 419 l di acqua al giorno contro i 260 della media mondiale; altro dato:il 40% dell’acqua distribuita, in alcune regioni fino al 70%, non arriva a destinazione ma si perde nelle reti colabrodo. Tale situazione è dovuta in parte alla vecchia età degli impianti, ma in parte anche alle manomissioni per allacci abusivi. Sorge il dubbio che dietro questi dati ci sia una valutazione economica sbagliata indotta dai costi: in Italia l’acqua costa poco, solo 2 euro a metro cubo (0.2centesimi al litro), contro i 5 euro della Germania ed i 6 euro della Francia. La siccità però non fa sconti ed anche noi dobbiamo affrontare il problema delle risorse idriche che scarseggiano. È vero che siamo in buona compagnia e possiamo adeguarci con iniziative che tutti i Paesi del mondo sono costretti ad adottare: il Paese che più sembra avere capito che l’acqua è proprio l’oro blu e come tale va trattato e difeso è di certo Israele. Premesso che è difficile pensare da noi alla progettazione di un nuovo acquedotto, il primo romano, l’acqua Appia,  risale al III secolo a.C., è la tecnologia soprattutto legata a metodi chimici che viene in nostro soccorso. In particolare la desalinizzazione (evaporazione, distillazione, osmosi inversa) dell’acqua marina attraverso 17 mila impianti fornisce acqua a 300 milioni di persone. In Italia l’impianto più importante è quello di Sarroch (Cagliari) che produce 12mila metri cubi di acqua dolce al giorno con un investimento di 22 milioni di euro (il costo energetico dell’acqua desalinizzata è fra 2 e 4 kWh/m3). Un’altra opzione tecnologica è rappresentata dal recupero dell’acqua presente come umidità nell’aria: questa viene spinta da turbine eoliche verso uno scambiatore di calore dove viene raffreddata con condensazione del vapore acqueo. Un’’altra via di comportamento è rappresentata dal risparmio: doccia e non bagno, rubinetti aperti per lo stretto tempo necessario, recupero dell’acqua piovana, canalizzazione dei fiumi con l’utilizzo degli invasi, impianti goccia a goccia per l’agricoltura. Infine il riciclo: in Israele con le tecnologie di riciclo 1l di acqua vale 1,5 l. Numerosi brevetti e ricerche hanno messo a punto metodi di rimozione di inquinanti mediante assorbimento su fase solida, mediante separazione fra fasi, mediante flocculazioni dei solidi sospesi, mediante igienizzazione. Ovviamente i cambiamenti climatici inducono a pensare che andando avanti la situazione peggiorerà e saranno necessari investimenti crescenti.

L’anomalia umidità al suolo stimata via satellite dall’IRPI-CNR.

Il PNRR ha già messo a disposizione quasi 1 miliardo di euro che però, tenuto conto del ventennale ritardo accumulato, sono assolutamente insufficienti e tali da richiedere congrui adeguamenti. E qui torna in prima evidenza l’aspetto politico della questione: abbiamo fatto riferimento ad Israele, uno dei pochi Paesi schierato decisamente a favore del carattere completamente pubblico dell’acqua con conseguenti investimenti e regole. In Italia 10 anni fa il referendum (il primo Paese il nostro ad averlo adottato per l’acqua pubblica) ha superato lo scoglio del quorum; in più sedi sociali e politiche qualunque ipotesi di privatizzazione dell’acqua, magari strumentalmente giustificata dalla carenza di risorse, è stata decisamente scartata, ma l’attesa legge ancora non è arrivata. Una legge è necessaria perché il basso costo e consumi elevati potrebbero andare bene per altre situazioni ed altri prodotti industriali, non per l’acqua, preziosa risorsa naturale; che per altra via, quella delle acque imbottigliate, preferite dalla maggior parte degli italiani malgrado l’ottima qualitá delle nostre risorse idriche, rappresenta un business privato quantificabile in 220 litri di acqua imbottigliata consumata all’anno per cittadino, acquistata dalle ditte imbottigliatrici a frazioni di  centesimo a bottiglia dallo Stato e rivenduta a 20 centesimi la bottiglia con canoni al valore dello 0,79% dei costi. Questo modo particolare di gestire fonti pubbliche è diventata cultura sociale che va modificata attraverso uno sforzo informativo ed educativo. La legge dovrebbe anche evitare pericoli concreti quali la risalita dell’acqua del mare con conseguenze tragiche per l’irrigazione e la carenza idrica e anche come causa di una caduta del contributo idroelettrico alla produzione di energia.

Consigli di lettura per comprendere il presente.

In evidenza

Mauro Icardi

La fine del 2019 segna uno spartiacque, tra un passato che era percepito dalla maggioranza delle persone come un tempo felice e spensierato, rispetto ad un tempo presente che viene percepito come difficile, faticoso da vivere e soprattutto ingiusto. In questo tipo di giudizio assume una grande importanza l’abitudine. Credo che tutti siamo degli abitudinari, le abitudini riescono a darci un certo senso di sicurezza. La pandemia e la guerra in Ucraina hanno pesantemente minato le sicurezze di ognuno di noi. La prima reazione alla quarantena del 2020 è coincisa con uno slogan denso di speranze, ma a mio parere ingenuo: “Andrà tutto bene”. Purtroppo le cose non sono andate proprio come ci si aspettava, le speranze che si potesse tornare ad una normalità, che era in effetti una normalità distorta, piena di incongruenze e disuguaglianze, non si sono verificate. Ora stiamo facendo i conti con un conflitto che ci mette di fronte una realtà persino peggiore della pandemia. Ci è voluta una guerra per far riflettere quella che un tempo si definiva opinione pubblica, sull’importanza centrale del tema energetico. E nel frattempo, nascosto per molti mesi dalle cronache di guerra, un problema altrettanto importante come quello della siccità, legato al cambiamento climatico si sta manifestando in tutta la sua gravità.

Per comprendere appieno queste problematiche, ricordando la mia formazione personale, mi convinco ogni giorno di più che si debba essere preparati.  Conoscere i principi di base della termodinamica rappresenta uno strumento culturale imprescindibile.

Quindi ecco il mio primo consiglio di lettura: “Il secondo principio” di Marco Malvaldi, editrice il Mulino.

Il libro fa parte della collana “Formule per leggere il mondo”. Il libro è uscito nel 2021, sono 131 pagine di agevole lettura.

Leggere questo libro aiuta ad approcciare il mondo reale con razionalità. Raccontare la storia di chi la termodinamica l’ha creata, partendo dalla prima rudimentale macchina a vapore di Thomas Newcomen e via via introducendoci alle esperienze e riflessioni di James Watt, Sadi Carnot, Rudolf Clausius, William Gibbs. Ci sono le formule di base studiate a scuola, ma che probabilmente si sono dimenticate. Presi dall’abitudine negativa del consumismo, dimenticando che la terra non è un pozzo senza fondo, una cornucopia che ci elargisce cibo, materie prime in abbondanza per compiacere i nostri desideri. Comprendere tutto questo sarebbe un primo passo importante, fondamentale. Eviterebbe di dover leggere commenti sui social o sui giornali che per esempio vedono come soluzione al problema della mobilità privata la produzione di auto ad aria compressa, ovvero la realizzazione del moto perpetuo di primo grado.

A tutti coloro che magari in perfetta buona fede credono a queste cose, e per incoraggiare lo studio della termodinamica, anche se ormai già diplomati o laureati, dedico questo aforisma di Albert Einstein:

Una teoria è tanto più importante quanto maggiore è la semplicità delle sue premesse, tanto più sono diversi i tipi di cose che correla e quanto più esteso è il campo della sua applicabilità. Di qui, la profonda impressione che ho ricevuto dalla termodinamica classica. È la sola teoria fisica di contenuto universale di cui sono convinto che nell’ambito di applicabilità dei suoi concetti di base non verrà mai superata.”

Quando si affrontano temi ambientali, molto spesso risulta difficile utilizzare un linguaggio adatto a divulgare temi importanti, ma spesso rifiutati dalla maggioranza delle persone. Per questo ho voluto leggere un libro pubblicato nel 2017 dalla casa editrice Neri Pozza cioè “La grande cecità” di Amitav Gosh.

L’autore mentre lavorava ad un suo romanzo dal titolo “Il paese delle maree” si accorge dei cambiamenti di natura geologica che stanno avvenendo nel Bengala. In particolare il ritirarsi delle linee costiere, e la sempre maggiore contaminazione di acqua salina che si infiltra nelle terre coltivate. Il libro non è recente, in Italia è stato pubblicato nel 2017. Recente è invece la constatazione che l’acqua di mare sta risalendo lungo il letto del Po, mettendo a rischio l’utilizzo delle sue acque che diventano salmastre per l’uso irriguo, e potrebbero anche contaminare le falde acquifere destinate all’uso potabile. In questi giorni in cui si parla molto di siccità italiana, una delle frasi che più spesso sento pronunciare è “Mai visto niente di simile”. Amitav Ghosh che oltre ad essere uno scrittore è anche antropologo riflette su cosa ci impedisca di accettare la realtà di questi cambiamenti, e perché la letteratura non sempre riesca o voglia utilizzare il cambiamento climatico come argomento principale di un romanzo.

La prima risposta dell’autore a queste domande è che, la vita di oggi con la sua ricerca di regolarità ci impedisca di considerare plausibili gli scenari che per esempio l’IPPC, o nel caso italiano L’ENEA, hanno pubblicato. Tesi che condivido. L‘abitudine a considerare il benessere un diritto acquisito, distorce significativamente la capacità di percezione dell’impatto dei cambiamenti climatici nelle nostre vite e frena l’approccio ad un cambiamento di abitudini. Potrebbe sembrare che nei paesi più poveri vi sia una percezione maggiore, o un’abitudine maggiore alla resilienza. Ma non è esattamente così: nel 2015 durante un’alluvione che ha colpito Mumbai lo scrittore racconta le difficoltà ed i danni che le classi più agiate (politici e star di Bollywood) hanno dovuto subire. Questo perché era ritenuto uno status symbol avere la casa direttamente affacciata sulla spiaggia, con vista mare. Ma il ciclone che colpì la città non fece distinzioni. Costruire abitazioni in una città che sorge su due isole che in alcuni punti sono anche al di sotto del livello del mare non è una primaria regola di prudenza.

La seconda risposta, cioè perché il cambiamento climatico non sia nella maggior parte dei casi il tema centrale di un romanzo, va ricercata ugualmente nello stile di vita di chi ritiene che la propria vita non possa essere sconvolta da catastrofi, e da un pregiudizio ancora largamente diffuso. Cioè che la letteratura che prospetta scenari futuri plausibili, sia una letteratura minore meno degna di attenzione critica. Insomma un certo affettato disprezzo per la letteratura fantascientifica.

Personalmente io ho sempre apprezzato la letteratura di questo genere, in particolare la cosiddetta fantascienza sociologica, cioè quella che cerca di immaginare scenari di evoluzione della società umana. Esistono pregevoli romanzi e libri di questo genere di letteratura fantascientifica. Per esempio le raccolte di racconti di Primo Levi “Storie naturali”, e “Vizio di forma

Per quanto riguarda la letteratura non di genere, in Italia è uscito un romanzo che ha avuto come argomento narrativo il cambiamento climatico: “Qualcosa la fuori” di Bruno Arpaia.

Il romanzo pubblicato da Guanda nel 2016 racconta di un’Europa ormai devastata dai cambiamenti climatici, in cui solo alle latitudini della Scandinavia è possibile trovare territori adatti agli insediamenti umani. Il sud del continente è ormai diventato invivibile. Pianure screpolate, argini di fango secco, fiumi aridi, polvere giallastra, case e capannoni abbandonati. E proprio per la rimozione dei problemi, per la disattenzione e lentezza nel risolverli che inizia l’era dei migranti climatici. Il protagonista Livio Delmastro, anziano professore di neuroscienze, è uno di loro. Ha insegnato a Stanford, ha avuto una magnifica compagna, è diventato padre, ma alla fine è stato costretto a tornare in un’Italia quasi desertificata, sferzata da profondi sconvolgimenti sociali e politici, dalla corruzione, dagli scontri etnici, dalla violenza per le strade.

Una trama simile ricorre in un interessante volume della storica collana Urania. Il titolo è “La carovana” di Stephen Goldin. Il romanzo in originale è del 1975, in Italia è stato pubblicato nel 1979 nel volume 771 della collana omonima.

Anche qui ci sono dei migranti in fuga da una società ormai disgregata. Tra loro viene accolto il protagonista Peter Stone che è l’autore di un libro intitolato “Il collasso mondiale”. Libro che è stato molto venduto, molto criticato e di fatto completamente ignorato. Stone viaggia in un America dove il denaro non ha più valore, dove si è tornati al baratto, e lo fa sotto falso nome per paura di essere oggetto di ritorsioni e violenze proprio per aver scritto e previsto il collasso del sistema. Il romanzo è di facile lettura. Ma soprattutto sono interessanti i brani tratti dall’immaginario libro di Stone, che di fatto è l’altro protagonista del romanzo, che aprono come nota ogni capitolo. Questo è un piccolo estratto: “Stiamo diventando una società dell’io prima di tutto, in cui il bene dell’individuo spesso è in contrasto con il bene della società. E nella struttura di una civiltà che ha assoluto bisogno di una perfetta cooperazione tra i suoi vari elementi, questo può avere una sola, disastrosa conseguenza…” (da Il collasso mondiale di Peter Stone).

Come ho cercato di far capire, la lettura e la curiosità possono e devono essere una chiave di conoscenza a vari livelli per affrontare il nostro tempo incerto. Poi occorre rimboccarsi le maniche, sporcarsi le mani e iniziare non solo a lavorare sulle nostre abitudini individuali, ma anche sulle pressioni che possiamo fare sulla classe politica. La scienza ha già detto cosa doveva dire. Ma come si può vedere anche la letteratura nelle sue diverse accezioni lo ha fatto. Non è più tempo di indugi. Constatare che alcuni degli scenari previsti in libri di letteratura, confermano previsioni e scenari fatti dalla scienza sono alla fine una sorta di triste privilegio.  Se poi non seguono azioni concrete, se la maggior parte delle persone insiste nel negare i problemi climatici e ambientali. Le generazioni che si troveranno a vivere in un pianeta diverso da quello che abbiamo conosciuto noi, ci stanno già richiamando alle nostre responsabilità, rinfacciandoci il troppo tempo perso.

Vaccini e profitti: il covid-19 rimane con noi per difendere i brevetti.

In evidenza

Claudio Della Volpe

66.3% of the world population has received at least one dose of a COVID-19 vaccine.
12 billion doses have been administered globally, and 6.33 million are now administered each day.
Only 17.8% of people in low-income countries have received at least one dose.

https://ourworldindata.org/covid-vaccinations

La situazione attuale della pandemia e delle vaccinazioni è che mentre una buona parte del mondo occidentale é plurivaccinata, altri paesi in Africa, Sud America ed Asia è molto al di sotto del 25%; l’Africa in particolare è attorno al 10% della popolazione vaccinata.

https://lab24.ilsole24ore.com/vaccinazioni-mondo/#

Questa costituisce una sconfitta secca nei confronti della pandemia virale in quanto le persone non vaccinate sono un enorme serbatoio in cui incubano versioni nuove del COVID-19 che rimarranno con noi per molti anni trasformando la pandemia in problema perpetuo, una epidemia. E questa è GIA’ verosimilmente la situazione.

La pandemia non è finita e siamo alla mercé di omicron; potrebbe andarci bene o meno bene, ma non siamo in grado di fermarlo. Nel mentre gli introiti dei vaccini hanno superato i 26 miliardi di dollari fino a dicembre scorso (di cui il 70% profitti) e si avvicina il nuovo vaccino anti-omicron.

Come siamo arrivati a questa sconfitta?

Ci siamo arrivati certamente per la povertà di molti paesi e per la loro mancanza di un robusto sistema sanitario (che però dipende essenzialmente dal loro basso reddito, anche se dobbiamo dire che molti paesi ricchi mancano di un buon sistema sanitario pubblico, in primis gli USA, mentre la povera ed isolata Cuba ha sviluppato un vaccino da sola, cosa che noi italiani non siamo stati capaci di fare) ma prima di tutto ci siamo arrivati per la difesa a spada tratta da parte dei paesi ricchi dei privilegi brevettuali DEI LORO RICCHI PRODUTTORI DI FARMACI, spesso aiutati dai loro stati.

Un paio di settimane fa, mascherata dal clamore mediatico sulla guerra si è avuta una riunione cruciale della WTO, Organizzazione mondiale del commercio, l’organizzazione che controlla le regole del mercato globale e che dunque è la difesa del sistema capitalistico cosiddetto del “libero mercato”; la riunione era dedicata al problema di allentare le regole sui brevetti vaccinali.(leggete qua)

In questa riunione tenutasi a Ginevra, e dopo 2 anni di defatiganti discussioni, cosa si è concluso?

Difficile trovare sintesi sulla stampa italiana, qualcosa qui.

La riunione si era conclusa ufficialmente due giorni prima, dunque ci sono voluti i tempi supplementari per trovare una sorta di compromesso su vari temi: sicurezza alimentare, pesca e dazi moratori sui download oltre che vaccini.

La decisione sui vaccini corrisponde ad una revoca temporanea sui brevetti a vantaggio dei paesi poveri ed è limitata per molti aspetti pratici.

Anzitutto la risposta arriva troppo tardi e non è tale da poter migliorare per migliorare i risultati sanitari dei paesi in via di sviluppo contro il COVID-19.

La deroga non si applica alla produzione di test e trattamenti COVID-19 e il suo mandato non copre i segreti commerciali della produzione dei vaccini.

La dottoressa Patricia Ranald, convocatrice dell’Australian Fair Trade and Investment Network, ha affermato che l’accordo potrebbe non soddisfare le esigenze dei paesi in via di sviluppo. “Siamo rimasti delusi dall’accordo finale perché è un notevole indebolimento della deroga temporanea originale, proposta da India e Sud Africa“, ha detto. “La nostra preoccupazione è che questo non consentirà l’effettiva produzione di più vaccini e trattamenti e avremo ancora una situazione in cui la maggior parte dei paesi a basso reddito ha tassi molto bassi di vaccinazione… che prolungherà la pandemia“.

La proposta iniziale è venuta da India e Sud Africa e le resistenze maggiori da paesi come Svizzera e Inghilterra che detengono molti brevetti farmaceutici.

(Noto di passaggio che questa divisione riproduce anche quella sulla guerra in Ucraina a dimostrazione del fatto che il mondo è attraversato da profonde ed evidenti spaccature sociopolitiche)

Lo scontro era iniziato dal principio della pandemia ed era stato portato avanti dai “bricks” ossia i paesi cosidetti in via di sviluppo, capitalismi più piccoli ma robusti di varie zone del mondo, per esempio dal Brasile come racconta il premio Nobel Joseph Stglitz in un articolo tradotto anche in italiano su Internazionale di dicembre, ma che potete trovare in inglese qui. Si trattava di riconoscere che già l’articolo 73  dell’accordo TRIPS consente questo uso in deroga, ma la cosa non è passata; il governo Bolsonaro (quello che sta finendo di distruggere la foresta amazzonica) la ha bloccata usando i propri diritti di veto.

Dice Stiglitz: il senatore Paulo Paim ha presentato una proposta di legge che permetterebbe al paese di aggirare il Trips. La proposta si fonda sull’idea che l’articolo 73 dell’accordo fornisca a ogni governo l’autorità necessaria per sospendere i diritti di proprietà intellettuale. Se quest’opzione è già disponibile, perché tanti paesi aspettano ancora l’autorizzazione della Wto? La risposta è che, fin dalla creazione dell’organizzazione, i paesi ricchi hanno punito quelli in via di sviluppo quando hanno provato a prendere l’iniziativa su questioni del genere. Quando negli anni scorsi Sudafrica, Brasile, India e Thailandia hanno cercato di scavalcare i monopoli che rendevano troppo costosi i farmaci antiretrovirali contro l’Hiv , gli Stati Uniti e l’Unione europea si sono opposti e in alcuni casi li hanno perfino portati in tribunale.

Il nostro governo non ha fatto che seguire l’andazzo, d’altronde abbiamo un presidente del consiglio che è stato capo della banca europea e dunque uno dei rappresentanti di questo mondo di ricchi commercianti profittevoli e ultravaccinati.

Il papa aveva già espresso parere contrario, “abbandonare i nostri individualismi e promuovere il bene comune“. Il Pontefice riteneva necessario “uno spirito di giustizia che ci mobiliti per assicurare l’accesso universale al vaccino e la sospensione temporanea dei diritti di proprietà intellettuale“. Parole dette in un videomessaggio ai giovani partecipanti al “Vax Live”.

Il massimo è stato un compromesso striminzito, fuori tempo massimo e ormai poco utile; vediamo cosa succederà, ma ripeto il COVID19 è qui per restare come endemico, non ce ne libereremo mai più mentre i profitti delle grandi farmaceutiche (sempre ben supportate dai nostri stati, che potrebbero invece fare da soli) aumenteranno. Voi che ne dite?

La rivoluzione culturale: ecologica e sociale

In evidenza

Vincenzo Balzani

(già pubblicato su Bo7 del 19 giugno 2022)

La nostra epoca è caratterizzata da due insostenibilità: ecologica, come mostrato, ad esempio, dal cambiamento climatico, e sociale, testimoniata dalle sempre crescenti disuguaglianze. Possiamo e dobbiamo porvi rimedio.

Papa Francesco, nell’enciclica Laudato si’, ci esorta a compiere una rivoluzione culturale che ci porti a custodire il pianeta. La principale causa dell’insostenibilità ecologica è l’uso dei combustibili fossili. È necessario, dunque, ricorrere a fonti energetiche alternative, le energie rinnovabili del Sole (fotovoltaica), del vento (eolica) e dell’acqua (idroelettrica) che, senza generare inquinamento e senza causare cambiamento climatico, forniscono elettricità, una forma di energia molto più pregiata del calore prodotto dai combustibili fossili. Le energie rinnovabili non sono solo la risposta alla crisi climatica, ma anche la chiave per combattere la povertà energetica. Come denunciato proprio su Avvenire dal direttore del Centro studi Power Shift Africa, alcune nazioni sviluppate, soprattutto Italia e Germania, anziché sostenere l’Africa nello sviluppo delle energie rinnovabili, spingono molti Paesi africani a riversare le loro limitate riserve finanziarie nello sviluppo di un’industria di estrazione dei combustibili fossili.

In natura, le energie fornite dal Sole, dal vento e dall’acqua sono molto abbondanti, ma per convertirle in elettricità servono apparecchiature (pannelli fotovoltaici, pale eoliche, dighe, ecc.) che dobbiamo costruire partendo dalle risorse materiali che ci fornisce la Terra. La quantità di questi materiali è però limitata, per cui dobbiamo utilizzarli con la massima efficienza e riciclarli. Per questa ed altre ragioni è necessario abbandonare l’economia lineare dell’usa e getta, alimentata dai combustibili fossili, e adottare un’economia circolare che utilizza le energie rinnovabili e che è basata su riuso, riparazione e riciclo di tutto quello che produciamo. Parallelamente, dobbiamo abbandonare il consumismo e vivere in modo più sobrio.

C’è poi un altro problema. Le limitate risorse materiali necessarie per convertire in energia elettrica le energie del Sole, del vento e dell’acqua non sono equamente distribuite sulla Terra. Ad esempio, alcuni elementi chimici fondamentali, come il Litio per le batterie e il Neodimio per le pale eoliche, non si trovano né in Italia né in Europa, ma prevalentemente in Cile, il primo, e in Cina, il secondo. Alla scarsità di una risorsa importante un Paese può far fronte in due modi: con la guerra, come spesso è accaduto in passato per il petrolio, o con accordi di collaborazione e scambi commerciali. Le nazioni continueranno ad essere così incoscienti da fare guerre per conquistare le risorse che non hanno, o finalmente capiranno che ogni guerra è una sconfitta per l’umanità intera?

Ecco allora l’altro aspetto della necessaria rivoluzione culturale, indicato da papa Francesco nell’enciclica Fratelli tutti: promuovere un’aspirazione mondiale alla fraternità e all’amicizia sociale per costruire un mondo migliore, a partire dalla comune appartenenza alla famiglia umana e dal riconoscerci fratelli perché figli di un unico Creatore.

Ridurre la sperimentazione animale.

In evidenza

Luigi Campanella, già Presidente SCI.

La mia contrarietà alla sperimentazione animale è storica, ma mai sostenuta solo per principio preso. Per questo sono attento a quanto attorno ad essa succede

La proroga alla moratoria sulla legge 2014 sulla sperimentazione animale scadrà a giugno, a meno che non venga, come già avvenuto, prorogata. Peraltro questa ipotesi è sostenuta dall’osservazione che l’Italia è l’unico Paese che ha modificato in senso restrittivo quanto suggerito dalla Commissione Europea elaborando divieti aggiuntivi all’uso di questa sperimentazione nella ricerca sugli xenotrapianti e sulle sostanze di abuso.

Questo atteggiamento è costato all’Italia un richiamo e sanzioni pecuniarie. L’ultima proroga di moratoria – di fatto l’unico provvedimento adottato dai Governi che si sono succeduti dal 2014 ad oggi – è del 2021 con il decreto legge milleproroghe che ha prorogato di 1 anno l’applicazione delle 2 restrizioni suddette. Questa moratoria contrasta con il fatto che sia il Min.ro della Salute sia il Comitato per la biosicurezza, le biotecnologie e le scienze della vita della Presidenza del Consiglio si sono espressi contro questi divieti ed abbiano chiesto una congrua dilatazione nel tempo della moratoria ed un adeguamento alle regole europee, rispettando i principi etici stabiliti dai codici internazionali come elementi di valori di una società basata sulla conoscenza.

La ricerca nel frattempo cerca di rispettare le raccomandazioni UE della Direttiva 3R sulla sperimentazione animale: ridurre, sostituire, rimodulare.

In particolare per rispondere alle problematiche etiche si tenta di spostare la sperimentazione verso specie meno senzienti cioè a più basso sviluppo cognitivo, in particolare invertebrati. L’Unione Zoologi Italiani insieme a Research4Life, il consorzio nato nel 2015 per dare voce sul tema della sperimentazione animale ai ricercatori biomedici, in un webinar ad hoc hanno in questa direzione illustrato l’utilizzo in ricerca di vermi, moscerini, zanzare, mitili e sanguisughe che potrebbe tornare utile non solo rispetto alla raccomandazione 3R, ma anche in genetica ed in medicina delle malattie rare. Nel webinar peraltro si è parlato di una ricaduta della nuova linea sulla riduzione del ricorso a vertebrati in sperimentazione animale tagliandola almeno del 10%. Questo approccio è una risposta diretta alla legge 63 del 2010 che prevede la sostituzione parziale o totale della sperimentazione animale in tutti i casi nei quali si può ricorrere ad alternative. Gli zoologi osservano che il principio è sano, ma deve essere applicato razionalmente: infatti non tutti gli invertebrati sono utilizzabili e soprattutto non tutti sono meno senzienti, portando l’esempio dei cefalopodi, a partire dai polpi, specie tutelate.

Il polpo Paul durante i mondiali del 2010.

Se si guarda alla bibliografia scientifica si trova così che i polpi hanno un numero di cellule di 6 volte superiore a quello dei topi e 350 milioni di neuroni nei loro tentacoli che rappresentano il loro sistema nervoso periferico. Negli USA per merito dell’Animals Act è stata regolata la sperimentazione animale rispetto al dolore o stress che può indurre nell’animale concludendo che i vertebrati da questo punto di vista devono essere considerati da proteggere e che il polipo è l’unico invertebrato a meritare di entrare in questa fascia protetta.

Come si vede la problematica è in continua evoluzione alla ricerca di un equilibrio non facile da conseguire fra diritti degli animali e sperimentazione per il progresso biomedico. Mi permetto di ricordare ancora una volta da chimico che quando fu pubblicata la direttiva 3R, le linee guida raccomandavano alla chimica di mettere a punto metodi alternativi che consentissero di rispettare la Direttiva 3R, ma al tempo stesso di mettere a disposizione della Scienza strumenti preziosi per l’avanzamento della ricerca biomedica, ambientale, alimentare

Le creme solari distruggono i coralli

In evidenza

Rinaldo Cervellati

La barriera corallina è una formazione tipica dei mari e oceani tropicali, composta da formazioni rocciose sottomarine biogeniche costituite e accresciute dalla sedimentazione degli scheletri calcarei dei coralli, animali polipoidi facenti parte della classe Anthozoa, phylum Cnidaria. Per questo le barriere sono uno degli organismi più importanti per la biodiversità.

L’ossibenzone, un ingrediente attivo comune nelle creme solari, è noto per danneggiare le barriere coralline. La tossicità segnalata delle creme solari a base di ossibenzone per i coralli ha sollevato preoccupazioni circa l’impatto di questi prodotti, ampiamente usati dagli “eco” turisti, sui coralli già indeboliti da fattori globali di stress. Per questo alcuni Paesi e gli USA hanno vietato ai nuotatori di utilizzare creme solari che lo contengano. Circa l’11% delle creme solari contiene ossibenzone, un bloccante della radiazione ultravioletta UVA e UVB, secondo un rapporto del 2017 della Food and Drug Administration.

Un gruppo di ricercatori, guidato da William Mitch della Stanford University (fig. 1), ha chiarito il meccanismo dell’azione sui coralli.

Figura 1. Prof. William Mitch

I coralli metabolizzano l’ossibenzone per generare un composto tossico per gli organismi sotto l’azione dei raggi solari. Il gruppo ha studiato in dettaglio gli effetti dell’esposizione all’ossibenzone su due organismi modello della famiglia dei coralli: un anemone di mare e un corallo fungo [1]. Quotidianamente, il gruppo ha aggiunto ossibenzone in vasche di acqua di mare simulata, a livelli vicini a quelli di alcune zone della barriera corallina. Dopo 17 giorni, tutti gli anemoni di mare erano morti. Hanno scoperto che gli animali metabolizzano l’ossibenzone in coniugati glucosidici fototossici (fig.2)

Figura 2. Ossibenzone e suo glucoside

L’ossibenzone agisce assorbendo la radiazione UV, rilasciandone poi l’energia sotto forma di calore. Questa capacità è dovuta al gruppo OH sull’ossibenzone, spiega Djordje Vuckovic, dottore di ricerca nel laboratorio di Mitch. Una volta nello stato di alta energia, il gruppo OH è in grado di allontanare l’energia. Ma questo non è più possibile una volta che i coralli metabolizzano l’ossibenzone, continua Vuckovic. Il composto reagisce attraverso una reazione di glicosilazione, in cui l’OH viene deprotonato e una molecola di glucosio si aggiunge all’O-. Il nuovo coniugato ossibenzone glucoside può ancora assorbire la luce, ma non ha modo di rilasciare l’energia sotto forma di calore. Invece, il composto eccitato forma specie reattive dell’ossigeno. Ciò innesca una reazione radicalica, che causa danni alle cellule o ai tessuti. I coralli sostanzialmente convertono l’ossibenzone di una crema solare in ciò che è essenzialmente l’opposto, cioè una fototossina.

L’effetto visivo più evidente è la variazione di colore del corallo: da quello naturale a bianco (fig.3).

Figura 3. Corallo sbiancato al largo dell’isola di Huahine, Polinesia francese. Credit: Shutterstock

I risultati dello studio suggeriscono anche che i coralli che si sono sbiancati sono ancora più vulnerabili all’ossibenzone, afferma Vuckovic. Lo sbiancamento si verifica quando i coralli rispondono a stress come l’aumento delle temperature oceaniche, espellendo le alghe simbiotiche che vivono nelle loro cellule, e sono una delle principali fonti di cibo ed energia per i coralli. Questo esodo di alghe li fa diventare bianchi. Negli esperimenti del gruppo, gli anemoni di mare sbiancati sono morti circa 5 volte più velocemente di quelli sani. Il gruppo ha scoperto che le alghe simbiotiche degli anemoni assorbono i coniugati dell’ossibenzone glucoside, sequestrando la fototossina lontano dalle cellule degli animali quindi proteggendole.

Craig Downs, un biologo cellulare e molecolare che dirige l’Haereticus Environmental Laboratory, un laboratorio senza scopo di lucro, afferma che lo studio mette in evidenza la relazione tra inquinamento e cambiamento climatico: “L’inquinamento da creme solari può interagire con i fattori del cambiamento climatico per ridurre la resilienza delle barriere coralline”.

L’ossibenzone non dovrebbe essere presente nei filtri solari sicuri per i coralli o per la barriera corallina. Anche gli ingredienti della creme solari con strutture e meccanismi d’azione simili, come avobenzone, octisalato e octocrilene, possono danneggiare i coralli, ma sono necessarie ulteriori ricerche.

Bibliografia

[1] D. Vuckovic et al., Conversion of oxybenzone sunscreen to phototoxic glucoside conjugates by sea anemones and corals., Science2022, 376 (6593), 644-648, DOI: 10.1126/science.abn2600


Questo post è stato tradotto e adattato da: Leigh K. Boerner, Sunscreen chemical kills corals—now scientists know why, May 9, 2022 C&EN

Molecole ibride RNA–proteine alla base delle origini della vita sulla Terra.

In evidenza

Diego Tesauro

Il concetto di mondo a RNA, formulato nel 1986 dal premio Nobel William Gilbert [1], è uno dei pilastri fondamentali accettati dagli scienziati all’origine della teoria della vita. Le prime ipotesi si basavano quindi su sistemi autoreplicanti che fossero costituiti da RNA, che portavano l’informazione, e proteine, che fornivano tutte le attività enzimatiche necessarie a fare copie di RNA e riprodurre loro stessi. Dalla metà degli anni ottanta sembra possibile che sia le proprietà relative all’informazione che catalitiche di questi due costituenti possono essere combinate in un’unica specie molecolare [1]. Infatti nel 1986 Westheimer descrisse la scoperta di attività enzimatiche in molecole di RNA di Escherichia coli, in cui la ribonucleasi-P taglia i legami fosfodiesterei durante la maturazione dell’RNA trasfer (t-RNA) [2].

E se c’è un’attività enzimatica, ce ne possono essere anche altre, per cui si può catalizzare la sintesi di un nuovo RNA da precursori; di conseguenza, non ci sarebbe bisogno di proteine enzimatiche all’inizio dell’evoluzione. A questo punto uno degli enigmi più misteriosi dell’evoluzione è come questo mondo dell’RNA sia poi avanzato allo stadio successivo, in cui le proteine ​​​​sono diventate i catalizzatori della vita e l’RNA ha ridotto la sua funzione principalmente alla memorizzazione di informazioni. Un processo centrale nella vita cellulare e tra i più antichi processi evolutivi, che risale all’ipotetico mondo dell’RNA, è la sintesi dei peptidi in cui l’RNA ribosomiale (r-RNA) ne catalizza la formazione con l’aiuto dei t-RNA,che funzionano come molecole di trasporto di amminoacidi. La domanda su come e quando l’RNA abbia istruito la sintesi dei peptidi è una delle grandi sfide irrisolte nella ricerca evolutiva prebiotica. L’immensa complessità della traslazione ribosomiale richiede un processo evolutivo graduale. Dal punto di vista del mondo dell’RNA, a un certo punto l’RNA deve aver acquisito la capacità di istruire e catalizzare la sintesi, inizialmente, solo di piccoli peptidi. Ciò ha avviato la transizione da un mondo a RNA puro a un mondo a RNA-peptidi, ottenendo nell’evoluzione una maggiore efficienza nella traduzione e nella replicazione. Recentemente per ottenere informazioni sui processi iniziali, che potrebbero aver consentito l’emergere di un mondo RNA-peptide, sono stati indagati nucleosidi vestigia non canonici presenti in natura, componenti chiave degli RNA contemporanei, (se ne conoscono ben 120 alcuni esempi sono riportati in Figura 1 [3]) che sembrano essere il residuo del mondo a RNA [4]. Queste specie sono in grado di dotare l’RNA della capacità di auto-funzionalizzarsi con peptidi formando strutture chimeriche.

Il gruppo di Thomas Caroll ha sintetizzato una molecola di RNA sintetica che includeva due di questi nucleosidi modificati unendo due pezzi di RNA che si trovano comunemente nelle cellule viventi [5]. Nel primo dei siti esotici, la molecola sintetica lega un amminoacido, che poi si sposta lateralmente per legarsi con il secondo nucleoside esotico adiacente. Dopo aver separato i loro filamenti di RNA originali può essere introdotto uno nuovo, contenente un altro aminoacido che è nella posizione appropriata per formare un forte legame covalente con l’amminoacido precedentemente attaccato al secondo filamento. Il processo reiterato passo dopo passo, ha permesso di far crescere una sequenza amminoacidica ottenendo una chimera RNA-peptide.  In queste molecole entrambe le entità chimiche possono co-evolvere in una forma covalentemente connessa, generando strutture RNA-peptidi gradualmente sempre più sofisticate e complesse.  

Sebbene, sia stata osservato l’accoppiamento peptidico sull’RNA con buone rese, l’efficienza migliorerà sicuramente con l’ottimizzazione delle strutture e delle sequenze degli RNA-peptidi mediante l’evoluzione chimica. La presenza simultanea delle funzionalità chimiche dell’RNA e degli amminoacidi aumenta sicuramente la possibilità di generare strutture cataliticamente in competizione. Ad esempio la stabilizzazione dell’RNA mediante incorporazione di nucleotidi metilati in posizione 2 (Figura 2) ha migliorato significativamente la resa di scissione. È interessante notare che nella fase di accoppiamento sono state osservate grandi differenze nelle costanti di velocità di reazione, il che suggerisce che il sistema ha il potenziale per generare preferenzialmente determinati peptidi. Inoltre i peptidi possono crescere simultaneamente in più siti sull’RNA, sulla base di regole determinate dalla complementarità della sequenza, il che è  requisito indispensabile per una crescita efficiente dei peptidi. Tutti questi dati insieme supportano l’idea che i nucleosidi vestigia non canonici nell’RNA hanno il potenziale per creare chimere relativamente stabili, per cui è ipotizzabile che, alcune di queste strutture, abbiano imparato, ad un certo punto, ad attivare gli amminoacidi mediante adenilazione[6] e a trasferirli sui gruppi ossidrilici del ribosio per catturare la reattività in strutture che erano grandi e abbastanza idrofobe da escludere l’acqua. Questa sarebbe stata quindi la transizione dal mondo a RNA-peptide non canonico basato su nucleosidi al processo traslazionale centrato sul ribosoma che è un segno distintivo di tutta la vita sulla Terra oggi.

Figura 1 Esempi di basi non canoniche dell’RNA. Dall’alto verso il basso: modifiche da Adenina (blu scuro), modifiche da Citosina (blu medio), modifiche da Guanina (azzurro), modifiche da Uracile (verde scuro), basi puriniche ipermodificate (verde chiaro) , e basi pirimidiniche (uridina) ipermodificate (gialle)

Figura 2 Nucleotide metilato in posizione 2

Figura 3  Carell e collaboratori sono stati ispirati dai ribosomi qui mostrati nella traduzione dell’RNA  (Omikron/Science Photo Library)

References

  1. W. Gilbert Origin of life: the RNA world. Nature 1986, 319, 618 https://doi.org/10.1038/319618a0.

2) 3) F H Westheimer Polyribonucleic acids as enzymes. Nature 1986, 319(6054), 534-535.  https://doi.org/10.1038/319534a0.

3) T. Carell, C. Brandmayr, A. Hienzsch, M. Müller, D. Pearson, V. Reiter, I. Thoma, P. Thumbs, M. Wagner Structure and function of noncanonical nucleobases Angew Chem 2012, 51(29), 7110-7131 https://doi.org/10.1002/anie.201201193.

4) S. Becker, C. Schneider, A. Crisp, T. Carell Non-canonical nucleosides and chemistry of the emergence of life. Nat Commun 2018, 95174 (1-4) https://doi.org/10.1038/s41467-018-07222-w

5) F. Müller, L. Escobar, F. Xu, E. Węgrzyn, M. Nainytė, T. Amatov, C.Y. Chan, A. Pichler, T. Carell A prebiotically plausible scenario of an RNA–peptide world.Nature 2022, 605, 279–28 https://doi.org/10.1038/s41586-022-04676-3.

6) L’adenilazione è un processo con il quale l’ATP fornisce energia ad un processo biochimico. Questo processo consiste in un attacco nucleofilo in posizione α con rimozione di un gruppo pirofosfato (che successivamente viene scisso in due gruppi fosfato) e trasferimento di adenilato.

L’infinitene è aromatico?

In evidenza

Rinaldo Cervellati

Nel dicembre 2021 appare sul JACS on line la sintesi di un poliarene a forma di infinito comprendente anelli di 12-benzene fusi consecutivamente formando un anello chiuso con un’energia di deformazione di 60,2 kcal·mol–1, chiamato infinitene dal gruppo di ricerca coordinato da H. Ito e K. Itami dell’Università di Nagoya (Giappone) [1].

Hideto Ito e Kenichiro Itami

L’infinitene (fig. 1) rappresenta un topoisomero[1] del [12]circulene ancora ipotetico, e la sua struttura può essere formalmente visualizzata come il risultato della “cucitura” di due subunità omochirali [6]elicene da entrambe le loro estremità.

Figura 1. Struttura infinitene

La sintesi ha compreso la trasformazione di un ditiaciclofano in ciclofadiene attraverso il riarrangiamento di Stevens[2] e la pirolisi del corrispondente S,S′-bis(ossido) seguito da fotociclizzazione. La struttura in figura 1 è un ibrido unico di elicene e circulene[3] con una formula molecolare di C48H24, che può essere considerato un isomero di kekulene, e [12]ciclacene.

L’infinitene è un solido giallo stabile con fluorescenza verde, solubile in comuni solventi organici. La sua struttura molecolare a forma di otto è stata confermata inequivocabilmente dalla cristallografia a raggi X (fig. 2).

Figura 2. Schema del twist dell’infinitene (C48H24)

L’impalcatura dell’infinitene è compressa con una distanza notevolmente ridotta (3,152–3,192 Å) tra i centroidi dei due anelli benzenici centrali e con distanza C···C più vicina di 2,920 Å. Le proprietà fotofisiche della molecola sono state chiarite mediante studi spettroscopici di assorbimento UV-vis e fluorescenza e da calcoli teorici in base alla teoria del funzionale densità [1].

Il gruppo dell’Università di Nagoya ha inoltre calcolato che l’aromaticità è confinata ai singoli anelli piuttosto che diffusa sull’intera molecola.

I lettori di C&EN hanno votato l’infinitene “Molecola dell’anno 2021”[4].

Tuttavia, la struttura della nuova molecola è piuttosto una sfida per il calcolo dell’aromaticità, la sua forma contorta significa che le semplici regole di conteggio degli elettroni come quelle di Hückel o di Möbius non sono valide.

Pertanto Mesías Orozco-Ic, Rashid R. Valiev e Dage Sundholm, della Facoltà di Scienza, University of Helsinki (Finlandia), hanno deciso di eseguire una propria analisi teorica. Il gruppo di ricerca ha utilizzato un pacchetto software di chimica quantistica, Turbomole[5], per simulare la risposta dell’infinitene a un campo magnetico esterno. I loro calcoli indicano che in un campo magnetico, gli elettroni delocalizzati fluirebbero lungo i due bordi della molecola in due percorsi non intersecanti, una caratteristica delle molecole aromatiche [2].

Man mano che i chimici sintetizzano strutture più contorte, questo tipo di calcoli potrebbe scoprire molecole aromatiche che non obbediscono alle semplici regole di conteggio degli elettroni.

Bibliografia

[1] Maciej Krzeszewski, Hideto Ito, Kenichiro Itami, Infinitene: A Helically Twisted Figure-Eight [12]Circulene Topoisomer., J. Am. Chem. Soc. 2022, 144, 862–871. DOI: 10.1021/jacs.1c10807

[2] M. Orozco-Ic, R. R. Valiev, D. Sundholm, Non-intersecting ring currents in [12]infinitene., Phys. Chem. Chem. Phys., 2022, 24, 6404-6409. (open access)


[1] I topoisomeri o isomeri topologici sono molecole con la stessa formula chimica e connessioni di legame stereochimico ma topologie diverse. Esempi di molecole per le quali esistono topoisomeri includono il DNA, che può formare nodi, e i catenani.

[2] Il riarrangiamento di Stevens in chimica organica è una reazione organica che converte i sali di solfonio nei corrispondenti solfuri in presenza di una base forte in un riarrangiamento 1,2 .

[3] I circuleni sono macrocicli in cui un poligono centrale è circondato da benzenoidi. La nomenclatura all’interno di questa classe di molecole si basa sul numero di anelli benzenici che circondano il nucleo, che è equivalente alla dimensione del poligono centrale. Esempi che sono stati sintetizzati includono [5]circulene (corannulene), [6]circulene (coronene), [7]circulene, e [12]circulene (kekulene). Con il termine eliceni si indicano dei composti aromatici policiclici  nei quali alcuni anelli benzenici sono disposti i maniera angolata, dando luogo ad una struttura molecolare di forma elicoidale.

[4] Laura Howes, Infinitene might be aromatic. Chem. & Eng. News, April 7, 2022

[5] TURBOMOLE è un programma di chimica computazionale ab initio che implementa vari metodi di chimica quantistica.

La rivoluzione culturale: tutti fratelli

In evidenza

Vincenzo Balzani

(pubblicato su Bo7 di Avvenire)

Il mondo è malato a causa del cattivo rapporto fra la società umana e il pianeta che la ospita e ancor più a causa delle discordie all’interno della società umana. Stiamo scivolando sempre di più verso l’insostenibilità ecologica e sociale. Lo dicono sia gli scienziati che i filosofi e lo riafferma papa Francesco nella Laudato sì: Le previsioni catastrofiche ormai non si possono più guardare con disprezzo e ironia. Lo stile di vita attuale, essendo insostenibile, può sfociare solo in catastrofi. Ecco allora che, come scrive il papa “E’ necessaria una coraggiosa rivoluzione culturale”.

Da parecchi anni nella società umana domina il mito della crescita continua e permanente. Un mito assurdo che porta a considerare il nostro pianeta soltanto come un fornitore di risorse, senza limiti. Il pianeta, in realtà, è un sistema con risorse limitate, costituite da elementi chimici e loro composti, alcuni relativamente abbondanti, altri scarsi. Per di più, le risorse sono distribuite sul pianeta in modo disomogeneo, per cui è in atto una forte competizione sia fra le persone che fra le nazioni per impadronirsene. Le indagini dell’agenzia internazionale Oxfam attestano che la forbice della disuguaglianza tra i ricchi e i poveri, sia a livello delle persone che delle nazioni, continua ad allargarsi senza freno. Ne deriva che, come ha scritto papa Francesco nella già citata Laudato sì, «Non ci sono due crisi separate, una ambientale e un’altra sociale, bensì una sola e complessa crisi socio-ambientale che va affrontata con una visione unitaria dei problemi ecologici ed economici”.

Nella più recente enciclica Fratelli, tutti papa Francesco spiega che la rivoluzione culturale necessaria per giungere alla sostenibilità ecologica e sociale non può compiersi mediante qualche parziale modifica del rapporto uomo-pianeta o delle relazioni fra le nazioni. Si tratta, invece, di cambiare radicalmente la base su cui poggiano le nostre culture: bisogna accettare e valutare positivamente le diversità, ammettere i propri limiti e riconoscere che siamo tutti figli di Dio, fratelli che nascono, vivono e muoiono nella stessa casa comune, il pianeta Terra. In altre parole, la necessaria rivoluzione culturale richiede che gli uomini e anche le nazioni passino dalla situazione di abitanti nello stesso pianeta, spesso in competizione commerciale o addirittura in guerra fra loro, a quella di fratelli che si amano e si stimano.

Solo così si potrà giungere alla sostenibilità ecologica perché il pianeta verrà custodito e non degradato e le sue risorse verranno condivise nella sobrietà. Si potranno, o meglio si dovranno, anche mettere in atto una saggia politica per ridurre le disuguaglianze mediante lo sviluppo dei servizi comuni (scuola, sanità, trasporti, ecc.) e un’economia basata su tasse e sussidi mirati ad aiutare i più deboli, perché ogni persona vale e non va dimenticata. La consapevolezza che in un mondo globalizzato nessuno è autosufficiente ci permetterà di intraprendere collaborazioni proficue fra le nazioni e di dare forza alla pace.

Nutraceutica

In evidenza

Luigi Campanella, già Presidente SCI

La data della nascita ufficiale della nutraceutica è incerta, ma a me piace collocarla negli anni 70 dello scorso secolo quando l’ennesimo controllo sulla qualità delle acque dei fiumi europei (Tamigi Senna, Po, Danubio….) ha dimostrato che in 30 anni i residui di farmaci nelle acque fluviali erano aumentati di quasi 2 ordini di grandezza, sfiorando le condizioni di tossicità. Come conseguenza apparvero le prime raccomandazioni dall’Europa all’uso dei farmaci, non al loro abuso.

Sono gli anni in cui sono partiti i primi progetti, ad es. Repharmwater, dedicati alla rimozione preliminare dei farmaci dalle acque superficiali, tenuto conto anche che i depuratori non erano attrezzati per rimuovere questi inquinanti di nuova generazione. Parallelamente l’analisi statistica dei farmaci consumati dimostrava che in molti casi di trattava di medicinali a base di prodotti naturali, che potevano essere ritrovati in molti alimenti: con una dieta intelligente si poteva così ridurre il consumo di farmaci a favore di nutrienti funzionali.

Da quel momento le guide e le direttive nutraceutiche si sono succedute, con alcuni punti fermi.

A tavola con i colori: i colori degli alimenti e le loro proprietà ... blog.bimbonaturale.org

Il primo di questi è il cosiddetto arcobaleno degli alimenti: il rosso per proteggere il cuore con la vitamina C, il bianco contro i tumori con la fibra, il viola a favore del sistema cardiovascolare per i pigmenti relativi, il giallo arancione contro lo stress ossidativo, eccesso di radicali liberi non smaltiti, per i carotenoidi antiossidanti presenti, il verde per proteggere il fegato per l’acido folico e la fibra contenuti.

A proposito del bianco mi piace ricordare una esperienza personale. In Cina per una serie di conferenze sono stato gratificato da molti segnali di amicizia e riconoscenza e da un piccolo segreto, la cura dell’Aglio della antica cultura cinese.

L'aglio cinese diventa "dop"anche per l'Unione Europea | Quotidiano.net ...L’80% dell’aglio viene prodotto in Cina

Si tratta di un alimento, ricondotto nell’arcobaleno alimentare al bianco, utilizzato in passato come antibiotico naturale ed impiegato insieme alla cipolla per regolarizzare la pressione e prevenire la formazione di trombi. Incuriosito dalla ricetta fornitami dai colleghi cinesi ho voluto verificare se essa, basata sulla estrazione dalle teste di aglio dei composti preziosi contenuti, potesse essere applicata utilizzando gli innumerevoli prodotti commerciali offerti dal mercato, che soprattutto durante i miei viaggi all’estero mi era capitato di scoprire con numeri continuamente crescenti.

Il risultato di quella ricerca è stato, in parte, sorprendente, in parte atteso: l’aglio deve essere consumato fresco e non trattato, pena la perdita di alcune preziose componenti e proprietà.

Ma oltre ai colori la chimica degli alimenti ci ha insegnato molte altre cose che rendono più efficace e “nutraceutica” l’alimentazione;

-evitare il consumo nello stesso pasto di proteine animali e vegetali che producono insieme un agglomerato difficile da digerire;

-combinare nello stesso pasto fonti di carboidrati, proteine, grassi e fibra;

-combinare carne con alimenti contenenti vitamina C che facilità l’assorbimento del ferro contenuto nella carne.

-Altri abbinamenti giustificati da considerazioni chimiche sono tuorlo di uovo e latticini: il primo contiene vitamina D che facilita l’adsorbmento del calcio contenuto nel secondo;

I legumi forma incompleta di carboidrati e di proteine necessitano di opportune integrazioni

Per chiudere una curiosa osservazione: pizza e birra è una combinazione storica e di gran successo, ma potenzialmente di non facile digestione a causa della presenza di lieviti in tutte e due le sue componenti.

Negazioni insensate e sciocche

In evidenza

Mauro Icardi

La Giunta Regionale della Lombardia sulla base del monitoraggio condotto in queste settimane sta per dichiarare lo stato di crisi idrica regionale. Saranno applicate misure finalizzate al contenimento dei prelievi e al risparmio idrico.

In California meridionale Il Metropolitan Water District, che fornisce acqua a circa 19 milioni di persone, ha dichiarato due mesi fa un’emergenza per la carenza d’acqua e ha votato all’unanimità per ridurne l’uso, limitando l’irrigazione all’aperto o con altri mezzi. “Il Metropolitan non ha mai applicato questo tipo di restrizioni, ma stiamo affrontando riduzioni senza precedenti delle nostre forniture e dobbiamo rispondere con misure senza precedenti”, ha affermato Adel Hagekhalil, direttore generale del distretto. “Ci stiamo adattando ai cambiamenti climatici in tempo reale”, ha aggiunto.

Ho voluto mettere in evidenza queste due notizie, perché mi sembrano esemplificative di un problema di cui non vedo purtroppo la soluzione.

Non mi riferisco alle soluzioni tecnologiche; negli anni di collaborazione a questo blog ne ho scritto. Potrei forse suggerirne di nuove, ma in realtà mi sto ponendo altri interrogativi. Anche questi purtroppo non nuovi.

La mia formazione e crescita personale sono state fortemente influenzate non solo dal percorso di formazione scolastica (qui è doveroso un ringraziamento ai docenti che ho avuto), ma anche da una parallela educazione al rispetto delle risorse e alla loro gestione attenta e parsimoniosa, impartitami da mia nonna materna. Ne ho già scritto in un altro articolo; passavo l’estate in una cascina del Monferrato, e avevo l’incarico di attingere acqua dal pozzo con una carrucola. Per diversi anni prima che mio padre e mio zio provvedessero all’installazione di una pompa sommersa, ho capito perfettamente il valore dell’acqua e la necessità di non sprecarne nemmeno una goccia. Nonna mi diceva come provvedere ad innaffiare l’orto. L’acqua piovana era recuperata. Io sono nato nel 1962 e già a due anni ho iniziato a passare le estati in quella cascina. Quindi dal 1964 al 1980 (anno nel quale venne installata l’acqua corrente) ho imparato come si può vivere senza le comodità necessarie e come si possa essere resilienti. La cosa non mi è mai pesata, anzi l’ho vissuta come una necessaria e benedetta iniziazione personale.

In questa foto si può vedere, oltre al sottoscritto, parte del cortile, il mastello per il bucato, si intravede a sinistra l’abbeveratoio per le galline. Il pozzo era situato dietro la scala dove vi era il porticato, chiuso con una porta dotata di un grosso chiavistello. Qualcosa ho imparato, ma spesso penso che avrei dovuto imparare molto di più.

Mi domando se gli abitanti delle metropoli lombarde, o meglio ancora quelli di Los Angeles, San Bernardino e Ventura possano pensare, o stiano pensando di doversi e potersi adattare a vivere qualcosa di simile.

Credo che la stessa parola razionamento possa riuscire ostica, quasi irricevibile. L‘atteggiamento con cui pensiamo all’acqua a volte può essere distorto. Pensiamo all’acqua potabile più per le necessità igieniche, piuttosto che per dissetarci. Secondo i dati Istat, in Italia si consumano in media 215 litri di acqua per abitante al giorno, con forti differenze sul territorio: dal valore minimo di 118 litri per abitante al giorno nella provincia di Enna a quello massimo di 446 nella provincia di Aosta. La maggior parte (39%) è utilizzata per doccia e bagno, generando spesso uno spreco di acqua: solo per lavarsi i denti, se non si chiude il rubinetto, si possono sprecare fino a 30 litri d’acqua al giorno. Da considerare anche il fenomeno della dispersione dell’acqua immessa, ovvero della quantità che si perde a causa del cattivo funzionamento delle reti idriche: la media nazionale è del 40%. Come reagirà un cittadino degli Stati Uniti che secondo l’UNICEF-OMS-Water Report del 2019 consuma quantità enormi di acqua (425 litri al giorno, mentre un abitante del Madagascar si deve accontentare di 10 litri)?

Quando esco di casa, mi sembra di vivere una situazione surreale che coinvolge la popolazione in maniera trasversale. Una negazione ostinata di questi problemi. Non cito più le riposte banali o decisamente singolari che ricevo quando tento di parlare di questi temi. Purtroppo molti scenari che non ritenevamo possibili si stanno verificando.

Cito solo come esempio la risalita del cuneo salino nel delta del Po, che negli ultimi anni ha fatto risalire l’acqua salata di mare di circa 30 km, a causa della diminuita portata del maggiore fiume italiano.

Non mi sembra di vedere una reale e diffusa percezione del problema. Nelle poche trasmissioni radiofoniche o televisive che trattano di questi temi, colgo troppo spesso la sensazione che il problema non sia ben compreso. Solo sulla stampa locale si possono leggere i vari allarmi lanciati dai consorzi di irrigazione e bonifica, praticamente in tutta Italia: difficoltà di irrigazione, scarsità di fertilizzanti e mancato innevamento invernale. Dovrebbero essere gli argomenti più dibattuti.

L‘attuale situazione geopolitica ha forse fatto risuonare un campanello d’allarme. Non sarà facile cambiare le abitudini. Ma credo sia necessario farlo senza nessuna esitazione.

Mi tornano in mente le parole pronunciate da Donella Meadows, co-autrice del “Rapporto sui limiti alla crescita”, che riporto a chiusura di questo articolo. Sono più che mai attuali, e dovrebbero essere meditate.

“Non mi considero in alcun modo migliore di ogni altro essere umano, ma ho vissuto per vent’anni con questi modelli globali e riesco a vedere, a capire istintivamente le conseguenze globali delle mie azioni personali. E conosco il tipo di mondo in cui voglio vivere. Non voglio vivere in un mondo che collassa, non voglio vivere in un mondo che diventa sempre più grigio, in cui non si riesca a mantenere un livello di vita decente. Voglio vivere in un mondo sostenibile, dove non ci siano povertà, fame e uso irrazionale delle risorse.”

Sono parole che dovrebbero essere lette in tutte le istituzioni scolastiche. E che meritano di essere conosciute da più persone possibili. Non c’è più tempo per negazioni insensate e sciocche.

La storia del verde brillante

In evidenza

Roberto Poeti

La intensa attività sperimentale di Carl Scheele(1742-1786)  ha abbracciato i campi della chimica organica e di quella inorganica, ottenendo risultati incredibili nella sua breve esistenza ( è morto all’età di quaranta anni), avendo a disposizione come laboratori i  retrobottega delle farmacie in cui ha lavorato. Vi sono scoperte di Scheele che hanno avuto un grande  impatto, come per esempio la scoperta dell’ossigeno sullo sviluppo della chimica, le sue ricerche sul fosforo nell’industria dei fiammiferi svedese, o le sue indagini sulla fotochimica dei sali di argento  sullo sviluppo della  fotografia ecc. Ma c’è un risultato sperimentale di Scheele, non tra i più importanti come rilevanza scientifica , che però  ha avuto più impatto sull’arte, la moda e in generale il costume.  Si tratta della invenzione del  colorante verde che ha preso poi il nome verde di Scheele.  Il legame tra i pigmenti e Scheele è stato  il risultato inaspettato  di ricerche che avevano un fine diverso. Già nel 1770, nel tentativo di ottenere soda direttamente dal sale comune, un campo che è sempre stato allettante per un chimico, Scheele aveva mescolato litargirio (una delle forme naturali dell’ossido di piombo II) in polvere con una soluzione acquosa di cloruro di sodio, e la soluzione di soda caustica formata era stata carbonatata con esposizione all’aria. Nel  procedimento veniva ottenuta una modesta quantità di soda , insieme a ossicloruro di piombo che si presentava di un bel colore giallo. Il pigmento ottenuto venne brevettato nel 1801 in Inghilterra, molti anni dopo la morte di Scheele, da James Turner, un produttore di sostanze chimiche, conosciuto poi come  Giallo di Turner.

Questo pigmento giallo ha lasciato tuttavia scarse tracce nell’arte di quel tempo , la sua sensibilità alla luce e ai fumi di zolfo ne ha limitato l’uso ed è stato sostituito dai pigmenti giallo cromo. Cinque anni  dopo la sintesi del pigmento giallo, Scheele, mentre era intento a sperimentare sui composti dell’arsenico, ottiene un pigmento verde, chiamato in seguito verde di Scheele. È una scoperta che non sembra  essere il frutto anch’essa di un piano preordinato. Ma la sua risonanza sembra questa volta maggiore rispetto al primo pigmento, tanto che l’Accademia Svedese  delle scienze lo invita a pubblicare negli atti della stessa accademia un resoconto della sua scoperta. Scheele lo farà solo dopo tre anni, vincendo la sua proverbiale refrattarietà a pubblicare le sue ricerche. Lo fa con una nota breve rivolgendosi all’accademia  con la  consueta cortesia e modestia.

Memoria di Scheele :

Di seguito è la traduzione integrale della sua memoria dalla lingua svedese. Le unità di misura per pesi e volumi che utilizza  erano quelle in uso nella  Svezia prima dell’introduzione del Sistema Internazionale. Sono state convertite nel S.I.

Traduzione:

Accademia reale svedese delle scienze   1778                          

 Preparazione  di un nuovo colore verde di Carl Wilhelm Scheele 

Che si riesca a malapena a concepire l’aiuto della Chimica nella preparazione dei colori per la pittura, e che con il suo aiuto si scoprano ancora nuovi colori, è una verità della quale nessuno dubita. Per assecondare la richiesta dell’Accademia delle Scienze, e cioè che il colore verde, che ho scoperto nei miei esperimenti con l’arsenico, così come il suo metodo di preparazione, dovessero diventare più familiare al pubblico; ho l’onore di essere dello stesso avviso , ancora di più , perchè  ho scoperto che  il colore non solo è utile, così per  un colore ad olio simile all’acqua, ma anche che ora, dopo tre anni, non è cambiato minimante.

Due skålpund [  1 skålpund = 0,425 kg]  di vitriolo di rame blu [ solfato di rame] vengono sciolte in un bollitore di rame sul fuoco, con 6 kannor di acqua pulita [1 kannor = 2.6 litri] ; quando il vitriolo si è sciolto , il bollitore viene tolto dal fuoco.

Quindi, in un altro bollitore di rame, si sciolgono 2 skålpund di cenere bianca secca e 22 lod [1 lod = 0.013301 kg] di arsenico bianco in polvere * in 2 kannor di acqua pura sul fuoco; quando tutto è disciolto, questa liscivia viene filtrata attraverso il lino in un altro recipiente. Un po’ alla volta questa liscivia arsenicale viene versata nel contenitore  della  soluzione del suddetto vetriolo di rame mescolando continuamente con un cucchiaio di legno. ** Quando tutto è stato aggiunto, la miscela  viene lasciata inalterata per alcune ore, mentre il colore verde si deposita  al fondo; quindi si versa via il liquido limpido [surnatante] e si versano ancora alcune brocche d’acqua calda, che vengono poi ben mescolate; quando la vernice si è depositata di nuovo, l’acqua limpida viene versata via; si prosegue altre due volte allo stesso modo, versando dell’acqua calda. Dopo che la vernice è ben lisciviata,*** tutto viene versato su un panno di lino teso e, quando l’acqua è sgocciolata, la vernice viene stesa in piccoli grumi su carta grigia e asciugata a fuoco leggero. Della quantità specificata si ottiene 1 skålpunde 13 lod [ totale 0.560 Kg ], di bel colore verde.

* È sempre più sicuro polverizzare da soli l’arsenico intero che acquistare lo stesso precedentemente in polvere, perché capita che il supporto sia mescolato con gesso grattugiato. Si può esserne convinti, se ne si mette un pizzico su un fuoco ardente: se poi fuma completamente spoglio, senza che nulla venga lasciato indietro, allora tale arsenico è puro.

** Vista la effervescenza che qui si produce , il bollitore in cui viene contenuta la miscela non dovrebbe essere troppo piccolo, ma dovrebbe poter ospitare 16  kannor [ circa 35 L]

*** Tutta l’acqua con cui è stata lisciviata la vernice contiene un po’ di arsenico; quindi dovrebbe essere portato  in un luogo tale , che dopo  il bestiame non può avervi accesso

Carl Wilhelm Scheele  – 1778

I rapporti ponderali presenti nella memoria:

La formula più rappresentativa possiamo assumere che sia:

Il composto insolubile arsenito acido di rame II non è il solo componete del verde di Scheele, la cui composizione tende a variare a seconda delle modalità della preparazione.

 Alcune puntualizzazioni

Il bellissimo verde smeraldo conquistò l’Europa dell’ottocento. Occorre però fare due precisazioni prima di parlare dell’impiego e delle conseguenze che derivarono dall’uso indiscriminato del pigmento. La prima è legata ad alcune affermazioni che troviamo in alcuni blog circa il ruolo di Scheele nel commercializzare il suo pigmento e trarne profitto. Niente è più lontano dalla verità. Scheele ha condotto una esistenza di scienziato schivo da onori, tutta dedica alla ricerca, rifiutando posizioni remunerative. Egli è morto molto prima che il suo pigmento venisse diffuso. La  seconda precisazione riguarda la tossicità del pigmento di cui egli è consapevole e avverte nelle nota ** che le acque di lavaggio devono essere scaricate in luoghi non accessibili agli animali !

L’esplosione del verde

Nell’ottocento abbiamo una rivalutazione del colore verde. Fu Goethe, per primo, nella sua “Teoria dei colori”, a considerare la tinta verde “rasserenante” e a raccomandarne l’impiego nei locali destinati al riposo e al convivio. La sua diffusione venne favorita migliorando le caratteristiche del verde di Scheele agli inizi  dell’ottocento.  Venne prodotto il verde di Vienna o verde Parigi ( due dei tanti nomi che prenderà il verde di Scheele modificato) che era acetato arsenito di rame(II), Cu(C2H3O2)2·3Cu(AsO2)2, di tonalità simile al pigmento di Scheele, ma più resistente alla luce.  Il nuovo pigmento fu immediatamente commercializzato e adottato praticamente in tutti i rami dell’industria. Il pigmento verde brillò nei vestiti alla moda delle donne, gilet, scarpe, guanti e pantaloni, nelle candele, come vernice nei giocattoli per bambini e perfino nell’industria dolciaria con le bellissime foglie di zucchero verde appoggiate sulle torte glassate e nella carta parati.  

Il verde di Scheele divenne così popolare che poteva essere trovato in tutta la Gran Bretagna e in gran parte del continente per tutto il diciannovesimo secolo. Era così popolare che si diceva che la Gran Bretagna vi fosse immersa. La tossicità dell’arsenico era volutamente ignorata, la raccomandazione di Scheele che accompagnava la preparazione del suo pigmento era stata inutile. Scheele aveva immaginato che il suo colore avrebbe abbellito la tavolozza dei pittori . Non immaginava certo l’uso esteso che ne avrebbe fatto l’Inghilterra vittoriana e a seguire l’Europa e l’America.

Il verde nella pittura

Nella  pittura  l’uso del pigmento verde venne impiegato nelle loro tavolozze da artisti esponenti del movimento romantico agli inizi dell’800 come Georg Friedrich Kersting (1785 –1847) fino a esponenti dell’impressionismo come Monet e Renoir  e del post- impressionismo come Gauguin, Cezanne e Van Gogh.

Ma , come abbiamo visto, il suo uso andò ben oltre il campo della pittura.

Il verde nella carta da parati

 Il quadro precedente di Georg Kersting, Donna che ricama, fotografa efficacemente la moda del tempo: nelle case della borghesia   le pareti dei salotti  e dei  soggiorni erano colorate di verde Scheele. Soprattutto la carta da parati verde divenne molto popolare all’epoca e, quando il movimento romantico iniziò a prendere piede, divenne ancora più di moda addobbare il soggiorno o il salotto con scene di viti di fragole stilizzate e tulipani verdi dalla testa svolazzante. Il fiorente mercato della carta per pareti, dove dominava il verde, era la causa del contatto più diffuso con il pigmento, si stima che nel 1858 ci fossero cento milioni di miglia quadrate di carta da parati verde Scheele nella sola Gran Bretagna.

 I fiori di carta .

Ma , come abbiamo visto, il suo uso andò ben oltre il campo della pittura. Nel fiorente mercato di fiori finti di carta, il pigmento verde divenne quanto mai prezioso. Molti produttori facevano affidamento sul lavoro minorile per arricciare i petali, cucire i fiori e svolgere altri compiti che richiedevano piccole mani abili. Questi lavoratori di fiori si avvelenavano lentamente  a causa del loro contatto con il pigmento verde e per inalazione della polvere, spolverando le foglie artificiali con il verde per farle sembrare più realistiche. Si tratta di una delle più severe malattie professionali che si ricordi nell’800.


MAKING ARTIFICIAL FLOWERS, NEW YORK, 1912

Voci inascoltate

Già nel 1839, il chimico tedesco Leopold Gmelin aveva notato che le stanze umide tappezzate con il colore producevano un acido tossico. Nel 1891, il medico italiano Bartolomeo Gosio confermò che l’umidità delle pareti delle case e le muffe che nascevano nella pasta per carta da parati metabolizzavano l’arsenico per produrre un gas velenoso, poi identificato nel 1933 dal chimico Frederick Challenger che lo riconobbe come trimetilarsina.

La morte di Napoleone e l’arsenico nei suoi capelli

Nel 1961 una analisi condotta su un campione di capelli di Napoleone rinveniva una concentrazione di arsenico molto alta . Il risultato metteva in discussione la morte per cause naturali e si prospettava l’ipotesi dell’avvelenamento. È sorto così un animato dibattito sulle cause della morte di Napoleone. I  risultati di uno  studio interdisciplinare, pubblicato in  Advances in Anatomic Pathology  March 2011, dal titolo The Medical Mystery of Napoleon Bonaparte An Interdisciplinary Expose pone fine alla diatriba. Lo studio si avvale del punto di vista del gastroenterologo, del patologo , e soprattutto la determinazione dell’arsenico nei campioni di capelli di Napoleone e dei suoi familiari, tramite Analisi per attivazione neutronica, NAA. I risultati raggiunti escludono l’avvelenamento per arsenico dell’imperatore .

 Ma allora perché la concentrazione di arsenico nei capelli di Napoleone è in tutti i casi molto più alta rispetto ai valori comuni oggi ? L’imperatore ha condiviso i gusti e le tendenze del suo tempo:  amava il colore verde e i suoi  abiti, le tappezzerie e le pareti dei suoi salotti  sfoggiavano spesso questo colore. Ma questo colore era il verde Scheele a base di arsenico e Napoleone ne ebbe ampia esposizione. Infine, la maggior parte dei cosmetici e delle polveri per capelli a quel tempo contenevano arsenico e Napoleone fece un uso abbondante di polvere per capelli. Pertanto, il potenziale di contaminazione diretto e indiretto dei capelli dell’imperatore era molto alto.

La scarsa coscienza del pericolo

Per tutto il diciannovesimo secolo, ci sono state innumerevoli segnalazioni di malattie e decessi correlati all’uso del pigmento. Le persone deperivano frequentando stanze verdi o quando venivano accese  candele verdi. È difficile immaginare oggi come un uso di composti di arsenico così diffuso non abbia provocato una presa di coscienza del suo pericolo. Possiamo pensare che poiché i sintomi da avvelenamento con verde all’arsenico, che iniziavano con mal di testa, sonnolenza e problemi gastrointestinali, non erano acuti, ma restavano latenti per molto tempo e si manifestavano gradualmente, facevano perdere il nesso causa – effetto. I sintomi più visibili dell’avvelenamento acuto da arsenico – nausea, vomito, diarrea e dolore addominale – potevano essere facilmente confusi con altre malattie comuni dell’epoca (p. es., colera e polmonite).  La polvere del pigmento o il gas  che si sprigionavano dalla carta da parati dei salotti della buona borghesia non si evidenziavano poi concretamente. Nei giovani lavoranti, che venivano impiegati nella lavorazione  dei fiori finti, i sintomi erano più acuti, ma la medicina del lavoro doveva ancora nascere, così come la tutela sindacale.

L’inerzia dell’industria 

 Per ultimo, ma non meno importante, erano sorte tante attività che  impiegavano il pigmento verde e le  alternative non erano pronte. Un caso emblematico è il produttore di stoffe e carta da parati  William Morris (1834 –1896), artista e scrittore britannico che, tra i principali fondatori in Inghilterra del movimento delle Arts and Crafts, è considerato antesignano dei moderni designer ed ebbe una notevole influenza sull’architettura del suo tempo. Continuò a usare sia il verde di Scheele che il verde Parigi nella sua linea  estremamente  popolare di carta da parati, tappeti e tessuti. William Morris  era molto scettico riguardo alle affermazioni secondo cui l’arsenico poteva essere pericoloso.

 Intorno al 1870, Morris si piegò alle pressioni dell’opinione pubblica e iniziò a utilizzare verdi senza arsenico nei suoi laboratori.

Quando i governi europeo, britannico e americano hanno iniziato a regolamentare l’arsenico, la vivida carta da parati verde era già passata di moda.

L’arsenico per essere più belle

Ma c’è un altro motivo che ostacolava  l’associazione dell’arsenico a un pericolo. Insolitamente per un veleno, l’arsenico ha avuto molti altri usi comuni nel corso della storia, dopo la sua scoperta.

 L’arsenico era un trattamento comune per la pelle fino all’inizio del XIX secolo. Nel periodo vittoriano, l’arsenico veniva assunto come integratore per uso interno per migliorare la carnagione con il risultato di una pelle bluastra e traslucida. I medici vittoriani ed edoardiani lo prescrivevano per l’asma, il tifo, la malaria, il dolore mestruale, la sifilide, la nevralgia e come rimedio non specifico. Il manifesto seguente del 1896 pubblicizza cialde e saponi a base di arsenico per la bellezza della pelle !

L’ultimo atto di questa storia

È improbabile che molti dei prodotti verde Scheele o Parigi siano ancora in circolazione. Tuttavia, Victoria Finley scrive in The Brilliant History of Colour in Art, “Ancora nel 1950 l’ambasciatrice degli Stati Uniti in Italia, Clare Boothe Luce, si ammalò di avvelenamento da arsenico. La CIA sospettava dei sovietici e ha inviato una squadra a Roma per indagare. Alla fine hanno scoperto che il soffitto della sua camera da letto era decorato con pigmenti pieni di arsenico. Nella stanza sopra era stata installata una nuova lavatrice. Il suo sussulto aveva rilasciato polvere di arsenico, che lei respirava mentre dormiva”.

Clare Boothe Luce, ambassador to Italy, with husband Henry Luce (1954)

Riferimenti

Scheele C.W. Preparazione di un nuovo colore verde. Kongl. Vetenskaps  Academiens Handlingar 1778 Vol.XXXIX.

https://cameo.mfa.org/wiki/Turner%27s_yellow

The soda process, and proposed improvements. The Chemical News and Journal of Physical Science, Vol. XXVII 1873; 164

Ball P. William Morris made poisonous wallpaper. Nature. 2003

Meharg A.A. Science in culture: The arsenic green. Nature. 2003

https://www.focus.it/cultura/curiosita/verde-arsenico-timore-mistero

Forshufvud S, Smith H, Wassen A. Arsenic content of

Napoleon I’s hair probably taken immediately after his death. Nature. 1961;192:103–105.

Lugli A, Clemenza M, e altri. The Medical Mystery of Napoleon Bonaparte.

An Interdisciplinary Expose. Adv Anat Pathol 2011;18:152–158

Colleghi inaspettati.

In evidenza

Mauro Icardi

Molto spesso su questo blog abbiamo scritto, e ci siamo decisamente rammaricati, di come la chimica sia, tra le discipline scientifiche quella che troppo spesso viene, in maniera molto superficiale, vista come la causa di molti se non di tutti i mali. Non è sempre facile superare le etichette ed i luoghi comuni, quando diventano patrimonio comune. Credo a questo proposito di saperne qualcosa. Come persona che predilige per i propri spostamenti la bicicletta e i mezzi pubblici spesso mi trovo a dover intavolare discussioni che rischiano di diventare a volte molto faticose.

Eppure la chimica, che ha avuto tra i suoi narratori migliori Primo Levi, è riuscita in qualche modo ad affascinare altri personaggi più o meno famosi a cui possiamo fare ricorso per cercare di combattere questa percezione negativa che si porta dietro, quasi come un fardello.

Sempre Levi quando doveva spiegare come si conciliasse il suo lavoro di chimico con quello di scrittore, si riferiva al linguaggio delle nozioni di chimica come un grande patrimonio di metafore e termini, che si potevano utilizzare anche in altri campi ed ambiti.

Ecco allora che il primo nome che mi viene in mente è quello di Johann Wolfgang von Goethe.

Nel suo quarto romanzo “Le affinità elettive”( 1809) Goethe utilizza gli argomenti dell’affinità chimica (da cui il titolo) come metafora delle relazioni interpersonali, narrando l’attrazione tra quattro personaggi che, non vogliono rinunciare ai loro legami reciproci, pur sentendosi attirati verso altre scelte dal punto di vista sentimentale. Significativo che Goethe utilizzi questo artificio narrativo ispirato dagli studi studi del chimico svedese Torber Olof Bergman che nel 1775 pubblicò “Una dissertazione sulle attrazioni elettive”

Un’altra persona che non è rimasta insensibile al fascino della chimica, anzi ha dichiarato di esserne sempre stato attratto è Jorge Mario Bergoglio ovvero Papa Francesco.

L’attuale Pontefice ha frequentato un istituto tecnico ad indirizzo chimico diplomandosi come perito, ha lavorato in Laboratorio ed ha insegnato chimica per qualche tempo. Nella recente intervista rilasciata nella trasmissione “Che tempo che fa” ha utilizzato per definire la sua passione per lo studio della chimica addirittura il termine seduzione. La chimica affascina quindi, e in qualche modo l’appartenenza del pontefice ad un ordine come quello dei gesuiti forse può aver rafforzato questa passione.

Anche l’ex cancelliera tedesca Angela Merkel che inizialmente consegui la laurea in fisica, successivamente lavorò all’istituto centrale per la chimica fisica dell’accademia delle scienze di Berlino, conseguendo poi il dottorato con una tesi di chimica quantistica.

 Chimica-fisica e chimica quantistica sono il presente ed il futuro della chimica, dal punto di vista teorico e da quello applicativo. Forse è questa la ragione che spinse l’ex politica tedesca ad intraprendere questo tipo di percorso formativo. Per altro in un paese che ha una grande tradizione (nel bene e nel male) nel campo. Basti pensare ai nomi di Fritz Haber e di Carl Bosh. Il primo ricordato per la sintesi dell’ammoniaca, il secondo per quella del metanolo.

  Un altro leader politico molto conosciuto ovvero Margaret Thatcher prima di diventare avvocato si laureò in chimica al Sommerville College dell’università di Oxford, e trovò lavoro come ricercatrice chimica presso la BX plastic. Successivamente si laureò in Giurisprudenza per intraprendere la carriera politica. Ma ebbe una significativa esperienza di lavoro nell’ambito della chimica industriale.

Bud Spencer invece si iscrisse al corso di laurea in chimica alla Sapienza di Roma dopo aver terminato gli studi al liceo, nel 1946. Le vicende legate al lavoro del padre lo costrinsero ad abbandonare gli studi.

Certo rimane una certa curiosità nell’immaginare un uomo con una corporatura imponente come la sua, muoversi agevolmente in un laboratorio chimico.

Rimanendo in ambito cinematografico, anche un famoso regista di origine italiana come Frank Capra, conseguì nel 1918 una laurea in ingegneria chimica presso il Throop Institute (futuro California Institute of Technology).

Sempre in ambito cinematografico un attore conosciuto per il ruolo di Ivan Drago nel film Rocky IV cioè Dolph Lundgren ha conseguito una laurea in chimica presso l’istituto reale di tecnologia di Stoccolma.

La Svezia e le sue istituzioni universitarie, non solo Stoccolma ma anche Uppsala hanno radicate e fiorenti tradizioni accademiche legate alla chimica. Ma anche per questo attore valgono le considerazioni già espresse per Bud Spencer!

 Questo è ovviamente un elenco non esaustivo. Anche altre due personalità dello spettacolo come l’attore Paolo Rossi, (diplomato perito chimico), il cantante Alex Baroni hanno affrontato lo studio della chimica.

Se si riesce a capirne la bellezza, se si è curiosi e attenti la chimica può dare davvero molto. Anche se questi personaggi sono diventati famosi svolgendo altre attività, il richiamo di questa disciplina li ha sicuramente incuriositi. E credo anche in qualche modo aiutati nello svolgere le loro nuove attività in maniera positiva.

Alimentazione per fotosintesi di un microprocessore

In evidenza

Rinaldo Cervellati

Un microprocessore è un componente fondamentale dei computer, in cui la logica e il controllo dell’elaborazione dei dati sono inclusi in un singolo circuito integrato o in un loro piccolo numero. Il microprocessore contiene i circuiti aritmetici, logici e di controllo necessari per eseguire le funzioni dell’unità di elaborazione centrale (CPU) di un computer. Il circuito integrato è in grado di interpretare ed eseguire istruzioni di programma ed eseguire operazioni aritmetiche. Il microprocessore è costituito da un circuito integrato digitale multiuso, che accetta dati binari come input, li elabora secondo le istruzioni contenute nella sua memoria e fornisce risultati (anche in forma binaria) come output. I microprocessori contengono sia la logica combinatoria che la logica digitale sequenziale e operano su numeri e simboli rappresentati nel sistema numerico binario.

Secondo una nuova ricerca, i microprocessori possono essere alimentati utilizzando microrganismi fotosintetici alla luce ambientale senza la necessità di una fonte di alimentazione esterna.

Il gruppo internazionale di ricercatori inglesi, italiani e norvegesi, coordinati da Christopher Howe dell’Università di Cambridge (UK), ha introdotto i cianobatteri Synechocystis sp. PCC6803, in una batteria alluminio-aria per creare un dispositivo biofotovoltaico. Il dispositivo ha dimensioni simili a una batteria AA, è realizzato con materiali durevoli e molto riciclabili e non richiede una fonte di luce dedicata per funzionare. È il primo sistema bioelettrochimico segnalato in grado di alimentare continuamente un microprocessore al di fuori delle condizioni controllate di laboratorio [1].

Figura 1. Il sistema testato su un davanzale a Cambridge (UK). Credit: Christopher Howe (UC)

Commenta Paolo Bombelli, angloitaliano, uno dei ricercatori dell’Università di Cambridge: “Abbiamo deciso che non volevamo far funzionare il sistema con una fonte di energia dedicata. Avevamo bisogno di dimostrare che possiamo operare in condizioni di luce ambientale e siamo stati in grado di farlo”.

Il gruppo ha testato la stabilità e la biocompatibilità del substrato di alluminio e ha dimostrato che il sistema può alimentare continuamente un processore Arm Cortex-M0+[2] per sei mesi in diverse condizioni ambientali, entro l’intervallo di temperatura 13,8–30,7°C. Il processore ha eseguito 1,23 ×1011 cicli di 45 minuti di calcolo seguiti da un periodo di standby di 15 minuti. Alimentato interamente dalla cella biofotovoltaica, il processore assorbe una corrente media di 1,4μA con una tensione di 0,72V. Il sistema ha smesso di funzionare solo quando è stato utilizzato un impacco di ghiaccio per abbassare la temperatura a 5°C.

Il gruppo ha lasciato intenzionalmente aperto il sistema biofotovoltaico. Una volta stabilito il sistema, le specie Halomonas e Pseudomonas erano cresciute insieme alla specie iniziale Synechocystis, un battèrio di acqua dolce. Spiega Bombelli: “Abbiamo deliberatamente mantenuto il sistema in condizioni non sterili. Consentendo ai contaminanti di entrare nel sistema, permettiamo l’evoluzione di un bioma. Siamo stati molto lieti di scoprire questo complesso e intricato mix di colture che lavorano insieme, che è uno degli elementi chiave del buon funzionamento del sistema. Queste colture miste danno un bioma stabile e duraturo, ma aiutano anche il processo di trasporto degli elettroni”.

I ricercatori ipotizzano che il sistema biofotovoltaico operi sia in modalità elettrochimica che bioelettrochimica. Nella modalità elettrochimica, i microrganismi forniscono un ambiente favorevole per l’ossidazione elettrochimica dell’alluminio, che emette elettroni. Nella modalità bioelettrochimica, gli elettroni vengono trasferiti direttamente dai batteri, ad esempio dalla membrana cellulare esterna, e trasportati all’alluminio (fig. 2).

Figura 2. Meccanismi proposti per il trasporto degli elettroni all’interno del mix idrossido di alluminio e matrice extracellulare. Credit: Paolo Bombelli (UC)

Marin Sawa, esperta di bioelettronica basata sulla fotosintesi (Università di Newcastle, UK), afferma: “Il dispositivo biofotovoltaico riportato mostra la natura imprevedibile della biologia ma anche il suo lato adattabile e resiliente. L’alimentazione continua senza reintegrare il bioanodo per un massimo di sei mesi è notevole. Sembra essere molto più robusto e adattabile di quanto immaginassi per generare bioelettricità”.

Le applicazioni del sistema potrebbero includere l’alimentazione di piccoli dispositivi elettronici. Esiste un potenziale significativo per l’utilizzo della tecnologia in località remote in cui l’elettricità di rete non è un’opzione e dove l’utilizzo di batterie che richiedono la sostituzione regolare è scomodo.

Kevin Redding, un esperto di conversione di energia fotosintetica dell’Arizona State University (USA), è colpito dalla stabilità del sistema: “Questo studio serve come prova incoraggiante del concetto che una cellula microbica può utilizzare la fotosintesi per la produzione di energia a lungo termine sufficiente per alimentare una CPU. Ciò potrebbe convincere l’industria a prendere questa tecnologia abbastanza seriamente da investire il tempo e le risorse necessarie per trasformarla in una tecnologia utile. L’abbinamento di tali dispositivi di alimentazione con piccole CPU potrebbe spronare i produttori di chip a sviluppare nuovi chip efficienti dal punto di vista energetico progettati per funzionare con le celle biofotovotaiche in futuro”.

Nota. Questo post è stato scritto il 12 maggio. La notizia è stata poi riportata dal quotidiano La Repubblica il 28 maggio nella pagina Green and Blue: https://www.repubblica.it/green-and-blue/2022/05/27/news/batteria_alghe_energia-351167578/?ref=RHVS-VS-I271182744-P3-S3-T1&__vfz=medium%3Dsharebar

Bibliografia

[1] P. Bombelli et al., Powering a microprocessor by photosynthesis., Energy Environ. Sci., 2022, DOI: 10.1039/d2ee00233g


[1] Tradotto e adattato da: Ellis Wilde, Photosynthesis used to power a microprocessor for over six months, Chemistry World, 12 May 2022

[2] ARM Cortex è una famiglia di microprocessori della società High Tech ARM Holdings. Anche ricercatori della Arm Ltd. di Cambridge hanno partecipato alla ricerca.

Pitagora e la farmacogenomica.

In evidenza

Claudio Della Volpe

Il “non mangiare le fave” era un comandamento astruso del catechismo pitagorico. Perché Pitagora era contrario alle fave, tanto che si racconta che si lasciò uccidere pur di non attraversarne un campo?

Potrebbe essere che soffrisse di favismo, una malattia genetica che comporta una anemia, ma che, superata la crisi emolitica, comporta nelle forme croniche, recidivanti una nutrita serie di sintomi spiacevolissimi (facile stancabilità, dispnea da sforzo, palpitazioni tachicardia, ronzii auricolari, vertigini, insonnia). Insomma una malattia seria di cui si può tranquillamente morire e che interessa solo nel nostro paese 400mila persone.

Solo nel 1950 il favismo fu attribuito alla deficienza di un importante enzima, la glucosio-6-fosfato deidrogenasi (G6PH), illustrato qui di seguito. L’enzima ha una serie di ruoli importantissimi nel nostro metabolismo cosicché la sua deficienza o la sua relativa efficienza può generare disturbi molto importanti.

Per approfondire il legame fra il favismo e la deficienza di G6PH potete leggere questo articolo di due ricercatori italiani.

I difetti genetici che hanno come conseguenza la mancanza o la scarsa efficienza di enzimi hanno un peso in tutte le reazioni biologiche, comprese quelle che metabolizzano i farmaci.

La farmacogenomica è lo studio del ruolo del genoma nella risposta ai farmaci. Il suo nome (farmaco + genomica) riflette la sua combinazione di farmacologia e genomica. La farmacogenomica analizza come il corredo genetico di un individuo influisce sulla sua risposta ai farmaci. Si occupa dell’influenza della variazione genetica acquisita ed ereditaria sulla risposta al farmaco nei pazienti correlando l’espressione genica o i polimorfismi a singolo nucleotide (ossia le modifiche dell’enzima conseguenti a singoli errori del DNA) con la farmacocinetica (assorbimento, distribuzione, metabolismo ed eliminazione del farmaco) e la farmacodinamica (effetti mediati attraverso i bersagli biologici di un farmaco).

Il termine farmacogenomica è spesso usato in modo intercambiabile con la farmacogenetica. Sebbene entrambi i termini si riferiscano alla risposta ai farmaci basata su influenze genetiche, la farmacogenetica si concentra sulle interazioni singolo farmaco-gene, mentre la farmacogenomica comprende un approccio di associazione più ampio a livello di genoma, incorporando genomica ed epigenetica (caratteri non legati direttamente al DNA ma alla sua espressione e mediati per esempio da modifiche ambientali sul DNA (metilazione) che impediscono la sua espressione tramite i meccanismi che coinvolgono gli istoni, le molecole che impacchettano e spacchettano il DNA) mentre si occupa degli effetti di più geni sulla risposta ai farmaci.

Il tipico approccio della medicina anche moderna è espressa dall’inglese “one-dose-fits-all” ossia le medicine e le loro posologie vanno bene a tutti uomini e donne e qualunque sia la loro capacità metabolica o la loro espressione genica, al massimo si considera il peso e dunque la loro “diluizione” corporea. Ma le cose sono più complicate.

E lo sono perché i geni incidono sull’efficacia dei farmaci che prendiamo, anche i più comuni.

Per esempio nell’8% della popolazione britannica è inefficace l’analgesico oppioide codeina per l’assenza dell’enzima che la metabolizza e la converte in morfina.

Finora gli scienziati hanno individuato circa centoventi coppie di farmaci e geni collegati al loro metabolismo. Secondo Henk-Jan Guchelaar, farmacologo dell’università di Leida, nei Paesi Bassi, in circa metà dei casi è possibile intervenire modificando la dose o sostituendo il farmaco per ottenere risultati migliori. Munir Pirmohamed, farmacologo e genetista dell’università di Liverpool, dice che i britannici con più di settant’anni hanno il 70 per cento di probabilità di assumere almeno un farmaco la cui sicurezza o efficacia è compromessa dai geni.

Tuttavia al momento non vi sono molti metodi diffusi per gestire l’incompatibilità tra farmaci e geni a parte un rischioso meccanismo di tentativo-errore, ossia provare e vedere cosa succede, una cosa che funziona bene in molti casi pratici ma è potenzialmente suscettibile di effetti devastanti.

Nel caso di malattie croniche e dunque di farmaci prescritti per il controllo della pressione o del colesterolo o del glucosio, mentre il medico sperimenta cercando il farmaco giusto possono verificarsi effetti della malattia come ictus, infarti o altri gravi danni agli organi.

Questo è importante non solo per il singolo paziente ma anche per la società nel suo complesso dati i costi enormi dell’assistenza per questi effetti indesiderati.

Rappresentazione della taurochenodeossicolato 6alfa-idrossilasi, o CYP3A4, uno degli enzimi maggiormente coinvolti nella degradazione dei farmaci

Tra le proteine in grado di interferire con il metabolismo dei farmaci vi sono sicuramente gli enzimi appartenenti alla famiglia del citocromo P450 (CYP), una famiglia che comprende 18 famiglie, 44 sottofamiglie e 57 geni, i quali rientrano nella stessa categoria a causa della similarità che accomuna le varie sequenze amminoacidiche. Questo enzima è presente in tutti i domini dei viventi (infatti sono note più di 7.700 distinte macromolecole di tipo CYP), appartiene alla sottoclasse enzimatica delle ossidasi a funzione mista (o monoossigenasi).

I citocromi P450 sono i maggiori attori coinvolti nella detossificazione dell’organismo, essendo in grado di agire su un gran numero di differenti substrati, sia esogeni (farmaci e tossine di origine esterna) sia endogeni (prodotti di scarto dell’organismo). Spesso prendono parte a complessi con funzione di catena di trasporto di elettroni, noti come sistemi contenenti P450.

Le reazioni catalizzate dalle isoforme del citocromo P450 sono svariate. La più comune è una classica reazione da monossigenasi: il trasferimento di un atomo di ossigeno dall’ossigeno molecolare a un substrato organico, con riduzione del secondo atomo di ossigeno ad acqua:

RH + O2 + 2H+ + 2e → ROH + H2O

Le proteine enzimatiche appartenenti a questa categoria sono i principali responsabili della metabolizzazione farmacologica. Farmaci utilizzati per il trattamento di un’ampia varietà di condizioni patologiche, compresi depressione e altri sintomi psichiatrici, nausea, vomito, cinetosi e malattie cardiache, vengono degradati da queste proteine, e così anche componenti della famiglia degli oppiacei come la morfina e la codeina.

Debrisochina, un farmaco antipertensivo, usabile anche per stabilire la presenza di difetti genetici nel gene CYP2D6.

In particolare, il gene CYP2D6 è correlato al 25-30% dei farmaci assunti. Il gene CYP2D6 codifica per un polipeptide noto come debrisochina idrossilasi, in grado di inattivare tramite idrossilazione il ruolo anti-ipertensivo della debrisochina in soggetti sensibili. CYP2D6 mostra la più grande variabilità fenotipica tra i CYP. Infatti, esistono più di 70 alleli noti di CYP2D6 e a seconda del genotipo possono originarsi (un allele è ciascuna delle sequenze alternative di un gene o di altra sequenza di DNA):

  • metabolizzatori scarsi; deficit di debrisochina idrossilasi.
  • metabolizzatori intermedi; un allele nullo e un allele che codifica una versione difettosa della debrisochina idrossilasi.
  • metabolizzatori completi; un allele pienamente funzionante
  • metabolizzatori ultrarapidi; un numero di copie del gene superiore al normale, come risultato di eventi di duplicazione genica.

Il fenotipo CYP2D6 di un paziente è spesso determinato clinicamente tramite la somministrazione di debrisochina e la successiva analisi della concentrazione plasmatica del metabolita (4-idrossidebrisochina) (il fenotipo corrisponde alla espressione concreta del genotipo, ossia del gene, del DNA, in questo caso alla proteina coinvolta). Il profilo metabolico di un paziente è di importanza cruciale nel determinare il dosaggio appropriato. Infatti, un metabolizzatore scarso presenterà un rischio maggiore di effetti collaterali dannosi o di sovradosaggio, perché l’organismo eliminerà il farmaco in maniera inefficiente, mentre un metabolizzatore ultrarapido avrà probabilmente bisogno di una dose maggiore per ottenere un effetto benefico, a causa della sua aumentata capacità di modificarlo e rimuoverlo.

Un altro esempio di farmacogenomica applicata è evidente nella terapia farmacologica contro HIV, il virus dell’immunodeficienza umana. Un gruppo di ricercatori italiani (https://cattolicanews.it/news-dalle-sedi-giuliodori-dio-ci-chiede-di-non-rimanere-immobili/news-dalle-sedi-hiv-un-test-anti-reazioni-da-abacavir) ha messo a punto un test del DNA che rileva la predisposizione ad una reazione tossica all’uso dell’Abacavir, un importante farmaco antiretrovirale somministrato, insieme ad altri farmaci, durante il trattamento terapeutico contro HIV.

Solitamente l’Abacavir è ben tollerato dalla maggior parte dei pazienti; tuttavia esiste una piccola percentuale di soggetti (5-8%) che, nelle prime sei settimane di trattamento, risulta ipersensibile al farmaco. Essendo questa reazione di ipersensibilità molto pericolosa per la salute, coloro che tendono a svilupparla non potranno assolutamente essere trattati con questo tipo di farmaco. Ad oggi, infatti, la prescrizione dell’Abacavir è consentita solo a quei pazienti che, dopo il test, non risultino soggetti a rischio; da qui l’enorme vantaggio di avere a disposizione un esame che fornisca risposte in tempi brevi (il test in questione sfrutta la real time PCR) e che sia facilmente accessibile da tutti i pazienti. Lo stesso principio è applicato nel trattamento terapeutico contro il cancro; qui i test di farmacogenomica vengono impiegati per identificare quali pazienti risulteranno ipersensibili oppure non risponderanno affatto a farmaci antitumorali comunemente usati nella pratica clinica.

Purtroppo queste ricerche sono solo all’inizio e la farmacogenomica legata a comuni farmaci come l’aspirina poniamo non è ancora ben conosciuta; c’è spazio per molte ricerche di base su questo tema per una medicina di precisione a partire dal ruolo delle modifiche genetiche presenti in maggiore o minore percentuale nelle varie etnie del mondo e fra uomini e donne.

Una lista aggiornata dei farmacogeni, ossia dei geni associati al metabolismo di un certo farmaco è qui. La lista è gestita dalla FDA.

NdA. Alcune parti del testo sono estratte dalle voci corrispondenti di Wikipedia, l’enciclopedia libera.

Ho comunque introdotto alcune definizioni dei termini meno comuni.

La sofferenza del chimico.

In evidenza

Luigi Campanella, già Presidente SCI

Da chimico soffro un po’ quando sento parlare di motore elettrico alternativo a quello ad idrogeno, soffro perché si tratta di due motori, elettrici entrambi, essendo diverso solo il serbatoio sostituito in un caso da batterie e in un altro da idrogeno gassoso. E’ questo che poi con una reazione elettrochimica con l’ossigeno dell’aria produce energia ed acqua: questo avviene nelle celle a combustibile.

La differenza quindi tra i due modelli non è nel tipo di motore, elettrico per entrambi, ma nel tipo di alimentazione. Ed allora può sorgere spontanea la domanda: quale delle 2 soluzioni è la migliore? In effetti come sempre nelle due facce di un problema ci sono per entrambe vantaggi e svantaggi. Oggi il mercato è decisamente orientato verso le batterie, ma non credo si possano escludere variazioni nei prossimi 10 anni, quando i vantaggi di una potrebbero divenire svantaggi e tutto l’opposto per l’altra. L’autonomia viene considerata confrontabile, la ricarica è ovviamente a favore dell’idrogeno con semplicità e tempi ridotti: questi sono gli stessi delle macchine a benzina, mentre malgrado i progressi negli accumulatori la ricarica delle batterie richiede circa 10 volte più tempo, addirittura molte ore se ci si serve della rete di casa. Il grande vantaggio del sistema a batterie sta nella difficoltà e negli alti costi per realizzare gli impianti a ricarica di idrogeno: l’elemento va stoccato a 700 atmosfere cosa difficile da fare tanto che in Italia c’è un solo distributore a Bolzano.

Il risultato è che benché macchine ad idrogeno già esistano, da noi non possono essere utilizzate perché non c’è modo di rifornirle. Stanno meglio altri Paesi Europei come Francia e Germania, ma più di tutti hanno scommesso su questi modelli giapponesi e coreani.

https://leganerd.com/2017/06/28/auto-elettriche-vs-auto-idrogeno/

Superato questo gap l’idrogeno potrebbe avere un vantaggio sul piano ambientale: non certo per le emissioni che sono a zero in tutti e due i casi, ma nella produzione e smaltimento in quanto gli accumulatori sono costosi e utilizzano materiali non tutti ecofriendly. Forse nella stessa logica di vantaggi e svantaggi alternativi nel tempo richiesto dall’idrogeno per installare la sua rete, le batterie aumenteranno la loro densità energetica, diverranno meno ingombranti, meno pesanti e meno costose. Il mercato ci dirà quale soluzione sarà più convincente per i cittadini. Oggi già si intravedono orientamenti di scelta: l’idrogeno è più adatto per i veicoli pesanti, le batterie per le vetture che offrono meno spazio disponibile.

Un’altra alternativa è rappresentata dalle hybrid con motore termico ed elettrico e quindi alimentazione a batterie ed idrocarburi. Rappresentano il top innovativo già in uso e rispondono ad una esigenza al tempo stesso ambientale e di resistenza ai cambiamenti bruschi.  Si tratta di una mediazione che riduce l’impatto ambientale ma non lo annulla:  le emissioni di CO2 e di altri gas è solo ridotta.

In effetti ci sono varie forme di ibridizzazione con costi e risultati molto diversi.La guidabilita e l’uso più conveniente sono legati alla velocità ed alle condizioni e caratteristiche della strada.Ci sono ibridi che non hanno alcun collegamento tra il propulsore elettrico e la trasmissione.La parte ibrida sta nello stoccaggio dell’energia poi utilizzata solo dal propulsore elettrico. C’e poi un altro ibrido: idrogeno e batteria su cui si accentuano le attenzioni scientifiche delle case automobilistiche. Sarà la soluzione? Difficile dirlo, ma da chimico mi permetto di trasferire a questo settore quanto vale in qualsiasi processo: quando si può arrivare con una sola reazione la semplicità diventa un elemento di preferenza, la doppia soluzione è sempre elemento di complessità.

Almanacco della Scienza CNR dedicato ai rifiuti.

In evidenza

Rinaldo Psaro*

Cari colleghi, vi segnalo che al tema dei rifiuti è dedicato l’Almanacco della Scienza, il magazine dell’Ufficio Stampa del Cnr on line da oggi.

A svilupparlo, come sempre, sono ricercatrici e ricercatori del Consiglio nazionale delle ricerche, chiamati ad indagare i rischi ma anche le opportunità legati al rifiuto, le innovazioni disponibili al riguardo e le molte significazioni di questo termine.

Nel Focus , i danni ambientali determinati dalla pandemia, in seguito all’uso massiccio di dispositivi quali mascherine e guanti monouso che si sono aggiunti alla spazzatura tradizionale, e dalla moda usa e getta o fast fashion: ne parlano rispettivamente Matteo Guidotti dell’Istituto di scienze e tecnologie chimiche e Giampaolo Vitali dell’Istituto di ricerca sulla crescita economica sostenibile. C’è poi sempre il problema della plastica, specialmente micro‐ e nano‐, per la salute (ne parlano Sandra Baldacci, Amalia Gastaldelli e Sara Maio dell’Istituto di fisiologiaclinica), per le spiagge e i mari ( Marco Faimali, Chiara Gambardella e Francesca Garaventa dell’Istituto per lo studio degli impatti antropici e sostenibilità in ambiente marino), tema trattato anche nel video interno all’articolo da SilviaMerlino dell’Istituto di scienze marine e da Marco Paterni dell’Istituto di fisiologia clinica.

Ma le nuove soluzioni non mancano.

Serena Doni dell’Istituto di ricerca sugli ecosistemi terrestri, Carmelo Drago dell’Istituto di chimica biomolecolare e Matteo Panizza dell’Istituto di chimica della materia condensata e di tecnologia per l’energia ricordano rispettivamente l’utilizzo di rifiuti organici come fertilizzanti, il ricorso agli oli di frittura esausti per ottenere biocarburanti e il riuso dei resti delle demolizioni come materiale da costruzione. Ci sono poi gli aspetti legati alla salute Anna Lo Bue dell’Istituto di farmacologia traslazionale parla della disposofobia, un disturbo che impedisce di disfarsi dei propri oggetti, indipendentemente dal loro valore.

Il medico Roberto Volpe dell’Unità prevenzione e protezione, nella nuova rubrica Salute a tavola, illustra i rischi del cibo spazzatura o junk food.

Sul tema è essenziale il ruolo dei media. Protagonista del Faccia a faccia è Licia Colò, la nota conduttrice di programmi ambientali. Mario Tozzi, divulgatore e ricercatore dell’Istituto di geologia ambientale e geoingegneria, in Cinescienza commenta il film d’animazione Wall‐e.

Ma essenziale resta l’impegno civico: in Altra ricerca si ricordano le giornate di volontariato ambientale organizzate da Unicoop Firenze con Legambiente e l’evento promosso dalla campagna nazionale A buon rendere dell’associazione Comuni virtuosi.

Le Recensioni , infine, propongono lo spettacolo teatrale Muttura, incentrato sull’interramento illecito di rifiuti in Salento. E i volumi L’era degli scarti, che il ricercatore Marco Armiero dedica al wasteocene, di cui parla anche in un video, e il Plasticene del biologo Nicola Nurra, collaboratore dell’Istituto di scienze marine del Cnr: gli autori ricorrono a due neologismi ispirati all’antropocene per definire l’era contemporanea, in cui il Pianeta è invaso dagli scarti prodotti dagli esseri umani.

*Rinaldo Psaro è Direttore dell’Istituto CNR per le scienze e le tecnologie molecolari; autore di oltre 160 pubblicazioni e vari brevetti nel campo della chimica organometallica delle superfici, della caratterizzazione dei catalizzatori  e della catalisi eterogenea.

Tensioattivi “biologici” in cosmetica e cura della persona

In evidenza

(In base al testo di C. Bettenhausen, Switching to sustainable surfactants., C&EN, May 1, 2022)

Rinaldo Cervellati

Mentre la maggior parte delle industrie punta a zero emissioni entro il 2050, i marchi di prodotti di consumo che producono sapone, shampoo, lozioni e cosmetici fissano i loro obiettivi di sostenibilità al 2030. Questi obiettivi vanno anche oltre alle sole emissioni di anidride carbonica.

Infatti, quando le persone acquistano prodotti per la cura della persona, cercano anche biodegradabilità, basso impatto ambientale e un approvvigionamento sostenibile ed etico.

I tensioattivi sono un ingrediente primario per rendere i prodotti più efficienti. Queste molecole svolgono un ruolo centrale in tutti i tipi di prodotti per la cura della persona, avendo il potere di rimuovere lo sporco e il grasso contenuti nei cosmetici per viso e corpo. Molti tensioattivi aiutano anche a idratare e levigare la pelle e i capelli.

Neil Burns, amministratore delegato di un’azienda produttrice di cosmetici, dice: “È un buon momento per vendere nuovi ingredienti, i marchi per la cura della persona sono più ricettivi di quanto lo fossero un tempo. Grandi nomi aziendali si impegnano per obiettivi piuttosto ambiziosi in materia di sostenibilità. Data la portata degli impegni e data la lista odierna di materie prime prontamente disponibili, hanno bisogno di ingredienti nuovi”.

Ma quali sono le loro opzioni per questi ingredienti e quali sono le migliori per il pianeta? Mentre le aziende produttrici cercano di sostituire i tensioattivi sintetici con alternative più ecologiche e a basse emissioni di carbonio, sono tre le categorie principali tra cui scegliere: biotensioattivi microbici, tensioattivi intrinsecamente biobased[1] e versioni biobased dei tensioattivi convenzionali. Le decisioni che verranno prese potrebbero avere un impatto duraturo sul nostro ambiente.

Biotensioattivi Microbici

Chimicamente parlando, i tensioattivi sono molecole che hanno sezioni sia idrofile che idrofobiche. Il tradizionale sapone ha una testa di acido carbossilico attratta dall’acqua e una lunga coda di idrocarburi attratta dai grassi. Molte altre molecole naturali, sintetiche e semisintetiche possono avere lo stesso effetto con diverse combinazioni di motivi molecolari polari e apolari.

Il termine biotensioattivo si riferisce ai glicolipidi prodotti da alcuni microrganismi. La testa idrosolubile è un gruppo zuccherino e la coda idrosolubile è una lunga catena di idrocarburi per lo più satura. In natura, i microbi utilizzano i glicolipidi per il rilevamento di adesione, lubrificazione e competizione con altri microrganismi.

I due biotensioattivi commercialmente più avanzati sono i ramnolipidi e i soforolipidi, che presentano rispettivamente ramnosio e soforosio nelle loro teste zuccherine (fig.1 e 2). All’interno di ciascuna di queste famiglie, le variazioni strutturali possono alterare le proprietà del tensioattivo.

Figura 1. Struttura di un soforolipide. Classe: Biotensioattivo; Concentrazione tipica in uno shampoo: 0,5–10%; Quantità di schiuma: bassa; Mitezza: molto lieve; Applicazione comune: struccanti in acqua micellare.

La coda idrocarburica dei soforolipidi, ad esempio, può fluttuare liberamente e terminare in un acido carbossilico (fig. 1) o avvolgersi e attaccarsi alla testa dello zucchero, creando un anello di lattone. I biotensioattivi non sono nuovi; i riferimenti nella letteratura chimica risalgono agli anni ’50, tuttavia di recente sono disponibili per il mercato commerciale.

L’indicatore più forte dell’interesse per i biotensioattivi è il ritmo con il quale vengono presi gli accordi. Pochi giorni prima di In-cosmetics Global, la fiera degli ingredienti per la cura della persona tenutasi a Parigi, Holiferm ha firmato un accordo con l’azienda chimica Sasol, che acquisterà la maggior parte dei soforolipidi prodotti nel Regno Unito.

La BASF, concorrente di Sasol, ha pure un accordo con Holiferm e una partecipazione nel produttore giapponese di soforolipide Allied Carbon Solutions.

All’inizio di quest’anno, l’industria specialista della fermentazione dei tensioattivi Locus Performance Ingredients, ha firmato un accordo simile per la fornitura alla ditta Dow di soforolipidi per i mercati della cura della casa e della persona.

E a gennaio, Evonik Industries ha annunciato l’intenzione di costruire un impianto di ramnolipidi in Slovacchia.

Figura 2. Struttura di un ramnolipide. Classe: Biotensioattivo; Concentrazione tipica in uno shampoo: 2–10%; Quantità di schiuma: alta; Mitezza: molto lieve. Applicazione: Detergenti

Holiferm utilizza un ceppo di lievito isolato dal miele, che consuma zucchero e olio di girasole per produrre il tensioattivo bersaglio. Clarke afferma che il processo semicontinuo dell’azienda, che estrae i soforolipidi durante cicli di fermentazione lunghi settimane, la distingue da quelle che utilizzano metodi di produzione in batch.

Oltre ad essere a base biologica, i biotensioattivi hanno un impatto ecologico inferiore rispetto ai tensioattivi convenzionali come il sodio lauriletere solfato (SLES) (fig. 3).

Figura 3. Struttura di sodio lauriletere solfato. Classe: Tensioattivo semisintetico; Concentrazione tipica in uno shampoo: 40%; Quantità di schiuma: alta; Mitezza: Moderata; Applicazione: detergenti

Secondo Dan Derr, un esperto di bioprocessi che ha contribuito a sviluppare la tecnologia dei ramnolipidi, il vantaggio ecologico deriva principalmente dalle condizioni di fermentazione, che viene effettuata a temperatura e pressione ambiente.

Infatti, lo SLES è solitamente prodotto facendo reagire gli alcoli grassi derivati ​​dall’olio di palma con l’ossido di etilene e il triossido di zolfo. Questi passaggi consumano molta energia perché si svolgono a temperature e pressioni elevate. E sebbene la componente grassa sia a base biologica, l’olio di palma è molto preoccupante per la sostenibilità, inclusa la deforestazione necessaria per costruire fattorie di palme e le emissioni di gas serra dalla rimanente materia vegetale legnosa.

I biotensioattivi sono anche più potenti rispetto allo SLES e alla maggior parte delle altre opzioni, rendendo possibile un minor utilizzo in una formulazione finale.

Intrinsecamente biobased

Altri tensioattivi a base biologica, prodotti modificando chimicamente e combinando molecole estratte dalle piante, sono disponibili da anni ma ora stanno riscuotendo un crescente interesse.

La classe più popolare in questa categoria sono gli alchil poliglucosidi o APG (fig. 4).

Figura 4. Struttura di un alchil poliglucoside. Classe: sintetico; Concentrazione in uno shampoo: 15–25%; Quantità di schiuma: moderata; Mitezza: irritante; Applicazioni: creme e gel.

Chimicamente simili ai glicolipidi microbici, gli APG sono prodotti combinando glucosio o altri zuccheri con alcoli grassi derivati ​​da oli vegetali. La reazione è guidata da catalizzatori inorganici o enzimi. Come i biotensioattivi, gli APG sono più delicati e generalmente hanno un impatto di CO2 inferiore rispetto ai tensioattivi convenzionali, però costano fino a tre volte gli SLES e non sono molto schiumogeni. La formazione di schiuma non migliora molto l’efficacia dei detergenti, ma le persone vedono le bolle schiumose come un segno di efficacia.

Sebbene non siano così popolari come lo SLES e i relativi ingredienti etossilati, gli APG sono già diffusi.

Marcelo Lu, vicepresidente senior di BASF per i prodotti chimici per la cura in Nord America, afferma che per fornire tensioattivi biobased a basso contenuto di CO2 nella quantità necessaria per le ambizioni ecologiche delle aziende globali, gli APG sono i più adatti.

Convenzionali, ma biobased

Anche con l’aiuto dei fornitori, la riformulazione degli ingredienti non è banale; per un’azienda è costoso e rischioso cambiare una linea di prodotti che già funziona. Evitare la riformulazione è la proposta che alcune grandi aziende chimiche stanno portando avanti con le versioni biobased dei tensioattivi convenzionali.

Soprattutto nella cura della persona, molti tensioattivi, come lo SLES, sono già parzialmente biobased. Circa la metà degli atomi di carbonio in un tensioattivo a base di olio vegetale etossilato ha origini da biomassa.

Due produttori chimici, Croda International e Clariant, hanno apportato una modifica che ha consentito loro di arrivare al 100% di biobased. Essi stanno ricavando ossido di etilene dalle piante invece che dalle risorse fossili. La chimica utilizzata da entrambi è stata sviluppata principalmente dalla società di ingegneria Scientific Design (New Jersey, USA). Il processo inizia disidratando l’etanolo di origine vegetale in etilene. Le fasi successive dell’ossidazione dell’etilene in ossido di etilene, cioè la sintesi di tensioattivi etossilati, sono le stesse del percorso sintetico, sebbene Scientific Design offra sistemi che integrano tutte e tre le fasi.

Sebbene i consumatori apprezzino le etichette di tali prodotti a base biologica, per i sostenitori dell’ambiente, essere derivati ​​​​dalle piante non è un obiettivo centrale come lo era prima. Gran parte del discorso sulla sostenibilità nell’industria chimica oggi riguarda le emissioni di carbonio e i danni della CO2 e dell’ossido di etilene a base biologica non vengono eliminati.

David Schwalje, responsabile dello sviluppo dei mercati per l’azienda di ingegneria chimica e dei combustibili Axens, afferma che la provenienza della materia prima per l’etanolo fa la differenza quando si tratta di misurare l’intensità di CO2 dei prodotti risultanti. L’ossido di etilene ottenuto da alcol di mais o canna da zucchero coltivato in modo convenzionale, spesso chiamato etanolo di prima generazione, non è affidabile dal punto di vista delle emissioni rispetto all’ossido di etilene prodotto dal petrolio.

Uno sguardo ad alcuni numeri pubblicamente disponibili mostra quanto può variare l’emissione di CO2 per il composto. Le emissioni di carbonio della coltivazione del mais necessarie per produrre un chilogrammo di ossido di etilene a base biologica, anche dalla produzione di fertilizzanti, carburante per trattori e altre fonti di emissioni, erano comprese tra 0,8 e 2,8 kg di CO2, secondo i calcoli basati sulle stime di Argonne National Laboratory e University of Minnesota [1,2], tenendo conto dei numeri sulla produzione di ossido di etilene, il percorso biobased offre una riduzione dell’86% a un aumento del 46% delle emissioni di CO2 rispetto al percorso petrolchimico.

Tuttavia, afferma Schwalje, l’etanolo di seconda generazione ottenuto da rifiuti o cellulosa coltivata in modo sostenibile in cui le apparecchiature di fermentazione e distillazione utilizzano la cattura del carbonio può essere fortemente carbonio-negativo e portare quel vantaggio di CO2 a valle dei prodotti che ne derivano.

Sia Croda che Clariant stanno usando etanolo di prima generazione, almeno per ora. Croda produce i suoi prodotti Eco da etanolo a base di mais in un impianto alimentato da metano catturato da una discarica vicina, riducendo l’impatto di carbonio degli ingredienti prodotti.

L’impianto di Clariant a base di canna da zucchero e mais si trova a Uttarakhand (India), parte di una joint venture con India Glycols. Fabio Caravieri, responsabile del marketing di Clariant, afferma che il solo uso di ossido di etilene a base biologica non renderà uno shampoo o un bagnoschiuma negativo al carbonio, ma offre un miglioramento. Clariant afferma che grazie alla materia prima e alle attrezzature specifiche dello stabilimento in India, un produttore può rivendicare una riduzione dell’impatto del carbonio fino a 2 kg di CO2 per ogni kg di tensioattivo. E l’azienda Clariant è in grado di fare di più. Essa gestisce uno degli unici impianti di etanolo di seconda generazione al mondo, una struttura da 50.000 tonnellate all’anno, in Romania, che ha iniziato a produrre etanolo dalla paglia nel 2021. L’etanolo cellulosico potrebbe diventare una materia prima per i prodotti cura della persona in futuro, se una tale combinazione sarà redditizia una volta che l’azienda avrà acquisito più esperienza.

La via del bilancio di massa

Altre importanti aziende chimiche stanno soddisfacendo la domanda di contenuto di carbonio rinnovabile attraverso un approccio noto come bilancio di massa. Come per gli etossilati a base di etanolo, i tensioattivi ottenuti con questo metodo sono chimicamente identici a quelli già presenti sul mercato. Ma l’approccio del bilancio di massa introduce la biomassa più a monte. Viene miscelata con materie prime di carbonio fossile come la nafta o il gas naturale poiché queste sostanze vengono immesse nei cracker che producono l’etilene e altre sostanze chimiche costitutive.

I metodi di contabilizzazione del bilancio di massa variano, ma l’idea di base è che un operatore ottenga crediti per ogni atomo di carbonio a base biologica immesso nel suo cracker. Può assegnare quei crediti a una parte della produzione dell’impianto contenente lo stesso numero di atomi di carbonio. I clienti che vogliono acquistare dalla parte biobased pagano la tariffa di mercato per la chimica convenzionale più un supplemento per la biomassa, o carbonio rinnovabile.

Nonostante i vantaggi logistici del bilancio di massa, l’approccio non convince tutti gli utenti finali. Le abbreviazioni di certificazione di bilancio di massa come ISCC e REDcert non significano molto per il consumatore. E anche se la contabilità del bilancio di massa è legittima, le emissioni di carbonio nel prodotto finale sono un mix di origine vegetale e fossile, e questo non è ciò che molti acquirenti vogliono.

Ivo Grgic, Global Purchase Category Manager di Henkel per i tensioattivi, riconosce queste preoccupazioni, ma afferma che il bilancio di massa è il passo successivo più veloce che l’azienda può compiere per rendere i suoi prodotti più sostenibili.

Sostiene Grgic: “Siamo un’azienda che produce enormi volumi. Dal nostro punto di vista, dobbiamo avere un impatto e abbiamo deciso che l’equilibrio della biomassa è l’approccio con cui possiamo sostituire il carbonio fossile su larga scala nel modo più veloce. Altre tecnologie, come la cattura della CO2 e i biotensioattivi, seguiranno nei prossimi anni”.

I marchi di prodotti di consumo che cercano di diventare biobased hanno diverse opzioni: nuovi ingredienti come i glicolipidi, uso esteso di ingredienti speciali come gli APG e nuove versioni biobased degli ingredienti a cui sono abituati. Ma le scelte implicano un complesso equilibrio tra sostenibilità, efficacia, disponibilità e, naturalmente, costo. Caravieri afferma che i consumatori ecoconsapevoli sono disposti a tollerare un sovrapprezzo del 25-40%.

La chimica dietro i tensioattivi a base biologica è nota da anni. Il cambiamento verso di loro sta avvenendo ora, perché i consumatori sono più consapevoli di ciò che stanno usando. In numero sempre crescente, vogliono prodotti sostenibili a base biologica.

Aziende come Henkel stanno adottando un approccio completo per soddisfare tale domanda, anche se guardano alla via  per approcci migliori. “I clienti sono alla ricerca della sostenibilità e vogliono provare ad accedervi da tutte le aree possibili”.

Bibliografia

[1] T.M. Smith et al., Subnational mobility and consumption-based environmental accounting of US corn in animal protein and ethanol supply chains., Proc. Natl. Acad. Sci. U.S.A. Sept 5, 2017, DOI: 10.1073/pnas.1703793114.

[2] U. Lee et al., Retrospective analysis of the U.S. corn ethanol industry for 2005–2019: implications for greenhouse gas emission reductions. Biofuels, Bioprducts & Biorefining, 2021, 15, 1318-1331. DOI: 10.1002/bbb.2225.


[1]  Il termine “biobased” è utilizzato per materiali o prodotti che siano interamente o parzialmente derivati da biomassa

In occasione della Giornata della Terra

In evidenza

 Vincenzo Balzani

Cos’è la Terra? Un frammento apparentemente insignificante dell’Universo, formatosi 4,5 miliardi di anni fa dall’aggregazione di materiali provenienti dal Sole, che è una delle centomila miliardi di miliardi (1 seguito da 23 zeri) di stelle dell’Universo. In una famosa fotografia della NASA, scattata dalla sonda spaziale Cassini quando si trovava a una distanza di 1,5 miliardi di chilometri da noi, la Terra appare come un puntino blu-pallido nel buio cosmico. Non c’è evidenza che si trovi in una posizione privilegiata dell’Universo, non ci sono segni che facciano pensare ad una sua particolare importanza. Fotografata da più vicino, la Terra sembra una grande astronave che viaggia senza meta nell’Universo; sappiamo che trasporta più di 8 miliardi di persone.

La terra vista dalla sonda Cassini.

La scienza ha stabilito che 3,5 miliardi di anni fa sulla Terra è emersa quella “entità” misteriosa che chiamiamo “vita”, confinata fra due altri misteri che chiamiamo “nascita” e “morte”. L’evoluzione della vita ha poi portato all’uomo. La civiltà umana ha solo 10.000 anni!

La Terra è, forse, l’unico luogo nell’Universo in cui c’è la “vita”. In ogni caso, è certamente l’unico luogo dove noi possiamo vivere perché se anche nell’Universo esistesse un’altra stella con un suo pianeta in una situazione simile a quella Sole-Terra, essa sarebbe lontana da noi almeno quattro anni luce; quindi, irraggiungibile.

Nel Salmo 115 della Bibbia è scritto che “I cieli sono i cieli del Signore, ma ha dato la Terra ai figli dell’uomo”. La Terra, quindi, è un dono di Dio. Come dice papa Francesco è la nostra casa comune. Siamo legati alla Terra come i figli alla madre, ma anche come la madre ai figli perché, proprio come se fosse nostra figlia, dobbiamo avere cura della Terra, dobbiamo custodirla, amarla e renderla accogliente per le prossime generazioni.

Purtroppo, non lo stiamo facendo. Viviamo in un’epoca chiamata Antropocene, caratterizzata dal degrado del pianeta (insostenibilità ecologica) e della stessa società umana, come dimostrato dalla guerra Russia-Ucraina e dalle altre 871 fra guerre e guerriglie, coinvolgenti 70 stati, che si combattono oggi nel mondo, quasi sempre senza che si riesca a comprenderne le ragioni.

Si potrebbe pensare che la Terra, questo luogo allo stesso tempo così insignificante e così speciale, non sia adatto ad ospitare l’umanità perché ha troppi difetti: è fragile, ha risorse spesso insufficienti e, soprattutto, non distribuite in maniera equa. In realtà è proprio con questi suoi difetti che la Terra ci insegna, spesso inascoltata maestra, come dovremmo vivere. Con la sua fragilità ci ricorda che è nostro dovere prenderci cura delle persone che ci sono state affidate. Con la scarsità di certe risorse ci insegna a vivere non nella dissolutezza dell’usa e getta e dell’egoismo, ma nell’aiuto reciproco e nella sobrietà del risparmio e del riciclo. Infine, con la diseguale distribuzione delle risorse nelle varie regioni, sprona le nazioni a collaborare in amicizia e rispetto, senza farsi la guerra. Che si tratti di una persona o di una nazione o della Terra stessa non c’è salvezza senza aiuto reciproco.