Arte e Scienza

In evidenza

Luigi Campanella, già Presidente SCI

La Scienza ha sempre considerato lo studio della vita in età preistorica come un contributo fondamentale per capire la dinamica della società civile, delle trasmigrazioni, dello sfruttamento delle risorse naturali, del passaggio dall’individualismo alla società civile ed altri affascinanti temi. Sono molte le discipline che hanno contribuito a questi studi e fra queste, non solo storiche, anche la chimica che ha indagato su residui alimentari, sulle articolazioni degli insediamenti civili, sul rapporto fra patologie e qualità ambientale, sullo sfruttamento dei materiali naturali. In un recente volume di Carole Fritz “L’ Arte nella Preistoria” il testo conduce la stessa indagine attraverso lo studio archeologico di pitture ed opere in rilievo diffuse in tutto il globo.

La creatività dei primi gruppi tribali si è dimostrata una rivelazione attraverso immagini di grande valore non solo storico, tanto che per alcuni di essi si parla della loro capacità di ispirare geni del nostro tempo come Picasso. Le immagini ritrovate in Paesi americani, asiatici africani, ma anche, in misura minore, europei si riferiscono al mondo animale e vegetale, ma anche al mondo sociale perfino ai primi concetti di economia, di politica del lavoro, di ricerca della conoscenza.

Oggi in alcuni paesi questi siti vengono esaltati per un valore quasi spirituale, un ponte verso la metafisica celeste. Bisonti, cervi, leoni, giraffe, orsi, cavalli, ma anche sciamani, dee, ninfe che nella loro bellezza estetica confermano che l’arte è l’attività simbolica più preziosa dell’Homo Sapiens.

A volte queste immagini sono collocate in rocce sotterranee che inducono a chiedersi: ma perchè in un luogo così poco accessibile e visitato? La risposta più probabile è data dalla chimica che correla questa abitudine alla migliore qualità ambientale di anfratti protetti dagli eventi atmosferici e dalla incuria dell’uomo.

Quasi contemporaneamente al testo di Fritz ne è stato pubblicato un altro del genetista Guido Barbujani che integra quello di Fritz: questo, abbiamo visto di carattere socioambientale, quello di Barbujani più dedicato all’evoluzione dell’Homo Sapiens ed alle diverse scoperte di scheletri avvenute nel mondo.

L’ autore in 25 racconti descrive l’evoluzione dell’uomo. Ogni racconto si riferisce alla scoperta di uno scheletro da Oase 2, cranio preistorico di 37 mila anni fa, allo scheletro di Cap Blanc, dall’Africa al Brasile, dall’uomo di Cheddar, prime pelli bianche, occhi chiari, a Ötzi,il Sapiens italiano.

In molte di queste scoperte il livello di conoscenza è stato di certo accresciuto attraverso la chimica della datazione che riesce a superare i limiti del tempo che passa individuando segnali e marker che consentono di decifrare la nascita o l’età di un reperto. È vero che i metodi più affidabili, basati sugli isotopi radioattivi del carbonio, possono essere classificati come fisici, ma quelli sulla racemizzazione, sulla degradazione chimica indotta, sul valore dell’indice di depolimerizzazione, per certi aspetti la stessa dendrocronologia, di certo sono chimici.

Resistenza batterica e farmaci non antibiotici.

In evidenza

Claudio Della Volpe

Su questo blog abbiamo parlato spesso di infezioni batteriche e di resistenza agli antibiotici; per esempio qui.

Negli ultimi giorni un lavoro molto interessante è stato pubblicato su PNAS su questo argomento e vale la pena di rifletterci.

Antidepressants can induce mutation and enhance persistence toward multiple antibiotics

Yue Wang, Zhigang Yuh, Pengbo Ding, +6 , and Jianhua Guo  PNAS 2023 Vol. 120 | No. 5

Guo si è interessato ai possibili contributi dei farmaci non antibiotici alla resistenza agli antibiotici nel 2014, dopo che il lavoro del suo laboratorio ha trovato più geni di resistenza agli antibiotici che circolano nei campioni di acque reflue domestiche che nei campioni di acque reflue degli ospedali, dove l’uso di antibiotici è più alto.

Nell’articolo di commento uscito su Scientific American si dice:

In un lavoro del 2018, il gruppo ha riferito che Escherichia coli è diventato resistente a più antibiotici dopo essere stato esposto alla fluoxetina, che viene comunemente venduta come Prozac.

 L’ultimo studio ha esaminato altri 5 antidepressivi e 13 antibiotici di 6 classi di tali farmaci e ha studiato come si è sviluppata la resistenzain E. coli.

Guo ipotizza che essi provochino “una risposta SOS”, innescando meccanismi di difesa cellulare che, a loro volta, rendono i batteri più capaci di sopravvivere al successivo trattamento antibiotico.

Dicono gli autori:

La resistenza agli antibiotici è una minaccia urgente per la salute globale. Gli antidepressivi sono consumati in grandi quantità, con una quota di mercato farmaceutica simile (4,8%) agli antibiotici (5%). Mentre gli antibiotici sono riconosciuti come il principale motore dell’aumento della resistenza agli antibiotici, poca attenzione è rivolta al contributo degli antidepressivi in questo processo. Qui, dimostriamo che gli antidepressivi a concentrazioni clinicamente rilevanti inducono resistenza a più antibiotici, anche dopo brevi periodi di esposizione. Anche la persistenza degli antibiotici è stata migliorata. Le analisi fenotipiche e genotipiche hanno rivelato che l’aumento della produzione di specie reattive dell’ossigeno dopo l’esposizione agli antidepressivi era direttamente associato ad una maggiore resistenza. Una maggiore risposta alla firma dello stress e la stimolazione dell’espressione della pompa di efflusso sono state anche associate a una maggiore resistenza e persistenza. I modelli matematici hanno anche previsto che gli antidepressivi avrebbero accelerato l’emergere di batteri resistenti agli antibiotici e le cellule persistenti avrebbero contribuito a mantenere la resistenza. Nel complesso, i nostri risultati evidenziano il rischio di resistenza agli antibiotici causato dagli antidepressivi.

Ma quale o quali sarebbero i meccanismi implicati?

Nei batteri cresciuti in condizioni di laboratorio ben ossigenate, gli antidepressivi hanno indotto le cellule a generare specie reattive dell’ossigeno: molecole tossiche che attivavano i meccanismi di difesa del microbo. Soprattutto, questo ha attivato i sistemi di pompaggio di efflusso dei batteri, un sistema di espulsione generale che molti batteri usano per eliminare varie molecole, compresi gli antibiotici. Questo probabilmente spiega come i batteri potrebbero resistere agli antibiotici senza avere specifici geni di resistenza. Ma l’esposizione di E. coli agli antidepressivi ha anche portato ad un aumento del tasso di mutazione del microbo e alla successiva selezione di vari geni di resistenza. Tuttavia, nei batteri cresciuti in condizioni anaerobiche, i livelli di specie reattive dell’ossigeno erano molto più bassi e la resistenza agli antibiotici si sviluppava molto più lentamente.

Certamente questa diventa una nuova frontiera per lo studio e l’abbattimento della resistenza agli antibiotici, vista anche la enorme diffusione dei farmaci antidepressivi.

Sitografia

Nature – How antidepressants help bacteria resist antibiotics A laboratory study unravels ways non-antibiotic drugs can contribute to drug resistance. Liam Drew

doi: https://doi.org/10.1038/d41586-023-00186-y

https://www.scientificamerican.com/article/how-antidepressants-help-bacteria-resist-antibiotics/

Il lager, la materia, la chimica e la scrittura nell’esperienza di Primo Levi

In evidenza

Mauro Icardi

Primo Levi in un’intervista televisiva racconta quali siamo stati gli elementi fondamentali della sua vita: la prigionia e l’avere deciso di scrivere.

 Il terzo elemento fondamentale della sua vita, cioè la chimica, non è mai assente anche durante la tragica esperienza quotidiana del vivere in Lager. Si manifesta in diversi modi, dal quasi surreale esame di chimica sostenuto in Lager davanti al Dottor Pannwitz, fino al tentativo di costruire pietrine per accendini con dei cilindretti di cerio trovati in un magazzino dl camp di prigionia.

Levi affermò anche che Auschwitz fosse stata forse l’esperienza più importante della sua vita. Non è semplice mettersi nei panni di questo uomo timido e garbato, che si trova proiettato nella bolgia del Lager a soli ventiquattro anni, e comprendere i pensieri e le emozioni profonde che possono averlo spinto a questa affermazione.

L’esperienza vissuta lo spinge a scrivere, perché sente dentro di sé l’obbligo morale di testimoniare quello che era l’organizzazione dei campi di sterminio.  E lo fa non solo esaminando la questione dal punto di vista morale e storico, ma anche descrivendo le assurde regole che vigevano nel campo, e le terribili condizioni di igieniche a cui i prigionieri dovevano sottostare.

Il primo testo pubblicato da Levi dopo il ritorno dal Lager è intitolato “ Rapporto sulla organizzazione igienico-sanitaria del campo di concentramento per ebrei di Monowitz”. Fu scritto in collaborazione con l’amico Leonardo De Benedetti, e comparve sulla rivista Minerva Medica. L‘intenzione era quella di descrivere con la massima obbiettività le condizioni del campo, le patologie che affliggevano i prigionieri, e il funzionamento delle camere a gas.

Ma Levi scrisse anche una lettera che inviò alla redazione de “La chimica e l’industria” e che venne pubblicata nel numero di Dicembre del 1947.

Levi descrive la condizione dei prigionieri e fornisce alcune notizie sulle sue produzioni chimiche: il campo di Monowitz, struttura satellite del più noto campo di Auschwitz, era infatti sede di vari impianti chimici, tra cui uno gigantesco per la produzione di gomma sintetica, la cosiddetta “buna”*. I bombardamenti alleati del Luglio 1944 danneggiano in parte gli impianti per la produzione della buna, che infatti non verrà mai prodotta nel campo di Monowitz. Restano attive però altre produzioni, tra cui quella di metanolo. L’azienda che gestisce gli impianti all’interno dei lager e tutta la produzione chimica di interesse per il regime nazista e l’economia di guerra è la IG Farben.

Nel dopoguerra, nel breve periodo in cui Levi prova ad esercitare la libera professione, prova a sintetizzare l’allossana come stabilizzante da impiegare nella formulazione di un rossetto. La descrizione della faticosa ricerca della materia prima, cioè escrementi di gallina, e il difficoltoso tentativo di sintetizzarla partendo dall’acido urico che vi è contenuto, e che terminerà con un insuccesso, è narrata in “Azoto”, sedicesimo racconto contenuto ne “Il sistema periodico”.

Ed è in questo capitolo che Levi spiega una parte della filosofia chimica. Partendo dall’idea che lo faceva sorridere, cioè il ricavare un cosmetico da un escremento. Cosa che non lo imbarazzava minimamente.

Il mestiere di chimico (fortificato, nel mio caso, dall’esperienza di Auschwitz) insegna a superare, anzi ad ignorare, certi ribrezzi, che non hanno nulla di necessario né di congenito: la materia è materia, né nobile né vile, infinitamente trasformabile, e non importa affatto quale sia la sua origine prossima.”

Quello della manipolazione della materia, insieme alla modificazione dell’uomo operata nel Lager, è uno dei capisaldi dell’intera sua opera. La materia che resiste all’uomo in una lotta senza fine, così come l’uomo resiste, nonostante tutto, alla manipolazione operata dai nazisti nel campo di concentramento.

* La buna è la gomma sintetica che si può ottenere dalla copolimerizzazione del butadiene con lo stirolo o con il nitrile acrilico. Il termine, il quale può sembrare così particolare, non è altro che la fusione tra le due iniziali delle parole Butadiene e Natrium (sodio) che sono la materia prima e il catalizzatore che si sfruttano nel processo.

Cibo e imballaggi.

In evidenza

Luigi Campanella, già Presidente SCI

La qualità alimentare dipende ovviamente dai prodotti a cui ci si riferisce, ma c’è poi una componente che gioca sempre un ruolo fondamentale, forse anche più importante di quanto si possa pensare. Intendo parlare degli imballaggi alimentari che proteggono l’alimento da contaminazioni e degrado, assicurando al tempo stesso il mantenimento delle caratteristiche di qualità. Inoltre con le etichette le confezioni forniscono preziose indicazioni ai consumatori circa proprietà ed uso dell’alimento confezionato. Si possono individuare 3 fasi nello sviluppo dell’imballaggio alimentare smart: una iniziale fino al 2000, una di sviluppo per altri 15 anni ed una terza esponenziale che arriva e si proietta oltre i tempi nostri.

La ricerca scientifica ha contribuito molto alla seconda fase moltissimo alla terza. In particolare la pandemia dovuta a covid 19 ha segnato un’accelerazione ed una intensificazione delle ricerche aventi per oggetto materiali sostenibili, sicuri, naturali. La maggior parte però dei prodotti delle ricerche non è ancora oggi commercializzata a causa degli elevati costi di produzione e la mancanza di codificati standard di qualità. La ricerca accademica, con le prove sui materiali e lo studio dei meccanismi di funzionamento, è davanti alla commercializzazione, come dimostrano le migliaia di lavori scientifici prodotti sul tema. È anche interessante rilevare la molteplicità delle discipline coinvolte, alternandosi atteggiamenti esclusivi monodisciplinari ad altri ben più aperti in favore di multi-pluri-inter-disciplinarietà.

Dettaglio di un convertitore analogico digitale stampato con materiali organici,
anziché con silicio, per il monitoraggio di alimenti nelle loro confezioni. Economico e veloce da realizzare. © Bart van Overbeeke

Quando i relativi risultati si trasferiranno alla produzione di imballaggi sicuri su larga scala saranno i consumatori ad usufruire di questi avanzamenti. Uno stadio intermedio nella fase di avanzamento con i nuovi materiali inseriti all’interno dei sistemi oggi operanti è probabilmente un saggio approccio metodologico.

Oggi vengono classificati 3 tipi di imballaggi avanzati: gli smart dotati di sensori, in genere Biosensori, per il controllo che il  contenuto non subisca danni durante il tragitto; gli imballaggi attivi in cui il materiale del contenitore è additivato con composti che possono essere assorbiti o rilasciati nelle due direzioni contenuto/contenitore e viceversa; gli imballaggi intelligenti dotati di sensori di controllo del contenuto come negli smart, ma anche in questo caso dell’ambiente circostante per evitare che da esso derivino rischi per il contenuto ed anche per l’integrità dell’imballaggio. Sono numerosi i materiali degli imballaggi di nuova generazione, usati sia come base sia come additivi partire da biopolimeri, cellulosa, proteine, amidi, polisaccaridi formabili in 3D. Quando si utilizzano additivi questi vengono ricercati con attenzione a proprietà specifiche, antibatteriche, antiossidanti, passivanti

La dieta planeterranea

In evidenza

Luigi Campanella, già Presidente SCI

La dieta mediterranea è da sempre considerata un veicolo fondamentale per alcune tradizioni e per la cultura alimentare del nostro Paese, oltre che per un sostegno significativo all’economia, anche se da sempre questi riconoscimenti subiscono qualche critica, dovuta alla difficoltà di trasportare una dieta così specifica a realtà così diverse come quelle che si trovano nel mondo, per di più riconosciute nella visione globalizzata del nostro Pianeta.

Una risposta puntuale a questi dubbi è venuta dalla Università Federico II di Napoli con una proposta ripresa anche da Nature, il più prestigioso giornale scientifico al mondo. La proposta è quella di esportare la dieta mediterranea nel mondo adattandola ai cibi giusti di ogni continente. Nature ha considerata geniale l’idea trasformandola in un editoriale girato, vista la diffusione del giornale, al mondo intero e tale da giustificare una nuova denominazione, non più dieta mediterranea, ma planeterranea.

Resta il carattere di un regime alimentare basato sulla completezza dei nutrimenti provenienti da alimenti freschi, stagionali con basso indice glicemico, conditi con olio extravergine. Nella nuova versione planiterranea la dieta mediterranea potrà accogliere quindi alimenti asiatici come anche sudamericani con nuove piramidi alimentari locali che però dovranno attenersi alle regole della dieta mediterranea, principalmente a base vegetale, frutta fresca e secca, con apporto adeguato di grassi mono e poli-insaturi, con farina integrale, legumi e, in quantità limitata, pesce, latticini, carne.

Assortment of various food groups: proteins, fats, fruit, vegetables and carbohydrates.

Gli studiosi che hanno formulato la proposta si sono spinti oltre, fino ad individuare, continente per continente, gli alimenti equivalenti ai fini della dieta. Un.esempio molto rappresentativo è rappresentato dai cibi algali tipici dei paesi subtropicali, raccomandati contro l’ipertensione, costituenti una fonte importante di fibre, proteine , polisaccaridi, sali, vitamine. In Canada l’olio estratto da una modificazione della colza e e da alcune variazioni di fagioli si fanno consigliare come alimenti contro l’accumulo di colesterolo. In Africa i prodotti estratti dalla manioca risultano pienamente corrispondenti per proprietà ai nostri spinaci. In America Latina avogado e papaia sono fonti di acidi grassi monoinsaturi, vitamine e polifenoli. La dieta planeterranea verrà diffusa attraverso una piattaforma ad hoc con il fine di contrastare malattie ed obesità. Per quanto riguarda le prime la proposta rinforza ulteriormente la cultura nutraceutica, secondo la quale molti dei principi attivi dei farmaci possono essere introdotti nell’organismo attraverso alimenti con proprietà antinfiammatorie, antidolorifiche, antiossidanti, antimicrobiche, antivirali così contribuendo a ridurre uno degli inquinamenti del nostro tempo sempre più presenti, quello da farmaci e loro prodotti metabolici che ha causato il moltiplicarsi, in 3-4 decenni, per 30 dell’inquinamento da farmaci delle acque dei fiumi europei.

Per il secondo aspetto c’è da osservare che adolescenti e genitori sono persone per il 30% inconsapevoli della loro condizione di obesità, come risulta da un recente studio internazionale “Action Teens”. Questa incoscienza della patologia porta a non contrastarla con conseguenze anche peggiori della causa primaria. L’Italia è purtroppo tra i Paesi a maggiori valori di sovrappeso ed obesità nei giovani in età scolare le cui conseguenze possono essere prevenute a patto di interventi tempestivi e finalizzati

Se un giorno ti svegli e il depuratore non c’è più.

In evidenza

Mauro Icardi

(Ricordi degli anni 70 e di scelte che sono state inevitabili)

Per la mia formazione culturale e personale, gli anni 70 sono stati decisamente molto importanti. In quel decennio sono passato dall’essere un bambino con le prime insopprimibili curiosità, e sono arrivato ad un passo dall’essere maggiorenne. I diciotto anni li avrei compiuti nel 1980.

Furono molti gli avvenimenti che in quegli anni cercavo di approfondire, leggendo il quotidiano di Torino “La Stampa”, che mio padre acquistava quasi tutti i giorni. L’austerity, l’epidemia di colera, il disastro di Seveso tra i tanti. Ma anche terrorismo, crisi economica, guerre (che non ci facciamo mancare mai), inquinamento e sofisticazioni alimentari.

L’austerity con la conseguente proibizione dell’uso dell’auto nei giorni festivi mi riportò indietro nel tempo, ovvero a prima dell’acquisto della prima automobile di famiglia, una fiat 500. I mezzi che utilizzavamo per spostarci erano principalmente treno e tram. Questa situazione è durata fino a quando non ho compiuto sei anni. Credo che la passione che ancora oggi ho per i mezzi su rotaia sia nata proprio in quel periodo. Mia madre mi racconta che uno dei nostri svaghi era andare in giro la domenica con il tram numero nove, partendo dal quartiere di Borgo Vittoria a Torino, dove ho abitato fino al 1966, percorrendo quasi tutta la  linea fino ad arrivare al capolinea opposto, che si trovava a pochi metri dallo stadio comunale. Con lo stesso tram raggiungevamo la stazione di Porta Nuova quando si andavano a trovare i nonni paterni e materni nel Monferrato. Un tragitto di circa un’ora e mezza che mi sembrava infinito, e che avrei voluto non finisse tanto presto.  Ero un bambino curioso che pronunciava molto spesso una parola: perché. Su quei treni c’erano molte altre persone, parenti o amici dei miei genitori, che ritornavano nello stesso paese, cioè Mombaruzzo.

Quando mia mamma era sul punto di soccombere alle mie continue domande, mi affidava a qualche persona di buona volontà, che mi faceva passeggiare avanti e indietro lungo il convoglio.

 E puntualmente ricominciavo a tempestare il povero sventurato con una raffica continua di domande. Nel 1973 posso dire che l’austerity fu per me decisamente un periodo festoso. Ero libero di viaggiare quasi a piacimento in treno e in bicicletta! Il treno avevamo smesso di usarlo ormai da cinque anni. La 500 color “Blu turchese”, come recitava la targhetta applicata all’interno del piccolo portello che copriva il vano motore posteriore, lo aveva soppiantato. Ma adesso si prendeva la sua rivincita. Così io potevo tornare a soddisfare la mia passione per treni e tram.

La crisi petrolifera del 1973 ebbe l’effetto di far comprendere, anche se solo parzialmente, che non era saggio affidare le necessità di mobilità unicamente alla motorizzazione privata. Torino accantonò il progetto di dismissione della rete tramviaria, e le ferrovie cercarono di fermare la tendenza al calo costante di passeggeri. Ricordo una campagna pubblicitaria per incentivare l’uso del treno che mi aveva molto colpito. Si poteva vedere sui cartelloni pubblicitari, e sulle pagine di riviste e quotidiani.  Uno sconcertato viaggiatore con la valigia in mano sul marciapiede di una stazione, guardava la massicciata priva di rotaie, mentre la didascalia sullo sfondo recitava più o meno cosi: “Se un giorno ti svegli e il treno non c’è più?”

Personalmente vista la mia passione ferroviaria, provo sempre molto disagio quando vedo massicciate senza più binari. Ed è stato proprio il ricordo di quella campagna pubblicitaria che mi ha suggerito il titolo di questo post e le riflessioni che seguono.

L’abitudine a considerare scontate alcune cose, spesso ci fa perdere la percezione della loro importanza.      In quegli anni si manifestarono con molta evidenza i risultati di uno sviluppo industriale che era stato impetuoso, ma che non aveva minimamente considerato l’impatto dei residui sull’ambiente naturale. Anche la crescita della popolazione nelle città più industrializzate ebbe un forte impatto sull’ambiente. Esistevano sul territorio nazionale alcuni depuratori, che si limitavano ad effettuare un trattamento che spesso si limitava alla sola sedimentazione primaria, prima di scaricare i reflui direttamente nei corsi d’acqua.  Proviamo a immaginare cosa potremmo vedere se domani svegliandoci ci accorgessimo che i depuratori sono spariti.

Faremmo un gigantesco passo indietro. Torneremmo a vedere i fiumi cambiare colore a seconda degli scarichi che in quel momento vi si riversano, e potremmo capire che ora del giorno sia. Questo si diceva del fiume Olona, prima che iniziasse l’opera di risanamento. Ci accorgeremmo della presenza di un fiume sentendo a centinaia di metri di distanza l’odore nauseante della degradazione anossica della sostanza organica. Ma prima di tutto questo sentiremmo l’odore della putrefazione dei pesci. Perché i pesci sarebbero i primi a sparire, boccheggiando disperatamente alla ricerca di quell’ossigeno che le loro branchie, nonostante l’evoluzione le abbia rese più efficienti dei nostri polmoni, non riuscirebbero più ad assorbire. Non vi sarebbe più ossigeno disciolto, né vita acquatica come siamo abituati a concepirla.

E di questo si parlava nei testi scolastici proprio degli anni 70. Nei telegiornali, e nelle trasmissioni televisive che ancora si possono rivedere nei siti della Rai.

Credo abbia un valore storico riportare il testo di questo articolo del 29 Luglio 1970,tratto dall’archivio storico del quotidiano “La stampa”, che descrive l’inquinamento della laguna di Venezia. Nella stessa pagina vi erano articoli relativi allo stesso problema, che spaziavano dal litorale di Roma, al canale Redefossi di Milano, e ai fiumi Bormida e Tanaro in Piemonte.

La laguna “fermenta” Moria di pesci – Gravi preoccupazioni a. (g. gr.)

 La laguna fermenta: questo l’allarme che parte da Venezia e si inserisce nel preoccupante quadro degli inquinamenti. Tralasciando di parlare del mare e dei fiumi della sua zona, è soprattutto la laguna che preoccupa i veneziani. Basti ricordare come alla fine dello scorso giugno una preoccupante moria di pesce si sia accompagnata ad un puzzo insopportabile che giorno e notte infastidì i veneziani; gli oggetti in argento si annerivano, alghe putrefatte affioravano nei canali, macchie preoccupanti comparivano sui muri delle case. Il fenomeno — è stato dichiarato ufficialmente dal comune — verosimilmente è da riferirsi a una lenta modificazione dell’ecologia lagunare. A Venezia, hanno detto gli esperti, la laguna si sta concimando, cioè sta diventando troppo fertile. Secondo i ricercatori dell’Università di Padova, i responsabili di questa trasformazione del fondo e della flora lagunare sono gli scarichi urbani, i detersivi, i fertilizzanti agricoli, le immondizie e l’industria. Nella laguna si sono anche notati aumenti nella presenza di idrocarburi, dovuti probabilmente all’accumulo di scarichi incontrollati di nafta sull’arco dei decenni. Quest’ultimo fenomeno mette in evidenza l’urgenza di dotare la città di fognature e di impianti di depurazione adeguati. Il fenomeno dell’inquinamento preoccupa le autorità per due motivi: la circolazione nei canali viene resa difficile dagli accumuli di rifiuti, il turismo sarebbe poi gravemente danneggiato dalla visione delle larghe chiazze di nafta sulla superficie dell’acqua. Venezia perderebbe il suo fascino, insomma. Non esistono per ora pericoli per gli abitanti, ma si prospetta, con l’andare del tempo, anche questo rischio.

E’ stata la lettura di articoli simili a questo, è stato l’aver visto con i miei occhi di bambino prima, e di adolescente poi, che esplorava il proprio spicchio di mondo pedalando su una bicicletta modello “Graziella” di colore azzurro, i canali di irrigazione nella campagna adiacente a Chivasso dove galleggiavano  flaconi di plastica, che si ammassavano sotto le arcate dei ponti. Tutto origina da quegli anni.

I trent’anni di lavoro in depurazione sono stati già superati. La passione di voler imparare e conoscere ancora, proprio no. Perchè c’è sempre tanto lavoro da dover fare. C’è sempre una spinta ad avere delle passioni E c’è da sperare che domani, svegliandoci al mattino, ci si renda conto che non sono spariti né i treni, né i depuratori. La chimica è stata una chiave, uno strumento di lavoro per approcciare questi temi. Giusto ricordarlo. Rifletto spesso che date queste premesse posso dire di essere stato fortunato a fare il lavoro che ho fatto. E anche quello che cerco di fare qui, raccontando di cosa si occupano i tecnici della depurazione.

Smontiamo le cialde (e le capsule).

In evidenza

Luigi Campanella

Un americano su 2 ha una macchina da caffè con capsule o cialde. Tenuto conto che l’Europa cammina ad una velocità poco inferiore a quella americana e che anche il mercato asiatico è in via di adeguamento a questi numeri si calcola che nel 2025 il giro di affari dei vari tipi di capsule si aggirerà sui 30 miliardi di euro. In Italia 2 famiglie su 5 usano le cialde per un totale di1,5 miliardi di cialde l’anno con un tasso di crescita annua del 13%. Nel.mondo le cialde consumate ammontano a mezzo miliardo di tonnellate. Questi dati giustificano quanto si sta tentando di fare per ridurli a valori più sostenibili. La prima osservazione non può che riguardare lo stile di vita e chiedersi se proprio sia necessario abbandonare la moka per il caffè monouso anche pensando al fine vita: un elettrodomestico elettronico contro un altro più facilmente  smaltibile in quanto più smontabile nei singoli pezzi e ricaricabile nell’uso in modo semplice con un cucchiaino. Ovviamente chi sceglie le cialde fa riferimento alla rapidità con cui si ottiene la bevanda amata ed alla assenza di rischio di bruciare il caffè o di dimenticare il fuoco acceso. Per contrastare le critiche alle cialde i produttori si muovono su varie direzioni a cominciare con lo scaricare sul consumatore la responsabilità di uno smaltimento sostenibile.

L’altro accorgimento è ricorrere a capsule svuotabili fatte in un solo materiale rispetto al.mjx attuale (plastica ed alluminio) con il caffè usato svuotato da conferire nel bidoncino dell’organico. Per agevolare il consumatore alcuni produttori forniscono un apri capsule domestico che con una leggera pressione separa il contenitore dal contenuto. Però nascono allora 2 domande: il guadagno di tempo che fine ha fatto? Perchè non ricorrere alla riutilizzabilità delle capsule con la possibilità di ricaricare con qualunque miscela di caffè e conseguente vantaggio economico? Alcuni produttori raccolgono le capsule usate, separano contenuto da contenitore e riciclano il materiale di questo. L’alluminio è uno degli elementi più facilmente ed economicamente riciclabili con un risparmio energetico del 90% rispetto ai costi di produzione dalle materie prime. Il caffè smaltito è un ottimo concime, specificatamente in relazione alla sua composizione per le culture di riso di cui viene incrementata significativamente la produttività con i conseguenti vantaggi economici ed etici (lotta alla fame.nel.mondo). Una recente opzione del mercato è il ricorso alla cialda fotodegradabile in carta con il vantaggio che si può conferire il tutto nell’organico senza nessuna separazione fra contenitore e contenuto.

L’ultima innovazione viene dalla Svizzera con una sfera costituita da un polimero algale contenente caffè pressato e quindi da potere essere caricato in minore quantità senza incidere sul gusto della bevanda. Come si vede tanti pro e tanti contro, senza parlare dell’aspetto estetico e dell’eleganza dei vari modelli alcuni dei quali smontabili e ristampabili in 3D per le parti danneggiate. Un discorso più scientifico circa il confronto fra le varie possibili soluzioni si può fare con riferimento ai differenti valori della impronta carbonica utilizzando le Public Available Specifications. Una ricerca dell’Università della Tuscia ha fornito i risultati di questo confronto.

La moka ad induzione genera 55-57 g di CO2,la moka a gas 47-59 g, la macchina per il caffè espresso 74-96 g, quella a capsule 57-73, infine quella a cialde 72-92 g. C’è però da precisare che se si considera l’intero ciclo di vita vanno aggiunti ai dati ora forniti le quantità di CO2 prodotta per la produzione e lo smaltimento di cialde e capsule. Ci sono poi da considerare gli imballaggi, tutti a favore della tazzina con moka, solo 0,5 g contro i 6,4 g del caffè in cialde. A questi dati a favore della moka ad induzione si deve poi aggiungere ad ulteriore suo vantaggio che questa consuma meno energia per essere scaldata:6 wattora contro il doppio della macchina a cialde.

Scaldarsi con poco?

In evidenza

Claudio Della Volpe

Giorni fa mi sono imbattuto nella pubblicità di vari tipi di stufe che non appaiono così comuni e mi è venuta spontaneamente la voglia di approfondirne le caratteristiche; dopo tutto siamo in inverno e il riscaldamento degli edifici è uno dei problemi pratici da affrontare per milioni di persone; certo la cosa migliore è di investire in case che non hanno bisogno di riscaldamento oppure che usano energie rinnovabili, per esempio l’accoppiata fotovoltaico-geotermia a bassa temperatura che si avvia a diventare una delle tecniche più interessanti.

Ma diciamo la verità, da una parte la scarsa conoscenza tecnica dall’altra la presenza di un robusto sistema produttivo basato sul bruciare qualche tipo di combustibile e infine i costi relativamente elevati delle tecnologie più nuove fanno si che vengano alla ribalta metodi molto più tradizionali.

Oggi vi farò due esempi, fra di loro alquanto diversi, di questi metodi perché mi hanno colpito e perché dopo tutto sono relativamente diffusi: uno è un metodo di riscaldamento diretto basato sulle stufe ad alcool etilico o come dicono i venditori a “bioetanolo” e l’altro un metodo sostanzialmente di accumulo del calore, le stufe a sabbia, che potrebbe forse essere sfruttato per cose più ambiziose.

C’è un massiccio dispositivo pubblicitario che spinge le cose, specie nel caso delle stufe a bioetanolo e che è basato su una serie di enormi ambiguità.

A cominciare dal nome “bioetanolo”; come al solito il prefisso bio è usato con uno scopo esclusivamente pubblicitario; si sottintende che dato che è di origine naturale, ottenuto per distillazione da componenti vegetali è un prodotto sano e buono di per se; ma le cose sono più complesse di così.

Lavori recenti confermano quel che già si sapeva: la produzione di bioetanolo da piante come la cassava o il mais o la canna da zucchero entra in diretta concorrenza con la produzione di cibo e lo fa specie in paesi poveri, dove quella produzione è preziosa. In secondo luogo se uno fa il conto di quanta energia si ottiene per via netta, scorporando l’energia grigia (ossia quella che serve alla coltivazione distillazione e trasporto ) il conto non torna, i risultati sono spesso al limite o della unità o di un valore critico minimale (EROI 3:1) e solo alcuni autori lo stimano molto alto e comparabile con quello di tecnologia più affermate (per dati affidabili si veda per esempio un lavoro di Hall, che ha inventato il concetto di EROI,  e altri, https://www.sciencedirect.com/science/article/pii/S0301421513003856).

Dunque la parolina bio non basta a rendere l’etanolo di origine agricola un prodotto sostenibile; ma c’è molto di più. Il vantaggio che viene stressato da chi vende le stufe a bioteanolo o ad etanolo (dopo tutto il consumatore finale difficilmente è in grado di rendersi conto della effettiva origine del combustibile che compra casomai su Amazon) è che non c’è bisogno per queste stufe di avere un camino.

Alcuni produttori citano a questo riguardo un regolamento europeo del 1993 (dunque ormai trentennale) ma che si riferisce alla denaturazione dell’alcol etilico; mentre in realtà le norme che consentono e regolano le stufe a bioetanolo sono norme UNI o EN, la UNI-11518:2013 poi superata dalla UNI EN 16647 : 2016; come tutte le norme UNI questa non è libera, cioè occorre pagare per poter leggere le norme necessarie a fare le cose, una assurdità tutta italiana e tutta mercantile; d’altronde siamo o no il paese in cui per sapere come pagare le tasse occorre andare da un commercialista o al CAF? Diciamo che questi pagamenti servono agli stipendi di UNI più che a pagare gli esperti che fanno le norme e che non vengono pagati.

Alcune cose si riescono a estrarre comunque.

Ci sono alcuni metodi di riscaldamento a combustione che non necessitano di camino: sia l’etanolo che gli idrocarburi liquidi, il GPL (questi ultimi se bruciati in stufe a catalizzatore) godono di questo privilegio. (ATTENZIONE: le stufe a pellet dette “senza canna fumaria” in realtà necessitano di una canna fumaria, non necessariamente in muratura.)

La differenza fra queste due tipologie sta nel fatto che le stufe a etanolo o a GPL non fanno fumi (o almeno non ne fanno in quantità significative), ma producono invece i prodotti basici della combustione, CO2 ed acqua, più una quantità piccola ma misurabile di altre molecole tipiche delle combustioni, anche in funzione delle condizioni effettive di composizione del combustibile e di combustione (miscelazione, temperatura, etc). La purezza del combustibile è dunque condizione essenziale per evitare la produzione di sostanze tossiche o semplicemente puzzolenti. Non completamente perché secondo il regolamento del 1993 che invece stabilisce la composizione dell’alcol denaturato (che è quello al 96% che si usa in questi casi) una quantità di “impurezze” sono permesse dalla legge; le tecniche di denaturazione dipendono dal paese europeo; in Italia per esempio l’alcool denaturato contiene:

Per ettolitro anidro di alcole puro:
– 125 grammi di tiofene,
– 0,8 grammi di denatonium benzoato,
– 0,4 grammi di C.l., acid red 51 (colorante rosso),

– 2 litri di metiletilchetone.

Nel momento della combustione queste sostanze, specie all’inizio, possono produrre comunque odore sgradevole. Infine piccole quantità di CO (che è tossico, non solo asfissiante come la CO2) si possono produrre specie se il dispositivo funziona male.

Un secondo problema è causato poi dal fatto che l’alcool etilico è infiammabile e questo, specie in fase di riempimento del serbatoio, può dare origine a pericolosi incidenti se non si rispettano regole precise per evitare il contatto con materiali molto caldi; un nutrito set di incidenti a livello internazionale è riportato in letteratura (vedi in fondo) . Per evitare grandi rischi la quantità di alcol che si può usare per ciascuna alimentazione è ridotta, diciamo che in una grande stufa c’è un serbatoio di 4-5 litri ossia, considerando la densità di 0.8 kg/L, qualche chilo.

E arriviamo ad un po’ di stechiometria e chimica fisica; quanto calore e quanta CO2 si producono?

L’entalpia di combustione dell’alcol etilico puro è di 27 MJ/kg (la legna oscilla fra 15 e 17MJ/kg) e la quantità di CO2 prodotta è di 1.9kg/kg (all’incirca 1.8 nel caso del legno).

La differenza sta oltre che nella bassissima produzione di fumi da parte dell’alcol nel ridotto rischio nel maneggiare la legna; mentre far bruciare l’alcol è molto semplice accendere il fuoco con la legna può essere parecchio più difficile.

Una grande stufa ad alcol, diciamo da 3-4 kW di potenza col suo serbatoio di 5 litri (ossia 4kg) potrà bruciare per quanto tempo? La risposta è alcune ore, ma queste sono le dimensioni massime che si possono avere; semplice fare il conto se avete 4kg di alcol potete ottenere poco più di 108MJ  di energia termica; 4 kW sono 4kJ/s e dunque la stufa potrà lavorare per 7-8 ore, consumando circa mezzo litro l’ora. E quanta CO2 produrrà? Quasi 8kg che sono 4mila litri di gas, 4 metri cubi, raggiungendo una concentrazione in un volume poniamo di 300 metri cubi,(consideriamo un appartamento di 100 metri quadri ) superiore all’1%, che è 20-30 volte maggiore della concentrazione naturale (0.04%) ossia arriviamo a 8-10mila ppm mentre il massimo consigliato in ambienti molto vissuti è 2500 ppm per evitare disturbi significativi ; un po’ troppo! Per cui la norma UNI impone di aerare i locali ripetutamente e questo ovviamente contrasta con il mantenimento di una temperatura decente.  Anche perché si genera parecchia acqua (1.2 kg/kg di alcol) e l’umidità ambientale aumenta col rischio di avere condensa e muffe.

Conclusione: sì, potete risparmiare di costruire un camino se non ce l’avete, ma la resa complessiva non sarà ottimale rispetto a quella di avere un camino funzionante e in genere non se ne consiglia l’uso in grandi ambienti : piccole stufe in piccoli ambienti, non il riscaldamento principale insomma, e sempre attenti a rischio incendio e qualità dell’aria.

Certo sono oggetti anche ben fatti ed esteticamente validi, ma questo cosa c’entra col riscaldamento?

Un’ultima considerazione è il costo; al momento è di 3 euro al litro, poco meno di 4 al kilo, mentre la legna costa 1 euro al kilo; la differenza è notevole per unità di calore ottenuta. 

Passiamo alla stufa a sabbia che è invece un oggetto della mia infanzia. mio padre era un convinto utente della stufa a sabbia; ai tempi era elettrica come è anche adesso e dunque un oggetto dai consumi certo non economici; dove è l’utilità?

L’utilità è nella capacità di riscaldare la stufa ad una temperatura anche elevata e consentire il rilascio lento di questo calore nel tempo; di solito è fatta immergendo delle resistenze metalliche nella sabbia; e la sabbia ha una capacità termica che può essere significativa dato che può raggiungere temperature elevate senza alterarsi significativamente, anche varie centinaia di gradi; ovviamente il problema è che non potete toccare la sabbia e il dispositivo deve essere costruito in modo da evitare contatti molto pericolosi, deve riscaldare solo l’aria ambiente.

La capacità termica della sabbia è di 830J/kgK; immaginiamo allora di averne a disposizione 1 kg e di riscaldarlo a 100°C sopra la temperatura ambiente; il calore disponibile sarà di 83000J; supponiamo di averne 100kg, un oggetto parecchio pesante dunque, ma una volta riscaldato avrà accumulato e ci restituirà nel tempo 8.3MJ e se lo riscaldiamo a 200°C  sopra l’ambiente avremo l’accumulo di 16.6MJ che corrispondono a bruciare un kilo di legno.

Non è impossibile isolare bene la massa di sabbia e conservare il calore per parecchie decine di ore o anche più sfruttandolo all’occorrenza.

L’idea, che è venuta ad un gruppo di tecnici finlandesi della Polar Night Energy, è di usare sabbia di quarzo di buona qualità ed in grandi quantità riscaldata a 1000°C usando per esempio eolico o fotovoltaico  nei momenti di eccesso di produzione; in questo modo ogni ton di sabbia di quarzo potrebbe immagazzinare 830MJ/ton e secondo i loro esperimenti e calcoli rappresenta un modo innovativo ma semplice di accumulare energia termica a basso costo (attenzione una ton di idrocarburo produce oltre 40GJ, 50 volte di più).

Attualmente ci stiamo concentrando su due prodotti. Al momento possiamo offrire un sistema di accumulo di calore con potenza di riscaldamento di 2 MW con una capacità di 300 MWh o una potenza di riscaldamento di 10 MWh con una capacità di 1000 MWh. Il nostro sistema di accumulo di calore è scalabile per molti scopi diversi e amplieremo la gamma di prodotti in futuro. I nostri accumulatori sono progettati sulla base di simulazioni che utilizzano il software COMSOL Multiphysics. Progettiamo i nostri sistemi utilizzando modelli di trasporto del calore transitorio 3D e con dati di input e output reali. Abbiamo progettato e costruito il nostro primo accumulo di calore commerciale a base di sabbia a Vatajankoski, un’azienda energetica con sede nella Finlandia occidentale. Fornirà calore per la rete di teleriscaldamento di Vatajankoski a Kankaanpää, in Finlandia. L’accumulo ha una potenza di riscaldamento di 100 kW e una capacità di 8 MWh. L’utilizzo su vasta scala dello stoccaggio inizierà durante l’anno 2022. Abbiamo anche un impianto pilota da 3 MWh a Hiedanranta, Tampere. È collegato a una rete di teleriscaldamento locale e fornisce calore per un paio di edifici. Il progetto pilota consente di testare, convalidare e ottimizzare la soluzione di accumulo di calore. Nel progetto pilota, l’energia proviene in parte da un array di pannelli solari di 100 metri quadrati e in parte dalla rete elettrica.

Il dispositivo è correntemente sul mercato. Ci riscalderemo con queste “batterie a sabbia”?

Materiali consultati oltre quelli citati.

https://www.expoclima.net/camini-a-bioetanolo-la-nuova-norma-uni-11518

https://eur-lex.europa.eu/legal-content/IT/TXT/HTML/?uri=CELEX:01993R3199-20050814

https://www.treehugger.com/viral-sand-battery-isnt-what-it-seems-5547707

https://sauermanngroup.com/it-IT/insights/misura-della-concentrazione-di-co2-calcolare-il-tasso-di-ricambio-dellaria

anche in Italia si producono “batterie a sabbia”: https://www.magaldigreenenergy.com/en/economy-energia-green-con-le-batterie-di-sabbia

Incidenti con le stufe a bioetanolo:

J Burn Care Res 2011 Mar-Apr;32(2):173-7. doi: 10.1097/BCR.0b013e31820aade7

Burns Volume 42, Issue 1, February 2016, Pages 209-214

https://www.sciencedaily.com/releases/2014/09/140903091728.htm

Ringrazio Gianni Comoretto per gli utili suggerimenti.


 

Recupero del fosforo: problematiche e progetti di ricerca.

In evidenza

Mauro Icardi

Il fosforo (P) è un elemento essenziale della vita, è presente in tutti gli organismi viventi ed èfondamentale in agricoltura per garantire la produttività dei suoli coltivati. Trattandosi di una risorsa nonrinnovabile e limitata, la crescente domanda di fertilizzanti sta gradualmente esaurendo le riserve di rocce fosfatiche. Inoltre i giacimenti di fosforo sono situati in zone specifiche del pianeta. Alcuni dei paesi produttori di fosforo si trovano in condizioni di instabilità geopolitica. Questo rende il prezzo soggetto a forti variazioni, ed allo stesso tempo meno certa la possibilità di approvvigionamento.  L’Europa nord-occidentale importa l’88% del fabbisogno di fosforo, circa 6,37 milioni di tonnellate per anno, da nazioni non appartenenti all’Unione Europea.

 Il fosforo può essere recuperato in diverse fasi del trattamento delle acque reflue, sia sulla matrice acqua che sui fanghi di depurazione. I fanghi di depurazione che si producono alla fine dei trattamenti eseguiti sull’acqua da depurare, contengono circa il 95-99% di acqua e l’1-5% di materia secca. Purtroppo In Italia forse più che in altri paesi, esiste un diffuso senso di perplessità nei confronti di tutto quello che riguarda la gestione ed il trattamento dei fanghi. Con molta probabilità per il risalto che hanno avuto alcune vicende di cattiva gestione. Proprio per questa ragione vanno invece incoraggiate buone pratiche e la ricerca, per la gestione di questi inevitabili residui del trattamento delle acque reflue. E aumentati i controlli sul ciclo dei rifiuti.

Dopo i processi di separazione solido/liquido, la frazione acquosa dei fanghi contiene dal 5 al 20% del fosforo in forma disciolta. Da questa frazione è possibile separare la struvite, sale fosfo-ammonico-magnesiaco. Il processo è conosciuto fin dagli anni 80 ed è utilizzato nei paesi del nord Europa.  Avevo trattato il tema già nel 2015.

 Tuttavia la maggior parte del fosforo (dall’80 al 95%) rimane nei fanghi di risulta, ottenuti dopo i processi di disidratazione meccanica. Se i fanghi vengono essiccati termicamente fino ad avere una percentuale di sostanza secca intorno al 40%, diventano idonei per un processo di termovalorizzazione alimentato dalla combustione dei soli fanghi (mono-incenerimento). La combustione è il trattamento termico oggi più utilizzato (ma non in Italia come vedremo più avanti), per la valorizzazione energetica dei fanghi non idonei per l’utilizzo in ambito agricolo. Il potere calorifico dei fanghi di depurazione essiccati fino al valore del 40% di secco, consente la loro combustione senza necessità di ricorrere all’uso di combustibili ausiliari. Con una progettazione adeguata è possibile recuperare calore per il preriscaldamento dei fanghi, o per la produzione di energia.

La percentuale di fanghi inceneriti sul totale dei fanghi prodotti è del 3% in Italia, 19% in Francia, 24% in Danimarca, 44% in Austria, 56% in Germania, 64% in Belgio, e il 100% nei Paesi Bassi e in Svizzera. Negli Stati Uniti e in Giappone le percentuali sono rispettivamente del 25% e del 55%.  In Svizzera è stato vietato totalmente l’utilizzo agricolo dei fanghi di depurazione.  I fanghi di depurazione in Svizzera sono destinati unicamente all’incenerimento, dopo essere stati sottoposti a disidratazione ed essicamento termico.

Il recupero del fosforo può essere effettuato precipitandolo come struvite dalle acque di risulta del processo di disidratazione dei fanghi, prima che esse siano reimmesse all’ingresso del trattamento depurativo. Queste acque ne contengono all’incirca il 15% del totale. Il rimanente quantitativo, come detto precedentemente, è concentrato nei fanghi umidi. In Svizzera cantone di Zurigo ha realizzato un impianto centralizzato che tratta 84mila tonnellate/anno di fanghi umidi, e produce 13000 tonnellate/anno di ceneri ricche di fosforo residuo del processo di incenerimento. I fanghi provengono da tutti gli impianti di depurazione cantonali. L’ufficio federale per l’ambiente della Svizzera sta modificando la propria normativa sui  rifiuti, ed ha già rilasciato permessi per lo stoccaggio delle ceneri derivanti da incenerimento dei soli fanghi di depurazione. Questo in previsione di poter sviluppare una tecnica adatta ed economicamente conveniente per il recupero del fosforo da questa matrice, con l’intenzione ridurre drasticamente l’importazione di fertilizzanti a base di fosforo. Anche in Danimarca si sta procedendo nella stessa maniera.

Le ceneri di fanghi di depurazione ottenuti da incenerimento potrebbero diventare delle principali risorse secondarie di fosforo. La percentuale di fosforo presente nelle ceneri, espressa come anidride fosforica, di solito varia tra il 10 e il 20%, cioè praticamente uguale alle percentuali presenti nelle rocce fosfatiche minerali. In Svizzera ma anche nell’Unione Europea e in Italia, sono stati sviluppati negli ultimi anni diversi progetti finanziati dall’Unione Europea per lo sviluppo di tecniche per il recupero del fosforo. Non soltanto dalle acque reflue, ma anche dai residui dell’industria agroalimentare, di quella farmaceutica e di quella siderurgica.  

In Lombardia un gruppo di aziende del ciclo idrico ha sviluppato in collaborazione con il Politecnico di Milano, l’università degli di studi Milano-Bicocca e IRSA CNR la piattaforma Per FORM WATER 2030. Le attività di ricerca mirano ad ottimizzare le risorse e a sviluppare tecniche per il recupero di energia e materia dai depuratori. Relativamente al fosforo, il recupero effettuato sui fanghi umidi è una strada ormai abbandonata, per ragioni di scarsa convenienza economica.  L’attenzione si è focalizzata quindi sulle ceneri da mono incenerimento di fanghi, e principalmente su due tecniche per il recupero del fosforo da questa matrice: la lisciviazione acida, e l’arrostimento termico. Il processo termochimico è costituito da un dosaggio di cloruro e da un trattamento termico tra gli 850 e i 1000°C in modo da rimuovere i metalli pesanti. Questa tecnologia nasce a partire dal progetto europeo SUSAN EU-FP6.  In un forno rotativo le ceneri dei fanghi reagiscono con Na2SO4 lasciando evaporare i metalli pesanti e precipitare le ceneri contenenti fosfati.

Nei processi di lisciviazione a umido si effettua una dissoluzione in ambiente acido  (pH< 2) seguita solitamente da una filtrazione, oppure da una separazione liquido-liquido e una successiva precipitazione o scambio ionico. Le tecniche sono attualmente ancora allo stadio realizzativo di impianti pilota. In Italia le sperimentazioni si fermano alle prove di laboratorio, in quanto attualmente sul territorio nazionale non esistono impianti di incenerimento dedicati unicamente alla combustione di fanghi.

Il passaggio allo stato applicativo vero e proprio è ancora frenato dai costi del processo. Se attualmente il prezzo medio del fosforo ottenuto da rocce fosfatiche è di circa 1-1,2 €/Kg le tecniche sperimentali per estrarlo da ceneri arrivano ad un prezzo di produzione pari a 2-2,5 €/Kg. Ma la crescita della popolazione, l’impoverimento dei suoli, la siccità potrebbero essere fattori che con molta probabilità potranno concorrere ad ulteriori richieste di fosforo sul mercato. Ed è facile prevedere la possibilità di ulteriori rincari e difficoltà di approvvigionamento.

Non sono a mio parere importanti le sole considerazioni tecnico-economiche. I passaggi precedenti allo sviluppo di queste tecnologie dovrebbero riguardare un uso meno esasperato della concimazione dei suoli, una diminuzione dello spreco di cibo, una procreazione ponderata e ragionata. Una educazione alla conoscenza delle leggi naturali, delle dinamiche dei cicli biogeochimici, una disintossicazione da un consumismo esagerato e compulsivo, seguito da una negazione dei problemi ambientali del pianeta terra che non ha più nessuna giustificazione logica.

La chimica in questo senso riveste un ruolo fondamentale.  La chimica è studio della materia e, come diceva Primo Levi, non interessa affatto quale sia la sua origine prossima. Se siamo stati distrattamente avidi depauperando le risorse disponibili, dobbiamo imparare e costruire la chimica e la tecnica delle materie residue.

E’ possibile la vita sulla superficie di Marte?

In evidenza

Diego Tesauro

E’ possibile la vita sulla superficie di Marte? A questa domanda potrebbe rispondere il rover  Rosalind Franklin della missione ExoMars (Figura 1) quando verrà lanciato. La missione, essendo una cooperazione congiunta dell’ Esa con la Roscosmos, a seguito dell’invasione dell’Ucraina, è stata bloccata dovendo partire dal cosmodromo di Baikonur lanciata dal razzo Proton. A questa missione è stata affidato l’esperimento Bottle (Brine Observation Transition To Liquid Experiment). Questo esperimento ha come obiettivo di generare acqua liquida sulla superficie di Marte mediante la deliquescenza, un processo in cui un sale igroscopico assorbendo vapore d’acqua dall’atmosfera, genera una soluzione salina. Inoltre si indagherà l’eventuale abitabilità di queste salamoie. La vita, almeno per come la conosciamo, oltre la presenza di carbonio, idrogeno, azoto, ossigeno, fosforo e zolfo, indicati con l’acronimo CHNOPS, necessita anche di altri oligoelementi e soprattutto dell’acqua liquida e di energia. Ora su Marte, l’energia potrebbe essere fornita dalla luce solare o da processi chimici. Il carbonio è disponibile nella sottile atmosfera sotto forma di biossido di carbonio, gli oligoelementi sono largamente presenti nella regolite, lo strato di polvere fine che ne ricopre la superficie.

Il fattore fortemente limitante è la presenza acqua liquida a causa della bassa pressione atmosferica (da 7 a 4 millibar contro i circa mille millibar terrestri) e delle temperature prevalentemente sotto lo zero Celsius. In queste condizioni, come ben sappiamo fin dai nostri primi studi di Chimica Fisica l’unica possibilità perché l’acqua sia liquida, in base alla legge di Raoult e dell’abbassamento crioscopico, è la presenza in soluzioni ad alta concentrazione salina. Sulla superficie del pianeta rosso sono stati rilevati negli ultimi decenni sali igroscopici in grado di formare salamoie che potrebbero rendere l’acqua liquida, fra cui i perclorati. Queste considerazioni hanno negli ultimi anni spinto la ricerca a trovare dei potenziali microorganismi in grado di vivere in queste condizioni drastiche, che chiaramente presentano varie problematiche. In primo luogo l’elevata salinità, che avrebbe quest’acqua, sarebbe in grado di modificare l’equilibrio osmotico delle cellule. Inoltre i perclorati hanno un effetto caotropico promuovendo la denaturazione delle macromolecole, il danno al DNA e lo stress ossidativo dovuto all’elevato potere ossidante del cloro nello stato di ossidazione +7.

Fra i potenziali microorganismi che potrebbero adattarsi a queste condizioni si annoverano gli archaea alofili (famiglia Halobacteriaceae). Queste specie si sono adattate alla vita agli estremi di salinità sulla Terra, pertanto potrebbero risultare dei buoni candidati per la vita anche su Marte. Molte specie resistono a livelli elevati di radiazioni UV e gamma; una specie è sopravvissuta all’esposizione al vuoto e alle radiazioni durante un volo spaziale; e c’è almeno una specie psicrotollerante (specie che crescono a 0°C, ma hanno un optimum di temperatura di 20-40 °C),. Gli archaea alofili possono sopravvivere per milioni di anni all’interno delle inclusioni di salamoia nei cristalli di sale. Molte specie hanno diverse modalità di metabolismo anaerobico e alcune possono utilizzare la luce come fonte di energia utilizzando la batteriorodopsina della pompa protonica guidata dalla luce. Inoltre la presenza dei caratteristici pigmenti carotenoidi (α-bacterioruberina e derivati) rende le Halobacteriaceae facilmente identificabili mediante spettroscopia Raman [1]. Pertanto, se presenti su Marte, tali organismi possono essere rilevati dalla strumentazione Raman pianificata per l’esplorazione EXoMars.

Per verificare la possibilità di vita sul suolo marziano per alcune specie batteriche metanogene, un gruppo di ricercatori della Technische Universität (TU) di Berlino hanno testato l’attività di tre archaea metanogenici: Methanosarcina mazei, M. barkeri e M. soligelidi (Figura 2)[2]. Le cellule microbiche sono state bagnate in un sistema di deliquescenza chiuso (CDS) costituito da una miscela di substrato essiccato Martian Regolith Analog (MRA) e sali. Il metano prodotto tramite attività metabolica è stato misurato dopo averli esposti a tre diversi substrati MRA utilizzando NaCl o NaClO4 come sale igroscopico. Gli esperimenti hanno mostrato che i M. soligelidi e i M. barkeri producevano metano rispettivamente a 4 °C e a 28 °C mentre i M. mazei non venivano riattivati metabolicamente attraverso la deliquescenza. Nessuna però delle specie produceva metano in presenza di perclorato mentre tutte le specie erano metabolicamente più attive nell’MRA contenente fillosilicati. Questi risultati sottolineano l’importanza del substrato, delle specie microbiche, del sale e della temperatura utilizzati negli esperimenti. Inoltre, quest’esperimento per la prima volta dimostra che l’acqua fornita dalla sola deliquescenza è sufficiente per reidratare gli archei metanogenici e riattivare il loro metabolismo in condizioni approssimativamente analoghe all’ambiente marziano vicino al sottosuolo

Lo stesso gruppo berlinese, più recentemente, ha condotto una prima indagine proteomica sulle risposte allo stress specifiche del perclorato del lievito alotollerante Debaryomyces hansenii e lo ha confrontato con gli adattamenti allo stress salino generalmente noti [3]. Le risposte agli stress indotti da NaCl e NaClO4 condividono molte caratteristiche metaboliche comuni, ad esempio vie di segnalazione, metabolismo energetico elevato o biosintesi degli osmoliti. I risultati di questo studio hanno rivelato risposte allo stress microbico specifiche del perclorato mai descritte prima in questo contesto. Anche se le risposte allo stress indotte in D. hansenii condividono diverse caratteristiche metaboliche, è stata identificata una glicosilazione proteica potenziata, il ripiegamento tramite il ciclo della calnexina e la biosintesi o rimodulazione della parete cellulare come misura contraria allo stress caotropico indotto dal perclorato, che generalmente destabilizza le biomacromolecole. Allo stesso tempo, i processi di traduzione mitocondriale sono sottoregolati sotto stress specifico del perclorato. Lo stress ossidativo indotto specificamente dal perclorato sembra giocare solo un ruolo minore rispetto allo stress caotropico. Una possibile spiegazione di questo fenomeno è che il perclorato è sorprendentemente stabile in soluzione a temperatura ambiente a causa del trasferimento di atomi di ossigeno che limita la velocità di riduzione. Per cui, quando si applicano questi adattamenti fisiologici, le cellule possono aumentare sostanzialmente la loro tolleranza al perclorato rispetto all’esposizione allo shock del sale. Questi risultati rendono probabile che i presunti microrganismi su Marte possano attingere a meccanismi di adattamento simili che consentano la sopravvivenza nelle salamoie del sottosuolo ricche di perclorato.

Lo scopo di questa attività di ricerca consiste quindi nel dimostrare come gli organismi estremofili potrebbero tutt’oggi essere presenti su Marte. Un qualunque esperimento da condurre sulla superficie del pianeta rosso alla ricerca della vita, è suffragato da ipotesi già validate sulla Terra. In astrobiologia infatti sono determinanti, per l’approvazione di missioni spaziali, dei risultati promettenti ottenuti in laboratorio. Questi poi potranno essere quindi verificati quando la missione Exomars potrà avere luogo, sembra comunque non prima del 2028. Inoltre la conoscenza di organismi in grado di vivere in condizioni estreme, che riteniamo improbabili, dimostrano come la vita possa svilupparsi anche in ambienti ostili ed avere eventualmente delle ricadute nello studio di processi biotecnologici.

References

1) J Jehlička, H G M Edwards, A Oren Bacterioruberin and salinixanthin carotenoids of extremely halophilic Archaea and Bacteria: a Raman spectroscopic study Spectrochim Acta A Mol Biomol Spectrosc 2013, 106, 99-103. https://doi.org/10.1016/j.saa.2012.12.081

2) D. Maus, et al. Methanogenic Archaea Can Produce Methane in Deliquescence-Driven Mars Analog Environments. Sci Rep  2020, 10, 6. https://doi.org/10.1038/s41598-019-56267-4

3) J. Heinz et al. Perchlorate-specific proteomic stress responses of Debaryomyces hansenii could enable microbial survival in Martian brines Environ Microbiol. 2022, 24, 5051–5065. https://doi.org/10.1111/1462-2920.16152

Figura 1 Il rover di ExoMars è intitolato a Rosalind Franklin i cui studi di cristallografia a raggi X. Sono stati fondamentali per risolvere la struttura del DNA e del RNA. Esplorerà il Pianeta Rosso. . Copyright: ESA/ATG medialab

Figura 2 Methanosarcina barkeri (sopra) e Methanosarcina soligelidi (sotto). Questi ceppi appartengono agli  euryarchaeotearchaea che producono metano usando tutti I pathways metabolici per la metanogenesi

Chimica e spreco alimentare.

In evidenza

Luigi Campanella, già Presidente SCI

La Chimica aiuta moltissimo ad utilizzare nel modo più razionale ed efficace le risorse alimentari di cui disponiamo ed aiuta anche a gestire gli scarti alimentari secondo i principi dell’economia circolare. Purtroppo non può fare molto quando quantità rilevanti di cibo vengono smaltite nell’indifferenziata precludendo qualsiasi azione di recupero. Eppure i dati ci fanno capire che l’entità del fenomeno ne giustifica assolutamente il contrasto.

Una recente statistica quantifica lo spreco nel mondo nel 17% ed in Italia in 9 miliardi (0,5 % del PIL) pari a quasi 0,6 kg pro capite a settimana.

Il dato italiano è coerente con quello europeo, essendo solo il Regno Unito e la Germania, in significativo aumento di cibo sprecato, rispettivamente 1081 e 949 g a settimana pro capite. Sorprende rilevare che proprio dove potrebbe essere più facile contribuire al recupero, e cioè nelle case private, lo spreco sia massimo, vicino al 12%, contro il 5% delle mense ed il 2% dei rivenditori. Questa percentuale bassa però si ridimensiona quando si passa al valore assoluto: nei supermercati ogni anno si buttano 200.000 tonnellate di alimenti. Dati che appaiono ancor più drammatici rispetto a 2 milioni di famiglie ed il 19%della popolazione che vive in condizioni di povertà. Contro gli sprechi è attivo il terzo settore, ma anche la tecnologia e la ricerca. La prima con un’app che consente l’acquisto di una magic box con l’invenduto del giorno da ristoranti, bar, forni; la seconda con metodi sempre più automatizzati, sicuri ed economici che invogliano e stimolano il recupero degli scarti. Fra questi il compostaggio è un processo biologico assistito, dove i microrganismi scompongono le sostanze organiche complesse e le trasformano in compost: un terriccio organico, ricco di nutrienti per il suolo. Dunque, è un procedimento che simula quanto avviene in natura, dove ogni elemento alimenta la vita di qualcos’altro, in un ciclo continuo di rigenerazione.

Se si vuole contribuire a ridurre l’inquinamento e innescare processi di economia circolare, i vantaggi del compostaggio non sono più ignorabili. Aiuta il riciclo alimentare e garantisce la sostenibilità ambientale, poiché mantiene i rifiuti in un ambiente controllato, dove vengono trasformati in un prodotto utile. Il compost arricchisce il suolo, prevenendone l’erosione, consente di risanarlo dall’inquinamento e alimenta la biodiversità, attirando insetti, batteri e funghi che portano benefici per il raccolto. Ma non solo, riduce drasticamente il volume dei rifiuti umidi organici destinati alla discarica e contribuisce a ridurre l’effetto serra, mitigando la produzione di gas.

Ogni volta che sprechiamo alimenti, sprechiamo anche il terreno, l’acqua, l’energia e gli altri fattori di produzione utilizzati per produrre l’alimento che non consumiamo. Pertanto, ogni diminuzione dello spreco alimentare comporta effettivamente potenziali vantaggi per l’ambiente. Se riduciamo la quantità di alimenti che sprechiamo attraverso il sistema alimentare, avremo bisogno di minori quantità di acqua, di fertilizzanti e di terra, di un’inferiore capacità di trasporto, di minori quantità di energia, di una ridotta attività di raccolta di rifiuti e di riciclaggio e così via. Finalmente anche la politica si è accorta di questa situazione e per combattere sprechi e povertà ha proposto il reddito alimentare che sarà sperimentato nelle città metropolitane secondo quanto contenuto nella Legge di Bilancio. Un fondo di 1,5 milioni per il 2023 e di 2 milioni per il 2024 permetterà di dirottare verso i poveri pacchi di alimenti invenduti. Basterà prenotarli con un’app purché nella condizione di povertà e si potrà ritirare il pacco in una delle strutture previste.

Fango che respira

In evidenza

Mauro Icardi

Un impianto di depurazione acque reflue è un impianto che raccoglie le acque nere (civili oppure industriali) con l’obiettivo di ridurre la concentrazione di inquinanti a limiti inferiori a quanto stabilito dalla normativa, prima dello scarico in un bacino idrico. 

La sostanza organica negli impianti di depurazione viene valutata normalmente con la determinazione del COD e del BOD5. Il rapporto tra le concentrazioni di questi due parametri fornisce già una buona indicazione della biodegradabilità del refluo da trattare. Per le acque reflue domestiche il rapporto è di 1,5/2, che corrisponde a una biodegradazione facile. Questo rapporto può arrivare al valore di 2,5/3 senza che nella vasca di ossidazione si verifichino problemi particolari.

Nel fango presente in una vasca di ossidazione si forma una piccola comunità di microrganismi in cui si possono trovare i decompositori (batteri, funghi) che ricavano l’energia per il loro sviluppo dalla sostanza organica disciolta nel liquame, e i consumatori (flagellati, ciliati, metazoi, rotiferi) che predano i batteri dispersi e altri organismi.

La presenza nei liquami in ingresso oppure nei reflui conferiti tramite autobotte di sostanze tossiche può determinare la riduzione o addirittura il blocco del reattore biologico. Gli effetti sono la riduzione della qualità dell’effluente in uscita, e un aumento dei costi depurativi per il ripristino delle normali condizioni di funzionamento. Effettuando un test denominato OXIGEN UPTAKE RATE, conosciuto con l’acronimo OUR test, si può verificare il consumo di ossigeno della biomassa, a seguito dell’immissione di un refluo. Il valore di questa misura viene generalmente espresso come: S OUR= mgO2/g*hr. (OVVERO OUR SPECIFICO) dove il termine g  è riferito alla concentrazione di solidi in g nel fango attivo. Per un periodo di circa quindici anni ho effettuato queste prove, dato che sugli impianti dove ho lavorato vi erano sezioni di impianti di trattamento di reflui provenienti dalla ripulitura delle fosse imhoff ancora molto diffuse sul territorio.

Si tratta di un test di misura di consumo dell’ossigeno molto semplice. Che si conduce inserendo in una beuta un tubicino che insuffla aria (è sufficiente un piccolo compressore da acquario con diffusore poroso); e una sonda per la misura dell’ossigeno disciolto. Nella beuta viene messa un’ancoretta magnetica e la si pone su agitatore magnetico. La sonda viene inserita in un tappo di gomma rossa forato per fare in modo che sia a tenuta di aria. Si tratta di una prova di respirazione a “respirometro chiuso”.   Dopo l’effettuazione di diverse prove, avevo stabilito di lavorare su una quantità in volume di fango pari a 300 ml.  Quando si doveva testare un refluo trasportato da autobotte, oppure valutare preventivamente se poterlo ricevere la quantità totale era pari a 220 ml di fango della vasca di ossidazione e 80 ml di refluo da testare. Areavo il liquame fino ad avere nella beuta una concentrazione di ossigeno disciolto di circa 6 mg/L e iniziavo la lettura del consumo di ossigeno ad intervalli di 15 secondi per un tempo totale di 5 minuti.

Questo parametro definito appunto come S OUR (ovvero OUR specifico) veniva rapportato con i seguenti valori:

S OUR <0,1 il refluo aggiunto è tossico;

S OUR ≤ 0,35 deve essere ripetuta la prova;

S OUR > 0,35 il refluo è idoneo al trattamento biologico.

 Come detto prima le condizioni di prova sono state stabilite nel tempo effettuando diversi aggiustamenti, sia in termini di volume che di tempo per la prova. Una procedura identica veniva effettuata nel caso si volesse integrare il funzionamento dell’impianto in condizioni di scarsità di carico organico, magari con aggiunta di reflui ad alto tenore di carbonio quali residui di lavorazione della birra che sono certamente appetibili per i microrganismi, ma il cui dosaggio deve essere accuratamente valutato. In questo ultimo caso è sempre preferibile non fermarsi alla fase di prove di laboratorio e organizzare una serie di prove tramite impianto pilota. La biomassa aerobica contenuta nel fango consuma rapidamente ossigeno se viene alimentata con reflui rapidamente biodegradabili. E i reflui civili normalmente soddisfano questa condizione. In qualche situazione invece, per inconvenienti di vario genere, mi sono trovato in difficoltà. In un caso per un refluo inquinato da idrocarburi per la rottura di una caldaia alimentata a gasolio: il gasolio fuoriuscito era finito nella fossa settica. In un secondo caso per un refluo che era un cocktail incredibile di residui per la pulizia e di olio lubrificante per auto. Un terzo caso per la massiccia presenza di residui di materiale per le lettiere dei gatti (situazione di cui ho già scritto sul blog). In questo caso era ardua la discussione con gli operatori dello spurgo. Trattandosi di materiale conferito in autobotte e non proveniente da condotta fognaria, era per definizione legislativa un rifiuto. Noi respingevamo il carico facendolo proseguire fino ad una azienda specializzata per il trattamento dei rifiuti allora catalogati come tossico-nocivi, con la quale avevamo una convezione. Il carico doveva proseguire dalla zona di Varese fino in Brianza. Questo scatenava discussioni infinite, che potevano durare ore. Ovvio che io non recedessi dalla mia decisione. Ripetevo il test anche tre volte, ma era un’impresa non facile convincere gli operatori. Senza contare che sarebbero stati addebitati costi aggiuntivi per la nuova codifica del rifiuto, che da assimilabile cambiava tipologia.

Nonostante il test fosse sufficientemente rapido, molto spesso i conducenti delle autobotti che effettuavano le operazioni di spurgo erano soliti pressarmi perché erano costantemente in corsa contro il tempo. Io ovviamente dovevo mediare e dovevo cercare di essere molto paziente.

Ma ad uno di loro che era sempre particolarmente frenetico combinai un piccolo scherzo.  Mi feci portare il campione una seconda volta e iniziai la misura con lui presente. Assunsi un’aria perplessa e nel frattempo pronunciavo frasi di questo tipo: “Questa è una cosa che non ho mai visto” e “Ma qui proprio non ci siamo”.

Quando lo vidi sbiancare buttai la maschera e gli feci capire che non era il caso di avere sempre tutta questa fretta, considerato che per facilitare le operazioni di conferimento il test era stato standardizzato a cinque minuti. Gli chiesi anche se nell’intimità avesse la tendenza a sempre essere così veloce. Forse rischiai che la faccenda finisse male. Ma alla fine capì e ci facemmo una bella risata. La piccola lezione gli era servita. Il servizio di ricevimento di reflui da fossa biologica ora è stato centralizzato nella zona sud della provincia di Varese. Ovviamente questo ha ulteriormente provocato i mugugni degli operatori dello spurgo, soprattutto del nord provincia. Da questa vicenda io ho tratto molte riflessioni, sulla gestione dei rifiuti anche nelle nostre case, sull’importanza di essere intransigenti.  La corretta gestione dei rifiuti direi che dovrebbe essere norma primaria per tutti. Ogni tanto incontro la “vittima” del mio scherzo. Regolarmente andiamo al bar per un caffè e invariabilmente mi definisce un rompiscatole. Io lo ammetto senza nessun problema. Ero allora un giovane tecnico della depurazione che usava una chimica pratica e che affrontava i primi problemi a cui doveva dare una soluzione rapidamente. Un periodo davvero molto formativo, sia sul piano professionale che personale.

Energia al metro quadro.

In evidenza

Luigi Campanella, già Presidente SCI

Che ai combustibili fossili debbono essere progressivamente sostituite alternative più rispettose dell’ambiente è un dato ormai acquisito. La scelta fra le alternative non è semplice ed una risposta equilibrata non è facile. Molti sono gli elementi da considerare: da quelli economici a quelli relativi alla disponibilità delle materie prime. Un recente studio di OurWorldinData ha considerato un nuovo ed insolito, ma importantissimo parametro, cioè il consumo di suolo misurato in mq per megawattora annui, m2/MWhanno. I valori riportati sono 0,7 per il nucleare (circa 30 volte meno del carbone), 1.8 per il gas, 1.9 per il fotovoltaico, 12 per l’idroelettrico,14 per il fotovoltaico a terra, 24 per il carbone e 25 per il solare. A margine di questo studio viene rilevato che i pannelli solari posizionati in terra consumano più suolo di quelli sul tetto e che per i materiali del fotovoltaico il cadmio consuma meno suolo del silicio. Il risultato a favore del nucleare non considera gli aspetti di sicurezza ambientale: meno suolo consumato, ma quali rischi per l’ambiente e quali soluzioni per limitarli?


Il discorso si fa più complesso ma il riconoscimento al nucleare di energia pulita assegnato in questi giorni dall’UE può costituire una forte spinta in favore di questa forma di energia. Sulla quale anche la Chiesa è di recente intervenuta, secondo il pensiero di Papa Francesco che ci ha abituato a questi interventi su tutti gli aspetti della nostra vita, superando i limiti degli argomenti tradizionalmente più vicini alla Chiesa. Di recente così attraverso il proprio Dipartimento/Dicastero di competenza, il Vaticano ha detto la sua in tema di energia a partire dalla Pacem in Terris di Giovanni XXIII e dalla forte spinta ecologica contenuta nella Enciclica Laudato sì. Questa ha contribuito in modo significativo alla presa di coscienza di recuperare il valore della cura al pianeta ammalato. La Santa Sede ha sempre guardato alla tecnologia senza pregiudizi o schemi ideologici, puntando sull’integritá della persona e sul suo sviluppo integrale. Ed ora lo stesso atteggiamento viene applicato al caso del nucleare. Così ne viene condannata l’applicazione a scopi bellici considerandone in questo caso persino immorale il solo possesso. Allo stesso tempo per la Chiesa sul piano. delle applicazioni per scopi civili ne giustifica l’uso fatte salve la sicurezza e l’impatto ambientale zero. Che poi rispetto al parametro tempo la soluzione del problema energetico affidata ad una o più centrali nucleari, la cui costruzione richiede un decennio da trascorrere in carenza di risorse energetiche, sia certamente tardiva e non rispondente al superamento di un’emergenza è un altro discorso. Eolico e Fotovoltaico rappresentano soluzioni tecnologicamente mature e realizzabili in tempi molto più ridotti ed anche meno impattanti per gli aspetti di sicurezza. Papa Francesco sul tema dell’energia è tornato parecchie volte per sollecitare la soluzione a favore dei più deboli, più poveri, più esposti, che non hanno le risorse per trovarla, ma lo  ha fatto sempre con il dubbio dello scienziato aperto a nuove scoperte e nuovi risultati. Questo significa che laddove i dati scientifici da cui si parte non siano esaustivi è richiesta una ulteriore riflessione su benefici e rischi a livello ambientale e sanitario. Transizione ecologica, cambiamenti climatici, pace internazionale vanno affrontati insieme; ogni soluzione locale sarà solo un palliativo che non risolve nulla.  

La SCI da grande.

In evidenza

Claudio Della Volpe

La Società Chimica Italiana esiste dal 1909; ora poco più di un secolo forse non sono molti anni per una associazione culturale. Altre società scientifiche, come la Royal Chemical Society, esistono da prima, nel caso specifico dal 1841 o perfino la Royal Society esiste dal 1665, oltre tre secoli.

Diciamo che nel complesso la SCI è una “giovane” associazione scientifica.

Ci si potrebbe a ragione chiedere cosa voglia diventare da grande.

Al momento essa raccoglie poco più di 4000 soci che sono in modo dominante di ambiente universitario; sia i soci di provenienza scolastica che industriale sono minoritari; tuttavia occorre dire che la componente scolastica svolge un ruolo importante soprattutto nelle discussioni e nelle iniziative sulla didattica, mentre la componente industriale di fatti domina in altri ambiti, forse più “profondi”; il fatto che la rivista storica abbia come titolo “La Chimica e l’Industria”, dopo tutto non è un caso, nel senso che il grande pubblico identifica la Chimica come la scienza applicata alle massicce produzioni industriali di molti beni.

Lo sviluppo tumultuoso della chimica a partire dall’inizio del 900 ha segnato un periodo con due guerre mondiali e nel secondo dopoguerra un’epoca che alcuni autori chiamano l’epoca della sintesi.

La chimica con le sue rivoluzionarie conquiste, a partire dalla sintesi dell’ammoniaca a quella della gomma sintetica e dei polimeri, ha rivoluzionato una società che era basata su risorse e materiali di origine essenzialmente naturale; in un primo momento questo ha liberato l’umanità da problemi millenari, a partire dalla fame e dalle epidemie; ma le soluzioni prospettate, sebbene continuino ad essere almeno in parte efficaci, han mostrato pian piano il loro aspetto peggiore; un nostro socio napoletano non più in vita diceva che la Natura ha sempre due corni, è contraddittoria.

Dalla metà del secolo scorso la Chimica è diventata una scienza “nemica” del grande pubblico; un ruolo che nemmeno la fisica della bomba atomica aveva svolto; in Italia la crescita dell’industria chimica nel secondo dopoguerra ha concluso un ciclo iniziato nel primo novecento ed ha lasciato dietro di se un numero elevato di siti contaminati, ben 57, scrupolosamente elencati nella legge 152/2006; una fetta di territorio pari al 3% del totale è oggi inquinata in modo tale che la sua ripulitura non è stata ancora effettuata anche per i costi , ma spesso per la mancanza di metodi efficaci. L’ultimo caso è stato in Italia quello del PFAS, i composti perfluorurati usati nell’industria tessile, ma non solo, che hanno inquinato non solo i territori ma anche i corpi di centinaia di migliaia di persone.

E non basta; esistono luoghi inquinati come le spiagge bianche di Rosignano, che in modo inatteso sono diventate perfino una attrazione turistica, nonostante gli strali che alcune associazioni ambientaliste e mediche (non ancora chimiche) han provato a lanciare.

In tutto ciò, tuttavia, c’è una costante; su questi temi la nostra associazione viaggia a traino; non ci sono stati casi, almeno a mia conoscenza, di iniziative di denuncia di inquinamento, di rischio chimico in cui la SCI sia stata alla guida o se volete almeno fra i capofila del movimento di denuncia o delle iniziative di cambiamento. Nei grandi incidenti chimici, chessò l’ultimo che mi viene in mente, l’incendio della Nitrolchimica, nessun pronunciamento; eppure altri, altre società scientifiche lo hanno fatto.

Perfino sul clima, la cui crisi ha una chiara origine “chimica” nel senso che sono i prodotti della combustione dei fossili a fare da gas serra, la SCI ha stentato a dire una parola chiara; tuttavia su questo tema occorre riconoscere che, dopo una iniziale titubanza, c’è stata una tipologia di iniziativa, una commissione che ha redatto una posizione pubblica scritta e priva di ambiguità, una cosa che in ambito scientifico si chiama un “consensus paper”, una presa di posizione pubblica su temi importanti; è certo stata una iniziativa importante e lodevole, che avrebbe potuto dare la stura ad altre iniziative simili sui vari temi che coinvolgono la Chimica preso l’opinione pubblica.

James Hansen climatologo della NASA arrestato nel 2009 per blocco del traffico durante una manifestazione contro la riapertura di una miniera di carbone.

Ma non ce ne sono state e non ce ne sono ancora le premesse.

Certo a livello mondiale abbiamo avuto molti accordi internazionali di argomento chimico: a partire dall’accordo di Stoccolma sui terribili 12, le sostanze di sintesi più inquinanti, gli accordi sui metalli pesanti, l’accordo di Montreal, e la successiva modifica di Kigali, gli accordi di Parigi sul clima, gli accordi per il controllo delle armi chimiche. Ottime iniziative ma sempre avvenute su una base esogena per così dire; certo un altro esempio virtuoso che ha dato la chimica è stato il ruolo dei chimici nella scoperta del “buco dell’ozono” e delle successive misure concordate a Kigali. In quel caso “alcuni” chimici hanno avuto un ruolo determinante.

Oggi abbiamo varie emergenze planetarie ed anche relative al nostro paese: clima, energia e risorse minerarie, produttività agricola con inquinamento da composti di fosforo e azoto, scomparsa di specie viventi catalizzata dall’inquinamento, inquinamento della plastica nei mari e nel suolo, carenza del riciclo.  In tutti questi argomenti ci sono certamente “alcuni” chimici che fanno da battistrada; dimenticandone tanti altri cito Vincenzo Balzani e Nicola  Armaroli fra i nostri iscritti; ma manca appunto quell’afflato di gruppo, quell’impostazione che porterebbe la Società come tale a schierarsi, a prendere posizione, ad abbandonare una impossibile “neutralità” scientifica. La Scienza non può essere neutra, pensare che possa essere neutra è sbagliato, la scienza deve schierarsi sulla base di quello che sa e contribuire a dare dritte sulle scelte sociali, al prezzo di scontentare alcuni. E questo è il compito che aspetta la SCI da grande, scontentare alcuni per accontentare la scienza che studiamo e amiamo e con essa le esigenze della società nel suo complesso non di una sua parte, casomai più potente o più interessata alla Chimica come strumento produttivo.

Prima dell’incendio. Ricordi del Museo di Chimica di Liebig.

In evidenza

Roberto Poeti

Ho visitato il Museo di Justus von Liebig a Giessen nel 2012. Fui fortunato, perché quella mattina i visitatori erano quasi assenti e il Prof. Manfred Kroeger, membro del C.d.A. della società Justus Liebig di Giessen, che si trovava lì in quel momento, fu tanto gentile da farmi da guida per l’intero complesso del Museo. Fu una occasione unica per apprezzare la ricchezza del museo che solo un chimico come il Prof. Kroeger sapeva far esaltare. La notizia dell’incendio che è scoppiato nell’ala “nuova” del complesso mi è apparsa in tutta la su tragicità quando è stata pubblicata la prima foto scattata, dopo che l’incendio è stato domato, martedì mattina del  6 dicembre 2022.  

La parte frontale dell’aula magna, dove era collocato il grande bancone per le lezioni dimostrative, gli arredi della parete, nonché parte dei banchi sono andati distrutti. Possiamo avere un’idea del danno se confrontiamo l’immagine con le foto da me scattate durante la visita.

Come possiamo vedere dalla pianta del complesso museale, riportata di seguito, l’aula magna è in comunicazione con il laboratorio di analisi, che a sua volta è messo in comunicazione con il laboratorio farmaceutico, la biblioteca e la sala delle bilance. Questi ambienti, soprattutto il laboratorio di analisi, sono stati danneggiati dalla fuliggine, dalle alte temperature e non da escludere dall’acqua. Se c’è un luogo che rappresenta il cuore di tutto quanto il museo, questo è il laboratorio di analisi. La sua costruzione risale al 1839. Si aggiungeva al vecchio laboratorio dove Liebig lavorava dal 1824. L’Università di San Pietroburgo aveva offerto una cattedra di chimica a Liebig con un salario che era più del doppio di quello percepito a Giessen.  Liebig rimase a Giessen ma ottenne in cambio che venisse ampliato l’istituto con una nuova ala che comprendeva anche il nuovo laboratorio di analisi.    

Il nuovo laboratorio venne costruito secondo le indicazioni di Liebig. Occupava un ampio spazio, era dotato di un sistema di cappe aspiranti e di banchi da laboratorio distribuiti in modo che si potesse svolgere sia un intenso lavoro di analisi, sia quello di insegnamento. Divenne un modello di laboratorio che August Wilhelm von Hofmann, che aveva studiato chimica con Liebig, definì “la madre di tutti gli istituti chimici del mondo intero”. Liebig perfezionò in questo laboratorio un metodo di analisi elementare delle sostanze organiche, inventando l’ingegnoso sistema a cinque bolle per assorbire la CO2, chiamato anche “Kaliapparat”, che oggi è rappresentato nel logo della Società Chimica Americana. L’importanza di questo piccolo apparato può essere compresa da un semplice confronto: Berzelius, che Liebig stesso aveva elogiato come il più abile sperimentatore del tempo, era riuscito ad analizzare 7 sostanze in 18 mesi, usando il vecchio metodo. Liebig analizzò 70 sostanze in 4 mesi. Era come se un pedone cercasse di competere con una automobile molto veloce.

 L’aula magna con il laboratorio adiacente sono ripresi in questo film che ho montato e pubblicato su YouTube:

Veduta interna del laboratorio chimico di Justus Liebig

Il laboratorio chimico di Justus Liebig nell’Università tedesca di Giessen fu uno dei più importanti e famosi di tutto il secolo XIX, divenne così famoso il suo laboratorio che non solo vi fecero pratica chimici di tutta Europa, ma accolse anche chimici dall’America. Il dipinto del 1840, che appartiene alla quadreria del museo, è una delle illustrazioni più famose della chimica classica, mostra in modo efficace l’attività che si svolgeva, era un’immersione in un ambiente internazionale, orientato alla ricerca pura, ma non alieno da applicazioni pratiche.  Vi sono rappresentati in modo realistico diversi chimici: in posa all’estrema sinistra è il messicano Ortigosa, le cui analisi avevano corretto certe ricerche dello stesso Liebig, nella  mano stringe il “Kaliapparat”; in piedi intorno al tavolo di sinistra stanno discutendo W. Keller, poi farmacista a Filadelfia, e Heinrich Will, che sarà il successore di Liebig a Giessen; all’estrema destra E. Boeckmann sta scaldando il fondo di una provetta sotto gli occhi di August Hofmann: il primo diventerà direttore di una fabbrica di coloranti inorganici, il secondo fonderà due scuole di chimica importanti, prima a Londra e poi a Berlino.

Dalla Enciclopedia Treccani ho tratto questo significativo passaggio di Marco Beretta alla voce “L’Ottocento:  Chimica e istituzioni”:

« Una cittadina provinciale [Giessen] di poco più di 5000 abitanti la cui unica risorsa erano gli studenti, per di più situata in uno Stato relativamente periferico nella galassia degli Stati tedeschi, non sembrava promettere un grande avvenire alle ambizioni di Liebig di creare una scuola e un laboratorio di chimica quantomeno dignitosi. Le cose, come è noto, andarono diversamente e in pochi anni il suo laboratorio divenne la capitale della chimica mondiale, sottraendo prestigio e autorità alle più celebri scuole di Berzelius, Gay-Lussac e Davy. Studenti di tutti i paesi e di tutti i continenti furono attratti dalla capacità sperimentale e dai metodi innovativi di insegnamento adottati da Liebig. Vi studiarono infatti i francesi Wurtz, Charles Frédéric Gerhardt e Henri-Victor Regnault, i britannici Alexander W. Williamson, Lyon Playfair e James Muspratt, il messicano J.V. Ortigosa e i tedeschi Wöhler, Kopp, August Wilhelm von Hofmann, Volhard, Friedrich August Kekulé per non  citare che i nomi più noti [  Furono allievi di Liebig anche diversi chimici italiani. Ascanio Sobrero frequentò il laboratorio di Giessen nel 1843 dove isolò allo stato puro il guaiacolo ] . Cosa può aver indotto 194 studenti ‒ tanti furono gli stranieri che a vario titolo frequentarono il laboratorio di Liebig tra il 1830 e il 1850 ‒ a spingersi fino a Giessen quando, standosene a Londra o a Parigi, avrebbero potuto disporre di sedi ben più attrezzate e moderne, lo spiega lo stesso Liebig: gli ingredienti principali del successo erano il rapporto di stretta collaborazione che egli era capace di instaurare con ciascuno studente, e la libertà, sia pur guidata, dei loro programmi di ricerca sperimentale. Per completare il quadro si può aggiungere la totale mancanza di distrazioni che offriva Giessen.»

Come si può vedere dall’immagine, il laboratorio si è conservato integralmente. Non c’era il camice da lavoro, si vestiva in tait, come usava anche Liebig. Non c’è da meravigliarsi se si pensa che in tait operavano all’epoca i chirurghi durante le esercitazione con gli studenti nelle aule anatomiche.

Nel complesso museale si è conservato il vecchio laboratorio, indicato con il n°1 nella pianta, che venne colpito da un bombardamento durante la seconda guerra mondiale, per poi essere ripristinato. Non è stato toccato questa volta dall’incendio. È interessante un confronto tra nuovo (1839) e il vecchio laboratorio (1824) per capire il salto compiuto nella organizzazione del laboratorio chimico da Liebig.

Liebig lavorò in questo laboratorio all’inizio con 9 e più tardi 12 studenti. Qui è dove ha posto le  fondamenta della chimica organica. Nel mezzo della stanza è collocata un forno, ricostruito secondo la vecchia pianta, dotato di apparecchiatura del periodo. Il fuoco nel forno era alimentato con carbone; la fiamma di “spirito”, o alcol, era riservata per i lavori più importanti. Non c’erano cappe aspiranti. Se necessario le finestre e le porte esterne erano aperte per creare ventilazione. Si può immaginare che questo veniva fatto di rado durante l’inverno. Già a quel tempo gli esperimenti erano fatti usando sostanze più o meno pericolose, ma impiegando generalmente una larga quantità di sostanza rispetto a quella che sarebbe necessaria oggi. Una difficoltà aggiuntiva era che a quel tempo i chimici dovevano produrre tutti i necessari reagenti da loro stessi o isolarli da prodotti commerciali disponibili grezzi. Questa procedura, per esempio la distillazione di acidi, era eseguita nel piccolo forno, il quale era equipaggiato da una cappa aperta ai lati. È comprensibile che questa mancanza di condizioni igieniche chimiche erano dannose alla salute dei chimici, molti dei quali soffrivano inevitabilmente di problemi di salute cronici.  Lettere dai chimici in quel periodo confermano che essi stessi consideravano i loro frequenti problemi di salute come “malattie professionali”.

Parlano di malattie della pelle, condizioni asmatiche (Liebig), disturbi di stomaco e altre. Anche il sistema nervoso soffriva. Sono descritte fasi di profonda depressione, e generalmente una irritabilità costante viene documentata, per la quale Wohler conia il nome “isteria dei chimici”.

Con il nuovo laboratorio si sanano molte situazioni igieniche e i disturbi associati all’attività del chimico in gran parte scompaiono. È un altro grande merito di Liebig.

Conclusione

Il Museo di Liebig   è una testimonianza storica, per tutto quello che abbiamo visto, di enorme valore. Non a caso è stato candidato per essere dichiarato Patrimonio dell’umanità. Ci auguriamo che possa essere recuperato e restituito ai chimici, e non solo, di tutto il mondo.

Una medicina senza mercato

In evidenza

Claudio Della Volpe

È vero che questo titolo sembra una rivendicazione di un gruppo radicale?

E invece no.

È il sottotitolo di un recente libro scritto da uno dei più famosi farmacologi italiani; Silvio Garattini, fondatore e Presidente dell’Istituto Mario Negri; col titolo, “Brevettare la salute?”  esso riporta la conversazione di Silvio Garattini con Caterina Visco, giornalista, pubblicista e divulgatrice scientifica.

Garattini è un perito chimico, dunque uno di noi, ma laureato in medicina con all’attivo centinaia di pubblicazioni, un vero e proprio prestigio nazionale alla pari dei migliori di noi, farmacologo riconosciuto in tutto il mondo.

È venuto a Trento a parlare del tema del libro su invito dei colleghi di Giurisprudenza della mia (ex) università ed è stato intervistato dai giornali locali; vi segnalo questa intervista

Pochi forse immaginano che i brevetti non sono sempre esistiti; i brevetti in realtà sono nati in Italia, prima nell’antica Magna Grecia (ma duravano un solo anno) ma poi decisamente si sono sviluppati  con l’avvento del capitalismo nel XV secolo; le “litterae patentes” lettere aperte (patent è una parola inglese, ma poi di fatto viene dal latino, solo che ce lo siamo scordato) sono nate tra il 15° e il 19° secolo; secondo Vincenzo Visco, nostro ex-ministro delle finanze (in un articolo del 2021 su Il Sole-24 ore) avevano lo scopo di promuovere la ricerca, gli investimenti, e l’impegno personale, cioè al fine di creare valore per l’intera economia, ma negli ultimi decenni tale logica è stata stravolta.

La prima legislazione europea sul brevetto è contenuta in una parte del Senato veneziano del 19 marzo 1474 (Archivio di Stato di Venezia, Senato terra, registro 7, carta 32):3

«L’andarà parte che per auctorità de questo Conseio, chadaun che farà in questa Cità algun nuovo et ingegnoso artificio, non facto per avanti nel dominio nostro, reducto chel sarà a perfection, siche el se possi usar, et exercitar, sia tegnudo darlo in nota al officio di nostri provveditori de Comun. Siando prohibito a chadaun altro in alguna terra e luogo nostro, far algun altro artificio, ad immagine et similitudine di quello, senza consentimento et licentia del auctor, fino ad anni 9.»

Con la seconda metà del XIX secolo e poi con il XX il brevetto è diventato una base dell’accumulazione di ricchezza, mercificando una gran parte della genialità umana, con la scusa che così se ne sarebbe generata di più; le regole del GATT del 1994 hanno poi santificato un approccio ormai reazionario e che è schierato a difesa della proprietà privata delle idee e delle invenzioni, come meccanismo di generazione del profitto; ma le cose non stanno proprio così.

Nella sua intervista il giovane rivoluzionario Garattini (in fondo ha solo 94 anni) dice con chiarezza che ci sono cose non brevettabili:

“Partiamo da un presupposto: in Italia il brevetto in campo farmaceutico fu introdotto dalla Corte costituzionale nel 1978 per favorire la ricerca e quindi il miglioramento della salute pubblica in accordo con l’articolo 32 della Costituzione. Nel momento in cui, come avvenuto durante la pandemia, esso diventa un ostacolo al benessere generale perde la sua giustificazione giuridica”

Questo è parlare!

C’è chi dice che senza brevetti non c’è stimolo alla ricerca
«Personalmente non ci credo. Va detto che già oggi l’industria farmaceutica non fa più il lavoro di una volta. Io sono abbastanza vecchio da ricordarmeli i centri di ricerca privata di tanti anni fa. Ora non è più così. Il lavoro principale delle aziende adesso è quello di andare a caccia di start-up in tutto il mondo. Molti dei più importanti farmaci sviluppati negli ultimi anni sono nati così. Acquistando il frutto del lavoro di piccoli gruppi di ricerca. Il costo di queste aste viene poi riversato anche sulla sanità pubblica».

Nell’intervista rilasciata a Trento Garattini illustra come, durante la pandemia, l’industria farmaceutica abbia mostrato il suo lato peggiore
«Il Covid ha esposto in maniera forte questo tema. Già a dicembre del 2020 avevamo dei vaccini efficaci che però non abbiamo avuto a disposizione perché protetti dai brevetti. Questo non è stato un problema solo per i paesi in via di sviluppo, ma anche per l’Europa e l’Italia dove le dosi sono arrivate in numeri importanti solo a partire da marzo con quattro mesi di ritardo. Sento che abbiamo sulla coscienza tutte le morti di quei 120 giorni che si potevano prevenire. Dobbiamo evitare che questo si ripeta».

PUBLIC CITIZEN How to Make Enough Vaccine report written by Dr. Zoltán Kis and Zain Rizvi. edited by Peter Maybarduk, Rhoda Feng and Josephine Fonger at Public Citizen. Questo articolo illustra come si sarebbero potuti produrre subito miliardi di vaccini in più evitando molti milioni di morti.

Chiede la giornalista: Tra l’altro quei vaccini furono realizzati grazie anche a un importante investimento pubblico?
«Esatto, e così il pubblico si è trovato a pagare due volte mentre il privato registrava profitti record. Senza contare che le industrie hanno anche beneficiato, gratuitamente, della ricerca che era stata fatta sull’RNA messaggero»

Altro che i novax; l’unica critica seria da fare al comportamento del nostro come di altri governi durante il periodo del Covid è che grazie al meccanismo brevettuale difeso da quasi tutti i governi ed ovviamente dai detentori abbiamo dato al Covid la possibilità di sviluppare nuove versioni e di uccidere altri milioni di persone e lo abbiamo ancora sul groppone.

Abbiamo scritto altre volte di brevetti, per esempio citando come sono stati usati quelli sui PFAS per impedire  a chi ne analizzava gli effetti di prodursi delle soluzioni di riferimento analitico (leggete qui un post di Rinaldo Cervellati). E ci sono molti aspetti specifici per i quali vi rimando ai riferimenti del post (ricerca pubblica, prevenzione, malattie rare, tendenza alla privatizzazione)

Mi rendo conto che per la maggior parte dei lettori di questo blog accettare l’idea che i brevetti (almeno nella loro forma attuale) siano ormai un peso per l’umanità possa suonare come una affermazione scandalosa, ma non mi asterrò dal ripeterlo; nella maggior parte dei casi il brevetto, la detenzione della proprietà di un’idea o di un processo per un periodo multidecennale è ormai un limite alla sopravvivenza ed alla crescita civile dell’umanità, e favorisce sempre e solo chi se lo può permettere, la parte più abbiente dell’umanità.

In modo simile l’accesso ai risultati della ricerca; gli articoli scientifici sono coperti da diritto di proprietà per 70 anni ma di fatti il periodo viene prolungato dai meccanismi della messa a disposizione, per esempio gli articoli di Einstein non sono liberi di essere scaricati nonostante Einstein li abbia pubblicati quasi tutti ben oltre 70 anni fa; ma vi pare serio? E’ il motivo per cui credo che Alexandra Elbakyan, la fondatrice di Sci-Hub sia una vera eroina della nostra specie.

Le attuali regole brevettuali devono essere abolite o completamente riviste, studiando soluzioni etiche, socialmente sostenibili come i brevetti a tempo, la limitazione merceologica della brevettabilità, l’open science. E questo non solo nella medicina, ma anche nelle tecnologie di sicurezza alimentare ed ambientale che rappresentano un mezzo di garanzia e di salvezza per l’umanità: una scienza senza mercato!

La presentazione del libro da parte dell’autore : https://www.youtube.com/watch?v=ZBye-bBJU_U

L’intervista su T: https://www.iltquotidiano.it/articoli/la-sanita-di-garattini-basta-brevetti-le-cure-siano-di-tutti/

Un recentissimo articolo di Nature sul medesimo tema:

Il “bignamino” della depurazione

In evidenza

Mauro Icardi

Mi sono convinto con il passare degli anni, che per lavorare nel settore del trattamento delle acque reflue occorra non solo acquisire delle competenze tramite lo studio e la preparazione teorica. Ritengo molto importante anche l’esperienza diretta sul campo che col tempo aiuta ad individuare con rapidità e sicurezza la causa degli eventuali problemi e malfunzionamenti dell’impianto, permettendo quindi di porvi rimedio oppure di minimizzarne gli effetti. Quando ho iniziato il mio percorso lavorativo in questo settore, mi ero già documentato su uno dei testi che approfondiva la teoria della depurazione biologica, e illustrava la sequenza logica dei vari stadi di trattamento. In questo modo quando il primo giorno di lavoro mi è stato fatto visitare il primo impianto dove avrei lavorato mi sono sentito molto meno a disagio.  Ci sono alcune valutazioni da fare, e alcuni dati indispensabili da controllare giornalmente per ottenere una qualità dell’effluente in uscita che rispetti i parametri di legge. Ma non ci si deve limitare solo a questo risultato. L’acqua scaricata deve il più possibile non alterare gli equilibri ecologici nel corpo ricettore dove verrà reimmessa. Vediamo allora i parametri basilari e fondamentali per il controllo di processo di un impianto di depurazione. Non sono i soli ovviamente, ma sono quelli dai quali non si può prescindere. Voglio anche ricordare che è fondamentale rimanere sempre aggiornati sulle nuove tecnologie e ricerche relative al trattamento delle acque.  La formazione continua non serve solo per ottenere crediti se si è iscritti ad un ordine professionale, ma anche ad approfondire e migliorare il lavoro giornaliero.

Portata di liquame in ingresso.

Parametro chiave per interpretare i fenomeni di depurazione e per attuare tutte le regolazioni a valle che consentono di mantenere il buon funzionamento del processo depurativo. La portata di liquame che entra nel reattore biologico (chiamato normalmente vasca di ossidazione), è direttamente correlata all’efficienza di depurazione del processo biologico.  La portata non è costante nelle 24 ore (a meno che non vi siano sistemi di equalizzazione) ma presenta valori minimi notturni e massimi diurni. Tali oscillazioni possono provocare uno shock al reattore, qualora il tempo di ritenzione idraulico sia eccessivamente limitato (qualche ora), mentre i reattori con tempi di ritenzione di 10 e più ore (perciò gli impianti a basso carico e gli impianti per la rimozione di N e P) diluiscono tali effetti in una grande massa idrica.

Caratteristiche dei substrati in ingresso (COD, BOD, TKN, NH4, N03, P)

La composizione chimica dei liquami in ingresso è uno dei fattori principali, assieme alla portata, che condizionano l’efficienza dell’intero impianto, incluso il sedimentatore finale. Occorre sottolineare che, in taluni impianti, il liquame che entra nei reattori ha subito prima il passaggio in un sedimentatore primario, ed è quindi privo di solidi pesanti e sedimentabili.   In altri impianti, specie i più piccoli, non è sempre prevista la fase di sedimentazione primaria per cui i reattori vengono alimentati con liquame grezzo. Presupponendo una composizione chimica prevalentemente organica dei substrati in ingresso, i parametri di controllo che occorre verificare sono in genere i seguenti: COD totale, COD solubile, BOD5, TKN (azoto totale Kjeldhal), NH4+ N03, N02, P totale, PH, solidi sospesi, solidi sedimentabili.

Bilanciamento dei substrati in ingresso

La biomassa batterica cresce in una miscela nutritiva (il liquame) che contiene generalmente un’abbondanza di sostanze organiche carboniose e una quantità minore di macronutrienti, soprattutto azoto e fosforo, oltre a piccole quantità di Ca, Mg, K, Mn, Fe. Il liquame domestico presenta rapporti di queste sostanze in genere già bilanciati per un’ottimale crescita batterica. Normalmente il rapporto tra BOD: N: P ha un valore pari 200: 5 :1.  Nel caso di alcuni effluenti industriali siamo in presenza di forti carenze di alcuni di essi. Effluenti di zuccherifici e petroliferi sono spesso carenti di azoto e fosforo. Effluenti di allevamenti sono spesso sovrabbondanti di azoto e fosforo. Effluenti industriali nitrici (N03) da denitrificare sono spesso carenti di carbonio. Effluenti industriali con elevate concentrazioni di NH4 + da nitrificare possono essere carenti di fosforo. Le carenze degli effluenti industriali si risolvono spesso immettendo nella miscela le acque dei servizi igienici o della mensa aziendale. Le carenze di carbonio in denitrificazione richiedono dosaggi di sostanze economicamente convenienti come l’acetone, il metanolo o miscele industriali di recupero (prestando attenzione alle impurezze derivate). Le carenze di azoto e fosforo si risolvono con l’utilizzo di sali e soluzioni di uso agronomico (fosfato mono e di ammonico, monosodico o trisodico, acido fosforico, urea). Poiché i dosaggi non sono facilmente teorizzabili occorre effettuare prove di dosaggio in laboratorio, seguite da verifiche su impianto pilota, prima di iniziare i dosaggi operativi.

pH

Questo parametro influenza notevolmente la funzionalità dei processi biologici agendo su diversi meccanismi. Il processo a fanghi attivi opera senza grosse variazioni di efficacia nel campo di pH 6,8 – 8. In genere il valore più comune si aggira su pH 7,5 – 7,8. I valori vengono misurati in continuo all’interno della vasca di aerazione, o in laboratorio su campioni prelevati dalla stessa. Va sottolineato inoltre che il fango attivo è in grado di tamponare brevi immissioni di flussi a pH estremi (da 1 a 11), senza mostrare grandi variazioni di pH nelle vasche di aerazione. Spesso capita che il sistema non mostri di essere stato danneggiato a livello biochimico mantenendo un buon valore di consumo di ossigeno o di altri parametri di attività, ma mostra invece patologie nelle caratteristiche di sedimentazione e biofiocculazione del fango che si manifestano con un effluente torbido e con un’elevata concentrazione di solidi sospesi. Per questi motivi occorre predisporre sistemi di abbattimento per questi veri e propri shock da pH che sono tanto più pericolosi quanto minore è il tempo di ritenzione idraulica della vasca a fanghi attivi.

Temperatura  

La temperatura del liquame influenza il processo a livello biochimico, microbiologico, chimico e chimico-fisico. A fronte di elevate escursioni notte/giorno della temperatura atmosferica, normalmente le escursioni dei liquami di fognatura sono più contenute. Generalmente nei nostri climi la temperatura di un liquame domestico è abbastanza costante (10°C d’inverno e 20°C d’estate) ed in ogni caso senza variazioni repentine nelle 24 ore. In alcune acque di tipo industriale o dove la componente industriale è elevata, la variazione si verifica più frequentemente per cui occorre prevedere sistemi di omogeneizzazione, oltre ad una progettazione più attenta nei confronti del sistema biologico. Per le località montane, specie quelle adibite a sport invernali, può essere a volte necessaria la copertura degli impianti sia per evitare gli inconvenienti dovuti al ghiaccio sia per proteggere l’attività biologica. Per quanto riguarda la grande maggioranza dei batteri dei fanghi attivi, il range ottimo di temperatura si aggira attorno ai 25 °C mentre il campo di massima variabilità oscilla dai 4 ai 40 °C. Per temperature inferiori ai 10 °C si ha un notevole rallentamento della velocità del processo. I processi più sensibili alla temperatura sono quelli dedicati alla rimozione dell’azoto.

L’impatto ambientale di Qatar 2022

In evidenza

Margherita Ferrari*

Lo scorso 20 Novembre si è dato inizio alla Coppa del Mondo 2022, con la prima partita tra Qatar, che ospita il torneo, ed Ecuador. Già a partire dal 2010 il Paese si è preparato ad accogliere per la prima volta i mondiali di calcio ed i suoi numerosi tifosi.

In che modo i mondiali in Qatar sono “Carbon Neutral”? 

Fin da subito, gli organizzatori hanno garantito che sarà la prima Coppa del Mondo ad essere “carbon neutral” ovvero a impatto ambientale nullo o quasi. Per realizzare questa impresa sono state utilizzate nuove tecnologie con cui sono stati costruiti gli 8 stadi, posizionati ad una distanza tra loro che permettesse agli spettatori di poter utilizzare i mezzi di trasporti pubblici, quali metro e linee elettriche, per spostarsi da uno stadio all’altro e dunque ridurre le emissioni. 

Inoltre, uno degli stadi stesso è stato costruito utilizzando container navali, con la possibilità di essere successivamente smantellato e utilizzato in altre occasioni. Infine, la costruzione di un impianto fotovoltaico e la creazione di un vivaio permettono di produrre energia “green” e di assorbire le emissioni di CO2 emesse

Un’altra particolarità della Coppa del Mondo 2022 in Qatar è quella di essere il primo mondiale a svolgersi d’inverno, a causa delle temperature troppo elevate che si registrano durante l’estate in Qatar.

Impatto ambientale e condizioni lavorative

Tuttavia, i mondiali di calcio in Qatar sono stati fin da subito soggetti a numerose polemiche. Da quelle iniziali, relative alle pessime condizioni lavorative a cui gli operai erano sottoposti, a quelle relative all’enorme impatto che ha sull’ambiente. Infatti, sebbene gli organizzatori abbiano da subito dichiarato che i mondiali di calcio 2022 in Qatar sarebbero stati “carbon free”, sono molti coloro che non sono d’accordo. Si stima che la Coppa del Mondo 2022 produrrà circa 3.6 milioni di tonnellate di biossido di carbonio, quasi il doppio di quelli del 2018 in Russia. 

Innanzitutto per realizzare questa impresa, avevano bisogno di molta manodopera e l’hanno trovata in Paesi come Nepal, Bangladesh, India e Libano. Questi lavoratori lavoravano in turni di 12 ore al giorno, 7 giorni su 7, a temperature estreme che in estate superano i 50ºC. Queste condizioni, insieme alla scarsa sicurezza dei luoghi di lavoro, hanno causato la morte di molte persone. 

Molte ONG, come Amnesty International, sono venute a conoscenza della situazione in Qatar e hanno denunciato le condizioni di lavoro nella costruzione degli stadi della Coppa del Mondo. 

Il sistema di raffreddamento degli stadi e le conseguenze sull’ambiente

In aggiunta, una delle ultime polemiche riguarda gli elevati consumi elettrici relativi all’utilizzo di condizionatori all’interno degli stadi.

Sebbene in Inverno il Qatar abbia temperature relativamente miti che si aggirano tra i 17-19 gradi e i 28-30 gradi, per mantenere una temperatura costante intorno ai 20°C all’interno degli stadi, questi ultimi sono stati costruiti in modo da poter incorporare sistemi di aria condizionata sugli spalti.

In particolare, il sistema utilizzato per abbassare la temperatura è il cosiddetto “cooling system”, progettato dall’ingegnere Saud Abdulaziz Abdul Ghani o “Dr. Cool”. Tale sistema prevede l’utilizzo di specifiche “bocchette d’aria” posizionate sotto i sedili di ciascun spettatore e vicino al campo da gioco che gettano aria condizionata. 

Gli organizzatori hanno dichiarato che l’energia utilizzata per il sistema di raffreddamento deriva da energia solare tramite impianti fotovoltaici, tuttavia il report pubblicato dal Carbon Market Watch (e anche https://carbonmarketwatch.org/publications/poor-tackling-yellow-card-for-2022-fifa-world-cups-carbon-neutrality-claim/  )ha dimostrato che gli stadi costruiti per ospitare le 32 squadre nazionali producono elevatissime emissioni di gas serra, dalla loro costruzione fino al loro utilizzo. 

Queste possono essere paragonate a quelle emesse dall’Italia in un anno per riscaldare le case durante l’inverno. In aggiunta, per l’irrigazione dei campi da calcio vengono impiegati circa 10000 litri di acqua al giorno

Considerato l’impatto ambientale dei mondiali del 2022, sebbene gli sforzi degli organizzatori siano stati elevati, questi non sono sufficienti

Fonte: https://energia-luce.it/news/impatto-ambientale-mondiali-qatar-2022/

*Margherita Ferrari è una redattrice del blog Energia-Luce

Rischio batterico e chimica.

In evidenza

Claudio Della Volpe

Ne abbiamo già parlato per esempio qui (vi consiglio di rileggere il post) e qui; ma facciamo ancora il punto.

Cominciamo con una osservazione laterale da usare come riferimento. Secondo i dati ufficiali del Ministero della Salute e dell’OMS riportati nella pagina del Ministero le statistiche essenziali del Covid-19 sono

-nel mondo dall’inizio della pandemia 633.601.048 casi confermati  e 6.596.542 morti (1.04% degli infetti, è il tasso di letalità, ossia la percentuale di morti sul totale degli infetti; ricordate invece che il tasso di mortalità è la percentuale dei morti rispetto ai potenziali soggetti esposti)

-in Europa 264.175.987 casi confermati   2.132.478 morti (0.8%)

– in Italia 24.260.660  casi confermati   181.009 morti  (0.7%).

Come si vede dunque dopo 3 anni di pandemia i morti sono attorno all’1% degli ammalati (e comunque contrariamente alle ridicole dichiarazioni del nostro nuovo governo meno in Italia che in Europa), ossia circa un ordine di grandezza più della comune influenza che nel nostro paese ha fatto cose come 5-6 milioni di casi con 8mila morti (0.13-0.16%) in media ogni anno. Il Covid non è stata dunque una influenza e l’Italia non è stata peggio dell’Europa. Ma non vorrei parlarvi di questo, ma di un pericolo maggiore del Covid e che però non viene percepito con la sufficiente attenzione.

Parliamo dei batteri e in particolare di batteri resistenti agli antibiotici, ma non solo.

Un recente articolo su The Lancet ha analizzato il problema per l’anno 2019.

Published online November 21, 2022 https://doi.org/10.1016/S0140-6736(22)02185-7

L’articolo è uno studio con un amplissimo numero di autori che ha raccolto tutte le evidenze sperimentali relative ai casi di morti per malattie infettive nel mondo ed è stato finanziato dalla Fondazione Bill e Melinda Gates. Tale numero è assommato nel 2019 a quasi 14 milioni di persone. Teniamo presente che ogni anno muoiono circa 140 milioni di persone e che dunque stiamo parlando del 10% circa della mortalità totale.

Nel grafico seguente vediamo a quali batteri sono attribuibili i casi infettivi ed i decessi; come potete vedere a 5 batteri sono attribuibili la gran maggioranza di tutti i decessi per infezione batterica:

Dice il testo:

Nel 2019, ci sono stati circa 13,7 milioni (95% UI 10,9-17·1) di decessi correlati all’infezione a livello globale, con 7,7 milioni (5,7-10,2) di decessi associati ai 33 patogeni batterici che abbiamo studiato. Questi batteri sono stati complessivamente associati al 13,6% (10,2-18,1) di tutti i decessi globali nel 2019 e al 56,2% (52,1-60,1) di tutti i decessi correlati all’infezione per quell’anno. Il tasso di mortalità per tutte le età è stato di 99,6 decessi (74,2-132) per 100000 abitanti collettivamente per questi patogeni. Solo un organismo, Staphylococcus aureus, è stato associato a più di 1 milione di decessi nel 2019 (1 105 000 decessi [816 000-1 470 000]; tabella). Quattro agenti patogeni aggiuntivi sono stati associati a oltre 500 000 decessi ciascuno nel 2019; questi erano Escherichia coli, S pneumoniae, Klebsiella pneumoniae e Pseudomonas aeruginosa (tabella, figura 1A). Questi cinque principali patogeni erano associati al 30,9% (28,6-33,1) di tutti i decessi correlati all’infezione ed erano responsabili del 54,9% (52,9-56,9) di tutti i decessi tra i batteri studiati.

Si tratta di batteri (solo in parte antibiotico-resistenti) e dunque la questione di cui parliamo oggi non è solo la resistenza agli antibiotici ma in genere tutto ciò che riguarda la prevenzione, la individuazione e la terapia delle infezioni batteriche.

Dai numeri stimati dal lavoro potete notare come il numero di medio morti annuali per Covid-19 è stato nettamente superiore a quello anche del più temibile batterio, nel nostro caso S. Aureus, l’unico a fare più di un milione di morti all’anno contro una media di almeno due milioni per il Covid; ma attenzione S. Aureus fa (SOLO) 40 milioni di casi e più di un milione di morti ossia il 2.5% (ancora tasso di letalità) circa, dunque ben peggio del Covid-19; fortunatamente non si diffonde con la medesima rapidità, se no sarebbe 2.5 volte peggiore. Ma perfino l’innocuo E. Coli, il prototipo dei batteri amichevoli, fa 30 milioni di casi e 900mila morti, ossia una letalità ancora maggiore il 3%.

La questione dei batteri resistenti agli antibiotici era stata affrontata dal medesimo gruppone di ricerca in un precedente lavoro indicato qui sotto con risultati sempre molto significativi.

Scrivono gli autori: La resistenza antimicrobica (AMR) rappresenta una grave minaccia per la salute umana in tutto il mondo. Pubblicazioni precedenti hanno stimato l’effetto della resistenza antimicrobica sull’incidenza, sui decessi, sulla durata della degenza ospedaliera e sui costi sanitari per specifiche combinazioni patogeno-farmaco in luoghi selezionati. A nostra conoscenza, questo studio presenta le stime più complete dell’onere della resistenza antimicrobica fino ad oggi…..

Sulla base dei nostri modelli statistici predittivi, ci sono stati circa 4,95 milioni (3,62-6,57) di decessi associati a AMR batterica nel 2019, inclusi 1,27 milioni (95% UI 0,911-1·71)di  decessi attribuibili a AMR batterica. A livello regionale, abbiamo stimato che il tasso di mortalità per tutte le età attribuibile alla resistenza sia più alto nell’Africa subsahariana occidentale, a 27,3 morti per 100 000 (20,9-35,3), e più basso in Australasia, a 6,5 decessi (4,3-9,4) per 100 000.

Le infezioni delle basse vie respiratorie hanno rappresentato oltre 1,5 milioni di decessi associati alla resistenza nel 2019, rendendola la sindrome infettiva più gravosa. I sei principali patogeni per decessi associati alla resistenza (Escherichia coli, seguito da Staphylococcus aureus, Klebsiella pneumoniae, Streptococcus pneumoniae, Acinetobacter baumannii e Pseudomonas aeruginosa) sono stati responsabili di 929 000 (660 000-1 270 000) decessi attribuibili alla resistenza antimicrobica e di 3,57 milioni (2,62-4,78) decessi associati alla resistenza antimicrobica nel 2019. Una combinazione patogeno-farmaco, S aureus resistente alla meticillina, ha causato più di 100000 decessi attribuibili alla resistenza antimicrobica nel 2019, mentre altri sei hanno causato ciascuno 50000-100000 decessi: batteri multiresistenti (esclusa la tubercolosi ampiamente resistente ai farmaci), E coli resistente alle cefalosporine di terza generazione, A. baumannii resistente ai carbapenemi, E coli resistente ai fluorochinoloni, K pneumoniae resistente ai carbapenemi e K pneumoniae resistente alle cefalosporine di terza generazione.

Come si vede il ruolo dei batteri resistenti è alto ma non è l’unico problema; per esempio solo 1/6 circa dei morti per E. Coli è dovuto ai batteri resistenti nelle varie modalità. (notate la differenza fra associati alla resistenza ed attribuibili alla resistenza)

Gli altri problemi sono essenzialmente legati alla difficoltà e al tempo di individuare il batterio responsabile dell’infezione, alla eventuale scarsezza di mezzi clinici, etc. Non si tratta perciò di vincere solo la battaglia dell’uso sconsiderato e troppo ampio degli antibiotici, legato a sua volta all’uso veterinario e dunque al modello produttivo dell’agricoltura intensiva e del consumo assurdo di carne, ma anche alle tecniche per individuare i batteri responsabili di un caso specifico.

In queste due cose almeno la Chimica può e deve dare una mano:

  1.  far ripartire, mentre si riorganizza la catena produttiva del cibo in modo più sostenibile, la ricerca per nuove classi di antibiotici attive sui batteri resistenti a quelli attuali ma usandoli con estremo giudizio e rigore; gridare alla società che usarli male è come non averli!!!
  2. e poi anche mettere a punto metodi veloci di determinazione dei batteri presenti in un caso specifico di infezione, per esempi usando le tecniche Raman (la microspettroscopia Raman in particolare) per classificare i batteri: qui serve lo sviluppo di un esteso database; od altri metodi come quelli proposti nel post indicato all’inizio.

Anche superare il punto di vista dell’antibioticoterapia e anche qui la Chimica è molto importante, ovviamente in un lavoro di tipo collaborativo.

Gli antibiotici come strategia antibatterica non sono unici, si può pensare come minimo ad altre due strategie:

-i batteriofagi, ossia i virus specifici dei batteri, un’idea sviluppata dai Russi a cavallo fra le guerre mondiali (si veda la pagina dell’istituto Eliava di Tbilisi o anche https://it.wikipedia.org/wiki/Terapia_fagica)

-oppure gli inibitori del Quorum -sensing, ossia molecole che interferiscono con le comunicazioni fra batteri specie nelle fasi avanzate di infezione in cui gli antibiotici sono in difficoltà.(si veda la pagina seguente: https://www.microbiologiaitalia.it/didattica/quorum-sensing/)

Sarebbe bello che chi si occupa di queste cose ci aiutasse a capire meglio il ruolo della chimica in questo gioco così complesso che certo non si può esprimere con la semplice distruzione dei batteri con gli antibiotici durante le malattie infettive: ricordiamo che dentro ognuno di noi c’è circa un chilo di batteri (l’1% del nostro peso corporeo, essenzialmente nell’intestino, ma anche sulla pelle); il 99% di questi batteri appartiene a sole 30-40 specie, a causa delle loro minuscole dimensioni cellulari il numero di tali batteri è SUPERIORE a quello delle cellule del nostro corpo, dunque siamo fatti di più cellule batteriche procariote che di cellule umane eucariote; ed infine ultima curiosità E. coli che abbiamo visto così pericoloso in potenza alberga nel nostro corpo con una massa dell’ordine di varie decine di grammi. Pensateci.

Gli antibiotici e la strategia antibiotica, la pallottola magica, una delle glorie della nostra tradizione culturale come chimici si avvia ad un punto morto o comunque critico, non può essere la soluzione finale delle malattie infettive.

Pensare in termini di pallottola magica e basta rischia di portarci fuori strada.

Due parole su COP27.

In evidenza

Luigi Campanella, già Presidente SCI

COP27 si è chiusa con risultati tutto sommato deludenti. Non sono riuscito a disporre del documento finale nella sua versione integrale e mi sono dovuto accontentare del sommario riportato da diversi giornali. Da questo emerge che qualche piccolo passo in avanti è stato conseguito su 4 punti: addio alle fonti fossili, un fondo per perdite e danni, riscaldamento globale entro 1,5 gradi, finanza climatica.

Sul primo punto gli impegni restano i soliti, ma con la brutta novità di un documento proposto dall’India volto a considerare nella riduzione d’uso non solo il carbone, ma anche petrolio e gas, e non accettato dell’Arabia Saudita, così compromettendo la richiesta unanimità. Sul secondo punto la diatriba ha riguardato il termine del fondo: aiuto, come vogliono USA ed Australia o risarcimento come richiesto dai Paesi del Sud del mondo, che hanno addirittura su questo punto creato un movimento e trovato un leader globale nel presidente brasiliano Lula.

L’Europa ha sostenuto la proposta con una buona dose di timidezza, criticando la posizione ambigua della Cina.

Sul terzo punto l’obiettivo è contenere il riscaldamento globale entro 1,5 gradi rispetto all’era preindustriale, ma leggendo si capisce che più di una ribadita espressione di volontà si tratta di un dato di riferimento.

Infine per il quarto punto la promessa di 100 miliardi l’anno dal 2020 in finanza climatica è rimasta fino ad oggi lettera morta. In compenso sono comparsi. nuovi strumenti finanziari come i tassi di interesse per i Paesi in via di sviluppo cioè i prestiti costano molto di più e un maggiore impegno delle banche multilaterali. Questa incerta conclusione contrasta in effetti con l’inizio di COP27 che era sembrato piuttosto concreto nel definire responsabilità ed omissioni

COP27 era partito con la relazione di IRENA (Agenzia Internazionale per le Energie Rinnovabili) che ha subito posto sul terreno alcune domande precise condensabili in: quanto realmente facciamo nel campo delle rinnovabili rispetto alle loro potenzialitá? La relazione si dà anche una risposta che purtroppo è sconfortante. Dei 195 Paesi presenti12 nemmeno citano questo tipo di energia e degli altri solo 143 hanno prodotto piani di decarbonizzazione tramite obiettivi precisi e quantificabili e solo 12 riportano target rinnovabili a livello di mix energetico. La nuova analisi rileva che gli obbiettivi rinnovabili 2030 fissati attualmente porteranno ad una capacità verde installata di 5,4 TW a livello mondiale, la metà di quanto previsto dallo scenario predisposto dalla stessa IRENA per rispettare gli impegni di contenimento del riscaldamento del globo.

Il gap però non deve considerarsi incolmabile, richiederebbe per sanarlo un incremento di capacità installata da tutti Paesi di 259 GW l’anno per i prossimi 9 anni. L’Agenzia sottolinea come per riscaldamento, raffreddamento e trasporto che rappresentano l’80% della domanda globale di energia di fatto non siano stati fissati target. Nel frattempo dinnanzi a Bruxelles che chiede ai Paesi Eusopei che la percentuale di rifiuti conferiti in discarica non superi il 10% purtroppo il nostro Paese,che pure primeggia nel riciclo di vetro, carta e plastica, sta molto indietro. Mancano 30 impianti per chiudere il ciclo dei rifiuti. Si assiste così al turismo dei rifiuti con 120 mila spedizioni medie annue. C’è poi la spaccatura fra Nord Italia, Centro e Mezzogiorno: al Nord c’è un numero congruo di impianti, ma al Centro si misura un Deficit di almeno 2,4 milioni di tonn. Senza impianti di digestione anaerobica e termovalorizzatori non è possibile chiudere il ciclo dei rifiuti in un’ottica di economia circolare. La raccolta differenziata per il riciclo e gli impianti, per un certo tempo visti in contrapposizione sono invece alleati: se prevale uno dei 2 prevale anche l’altro. Un ulteriore vantaggio della installazione sarebbe la produzione di bioetanolo attraverso i rifiuti organici e di elettricità attraverso i termovalorizzatori, abbassando il fabbisogno nazionale di domanda energetica del 5% anno.

https://www.lifegate.it/cop27-reazioni-giudizio

https://www.staffettaonline.com/articolo.aspx?id=370719

(articolo dell’ormai 90enne GB Zorzoli, sempre chiarissimo, chi lo vuole per esteso contatti CDV)

Recensione. Clima 2050.

In evidenza

Marco Taddia

La matematica e la fisica per il futuro del sistema Terra

di Annalisa Cerchi, Susanna Corti (Zanichelli, Bologna, 2022)

p. 168 euro 13

Un recente articolo di  Nature, datato 21 novembre 2022, dedicato agli aerosol atmosferici che rendono di cattiva qualità l’aria di alcuni tra i paesi più poveri e popolati della Terra (https://www.nature.com/articles/d41586-022-03763-9 e attribuisce loro una responsabilità precisa negli eventi estremi, aggiunge un’altra incognita ai temi climatici. Non si sa, purtroppo se tali aerosol sono destinati ad aumentare, diminuire o stabilizzarsi. L’incertezza a tale proposito, per quanto riguarda i prossimi 20-30 anni, è grande e non sappiamo se essi contribuiranno ad aumentare di 0,5°C la temperatura nel 2050. Se l’effetto degli aerosol si farà sentire è in dubbio, mentre per quanto riguarda il riscaldamento globale nel suo complesso le idee sembrano più chiare, anche dal punto di vista economico. Un report del Deloitte Center for Sustainable Progress diffuso durante il World Economic Forum di Davos (giugno 2022) ci ha informato https://www2.deloitte.com/xe/en/pages/about-deloitte/press-releases/deloitte-research-reveals-inaction-on-climate-change-could-cost-the-world-economy-usd-178-trillion-by-2070.html che senza intervenire sui cambiamenti climatici i costi sull’economia globale ammonterebbero nei prossimi 50 anni a ben 178 trilioni di dollari USA, ovvero un taglio del 7,6/ sul GDP nel 2070.

Le previsioni quindi non sono incoraggianti e lo sappiamo da anni. Alla fine di novembre dell’ormai lontano 2015, in vista dell’apertura della conferenza COP 21 (Parigi, 30 novembre-12 dicembre), commentando l’Annual Report della società DNV GL (https://www.dnv.com/Publications/dnv-gl-annual-report-2015-64621) , notoriamente uno dei più importanti enti di certificazione, i giornali ne traevano conclusioni piuttosto fosche prevedendo per il 2050 un mondo sotto pressione, con il 60% degli ecosistemi a rischio, temperature in aumento tra i 3 e i 6 gradi centigradi, mari più alti di un paio di metri, 200 milioni di ‘rifugiati climatici’, una domanda di energia elettrica aumentata del 57% e coperta ancora per l’81% dai combustibili fossili.  Tutto ciò per dire che vale veramente la pena interrogarsi, ricorrendo all’aiuto di chi conosce la scienza del clima, su un futuro che poi non è così lontano come sembra. Ci viene in aiuto questo libro, che giunge a proposito nella popolare collana ‘Chiavi di lettura’ dell’editore Zanichelli, a firma di Annalisa Cherchi e Susanna Corti che si intitola proprio ‘Clima 2050 – La matematica e la fisica per il futuro del sistema Terra’ (Bologna, 2022). I loro nomi sono una garanzia di competenza perché entrambe lavorano presso l’Istituto di Scienze dell’Atmosfera e del Clima (ISAC) del CNR e, nel febbraio 2018, sono state selezionate come Lead Author per il sesto rapporto dell’Intergovernmental Panel on Climate Change pubblicato ad agosto 2021. La Corti è anche Executive Editor di Climate Dynamics, rivista di Springer Nature. Il libro consta di sei capitoli che dopo aver chiarito la differenza fra meteo e clima, spiegato l’effetto serra e come si osserva il clima che cambia, si occupano nell’ordine del clima del prossimo futuro, di fisica e matematica del clima, di cambiamenti climatici e loro conseguenze e della collaborazione in atto a livello internazionale specialmente a livello IPCC.  Viene da dire, finalmente! Era ora che qualcuno che ci spiegasse in termini chiari e concisi, senza supponenza e con toni pacati, tutto ciò che può orientarci nella valutazione delle tante informazioni, talora contradditorie, che ci vengono fornite dai media. Sfogliando il libro, un paio di grafici che troviamo alle pp. 34 e 35 attirano subito l’attenzione del lettore. Il primo mostra l’andamento della temperatura media superficiale globale rispetto al periodo di riferimento, ovvero la differenza rispetto alla media 1850-1900. Si può notare che la tendenza al riscaldamento lineare negli ultimi cinquant’anni (0,15°C per decennio) è quasi il doppio di quella degli ultimi 150 anni. L’altro grafico mostra invece che le temperature osservate combaciano con quelle ottenute dai modelli solo se questi considerano le attività umane. In conclusione, gli elementi forzanti di origine naturale non sono sufficienti a spiegare il riscaldamento degli ultimi decenni. Le autrici ci spiegano che i modelli climatici completi si basano su leggi fisiche rappresentati da equazioni matematiche, qui riportate, che vengono risolte utilizzando una griglia tridimensionale del globo (fig. 7, p. 42). Nel cap. 5, relativamente alle conseguenze, aggiungono anche che il cambiamento climatico non riguarda tutte le parti del globo in modo uniforme ma piuttosto che è possibile identificare pattern caratteristici nel cambiamento di temperatura e precipitazioni.

    Il libro contiene anche un elenco delle fonti consultate, una parte intitolata ‘4 miti da sfatare’ e alcune pagine interessanti dal titolo ‘Forse non sapevi che’. Proprio tra i miti da sfatare, ad esempio che sia troppo tardi per agire contro il cambiamento climatico, le autrici lanciano un messaggio di speranza:   Non è assolutamente troppo tardi e non lo sarà per decenni. La nostra azione o inazione, determinerà quanto il mondo si scalda. A questo proposito ricordiamo che si è conclusa da poco la COP 27 di Sharm el-Sheikh con l’approvazione da parte dell’Assemblea Plenaria di un documento finale che presenta anche qualche aspetto positivo. Per quanto riguarda il riscaldamento globale l’obiettivo di contenerlo entro 1,5 gradi è stato mantenuto, così come è stata apprezzabile l’istituzione di un fondo per i ristori delle perdite e i danni dei cambiamenti climatici nei paesi più vulnerabili, mentre per altri aspetti i risultati sono stati deludenti. Si rimanda ad altri contributi apparsi sulla stampa per un esame più dettagliato dei risultati. Secondo Frans Timmermans, vicepresidente della Commissione Europea, essi non sono sufficienti a contrastare  i cambiamenti climatici e a mitigarne gli effetti. In particolare, il documento non dice niente sulla riduzione o eliminazione dei combustibili fossili. Si alternano quindi allarmi e speranze, studi e inchieste, previsioni e smentite con il risultato di confonderci talvolta le idee.

    Al termine della recensione di un libro denso di contenuti ma agile nella forma, che preferisce ai toni apocalittici e agli anatemi toni persuasivi, piace ricordare l’impegno, la passione e la  mobilitazione di tanti giovani tesa a sollecitare un’azione più decisa dei governi  in questo campo. Alcuni, lo hanno fatto anche con la musica e la poesia e, se volete ascoltare le loro voci, eccoli qui: https://www.youtube.com/playlist?list=PLNGYdFUDxjh0rpIwuhK3m1_p6vY1DxZDt.

Questa recensione è apparsa anche sul web journal del Gruppo 2003 per la ricerca scientifica al quale l’Autore collabora con regolarità

http://www.scienzainrete.it/autori/taddia/371         

Recensione. Un mondo in crisi

In evidenza

Claudio Della Volpe

Nicola Armaroli – Un mondo in crisi. Gas, Nucleare, Rinnovabili e Clima: è ora di cambiare.

Ed. Dedalo, p. 152 euro 17

Un mondo in crisi. Gas, nucleare, rinnovabili, clima: è ora di cambiare. Otto anni di Sapere - Nicola Armaroli - copertina

Un libro che è in realtà una raccolta di 51 articoli, essenzialmente “editoriali”, che Nicola Armaroli ha scritto negli ultimi anni quale direttore di Sapere, la prima rivista di divulgazione scientifica italiana, fondata nel 1935.

È questo il motivo per cui il libro, pur essendo di dimensioni limitate, è molto denso e riesce ad occuparsi di molti argomenti.

È diviso in 5 gruppi di argomenti ed una introduzione: clima, energia, ricerca, sostenibilità e economia; in ciascun gruppo poi i testi sono posti in ordine storico, coprendo un intervallo di anni dal 2014 ai giorni nostri.

Uno dei motivi per cui ammiro Nicola è proprio perché, come pochi altri in realtà, non ritiene che un chimico, uno scienziato sia obbligato ad essere “neutro” sui temi che hanno una ricaduta sociale; al contrario come pochi altri (e lo dico con rammarico) si espone, prende posizione su quei temi. E questo è in parole povere il pregio basico di questo libro.

Un libro che prende posizione.

Vi faccio un esempio che riguarda proprio la ricerca; in un pezzo intitolato “Fuori dalla torre” (aprile 2018) l’autore descrive il suo rapporto col barbiere, che gli chiede ogni volta cosa ha scoperto di nuovo; Nicola rimane ovviamente imbarazzato da queste richieste che mostrano poi l’aspetto totalmente mercificato  e spettacolarizzato che la scienza ha oggi e che si manifesta anche attraverso la richiesta in tutti i progetti di fare disseminazione, una attività che spesso viene considerata con sospetto:

“…molti scienziati sono diffidenti. Alcune istituzioni accademiche consigliano ai propri dipendenti di non esprimersi in blog e conferenze pubbliche. In pratica: produci articoli a raffica, guardati l’ombelico e taci.

Eppure il tempo per esporsi è arrivato. Dobbiamo uscire dai nostri laboratori ed investire parte del nostro tempo per parlare alla società, anche quando sembra una battaglia persa. C’è bisogno soprattutto di scienziati che parlino in modo chiaro e autorevole dei numerosi problemi che rischiamo di schiacciare la nostra civiltà: clima, acqua energia, pandemie, disponibilità di cibo, disuguaglianze, rischio nucleare, pirateria informatica.

Se non lo facciamo noi, chi lo farà?”

Penso che la redazione del nostro blog condivida completamente il sentimento che questa domanda esprime.

Un altro aspetto positivo è che, se pure ripete testi già pubblicati, li raccoglie e consente di notare l’evoluzione o se volete l’andamento del pensiero dell’autore su un certo tema.

Guardate che non si tratta solo di “chimica”; spesso la chimica è l’occasione per prendere posizione su temi generali, perfino politici; perché la questione basica è proprio questa; che oggi lo scienziato deve prendere parte, “parteggiare”, il che non vuol dire difendere uno specifico partito ma avere una posizione politica, avere una posizione più spesso contro che a favore, dato che poi le “forze politiche” rivelano altarini tragici anche quando si presentano con le migliori intenzioni.

A dimostrazione di quel che dico il libro ha una prefazione di un ministro, anzi un ex ministro dato che il governo di cui faceva parte è arrivato alla fine naturale della legislatura e le nuove elezioni han dato risultati “quasi” opposti (quasi perché c’è chi fa parte di entrambi i governi, quello vecchio e quello nuovo a dimostrazione che nella politica attuale vale il principio di galleggiabilità universale: il potere la vince sui principi e l’importante è rimanere al potere).

Ma anche se il libro ha una prefazione ministeriale dico subito che dubito che il governo Draghi, di cui l’autore della prefazione, Enrico Giovannini, è stato ministro approverebbe tutte le posizioni di Nicola.

Per esempio Nicola è contrario all’uso di gas naturale per risolvere la crisi energetica attuale per i motivi che abbiamo descritto anche su questo blog molte volte: effetto climatico micidiale delle perdite che sono significativamente maggiori di quanto descritto finora da molti commentatori interessati, resa energetica netta in discesa a causa della maggiore richiesta di gas liquefatto che è la conseguenza di cambiare paese esportatore, e così via. Il governo Draghi si è viceversa battuto per costruire nuovi rigassificatori e ha avuto come obiettivo il semplice cambio di fornitore; lo stesso piano del 110% è stato presentato e poi smontato, mentre la strategia di quel tipo ha avuto effetti fiscali molto positivi e inoltre cambia in modo irreversibile i consumi energetici perché li RIDUCE, non cambia fornitore.

Potreste chiedermi se ho qualche critica da fare al libro; beh qualcosa potrei dire anche in questo senso; in genere non è un libro facile da leggere, ti mette in crisi anche perché trattando tanti temi ti obbliga spesso a confrontarti con la tua personale ignoranza.

Ed infine dopo averlo letto un paio di volte e alcuni pezzi anche di più concludo che l’autore ha fiducia che le cose possano cambiare in positivo, che l’umanità possa farcela; personalmente ho qualche dubbio in questo senso, credo sia sempre da considerare l’opzione collasso.

Nicola racconta con fierezza il suo passaggio ad una casa senza gas, senza fossili e conosco altre persone che perseguono questo scopo con continuità ed orgoglio; sono pochi e di solito sono come lui intellettuali di alto livello; ma potrà la maggior parte dell’umanità che vive parecchio lontano dai livelli di reddito europei avere il medesimo obiettivo?

Credo che la questione chiave sia qui; e l’autore d’altronde lo riconosce in vari capitoli, ma a volte (solo a volte) lo mette in secondo piano; non basta cambiare fonte energetica, occorre cambiare paradigma economico, mettendo al centro l’aspetto collettivo dei processi produttivi.

Come dice la pagina di copertina “E’ giunto il momento di sfruttare gli immensi flussi rinnovabili che la natura ci mette a disposizione”; ma contemporaneamente è anche giunto il momento di ribaltare certe idee che sembrano universali ma non lo sono e che dominano i nostri paradigmi economici.

Nicola dedica a questo aspetto alcuni interventi, come quello contro il PIL, considerato ancora oggi l’elemento chiave della valutazione economica. Ma forse il testo in cui mostra la maggiore consapevolezza di questo problema è Vincitori e vinti del 2019 in cui critica duramente il processo di globalizzazione e la crescita di potere delle multinazionali in tutti i settori e il varo del multimiliardario come leader politico.

Insomma un libro che raccoglie le idee di uno di noi, un intellettuale e ricercatore a tutto tondo, il cui merito principale è che prende posizione anche fuori dalla chimica.

Quale transizione per il nostro paese.

In evidenza

Luigi Campanella

L’emergenza climatica è ormai accettata da tutti, ma probabilmente proprio per questo si è finito per trascurare i suoi collegamenti con altri nodi della nostra società globalizzata: gli alti costi energetici e le fratture nella catena della globalizzazione, la crescita che sta rallentando a partire dagli USA e purtroppo il covid19 ancora non superato.

Avere trascurato valutazioni su questi punti potrebbe essere accettato se invece sulla transizione ecologica si fossero fatti passi in avanti tali da garantire quell’incremento massimo di 1,5 gradi di temperatura. In Oriente il processo deve cominciare: è molto difficile dire a Cina ed India di fermarsi, quando stanno costruendo la loro classe media e difendendo con le unghie e con i denti la difficile uscita dalla crisi pandemica!

Se poi dal mondo scendiamo in casa nostra l’allarme più serio riguarda la lentezza con cui procede la conversione alle rinnovabili. Così ad esempio nel solare fra il 2017 ed il 2021 la Germania ha montato quasi 8 terawattora, la Spagna quasi 7, la Francia quasi 4, l’Italia appena 0,4. Negli ultimi 5 anni il nostro Paese ha smesso di installare fotovoltaico. Per non parlare dell’eolico. È vero che i siti sufficientemente ventosi non sono molti, tutti lungo le creste appenniniche o al Sud e sono già occupati, ma gli operatori proprio per questo chiedono da tempo la sostituzione degli impianti eolici più vecchi con quelli più efficienti a pale più larghe che catturano il vento più in alto e chiedono anche di dare il via alle prime centrali off-shore per i quali ci sono 39 progetti presentati da possibili investitori di cui solo uno a Taranto è stato autorizzato.

Le ragioni di questo brusco rallentamento verso il rinnovabile sono certamente i ritardi degli iter procedurali sia per motivi burocratici che paesaggistici e collegati al patrimonio artistico, anche nei casi in cui la valutazione di impatto ambientale è stata eseguita. I fondi europei legati alla transizione green fanno dell’Italia uno dei Paesi che dovrebbero essere più attrattivi (l’Italia in una recente classifica è stata promossa dal 14mo al 12mo posto al mondo come Paese dove si concentreranno i maggiori investimenti) e rappresentano un’occasione da non perdere a patto che venga rispettato dal Governo l’impegno a semplificare le regole e ad accelerare i tempi dei permessi.

Il Governo ha programmi ambiziosi : vuole raggiungere i 95 gigawatt di capacità installata al 2030 rispetto ai 53 attuali, ma è necessario accelerare: alla velocità attuale il traguardo sarebbe raggiunto non nel 2030 ma nel 2048. I fondi del PNRR sono una base solida per questa accelerazione: 4 miliardi di euro per l’incremento di capacità di Res (Renewable energy sources) e 1,9 miliardi di euro per la produzione di biometano. L’Italia rispetto ai Paesi del G20 presenta una situazione di vantaggio rispetto a 3 dei goal, obbiettivi dell’agenda 2030, salute e benessere, energia pulita ed accessibile, consumo e produzione responsabili, mentre secondo una recente ricerca dell’ASVIS (Alleanza Italiana per lo Sviluppo Sostenibile) il nostro tallone di Achille è rappresentato dalla Vita sott’acqua a causa della più ampia quota di pesce pescato da stock ittici collassati o in sovrasfruttamento.

In effetti rispetto a questi goal differenze e disuguaglianze si osservano  anche all’interno dei Paesi del G20, soprattutto con riferimento ai goal energia pulita ed accessibile e città sostenibili. Leggendo il rapporto fa effetto rilevare che per il goal sconfiggere la povertà per l’Italia non è stato possibile elaborare un indice per la mancanza di dati. Interessante il goal lotta ai cambiamenti climatici  una valutazione innovativa che penalizza i Paesi con una maggiore quantità di CO2 importata, come Gran Bretagna, Germania, Australia che altrimenti avrebbero riportato valori più positivi dei relativi indici,

Un altro interessante Report è quello di Energy Transition Readiness Index, realizzato da REA (Association for Renewable Energy and Clean Technology) che analizza i mercati energetici di 12 Paesi Europei e che conclude con una generale accusa circa le discrepanze fra ambizioni ed azioni intraprese.

Colture da riscoprire per una agricoltura più sostenibile?

In evidenza

Angela Rosa Piergiovanni*

I nostri lontani antenati cacciatori-raccoglitori possedevano la capacità di sfruttare al meglio tutto ciò che la natura metteva a loro disposizione. Erano in grado di riconoscere ed utilizzare nel modo più vantaggioso una vastissima gamma di specie vegetali spontanee. Ad ogni specie era associato uno o più usi dal cibo a forme molto arcaiche di terapia, dalla estrazione delle fibre a quella dei pigmenti per il corpo o le prime forme di pittura e via dicendo. Nel corso dei millenni ma soprattutto con la nascita dell’agricoltura, circa 10.000 anni fa, e il conseguente sviluppo di contesti sociali sempre più complessi e evoluti tali conoscenze sono andate progressivamente perdute. Attualmente solo piccolissimi gruppi umani continuano a mantenere con la natura un approccio simile a quello dei cacciatori-raccoglitori mentre la gran parte di noi è incapace di riconoscere in contesti naturali le varie specie vegetali presenti e, a maggior ragione, di individuarne le potenzialità. Non è un mistero che la maggior parte della popolazione mondiale soddisfa i propri bisogni alimentari e non utilizzando un ristrettissimo numero di specie vegetali.

Le attuali sfide ambientali e la ricerca di nuove fonti “green” per le materie prime stanno riportando all’attenzione specie in passato coltivate per svariati utilizzi rivedendone però l’uso in chiave attuale. Una di queste specie è la camelina [Camelina sativa (L.) Crantz], una pianta erbacea sconosciuta ai più ma ben nota ai nostri antenati. Si tratta di una specie appartenente alla famiglia delle Brassicaceae la cui coltivazione (domesticazione è il termine tecnico) è iniziata nell’Asia centrale circa 4000 anni fa. Studi di archeobotanica hanno trovato evidenze della diffusione della sua coltivazione in una vasta area dall’Asia centrale all’Europa. Semi di camelina conservati in varie tipologie di contenitori sono stati riportati alla luce in contesti abitativi di epoche arcaiche durante scavi di antichi villaggi che localizzati dall’odierna Turchia sino ai paesi scandinavi. La coltivazione della camelina è stata praticata per un lungo arco temporale sino ai nostri giorni ma la superficie coltivata si è progressivamente ridotta fino a scomparire del tutto in molti paesi. La pianta ha un ciclo colturale breve (circa 100 giorni), non richiede particolari cure e negli ambienti italiani si presta alla semina sia autunnale che primaverile. L’importanza dei piccolissimi semi di camelina (1000 di essi pesano tra 1.0 e 1.8 g), è legato all’alto contenuto in olio tra il 35 e 45% del peso a seconda della varietà, dell’ambiente e dell’epoca di coltivazione. Proprietà questa particolarmente apprezzata dall’uomo come sembra suggerire il suo nome comune in inglese “gold of pleasure”.

Ovviamente l’alto contenuto in olio dei semi può avere una valenza limitata se si pensa a quante sono le specie erbacee attualmente coltivate nel mondo per produrre olio (girasole, colza, cartamo, ricino, crambe, ecc.). L’olio di camelina ha però dalla sua una composizione molto interessante essendo caratterizzato da un tenore in acidi grassi polinsaturi (PUFA, polyunsatured fatty acids) decisamente elevato, più del 50% dell’olio. Ancor più interessante è il profilo degli acidi grassi tra i quali prevale nettamente l’acido alfa-linolenico (32-40 % del totale) seguito dagli acidi linoleico e oleico. Come è noto, tutti questi acidi grassi insaturi hanno un’alta valenza nutrizionale. A tutto ciò va aggiunto per l’olio è estratto a freddo dai semi un altrettanto interessante contenuto in tocoferoli (400-800 mg kg-1). In realtà l’utilizzo dei semi di camelina non è limitato all’estrazione dell’olio, ma il panello residuale, essendo particolarmente ricco in proteine di buona qualità nutrizionale, può essere impiegato in zootecnia come parziale sostituto della soia nella formulazione dei mangimi. Sfortunatamente l’apporto di panello di camelina non può superare certe soglie a causa dei glucosinolati presenti in quantità non del tutto trascurabile. Tali composti, se presenti in quantità eccessiva nel mangime, gli conferirebbero un sapore sgradevole per gli animali. Positive sono invece le evidenze sperimentali raccolte in vari progetti pilota. Si è osservato come l’inclusione in quantità appropriate del panello di camelina nei regimi dietetici di varie specie animali (dal pollame ai pesci) produca una positiva modifica del profilo nutrizionale dei prodotti derivati ottenuti da questi animali. Ad esempio, è stato riscontrato un apprezzabile incremento degli omega-3 nelle uova di pollame nutrito con mangimi contenenti panello di camelina senza che ciò inficiasse lo stato di salute degli animali.

Al di là dell’uso per produrre biodiesel di seconda generazione l’olio di camelina può quindi essere impiegato come fonte di omega-3, in campo cosmetico, o come precursore di varie molecole in vari processi industriali. Altrettanto si può dire per il panello proteico un sottoprodotto utilizzabile sia in zootecnia, in parziale sostituzione della soia, che come fonte di molecole base per vari derivati industriali (ad es.: adesivi con diverse proprietà). La camelina offre quindi un ricco spettro di possibili applicazioni che varrebbe la pena di portare da una scala sperimentale a quella industriale.

Bibliografia

Lolli S. et al. Animals 2020, 10(8), 1396; https://doi.org/10.3390/ani10081396

Mondor M., Hernández-Álvarez A.J. Eur. J. Lipid Sci. Technol. 2022, 124, 2100035

Riaz et al. Animals 2022, 12, 1082. https://doi.org/10.3390/ani12091082

Si ringrazia la dr.ssa I. Galasso per le foto.

*Angela Rosa Piergiovanni, chimica è Ricercatore CNR dal 1990, dal 2010 in servizio presso l’Istituto di Bioscienze e Biorisorse (IBBR-CNR) di Bari con la qualifica di primo
ricercatore. Responsabile scientifico di unità di ricerca sui temi delle risorse genetiche, germoplasma e biochimica.

Angela R. Piergiovanni Istituto di Bioscienze e Biorisorse (CNR-IBBR) via Amendola 165/a 70126 Bari  e-mail angelarosa.piergiovanni at ibbr.cnr.it

2 Dicembre 1973 prima domenica di austerity

In evidenza

Mauro Icardi

2 Dicembre 1973 prima domenica di austerity. Io avevo undici anni, e come quasi tutti i miei coetanei ero affascinato e incuriosito delle automobili. Le osservavo e molte volte per gioco mi sedevo al posto di guida della 500 di famiglia per curiosare e fingere di essere già capace di guidare.  Ma a partire da quel giorno la nostra piccola utilitaria doveva rimanere ferma la domenica.  Per andare a trovare i nonni bisognava riprendere le abitudini di un tempo, tornare a utilizzare autobus e treno. Si applicarono quel giorno i provvedimenti scaturiti dalla riunione del Consiglio dei ministri del 22 novembre precedente per fare fronte all’emergenza energetica dovuta alla riduzione della produzione di petrolio e all’embargo deciso dai governi arabi nei confronti degli stati filo-israeliani (in particolare Usa e Paesi Bassi) come ritorsione agli esiti della guerra del Kippur. Agli italiani, come a molti altri cittadini dei paesi occidentali, furono imposte misure atte a contenere i consumi energetici che incisero sulla vita quotidiana, sia pure per un periodo limitato.

Il divieto di circolazione era esteso a tutti, anche ai rappresentanti delle istituzioni e al presidente della Repubblica. Giovanni Leone infatti, qualche giorno dopo, per andare dal Quirinale a piazza di Spagna per rendere omaggio all’Immacolata Concezione utilizzò una vecchia carrozza a cavalli. Erano esentati dal divieto di circolazione gli automezzi di vigili del fuoco, corpi di polizia, medici, i furgoni postali, i mezzi per la distribuzione dei quotidiani, le auto del corpo diplomatico.  Per gli spostamenti gli italiani potevano utilizzare treni, aerei, navi, taxi e gli automezzi delle linee pubbliche o con licenza di servizio da noleggio. Le multe per chi trasgrediva andavano da 100mila lire a un milione. Il divieto di circolazione ai mezzi motorizzati su tutte le strade pubbliche, urbane ed extra­urbane, iniziava dalle ore 0 e sino alle ore 24 di tutti i giorni festivi (domeniche o infrasettimanali).

Per me quel giorno rappresenta una sorta di imprinting culturale, una giornata di cui ho ricordi vaghi ma che sicuramente ho trascorso in bicicletta pervaso da una sensazione di libertà indescrivibile. Era irreale vedere le strade deserte e senza traffico. Mi piaceva pensare già allora, di poter circolare con meno rischi per la mia incolumità, e mi faceva sorridere che le biciclette, i monopattini, le carrozze o i carri trainati da cavalli circolassero tranquillamente in strada. Poi però iniziai a fare riflessioni diverse spinto anche dai discorsi che sentivo fare dalle persone adulte. E da allora posso dire di non avere più smesso di farle.

Nel 1972 gli idrocarburi (petrolio e gas naturale) coprivano 64,4 per cento dei bisogni energetici; soltanto vent’anni prima la percentuale era del 37,6 per cento: l’improvviso calo della disponibilità di risorse colpì in maniera più diretta il settore dei trasporti, con forti conseguenze sulla produzione e sul mercato dell’auto, uno dei simboli universali della crescita economica. Mio padre era operaio alla Fiat, e pur non lavorando nel settore auto ma in quello della costruzione dei veicoli industriali, nutriva qualche preoccupazione per il proprio futuro lavorativo.

Questi provvedimenti colpirono, oltre alla dimensione politica e sociale, anche quella psicologica. La crisi era una novità imprevista dagli economisti, dal momento che era la prima volta nella storia in cui si assisteva alla concomitanza di due fenomeni: l’inflazione e la stagnazione economica.

Per quanto riguarda l’impatto psicologico colpiva in Italia la sensazione che i tempi del boom economico fossero definitivamente tramontati, o comunque pesantemente messi in discussione.

Il boom economico produsse la creazione di nuovi posti di lavoro, la diminuzione della disoccupazione e il deciso miglioramento del reddito. Ma anche una eccessiva esplosione dei consumi, dovuta anche all’incremento demografico.  Dopo la seconda guerra mondiale, nonostante la Guerra fredda e la persistenza di elevati gradi di conflittualità in alcune aree del mondo, la società occidentale viveva una nuova fase di progresso nella convinzione di poter dominare la natura per le proprie esigenze, grazie soprattutto allo sfruttamento di risorse energetiche derivanti dai combustibili fossili.

Ma a molti erano sfuggite le premesse che si stavano lentamente concretizzando già nel decennio precedente. L’incremento continuo della domanda di petrolio si accompagnò al raggiungimento del picco produttivo da parte degli USA.  Nell’aprile 1973 Il presidente Nixon dichiarò che la domanda di energia era cresciuta così rapidamente da superare le risorse disponibili; da quel momento gli Usa diventarono importatori di petrolio, mentre l’area mediorientale, in cui si concentravano le più grandi riserve, incrementava la propria capacità produttiva. I paesi produttori però, volevano anche maggiore autonomia nella gestione delle risorse, e maggiori proventi dal sistema delle concessioni a scapito delle grandi compagnie petrolifere.

Il conflitto arabo-israeliano del 1973 costrinse i governi occidentali a varare le misure di austerity, e segna l’inizio di un deciso cambiamento rispetto al decennio precedente. Da quel momento inizia a farsi strada una nuova consapevolezza.  Chi ha vissuto quel periodo come me non può non avere capito un concetto che dovrebbe essere patrimonio di tutti: cambiare le proprie convinzioni sull’irrever­sibilità dei processi di sviluppo che poggiavano sulla crescita economica durata ininterrottamente dalla fine della seconda guerra mondiale.

Cioè accettare il concetto della limitatezza delle risorse non rinnovabili e operare una profonda trasformazione culturale e personale. Il benessere di cui abbiamo potuto godere nel mondo occidentale poggiava le proprie fondamenta su un terreno fragile. Sulla disponibilità ritenuta infinita di combustibili fossili a buon mercato. E poggiava e ancora poggia sulle profonde disuguaglianze tra paesi ricchi e paesi poveri. Situazioni di cui troppo spesso ci dimentichiamo.

Gli interventi di mitigazione di quella crisi, ovvero il sostegno alla disoccupazione, l’aumento della spesa pubblica e della tassazione finiranno per mettere in crisi il sistema del welfare state e favorire il successo delle politiche neoliberiste che a partire dai primi anni 80 diventano di fatto egemoni non solo nel mondo occidentale ma direi a livello planetario. Il consumismo diventa quasi una religione, promette di supplire ai vuoti esistenziali. La pubblicità promette e indica modelli di vita quasi irreali dove la realizzazione personale si ottiene quasi unicamente con il ricorso all’acquisto di beni materiali. Negli anni 70 c’è consapevolezza dei problemi ambientali ma nel 1983 il nuovo presidente americano Ronald Reagan si rivolge agli americani sostenendo che “non ci sono limiti allo sviluppo del progresso, quando gli uomini e le donne sono liberi di seguire i propri sogni”. E conclude dicendo “avevamo ragione”. Il presidente aveva attaccato esplicitamente quanto contenuto nel libro “I limiti dello sviluppo” semplicemente perché come molti altri politici che verranno dopo di lui, non riesce ad avere visioni di prospettiva, ma è interessato solo ad obiettivi immediati.

 A distanza di mezzo secolo forse qualcuno può vedere il periodo dell’austerity come nient’altro che un curioso fenomeno di costume.

 Le misure entrarono in vigore dal 1dicembre e durarono fino al 10 marzo del 1974, quando fu introdotta la circolazione a targhe alterne. Le restrizioni si con­clu­sero a partire da domenica 2 giugno 1974 con deroghe in occasione di Pasqua e Pa­squetta (14 e 15 aprile). Tutto sommato un periodo di tempo limitato e presto rimosso e dimenticato.

Io invece iniziai qualche tempo dopo proprio con la lettura de “I limiti dello sviluppo” un mio personale percorso di approfondimento sia del tema energetico, che più in generale dei problemi ambientali che ancora oggi dobbiamo affrontare e risolvere. Ho avuto la fortuna di avere docenti che riuscirono a farmi capire l’importanza fondamentale che lo studio della chimica e della termodinamica avrebbero avuto, per la comprensione dei temi energetici ed ambientali.

Non so se nei programmi scolastici si parli dell’austerity. Sarebbe un tema interessante da sviluppare con i ragazzi di oggi, soprattutto nell’attuale periodo. Se confrontiamo le altre misure imposte nel 1973 con quanto ci viene chiesto oggi possiamo vedere che dopo cinquant’anni le cose non sono molto differenti.

Vediamo alcune altre misure del 1973, oltre a quella più ricordata del divieto di circolazione.

  • i negozi e gli uffici pubblici dovevano anticipare la chiusura: per i primi il limite massimo autorizzato era alle ore 19, per i secondi alle ore 17.30. Anche bar, ristoranti e locali pubblici erano obbligati a chiudere alle 24, mentre cinema, teatri e locali per lo spettacolo potevano rimanere aperti fino alle 22.45, con tolleranza sino alle 23. Anche i programmi televisivi dovevano chiudersi entro le 22.45/23.00.
  • l’illuminazione pubblica dei comuni doveva essere ridotta del 40 per cento, mentre le scritte o insegne luminose commerciali poste nelle vetrine e all’interno di negozi e altri locali pubblici dovevano essere spente. L’Enel fu autorizzata a ridurre del 6-7 per cento la tensione erogata tra le ore 21 e le 7.

Come si può notare ci sono corsi e ricorsi nella storia. E se si conosce il passato si possono affrontare meglio le emergenze del presente. Fino a costruire un futuro su basi totalmente diverse da quelle che sono state seguite fino ad oggi.

Chimica, etica, Africa

In evidenza

Luigi Campanella, già Presidente SCI

Oggi voglio parlarvi di una mia recente esperienza, delle prospettive che mi ha aperto e di quanto la chimica abbia pesato.

Essendo stato chair del Gruppo di Lavoro sull’Etica della Chimica di Euchems, la Federazione Europea delle Società Chimiche, ho guidato insieme ad Hartmut Frank il programma di formazione sul tema basato sostanzialmente sull’insegnamento del Syllabus di Etica della Chimica approntato dal Gruppo sotto il coordinamento di Ian Mehlic. Ognuno dei Paesi presenti in Euchems era invitato a prevedere una fase sperimentale di insegnamento del Syllabus a livello opzionale di corso di laurea o di Dottorato o di Scuola di Specializzazione.

La Società Chimica Italiana diede seguito all’impegno coinvolgendo le università Federico II di Napoli e Sapienza di Roma e me stesso come docente. Su richiesta di alcuni chimici europei dopo quella prima esperienza mi fu proposto di ripetere gli 8 seminari che ne avevano segnato il contenuto ma questa volta in inglese. Il nuovo ciclo comunicato da Euchems fu seguito da 15 studenti di differenti Paesi. Evidentemente la diffusione scavalcò i confini del Mediterraneo: infatti ricevetti una richiesta di aprire il corso a 13 studenti di Chimica di differenti università africane. La nuova esperienza è stata fantastica. Discutere di brevetti, di responsabilità oggettiva, di open science, di sperimentazione animale con questi ragazzi è stato bellissimo e stimolante portandomi a confermare quanto penso da molto tempo: a volte al posto degli aiuti economici questi Paesi avrebbero bisogno  di formazione tecnico-scientifica, di educazione sociale. Dopo la conclusione del corso nel recente maggio francamente incuriosito da tanto interesse per un tema che mi sembrava lontano per Paesi a cui mancavano elementari risorse di vita, ho cominciato a documentarmi su quanto si faccia in Africa in tema di Scienza per l’uomo e di Etica.

Ho così scoperto che esiste il Don Bosco Tech Africa che coordina 107, dico 107, Centri di istruzione e formazione tecnico professionale, attivo in 34 paesi africani subsahariani con un’utenza di 35000 giovani. Opera sostenendo una gestione efficiente delle risorse e promuovendo un’educazione mirata allo sviluppo delle competenze di ogni giovane iscritto. Richiesti circa i maggiori interessi disciplinari di questa utenza fa impressione trovare la chimica fra i primi: siamo abituati a vederla citare per la complessità, in questa occasione è invece la convinzione di aiutare la propria comunità a spingere verso la chimica, rimarcando anche in quella società diversa dalla nostra europea, lo stretto collegamento fra chimica ed economia.

Collegato a questo progetto e l’altro Jinserjeune, un’app informatica dedicata alla misura del tasso di integrazione professionale nei sistemi internazionali di istruzione tecnico-scientifica dalla quale risulta che fra le materie ponte la chimica attrae particolarmente i più giovani. Parlando di questo dimenticavo di farvi notare quanto mi ha particolarmente sorpreso: in questo tipo di attività i Paesi africani, pure nella loro povertà, investono convinti di quanto sia vitale per una prospettiva futura migliore della contingenza. L’ambiente e al centro di questi progetti. In quei 107 Centri di cui sopra sono stati creati 17 Green Club i cui membri si impegnano in seminari formativi e tavole rotonde, in diffusione della bibliografia scientifica di settore, in campagne di sensibilizzazione, in eventi celebrativi come le Giornate dell’ambiente. Per agevolare queste azioni è stata sviluppata una piattaforma di e-learning per garantire un accesso alla formazione da remoto. Ho partecipato a qualcuno di questi incontri e vi posso assicurare che le domande che venivano poste confermano la qualità intellettuale di quelle popolazioni.

Vi riporto alcuni esempi di domande che mi sono state poste:

Cosa si intende quando si parla di flexible-chemistry?

Perché non ci avete mai parlato di Intelligenza Artificiale?

Che vogliono dire le 2 facce dell’ozono?

Il mio invito conclusivo è per un impegno dei Chimici verso i Paesi Africani: è un terreno fertile che offre soddisfazioni sociali ed etiche, oltre alla convinzione di stare facendo qualcosa in favore di un’alternativa alla polarizzazione planetaria fra nuove povertà e nuove ricchezze, fra paesi in via di sviluppo e Paesi industrializzati, fra demografie emergenti e  demografie sempre più immerse, fra emigranti ed immigranti. La nostra disciplina con i diritti dell’uomo al suo centro, ambiente, salute, alimentazione può fare di più di quanto noi stessi pensiamo.

Approfondiamo l’”effetto pompelmo”.

In evidenza

Claudio Della Volpe

Questo post si poteva anche chiamare: noi e le furanocumarine, ma vi lascerò scoprire perché.

In un post di poche settimane fa abbiamo ricordato la figura di David Bailey e della sua scoperta del cosiddetto “effetto pompelmo” (grapefruit effect).

Si tratta del fenomeno in base al quale alcune decine di importanti farmaci umani se somministrati per via orale interagiscono con il consumo di alcuni frutti, essenzialmente agrumi, ma non solo*, che ne possono alterare in modo importante la biodisponibilità sia in senso positivo che negativo come illustrato nella figura seguente.

In un articolo a firma di Bailey e collaboratori pubblicato nel 2013 si esaminano più in dettaglio i meccanismi e le conseguenze di questo fenomeno (Grapefruit–medication interactions: Forbidden fruit or avoidable consequences? CMAJ 2013. DOI:10.1503 /cmaj.120951).

Le sostanze coinvolte nel meccanismo inibitorio che riducendo il metabolismo del farmaco ne aumentano la concentrazione disponibile sono le furocumarine o furanocumarine, che si legano ad un complesso enzimatico che metabolizza quasi il 50% delle medicine, il citocromo P450 3A4 detto anche CYP3A4. Il meccanismo generale per la felodipina, il primo farmaco ad essere analizzato da Bailey è indicato nella figura seguente:

A loro volta le furanocumarine sono le molecole indicate qua sotto e che si presentano in due classi leggermente diverse, lineari ed angolari; molecole che nelle piante hanno uno scopo difensivo.

Da Polyphenols in Prevention and Treatment of Human Disease, Second Edition Edited by: Ronald Ross Watson, Victor R. Preedy and Sherma Zibadi,  Elsevier 2018, fig. 29.15

Si conosceva già un altro loro effetto, ossia la fototossicità o la fotoallergia; se presenti in sufficienti quantità nella circolazione umana e in presenza di determinate lunghezze d’onda della luce scatenano una reazione più o meno intensa di tipo allergico o tossico nella pelle.

L’azione fototossica delle furanocumarine è dovuta alla loro capacità di reagire con nucleobasi nel DNA sotto l’influenza della radiazione UV-A. In caso di ulteriore esposizione alle radiazioni UV-A, questi addotti reagiscono con le nucleobasi vicine, dando origine a legami incrociati nel DNA. I legami incrociati risultanti nel DNA portano alle caratteristiche lesioni bollose acute.

Giusto per ampliare (e complicare) il punto di vista si trova facilmente che le furanocumarine fototossiche sono presenti in varie piante:

Le furanocumarine hanno solo una distribuzione limitata nel regno vegetale e si trovano principalmente all’interno delle famiglie di Apiaceae, Moraceae, Rosaceae, Rutaceae e Fabaceae. La distribuzione delle furanocumarine varia ampiamente tra le specie vegetali, ma può anche variare in base alla posizione geografica e al clima.

Fra le piante comuni interessate: angelica, fico, bergamotto e limone.

Attenzione non pensate di dover evitare d’ora in poi fico e limone che sono molto comuni; come sempre gli effetti dipendono dalla dose, dalla specifica subspecie di pianta e così via, spesso anche dal clima in cui la pianta è cresciuta.

La stessa cosa si può dire dell’effetto pompelmo; le furanocumarine possono inibire il CYP3A4 dell’intestino ma non del fegato per esempio e di più, come spiegato nel post citato sopra, l’effetto è regolato anche da meccanismi genetici, nel senso che la variabilità del complesso enzimatico è tale che non si può essere sicuri che tutte le persone siano soggette al medesimo effetto.

D’altronde anche comuni bevande contengono furanocumarine; per esempio:

https://www.aegislabs.com/resources/clinical-update/september-2017

Le note 9 e 10 sono i riferimenti seguenti:

9. Auten AA, Beauchamp LN, Joshua T, Hardinger KL. Hidden sources of grapefruit in beverages: potential interactions with immunosuppressant medications. Hosp Pharm. 2013;48(6):489-493
10. Melough MM, Lee SG, Cho E, Kim K, Provatas AA, Perkins C. et al. Identification and Quantification of furanocoumarins in popularly consumed foods in the U.S. using QuEChERS extraction coupled with UPLC-MS/MS analysis. J Agric Food Chem. 2017; 65: 5049-55.

Insomma come sempre in chimica e nella vita non si può generalizzare, non ci sono cose naturali sempre buone o cose sintetiche sempre cattive; dipende sempre dalle specifiche molecole, dalla dose, dal modo di somministrare i farmaci, dalle singole persone e dalla nostra cultura di queste cose.

Il succo degli agrumi è una sorgente ottima di benefiche vitamine e sali minerali, e continua ad esserlo, ma ALCUNI DI ESSI potrebbero alterare il nostro metabolismo di alcuni farmaci, e dunque se siamo in terapia con essi ridurre od esaltare il loro effetto, in modo notevole. Prendere il sole dopo aver assaggiato frutti contenenti una dose sufficiente di alcune furocumarine, contenute in comuni frutti, potrebbe indurre allergie o reazioni dermatologiche (attenzione sono usate per estrazione anche in alcuni profumi, dunque il problema si presenta anche il quel settore).

Cosa fare?

Informarsi bene sui farmaci che si prendono, chiedere al medico e pretendere di avere spiegazioni accurate; d’altronde in molti casi semplicemente queste interazioni sono ancora sconosciute, e dunque il principio base è la precauzione, continuiamo a rimanere ignoranti di molte interazioni che però si verificano continuamente anche a causa dell’uso modaiolo di cibi, diete, molecole di sintesi, azioni pubblicitarie, frutti di altri paesi, ibridi introdotti per scopi di mercato e senza storia di uso comune, etc.

Questo mi ricorda il caso della pellagra da mais, una malattia molto grave e diffusa nell’Europa dell’ottocento e del primo novecento, in primis in Italia, legata ad una carenza alimentare indotta dall’uso esclusivo di mais (che se non trattato opportunamente non contiene le vitamine del gruppo B), ma che era usata in centroamerica senza problemi; perché?  

Perché nella cultura di quei popoli c’era un trattamento basico del mais: la nixtamalizzazione, (cuocere il mais in una base forte) impiegata nella preparazione della farina per le tortilla. I nostri braccianti, e la borghesia che li aveva indotti ad usare il poco costoso mais (per ridurre i loro salari) non la conoscevano, si erano fermati al costo (qualcuno ha detto che la cultura non fa soldi).

La pellagra da povertà (mangiare solo polenta), ma anche da ignoranza culturale: il cibo è cultura.

Siamo in presenza di una situazione simile.

É fondamentale estendere gli studi a riguardo. Come sempre.

E divulgarne i risultati.

In alcuni casi le cose sono note e anche impressionanti; per esempio, un caso estremo, una pianta pericolosa per semplice contatto, il panace di Mantegazza, una pianta infestante che si trova anche in Italia è estremanente pericolosa, potendo indurre reazioni sulla pelle e perfino cecità temporanea.

Il panace di Mantegazza è una pianta erbacea e di grandi dimensioni, non troppo difficile da riconoscere. Infatti, ha fusti vigorosi e cavi, spesso con macchie rosse. Può raggiungere i 2-5 metri di altezza. Le foglie sono profondamente lobate, a 3 o 5 segmenti con divisioni meno profonde. I fiori sono di color bianco o verde-giallastro, organizzati in infiorescenze ombrelliformi che raggiungono 50 cm di diametro mentre i frutti sono lunghi 10–14 mm e larghi 6–8 mm, obovati, bordati da peli irti. La fioritura di questa specie di pianta ha luogo nel periodo estivo, in particolare da giugno ad agosto.

All’origine sempre la presenza e la quantità delle furocumarine nella linfa del Panace.

Ma non per questo smetteremo di andare nei boschi o lungo le rive dei fiumi; solo occhi aperti al panace di Mantegazza, se lo vedete segnalatelo alla forestale che provvederà ad estirparlo.

Il panace di Mantegazza (Heracleum mantegazzianum) è una pianta che ci ha invaso perché è stata portata dagli umani dove non doveva stare, data la sua bellezza è stata importata senza criterio come molte altre piante.

I Genesis ci fecero una canzone: The Return of the Giant Hogweed, dall’album Nursery Cryme del 1971 (giant hogweed è appunto il nome comune del panace in inglese), per narrare la storia di questa pianta che invade il nostro mondo per vendicarsi di essere stata trapiantata abusivamente.

Long ago in the Russian hills
A Victorian explorer found the regal Hogweed by a marsh
He captured it and brought it home

Botanical creature stirs, seeking revenge
Royal beast did not forget
He came home to London
And made a present of the Hogweed to the Royal Gardens at Kew

Panace di Mantegazza. Foto di Jan Pergl su NG.

__________________________________________

*non ho trovato un elenco completo dei frutti potenzialmente a rischio; tuttavia gli altri agrumi che hanno un effetto simile al pompelmo sono: l’arancia di Siviglia, un’arancia amara che si usa per fare le marmellate di arancia amara, il tangello (detto anche mapo) e il pomelo, due ibridi degli agrumi, più difficili, ma non impossibili da trovare in Italia. Sulla pagina dell’Autorità neozelandese per i farmaci MedSAfe si trova il seguente commento: I frutti associati alle interazioni farmacologiche includono arancia, pomelo, melograno, mirtillo, uva, mela e pompelmo. Questi frutti interi e i loro prodotti, compresi succhi di frutta, concentrati di frutta, polpa di frutta, marmellate/marmellate di frutta, estratti di frutta e persino prodotti cotti come salse (ad esempio salsa di mele e mirtilli) possono avere un impatto sull’effetto clinico dei medicinali interessati. È importante notare che i succhi o i concentrati di mela e arancia sono spesso utilizzati come basi per bevande alla frutta, spesso pubblicizzati come altri sapori. L’effetto dell’alcol a base di frutta non è stato studiato. https://medsafe.govt.nz/Profs/PUArticles/March2015FruitInteractions.htm.

L’impronta digitale.

In evidenza

Luigi Campanella, già Presidente SCI

Continuano ad arrivare messaggi circa quello che ciascuno di noi può fare per ridurre il proprio impatto energetico ed ambientale si da contribuire a contrastare effetto serra e cambiamenti climatici.

Resta però tuttora una sorta di punto cieco nell’attenzione anche dei più avveduti: non sono (quasi) mai citate e considerate le apparecchiature digitali e le attività on line.

È vero che si tratta di un settore che investe moltissimo per migliorare la propria efficienza e per approvvigionarsi da fonti di energia rinnovabili e che secondo l’International Energy Agency i data center e le reti per la trasmissione dei dati pesano oggi solo per l’1% dei consumi globali di energia, ma è anche vero che la cinetica di crescita è molto elevata tanto da preoccupare e da giustificare una guida ai nostri comportamenti.

È stato coniato il nuovo termine di carbon thumbprint (l’impronta di carbonio della nostra vita digitale). Il digitale sostenibile è così entrato a fare parte del progetto Zero-emission digital.

I suggerimenti contenuti nella guida al comportamento sono molti e differenziati:

-evitare di tenere in archivio file vecchi magari in più cartelle

-evitare di rimanere iscritti a newsletter che non vengono aperte e di lasciare accesa la webcam se non serve

-non lasciare aperti programmi che non servono

-cancellare le app che non servono

-abbassare la luminosità dello schermo

-limitare l’invio delle mail ai destinatari necessari

-ridurre le dimensioni degli allegati

-scaricare i brani per ascoltarli off line

-salvare le pagine più consultate per ridurre l’utilizzo dei motori di ricerca.

Sono già disponibili strumenti che permettono di ridurre l’impronta di carbonio della nostra attività digitale. La piattaforma Skebby.it ad esempio permette di inviare SMS con un impatto ambientale decisamente più basso rispetto a tecnologie analoghe: se per un SMS si parla di 24 mg di CO2 equivalente, per una mail si arriva a 4 g che possono divenire 50 in presenza di allegati, dati da tenere ben presenti quando solo per organizzare una spedizione o un incontro si inviano numerose ripetute mail.

Ma l’attività al computer ha un’altra criticità, quella relativa alla stampa dei documenti con il conseguente consumo di carta. Se si pensa che per 1 kg di carta sono necessari 0,7 kg di cellulosa, 440 l di acqua e 7,6 kWh di energia elettrica e che 1 kg di cellulosa corrisponde a 0,0036 mc di legno si comprende come gli alberi su cui tanto contiamo per la riqualificazione ambientale siano minacciati dagli sprechi di carta. L’unica alternativa è ancora una volta affidata all’economia circolare con il riciclo della carta. I vantaggi sono evidenti da questi dati confrontati con i precedenti: 1 kg di carta prodotta da carta riciclata richiede il consumo di 1,8 l di acqua e di 2,7 kWh. La chimica gioca un ruolo fondamentale perché nel riciclo il recupero della cellulosa dalla carta smaltita è affidato a processi chimici che la separano da coloranti, cere, plastiche. Infine c’è il risparmio che trova nella lettura on screen piuttosto che sul testo stampato un valido contributo. In Italia la produzione di carta e prodotti della carta è uno dei segmenti produttivi più idroesigenti, basti pensare che da solo consuma circa il 6,4 per cento di tutte le risorse idriche utilizzate dall’industria manifatturiera italiana, quindi anche una lieve riduzione dell’1 per cento del consumo di carta avrebbe notevoli benefici per l’ambiente, infatti in questo modo si potrebbe risparmiare in un anno una quantità d’acqua in grado di riempire completamente un grande stadio da calcio, le emissioni annuali di CO2 di un paese di 5.600 abitanti e si eviterebbe anche l’abbattimento di centinaia di migliaia di alberi. Sempre secondo la Fao, la produzione di carta riciclata ha raggiunto le 215 milioni di tonnellate nel 2013, circa il 54 per cento del totale, rispetto al misero 20 per cento dell’inizio degli anni Sessanta. Evitando gli sprechi e aumentando il riciclo di carta e cartone ne beneficiano tutti, l’umanità e la natura. Ridurre l’impronta della produzione di carta significa, allo stesso tempo, salvare gli habitat, produrre meno rifiuti e ridurre consumi e inquinamento. Quando stiamo per buttare un foglio di carta, perciò, pensiamo se sia possibile per esso una seconda funzione, ad esempio scrivere un promemoria o fare un calcolo o un involucro

Caso Nitrolchimica

In evidenza

Claudio Della Volpe

L’8 settembre scorso è scoppiato un incendio nella fabbrica Nitrolchimica  di S. Giuliano Milanese, un’azienda che dal 1975 si occupa di recupero solventi.

L’incendio è comparso sulle prime pagine dei giornali e se cercate in rete potete trovare facilmente notizie nonostante il tempo trascorso.

Giusto per riassumere da un articolo di Repubblica:

Il fascicolo aperto dalla Procura di Lodi, guidata da Domenico Chiaro, è per incendio colposo e lesioni plurime colpose in violazione di norme sulla sicurezza del lavoro, a carico di ignoti. L’inchiesta affidata al Nucleo investigativo antincendi dei Vigili del fuoco di Milano e ai carabinieri della compagnia di San Donato Milanese dovrà stabilire, da un lato, la causa della prima esplosione, e dall’altro il rispetto delle normative di sicurezza. La Nitrolchimica, fino a ieri mattina, non era inserita tra le duecento ditte lombarde R.I.R. (rischio di incidente rilevante), in gergo “aziende Seveso”: il fantasma della nube che avvelenò l’hinterland milanese nel 1976 aleggia ancora, 30 chilometri più a nord.

Il bilancio temporaneo è di tre operai feriti di cui uno molto gravemente per ustioni, stabilimento completamente distrutto, secondo l’ARPA Lombardia inquinamento sotto controllo.

Ho aspettato un po’ di tempo a scrivere due note anche perché non è facile procurarsi informazioni valide ed utili, informazioni tecniche; nel mentre ovviamente la magistratura fa il suo lavoro però colpisce che a differenza di quanto accaduto con grandi incidenti esteri sia così difficile procurarsi informazioni tecniche sui grandi giornali o altrove; mi ha fatto dunque molto piacere trovare in rete un articolo scritto dal Presidente di Medicina Democratica, una di quelle associazioni famose e importanti quando ero giovane ma che negli ultimi anni hanno perso (ahimè) visibilità nazionale, un articolo denso proprio di quelle informazioni che avrei visto bene sulla grande stampa di inchiesta. Ho chiesto di poterlo riproporre e ne riporto ampi stralci insieme ad altre notizie ricavate dalla stampa. Aggiungerò alcune piccole osservazioni finali.

dal sito di Medicina Democratica a firma del Presidente Mauro Caldiroli

La Nitrolchimica nasce nel 1975 in provincia di Udine con un impianto di distillazione (recupero solventi), nel 1978 si amplia (capacità 5.000 litri/giorno) e si insedia in via Varese a San Giuliano Milanese, negli anni successivi aumenta la capacità di trattamento e nel 1983 ottiene la prima autorizzazione per la gestione dei rifiuti cui seguono, nel tempo autorizzazioni alle emissioni e allo scarico in fognatura. Nel 1984 si insedia nella attuale sede in via Monferrato sempre a San Giuliano Milanese.

La prima Autorizzazione Integrata Ambientale viene rilasciata il 29.10.2007 in “zona cesarini” dei tempi concessi dalla UE per le attività preesistenti alla direttiva IPPC (del 1996) quale impianto per la “eliminazione di rifiuti pericolosi” tramite il riciclo (rigenerazione di solventi, principalmente).

Da questa apprendiamo che la capacità di trattamento autorizzata è passata 20.000 t/a con depositi per poco meno di 1.200 mc (di rifiuti pericolosi e non, solidi e liquidi). Una quota importante delle centinaia di tipologie differenti di rifiuti autorizzati viene solo depositata temporaneamente per il successivo invio a smaltimento.

Tra i rifiuti autorizzati figurano anche soluzioni contenenti più del 2 % di cloro, amianto, PCB e altri rifiuti con sostanze estremamente pericolose e cancerogene.

Il numero impressionante di tipologie di rifiuti autorizzati rispetto alla limitatezza dei sistemi di deposito determina la miscelazione dei rifiuti tra loro anche solo nella fase di deposito temporaneo.

Non si può escludere che l’evento incidentale che ha innescato il tutto sia stata una (involontaria ?) miscelazione tra loro di rifiuti con composizione incompatibile tra loro che ha determinato la formazione di una atmosfera esplosiva, nella fase di essiccamento e/o di distillazione, attivata da un innesco (in quelle condizioni basta una scintilla per sfregamento, per l’impianto elettrico ecc).

L’AIA viene poi modificata nel 2009 e riesaminata (rinnovata) il 19.11.2015 (con una estensione delle aree dedicata a rifiuti infiammabili). La miscelazione ai fini del recupero è esplicitamente citata nella ultima autorizzazione ma nulla si dice esattamente in cosa consista, per quali rifiuti e con quali modalità rimandando a procedure e “ricette” del gestore.

Il gestore ha sempre dichiarato di essere al di fuori degli obblighi della direttiva Seveso (e infatti non è negli elenchi regionali) probabilmente “giocando” tra soglie previste e tipologia di rifiuti (in particolare quelli infiammabili) rispetto a quanto indicato nelle norme in materia e riuscendo a rimanere al di sotto della soglia quel tanto che fosse sufficiente per non incorrere negli obblighi (ovviamente qualcuno avrà “validato” quanto dichiarato dal gestore….).

Anche se la ditta non risulta inserita negli obblighi della “direttiva Seveso” l’incidente è sicuramente rilevante (per le conseguenze sulle persone e per le grandi emissioni di sostanze tossiche dalla combustione dei rifiuti).

Anche se gli impianti sono stati esclusi dalla allora Provincia di Milano dall’obbligo di Valutazione di Impatto Ambientale nel 2009, l’impatto ambientale è stato talmente evidente e importante che evidenziano (perlomeno) una inadeguatezza delle norme o della loro applicazione da parte degli “enti competenti”.

In entrambi i casi sono state perse (dagli “enti preposti”) preziose occasioni per approfondire le attività del sito, valutarne gli effetti (considerando anche le altre attività nelle vicinanze) e individuare prescrizioni rigorose ed efficaci di prevenzione (incluse limitazioni, ad esempio sulla tipologia, le quantità e le modalità di trattamento dei rifiuti).

Le indagini appureranno se tutto era “in regola” (pratica e attrezzature antincendio, valutazione dei rischi in particolare per quanto riguarda la prevenzione della formazione di atmosfere esplosive e sulla esposizione ad agenti chimici e cancerogeni, formazione del personale, attrezzature, impianti e macchine in utilizzo, aspetti organizzativi e gestionali) come pure (ci contiamo !) se gli enti pubblici hanno attuato ognuno la sua parte per quanto riguarda autorizzazioni edilizie, rapporto tra autorizzazioni e realtà produttiva e conseguente vigilanza sugli impianti (Arpa, ATS; Comune; Vigili del Fuoco; Città Metropolitana).

E’ opportuno ricordare che le autorizzazioni (AIA) dal 2007 disponevano un protocollo di autocontrollo (monitoraggio) i cui esiti vanno inviati annualmente, tra gli altri, al Comune come pure le imprese sono soggette a periodiche visite ispettive da parte di Arpa per conto della Città Metropolitana. Qualcuno : cittadini, comitati, associazioni, consiglieri comunali sono interessati a raccogliere informazioni e approfondire ??

Da altri articoli pubblicati su vari giornali apprendiamo che il proprietario della Nitrolchimica, Riccardo Bellato è stato presidente di Assolombarda piccola industria e chimici, che si è sempre lamentato delle eccessive norme, in particolare aveva chiesto procedure più snelle per ottenere l’autorizzazione integrata ambientale (che comunque la Nitrolchimica ovviamente aveva ottenuto), che si vantava di un fatto apparentemente banale: nella sua azienda non c’erano iscritti ai sindacati, il che vuol dire che per come è strutturata la legge 81/08 sulla sicurezza mancava un anello fondamentale della sicurezza, in quanto l’impianto della legge è basato proprio sul coinvolgimento attivo e la formazione dei lavoratori e il sindacato gioca in questo un ruolo di controllo “collaborativo” ma ATTIVO ineliminabile. Tanto è vero che nelle imprese piccole si ricorre spesso a personale sindacale territoriale per le figure di garanzia previste dalla legge (gli RLS i rappresentanti lavoratori per la sicurezza).

A tal proposito il sindacato chimici ha dichiarato:

Dove il sindacato è presente – ammonisce Fabio Amodio – svolge una funzione fondamentale. I cosiddetti Rappresentanti dei lavoratori per salute e sicurezza ambiente hanno proprio la funzione di verificare, segnalare, controllare, chiedere l’intervento della vigilanza, che nel nostro paese sappiamo essere fatta dall’Ats. Se il sindacato non c’è in un’azienda, rimane solo il rappresentante dell’azienda stessa per la sicurezza e, appunto, è un po’ di parte. Nella tutela della Salute le imprese e il sindacato congiuntamente devono invece stabilire un rapporto virtuoso“.

Una cosa che non mi è piaciuta proprio dell’impostazione dei giornali è poi la narrativa dell’incidente: l’incendio era imprevedibile, c’è stato un errore umano, un operaio ha eroicamente tentato di rimediare ad un suo errore testimoniato da un filmato ma non ci è riuscito, ma l’azienda aveva fatto di tutto, il giorno prima c’era stata una prova antincendio.

Perché questo modo di impostare il problema è sbagliato da parte dei giornali e fa sospettare un gancio lanciato in difesa dell’impresa e, diciamolo, delle istituzioni carenti?

Perché gli incidenti sul lavoro sono tutti di una sola categoria: sono INEVITABILI, è impossibile evitarli, si possono ridurre di impatto e di frequenza ma non è possibile eliminarli; l’errore umano, cari giornalisti, ci sarà sempre ma se ne possono ridurre gli impatti; è un po’ come il terremoto o l’eruzione vulcanica, non possiamo evitarli ma possiamo cercare di ridurre il loro impatto. E per farlo non servono atti eroici, ma occorre coinvolgere i lavoratori, formarli opportunamente e ovviamente partire da una base ben congegnata di strutture antirischio che siano per così dire inscritte nella struttura fisica del luogo di lavoro, che deve superare una serie di controlli periodici e stringenti.

Ora proprio queste cose sembrano essere mancate nel caso in questione; la descrizione dell’impostazione delle attività raccolta nell’articolo di MD non lascia dubbi: c’è qualcosa che non torna nella struttura della fabbrica, come ha potuto tale struttura passare attraverso le maglie della legge Seveso? Forse la sua applicazione non è proprio esemplare? Per esempio i pompieri si sono dovuti fare strada per spegnere l’incendio abbattendo una parete del confine dell’azienda, se ne deduce che non tutti i luoghi erano strutturati in previsione di un potenziale incendio. C’era stata una prova antincendio il giorno prima? Certo ma allora non è paradossale che il giorno dopo ci sia stato un incendio che ha distrutto tutto? Forse mancava qualcosa di basilare, di così grande che nessuno lo ha visto.

Attendiamo le decisioni della magistratura ma nel frattempo facciamo nostre le domande che concludono l’articolo del Presidente di MD:

Ovviamente non solo con riferimento alla Nitrolchimica ma anche per tutte le altre realtà produttive con evidenti situazioni/produzioni pericolose, insomma una “mappa di rischio” territoriale pubblica.

Domanda : come è possibile che Arpa affermi che non vi sono problemi di qualità dell’aria ? La sola presenza di quote significate di rifiuti con elevate concentrazioni di cloro dovrebbe far perlomeno sospettare emissioni (e ricadute) di diossine come già riscontrato in passato nei tanti incendi di depositi di rifiuti anche non pericolosi !

Domanda : come è possibile autorizzare una azienda di limitate dimensioni e capacità di stoccaggio per centinaia di rifiuti con composizioni estremamente diversificate ? Significa incrementare la possibilità di contatto tra sostanze incompatibili tra loro (non sempre conosciute data l’estrema variabilità e provenienza dei rifiuti) che possono innescare sia eventi tossici sia eventi esplosivi come quello che si è verificato. Un evento per questo prevedibile e quindi prevenibile.

Domanda : quale è il contenuto del Piano di Protezione Civile del Comune di San Giuliano Milanese  comunque necessario (per legge) anche in presenza di industrie non incluse nella direttiva Seveso ??

Domanda : qualcuno (la Città Metropolitana di Milano) oltre ad azzerare l’autorizzazione (ci contiamo !) ha provveduto a bloccare la garanzia finanziaria pari a Euro 350.779,14 prevista dall’ultima autorizzazione e ridotta del 40 % per la presenza di certificazione ISO 14001 ?

E ne aggiungiamo una nostra: fino a quando i chimici organizzati in associazione scientifico culturale sopporteranno senza protestare l’uso e l’applicazione distorta della chimica da parte di una certa classe imprenditoriale?

E’ tempo che la SCI si faccia parte ATTIVA sui temi della sicurezza ambientale e del lavoro e che non si aspetti il prossimo incidente per fare qualcosa a riguardo.

Dato che conosco i miei polli aggiungo una osservazione: è vero che Federchimica ha fatto (ma solo da Seveso in poi) un percorso virtuoso di riduzione del rischio NEI GRANDI STABILIMENTI e che gli incidenti sul lavoro della chimica sono meno che negli altri settori, ma come feci notare già anni fa queste iniziative non sono così capillari come dovrebbero e il caso Nitrolchimica lo dimostra.

I dati recenti si possono trovarein un documento congiunto INPS-Federchimica qui; e dimostrano che comunque, sia pur lentamente, la media degli incidenti negli ultimi anni è aumentata.

Se uno legge il rapporto INPS-Federchimica ci trova scritto:

Si pone quindi forte il tema per le imprese chimiche di continuare a diffondere la cultura della sicurezza tra i propri lavoratori, aumentandone la sensibilità e la percezione del rischio.

Corretta informazione e formazione efficace sono, già di per sé, due elementi fondamentali, di questo percorso. Tuttavia essi potranno garantire il massimo dei risultati se inseriti in un contesto aziendale dove la cultura della sicurezza è radicata e considerata un valore imprescindibile.

Le imprese dovrebbero non solo investire in formazione e informazione, ma anche costruire in azienda, giorno per giorno, un clima favorevole allo sviluppo delle condizioni di sicurezza sui luoghi di lavoro.

Ma in Nitrolchimica avevano letto questo rapporto?

*******************

Articoli consultati:

https://newsprima.it/cronaca/incendio-azienda-chimica-alla-nitrolchimica-nessun-iscritto-ai-sindacati-si-fa-strada-lerrore-umano/

https://www.tgcom24.mediaset.it/cronaca/lombardia/incendio-alla-nitrolchimica-ipotesi-errore-umano-vietato-mangiare-prodotti-dell-orto-nelle-aree-limitrofe_54589766-202202k.shtml

https://www.ilpost.it/2022/09/08/incendio-nitrolchimica-san-giuliano-milano-cosa-si-sa/

https://www.ansa.it/lombardia/notizie/2022/09/07/maxi-incendio-alla-nitrolchimica-nel-milanese.-sei-feriti-uno-e-grave_7ebfe783-b99a-46e2-a6f9-594e86b1d624.html

https://www.mbnews.it/2022/09/incendio-nitrolchimica-san-giuliano-milanese/

https://fai.informazione.it/cronaca/messina

L’enigma del Bario

In evidenza

Diego Tesauro

In un precedente post sono state descritte le proprietà chimico fisiche del Bario, un elemento diffuso nella  crosta terrestre di cui rappresenta il 14° elemento per abbondanza con lo 0,0425% in massa, mentre nell’idrosfera è presente con una concentrazione media di 13 μgL-1.

Ma come si è formato nell’universo e qual è la sua presenza? Il bario è un elemento pesante, avendo nel suo nucleo 56 protoni; è presente sulla Terra con ben 7 isotopi con diversa abbondanza percentuale. Avendo un nucleo quindi con più di 57 nucleoni, gli isotopi non possono formarsi in processi di nucleosintesi di fusione nucleare nelle stelle. La loro origine deve ascriversi a processi di acquisizione neutronica mediante il processo s, che i modelli stellari assegnano a stelle giganti rosse nel ramo AGB. Pertanto la presenza nell’universo si deve all’”inquinamento” della materia interstellare da parte di materia che si è formata all’interno di stelle nelle fasi finali evolutive. Quando dall’analisi spettrali gli astrofisici ritrovarono  in giganti di classe spettrale G o K, bario monoionico (Ba I) e diionico (Ba II), alla lunghezza d’onda λ di 455,4 nm non si riusciva a collocare nel puzzle del modello di evoluzione stellare questa tipologia di stelle. Infatti le giganti di classe G e K non possiederebbero una massa sufficiente per sintetizzare elementi con il processo s ed immetterli nella propria fotosfera. La scoperta della natura binaria di tali stelle ha però risolto il problema. Queste stelle ricche di bario, tali da chiamarsi stelle al bario, hanno una compagna più massiccia che si è evoluta più rapidamente, generando elementi pesanti, che solo successivamente, sono stati ceduti alla stella compagna che ha così anche accresciuto la sua massa.

Se quindi si trova una spiegazione all’anomalo contenuto di bario in alcune stelle si aprì un altro interessante problematica a seguito dell’osservazione di una carenza di bario in una nebulosa planetaria una decina di anni fa da parte dei telescopi VLT e NTT dell’ESO, sulle Ande cilene, e con l’Anglo Australian Telescope dell’Ossservatorio di Siding Spring, in Australia. Le nebulose planetarie, a dispetto del loro nome assegnatogli da Herschel, che immaginava questi oggetti come sistemi planetari in formazione, sono in realtà oggetti di tipo stellare che, nelle fasi terminali della loro evoluzione, emettono nello spazio parte dei loro strati esterni. Analizzando i dati raccolti relativi alla nebulosa LoTr 1, questa presentava somiglianze con altre nebulose planetarie appartenenti al gruppo di Abell 35, che al loro interno presentano un sistema stellare binario, ma in più erano legate dal fatto di possedere tutte un’anomala abbondanza di bario.

L’insolito eccesso di bario in questa classe di nebulose, sarebbe dovuto alla stella che origina la nebulosa. Prima di perdere il suo guscio, concentrazioni significative di questo elemento sarebbero risalite dalle regioni più interne dell’astro, andando ad arricchirne gli strati esterni che, una volta soffiati via, hanno formato la nebulosa e si sono depositati sulla stella compagna. Invece nel caso di LoTr1 non si osserva questo eccesso di bario.  Quindi in questo caso quest’elemento sta ad indicare che la stella può aver avuto un percorso evolutivo più rapido di ciò che accade normalmente per cui il bario non avrebbe avuto tempo sufficiente per formarsi e per essere trasferito agli strati esterni della stella.

La nebulosa planetaria LoTr1 scoperta nel 1980 da Longmore e Triton tramite il telescopio UK 1,2 m Schmidt ( MNRAS 1980, 193, 521)

Recentemente in maniera casuale per la prima volta notevoli quantità di bario sono state ritrovate nell’atmosfera di esopianeti utilizzando il Vlt (Very Large Telescope) dell’Eso (European Southern Observatory). Questi pianeti sono molto diversi da quelli presenti nel sistema solare in quanto hanno le dimensioni di Giove, ma si trovano ad orbitare vicino alla stella. Nell’atmosfere dei giganti gassosi ultra caldi (superano i 1000°C) Wasp-76 b e Wasp-121 b la presenza negli strati superiori solleva interrogativi sulla composizione di queste atmosfere esotiche rispetto a quelle osservate nel sistema solare.. Gli astronomi suppongono ad esempio che si verificano piogge di ferro su questi pianeti, in quanto la temperatura di giorno supera i 2400°C, temperatura alla quale il ferro passa allo stato vapore, per cui di notte quando la temperatura scende, condensa in goccioline. L’aver rilevato questi elementi pesanti in pianeti lontani è testimone della loro presenza in quantità considerevoli, anche se al momento non è nota l’abbondanza.  La sorpresa della scoperta è dovuta al fatto che il bario, pur essendo 2,5 volte più pesante del ferro, è presente nella zona superiore dell’atmosfera di Wasp-76 b e Wasp-121 b. Data l’elevata gravità dei pianeti, ci si aspettava che elementi pesanti come il bario scedessero rapidamente negli strati inferiori dell’atmosfera, Il fatto che il bario sia stato rilevato nelle atmosfere di entrambi questi gioviani ultra-caldi suggerisce che questa categoria di pianeti potrebbe essere ancora più esotica di quanto si pensasse in precedenza. Sulla Terra il bario è presente solo nei nostri cieli nei fuochi d’artificio di colore verde brillante, ma ricade al suolo velocemente. Quale processo naturale potrebbe causare la presenza di questo elemento pesante ad altitudini così elevate in questi esopianeti resta un enigma che deve essere risolto. Inoltre lo studio dell’abbondante presenza del bario in questi pianeti potrebbe spiegare anche la sovrabbondante presenza di bario e stronzio nella crosta terrestre più alta di quella cosmica, richiedendo nuovi e sconosciuti processi di nucleosintesi nelle fasi di formazione dei sistemi planetari.

I fuochi d’artificio contengono sali di Bario (nitrato di Bario) , per conferire il colore verde.

1. Mc Clure et al. The binary nature of the barium stars. Astrophysics Journal 1980, 235,  L35.

2. T. Azevedo Silva et al.  Detection of barium in the atmospheres of the ultra-hot gas giants WASP-76b and WASP-121b.  Astronomy & Astrophysics 2022 , 666, L10 https://doi.org/10.1051/0004-6361/202244489.

3. A.A. Tyndall et al. Two rings but no fellowship: LoTr 1 and its relation to planetary nebulae possessing barium central stars MNRAS 2013, 436,,2082–2095.  https://doi.org/10.1093/mnras/stt1713.

Una nuova percezione dell’acqua.

In evidenza

Mauro Icardi

Ogni italiano, in media, beve 208 litri di acqua in bottiglia in un anno: siamo primi in Europa, dove la media è di 106 litri, e secondi al Mondo dopo il Messico (244 litri). Questa abitudine sembra quasi impossibile da modificare. Ma pochi giorni fa ho assistito ad una conversazione tra un cliente e la cassiera di un supermercato che mi ha indotto a scrivere questa breve riflessione. Il cliente voleva verificare se il prezzo della confezione di acqua che aveva appena finito di acquistare fosse esatto. Quando la cassiera lo ha confermato ho avuto per un attimo la tentazione di intervenire, per invitare il signore che era stupito e quasi indignato, a confrontare il prezzo dell’acqua in bottiglia con quello della cosiddetta acqua del sindaco, ovvero quella potabile. Alla fine ho desistito sia per ragioni legate all’educazione ricevuta ma anche per la convinzione che non sarei approdato a nulla, iniziando una conversazione che rischiava di farmi passare per inopportuno ed impiccione. L’attuale situazione economica italiana è stata probabilmente la molla che deve avere spinto il signore in fila alla cassa a chiedere la verifica dello scontrino. Quando ogni singolo euro, o centesimo di euro diventa importante, alcuni schemi mentali possono cambiare.

Ma mi sono sempre posto una domanda. In Italia si è molto dibattuto, manifestato e protestato affinché la gestione dell’acqua rimanesse in capo ad un soggetto pubblico. Votarono per questo quesito referendario 27 milioni di elettori, ed il sì al mantenimento della gestione pubblica delle risorse idriche venne votato da 25 milioni di avanti diritto al voto, ovvero con una percentuale del 95%, risultato che si può definire storico.

Ma nonostante questo la mercificazione dell’acqua è proseguita. A livello subliminale, trainata da martellanti campagne pubblicitarie. I molti esperti della nostra salute individuale, siano essi dottori, amici che la sanno lunga, personal trainer o blogger, ci raccomandano in tutti i modi di bere molto e di farlo proattivamente senza affidarci all’occasionale presentarsi di pulsioni come, per fare un esempio, la sete. Concetto giusto ma che porta anche a comportamenti decisamente esagerati.

Se è concepibile che un medico consigli per i bambini un’acqua oligominerale, trovo semplicemente assurdo leggere commenti sui social dove si consiglia l’acquisto di acqua in bottiglia per gli animali da compagnia. Mi fa venire immediatamente in mente ciò che Nicholas Georgescu Roegen definiva crimine bioeconomico.

Sono state immesse sul mercato “super acque” arricchite di elettroliti e proteine e questo di fatto significa che si sta lavorando a un potenziamento funzionale dell’acqua che non si limita alle caratteristiche che l’acqua potrebbe avere naturalmente. Vengono ancora chiamate acque anche se ormai la parola ha perso il suo significato originario, finendo per definire una categoria di merce più che un composto. Cioè proprio quello che il referendum del 2011 voleva evitare.

Credo si debba lavorare sulla percezione dell’acqua. Non solo ragionando su quella che beviamo che in Italia relativamente al consumo di quella potabile rappresenta il 7% mentre il resto si distribuisce per l’uso di cucina, igiene personale e lavaggio indumenti.

Sarebbe necessario riflettere sulla nostra futura disponibilità di acqua. Il modificarsi del regime delle precipitazioni è evidente. Le statistiche mensili pubblicate dal Centro Geofisico Prealpino di Varese mi informano che in settembre alcuni forti temporali hanno portano piogge del 28% più abbondanti della media, ma che il deficit idrico dal primo dicembre 2021 rimane di 709 millimetri. In una provincia che un tempo era nota per l’abbondanza di precipitazioni. In attesa di vedere se ritroveremo neve sulle Alpi per  evitare quanto accaduto l’estate appena trascorsa, quella che abbiamo definito di siccità epocale.

Ma nel frattempo il Segretario Generale dell’Autorità Distrettuale del fiume Po, in merito allo stato idro-climatico del bacino Padano ha dichiarato il 30 Ottobre che: “La situazione è drammatica. E a preoccupare sono le falde ormai molto basse, quell’acqua che arriva dal sottosuolo è vita per la pianura”

Educazione all’uso dell’acqua, o come mi piace definirla educazione idrica ma non solo. Educazione ambientale che deve partire dallo studio della molecola dell’acqua e dalle sue particolarità cioè un ambito di studio prettamente chimico. Dimenticandoci di distorsioni percettive che sono inutili e dannose.

L’energia del papa.

In evidenza

Luigi Campanella, già Presidente SCI

Papa Francesco ci ha abituato ad intervenire su tutti gli aspetti della nostra vita, superando i limiti degli argomenti tradizionalmente più vicini alla Chiesa.

Di recente così attraverso il proprio Dipartimento/Dicastero di competenza il Vaticano ha detto la sua in tema di energia a partire dalla Pacem in Terris di Giovanni XXIII e dalla forte spinta ecologica contenuta nella Enciclica Laudato sì.

Questa ha contribuito in modo significativo alla presa di coscienza di recuperare il valore della cura al pianeta ammalato. La Santa Sede ha sempre guardato alla tecnologia senza pregiudizi o schemi ideologici, puntando sull’integrità della persona e sul suo sviluppo integrale. Ed ora lo stesso atteggiamento viene applicato al caso del nucleare. Così ne viene condannata l’applicazione a scopi bellici considerandone in questo caso persino immorale il solo possesso. Allo stesso tempo però la Chiesa sul piano delle applicazioni per scopi civili ne giustifica l’uso fatte salve la sicurezza e l’impatto ambientale zero. Che poi rispetto al parametro tempo la soluzione del problema energetico affidata ad una o più centrali nucleari, la cui costruzione richiede un decennio da trascorrere in carenza di risorse energetiche, sia certamente tardiva e non rispondente al superamento di un’emergenza è un altro discorso.

Eolico e Fotovoltaico rappresentano soluzioni tecnologicamente mature e realizzabili in tempi molto più ridotti ed anche meno impattanti per gli aspetti di sicurezza. Papa Francesco sul tema dell’energia è tornato parecchie volte per sollecitare la soluzione a favore dei più deboli, più poveri, più esposti, che non hanno le risorse per trovarla, ma lo ha fatto sempre con il dubbio dello scienziato aperto a nuove scoperte e nuovi risultati. Questo significa che laddove i dati scientifici da cui si parte non siano esaustivi è richiesta una ulteriore riflessione su benefici e rischi a livello ambientale e sanitario. Transizione ecologica, cambiamenti climatici, pace internazionale vanno affrontati insieme; ogni soluzione locale sarà solo un palliativo che non risolve nulla. Ciò non toglie che ognuno debba fare la sua parte e così fa la stessa CEI, ad esempio con propri specifici progetti, come  il progetto Lucensis per il risparmio energetico di parrocchie e diocesi e muovendo le conferenze episcopali verso l’ecologia integrale ed il rapporto in questo processo fra l’ambiente e la vita.

 Il capitale umano è risorsa che tutti hanno, potenzialmente, ma è anche vero che oggi la formazione e l’educazione di quel capitale non è strada percorribile da tutti e comunque in comparabile misura. Il trasferimento delle conoscenze è componente di un atteggiamento misericordioso verso i più deboli, forse più che meno importante di quello di risorse finanziarie. La chimica- e la vicinanza ad essa di Papa Francesco è ben nota- può svolgere un ruolo prezioso. Il trasferimento e la messa a disposizione di tecnologie chimiche corrispondono al sostegno economico e sociale, a mantenimento di ambienti più puliti e di alimenti più sicuri, a maggiore resilienza della popolazione nei confronti di pericoli di ogni tipo, dalla pandemia alle malattie rare, dagli avvelenamenti alimentari ai grandi incidenti ambientali

Fa male respirare radicali liberi? (ovvero le due facce dei radicali).

In evidenza

Claudio Della Volpe

Se c’è una specie chimica che soprattutto negli ultimi anni ha assunto il ruolo del cattivo di turno, i radicali liberi sono in buona posizione per assumere quel ruolo.

Si fa continuamente un gran parlare sui siti, specialistici e non, dei danni da radicali liberi; ora lungi da me dire che non è vero; voglio solo far notare che, come sempre succede in chimica, il diavolo sta nei dettagli e che la bontà o cattiveria o insomma il ruolo di una specie chimica è complesso, perché, attenzione, perché NOI siamo sistemi complessi, sistemi lontani dall’equilibrio, siamo vivi, in parole povere.

Questo ci rende, come tutti i sistemi lontani dall’equilibrio, molto sensibili a piccole fluttuazioni delle nostre condizioni chimiche; ci possiamo avvelenare facilmente o andare in crisi e perfino morire per piccolissime quantità di “veleno”, che corrisponde molto spesso non semplicemente a tanta roba, ma a poca roba che mettiamo nel posto o nel momento sbagliati.

In effetti basta una piccolissima bolla di benefico ossigeno nel flusso sanguigno per renderci paralitici o farci morire. Lo stesso che respiriamo nei polmoni.

Dunque, se volete, la vecchia regola del veleno di Paracelso (è la dose che fa il veleno) dovrebbe essere modificata aggiungendo che una dose di veleno non solo deve avere un valore quantitativo sufficiente, ma anche essere somministrata nel posto o al momento adeguati, altrimenti non funziona.

I radicali liberi non sono sempre nocivi; certo possono essere causa di malattie anche mortali, ma la cosa non è affatto automatica e vi farò due esempi tutto sommato comunissimi.

Uno è il comune ossigeno che per chi non lo sapesse è un radicale libero, anzi un di-radicale, ossia ha ben due elettroni spaiati; il secondo è il monossido di azoto, NO, che è un monoradicale, così efficace da essere usato come catturatore di altri radicali, come scavenger si dice tecnicamente, ma nel medesimo tempo senza di esso noi maschietti non riusciremmo a svolgere il nostro ruolo di maschietti, in quanto la molecola di NO controlla la pressione sanguigna specie nei luoghi deputati al sesso.

Andiamo per ordine.

Noi respiriamo diradicali, perché la specie denominata diossigeno tripletto, che è la più comune forma dell’ossigeno gassoso è un diradicale.

Singoletto (primo stato eccitato)  Singoletto (secondo stato eccitato)Tripletto (fondamentale)
~1270 nm   –   7882,4 cm−113 120,9 cm−1 
94,29 kJ/mol157,0 kJ/mol 
0,9773 eV1,6268 eV 

Nello schema soprastante sono mostrati gli orbitali molecolari superiori (quelli inferiori sono uguali ed omessi per semplicità) dei due stati eccitati di singoletto e dello stato fondamentale di tripletto del diossigeno molecolare (a destra).

Ciascuna freccia indica un elettrone e la sua direzione su o giù indica lo stato di spin, ossia la ipotetica rotazione in un senso o nell’altro che corrisponde alla condizione magnetica dell’elettrone.

I tre stati differiscono solo negli stati di occupazione e spin degli elettroni nei due orbitali antilegame degeneri π*.

Nella tabella sono indicate le differenze di energia fra gli stati; si badi che tali transizioni non possono avvenire in modo radiativo, ma solo attraverso reazioni chimiche con altre specie eventualmente indotte anche da radiazione.

Le transizioni radiative tra questi tre stati elettronici dell’ossigeno (tutti col medesimo numero di ossidazione) sono formalmente proibite come processi di dipolo elettrico, ossia tramite SOLO assorbimento di radiazione.

Le due transizioni singoletto-tripletto sono proibite sia a causa della regola di selezione dello spin ΔS = 0 (conservazione del momento magnetico) sia a causa della regola di parità (segni della funzione d’onda). La transizione singoletto-singoletto tra i due stati eccitati è consentita dallo spin ma proibita dalla parità.

Queste regole di conservazione sono dettate dai principi di conservazione come applicati in MQ.

Per ottenerle servono dunque dei reagenti opportuni, come per esempio dei coloranti che assorbono l’energia e la trasferiscono agli stati e che sono scelti con una struttura opportuna.

Per fare un esempio dei problemi di questi tipi di transizione: un radicale libero non può essere creato in un semplice processo in un’unica fase da reagenti non radicalici se non per dissociazione omolitica del legame. Un principio fondamentale della chimica quantistica è la conservazione dello spin. Nel corso di una semplice reazione, il numero quantico di spin totale S deve rimanere costante (escludendo effetti più complessi che pure ci sono, come il cosiddetto accoppiamento spin-orbita, ma ne parleremo altrove).

I composti non radicalici hanno uno stato di singoletto, cioè il loro numero quantico di spin totale S=0 o 2S+1=1. Tutti gli elettroni sono accoppiati. I tipici radicali organici come il radicale tert-butile hanno uno spin spaiato e sono quindi in uno stato di doppietto S = 1/2, 2S + 1 = 2. I diradicali come O2 sono in uno stato di tripletto con S = 1 e 2S + 1 = 3.

Dunque per arrivare a uno stato del prodotto con S diverso da zero, è necessario generare una coppia di composti di spin opposti (dissociazione di legame semplice) o iniziare con una S diversa da zero.

Nella realtà concreta le specie in questione possono usare SOLO quello che c’è disponibile: il cibo, i tessuti organici e così via e dunque la materia coinvolta diventa essenziale E SPECIFICA per la reazione e ne viene modificata profondamente con effetti irreversibili e duraturi.

Date le quantità di energia coinvolte le cellule si sono adattate a questi processi possibili; ma se tali processi si svolgono fuori del loro ambiente quelle enormi quantità di energia possono alterare irreversibilmente altre molecole, come poniamo per ipotesi, il DNA.

Se invece si svolgono nel contesto che gli è proprio, frutto di milioni di anni di evoluzione, non succede nulla di spiacevole.

La specie diradicalica diossigeno (questo è il nome proprio della molecola di ossigeno O2) nello stato 3Σg costituisce una molecola molto particolare: essa è paramagnetica (ossia si manifesta con una magnetizzazione avente stessa direzione e verso di quella associata al campo esterno applicato al materiale paramagnetico stesso ma scompare con la scomparsa del campo a differenza dei materiali ferromagnetici) , una delle poche molecole paramagnetiche comuni (21% dell’atmosfera); ed inoltre è molto stabile come radicale; normalmente i radicali non sono così stabili; e c’è stato chi si è chiesto come mai questo particolare radicale sia così stabile.

In un bel lavoro di Hoffmann (il premio Nobel) e altri studiosi pubblicato su JACS nel 2017 si cerca di spiegare come mai ciò sia possibile.

La domanda è molto furba e la conclusione sorprendente. Farsi le domande giuste è ciò che fa grande uno scienziato, prima di trovare le risposte.

Direte cosa c’è di furbo nella domanda? Ve lo spiego subito.

Hoffmann e collaboratori si chiedono perché l’ossigeno pur essendo così disponibile a reagire con tutto (eccetto forse l’oro) a partire dai componenti del nostro corpo in effetti poi non brucia così facilmente; l’entalpia della reazione di combustione sarebbe alta ma c’è qualcosa che lo impedisce; lo stesso può dirsi della possibilità che l’ossigeno reagisca con se stesso, formando anelli di molecole di ossigeno; è un fenomeno che è tipico del suo parente stretto, lo zolfo; le molecole di S2 (non dimentichiamo che lo S è nello stesso gruppo dell’O) anch’esse di-radicali tendono a reagire con se stesse formando degli anelli di 8 atomi di zolfo, S8; come mai l’ossigeno non fa una cosa analoga?

Dice Hoffmann:

Ma, naturalmente, non bruciamo. Quel pallone a idrogeno che facciamo esplodere in una classe di chimica generale non si attiva fino a quando una fiamma o scintilla entra in scena, per permettere alla reazione di procedere fino al suo nirvana termodinamico, l’acqua. La carta, la realizzazione della nostra civiltà (beh, almeno fino ad ora), non si infiammerà fino a 451 Fahreneit.

Chiaramente la molecola di ossigeno che reagisce esotermicamente con quasi tutto ha una barriera di energia di attivazione ragionevolmente alta col medesimo tutto.

In effetti la barriera di energia di attivazione dell’ossigeno con il legame C-H in qualunque molecola organica è enormemente elevata. Ma perché?

L’O2 nel suo stato fondamentale di tripletto è un diradicale! Pensate a quanto facilmente un atomo di cloro o un radicale idrossile estraggono un atomo di idrogeno dagli alcani. Come i monoradicali anche i diradicali sono estremamente reattivi.

Mettiamo la sorprendente eccezionalità dell’ossigeno in altri termini: come può una molecola costituire un quinto dell’atmosfera terrestre, essendo in continuo contatto intimo con centinaia di migliaia di molecole con le quali la sua reazione sarebbe in discesa in entalpia? Fenomenologicamente, la risposta a questa domanda è ovviamente che l’O2 deve avere alte barriere alle reazioni con la maggior parte delle molecole. Perché sia così, e in particolare perché l’ossigeno abbia un’alta barriera alle reazioni che coinvolgono l’estrazione di atomi di idrogeno, è una delle domande che questo articolo prenderà in considerazione.

La risposta deve essere generale ed essere relativa alla struttura dell’O tripletto.

E i ricercatori la trovano nel fenomeno della stabilizzazione per risonanza; per meglio comprendere questo fenomeno ricordiamo alcune definizioni:

Gli elettroni possono avere uno dei due spin alfa (ms = +1/2) o beta (ms = -1/2) (dove ms è il numero quantico di spin). Gli elettroni rotanti interagiranno con un campo magnetico. Quando due elettroni sono accoppiati in un orbitale gli effetti magnetici vengono annullati. Gli atomi o le molecole che contengono elettroni spaiati sono debolmente attratti dai campi magnetici e si dice che sono paramagnetici. Gli atomi o le molecole in cui tutti gli elettroni sono accoppiati non sono attratti dai campi magnetici e si dice che sono diamagnetici.

Come si distribuiranno i diversi elettroni negli orbitali? Come in questa figura:

Queste distribuzioni sono le possibili strutture che corrispondono a risonanze possibili; un maggior numero di risonanze o se volete di modi di esistenza ne abbassa l’energia e ne aumenta la probabilità. Ne segue che questa combinazione rende l’ossigeno tripletto particolarmente stabile come radicale (secondo Hoffmann la stabilizzazione contribuisce per circa 100kcal/mol!!!).

L’articolo è molto più ampio e si dilunga a spiegare l’interpretazione dei fenomeni dal punto di vista delle due teorie del calcolo degli orbitali la teoria Valence Bonding e quella degli Orbitali Molecolari. Le conclusioni sono le medesime nei due casi. Gli autori usando la MQ calcolano le grandezze termodinamiche di processi comprendenti vari tipi di radicali e ne giustificano le differenze: il meccanismo chiave è la stabilizzazione per risonanza del di-radicale ossigeno tripletto.

Ovviamente la situazione è del tutto diversa nel caso dell’ossigeno singoletto, che invece è specie molto più reattiva ma anche molto meno comune nella nostra atmosfera.

Nel caso dell’NO, l’ossido nitrico, abbiamo un monoradicale, con S=1/2; esso viene immesso nell’atmosfera a partire dagli elementi ad opera della reazione di sintesi:

N2(g) + O2(g) → 2 NO(g)

La reazione avviene in presenza di fulmini (o nei motori a combustione interna). Ma nelle cellule cosa avviene?

Qui un complesso sistema enzimatico trasforma ancora una volta l’ossigeno (e l’azoto sottratto all’arginina, un amminoacido) in ossido nitrico.

iNOS and eNOS distribution(in rosso e verde rispettivamente la distribuzione di eNOS ed iNOS in una cellula trofoblastica).

Lo schema è altamente specifico e prevede l’intervento di enzimi dedicati, le varie categorie di NOS ossia le Nitric Oxide Sinthetase, enzimi la cui distribuzione cellulare è estremamente specifica. NO è molto reattivo e dunque esso deve essere prodotto con un criterio di just-in-time e just-in site per evitare disturbi alla cellula. Il Viagra serve ad aiutare chi non riesce a coordinare questo complicato meccanismo (e casomai ne parleremo in altro post).

Un enzima che deve interagire con un diradicale S=1 per ottenere un radicale di S=1/2 deve rispettare anch’esso le regole di selezione della Meccanica quantistica, nei vari step singoli della reazione.

E questo è spettacolare.

La vita usa la MQ per fare le sue reazioni chiave: l’eme dell’emoglobina che reagisce con l’ossigeno tripletto per farci respirare o le NOS che producono un monoradicale NO da un diradicale O2 per farci avere un sesso soddisfacente sono esempi incredibili di questa programmazione sofisticata delle unità viventi che coordinano senza problemi apparenti tutti i livelli di conoscenza che per noi costituiscono spesso compartimenti stagni. Cosa c’entra la vita con la Meccanica quantistica? Il problema è che c’entra ma non ne abbiamo ancora capito granché.

E questo rende più facile accettare l’idea di un “grande programmatore” invece della semplice evoluzione darwiniana. Ahimè!

Testi consultati:

https://en.wikipedia.org/wiki/Singlet_oxygen

https://en.wikipedia.org/wiki/Triplet_oxygen#cite_note-2

https://en.wikipedia.org/wiki/Reactive_oxygen_species#Singlet_oxygen

R. Hoffmann et al. Dioxygen: What Makes This Triplet Diradical Kinetically Persistent? JACS Journal of the American Chemical Society, 14 Jun 2017, 139(26):9010-9018
DOI: 10.1021/jacs.7b04232

EUNOK CHOE AND DAVID B. MIN  Chemistry and Reactions of Reactive Oxygen Species in Foods  

https://www.reading.ac.uk/nitricoxide/intro/no/regulation.htm

Cartledge, Jon; Minhas, Suks; Eardley, Ian (2001). The role of nitric oxide in penile erection. Expert Opinion on Pharmacotherapy, 2(1), 95–107. doi:10.1517/14656566.2.1.95 

J. Leszczynski (ed.), Handbook of Computational Chemistry, p.1068-1090  Spin-Orbit Coupling in Enzymatic Reactions and the Role of Spin in Biochemistry B. F. MinaevV. O. MinaevaHans Ågren

Non ho consultato ma vi segnalo un intero libro dedicato al tema dell’interazione spin-biochimica:
Spin States in Biochemistry and Inorganic Chemistry: Influence on ... 

Spin states in Biochemistry and Inorganic Chemistry – Influence on Structure and Reactivity

M. Stuart e M. Costas – Wiley 2016

La Mappa Ecologica di Fabio Olmi – Recensione

In evidenza

Eleonora Aquilini*, Presidente della Divisione Didattica della SCI

La sfida del secolo. La transizione ecologica contro il riscaldamento globale.

Ed. Aracne, 2022, p. 204 euro 20

Certo, come scrive il filosofo e matematico Alfred Korzybski, la mappa non è il territorio, non esiste un’unica realtà, ma molti modi d’interpretarla, tuttavia usufruire di mappe come quelle che Fabio ci fornisce nel suo libro “La sfida del secolo” ci aiuta a costruire la nostra rappresentazione, la nostra visione ecologica dei problemi ambientali. C’è inoltre un altro aspetto importante: la formazione iniziale e in servizio degli insegnanti si potrebbe avvalere oggi di un notevole contributo con il libro di  Fabio.  Il libro infatti permette di aggiungere alle competenze cognitive, pedagogiche e relazionali per insegnare, un tassello che riguarda la nostra consapevolezza dei problemi ambientali. Si parla molto di argomenti ecologici a volte con superficialità, a volte con competenza scientifica non ben comunicata e quello di cui si sentiva il bisogno è proprio un testo ragionato in cui i vari aspetti critici che riguardano il riscaldamento del pianeta, il clima che cambia, le risorse per lo sviluppo sostenibile, i rifiuti e l’economia circolare, le risorse essenziali per la sopravvivenza, vengano affrontati con equilibrio, utilizzando una documentazione accurata e aggiornata.  

Eleonora Aquilini

In che senso si parla di “equilibrio”? C’è un equilibrio metodologico: è un libro che si rivolge a non esperti scritto da un esperto della materia che si rivolge a loro nella maniera più piana e comprensibile possibile, senza rinunciare al rigore scientifico. C’è poi un equilibrio di sostanza, nel senso che non si vogliono sostenere tesi a priori come spesso si leggono nei giornali, ma si cerca una spiegazione razionale di quello che si può fare conoscendo e analizzando i diversi aspetti dei problemi. È esemplificativo come Fabio partendo dai gas serra arrivi allo smaltimento dei rifiuti. Dopo aver affrontato il problema dei gas serra, con una bellissima disquisizione “da chimico” sulla fotosintesi con la cattura del CO2  e la liberazione di ossigeno, Fabio fa una riflessione sul fatto che, ad esempio, piantare miliardi di piante per aumentare la sottrazione di COo confinare sotto terra, o ricorrere al nucleare “verde” non siano vie percorribili per affrontare in tempi ragionevoli il problema e che l’alternativa è soltanto eliminare più rapidamente possibile le combustioni di combustibili fossili facendo ricorso a fonti energetiche rinnovabili.

Il problema dei rifiuti che con la raccolta differenziata ha fatto notevoli passi in avanti, induce a soffermarsi sugli obiettivi fissati per il 2030 che sono quelli di avviare il recupero di almeno il 65% dei rifiuti, affidare alla termovalorizzazione il 25% dei rifiuti e ridurre il conferimento  in discarica dei rifiuti a non più del 10%. In questa sezione del libro scopriamo che la battaglia spesso ideologica  contro i termovalorizzatori, non tiene conto del fatto che i residui ultimi, al momento, necessitano di questo trattamento. Il recupero del 100%  dei residui naturali, non è  pensabili per i manufatti umani. L’economia circolare viene indicata come la chiave per realizzare la  transizione ecologica che è strettamente legata alle risorse per lo sviluppo sostenibile, nel senso che l’economia circolare si conclude non con il recupero della materia prima, ma  quando la materia recuperata viene trasformata nuovamente in un prodotto simile  utilizzabile e commercializzabile (es. il recupero del ferro-acciaio o del vetro). C’è anche un’economia circolare con produzione di materiali diversi, come il compost dall’umido, o quella a partire da materiale rinnovabile. L’economia circolare ha molte facce ed è utile e interessante conoscerle.  Si affrontano anche i problemi legati agli oggetti tecnologici quali il recupero del litio nelle batterie e delle terre rare dai telefonini. Queste azioni di recupero hanno bisogno di energia e se l’energia viene ricavata dai combustibili fossili  e non dalle fonti rinnovabili, l’economia sarà circolare ma non ecocompatibile. Che dire ancora? E’ un libro che lancia un appello e come dice il titolo, una sfida.

Sta a noi raccoglierla.

*Eleonora Aquilini è Presidente della Divisione didattica della SCI: chimica, si è dedicata da sempre all’insegnamento della Chimica e alla ricerca nel campo della didattica della Chimica e dell’insegnamento scientifico, pubblicando vari lavori sul tema e collaborando con enti accreditati nel campo della formazione.

Antiox.

In evidenza

Luigi Campanella, già Presidente SCI

Con sempre maggiore frequenza la medicina si affida a marker diagnostici da correlare alla individuazione di patologie. Tra questi marker gli antiossidanti sono fra i più impiegati, in quanto capaci di contrastare i radicali liberi, il conseguente stress ossidativo che da essi consegue e le patologie che dallo stress derivano.

I radicali liberi sono specie chimiche caratterizzate dalla presenza di un elettrone dispari nella loro struttura elettronica e pertanto capaci di ridurre come di ossidare, perdendo l’elettrone dispari nel primo caso ed acquistando un elettrone dal co-reagente nel secondo. Un recente studio ha correlato patologie renali ed epatiche a valori anormalmente bassi di malon-aldeide, superossido-dismutasi, catalasi e glutatione ridotto, tutti antiox che proteggono l’organismo umano dallo stress suddetto.

Lo stesso tipo di test risulta capace di rilevare anche danni da esposizione a raggi X e ad altre radiazioni. Il test viene condotto analizzando e confrontando le medie delle concentrazioni degli antiox in soggetti malati ed in soggetti sani.

La determinazione degli antiox può avvenire con metodi diversi.Quelli elettrochimici sono i più applicati: voltammetria ciclica, voltammetria ad onda quadra, voltammetria a gradini, crono-amperometria, crono-coulombometria, polarografia, amperometria, potenziometria.

I biosensori rappresentano un’altra opzione di determinazione, in particolare basati sulle ossido-riduttasi. Gli elettrodi a carbone vetroso modificati con allumina e gli elettrodi a pasta di carbone, sintetizzati a partire dalla grafite, sono anche impiegati soprattutto per il vantaggio di potere in essi immobilizzare modificatori sensibilizzanti di tipo diverso.

Infine trovano applicazione nella determinazione degli antiox gli elettrodi a fullerene, a grafite ed a diamante drogato con boro.

I ciclovoltammogrammi ottenuti con gli elettrodi a pasta di carbone in presenza di un solo antiox, acido ascorbico per esempio, producono segnali di corrente proporzionali alla concentrazione dell’antiox.

In presenza di molti antiox insieme però il metodo, non essendo specifico, produce un segnale di corrente proporzionale alla capacità antiox totale.

Valori delle concentrazioni degli antiox al di sotto della norma sono indici di carenza di difese rispetto ai radicali. La luce solare, in effetti una finestra della sua lunghezza d’onda, in presenza di opportuni catalizzatori, alcuni dei quali naturali, è responsabile della produzione di questi radicali a partire sia dall’acqua che dall’ossigeno, due molecole ben presenti nell’ambiente capaci in queste condizioni di produrre radicali liberi dell’ossigeno, comunemente indicati come ROS (reactive oxygen species).

I radicali liberi prodotti  attaccano organi e tessuti. Il nostro organismo è in effetti dotato di sentinelle che vigilano per intervenire ove si crei questa condizione e che sono costituiti da antiossidanti endogeni come alcuni enzimi e, secondo ricerche recenti, melatonina

Ove queste sentinelle siano scarsamente attive a causa  di patologie o di età molto avanzata bisogna ricorrere ad antiossidanti esogeni. Qui le strade si dividono fra farmaceutica che guida all’impiego di farmaci antiox e nutraceutica in cui gli stessi effetti dei farmaci vengono ricercati con la scelta di alimenti antiossidanti contenenti cioè composti capaci di rimuovere i radicali liberi: si tratta per lo più di vitamine, polifenoli, carotenoidi, alcuni composti metallici ossidabili presenti negli alimenti.

Sono state formulate vere e proprie scale di capacità antiox dei comuni alimenti, a partire da frutta e verdura con la raccomandazione del consumo quanto più possibile a partire dai prodotti freschi e crudi per evitare condizioni di perdita di alcune proprietà.

Mobilità sostenibile.

In evidenza

Luigi Campanella, già Presidente SCI

È quasi come la sostenibilità, tutti ne parlano e la stampa praticamente le dedica una incredibile serie di articoli sia sui quotidiani che sui settimanali che ovviamente anche sui programmi TV: sto parlando della mobilità sostenibile.

Se si pensa che in Italia circolano 52 milioni di autoveicoli con una percorrenza media di 12000km l’anno e che la CO2 media prodotta per km è pari a 130g si comprende come rispetto alla produzione totale di CO2, in Italia quasi 450 milioni di tonnellate, il contributo dalla mobilità sia rilevante (oltre il 20%).

Ad esso peraltro è stato calcolato che corrisponda un danno economico a persona pari a poco più di 1400 euro l’anno. Questo dato, riportato nelle statistiche ambientali, è ancor più importante del suo valore nominale in quanto rappresenta uno dei primissimi tentativi di modulare a scale diverse -quella economica e quella ecologica – per rendere confrontabili i loro valori.

Rispetto a questo doppio impatto-su ambiente e su salute -le proposte per ridurlo vanno in due direzioni. La prima fa riferimento agli stili di vita con proposte di ridurre la velocità max, di abbattere le potenze medie, di limitare l’uso del mezzo privato rispetto a quello pubblico, di condividere auto e motoveicoli; la seconda alle forme di alimentazione del motore con riferimento ad elettrico e biocarburanti, anche da rifiuti, incluso con problematiche tutte sue specifiche, l’idrogeno.

Con l’ultimo progetto arrivato il Waste fuel, ribattezzato petrolio biologico, si imita nell’arco di poche ore il processo naturale con cui la terra ha generato in centinaia di milioni di anni gli idrocarburi. Il cuore della tecnologia è la termoliquefazione, un processo termochimico in soluzione acquosa che trasforma la biomassa di partenza in una sorta di bio olio, con in più il recupero dell’acqua contenuta nel sistema, che nei processi in competizione con questo viene invece persa a causa della necessaria evaporazione. Gli altri vantaggi sono l’uso di temperature più basse e la resa energetica, 80% contro il 50-60% della tecnologia biogas. Si badi alle indicazioni date non solo come alternative ma anche come integrazione. Il cambio di alimentazione comporta un grande problema relativo alle stazioni di alimentazione. Il concetto di stazione di servizio del passato si è oggi trasformato in quello di mobility point con la possibilità di punti multipli di ricarica prenotabili attraverso una app. Si è così creata una rete di sostegno agli automobilisti e motociclisti che si estenderà anche fino ai Paesi Europei limitrofi a partire dal 2025. Quando si parla di mobilità sostenibile non si deve dimenticare il trasporto aereo. Le materie prime più necessarie per produrre il SAF (sustainable aviation fuel) possono essere materiali di scarto, come oli da cucina usati, grassi animali, rifiuti urbani, residui agroalimentari e agroforestali. I SAF, già disponibili sul mercato, possono essere usati in miscela fra loro per la sostanziale identità delle loro caratteristiche chimiche e fisiche e per la compatibilità con i tradizionali carburanti per l’aviazione; inoltre non richiedono la realizzazione di infrastrutture, essendo per essi idonee quelle attualmente in uso.

Una soluzione pubblica al problema della mobilità.

In evidenza

Claudio Della Volpe

Nella nostra società quasi ogni cosa è diventata una merce; si tratta di una osservazione che ha ormai oltre un secolo e mezzo, ma che si rivela assolutamente realistica, anche se guardiamo al mondo non degli oggetti ma dei servizi; e fra questi servizi la mobilità di persone e cose è diventata l’aspetto predominante.

Anche solo 50 anni fa muoversi facilmente o comprare merci provenienti da molto lontano era una azione tutto sommato limitata a certe merci e beni e ad una parte ristretta della popolazione; oggi chiunque può con pochi euro acquistare un bene che viene da lontano, anche da molto lontano e con i viaggi aerei low cost un numero enorme di persone, stimato nel 2016 in circa 2 passeggeri all’anno  per ogni abitante dell’Unione Europea, ha potuto recarsi in ogni parte del mondo, semplicemente pagando un biglietto; ci sono dei limiti che però sono scelte politiche che bloccano il movimento delle persone e delle merci, come le regole sulle emigrazioni o i dazi o le restrizioni sulle merci, ma in genere, ripeto sono scelte politiche, non tecniche.

Numeri ancora più elevati si registrano nelle altre modalità di trasporto; per esempio in Italia ci sono 663 auto ogni mille abitanti (2021) e ciascuna di esse percorre oltre 10mila chilometri all’anno.

Nell’Unione Europea, secondo Eurostat l’auto è stata di gran lunga il mezzo di trasporto più importante per il trasporto passeggeri in tutti gli Stati membri negli ultimi anni.

In definitiva la mobilità delle persone è una merce anche molto comune e ancor più la mobilità è un bene gestito privatamente, in quanto le auto sono principalmente mezzi privati.

Nell’Unione Europea ci sono 531 auto ogni mille abitanti, ossia oltre 260 milioni di automobili private e in Italia quasi 39 milioni di auto private.

L’Italia occupa il secondo posto come numero di auto procapite, nell’UE, seconda solo al Lussemburgo; certo questo dipende anche dal fatto che la popolazione non è così concentrata come in altri paesi, il 30% vive in piccole città o paesi, e dunque l’esigenza di mobilità è particolare rispetto a paesi dove la popolazione è più concentrata nelle grandi città; ma certo non è il solo fattore.

Quando si parla di transizione energetica la mobilità viene vista prima di tutto come il luogo della transizione verso il motore elettrico, ossia verso l’auto elettrica privata; ma consideriamo che le due cose, la transizione tecnologica e l’aspetto economico privato, non si identificano affatto!

Una cosa è dire che una auto elettrica è, a certe condizioni abbastanza ampie (di durata, di percorrenza etc.) meno energeticamente e climaticamente impegnativa, in tutto il corso della sua esistenza come dispositivo, di un’auto fossile, una cosa è dire che questo significa che dobbiamo muoverci verso un’Italia con 40 milioni di auto elettriche; è un ragionamento che si può facilmente spostare a livello mondiale, anche perché lì è ancora più chiaro che il numero attuale di automobili  private è destinato a crescere con il progresso materiale di ampi strati di popolazione dei paesi meno ricchi.

Dunque non si tratta di immaginare un futuro con un miliardo e mezzo di auto elettriche, ossia quante ce ne sono (più o meno) adesso fossili, ma con 5-6 o più miliardi di auto elettriche, numeri che certamente impongono una riflessione sulla montagna di materiale necessario a costruirle, qualunque esso sia e di energia elettrica necessaria a farle muovere; stiamo parlando, dato che un’auto elettrica pesa almeno come una fossile (in realtà di solito ben di più) di BEN OLTRE 5-6 miliardi di tonnellate di materiale complessivo e di una percentuale enorme del totale dell’energia usata dall’umanità, anche tenendo conto della maggiore efficienza del motore elettrico.

Dunque non una bazzecola, dato che stiamo parlando di materiali contenenti elementi che finora sono stati relativamente lontani dal tumultuoso processo di sviluppo tecnologico; parliamo di intaccare le risorse di litio, di cobalto, di rame, di nickel, terre rare ancor più o molto di più che adesso, sostituendo ai problemi di inquinamento attuali altri problemi.

D’altra parte la transizione energetica è necessaria, ma anche la richiesta di qualità della vita da parte degli uomini di qualunque paese è anche alta.

A me personalmente sembra ovvio che la soluzione non sta nel trasferire il modo privato attuale di usare l’auto semplicemente cambiando il motore, ma di mutare la sostanza SOCIALE del modo di considerare la mobilità.

Non più una merce ma un servizio pubblico, fortemente regolamentato.

La mobilità aerea probabilmente vedrà una netta riduzione poiché al momento voli transatlantici elettrici sono fuori questione, ancor più per grandi masse di persone, e allora perché non possiamo pensare a strade diverse per la mobilità terrestre?

In effetti questa estate abbiamo avuto un potente esempio di come fare questa transizione in un modo che probabilmente molti non si aspettavano; la Germania, il paese leader dell’UE, il paese che ha una dominante potenza economica ha scelto improvvisamente (anche se momentaneamente) una via diversa da quella dell’auto individuale, ossia una cosa ovvia, l’uovo di Colombo: il mezzo pubblico.

Cosa è successo esattamente?

9-Euro-Ticket-Weiterfahren

Stiamo parlando del Klimaticket.

Un biglietto a 9 euro al mese ha consentito di usare ogni tipo di mezzo pubblico regionale (dei diversi Lander, le regioni tedesche). Per tre mesi giugno, luglio e agosto, in pratica, i tedeschi hanno pagato 9 euro al mese un abbonamento per utilizzare tutti i treni regionali e il trasporto pubblico in città. In questo modo, dall’inizio del mese di giugno, in Germania sono stati venduti ben 21 milioni di abbonamenti in più.

A confermare gli effetti positivi di questa scelta è lo studio presentato da Tom-Tom International per conto dell’agenzia Deutsche Presse Agentur, secondo cui in 23 delle 26 principali città della Repubblica federale le lunghe code di auto nelle ore di punta sono praticamente scomparse.

I dati elaborati indicano che il sostanziale calo di traffico rilevato dai tecnici Tom-Tom è strettamente legato all’introduzione del nuovo biglietto speciale, ha detto Ralf-Peter Schäfer, esperto di trasporti dell’azienda leader dei sistemi di navigazione satellitare.

Ai 21 milioni di nuovi utenti si aggiungono i 10 milioni di passeggeri già in possesso dell’abbonamento ordinario. L’aumento di passeggeri sulle tratte a breve raggio (stimato da Deutsche Bahn nell’ordine del 10-15% rispetto a prima della pandemia) ha spinto le ferrovie statali a moltiplicare l’offerta di treni.

Un successo, insomma, tanto che la Germania ha pensato di puntare a un trasporto pubblico più conveniente ben oltre il 31 di agosto.

I dati di TomTom mostrano che a pochi giorni dall’avvio dell’iniziativa si è verificato un graduale decongestionamento delle aree urbane con l’effetto di ridurre traffico e smog. L’impatto è stato particolarmente evidente ad Amburgo e Wiesbaden, dove gli specialisti della navigazione satellitare hanno misurato un risparmio medio di tempo di 4,2 e 3,9 minuti su un tragitto di 30 minuti. Mentre da un sondaggio YouGov condotto per l’agenzia dpa emerge che un tedesco su cinque (il 18%) ha dichiarato di aver completamente sostituito la propria auto con il trasporto pubblico locale.

Inoltre, anche i trasporti ferroviari hanno visto un significativo aumento dei passeggeri. Sulle tratte a breve raggio, in particolare, Deutsche Bahn ha stimato un aumento del 10-15%. Come conseguenza diretta, le ferrovie statali hanno deciso di ampliare l’offerta di treni.

Nonostante i dubbi che hanno preceduto Euroticket, adesso tutti sono convinti della bontà della misura: è bastata provarla per tre mesi per rovesciare le carte e cambiare le opinioni.

Dopo lunghe discussioni si sono riuniti a Bremerhaven pochi giorni fa i ministri dei trasporti dei vari länder ed hanno concordato che la misura di questa estate va proseguita in una forma un po’ diversa e per certi aspetti più ampia; 49 euro al mese su base nazionale; si potranno dunque usare tutti i mezzi pubblici locali, regionali, ma su base nazionale con una spesa di soli 49 euro al mese.

Non si è deciso come finanziare la nuova strategia, e si scontrano qui diverse idee, lo Stato ci metterà 1.5 miliardi di euro e chiede di fare altrettanto ai vari länder; la forma specifica è in discussione, ma la sostanza è che il paese più potente d’Europa ha capito che la soluzione della mobilità innovativa non è l’auto privata, ma prima di tutto il trasporto pubblico. La misura dovrebbe partire dal prossimo 1 gennaio.

Ovviamente occorrerà investire sulla rete dei trasporti pubblici (dico io invece che sugli incentivi all’acquisto di auto private) come hanno subito chiesto le aziende pubbliche di trasporti che prevedono un aumento delle richieste di servizio. Ovviamente si continuerà a spingere anche per l’auto elettrica, ma la mobilità pubblica ha acquisito un ruolo diverso da prima e dunque occorre dedicare al trasporto pubblico regionale e non solo a quello TAV, PIU’ RISORSE!

Si tratta in effetti di un compromesso perché alcuni hanno già in corso abbonamenti a prezzi inferiori, come il lander di Berlino che ne ha uno a 29 euro ed in certe altre zone i poveri e gli studenti pagano di meno di 49 euro, la cosa dovrà essere chiarita.

Il nuovo biglietto si chiamerà: Klimaticket Deutschland.

Una serie di misure analoghe sono in corso anche in altri paesi europei e non, ed indicano una nuova consapevolezza dei problemi della transizione ecologica, un elenco completo dei vari casi lo trovate in questo articolo e una analisi completa “scientifica” del problema in questo articolo di Springer; nella sola Europa ci sono 57 città dove il trasporto è gratuito, è un servizio sociale, non una merce ed in tutto il mondo in oltre 100 località. Può sembrare strano, ma è così, questa è la soluzione, prima dell’auto elettrica privata (o insieme, dato che l’auto elettrica privata per tutto il mondo è un’altra scelta mercantile più che ecologica e comunque copre aspetti diversi della mobilità).

Esiste perfino un acronimo in inglese Ffpt, fare-free public transport)

Il caso più eclatante è quello austriaco: il conservatore Sebastian Kurz, a capo di un governo a cui partecipano anche i Verdi, ha istituito un abbonamento annuale dal prezzo simbolico di 3 euro al giorno, che consente di circolare liberamente 24 ore su 24 sull’intera rete del trasporto pubblico metropolitano, comprendente autobus, tram, metropolitane ed alcuni treni

A quando una misura simile in Italia?

Articoli consultati con quelli citati:

https://link.springer.com/article/10.1007/s11116-019-09986-6

https://www.bahn.com/en/offers/regional/9-euro-ticket-en

https://www.ilfattoquotidiano.it/2022/08/28/caro-energia-come-e-andato-il-biglietto-da-9-euro-in-germania/6776253/

A proposito di disinfezione dell’acqua potabile.

In evidenza

Mauro Icardi

La disinfezione dell’acqua è una misura preventiva che garantisce la nostra salute.

Il Ministero della Salute definisce l’acqua come potabile quando è sicura dal punto di vista chimico e microbiologico e presenta caratteristiche organolettiche (limpidezza, assenza di odori) accettabili per chi la beve. In Italia, come in tutti i paesi industrializzati, l’acqua subisce numerosi controlli e trattamenti affinché rispetti questi standard. Le tipiche conseguenze dell’acqua non potabile includono i sintomi intestinali (diarrea e mal di pancia) dati da infezioni del tratto digerente che si hanno nel 50% dei casi di ingestione di acque non trattate.

L’introduzione del cloro per la potabilizzazione delle acque agli inizi del ‘900 segnò un importante passo avanti nella soluzione del problema dell’approvvigionamento idrico e dellaqualità dell’acqua, aiutando a sconfiggere malattie batteriche e virali come il colera, il tifo e la dissenteria. Il cloro diventò così il disinfettante per l’acqua potabile più comune per prevenire la trasmissione di malattie attraverso la pelle o l’ingestione. Una scoperta che ai tempi rivoluzionò anche la vita delle persone, che finalmente poterono contare su un’acqua sicura e più facilmente disponibile.

Il prodotto presente in commercio che viene normalmente utilizzato per la clorazione delle acque è una soluzione di ipoclorito di sodio al 12-14% in volume, pari a circa il 10% in peso di cloro attivo (la candeggina domestica contiene circa il 5 per cento di ipoclorito di sodio).

L’aggiunta di cloro nell’acqua produce acido cloridrico e ipocloroso: questi composti sono noti come cloro libero. Il pH e la temperatura incidono in modo rilevante sulla efficacia della disinfezione.

Sia che il cloro venga immesso direttamente nella rete idrica, sia in un serbatoio, dovrebbe essere assicurato prima dell’utilizzo un “tempo di contatto” fra acqua e cloro di almeno 30 minuti, in maniera che il cloro possa svolgere la sua azione battericida.
In realtà poiché le soluzioni di ipoclorito di sodio perdono spontaneamente (con il tempo, la luce, la temperatura, l’azione di altre sostanze presenti nell’acqua) il titolo in cloro attivo, per assicurare “al rubinetto” la misura richiesta (es. 0,2 mg/l), negli acquedotti si applicano dosaggi progressivamente superiori (es. 0,4 mg/l).  I valori di cloro sia libero che totale vengono evidenziati con appositi reagenti, e prevalentemente misurati con il colorimetro portatile.
Il Colorimetro Digitale (detto anche fotometro) permette di determinare la concentrazione di cloro libero o totale con un metodo colorimetrico: la reazione tra cloro e reagente conferisce una particolare colorazione all’acqua che opportunamente elaborata dalla fotocellula interna allo strumento permette all’operatore, anche non specializzato, di leggere direttamente nel display il valore in mg/l, con una precisione da laboratorio.

Possono essere utilizzate anche tecniche diverse per la disinfezione, quali l’ozonizzazione e le radiazioni UV. Queste tecniche possono essere usate in combinazione con quella di clorazione.

Una delle più frequenti risposte di chi non beve acqua del rubinetto è proprio la considerazione che l’acqua “sappia di cloro”, oppure che si senta odore di candeggina quando si apre il rubinetto. Premesso che la disinfezione delle acque destinate al consumo umano è regolamentata, per quanto riguarda il cloro residuo totale al punto di messa a disposizione dell’utente il decreto legislativo 31/2001 stabilisce che il valore di 0,2 mg/L è da intendersi come valore minimo. Si tratta di un valore consigliato.  Non è sempre richiesta, ma quando il gestore la ritenga necessaria deve essere condotta correttamente per garantire una concentrazione minima di cloro presente in tutta la rete. Vengono effettuate verifiche sulla rete e sono possibili misure e verifiche in continuo, oltre a quelle puntuali del valore di cloro libero. Lasciando l’acqua in una caraffa il cloro evapora rapidamente. Le tecniche di disinfezione non sono standardizzate, dipendono dalla provenienza dell’acqua da immettere in rete (di falda o superficiale). Le acque di falda molto profonde sono a volte prive di contaminazione batterica all’origine. I laboratori dei gestori delle aziende che erogano l’acqua verificano la qualità delle acque. In caso di interventi di manutenzione sulla rete idrica per la riparazione per esempio di perdite, deve essere sempre possibile disinfettare le tubazioni al ripristino della funzionalità.

Febbre tifoide, colera, epatite A o Esono alcune delle malattie che si possono contrarre attraverso il consumo di acqua non potabile. E questo è tra i motivi principali per cui nei paesi del Sud del mondo sono proprio queste malattie a causare le peggiori epidemie.

In Italia direi che è un rischio improbabile quindi ci si potrebbe anche fare una riflessione più approfondita e meno superficiale quando apriamo il rubinetto di casa. Siamo ancora nella parte fortunata del mondo (almeno per il momento) da questo punto di vista.

Il punto sugli OGM nell’UE.

In evidenza

Luigi Campanella, già Presidente SCI.

Da tempo si discute sulla possibilità di riconsiderare i divieti dell’UE nei confronti degli OGM e dell’editing genetico che limitano la coltivazione e la vendita di alcune varietà di colture create con nuove tecniche. Ora sembra che qualcosa si muova concretamente; infatti all’ultima riunione dei 27 Ministri Europei dell’Agricoltura è stata discussa la possibilità di aprire le frontiere alle coltivazioni OGM di nuova generazione ed è stato preannunciato per il 2023 una iniziativa legislativa in tale direzione, a correzione della vecchia legge del 2001.

Il fronte non è compatto: gli Spagnoli sono i primi sostenitori, gli Italiani convinti del danno per la nostra industria alimentare tradizionalmente i più contrari, anche se di recente meno duri nel difendere la propria posizione. In effetti la posizione del nostro Paese coincide con quella di 60 organizzazioni internazionali della filiera alimentare che invitano a rinunciare a questo progetto in quanto estremamente dannoso per l’industria alimentare e poi anche non visto di buon occhio dall’80% dei cittadini europei, a prescindere quindi dalle convinzioni espresse da chi lo sostiene circa il minore consumo di acqua e la minore esigenza di fitofarmaci e di fertilizzanti da parte delle colture OGM rispetto alle tradizionali.

I dati più recenti dicono che in 29 Paesi del Mondo le coltivazioni OGM raggiungono in totale i 190 milioni di ettari, principalmente mais, soia, cotone e colza. I maggiori produttori sono USA, Brasile, Argentina, Canada, India. 42 Paesi non producono OGM, ma li importano. L’Europa, a detta di chi è favorevole, accettando di produrre OGM migliorerebbe la sua produttività alimentare con picchi fino al 20% per mais e grano, il che consentirebbe di rendersi indipendente da forniture per importazione e addirittura di esportare ai Paesi che ne hanno bisogno, a partire dall’Africa.

Sugli OGM si è però aperto un discorso molto più ampio rispetto a quello della produzione e che limita tutti questi aspetti positivi della tecnologia OGM.

Mi riferisco agli aspetti di sicurezza ed etici.

La sperimentazione circa il possibile impatto negativo di alcuni OGM sull’organismo umano ed il suo codice genetico non ha ancora raggiunto l’ampiezza e ripetibilità necessarie per garantirne l’accuratezza, da qui l’invocata limitazione ai casi sperimentalmente più sostenuti e la richiesta di infrastrutture di ricerca e relative risorse per estendere questo tipo di sperimentazione. C’è poi l’aspetto etico riferito alla modifica genetica di un prodotto naturale che interferisce con altri organismi viventi stressandone il normale ciclo di vita, quindi in una visione antropologica e non ecologica del nostro mondo e mettendo in pericolo la diversità biologica

Da consultare:

https://www.europarl.europa.eu/news/it/headlines/society/20151013STO97392/ogm-tutto-quello-che-c-e-da-sapere

L’uomo dell’effetto pompelmo

In evidenza

Claudio Della Volpe

Lo scorso 27 agosto è morto, senza grande rumore, uno scienziato che ha scoperto una cosa davvero importante, che probabilmente avrà effetto sulla vita di ciascuno di noi, se non lo ha già avuto; ma la sua morte è passata sotto silenzio.

Sto parlando di David Bailey e dell’”effetto pompelmo”. 

E’ un argomento di cui abbiamo parlato in un recente post.

E’ stato un caso di serendipità o se volete di grande intelligenza; David era un ragazzone canadese appassionato di corsa; era nato nel 1945, figlio di una aviatore canadese e di una donna da lui conosciuta, non ne sappiamo il nome; fu adottato da una coppia di Toronto e divenne il primo atleta canadese a correre il miglio in meno di quattro minuti a ventuno anni nel 1966; questo record non era il primo ma era significativo per quell’epoca e per l’ambiente anglosassone di cui il Canadà faceva parte.

(in realtà il primo a fare il miglio in meno di quattro minuti era stato Roger Bannister ad Oxford nel 1954, anch’egli morto di recente).

David era un ragazzo che certo non ebbe una vita facile; perse un occhio in un incidente e questo gli precluse parecchi sport; ma dato che gli piaceva correre il mezzofondo ed aveva successo in quello sport, arrivò alla squadra olimpica nel 1968 a Mexico City, dopo aver vinto un bronzo ai giochi panamericani del 1967 (vedi immagine, qui sotto, l’ultimo a destra) e un argento alle Universiadi di Tokio. Purtroppo a Mexico City la fortuna gli fu avversa, arrivò sesto nelle eliminatorie e fu escluso dalla finale.

Nel 1964 aveva iniziato a studiare farmacia alla Università di Toronto, dove fece anche un dottorato; continuò poi con un postdoc alla Saskatchewan; andò infine a lavorare per l’attuale Astra Zeneca. Ma finì per tornare all’Università ad insegnare, alla Western University.

Alcuni anni dopo, Bailey stava studiando le interazioni tra alcol e felodipina, un farmaco per la pressione sanguigna (la felodipinaè un calcio-antagonista selettivo a livello vascolare usato come anti-ipertensivo, decrementa la conduttanza del calcio nelle cellule miocardiche e della muscolatura liscia vasale)

In uno studio clinico, Bailey provò a usare il succo di frutta per coprire il gusto acuto dell’alcol prima di darlo ai partecipanti e notò che coloro che avevano preso il succo avevano concentrazioni molto più elevate del farmaco nel sangue; non era chiaro se fosse l’alcol o il succo a creare l’effetto.

Così ho deciso di fare uno studio pilota, su di me, per scoprirlo“, ha detto in una intervista del 2013. “Una volta ho preso il farmaco con acqua, poi l’ho preso con succo di pompelmo. I miei livelli di farmaco erano cinque volte più alti con il succo di pompelmo. Quello è stato un grande momento eureka“.

La scoperta di Bailey ha avuto enormi conseguenze; prima di tutto ha rivelato che ci sono sostanze naturali come i flavonoidi contenuti nel pompelmo, ma anche in altri agrumi, capaci di interagire con il metabolismo di alcuni farmaci, sia in un senso che nell’altro.

I risultati di Bailey dipendevano dall’enzima intestinale, CYP3A4, che è stato inibito dai flavonoidi nel succo, che hanno soppresso il metabolismo del farmaco e fatto sì che la sua concentrazione raggiungesse livelli pericolosi.

Nel corso degli anni, si è scoperto che più di 85 farmaci, che trattano una serie di condizioni dal cancro alle malattie cardiache, sono noti per essere influenzati dal succo. L’elenco continua a crescere ogni anno; potete trovarlo a questo indirizzo, un elenco aggiornato dalla FDA.

Mentre alcuni farmaci perdono efficacia a causa del succo, più di 40 diventano potenzialmente letali se consumati con il succo perché il corpo non li metabolizza così rapidamente ed essi indugiano nel sistema.

L ‘”effetto pompelmo”, come è stato conosciuto, ha portato a etichette su questi farmaci che avvertono i pazienti di evitare il frutto in ogni momento durante l’assunzione del farmaco.

E’ una scoperta che ha salvato molte vite. Come si vede dalla figura qui sotto gli effetti possono essere opposti; in certi casi la concentrazione del farmaco aumenta perché le molecole contenute nel succo di pompelmo (e di altri frutti) bloccano gli enzimi che metabolizzano il farmaco e ne aumentano la concentrazione o lo rendono efficace più a lungo.

In altri casi invece i componenti del succo impediscono ai “trasportatori di farmaci” di agire correttamente e dunque ne abbassano la disponibilità effettiva.

Ma c’è di più; questa scoperta ha aperto la strada alla farmacogenomica, ossia allo studio dell’interazione fra metabolismo dei farmaci e geni che comandano gli enzimi che li metabolizzano; la farmacogenomica analizza come il corredo genetico di un individuo influisce sulla sua risposta ai farmaci. Si occupa dell’influenza della variazione genetica acquisita ed ereditaria sulla risposta al farmaco nei pazienti correlando l’espressione genica o i polimorfismi a singolo nucleotide (ossia le modifiche dell’enzima conseguenti a singoli errori del DNA) con la farmacocinetica (assorbimento, distribuzione, metabolismo ed eliminazione del farmaco) e la farmacodinamica (effetti mediati attraverso i bersagli biologici di un farmaco).

L’effetto “pompelmo” non funziona in egual modo in tutti a causa di questa intrinseca variabilità genetica (od epigenetica!).

Gli anziani sono più sensibili a questi effetti perché prendono in media più farmaci, ma anche per altri motivi più sottili di cui parleremo in prossimi post.

Da leggere:

https://www.the-scientist.com/news-opinion/pharmacologist-and-olympian-david-bailey-dies-at-77-70605

https://www.theglobeandmail.com/canada/article-david-bailey-olympian-and-pharmacologist-who-discovered-the-grapefruit/

https://en.wikipedia.org/wiki/Grapefruit%E2%80%93drug_interactions

La chimica delle formiche guerriere.

In evidenza

Claudio Della Volpe

Circa 100 anni fa uno studioso francese di entomologia, L. Burgeon pubblicò un articolo sull’organizzazione sanitaria presente in uno speciale tipo di formiche africane denominate formiche guerriere o cadaveriche, la specie Megaponera. Da ragazzo avevo sentito parlare di queste terribili formiche da mio padre che trascorse buona parte della sua giovinezza nell’Africa subsahariana dove questa specie abita. Sono formiche che si cibano di termiti e che vanno a caccia in gruppo, note per la loro aggressività e per una serie di caratteristiche come l’odore che emanano. Originariamente le formiche erano state segnalate da David Livingstone durante il suo primo viaggio; egli scrive:

“Nota una grande formica nera, che diffonde un odore sgradevole e penetrante da un fluido volatile come l’etere” ….”Una mattina vidi uscire una colonna di formiche nere che mi sembrava stessero andando in battaglia, e cominciai a seguirle. Uno dei capitani del reggimento nero, dopo averli finalmente visti (le termiti), si precipitò contro di loro, li rese insensibili, grazie a un particolare liquido che il suo pungiglione secerne, e li consegnò ai soldati che li portarono via immediatamente. Avendo salvato alcuni dei prigionieri, non sono riuscito a farli uscire dallo stato di insensibilità in cui il pungiglione del loro nemico li aveva fatti precipitare”.

Burgeon a sua volta segnala che queste formiche hanno una peculiare organizzazione sociale basata sul soccorso sanitario ai feriti che vengono soccorsi

L. Burgeon, Une organisation sanitaire chez les fourmis Megaponera. Rev. Zool. Bot. Afr. 16, 94–95 (1929).

Il lavoro di Burgeon non ebbe molto successo ed è difficile da ritrovare; lo cito perché a sua volta citato dai più recenti lavori; dei quali uno solo ha avuto un grande successo; pubblicato su Science nel 2017, quasi un secolo dopo e preceduto comunque da più precise osservazioni sul campo.

In questo lavoro, in effetti molto completo, l’osservazione viene approfondita parecchio e se ne svela il meccanismo esatto che è di tipo chimico.

Noi sappiamo che le formiche, come altri insetti sociali, hanno una comunicazione chimica molto sviluppata (emettorno feromoni che vengono assorbiti mediante le antenne) ed usano armi chimiche efficaci, l’acido formico di cui abbiamo parlato altrove è un buon esempio. Nel medesimo post testè citato si parla delle conoscenze (istintive) di automedicazione di parecchi animali; ma qui parliamo di qualcosa di più complesso ancora: una organizzazione sociale che prevede l’aiuto a soggetti feriti e tecniche di cura dei medesimi.

Gli autori del lavoro pubblicato su Science interpretano questo comportamento come un adattamento specifico che riduce il costo legato al particolare tipo di alimentazione; le termiti sono anch’esse molto aggressive e alcune termiti sono specializzate nella difesa del termitaio; e dunque un certo numero di Megaponera, nonostante le loro dimensioni (che possono raggiungere i due centimetri) soffrono gravi ferite, per esempio numerose di esse perdono uno o più arti o loro porzioni. Le formiche hanno 6 arti dei quali quattro dedicati alla locomozione e due usati come “braccia”, oltre alle lunghe mandibole e alle antenne “genicolate” ossia piegate e al pungiglione.

da Wikipedia, https://it.wikipedia.org/wiki/Formicidae

Queste perdite si infettano con facilità e dunque l’individuo colpito ha una elevata probabilità di morire e il formicaio perderebbe in questo modo una risorsa. La cura degli individui feriti avviene con un meccanismo molto preciso.

Gli autori scrivono:

Mostriamo che un comportamento di salvataggio unico in M. analis, costituito da compagni di nido feriti che vengono riportati al nido, riduce la mortalità da combattimento. Dopo un combattimento, le formiche ferite vengono riportate indietro dai loro compagni di nido; queste formiche di solito hanno perso un’estremità o hanno termiti aggrappate a loro e sono in grado di recuperare all’interno del nido. Le formiche ferite che sono costrette sperimentalmente a tornare senza aiuto, muoiono nel 32% dei casi. Esperimenti comportamentali mostrano che due composti, dimetilsolfuro e dimetil trisolfuro, presenti nei serbatoi della ghiandola mandibolare, innescano il comportamento di salvataggio. Un modello che tiene conto di questo comportamento di salvataggio identifica i driver favorevoli alla sua evoluzione e stima che il salvataggio consenta il mantenimento di una colonia di dimensioni maggiori del 28,7%.

DMS

DMTS

Nell’articolo si analizzano i tipi di ferite che si riscontrano sul campo e si conclude che non tutti i feriti vengono soccorsi, ma solo quelli le cui capacità di recupero sono più elevate. Riassume Wikipedia:

I soldati termiti sono in grado di mordere le estremità o aggrapparsi al corpo della formica dopo la loro morte. Queste formiche hanno sviluppato un meccanismo unico per affrontare questo aumento dei costi di foraggiamento. Le formiche ferite da battaglia “chiedono” aiuto con un feromone nella loro ghiandola mandibolare (costituito da due composti chimici: dimetil disolfuro e dimetil trisolfuro), attirando i compagni di nido, che poi iniziano a indagare sul compagno di nido ferito, a prenderla e a riportare la formica ferita al nido. In questo modo, riducono il loro tasso di mortalità del 32% a quasi zero. All’interno del nido le termiti aggrappate vengono rimosse. Nel caso in cui perdessero una o due zampe le formiche si adattano a una locomozione a quattro o cinque zampe per compensarla, consentendo loro di raggiungere velocità di corsa simili a quelle di una formica sana. Queste formiche ferite sono quindi di nuovo in grado di svolgere compiti di colonia e sono persino osservate in future incursioni contro le termiti. Un modello (il lavoro citato) ha calcolato il valore di questo comportamento di salvataggio per consentire a una colonia di essere più grande del 28,7% di una colonia che non mostrerebbe questo comportamento (a causa del risparmio energetico di non dover sostituire i lavoratori infortunati con nuove sostituzioni sane). Questa è l’unica specie di invertebrati nota per mostrare un tale comportamento nei confronti di individui feriti.

La cura sembra consistere nell’uso della saliva che contiene composti antibatterici e che è documentato da varie osservazioni sperimentali.

Qui sotto vediamo una formica che “tratta” l’arto malato di una cospecifica mettendoselo in bocca. Nella saliva sono state rivelate parecchie sostanze con proprietà antibatteriche che potrebbero entrare anche nella nostra medicina. L’autore del lavoro ha dichiarato:
Abbiamo scoperto che le formiche ferite comunicano quando una ferita è infetta. “Nelle sostanze applicate, abbiamo trovato oltre un centinaio di componenti chimici e 41 proteine. Di circa la metà di loro, possiamo già dimostrare che hanno qualità antimicrobiche “

Queste sostanze sembrano essere altamente efficienti perché circa il 90% degli animali trattati è sopravvissuto alle ferite.

Sintetico o naturale, lovastatina o riso rosso fermentato?

In evidenza

Claudio Della Volpe

Naturale o sintetico è un argomento su cui ho scritto ripetutamente; stavolta vorrei rimanere sul classico argomento; sia naturale che sintetico (o casomai purificato) possono essere buoni o pericolosi; dipende (principalmente ma non solo) dalla natura precisa della molecola considerata e dalla sua quantità. Tuttavia non si possono escludere (in linea di principio almeno) effetti legati alla composizione isotopica, alla presenza di “impurezze” diverse nei vari casi, alla condizione concreta del prodotto considerato.

Un caso recentissimo sono le cosiddette statine naturali.

Di che si tratta?

Lovastatina o Monacolina K (lattone)

                                      Monacolina J

La Lovastatina o monacolina K lattone                  La lovastatina o monacolina K acida

Le statine sono molecole usate da alcuni anni nel mondo occidentale nel controllo dell’ipercolesterolemia, ce ne sono di naturali e di sintetiche. Il loro meccanismo di azione corrisponde all’inibizione di uno specifico enzima.

Questo ha senso perché sappiamo che circa l’80% del colesterolo nel sangue è prodotto dall’organismo, mentre solo il 20% dipende dall’alimentazione. Le statine bloccano un enzima (idrossi-metilglutaril-coenzima A reduttasi), qui rappresentato.

Le statine  sono costituite in sostanza da inibitori che competono col mevalonato , precursore del colesterolo e possono avere nella loro molecola sequenze identiche al mevalonato oppure possono essere stericamente simili al mevalonato, che vedete qui sotto.

L’inibizione dell’enzima, indispensabile per il processo di produzione del colesterolo da parte dell’organismo e che si trova nella membrana del reticolo endoplasmatico liscio, riduce così i livelli del colesterolo cosiddetto LDL (dall’inglese Low Density Lipoprotein, lipoproteine a bassa densità). L’assunzione di statine può ridurre del 30-40% il valore di colesterolo totale, rappresentato dalla somma di LDL e HDL (dall’inglese High Density Lipoproteins, lipoproteine ad alta densità) agendo sulla quantità del colesterolo LDL con una diminuzione anche del 50-60%, mentre i livelli del colesterolo HDL rimangono invariati o possono, addirittura, aumentare.

Le sigle LDL e HDL vengono dal nome delle proteine che trasportano il colesterolo; le LDL lo trasportano dal fegato, dove viene prodotto, verso le zone periferiche, dove se è in eccesso si accumula; mentre le HDL lo trasportano in direzione opposta dalla periferia verso il centro.

Si possono usare altre molecole attive quali, ad esempio, gli steroli vegetali, che però agiscono limitando l’assorbimento di colesterolo dal cibo e, quindi, possono agire solo sulla quota di colesterolo che dipende dall’alimentazione e che è una parte ridotta del totale.

Infine le statine agiscono anche sui livelli dei trigliceridi nel sangue, ma con un effetto più modesto rispetto al colesterolo, riducendoli di circa il 10%.

Tuttavia anche le statine esistono in forma “naturale” ossia sono presenti nel riso rosso fermentato, un alimento, non un farmaco e il loro effetto farmacologico è conosciuto da millenni, dato che fanno parte della farmacopea cinese.

Leggiamo in letteratura (Molecules 2019, 24, 1944; doi:10.3390/molecules24101944 ):

Il (Red Yeast Rice) RYR, che è fermentato a solido mediante inoculazione artificiale di Monascus purpureus sul riso al vapore, è stato ampiamente utilizzato per migliaia di anni dalla Cina e da altri paesi vicini. Ha vari nomi in diverse culture. Ad esempio, si chiama Chiqu, Hongqu, riso rosso, Fuqu, ecc., In Cina; Koji, AngKhak, Beni-Koji e Red-Koji in Giappone; Rotschimmelreis in Europa; e Red Mold o Red mold rice negli Stati Uniti. Nei tempi antichi, Fujian, Zhejiang e Taiwan erano considerati i luoghi di origine di RYR, in particolare Gutian (una città nella provincia del Fujian) che è stata confermata come la vera origine di RYR a causa dell’alta qualità della sua produzione. Il primo uso del RYR è come aromatizzante alimentare, colorante e agente di fermentazione, come nella cagliata di fagioli fermentati, nello stufato di maiale, nei prodotti a base di carne arrosto e nel vino di riso. Successivamente, gli antichi hanno scoperto che RYR ha effetti terapeutici. Gli effetti terapeutici sono stati registrati nel Compendio di Materia Medica, un’antica farmacopea cinese scritta da Li Shizhen durante la dinastia Ming (XIV-XVII secolo), che narrava in dettaglio come la RYR abbia “l’effetto di promuovere la circolazione del sangue e rilasciare la stasi, rinvigorire la milza e facilitare la digestione”.

Dal 1979, la monacolina K, che può abbassare i lipidi nel sangue, è stata estratta dalle specie Monascus. Al giorno d’oggi, RYR si presenta in due forme sul mercato: RYR comune, che viene utilizzato come fonte di pigmenti naturali per la colorazione nell’industria alimentare e tessile. Le condizioni di fermentazione del RYR comune sono relativamente rapide e semplici.

Secondo il “Riso fermentato additivo alimentare GB1886.19-2015”, la qualità del RYR comune viene valutata in base al colore.

L’altro tipo è chiamato RYR funzionale e ha un effetto ipolipemizzante definito. Le condizioni di fermentazione della RYR funzionale devono essere ottimizzate scientificamente, anche attraverso lo screening dei ceppi di Monascus RYR e la determinazione delle condizioni ottimali di fermentazione (temperatura, contenuto di umidità, tempo, ecc.). La qualità del RYR funzionale è valutata dal contenuto di monacolina K, che è uno dei i metaboliti secondari di Monascus [10,11]. A causa della ben nota efficienza ipolipemizzante di RYR funzionale, ci sono molti farmaci brevettati cinesi contenenti RYR funzionale per ridurre lipidi in vendita sul mercato, come Zhibituo, Xuezhikang e Lezhiping [12-14].

Dunque le statine di fatto esistevano e venivano usate da secoli nella cultura cinese; da qualche anno sono usate e vendute anche da noi come prodotto “farmaceutico” puro, purificato da quello naturale.

Per alcuni anni sono state vendute in Europa in entrambe le forme, come farmaco e come integratore.

Di recente tuttavia la EFSA è intervenuta su questo settore imponendo una sostanziale modifica delle condizioni di vendita del riso rosso fermentato.

La storia è raccontata sulla rivista Farmacista33 fin dal 2013, ed occorre riconoscere che fin da subito veniva chiesta una indagine europea per chiarire i modi di uso corretti dell’integratore; in particolare è intervenuta ripetutamente la dott. Marinella Trovato una biologa che presiede la SISTE (Società Italiana di scienze applicate alle piante officinali ed i prodotti per la salute).

Il riso rosso fermentato, ma in particolare il suo componente caratterizzante, la Monacolina K, sono stati oggetto di due pareri espressi dall’Agenzia per la sicurezza degli alimenti (EFSA): il primo relativo alla sua efficacia nel mantenimento dei livelli normali di colesterolo nel sangue (2011) ed il secondo sulla sua sicurezza, non considerata in precedenza (2018).

Nel primo il panel NDA dell’EFSA confermava esserci correlazione tra l’assunzione di Monacolina K da RYR a 10 mg/die ed il mantenimento di una normale concentrazione di colesterolo LDL nel sangue ai sensi del Reg. (CE) 1924/2006. Nel secondo parere, pubblicato il 3 agosto u.s, relativo in questo caso alla sicurezza della Monacolina K nel riso rosso fermentato negli alimenti, il panel ANS dell’EFSA, conclude di non essere in grado di definire un apporto di monacoline da RYR negli alimenti che non dia luogo a preoccupazioni circa i possibili effetti nocivi per la salute. (http://www.farmacista33.it/riso-rosso-fermentato-milioni-di-confezioni-segnalazioni-di-effetti-avversi-in-anni-non-puo-essere-allarme/politica-e-sanita/news–45533.html?word=monacolina  trovate gli altri articoli cercando sulla pagina di Farmacista33.)

In particolare la dott. Trovato ha fatto notare (articolo del 2018) che i dati usati dall’EFSA e pubblicati da colleghi italiani (BJCP, Volume83, Issue4 April 2017 Pages 894-908) in un lavoro che riportava il numero di effetti collaterali seri raccolti con meccanismi non ufficiali nel corso di parecchi anni non facevano riferimento al numero totale di utilizzatori dell’integratore che assommava a vari milioni nel medesimo periodo (40 milioni di confezioni contro 55 casi avversi di una certa importanza, 1 ogni circa milione di utilizzatori, contro i valori molto più alti della statina farmacologica, anche se c’è da dire che le dosi erano diverse nei due casi:  da 3 a 10mg/die in un caso e 20mg/die o superiori nel caso del farmaco dove gli effetti sono molto più marcati comunque). Poche settimane dopo Federsalus, la associazione di categoria degli imprenditori del settore integratori interveniva ancora rincarando la dose e sostenendo che l’EFSA nel suo parere del 2018 con cui aveva portato da 3 a 10mg/die la dose da usare per avere effetto non aveva considerato tutta una serie di pubblicazioni che provavano che l’efficacia dell’integratore era diversa a causa di alcune differenze di composizione (in particolare la copresenza di altre statine oltre la lovastatina, e la forma acida e non lattonica del prodotto), chiedendo infine la archiviazione sulla monacolina K. In definitiva si capisce che la monacolina non purificata sarebbe efficace anche a livelli inferiori.

Nel giugno di quest’anno 2022, a seguito di un esplicito parere dell’EFSA, il ministero della Salute ha emesso una circolare recante “Monacoline da riso rosso fermentato – Circolare prime indicazioni applicative reg. (UE) 2022/860 che modifica l’allegato III del regolamento (CE) n. 1925/2006 del Parlamento europeo e del Consiglio”. Il documento riporta l’inclusione delle «monacoline da riso rosso fermentato» nelle parti B e C dell’allegato III del reg.1925/2006, come stabilito dal reg. (UE) 2022/860 pubblicato nella Gazzetta ufficiale UE il 2 giugno 2022 e in vigore dal 22 giugno. A tale proposito, la Fofi ha precisato in una nota che «l’inserimento nella parte B dell’allegato III del reg. 1925/2006 comporta il divieto all’impiego negli integratori alimentari di monacoline in quantità maggiori o uguali a 3 mg per dose, nonché l’obbligo di alcune avvertenze da riportare in etichetta». È quindi vietata la commercializzazione di prodotti che contengono le sostanze citate in quantità maggiori di 3 mg e non sono previste dal regolamento misure transitorie.

La circolare del Ministero, vieta inoltre l’uso di monacoline negli alimenti ordinari, che «rimane non ammesso a qualunque dosaggio poiché tali sostanze si configurano, negli stessi alimenti, come nuovo alimento ex reg. (UE) 2015/2283». L’entrata in vigore delle nuove disposizioni comporta un rafforzamento delle attività di controllo. «La circolare – precisa la Federazione – si rivolge alle autorità coinvolte nel controllo ufficiale, che dovranno attivarsi per la definizione di metodi validati e accreditati per lo svolgimento dei controlli risultanti dall’entrata in vigore del regolamento. Lo stesso regolamento pone poi le monacoline da riso rosso fermentato, nei dosaggi consentiti definiti nella parte B, in parte C dell’allegato III del reg. 1925/2006, sottoponendole alla sorveglianza dell’Unione». Il parere EFSA è rintracciabile qui di seguito:

https://efsa.onlinelibrary.wiley.com/doi/10.2903/j.efsa.2018.5368

La conclusione di EFSA (che recepisce alcune delle note di Federsalus) è che l’assunzione di monacolina con un dosaggio uguale o superiore ai 3 mg, è stato dimostrato, può causare eventi avversi tra cui dolori muscolari, crampi, miositi, blanda tossicità epatica, reazioni gastrointestinali e cutanee. Infine casi di rabdomiolisi, sebbene siano eventi rari (la frequenza è di due casi ogni 300mila pazienti secondo la Mayo Clinic), sono comunque tipici di chi assume farmaci come le statine (da RYR funzionale). Qui tuttavia la EFSA non considera a fondo la differenza di frequenza che è, per gli utilizzatori di RYR comune fino a 10mg/die, dell’ordine di qualche caso in 40 milioni di confezioni usate, una frequenza ben diversa.

Aggiungiamo due considerazioni finali.

Nella RYR comune si può trovare casualmente anche una micotossina che è la citrinina, in dosi significative perché prodotta da alcune specie di Monascus; vediamo qualche dato sulla sua presenza nella tabella qui sotto.

Da Arch Intern Med. 2010;170(19):1722-1727

Ultima nota le statine si ritrovano anche in alcuni funghi autunnali che riportiamo qui sotto

Cardoncello, pleurotus ostreatus e p. eringji

Quale può essere la conclusione di questo racconto?

La differenza fra sostanze pure e non, è significativa e appare difficile sostenere che gli effetti del RYR dipendano solo dalla singola statina che l’industria farmaceutica ha scelto come prodotto raffinato; questa polemica maschera in realtà un enorme conflitto di interesse fra due settori (farmaci e integratori) che producono entrambi la medesima sostanza la lovastatina K con modalità diverse ma usata dal medesimo mercato (e a prezzi diversi e profitti diversi) ;  inoltre è chiaro che certi prodotti presenti nel cibo ed usati casomai da millenni possono avere effetti farmacologici significativi, la cosa non è ben compresa e tanto meno ben normata.

Ci vorrebbero meno conflitti di interesse e maggiore considerazione della salute pubblica, ed a questo fine più ricerca su questo delicato settore della nutraceutica che mano a mano che le nostre conoscenze aumentano diventa sempre più cruciale.

Ad EFSA si può chiedere una maggiore attenzione alle ricerche riguardanti l’uso di soluzioni a più componenti farmacologici, alle loro interazioni e al loro potenziamento ed anche alla casistica presente nei paesi che usano questi prodotti da prima di quelli europei, come la Cina che usa il RYR comune da millenni e ne ha compreso l’utilità per la salute da secoli! L’attenzione alla tradizione della medicina popolare cinese ha prodotto vari esempi virtuosi di farmaco e anche un premio Nobel.

Ed ai produttori di integratori, ai quali dopo tutto è stato riconosciuto che il RYR comune funziona anche a basse dosi, è da richiedere una maggiore attenzione per escludere la presenza almeno delle micotossine scegliendo adeguati ceppi di Monascus e caratterizzando in generale meglio e più adeguatamente, i loro prodotti, (diciamo in breve che il colore non basta più).

A tutti la richiesta di mettere al centro non i profitti ma la salute pubblica, non le merci ma il valore d’uso dei farmaci, la loro utilità sociale.

Articoli consultati oltre a quelli citati:

https://www.my-personaltrainer.it/integratori/riso-rosso.html

http://www.farmacista33.it/integratori-siste-posizione-efsa-su-monacolina-molto-criticata/politica-e-sanita/news–61288.html

Nota. Mi risulta che la monacolina K o lovastatina sia sintetizzabile (dal 1980) ma che sia maggiormente usata come farmaco quella purificata da sorgenti naturali, più economica. E’ stata la prima statina ad essere usata massicciamente ma oggi esistono molte altre molecole simili.

La civiltà malata dell’”usa e getta”

In evidenza

Vincenzo Balzani, Professore emerito Unibo

Lo sviluppo economico, cioè la produzione di merci e servizi, è inevitabilmente accompagnato dall’impoverimento delle risorse della Terra e dall’accumulo di scorie e rifiuti. Questo principio, di per sé così evidente, non viene tenuto in nessun conto dall’attuale modello economico.

Nei paesi ricchi governanti e industriali spesso sollecitano i cittadini, in modo subdolo, ma a volte addirittura esplicito, a “consumare di più” per sostenere lo sviluppo. Per i governanti, lo sviluppo economico del loro paese è la condizione necessaria per essere rieletti, mentre per gli industriali è la strada per aumentare i profitti. Il fatto, poi, che nel mondo ricco tutto ciò continui ad avvenire con l’impoverimento dei paesi meno sviluppati, la diminuzione delle risorse non rinnovabili e l’aggravamento dei problemi ambientali non sembra interessare nessuno.

Inoltre, per mantenere alta la produzione, vengono messi sul mercato oggetti appositamente studiati per diventare obsoleti dopo pochi anni (ad esempio, i cellulari e i computer e gli oggetti per la riproduzione della musica), oppure, come accade frequentemente per le automobili, si interviene con incentivi fiscali per la rottamazione.

Il filosofo Umberto Galimberti sostiene che il consumismo è il primo dei vizi capitali della nostra epoca. Il consumismo, infatti, è la versione peggiore della civiltà dei consumi; è la “civiltà” dello spreco e del cosiddetto “usa e getta”. Non solo consumiamo le risorse della Terra con arroganza pensando solo al nostro presente, ma in modo altrettanto arrogante copriamo la Terra di rifiuti e di sostanze inquinanti senza pensare alle generazioni future.

Si deve anche notare che nei paesi ricchi la crescita dei consumi e dei redditi non è affatto accompagnata da una parallela crescita del “benessere” e della “soddisfazione” delle persone. È stato riscontrato che un bene di consumo è fonte di soddisfazione finché rappresenta una novità e una modalità di distinzione, un’indicazione, cioè, del particolare status del consumatore all’interno della società. È stato anche dimostrato che l’abbondanza dei beni superflui elimina il piacere dato dalla soddisfazione dei bisogni primari (cibo, vestiti, riparo) e che il meccanismo del consumo dei beni, indotto dalla pubblicità, può essere assimilato al meccanismo della dipendenza dall’alcool o dalle droghe. Il consumismo, facendo fulcro sul principio di “scadenza” e autodistruzione delle cose, causa nelle persone crisi profonde di identità perché, in un mondo dove gli oggetti appaiono e scompaiono con grande rapidità, diventa sempre più difficile distinguere tra sogno e realtà, tra immaginazione e dati di fatto. Tutto questo poi induce ad applicare la consuetudine ”usa e getta” anche nei rapporti fra persone.

Alcuni filosofi affermano che la vera ricchezza di un uomo è espressa dalle cose che può concedersi di non avere. Tutte queste considerazioni ricordano le parole del Salmo 48 che recita “L’uomo nella prosperità non comprende, è come gli animali che periscono“.

Vite digitali

In evidenza

Luigi Campanella, già Presidente SCI

In molte sedi e con sempre maggiore frequenza si parla degli aspetti etici correlati alla tecnologia dell’intelligenza Artificiale, 328 miliardi di dollari di investimenti. Di recente al convegno  “Vite digitali”, Luiss, maggio 2022, il prof. Schnapp dell’Università di Harvard ha dichiarato: “La responsabilità dovrebbe essere alla base della tecnologia” e la prof.ssa Severino della Luiss ha ribadito come  sia fondamentale la tutela della privacy.

L’UE sembra averli ascoltati perché con il Digital Service Act ha di fatto imposto alle aziende tecnologiche responsabilità sul controllo dei contenuti on line. Il punto focale sta nel fatto che le questioni etiche vengono poste a posteriori, cioè successivamente alla creazione di tecnologie, mentre dovrebbero essere parte integrante del processo creativo.

Il Digital Service Act é un pacchetto di norme che prevede obblighi per le aziende tech che operano nel settore. Tra queste la principale è la maggiore trasparenza sull’IA. Cosa cambierà per gli utenti?

Potranno scegliere di disattivare gli algoritmi di IA nei loro feed personali e vietare il consenso alla profilazione. Da qualcuno si obbietta che l’etica è un freno allo sviluppo tecnologico: non è così, è di fatto una opportunità in più che porta ad uno sviluppo più consapevole delle nuove tecnologie e ad una riduzione dei problemi legati all’innovazione.

In attesa dell’auspicata autoregolamentazione aziendale è bene che ci siano strati di controlli e studi mirati sugli impatti di queste nuove tecnologie. In molti libri e film è stata profetizzata la ribellione delle macchine all’uomo. Da Europei la proiezione di questa profezia che più dovrebbe preoccuparci è nel rapporto fra il nostro Continente da una parte ed USA ed EST che corrono molto più di noi dall’altra e finiranno, senza un’inversione di tendenza, per impoverire la nostra economia che non vuole rinunciare a certe soluzioni, che però non è in grado di governare, anche gravata da pesi burocratici molto più pesanti di quelli attivi presso i nostri concorrenti.

Si sta creando una nuova dipendenza, oltre quella dal gas russo. La soluzione passa per una risposta interdisciplinare in cui le preoccupazioni etiche e sociali e quelle della ricerca e produttive possano confrontarsi. Si deve lavorare insieme per armonizzare le leggi e divenire più competitivi. L’ integrazione delle IA con il cervello umano, una sorta di transumanesimo, non deve spaventare come dimostrano i sistemi di interfaccia già allo studio tra neuroni biologici e sistemi artificiali. A vedere la problematica con occhio positivo ed ottimista potrebbero essere anche le applicazioni che dell’IA vengono ancora presentate.

Al Maker Faire di Roma  sono molti i progetti che, combinando IA e sensori, cercano di venire incontro alle disabilità consentendo a chi le porta di superare, almeno in parte, i limiti. Esempi significativi sono il controller che permette alle persone senza arti inferiori di azionare con i pollici acceleratore e freni di un auto; o ancora un sistema per il trattamento delle balbuzie; o ancora il controllo cognitivo mediante sistemi in automatico dell’avanzamento di patologie gravi come la sclerosi multipla; o ancora un sistema a vibrazioni intelligenti per consentire ai non vedenti il superamento di ostacoli nel cammino; o ancora il supporto intelligente con giochi agli esercizi di riabilitazione dei più piccoli.

Come si vede gli aspetti etici meritano un’attenta considerazione ma sarebbe sbagliato considerarli un limite invalicabile che non farebbe altro che aumentare il gap tecnologico fra Europa e Resto del mondo tecnologicamente avanzato.

L’imbroglio delle calorie negative

In evidenza

Claudio Della Volpe

La più recente moda alimentare è quella che si può dimagrire mangiando cibi a “calorie negative”.

Il mondo in cui viviamo è veramente distopico perché se da una parte produce cibo in eccesso nella parte ricca del pianeta e stimola un sovra-consumo di cibo, o meglio un sovra-acquisto di cibo che porta profitti a chi vende, dall’altra mette al centro uno stato fisico perfetto, magro, impossibile da mantenere se ci si ciba seguendo la pubblicità o le mode alimentari, si fanno lavori sedentari e poca attività fisica.

Ne segue un successo travolgente di chiunque prometta un metodo “sicuro” per dimagrire; e l’ultima moda in questo settore pieno di venditori di fumo e sciocchezze è proprio il cibo a calorie negative.

In cosa consiste questa idea?

La versione nobile della proposta si basa su un fenomeno reale che è definito tecnicamente “termogenesi” e che consiste nel fatto che l’atto di cibarsi induce una serie di processi metabolici che producono calore; e da qui l’idea che se un cibo per essere assorbito inducesse una produzione di calore superiore al suo medesimo contenuto calorico, ne scaturirebbe un effetto di riduzione calorica che corrisponderebbe a dimagrire.

Faccio un esempio; supponete di bere due litri di acqua a bassa temperatura, supponiamo che l’acqua che bevete sia praticamente a 0°C; il vostro corpo la riscalderebbe per semplice conduzione termica e la porterebbe alla temperatura media corporea che per gli umani è di circa 36°C; dunque due litri di acqua necessiterebbero di circa 2000×36=72000 calorie; le calorie usate per misurare il contenuto calorico del cibo corrispondono a kilocalorie e dunque i due litri di acqua vi farebbero consumare 72kilocalorie,  “calorie” o grandi calorie ma di per se non apporterebbero alcun contenuto calorico in quanto l’acqua è considerata comunemente un cibo a zero calorie.

Ed ecco dunque il primo esempio di cibo a calorie negative: la semplice acqua fredda!

Attenzione che bere tanta acqua e così fredda avrebbe effetti imprevedibili sul vostro apparato intestinale; è solo un esempio!

Facciamo un altro esempio; per assorbire il cibo occorre masticarlo e la masticazione corrisponde ad una attività muscolare che consuma energia; se cercate in giro tale attività corrisponde, secondo un report della Mayo Clinic, a circa 11 grandi calorie all’ora; dunque supponete di masticare tutto il giorno una gomma masticante senza zucchero e dunque a “zero “ calorie, senza apporto calorico, consumereste circa 300 grandi calorie che corrisponde a una porzione di pasta.

Avreste anche probabilmente danni ai denti e un dolore ai muscoli interessati.

Ma il senso è chiaro.

Un recente lavoro su Science Advances (che ragiona sul ruolo evoluzionistico della masticazione) stima nel 3% quotidiano il costo energetico medio della masticazione.

Su questo tipo di idee semplici e facilmente spiegabili sono basate un notevole numero di “diete” che consigliano cibi e modalità di consumo tali da incrementare il costo dell’assimilazione del cibo riducendone dunque l’apporto calorico netto totale.

Ora sia chiaro che masticare bene il cibo è importante e che come dicevano già i Romani: “prima digestio fit in ore”, il cibo inizia ad essere digerito in bocca, mediante una serie di processi non solo meccanici ma anche chimici che iniziano in bocca dove già la saliva fornisce importanti enzimi come per esempio la ptialina per disgregare le catene polimeriche di polisaccaridi. Ma da questo ad immaginare di dimagrire masticando ne corre, in quanto banalmente il rapporto fra le calorie totali immesse che sono all’incirca 2 milioni o se volete 2000 kilocalorie (se usate le grandi calorie) ed il consumo termogenico secondario  rende evidente che questi effetti sono del tutto trascurabili dal punto di vista quantitativo: l’acqua fredda conterebbe il 3% e anche la masticazione non estesa a tutta la giornata, ma relazionata al tempo medio di masticazione: 11 calorie per tre pasti quotidiani sono all’incirca l’1,5% del metabolismo totale.

Una persona di corporatura media dissipa una potenza costante anche a riposo (il cosiddetto metabolismo basale) di circa 80-100watt che corrispondono ad un totale quotidiano di oltre 8 milioni di Joules; in calorie (una caloria è 4.18joules) sono appunto circa 2000 Kcal o 2000 grandi calorie. E’ rispetto a questo consumo totale medio che occorre pesare il ruolo relativo del consumo indotto da queste pratiche e si vede che è assolutamente trascurabile, anche se non nullo.

Per carità tutto fa brodo, aumentare il consumo di cibi poco calorici come per esempio le verdure, che devono anche essere masticate parecchio, non è certo un’idea malvagia per contenere l’epidemia di obesità che vive il mondo ricco, ma è chiaro che andare al di là di queste considerazioni generali senza basi solide le trasforma in metodiche che fanno più bene alla tasca di chi le vende che bene alla salute di chi le usa.

Anche perché l’alimentazione è una cosa troppo complessa e ricca di conseguenze per misurare tutto solo in termini di apporto calorico; è assolutamente sballato mettere al centro solo il magico numero delle calorie, occorre considerare la qualità del cibo ed i suoi effetti di lungo periodo, l’interazione con le eventuali malattie geneticamente presenti o comunque potenzialmente attive, etc.; insomma un argomento che, se si vuole affrontare seriamente, necessita di un approccio razionale e basato su conoscenze specialistiche piuttosto che basato su idee semplici ma ingannevoli.

Cibi a calorie negative non ne esistono, esistono cibi a basso contenuto calorico, questo sì, ma comunque devono essere integrati in una dieta attenta alle necessità individuali e determinate da uno specialista. Una cosa è ridurre l’apporto calorico introducendo come la dieta mediterranea frutta e verdura in quantità significative, una cosa mangiare solo cibi ad inesistenti o sovrastimate calorie negative che non potranno farvi dimagrire, ma al più farvi venire mal di pancia, mal di denti o produrre una alterazione metabolica significativa; se volete dimagrire veramente andate dal vostro medico e seguitene i consigli o fatevi consigliare da uno specialista del settore, ricordando che mentre un po’ di grasso corporeo è una riserva di energia la tartaruga addominale non è, di per se, segno di salute.

Nucleare si, nucleare no.

In evidenza

Luigi Campanella, già Presidente SCI

La diatriba circa l’inserimento o meno del nucleare fra le energie green ha riportato al centro dell’attenzione gli annosi problemi della sicurezza e delle scorie. Con la tassonomia UE la Commissione Europea ritiene che gli investimenti privati nei settori del gas e del nucleare possano svolgere un ruolo nella transizione energetica, un contributo che Bruxelles ha quantificato in circa 350 miliardi l’anno.

Le nuovi centrali a gas dovranno avere emissioni di CO2 inferiori a 270 g per chilowattora e dovranno sostituire centrali già esistenti e più inquinanti ed essere predisposte per il passaggio a biogas ed idrogeno verde. Per il nucleare le raccomandazioni ai singoli stati riguardano gestione sicura e smaltimento di scorie.

Le nuove centrali dovranno essere costruite entro il 2045, mentre i permessi che estendono la vita degli impianti esistenti dovranno essere rilasciati al più tardi entro il 2040. Nessun limite per il nucleare di quarta generazione per stimolare ricerca ed innovazione. In tal senso una proposta interessante su entrambe le questioni  viene dalla start up Newcleo, fondata da Stefano Buono, lo stesso della rivoluzione nella radioterapia oncologica con l’introduzione del farmaco Fdg per la PET, aumentandone  le capacità esplorative e la precisione con il  passaggio ad una radioterapia metabolica.

Tale innovazione è stata mutuata da un brevetto del CERN e punta a sviluppare reattori nucleari di quarta generazione. 2 innovazioni garantiscono circa sicurezza e scorie. Per le scorie il processo base anziché prevedere la cattura dei neutroni lenti da parte degli atomi di uranio con produzione di scorie, si basa invece sulla rottura degli atomi di uranio da parte dei neutroni veloci con produzione di energia (manca dunque il moderatore). La sicurezza invece si affida all’utilizzo del piombo fuso come liquido refrigerante al posto della acqua o del sodio. Il piombo ha il vantaggio di una temperatura di fusione di 327 gradi e soprattutto di una di sublimazione di 1750 gradi col vantaggio che anche in caso di surriscaldamento per lo spegnimento del reattore non si formerebbe la pericolosa nube di idrogeno prodotto dall’acqua e non contenuta dalla struttura del reattore, come avvenuto a Chernobyl e Fukushima.

Di certo però investire sul nucleare impedisce di investire contemporaneamente sulle energie rinnovabili. La prova vivente è la Francia, che ha una penetrazione di produzione di energia da fonti rinnovabili tra le più basse al mondo. Mentre è vero che il costo del combustibile nucleare è piccola cosa rispetto al costo capitale dell’impianto stesso, il combustibile è ovviamente ancora necessario.

Per chiudere con un paragone qualcuno sorriderà nel sapere che c’è 634 volte meno Uranio235 che Litio sul nostro Pianeta. Tutti sembrano preoccupatissimi sui tempi nei quali si potrebbe esaurire il Litio in relazione al suo carattere di componente auto (circa 8 kg a vettura) mentre nessuno si preoccupa del fatto che potremmo esaurire l’Uranio in meno di cento anni!

W la CO2. Possiamo trasformare il piombo in oro? Recensione

In evidenza

Claudio Della Volpe

W la CO2. Possiamo trasformare il piombo in oro?

Ed. Il Mulino, pag. 208 15 euro – 2021

Il libro di Gianfranco Pacchioni che commento qui oggi potrebbe dare adito ad una ambiguità. Il motivo è che in giro si trovano numerosi “difensori” della CO2; anzi che l’aumento di questo gas serra sia da considerare un vantaggio è uno degli argomenti del peggiore negazionismo; purtroppo anche in Italia abbiamo avuto un libro con questo taglio e scritto da due ingegneri che non nomino per non fargli pubblicità.

Diciamo subito che il libro di Pacchioni NON si situa in questa classe di libri; al contrario è frutto dello sforzo complesso e non banale di un chimico che riflette da chimico di razza su questi temi.

Già il sottotitolo, d’altra parte, chiarisce che la CO2 è “il piombo”, insomma una specie chimica che può giocare un ruolo negativo (ricordiamoci che tutto può giocare un ruolo negativo, come diceva il mio mentore Guido Barone, ogni cosa ha due corni o se volete il mondo, la natura è dialettica, contraddittoria).

La prima parte del libro è dedicata a ricostruire la figura chimica della CO2 nei suoi innumerevoli ruoli.

Una cosa da sottolineare è la riscoperta, almeno per l’Italia, di Ebelmen, uno scienziato francese oggi dimenticato che fu il primo scopritore del meccanismo basilare del ciclo del carbonio geologico, il weathering dei silicati, la reazione mediante la quale l’acqua satura di CO2 degrada le rocce silicee assimilandosi come carbonato. Ebelmen scoprì questo processo nel 1845, ma il suo lavoro fu dimenticato e riscoperto solo dopo molti decenni e ancora oggi non è ben assimilato sebbene alcune delle sue conclusioni siano state riscoperte; ma per esempio Arrhenius non lesse mai quel lavoro. E se è per questo si riscopre anche il ruolo di una donna americana, una scienziata poco conosciuta che probabilmente anticipò varie idee sulla CO2 e il clima (ma vedrete voi stessi).

Nei primi tre capitoli il libro racconta la storia della CO2 come molecola. Chi l’ha scoperta, da dove viene, ossia quali processi geologici possono giustificarne l’esistenza, quali processi biologici o chimici la producono e così via. Nel far questo l’autore è costretto a raccontare (e lo fa con grande abilità) la storia geologica del nostro pianeta, che è un argomento affascinante.

Nei capitoli successivi esplora invece la fotosintesi e la storia della sua delucidazione scientifica. Questa parte è molto completa e mi sembra veramente un lavoro ben fatto.

Ovviamente a questo punto l’autore introduce la scoperta e l’approfondimento del global warming e presenta alcune delle numerose prove chimiche che si possono trovare in letteratura. Anche qui la trattazione sebbene non tecnica è completa e piacevole da leggere.

Infine presenta il quadro di cosa si possa fare per affrontare il problema a partire dalle tecnologie rinnovabili ma anche da quelle legate all’assorbimento della CO2 con reazioni “naturali” come la reazione di Sabatier.

Trovo che questa parte avrebbe dovuto essere più attenta alle questioni che nascono dalla applicazione massiva di tecnologie di assorbimento della CO2 dunque per esempio spiegare o introdurre almeno i concetti di EROEI (energy return on energy investment) o di LCA (Life cycle analysis) perché al momento i punti deboli delle rinnovabili e delle tecnologie di assorbimento sono proprio legati non alla loro possibilità, ma alla loro applicabilità estesa, industriale.

Comunque il testo di Pacchioni rimane un ottimo esercizio di lettura per lo studente di chimica o di ingegneria ambientale che volesse informarsi su questi temi, ma anche per il lettore evoluto che non si ferma alla prima difficoltà.

Fra l’altro i limiti generali dei vari approcci sono ben spiegati.

Il compendio di note, immagini e citazioni è sufficiente a fornire una base del tutto sufficiente non solo al lettore evoluto, ma generico, ma anche al lettore che sia specialista di altri settori e voglia farsi un’idea di questi problemi.

Ho avuto modo di partecipare in qualche modo alla formulazione del testo, fornendo dei consigli che l’autore ha, bontà sua, accettato ma questo non mi rende di parte nella valutazione, anche perché l’accettazione è stata parziale e l’autore conserva i suoi punti di vista originali.

Nelle conclusioni l’autore, in modo per me inaspettato scrive delle cose, relative alla storia umana (il ruolo ipotizzabile della grande eruzione di Toba nella storia della nostra specie) che personalmente mi trovano molto d’accordo e che anzi avevo riassunto in un testo che circolò più di dieci anni fa per qualche tempo in ambienti politicamente impegnati della mia zona e nell’associazione ASPO Italia di cui in quel momento facevo parte.

In conclusione trovo il libro di Gianfranco Pacchioni molto ben scritto e interessante e ve ne consiglio caldamente la lettura.

Il nostro blog ha recensito un altro bel libro di Pacchioni.

Chimica e crisi energetica.

In evidenza

Luigi Campanella, già Presidente SCI

Sono sempre più numerosi i settori che dinnanzi alla crisi energetica producono documenti finalizzati ad evidenziare le rispettive specificità rispetto ad un problema assolutamente generale

L’industria farmaceutica si pone il problema quasi etico dell’impegno sociale, ponendosi la questione: se, come è successo, siamo in grado di produrre in un anno un vaccino contro il covid allora non possiamo chiedere ad un paziente malato di cancro di aspettare 10 anni. Per rispondere è stato cambiato qualche modello produttivo.

Bristol Myers Squibb, guidata, unico caso di un colosso USA, da un presidente italiano, Giovanni Caforio, ha per esempio cambiato il modo di fare ricerca, aprendo hub innovativi nei luoghi dove è possibile lavorare insieme ai centri di ricerca migliori al mondo, quindi Seattle, San Francisco, Boston.

Ma la burocrazia resta un freno: durante la pandemia era sufficiente richiedere una riunione alla Food Drug Administration o all’Agenzia Europea del Farmaco per ottenere la convocazione in poche ore, mentre oggi possono volerci settimane o mesi.

C’è poi una specificità che pesa moltissimo, che fa dell’industria farmaceutica un settore unico: nel suo caso i prezzi sono fissati dalle autorità nazionali, quindi senza possibilità di agire sulla leva dei prezzi per ammortizzare i costi maggiori. Purtroppo però questo recupero avviene con una visione solo speculativa incurante degli interessi del paziente

Un altro settore che soffre per i costi delle materie prime legate al superbonus e delle forniture energetiche, fino al 1500 % di aumento, è quello delle costruzioni, sia dal lato delle grandi opere che dell’edilizia privata con aumenti denunciati in alcuni casi fino al 200%. I materiali energivori sono tantissimi praticamente tutti, e la lievitazione dei prezzi induce difficoltà nell’acquisizione di tali materiali, ma a cascata di ogni prodotto che li utilizza.

La ricaduta sulle pratiche avviate in tempi migliori per bonus ed ecobonus è la prima responsabile della crisi del settore edilizia.

Infine anche l’Agricoltura viene colpita per la crisi produttiva delle industrie dei fertilizzanti. Queste hanno scritto alla presidente della Commissione Europea von der Leyen per chiedere una urgente azione sui prezzi del gas perché le chiusure degli impianti di produzione di fertilizzanti faranno aumentare le emissioni globali di carbonio e la dipendenza dell’Europa dai mercati terzi.

La guerra russo-ucraina ha fatto schizzare i prezzi del gas ed ha bloccato le esportazioni di fertilizzanti dai 2 paesi coinvolti direttamente nella guerra che ne sono grandi produttori. Al porto di Ravenna sono arrivate 800 mila tonnellate di fertilizzanti per il 70% da questi 2 Paesi  con un calo del 15% rispetto all’anno prima. Il timore è che gli agricoltori non riescano a concimare ed accettino quello che viene dai campi riducendo rese e qualità o, addirittura, abbandonando l’attività, con la differenza rispetto all’industria  che i campi non possono essere spenti e riaccesi. Qui la chimica può essere un importante supporto indicando la valorizzazione di alcuni sottoprodotti che possono sostituire i concimi tradizionali e sostenere la ricerca scientifica; il problema principale però resta quello dei costi energetici e della  relativa politica di gestione.

Buone e cattive notizie.

In evidenza

Luigi Campanella, già Presidente SCI

Come spesso avviene le notizie sull’ambiente arrivano sempre in coppia: non si fa a tempo a rallegrarsi per quella buona che subito si devono fare i conti con quella cattiva.

Cominciando da quest’ultima è scattato nelle ville di Roma l’allarme ozono: con soglia di allarme a 240 microgrammi per metro cubo ne sono stati rilevati 220. Al suolo l’ozono si forma quando precursori costituiti da inquinanti antropici e composti naturali, in primis i terpeni prodotti dagli alberi resinosi, in un mix estremamente eterogeneo, vengono irradiati dalla luce solare. Le condizioni di intensità di questa e di esposizione alla luce, la temperatura e le altre condizioni metereologiche, la direzione e velocità dei venti sono responsabili della variabilità degli effetti e quindi della concentrazione dell’ozono prodottasi. I valori più alti si raggiungono nelle ore più calde della giornata. La situazione della città, 766 fra auto e motorini ogni 1000 abitanti, di certo è un aggravante.

Da tutto quanto detto si comprende come l’impegno che Roma si é assunta di raggiungere la neutralità climatica entro il 2030 e le zero emissioni entro il 2050 sia gravoso e richieda interventi efficaci e tempestivi.

C’è da dire che in una valutazione dinamica dell’inquinamento quale risulta dall’ultimo rapporto del Kyoto Club e dell’Istituto Inquinamento Atmosferico del CNR la situazione- ed è questa la buona notizia – tende a migliorare, i giorni di superamento dei limiti si sono ridotti, anche in presenza di eventi, come gli incendi, che non sono direttamente correlati all’inquinamento ed al traffico veicolare.

Il covid19 ha agevolato questi miglioramenti con il ridotto traffico e la controllata mobilità

L’estate della pianta aliena.

In evidenza

Mauro Icardi

La condizione di siccità prolungata, la riduzione delle portate nei corsi d’acqua principali, l’aumento di temperatura dell’acqua sono le condizioni che hanno permesso che la pianta acquatica Elodea nuttallii si sia diffusa in buona parte del Nord Italia. Questa pianta acquatica è originaria del Nord America e si sviluppa nei fondali di laghi, stagni e corsi d’acqua poco profondi e a lento scorrimento. In Italia, la pianta è stata rilevata attualmente solo in cinque regioni: Piemonte, Lombardia, Veneto, Friuli-Venezia Giulia, Emilia-Romagna e Provincia di Trento.

Con il termine “invasivo” s’intendono quelle specie aliene, ovvero non autoctone, in grado di mettere in pericolo un ecosistema. La Elodea è stata introdotta in Europa come pianta ornamentale per laghetti, stagni ed acquari. Il fenomeno in sé esiste da sempre, ma è l’incremento consistente di tale fenomeno negli ultimi anni a destare forte preoccupazione.

In questa foto si può vedere la condizione del Po a Torino nella zona dei Murazzi che si trova in prossimità del centro storico.

 Diverse caratteristiche di questa specie di pianta sono tipiche degli infestanti di difficile controllo: crescita rapida, riproduzione vegetativa attraverso frammenti e facile dispersione da parte degli uccelli acquatici e delle correnti. Quando questo genere di pianta colonizza un corso d’acqua può formare strati molto spessi e resistenti, che necessitano di operazioni frequenti di sfalcio e rimozione.  Può ostruire i sistemi di drenaggio, le tubazioni e gli eventuali sistemi di chiuse. 

Un altro problema è che questa pianta infestante sostituisce le specie autoctone che sono di norma il nutrimento per i pesci compromettendo l’equilibrio ecologico ;inoltre, gli strati compatti impediscono l’ossigenazione delle acque.

Un problema del tutto simile si era già verificato negli anni 70 del secolo scorso ed era dovuto all’eccesso di nutrienti quali azoto e fosforo presenti nelle acque reflue, che venivano scaricati nei corpi idrici senza trattamenti di depurazione, o con trattamenti parziali che si limitavano a grigliatura e sedimentazione primaria. Il problema venne risolto con la costruzione degli impianti di depurazione delle acque reflue. Ora si ripresenta con aspetti diversi. Non è solo un problema dovuto all’introduzione di specie non autoctone, ma anche strettamente connesso con la modifica del regime di portata di molti fiumi italiani. Nel caso del fiume Po lo scorrere lento con flusso laminare, e la temperatura elevata delle acque sono condizioni che, come già detto, ne favoriscono il proliferare incontrollato.

Gli sfalci però non sono risolutivi ma si tratta soltanto di un’operazione indifferibile per impedire la marcescenza e putrefazione dello strato di piante cercando così di limitare il problema delle molestie olfattive.

https://www.lastampa.it/torino/2022/07/19/news/la_giungla_sul_fiume_a_un_mese_dallultimo_sfalcio_le_piante_si_riprendono_il_po-5461490/

Come si può facilmente capire, i problemi ambientali sono spesso collegati. E gli effetti finiscono per avere un effetto a cascata. Precipitazioni nevose praticamente assenti, siccità prolungata hanno compromesso gravemente lo stato ecologico dei fiumi italiani. Ripeto il solito appello di sempre: non possono essere solo le soluzioni tecnologiche, che pure ci sono e funzionano, a risolvere questo tipo di situazioni. Ci vuole una mentalità diversa. E questa mentalità deve essere acquisita in primo luogo dall’opinione pubblica che poi dovrebbe fare pressione sulla classe politica. Oltre a questo è fondamentale diffondere una generalizzata educazione ambientale che mi sembra ancora decisamente carente, o mal compresa.  Posso disporre dell’impianto di depurazione migliore al mondo, ma se questo scarica in un fiume che è completamente in secca è evidente che qualcosa non funziona come dovrebbe. Mettere la testa sotto la sabbia, dissimulare la gravità delle situazioni, pensare che tutto si risolverà senza un necessario cambio di atteggiamento nei confronti del nostro modo di vivere su questo pianeta non potrà che portare a fallimenti e delusioni.

Mi prendo la libertà di allegare questa vignetta che ritengo significativa.

L’estate del 2022 dovrebbe insegnarci qualcosa, cerchiamo di ricordarcelo non appena le prime piogge ci illuderanno di vivere la “normalità” a cui tanto aspiriamo.