Fango che respira

Mauro Icardi

Un impianto di depurazione acque reflue è un impianto che raccoglie le acque nere (civili oppure industriali) con l’obiettivo di ridurre la concentrazione di inquinanti a limiti inferiori a quanto stabilito dalla normativa, prima dello scarico in un bacino idrico. 

La sostanza organica negli impianti di depurazione viene valutata normalmente con la determinazione del COD e del BOD5. Il rapporto tra le concentrazioni di questi due parametri fornisce già una buona indicazione della biodegradabilità del refluo da trattare. Per le acque reflue domestiche il rapporto è di 1,5/2, che corrisponde a una biodegradazione facile. Questo rapporto può arrivare al valore di 2,5/3 senza che nella vasca di ossidazione si verifichino problemi particolari.

Nel fango presente in una vasca di ossidazione si forma una piccola comunità di microrganismi in cui si possono trovare i decompositori (batteri, funghi) che ricavano l’energia per il loro sviluppo dalla sostanza organica disciolta nel liquame, e i consumatori (flagellati, ciliati, metazoi, rotiferi) che predano i batteri dispersi e altri organismi.

La presenza nei liquami in ingresso oppure nei reflui conferiti tramite autobotte di sostanze tossiche può determinare la riduzione o addirittura il blocco del reattore biologico. Gli effetti sono la riduzione della qualità dell’effluente in uscita, e un aumento dei costi depurativi per il ripristino delle normali condizioni di funzionamento. Effettuando un test denominato OXIGEN UPTAKE RATE, conosciuto con l’acronimo OUR test, si può verificare il consumo di ossigeno della biomassa, a seguito dell’immissione di un refluo. Il valore di questa misura viene generalmente espresso come: S OUR= mgO2/g*hr. (OVVERO OUR SPECIFICO) dove il termine g  è riferito alla concentrazione di solidi in g nel fango attivo. Per un periodo di circa quindici anni ho effettuato queste prove, dato che sugli impianti dove ho lavorato vi erano sezioni di impianti di trattamento di reflui provenienti dalla ripulitura delle fosse imhoff ancora molto diffuse sul territorio.

Si tratta di un test di misura di consumo dell’ossigeno molto semplice. Che si conduce inserendo in una beuta un tubicino che insuffla aria (è sufficiente un piccolo compressore da acquario con diffusore poroso); e una sonda per la misura dell’ossigeno disciolto. Nella beuta viene messa un’ancoretta magnetica e la si pone su agitatore magnetico. La sonda viene inserita in un tappo di gomma rossa forato per fare in modo che sia a tenuta di aria. Si tratta di una prova di respirazione a “respirometro chiuso”.   Dopo l’effettuazione di diverse prove, avevo stabilito di lavorare su una quantità in volume di fango pari a 300 ml.  Quando si doveva testare un refluo trasportato da autobotte, oppure valutare preventivamente se poterlo ricevere la quantità totale era pari a 220 ml di fango della vasca di ossidazione e 80 ml di refluo da testare. Areavo il liquame fino ad avere nella beuta una concentrazione di ossigeno disciolto di circa 6 mg/L e iniziavo la lettura del consumo di ossigeno ad intervalli di 15 secondi per un tempo totale di 5 minuti.

Questo parametro definito appunto come S OUR (ovvero OUR specifico) veniva rapportato con i seguenti valori:

S OUR <0,1 il refluo aggiunto è tossico;

S OUR ≤ 0,35 deve essere ripetuta la prova;

S OUR > 0,35 il refluo è idoneo al trattamento biologico.

 Come detto prima le condizioni di prova sono state stabilite nel tempo effettuando diversi aggiustamenti, sia in termini di volume che di tempo per la prova. Una procedura identica veniva effettuata nel caso si volesse integrare il funzionamento dell’impianto in condizioni di scarsità di carico organico, magari con aggiunta di reflui ad alto tenore di carbonio quali residui di lavorazione della birra che sono certamente appetibili per i microrganismi, ma il cui dosaggio deve essere accuratamente valutato. In questo ultimo caso è sempre preferibile non fermarsi alla fase di prove di laboratorio e organizzare una serie di prove tramite impianto pilota. La biomassa aerobica contenuta nel fango consuma rapidamente ossigeno se viene alimentata con reflui rapidamente biodegradabili. E i reflui civili normalmente soddisfano questa condizione. In qualche situazione invece, per inconvenienti di vario genere, mi sono trovato in difficoltà. In un caso per un refluo inquinato da idrocarburi per la rottura di una caldaia alimentata a gasolio: il gasolio fuoriuscito era finito nella fossa settica. In un secondo caso per un refluo che era un cocktail incredibile di residui per la pulizia e di olio lubrificante per auto. Un terzo caso per la massiccia presenza di residui di materiale per le lettiere dei gatti (situazione di cui ho già scritto sul blog). In questo caso era ardua la discussione con gli operatori dello spurgo. Trattandosi di materiale conferito in autobotte e non proveniente da condotta fognaria, era per definizione legislativa un rifiuto. Noi respingevamo il carico facendolo proseguire fino ad una azienda specializzata per il trattamento dei rifiuti allora catalogati come tossico-nocivi, con la quale avevamo una convezione. Il carico doveva proseguire dalla zona di Varese fino in Brianza. Questo scatenava discussioni infinite, che potevano durare ore. Ovvio che io non recedessi dalla mia decisione. Ripetevo il test anche tre volte, ma era un’impresa non facile convincere gli operatori. Senza contare che sarebbero stati addebitati costi aggiuntivi per la nuova codifica del rifiuto, che da assimilabile cambiava tipologia.

Nonostante il test fosse sufficientemente rapido, molto spesso i conducenti delle autobotti che effettuavano le operazioni di spurgo erano soliti pressarmi perché erano costantemente in corsa contro il tempo. Io ovviamente dovevo mediare e dovevo cercare di essere molto paziente.

Ma ad uno di loro che era sempre particolarmente frenetico combinai un piccolo scherzo.  Mi feci portare il campione una seconda volta e iniziai la misura con lui presente. Assunsi un’aria perplessa e nel frattempo pronunciavo frasi di questo tipo: “Questa è una cosa che non ho mai visto” e “Ma qui proprio non ci siamo”.

Quando lo vidi sbiancare buttai la maschera e gli feci capire che non era il caso di avere sempre tutta questa fretta, considerato che per facilitare le operazioni di conferimento il test era stato standardizzato a cinque minuti. Gli chiesi anche se nell’intimità avesse la tendenza a sempre essere così veloce. Forse rischiai che la faccenda finisse male. Ma alla fine capì e ci facemmo una bella risata. La piccola lezione gli era servita. Il servizio di ricevimento di reflui da fossa biologica ora è stato centralizzato nella zona sud della provincia di Varese. Ovviamente questo ha ulteriormente provocato i mugugni degli operatori dello spurgo, soprattutto del nord provincia. Da questa vicenda io ho tratto molte riflessioni, sulla gestione dei rifiuti anche nelle nostre case, sull’importanza di essere intransigenti.  La corretta gestione dei rifiuti direi che dovrebbe essere norma primaria per tutti. Ogni tanto incontro la “vittima” del mio scherzo. Regolarmente andiamo al bar per un caffè e invariabilmente mi definisce un rompiscatole. Io lo ammetto senza nessun problema. Ero allora un giovane tecnico della depurazione che usava una chimica pratica e che affrontava i primi problemi a cui doveva dare una soluzione rapidamente. Un periodo davvero molto formativo, sia sul piano professionale che personale.

Energia al metro quadro.

Luigi Campanella, già Presidente SCI

Che ai combustibili fossili debbono essere progressivamente sostituite alternative più rispettose dell’ambiente è un dato ormai acquisito. La scelta fra le alternative non è semplice ed una risposta equilibrata non è facile. Molti sono gli elementi da considerare: da quelli economici a quelli relativi alla disponibilità delle materie prime. Un recente studio di OurWorldinData ha considerato un nuovo ed insolito, ma importantissimo parametro, cioè il consumo di suolo misurato in mq per megawattora annui, m2/MWhanno. I valori riportati sono 0,7 per il nucleare (circa 30 volte meno del carbone), 1.8 per il gas, 1.9 per il fotovoltaico, 12 per l’idroelettrico,14 per il fotovoltaico a terra, 24 per il carbone e 25 per il solare. A margine di questo studio viene rilevato che i pannelli solari posizionati in terra consumano più suolo di quelli sul tetto e che per i materiali del fotovoltaico il cadmio consuma meno suolo del silicio. Il risultato a favore del nucleare non considera gli aspetti di sicurezza ambientale: meno suolo consumato, ma quali rischi per l’ambiente e quali soluzioni per limitarli?


Il discorso si fa più complesso ma il riconoscimento al nucleare di energia pulita assegnato in questi giorni dall’UE può costituire una forte spinta in favore di questa forma di energia. Sulla quale anche la Chiesa è di recente intervenuta, secondo il pensiero di Papa Francesco che ci ha abituato a questi interventi su tutti gli aspetti della nostra vita, superando i limiti degli argomenti tradizionalmente più vicini alla Chiesa. Di recente così attraverso il proprio Dipartimento/Dicastero di competenza, il Vaticano ha detto la sua in tema di energia a partire dalla Pacem in Terris di Giovanni XXIII e dalla forte spinta ecologica contenuta nella Enciclica Laudato sì. Questa ha contribuito in modo significativo alla presa di coscienza di recuperare il valore della cura al pianeta ammalato. La Santa Sede ha sempre guardato alla tecnologia senza pregiudizi o schemi ideologici, puntando sull’integritá della persona e sul suo sviluppo integrale. Ed ora lo stesso atteggiamento viene applicato al caso del nucleare. Così ne viene condannata l’applicazione a scopi bellici considerandone in questo caso persino immorale il solo possesso. Allo stesso tempo per la Chiesa sul piano. delle applicazioni per scopi civili ne giustifica l’uso fatte salve la sicurezza e l’impatto ambientale zero. Che poi rispetto al parametro tempo la soluzione del problema energetico affidata ad una o più centrali nucleari, la cui costruzione richiede un decennio da trascorrere in carenza di risorse energetiche, sia certamente tardiva e non rispondente al superamento di un’emergenza è un altro discorso. Eolico e Fotovoltaico rappresentano soluzioni tecnologicamente mature e realizzabili in tempi molto più ridotti ed anche meno impattanti per gli aspetti di sicurezza. Papa Francesco sul tema dell’energia è tornato parecchie volte per sollecitare la soluzione a favore dei più deboli, più poveri, più esposti, che non hanno le risorse per trovarla, ma lo  ha fatto sempre con il dubbio dello scienziato aperto a nuove scoperte e nuovi risultati. Questo significa che laddove i dati scientifici da cui si parte non siano esaustivi è richiesta una ulteriore riflessione su benefici e rischi a livello ambientale e sanitario. Transizione ecologica, cambiamenti climatici, pace internazionale vanno affrontati insieme; ogni soluzione locale sarà solo un palliativo che non risolve nulla.  

La SCI da grande.

Claudio Della Volpe

La Società Chimica Italiana esiste dal 1909; ora poco più di un secolo forse non sono molti anni per una associazione culturale. Altre società scientifiche, come la Royal Chemical Society, esistono da prima, nel caso specifico dal 1841 o perfino la Royal Society esiste dal 1665, oltre tre secoli.

Diciamo che nel complesso la SCI è una “giovane” associazione scientifica.

Ci si potrebbe a ragione chiedere cosa voglia diventare da grande.

Al momento essa raccoglie poco più di 4000 soci che sono in modo dominante di ambiente universitario; sia i soci di provenienza scolastica che industriale sono minoritari; tuttavia occorre dire che la componente scolastica svolge un ruolo importante soprattutto nelle discussioni e nelle iniziative sulla didattica, mentre la componente industriale di fatti domina in altri ambiti, forse più “profondi”; il fatto che la rivista storica abbia come titolo “La Chimica e l’Industria”, dopo tutto non è un caso, nel senso che il grande pubblico identifica la Chimica come la scienza applicata alle massicce produzioni industriali di molti beni.

Lo sviluppo tumultuoso della chimica a partire dall’inizio del 900 ha segnato un periodo con due guerre mondiali e nel secondo dopoguerra un’epoca che alcuni autori chiamano l’epoca della sintesi.

La chimica con le sue rivoluzionarie conquiste, a partire dalla sintesi dell’ammoniaca a quella della gomma sintetica e dei polimeri, ha rivoluzionato una società che era basata su risorse e materiali di origine essenzialmente naturale; in un primo momento questo ha liberato l’umanità da problemi millenari, a partire dalla fame e dalle epidemie; ma le soluzioni prospettate, sebbene continuino ad essere almeno in parte efficaci, han mostrato pian piano il loro aspetto peggiore; un nostro socio napoletano non più in vita diceva che la Natura ha sempre due corni, è contraddittoria.

Dalla metà del secolo scorso la Chimica è diventata una scienza “nemica” del grande pubblico; un ruolo che nemmeno la fisica della bomba atomica aveva svolto; in Italia la crescita dell’industria chimica nel secondo dopoguerra ha concluso un ciclo iniziato nel primo novecento ed ha lasciato dietro di se un numero elevato di siti contaminati, ben 57, scrupolosamente elencati nella legge 152/2006; una fetta di territorio pari al 3% del totale è oggi inquinata in modo tale che la sua ripulitura non è stata ancora effettuata anche per i costi , ma spesso per la mancanza di metodi efficaci. L’ultimo caso è stato in Italia quello del PFAS, i composti perfluorurati usati nell’industria tessile, ma non solo, che hanno inquinato non solo i territori ma anche i corpi di centinaia di migliaia di persone.

E non basta; esistono luoghi inquinati come le spiagge bianche di Rosignano, che in modo inatteso sono diventate perfino una attrazione turistica, nonostante gli strali che alcune associazioni ambientaliste e mediche (non ancora chimiche) han provato a lanciare.

In tutto ciò, tuttavia, c’è una costante; su questi temi la nostra associazione viaggia a traino; non ci sono stati casi, almeno a mia conoscenza, di iniziative di denuncia di inquinamento, di rischio chimico in cui la SCI sia stata alla guida o se volete almeno fra i capofila del movimento di denuncia o delle iniziative di cambiamento. Nei grandi incidenti chimici, chessò l’ultimo che mi viene in mente, l’incendio della Nitrolchimica, nessun pronunciamento; eppure altri, altre società scientifiche lo hanno fatto.

Perfino sul clima, la cui crisi ha una chiara origine “chimica” nel senso che sono i prodotti della combustione dei fossili a fare da gas serra, la SCI ha stentato a dire una parola chiara; tuttavia su questo tema occorre riconoscere che, dopo una iniziale titubanza, c’è stata una tipologia di iniziativa, una commissione che ha redatto una posizione pubblica scritta e priva di ambiguità, una cosa che in ambito scientifico si chiama un “consensus paper”, una presa di posizione pubblica su temi importanti; è certo stata una iniziativa importante e lodevole, che avrebbe potuto dare la stura ad altre iniziative simili sui vari temi che coinvolgono la Chimica preso l’opinione pubblica.

James Hansen climatologo della NASA arrestato nel 2009 per blocco del traffico durante una manifestazione contro la riapertura di una miniera di carbone.

Ma non ce ne sono state e non ce ne sono ancora le premesse.

Certo a livello mondiale abbiamo avuto molti accordi internazionali di argomento chimico: a partire dall’accordo di Stoccolma sui terribili 12, le sostanze di sintesi più inquinanti, gli accordi sui metalli pesanti, l’accordo di Montreal, e la successiva modifica di Kigali, gli accordi di Parigi sul clima, gli accordi per il controllo delle armi chimiche. Ottime iniziative ma sempre avvenute su una base esogena per così dire; certo un altro esempio virtuoso che ha dato la chimica è stato il ruolo dei chimici nella scoperta del “buco dell’ozono” e delle successive misure concordate a Kigali. In quel caso “alcuni” chimici hanno avuto un ruolo determinante.

Oggi abbiamo varie emergenze planetarie ed anche relative al nostro paese: clima, energia e risorse minerarie, produttività agricola con inquinamento da composti di fosforo e azoto, scomparsa di specie viventi catalizzata dall’inquinamento, inquinamento della plastica nei mari e nel suolo, carenza del riciclo.  In tutti questi argomenti ci sono certamente “alcuni” chimici che fanno da battistrada; dimenticandone tanti altri cito Vincenzo Balzani e Nicola  Armaroli fra i nostri iscritti; ma manca appunto quell’afflato di gruppo, quell’impostazione che porterebbe la Società come tale a schierarsi, a prendere posizione, ad abbandonare una impossibile “neutralità” scientifica. La Scienza non può essere neutra, pensare che possa essere neutra è sbagliato, la scienza deve schierarsi sulla base di quello che sa e contribuire a dare dritte sulle scelte sociali, al prezzo di scontentare alcuni. E questo è il compito che aspetta la SCI da grande, scontentare alcuni per accontentare la scienza che studiamo e amiamo e con essa le esigenze della società nel suo complesso non di una sua parte, casomai più potente o più interessata alla Chimica come strumento produttivo.

Prima dell’incendio. Ricordi del Museo di Chimica di Liebig.

Roberto Poeti

Ho visitato il Museo di Justus von Liebig a Giessen nel 2012. Fui fortunato, perché quella mattina i visitatori erano quasi assenti e il Prof. Manfred Kroeger, membro del C.d.A. della società Justus Liebig di Giessen, che si trovava lì in quel momento, fu tanto gentile da farmi da guida per l’intero complesso del Museo. Fu una occasione unica per apprezzare la ricchezza del museo che solo un chimico come il Prof. Kroeger sapeva far esaltare. La notizia dell’incendio che è scoppiato nell’ala “nuova” del complesso mi è apparsa in tutta la su tragicità quando è stata pubblicata la prima foto scattata, dopo che l’incendio è stato domato, martedì mattina del  6 dicembre 2022.  

La parte frontale dell’aula magna, dove era collocato il grande bancone per le lezioni dimostrative, gli arredi della parete, nonché parte dei banchi sono andati distrutti. Possiamo avere un’idea del danno se confrontiamo l’immagine con le foto da me scattate durante la visita.

Come possiamo vedere dalla pianta del complesso museale, riportata di seguito, l’aula magna è in comunicazione con il laboratorio di analisi, che a sua volta è messo in comunicazione con il laboratorio farmaceutico, la biblioteca e la sala delle bilance. Questi ambienti, soprattutto il laboratorio di analisi, sono stati danneggiati dalla fuliggine, dalle alte temperature e non da escludere dall’acqua. Se c’è un luogo che rappresenta il cuore di tutto quanto il museo, questo è il laboratorio di analisi. La sua costruzione risale al 1839. Si aggiungeva al vecchio laboratorio dove Liebig lavorava dal 1824. L’Università di San Pietroburgo aveva offerto una cattedra di chimica a Liebig con un salario che era più del doppio di quello percepito a Giessen.  Liebig rimase a Giessen ma ottenne in cambio che venisse ampliato l’istituto con una nuova ala che comprendeva anche il nuovo laboratorio di analisi.    

Il nuovo laboratorio venne costruito secondo le indicazioni di Liebig. Occupava un ampio spazio, era dotato di un sistema di cappe aspiranti e di banchi da laboratorio distribuiti in modo che si potesse svolgere sia un intenso lavoro di analisi, sia quello di insegnamento. Divenne un modello di laboratorio che August Wilhelm von Hofmann, che aveva studiato chimica con Liebig, definì “la madre di tutti gli istituti chimici del mondo intero”. Liebig perfezionò in questo laboratorio un metodo di analisi elementare delle sostanze organiche, inventando l’ingegnoso sistema a cinque bolle per assorbire la CO2, chiamato anche “Kaliapparat”, che oggi è rappresentato nel logo della Società Chimica Americana. L’importanza di questo piccolo apparato può essere compresa da un semplice confronto: Berzelius, che Liebig stesso aveva elogiato come il più abile sperimentatore del tempo, era riuscito ad analizzare 7 sostanze in 18 mesi, usando il vecchio metodo. Liebig analizzò 70 sostanze in 4 mesi. Era come se un pedone cercasse di competere con una automobile molto veloce.

 L’aula magna con il laboratorio adiacente sono ripresi in questo film che ho montato e pubblicato su YouTube:

Veduta interna del laboratorio chimico di Justus Liebig

Il laboratorio chimico di Justus Liebig nell’Università tedesca di Giessen fu uno dei più importanti e famosi di tutto il secolo XIX, divenne così famoso il suo laboratorio che non solo vi fecero pratica chimici di tutta Europa, ma accolse anche chimici dall’America. Il dipinto del 1840, che appartiene alla quadreria del museo, è una delle illustrazioni più famose della chimica classica, mostra in modo efficace l’attività che si svolgeva, era un’immersione in un ambiente internazionale, orientato alla ricerca pura, ma non alieno da applicazioni pratiche.  Vi sono rappresentati in modo realistico diversi chimici: in posa all’estrema sinistra è il messicano Ortigosa, le cui analisi avevano corretto certe ricerche dello stesso Liebig, nella  mano stringe il “Kaliapparat”; in piedi intorno al tavolo di sinistra stanno discutendo W. Keller, poi farmacista a Filadelfia, e Heinrich Will, che sarà il successore di Liebig a Giessen; all’estrema destra E. Boeckmann sta scaldando il fondo di una provetta sotto gli occhi di August Hofmann: il primo diventerà direttore di una fabbrica di coloranti inorganici, il secondo fonderà due scuole di chimica importanti, prima a Londra e poi a Berlino.

Dalla Enciclopedia Treccani ho tratto questo significativo passaggio di Marco Beretta alla voce “L’Ottocento:  Chimica e istituzioni”:

« Una cittadina provinciale [Giessen] di poco più di 5000 abitanti la cui unica risorsa erano gli studenti, per di più situata in uno Stato relativamente periferico nella galassia degli Stati tedeschi, non sembrava promettere un grande avvenire alle ambizioni di Liebig di creare una scuola e un laboratorio di chimica quantomeno dignitosi. Le cose, come è noto, andarono diversamente e in pochi anni il suo laboratorio divenne la capitale della chimica mondiale, sottraendo prestigio e autorità alle più celebri scuole di Berzelius, Gay-Lussac e Davy. Studenti di tutti i paesi e di tutti i continenti furono attratti dalla capacità sperimentale e dai metodi innovativi di insegnamento adottati da Liebig. Vi studiarono infatti i francesi Wurtz, Charles Frédéric Gerhardt e Henri-Victor Regnault, i britannici Alexander W. Williamson, Lyon Playfair e James Muspratt, il messicano J.V. Ortigosa e i tedeschi Wöhler, Kopp, August Wilhelm von Hofmann, Volhard, Friedrich August Kekulé per non  citare che i nomi più noti [  Furono allievi di Liebig anche diversi chimici italiani. Ascanio Sobrero frequentò il laboratorio di Giessen nel 1843 dove isolò allo stato puro il guaiacolo ] . Cosa può aver indotto 194 studenti ‒ tanti furono gli stranieri che a vario titolo frequentarono il laboratorio di Liebig tra il 1830 e il 1850 ‒ a spingersi fino a Giessen quando, standosene a Londra o a Parigi, avrebbero potuto disporre di sedi ben più attrezzate e moderne, lo spiega lo stesso Liebig: gli ingredienti principali del successo erano il rapporto di stretta collaborazione che egli era capace di instaurare con ciascuno studente, e la libertà, sia pur guidata, dei loro programmi di ricerca sperimentale. Per completare il quadro si può aggiungere la totale mancanza di distrazioni che offriva Giessen.»

Come si può vedere dall’immagine, il laboratorio si è conservato integralmente. Non c’era il camice da lavoro, si vestiva in tait, come usava anche Liebig. Non c’è da meravigliarsi se si pensa che in tait operavano all’epoca i chirurghi durante le esercitazione con gli studenti nelle aule anatomiche.

Nel complesso museale si è conservato il vecchio laboratorio, indicato con il n°1 nella pianta, che venne colpito da un bombardamento durante la seconda guerra mondiale, per poi essere ripristinato. Non è stato toccato questa volta dall’incendio. È interessante un confronto tra nuovo (1839) e il vecchio laboratorio (1824) per capire il salto compiuto nella organizzazione del laboratorio chimico da Liebig.

Liebig lavorò in questo laboratorio all’inizio con 9 e più tardi 12 studenti. Qui è dove ha posto le  fondamenta della chimica organica. Nel mezzo della stanza è collocata un forno, ricostruito secondo la vecchia pianta, dotato di apparecchiatura del periodo. Il fuoco nel forno era alimentato con carbone; la fiamma di “spirito”, o alcol, era riservata per i lavori più importanti. Non c’erano cappe aspiranti. Se necessario le finestre e le porte esterne erano aperte per creare ventilazione. Si può immaginare che questo veniva fatto di rado durante l’inverno. Già a quel tempo gli esperimenti erano fatti usando sostanze più o meno pericolose, ma impiegando generalmente una larga quantità di sostanza rispetto a quella che sarebbe necessaria oggi. Una difficoltà aggiuntiva era che a quel tempo i chimici dovevano produrre tutti i necessari reagenti da loro stessi o isolarli da prodotti commerciali disponibili grezzi. Questa procedura, per esempio la distillazione di acidi, era eseguita nel piccolo forno, il quale era equipaggiato da una cappa aperta ai lati. È comprensibile che questa mancanza di condizioni igieniche chimiche erano dannose alla salute dei chimici, molti dei quali soffrivano inevitabilmente di problemi di salute cronici.  Lettere dai chimici in quel periodo confermano che essi stessi consideravano i loro frequenti problemi di salute come “malattie professionali”.

Parlano di malattie della pelle, condizioni asmatiche (Liebig), disturbi di stomaco e altre. Anche il sistema nervoso soffriva. Sono descritte fasi di profonda depressione, e generalmente una irritabilità costante viene documentata, per la quale Wohler conia il nome “isteria dei chimici”.

Con il nuovo laboratorio si sanano molte situazioni igieniche e i disturbi associati all’attività del chimico in gran parte scompaiono. È un altro grande merito di Liebig.

Conclusione

Il Museo di Liebig   è una testimonianza storica, per tutto quello che abbiamo visto, di enorme valore. Non a caso è stato candidato per essere dichiarato Patrimonio dell’umanità. Ci auguriamo che possa essere recuperato e restituito ai chimici, e non solo, di tutto il mondo.

Una medicina senza mercato

Claudio Della Volpe

È vero che questo titolo sembra una rivendicazione di un gruppo radicale?

E invece no.

È il sottotitolo di un recente libro scritto da uno dei più famosi farmacologi italiani; Silvio Garattini, fondatore e Presidente dell’Istituto Mario Negri; col titolo, “Brevettare la salute?”  esso riporta la conversazione di Silvio Garattini con Caterina Visco, giornalista, pubblicista e divulgatrice scientifica.

Garattini è un perito chimico, dunque uno di noi, ma laureato in medicina con all’attivo centinaia di pubblicazioni, un vero e proprio prestigio nazionale alla pari dei migliori di noi, farmacologo riconosciuto in tutto il mondo.

È venuto a Trento a parlare del tema del libro su invito dei colleghi di Giurisprudenza della mia (ex) università ed è stato intervistato dai giornali locali; vi segnalo questa intervista

Pochi forse immaginano che i brevetti non sono sempre esistiti; i brevetti in realtà sono nati in Italia, prima nell’antica Magna Grecia (ma duravano un solo anno) ma poi decisamente si sono sviluppati  con l’avvento del capitalismo nel XV secolo; le “litterae patentes” lettere aperte (patent è una parola inglese, ma poi di fatto viene dal latino, solo che ce lo siamo scordato) sono nate tra il 15° e il 19° secolo; secondo Vincenzo Visco, nostro ex-ministro delle finanze (in un articolo del 2021 su Il Sole-24 ore) avevano lo scopo di promuovere la ricerca, gli investimenti, e l’impegno personale, cioè al fine di creare valore per l’intera economia, ma negli ultimi decenni tale logica è stata stravolta.

La prima legislazione europea sul brevetto è contenuta in una parte del Senato veneziano del 19 marzo 1474 (Archivio di Stato di Venezia, Senato terra, registro 7, carta 32):3

«L’andarà parte che per auctorità de questo Conseio, chadaun che farà in questa Cità algun nuovo et ingegnoso artificio, non facto per avanti nel dominio nostro, reducto chel sarà a perfection, siche el se possi usar, et exercitar, sia tegnudo darlo in nota al officio di nostri provveditori de Comun. Siando prohibito a chadaun altro in alguna terra e luogo nostro, far algun altro artificio, ad immagine et similitudine di quello, senza consentimento et licentia del auctor, fino ad anni 9.»

Con la seconda metà del XIX secolo e poi con il XX il brevetto è diventato una base dell’accumulazione di ricchezza, mercificando una gran parte della genialità umana, con la scusa che così se ne sarebbe generata di più; le regole del GATT del 1994 hanno poi santificato un approccio ormai reazionario e che è schierato a difesa della proprietà privata delle idee e delle invenzioni, come meccanismo di generazione del profitto; ma le cose non stanno proprio così.

Nella sua intervista il giovane rivoluzionario Garattini (in fondo ha solo 94 anni) dice con chiarezza che ci sono cose non brevettabili:

“Partiamo da un presupposto: in Italia il brevetto in campo farmaceutico fu introdotto dalla Corte costituzionale nel 1978 per favorire la ricerca e quindi il miglioramento della salute pubblica in accordo con l’articolo 32 della Costituzione. Nel momento in cui, come avvenuto durante la pandemia, esso diventa un ostacolo al benessere generale perde la sua giustificazione giuridica”

Questo è parlare!

C’è chi dice che senza brevetti non c’è stimolo alla ricerca
«Personalmente non ci credo. Va detto che già oggi l’industria farmaceutica non fa più il lavoro di una volta. Io sono abbastanza vecchio da ricordarmeli i centri di ricerca privata di tanti anni fa. Ora non è più così. Il lavoro principale delle aziende adesso è quello di andare a caccia di start-up in tutto il mondo. Molti dei più importanti farmaci sviluppati negli ultimi anni sono nati così. Acquistando il frutto del lavoro di piccoli gruppi di ricerca. Il costo di queste aste viene poi riversato anche sulla sanità pubblica».

Nell’intervista rilasciata a Trento Garattini illustra come, durante la pandemia, l’industria farmaceutica abbia mostrato il suo lato peggiore
«Il Covid ha esposto in maniera forte questo tema. Già a dicembre del 2020 avevamo dei vaccini efficaci che però non abbiamo avuto a disposizione perché protetti dai brevetti. Questo non è stato un problema solo per i paesi in via di sviluppo, ma anche per l’Europa e l’Italia dove le dosi sono arrivate in numeri importanti solo a partire da marzo con quattro mesi di ritardo. Sento che abbiamo sulla coscienza tutte le morti di quei 120 giorni che si potevano prevenire. Dobbiamo evitare che questo si ripeta».

PUBLIC CITIZEN How to Make Enough Vaccine report written by Dr. Zoltán Kis and Zain Rizvi. edited by Peter Maybarduk, Rhoda Feng and Josephine Fonger at Public Citizen. Questo articolo illustra come si sarebbero potuti produrre subito miliardi di vaccini in più evitando molti milioni di morti.

Chiede la giornalista: Tra l’altro quei vaccini furono realizzati grazie anche a un importante investimento pubblico?
«Esatto, e così il pubblico si è trovato a pagare due volte mentre il privato registrava profitti record. Senza contare che le industrie hanno anche beneficiato, gratuitamente, della ricerca che era stata fatta sull’RNA messaggero»

Altro che i novax; l’unica critica seria da fare al comportamento del nostro come di altri governi durante il periodo del Covid è che grazie al meccanismo brevettuale difeso da quasi tutti i governi ed ovviamente dai detentori abbiamo dato al Covid la possibilità di sviluppare nuove versioni e di uccidere altri milioni di persone e lo abbiamo ancora sul groppone.

Abbiamo scritto altre volte di brevetti, per esempio citando come sono stati usati quelli sui PFAS per impedire  a chi ne analizzava gli effetti di prodursi delle soluzioni di riferimento analitico (leggete qui un post di Rinaldo Cervellati). E ci sono molti aspetti specifici per i quali vi rimando ai riferimenti del post (ricerca pubblica, prevenzione, malattie rare, tendenza alla privatizzazione)

Mi rendo conto che per la maggior parte dei lettori di questo blog accettare l’idea che i brevetti (almeno nella loro forma attuale) siano ormai un peso per l’umanità possa suonare come una affermazione scandalosa, ma non mi asterrò dal ripeterlo; nella maggior parte dei casi il brevetto, la detenzione della proprietà di un’idea o di un processo per un periodo multidecennale è ormai un limite alla sopravvivenza ed alla crescita civile dell’umanità, e favorisce sempre e solo chi se lo può permettere, la parte più abbiente dell’umanità.

In modo simile l’accesso ai risultati della ricerca; gli articoli scientifici sono coperti da diritto di proprietà per 70 anni ma di fatti il periodo viene prolungato dai meccanismi della messa a disposizione, per esempio gli articoli di Einstein non sono liberi di essere scaricati nonostante Einstein li abbia pubblicati quasi tutti ben oltre 70 anni fa; ma vi pare serio? E’ il motivo per cui credo che Alexandra Elbakyan, la fondatrice di Sci-Hub sia una vera eroina della nostra specie.

Le attuali regole brevettuali devono essere abolite o completamente riviste, studiando soluzioni etiche, socialmente sostenibili come i brevetti a tempo, la limitazione merceologica della brevettabilità, l’open science. E questo non solo nella medicina, ma anche nelle tecnologie di sicurezza alimentare ed ambientale che rappresentano un mezzo di garanzia e di salvezza per l’umanità: una scienza senza mercato!

La presentazione del libro da parte dell’autore : https://www.youtube.com/watch?v=ZBye-bBJU_U

L’intervista su T: https://www.iltquotidiano.it/articoli/la-sanita-di-garattini-basta-brevetti-le-cure-siano-di-tutti/

Un recentissimo articolo di Nature sul medesimo tema:

Il “bignamino” della depurazione

Mauro Icardi

Mi sono convinto con il passare degli anni, che per lavorare nel settore del trattamento delle acque reflue occorra non solo acquisire delle competenze tramite lo studio e la preparazione teorica. Ritengo molto importante anche l’esperienza diretta sul campo che col tempo aiuta ad individuare con rapidità e sicurezza la causa degli eventuali problemi e malfunzionamenti dell’impianto, permettendo quindi di porvi rimedio oppure di minimizzarne gli effetti. Quando ho iniziato il mio percorso lavorativo in questo settore, mi ero già documentato su uno dei testi che approfondiva la teoria della depurazione biologica, e illustrava la sequenza logica dei vari stadi di trattamento. In questo modo quando il primo giorno di lavoro mi è stato fatto visitare il primo impianto dove avrei lavorato mi sono sentito molto meno a disagio.  Ci sono alcune valutazioni da fare, e alcuni dati indispensabili da controllare giornalmente per ottenere una qualità dell’effluente in uscita che rispetti i parametri di legge. Ma non ci si deve limitare solo a questo risultato. L’acqua scaricata deve il più possibile non alterare gli equilibri ecologici nel corpo ricettore dove verrà reimmessa. Vediamo allora i parametri basilari e fondamentali per il controllo di processo di un impianto di depurazione. Non sono i soli ovviamente, ma sono quelli dai quali non si può prescindere. Voglio anche ricordare che è fondamentale rimanere sempre aggiornati sulle nuove tecnologie e ricerche relative al trattamento delle acque.  La formazione continua non serve solo per ottenere crediti se si è iscritti ad un ordine professionale, ma anche ad approfondire e migliorare il lavoro giornaliero.

Portata di liquame in ingresso.

Parametro chiave per interpretare i fenomeni di depurazione e per attuare tutte le regolazioni a valle che consentono di mantenere il buon funzionamento del processo depurativo. La portata di liquame che entra nel reattore biologico (chiamato normalmente vasca di ossidazione), è direttamente correlata all’efficienza di depurazione del processo biologico.  La portata non è costante nelle 24 ore (a meno che non vi siano sistemi di equalizzazione) ma presenta valori minimi notturni e massimi diurni. Tali oscillazioni possono provocare uno shock al reattore, qualora il tempo di ritenzione idraulico sia eccessivamente limitato (qualche ora), mentre i reattori con tempi di ritenzione di 10 e più ore (perciò gli impianti a basso carico e gli impianti per la rimozione di N e P) diluiscono tali effetti in una grande massa idrica.

Caratteristiche dei substrati in ingresso (COD, BOD, TKN, NH4, N03, P)

La composizione chimica dei liquami in ingresso è uno dei fattori principali, assieme alla portata, che condizionano l’efficienza dell’intero impianto, incluso il sedimentatore finale. Occorre sottolineare che, in taluni impianti, il liquame che entra nei reattori ha subito prima il passaggio in un sedimentatore primario, ed è quindi privo di solidi pesanti e sedimentabili.   In altri impianti, specie i più piccoli, non è sempre prevista la fase di sedimentazione primaria per cui i reattori vengono alimentati con liquame grezzo. Presupponendo una composizione chimica prevalentemente organica dei substrati in ingresso, i parametri di controllo che occorre verificare sono in genere i seguenti: COD totale, COD solubile, BOD5, TKN (azoto totale Kjeldhal), NH4+ N03, N02, P totale, PH, solidi sospesi, solidi sedimentabili.

Bilanciamento dei substrati in ingresso

La biomassa batterica cresce in una miscela nutritiva (il liquame) che contiene generalmente un’abbondanza di sostanze organiche carboniose e una quantità minore di macronutrienti, soprattutto azoto e fosforo, oltre a piccole quantità di Ca, Mg, K, Mn, Fe. Il liquame domestico presenta rapporti di queste sostanze in genere già bilanciati per un’ottimale crescita batterica. Normalmente il rapporto tra BOD: N: P ha un valore pari 200: 5 :1.  Nel caso di alcuni effluenti industriali siamo in presenza di forti carenze di alcuni di essi. Effluenti di zuccherifici e petroliferi sono spesso carenti di azoto e fosforo. Effluenti di allevamenti sono spesso sovrabbondanti di azoto e fosforo. Effluenti industriali nitrici (N03) da denitrificare sono spesso carenti di carbonio. Effluenti industriali con elevate concentrazioni di NH4 + da nitrificare possono essere carenti di fosforo. Le carenze degli effluenti industriali si risolvono spesso immettendo nella miscela le acque dei servizi igienici o della mensa aziendale. Le carenze di carbonio in denitrificazione richiedono dosaggi di sostanze economicamente convenienti come l’acetone, il metanolo o miscele industriali di recupero (prestando attenzione alle impurezze derivate). Le carenze di azoto e fosforo si risolvono con l’utilizzo di sali e soluzioni di uso agronomico (fosfato mono e di ammonico, monosodico o trisodico, acido fosforico, urea). Poiché i dosaggi non sono facilmente teorizzabili occorre effettuare prove di dosaggio in laboratorio, seguite da verifiche su impianto pilota, prima di iniziare i dosaggi operativi.

pH

Questo parametro influenza notevolmente la funzionalità dei processi biologici agendo su diversi meccanismi. Il processo a fanghi attivi opera senza grosse variazioni di efficacia nel campo di pH 6,8 – 8. In genere il valore più comune si aggira su pH 7,5 – 7,8. I valori vengono misurati in continuo all’interno della vasca di aerazione, o in laboratorio su campioni prelevati dalla stessa. Va sottolineato inoltre che il fango attivo è in grado di tamponare brevi immissioni di flussi a pH estremi (da 1 a 11), senza mostrare grandi variazioni di pH nelle vasche di aerazione. Spesso capita che il sistema non mostri di essere stato danneggiato a livello biochimico mantenendo un buon valore di consumo di ossigeno o di altri parametri di attività, ma mostra invece patologie nelle caratteristiche di sedimentazione e biofiocculazione del fango che si manifestano con un effluente torbido e con un’elevata concentrazione di solidi sospesi. Per questi motivi occorre predisporre sistemi di abbattimento per questi veri e propri shock da pH che sono tanto più pericolosi quanto minore è il tempo di ritenzione idraulica della vasca a fanghi attivi.

Temperatura  

La temperatura del liquame influenza il processo a livello biochimico, microbiologico, chimico e chimico-fisico. A fronte di elevate escursioni notte/giorno della temperatura atmosferica, normalmente le escursioni dei liquami di fognatura sono più contenute. Generalmente nei nostri climi la temperatura di un liquame domestico è abbastanza costante (10°C d’inverno e 20°C d’estate) ed in ogni caso senza variazioni repentine nelle 24 ore. In alcune acque di tipo industriale o dove la componente industriale è elevata, la variazione si verifica più frequentemente per cui occorre prevedere sistemi di omogeneizzazione, oltre ad una progettazione più attenta nei confronti del sistema biologico. Per le località montane, specie quelle adibite a sport invernali, può essere a volte necessaria la copertura degli impianti sia per evitare gli inconvenienti dovuti al ghiaccio sia per proteggere l’attività biologica. Per quanto riguarda la grande maggioranza dei batteri dei fanghi attivi, il range ottimo di temperatura si aggira attorno ai 25 °C mentre il campo di massima variabilità oscilla dai 4 ai 40 °C. Per temperature inferiori ai 10 °C si ha un notevole rallentamento della velocità del processo. I processi più sensibili alla temperatura sono quelli dedicati alla rimozione dell’azoto.

L’impatto ambientale di Qatar 2022

Margherita Ferrari*

Lo scorso 20 Novembre si è dato inizio alla Coppa del Mondo 2022, con la prima partita tra Qatar, che ospita il torneo, ed Ecuador. Già a partire dal 2010 il Paese si è preparato ad accogliere per la prima volta i mondiali di calcio ed i suoi numerosi tifosi.

In che modo i mondiali in Qatar sono “Carbon Neutral”? 

Fin da subito, gli organizzatori hanno garantito che sarà la prima Coppa del Mondo ad essere “carbon neutral” ovvero a impatto ambientale nullo o quasi. Per realizzare questa impresa sono state utilizzate nuove tecnologie con cui sono stati costruiti gli 8 stadi, posizionati ad una distanza tra loro che permettesse agli spettatori di poter utilizzare i mezzi di trasporti pubblici, quali metro e linee elettriche, per spostarsi da uno stadio all’altro e dunque ridurre le emissioni. 

Inoltre, uno degli stadi stesso è stato costruito utilizzando container navali, con la possibilità di essere successivamente smantellato e utilizzato in altre occasioni. Infine, la costruzione di un impianto fotovoltaico e la creazione di un vivaio permettono di produrre energia “green” e di assorbire le emissioni di CO2 emesse

Un’altra particolarità della Coppa del Mondo 2022 in Qatar è quella di essere il primo mondiale a svolgersi d’inverno, a causa delle temperature troppo elevate che si registrano durante l’estate in Qatar.

Impatto ambientale e condizioni lavorative

Tuttavia, i mondiali di calcio in Qatar sono stati fin da subito soggetti a numerose polemiche. Da quelle iniziali, relative alle pessime condizioni lavorative a cui gli operai erano sottoposti, a quelle relative all’enorme impatto che ha sull’ambiente. Infatti, sebbene gli organizzatori abbiano da subito dichiarato che i mondiali di calcio 2022 in Qatar sarebbero stati “carbon free”, sono molti coloro che non sono d’accordo. Si stima che la Coppa del Mondo 2022 produrrà circa 3.6 milioni di tonnellate di biossido di carbonio, quasi il doppio di quelli del 2018 in Russia. 

Innanzitutto per realizzare questa impresa, avevano bisogno di molta manodopera e l’hanno trovata in Paesi come Nepal, Bangladesh, India e Libano. Questi lavoratori lavoravano in turni di 12 ore al giorno, 7 giorni su 7, a temperature estreme che in estate superano i 50ºC. Queste condizioni, insieme alla scarsa sicurezza dei luoghi di lavoro, hanno causato la morte di molte persone. 

Molte ONG, come Amnesty International, sono venute a conoscenza della situazione in Qatar e hanno denunciato le condizioni di lavoro nella costruzione degli stadi della Coppa del Mondo. 

Il sistema di raffreddamento degli stadi e le conseguenze sull’ambiente

In aggiunta, una delle ultime polemiche riguarda gli elevati consumi elettrici relativi all’utilizzo di condizionatori all’interno degli stadi.

Sebbene in Inverno il Qatar abbia temperature relativamente miti che si aggirano tra i 17-19 gradi e i 28-30 gradi, per mantenere una temperatura costante intorno ai 20°C all’interno degli stadi, questi ultimi sono stati costruiti in modo da poter incorporare sistemi di aria condizionata sugli spalti.

In particolare, il sistema utilizzato per abbassare la temperatura è il cosiddetto “cooling system”, progettato dall’ingegnere Saud Abdulaziz Abdul Ghani o “Dr. Cool”. Tale sistema prevede l’utilizzo di specifiche “bocchette d’aria” posizionate sotto i sedili di ciascun spettatore e vicino al campo da gioco che gettano aria condizionata. 

Gli organizzatori hanno dichiarato che l’energia utilizzata per il sistema di raffreddamento deriva da energia solare tramite impianti fotovoltaici, tuttavia il report pubblicato dal Carbon Market Watch (e anche https://carbonmarketwatch.org/publications/poor-tackling-yellow-card-for-2022-fifa-world-cups-carbon-neutrality-claim/  )ha dimostrato che gli stadi costruiti per ospitare le 32 squadre nazionali producono elevatissime emissioni di gas serra, dalla loro costruzione fino al loro utilizzo. 

Queste possono essere paragonate a quelle emesse dall’Italia in un anno per riscaldare le case durante l’inverno. In aggiunta, per l’irrigazione dei campi da calcio vengono impiegati circa 10000 litri di acqua al giorno

Considerato l’impatto ambientale dei mondiali del 2022, sebbene gli sforzi degli organizzatori siano stati elevati, questi non sono sufficienti

Fonte: https://energia-luce.it/news/impatto-ambientale-mondiali-qatar-2022/

*Margherita Ferrari è una redattrice del blog Energia-Luce

Rischio batterico e chimica.

Claudio Della Volpe

Ne abbiamo già parlato per esempio qui (vi consiglio di rileggere il post) e qui; ma facciamo ancora il punto.

Cominciamo con una osservazione laterale da usare come riferimento. Secondo i dati ufficiali del Ministero della Salute e dell’OMS riportati nella pagina del Ministero le statistiche essenziali del Covid-19 sono

-nel mondo dall’inizio della pandemia 633.601.048 casi confermati  e 6.596.542 morti (1.04% degli infetti, è il tasso di letalità, ossia la percentuale di morti sul totale degli infetti; ricordate invece che il tasso di mortalità è la percentuale dei morti rispetto ai potenziali soggetti esposti)

-in Europa 264.175.987 casi confermati   2.132.478 morti (0.8%)

– in Italia 24.260.660  casi confermati   181.009 morti  (0.7%).

Come si vede dunque dopo 3 anni di pandemia i morti sono attorno all’1% degli ammalati (e comunque contrariamente alle ridicole dichiarazioni del nostro nuovo governo meno in Italia che in Europa), ossia circa un ordine di grandezza più della comune influenza che nel nostro paese ha fatto cose come 5-6 milioni di casi con 8mila morti (0.13-0.16%) in media ogni anno. Il Covid non è stata dunque una influenza e l’Italia non è stata peggio dell’Europa. Ma non vorrei parlarvi di questo, ma di un pericolo maggiore del Covid e che però non viene percepito con la sufficiente attenzione.

Parliamo dei batteri e in particolare di batteri resistenti agli antibiotici, ma non solo.

Un recente articolo su The Lancet ha analizzato il problema per l’anno 2019.

Published online November 21, 2022 https://doi.org/10.1016/S0140-6736(22)02185-7

L’articolo è uno studio con un amplissimo numero di autori che ha raccolto tutte le evidenze sperimentali relative ai casi di morti per malattie infettive nel mondo ed è stato finanziato dalla Fondazione Bill e Melinda Gates. Tale numero è assommato nel 2019 a quasi 14 milioni di persone. Teniamo presente che ogni anno muoiono circa 140 milioni di persone e che dunque stiamo parlando del 10% circa della mortalità totale.

Nel grafico seguente vediamo a quali batteri sono attribuibili i casi infettivi ed i decessi; come potete vedere a 5 batteri sono attribuibili la gran maggioranza di tutti i decessi per infezione batterica:

Dice il testo:

Nel 2019, ci sono stati circa 13,7 milioni (95% UI 10,9-17·1) di decessi correlati all’infezione a livello globale, con 7,7 milioni (5,7-10,2) di decessi associati ai 33 patogeni batterici che abbiamo studiato. Questi batteri sono stati complessivamente associati al 13,6% (10,2-18,1) di tutti i decessi globali nel 2019 e al 56,2% (52,1-60,1) di tutti i decessi correlati all’infezione per quell’anno. Il tasso di mortalità per tutte le età è stato di 99,6 decessi (74,2-132) per 100000 abitanti collettivamente per questi patogeni. Solo un organismo, Staphylococcus aureus, è stato associato a più di 1 milione di decessi nel 2019 (1 105 000 decessi [816 000-1 470 000]; tabella). Quattro agenti patogeni aggiuntivi sono stati associati a oltre 500 000 decessi ciascuno nel 2019; questi erano Escherichia coli, S pneumoniae, Klebsiella pneumoniae e Pseudomonas aeruginosa (tabella, figura 1A). Questi cinque principali patogeni erano associati al 30,9% (28,6-33,1) di tutti i decessi correlati all’infezione ed erano responsabili del 54,9% (52,9-56,9) di tutti i decessi tra i batteri studiati.

Si tratta di batteri (solo in parte antibiotico-resistenti) e dunque la questione di cui parliamo oggi non è solo la resistenza agli antibiotici ma in genere tutto ciò che riguarda la prevenzione, la individuazione e la terapia delle infezioni batteriche.

Dai numeri stimati dal lavoro potete notare come il numero di medio morti annuali per Covid-19 è stato nettamente superiore a quello anche del più temibile batterio, nel nostro caso S. Aureus, l’unico a fare più di un milione di morti all’anno contro una media di almeno due milioni per il Covid; ma attenzione S. Aureus fa (SOLO) 40 milioni di casi e più di un milione di morti ossia il 2.5% (ancora tasso di letalità) circa, dunque ben peggio del Covid-19; fortunatamente non si diffonde con la medesima rapidità, se no sarebbe 2.5 volte peggiore. Ma perfino l’innocuo E. Coli, il prototipo dei batteri amichevoli, fa 30 milioni di casi e 900mila morti, ossia una letalità ancora maggiore il 3%.

La questione dei batteri resistenti agli antibiotici era stata affrontata dal medesimo gruppone di ricerca in un precedente lavoro indicato qui sotto con risultati sempre molto significativi.

Scrivono gli autori: La resistenza antimicrobica (AMR) rappresenta una grave minaccia per la salute umana in tutto il mondo. Pubblicazioni precedenti hanno stimato l’effetto della resistenza antimicrobica sull’incidenza, sui decessi, sulla durata della degenza ospedaliera e sui costi sanitari per specifiche combinazioni patogeno-farmaco in luoghi selezionati. A nostra conoscenza, questo studio presenta le stime più complete dell’onere della resistenza antimicrobica fino ad oggi…..

Sulla base dei nostri modelli statistici predittivi, ci sono stati circa 4,95 milioni (3,62-6,57) di decessi associati a AMR batterica nel 2019, inclusi 1,27 milioni (95% UI 0,911-1·71)di  decessi attribuibili a AMR batterica. A livello regionale, abbiamo stimato che il tasso di mortalità per tutte le età attribuibile alla resistenza sia più alto nell’Africa subsahariana occidentale, a 27,3 morti per 100 000 (20,9-35,3), e più basso in Australasia, a 6,5 decessi (4,3-9,4) per 100 000.

Le infezioni delle basse vie respiratorie hanno rappresentato oltre 1,5 milioni di decessi associati alla resistenza nel 2019, rendendola la sindrome infettiva più gravosa. I sei principali patogeni per decessi associati alla resistenza (Escherichia coli, seguito da Staphylococcus aureus, Klebsiella pneumoniae, Streptococcus pneumoniae, Acinetobacter baumannii e Pseudomonas aeruginosa) sono stati responsabili di 929 000 (660 000-1 270 000) decessi attribuibili alla resistenza antimicrobica e di 3,57 milioni (2,62-4,78) decessi associati alla resistenza antimicrobica nel 2019. Una combinazione patogeno-farmaco, S aureus resistente alla meticillina, ha causato più di 100000 decessi attribuibili alla resistenza antimicrobica nel 2019, mentre altri sei hanno causato ciascuno 50000-100000 decessi: batteri multiresistenti (esclusa la tubercolosi ampiamente resistente ai farmaci), E coli resistente alle cefalosporine di terza generazione, A. baumannii resistente ai carbapenemi, E coli resistente ai fluorochinoloni, K pneumoniae resistente ai carbapenemi e K pneumoniae resistente alle cefalosporine di terza generazione.

Come si vede il ruolo dei batteri resistenti è alto ma non è l’unico problema; per esempio solo 1/6 circa dei morti per E. Coli è dovuto ai batteri resistenti nelle varie modalità. (notate la differenza fra associati alla resistenza ed attribuibili alla resistenza)

Gli altri problemi sono essenzialmente legati alla difficoltà e al tempo di individuare il batterio responsabile dell’infezione, alla eventuale scarsezza di mezzi clinici, etc. Non si tratta perciò di vincere solo la battaglia dell’uso sconsiderato e troppo ampio degli antibiotici, legato a sua volta all’uso veterinario e dunque al modello produttivo dell’agricoltura intensiva e del consumo assurdo di carne, ma anche alle tecniche per individuare i batteri responsabili di un caso specifico.

In queste due cose almeno la Chimica può e deve dare una mano:

  1.  far ripartire, mentre si riorganizza la catena produttiva del cibo in modo più sostenibile, la ricerca per nuove classi di antibiotici attive sui batteri resistenti a quelli attuali ma usandoli con estremo giudizio e rigore; gridare alla società che usarli male è come non averli!!!
  2. e poi anche mettere a punto metodi veloci di determinazione dei batteri presenti in un caso specifico di infezione, per esempi usando le tecniche Raman (la microspettroscopia Raman in particolare) per classificare i batteri: qui serve lo sviluppo di un esteso database; od altri metodi come quelli proposti nel post indicato all’inizio.

Anche superare il punto di vista dell’antibioticoterapia e anche qui la Chimica è molto importante, ovviamente in un lavoro di tipo collaborativo.

Gli antibiotici come strategia antibatterica non sono unici, si può pensare come minimo ad altre due strategie:

-i batteriofagi, ossia i virus specifici dei batteri, un’idea sviluppata dai Russi a cavallo fra le guerre mondiali (si veda la pagina dell’istituto Eliava di Tbilisi o anche https://it.wikipedia.org/wiki/Terapia_fagica)

-oppure gli inibitori del Quorum -sensing, ossia molecole che interferiscono con le comunicazioni fra batteri specie nelle fasi avanzate di infezione in cui gli antibiotici sono in difficoltà.(si veda la pagina seguente: https://www.microbiologiaitalia.it/didattica/quorum-sensing/)

Sarebbe bello che chi si occupa di queste cose ci aiutasse a capire meglio il ruolo della chimica in questo gioco così complesso che certo non si può esprimere con la semplice distruzione dei batteri con gli antibiotici durante le malattie infettive: ricordiamo che dentro ognuno di noi c’è circa un chilo di batteri (l’1% del nostro peso corporeo, essenzialmente nell’intestino, ma anche sulla pelle); il 99% di questi batteri appartiene a sole 30-40 specie, a causa delle loro minuscole dimensioni cellulari il numero di tali batteri è SUPERIORE a quello delle cellule del nostro corpo, dunque siamo fatti di più cellule batteriche procariote che di cellule umane eucariote; ed infine ultima curiosità E. coli che abbiamo visto così pericoloso in potenza alberga nel nostro corpo con una massa dell’ordine di varie decine di grammi. Pensateci.

Gli antibiotici e la strategia antibiotica, la pallottola magica, una delle glorie della nostra tradizione culturale come chimici si avvia ad un punto morto o comunque critico, non può essere la soluzione finale delle malattie infettive.

Pensare in termini di pallottola magica e basta rischia di portarci fuori strada.

Due parole su COP27.

Luigi Campanella, già Presidente SCI

COP27 si è chiusa con risultati tutto sommato deludenti. Non sono riuscito a disporre del documento finale nella sua versione integrale e mi sono dovuto accontentare del sommario riportato da diversi giornali. Da questo emerge che qualche piccolo passo in avanti è stato conseguito su 4 punti: addio alle fonti fossili, un fondo per perdite e danni, riscaldamento globale entro 1,5 gradi, finanza climatica.

Sul primo punto gli impegni restano i soliti, ma con la brutta novità di un documento proposto dall’India volto a considerare nella riduzione d’uso non solo il carbone, ma anche petrolio e gas, e non accettato dell’Arabia Saudita, così compromettendo la richiesta unanimità. Sul secondo punto la diatriba ha riguardato il termine del fondo: aiuto, come vogliono USA ed Australia o risarcimento come richiesto dai Paesi del Sud del mondo, che hanno addirittura su questo punto creato un movimento e trovato un leader globale nel presidente brasiliano Lula.

L’Europa ha sostenuto la proposta con una buona dose di timidezza, criticando la posizione ambigua della Cina.

Sul terzo punto l’obiettivo è contenere il riscaldamento globale entro 1,5 gradi rispetto all’era preindustriale, ma leggendo si capisce che più di una ribadita espressione di volontà si tratta di un dato di riferimento.

Infine per il quarto punto la promessa di 100 miliardi l’anno dal 2020 in finanza climatica è rimasta fino ad oggi lettera morta. In compenso sono comparsi. nuovi strumenti finanziari come i tassi di interesse per i Paesi in via di sviluppo cioè i prestiti costano molto di più e un maggiore impegno delle banche multilaterali. Questa incerta conclusione contrasta in effetti con l’inizio di COP27 che era sembrato piuttosto concreto nel definire responsabilità ed omissioni

COP27 era partito con la relazione di IRENA (Agenzia Internazionale per le Energie Rinnovabili) che ha subito posto sul terreno alcune domande precise condensabili in: quanto realmente facciamo nel campo delle rinnovabili rispetto alle loro potenzialitá? La relazione si dà anche una risposta che purtroppo è sconfortante. Dei 195 Paesi presenti12 nemmeno citano questo tipo di energia e degli altri solo 143 hanno prodotto piani di decarbonizzazione tramite obiettivi precisi e quantificabili e solo 12 riportano target rinnovabili a livello di mix energetico. La nuova analisi rileva che gli obbiettivi rinnovabili 2030 fissati attualmente porteranno ad una capacità verde installata di 5,4 TW a livello mondiale, la metà di quanto previsto dallo scenario predisposto dalla stessa IRENA per rispettare gli impegni di contenimento del riscaldamento del globo.

Il gap però non deve considerarsi incolmabile, richiederebbe per sanarlo un incremento di capacità installata da tutti Paesi di 259 GW l’anno per i prossimi 9 anni. L’Agenzia sottolinea come per riscaldamento, raffreddamento e trasporto che rappresentano l’80% della domanda globale di energia di fatto non siano stati fissati target. Nel frattempo dinnanzi a Bruxelles che chiede ai Paesi Eusopei che la percentuale di rifiuti conferiti in discarica non superi il 10% purtroppo il nostro Paese,che pure primeggia nel riciclo di vetro, carta e plastica, sta molto indietro. Mancano 30 impianti per chiudere il ciclo dei rifiuti. Si assiste così al turismo dei rifiuti con 120 mila spedizioni medie annue. C’è poi la spaccatura fra Nord Italia, Centro e Mezzogiorno: al Nord c’è un numero congruo di impianti, ma al Centro si misura un Deficit di almeno 2,4 milioni di tonn. Senza impianti di digestione anaerobica e termovalorizzatori non è possibile chiudere il ciclo dei rifiuti in un’ottica di economia circolare. La raccolta differenziata per il riciclo e gli impianti, per un certo tempo visti in contrapposizione sono invece alleati: se prevale uno dei 2 prevale anche l’altro. Un ulteriore vantaggio della installazione sarebbe la produzione di bioetanolo attraverso i rifiuti organici e di elettricità attraverso i termovalorizzatori, abbassando il fabbisogno nazionale di domanda energetica del 5% anno.

https://www.lifegate.it/cop27-reazioni-giudizio

https://www.staffettaonline.com/articolo.aspx?id=370719

(articolo dell’ormai 90enne GB Zorzoli, sempre chiarissimo, chi lo vuole per esteso contatti CDV)

Recensione. Clima 2050.

Marco Taddia

La matematica e la fisica per il futuro del sistema Terra

di Annalisa Cerchi, Susanna Corti (Zanichelli, Bologna, 2022)

p. 168 euro 13

Un recente articolo di  Nature, datato 21 novembre 2022, dedicato agli aerosol atmosferici che rendono di cattiva qualità l’aria di alcuni tra i paesi più poveri e popolati della Terra (https://www.nature.com/articles/d41586-022-03763-9 e attribuisce loro una responsabilità precisa negli eventi estremi, aggiunge un’altra incognita ai temi climatici. Non si sa, purtroppo se tali aerosol sono destinati ad aumentare, diminuire o stabilizzarsi. L’incertezza a tale proposito, per quanto riguarda i prossimi 20-30 anni, è grande e non sappiamo se essi contribuiranno ad aumentare di 0,5°C la temperatura nel 2050. Se l’effetto degli aerosol si farà sentire è in dubbio, mentre per quanto riguarda il riscaldamento globale nel suo complesso le idee sembrano più chiare, anche dal punto di vista economico. Un report del Deloitte Center for Sustainable Progress diffuso durante il World Economic Forum di Davos (giugno 2022) ci ha informato https://www2.deloitte.com/xe/en/pages/about-deloitte/press-releases/deloitte-research-reveals-inaction-on-climate-change-could-cost-the-world-economy-usd-178-trillion-by-2070.html che senza intervenire sui cambiamenti climatici i costi sull’economia globale ammonterebbero nei prossimi 50 anni a ben 178 trilioni di dollari USA, ovvero un taglio del 7,6/ sul GDP nel 2070.

Le previsioni quindi non sono incoraggianti e lo sappiamo da anni. Alla fine di novembre dell’ormai lontano 2015, in vista dell’apertura della conferenza COP 21 (Parigi, 30 novembre-12 dicembre), commentando l’Annual Report della società DNV GL (https://www.dnv.com/Publications/dnv-gl-annual-report-2015-64621) , notoriamente uno dei più importanti enti di certificazione, i giornali ne traevano conclusioni piuttosto fosche prevedendo per il 2050 un mondo sotto pressione, con il 60% degli ecosistemi a rischio, temperature in aumento tra i 3 e i 6 gradi centigradi, mari più alti di un paio di metri, 200 milioni di ‘rifugiati climatici’, una domanda di energia elettrica aumentata del 57% e coperta ancora per l’81% dai combustibili fossili.  Tutto ciò per dire che vale veramente la pena interrogarsi, ricorrendo all’aiuto di chi conosce la scienza del clima, su un futuro che poi non è così lontano come sembra. Ci viene in aiuto questo libro, che giunge a proposito nella popolare collana ‘Chiavi di lettura’ dell’editore Zanichelli, a firma di Annalisa Cherchi e Susanna Corti che si intitola proprio ‘Clima 2050 – La matematica e la fisica per il futuro del sistema Terra’ (Bologna, 2022). I loro nomi sono una garanzia di competenza perché entrambe lavorano presso l’Istituto di Scienze dell’Atmosfera e del Clima (ISAC) del CNR e, nel febbraio 2018, sono state selezionate come Lead Author per il sesto rapporto dell’Intergovernmental Panel on Climate Change pubblicato ad agosto 2021. La Corti è anche Executive Editor di Climate Dynamics, rivista di Springer Nature. Il libro consta di sei capitoli che dopo aver chiarito la differenza fra meteo e clima, spiegato l’effetto serra e come si osserva il clima che cambia, si occupano nell’ordine del clima del prossimo futuro, di fisica e matematica del clima, di cambiamenti climatici e loro conseguenze e della collaborazione in atto a livello internazionale specialmente a livello IPCC.  Viene da dire, finalmente! Era ora che qualcuno che ci spiegasse in termini chiari e concisi, senza supponenza e con toni pacati, tutto ciò che può orientarci nella valutazione delle tante informazioni, talora contradditorie, che ci vengono fornite dai media. Sfogliando il libro, un paio di grafici che troviamo alle pp. 34 e 35 attirano subito l’attenzione del lettore. Il primo mostra l’andamento della temperatura media superficiale globale rispetto al periodo di riferimento, ovvero la differenza rispetto alla media 1850-1900. Si può notare che la tendenza al riscaldamento lineare negli ultimi cinquant’anni (0,15°C per decennio) è quasi il doppio di quella degli ultimi 150 anni. L’altro grafico mostra invece che le temperature osservate combaciano con quelle ottenute dai modelli solo se questi considerano le attività umane. In conclusione, gli elementi forzanti di origine naturale non sono sufficienti a spiegare il riscaldamento degli ultimi decenni. Le autrici ci spiegano che i modelli climatici completi si basano su leggi fisiche rappresentati da equazioni matematiche, qui riportate, che vengono risolte utilizzando una griglia tridimensionale del globo (fig. 7, p. 42). Nel cap. 5, relativamente alle conseguenze, aggiungono anche che il cambiamento climatico non riguarda tutte le parti del globo in modo uniforme ma piuttosto che è possibile identificare pattern caratteristici nel cambiamento di temperatura e precipitazioni.

    Il libro contiene anche un elenco delle fonti consultate, una parte intitolata ‘4 miti da sfatare’ e alcune pagine interessanti dal titolo ‘Forse non sapevi che’. Proprio tra i miti da sfatare, ad esempio che sia troppo tardi per agire contro il cambiamento climatico, le autrici lanciano un messaggio di speranza:   Non è assolutamente troppo tardi e non lo sarà per decenni. La nostra azione o inazione, determinerà quanto il mondo si scalda. A questo proposito ricordiamo che si è conclusa da poco la COP 27 di Sharm el-Sheikh con l’approvazione da parte dell’Assemblea Plenaria di un documento finale che presenta anche qualche aspetto positivo. Per quanto riguarda il riscaldamento globale l’obiettivo di contenerlo entro 1,5 gradi è stato mantenuto, così come è stata apprezzabile l’istituzione di un fondo per i ristori delle perdite e i danni dei cambiamenti climatici nei paesi più vulnerabili, mentre per altri aspetti i risultati sono stati deludenti. Si rimanda ad altri contributi apparsi sulla stampa per un esame più dettagliato dei risultati. Secondo Frans Timmermans, vicepresidente della Commissione Europea, essi non sono sufficienti a contrastare  i cambiamenti climatici e a mitigarne gli effetti. In particolare, il documento non dice niente sulla riduzione o eliminazione dei combustibili fossili. Si alternano quindi allarmi e speranze, studi e inchieste, previsioni e smentite con il risultato di confonderci talvolta le idee.

    Al termine della recensione di un libro denso di contenuti ma agile nella forma, che preferisce ai toni apocalittici e agli anatemi toni persuasivi, piace ricordare l’impegno, la passione e la  mobilitazione di tanti giovani tesa a sollecitare un’azione più decisa dei governi  in questo campo. Alcuni, lo hanno fatto anche con la musica e la poesia e, se volete ascoltare le loro voci, eccoli qui: https://www.youtube.com/playlist?list=PLNGYdFUDxjh0rpIwuhK3m1_p6vY1DxZDt.

Questa recensione è apparsa anche sul web journal del Gruppo 2003 per la ricerca scientifica al quale l’Autore collabora con regolarità

http://www.scienzainrete.it/autori/taddia/371