Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.
E’ appena morto un grande chimico ed anche un grande ricercatore.
James Lovelock, ci ha lasciati alla bella età di 103 anni esatti; era infatti nato il 26 luglio del 1919.
Conobbi questa figura grazie ad una delle persone che hanno influito sulla mia formazione, PAT, ossia Pierandrea Temussi, che molti anni prima di altri, ne apprezzava l’opera e l’ingegno.
Lovelock nei primi anni 60 del secolo scorso era già famoso nell’ambito chimico per aver inventato uno dei più sensibili ed importanti rivelatori per gascromatografia, il rivelatore a cattura di elettroni.
Una lamina d’oro ricoperta di isotopo radioattivo 63Ni, viene utilizzato come sorgente di raggi β, ovvero elettroni veloci che ionizzano il gas di trasporto, producendo elettroni lenti e ioni positivi che ci danno un determinato valore di corrente. La lamina radioattiva costituisce l’anodo e gli ioni generati vanno a chiudere il circuito producendo un segnale elettrico. Composti contenenti atomi elettronegativi, fortemente assorbenti il flusso di elettroni lenti tra la sorgente ed un rivelatore di elettroni, possono essere rilevati via via che effluiscono dalla colonna gascromatografica. Infatti queste molecole catturano gli elettroni lenti che si generano dalla ionizzazione del gas di trasporto e quindi vanno a ridurre la corrente di fondo che normalmente si genera essendo queste ultime di minore mobilità. I picchi di conseguenza sono negativi, ossia comportano una diminuzione della corrente e questa diminuzione sarà proporzionale alla quantità di ioni prodotti e quindi alla concentrazione della sostanza presente nel campione.
Questa geniale, e tutto sommato semplice, idea lo rese ricco e gli consentì di fare il “libero” ricercatore.
Ricordiamo qui alcune delle sue più importanti intuizioni.
La prima, suggerita dalla sua collaborazione con la NASA sul problema dell’esplorazione di Marte è stata sviluppata insieme ad una biologa Lynn Margulis, famosa per la sua teoria dello sviluppo “cooperativo” della cellula eucariota, una teoria olobiontica, in conflitto concettuale con l’applicazione pedissequa della teoria darwiniana. Ed insieme ad Andrew Watson, un biogeochimico inglese. Sto parlando della cosiddetta ipotesi Gaia; la biosfera come enorme sistema dinamico che ha molti meccanismi di retroazione negativa e dunque appare come un sistema complessivamente autoregolato, tendenzialmente omeostatico; attenzione a non confondere questa ipotesi, che è matematicamente espressa dai vari lavori pubblicati su Daisyworld “il pianeta delle margherite”, con una visione teleologica o perfino religiosa; probabilmente il nome dell’ipotesi, che di fatto in modo meno formale era stata avanzata da altri, per esempio da Vernadsky, uno dei padri fondatori dell’ecologia, ripeto il nome non ha giovato a favore di questa visione che comunque è diventata, grazie alla disponibilità di modelli matematici complessivi dell’ecosistema una visione comunemente accettata.
Un sistema con un attrattore forte, mostra molte delle caratteristiche di Gaia; per esempio guardiamo alla attuale crisi climatica attraverso questo tipo di modello; da una parte vediamo che il sistema biosfera cerca continuamente una stabilità attorno a valori delle variabili fondamentali, dall’altra vediamo che le transizioni fra i vari stati possono essere brusche e forti; riporto qui due grafici di fase costruiti su questa idea; il primo dai lavori di Westerhold sulle transizioni della terra recente, nel Cenozoico, negli ultimi 50 milioni di anni, l’altro di Etkin sulla transizione in corso; e si vede sempre che il sistema Terra ha degli attrattori forti dai quali si separa in modo non banale ma sempre cercandone altri, un sistema fortemente retroazionato dunque.
Science Journals — AAAS
Westerhold et al., Science 369, 1383–1387 (2020) 11 September 2020
Etkin applicando idee analoghe mostra come nel medesimo spazio bidimensionale di Westerhold, temperatura contro concentrazione dei gas serra, il sistema stia subendo una veloce transizione che non sappiamo ancora dove ci porterà, alla faccia di tutti gli ignoranti difensori di analisi solo numeriche (per capirci ai vari Battaglia, Scafetta, Prodi) che sostengono che non sta succedendo nulla.
Termino questo brevissimo ricordo con un’altra idea originale che dobbiamo a Lovelock, quella sul ciclo dello zolfo e la sua relazione con l’oceanografia, la cosiddetta ipotesi CLAW.
In questo caso Lovelock suggerì che il composto DMS, dimetilsolfuro, prodotto dal plancton oceanico svolga un ruolo chiave nel controllo delle precipitazioni; anche la ipotesi opposta che ci sia un meccanismo di retroazione positiva può in realtà essere riconsiderato in modo unitario semplicemente in un modello matematico espresso dalle stesse equazioni del pianeta delle margherite come suggerito di recente da un brillante studente di UniTrento in una sua tesina, (Deidda Paolo, DMS chemistry in the marine troposphere and climate feedbacks).
Lovelock è stato sempre uno spirito libero ed ha espresso alcune delle contraddizioni più evidenti del movimento ambientalista; ne ricordo per concludere un paio;
Quando fu scoperto il buco dell’ozono ed il ruolo dei composti clorofluorocarburi Lovelock sostenne a lungo che non c’era problema, che il sistema si sarebbe difeso bene; ma a noi umani interessavano alcuni effetti specifici (come l’aumento dei cancri della pelle) che per nostra fortuna hanno portato agli accordi di Montreal e poi di Kigali (interazione fra buco dell’ozono ed effetto serra)
Lovelock ha sempre difeso l’energia nucleare sostenendo che contro il GW questa era l’unica risposta possibile, fondò perfino una società di ambientalisti per il nucleare; anche qui il tempo ha dimostrato che aveva torto, la fissione costa ormai più del PV e dell’eolico con accumulo e a parte i problemi di decommissioning, non appare più così attraente per l’umanità.
Ma quale grande mente non ha anche sbagliato? Newton fu per la maggior parte della sua vita un sostenitore della alchimia, Galileo difese una teoria erronea delle maree; ma non li valutiamo per questi loro errori; e così dobbiamo fare per Lovelock.
James che la terra ti sia lieve!
PS Luigi Campanella mi segnala che nell’ultimo saggio di Lovelock, L’età dell’Iperintelligenza è contenuto il suo testamento spirituale dove viene ipotizzato l’avvento di una nuova era in cui la specie umana terrestre sarà costretta ad abdicare in favore delle macchine intelligenti vista la raggiunta inabitabilità della terra. Come noi non piangiamo per le specie della cui scomparsa siamo responsabili, così le macchine non piangeranno per la nostra scomparsa. Era un ragazzaccio!
Quando si parla di acqua generalmente lo si fa con riferimento alle carenze, agli sprechi, ai trattamenti, ma c’è un aspetto fisiologico che merita di essere considerato accanto a quelli più tradizionali. Il fegato ad esempio ha bisogno dell’acqua per rilasciare il glicogeno, la nostra riserva di carboidrati che viene frammentata a glucosio, utilizzato poi dal nostro organismo come carburante. Ma l’acqua ha numerose altre funzioni: regola la temperatura corporea, elasticizza le mucose, lubrifica le articolazioni, favorisce la digestione e il trasporto dei nutrienti, rimuove le scorie metaboliche ed altro ancora. Il nostro corpo, a seconda dell’età, dal 75% nei bambini al 50% negli anziani, è costituito da acqua sicché – ad esempio nel mio caso, peso ed età considerati -circolano dentro di me circa 40 litri di acqua.
La maggior parte è contenuta all’interno delle cellule, circa 2/3, il rimanente intorno alle cellule e, circa il 10%,nel sangue, la cui parte liquida, il plasma ne rappresenta il 55%. Da quanto detto si comprende come la disidratazione del nostro corpo rappresenti un pericolo e che perciò va assolutamente reintegrata l’acqua che eliminiamo ogni giorno attraverso sudorazione (circa 1 l), urina (circa 700 ml), tanto da consigliare i tradizionali 2l di acqua da assumere giornalmente sia come tale sia come alimenti ricchi di essa, frutta e verdura in primis. Il bilancio idrico non si può separare da quello elettrolitico: gli elettroliti sono i sali minerali contenuti nei liquidi biologici e, per il corretto svolgimento di tutte le funzioni organiche, è fondamentale che essi mantengano una concentrazione adeguata. All’interno della cellula troviamo una quantità prevalente di potassio, mentre all’esterno il sodio è l’elettrolita preponderante. Quando l’organismo avverte una variazione nella quantità di acqua totale o nella concentrazione dei sali mette in atto dei meccanismi di compensazione, basati essenzialmente sull’assunzione (processo della sete) o sull’eliminazione (urine, sudore) di liquidi. Ad esempio, quando mangiamo un pasto molto salato (es. pizza) la concentrazione di sodio nei fluidi corporei aumenta e i centri ipotalamici della sete vengono stimolati e ci inducono a bere, mentre i reni sono spinti a espellere meno acqua. A regolare il bilancio idroelettrolitico entrano in gioco strutture endocrine come l’ipotalamo, luogo dei centri della sete, l’ipofisi, i surreni, con la secrezione rispettivamente degli ormoni vasopressina e aldosterone. L’idratazione del corpo umano può essere misurata con un apposito test, il test bio-impedenziometrico per il quale vengono applicati degli elettrodi sulle mani e sui piedi. Lo strumento induce il passaggio di una lieve corrente elettrica attraverso il corpo e viene misurata la resistenza offerta dall’organismo a questa corrente, dal cui valore si ricavano poi tutti i dati richiesti dal test.Il monitoraggio del livello di idratazione e oggi possibile con una app che permette di notificare agli utenti quando il livello d’acqua nel corpo si abbassa troppo; può ,inoltre, fornire un report dei liquidi che la persona ha consumato durante il giorno e misurare automaticamente l’assunzione d’acqua proveniente da cibi e bevande tramite un sensore di impedenza, che viene utilizzato per misurare il livello complessivo dei liquidi presenti nel corpo di una persona. I risultati vengono visualizzati su uno smartphone e le persone vengono avvisate mediante una notifica su display, spingendo l’individuo ad assumere più acqua se il livello di liquidi nel corpo è troppo basso Il firmware per il monitoraggio è parte della app . La tecnologia prende anche in considerazione l’attività fisica della persona e calcola la quantità di calorie bruciate.
Il CNR ha lanciato un allarme, ripreso oggi dalla stampa, circa i pericoli per i nostri siti storico artistici outdoor, a partire dal Colosseo, Fori, Vittoriano e dall’Altare che derivano dai cambiamenti climatici, dai loro effetti ma anche dalle loro cause, prima fra tutte l’inquinamento.
Alessandra Bonazza, ISAC_CNR, coordinatrice della macroarea di ricercai su Ambiente, Beni Culturali e Salute Umana”.
I processi responsabili di questa condizione di pericolo sono di natura principalmente chimica, ma anche fisica e biologica e mi piace in quanto professore di chimica dell’Ambiente e dei Beni Culturali ritornare su questo allarme cercando di spiegarne i contenuti.
La situazione ambientale che si correla a questo allarme è caratterizzata da temperature anormalmente elevate, gradi di umidità molto alti, concentrazione di inquinanti sempre sopra o al limite dei valori di soglia.
I materiali dei Beni Culturali sono tradizionalmente classificati in lapidei, metallici, cellulosici, pittorici, ceramici, vetrosi, plastici. A seconda del tipo di materiale cambiano i nemici primari, ma possiamo dire che due sono comuni: umidità ed acidità atmosferica, in quanto sempre comportano la dissoluzione dei materiali di base e la distruzione del bene artistico. Nel caso poi dei materiali lapidei la trasformazione dei carbonati (di cui sono per la maggior parte costituiti) in solfati per l’azione di uno dei nemici comuni, l’acido solforico, non solo porta alla volgarizzazione a gesso di materiali preziosi come i marmi, ma anche alla capacità di rendere una superficie a scarsa affinità assorbente come il marmo, in una capace di assorbire il particolato atmosferico producendo su di essa le croste nere. La negatività di queste croste non è solo estetica: esse rappresentano una discontinuità materica con il risultato che in corrispondenza di forti riscaldamenti si creano delle disomogeneità di dilatazione che innescano fratture pericolose.
Al di la del problema croste nere l’acidità atmosferica accoppiata con la forte umidità comporta in ogni caso reazioni di dissoluzione, così il carbonato del marmo si scioglie come nitrato in presenza di acido nitrico, i cui precursori gli ossidi di azoto, vengono prodotti dagli autoveicoli o come cloruro per azione dell’aerosol marino ricco di cloruro. La dissoluzione avviene anche a carico dei materiali ferrosi che si sciolgono come sali o dei materiali più aggredibili degli altri come cellulosici. Nel caso dei primi come carta e legno: i polimeri cellulosici vengono frammentati dal processo di idrolisi acida e portano al degrado del materiale di base; la chimica dei Beni Culturali ha studiato e spiegato l’aggressione da parte delle condizioni create dai cambiamenti climatici anche nel caso di materiali meno tradizionali dei BBCC, in particolare ceramiche, mosaici, materie plastiche. Le reazioni sono sostanzialmente di due tipi: acido/base di cui abbiamo parlato e complessazione. Queste ultime si basano sulla caratterizzazione chimica dei vari composti in elettron-attrattori ed elettron-repulsori portati ad interagire gli uni con gli altri: fra i primi i metalli, tra i secondi molti dei composti naturali ambientali.
Accanto agli effetti fisici, in particolare termici, e chimici si deve ricordare che esistono anche processi biologici che attraverso la modulazione delle colture microbiche portano a situazioni aggressive. Ed infine i batteri sono organismi che per la loro capacità di colonizzare differenti ambienti, per le proprietà di resistere a situazioni avverse e crescere in condizioni limitanti sono tra i principali agenti di deterioramento dei beni culturali e delle opere d’arte.
Nel raccogliere i materiali per questo post, in cui vi parlo del cinquantenario della conferenza ONU sullo Human environment che vide la costituzione del programma Onu sull’ambiente (UNEP) e delle iniziative che si sono sviluppate a riguardo ho cercato di ricostruire un po’ l’ambiente culturale di quel momento.
Erano anni tumultuosi che seguivano l’esplosione sessantottina nel mondo, ma anche anni in cui si erano fatti strada idee e concetti rivoluzionari; basti pensare che quel medesimo 1972 vide la pubblicazione di Limits to growth, l’opera collettiva, voluta dal Club di Roma , fondato da Aurelio Peccei (un manager FIAT) e portata avanti dalle menti più brillanti dell’MIT, i coniugi Meadows, Jorgen Randers; la nostra folta rappresentanza a quella conferenza era capeggiata da un ministro democristiano (dell’Università), Fiorentino Sullo, un democristiano abnorme che aveva legato il suo nome ad una proposta di legge (data 1963!!) che vi ricordo più avanti e che non passò e alla cui sconfitta dobbiamo molti dei disastri cosiddetti “naturali” che poi si sono verificati nel nostro paese.
La riforma prevedeva la prevalenza, nella pianificazione urbanistica, dell’interesse generale rispetto a quello privato. La rendita è un guadagno non legato al lavoro, bensì al semplice possesso di un terreno, che per qualche ragione aumenta di valore. L’aumento è legato al fatto che un PUC stabilisce che in quel terreno, dove prima non si poteva costruire, ora si può. In linea di massima, questo atteggiamento ha fatto del male alle città, a chi ci abita ed al paesaggio. Fiorentino Sullo voleva riportare quella rendita nella sfera del pubblico, mediante uno schema di appropriazione pubblica della rendita. Per dare un senso della portata della riforma, si sappia che il tentativo di colpo di stato del generale De Lorenzo, progettato in quegli anni, non aveva come obiettivo principale il centrosinistra dei primi anni sessanta, come molti hanno scritto e sostenuto, bensì la riforma Sullo.
Non so se sia credibile l’ipotesi sul colpo di stato De Lorenzo, “il tintinnar di sciabole”, ma quel che è certo è che esistevano nel nostro paese, come in molti altri, menti sveglie che avevano compreso come lo sviluppo del dopoguerra non era tutto rose e fiori e doveva essere gestito e controllato con una programmazione pubblica, che sottolineasse gli interessi collettivi e li considerasse prevalenti su quelli privati (art. 41 della Costituzione).
Se ci pensate la situazione è del tutto cambiata oggi e quel generoso tentativo è stato sconfitto.
Il pensiero unico del PIL oggi è l’idea prevalente di mondo; non abbiamo ministri che si battano per interessi collettivi. La Costituzione è subordinata a regole “europee” che prevedono che il mercato e il profitto siano l’elemento dominante.
Oggi abbiamo un ministro dell’ambiente e della transizione tecnologica che è un “tecnico”, un manager, in aspettativa, della maggiore industria italiana di armi, la Leonardo, dei cui conflitti di interesse ambientali abbiamo già parlato in altro post, e nessun italiano figura fra gli autori dei testi e degli articoli di cui parleremo. Alla conferenza di commemorazione UNEP la capodelegazione era un sottosegretario, Ilaria Fontana.
Nature ha celebrato il 50esimo della fondazione UNEP con un breve articolo (Nature | Vol606 | 9June2022 | p. 225 ) intitolato Why are world leaders ignoring sustainability? di cui vi riporto il testo integrale.
Cinquant’anni fa, le Nazioni Unite tennero la loro conferenza sull’ambiente umano a Stoccolma. Questo evento storico ha dato al concetto di sviluppo sostenibile il suo primo riconoscimento internazionale. La Svezia e l’ONU hanno segnato l’occasione la scorsa settimana con un incontro commemorativo, Stoccolma+50. Nel marzo 1972, un team di ricercatori e politici pubblicò The Limits to Growth, uno dei primi rapporti a prevedere conseguenze catastrofiche se gli esseri umani avessero continuato a sfruttare la limitata offerta di risorse naturali della Terra. La conferenza di Stoccolma è seguita pochi mesi dopo e ha portato all’istituzione del programma delle Nazioni Unite per l’ambiente (UNEP), con sede a Nairobi. L’UNEP ha continuato a facilitare una nuova legge internazionale — il protocollo di Montreal del 1987 per eliminare gradualmente le sostanze che riducono lo strato di ozono — e ha co-fondato il Gruppo intergovernativo sui cambiamenti climatici (IPCC).
Ha contribuito alla definizione dei primi piani d’azione per lo sviluppo sostenibile attraverso accordi internazionali di riferimento sulla biodiversità, il clima e la desertificazione. Ma ci sono stati errori e opportunità mancate. L’istituzione di più agenzie e strumenti politici ha creato un sistema di governance disarticolato. I ministri dell’ambiente di nuova creazione esercitavano poco potere. Nei bilanci nazionali, la protezione dell’ambiente è stata isolata da sviluppo economico e preoccupazioni sociali. E così, 50 anni dopo quell’importante conferenza, il mondo rimane in crisi. Con le imminenti crisi climatiche e della biodiversità, gli avvertimenti fatti da pochi visionari sono sempre più realistici. Stoccolma+50 ha promesso “raccomandazioni chiare e concrete e messaggi per l’azione a tutti i livelli”. Più di 90 ministri hanno partecipato, ma solo circa 10 capi di governo. E’ stata un’occasione mancata per un’azione ad alto livello.
I leader mondiali sono necessari perché la loro presenza segnala che la sostenibilità rimane in cima alle loro agende. In vista della conferenza del 1972, 2.200 scienziati ambientalisti firmarono una lettera — chiamata Messaggio di Mentone — all’allora segretario generale delle Nazioni Unite U Thant. I firmatari avevano la sensazione che il mondo si stesse muovendo verso molteplici crisi. Hanno sollecitato “una massiccia ricerca sui problemi che minacciano la sopravvivenza dell’umanità”, come la fame, le guerre, il degrado ambientale e il degrado delle risorse naturali. I ricercatori possono ora unirsi a un successore del Messaggio di Mentone che è stato organizzato dall’International Science Council, la rete scientifica globale Future Earth e lo Stockholm Environment Institute. In un opuscolo aperto rivolto ai cittadini del mondo, gli autori scrivono: “Dopo 50 anni, l’azione a favore dell’ambiente sembra un passo avanti e due indietro. Il mondo produce più cibo del necessario, eppure molte persone soffrono ancora la fame. Continuiamo a sovvenzionare e investire nei combustibili fossili, anche se l’energia rinnovabile è sempre più conveniente. Estraiamo risorse dove il prezzo è più basso, spesso in diretto disprezzo dei diritti e dei valori locali” (vedi https://science4stockholm50.world). I leader mondiali devono ascoltare la comunità di ricerca e accettare le prove e la narrativa offerte per aiutarli a navigare in un cambiamento significativo. La sostenibilità ambientale non ostacola la prosperità e il benessere, anzi, è fondamentale per loro. Le persone al potere devono sedersi e prendere nota.
In quella lontana occasione fu anche lanciato un proclama, firmato da 2200 scienziati, il cosiddetto “messaggio di Mentone”, che in realtà era stato scritto e consegnato all’allora segretario dell’ONU, il mitico U-Thant nell’anno precedente e che comparve nella rivista UNESCO, The UNESCO Courier luglio 1971. Come potete vedere dall’immagine era diretto “ai nostri 3miliardi e mezzo di vicini del pianeta Terra”.
Tra i 2.200 firmatari del saggio di Mentone ci sono quattro premi Nobel (Salvador Luria, Jacques Monod, Albert Szent-Gyorgyi e George Wald), e nomi famosi del mondo della scienza come Jean Rostand, Sir Julian Huxley, Thor Heyerdahl, Paul Ehrlich, Margaret Mead, René Dumont, Lord Ritchie-Calder, Shutaro Yamamoto, Gerardo Budowski, Enrique Beltran e Mohamed Zaki Barakat. I partecipanti erano fondamentalmente appartenenti ai settori biologico ed ambientale.
Cosa diceva il messaggio di Mentone?
Gli scienziati mettevano in guardia i loro “vicini” dal fatto che vari grandi problemi si andavano fondendo per costituire un gigantesco rischio per il benessere e perfino per la sopravvivenza dell’umanità.
I problemi indicati erano: il deterioramento ambientale causato dall’inquinamento di quelli che erano allora composti liberamente scaricabili ma sono poi diventati proprio grazie al cosiddetto accordo di Stoccolma “la sporca dozzina”, ma anche legato alla prospettiva dell’uso ancora maggiore dell’energia nucleare di fissione e al crescente inquinamento delle città; l’impoverimento delle risorse naturali, a partire da quelle energetiche ma anche minerali, legato ad un enorme sovrasfruttamento in un pianeta finito e non infinito, l’uso sconsiderato del suolo quasi completamente occupato da infrastrutture umane; l’eccesso di popolazione, il sovraffollamento e la fame, dato che secondo il documento nemmeno nelle migliori condizioni la Terra avrebbe potuto garantire consumi a tutti gli uomini in linea con quelli dei paesi più ricchi, ed infine la guerra.
A proposito della guerra il documento diceva:
È chiaro che non è sufficiente attribuire la guerra alla naturale belligeranza dell’umanità quando gli uomini sono di fatto riusciti a stabilire in alcuni punti società stabili e relativamente pacifiche in aree geografiche limitate. Nel nostro tempo è evidente che i pericoli della guerra globale si concentrano su due punti: la disuguaglianza che esiste tra le parti industrializzate e non industrializzate del mondo e la determinazione di milioni di esseri umani impoveriti a migliorare la loro sorte; la competizione per il potere e il vantaggio economico tra gli stati-nazione anarchici che non vogliono rinunciare agli interessi egoistici per creare una società più equa.
Riguardo alla soluzione dei problemi il messaggio era alquanto ampio e preciso perché iniziava citando casi in cui gli uomini avevano dato prova di poter lavorare efficacemente e su grande scala: la costruzione della bomba atomica, la ricerca spaziale sia in USA che in URSS; questa stessa capacità organizzativa avrebbe dovuto essere applicata alle situazioni critiche dell’umanità, ma con una priorità più alta ancora. Il documento invitava le nazioni più ricche che avevano beneficiato di più delle risorse a mettersi alla testa di tali azioni di cambiamento.
Quattro punti basilari erano esplicitati: –Una moratoria sulle innovazioni tecnologiche i cui effetti non possiamo predire e che non sono essenziali per sopravvivenza umana. (nuovi sistemi d’arma, trasporti di lusso, pesticidi nuovi e non testati, la fabbricazione di nuove materie plastiche, la creazione di vasti nuovi progetti di energia nucleare, ecc. progetti di ingegneria ecologicamente non studiati, lo sbarramento di grandi fiumi, la “bonifica” della terra della giungla, i progetti minerari sottomarini, ecc.)
-L’applicazione dei controlli sull’inquinamento esistenti alla produzione di energia e all’industria in generale, al riciclaggio su larga scala dei materiali al fine di rallentare l’esaurimento delle risorse e alla rapida conclusione di accordi internazionali sulla qualità ambientale, soggetti a revisione man mano che le esigenze ambientali diventano più pienamente note.
– Programmi intensificati in tutte le regioni del mondo per frenare la crescita della popolazione, nel pieno rispetto della necessità di raggiungere questo obiettivo senza abrogare i diritti civili. E’ importante che questi programmi siano accompagnati da una diminuzione del livello di consumo da parte delle classi privilegiate e che si sviluppi una distribuzione più equa del cibo e di altri beni tra tutte le persone.
– Indipendentemente dalla difficoltà di raggiungere accordi, le nazioni devono trovare un modo per abolire la guerra, disinnescare i loro armamenti nucleari e distruggere le loro armi chimiche e biologiche. Le conseguenze di una guerra globale sarebbero immediate e irreversibili, ed è quindi anche responsabilità degli individui e dei gruppi rifiutarsi di partecipare a ricerche o processi che potrebbero, se utilizzati, portare allo sterminio della specie umana.
Occorre dire che da allora ad oggi alcuni e limitati accordi su questi punti sono stati trovati ed applicati, basta ricordare gli accordi sul buco dell’ozono (Montreal) o sui terribili 12 (Stoccolma) o gli accordi sulla moratoria nucleare.
Tuttavia le cose basilari sono rimaste sul tappeto perché alcuni punti di vista non hanno fatto breccia nelle menti e nella pratica umana, soprattutto della parte più ricca della popolazione.
Riassumerei così il testo di un nuovo messaggio scritto in questa occasione (1 giugno 2022) dallo International Science Council, dove fra l’altro si dice:
In primo luogo, il pensiero individualista, materialista, sfruttatore a breve termine ci ha portato a perdere di vista il bene pubblico. Il consumismo e l’auto-indulgenza sono glorificati, mentre si traducono in cattiva salute, ingiustizia e apatia.
In secondo luogo, concentrarsi sulla crescita economica distrae dal raggiungimento del benessere e della felicità. La crescita incontrollata distrugge le nostre risorse condivise. Allo stesso modo, sebbene l’innovazione tecnologica ci abbia permesso di eludere alcuni limiti naturali, la convinzione che possiamo piegare tutta la natura alla nostra volontà attraverso l’uso illimitato delle nuove tecnologie è un’illusione.
In terzo luogo, le attuali istituzioni economiche, politiche e sociali ci stanno deludendo
Concluderei come concludeva il primo messaggio, quello di Mentone
La Terra, che è sembrata così grande, ora deve essere vista nella sua piccolezza. Viviamo in un sistema chiuso, assolutamente dipendenti dalla Terra e gli uni dagli altri per le nostre vite e quelle delle generazioni successive. Le molte cose che ci dividono sono quindi infinitamente meno importanti dell’interdipendenza e del pericolo che ci uniscono. Crediamo che sia letteralmente vero che solo trascendendo le nostre divisioni gli uomini saranno in grado di mantenere la Terra come loro casa. Le soluzioni ai problemi reali dell’inquinamento, della fame, della sovrappopolazione e della guerra possono essere più semplici da trovare rispetto alla formula dello sforzo comune attraverso il quale la ricerca di soluzioni deve avvenire, ma dobbiamo fare un inizio.
Ringrazio il collega Pino Suffritti che ha portato alla mia attenzione la riunione di Stoccolma+50.
Le risorse idriche disponibili stanno diventando scarse sia per la diminuzione di precipitazioni, sia a causa dell’aumento delle pressioni antropiche e del conseguente inquinamento ambientale. Negli ultimi anni sta crescendo l’interesse per il riutilizzo delle acque reflue depurate nei programmi di pianificazione delle risorse idriche, con particolare interesse per l’irrigazione.
In passato, in virtù dell’abbondanza delle risorse idriche, soprattutto confrontando le disponibilità con quelle del resto del mondo, l’Unione Europea non aveva investito in maniera consistente sul riuso delle acque sebbene, in generale, si potesse notare un diverso approccio nei Paesi Nord-Europei rispetto a quelli Mediterranei. In generale quando le risorse idriche sono abbondanti non sempre si è portati ad avere una pianificazione rigorosa ed attenta. Oltre a questo in passato esistevano perplessità sulla qualità delle acque reflue in uscita dagli impianti di depurazione, situazione che negli ultimi vent’anni è decisamente mutata in positivo con l’adozione di nuove tecniche di trattamento (impianti a membrana), e con il generale miglioramento delle tecniche di trattamento terziario (filtrazione e disinfezione tramite acido peracetico o raggi uv).
Nell’Unione Europea diversi paesi hanno definito norme e linee guida per il riuso delle acque reflue in agricoltura, come ad esempio Francia, Spagna, Cipro e Italia.
Dal punto di vista legislativo in Italia è vigente Il D.M. 185/03 che regolamenta il riutilizzo delle acque reflue, ai fini della tutela qualitativa e quantitativa delle risorse idriche, limitando il prelievo delle acque superficiali e sotterranee, riducendo l’impatto degli scarichi sui fiumi e favorendo il risparmio idrico, mediante l’utilizzo multiplo delle acque di depurazione. Secondo il Decreto il riutilizzo deve avvenire in condizioni di sicurezza per l’ambiente, evitando alterazioni agli ecosistemi, al suolo ed alle colture, nonché rischi igienico-sanitari per la popolazione. Inoltre, il riutilizzo irriguo deve essere realizzato con modalità che assicurino il risparmio idrico. Nel riutilizzo sono considerate ammissibili le seguenti destinazioni d’uso:
Uso irriguo: per l’irrigazione di colture destinate sia alla produzione di alimenti per il consumo umano ed animale sia a fini non alimentari, nonché per l’irrigazione di aree destinate al verde o ad attività ricreative o sportive.
Uso civile: per il lavaggio delle strade nei centri urbani; per l’alimentazione dei sistemi di riscaldamento o raffreddamento; per l’alimentazione di reti duali di adduzione, separate da quelle delle acque potabili, con esclusione dell’utilizzazione diretta dell’acqua negli edifici a uso civile, ad eccezione degli impianti di scarico nei servizi igienici.
Uso industriale: come acqua antincendio, di processo, di lavaggio e per i cicli termici dei processi industriali, con l’esclusione degli usi che comportano un contatto tra le acque reflue recuperate e gli alimenti o i prodotti farmaceutici e cosmetici.
Il prossimo anno entrerà in vigore il regolamento europeo 2020/741 che prevede per gli Stati membri il riutilizzo delle acque reflue depurate, sostituendo il DM 185. La data prevista è fissata per il Giugno 2023.
Attualmente in Italia sono già in funzione 79 impianti per la produzione di acque di riuso, ma rappresentano solo il 5% della potenzialità, che è stimata in un volume di circa 9 miliardi di m3/anno.
I dati provengono dall’indagine di Utilitalia “Il riutilizzo delle acque reflue in Italia”, presentata a Napoli nel corso del convegno “Climate change e servizio idrico: la sfida del PNRR per un sistema efficiente e resiliente” organizzato dalla Federazione in collaborazione con l’Università degli Studi Federico II e con l’Associazione Idrotecnica Italiana.
Esistono in Italia già da diversi anni esempi di riuso delle acque reflue, sia per l’irrigazione che per fini industriali. Il quadro complessivo presenta nette differenze tra regione e regione. Si può però fare la seguente osservazione di carattere generale: il ricorso alle acque reflue per scopi irrigui o industriali è avvenuto quasi esclusivamente in situazioni di “emergenza idrica”, che si possono sostanzialmente distinguere in due tipologie distinte: carenza di disponibilità idrica; elevata esigenza di acqua in porzioni del territorio limitate. Due esempi tipici sono i distretti industriali con elevate necessità e consumi di acqua, e la presenza di vaste aree destinate all’agricoltura intensiva. Solo negli ultimi anni si è iniziato a programmare il riuso delle acque reflue con una visione più ampia, tenendo conto dei vantaggi indiretti di questa pratica, quali il beneficio ambientale del “non scarico” nel corpo idrico ricettore e la possibilità di non fare ricorso ad acque qualitativamente migliori, soprattutto acque di falda preservandone la disponibilità.
La situazione di assoluta emergenza di questi giorni potrebbe però aggiungere due nuove destinazioni d’uso. Il ricarico di acque di faldae l’aiuto per aumentare i flussi di portata nel caso di secche persistenti destinando le acque di scarico su corsi d’acqua in particolare sofferenza. Occorre far notare che la realizzazione di queste due ultime destinazioni d’uso necessita della realizzazione di infrastrutture al momento mancanti (condotte e canalizzazioni). Per altro come avevo già scritto in precedenti articoli, occorre rendersi conto che la secca di molti fiumi anche piuttosto importanti, come ad esempio il Lambro o il Brenta che in questi giorni sono completamente asciutti devono spingere ad adottare provvedimenti lungimiranti e non rimandabili. Da attuarsi con una programmazione il più possibile condivisa.
Se un fiume della lunghezza di 130 km come il Lambro si trasforma in una fiumara, o per volgere lo sguardo fuori dai nostri confini, il Colorado non riesce più ad arrivare al mare per eccessivo prelievo di acqua non è più possibile né sottovalutare, né minimizzare il fatto che ci troviamo di fronte ad un problema reale.
Le nuove regole aiuteranno l’Europa ad adattarsi alle conseguenze dei cambiamenti climatici. Il regolamento migliorerà la disponibilità di acqua e ne incoraggerà un uso efficiente. Infatti garantire la disponibilità di acqua sufficiente per l’irrigazione dei campi, in particolare durante ondate di calore e siccità gravi, può aiutare a prevenire la carenza di colture e la carenza di cibo. Dato che le condizioni geografiche e climatiche variano notevolmente tra gli Stati, uno Stato membro potrà decidere che non è appropriato utilizzare l’acqua di recupero per l’irrigazione agricola in parte o in tutto il suo territorio.
Gli Stati membri avranno piena autonomia per poter decidere l’utilizzo più appropriato delle acque destinate al riuso (civile, irriguo, industriale, ricreativo).
Il regolamento contiene requisiti rigorosi per la qualità delle acque di recupero e il relativo monitoraggio per garantire la protezione della salute umana e animale nonché dell’ambiente.
Il fattore chiave nel determinare la possibilità concreta del riuso di acque reflue è la certezza di rigorosi controlli sulla qualità degli effluenti impiegati e di una continua azione di monitoraggio sull’evoluzione qualitativa dei vari comparti coinvolti (acqua, suolo, piante). I limiti di qualità per le acque riutilizzabili in irrigazione, ad esempio, richiedono non solo di salvaguardare gli aspetti sanitari, ma di contrastare tutti i problemi che si potrebbero manifestare sulle colture e nel terreno, nonché sulla stessa funzionalità degli impianti irrigui.
La filosofia di approccio deve identificare certamente dei limiti di sostanze inquinanti, ma nello stesso tempo adattarsi alle condizioni locali. In aggiunta alla mitigazione dei possibili effetti sulla salute, l’uso delle acque reflue depurate per esempio in agricoltura deve assicurare produzioni agricole comparabili con quelle ottenute normalmente e impatti accettabili sull’ambiente.
Le pratiche agricole dovrebbero tenere presenti alcuni fattori tra i quali:
• quantità d’acqua utilizzata
• caratteristiche del suolo (infiltrazione, drenaggio)
• sistemi di irrigazione;
• tipo di coltivazione e pratiche di utilizzo.
I parametri da tenere monitorati per l’utilizzo di acque reflue depurate in agricoltura sono di varia tipologia.
I nutrienti, azoto, fosforo, potassio, zinco, boro e zolfo, devono essere presenti nell’acqua reflua depurata nelle corrette concentrazioni altrimenti possono danneggiare sia le coltivazioni che l’ambiente. Ad esempio il quantitativo di nitrati necessario varia nei diversi stadi di sviluppo delle piante, mentre durante la crescita sono necessarie alte quantità di nitrati, queste si riducono durante la fase di fioritura. Il controllo sulle concentrazioni dei nitrati è fondamentale per ridurre la lisciviazione negli acquiferi che rappresenta un potenziale rischio di inquinamento delle acque destinate al consumo umano. Le concentrazioni di sodio, cloruri, boro e selenio dovrebbero essere attentamente controllate a causa della sensibilità di molte piante a queste sostanze. Il selenio risulta tossico anche a basse concentrazioni e il boro si ritrova in alte concentrazioni per la presenza di detergenti nelle acque di scarico. La qualità delle acque rappresenta anche un aspetto da considerare nella scelta del sistema di irrigazione. In condizioni di alte temperature e bassa umidità, quando è favorita l’evapotraspirazione, è sconsigliato l’utilizzo dell’irrigazione a pioggia se le acque contengono alte concentrazioni di sodio e cloruri in quanto possono arrecare danni alle foglie.
Come si può vedere il concetto di gestione dell’acqua rimane un tema multidisciplinare. E soprattutto uno dei temi tra i più importanti da affrontare (ma non è il solo). Serviranno risorse, conoscenza e soprattutto collaborazione. Occorre ribaltare il concetto che l’acqua non sia un diritto, ma occorre anche avere una formazione di base. Bisogna superare la tendenza a guardare l’orticello di casa, ridare senso al bene comune che non è patrimonio di una mentalità liberista e miope che vorrebbe mercificare ogni risorsa planetaria. E in ultimo mi sento di fare una piccola tirata d’orecchie a chi di professione si occupa di scegliere i titoli dei pezzi sui giornali. Ad Assago l’acqua depurata viene utilizzata per rifornire le spazzatrici municipali che lavano le strade. Questo avviene dal 2019. Il dato di fatto è che si risparmiano circa 8000 litri anno di acqua potabile. Ma la stampa locale diede la notizia con questo titolo: “Assago, le strade della città si lavano con l’acqua di fogna” Un titolo inopportuno, quando sarebbe stato molto meglio scrivere “Assago, le strade della città si lavano con l’acqua trattata dai depuratori”. Questo può fare molta differenza nella percezione di quello che è stato realizzato. Non è un dettaglio trascurabile.
Il primo a distinguere fra chimica inorganica e organica è stato Jöns Jakob Berzelius (1779-1848) nel 1806, per indicare quei composti che erano formati da quattro soli elementi – carbonio, ossigeno, idrogeno e talvolta azoto, perché sembravano sempre essere i prodotti di esseri viventi composti da sistemi complessi ma altamente organizzati. Il pensiero era che tali sostanze non potessero essere ottenute in laboratorio da materiali inorganici, e quindi era necessaria una “forza vitale” al di là della comprensione dei chimici per spiegare la loro esistenza, dottrina detta “vitalismo”.
Nel 1828, Friedrich Wöhler[1] (1800-1882) ottenne l’urea (un componente dell’urina) partendo da un composto inorganico, il cianato d’ammonio NH4CNO e scrisse una lettera a Berzelius di cui era stato allievo (figura 1):
Figura 1. Lettera di Wöhler a Berzelius e traduzione parziale: Caro Signor Professore, devo dirvelo, ho fatto l’urea senza bisogno di reni o di nessun animale, uomo o cane che sia…
Berzelius capì rapidamente che urea e cianato d’ammonio avevano la stessa composizione centesimale ma struttura diversa e coniò il termine “isomeri” e lo estese come concetto generale, comprendendo fulminati e cianati, acido tartarico e acido racemico.
Tuttavia l’enorme sviluppo della chimica organica si ebbe solo alcune decine di anni dopo, poiché Berzelius era convinto del vitalismo e Wöhler e Justus von Liebig (1803-1873), pur nutrendo seri dubbi, non si pronunciarono mai esplicitamente contro[2].
Il declino del vitalismo iniziò probabilmente agli inizi degli anni ’40 del XIX secolo, dovuto a Hermann Kolbe[3] (1818-1884) che fra il 1843 e il 1845 riuscì a ottenere acido acetico partendo da solfuro di carbonio e cloro, due sostanze inorganiche.
Nel frattempo, tuttavia, erano stati scoperti e riconosciuti diversi composti organici ricavati da piante, fra cui i terpeni[4] e nel 1825 il benzene dai residui oleosi del gas illuminante, da Michael Faraday (1791-1867).
A mettere ordine fra queste migliaia di sostanze ci pensò August Wilhelm von Hofmann.
Nato a Giessen, Granducato d’Assia, l’8 aprile 1818, figlio di Johann Philipp Hofmann, consigliere privato e architetto provinciale della corte di Darmstadt. Si iscrisse all’Università di Giessen nel 1836. Inizialmente intraprese gli studi di diritto e filologia. Potrebbe essersi interessato alla chimica quando suo padre ampliò i laboratori Giessen di Liebig nel 1839. August Wilhelm abbandonò diritto e filologia per studiare chimica sotto la guida di Justus von Liebig. Ottenne il dottorato di ricerca nel 1841. Nel 1843 divenne uno degli assistenti di Liebig, il rapporto con Liebig alla fine divenne personale oltre che professionale.
August Wilhelm Hofmann a) nel 1846 e b) in maturità
Il principe Albert, consorte della regina Vittoria, come presidente della Royal Society di Londra, era determinato a promuovere il progresso scientifico in Gran Bretagna. Nel 1845 propose di avviare una scuola di chimica pratica a Londra, il Royal College of Chemistry. Liebig fu contattato per un consiglio e raccomandò Hofmann alla direzione della nuova istituzione. L’istituto aprì nel 1845 con Hofmann come primo direttore. La situazione finanziaria della nuova istituzione era alquanto precaria, quindi Hofmann accettò l’incarico a condizione che fosse nominato professore straordinario a Bonn, con aspettativa di due anni, in modo da poter riprendere la sua carriera in Germania se l’incarico inglese non fosse andato bene. Nonostante questo inizio difficile, l’istituto ha avuto successo per un certo periodo ed è stato leader internazionale nello sviluppo di coloranti all’anilina. Molti degli uomini che vi studiarono diedero un contributo significativo alla storia della chimica.
Nel 1853, il Royal College of Chemistry entrò a far parte del Dipartimento Governativo di Scienza e Arte, sotto la nuova School of Mines, ricevendo dei finanziamenti governativi. Tuttavia, con la morte del principe Albert nel 1861, l’istituzione perse uno dei suoi sostenitori più significativi. Nel 1864 a Hofmann fu offerta una cattedra di chimica all’Università di Bonn e un’altra all’Università di Berlino e progettò edifici di laboratorio per entrambe le università, che furono costruite successivamente. Nel 1865 succedette a Eilhard Mitscherlich (1794-1863) all’Università di Berlino come professore di chimica e direttore del laboratorio chimico, mantenendo la carica fino alla sua morte nel 1892. Dopo il suo ritorno in Germania, Hofmann fu il principale fondatore della Società chimica tedesca e ne fu presidente per molti anni.
Il lavoro di Hofmann coprì un’ampia gamma della chimica organica. Egli e i suoi collaboratori hanno dato un importante contributo allo sviluppo di tecniche per la sintesi organica, che ha avuto origine nel laboratorio di Liebig a Giessen. Hofmann e John Blyth (1814-1871) furono i primi a usare il termine “sintesi”, nel loro articolo “On Styrole, and Some of the Products of Its Decomposition“[1], precedendo di alcuni mesi l’uso del termine da parte di Kolbe. Ciò che Blyth e Hofmann chiamavano “sintesi” consentiva loro di fare inferenze sulla costituzione dello stirolo (fig. 2).
Figura 2. Parte dell’articolo di Hofmann dove compare la parola “sintesi”
Un articolo successivo, “Sulla toluidina” di Muspratt (1821-1871) e Hofmann, descrisse alcuni dei primi “esperimenti sintetici” nel campo della chimica organica [2]. Sebbene l’obiettivo finale di tali esperimenti fosse produrre artificialmente sostanze presenti in natura, tale obiettivo non era praticamente raggiungibile in quel momento. Lo scopo immediato della tecnica era l’applicazione di reazioni note a una varietà di materiali per scoprire quali prodotti potevano essere formati. La comprensione del metodo di formazione di una sostanza è stato un passo importante per collocarla all’interno di una tassonomia in via di sviluppo delle sostanze. Questa tecnica divenne la base del programma di ricerca di Hofmann. Usò la sintesi organica come metodo di indagine, per aumentare la comprensione chimica dei prodotti di reazione e dei processi attraverso i quali si sono formati [3].
La prima ricerca di Hofmann, condotta nel laboratorio di Liebig a Giessen, fu un esame delle basi organiche del catrame di carbon fossile. Hofmann isolò con successo le sostanze precedentemente riportate da Friedlieb Ferdinand Runge (1794-1867), e mostrò che il kyanol era quasi interamente anilina, un prodotto di decomposizione del colorante vegetale indaco.
Nella sua prima pubblicazione (1843) dimostrò che una varietà di sostanze che erano state identificate nella letteratura chimica contemporanea come ottenibili dalla nafta di catrame di carbon fossile e dai suoi derivati erano tutte un’unica base azotata, l’anilina. Gran parte del suo lavoro successivo ha ulteriormente sviluppato la comprensione degli alcaloidi naturali.
Hofmann tracciò inoltre un’analogia tra anilina e ammoniaca, volendo convincere i chimici che le basi organiche potevano essere descritte in termini di derivati dell’ammoniaca. Hofmann convertì con successo l’ammoniaca in etilammina e nei composti dietilammina, trietilammina e tetraetilammonio. Fu il primo chimico a sintetizzare le ammine quaternarie. Il suo metodo per convertire un’ammide in un’ammina è noto come il riarrangiamento di Hofmann [4].
Mentre le ammine primarie, secondarie e terziarie erano stabili quando distillate ad alte temperature in condizioni alcaline, l’ammina quaternaria non lo era. Il riscaldamento dell’idrossido di tetraetilammonio quaternario produce vapore di trietilammina terziaria. Questa divenne la base di quella che oggi è conosciuta come l’eliminazione di Hofmann, un metodo per convertire le ammine quaternarie in ammine terziarie. Hofmann applicò con successo il metodo alla coniina, il veleno colinergico della cicuta, per ricavare la prima struttura di un alcaloide. Il suo metodo è diventato estremamente significativo come strumento per esaminare le strutture molecolari degli alcaloidi e alla fine è stato applicato a morfina, cocaina, atropina e tubocurarina, tra gli altri. Alla fine la coniina divenne il primo degli alcaloidi ad essere sintetizzato artificialmente [4].
Nel 1848, lo studente di Hofmann, Charles Blachford Mansfield (1819-1855), sviluppò un metodo di distillazione frazionata del catrame di carbon fossile e separò benzene, xilene e toluene, un passo essenziale verso lo sviluppo di prodotti dal catrame di carbon fossile.
Nel 1856, un altro studente di Hofmann, William Henry Perkin (1838-1907), stava tentando di sintetizzare il chinino al Royal College of Chemistry, quando scoprì il primo colorante all’anilina, la mauveina. La scoperta ha portato alla creazione di una vasta gamma di coloranti tessili artificiali, rivoluzionando il mondo della moda. Le ricerche di Hofmann sulla rosanilina, da lui preparata per la prima volta nel 1858, furono l’inizio di una serie di ricerche sulle materie coloranti. Nel 1863, Hofmann dimostrò che il blu anilina è un trifenile derivato della rosanilina e scoprì che diversi gruppi alchilici potevano essere introdotti nella molecola della rosanilina per produrre coloranti di varie sfumature di violetto, che divennero noti come “viole di Hofmann”.
Dopo il suo ritorno in Germania, Hofmann continuò a sperimentare con i coloranti, ottenendo infine il rosso chinolina nel 1887.
Hofmann studiò le basi azotate, compreso lo sviluppo di metodi per separare miscele di ammine. Lavorò con Auguste Cahours (1813-1891) su basi di fosforo tra il 1855 e il 1857. Con lui, nel 1857, Hofmann preparò il primo alcool alifatico insaturo, l’alcool allilico, C3H5OH. Nel 1868 esaminò anche il suo derivato, l’isotiocianato di allile (olio di senape), e studiò vari altri isocianati e isonitrili (isocianuri o carbilammine).
Hofmann sviluppò anche un metodo per determinare i pesi molecolari dei liquidi dalle densità di vapore.
Nel 1865, ispirato da Auguste Laurent (1807-1853), Hofmann suggerì una nomenclatura sistematica per gli idrocarburi e i loro derivati. Fu adottata a livello internazionale dal Congresso di Ginevra, con alcune modifiche, nel 1892 [5].
Probabilmente fu Hofmann il primo a proporre modelli molecolari in chimica organica, dopo l’introduzione della teoria della struttura chimica da parte di August Kekulé (1829-1896) nel 1858 e l’introduzione di formule strutturali stampate di Alexander Crum Brown (1838-1922) nel 1861. In un discorso alla Royal Institution di Londra il 7 aprile 1865 mostrò modelli molecolari di semplici sostanze organiche come metano, etano e cloruro di metile, che aveva costruito con palline di colore diverso collegate tra loro con sottili tubi di ottone (fig. 3).
Figura 3. Modello del metano di Hofmann
La combinazione di colori originale di Hofmann (carbonio = nero, idrogeno = bianco, azoto = blu, ossigeno = rosso, cloro = verde e zolfo = giallo) si è evoluta nella combinazione di colori in uso ancora oggi. Dopo il 1874, quando van’t Hoff[5] e Le Bel suggerirono indipendentemente che le molecole organiche potessero essere tridimensionali, i modelli molecolari iniziarono ad assumere il loro aspetto moderno.
A Hofmann si devono anche i termini alifatico e aromatico.
Nel libro Geschichte der Organischen Chemie, Berlin, 1920, di Carl Graebe, la nota 2 a pag. 277 riporta:
2) Den Namen aliphatisch hat A. W. Hofmann fur die Fettkörper in die Chemie eingenführt.
AW Hofmann ha introdotto il nome alifatico nella chimica dei corpi grassi.
Gradualmente, come si è detto, diversi composti collegati al benzene entrarono a far parte del lessico chimico e nel 1855 Hofmann introdusse il termine aromatico per distinguere la serie di acidi monobasici (capostipite l’acido benzoico) da quella dei bibasici (capostipite l’acido ftalico), fig.6 [6]:
Figura 6. Parte dell’articolo di Hofmann del 1855
L’aggettivo aromatico fu quindi introdotto da Hofmann per indicare le loro caratteristiche chimiche, non tanto perché i primi composti di questa classe a essere identificati possedessero odori caratteristici e intensi [7 pp. 2-3].
[2] J. S. Muspratt, A. W. Hofmann, On Toluidine, a New Organic Base. MCPS, 1845, 2, 367–383.
[3] C. M. Jackson, Synthetical Experiments and Alkaloid Analogues: Liebig, Hofmann, and the Origins of Organic Synthesis., in: Historical Studies in the Natural Sciences, Vol. 44, No. 4, 2014, pp. 319-363.
[4] T.A. Alston, The Contributions of A. W. Hofmann, Anesthesia & Analgesia, 2003, 96, 622–625.
[5] August Wilhelm Hofmann in Encyclopædia Britannica.
[6] A.W. Hofmann, On insolinic acid., Proceedings of the Royal Society. 1856, 8, 1–3.
[7] A.J. Rocke, It Began with a Daydream: The 150th Anniversary of the Kekulé Benzene Structure., Angew. Chem. Int.Ed.,2014, 53, 2–7.
[1] Di Wöhler si può trovare una breve biografia in: R. Cervellati, Friedrich Wöhler e Hermann Kolbe: dal primo composto organico sintetizzato da materiali inorganici alla prima sintesi totale, CnS-La Chimica nella Scuola, 2018, 2, 67-75.
[4] I terpeni sono biomolecole costituite da multipli dell’unità isoprenica (2-metil1,3-butadiene). Vengono prodotti da molte piante, sono i componenti principali delle resine e degli oli essenziali , miscele di sostanze che conferiscono a ogni pianta un caratteristico odore o aroma. Molti aromi usati nei cibi o nei profumi sono derivati da terpeni o terpenoidi naturali.
La strada da percorrere per una gestione sicura e responsabile dei nanomateriali è ancora molto lunga. L’Europa attraverso direttive e regolamenti ha posto i primi paletti a partire dalla prima esigenza conoscitiva: raccogliere quanti più dati scientifici possibile circa questa nuova tipologia di sostanze impegnando su questo fronte già dal 2020 tutte le aziende europee che con esse operano. Negli ultimi decenni, grazie al progresso scientifico si sono fatti sempre più largo prodotti contenenti nanoforme e nanotecnologie. Nel Mercato Europeo sono già presenti numerosi prodotti contenenti nanomateriali (ad esempio farmaci, batterie, rivestimenti, indumenti antibatterici, cosmetici, prodotti alimentari). La presenza di particelle nanostrutturate conferisce molto spesso al prodotto finito caratteristiche superiori all’attesa e prestazioni elevate. Però, come spesso accade in questi casi, l’aspetto commerciale ha di gran lunga preceduto la valutazione di quale potrebbe essere l’effetto di queste sostanze sull’uomo e sull’ambiente. Per capire di cosa parliamo dobbiamo rifarci all’unica definizione legalmente riconosciuta a livello nazionale ed europeo di nanomateriale: con nanomateriale si intende un materiale naturale, derivato o fabbricato, contenente particelle allo stato libero, aggregato o agglomerati, ed in cui per almeno il 50% delle particelle nella distribuzione dimensionale numerica, una o più dimensioni sono comprese fra 1nm e 100nm. I fullereni, i fiocchi di grafene, i nanotubi di carbonio a parete singola con una o più dimensioni esterne inferiori a 1nm dovrebbero di conseguenza essere considerati nanomateriali.
Diversamente dai prodotti chimici a cui il mondo scientifico e produttivo è sempre stato abituato i nanomateriali hanno rivoluzionato il modo di pensare in quanto le proprietà chimiche che dimostrano a causa delle loro estreme dimensioni sono spesso diverse o addirittura opposte a quelle previste dai rispettivi materiali in forma macro. C’è poi l’aspetto conoscitivo: in un coro di 1000 voci fra le quali una sola è stonata (similmente una cellula sola fra le tante modificata) come individuarla? A livello macro la stonatura vocale o biologica non si percepisce. La risposta viene dalle nanotecnologie. L’inquadramento legale delle nanoforme commerciali rispetto ai nanomateriali con riferimento al Testo Unico di Sicurezza (l. 81/08) e la gestione del rischio da parte dei valutatori e dei datori di lavoro dovrebbero portare ad indicazioni pratiche, senza le quali ogni situazione può risultare come nuova e quindi di difficile gestione. Tali preoccupazioni sono giustificate da un lato dall’ignoranza su come le nanoparticelle interagiscano con l’organismo umano e dall’altro dal crescente uso di esse in applicazioni molto comuni, come la medicina, la cosmetica, la farmaceutica, l’alimentare.
Un ulteriore motivo di preoccupazione deriva dai fenomeni di aggregazione delle particelle in funzione della distribuzione dimensionale. I dati di tossicità dei composti in forma macro non sono trasferibili alla forma nano. Uno dei problemi principali che la scienza deve affrontare nella definizione di queste proprietà ignote, visto che quelle note non valgono, è la realizzazione di sospensioni stabili delle nanoparticelle nei liquidi biologici come sangue ed urine, l’aggregazione essendo il primo processo destabilizzante. Un grande aiuto alla soluzione del problema è venuto dagli ultrasuoni e dalla sonicazione delle sospensioni capace di stabilizzarle per oltre 3gg e da alcuni composti con proprietá disperdenti, come il polivinilpirrolidone ed il polietilenglicole, in ogni caso frutto di ricerche e considerazioni di natura squisitamente chimica.
L’attuale situazione di siccità prolungata ha riproposto il tema dell’utilizzo delle tecniche di dissalazione come risposta alla scarsità di acqua, sia per uso potabile che irriguo.
Vorrei dare in questo articolo alcune indicazioni di carattere tecnico. Questo perché dal tenore dei commenti che leggo in rete su articoli che ipotizzano questa possibilità, mi rendo che non sono sufficientemente spiegate le fasi di trattamento, e le relative problematiche connesse. Oltre a questo occorre tenere conto dei consumi di energia e dei costi per metro cubo di acqua trattata. Essere consapevoli che le salamoie residue necessitano, analogamente per quanto accade per i fanghi di depurazione, di uno smaltimento o riutilizzo corretto ed economico.
Ho voluto fare questa premessa doverosa per varie ragioni. La prima è che mi sembra che in Italia si sia sempre data per scontata la disponibilità di acqua. Sia per uso irriguo che potabile. E che si sia trascurato invece di prendere coscienza del fatto che questa del 2022 è la terza crisi idrica grave, dopo quelle del 2015 e del 2017 che ebbero molto risalto mediatico. Alle prime piogge però il problema nella percezione di molti sparisce. E se ne riparla alla prossima siccità. In ogni caso gli impianti di dissalazione non si costruiscono in poco tempo. Occorre una pianificazione, e sarebbe anche opportuno proteggere le fonti e le falde di acqua dolce. Tutto questo attiene a quella che io ho voluto chiamare educazione idrica. Che personalmente mi sembra piuttosto carente.
Come per qualsiasi altro tipo di acqua da sottoporre a trattamento, l’acqua di mare da inviare al trattamento di desalinizzazione deve essere sottoposta ad analisi, questo perché il contenuto salino nell’acqua trattata potrà avere concentrazioni differenti a seconda dell’uso a cui sarà destinata. In altre parole per ogni data applicazione è necessario trovare la combinazione più adatta di processi per la concentrazione del volume finale degli effluenti, o per ottenere prodotti finali che possano essere eliminati con il minimo dei problemi. Se si prevedono variazioni stagionali che possono provocare o compromettere la normale operatività dell’impianto di dissalazione, esse potranno essere risolte o minimizzate solo con l’ausilio di un laboratorio specializzato.
Un primo elenco non esaustivo di parametri indispensabili per la caratterizzazione delle acque marine da sottoporre a dissalazione prevede come minimo i seguenti parametri: pH, conduttività, durezza totale, durezza carbonatica, Ferro, Manganese, Rame, Ione ammonio, Cloruri, Solfati, Fosfati.
Le principali tecniche di dissalazione sono principalmente le seguenti:
Osmosi inversa
Elettrodialisi
Distillazione a membrana
Evaporazione a compressione di vapore
Scambio ionico.
In questa immagine possiamo vedere uno schema a blocchi di un impianto di dissalazione. Si può notare che si tratta di uno schema con complessità più elevata rispetto ad impianti che trattano invece acque dolci, e che le tecniche che si possono utilizzare possano comprendere anche la presenza di più tipologie nello stesso sito, quando si voglia differenziare la tipologia di acqua prodotta per usi diversi.
Prima di sottoporre le acque alla fase di desalinizzazione vera e propria vi sono delle fasi di trattamento preliminare che possono comprendere una normale fase di grigliatura, una clorazione delle acque grezze per prevenire successivi problemi di formazione di incrostazioni o biofouling. In caso si usino trattamenti di desalinizzazione a membrana non è conveniente utilizzare dosaggi di cloro superiori a 0,9 gr/L.
Particelle e colloidi possono essere rimossi con il cosiddetto “trattamento convenzionale”, che consiste nella coagulazione seguita da una filtrazione, per acque a bassa torbidità. In caso di acque molto torbide si possono aggiungere fasi di flocculazione e sedimentazione. Il pretrattamento non convenzionale per particelle e colloidi è l’ultrafiltrazione. Prima delle membrane a osmosi inversa è necessario dosare una soluzione antincrostante per prevenire la formazione di precipitati di carbonato di calcio e solfati.
La filtrazione fine (5 micron) è necessaria come ultima fase prima del passaggio sulle membrane per evitare che detriti, particelle di sabbia o materiale proveniente delle tubature a monte possano danneggiarle.
La produzione di acqua potabile da dissalazione è da considerarsi una soluzione praticabile quando non si disponga di una fonte di acqua dolce. I costi di investimento sono ben lontani dall’essere la considerazione più importante. Infatti, i consumi chimici ed elettrici sono quelli che più incidono nella gestione dell’impianto.
Uno dei sistemi per il recupero energetico consiste nel recupero dell’acqua di scarto tramite una pompa centrifuga che alimenta una turbina Pelton adattata per il funzionamento con salamoia. Questo sistema permette un risparmio di energia stimabile attorno ad un valore 0,2Kwh/m.³ L’energia ottenuta dalle pompe ad alta pressione può essere recuperata e reimmessa nel ciclo di desalinizzazione. Cercando in rete ho trovato che il consumo di energia per m3 di acqua trattata tramite desalinizzazione si possa oggi stimare tra i 2,3 e i 3,5 kWh/m3. Il ciclo idrico integrato tradizionale (captazione, potabilizzazione, depurazione) mediamente arriva a 1 kWh/m3. Ricordiamoci sempre che il fattore energia è importante in questo tipo di valutazioni.
Lo smaltimento delle salamoie residue (denominate brine) è un problema emergente degli impianti di dissalazione delle acque marine.
Uno studio recente (dicembre 2018) commissionato dall’Onu rivela che la capacità di produzione di acqua più o meno dolce degli impianti di desalinizzazione è pari a circa 95 milioni di metri cubi al giorno.
Lo stesso studio mette in luce l’altra faccia del trattamento di desalinizzazione: per ogni litro di acqua desalinizzata c’è un residuo di 1,5 litri di salamoia a concentrazione variabile, in funzione della salinità dell’acqua di partenza.
Questo materiale spesso contaminato dai residui dei prodotti usati per la pulizia e manutenzione delle tubature dovrebbe essere destinato ad uno smaltimento adeguato, o in alternativa al recupero di materia.
Purtroppo nella maggior parte dei casi il residuo del flusso di salamoia viene scaricato a mare, confidando nel mai dimenticato effetto diluizione, che era quello che spesso possiamo ancora riscontrare quando vediamo vecchi collettori di acque fognarie che scaricano a distanza dalla linea di costa.
La concentrazione di sali nella salamoia varia dai 50 ai 75 g/L e ha una densità molto maggiore dell’acqua marina, tendendo perciò a fluire verso il fondale presso la bocca di scarico creando così uno strato altamente salino d’acqua che può avere un impatto negativo sulla flora e fauna marina, e sulle attività umane correlate come pesca e balneazione.
Oltre a questo la salamoia esaurisce l’ossigeno disciolto nelle acque riceventi, alterando in questo modo l’equilibrio ecologico.
Sono in fase di sviluppo ricerche volte a implementare il recupero di materia dalle salamoie, tra gli altri cloruro di sodio, acido cloridrico e soda caustica.
Concludo dicendo che la dissalazione è a mio parere una delle tecniche che si possono o si potranno forse utilizzare in futuro per risolvere il problema di carenza idrica. Ma non credo sia l’unica. Per esempio il riutilizzo di acque depurate ad uso irriguo in Italia può e deve essere ulteriormente implementato, come sta avvenendo in Emilia Romagna.
Una soluzione più ragionevole dell’ipotizzare un faraonico progetto di pompaggio di acqua dissalata per esempio dalle coste liguri alla pianura padana. Questa è una mia impressione, ma non la vedo poi così impossibile visto che di idee balzane ne sono scaturite molte negli anni. Non esiste una sola soluzione opportuna e praticabile, ma serve una maggiore attenzione alla gestione della risorsa acqua nel suo insieme. Sono tanti gli attori coinvolti, e ancora molta la corretta informazione da fare. L’Italia è un paese che a volte sembra disprezzare l’acqua pubblica più per conformismo e abitudine, che per una reale necessità. Non vorrei più sentire parlare di negazionismo idrico come ho potuto constatare in questi giorni leggendo commenti totalmente surreali che negavano lo stato di siccità, ipotizzando non ben chiari complotti dei soliti “poteri forti”. Cerchiamo di essere seri per cortesia.
Il collega Fabio Di Francesco dell’Universitá di Pisa con grande intuito scientifico ha promosso un importante convegno internazionale, svoltosi a Pisa nel mese di giugno e dedicato all’analisi chimica dell’espirato, un campo di ricerca che contribuisce con successo all’avanzamento della collaborazione fra Medicina e Chimica, come dimostra la presenza al convegno organizzato in ambito chimico da parte di alcuni clinici illustri come i prof. George Hanna dell’Imperial College e Jochen Schubert, dell’Università di Rostock.
Il progetto base rileva alcune patologie attraverso differenti analisi dell’espirato, ma da parte di altre scuole, come quella di ingegneria di Tor Vergata, viene la proposta della estensione al suono del respiro, come marker di stato di salute, eventualmente modificato attraverso un filtro o con un diapason. Il convegno ha avuto grande successo del quale va dato merito al prof Di Francesco, tanto che -visto l’interesse particolare in sede nazionale- si pensa ad un ulteriore evento, limitato eventualmente al nostro Paese.
Vorrei osservare come questo approccio innovativo si stia sviluppando anche in direzioni completamente diverse dalla medicina preventiva. Intendo riferirmi al riconoscimento di una persona attraverso indicatori diversi, i più noti dei quali fanno riferimento alla biometria per cui il riconoscimento dell’identità è affidata a dati geometrici del volto. Oggi applicata allo sblocco degli smartphone o per i check-in in aeroporto, la biometria avrà presto applicazioni in ICT sostituendo con i suoi dati le comuni password: Mastercard la userà presto per i pagamenti. Ovviamente come sempre le innovazioni comportano anche problemi. È di recente la denuncia di un furto di impronte digitali, oltre ovviamente al nodo privacy. Ed ancora in Europa, mentre il Parlamento a maggioranza vota contro il riconoscimento biometrico, viene approvato un Regolamento che prevede una Banca Europea dei dati biometrici da mettere a disposizione delle Forze di Polizia e dei Carabinieri. In Spagna ed Iran si sta sperimentando come indicatore selettivo il battito cardiaco. Ma i giapponesi hanno già scavalcato anche questa frontiera e la loro nuova proposta per il riconoscimento rinuncia ad impronte digitali ed al riconoscimento facciale in favore di un naso elettronico che riconosce mediante un’analisi chimica dei composti volatili emessi dal respiro umano. Si tratta di sensori a 16 canali capaci di distinguere 1 persona fra 20 con la precisione del 97%. Siamo cosi tornati al punto di partenza: l’impronta chimica al servizio dei problemi della società civile, in questo caso salute e sicurezza. Su tutto quanto detto i problemi sono 2: i costi dovuti all’impiego di tecnologie che usano dispositivi costosi ed i possibili errori, falsi negativi e falsi positivi
I ricercatori del NIST (National Institute of Standards and Technology, USA) hanno realizzato uno studio su quanto i prodotti di consumo di tutti i giorni contribuiscano al contenuto di particelle di plastica di dimensioni nanometriche nell’acqua [1].
Le microplastiche (diametro inferiore a 5 mm) e le nanoplastiche (diametro inferiore a 1 µm) sembrano essere ovunque: nell’acqua, nell’aria, nel cibo, nel sangue umano, nei tessuti polmonari e nelle feci. Ma cosa significhi la loro presenza per la salute umana e l’ambiente non è completamente chiaro.
Le autorità di regolamentazione stanno valutando i rischi delle microplastiche tenendo conto che queste particelle hanno composizioni complesse e dimensioni e forme variabili. I dati sull’esposizione sono molto limitati come pure gli studi tossicologici [2-4]. I ricercatori stanno iniziando a identificare le fonti e le composizioni delle microplastiche per condurre gli studi di tossicità necessari per comprendere gli effetti dell’esposizione sulla vita umana e sull’ambiente.
Perché è importante la caratterizzazione
La maggior parte degli studi tossicologici finora pubblicati hanno utilizzato perline di polistirene, facili da acquistare in diverse dimensioni e con vari gruppi funzionali, ma non rappresentative delle microplastiche che i ricercatori stanno trovando nell’ambiente.
Christie Sayes, professoressa di scienze ambientali alla Baylor University (Texas, USA), ha collaborato con i ricercatori dell’Agenzia per la protezione ambientale degli Stati Uniti, a Cincinnati, per analizzare le particelle di microplastica nei campioni d’acqua. Le particelle in quei campioni, così come in quelli realizzati nel suo laboratorio, tendono a essere frammenti frastagliati, dai lati taglienti, con bordi appuntiti (fig. 1).
Figura 1. Frammenti di microplastica
La composizione è un’altra sfida. I ricercatori hanno rilevato il polistirene ma anche molti altri polimeri: polietilene, polipropilene e poliammide. E le microplastiche raramente iniziano come un polimero puro. Contengono anche plastificanti, pigmenti e metalli.
Inoltre, uno dei modi in cui le microplastiche entrano nell’ambiente è l’invecchiamento atmosferico dalla radiazione ultravioletta dei detriti di plastica in frammenti sempre più piccoli nel tempo. Questo processo può cambiare la chimica della plastica. I materiali possono diventare meno idrofobici e rivestirsi di biomolecole, minerali e metalli. Questi contaminanti possono modificare le proprietà di una particella, come la sua carica o polarità. Le proprietà fisiche e chimiche dei nanomateriali ingegnerizzati[1] influenzano il modo in cui interagiscono con le cellule. Lo stesso sembra essere vero per le micro e nanoplastiche.
Alcune delle prime prove che la forma e la lunghezza dei nanomateriali influiscono sulla loro tossicità sono state pubblicate in un innovativo studio in vivo nel 2008, che ha dimostrato che i nanotubi di carbonio possono suscitare nei topi la stessa risposta patologica dell’amianto [5]. Martin Clift, professore di tossicologia delle particelle nella Swansea University Medical School (UK), ricorda un esperimento condotto diversi anni fa con i colleghi dell’Helmholtz Zentrum München che ha anche rivelato che la forma non è l’unico fattore di tossicità delle nano particelle [6].
I ricercatori hanno osservato che le nanoparticelle d’oro di forma diversa interagivano con le cellule in modo simile. Afferma Clift: “Quando abbiamo iniziato a guardare ai percorsi meccanicistici associati all’infiammazione, allo stress ossidativo e alla morte cellulare, quelli con il maggior numero di bordi hanno mostrato la maggiore tossicità. In questo esperimento, ciò che c’era sulla superficie delle particelle e il numero di bordi erano fattori. È una combinazione di proprietà fisico-chimiche e il modo in cui questi elementi interagiscono con cellule e tessuti che guida l’effetto biologico per qualsiasi nanomateriale ingegnerizzato”.
Uno dei risultati della nanotossicologia che continua a sorprendere alcuni ricercatori è l’importanza di ciò che è attaccato alle superfici delle particelle. I ricercatori hanno appreso che attaccare gruppi di ammine alle superfici delle particelle può suscitare una risposta biologica avversa più forte rispetto ad altri gruppi chimici, come i carbossilati. Le superfici caricate negativamente sembrano anche essere meno tossiche delle superfici caricate positivamente.
Fabbricare microplastiche
La maggior parte dei ricercatori caratterizza le proprie particelle di microplastica in base alle dimensioni. Ma la caratterizzazione delle impurità, come metalli, sostanze organiche ed endotossine, non è ancora stata completata.
I ricercatori si sono affrettati ad acquistare nanoparticelle ingegnerizzate disponibili in commercio per studi di tossicità, quindi le impurezze e la variabilità da lotto a lotto hanno reso difficile confrontare i risultati tra gli studi.
Nel tentativo di controllare meglio le proprietà dei nanomateriali utilizzati negli studi di tossicologia e di comprendere più esposizioni nell’ambiente reale, Demokritou ha istituito un centro per la ricerca sulla nanosicurezza ad Harvard nel 2016.
Il centro è stato in prima linea nella ricerca sulle interazioni dei nanomateriali ingegnerizzati emergenti con i sistemi biologici e sulle loro potenziali implicazioni per la salute. I ricercatori negli Stati Uniti e nell’Unione Europea usano i nanomateriali negli studi di tossicologia. Afferma Demokritou, direttore del centro: “Li produciamo in modo controllato, ci assicuriamo che non ci siano impurezze e li conserviamo in condizioni controllate. Ciò ci consente di avere una certa riproducibilità nei nostri dati sulla bioattività”.
Demokritou sta ora sviluppando un programma simile per le microplastiche. Lui e i suoi collaboratori stanno producendo particelle di micro e nanoplastiche che sono più rilevanti per l’ambiente rispetto alle perle di polistirene.
Dice Demokritou: “Il nostro obiettivo è sviluppare una sorta di libreria di microplastiche di riferimento che possiamo utilizzare per i nostri studi. Vogliamo scoprire le regole fondamentali della bioattività, come la struttura o le proprietà dei materiali influenzano i risultati sulla salute. Per fare ciò, devi avere un modo per controllare le proprietà” (fig. 2).
Figura 2. (a)” spaghetti” di microplastica; (b) micro e nanoplastiche di diverse dimensioni; (c) particelle di microplastiche al microscopio elettronico.
Potenziali rischi per la salute
Le persone sono esposte alle microplastiche principalmente dall’ingestione delle particelle nel cibo e nell’acqua, nonché dall’inalazione di particelle nell’aria. Utilizzando sistemi in vitro che simulano la digestione o l’inalazione, gli scienziati stanno iniziando a costruire un quadro di come le particelle di micro e nanoplastiche possono danneggiare l’intestino umano e le cellule polmonari.
Tuttavia non si possono testare subito questi miliardi di combinazioni di micro e nanoplastiche in vivo. Si deve iniziare con un approccio in vitro fisiologicamente rilevante e con gli approcci di tossicologia computazionale per avere un’idea della bioattività. I materiali che hanno dimostrato di avviare eventi molecolari associati a effetti negativi sulla salute possono poi essere ulteriormente studiati in vivo.
Demokritou e colleghi stanno utilizzando un modello in vitro dell’epitelio dell’intestino tenue per verificare se le micro e nanoplastiche interferiscono con la digestione e l’assorbimento dei nutrienti. Le particelle di microplastica possono raddoppiare la biodisponibilità di alcuni grassi e influenzare l’assorbimento dei micronutrienti, come le vitamine. Non sono stati condotti studi in vivo, ma il fatto che l’effetto sia stato osservato in vitro è piuttosto allarmante.
Sayes e i suoi colleghi di Baylor esaminano le particelle di microplastica nei campioni d’acqua raccolti dall’EPA e le particelle di plastica che fabbricano nel loro laboratorio per i loro effetti sulla tossicità delle cellule intestinali umane. Il loro sistema di test gut-on-a-chip incorpora le cellule epiteliali intestinali per studiare la vitalità cellulare, i macrofagi per l’assorbimento delle particelle e le cellule immunitarie per le risposte immunitarie. I ricercatori separano le particelle in base alle dimensioni: maggiori di 100 µm, da 1a100 µm e inferiori a 1 µm. Quindi espongono ogni gruppo al sistema gut-on-a-chip, nonché a tre ceppi di batteri che sono rilevanti dal punto di vista ambientale e fanno parte dell’intestino umano. In generale, le particelle da 1 a 100 µm hanno ridotto la vitalità delle cellule epiteliali intestinali e diminuito la crescita dei tre ceppi di batteri, ma la crescita batterica è aumentata in presenza di particelle più grandi.
Clift e Wright stanno collaborando per studiare come le microplastiche inalate influiscono sulla salute umana. “Aerosolizziamo micro e nanoplastiche attraverso una camera aerosol e le depositiamo sulle nostre colture in vitro del polmone inferiore per iniziare a comprendere il loro potenziale rischio per la salute umana.”
Il gruppo di Wright produce particelle di microplastica macinando manualmente polveri di plastica congelate di poliammidi e polietilene. I ricercatori raccolgono anche campioni d’aria da ambienti interni, come la palestra della loro università, per comprendere meglio le esposizioni dell’ambiente. Wright ha presentato alcuni risultati preliminari di questo studio alla riunione annuale della Society of Toxicology. Il lavoro deve ancora essere pubblicato, ma Wright afferma di aver trovato alti livelli di microplastiche nei campioni prelevati nella palestra.
I gruppi di ricerca, utilizzando diverse tecniche spettroscopiche, hanno identificato la maggior parte delle particelle come poliammidi (fig. 3).
Figura 3. Metodi per la fabbricazione di micro e nanoplastiche da polimeri come polietilene e poliammide da utilizzare negli studi di tossicità. L’obiettivo è quello di creare particelle che siano più rappresentative di ciò che è nell’ambiente rispetto alle perle di polistirene.
I ricercatori stanno appena iniziando a condurre studi di tossicologia meccanicistica per capire come si comportano le particelle di microplastica nei sistemi cellulari. In definitiva, sperano che il lavoro venga utilizzato per sviluppare modelli che aiutino a progettare materiali più sicuri in futuro.
Cambiare i comportamenti
Secondo il prof. Andrew Maynard, direttore del Risk Innovation Lab (Arizona State University): “Quando i ricercatori capiscono come si comportano le particelle di microplastica nei sistemi cellulari, possono creare modelli di tossicità. Quando viene prodotto un nuovo tipo di plastica che rilascia un tipo leggermente diverso di microplastica, si possono inserire le sue caratteristiche nei nostri modelli e ottenere un profilo di rischio di quel nuovo materiale”.
Tuttavia, mentre scienziati e agenzie di finanziamento potrebbero entusiasmarsi per le microplastiche nei prossimi 2-3 anni e spendere miliardi di dollari per ricercare le implicazioni sulla salute, Maynard è preoccupato che tra 10 anni, nulla sarà cambiato e nessuno parlerà di esse. Questo è quello che è successo con i nanomateriali ingegnerizzati.
Contrariamente a Maynard, Colvin (Brown University) ritiene che la ricerca sulla nanotossicologia abbia avuto un impatto sull’industria delle nanotecnologie. Una volta che gli scienziati hanno sollevato le potenziali implicazioni ambientali, sanitarie e di sicurezza dei nanomateriali, l’industria ha rallentato e cambiato marcia per evitare conseguenze negative.
Dice invece Maynard che “C’è l’opportunità per ottenere un corretto dialogo questa volta, ma non sono ottimista sul fatto che le autorità di regolamentazione affronteranno tutte le proprietà rilevanti delle microplastiche. Una decina di anni fa stavamo discutendo sul fatto che dobbiamo guardare a ciò che è fisiologicamente importante, ma molte normative si basano ancora sulla ‘massa di materiale che finisce nell’ambiente o su ciò a cui gli individui sono esposti’. Un tale approccio non è basato sulla scienza, perché non ti dice nulla sui meccanismi di come queste cose causano danni. Ma è un modo molto, molto grezzo per mantenere le concentrazioni abbastanza basse da non vedere danni significativi o “sostanziali”.
La FDA USA ad esempio, stabilisce dei limiti alla massa totale di un polimero che può migrare dagli imballaggi alimentari. Tutti i campioni misurati dai ricercatori del NIST, comprese le tazze da caffè usa e getta, hanno rilasciato masse di particelle di plastica al di sotto dei limiti normativi della FDA. Ma le particelle erano di 30-100 nm, una dimensione che potrebbe avere effetti sulla salute che non derivano da particelle di diametro maggiore.
Le micro e nanoplastiche sono ovunque, dice Demokritou. “E le esposizioni aumenteranno perché abbiamo già 6 miliardi di tonnellate di plastica nell’ambiente che si sta costantemente degradando, e l’industria sta mettendo in circolazione oltre 400 milioni di tonnellate di plastica ogni anno. I finanziamenti per progetti per colmare le lacune nei dati sono scarsi. Dobbiamo davvero lanciare un consorzio di sicurezza per micro e nanoplastiche simile a quello che abbiamo fatto con i nanomateriali e riunire molti gruppi e scienziati per affrontare queste domande fondamentali”.
Sostiene Maynard: “Le agenzie dovrebbero finanziare la ricerca su come le forme specifiche di microplastiche portano a rischi specifici. Abbiamo bisogno di una ricerca meccanicistica che leghi forma, dimensione e chimica a ciò che entra nell’ambiente, dove va e cosa fa quando ci arriva”.
Nota. Adattato e tradotto da: .
Bibliografia
[1] C.D. Zangmeister et al., Common Single-Use Consumer Plastic Products Release Trillions of Sub-100 nm Nanoparticles per Liter into Water during Normal Use.,Environ. Sci. Technol.2022, 56, 5448–5455. DOI: 10.1021/acs.est.1c06768
[2] A. McCormick et al.., Microplastic is an Abundant and Distinct Microbial Habitat in an Urban River.,Environ. Sci. Technol.2014, 48, 11863−11871.
[3] A. Dick Vertaak, H.A. Leslie, Plastic Debris Is a Human Health Issue., Environ. Sci. Technol.2016, 50, 6825−6826.
[4] M. Al-Sid-Cheikh et al., Uptake, Whole-Body Distribution, and Depuration of Nanoplastics by the Scallop Pecten maximus at Environmentally Realistic Concentrations., Environ. Sci. Technol.2018, 52, 14480−14486.
[5] C.A. Poland et al., Carbon nanotubes introduced into the abdominal cavity of mice show asbestoslike pathogenicity in a pilot study., Nature Nanotechnology, 2008, 3, 423-427
[1] Per nanomateriale ingegnerizzato si intende un materiale prodotto intenzionalmente e caratterizzato da una o più dimensioni dell’ordine di 100 nm o inferiori, o che è composto di parti funzionali distinte, interne o in superficie, molte delle quali presentano una o più dimensioni nell’ordine di 100 nm o inferiori, compresi strutture, agglomerati o aggregati che possono avere dimensioni superiori all’ordine di 100 nm ma che presentano caratteristiche della scala nanometrica. (Regolamento UE n. 2015/2283)