Il polietilene ha 90 anni!

In evidenza

Claudio Della Volpe

@font-face {font-family:”Cambria Math”; panose-1:2 4 5 3 5 4 6 3 2 4; mso-font-charset:0; mso-generic-font-family:roman; mso-font-pitch:variable; mso-font-signature:3 0 0 0 1 0;}p.MsoNormal, li.MsoNormal, div.MsoNormal {mso-style-unhide:no; mso-style-qformat:yes; mso-style-parent:””; margin:0cm; mso-pagination:widow-orphan; font-size:12.0pt; font-family:”Times New Roman”,serif; mso-fareast-font-family:”Times New Roman”;}a:link, span.MsoHyperlink {mso-style-priority:99; color:#0563C1; mso-themecolor:hyperlink; text-decoration:underline; text-underline:single;}a:visited, span.MsoHyperlinkFollowed {mso-style-noshow:yes; mso-style-priority:99; color:#954F72; mso-themecolor:followedhyperlink; text-decoration:underline; text-underline:single;}.MsoChpDefault {mso-style-type:export-only; mso-default-props:yes; font-size:11.0pt; mso-ansi-font-size:11.0pt; mso-bidi-font-size:10.0pt; mso-fareast-font-family:Calibri; mso-fareast-theme-font:minor-latin; mso-fareast-language:EN-US;}div.WordSection1 {page:WordSection1;}

Non è sempre possibile datare con certezza la nascita di un nuovo materiale; ma in alcuni casi si può. Il 27 marzo scorso, pochi giorni fa, il polietilene ha compiuto 90 anni. Come in altri casi si trattò di una scoperta inattesa, un errore che aprì la strada ad una nuova classe di molecole. Se vogliamo essere precisi le cose partirono ancora prima nel 1898, ma andiamo per ordine.

Nel 1898 un chimico tedesco, Hans von Pechmann

riscaldò del diazometano.

  Ottenne una sostanza bianca e di consistenza cerosa, che altri chimici, Eugen Bamberger e Friedrich Tschimer, scoprirono composta di lunghe catene di -CH2-, e a cui diedero il nome di Polimetilene.La cosa però rimase lì, nessuno dei ricercatori aveva esperienza di polimeri o materiali solidi, rimase una curiosità di laboratorio ed è da dire che sintesi di “polimetilene” LIQUIDO erano già avvenute nel 1869.35 anni dopo, il 27 marzo 1933, l’evento casuale si ripetè, ma nell’industria; stavolta nel laboratorio ICI di Eric Fawcett e Reginald Gibson,

che stavano sperimentando gli effetti di una pressione elevatissima (1900 atm e 170°C) su una mistura di benzaldeide e etilene,

quando un’accidentale infiltrazione di ossigeno (che non fu subito identificata, e rese quindi difficile dapprima replicare il fenomeno) generò di nuovo la sostanza scoperta da Pechmann decenni prima, una sostanza bianca di tipo ceroso.

Forse sarebbe da dire che i tempi erano adesso maturi per il mondo dei polimeri; “in meno di cinque anni, e più precisamente a partire dal 1930, tre nuovi materiali polimerici che da allora hanno avuto un grande impatto sulla nostra esistenza, sono stati scoperti come risultati inaspettati di un progetto di ricerca. Sono: • policloroprene (nome commerciale Neoprene), 17 aprile 1930, il primo elastomero sintetico più simile alla gomma naturale prodotta industrialmente (E. I. DuPont de Nemours and Co., U.S.A.);• polietilene, 27 marzo 1933 (Imperial Chemical Industries Ltd., Regno Unito); • nylon, 1° marzo 1934, la prima fibra totalmente sintetica prodotta industrialmente (E. I. DuPont de Nemours and Co., U.S.A.)” (Trossarelli e Brunella). Ciononostante ci volle un bel po’, altri 4 anni di ricerche perché fosse chiarito il meccanismo di sintesi del nuovo materiale, che aveva una lunghezza di catena ragguardevole ma non enorme (all’incirca 4000 monomeri).

La reazione scoperta dai due scienziati era anche a rischio di esplosione e il lavoro fu fermato per parecchio tempo a causa di una esplosione verificatasi alla seconda ripetizione del processo. Il 7 aprile 1933 fu riferito al Dyestuff Group Research Committee che il lavoro sulla reazione tra etilene e benzaldeide a 2000 atmosfere era stato abbandonato. Il primo esperimento ha dato una sostanza simile alla cera, probabilmente etilene polimerizzato, ma una ripetizione ha provocato un’esplosione che ha distrutto i calibri. Il polietilene dormì per circa tre anni.Fu Michel Perrin, sempre dell’ICI a scoprire un metodo affidabile di polimerizzazione radicalica per la sintesi del polietilene.

Le cose andarono così, come racconta Ann Jaeger: Fawcett era rimasto deluso dal fatto che alla ricerca non fosse stato permesso di continuare, e i suoi tentativi di far riconoscere alla comunità scientifica i risultati suoi e di Gibson portarono nel settembre 1935 a quella che divenne nota come la “divulgazione di Fawcett”, registra Carol Kennedy nel suo libro ICI: The Company that Changed Our Lives. In un’importante conferenza, a cui hanno partecipato alcuni dei più eminenti scienziati del mondo, Fawcett ha detto ai delegati di aver realizzato un polimero solido di etilene, con un peso molecolare di circa 4000. Ma il consenso all’epoca era che l’etilene non poteva polimerizzare perché il doppio legame poteva essere attivato solo a temperature molto elevate, spiega Valentina Brunella, scienziata di chimica dei polimeri presso l’Università italiana di Torino. Nel dicembre dello stesso anno, Williams e i colleghi Michael Perrin e John Paton hanno ristudiato gli esperimenti di Gibson e Fawcett usando solo etilene. In condizioni sperimentali simili – ma con attrezzature migliori – hanno osservato una caduta di pressione, e quando la reazione è terminata c’erano 8,5 g di polvere di PE bianco. Williams, Perrin e Paton erano stati fortunati. Il recipiente aveva una perdita e, è stato successivamente confermato, una traccia di ossigeno era presente nell’etilene fresco che era stato aggiunto al recipiente di reazione per sostituire il gas fuoriuscito. L’etilene fresco conteneva, per caso, la giusta quantità di ossigeno per fungere da iniziatore. “Quando è successo per la prima volta, è stato un colpo di fortuna”, ha ricordato Frank Bebbington, un assistente di laboratorio che lavorava all’esperimento. Stava parlando a una riunione della Royal Society of Chemistry nel 2004 per commemorare la scoperta del PE, noto anche come politene.

Come si sa l’ossigeno ha proprietà radicaliche, ne abbiamo parlato altrove e può fungere da iniziatore di una reazione radicalica. La storia è estremamente interessante e per i dettagli vi invito a leggere l’articolo di Trossarelli e Brunella che mi è piaciuto molto e che è scritto molto bene.

Lo scoppio della guerra rese il polietilene un materiale strategico per molte applicazioni e addirittura la sua sintesi divenne un segreto per questo. Grazie al suo ruolo nel processo di scoperta, Perrin divenne responsabile della collaborazione anglo-americana nello sviluppo della bomba atomica; più tardi ebbe anche un ruolo nel raccogliere la confessione di una famosa spia (un fisico), Klaus Fuchs. 

Oggi il nostro problema è la enorme stabilità del polietilene che è diventato uno dei polimeri più economici ed usati; la sua sintesi avviene usando dei catalizzatori specifici scoperti da Ziegler e parenti di quelli che Natta usò per la sintesi del polipropilene (qui ci vorrebbe una ampia nota sul fatto che Natta sintetizzò il poliacetilene ma in forma lineare mentre la più fortunata sintesi di Ikeda avvenne anche quella per errore, un errore di 1000 volte nella concentrazione del catalizzatore!!).Questa storia la racconteremo un’altra volta.

Grazie alla sua stabilità il polietilene contribuisce in modo significativo alla produzione ambientale di microplastiche e dunque oggi da spinta basica per una vita migliore dell’umanità questo polimero è diventato, grazie al comportamento dialettico della Natura, uno dei nostri principali problemi ambientali.

Il mio vecchio mentore Guido Barone si farebbe a questo punto una risata sotto i baffi, lui lo diceva sempre che la Natura ha due corni. Io posso solo concludere ripetendo quel che ho scritto qualche tempo fa; le scoperte scientifiche non avvengono quando si fa l’esperimento giusto o si scopre la novità; non basta, ma solo quando le teorie correnti possono accoglierlo (o crollare). 

Consultati o  citati:

https://www.researchgate.net/publication/228813221_Polyethylene_discovery_and_growth

Luigi Trossarelli e Valentina Brunella, Polyethylene: discovery and growth, testo pubblico e che consiglio di leggere, un testo veramente ben scritto e ricco di dettagli storici e chimici; complimenti agli autori.

https://en.wikipedia.org/wiki/Michael_Perrin

https://en.wikipedia.org/wiki/Hans_von_Pechmann

https://www.icis.com/explore/resources/news/2008/05/12/9122447/polyethylene-discovered-by-accident-75-years-ago/

http://acshist.scs.illinois.edu/bulletin_open_access/v39-1/v39-1%20p64-72.pdf

https://www.edn.com/polyethylene-synthesis-is-discovered-by-accident-again-march-27-1933/

https://www.facondevenise.it/storia-del-polietilene/ 

Le biomasse

In evidenza

Luigi Campanella, già Presidente SCI

Le biomasse sono una fonte rinnovabile di energia la cui caratteristica principale è di essere
intrinsecamente legate al territorio, ovvero disponibili ovunque e largamente diffuse, anche se in qualità e quantità diverse. Le biomasse sono composte da materia organica generata dalle piante e dagli animali, appositamente trattata per essere utilizzata come biocombustibile. I cascami dell’industria del legno, gli scarti di quella agroalimentare, la componente biologica dei rifiuti urbani, i residui di attività forestali e boschive sono materiali dai quali si può ottenere energia
Le emissioni di CO2 prodotte dalla biomassa sono compensate dalla quantità di CO2 assorbita, attraverso la fotosintesi, durante la crescita della biomassa stessa.

Al bilancio bisogna però aggiungere le emissioni di CO2 equivalenti derivate dal trasporto e dalle altre attività correlate alla produzione, raccolta e trattamento delle biomasse.

Le emissioni per queste attività non sono poche ; inoltre bisogna aggiungere che l’efficienza di conversione dell’energia solare in biomasse è molto bassa lo 0 2%, ed il fatto che si mette in competizione terreno per produrre cibo con quello per ottenere energia.

Diverso è il discorso se si parla di scarti vegetali,a cui mi riferisco più avanti.
Per il recupero di energia dalle biomasse le tecnologie sono in funzione dell’obiettivo. La digestione anaerobica e la combustione sono le tecnologie dirette o indirette più impiegate per produrre biogas per energia elettrica e termica, la trasformazione chimico-fisica per ottenere biocarburanti.

Rispetto alle biomasse disponibili, il mercato è bilanciato fra domanda ed offerta. L’offerta è condizionata dalla disponibilità e nel caso di un paese a vocazione agricola, come il nostro, le occasioni sono molteplici: potature, raccolte di scarti, selezioni di qualità.

La domanda è invece influenzata da clienti, prezzi, condizioni di approvvigionamento.
Spesso però questa raccolta non avviene e i materiali vengono lasciati.marcire o vengono bruciati selvaggiamente. Questi comportamenti derivano come sempre da considerazioni economiche: le macchine per recuperarli ed imballarli sono costose e costrette a lavorare in condizioni di pendenza ed accessibilità di suolo molto poco percorribili. Quanto si riesce a recuperare viene trasformato in cippato, poi utilizzato come combustibile o trasformato in pellet per uso industriale.

Il recupero energetico delle biomasse avviene mediante impianti ad hoc per combustione diretta o pirogassificazione, ottenuta bruciando in difetto di aria. Nel primo caso si producono anche ceneri mentre nei pirogassificatori si produce un residuo carbonioso, noto come biochar, simile al carbone di legna. Se privo di sostanze tossiche il biochar viene utilizzato in agricoltura come ammendante e fertilizzante. Questo comporta un ulteriore vantaggio nel bilancio del carbonio: infatti le piante coltivate nel terreno trattato con biochar riemettono solo una parte del carbonio assorbito dal terreno. A fronte di questo vantaggio c’è lo svantaggio economico: questo processo è economicamente conveniente solo se la biomassa è gratuita ed inoltre il biochar deve essere garantito per certi indici di qualità. Ciò non toglie che condizioni favorevoli si possano creare come in occasione della pulizia dei boschi per fini turistici o ricreativi e per evitare incendi e della raccolta differenziata dei rifiuti

da leggere:

https://www.qualenergia.it/articoli/la-sostenibilita-dellenergia-da-biomassa-un-tema-complesso/embed/#?secret=jyexd4dMQe

https://www.eia.gov/energyexplained/biomass/

https://cnr.ncsu.edu/news/2021/01/biomass-a-sustainable-energy-source-for-the-future/

Conversione elettrochimica dell’anidride carbonica in sostanze utili

In evidenza

Rinaldo Cervellati

Circa 30 anni fa, quando Andrew Bocarsly, professore di chimica alla Princeton University, pubblicò il suo primo studio sull’uso dell’elettrochimica per convertire l’anidride carbonica (CO2) in prodotti utili generò un interesse quasi nullo. Infatti, in quei giorni del 1994 non si parlava molto di gas serra e cambiamenti climatici. Dice Bocarsly: “Ero solito iniziare ogni discorso spiegando in dettaglio perché ridurre le emissioni di CO2 fosse un’ottima cosa da fare, perché non tutti avevano accettato l’idea anche solo 10 anni fa. Oggi sostengo che la CO2 sta avendo un impatto negativo sull’ambiente e dobbiamo davvero fare qualcosa al riguardo.”

Oggi, molti scienziati e ambientalisti riconoscono che i livelli di CO2 nell’atmosfera stanno aumentando rapidamente e che questo gas serra sta influenzando negativamente l’ambiente.

Dal 1982 al 2022, il livello atmosferico globale medio di CO2 è aumentato di oltre il 20%, da circa 340 ppm a 420 ppm. La maggior parte dell’aumento proviene da attività umane, come l’impiego di combustibili fossili nel trasporto e nell’industria. Nel 2021, le emissioni globali di CO2 causate dall’uomo ammontavano a circa 39,3 miliardi di tonnellate, secondo l’Organizzazione meteorologica mondiale.

Solo 3 o 4 anni fa c’era molta tensione agli incontri sulla CO2 tra i ricercatori che sostenevano di sequestrare la CO2 in profondità nel terreno e quelli che sostenevano che il modo migliore era di convertirla in altri prodotti chimici. Nel giugno 2022, il consenso tra i partecipanti alla 19a Conferenza internazionale sull’utilizzo dell’anidride carbonica a Princeton, era che nell’atmosfera c’è così tanta CO2 che un approccio singolo, sequestro o utilizzo, potrebbe risolvere il problema.

Estrarre una parte di CO2 dall’atmosfera e trasformarla chimicamente in qualcosa di utile sarebbe un grande vantaggio rispetto al sequestro del gas sotto terra, afferma la prof. Laura Gagliardi, direttrice del Center for Theoretical Chemistry dell’Università di Chicago. La chimica di conversione può essere guidata dall’elettricità o dal calore. Entrambi i processi di riduzione della CO2 verrebbero eseguiti in presenza di un catalizzatore per minimizzare l’apporto energetico richiesto. Secondo Gagliardi l’elettrocatalisi può essere più “verde” della catalisi termica, ma proprio come il pensiero sul sequestro rispetto all’utilizzo di CO2, per ridurre i livelli di gas serra si devono considerare entrambe le opzioni.

Riduzione elettrochimica

La riduzione della CO2 in un una cella elettrochimica, offre diversi vantaggi rispetto a quella termica. L’elettroriduzione può essere alimentate da elettricità rinnovabile, ad esempio dall’energia eolica e fotovoltaica che è in rapida crescita e più competitiva in termini di costi.  A differenza dei reattori termici, che in genere riducono la CO2 facendola reagire con idrogeno ad alta temperatura e alta pressione, le celle elettrochimiche generalmente funzionano a temperatura ambiente e pressione atmosferica.

Quindi le celle possono essere relativamente semplici, piccole e poco costose rispetto ai reattori termici, che devono essere grandi per essere convenienti. Inoltre, la reazione termica richiede calore e una fornitura di idrogeno gassoso, entrambi solitamente provenienti da processi basati su combustibili fossili che emettono molta CO2. Il problema con l’elettroriduzione è che ha una bassa efficienza energetica e un controllo insufficiente della sua chimica. Nonostante questo problema, il concetto di elettroriduzione continua ad attrarre nuovi talenti, tanto che oggi il campo è pieno di attività: scienziati nel mondo accademico e industriale in diversi paesi stanno esaminando ogni parte della cella. Lo scopo è migliorare le prestazioni del processo, adattando le celle per ottenere composti utili e dare il via a un eventuale sviluppo commerciale.

Molti ricercatori stanno ottenendo molecole con più di un atomo di carbonio, direttamente nelle celle elettrochimiche.

Decidere quali prodotti ottenere, molecole con uno, due, tre o più atomi di carbonio, dipende principalmente da fattori economici, come il costo dell’elettricità e l’efficienza del processo. Nel caso dell’etilene, l’efficienza energetica dell’elettroriduzione è di circa il 25%; affinché il processo sia commercialmente utilizzabile dovrebbe arrivare al 50-60%.

La CO2 entra in una cella elettrochimica sul lato del catodo, dove interagisce con un catalizzatore, spesso un materiale particellare supportato su quell’elettrodo. La maggior parte del lavoro sulle celle elettrochimiche si concentra sul catalizzatore perché è ciò che dà inizio alla reazione, controlla l’energia e guida i reagenti per formare i prodotti. Piccoli cambiamenti nella composizione del catalizzatore possono avere un forte effetto sulle prestazioni della cella e sulla distribuzione del prodotto. In uno studio in questo senso, il gruppo di Sargent ha collaborato con Zachary Ulissi  della Carnegie Mellon University, e ha utilizzato metodi quantistici per cercare catalizzatori in lega di rame per produrre etilene. I calcoli indicavano leghe rame-alluminio, quindi il team ne ha realizzate e testate una serie. Ha scoperto che l’efficienza faradica, una misura di quanto gli elettroni guidano la reazione desiderata, in questo caso CO2 a etilene, era dell’80%, superiore al 66% per il rame puro [1], figura 1.

Fig. 1 Preparazione di una cella elettrochimica per l’elettroriduzione di CO2. Nothwestern University

In uno studio correlato, il gruppo di Sargent insieme ai ricercatori dell’Università della Scienza e della Tecnologia di Pechino hanno cercato modi per adattare il rame per produrre catalizzatori che inducano la reazione di riduzione a ottenere alcoli multicarbonici rispetto all’etilene. Hanno scoperto che il rame insieme a ossido di bario forma etanolo e 1-propanolo in un rapporto di 3:1, che è 2,5 volte più selettivo del rame puro [2].

La personalizzazione dei catalizzatori è un modo per migliorare le prestazioni delle celle. Un altro modo è ridisegnare la cella. Questo è ciò che hanno fatto Zhu, Wang e i colleghi della Rice University. I prodotti liquidi offrono vantaggi rispetto ai gas perché possono essere trasportati e immagazzinati più facilmente e possono avere densità di energia più elevate. Ma i liquidi generalmente si accumulano nella soluzione elettrolitica della cella e devono essere separati e purificati, il che è costoso. Così il team della Rice ha sostituito il tradizionale elettrolita liquido, che trasporta gli ioni tra il catodo e l’anodo, con uno solido, un copolimero solfonato poroso e conduttore di ioni (figura 2 in basso).

Fig. 2 Le celle H (chiamate per la forma della cella con due grandi camere) e le celle a flusso (chiamate per il flusso di reagenti lungo canali simili a serpenti) usano l’elettricità per convertire l’anidride carbonica in prodotti chimici. In entrambe le celle, la CO2 entra nel dispositivo e fluisce verso un catodo rivestito con un catalizzatore, che riduce il gas a intermedi che vanno a formare monossido di carbonio, etilene e altri prodotti. Per completare la reazione, l’acqua in una soluzione elettrolitica subisce ossidazione all’anodo mentre gli ioni fluiscono attraverso una membrana conduttiva. Adattato da Nat. Sustain./Yang H. Ku/C&EN/Shutterstock

Per testare il progetto, il team ha installato una cella con un catalizzatore di nanoparticelle di bismuto che converte la CO2 in acido formico, che viene utilizzato in grandi quantità come detergente e nella produzione chimica e tessile. La reazione ha formato formiato e ioni idrogeno, che si sono combinati nell’elettrolita solido, generando molecole di acido formico. Il team ha fatto scorrere un flusso di gas inerte attraverso l’elettrolita e ha raccolto il prodotto condensato con una purezza quasi del 100% [3].

Le celle convenzionali hanno un altro difetto: il catalizzatore di rame si degrada gradualmente, il che porta a scarse prestazioni e bassa selettività per l’etilene.

Meenesh Singh, un ingegnere chimico dell’Università dell’Illinois spiega che la forma attiva del catalizzatore è un ossido di rame. Ma la tensione della cella necessaria per ridurre la CO2 riduce anche l’ossido di rame, trasformandolo lentamente in rame metallico inattivo. La soluzione di Singh consiste nel far oscillare il potenziale elettrico, passando rapidamente da una piccola tensione negativa, che genera etilene, a una piccola tensione positiva, che rigenera l’ossido di rame [4].

Un altro componente della cella che può avere margini di miglioramento è l’elettrolita. Le soluzioni acquose, alcaline o acide, sono standard. Ma non sono l’unica opzione. Buxing Han e colleghi, dell’Accademia Cinese delle Scienze, hanno valutato un gran numero di liquidi ionici come elettroliti per l’elettroriduzione della CO2.

Gli elettroliti liquidi ionici possono fornire molti vantaggi rispetto agli elettroliti acquosi, possono avere una maggiore conducibilità e stabilità elettrica, e possono essere utilizzati su una finestra elettrochimica più ampia o su un più ampio intervallo di tensione. I liquidi ionici sono più costosi degli elettroliti standard ma possono essere usati ripetutamente e quindi rendere più facile la separazione dei prodotti.

Qinggong Zhu, un collaboratore di Han, sottolinea che la CO2 è altamente solubile in liquidi ionici, il che favorisce velocità di reazione elevate, al contrario la solubilità della CO2 nelle soluzioni acquose è piuttosto bassa, il che porta a una scarsa efficienza della sua conversione.

Han e colleghi hanno recentemente compilato un’ampia revisione dei liquidi ionici utilizzati per l’elettroriduzione della CO2 [5].

La commercializzazione su larga scala dell’elettroriduzione di CO2 non avverrà dall’oggi al domani, ma l’entusiasmo per la tecnologia sta crescendo rapidamente.

Afferma Bocarsly: “Fino a 10 o 20 anni fa, le persone erano molto scettiche sul fatto che saremmo mai stati in grado di convertire la CO2 in qualcosa di utile che non fosse così costoso che nessuno sarebbe stato interessato ad acquistare. I tempi sono cambiati e le persone stanno iniziando a pensare che sia commercialmente fattibile. Si può discutere sulla bassa efficienza di un prodotto multicarbonio o di un altro, ma questo significa che sai già come farlo. Non c’è dubbio che ciò accadrà”.

Ovviamente le affermazioni di Bocarsly sono quantomeno ottimistiche, c’è anche la questione della sostenibilità ambientale sulla valutazione del ciclo della vita (LCA). A questo proposito Roberta Gagliardi su ilfattoquotidiano.it del 14 marzo scorso scriveva un post dal titolo: I carburanti bio e sintetici sono poco sostenibili, rimandare le e-car danneggerà solo l’industria.

Articolo tradotto, adattato e ridotto da M. Jacoby, Turning carbon dioxide into a valuable re source, C&EN, March 5, 2023.

Bibliografia

[1] M. Zhong et al., Accelerated discovery of CO2 electrocatalysts using active machine learning., Nature, 2020, 581,178–183.

[2] Aoni Xu et al., Copper/alkaline earth metal oxide interfaces for electrochemical CO2-to-alcohol conversion by selective hydrogenation., Nature Catalisys, 2022, 5,1081–1088.

[3] Lei Fan et al., Electrochemical CO2 reduction to high-concentration pure formic acid solutions in an all-solid-state reactor., Nature Communications, 2020, 11, 3633.

[4] Aditya Prajatapi et al., CO2-free high-purity ethylene from electroreduction of CO2 with 4% solar-to-ethylene and 10% solar-to-carbon efficiencies., Cell Reports Physical Science, 2022, 3, 101053. DOI:10.1016/j.xcrp.2022.101053

[5] D. Yang, Q. Zu, B. Han, Electroreduction of CO2 in Ionic Liquid-Based Electrolytes., Innovation, 2020, DOI: 10.1016/j.xinn.2020.100016

Giornata mondiale dell’acqua (22 marzo).

In evidenza

Luigi Campanella, già Presidente SCI

Siamo fatti per il 65% di acqua e questa composizione è fondamentale per il nostro stato di salute. Infatti è l’acqua che lubrifica articolazioni e muscoli, previene la secchezza della pelle, regola la temperatura, aiuta la digestione, mantiene la pressione sanguigna, aumenta le capacità fisiche, trasporta i nutrienti alle varie parti del corpo.

Questo induce i medici ad affermare che bisogna bere prima di avere sete. Ma oltre a bere un’altra forma di idratazione è quella termale. La chimica è la grande guida  di questa forma di cura e prevenzione; infatti la classificazione delle acque termali è tipicamente chimica in relazione ai minerali contenuti: sulfuree, salse, solfato carbonatiche ,ferruginose , bicarbonate ciascuna con evidenti maggiori capacità curative verso specifiche patologie

Si tratta di risorse preziose anch’esse, come tutte quelle riferite all’acqua, esposte a fenomeni di inquinamento. Il nostro territorio è ricco di pozzi in ambienti privati esposti a processi di inquinamento non controllati e non contrastati. Continua inoltre senza sosta, lo sversamento di preziose Acque Sulfuree di falda nei fiumi, come avviene per il fiume Aniene. Potrebbe e dovrebbe essere un tesoro, come lo è sempre stato sin dai tempi dei Romani. Ci dicono che siamo arrivati ad una quota di 6000 litri al secondo, sversati direttamente in Aniene attraverso canali che partono da impianti di estrazione di travertino, tramite potenti impianti di pompaggio. Accade ormai da anni, troppi anni.

Le cure termali sono un metodo terapeutico che consente di

–  diminuire o eliminare i farmaci

–  aumentare l’efficacia di un farmaco

–  ridurre gli effetti collaterali di alcune terapie di lungo periodo.

Le cure termali consentono inoltre:

– la diagnosi precoce di certe affezioni

– la prevenzione delle ricadute e delle complicanze.

L’effetto delle cure termali è pertanto curativo e preventivo. Ogni ciclo ha una tempistica minima studiata per permettere un riequilibrio efficace. Nelle malattie caratterizzate da crisi acute e ripetute, come l’asma, l’emicrania, l’eczema, le cure termali aiutano a diminuire la sensibilità agli agenti scatenanti. Quando i disturbi funzionali sono legati a delle difficoltà psicologiche, possono scomparire completamente una volta riconquistato l’equilibrio psichico.

L’inquinamento ambientale può danneggiare l’acqua termale rilasciando in essa composti estranei, quando non tossici, tanto che oggi alcune terme vengono periodicamente sanificate con radiazioni uv e con ozonoterapia, ma purtroppo quando la falda è stata intaccata la sua completa rigenerazione è difficile.

L’acqua termale contiene sempre molti minerali, ciascuno dei quali implica diversi benefici per la salute della pelle: 

magnesio: stimola la rigenerazione e la cicatrizzazione della pelle;

calcio: protegge e preserva i tessuti cutanei rinforzandone le difese;

manganese: potente antiossidante che stimola la rigenerazione cellulare combattendo così l’invecchiamento cutaneo;

potassio: idrata in profondità le cellule che caratterizzano il tessuto cutaneo;

silicio: rigenera e rende maggiormente compatta l’epidermide;

rame: un potente anti infiammatorio che previene e lenisce eventuali irritazioni;

ferro: fornisce ossigeno alle cellule che caratterizzano i tessuti cutanei agevolandone lo sviluppo;

zinco: stimola la crescita cellulare e ne favorisce il naturale turn over.

La recente legge 24 ottobre 2000 n. 323 definisce le acque termali come “le acque minerali naturali, di cui al regio decreto 28 settembre 1919 n. 1924, e successive modificazioni, utilizzate a fini terapeutici”. Ma non sempre la distinzione è nitida: in alcuni casi, ad esempio, quando le acque termali hanno caratteristiche di composizione tali da potere essere impiegate anche come “comuni” acque minerali (principalmente salinità non elevata e parametri nei limiti previsti dalla normativa), possono venire regolarmente messe in commercio per tale utilizzo.

Non è raro infatti osservare sulle etichette di alcune note acque minerali la dicitura: “Terme di……”. Al fine di stabilire il regime giuridico applicabile, più che alla origine occorre far riferimento alla utilizzazione delle acque. Per quanto riguarda gli aspetti microbiologici, le acque termali seguono quanto è previsto dalla normativa per le acque minerali mentre per gli aspetti chimici non si applica l’articolo 6 del Decreto 542/92 relativo alle sostanze contaminanti o indesiderabili. Questo articolo è da riferirsi, secondo il contenuto della nota del Ministero della sanità  del 19.10.1993, esclusivamente alle acque destinate all’imbottigliamento.

Il tenore di certi elementi (boro, arsenico, bario e altri) è ammesso nelle acque termali in misura superiore a quanto previsto per le acque minerali imbottigliate: il loro uso infatti, oltre ad essere molto limitato nel tempo, avviene sotto controllo medico. Occorre inoltre ricordare che talvolta è proprio la concentrazione di alcuni elementi a determinare l’attività  farmacologica delle acque termali. In Toscana ad esempio sono diffuse acque termali con boro in concentrazione superiore al valore limite previsto per le acque minerali, così come è noto l’impiego delle acque termali arsenicali-ferrugginose in alcuni impianti termali italiani. Con riferimento alle ricadute igienico sanitarie The Lancet, eccellenza scientifica di riferimento mondiale anche nella recente emergenza coronavirus, rilevava in un’inchiesta come la maggiore “rivoluzione sanitaria” in termini di numero di vite umane salvate nella storia fino ai nostri giorni, fosse la gestione sicura dell’acqua e dei servizi igienico-sanitari, considerata addirittura più rilevante dell’invenzione degli antibiotici, dei vaccini e della stessa scoperta del genoma – che ci consente oggi di identificare i virus e studiare le cure. Disporre di una risorsa igienicamente pura è essenziale per garantire la propria salute nel tempo.

WWD actionlist

C’è poi il problema del recupero di risorse idriche ad oggi non utilizzabili, a partire da quelle marine

 All’Italia con 9000 km di coste il mare non manca, ma la salinità impedisce la fruizione diretta di questa risorsa. La desalinizzazione è adottata in quasi 200 Paesi al mondo con oltre 16000 impianti. In Italia è un tecnologia ancora indefinita per scelte e tempi a causa degli elevati costi energetici ad essa correlati, tanto che la politica energetica verso le fonti rinnovabili e quella economica verso il modello circolare potrebbero giocare un ruolo importante nel prossimo futuro. Israele ed Emirati Arabi ci insegnano che dall’acqua marina desalinizzata possono derivare giardini e verde. In Medio Oriente la percentuale di acqua potabile ottenuta dalla desalinizzazione di quella marina sfiora il 50%. In Europa il capofila in materia è la Spagna con quasi 800 impianti di desalinizzazione In Italia come dicevo siamo in uno stallo di attesa per motivi energetici ma anche per le carenze idriche che obbligano ad interventi urgenti per la produzione agricola e per quella industriale, piuttosto che a scelte strutturali.

L’allarme deriva anche dagli ultimi dati: il 2023 si presenta come l’anno più caldo di sempre con un aumento per i primi 2 mesi di 1,44 gradi rispetto alla media. In attesa di scelte e di tempi certi bisogna intervenire con provvedimenti di obbligato rigoroso risparmio, di identificazione di invasi e laghetti artificiali, di ricarica delle falde. Le piogge sono sempre di meno con un calo ogni anno dell’80% e con i grandi laghi e fiumi sempre più secchi:% di riempimento 19 per lago di Como, 36 per lago di Garda, 40 per Lago Maggiore, livello del Po 3 m sotto rispetto al livello idrometrico normale.

Noi, le piante e gli anestetici.

In evidenza

Claudio Della Volpe

Una delle lezioni che ci viene dall’osservazione della storia della scienza (è che è dura da accettare) è che spesso siamo ciechi di fronte a fenomeni evidenti.

Un esperimento chiave può essere fatto e perfino ripetuto più volte ma non sortisce i suoi effetti sulla nostra cultura se non dopo che la nostra costruzione teorica abbia acquisito lo spazio per accettarlo.

L’effetto degli anestetici è uno dei fenomeni che lo mostra.

La scoperta dell’azione degli anestetici risale al 1844; nel dicembre di quell’anno un dentista americano Horace Wells venne a sapere di una manifestazione ad Hartford sul protossido di azoto (meglio noto come gas esilarante, capace di indurre una sorta di ebrezza alcolica in chi lo aspirava). Durante lo spettacolo notò che uno dei volontari, che si era sottoposto alla somministrazione del gas, aveva urtato contro l’orlo di un sedile e, senza accorgersi della profonda ferita procuratesi alla gamba, aveva continuato a far divertire il pubblico, mantenendo i movimenti tipici di un ubriaco. Fu così che intuì la possibilità di estendere l’uso del protossido di azoto anche alla chirurgia odontoiatrica, e dimostrare ai medici dell’epoca che il dolore durante un’operazione chirurgica poteva essere anestetizzato. https://saluteuropa.org/scoprire-la-scienza/storia-dellanestesia/

Da N Engl J Med 2003;348:2110-24.

Appena 5 anni dopo, nel 1849, Scientific American dava notizia dell’esperimento fatto sulle piante “sensibili” da tale Dr. Manet e riportato sul Transactions of Physicial Society of Geneva usando il cloroformio con analoghi risultati. La notizia però si perse e non è stata mai più citata.

Dovettero passare trent’anni e si arrivò al 1878 quando il grande Claude Bernard, fisiologo francese considerato il fondatore della medicina sperimentale, (gli si deve la nozione di mezzo interno e di omeostasi, fondamento della biologia moderna) riscoprì l’effetto e lo riportò nel suo libro Leçons sur les phénomènes de la vie communs aux animaux et aux végétaux. (Librairie J.-B. Baillière et Fils) con un esperimento condotto sulla Mimosa pudica usando l’etere (pg. 259 del libro). Bernard riscoprì il fenomeno e non cita l’esperimento seminale di Manet, fatto quasi 30 anni prima con un diverso anestetico. Egli ne concluse che le piante e gli animali devono condividere un’essenza biologica comune che viene interrotta dagli anestetici.

Da allora la cosa è stata studiata e riportata parecchie volte in letteratura fino ad arrivare alla moderna riscoperta di massa (legata fra gli altri all’attività dell’italiano S. Mancuso) che anche le piante mostrano fenomeni di sensibilità notevolissimi tanto da poter essere considerate non solo sensibili ma perfino “intelligenti”: Planta sapiens (che è poi il titolo di un recente libro di Paco Calvo ed. Il saggiatore).

In realtà la sensibilità all’anestesia è sorprendente poiché accomuna noi, i batteri, le piante e perfino i mitocondri, che come abbiamo ricordato altrove sono batteri che si sono uniti ad altri contribuendo alla formazione della cellula eucariota. Insomma specie che si sono di fatto succedute nell’ambito di almeno un miliardo e mezzo di anni di evoluzione hanno conservato una profonda sensibilità alle medesime molecole.

Questo però nel caso delle piante dovrebbe aiutarci a vederle da un punto di vista diverso. Le piante in sostanza non sono lo “sfondo” della vita animale, ma sono anch’esse vive ed attive con meccanismi che non ci appaiono evidenti solo perché i loro tempi sono diversi dai nostri; ma questo non giustifica una nostra pretesa superiorità.

Da leggere: Planta sapiens, Perché il mondo vegetale ci assomiglia più di quanto crediamo di Paco Calvo con Natalie Lawrence, Ed. Il Saggiatore, 2022, pag. 350

Combattere le disuguaglianze

In evidenza

Vincenzo Balzani, professore emerito UniBo

Il presente modello di sviluppo spinge alla competizione e alla perdita dell’idea di bene comune, causando il deterioramento del tessuto sociale. Il principale, se non unico obiettivo è arricchirsi. Questa situazione si è inacerbata con la crisi pandemica, la guerra in Ucraina e tutti i problemi collegati.

Nonostante la crisi energetica, le compagnie petrolifere stanno guadagnando in modo abnorme (ENI: 10,81 miliardi di euro nei primi nove mesi 2022). Pochi giorni fa, i giornali ci hanno informato che Leonardo nel 2021 ha venduto armi per 13,9 miliardi di dollari, prima fra le aziende europee, e che l’amministratore delegato di una grande banca italiana ha chiesto un aumento del 40% per il suo stipendio, che è già di 7,5 milioni all’anno. In Gran Bretagna, Equality Trust ha riportato che il numero dei miliardari è aumentato da 15 nel 1990 a 177 nel 2022 e che nello stesso periodo la ricchezza dei miliardari è aumentata di più del 1000%, mentre è cresciuto enormemente il numero di poveri. Equality Trust sottolinea che questo divario non è da imputarsi al fatto che i miliardari sono persone intelligenti, creative o fortemente dedicate al lavoro, ma perché essi sono i maggiori beneficiari di un sistema economico inadeguato. E’ quanto afferma anche papa Francesco nell’enciclica Laudato si’: ”Ciò che sta accadendo ci pone di fronte all’urgenza di procedere in una coraggiosa rivoluzione culturale”.

Un’indagine estesa a molti paesi sviluppati indica che al crescere delle disuguaglianze aumentano gli indici di malessere, come la violenza e l’abuso di droghe, mentre diminuiscono gli indici di benessere, come la fiducia reciproca e la mobilità sociale. Quindi, se si vuole migliorare la qualità della vita si devono ridurre le disuguaglianze, problema che non può essere risolto con una caritatevole politica sociale. Consumando più risorse e, allo stesso tempo, aumentando le disuguaglianze, si scivolerà sempre più velocemente verso l’insostenibilità ecologica e sociale, fino a minare, in molti paesi, la sopravvivenza della stessa democrazia.

La piramide dei ricchi nel mondo (fonte: Sole24Ore)

Per migliorare il mondo è necessario, anzitutto, chiedersi ciò che deve essere fatto e ciò che non deve essere fatto, prendendo come valori di riferimento l’obiettivo del lavoro, la sua metodologia e il suo significato. L’obiettivo deve essere la custodia del pianeta, la metodologia giusta è la collaborazione, il significato è la dignità di ogni singola persona. Poi c’è l’economia; in gennaio, i trenta membri della Transformational Economics Commission del Club di Roma hanno chiesto al World Economic Forum di Davos, nel quale ogni anno si incontrano i leader dei governi, dell’economia e della società civile, di prendere concrete decisioni per frenare il cambiamento climatico e prevenire l’instabilità sociale. Hanno calcolato che il forte aumento della spesa pubblica può essere totalmente coperto con fondi ottenuti tassando in modo più efficiente e maggiormente progressivo le imprese e le persone più ricche, in base anche alle emissioni di gas serra che producono e a quanto pesantemente sfruttano le risorse del pianeta.

Tutto questo è in linea con quanto afferma papa Francesco nell’enciclica Laudato si’: ”Ciò che sta accadendo ci pone di fronte all’urgenza di procedere in una coraggiosa rivoluzione culturale”.

Misurare la tossicità del particolato col lievito.

In evidenza

Luigi Campanella, già Presidente SCI

L’atmosfera urbana è caratterizzata dalla presenza di un insieme vasto ed eterogeneo, da un punto di vista chimico-fisico, di particelle aerodisperse di dimensioni comprese tra 0,005 e 100 μm, costituite essenzialmente da minerali della superficie terrestre, prodotti di combustione e di attività industriali, artigiane, domestiche, sali provenienti da aerosol marini, prodotti di reazione in atmosfera. Le quantità di materiale particellare riscontrabili nelle atmosfere urbane sono in genere dell’ordine di 50-150 μg/m3,,ovviamente con i valori bassi dell’intervallo più pertinenti alle città europee e dei paesi più avanzati nelle politiche ambientali.

Fra queste particelle  viene considerata con sempre maggiore interesse per i suoi effetti sulla salute della popolazione esposta la frazione inalabile, ovvero la frazione granulometrica di diametro aerodinamico minore di 10 μm (PM 10). La frazione granulometrica del PM 10 formata da particelle di diametro aerodinamico maggiore di 2,5μm costituisce la frazione coarse, che una volta inalata può raggiungere l’apparato respiratorio superando il livello naso-faringeo, quella costituita da particelle con diametro aerodinamico minore di 2,5μm (PM 2,5) costituisce la frazione fine, che una volta inalata, è in grado di arrivare fino al livello degli alveoli polmonari.

Le polveri fini, o particolato, hanno soprattutto tre origini:

Mezzi di trasporto che bruciano combustibili

Impianti industriali

Impianti di riscaldamento

Le attuali conoscenze sul potenziale rischio cancerogeno per l’uomo dovuto all’esposizione del particolato, derivano da studi di epidemiologia ambientale e di cancerogenesi sperimentale su animali e da saggi biologici a breve termine, quali test di genotossicità, mutagenesi e trasformazione cellulare.

Si è riscontrata un’elevata attività mutagena nell’aria urbana di tutte le città del mondo e risulta crescente la preoccupazione per un possibile effetto cancerogeno sulla popolazione in seguito all’esposizione da particolato urbano. E’ infatti noto da molto tempo che estratti della componente organica da particolato urbano possono indurre cancro alla pelle in animali da esperimento e risultano mutageni in alcuni dei test adottati per tale valutazione.

Inoltre in alcuni studi è stato mostrato come l’esposizione ad aria urbana abbia provocato la formazione di addotti multipli al DNA, sia nel DNA batterico che nel DNA della pelle e del polmone del topo. Infine estratti della componente organica da particolato sono risultati positivi anche in saggi di trasformazione cellulare in cellule di mammifero.

https://www.epa.gov/pmcourse/particle-pollution-exposure

Uno studio dell’US Environmental Protection Agency (USEPA) sui tumori “ambientali” negli Stati Uniti stima che il 35% dei casi di tumore polmonare “urbano” attribuibili all’inquinamento atmosferico sia imputabile all’inquinamento da particolato.

L’organizzazione Mondiale della Sanità ha riconosciuto che in Italia, nelle città più inquinate la percentuale dei decessi che si possono addebitare alle polveri può arrivare fino al 5%.

La variabilità della composizione chimica del particolato atmosferico fa si che, ai fini della protezione dei cittadini e degli esposti, la misura solo quantitativa di questo indice non sia del tutto significativa.

E’ per questo che negli ultimi anni vanno moltiplicandosi gli studi su questo inquinante, riguardanti il campionamento, l’analisi, la valutazione di tossicità.

La presenza nel particolato di elementi e composti diversi a differenti concentrazioni comporta quindi che, a parità di quantità, la qualità di esso possa essere differente da caso a caso e determinante ai fini della individuazione di situazioni di rischio e pericolo. È ovvio che, per gli aspetti più strettamente fisici del rischio ambientale, tale considerazione è relativamente meno influente in quanto tale azione si esercita attraverso un’ostruzione delle vie respiratorie da parte del particolato; ma quando da questi si passa a quelli chimici e quindi alle interazioni chimiche e biochimiche fra l’ecosistema, l’organismo umano, che ne fa parte, ed il particolato, si rende necessaria una valutazione integrale di tipo anche tossicologico finalizzata a valutare le potenzialità nocive del particolato in studio.

I test di tossicità integrale nascono con il fine di fornire in tempo reale risposte finalizzate a possibili interventi tempestivi in caso di situazione di allarme, superando i tempi morti dell’attesa dei risultati delle complesse e complete analisi chimiche e microbiologiche di laboratorio.

Le metodiche di campionamento da adottarsi devono essere compatibili con le procedure e le tecniche di preparazione dei campioni dell’analisi successiva. I metodi adatti a tale fine sono essenzialmente due: il metodo del filtro a membrana che permette di raccogliere direttamente il particolato su un supporto adatto alla successiva analisi mediante microscopio elettronico (MEA) ed il campionamento mediante impattori inerziali. Fra i test di tossicità integrale, escludendo quelli basati su sperimentazione animale che richiedono strutture particolari e guardando piuttosto al contrario verso test semplici ed economici che possano essere applicati anche da laboratori non particolarmente attrezzati, stanno trovando crescente interesse quelli respirometrici. Sostanzialmente si misura la capacità respiratoria di cellule, libere o immobilizzate, spesso di lieviti, nell’ambiente sotto esame e la si confronta con quella in un ambiente di riferimento.

La riduzione della suddetta capacità è correlata alla tossicità dell’atmosfera testata. Il test può anche essere condotto basandosi sulla cinetica di respirazione. Nell’intenzione di rendere il test quanto più sensibile possibile si sono utilizzate modificazioni genetiche cellulari, cellule private della parete o cellule sensibilizzare attraverso trattamenti preliminari. In tutte queste misure l’elettrodo indicatore può essere di 3 tipi: in primis ovviamente l’elettrodo di Clark che misura per via amperometrica la concentrazione dell’ossigeno, l’elettrodo a diffusione gassosa per la CO2 ed un FET (transistor ad effetto di campo) per l’acidità prodotta dalla respirazione.

Geometria e-scatologica

In evidenza

Claudio Della Volpe

Abbiamo ripetuto più volte su queste pagine un concetto che Primo Levi ha portato alla dignità della letteratura e che ripeto qua a modo mio. La materia è dura ed insensibile, il chimico la vivifica mentre essa appare morta, la manipola mentre essa resiste duramente ad ogni manipolazione, e tramite questo intenso rapporto alla fine (anche se non sempre) ne trae qualcosa, una sorta di “anima” della materia, che poi permea tutta la nostra disciplina.

Noi chimici non abbiamo paura della materia di qualunque natura essa sia; sappiamo che col duro lavoro possiamo trarne qualcosa di buono. Ed ecco perché su questo blog parliamo spesso di materiali che sono di solito “vietati”, proibiti: i rifiuti, gli escrementi, l’acqua sporca; noi sappiamo che da essi possiamo riestrarre cose utili e necessarie, ma dobbiamo avvicinarli senza paura, blandirli, studiarli, renderli innocui e poi trasformarli: il lavoro del chimico!

Un recentissimo lavoro pubblicato su Soft matter, una brillante rivista che parla di materiali soffici, come dice il titolo, ci racconta il perché della forma degli escrementi di mammifero; oggi vi parlerò, insomma, della forma della cacca, argomento ostico, ma non così puzzolente come potreste immaginare.

Dietro questo studio c’è l’osservazione della forma degli escrementi diversi in diversi animali; forse il più famoso è il wombat, un piccolo marsupiale noto a molti perché produce escrementi cubici, una geometria certamente peculiare.

Le feci del wombat.

E ancora più alla base c’è il pensiero espresso da un filosofo slavo, Zizek, il quale con grande serietà spiega come la forma dominante dei WC in diversi paesi possa essere collegata alla diversa mentalità dei popoli; non voglio approfondire questa proposta ideologica, ma vi invito a leggerla e vedrete che me ne sarete grati; come minimo vi strapperà un sorriso, ma non privo di più profonde riflessioni. Colgo l’occasione per dire che personalmente concordo col metodo tedesco di fare la pipì.

Torniamo a noi.

Gli escrementi o fatte degli animali sono costituiti dalle parti solide indigeribili degli alimenti (resti vegetali, ossa, peli, penne etc) e rappresentano ottimi segnali che possono indicare la presenza di una specie in un determinato ambiente; oltre alla presenza di una specie gli escrementi consentono anche di conoscerne le abitudini alimentari poiché spesso al loro interno è possibile riconoscere e identificare i resti indigeriti che aiutano a comprendere le abitudini alimentari dell’animale. Per chiarezza il termine borre invece indica un escremento solido espulso dalla bocca (in genere da uccelli) e che contiene resti di cibo non digeriti; si tratta sostanzialmente di pelo, piume, ossa o materiale vegetale indigeribile pressati in una sorta di capsula simile ad una fatta (la pressatura avviene in uno dei due stomaci che alcuni uccelli posseggono).

Nel caso dei mammiferi le fatte fresche hanno un ruolo sessuale poiché indicano dall’odore la disponibilità dell’animale all’accoppiamento, ma servono anche a marcare il territorio e vengono depositate in luoghi specifici che lo delimitano: “questo è mio” o “io sono qua”, questo il senso e-scatologico.

In altri casi le feci vengono espulse in “corsa”, come avviene al capriolo o al cervo (vedi foto qui sotto).

Ma sebbene molto interessante questo non ci fa avanzare nella comprensione della forma così variabile delle fatte.

Il parametro considerato critico dagli autori è la percentuale di acqua presente nel bolo; il bilancio fra l’acqua liquida e quella vapore cambia durante il percorso e questo comporta, in ragione delle dimensioni del corpo, del diametro del bolo e del tempo la formazione di crack trasversali che spezzano il bolo conferendogli una forma specifica, come riportato nel seguente grafico.

Gli autori sviluppano anche una ipotesi, che però non è confermata dall’analisi numerica, ossia che il processo sia simile a quello che ha generato le formazioni poligonali di Causeway, un sito di interesse geologico.

In realtà, almeno per quanto riguarda il caso umano l’osservazione della relazione fra lo stato delle feci e lo stato della salute del soggetto considerato era stata già fatta e viene espressa nella cosiddetta scala di Bristol sviluppata fin dal 1997 come presidio di valutazione medica.

Diciamo che sebbene possa dare adito a considerazioni buffe o peggio, e superando un naturale(?!) disgusto anche la materia fecale ha un ruolo importante nella nostra vita e nel nostro stato di salute e dunque esiste una chimica e perfino una chimica-fisica delle feci, che però non credo i chimici prendano di solito in considerazione nei loro studi, contravvenenendo ai saggi consigli di Primo Levi. Tenete presente che esiste però una letteratura significativa sul tema della composizione delle feci ma una assai più scarsa sulla dinamica della loro formazione, un soggetto forse spiacevole, ma penso molto interessante e con potenziali ricadute tecniche, mediche ed ingegneristiche (a titolo di esempio una volta fui coinvolto nello studio dei meccanismi per i quali è difficile pulire per bene con metodi automatici le superfici dei gabinetti pubblici, tema non peregrino se fate un viaggio chessò in auto, e vi assicuro che la ragione è perfettamente legata alle proprietà di superficie dei materiali ceramici ma anche alla dinamica dei liquidi, in particolare alla cosiddetta no-slip hypothesis, ma questa è un’altra storia).

Da leggere: https://it.wikipedia.org/wiki/Bristol_stool_scale

https://en.wikipedia.org/wiki/Human_feces

Le macchine molecolari: storia e possibili sviluppi futuri

In evidenza

Rinaldo Cervellati

In questo post traduco, adattandolo, un articolo-review di Mark Peplow, pubblicato su C&EN news il 5 febbraio scorso.

I laboratori di ricerca sulle macchine molecolari aumentano di anno in anno, tanto che si può quasi udire il ronzio immaginario di questi dispositivi su scala nanometrica.

Negli ultimi due decenni, i ricercatori hanno assemblato una stupefacente serie di molecole con parti mobili che agiscono come macchinari in miniatura. Hanno realizzato motori con pale rotanti, pompe che raccolgono molecole dalla soluzione, assemblatori molecolari che mettono insieme peptidi e in grado di leggere i dati memorizzati su fili di nastro molecolare. Tra i pionieri in questo campo troviamo l’italiano Vincenzo Balzani,https://www.scienzainrete.it/contenuto/articolo/pietro-greco/balzani-pioniere-delle-macchine-molecolari-premiate-stoccolma

Jean-Pierre Sauvage, J. Fraser Stoddardt e Bernard L. Feringa che hanno ottenuto il premio Nobel per la chimica 2016.

Cosa possono fare questi dispositivi? Sebbene le applicazioni siano ancora relativamente lontane, i ricercatori stanno iniziando a vedere come le macchine molecolari potrebbero essere sfruttate per compiti utili. Ad esempio i motori molecolari possono flettere le nanofibre o riorganizzare i cristalli liquidi, che possono essere utilizzati per creare materiali reattivi e “intelligenti”.

Ora i ricercatori si stanno ponendo domande più profonde: come funzionano le macchine e come possiamo migliorarle? Le risposte, dicono alcuni, arriveranno studiando la cinetica e la termodinamica di questi sistemi per capire come l’energia e le velocità di reazione li fanno funzionare. Affrontare questi fondamenti potrebbe aiutare il campo a superare un approccio in qualche modo basato su tentativi ed errori alla costruzione di macchine e sviluppare invece un insieme più robusto di principi di progettazione.

I ricercatori stanno già iniziando a mettere a punto i combustibili chimici che guidano alcune macchine molecolari. Stanno anche costruendo macchine molecolari autonome che richiedono meno intervento da parte dei loro operatori umani, fintanto che è presente una scorta di carburante scelta con cura. Ma questa attenzione ai carburanti sta anche suscitando accesi dibattiti sui principi fondamentali del funzionamento di queste macchine. I motori sono forse il tipo più iconico di macchina molecolare. In genere operano attraversando un ciclo ripetuto di reazioni chimiche che modificano la forma della molecola e provocano il movimento, ad esempio la rotazione attorno a un legame o il movimento lungo una traccia. Per evitare che il motore si muova inutilmente avanti e indietro, i ricercatori hanno anche bisogno di un meccanismo che assicuri che si muova in una sola direzione.

Il primo motore molecolare rotativo sintetico completamente funzionante è stato presentato nel 1999 da Ben Feringa, dell’Università di Groningen. L’innovativo motore di Feringa conteneva due voluminosi gruppi chimici collegati da un doppio legame carbonio-carbonio. I gruppi ruotavano attorno a questo asse attraverso una serie di isomerizzazioni indotte dalla luce ultravioletta e dal calore. La chiralità della molecola motrice assicurava che i gruppi ingombranti potessero schiacciarsi l’uno accanto all’altro quando si muovevano in avanti nel ciclo ma non all’indietro [1].

Sulla sua scia sono seguiti dozzine di altri motori guidati dalla luce e sono stati sfruttati per una varietà di compiti, come la produzione di gel sensibili alla luce e il movimento di muscoli artificiali. La luce è una fonte di energia comoda e regolabile e non produce prodotti di scarto.

Fig.1 Questo motore autonomo contiene un anello (blu) che si muove in senso orario attorno a un binario circolare in quattro fasi. I siti di riconoscimento (verdi) ostacolano l’anello, mentre i gruppi ingombranti (rossi) ne impediscono l’avanzamento. Le molecole di carburante (sfere rosse) aggiungono questi gruppi bloccanti, che possono essere rimossi per produrre scorie (sfere arancioni). Copyright: Nature.

Tuttavia, per coloro che cercano di comprendere e imitare le macchine molecolari biologiche, come le proteine motrici che aiutano a trasportare il carico all’interno delle cellule, la luce non è sufficiente. La biologia ha utilizzato con successo pompe e motori molecolari per miliardi di anni, ma generalmente li guida con sostanze chimiche come l’adenosina trifosfato (ATP) piuttosto che con la luce. Per i chimici, quel precedente rappresenta una sfida irresistibile per lo sviluppo di macchine molecolari sintetiche alimentate da processi chimici.

Nel 1999, T. Ross Kelly del Boston College ha compiuto un passo importante verso tale obiettivo sviluppando un prototipo di motore alimentato a fosgene in grado di ruotare di 120° [2]. Sei anni dopo, Feringa costruì un motore rotativo ad azionamento chimico in grado di completare un giro completo attorno a un singolo legame C–C formando e rompendo un lattone che collegava le due unità del motore. Un agente riducente chirale fungeva da combustibile, aprendo il lattone e assicurando che il motore ruotasse in un’unica direzione [3].

I ricercatori hanno ora una serie di altre strategie di rifornimento [4]. Alcuni impiegano una serie di passaggi di protezione e deprotezione che aggiungono o rimuovono gruppi chimici pesanti dalla macchina. Altri variano il pH per far compiere a una macchina un ciclo completo. Un terzo approccio, sviluppato negli anni ’90, dipende da reazioni di ossidazione e riduzione.

La maggior parte di questi dispositivi azionati chimicamente si affida ai loro manipolatori umani per aggiungere il giusto tipo di carburante o altri reagenti in ogni punto del ciclo della macchina.

Ancora più importante, non è così che funzionano le macchine biomolecolari. Nuotano in un mare di molecole di carburante come l’ATP, le raccolgono ogni volta che ne hanno bisogno e operano ininterrottamente. Raggiungere quel tipo di autonomia nelle macchine molecolari sintetiche è un obiettivo importante per il settore.

A differenza dei fotoni, i combustibili chimici forniscono un modo per immagazzinare e trasportare una fonte di energia concentrata a cui le macchine molecolari possono accedere su richiesta [5]. David Leigh (University of Manchester) ritiene che se le macchine possono accedere a una fonte di energia secondo necessità, potrebbero avere una gamma più ampia di applicazioni rispetto ai sistemi non autonomi.

Nel 2016, Leigh ha pubblicato una pietra miliare nella spinta all’autonomia delle macchine. Afferma: “È stato il primo motore autonomo guidato chimicamente”. Il motore è costituito da un anello molecolare che può muoversi su una pista circolare. Ci sono due regioni, chiamate siti di riconoscimento, sui lati opposti della pista, che possono mantenere l’anello in posizione mediante legami a idrogeno. Ciascun sito di riconoscimento si trova vicino a un gruppo idrossilico che reagisce con un combustibile, il cloruro di fluorenilmetossicarbonile (Fmoc-Cl). Questa reazione installa ingombranti gruppi Fmoc sul binario, bloccando il movimento dell’anello [6].

Ma la miscela di reazione contiene anche una base che aiuta a strappare i gruppi bloccanti, permettendo all’anello di passare. Il risultato è che i gruppi Fmoc entrano ed escono costantemente dai siti di ancoraggio idrossilici della traccia. Fondamentalmente, l’impedimento sterico assicura che la reazione per aggiungere un Fmoc avvenga circa cinque volte più velocemente nel sito di ancoraggio che si trova di fronte all’anello.

Da allora, Leigh ha utilizzato una chimica del carburante Fmoc in una pompa autonoma che raccoglie gli eteri dalla soluzione e li inserisce in una lunga catena di stoccaggio [7]. L’avvento di tali dispositivi autonomi ha suscitato entusiasmo, ma alimenta anche un dibattito di lunga data su come funzionino effettivamente le macchine molecolari guidate chimicamente. Ed è qui che le cose si complicano.

Per comprendere questo dibattito, si consideri la chinesina, una macchina biologica proteica che trasporta il carico all’interno delle cellule. La proteina ha due “piedi” che avanzano lungo binari rigidi chiamati microtubuli e il movimento è guidato dall’idrolisi dell’ATP in adenosina difosfato (ADP). Alcuni ricercatori hanno sostenuto che la rottura del forte legame fosfato nell’ATP innesca la chinesina mettendola in uno stato ad alta energia. Il rilassamento della chinesina da questo stato provoca un cambiamento conformazionale che spinge i “piedi” in avanti, uno dopo l’altro.

Questa interpretazione non è corretta, afferma Dean Astumian, un fisico dell’Università del Maine che ha svolto un ruolo chiave nel guidare il pensiero sul funzionamento dei motori molecolari: “Lo dico come un fatto deduttivo, non come un’opinione: i dati sperimentali mostrano che il movimento della chinesina è controllato dalle velocità relative delle reazioni reversibili che coinvolgono anche chinesina, ATP e i loro prodotti.”[8].

Fig. 2 Un combustibile carbodiimmide chirale e un catalizzatore chirale aiutano a garantire che questo motore autonomo ruoti in una direzione. Le frecce tratteggiate mostrano reazioni inverse che sono meno probabili nelle condizioni di reazione. Copyright: Nature

Astumian e altri sostengono che tutte le macchine molecolari guidate chimicamente sono governate dall’asimmetria cinetica in questo tipo di “dente di arresto” browniano. Al contrario, i colpi di potenza sono coinvolti nella guida di macchine guidate dalla luce: la luce eccita il dispositivo in uno stato di alta energia e il suo rilassamento provoca un grande cambiamento meccanico. Questa distinzione nel meccanismo ha importanti implicazioni.

Fig. 3 Il “dente di arresto” autonomo contiene un anello (nero) intrappolato su un binario lineare (grigio). Girando finemente il carburante della macchina, che installa un gruppo barriera (rosa) sul binario, i ricercatori possono migliorare le possibilità dell’anello di assestarsi nel sito di riconoscimento (verde) più lontano dalla barriera. Copyright: J. Am. Chem Soc.

Il modello di “dente di arresto” browniano è ampiamente accettato tra i macchinisti molecolari. Ma alcuni sottolineano che se il ruolo principale di una molecola di combustibile non è quello di fornire energia per far muovere un motore molecolare, non dovrebbe essere chiamata combustibile.

Alcuni ricercatori affermano che il carburante è semplicemente una comoda scorciatoia per qualsiasi reagente che aziona una macchina molecolare.

Per affrontare questo e altri problemi meccanicistici, i ricercatori hanno recentemente delineato una serie di modelli che descrivono la termodinamica e la cinetica alla base delle macchine molecolari. In aprile 2022, Leigh ha presentato un motore autonomo guidato chimicamente che è molto più efficiente del suo esempio del 2016. Il motore beneficia di una migliore reazione di alimentazione e di due fasi distinte che conferiscono ciascuna una certa asimmetria cinetica al suo ciclo di reazione. Il motore contiene una coppia di gruppi arilici che ruotano attorno a un legame singolo C–C formando e rompendo un gruppo di anidride a ponte. I ricercatori usano un combustibile chirale di carbodiimmide e un catalizzatore di idrolisi chirale, assicurando che il motore giri (principalmente) in una direzione [9]

Feringa afferma che il suo team sta effettuando calcoli di meccanica molecolare e altri approcci di modellazione per effettuare progetti di macchine e capire come diverse strutture e sostituenti potrebbero farli funzionare più velocemente e in modo più efficiente. A luglio, i ricercatori hanno mostrato un motore autonomo che funziona con carbodiimmide in ambiente acido ma ruota formando e rompendo un estere a ponte [10].

Leigh sta anche modificando i suoi carburanti per migliorarne le prestazioni. A settembre, il suo team ha dimostrato tale approccio su un “dente di arresto” autonomo che contiene un anello intrappolato su un binario lineare [11].

Per ora, tutte queste macchine autonome alimentate chimicamente sono dispositivi di prova che non svolgono compiti utili. Ma Leigh ci sta lavorando. In collaborazione con Katsonis dell’Università di Groningen, ad esempio, spera di manipolare i cristalli liquidi con i suoi motori alimentati chimicamente, cosa già ottenuta con i motori azionati dalla luce. Katsonis afferma che il progetto sta evidenziando una delle difficoltà per i sistemi alimentati chimicamente: come gestire i loro prodotti di scarto. I rifiuti chimici prodotti dalle reazioni di alimentazione possono alterare le condizioni di reazione come il pH o legarsi alla macchina in modi che ostacolano l’accesso a ulteriori molecole di carburante.  Le molecole di scarto potrebbero essere riciclate in carburante, proprio come la natura trasforma l’ADP in ATP. Per raggiungere questo obiettivo, i ricercatori dovranno sviluppare una gamma più ampia di carburanti per macchine autonome.

Nel frattempo, un’altra fonte di energia sta venendo alla ribalta. Stoddart ha recentemente sviluppato un motore molecolare che utilizza un meccanismo redox azionato direttamente dall’elettricità [12]. Di fronte alla sana concorrenza della luce e dell’elettricità, le macchine autonome alimentate chimicamente ora devono dimostrare di poter svolgere una varietà di utili funzioni meccaniche, afferma Feringa: “Questa è la cosa più interessante e importante, e questa è la grande sfida”

Bibliografia

[1] N. Komura et al., Light-driven monodirectional molecular rotor, Nature, 1999, 401, 152-155.

[2] T. Ross Kelly, H. De Silva, R. De Silva, Unidirectional rotary motion in a molecular system, Nature, 1999, 401, 150-152.

[3] S.B. Fletcher et al., A Reversible, Unidirectional Molecular Rotary Motor Driven by Chemical Energy, Science, 2005, 310, 80-82.

[4] R. Benny et al., Recent Advances in Fuel-Driven Molecular Switches and Machines, Chemistry Open, 2022, 9, 1-21.

[5] S. Borsley, D.A. Leigh. BMW. Roberts, Chemical fuels for molecular machinery, Nature Methods, 2022, 14, 728-738.

[6] M.R. Wilson et al., An autonomous chemically fuelled small-molecule motor, Nature, 2016, 534235–240.

[7] S. Amano, S.D.P. Fielding, D.A. Leigh, A catalysis-driven artificial molecular pump, Nature, 2021, 594, 529–534.

[8] R. D. AstumianS. MukherjeeA. Warshel, The Physics and Physical Chemistry of Molecular Machines, ChemPhysChem, 2016, 17, 1719-1741.

[9] S. Borsley et al., Autonomous fuelled directional rotation about a covalent single bond, Nature, 2022, 604, 80–85.

[10] K. Mo et al., Intrinsically unidirectional chemically fuelled rotary molecular motors, Nature, 2022, 609, 293–298.

[11] S. Borsley et al., Tuning the Force, Speed, and Efficiency of an Autonomous Chemically Fueled Information Ratchet,J. Am. Chem. Soc., 2022, 144, 17241–17248.

[12] L. Zhang et al., An electric molecular motor, Nature, 2023, 613, 280–286.

Terra bruciata

In evidenza

Mauro Icardi

James. G Ballard scrittore inglese, che sarebbe riduttivo definire unicamente autore di libri di fantascienza, nel 1964 pubblica un libro che viene tradotto in Italiano con il titolo di “Terra Bruciata”.

È il libro che sto leggendo in questi giorni, attirato sia dall’immagine di copertina di Karel Thole, il grafico olandese che disegnò le copertine della collana di fantascienza “Urania”, che dallo stile letterario di Ballard. Caustico, molto critico nei confronti della società contemporanea e delle sue palesi contraddizioni, che l’autore mette a nudo con racconti quasi surreali.

In questo libro l’autore immagina un pianeta terra piegato dalla siccità. Sono bastate pochissime righe per provare quella gradevole sensazione, quella specie di scossa elettrica che sento quando mi rendo conto di aver trovato un libro che ti incolla alla pagina, uno di quelli che ti fa restare alzato a leggere fino ad ora tarda.

Nelle prime pagine del libro un brano mi ha particolarmente colpito: “La pioggia! Al ricordo di quello che la parola significava un tempo, Ransom alzò lo sguardo al cielo. Completamente libero da nuvole o vapori, il sole incombeva sopra la sua testa come un genio perennemente vigile. Le strade e i campi adiacenti al fiume erano inondati dalla stessa invariabile luce, vitreo immobile baldacchino che imbalsamava ogni cosa nel suo calore”.

Personalmente queste poche righe mi hanno ricordato la situazione del Fiume Po la scorsa estate.

 Nella trama del romanzo si immagina una migrazione umana sulle rive dell’oceano dove si sono dissalati milioni di metri cubi di acqua marina, e dove le spiagge sono ormai ridotte a saline, ugualmente inospitali per la vita degli esseri umani, così come le zone interne,dove fiumi e laghi stanno lentamente prosciugandosi.

So molto bene che molte persone storcono il naso quando si parla di fantascienza ,senza probabilmente averne mai letto un solo libro,probabilmente per una sorta di snobismo preconcetto. La mia non vuole essere una critica, è solmente una mia personale constatazione. Ma non posso fare a meno di pubblicare su questo post un’altra foto,drammaticamente significativa.

L’immagine scattata dal satellite Copernicus, mostra la situazione del Po a nord di Voghera lo scorso 15 Febbraio. La foto è chiarissima. Rimane valido il motto che dice che un’immagine vale più di mille parole.

Ecco è proprio dalle parole che vorrei partire per chiarire alcuni concetti, porre degli interrogativi a me stesso, e a chi leggerà queste righe.

Parole. Quali parole possiamo ancora usare per convincere chi nemmeno davanti a queste immagini prende coscienza del problema siccità, continuando ostinatamente a negare l’evidenza, esprimendosi con dei triti e tristi luoghi comuni.

Uno fra i tanti, un messaggio inviato alla trasmissione di radio 3 “Prima pagina”. Quando la giornalista lo legge in diretta io rimango sbalordito. L’ascoltatore che lo ha inviato scrive testualmente. “Il riscaldamento globale è un falso problema, tra 100 anni saremo in grado di colonizzare altri pianeti e di sfruttare le loro risorse”. Giustamente la conduttrice risponde che non abbiamo cento anni di tempo. I problemi sono qui e adesso.

Il senso di sbigottimento rimane anche mentre sto terminando di scrivere questo post.  Uscendo in bicicletta nel pomeriggio ho potuto vedere palesemente la sofferenza dei corsi d’acqua in provincia di Varese: il Tresa e il Margorabbia ridotti a dei rigagnoli. Ho visto terreni aridi e molti torrenti della zona prealpina completamente asciutti.

Quali parole possiamo ancora usare, parole che facciano capire l’importanza dell’acqua? L’acqua è indispensabile alla vita penso di averlo letto nelle prefazioni praticamente di ogni libro che si occupasse del tema. Mentre scrivo, in un inverno dove non ho visto un fiocco di neve nella zona dove vivo, leggo l’intervista fatta a Massimiliano Pasqui, climatologo del CNR, che dichiara che ci servirebbero 50 giorni di pioggia per contenere il problema della siccità nel Nord Italia. Il deficit idrico del Nord Ovest ammonta a 500 mm. Le Alpi sono un territorio fragile, i ghiacciai arretrano. Lo speciale Tg1 dedica una puntata ai problemi dei territori dell’arco alpino. Ma buona parte delle persone intervistate sono preoccupate unicamente per il destino delle stazioni sciistiche. Solo una guida alpina valdostana suggerisce un nuovo modo per godere la montagna, uscendo dal pensiero unico che vuole che in montagna si vada unicamente per sciare. Una biologa che si occupa della microfauna dei torrenti alpini ricorda l’importanza della biodiversità e delle catene alimentari che la riduzione delle portate può compromettere.  Un sindaco della zona prealpina del comasco, difende l’idea di creare una pista di innevamento artificiale a 1400 metri di quota, quando ormai lo zero termico si sta situando intorno ai 3000. Non posso pensare ad altro se non ad una sorta di dipendenza. Non da gioco d’azzardo o da alcol, ma una dipendenza che ci offusca il ragionamento. Mi vengono in mente altre parole, le parole di un proverbio contadino: “Sotto la neve pane, sotto la pioggia fame”. Ma anche di pioggia se ne sta vedendo poca nel Nord Italia, e la neve sembra essere un ricordo in molte zone.

Il Piemonte sta diventando arido. Mia cugina che vive nelle terre dei miei nonni, nel Monferrato, mi informa che alcuni contadini stanno pensando di piantare fichi d’india. Nei vigneti il legno delle piante è secco e asciutto e la pianta sembra essere in uno stato sicuramente non di piena salute. Ci si accorge di questo anche nel momento in cui si lega il tralcio al primo fil di ferro per indirizzare la crescita della pianta: si ha timore di spezzarlo.

Ritorno per un attimo al libro di Ballard. Nella prefazione trovo un passaggio interessante: nel libro l’autore ci parla della siccità che ha immaginato, non in maniera convenzionale. Ci sono nel libro descrizioni di siccità e arsura, ma quello che emerge dalla lettura è il fantasma dell’acqua. Ballard ha sempre evitato i temi della fantascienza classica, viaggi nello spazio e nel tempo, incontri con civiltà aliene.

Ha preferito narrare e immaginare le catastrofi e le decadenze del futuro prossimo. Ma sono catastrofi particolari. Sono cioè catastrofi che “piacciono” ai protagonisti.  Che quasi si compiacciono di quello che si sta svolgendo sotto i loro occhi. Vale per i protagonisti di “Deserto d’acqua e di “Condominium”. Il primo si compiace della spaventosa inondazione che ha sommerso Londra, il secondo racconta le vicende degli inquilini di un condominio di nuova generazione, dove una serie di black out e dissidi tra vicini fanno regredire tutti gli inquilini allo stato di uomini primitivi.

Terra bruciata invece ci mostra un’umanità che deve fare i conti con la mancanza ed il ricordo del composto linfa, H2O. La formula chimica probabilmente più conosciuta in assoluto. Conosciamo a memoria la formula, ma forse non conosciamo affatto l’acqua.  E a volte è uno scrittore come Ballard che riesce ad essere più diretto nel mostrarci quello che rischiamo non preservandola e dandola per scontata. L’indifferenza, la mercificazione indotta, le nostre percezioni errate, lo sfruttamento del composto indispensabile alla vita ci stanno rivelando come anche noi ci stiamo forse compiacendo o abituando a situazioni surreali. Sul web ho visto la pubblicità di una marca di borracce che ci ingannano. Borracce con sedicenti pod aromatizzati che ti danno la sensazione di stare bevendo acqua aromatizzata. Riporto dal sito, senza citare per ovvie ragioni la marca.

Tu bevi acqua allo stato puro. Ma i Pod aromatizzati fanno credere al tuo cervello che stai provando sapori diversi come Ciliegia, Pesca e molti altri.

Naturalmente gustosi. Tutti i nostri Pod contengono aromi naturali e sono vegetariani e vegani.

Idratazione sana. Prova il gusto senza zuccheri, calorie o additivi.

E ‘scienza (anche se ci piace pensare che sia anche un po’ magia). Il tuo centro olfattivo percepisce l’aroma come se fosse gusto, e fa credere al tuo cervello che tu stia bevendo acqua con un sapore specifico.”

Trovo questa pubblicità davvero agghiacciante.

Mi sto chiedendo ormai da diverso tempo come possiamo opporci a questa deriva. Ho letto diversi romanzi di fantascienza sociologica che immaginano società distopiche. Ma francamente mi sembra che non sia più necessario leggerla. In realtà mi sembra tristemente che siamo molto vicine a vivere in una società distopica. Sull’onnipresente rifiuto di bere acqua di rubinetto con la motivazione che “sa di cloro” o addirittura “che fa schifo”, qualcuno costruisce il business delle borracce ingannatrici. Ormai l’acqua non è più il composto vitale. E ‘un composto puro ma che deve essere migliorato. Qualcuno mette in commercio acqua aromatizzata, qualcun altro ci vuole vendere borracce che ci fanno credere che lo sia.

Mi chiedo davvero cosa sia andato storto, e quando recupereremo non dico la razionalità ma almeno il buon senso comune. E intanto possiamo aspettare fiduciosi la stagione estiva.