La Chimica e il mercato della valutazione.

In evidenza

Claudio Della Volpe

Come sapete tutto il meccanismo della valutazione basata su H-index e su elementi di tipo numerico è su base privata e di fatto è in mano a pochi grandissimi players; in particolare il principale se non unico detentore dei dati è Thomson-Reuters che è anche il più grande o uno dei maggiori editori del mondo; tenete presente questa situazione prima di dare un giudizio.

Sul nostro sito abbiamo parlato spesso di valutazione, proprietà della scienza, open science; oggi vi racconto un caso che è strettamente legato al mantra della valutazione tramite H-index, tramite i metodi “numerici” diciamo così, che oggi vanno di moda e che grazie alle pieghe di un meccanismo generale, che non è completamente trasparente, offrono il supporto a vari tipi di violazione.

Sotto a tutto c’è una logica di mercato.

Uno dei più pervicaci prodotti di questo modo di intendere le valutazioni è la lista dei più bravi, gli scienziati con la maggiore produttività, quelli con il maggiore H-index e così via; appena dopo viene quella delle “maggiori” università; anche qua gli esempi si sprecano anche se sempre basati dopo tutto sui dati che si diceva prima.

A partire dal 2014, Thomson Reuters ha pubblicato un elenco dei ricercatori più citati in tutto il mondo (highlycited.com). Poiché i dati erano liberamente disponibili per il download e includevano i nomi delle istituzioni dei ricercatori, qualcuno si è ingegnato a produrre una classifica delle istituzioni sulla base del numero di ricercatori altamente citati per istituzione[1], dichiarando ovviamente che Questa classifica vuole essere un’utile modifica di altre graduatorie istituzionali disponibili.

In realtà l’analisi mostra un caso eclatante di manipolazione; guardate con attenzione queste due liste:

Salta agli occhi subito che una istituzione non particolarmente famosa o conosciuta è assente nella lista di sinistra dove le istituzioni sono elencate in base al numero di ricercatori molto citati (poco più di 3000, l’1% del totale) che le riportano come la loro istituzione di appartenenza; a destra invece sono riportate TUTTE le istituzioni che i ricercatori indicano nelle loro pubblicazioni.

Dicono gli autori:

Molti ricercatori altamente citati hanno menzionato non solo uno, ma fino a cinque diverse istituzioni. Per questo motivo, abbiamo prodotto tre graduatorie, che includono queste istituzioni in modi diversi. Il primo elenco di istituti (cfr. tabella 1) si basa sul primo istituto nominato per ciascun ricercatore (il suo istituto primario). Utilizzando istituzioni primarie, il maggior numero di ricercatori altamente citati lavora presso l’Università della California (n = 179) seguita dall’Università di Harvard (n = 107). Il secondo elenco di istituzioni (vedi Tabella 2) si basa su tutte le istituzioni nominate da un ricercatore altamente citato.

Come vedete la università Saudita King Abdullaziz (KSU) si fa largo in questo secondo elenco scalando la classifica fino a portarsi al 2 posto mondiale.

Come succede una cosa del genere? In realtà il meccanismo è conosciuto fino almeno dal 2011; sempre i nostri autori scrivono:

Come Bhattacharjee (2011) ha riportato alcuni anni fa su Science, le università dell’Arabia Saudita offrono ai ricercatori altamente citati contratti in cui i ricercatori si impegnano a elencare l’università dell’Arabia Saudita come istituzione aggiuntiva nelle pubblicazioni (o su highlycited.com). In cambio, i ricercatori ricevono una cattedra aggiuntiva, che è collegata a uno stipendio interessante e una presenza all’università di sole 1 o 2 settimane all’anno (per compiti di insegnamento in loco). Gingras (2014a) chiama queste “affiliazioni fittizie, senza alcun impatto reale sull’insegnamento e sulla ricerca nelle università, [che] consentono alle istituzioni marginali di aumentare la loro posizione nelle classifiche delle università senza dover sviluppare alcuna vera e propria attività scientifica”.

Un’altra analisi dei dati di highlycited.com di Alanazi (2014) mostra che soprattutto l’Università King Saud (KSU), che  tra le università dell’Arabia Saudita persegue da oltre un decennio la politica di fare contratti, non tanto offrendo una posizione lavorativa, ma piuttosto del tipo “research fellowship” con ricercatori altamente citati.

In definitiva “è il mercato bellezza”; dato che l’Arabia Saudita è uno dei paesi più ricchi al mondo può permettersi di, letteralmente, comprarsi le teste che mancano nel paese in modo da apparire nelle più prestigiose liste di università mondiali.

La presenza di ricercatori affiliati nella lista degli HCR è particolarmente importante per gli atenei. E’ stato riportato nei dossier di IRIS academic (2023), che la presenza di un solo ricercatore highly cited è in grado di influenzare il posizionamento dell’ateneo nella graduatoria internazionale (ARWU, link: https://www.shanghairanking.com/rankings/arwu/2022) fino a circa 200 posizioni. Inoltre, pare che questo sia tra i parametri utilizzati dalla graduatoria ARWU, l’unico facilmente manipolabile. Comunque, dal 2015, ARWU considera solo l’affiliazione primaria. Di conseguenza, non era più sufficiente per un ateneo fare shopping di seconde affiliazioni, ma doveva riuscire a figurare come prima affiliazione.

Non si tratta di una cosa platealmente illegale, ma nemmeno scontata: pensiamo ad esempio al clamore suscitato dal trasferimento previsto di Lionel Messi verso l’Arabia Saudita (e si tratta di un trasferimento reale, non fittizio!). Eppure il campione citato è appena stato multato dal suo club solo per avere effettuato il viaggio senza autorizzazione (https://edition.cnn.com/2023/05/03/football/lionel-messi-suspended-by-psg-for-saudi-trip-spt-intl/index.html).

Questo cambio di “maglietta” provoca però parecchi mal di pancia; nasconde di fatto una sorta di furto di identità; un ricercatore diventato famoso in un certo paese ed in una certa università, attratto da un guadagno personale o anche solo da un guadagno economico per il suo gruppo di ricerca a cui vengono offerti fondi per pagare casomai posti di dottorato o per collaboratori, dichiara di aver svolto l’attività relativa ad un certo lavoro principalmente presso l’Università Saudita che a questo punto entra nel novero delle più prestigiose università del mondo ma di fatto comprandosi il posto, senza ulteriori sforzi.

Le cose sono sfuggenti: quanto è il periodo minimo per poter ragionevolmente sostenere una pretesa del genere? Una settimana, un mese, un semestre? Il lavoro relativo ad una certa pubblicazione per quale percentuale deve essere svolto altrove per poter accettare che il nome dell’Università Saudita compaia fra i posti dove il ricercatore altamente citato ha lavorato? L’università di provenienza era stata formalmente informata ed aveva autorizzato il cambio di affiliazione? Era una iniziativa individuale o accompagnata da accordi interateneo? Sono molti gli aspetti da considerare e non è il caso di trarre giudizi prima di avere tutti gli elementi, ma il clamore suscitato dalla vicenda lo sta facendo diventare un caso di scuola.

Però è chiaro che l’appetito vien mangiando; man mano nel corso degli anni ci si sposta verso comportamenti che diventano sanzionabili secondo il buon senso e a volte anche secondo le leggi di alcuni paesi e le regole in vigore in alcune università.

Se si guarda la letteratura e i giornali gli ultimi mesi portano alla luce almeno due casi sanzionabili nel nostro settore, ma smascherano in questo modo un comportamento che in molti altri casi potrebbe aver varcato i confini dell’etica anche senza aver varcato i confini della legge.

Due chimici sono incappati finora nelle maglie di questo meccanismo: uno spagnolo Rafael Luque[2], Università di Cordova, sospeso per 13 anni e un italiano Vincenzo Fogliano[3] già professore di Biochimica a Napoli e ora in servizio presso l’Università di Wageningen nel settore della tecnologia del cibo; entrambi dichiarando la loro affiliazione alla KSU come primaria hanno alterato in modo sostanziale la valutazione della loro università di appartenenza a favore della KSU nelle classifiche internazionali. Fogliano è stato sospeso per due anni[4] e il suo rettore ha dichiarato che

Sono scioccato e molto deluso dai risultati dell’indagine. Nel 2018, Fogliano è stato avvertito di questo tipo di transazioni. Ha deciso di modificare comunque la sua affiliazione. Ha agito in modo scorretto e quindi ha violato l’integrità della scienza presso l’Università di Wageningen. Ciò non può avvenire senza conseguenze. Questo è il motivo per cui Fogliano viene rimosso dalla sua posizione di titolare della cattedra con effetto immediato. È proprio in tale posizione che deve essere un esempio per gli altri e in particolare per i giovani scienziati. Inoltre, ha ricevuto un avvertimento ufficiale: una prossima violazione dell’integrità comporterà il licenziamento”.

Non sono stati solo questi due colleghi ad essere accusati dai loro atenei di violare le regole e tanti altri, pur avendo ricevuto analoghe proposte, NON le hanno violate; ma la domanda potrebbe essere quanti altri di noi per trascuratezza o superficialità potrebbero trovarsi in condizioni analoghe in una scienza dominata dal senso del mercato, dalla concorrenza piuttosto che dalla collaborazione, dalla corsa al primo posto e dalle graduatorie dei “più bravi”?

I confini dell’etica sono a volte sottili, quelli del buon senso sono spesso meno evidenti o trascurati ma forse raccontare queste storie aiuta a far comprendere come l’interazione fra mercato e cultura non è la cosa più desiderabile e quali incredibili meccanismi si possano attivare in un mondo dominato dal mercato della scienza.

Colgo l’occasione per ricordare che la questione di fondo, al di là del singolo caso, è il meccanismo che abbiamo messo in funzione e che è basato sull’idea della meritocrazia, un concetto introdotto negli anni 50 dal sociologo inglese Michael Young come un esempio di distopia, una utopia negativa e che invece è diventato un mantra dei nostri tempi.

Un recente congresso a Trento che festeggiava il decennale di ROARS meriterebbe la vostra attenzione; i materiali del congresso nella forma dei video o testi delle presentazioni critiche della meritocrazia sottomessi da ricercatori internazionali sono recuperabili dalle pagine sottoelencate.

Concludo con una domanda: cosa succederebbe nel nostro paese se si scoprisse un caso analogo in una università o nel CNR?

Da leggere anche:

https://www.universityworldnews.com/post.php?story=20140715142345754

https://www.sirisacademic.com/blog/the-affiliation-game-of-saudi-arabian-higher-education-research-institutions

https://www.nature.com/articles/d41586-023-01523-x


[1] JOURNAL OF THE ASSOCIATION FOR INFORMATION SCIENCE AND TECHNOLOGY, 66(10):2146–2148, 2015

[2] https://www.chemistryworld.com/news/prolific-spanish-chemist-suspended-over-multiple-affiliations/4017322.article

[3] https://www.euractiv.com/section/politics/news/report-dutch-scientists-bribed-by-saudi-arabia-for-international-ratings/

[4] https://www.miragenews.com/investigation-of-saudi-affiliations-completed-1008203/

I crosslinkers (reticolanti) conducono a fondersi miscele di plastiche

In evidenza

Rinaldo Cervellati

Il riciclo di plastiche diverse mescolate negli stessi rifiuti è piuttosto difficile, non solo per il lavoro richiesto per separarle ma soprattutto perché la mescolanza risulta inadatta a un adeguato riciclo.

Per ottenere una migliore miscelazione della plastica, i ricercatori guidati dai proff. Eugene Y.-X. Chen della Colorado State University e Sanat Kumar e Tomislav Rovis della Columbia University hanno incorporato molecole reticolanti come parte del processo di riciclaggio [1]. Il risultato è una plastica riciclabile più resistente da polimeri comuni, tra cui polietilene a bassa densità e polietilene ad alta densità. Afferma Chen: quando vengono combinati per il riciclaggio, diversi tipi di plastica tendono a formare chiazze invece di mescolarsi uniformemente, tuttavia l’aggiunta del 5% in peso di crosslinker a base di bis-diazirina (fig. 1) uniforma le macchie.

Figura 1. Bis-diazirina

La Bis-diazirina è una molecola derivata dall’unione di due diazirine[2] legate insieme il cui carattere essenziale sono gli anelli N−N−C ipertensionati. Quando, com’è il caso, i due radicali alchilici sono fluorurati potrebbe esserci il carattere PFA ma forse non deciderebbe la natura ultima della sostanza. Il composto è prodotto da Sigma Aldrich−Merck ma non è disponibile in Italia.

https://www.sigmaaldrich.com/IT/it/product/aldrich/921726

Si sa poco sulle caratteristiche chimico-fisiche della sostanza, come risulta dalla sua scheda di  sicurezza (in italiano):

https://www.sigmaaldrich.com/IT/it/sds/aldrich/921726

però ai punti 2.3 e 12.5 sta scritto:

Questa sostanza/miscela non contiene componenti considerati sia persistenti, bioaccumulabili che tossici (PBT), oppure molto persistenti e molto bioaccumulabili (vPvB) a concentrazioni di 0.1% o superiori.

La bis-diazirina reticolante può letteralmente attivare le catene polimeriche e collegarle insieme, per formare un copolimero multiblocco”. Le estremità della molecola linker si impigliano nelle catene polimeriche, mentre una reazione chimica reversibile al centro utilizza un tioestere, un disolfuro o un’anidride acida per legare insieme le catene polimeriche (fig. 2).

Figura 2. Le immagini al microscopio elettronico a scansione (SEM) mostrano che le plastiche miste senza un reticolante formano macchie quando combinate (in alto), rendendo la plastica riciclata debole e fragile. L’aggiunta di reticolanti a base di bis(diazirina) costringe i polimeri a riunirsi in modo più fluido. Credit: Nature.

Questa strategia ha funzionato con diversi tipi di plastica, inclusi sacchetti di plastica e bicchieri colorati.

Afferma Susannah Scott, chimica dei polimeri, (Università della California, Santa Barbara): “Un problema con il riciclaggio dei rifiuti di plastica è il costo della separazione, che può essere proibitivo rispetto al valore della plastica riciclata. L’aggiunta di reticolanti potrebbe ridurre parte di questa necessità di separare la plastica prima del riciclaggio, il che potrebbe ridurre i costi.” Tuttavia, potrebbero esserci ancora problemi con la stabilità a lungo termine quando gli scienziati combinano polimeri biodegradabili con quelli non biodegradabili.

Chiaramente si tratta tuttora di esperimenti in laboratorio che potrebbero avere sviluppi interessanti per il riciclaggio delle materie plastiche.

Bibliografia

[1] R.W. Clarke et al. Dynamic crosslinking compatibilizes immiscible mixed plastics. Nature, 2023, 616, 731–739. DOI: 10.1038/s41586-023-05858-3

Altre letture sulle diazirine

M.L. Lepage et al. A broadly applicable cross-linker for aliphatic polymers containing C–H bonds. Polymer Chemistry, Science, 2019, 366, 875–878. DOI: 10.1126@science.aay6230

F. J. de Zwart, J. Bootsma, B. de Bruin,  Cross-linking polyethylene through carbenes. Polymer Chemistry, Science, 2019, 366, 800. DOI: 10.1126@science.aaz7612


[1] Tradotto e adattato da L. K. Boerner, Crosslinkers force mixed plastics to blend., C&EN, April 27, 2023

[2] Le diazirine sono una classe di molecole organiche costituite da un carbonio legato a due atomi di azoto, che sono uniti tra loro con doppio legame, formando un anello simile al ciclopropano, dove gli atomi H sono sostituiti da gruppi radicali areni o alchilici (R). Sono state scoperte nei primi decenni del 2000 e sono largamente utilizzate come  marcatura dei recettori, negli studi sui substrati enzimatici e nelle ricerche sugli acidi nucleici. Da alcuni ricercatori australiani e canadesi è stato sviluppato un tipo di colla in grado di unire fra loro materiali in polietilene. http://it.scienceaq.com/Chemistry/1002085355.html

“ Signorina Joan Wilder, scriva come ne usciamo”

In evidenza

Mauro Icardi

Il titolo di questo post è una battuta tratta dal film “All’inseguimento della pietra verde”.

Il film uscito nel 1984 è di genere avventuroso, i protagonisti principali sono Michael Douglas e Kathleen Turner che interpretano rispettivamente un avventuriero che cattura e vende pappagalli rari, e una scrittrice di libri romantici e di avventura. I due sono alla ricerca di uno smeraldo che deve essere ritrovato per salvare la vita alla sorella di Joan Wilder, Elaine, il cui marito è stato brutalmente assassinato in Colombia.

L‘azione si svolge in uno sperduto villaggio colombiano dove i due sono capitati per cercare un’auto che possa portarli a Cartagena. Il villaggio però è un covo di un signore del cartello della droga colombiano. I due bussano alla sua porta chiedendo di poter noleggiare la sua auto. Juan il campanaro, questo è il soprannome del boss rifiuta di aiutarli, e finisce per minacciare Jack Colton, alias Michael Douglas puntandogli contro  una pistola. I due si voltano per andarsene e si trovano circondati da una mezza dozzina di brutti ceffi armati di fucile. Ed è qui che viene pronunciata la battuta. Al sentire nominare Joan Wilder la situazione muta immediatamente. Il boss della droga Juan è un ammiratore della scrittrice, legge i suoi libri e ne possiede diverse copie. Apre le porte della sua casa e metterà a loro disposizione la sua auto.

Ho ripensato alla scena di questo film che è intrisa di un umorismo surreale, ma la mia attenzione si è soffermata sulla frase “scriva come ne usciamo”.

Perché la parte umoristica di questo post finisce qui. Rimangono le considerazioni e le riflessioni che sto cercando di fare sul “come ne usciamo.”

Maggio 2023 la siccità dell’Emilia Romagna si chiude con due precipitazioni eccezionali. La cronaca è di questi giorni ed è tristemente nota a tutti. Le notizie sono le solite ormai codificate in un triste refrain.

Quali sono i danni, quali le zone colpite, l’entità numerica delle precipitazioni ,il mesto conto delle persone decedute (mentre sto scrivendo ammontano a 13). Ho letto con uno sgomento profondo una delle tante storie che non hanno nulla di gioioso o di umoristico. La storia di una donna trascinata dalla piena dalla periferia di Cesena, fino all’altezza del bagno Zadina a Cesenatico. Questa donna è morta ed è stata trascinata a quindici chilometri dalla casa dove viveva. Cercando di salvare qualcosa della sua casa, cercando di salvare la propria vita.

Leggo qualche commento sui social e rabbrividisco e mi sale come un senso di nausea. Oltre alla litania dei doverosi commenti di solidarietà, è pieno di terribili commenti insignificanti. Si parla di barriere di sacchi di sabbia, si cercano responsabili identificandoli tra gli amministratori, la protezione civile e poi ultimo fra tutti il refrain della mancata pulizia del letto dei fiumi, attribuito come sempre da decine di anni a non ben meglio precisati “verdi” che ne impedirebbero la realizzazione opponendosi in maniera ostinata. Non mancano considerazioni immancabili che identificano non ben precisati radical chic responsabili di non si sa bene cosa. Mi viene in mente un’altra colossale panzana o bufala che gira da mezzo secolo, ovvero quella delle vipere gettate dagli elicotteri nei boschi di cui sentivo parlare già negli anni 70.

Finirà anche questo evento che qualcuno si ostinerà a definire eccezionale, mentre un sedicente giornalista non trova di meglio che dichiarare che gli scienziati del clima, i fisici, i climatologi continuano a raccontarci “un sacco di balle” sul clima. E’ certamente un assioma indiscutibile, se prima non piove per quasi un anno e dopo diluvia da spazzare via l’intera Romagna, la colpa è certamente degli studiosi del clima. Ci si scrive un bell’articoletto sarcastico, il concetto viene ripetuto in rete, nei bar, ci si fa una bella risata e tutto finisce nel dimenticatoio. Verranno scritti articoli di stile deamicisiano sui nuovi angeli del fango. Poi tutto ricomincerà esattamente come prima.

Potrei anche passare delle ore a cercare di smontare queste teorie, a far notare che va bene la pulizia degli alvei, ma possibile che a nessuno venga in mente la voracità del consumo di suolo, delle cementificazioni selvagge, delle opere ritenute fondamentali ma perfettamente inutili. Sono diventato un pendolare da poco ed ho la fortuna di abitare in una zona per il momento servita da un servizio ferroviario soddisfacente. Per andare al lavoro posso servirmi anche di treni diretti all’aeroporto di Malpensa. Un treno ogni ora con buona capienza e mai troppo affollati. Ma non basta perché  sono iniziati i lavori per un altro collegamento ferroviario con Malpensa. Questo non avrà origine da Busto Arsizio, ma da Gallarate la cui distanza chilometrica via ferrovia è di soli dieci chilometri. Come può avere senso una scelta di questo genere, a parte il fatto che sia un nuovo tratto di ferrovia e non l’ennesima tangenziale o superstrada.  Ha ancora un senso ricordare che c’è uno studio dell’Enea che prevede che se non iniziamo  seriamente a ridurre le emissioni, le stesse zone della riviera Adriatica che sono state devastate dall’alluvione, potrebbero essere sommerse dal mare?

I problemi ambientali, e il problema più importante di tutti cioè quello del cambiamento climatico, è il più negato e disprezzato di tutti i problemi che ci troviamo a dover affrontare. E spiace dirlo quando la sottovalutazione e diffusa a tutti i livelli. Coinvolge sia le persone culturalmente svantaggiate che quelle con un maggior grado di istruzione. Una grande cecità rassicurante.  Una sottovalutazione illogica, insensata e fondamentalmente stupida. Migliaia di articoli, forse milioni a livello mondiale che non smuovono quasi nessuno. Forse solo i giovani, o alcuni di loro, che sono perfettamente consapevoli del tipo di pianeta in cui si troveranno a dover vivere, ma vengono condannati per le loro azioni dimostrative, dai negazionisti più ostinati e dai reazionari unicamente preoccupati del decoro cittadino.

Sfogliando le cronache, cercando in rete c’è un impressionante filo rosso che collega i vari fenomeni che ci si ostina a definire eccezionali dall’alluvione di  Genova nel 2011 fino alla Romagna di oggi, passando per gli alberi  abbattuti dal vento nord est nel 2018, per restare solo in Italia. Ma tutto questo ancora non basta a convincerci. O perlomeno a convincere una maggioranza significativa di persone. Perché significherebbe dover abbandonare il paese dei balocchi in cui si è creduto di vivere in tutti questi anni. Ci sono molte Joan Wilder che hanno scritto e continuano a scrivere su come e cosa dovremmo fare per uscirne. Ma non ci sono troppi Juan che ascoltano e riflettono. E quindi è arduo capire come e se ne usciremo.

Il mio pensiero va certamente alle vittime dell’alluvione, alle persone che hanno subito danni e disagi. Ma non riesce a lenire il grande disagio che provo, ogni giorno di più. Ho iniziato citando un film, concludo citandone un altro ovvero “ I tre giorni del condor” modificando una delle battute finali: “ Turner sei sicuro che ne usciremo? E cosa fai se non ne usciamo?”

Etica del brevetto

In evidenza

Il dibattito sull’Etica della brevettazione di farmaci è uno dei più caldi e mai estintisi.

Si confrontano una tesi filo-tecnologica, che vede nel brevetto uno strumento di finanziamento della ricerca e di conseguente crescita dell’innovazione e quindi del mercato ed una tesi sociale che vede nel brevetto un limite alla possibilità che un farmaco possa contrastare certe patologie senza alcuna differenza per le reali disponibilità economiche che possono o non possono renderne possibile l’acquisto.

L’Europa in relazione a questo problema ha fatto un passo in avanti lanciando il mercato unico dei farmaci con il quale si è sostanzialmente dato un colpo al cerchio ed uno alla botte. La tutela della proprietà intellettuale, il brevetto in sostanza, viene ridotta da 10 ad 8 anni, ma con alcune specifiche clausole che potrebbero rendere non valida la variazione. I farmaci generici ricevono una forte spinta per venire incontro alle esigenze della componente più povera della popolazione.

Il posto in cui si vive non può condizionare le capacità ed i livelli di cura: da qui incentivi alle aziende che rispondono rapidamente alle emergenze indipendentemente dal Paesi in cui avvengono. Nei piani dell’UE c’è anche la semplificazione ed accelerazione delle procedure di autorizzazione oltre che lo sviluppo dei “bugiardini” elettronici. Gli industriali europei ed italiani in particolare, non hanno accettato la riforma sostenendola troppo restrittiva sì da favorire cinesi ed americani, dalle cui imprese provengono 8 dei 10 farmaci approvati dall’EMA di recente. Per Farmindustria, ma anche per le sue sorelle europee, il brevetto è troppo importante ai fini della capacità di innovazione e quindi di crescita economica per rinunciarvi o limitarne i tempi. Si potrebbe rispondere con molte argomentazioni circa la politica speculativa di questi ultimi anni da parte del settore: farmaci per le malattie rare trascurati, confezioni commerciali sovradimensionate rispetto al potenziale uso, finalità quasi esclusivamente economiche nella scelta dei mercati di sviluppo, poca attenzione alle politiche sociali. Oggi però -non sarebbe giusto trascurare di notarlo- si rilevano una maggiore sensibilità verso la medicina sociale, verso una riduzione di scarti e rifiuti in favore di una circolarità economica, verso una rivalutazione delle risorse naturali.

La strada da percorrere è ancora lunga e la ricerca, quella chimica in particolare, può dare un significativo contributo.

Da leggere:

Un interessante isomero del benzene: l’1,2,3-cicloesatriene[1]

In evidenza

Rinaldo Cervellati

I chimici organici hanno dimostrato che il composto 1,2,3-cicloesatriene (figura 1) partecipa rapidamente a una vasta gamma di reazioni di cicloaddizione, addizione nucleofila e inserimento di legami σ, consentendo ai ricercatori di costruire architetture molecolari complesse in pochi passaggi.

Fig. 1. 1,2,3-cicloesatriene

Gli isomeri del benzene hanno catturato l’immaginazione dei chimici organici per decenni e gli studi su strutture tese insolite come il Dewar-benzene (scoperto nel 1963) e il prismano (scoperto nel 1973), si sono dimostrati fondamentali per la comprensione della teoria della risonanza e dell’aromaticità (figura 2).

Fig. 2 Dewar-benzene e prismano. Credit: AV Kelleghan et al. Nature 2023.

Allo stesso modo, i parenti ad alta energia del benzene come il benzino[2] e l’1,2-cicloesadiene hanno suscitato un notevole interesse, la loro propensione a reazioni promosse dalla deformazione li rende preziosi intermedi sintetici.

L’1,2,3-cicloesatriene (sintetizzato nel 1990) non ha ricevuto lo stesso grado di attenzione. A differenza dei doppi legami coniugati alternati del benzene, le tre olefine contigue dell’1,2,3-cicloesatriene mancano di qualsiasi aromaticità stabilizzante e la struttura ad anello tesa, risultante dalla distorsione della geometria lineare naturale del carbonio ibridato sp, ha portato molti a credere che questo isomero fosse semplicemente troppo instabile per essere sinteticamente utile.

Frederick West, chimico organico dell’Università di Alberta  (Canada) afferma: ”Se dovessi provare a costruire questa specie con modelli in plastica, li romperei sicuramente. La deformazione angolare estrema che subisce questo intermedio lo rende altamente reattivo e il rilascio di deformazione nel prodotto finale rende le sue reazioni altamente favorevoli dal punto di vista termodinamico.”

Fig. 3 In precedenza era stato fatto poco lavoro con gli 1,2,3-cicloesatrieni, rendendolo un obiettivo interessante da valutare più ampiamente come reagente. Credit: AV Kelleghan et al. Nature 2023.

Gli studi DFT (Density Functional Theory) eseguiti da Neil Garg e dal suo gruppo all’Università della California (Los Angeles) hanno evidenziato l’entità di questo effetto di deformazione: l’angolo di legame interno dell’1,2,3-cicloesatriene era di ben 11° più ampio di quello del benzene, rappresentando circa 50kcal/mol di energia di deformazione (circa quattro volte la deformazione trovata nel ciclopropano) e molto simile all’angolo interno del benzino. I modelli elettronici hanno rivelato ulteriori somiglianze con il benzino, suggerendo che l’1,2,3-cicloesatriene mostrerebbe un profilo di reattività elettrofila simile e subirebbe una varietà di reazioni di intrappolamento.

Fig.4 Gli studi DFT hanno rivelato che l’1,2,3-cicloesatriene è, ovviamente, sottoposto a enormi sollecitazioni e quindi è altamente reattivo. Credit: AV Kelleghan et al. Nature 2023.

Il gruppo ha utilizzato un metodo sperimentato negli anni ’90 per generare l’intermedio reattivo 1,2,3-cicloesatriene da un precursore silil triflato, controllando la reazione introducendo una varietà di agenti di intrappolamento. Dopo un’eliminazione per formare il triene, le reazioni con dieni, immine, acetali chetenici e nucleofili hanno prodotto una vasta gamma di addotti ad anello, ciascuno contenente sostituenti reattivi per consentire ulteriori manipolazioni. “Quello che vediamo è principalmente la reattività del triene come sistema π, dove il legame medio C=C viene aperto in vari processi di cicloaddizione, lasciando gli altri due alcheni presenti nel prodotto come 1,3-dieni.

Garg ha quindi presentato una serie di reazioni di intrappolamento con l’analogo dimetil triene e ha utilizzato un gruppo sililico polarizzante per dimostrare la prevedibile regioselettività delle reazioni nucleofile in sistemi asimmetrici.

Diego Peña, un chimico organico all’Università di Santiago de Compostela  (Spagna): commenta: “Questo è un lavoro eccellente che evidenzia il potenziale degli intermedi ciclici deformati nella sintesi organica. Un ovvio passo successivo sarebbe quello di esplorare la reattività dell’1,2,3-cicloesatriene in altre reazioni tipiche di intermedi ciclici deformati, ad esempio reazioni di inserimento di legami, trasformazioni catalizzate da metalli e sintesi asimmetrica. Inoltre, sarebbe interessante confrontare la reattività di questo anello a sei membri con i corrispondenti derivati dell’anello a cinque e sette membri.”

Il gruppo spera che il suo lavoro ispiri altri a esplorare e sfruttare il potenziale sintetico di questi reagenti ad alta energia in futuro.

Bibliografia

A.V. Kelleghan et al, Strain-promoted reactions of 1,2,3-cyclohexatriene and its derivatives. Nature, April 2023, DOI: 10.1038/s41586-023-06075-8


[1] Tradotto e adattato da: V. Atkinson, Benzene’s forgotten isomer takes centre stage in organic synthesis., ChemistryWorld, 2 may 2023

[2] Il benzino è una molecola altamente reattiva nelle sintesi organiche. L’esistenza del benzino fu postulata nel 1940 e confermata sperimentalmente nel 1953. Rispetto al benzene contiene un legame π in più ma è sempre aromatica, le evidenze spettroscopiche mostrano un legame dalle caratteristiche intermedie tra un doppio e un triplo legame.

Overshoot day dell’Italia: 15 maggio 2023

In evidenza

Questo post è stato fatto assemblando materiali di rete sull’Overshoot dell’Italia che è stato ieri.

Il giorno dell’overshoot di un paese è la data in cui cadrebbe il Giorno dell’Overshoot della Terra se tutta l’umanità consumasse come le persone in quel paese. I giorni di superamento del paese vengono pubblicati il 1° gennaio di ogni anno. Al fine di rispettare questa scadenza di pubblicazione, i giorni di superamento del paese 2023 sono stati calcolati nel dicembre 2022 utilizzando l’edizione 2022 dei National Footprint and Biocapacity Accounts, che era l’ultima edizione disponibile all’epoca. I dati dell’edizione 2022 vanno dal 1961 al 2018. Ciò è dovuto a un ritardo di tre o quattro anni tra l’ultimo anno di dati e l’ultimo anno di edizione a seguito del processo di segnalazione delle Nazioni Unite. Inoltre, è necessario del tempo per assemblare i conti.

Prendiamo come esempio lo Swiss Overshoot Day. La sua giornata di overshoot 2023 si basa sugli ultimi risultati (2018) disponibili dell’edizione 2022 dei conti nazionali dell’impronta e della biocapacità: L’impronta ecologica della Svizzera è di 4,35 ettari globali (gha) pro capite (nel 2018) La biocapacità globale è di 1,6 gha a persona (nel 2018) Pertanto, ci vorrebbe (4,35 / 1,6) = 2,75 Terre per sostenere l’umanità se tutti sul pianeta vivessero come gli svizzeri. O possiamo determinare lo Swiss Overshoot Day usando l’equazione 365 x (1,6/4,35) = 133, o come 133° giorno dell’anno. Il 133 ° giorno del 2023 è il 13 maggio.

Rifacciamo alla rovescia il conto per l’Italia; eravamo ieri al 135 giorno e dunque otteniamo 4.325 ettari globali per la impronta ecologica stimata dell’Italia.

Non tutti i paesi avranno un giorno di overshoot. Per quanto riguarda l’equazione di superamento del paese di cui sopra, un paese avrà un giorno di overshoot solo se la sua impronta ecologica pro capite è superiore alla biocapacità globale per persona (1,6 gha).

I paesi con un’impronta ecologica pro capite inferiore alla biocapacità globale pro capite (1,6 gha) e che non hanno un giorno di superamento sono elencati come “nessuno” nella tabella seguente. Negli anni bisestili, calcoliamo la data in base a un anno di 366 giorni, anziché ai soliti 365.

IMPATTO DEL COVID-19 E DELL’INVASIONE DELL’UCRAINA Molti hanno chiesto della guerra in Ucraina e dell’impatto della pandemia di coronavirus sull’impronta ecologica di ciascun paese e sul giorno di overshoot. A causa dei ritardi nelle statistiche delle Nazioni Unite, l’ultima valutazione completa dei paesi si estende solo fino al 2018 e non copre questi eventi. È possibile produrre stime per paese per il 2023, come spiegato nel riquadro a destra.

COME VIENE CALCOLATO IL GIORNO DI OVERSHOOT DELLA TERRA Per colmare il “divario” tra l’ultimo anno di dati e il presente, Global Footprint Network utilizza ulteriori statistiche delle Nazioni Unite e linee di tendenza dai conti nazionali dell’impronta e della biocapacità per estendere i risultati globali fino all’anno in corso. Leggi di più su come è stato calcolato l’Earth Overshoot Day 2022. La nostra valutazione per l’Earth Overshoot Day 2023 sarà pubblicata il 5 giugno 2023.

L’IMPRONTA ECOLOGICA è l’uso che fai, o che la nostra comunità fa, dello spazio bioproduttivo a disposizione, sommato alle emissioni di CO2 associate all’uso di combustibili fossili. Ogni abitante del pianeta ha una “capacità biologica disponibile pro capite “ equivalente a 1,6 ettari di terra e acqua biologicamente produttivi. Non male, penserai.

La BIOCAPACITA’ è la capacità degli ecosistemi di produrre materiali biologici utilizzati dalle persone e di assorbire il materiale di scarto generato dall’uomo. Noi essere umani, possiamo influenzarla con le nostre azioni, rafforzarla o indebolirla. Gli ecosistemi sono naturalmente in grado di rigenerare ciò di cui abbiamo bisogno, ma questa biocapacità non è standard: è condizionata dal clima, dalla gestione delle risorse e dall’economia umana.

Quando l’impronta ecologica di una nazione supera la biocapacità dell’area disponibile, siamo di fronte a un DEFICIT ECOLOGICO e ciò significa che la nazione in questione sta abusando delle risorse ecologiche e/o emettendo rifiuti di anidride carbonica nell’atmosfera.

Quando la biocapacità di una nazione supera l’impronta ecologica della sua popolazione siamo di fronte a una RISERVA ECOLOGICA.

Fritz Pregl, Nobel 1923: cento anni di chimica organica. Parte 2

In evidenza

Roberto Poeti

La prima parte di questo post è stata pubblicata qui.

Le tante  sfide affrontate da  Pregl

Il ruolo della bilancia

Il primo problema che affrontò fu quello di poter disporre di una bilancia la cui sensibilità fosse molto aumentata. La sua collaborazione con la ditta Wilhelm H. F. Kuhlmann di Amburgo fu proficua. Friedrich Emich(1860-1940), che è ritenuto l’inventore della microanalisi quantitativa inorganica e che è stato l’ispiratore per Pregl, aveva perfezionato le bilance di torsione, allora note di Nernst e Angstrom, al punto che la bilancia di Nernst raggiungeva la  sensibilità di  0,1 μg  sotto un carico di 500 mg. Ma, nel caso dell’analisi organica, se le variazioni di peso richieste dell’apparato di assorbimento, per la determinazione di carbonio e idrogeno nelle sostanze organiche, erano dell’ordine del mg, i recipienti, tuttavia, potevano pesare fino a 10 g, e potevano presentare oltre tutto forme diverse.    

In collaborazione con il bilanciere W. Kuhlmann, Pregl ha migliorato la “bilancia per saggio dei metalli rari” di quest’ultimo, in modo che a un carico massimo di 20 g. fosse ancora possibile effettuare pesate con una precisione di 0,001 mg.

L’effetto scala

La quantità di sostanza organica da analizzare passa dall’ordine di 0,1g a quello di 1 mg. Si riduce di 1/100.

Così continua Pregl:

L’ipotesi che il nostro obiettivo potesse essere raggiunto spostando il punto decimale per tutti i fattori si è rivelata del tutto fuorviante; infatti, a seguito della riduzione della quantità della sostanza, sono comparsi effetti che hanno influenzato in modo decisivo il risultato della microanalisi, mentre essi erano stati insignificanti nella macroanalisi e quindi spesso non erano stati nemmeno notati.”

Molti errori di macroanalisi con un campione di 0,1 g. sono ancora entro il limite di tolleranza e di conseguenza sono difficilmente notati, mentre con campioni con masse cento volte più piccole, si producono grandi differenze. Il grande merito di Pregl è stato quello di riconoscere le numerose fonti di errore e di eliminarle.

Gli sforzi del chimico della microanalisi potrebbero essere descritti come una lotta con la superficie. Il cambiamento del rapporto tra superficie e volume, che cambia con il cambiamento delle dimensioni, amplifica gli errori.

Se per esempio consideriamo la superficie di un macro tubo di assorbimento per il cloruro di calcio, nell’analisi con il metodo Liebig, che è di circa 100 cm2,             e la rapportiamo a quella di un microtubo del metodo Pregl, che è di circa 32 cm2, il rapporto è 3:1; ma le quantità di sostanza da pesare (0,1mg rispetto a 0,1g) stanno come  100:1. Di conseguenza, l’inevitabile velo di umidità sul microtubo, in relazione alla variazione di peso da determinare, è di circa 33 volte più influente rispetto alla macroanalisi ( 100 : 3 ≃ 33 ).

Ma non solo la superficie, ma anche il contenuto dei tubi di combustione e dell’apparato di assorbimento della microanalisi non diminuisce nella stessa proporzione della quantità di sostanza rispetto al macroapparato. Ad esempio, il volume di un macrotubo di combustione è di circa 180 cc, quello di un microtubo è di circa 20 cc, il rapporto è 9:1 (rispetto alle masse che è di 33). Nell’apparato di assorbimento, quindi, le fluttuazioni della temperatura e della pressione, dovute al cambiamento dell’assetto idrostatico o alla variazione della tensione di vapore, diventano evidenti in un modo che non appare nella macroanalisi.

I tubi di raccordo in gomma

Anche i tubi in caucciù che collegano le  parti dell’apparato hanno creato un problema di superficie.

Continua Pregl:  “Lo sviluppo della determinazione del carbonio e dell’idrogeno è stato considerevolmente più difficile, perché il problema qui era in primo luogo quello di assorbire i prodotti di combustione risultanti privi di miscele estranee, in modo tale che l’aumento di peso potesse essere correlato solo all’acqua risultante e all’anidride carbonica che era stata prodotta. Così, ad esempio, anche l’uso di aria pulita e ossigeno puro può comportare un aumento di peso errato, se i gas sono condotti attraverso nuovi tubi di gomma, perché questi rilasciano notevoli quantità di vapori contenenti carbonio e idrogeno nel flusso di gas. L’invecchiamento artificiale, ad esempio facendo passare il vapore attraverso questi tubi per un’ora, può eliminare questa proprietà indesiderata.”

L’ umidità nell’aria

Quando una microanalisi è terminata, durante la procedura di pesata dei vari tubi di assorbimento si verificano variazioni di peso causate dall’assorbimento di umidità da parte dell’agente assorbente, che non erano registrate nella macroanalisi. Il problema è risolto da Pregl:

Sono finalmente riuscito a prevenire completamente questa diffusione del vapore acqueo montando pezzi di capillari affusolati tra espansioni più grandi e più piccole della linea di flusso; questa disposizione rappresenta un gradiente di diffusione così graduale che anche per lo strumento di pesatura sensibile del micro-analista si tradurranno in aumenti di peso impercettibili durante i periodi in esame pratico.”

Il problema è risolto, ma se ne crea un altro:

D’altra parte, questi affusolati capillari presentano una notevole resistenza al flusso di gas con conseguente aumento della pressione all’interno del tubo di combustione, e  quindi si incontrano nuove difficoltà; i collegamenti del tubo tra gli apparecchi, in particolare tra l’uscita calda del tubo di combustione e il tubo di cloruro di calcio – il punto più critico – potrebbero causare la perdita di prodotti di combustione in conseguenza dell’aumento della pressione, se il collegamento del tubo è solo leggermente danneggiato, e soprattutto in considerazione del fatto che la gomma ha la particolarità di consentire all’anidride carbonica di diffondersi facilmente. Ho eliminato questi pericoli equiparando la pressione nel punto critico a quella esterna, cioè la pressione atmosferica. Questo effetto può essere facilmente ottenuto per mezzo di un bottiglia  di Mariotte.”

Pregl riporta anche l’esempio del problema incontrato con l’analisi dell’azoto di Dumas:

Questo può già essere illustrato in modo molto semplice in relazione alla determinazione dell’azoto secondo Dumas. La determinazione volumetrica dell’azoto liberato durante questo processo è influenzata a tal punto dalla soluzione di idrossido di potassio al 50% che aderisce all’interno del tubo di misura del micro-azotometro, che il 2% deve essere sottratto dalla lettura del volume.”

La purezza dei reagenti

E poi il gas di trasporto (per il metodo Dumas) :

“I requisiti relativi all’anidride carbonica utilizzata per la deareazione e per l’espulsione dell’azoto sono molto più rigorosi di quanto si fosse finora abituati, e si è ritenuto necessario sviluppare un rifornimento di anidride carbonica completamente privo di aria. Fino ad oggi non sono mancati lavori in questa direzione ed è singolare che quasi sempre il marmo massiccio e compatto fosse sospettato come vettore d’aria; si è persino ritenuto necessario farlo bollire nel vuoto, e si è trascurato il fatto che soluzioni acquose come l’acido cloridrico sono in grado di assorbire notevoli quantità di aria e anche di azoto.

 Inoltre, si è ritenuto imperativo che l’alcali che sigilla il volume di azoto che era stato liberato, non dovesse schiumare; il trattamento con idrossido di bario è risultato essere il mezzo con cui le sostanze che hanno causato la formazione di schiuma potevano essere estratte dalla soluzione alcalina. Infine, la posizione della massa di rame ridotta nel rivestimento del tubo è risultata importante e la posizione più corretta si è rivelata essere nel mezzo del rivestimento in ossido di rame nella parte più calda del tubo.”

Il riempimento universale

Quello che Pregl racconta nella sua breve lezione alla cerimonia dei Nobel non ci dice quanto lavoro certosino è stato impegnato nella messa a punto del metodo. Furono necessarie oltre cinquemila analisi di controllo per scoprire i punti deboli del sistema e porvi rimedio.

Una delle realizzazioni più importanti fu la invenzione di un analizzatore per il carbonio e idrogeno valido per tutte le sostanze: “Se la sostanza da analizzare contiene azoto, alogeni o zolfo, durante la combustione possono risultare prodotti gassosi che potrebbero erroneamente essere pesati e registrati come anidride carbonica, poiché sono anche trattenuti dall’agente assorbente per l’anidride carbonica, cioè la calce sodata. In tali casi, pertanto, l’ingresso di tali prodotti nell’apparecchio di assorbimento deve essere impedito a tutti i costi. Mentre per la macro-analisi sono raccomandati diversi riempimenti di tubi per le varie sostanze in base alla loro composizione, il mio obiettivo principale era quello di sviluppare un riempimento del tubo che trattenesse sempre tutto ciò che non era anidride carbonica o acqua. Lo chiamo quindi il riempimento universale. Consiste in una miscela di ossido di rame e cromato di piombo tra due strati di argento e infine uno strato di perossido di piombo su amianto riscaldato a 180°C.

Il metodo si completa

Pregl estendeva la microanalisi organica alla determinazione degli elementi che compongono la struttura delle sostanze organiche: alogeni, fosforo, zolfo, arsenico e azoto migliorando le tecniche analitiche. Ha rivolto poi l’applicazione della microanalisi sviluppando la determinazione dei gruppi funzionali organici: il gruppo carbossilico, i gruppi metossile ed etossile, determinazione dei gruppi metile ed etile legati all’azoto, determinazione del gruppo amminico primario.

Infine ha rivolto il suo lavoro alla determinazione del peso molecolare attraverso il metodo dell’innalzamento ebullioscopico e abbassamento crioscopico di quantità dell’ordine del mg.

Lo sviluppo della biochimica

Con l’invenzione della microanalisi quantitativa organica la biochimica è uscita dalla stato di precarietà, ha ottenuto quello stato ontologico che le ha permesso di svilupparsi e ottenere risultati di rilievo, testimoniati dalla pioggia di Premi Nobel che sono stati assegnati a temi di Biochimica dopo l’invenzione della microanalisi. Ce lo ricorda ancora Pregl :

A questo proposito possiamo menzionare che uno dei primi risultati è stata la scoperta della carotina, la sostanza colorante gialla nei corpi lutei delle ovaie del bestiame, che è stata ottenuta mediante determinazione micro-analitica dell’idrogeno e carbonio; è la sostanza che si trova nelle carote, ampiamente presente nel regno vegetale. Questa è stato estratta da circa 10.000 ovaie nel laboratorio di R.C. Willshtätter [Nobel  1915] di Zurigo e sarebbe stato sufficiente per una sola macro-analisi. Così, in questo caso già la micro-analisi ha reso possibili importanti progressi nelle nostre conoscenze, dimostrando che la stessa sostanza appare come materia colorante in entrambi i regni naturali, il regno vegetale e quello animale.

Inoltre, in considerazione della minuscola quantità di materiale disponibile, voglio attirare la vostra attenzione sulle preziose informazioni sulla struttura molecolare ottenute mediante micro-analisi, attraverso il lavoro di Adolf Windaus sulla cimarina e il colesterolo [Nobel 1928], e il lavoro di H.O. Wieland sulla decomposizione degli acidi biliari [Nobel 1928], dove la micro-analisi ha dimostrato il suo valore.”

Quando ad Hans Fisher, premio Nobel 1930 per aver sintetizzato l’emina, è stato chiesto se avrebbe potuto fare la sua scoperta senza il metodo Pregl, ha risposto che avrebbe impiegato altri due o tre anni e per lui, direttore di un istituto, il tempo era di fondamentale importanza.

Il primo apparecchio che Pregl assemblò nel 1913 aveva questa conformazione:

Riempimento universale per C e H

Con un  tubo di assorbimento si potevano effettuare 200-300 analisi.

La scuola di Pregl

Il 27 febbraio 1911, Pregl diede un resoconto dei suoi nuovi metodi alla Società chimica tedesca di Berlino.

Nel 1913, dimostrò davanti al Naturforschertagung (congresso scientifico) di Vienna la determinazione dell’idrogeno, del carbonio e dell’azoto nell’acetanilide insieme al suo peso molecolare.

La sua opera fondamentale  “Die Quantitative Organische Milroanalyse” apparve nel 1917 e acquisì fama mondiale

Come ci testimonia lo stesso Pregl nella prefazione del suo libro :

Alla riunione degli scienziati naturali a Vienna (settembre 1913) ebbi l’opportunità, in una conferenza sperimentale, di tracciare a grandi linee l’edificio della microanalisi organica, il cui involucro era già stata completato. La conseguenza di ciò fu che da allora fino all’inizio della guerra mondiale, un certo numero di colleghi specialisti appresero i metodi nel mio istituto. Citerò brevemente i signori in ordine cronologico.”

L’elenco contiene coloro che avevano un incarico dirigenziale nei loro laboratori e istituti in vari paesi e città europee. Accanto a questi, decine di studenti, laureandi ecc.  si cimentavano nell’apprendimento del suo metodo.

Da notare che nell’elenco compare anche un italiano Dr. Sernagiotto dell’università di Bologna.

Quando ho incontrato Pregl

Da studente dell’Istituto Tecnico Industriale di Arezzo, quando frequentavo il terzo anno ad indirizzo chimico, nel corso di Chimica Organica studiavamo nel testo di Eugenio Stocchi, un autore piuttosto famoso e prolifico. Correva l’anno 1962.

All’inizio del testo veniva descritta la microanalisi quantitativa organica di Pregl. La pagina, dove è riportato lo schema dell’apparecchio riportava delle mie annotazioni, segno che il popolare prof. Berti lo riteneva oggetto di studio. Di fatto l’apparecchio dopo mezzo secolo viene rappresentato senza sostanziali cambiamenti, il tubo di assorbimento universale contiene gli stessi reattivi, nello stesso ordine.

 Pochi anni dopo, nel 1968, la Carlo Erba immetterà nel mercato uno strumento che sarà provvisto, al termine del processo di combustione, di un analizzatore gas- cromatografico per determinare simultaneamente C,S,H,N come CO2, H2O, N2, SO2.

Bibliografia

  • Fritz Pregl, ”Nobel Lecture “, 1923
  • Fritz Pregl, “Die quantitative organische Mikroanalyse”,  1917
  • Dr. Hubert Roth, “Quantitative Organic Microanalysis of Fritz Pregl”, 1937
  • Eugenio Stocchi, “Chimica generale organica”, 1960
  • Von Dr.phil. C. WEYGANDL, “Die Enfwicklung der organischen Elemenfaranalysevon Lavoisier bis Pregl”, 1925
  • Prof. Fritz Pregl. Nature 127, 135–136 (1931)
  • Gerald Kainz,” Friedrich Emich, Fritz Pregl, Fritz Feigl”, JCE Volume 35, No. 12, December, 1958
  • Istituto Superiore di Sanità,” Microanalisi elementare organica, Collezione di strumenti “a cura di Anna Farina e Cecilia Bedetti
  • Ralph T. K. Cornwell, ”Quantitative  Organic Micro Analysis”, JCE Volume 5, No. 9, September, 1928
  • A. J. Haagen-Smit, “The Power of Microanalysis”, JCE volume 28, No. 9, September, 1951
  • H. N. Wilson, ”An Approach to Chemical Analysis: Its Development and Practice”, Pergamon press,1966

Fritz Pregl, Nobel 1923: cento anni di chimica organica. Parte 1

In evidenza

Roberto Poeti

Ho visitato cinque anni fa Graz, alla ricerca delle testimonianze lasciate da Fritz Pregl, Nobel 1923 per la chimica, che ha vissuto in questa città. Colgo l’occasione della ricorrenza del centenario della sua premiazione per ricordare il contributo che ha dato allo sviluppo della chimica. 

Graz è il capoluogo del Land della Stiria in Austria, la seconda città austriaca per numero di abitanti. Una città che ben sette linee di tram di superficie percorrono in lungo e in largo, creando una isola pedonale tra le più grandi d’Europa. Non è solo la capitale della regione del vino, ma è anche sede di ben 6 università con circa 60.000 studenti, un quarto degli abitanti, con il centro cittadino che è uno dei meglio conservati dell’Europa centrale e grazie a ciò, nel 1999, Graz venne aggiunta all’elenco dei patrimoni dell’umanità dell’UNESCO. All’Università Karl-Franzens, che è la più antica, Nikola Tesla studiò ingegneria elettronica nel 1875. Il premio Nobel Otto Loewi, farmacologo, insegnò dal 1909 al 1938, e Keplero fu professore di matematica dal 1594 al 1599. Erwin Schrödinger fu per breve tempo rettore nel 1936. Tra i vecchi e austeri edifici che rimangono ancora in piedi della vecchia università, uno tra i più grandi ed imponenti porta in alto scritta la sua destinazione “MDCCCLXXVI CHEMISCHES INSTITUT “.

La chimica ha nella storia dell’università uno dei posti di rilievo, anche per merito di uno dei suoi docenti, Fritz Pregl, che ha studiato e poi lavorato presso quell’istituto, ottenendo nel 1923 il premio Nobel per la Chimica.

Fritz Pregl nacque il 3 settembre 1809 a Laibach (Lubiana), che allora si trovava in Austria – Ungheria. Studiò medicina all’Università di Graz, dove Ludwig Boltzmann era tra i docenti, conseguì il dottorato nel 1893, e iniziò a praticare la professione come oculista, ma coltivò la sua passione per la ricerca diventando uno degli assistenti del professor Alexander Rollett dell’istituto di Fisiologia, che aveva intuito le sue doti. Pregl ha iniziato a lavorare sull’acido colico e altri acidi biliari.  I suoi interessi iniziarono ad assumere una forte inclinazione verso la chimica. Alla morte di Rollett nel 1903, Pregl decise di ampliare i suoi orizzonti, imbarcandosi in una spedizione chimica attraverso la Germania. Visitò il chimico fisico Wilhelm Ostwald a Lipsia, studiò gli addotti di monossido di carbonio dei pigmenti del sangue a Tubinga con Gustav von Hüfner, e poi trascorse del tempo a Berlino con Emil Fischer, il principale chimico organico della Germania. Tornato a Graz continuò a lavorare sulla composizione di materiali biologici. In quegli anni lavorò molto nelle officine meccaniche e di soffiatura del vetro dell’università acquisendo una notevole competenza tecnico-pratica che si rivelerà decisiva più avanti.  Dal 1910 al 1913 Pregl fu professore all’Università di Innsbruck, dove sviluppò il metodo per la microanalisi quantitativa di sostanze organiche, sul quale continuò a lavorare dopo che fu richiamato a Graz nel 1913. A Graz divenne Decano della Facoltà di Medicina e Vice cancelliere. Morì il 13 dicembre 1930 a Graz. È sepolto nel cimitero di Graz e le autorità cittadine gli hanno dedicato una tomba monumentale.

Questo straordinario chimico ha dedicato la sua intera esistenza alla ricerca e alla didattica.  Scapolo, alloggiava in un appartamento a pochi passi dall’università, mangiando i suoi pasti sempre nella stessa trattoria lì vicino, l’Heinrichshoff, che esiste ancora oggi.  Unica distrazione la sua passione per lo sport, il calcio e l’alpinismo. Un insegnante che esigeva molto dai suoi studenti, ai quali tuttavia non risparmiava il proprio tempo libero, continuando il suo insegnamento persino nella sua casa. Ha vinto il Nobel per avere inventato la tecnica della microanalisi quantitativa organica. La maggior parte del premio Pregl lo ha donato per la modernizzazione del suo istituto. La conoscenza della composizione elementare di una sostanza organica ha rappresentato una sfida incessante per i chimici. Poiché Pregl ci ha consegnato una tecnica rivoluzionaria di analisi quantitativa delle sostanze organiche vediamo quale era lo stato delle cose prima di lui.

Una breve storia dell’analisi organica

Lavoisier per primo nel 1788 determina la composizione della materia organica (olii), dai prodotti della loro combustione completa, biossido di carbonio e acqua. L’analisi richiedeva più di 50 g di campione, era complessa, richiedeva molto tempo, e dava risultati poco precisi. Furono J.L. Gay-Lussac e L.J. Thenard ha riabilitare e perfezionare il metodo di Lavoisier, sviluppando il primo metodo analitico veramente fruttuoso, e nel 1809 intrapresero l’analisi di vari composti organici. La sostanza da analizzare veniva miscelata il più omogeneamente possibile con clorato di potassio in proporzioni determinate. Dalla miscela si formavano delle pasticche che, pesate, venivano introdotte in un tubo di vetro verticale a pareti spesse, riscaldato al calor rosso, dove avveniva la combustione. I prodotti della combustione (gas, vapori) venivano raccolti in una campana. Un metodo che andava bene per le sostanze organiche che non contenevano azoto.

Nel 1815 Berzelius, molto critico nei confronti dell’apparato francese, introdusse diverse innovazioni: il tubo veniva riscaldato in posizione orizzontale, il composto da analizzare veniva inserito tra due strati di agente ossidante, l’acqua veniva fatta assorbire su cloruro di calcio. Gay-Lussac adottò ben presto l’espediente dello svedese Berzelius e, in occasione dell’analisi dell’acido prussico, introdusse l’uso dell’ossido di rame come agente ossidante, meno pericoloso e più efficace del clorato di potassio. L’azoto, come N2, costituiva il volume residuo dopo assorbimento di CO2 su potassa.   Il sistema Gay-Lussac-Berzelius prevalse fino a quando nel 1830 Liebig a Giessen introdusse il suo sistema dotato del “Kaliapparat”, apparecchio a cinque bolle per l’assorbimento della CO2, che si affermò per tre quarti di secolo. A parità di quantità di campione utilizzato nei precedenti metodi, di 0.2-0.5 g, si otteneva una diminuzione   dell’incertezza sperimentale e del tempo di analisi; la determinazione del carbonio e dell’idrogeno divenne un’operazione facile e sicura che poteva essere eseguita in poche ore. Berzelius si esprime così sulla metodica di Liebig: “Usiamo l’apparato Liebig ogni giorno. È uno strumento meraviglioso”.

Il laboratorio di Giessen fece scuola e divenne meta di molti chimici dall’Europa e dall’ America che vi fecero il loro training. Come vedremo per Pregl, anche Liebig contribuì a fare costruire una bilancia che poteva pesare fino a 100 g con una precisione di 0.3 mg. Se veniva bruciato un campione di 0.5 g veniva prodotta circa 1 g di CO2, che poteva essere pesata con precisione dello 0.1 %. Le lunghe braccia della bilancia oscillavano così lentamente che Liebig aveva il tempo di fumarsi un sigaro durante il tempo che occorreva per eseguire una pesata. Nel 1833, J. B. Dumas pubblicò il metodo ingegnosamente semplice e diretto di determinazione dell’azoto, che è ancora usato oggi con il suo nome. L’azoto viene misurato come N2.

 Nel 1883 si aggiunse per la determinazione dell’azoto il metodo proposto da J. Kjeldahl, che misura l’azoto come NH3. Finora abbiamo parlato solo della determinazione degli elementi carbonio, idrogeno e azoto. L’ossigeno è stato fino all’epoca di Pregl per lo più trovato indirettamente, anche se non sono mancati tentativi di elaborare metodi di analisi diretta anche per questo elemento (Ladenburg, Baumhauer). Agli albori della chimica organica questi elementi giocarono di gran lunga il ruolo principale, e i costituenti “inorganici”, alogeni, zolfo e fosforo, furono inizialmente poco considerati. Fu solo negli anni 1861-1870 che G.L. Carius concepì il suo metodo.  Come è noto, si basa sulla completa ossidazione della sostanza con acido nitrico in un tubo chiuso e la successiva determinazione dei costituenti inorganici nella consueta forma analitica di peso. In sostanza, siamo giunti allo stato di cose che trovò F. Pregl nel 1910 quando iniziò a sviluppare la microanalisi organica.

                                                                  Perché è nata la microanalisi

Nel discorso tenuto all’Accademia Svedese delle Scienze in occasione dell’assegnazione del Premio Nobel

nel 1923 è lo stesso Pregl che spiega come è nata la sua ricerca di una nuova metodica analitica, il suo piano di azione, e ci dà, con alcuni esempi, il tipo di problematica che dovette affrontare:

Nell’estate dell’anno 1910, nel corso di una lunga indagine sugli acidi biliari, ottenni una quantità estremamente piccola di un prodotto di decomposizione. Sono stato quindi costretto a decidere se lavorare tonnellate di materiale o se cercare nuovi metodi, che mi avrebbero permesso di arrivare a risultati analitici corretti utilizzando quantità molto più piccole di prima. Ho deciso quest’ultima linea d’azione. Il piano più ovvio era quello di applicare riduzioni a tutto e a tutti, vale a dire spostare il punto decimale indietro di uno o due posti, non solo in relazione alla quantità della sostanza, ma anche in relazione a tutti gli apparecchi, le quantità di reagenti, ecc.,”

Pregl fotografa la situazione della ricerca chimica nel campo della fisiologia e della medicina.  Pregl aveva studiato la composizione della bile dei bovini. L’ossidazione di 100 kg di bile con HNO3, aveva prodotto piccole quantità di prodotti di ossidazione con struttura cristallina, che erano insufficienti per l’analisi elementare.  I necessari passaggi per la purificazione dei complessi campioni di materiale cellulare riducevano le quantità di prodotto al di fuori della portata in cui operava la chimica organica, i cui strumenti e metodiche consentivano analisi su masse di substrato dell’ordine del grammo.

Pregl iniziò nel 1910 a lavorare al suo progetto a Innsbruck dove era stato chiamato a dirigere l’Istituto di chimica medica dell’Università.

(continua)

Cattive acque.

In evidenza

Claudio Della Volpe

L’avv. Robert Bilott che il NYT ha definito nel 2016 l’incubo della Dupont.

Dark waters, tradotto impropriamente in italiano “Cattive acque” è il titolo di un film del 2019, che racconta la storia di Robert Bilott, un avvocato americano che è diventato famoso per la sua lotta senza quartiere in difesa delle persone intossicate negli USA dai prodotti perfluorurati intermedi della Dupont, scaricati nella falda acquifera di Parkington. Io l’ho visto su IRIS (can. 22) e se ci state attenti potrete vederlo anche voi nelle prossime settimane.

Non è una storia inventata, è la premessa storica di ciò che sta succedendo in Italia in Veneto e in Piemonte ad opera della Miteni e della Solvay. E’ la storia fedele della vita di questo avvocato che cominciò come specialista difensore delle aziende chimiche e che poi divenne il loro grande accusatore, una volta che si rese conto della malafede e della cattiveria e della sete di guadagni e di profitto che passavano su tutto, ambiente e vita delle persone

In America la lotta si chiuse dopo parecchi anni con il pagamento di 670 milioni di dollari alle oltre 3500 persone che avevano fatto causa alla Dupont (anche per questo la Dupont è diventata oggi Chemours).

Bilott ha cominciato rappresentando in tribunale Wilbur Tennant di Parkersburg, il cui bestiame stava morendo. La fattoria si trovava a valle di una discarica nella quale la DuPont aveva scaricato centinaia di tonnellate di acido perfluoroottanoico (PFOA). Nell’estate del 1999 Bilott aveva intentato una causa federale contro la DuPont presso il tribunale distrettuale degli Stati Uniti per il distretto meridionale della Virginia Occidentale. In risposta la DuPont comunicò che la DuPont e l’Agenzia per la protezione dell’ambiente avrebbero commissionato uno studio sulla proprietà dell’agricoltore, condotto da tre veterinari scelti dalla DuPont e da tre scelti dall’Agenzia per la protezione dell’ambiente. Quando il rapporto fu pubblicato, esso attribuiva ai Tennant la responsabilità del bestiame morto, sostenendo che la cattiva zootecnia era la sola responsabile: “cattiva alimentazione, cure veterinarie inadeguate e mancanza di controllo delle mosche“.

Nell’agosto 2001 Bilott presentò un’azione legale collettiva contro la DuPont. Ed ottenne un accordo di 671 milioni di dollari dalla DuPont per conto di più di 3.500 querelanti in Virginia Occidentale.

Dopo questa vittoria nel 2018 Bilott ha presentato una class action che “chiede un risarcimento a favore dei cittadini di tutti gli Stati Uniti” contro 3M, DuPont e Chemours. La sua causa è in corso.

https://theintercept.com/2018/10/06/dupont-pfas-chemicals-lawsuit/

PFAS Contamination in the U.S. (June 8, 2022)

Vedere il film fa bene all’anima, anche se dà un certo disturbo di stomaco, di fronte alla denuncia dei comportamenti criminali della grande azienda chimica USA.

Nel film Bilott, esprimendo la profonda ideologia individualista che permea tutto il mondo americano dice:

Noi dobbiamo proteggerci da soli, nessun’altro lo fa, né le imprese, né gli scienziati né il governo; il sistema è corrotto.

In Italia non sappiamo ancora come andrà a finire; adesso le persone interessate e che si stima abbiano nel sangue prodotti perfluorurati sono diventate oltre 350mila solo in Veneto, ma i territori inquinati dai PFAS sono almeno in Piemonte (Spinetta Marengo) e nella valle del Trissino (Veneto).

Noi in Europa abbiamo REACH, ma considerando il Veneto e Spinetta Marengo, e tutte le altre zone mostrate nella cartina dell’Europa qua sotto le cose non vanno poi tanto meglio; mi piacerebbe sentire il commento di qualcuno dei 350mila Veneti “inquinati”. Anche perché le zone apparentemente non interessate sono zone in cui non ci sono analisi; non esiste una conoscenza completa dell’inqunamento da PFAS.

Titoli di coda di Dark waters:

Si ritiene che il PFOA sia presente nel sangue di tutti gli esseri viventi del pianeta, inclusi il 99% degli esseri umani.

Cosa si può fare contro molecole che sono praticamente indistruttibili dai normali cicli naturali e che tendono ad accumularsi nei tessuti degli animali, inducendo parecchi tipi di disturbi sia sistemici che tumorali?

La risposta dell’industria chimica è stata di sintetizzare nuovi intermedi cercando accordi con le autorità di controllo, ma senza interrompere i cicli produttivi; in molti casi le nuove sostanze non erano inserite nelle liste di sostanze da controllare; al momento non risulta del tutto chiaro quali e quante sostanza perfluorurate siano impiegate nei cicli stessi e quali effetti possano avere sugli organismi.

Il 14 marzo 2023 l’agenzia statunitense per la protezione dell’ambiente (Epa) ha comunque stabilito dei nuovi limiti alla presenza di sei Pfas nell’acqua potabile. La concentrazione di Pfoa, Pfos e altre quattro sostanze non potrà superare le 4 parti per trilione (ppt), una quantità che gli esperti considerano comunque pericolosa per la salute, ma che è la più bassa rilevabile dai test dell’agenzia. In precedenza il limite era fissato a 70 ppt.

Nei casi in cui la soglia sarà superata, le aziende che gestiscono gli acquedotti saranno obbligate a rimuovere le sostanze dall’acqua potabile, un processo che secondo l’Epa potrebbe costare più di settecento milioni di dollari all’anno. Secondo uno studio del 2020, negli Stati Uniti l’acqua potabile usata da almeno duecento milioni di persone è contaminata da Pfas.

Se non ci saranno ricorsi, la norma entrerà in vigore a metà maggio. (New York Times, Euobserver)

Cosa succede in Europa?

Qui si cercano strade diverse e più radicali interrompendo la produzione dei perfluorurati; la questione è che si è capito che dato il numero elevato di intermedi e la difficoltà di ottenere in tempi rapidi studi di qualità sui loro effetti si preferisce una impostazione di precauzione e questa è più radicale.

C’è anche un problema di avere degli standard adeguati; ora su questa questione degli standard si è aperta una partita che abbiamo in parte raccontato in un altro post; dato che le sostanze sono coperte da brevetto e le aziende si rifiutano di rilasciare questi standard diventa impossibile fare una verifica “legale”  che non si scontri con i diritti brevettuali, in assenza di una opportuna regolamentazione, che a sua volta non esiste.

La richiesta di sospendere del tutto la produzione di perfluorurati diventa così una alternativa desiderabile con tutte le conseguenze del caso. Il 7 febbraio cinque stati europei – Danimarca, Germania, Paesi Bassi, Norvegia e Svezia – hanno presentato una prima proposta per una messa al bando totale dei Pfas. L’unica concessione alle obiezioni delle aziende è stata prevedere periodi di transizione pluriennali per alcuni settori.

La reazione delle aziende è ovviamente di gridare al disastro economico e produttivo tramite i loro portavoce e rappresentanti lobbistici, come Pro-K; la posizione è sostanzialmente che i prodotti finali, i polimeri perfluorurati sono sicuri e che il problema si riduce ad eliminare il rilascio di intermedi pericolosi e che questo si può fare; finora tuttavia è evidente a tutti che la cosa non è andata così e non c’è fiducia che la cosa avvenga in questo modo. La sostituzione di Gen-X a PFOA, per esempio, non ha risolto il problema, Gen-X continua ad essere tossico e presente nei rilasci e sugli effetti dei nuovi intermedi non ci sono lavori scientifici certi pubblicati da ricercatori che non abbiano conflitti di interesse; in sostanza come è avvenuto in altri casi chi pubblica su questi argomenti di solito collabora con chi produce e dunque il dubbio è legittimo.

Cosa può fare una grande società scientifica come la nostra su questo tema? Come ha proposto Francesco Neve, un collega di Unical,  nei commenti ad un precedente post dovrebbe prendere posizione sul tema, per esempio riprendere in mano la proposta di legge di iniziativa popolare che fu fatta nella passata legislatura su questi temi e che al momento non è più attiva; una discussione interna alla SCI ed un documento che prenda posizione su questi temi (un position paper come abbiamo fatto sul clima) sarebbe altamente gradito e ci consentirebbe di recuperare autorevolezza di non essere al traino di altre voci; voi che ne dite?

PS Considerate che con molta probabilità anche voi che leggete avete un qualche tipo di perfluorurato nel circolo ematico e non lo sapete esplicitamente.

PFOA, acido perfluoroottanoico

PFOS Acido perfluoroottansolfonico

FRD903

FRD902 è il sale di ammonio del FRD903

Consultati

https://it.wikipedia.org/wiki/Cattive_acque#cite_note-3

https://www.kirkusreviews.com/book-reviews/robert-bilott/exposure-bilott/#

https://thevision.com/cultura/cattive-acque-film/

https://www.ewg.org/news-insights/news-release/2023/03/study-toilet-paper-major-source-toxic-forever-chemicals

https://www.ewg.org/interactive-maps/pfas_contamination/map/

https://cen.acs.org/articles/96/i7/whats-genx-still-doing-in-the-water-downstream-of-a-chemours-plant.html

Internazionale: NUMERO 1507 DEL 14 APRILE 2023 ,

-Cosa c’è da sapere sui PFAS? R. Salvidge, L. Hosea, The Guardian, Regno Unito

-Veleni a Bruxelles , Süddeutsche Zeitung, Germania, Daniel Drepper, Andrea Hoferichter e Sarah Pilz

-Gli inquinanti eterni  Adelaide Tenaglia, Stéphane Horel, Le Monde, Francia  

Justine Siegemund (1636-1705), ostetrica e scrittrice

In evidenza

Rinaldo Cervellati

Negli ultimi anni del blog ho riportato le biografie di più di quaranta scienziate che hanno dato fondamentali contributi allo sviluppo delle scienze chimiche e discipline affini dalla metà del XIX secolo alla metà del XX, da Martha Annie Whiteley a Rachel Carson, da Ida Noddack a Rosalind Franklin, raccogliendole poi in un volume cronologico. Oggi vorrei fare un omaggio a Justine Siegemund, un’ostetrica e scrittrice della fine del 1600 che è forse stata la prima a fornire indicazioni precise sul parto in un libro-manuale su di esso e le sue possibili complicazioni. Oggi le donne partoriscono generalmente in appositi reparti medici ospedalieri e ciò è stato probabilmente reso possibile anche dal lavoro di Siegemund.

Nata a Rohnstock in Bassa Slesia (oggi Roztoka in Polonia), figlia del pastore luterano Elias Diettrich, rimase orfana a quattordici anni. Diciannovenne, nel 1655 sposò il contabile Christian Siegemund ma la coppia rimase senza figli per i quarantadue anni di matrimonio, sostenendosi a vicenda nelle loro carriere professionali. A 21 anni, Siegemund soffrì di prolasso uterino, diagnosticato erroneamente. Questa dolorosa esperienza la spinse a istruirsi in ostetricia. Iniziò a praticare nel 1659, quando le fu chiesto di assistere un caso di travaglio ostruito dovuto a un braccio fetale fuori posto. Fino al 1670 fornì servizi di ostetricia gratuiti alle donne povere della sua zona. La base di clienti paganti crebbe fino a includere famiglie di mercanti e nobili.

Figura 1. Justine Siegemund

Siegemund fu chiamata dai medici di Luise, duchessa di Legnica, per un tumore cervicale, che rimosse con successo, tuttavia Martin Kerger, il suo ex supervisore, l’accusò di praticare parti non sicuri. I colleghi di Kerger alla facoltà di medicina di Francoforte, si schierarono con Siegemund e le stesse dichiarazioni di Kerger dimostrarono che gli mancava la conoscenza professionale basata sull’esperienza pratica delle anatomie riproduttive e del parto delle donne.

Nel 1683 Federico Guglielmo I di Brandeburgo la nominò ostetrica di corte e in tale veste aiutò Maria Amalia di Brandeburgo a partorire quattro figli. Nel 1696, alla corte di Augusto II re di Polonia, fu l’ostetrica di Cristiana di Brandeburgo-Bayeruth assistendola al parto del futuro Augusto III di Polonia. Allo stesso tempo assistette ad altri parti nell’area di Berlino.

A Lipsia, Andreas Petermann la accusò di reati simili a quelli che Kerger aveva già avanzato, ma data la sua esperienza professionale Siegemund riuscì ancora una volta a superare questa sfida alla sua reputazione.

Siegemund usava raramente i prodotti farmaceutici o gli strumenti chirurgici dell’epoca per la sua pratica.

Secondo il diacono di Berlino, dove Siegemund morì il 10 novembre 1705, aveva fatto nascere circa 6.200 bambini.

Ma ciò che la rese famosa fu la pubblicazione, nel 1690 del libro in tedesco: Die chur-Brandeburgische Hoff-Wehe-Mutter, das ist: ein Hoechst-noethiger Unterricht, von schweren und unrecht-stehenden Geburten, in einem Gespraech vorgestellet (Un’ostetrica alla corte di Brandeburgo, cioè una lezione quanto mai necessaria sui parti difficili e problematici, sotto forma di conversazione). Il libro è noto nel mondo anglofono per lo straordinario lavoro di ricerca e di editing scientifico di Lynne Tatlock (The Court Midwife, 2005, University of Chicago Press, Chicago, 2005). L’opera originale è disponibile sul sito della biblioteca Wolfenbüttel.

Il libro di Justine Siegemund è composto da circa 300 pagine ed è presentato sotto forma di un dialogo tra l’apprendista ostetrica Christina e l’autrice. Quest’ultima utilizza così un formato molto di moda all’epoca, il dialogo[1], con uno scopo chiaramente educativo, poiché desidera soprattutto formare ostetriche “ignoranti”.

Figura 2 Frontespizio del libro di Siegemund edizione 1723

Il libro contiene molti esempi tratti dalla sua esperienza e non evita le ripetizioni. La didattica, tuttavia, non è ovviamente l’unico obiettivo di questo libro. Justine Siegemund pubblica verbali di processo, testimonianze (indubbiamente a suo favore) di persone che hanno assistito a parti problematici. In tal modo, sembra volersi giustificare e mettere a tacere i calunniatori.

Il volume fornisce informazioni non solo sul modo in cui l’ostetricia si è evoluta verso la fine del XVII secolo, ma anche sulla categoria socio-professionale delle ostetriche, sulle pratiche e le norme intorno alla nascita, sulla rappresentazione che alcune ostetriche potevano avere delle partorienti.

Le rappresentazioni pittoriche le hanno permesso di farsi una prima idea precisa dell’anatomia femminile e dei problemi che la posizione del feto può porre. Questo è probabilmente il motivo per cui insistette per includere alcune incisioni nel libro. Voleva che fossero di alta qualità e il più precise possibile. Le incisioni embriologiche e anatomiche sono dell’anatomista Regnier de Graaf (1641-1673) e del medico, anatomista e drammaturgo Govard Bidloo (1649-1713), che aumentarono l’utilità pratica del volume. Tuttavia, i feti vengono ancora visti fluttuare nell’utero anche quando la gravidanza volge al termine.  

Figura 3 Incisioni dal libro di Justine Siegemund

Il carattere irrealistico delle rappresentazioni non significa che le ostetriche, o i medici, ritenessero che i feti potessero galleggiare in uteri sproporzionati. Per la sua grande esperienza, Siegemund sa perfettamente che il feto finisce per essere stretto nel grembo di sua madre.

Seguì anche per dodici anni un tirocinio pratico insieme a un’altra ostetrica. Affermò di aver lavorato con i più poveri senza pretendere uno stipendio. Questo argomento, sottolineato più volte, le permise di evidenziare il suo sacrificio mentre trattava con i potenti per la pubblicazione della sua opera. Nel 1689, Siegemund viaggiò da L’Aia a Francoforte sull’Oder e presentò la sua bozza di manuale alla facoltà di medicina di Francoforte sull’Oder, che approvò la sua documentazione medica.

Nel libro, Siegemund descrive le pratiche del suo tempo. Così, apprendiamo che le ostetriche si spalmavano le mani con birra o burro prima di esaminare la cervice delle partorienti e che spesso c’erano diverse ostetriche per assistere una donna durante il parto.

I destinatari del suo lavoro sono le ostetriche. Si rifiuta di incolpare le ostetriche ignoranti e si propone di istruirle su come diagnosticare potenziali complicazioni durante il parto e su come porre rimedio alla situazione. D’altra parte, si ribella alle “levatrici” che persistono nella loro ignoranza quando avrebbero a disposizione uno strumento di apprendimento.

Proponendo processi che non fanno parte del sapere tradizionale delle ostetriche, teme che queste ultime abbiano una reazione di rifiuto nei confronti del suo lavoro, che tuttavia considera salvavita. Questa autodidatta ha inventato una tecnica per rimuovere i tumori dall’utero senza aprire lo stomaco dei pazienti, offrendo loro così una migliore possibilità di sopravvivenza. Rimuove il grumo circondandolo con un nastro e poi lo taglia. Usa un nastro simile per girare il feto nell’utero se il parto va male: “dovresti legare un nastro a un piede e muoverlo delicatamente in questo modo”. Ha anche inventato una manipolazione apparentemente ancora usata oggi in caso di placenta previa (quando la placenta non è posizionata nella parte superiore dell’utero come dovrebbe, mettendo così in grave pericolo la vita della madre e del bambino). Questa è una posizione nuova in un momento in cui affidarsi a Dio in situazioni apparentemente senza speranza era un atteggiamento diffuso e raccomandato dalle autorità religiose.

Alla fine del XVII secolo, le ostetriche come Siegemund non volevano incorrere nell’ira di medici scontenti che avrebbero potuto privarle del loro sostentamento. Così Siegemund sostiene di non essere in grado di distribuire farmaci, essendo la prescrizione delle cure una prerogativa dei medici. Ammette che potrebbe, se necessario, somministrare alcuni farmaci, ma solo in caso di emergenza o per evitare inutili viaggi dai medici oberati di lavoro. Probabilmente spera di essere perdonata per aver ecceduto i suoi diritti se è per aiutare i medici che sembra semplicemente sostenere.

Il libro è sistematico e basato sull’evidenza nella sua presentazione di possibili complicazioni del parto, inclusi problemi come sistemazioni scadenti, problemi al cordone ombelicale, placenta previa e la loro gestione. Nel testo, Siegemund ha presentato una soluzione al feto capovolto, a quei tempi una situazione spesso catastrofica che portava alla morte del bambino e potenzialmente della madre. Ha elaborato un intervento a due mani per ruotare il bambino nell’utero, assicurando un’estremità con un’imbracatura. È anche accreditata (insieme al medico ostetrico François Mauriceau 1637-1709) di aver trovato un metodo per affrontare un’emorragia della placenta perforando il sacco amniotico.

Dopo la morte di Siegemund, il volume subì numerose ripubblicazioni, tra cui Berlino (1708) e Lipsia (1715 e 1724), con modifiche che includevano citazioni ginecologiche maschili. Le ripubblicazioni nel 1723, 1741, 1752 e 1756 includevano anche resoconti dei casi Kerger e Petermann.

Opere consultate

S. Chapuis-Després, La sage-femme aux petites mains, Prendre Corps, Hipoteses, 12/03/2015, aggiornato 02/10/2015 https://corpsgir.hypotheses.org/146

J. Glausius, How sketches of the womb have empowered and oppressed women over the ages, Nature 2023, 616(7957), 431-432.

Justine Siegemund, https://en.wikipedia.org/wiki/Justine_Siegemund


[1] Famosissimi il “Dialogo sui due Massimi Sistemi” di Galileo (1564-1642) e di René Descartes (Cartesio 1596-1650) “Sur la Methode” pour bien conduire sa raison et chercher la verité dans les Sciences”.

Osservazione al microscopio del fango attivo.

In evidenza

Mauro Icardi

Il processo di depurazione a fanghi attivi per essere gestito correttamente richiede diverse tipologie di controlli e regolazioni. Una tra le più interessanti è quella della verifica delle caratteristiche biologiche e della struttura del fango. Occorre sempre tenere a mente che una vasca di ossidazione biologica è un reattore biologico, mentre per molto tempo la si vedeva semplicemente come una “vasca piena di fango”. Condizioni operative del fango non appropriate, non tempestivamente identificate e corrette (es.: carenza di ossigeno, carico organico elevato, ecc.), si ripercuotono inevitabilmente sulla qualità dell’effluente finale dell’impianto. Nel reattore biologico avvengono fenomeni di bioflocculazione e di metabolismo batterico che richiedono un equilibrio tra biomassa (MLSS), quantità di substrato (BOD), ossigeno disciolto (OD), volume e tempo relativo al completamento delle reazioni biochimiche. Nel sedimentatore secondario invece avviene la separazione tra acqua chiarificata e fango biologico che viene poi rimandato nel reattore attraverso il ricircolo.

(colonia di vorticelle)

I trattamenti biologici si basano sul processo di autodepurazione tipico dei corsi d’acqua quale risultato dell’attività delle comunità microbiche. Il processo di trattamento a fanghi attivi differisce dal meccanismo depurativo dei corsi d’acqua per alcune caratteristiche: elevato flusso di sostanza organica all’interno del sistema, l’accelerata attività dei processi di decomposizione, il diverso tempo di ritenzione idraulico.

Il processo a fanghi attivi si basa sull’aggregazione di batteri (fiocchi di fango) su cui altri microrganismi possono svilupparsi. Perciò una popolazione di organismi con la capacità di attaccarsi, o di rimanere strettamente associata al fango, ha un vantaggio su altre popolazioni di organismi che nuotano liberamente nella frazione liquida, e che quindi possono essere persi tramite il trasporto o il dilavamento con l’effluente finale.  Se l’acqua reflua che deve essere depurata ha il giusto rapporto tra nutrienti, per esempio un rapporto C:N:P che vari tra 100:10:1 e 100:5:1, come indicato nella letteratura specifica di settore, si potrà sviluppare un fango caratterizzato da una biomassa ottimale. Le rese depurative saranno buone e il fango sedimenterà senza troppi inconvenienti nella fase finale del trattamento. Normalmente quando si verificano queste condizioni, si sviluppano sui fiocchi di fango i protozoi ciliati, che sono i microrganismi che più di tutti sono gli amici del gestore di un impianto di depurazione.

(Aspidisca)

 E’ stato dimostrato che i protozoi ciliati migliorano la qualità dell’effluente attraverso la predazione della maggior parte di batteri dispersi nella miscela areata, che continuamente entrano nel sistema con il liquame. In assenza di ciliati infatti, l’effluente finale è caratterizzato da BOD più elevato e da alta torbidità per la presenza di molti batteri dispersi. I ciliati inoltre predano anche i batteri patogeni e quelli fecali. Negli effluenti di impianti a fanghi attivi in cui non vi sono ciliati la presenza di Escherichia coli risulta essere, in media, il 50% di quella osservata nel liquame in ingresso alla vasca di areazione. In presenza di ciliati tale percentuale può scendere però fino al 5%.

(Chilodonella)

Dal punto di vista della gestione questo diminuisce i volumi di dosaggio di disinfettanti finali sull’effluente finale, come per esempio ipoclorito di sodio, o acido peracetico. Altra importante caratteristica dei ciliati nei fanghi attivi è il loro comportamento alimentare.  La maggior parte dei ciliati dei fanghi attivi si nutre di batteri dispersi nella miscela aerata. Tuttavia, vi sono ciliati come gli Aspidisca ed altri come Chilodonella che, avendo la bocca posta in posizione ventrale, possono “raschiare” i batteri adagiati sulla superficie del fiocco. Tutti i ciliati batteriofagi muovono le ciglia di cui sono dotati per incanalare i batteri sospesi nella frazione liquida verso il loro l’apparato boccale. Nei primi anni di lavoro avrei voluto passare ore intere al microscopio. Vedere un fiocco di fango era vedere un microcosmo spettacolare che ha sempre avuto su di me un effetto di stupore e meraviglia. La preparazione del test di osservazione al microscopio dei fanghi è piuttosto semplice e richiede alcuni semplici accorgimenti. Per il prelievo è importante che il campione di fango attivo sia ben miscelato, e che venga effettuato nella vasca di areazione in punti non troppo vicini né alle pareti, né alle turbine e comunque non in zone di ristagno.

Se si è avuta la precauzione di lasciare la bottiglia semivuota (di solito si prelevano circa 500ml in una bottiglia di plastica da 1L), l’aria contenuta è sufficiente (entro 3-4 ore) ad evitare che durante il trasporto si verifichino situazioni di anossia del fango. E’ buona norma eseguire il test subito dopo il campionamento, ma in caso si debba rimandarlo si può ricorrere all’areazione con una normale pompa per acquario. Ho trasportato fango biologico all’interno di una borsa termica refrigerata con i cosiddetti “siberini” (la definizione corretta è piastra eutettica), ovvero il contenitore con acqua e glicole usato per i frigoriferi portatili. Non ho mai rilevato alterazioni significative nel fango da osservare.

Per l’osservazione al microscopio con una pipetta Pasteur si preleva una piccola quantità di fango dalla bottiglia da campionamento in cui il campione è mantenuto in aerazione costante. Si appoggia una goccia di fango (es. 50µl) sul vetrino porta oggetto, si copre con il vetrino copri oggetto con cautela, in modo che non vengano incluse bolle d’aria fra i due vetrini, si preme delicatamente una carta assorbente sul copri oggetti per togliere il materiale in eccesso, in modo da evitare che la lente dell’obiettivo si bagni. E’ necessario che il preparato non risulti né troppo scarso, né troppo denso, infatti nel primo caso i fiocchi apparirebbero dispersi e la scarsità del liquido può provocarne l’essicamento, nel secondo caso il materiale apparirebbe addensato e sovrapposto e non permetterebbe l’osservazione corretta dei microrganismi.

Questa operazione semplice è di grande aiuto per la gestione impiantistica. Ma ha un fascino davvero particolare. Non è sempre stato possibile eseguirla quando erano in visita studenti in impianto. Ma quando ho  potuto farlo, le facce sorprese degli studenti sono state davvero una grande soddisfazione. In particolare quelle dei ragazzi delle scuole elementari o medie. Osservare al microscopio come un protozoo si nutre, e di conseguenza come depura l’acqua sporca, è servito a far capire il trattamento delle acque reflue ai ragazzi che posavano i loro occhi sugli oculari del microscopio. Questo stratagemma li rendeva estremamente attenti e coinvolti nelle successive spiegazioni teoriche, evitando la disattenzione e la noia.

Sempre in vetrina l’Intelligenza Artificiale.

In evidenza

Luigi Campanella, già Presidente SCI

L’applicazione dell’intelligenza artificiale per la risoluzione di problemi nell’ambito della chimica o della ricerca di materiali per il settore manufacturing è uno dei campi delle cosiddette tecnologie combinate, la versione 4.0 dei metodi ifenati degli anni 60 del secolo scorso. In campo chimico il livello di complessità è piuttosto elevato però anche in quest’ambito l’intelligenza artificiale inizia a mostrare grandissime potenzialità. L’esempio della Chimica ci aiuta a generalizzare in favore del continuo ampliamento delle applicazioni dell’intelligenza artificiale.

Il suo contributo in medicina per contrastare patologie pericolose è esaltato dalla recente esperienza per battere il glaucoma, una malattia asintomatica che può portare alla perdita della vista e che può essere curata con terapie combinate tra farmaci e laser guidate da programmi informatici gestiti anche da intelligenze artificiali. Gli stessi programmi possono essere preziosi nella fase diagnostica che deve essere anticipata quanto più possibile, anche sfruttando possibili dati di familiarità o di esposizione alla patologia.

Ma l’intelligenza artificiale è anche vista come sfida al diritto, dai profili biometrici fini all’interazione con i chat box e disciplinarla è illusorio: prevale il timore dell’algoritmo come prodotto potenzialmente incontrollabile e pericoloso. Fissare delle regole non è sufficiente a smontare queste sensazioni: è necessario che la comunità traduca queste regole in precetti etici, questo scrive il giurista Giuseppe Corasaniti nel suo saggio “Tecnologie Intelligenti”. Ciò non significa che bisogna rinunciare a strumenti così preziosi ed ancora largamente non esplorati, ma al contrario continuare il percorso intrapreso bilanciando norme e rischi, tutelandoci contro un potenziale impatto negativo su diritti fondamentali quali la dignità umana, la libertà intellettuale, la condivisione tecnologica e la conseguente uguaglianza.

Uno dei settori che sulla base di questi principi sta cercando di finalizzare le capacità dell’IA al superamento di metodi di indagine molto discussi e, per certi aspetti criticati, è quello della sperimentazione animale. I critici di questo approccio sperimentale hanno di recente organizzato un fascicolo di Frontiers dedicato all’intelligenza Organoide partendo dall’osservazione che l’IA e la scienza computazionale hanno guidato la rivoluzione tecnologica, ma sembra ora siano arrivati ad uno stop nell’avanzamento. Che può essere superato solo con la biocomputistica capace di collocare nel passato gli attuali limiti tecnologici. Per quasi 2 decadi gli scienziati hanno usato minuscoli organoidi, tessuti cresciuti in laboratorio, capaci di rappresentare organi completamente cresciuti da potere utilizzare per la sperimentazione su polmoni, reni, altri organi senza ricorrere alla sperimentazione animale o su umani. Ancor più di recente si è arrivati a lavorare con organoidi del cervello e con neuroni capaci di rappresentare attività cerebrali come l’apprendimento e la memoria fino al completo funzionamento del cervello umano, così consentendo di superare limiti anche di natura etica. È in effetti da oltre 10 anni che la Hopkins University lavora all’ipotesi di un biocomputer alimentato da cellule del cervello umano e che Thomas Hartung ha iniziato a fare crescere ed assemblare cellule del cervello in organoidi funzionali utilizzando cellule della pelle umana riprogrammate in uno stato di cellule embrionali staminali. Ogni organoide contiene fino a 50000 cellule, quante quelle del sistema nervoso della mosca da frutto.

Questi biocomputer in futuro potranno consentire di risparmiare l’energia che oggi viene spesa per il funzionamento dei supercalcolatori, ormai da considerare non sostenibili per la spesa energetica ad essi correlata. Anche se i calcoli su numeri e dati sono più lenti, i biocomputer hanno capacità logiche decisionali superiori, come ad esempio distinguere un cane da un gatto. E se in qualche caso i supercomputer riescono a pareggiare la capacità logica del cervello umano lo fanno a costi energetici enormemente (un milione di volte) superiori. Dice Hartung che modulando la scala della produzione di organoidi cerebrali ed addestrandoli con intelligenza artificiale sarà possibile arrivare a biocomputer competitivi per velocità ed efficienza di calcolo. L’intelligenza organoide è anche destinata a rivoluzionare la ricerca su nuovi farmaci contro i disordini neurocomportamentali e neurodegenerativi. Il confronto fra organoidi cerebrali da donatori di riferimento e da donatori autistici permetterà di comprendere il funzionamento delle reti neurali nei soggetti autistici senza ricorrere a sperimentazione su umani e su animali. In campo medico un avanzamento di grande effetto è stato realizzato all’Università Cattolica: con l’IA non solo si può fare rivivere chi non c’è più, ma di studia la creazione di un avatar, un gemello digitale, che può aiutare i malati di Alzheimer a ricordare chi sono ed a curarsi meglio. Chatbot è lo strumento di IA divenuto estremamente popolare nelle ultime settimane per la sua capacità di interagire con autonomia e precisione con l’essere umano. Questo progetto è il fiore all’occhiello dell’Human Technology Lab, diretto da Giuseppe Riva e caratterizzato da una ricerca multidisciplinare, il cui goal principale è arrivare alla sperimentazione di nuovi farmaci, superando i tradizionali metodi in vitro, in silico e di sperimentazione animale

Questa grande attenzione per l’IA si è trasferita anche alla formazione con differenti corsi di laurea

Uno fra questi di “DATA SCIENCE” presso la Luiss dedicato all’applicazione dell’IA allo studio ed alla ricerca mostra come la nostra vita sia stata modificata, e sempre più lo sarà, dall’IA capace di influenzare il biotech come anche i mercati finanziari, tanto per citare due settori apparentemente distanti. Imparare il linguaggio dei dati per leggere l’evoluzione della società è il fine didattico ultimo del corso di laurea. Il corso si ripromette anche di mettere in guardia gli studenti rispetto ai rischi dell’IA. Innanzitutto rischi di bias in cui sistemi di IA possono portare a discriminazioni, poi problemi di privacy, in cui sistemi di IA sono utilizzati per raccogliere dati personali e monitorare l’attività delle persone senza il loro consenso, infine le applicazioni malevole dell’IA, come la diffusione di disinformazioni.

Per tutto questo purtroppo c’è anche un risvolto negativo. Eco diceva che i computer potevano essere utili se strumenti stupidi in mano a persone intelligenti, il contrario di strumenti intelligenti in mano a persone stupide. Ci sono così i primi esempi di sospetti di tesi di laurea scritte da IA. Al contrario di una calcolatrice che parte dalle regole con cui è stata programmata, l’IA parte dalle informazioni con cui è stata addestrata per correlarle statisticamente: quindi chiaramente inadatta a scrivere una tesi di laurea, ma certo di supporto per traduzioni, riassunti e ricerche bibliografiche. Basta quindi insegnare agli studenti come usare questa tecnologia nella consapevolezza di limiti e potenzialità. Intanto Parigi ha imposto certi limiti e certe regole e sono già in arrivo i software antiplagio aggiornati per identificare i testi truffa. Sul New York Times di recente in un articolo a firma Harari, Raskin e Harris si fa un discorso ancora più ampio: se l’IA non fosse padroneggiata dall’uomo, ma avvenisse il contrario, sarebbe la stessa democrazia ad essere in pericolo. La macchina infatti padroneggia il linguaggio che essa stessa produce e da questo controllo possono derivare capacità di manipolazione del sistema operativo della Civiltà, inondandola di nuovi prodotti, anche intellettuali, rispetto a quelli che costituiscono il patrimonio storico. La democrazia è partecipazione, comunicazione, conversazione: se il linguaggio viene hackerato la democrazia è in pericolo.

Su tutto questo tema ho di recente avuto modo di leggere un saggio di Gerd Gigerenzer (Università di Chicago,Max Planck Institute) “Perchè l’Intelligenza Umana batte ancora gli algoritmi”, Cortina Editore. L’autore per esorcizzare il rischio di una macchina che padroneggia l’uomo ne mette in evidenza gli errori con alcuni esempi: la previsione della vittoria di Hillary Clinton alle elezioni americane vinte da Donald Trump, la ricerca dell’anima gemella, confronto fra le indicazioni fornite dall”algoritmo e risultati positivi. Possiamo stare tranquilli, sembra dire l’autore, IA ed algoritmi non sono pronti a sostituire del tutto il nostro cervello, anche se oggi la convinzione spesso dichiarata e che essi dalle auto a guida autonoma al riconoscimento facciale, dal sistema giudiziario a quello sanitario possano spesso essere visti in chiave salvifica.

Gli effetti di questi atteggiamenti meno disponibili cominciano a vedersi: c’è chi scrive che un paesaggio non può essere ridotto a dei numeri, che insieme alla ragione l’uomo possiede l’intuito che manca alla macchina, chi infine in funzione del rispetto della privacy limita l’estensione delle banche dati sulle quali si basa la capacità interattiva della macchina, giustificandola con l’assenza di una base giuridica.

Storia della chimica al femminile

In evidenza

Rinaldo Cervellati

Lo scorso 13 aprile, su Chemistry World (newsletter della Royal Society of Chemistry), Vanessa Seifert, ricercatrice in filosofia della scienza, ha scritto un breve saggio su questo argomento[1] che qui traduco adattandolo.

Figura 1. Vanessa Seifert

Il saggio inizia affermando che il primo chimico nella storia è stata Tappūtī-bēlat-ekalle, donna a capo di un gruppo di profumiere nell’antica Assiria, intorno al 1200 a.C. Sono state infatti scoperte tavolette con le sue ricette di profumi che descrivono, tra le altre cose, come effettuare processi chimici di base, tipo l’estrazione a caldo e la filtrazione [1].

Figura 2. Copertina del libro citato in [1]

Ricordando il giorno della donna nella scienza, quali sarebbero i modi sfaccettati in cui questa giornata possa promuovere l’uguaglianza delle donne, specialmente nell’ambito della chimica? Ricordare le storie di donne come Tappūtī-bēlat-ekalle aiuta a chiarire il fatto che i loro contributi alla chimica sono stati costantemente trascurati. La semplice informazione al pubblico su questi dettagli storici è preziosa in quanto ci aiuta a rivedere i nostri preconcetti sulla presenza delle donne nella chimica. Tuttavia, rivela anche un altro problema: perché tali dettagli non sono stati incorporati nella storia della chimica e nei libri di testo per l’insegnamento? A sua volta, questo fa sorgere un’altra domanda. Su quali basi riconoscere attori specifici nella ricostruzione storica di una scienza? C’è una buona ragione per cui Robert Boyle è celebrato come il “padre della chimica”, mentre Tappūtī-bēlat-ekalle è ampiamente trascurata?

Tali domande non hanno una risposta semplice in quanto richiedono la definizione dei criteri con cui identifichiamo qualcuno come storicamente importante. Ad esempio, è sufficiente la scoperta di un nuovo fatto chimico? È necessario ricoprire una posizione accademica o di ricerca in un’istituzione consolidata o produrre una quantità sostanziale di pubblicazioni molto citate? I premi Nobel o altri riconoscimenti prestigiosi sono buoni indicatori? Oppure è necessario essere attivi nella propria comunità scientifica, prendere parte a conferenze internazionali, redigere o recensire riviste scientifiche, acquisire fondi e così via?

Più andiamo indietro nella storia della chimica, più è difficile applicare tali criteri. Tuttavia, anche nei casi in cui possono essere applicati, vediamo che il ruolo delle donne nella chimica non è riconosciuto allo stesso modo di quello degli uomini. Ci sono diversi esempi di donne che hanno contribuito alla ricerca scientifica ma non sono state riconosciute in quanto i loro mariti o supervisori si sono presi il merito. Marie Lavoisier è un esempio calzante. Ci sono altre che, nonostante il loro lavoro, non hanno acquisito una posizione accademica, o a cui sono stati offerti solo incarichi amministrativi o di segreteria o hanno ricevuto una retribuzione inferiore rispetto ai loro colleghi. La biochimica Gerty Cori ne è un esempio: le università volevano solo assumere suo marito Carl, nonostante lavorassero insieme e avessero ottenuto insieme un premio Nobel. Alla fine si stabilirono nella Washington University School of Medicine, che offrì a suo marito la cattedra di farmacologia e a lei il ruolo di assistente di ricerca. Inoltre, ci sono casi di plagio (l’esperienza di Rosalind Franklin ne è un esempio tipico) in cui pubblicazioni o risultati di ricerche sono stati attribuiti a figure che detenevano posizioni di potere più elevate.

Tali storie ci aiutano a capire i modi precisi in cui le donne (e altri gruppi di persone sottorappresentati) sono stati trascurati o esclusi dalla pratica scientifica. In generale, questa discussione fa parte della cosiddetta “critica della scienza” che viene perseguita all’interno della storia femminista e della filosofia della scienza. Questo campo è stato istituito intorno agli anni ’70 e illumina i diversi modi in cui le donne (e di conseguenza altri gruppi minoritari) sono state costantemente sottovalutate all’interno della scienza. Ciò include l’esame dei modi in cui la scienza mantiene i pregiudizi sessisti nelle sue teorie e pratiche, nonché i modi in cui viene invocata per stabilire l’inferiorità delle donne.

Le cose non vanno così male come tempo fa, tuttavia, la pratica scientifica è ancora strutturata in modo tale da escludere in pratica le donne dalla scienza. Ad esempio, la moda esistente di determinare il successo accademico in termini di h-index (che misura il numero di citazioni per pubblicazione) indebolisce molte donne, in particolare le madri, nella loro ascesa a posizioni accademiche più elevate. Questo perché le donne sono più propense degli uomini a prendere delle interruzioni professionali per motivi come il congedo di maternità, con conseguenti h-index più bassi [2].

Da tutto ciò non si deve dedurre che l’intera storia della chimica così come è presentata nella sua forma attuale sia completamente fuorviante o falsa. L’obiettivo è contribuire a una storia più equilibrata ed equa e superare i pregiudizi esistenti nei confronti di gruppi di persone sottorappresentati. Che ci piaccia o no, è ancora difficile lavorare come chimico per una donna, una persona di colore o una persona LGBTQ+. Ricordare le donne nella storia della chimica ogni marzo è una preziosa opportunità per riconoscere e superare questo problema, non solo a beneficio di questi gruppi sottorappresentati, ma anche a vantaggio della chimica stessa. Dopotutto, come disse una volta James Clerk Maxwell, “…in Science, it is when we take some interest in the great discoverers and their lives that it becomes endurable, and only when we begin to trace the development of ideas that it becomes fascinating” (nella scienza, è quando ci interessiamo ai grandi scopritori e alle loro vite che diventa sopportabile, e solo quando iniziamo a tracciare lo sviluppo delle idee che diventa affascinante) [3].

Desidero infine ricordare che recentemente ho pubblicato un libro con le biografie di più di 40 donne (dalla metà del XIX al XX secolo) che hanno dato contributi fondamentali alle scienze chimiche, dal titolo Chimica al femminile, Aracne, Roma 2019.

Bibliografia

[1] H. Wills, S. Harrison, E. Jones, F. Lawrence-Mackey, and R. Martin, eds. Women in the History of Science: A Sourcebook. UCL Press, 2023. https://doi.org/10.2307/j.ctv2w61bc7

oppure

https://discovery.ucl.ac.uk/id/eprint/10165716/

il libro è disponibile in licenza Creative Commons

[2] A. R. Larson, JAMA Netw Open, 2021, 4, e2112877

DOI: 10.1001/jamanetworkopen.2021.12877)

[3] J Read, Through alchemy to chemistry: A procession of ideas and personalities. London: G. Bell and Sons ldt, 1957, p. xiii


[1] V. Seifert, Chemistry’s history through the feminist lens, Chemistry World, 13 April 2003.

Forever chemicals.

In evidenza

Luigi Campanella, già Presidente SCI

I PFAS, sostanze perfluoroalchiliche, sono di solito utilizzate per rendere diversi prodotti di consumo resistenti all’acqua, alle macchie ed al calore. Sono chiamati forever chemicals, “prodotti chimici per sempre” perché non si degradano ed a causa della loro stabilità rischiano di essere accumulati nell’organismo umano a concentrazioni superiori alla soglia di sicurezza, divenendo causa di patologie gravi come il cancro, complicazioni fetali, disfunzioni epatiche. Il percorso più comune per arrivare all’uomo passa attraverso le acque reflue, i fanghi di depurazione, smaltiti poi su terreno come fertilizzanti o versati nei corsi di acqua e da questi all’uomo.

Uno studio della Università della Florida pubblicato su Environmental Science and Technology Letters (scaricabile liberamente)

ha dimostrato che un prodotto di generale consumo contenente PFAS è la carta igienica: 21 marche diffuse nel mondo hanno dimostrato di contenerne. In effetti il lavoro non dimostra implicazioni dell’uso della carta igienica con la salute, ma allerta rispetto al rischio di assorbimento attraverso la pelle di PFAS, tenuto conto del generale elevato consumo di carta igienica. In Italia nella precedente legislatura era stato presentato un disegno di legge per la messa al bando dei PFAS, ma in quella in corso nessuno lo ha riproposto. I suoi contenuti rispondono alle richieste di Associazioni, Movimenti, Comitati che chiedevano la messa al bando dei PFAS, bioaccumulabili e persistenti, per evitarne la presenza in aria, acque, alimenti con possibile trasferimento all’organismo umano. La proposta di legge riguardava il divieto di produzione, uso e commercializzazione dei PFAS e di prodotti che li contenevano, e regolava riconversione produttiva e misure di bonifica e controllo. Una recente inchiesta giornalistica dimostra come ripresentare questa legge risponderebbe ad elementari principi di sicurezza visto che una mappa realizzata in Europa ha evidenziato 17000 siti contaminati da PFAS di cui 2000 a concentrazione pericolosa; fra questi Brescia.

Intorno al problema PFAS sono attivi 2 processi. Il primo è presso il Tribunale di Vicenza, contro la Miteni di Trissino produttrice di PFAS e accusata di essere responsabile dell’avvelenamento di molti lavoratori, denunciato anche dalla Commissione Episcopale Italiana in un grande convegno. C’è da aggiungere che anche i Sindacati hanno avviato questa battaglia e che l’INCA CGIL ha chiesto ed ottenuto che le malattie da PFAS di 19 lavoratori siano riconosciute come malattie professionali con danno del 2%. Il secondo processo riguarda il Tribunale di Alessandria ed è in corso contro la Solvay di Spinetta Marengo a cui viene contestata l’ipotesi di disastro ambientale colposo. In particolare è sotto accusa la tenuta della “barriera idraulica” che, al contrario di quanto garantito, non ha evitato fuoriuscite di contaminanti storici come i PFAS, ma anche cromo esavalente.

In memoria di Will Steffen.

In evidenza

Claudio Della Volpe

Will Steffen, nato in USA ma professore di chimica per anni in Australia è stato con Paul Krutzen l’inventore del concetto dell’Antropocene e con Johan Rockström ha iniziato il dibattito mondiale sui limiti planetari e sul concetto di spazio operativo sicuro per l’Umanità.

E’ morto a 75 anni nello scorso gennaio per una grave forma di tumore del pancreas.

Era nato a Norfolk nel 1947 completando gli studi di Chimica prima nel Missouri e poi in Florida con un PhD ottenuto nel 1975.

Si era poi trasferito in Australia dove aveva iniziato ad interessarsi ai problemi ambientali; aveva accettato fra i primi l’idea della cosiddetta “grande accelerazione”, ossia il fatto che l’impatto umano sul pianeta era entrato in una fase quantitativamente nuova dopo la seconda guerra mondiale con la rottura di parecchi fra i precedenti equilibri ecologici.

In Australia aveva collaborato a tutte le iniziative riguardanti le nuove idee che si stavano sviluppando all’epoca e che trovavano ancora parecchia resistenza sia nell’ambiente scientifico che fuori, in particolare due idee base erano l’Antropocene, ossia il fatto che l’Umanità stava cambiando le condizioni geologiche del pianeta in un modo che sarebbe rimasto documentato per millenni a venire e che per questo era giusto introdurre una nuova epoca geologica e l’altro concetto che la Terra è una ecosfera limitata, non infinita e che dunque possiede dei limiti intrinseci che non possono essere violati a pena di distruggerli.

Nel 1988 ha fatto parte della spedizione ANU che ha scalato il Monte Baruntse, alto 7.162 metri in Nepal, una guglia ghiacciata a est dell’Everest. Della sua scalata, Will una volta disse: L’arrampicata è come la scienza. Per salire su una roccia dura o una scalata su ghiaccio, proprio come quando stai risolvendo un problema nel ciclo del carbonio, devi essere ultra-concentrato, devi prendere decisioni olistiche e devi essere assolutamente consapevole di ciò che ti circonda. Quando scendi da una grande salita, apprezzi davvero la bellezza di ciò che ti circonda. Questa è la sensazione che si ottiene nella scienza quando si risolve un grosso problema e improvvisamente si vede come tutto si incastra.

(https://theconversation.com/weve-lost-a-giant-vale-professor-will-steffen-climate-science-pioneer-198873)

Quando il governo Abbott chiuse la Commissione sul clima nel 2013, Will e i suoi colleghi – Tim Flannery, Lesley Hughes e Amanda McKenzie – non si dimisero semplicemente. Al contrario raccolsero 1 milione di dollari australiani in una settimana e fondarono il Climate Council, che è ora una delle principali fonti indipendenti di consulenza sul clima in Australia.

(https://theconversation.com/weve-lost-a-giant-vale-professor-will-steffen-climate-science-pioneer-198873)

Ha pubblicato molti lavori per dare una veste concreta sia all’idea di Antropocene che a quella dei limiti planetari, divenuti entrambi, anche grazie al suo lavoro certosino, dei “memi” sempre più pervasivi, che oggi sono conosciuti a livello mondiale nonostante la lotta spasmodica dei gruppi culturali negazionisti, molto forti in ambito anglosassone ed americano (anche grazie agli enormi finanziamenti ricevuti dal mondo petrolifero, carbonifero e gasiero).

Una lista di questi lavori potete trovarla per esempio qui.

Forse il migliore ricordo è quello di ripubblicare uno dei suoi più noti grafici come ha fatto Nature physics di recente (Volume 19 | March 2023 | 301 ):

Un grafico in cui si riassumono i trend storici dei più importanti parametri ambientali e climatici ma anche legati ai limiti di risorse del pianeta, argomenti che sono tutti connessi fra di loro come è chiaro a qualunque chimico, gli argomenti di cui si era occupato tutta la vita.

Nel 2020 Will scrisse in una lettera ad alcuni suoi colleghi:

Sono arrabbiato perché la mancanza di un’azione efficace sui cambiamenti climatici, nonostante la ricchezza non solo di informazioni scientifiche ma anche di soluzioni per ridurre le emissioni, ha ora creato un’emergenza climatica”. “Gli studenti hanno ragione. Il loro futuro è ora minacciato dall’avidità della ricca élite dei combustibili fossili, dalle bugie della stampa di Murdoch e dalla debolezza dei nostri leader politici. Queste persone non hanno il diritto di distruggere il futuro di mia figlia e quello della sua generazione.

Si, dopo tutto aveva 75 anni, ma molto ben portati.

Da leggere o (ri) leggere.

https://royalsocietypublishing.org/doi/abs/10.1098/rsta.2010.0327

La fusione nucleare: come distrarci dalle emergenze che dobbiamo affrontare

In evidenza

Margherita Venturi

Dipartimento di Chimica “G. Ciamician” dell’Università di Bologna e Gruppo Energia per l’Italia (http://www.energiaperlitalia.it)

Siamo in un periodo difficile per l’umanità caratterizzato da due gravi emergenze: quella energetica e quella climatica. Sono due emergenze strettamente connesse perché è ormai ampiamente dimostrato che il cambiamento climatico è la conseguenza dell’uso massiccio dei combustibili fossili. Occorre, quindi, abbandonare senza indugio questa fonte energetica e trovare soluzioni alternative. Nonostante la maggioranza della comunità scientifica sia concorde sul fatto che il ricorso alle fonti energetiche rinnovabili, in particolare fotovoltaico ed eolico, rappresenti l’unica strada da battere, purtroppo, recentemente, è tornato alla ribalta il nucleare. Non solo si vuole potenziare il nucleare da fissione, ma addirittura si sta dando l’illusione che la fusione nucleare ci darà prestissimo energia pulita, sicura e inesauribile. Allora cerchiamo di capire perché si tratta ancora di una vera e propria illusione.

Come è noto, si possono generare enormi quantità di energia non solo dalla fissione di atomi pesanti, ma anche dalla fusione di atomi leggeri, il processo che alimenta il nostro Sole. Realizzare il processo di fusione nucleare è, infatti, stato paragonato a mettere “il Sole in bottiglia”; è sicuramente una frase d’effetto, capace di colpire la fantasia del pubblico, che però nasconde cosa in realtà ciò significhi. Allora, vale la pena confrontare quello che davvero avviene nel nucleo del Sole a 150 milioni di km da noi rispetto a quanto possiamo disporre noi sulla piccola Terra che gli ruota attorno. All’interno della nostra stella c’è un plasma di protoni, che, a quattro per volta, grazie a temperatura e pressioni elevatissime (16 milioni di gradi centigradi e 500 miliardi di atmosfere) fondono per dare un nucleo di elio, con un difetto di massa tale da produrre un’enorme quantità di energia secondo la famosa formula di Einstein E = mc2.

Poiché queste estreme condizioni non possono essere riprodotte, nei laboratori “terrestri”, neppure in quelli più avanzati, si cerca di ovviare all’impossibile replicabilità del processo di fusione solare, imitandone solo il principio. Si ricorre, infatti, ai nuclei di due isotopi dell’idrogeno – il deuterio e il trizio – che, però, non hanno alcuna voglia di fondersi perché, essendo entrambi carichi positivamente, si respingono violentemente. Tuttavia, se si riesce in qualche modo a portarli a contatto, entra in gioco una forza nucleare attrattiva che agisce solo a cortissimo raggio, ma che è molto più intensa della repulsione elettromagnetica: i due nuclei fondono con la formazione di un nucleo di elio (He), l’espulsione di un neutrone e l’emissione di una grandissima quantità di energia che si manifesta sotto forma di calore.

Il problema, ma non l’unico, è che, al fine di “costringere” i nuclei di deuterio e trizio a scontrarsi per poi incollarsi, occorre mantenere confinato il tutto per il tempo necessario a produrre la fusione. Per ottenere ciò si utilizzano principalmente due approcci.

Uno si basa sul confinamento magnetico del plasma caldissimo formato dai nuclei di deuterio e trizio:un campo magnetico potentissimo generato dall’esterno costringe questi nuclei a muoversi lungo traiettorie circolari in modo che, giro dopo giro, acquistano l’energia necessaria per dare il processo di fusione. La difficoltà è che il campo magnetico deve essere intensissimo e per mantenerlo tale ci vogliono dei magneti superconduttoriche devono lavorare a temperature molto basse (-268 °C).

L’altro approccio è quello basato sul confinamento inerziale che consiste nel bombardare con dei potentissimi impulsi laser un piccolo contenitore in cui è presente una miscela solidificata (in quanto freddissima) di deuterio e trizio: si verifica così una intensissima compressione che fa salire contestualmente la pressione e la temperatura (fino a una sessantina di milioni di gradi), tanto da innescare la fusione.

Il primo approccio è quello che si sta affrontando a Cadarache in Francia da parte di un folto gruppo di paesi, compresi USA, UE, Cina, India e Italia, noto come il progetto ITER (Figura 1): sono già stati spesi 20 miliardi di euro senza essere ancora riusciti a produrre quantità di energia maggiori di quelle utilizzate. I report scientifici dicono molto chiaramente che la strada sarà lunga e in salita, perché ogni volta che viene fatto un piccolissimo passo in avanti emergono nuovi problemi da affrontare.

Figura 1. Il Tokamak è il cuore del progetto ITER; è infatti la macchina che utilizzando un potente campo magnetico contiene il plasma caldo formato da nuclei di deuterio e trizio che vengono accelerati in modo da acquistare l’energia necessaria alla loro fusione

Presso della National Ignition Facility (NIF) del Laurence Livermore National Laboratoryin California (USA) si sta invece studiando il secondo approccio. Il 13 dicembre dello scorso anno i giornali di tutto il mondo hanno riportato con grande enfasi che il gruppo di ricerca dell’NIF ha ottenuto un importante risultato (Figura 2): l’energia di 192 laser focalizzata su una sferetta (pellet) contenente deuterio e trizio ha indotto in pochi nanosecondi la loro fusione, generando una quantità di energia (3,15 MJ) leggermente maggiore a quella iniettata dai laser nella sferetta (2,05 MJ).

Figura 2. L’energia fornita da 192 laser viene concentrata in una sferetta contenente nuclei di deuterio e trizio inducendo la reazione di fusione

La cosa, però, passata sotto silenzio è che i 192 laser hanno consumato circa 400 MJ, ai quali va aggiunta l’energia richiesta dalle altre apparecchiature costruite e utilizzate per preparare e seguire l’esperimento. Oltre a vincere la sfida energetica (produrre più energia di quella consumata), per generare energia su scala commerciale si deve vincere un’altra sfida praticamente impossibile: modificare l’apparecchiatura per far sì che produca energia non per una piccolissima frazione di secondo, ma in modo continuo. La maggioranza degli esperti concorda sul fatto che con questo metodo così complicato è impossibile generare elettricità a costi commerciali competitivi. C’è allora il dubbio, certamente fondato, che i laboratori di ricerca, per assicurarsi gli ingentissimi finanziamenti pubblici necessari, cercano di “vendere” ai decisori e ai cittadini i risultati conseguiti come successi strepitosi e, anche, che la competizione presente da decenni tra confinamento magnetico e confinamento inerziale spinge a dimostrare di essere i più bravi. Bisogna, inoltre, sottolineare che nello sfondo c’è l’inquietante spettro militare, perché il compito primario del NIF non è quello di studiare la fusione per ottenere energia, ma di sfruttarla a fini bellici.

A parte ciò, la fusione nucleare ha molti altri ma.

Il primo ma riguarda il fatto che, indipendentemente dal modo con cui verrà ottenuto questo processo (ammesso che ci si riesca), occorre disporre dei due isotopi dell’idrogeno. Mentre il deuterio è abbastanza abbondante, il trizio è molto raro (è radioattivo e decade con un tempo di dimezzamento di soli 12 anni). Quindi, problema non da poco, ci si imbarca in un’impresa titanica sapendo già in partenza che manca la materia prima. Chi lavora nel settore dice che il trizio potrà essere ottenuto “in situ” bombardando con neutroni il litio 6, cosa che però aggiunge complessità a complessità.

Un’ulteriore ma è connesso alla radioattività indotta dai neutroni (prodotti assieme all’elio nella reazione di fusione) nei materiali che li assorbono, il che vuol dire che la struttura stessa del reattore diventa radioattiva e che, in fase di dismissione, crea scorie. Anche se in questo caso i tempi di decadimento degli isotopi radioattivi non sono così lunghi come quelli creati dalla fissione, è un falso in atto pubblico definire il nucleare da fusione una tecnologia pulita, perché lascia comunque il problema della difficile gestione delle scorie.

C’è poi un grosso ma legato al confinamento magnetico e, in particolare, al fatto che i superconduttori devono essere raffreddati a elio liquido, un gas molto raro e sicuramente non sufficiente per la gestione dei futuri reattori a fusione dal momento che già ora sta scarseggiando. Qualcuno teme addirittura che a breve non sarà più possibile utilizzare la tecnica NMR, così importante nella ricerca scientifica e, soprattutto, in ambito diagnostico, proprio perché usa come liquido di raffreddamento l’elio.

In conclusione, la storia della fusione nucleare, dagli anni Cinquanta del secolo scorso ad oggi, dimostra che questa tecnologia non riuscirà a produrre elettricità a bassi costi e in modo attendibile in un futuro ragionevolmente vicino.

Nonostante ciò, a marzo di quest’anno, i giornali hanno riportato che ENI, per voce del suo amministratore delegato Carlo Descalzi, vuole puntare tutto sulla fusione nucleare “perché permette di ottenere energia pulita, inesauribile e sicura per tutti: una vera rivoluzione capace di superare le diseguaglianze fra le nazioni e di favorire la pace”. Questa affermazione lascia alquanto perplessi dal momento che non si capisce come i paesi poveri potranno accedere a una tecnologia così sofisticata e costosa.

Descalzi ha, poi, aggiunto che nel 2025 sarà pronto un impianto pilota a confinamento magnetico in grado di ottenere elettricità dalla fusione e che nel 2030 sarà operativa la prima centrale industriale basata su questa tecnologia. Un’altra affermazione che lascia ancora più stupiti, perché sembra che all’improvviso e velocemente verranno risolti i tanti problemi incontrati dagli scienziati che lavorano nel settore da decenni: un vero miracolo! In realtà si tratta di un estremo tentativo di ENI per distrarre le persone, e in particolare i politici, dalla necessità e urgenza di abbandonare l’uso dei combustibili fossili e sviluppare le già mature ed efficienti tecnologie del fotovoltaico e dell’eolico.

Ancora una volta ENI ci vuole illudere di voler cambiar tutto, senza cambiare nulla; la sua classica strategia di mettere sotto il tappeto le emergenze che dobbiamo affrontare immediatamente, per poter continuare a estrarre e vendere combustibili fossili, senza curarsi dei gravi e ben noti problemi causati dal loro uso.

Da leggere

Vetro biomolecolare

In evidenza

Diego Tesauro

Nell’era dell’antropocene siamo in una fase nella quale l’umanità non si può più permettere di produrre manufatti costituiti da materiali per i quali non si abbia un processo sostenibile che ci permetta di riciclarli al termine della loro vita utile, oppure di smaltirli senza alterare le matrici ambientali in modo significativo. Oggi questa sensibilità viene giustamente diretta verso i materiali polimerici che provengono dalle fonti fossili e costituiscono la larga parte della plastica utilizzata. Il vetro, sarà perché totalmente riciclabile, non costituisce apparentemente un problema. Invece, innanzitutto è necessaria una raccolta differenziata accurata, in alcuni casi separandolo anche per colore per evitare di mandarlo in discarica, dove servirebbero migliaia di anni per decomporlo; poi è necessario fonderlo ad elevata temperatura con notevole consumo di energia. Inoltre la sua densità, abbastanza elevata rispetto alla plastica, comporta anche un consumo di energia nel trasporto. E’ chiaro che la sua notevole inerzia chimica, dovuta alla relativa scarsa reattività del costituente base, la silice, tranne che verso le basi forti, lo rende un materiale di eccellenza. Queste considerazioni spingono la ricerca a percorrere strade alternative per un futuro sostenibile verso un materiale che sostituisca la silice, conferendo la classica trasparenza ai manufatti. Un materiale a base peptidica sarebbe una valida alternativa, almeno secondo uno studio pubblicato su Science Advances [1]. Chiaramente la tecnica di formazione del vetro, cioè un riscaldamento seguito da un rapido raffreddamento, applicata ai peptidi, comporterebbe una decomposizione della catena amminoacidica e degli amminoacidi stessi prima che si possa giungere alla fusione.  

Per stabilizzare in primo luogo gli amminoacidi, evitarndone la decomposizione, oltre ad impedire la rottura dei legami peptidici e cambiare il modo in cui i peptidi si assemblano; sono state modificate le estremità degli amminoacidi introducendo i gruppi acetile, 9-fluorenilmetilossicarbonile (Fmoc) e benzilossicarbonile (Cbz). In particolare gli amminoacidi che si sono mostrati più stabile sono la glutammina (Q), l’istidina (H), la fenilalanine (F), e la tirosina (Y) ed una volta modificati la loro temperatura di fusione era molto lontana dalla temperatura di decomposizione. La tecnica applicata infatti ha previsto la fusione per formare prima un liquido super raffreddato quindi un riscaldamento alla velocità di 10°C al minuto, in atmosfera inerte, fermandosi prima di raggiungere la temperatura di decomposizione (Figura 1). Attraverso un controllo accurato delle velocità di riscaldamento e raffreddamento, il liquido super raffreddato è stato raffreddato in acqua per formare infine il vetro ed evitare la cristallizzazione. Sono stati così ottenuti biovetri ed invistigati nelle loro proprietà sopratutto quelli ottenuti con l’amminoacido Ac-F e con il tripeptide (Cbz-FFG). Il prodotto così ottenuto è rimasto solido quando è tornato a temperatura ambiente.

Figura 1 Diagramma schematico del vetro biomolecolare.

Le unità strutturali sono derivati ​​di amminoacidi o peptidi molecolari utilizzati per preparare un liquido sottoraffreddato attraverso un processo di fusione ad alta temperatura e quindi trasformati in un vetro mediante una procedura di tempra. Questi vetri avevano eccellenti caratteristiche ottiche, lavorabilità flessibile, nonché biodegradabilità e bioriciclabilità. Copyright Science Advances

Questo metodo impedisce agli amminoacidi e ai peptidi di formare una struttura cristallina quando si solidificano, il che renderebbe il vetro opaco, anche se gli autori dello studio notano che in alcuni casi il vetro non era completamente incolore. Il vetro biomolecolare non solo è trasparente, ma può essere stampato in 3D e colato in stampi. Effettivamente i vetri ottenuti hanno una combinazione unica di proprietà funzionali, eccellenti caratteristiche ottiche, buone proprietà meccaniche e buona propensione verso processi di flessione.

Per determinare se il vetro biomolecolare sviluppato, fosse stato ecologico, sono stati, quindi, condotti esperimenti di biodegradazione in vitro e esperimenti in vivo e di compostaggio. Il vetro biomolecolare sottoposto ai fluidi digestivi e al compost, ha impiegato da poche settimane a diversi mesi per rompersi, a seconda della modifica chimica e dell’amminoacido o del peptide utilizzato dimostrando la desiderata biodegradabilità e bioriciclabilità (Figura 2). Pertanto invece di rimanere per anni in una discarica, i nutrienti generati dal vetro biomolecolare potrebbero, in linea di principio, ricongiungersi all’ecosistema.

Figura 2 Frammenti generati dal processo di decomposizione enzimatica del peptide CbzFFG

Bisogna rilevare che questi vetri biomolecolari sono completamente diversi dai vetri bioattivi (BAG)/biovetri, scoperti nel 1969 da Hench.[2] Infatti BAGisa è un tipo di materiale ceramico bioattivo che presenta proprietà di rigenerazione ossea con una composizione contenente più calcio e fosfato rispetto ai vetri di silice e apparteneva al sistema di vetro di silicato inorganico SiO2-Na2O-CaO-P2O5.

Al momento il vetro biomolecolare rappresenta una curiosità scientifica e non sarebbe adatto per applicazioni come bottiglie di bevande perché il liquido ne causerebbe la decomposizione. Ma le curiosità scientifiche in futuro potrebbero risultare foriere di nuove scoperte in grado di far progredire la conoscenza.

Riferimenti 

1) R. Xing, C. Yuan, W. Fan, X. Ren, X. YanBiomolecular glass with amino acid and peptide Nanoarchitectonics Sci. Adv. 9, eadd8105 (2023)

2) L. L. Hench, H. A. Paschall, Direct chemical bond of bioactive glass-ceramic materials to bone and muscle. J. Biomed. Mater. Res. 7, 25–42 (1973).

Le riflessioni di un emarginato.

In evidenza

Mauro Icardi

“Le basi più elementari dei presupposti su cui si fonda il nostro futuro benessere economico sono marce. La nostra società vive una fase di rifiuto collettivo della realtà che, quanto a proporzioni e implicazioni, non ha precedenti nella storia”

Il brano riportato è tratto dal libro “Fine corsa” di Jeremy Legget, geologo inglese che ha lavorato nell’industria petrolifera prima di collaborare con Greenpeace, e poi diventare consulente del governo britannico per lo sviluppo delle energie rinnovabili.

Pubblicato in Inghilterra nel 2005, è uscito in Italia pubblicato da Einaudi nel 2006. Il tema del libro è ovviamente legato al petrolio, alla sua prossima scarsità o per meglio dire alla difficolta di estrazione a costi sostenibili. Preciso che ho estrapolato la frase per occuparmi non di una disamina tecnica, ma di un tema che continua a riempire i miei pensieri. Ovvero il comportamento collettivo di fronte ai problemi ambientali ed energetici. Forse sono avventato e presuntuoso. Avrei bisogno del supporto di uno psicologo o di un antropologo. Ma tento ugualmente una riflessione. Dalla pubblicazione di questo libro in Italia sono passati diciassette anni. Nel 2008 la crisi dei mutui subprime negli Stati Uniti diede l’avvio ad una delle tante crisi economiche di cui si è scritto e si scrive sui giornali. In quei giorni pensai che quella potesse essere la chiave che permettesse un minimo cambiamento di percezioni e abitudini. Leggevo sui quotidiani che non solo si rubava il rame, ma le cronache giornalistiche riportavano anche notizie di furti di chiusini stradali. Non vidi molti cambiamenti nei comportamenti delle persone, e nel 2009 con il calo del prezzo del petrolio che era arrivato a toccare nel periodo 2005/2006 il massimo storico di 140 dollari al barile, tutti tirarono un sospiro di sollievo e continuarono con le abitudini di sempre.

Il tema del petrolio nella percezione comune delle persone con cui parlo, si lega inevitabilmente alla necessità, per molti assolutamente imprescindibile, dell’utilizzo dell’auto privata. Non trovo una spiegazione razionale in questo tipo di attaccamento quasi morboso. L’auto è stata vista come uno strumento di progresso, e gli Italiani la adorano.  Un film in particolare lo mostra in maniera interessante, ed è “Il sorpasso” di Dino Risi. In quella pellicola il protagonista Bruno Cortona, magistralmente interpretato da Vittorio Gassman, è una cosa sola con la sua automobile.

Per gli appassionati una Aurelia B 24 spider, coprotagonista forse più di Jean Louis Trintignant che interpreta Roberto Mariani, lo studente timido che Cortona coinvolge in un viaggio da Roma fino alla Liguria che finirà tragicamente.

Il film esce nel 1962 l’anno ricordato dagli storici e dagli economisti come il migliore in assoluto per l’economia italiana. Quinto anno dell’era del miracolo economico, fa registrare un incremento del pil pari all’8,6% rispetto al 1961. Da quell’anno in poi il Pil continuerà faticosamente a crescere nonostante il miracolo italiano lentamente si sfilacci, si consumi. Dapprima impercettibilmente. Nel 1964 si comincerà a parlare di congiuntura. Arriverà il 1968 anno di cambiamenti e di insofferenze.

Poi gli anni 70 anni complicati e violenti. Gli anni delle stragi, della lotta politica cruenta. Gli anni del terrorismo. Gli anni che vedranno la nascita del Club di Roma. Il decennio nel quale in Italia viene pubblicato “I limiti dello sviluppo” traduzione approssimativa di “Limits to Growth”. Si inizia a riflettere sul concetto di crescita I problemi in quel periodo sono ormai evidenti. Sono gli anni in cui i fiumi sono coperti da nuvole di schiuma, gli anni dell’incidente di Seveso, della prima impattante crisi del petrolio. Ma proprio nel 1962, curiosamente l’anno in cui sono nato, qualcuno già prova a criticare questo modello di vita. In particolare Pier Paolo Pasolini che proprio in quell’anno sulla rivista “Vie nuove” scrive questo: “L’Italia sta marcendo in un benessere che è egoismo, stupidità, incultura, pettegolezzo, moralismo, coazione, conformismo: prestarsi in qualche modo a contribuire a questa marcescenza è, ora, il fascismo. Essere laici, liberali, non significa nulla, quando manca quella forza morale che riesca a vincere la tentazione di essere partecipi a un mondo che apparentemente funziona, con le sue leggi allettanti e crudeli.”

Un altro scrittore dimenticato e sottovalutato scrive un libro che è uno dei miei preferiti. Lo scrittore è Luciano Bianciardi, il libro “La vita agra” anche questo pubblicato nel 1962 come il film di Risi. 1962 che è curiosamente anche il mio anno di nascita.  Romanzo a carattere autobiografico: storia di un provinciale che sale a Milano per vendicare la morte di alcuni minatori, ma che finisce completamente assorbito e metabolizzato dalla società che voleva distruggere. La vita agra,1964.

Se parlo con i colleghi, se leggo commenti sui social, se analizzo le politiche governative dell’ultimo decennio, ho la sensazione che molte persone siano convinte di vivere ancora in quel periodo. Che lo rimpiangano e lo sognino ancora. Incapaci di immaginare un tipo di vita diverso. Potrei raccontare decine di aneddoti. Ma ne cito due, a mio parere molto significativi. Una studentessa universitaria che negli anni in cui ero il referente tecnico degli stages, e mi spendevo molto nel parlare di temi energetici e ambientali, mi disse candidamente che nella sua famiglia, ogni componente, madre, padre, fratello oltre a lei, possedeva un’auto. La giustificazione erano gli orari, le diverse necessità di ognuno di loro. Mentre lei mi diceva questo, io pensavo a quando ho iniziato a lavorare. Utilizzavo mezzi pubblici, una vecchia bicicletta di mio padre, e l’auto di famiglia se avevo turni notturni o serali.

Il secondo episodio è più recente.  Riguarda un collega che dovendo recarsi a Milano per una visita medica chiede informazioni su come arrivarci in auto. Alla mia proposta di utilizzare i mezzi pubblici, stronca le mie velleità sul nascere. L’utilizzo di treno e metropolitana è percepito come fastidioso e faticoso. Molto meglio alzarsi molto presto per poter accedere nella zona a traffico limitato prima del blocco, che poi lo costringerà ad aspettare la sera per poter essere libero di tornare a casa. Ci sono treni frequenti tra Varese e Milano, non regge nemmeno l’alibi di essere mal collegati al capoluogo di regione.

Mi chiedo quanto sia condizionante il potere delle abitudini, spesso non siamo nemmeno consapevoli di agire in un determinato modo a causa di una buona o cattiva abitudine. Per sostituire una cattiva abitudine con una buona ci vuole sforzo. Occorre fare fatica. La fatica è qualcosa ormai fuori moda. La riflessione vale non solo per l’uso dell’auto, ma per quello dell’acqua, per i consumi di carne, per il modo con il quale reagiamo ai tanti allarmi ambientali. Alla subalternità di troppe persone ai richiami della pubblicità.

Federic Beigdeber pubblicitario ribelle si esprime così: ““Sono un pubblicitario: ebbene sì, inquino l’universo.  Io sono quello che vi vende tutta quella merda. Quello che vi fa sognare cose che non avrete mai… Io vi drogo di novità, e il vantaggio della novità è che non resta mai nuova. C’è sempre una novità più nuova che fa invecchiare la precedente. Farvi sbavare è la mia missione. Nel mio mestiere nessuno desidera la vostra felicità, perché la gente felice non consuma.”

Mi domando sempre più spesso come potremo uscire da questo impasse. Ci riusciremo? Francamente non lo so. Se misuro questa possibilità utilizzando come termine di paragone il numero di follower di un divulgatore scientifico o ambientale, rispetto a quelli di una qualunque bella ragazza che lavora nello spettacolo non ho buone sensazioni. E riguardo a me che oggi rientro nella categoria dei cosiddetti boomer, anzi più precisamente dei baby boomer, percepisco sempre di più una sensazione di disagio, quasi di emarginazione. Bevo acqua di rubinetto, uso bici e mezzi pubblici. Le persone mi guardano in maniera strana, qualcuno accenna a parole di circostanza, del tipo “Verrei anche io in bici al lavoro ma…”

E le giustificazioni sono sempre quelle: abito distante, non uso il treno perché la stazione è lontana. Non bevo acqua di rubinetto perché sa di cloro. Intanto le leggi naturali continuano imperterrite a fare la loro strada da tredici miliardi di anni. Tanti sognano un nuovo eldorado, qualcuno sui social commenta che continuerà a sgasare con il suo fuoristrada, motivando la cosa con il fatto che, visto   che si pensa di inviare armi ad uranio impoverito in Ucraina, questa sia la giustificazione per non impegnarsi più ad essere rispettosi dell’unico pianeta, della casa comune. Giustificazione banale e fraudolenta, ma credo anche piuttosto diffusa con diverse varianti.  A cosa serve impegnarsi se poi i cinesi continuano ad inquinare per esempio è una delle più frequenti.

“I cani abbaiano alla luna e intanto la carovana passa.”

(Proverbio arabo).

Terza età

In evidenza

Luigi Campanella, già Presidente SCI.

L’Antropocene vede la predominanza della specie umana fra tutte le specie di vertebrati; in particolare questo nel tempo ha comportato una piramide della popolazione che in moltissimi paesi, specie nei più ricchi, vede la crescente importanza della quota anziana della popolazione. Con una serie di conseguenze.

Il 28 marzo nella Sala del Senato “Caduti di Nassirya” e stato istituito l’Intergruppo del Parlamento Italiano denominato “Invecchiamento Attivo”. Questa azione fa seguito all’approvazione da parte del Parlamento stesso di una legge che rappresenta una riforma strutturale rivolta alle persone anziane. È una legge che in Italia interessa 14 milioni di persone, è legata ai fondi del PNRR ed è frutto del grande lavoro del Comitato per la Riforma della Salute e dell’Assistenza Sociale istituito nel 2020 dall’allora Min.ro della Salute Speranza e presieduto da Monsignor Paglia, e poi confermato dal Governo Draghi e da questo lasciato in eredità al Governo attuale che ha nuovamente approvato la Riforma con piccole variazioni blindandone l’approvazione.

La protezione delle persone più anziane e più specificatamente il rispetto dei più vecchi che hanno nella loro vita vissuto nel mondo della scienza e della cultura e che hanno svolto un ruolo di guida e consiglio alle nuove generazioni ha stimolato in tutto il mondo la nascita e lo sviluppo di Associazioni e di Gruppi Leader. La loro forza è diversa a seconda dei Paesi in qualche caso considerati con interesse ed attenzione, in qualche altro praticamente ignorati. Questa è la ragione per cui si sta pensando che un passo importante possa essere la creazione di una Rete fra queste Associazioni, capace di fungere da supporto a ciascuna di esse, sulla base dello stesso principio della Commissione dei Diritti Umani delle Nazioni Unite, dell’Esperto Indipendente sulla fruizione dei Diritti Umani e dell’Alleanza Mondiale per i Diritti dei più anziani, tutte e 3 iniziative che da sempre raccomandano la creazione di strumenti di coesione e collaborazione.

I componenti della Rete dovrebbero scambiarsi con continuità esperienze e competenze, organizzando periodici incontri/eventi durante i quali da un lato rinforzare la collaborazione ed il peso a livello di ogni singolo Paese e dall’altro incentivare le adesioni e presentare i nuovi membri a quanti già fanno parte del Network. Dovrebbero essere garantite promozione della salute, prevenzione dalla malattia e fruizione di tutti i servizi, né più né meno di quanto avviene per tutti gli altri cittadini, a partire dal diritto alla mobilità, alla educazione e sicurezza alimentare, all’ambiente pulito, alla istruzione sulle nuove tecnologie di servizio, alla protezione dalle nuove malattie e dai nuovi rischi.

Non si tratta però solo di welfare ed assistenza sociale, tenuto conto che una delle proiezioni economiche di maggiore interesse riguarda la Silver Economy. Questa copre numerosi settori della economia collegati alla gestione di servizi ed attività che da un lato garantiscono il rispetto di certi diritti alla componente più anziana della popolazione, salute, alimentazione, tecnologie e dall’altro inseriscono tale componente nel bilancio economico dello Stato e nella produzione del prodotto interno lordo nazionale, anche innovando rispetto alle strategie politiche adottate e portando a nuove occasioni di investimento ed a crescita dell’occupazione con la nascita di nuove figure. I settori coinvolti sono quelli a cui prima mi riferivo, sui quali l’allungamento della vita incide maggiormente: salute, prevenzione, sicurezza, educazione permanente, istruzione tecnologica, mobilità sostenibile, robotizzazione della società.

Per capire l’importanza di questo settore dell’economia è opportuno rifarsi al primo report su di esso da parte della Commissione Europea. L’età media dei cittadini europei si è allungata per due motivi, l’accresciuta longevità ed il basso tasso di natalità: passeremo da 4 cittadini in età lavorativa per uno oltre i 65 anni nel 2013 a 4 per 2 nel 2050. Un altro dato allarmante per il presente: un baby ogni 5 anziani (oltre 50 anni).

Questa medaglia ha però un’altra faccia collegata alle opportunità ed opzioni che questa situazione comporta: nuove esigenze, nuovi bisogni, nuova gestione della società, nuove competenze ed esperienze richieste.

La Silver Economy non è un mercato, ma un’economia trasversale. Se la comunità dei più anziani fosse uno stato il suo PIL sarebbe più ricco di quelli di Germania, Regno Unito e Giappone e solo secondo a quelli di Stati Uniti e Cina. In Italia un Rapporto di Confindustria illustra come gli over 75 siano dotati di conoscenze tecnologiche, di disponibilità economiche, di servizi a disposizione, di qualità della vita, di pratica sportiva impensabili 30 anni fa. La ovvia conseguenza è che queste condizioni devono essere sostenute e soddisfatte così divenendo opportunità economiche e sociali in campi diversi: dai trasporti all’energia, dall’industria alimentare alla robotica, dalla cultura alla sicurezza, dallo sport alle telecomunicazioni. Ad esempio con l’Internet delle Cose i più anziani possono essere monitorati continuamente nelle loro stesse case per gli aspetti di salute, sicurezza, alimentazione genuina, comunicazione.

A causa dell’invecchiamento medio della popolazione si rende necessaria una riorganizzazione della nostra Società rispetto ai modelli attuali di gestione, a partire dalla possibile istituzione di un Ministro della Terza Età, capace di inserire all’interno delle scelte governative la soluzione dei problemi connessi alla terza età, con particolare riferimento all’allungamento medio della vita ed alle conseguenti implicazioni sulla economia dei singoli Paesi. Attualmente soltanto 7 Paesi si sono dotati di un tale Ministero (Australia, Nuova Zelanda, Canada, Malta, Scozia, Irlanda, Galles) con il compito per esso di guardare alla popolazione più anziana come una componente alla quale devono essere garantiti servizi e salvaguardati diritti nell’interesse stesso del Paese, esattamente come avviene per le altre componenti della popolazione. Come membro del Governo e componente del Consiglio dei Ministri il Ministro dovrebbe preoccuparsi del fatto che le politiche per la terza età siano componenti di quelle più generali di competenza del Governo stesso, quindi una voce al pari delle altre. Strettamente collegato è il rilievo che questo Ministero potrà dare all’Economia della Terza Età, quale opzione ed opportunità da cogliere come spinta e supporto alla crescita ed al progresso della societa civile e della sua qualità della vita. Il neo Ministro potrebbe considerare l’invecchiamento medio della popolazione con un approccio olistico che spazi dall’educazione permanente a forme di cultura modulate sulle capacità ed abilità fisiche ed intellettive. Solo così si potrà rendere responsabile la partecipazione dei cittadini più anziani alle scelte del Paese, come avviene nel caso dei referendum, tenendo conto che si tratta in ogni caso di scelte che corrispondono complessivamente al 20% del PIL nazionale. Per il coordinamento a livello sia nazionale che locale dell’area Silver Economy con le scelte politiche dei Governi potrebbe essere prevista la istituzione di un Comitato Interministeriale degli Anziani capace di suggerire sulla base della conoscenze e dei data disponibili la migliore allocazione possibile delle risorse in relazione alle disponibilità ed alle esigenze locali e nazionali pervenendo alla proposizione di programmi chiave. Per monitorare continuamente gli aggiornamenti circa le necessità più urgenti degli anziani il Comitato dovrebbe mantenere sempre attivi i collegamenti con le Associazioni di Categoria ed i Gruppi rappresentativi di Opinione degli Anziani attraverso audit e forme di consultazione on line da estendere anche ad Associazioni presenti in altri Paesi, ma attive per le stesse finalità.

Il ruolo  di questo Comitato dovrebbe essere garantito da leggi nazionali e ne dovrebbe essere prevista la crescente importanza nella fase delle scelte. In attesa che tutto maturi rincuora vedere che c’è già Next Age, il primo programma europeo di accelerazione per start up attive nella silver economy impegnate ad ideare soluzioni innovative per gli over 50. Il programma fa parte della Rete Nazionale Acceleratori e nasce dall’iniziativa di diverse entità imprenditrici con una dotazione finanziaria complessiva di 8 milioni. Next Age avrà durata di 3 anni e tende a supportare circa 10 start up all’anno attive nella silver economy che si trovino nella fase seed e preseed tramite un percorso di 4 mesi verso la validazione dei loro modello di business ed il rafforzamento delle loro potenzialità di crescita. L’acceleratore avrà sede ad Ancona.

Il valore delle fonti rinnovabili

In evidenza

Vincenzo Balzani, docente emerito di Chimica, Università di Bologna

Già pubblicato su Avvenire, Bo 7, 2 aprile 2023

La nostra fonte primaria di energia è il Sole, che ci inonda di luce e calore. L’energia solare causa anche spostamenti di masse d’aria nell’atmosfera generando il vento e governa il ciclo dell’acqua. Sole, vento e acqua sono energie presenti in natura (energie primarie). L’uomo, fin dalle origini, ha cercato di procurarsi altra energia e ha scoperto che sulla terra (legno) o sottoterra (carbone, petrolio, gas naturale) ci sono materiali che la contengono. Oggi sappiamo che questo è dovuto a un processo (fotosintesi naturale) che ha imprigionato l’energia solare in quei materiali sotto forma di legami chimici (energia chimica). Con l’energia chimica è possibile accendere il fuoco, utilizzato dagli uomini primitivi per generare luce e calore e, molto più recentemente, dalla società umana per ottenere energia meccanica ed elettrica.

Da qualche decennio, però, ci siamo accorti che i combustibili fossili, così utili e così comodi, sono una risorsa non rinnovabile, generano inquinamento e, soprattutto, causano il cambiamento climatico.

Per risolvere il problema energetico, bisogna quindi tornare alle fonti primarie, le energie del Sole, del vento e dell’acqua, che sono rinnovabili, non producono sostanze inquinanti e non causano il cambiamento climatico. Perché ci sia utile, però, l’energia di queste fonti deve essere convertita nelle energie di uso finale: termica (calore), meccanica ed elettrica.

Grazie allo sviluppo della scienza e della tecnologia abbiamo inventato e realizzato dispositivi, congegni e apparati (celle fotovoltaiche, pale eoliche, dighe, ecc.) che ci permettono di convertire direttamente le energie primarie del Sole, del vento e dell’acqua in energia elettrica, che è la forma di energia di uso finale più nobile, molto più utile del calore generato dai combustibili fossili. Questo grande successo della scienza (in particolare, il fotovoltaico che converte l’energia del Sole in energia elettrica con una efficienza cento volte superiore a quella della fotosintesi naturale), ha spinto Mark Jacobson a intitolare No Miracles Needed il suo ultimo, bellissimo libro. Dall’energia elettrica, infatti, è possibile ottenere le altre forme di energia di uso finale con efficienza non lontana dal 100%, mentre la conversione del calore in energia meccanica o elettrica è tre-quattro volte meno efficiente.

Per realizzare i dispositivi capaci di generare, trasmettere, convertire e immagazzinare l’energia elettrica dobbiamo usare gli elementi chimici presenti nelle sostanze che costituiscono il nostro pianeta. Alcuni di questi elementi sono molto abbondanti (ad esempio, silicio, alluminio e ferro); altri, come il litio, che permette di costruire batterie leggere ed efficienti, sono scarsi. C’è poi un altro problema: alcuni elementi importanti sono presenti solo in certe nazioni; ad esempio, il neodimio, che è fondamentale per l’efficienza delle pale eoliche, si trova prevalentemente in Cina. La relativa scarsità e la non equa distribuzione di elementi importanti potrebbero sembrare due cattive notizie. Dobbiamo, invece, coglierle come un forte invito che ci viene dalla Terra affinché il pianeta diventi veramente, come esorta papa Francesco, la nostra casa comune, dove le nazioni collaborano e i popoli vivono in pace. Però, per far sì che questo si avveri sembra che ci voglia un vero e proprio miracolo.

Il polietilene ha 90 anni!

In evidenza

Claudio Della Volpe

@font-face {font-family:”Cambria Math”; panose-1:2 4 5 3 5 4 6 3 2 4; mso-font-charset:0; mso-generic-font-family:roman; mso-font-pitch:variable; mso-font-signature:3 0 0 0 1 0;}p.MsoNormal, li.MsoNormal, div.MsoNormal {mso-style-unhide:no; mso-style-qformat:yes; mso-style-parent:””; margin:0cm; mso-pagination:widow-orphan; font-size:12.0pt; font-family:”Times New Roman”,serif; mso-fareast-font-family:”Times New Roman”;}a:link, span.MsoHyperlink {mso-style-priority:99; color:#0563C1; mso-themecolor:hyperlink; text-decoration:underline; text-underline:single;}a:visited, span.MsoHyperlinkFollowed {mso-style-noshow:yes; mso-style-priority:99; color:#954F72; mso-themecolor:followedhyperlink; text-decoration:underline; text-underline:single;}.MsoChpDefault {mso-style-type:export-only; mso-default-props:yes; font-size:11.0pt; mso-ansi-font-size:11.0pt; mso-bidi-font-size:10.0pt; mso-fareast-font-family:Calibri; mso-fareast-theme-font:minor-latin; mso-fareast-language:EN-US;}div.WordSection1 {page:WordSection1;}

Non è sempre possibile datare con certezza la nascita di un nuovo materiale; ma in alcuni casi si può. Il 27 marzo scorso, pochi giorni fa, il polietilene ha compiuto 90 anni. Come in altri casi si trattò di una scoperta inattesa, un errore che aprì la strada ad una nuova classe di molecole. Se vogliamo essere precisi le cose partirono ancora prima nel 1898, ma andiamo per ordine.

Nel 1898 un chimico tedesco, Hans von Pechmann

riscaldò del diazometano.

  Ottenne una sostanza bianca e di consistenza cerosa, che altri chimici, Eugen Bamberger e Friedrich Tschimer, scoprirono composta di lunghe catene di -CH2-, e a cui diedero il nome di Polimetilene.La cosa però rimase lì, nessuno dei ricercatori aveva esperienza di polimeri o materiali solidi, rimase una curiosità di laboratorio ed è da dire che sintesi di “polimetilene” LIQUIDO erano già avvenute nel 1869.35 anni dopo, il 27 marzo 1933, l’evento casuale si ripetè, ma nell’industria; stavolta nel laboratorio ICI di Eric Fawcett e Reginald Gibson,

che stavano sperimentando gli effetti di una pressione elevatissima (1900 atm e 170°C) su una mistura di benzaldeide e etilene,

quando un’accidentale infiltrazione di ossigeno (che non fu subito identificata, e rese quindi difficile dapprima replicare il fenomeno) generò di nuovo la sostanza scoperta da Pechmann decenni prima, una sostanza bianca di tipo ceroso.

Forse sarebbe da dire che i tempi erano adesso maturi per il mondo dei polimeri; “in meno di cinque anni, e più precisamente a partire dal 1930, tre nuovi materiali polimerici che da allora hanno avuto un grande impatto sulla nostra esistenza, sono stati scoperti come risultati inaspettati di un progetto di ricerca. Sono: • policloroprene (nome commerciale Neoprene), 17 aprile 1930, il primo elastomero sintetico più simile alla gomma naturale prodotta industrialmente (E. I. DuPont de Nemours and Co., U.S.A.);• polietilene, 27 marzo 1933 (Imperial Chemical Industries Ltd., Regno Unito); • nylon, 1° marzo 1934, la prima fibra totalmente sintetica prodotta industrialmente (E. I. DuPont de Nemours and Co., U.S.A.)” (Trossarelli e Brunella). Ciononostante ci volle un bel po’, altri 4 anni di ricerche perché fosse chiarito il meccanismo di sintesi del nuovo materiale, che aveva una lunghezza di catena ragguardevole ma non enorme (all’incirca 4000 monomeri).

La reazione scoperta dai due scienziati era anche a rischio di esplosione e il lavoro fu fermato per parecchio tempo a causa di una esplosione verificatasi alla seconda ripetizione del processo. Il 7 aprile 1933 fu riferito al Dyestuff Group Research Committee che il lavoro sulla reazione tra etilene e benzaldeide a 2000 atmosfere era stato abbandonato. Il primo esperimento ha dato una sostanza simile alla cera, probabilmente etilene polimerizzato, ma una ripetizione ha provocato un’esplosione che ha distrutto i calibri. Il polietilene dormì per circa tre anni.Fu Michel Perrin, sempre dell’ICI a scoprire un metodo affidabile di polimerizzazione radicalica per la sintesi del polietilene.

Le cose andarono così, come racconta Ann Jaeger: Fawcett era rimasto deluso dal fatto che alla ricerca non fosse stato permesso di continuare, e i suoi tentativi di far riconoscere alla comunità scientifica i risultati suoi e di Gibson portarono nel settembre 1935 a quella che divenne nota come la “divulgazione di Fawcett”, registra Carol Kennedy nel suo libro ICI: The Company that Changed Our Lives. In un’importante conferenza, a cui hanno partecipato alcuni dei più eminenti scienziati del mondo, Fawcett ha detto ai delegati di aver realizzato un polimero solido di etilene, con un peso molecolare di circa 4000. Ma il consenso all’epoca era che l’etilene non poteva polimerizzare perché il doppio legame poteva essere attivato solo a temperature molto elevate, spiega Valentina Brunella, scienziata di chimica dei polimeri presso l’Università italiana di Torino. Nel dicembre dello stesso anno, Williams e i colleghi Michael Perrin e John Paton hanno ristudiato gli esperimenti di Gibson e Fawcett usando solo etilene. In condizioni sperimentali simili – ma con attrezzature migliori – hanno osservato una caduta di pressione, e quando la reazione è terminata c’erano 8,5 g di polvere di PE bianco. Williams, Perrin e Paton erano stati fortunati. Il recipiente aveva una perdita e, è stato successivamente confermato, una traccia di ossigeno era presente nell’etilene fresco che era stato aggiunto al recipiente di reazione per sostituire il gas fuoriuscito. L’etilene fresco conteneva, per caso, la giusta quantità di ossigeno per fungere da iniziatore. “Quando è successo per la prima volta, è stato un colpo di fortuna”, ha ricordato Frank Bebbington, un assistente di laboratorio che lavorava all’esperimento. Stava parlando a una riunione della Royal Society of Chemistry nel 2004 per commemorare la scoperta del PE, noto anche come politene.

Come si sa l’ossigeno ha proprietà radicaliche, ne abbiamo parlato altrove e può fungere da iniziatore di una reazione radicalica. La storia è estremamente interessante e per i dettagli vi invito a leggere l’articolo di Trossarelli e Brunella che mi è piaciuto molto e che è scritto molto bene.

Lo scoppio della guerra rese il polietilene un materiale strategico per molte applicazioni e addirittura la sua sintesi divenne un segreto per questo. Grazie al suo ruolo nel processo di scoperta, Perrin divenne responsabile della collaborazione anglo-americana nello sviluppo della bomba atomica; più tardi ebbe anche un ruolo nel raccogliere la confessione di una famosa spia (un fisico), Klaus Fuchs. 

Oggi il nostro problema è la enorme stabilità del polietilene che è diventato uno dei polimeri più economici ed usati; la sua sintesi avviene usando dei catalizzatori specifici scoperti da Ziegler e parenti di quelli che Natta usò per la sintesi del polipropilene (qui ci vorrebbe una ampia nota sul fatto che Natta sintetizzò il poliacetilene ma in forma lineare mentre la più fortunata sintesi di Ikeda avvenne anche quella per errore, un errore di 1000 volte nella concentrazione del catalizzatore!!).Questa storia la racconteremo un’altra volta.

Grazie alla sua stabilità il polietilene contribuisce in modo significativo alla produzione ambientale di microplastiche e dunque oggi da spinta basica per una vita migliore dell’umanità questo polimero è diventato, grazie al comportamento dialettico della Natura, uno dei nostri principali problemi ambientali.

Il mio vecchio mentore Guido Barone si farebbe a questo punto una risata sotto i baffi, lui lo diceva sempre che la Natura ha due corni. Io posso solo concludere ripetendo quel che ho scritto qualche tempo fa; le scoperte scientifiche non avvengono quando si fa l’esperimento giusto o si scopre la novità; non basta, ma solo quando le teorie correnti possono accoglierlo (o crollare). 

Consultati o  citati:

https://www.researchgate.net/publication/228813221_Polyethylene_discovery_and_growth

Luigi Trossarelli e Valentina Brunella, Polyethylene: discovery and growth, testo pubblico e che consiglio di leggere, un testo veramente ben scritto e ricco di dettagli storici e chimici; complimenti agli autori.

https://en.wikipedia.org/wiki/Michael_Perrin

https://en.wikipedia.org/wiki/Hans_von_Pechmann

https://www.icis.com/explore/resources/news/2008/05/12/9122447/polyethylene-discovered-by-accident-75-years-ago/

http://acshist.scs.illinois.edu/bulletin_open_access/v39-1/v39-1%20p64-72.pdf

https://www.edn.com/polyethylene-synthesis-is-discovered-by-accident-again-march-27-1933/

https://www.facondevenise.it/storia-del-polietilene/ 

Le biomasse

In evidenza

Luigi Campanella, già Presidente SCI

Le biomasse sono una fonte rinnovabile di energia la cui caratteristica principale è di essere
intrinsecamente legate al territorio, ovvero disponibili ovunque e largamente diffuse, anche se in qualità e quantità diverse. Le biomasse sono composte da materia organica generata dalle piante e dagli animali, appositamente trattata per essere utilizzata come biocombustibile. I cascami dell’industria del legno, gli scarti di quella agroalimentare, la componente biologica dei rifiuti urbani, i residui di attività forestali e boschive sono materiali dai quali si può ottenere energia
Le emissioni di CO2 prodotte dalla biomassa sono compensate dalla quantità di CO2 assorbita, attraverso la fotosintesi, durante la crescita della biomassa stessa.

Al bilancio bisogna però aggiungere le emissioni di CO2 equivalenti derivate dal trasporto e dalle altre attività correlate alla produzione, raccolta e trattamento delle biomasse.

Le emissioni per queste attività non sono poche ; inoltre bisogna aggiungere che l’efficienza di conversione dell’energia solare in biomasse è molto bassa lo 0 2%, ed il fatto che si mette in competizione terreno per produrre cibo con quello per ottenere energia.

Diverso è il discorso se si parla di scarti vegetali,a cui mi riferisco più avanti.
Per il recupero di energia dalle biomasse le tecnologie sono in funzione dell’obiettivo. La digestione anaerobica e la combustione sono le tecnologie dirette o indirette più impiegate per produrre biogas per energia elettrica e termica, la trasformazione chimico-fisica per ottenere biocarburanti.

Rispetto alle biomasse disponibili, il mercato è bilanciato fra domanda ed offerta. L’offerta è condizionata dalla disponibilità e nel caso di un paese a vocazione agricola, come il nostro, le occasioni sono molteplici: potature, raccolte di scarti, selezioni di qualità.

La domanda è invece influenzata da clienti, prezzi, condizioni di approvvigionamento.
Spesso però questa raccolta non avviene e i materiali vengono lasciati.marcire o vengono bruciati selvaggiamente. Questi comportamenti derivano come sempre da considerazioni economiche: le macchine per recuperarli ed imballarli sono costose e costrette a lavorare in condizioni di pendenza ed accessibilità di suolo molto poco percorribili. Quanto si riesce a recuperare viene trasformato in cippato, poi utilizzato come combustibile o trasformato in pellet per uso industriale.

Il recupero energetico delle biomasse avviene mediante impianti ad hoc per combustione diretta o pirogassificazione, ottenuta bruciando in difetto di aria. Nel primo caso si producono anche ceneri mentre nei pirogassificatori si produce un residuo carbonioso, noto come biochar, simile al carbone di legna. Se privo di sostanze tossiche il biochar viene utilizzato in agricoltura come ammendante e fertilizzante. Questo comporta un ulteriore vantaggio nel bilancio del carbonio: infatti le piante coltivate nel terreno trattato con biochar riemettono solo una parte del carbonio assorbito dal terreno. A fronte di questo vantaggio c’è lo svantaggio economico: questo processo è economicamente conveniente solo se la biomassa è gratuita ed inoltre il biochar deve essere garantito per certi indici di qualità. Ciò non toglie che condizioni favorevoli si possano creare come in occasione della pulizia dei boschi per fini turistici o ricreativi e per evitare incendi e della raccolta differenziata dei rifiuti

da leggere:

https://www.qualenergia.it/articoli/la-sostenibilita-dellenergia-da-biomassa-un-tema-complesso/embed/#?secret=jyexd4dMQe

https://www.eia.gov/energyexplained/biomass/

https://cnr.ncsu.edu/news/2021/01/biomass-a-sustainable-energy-source-for-the-future/

Conversione elettrochimica dell’anidride carbonica in sostanze utili

In evidenza

Rinaldo Cervellati

Circa 30 anni fa, quando Andrew Bocarsly, professore di chimica alla Princeton University, pubblicò il suo primo studio sull’uso dell’elettrochimica per convertire l’anidride carbonica (CO2) in prodotti utili generò un interesse quasi nullo. Infatti, in quei giorni del 1994 non si parlava molto di gas serra e cambiamenti climatici. Dice Bocarsly: “Ero solito iniziare ogni discorso spiegando in dettaglio perché ridurre le emissioni di CO2 fosse un’ottima cosa da fare, perché non tutti avevano accettato l’idea anche solo 10 anni fa. Oggi sostengo che la CO2 sta avendo un impatto negativo sull’ambiente e dobbiamo davvero fare qualcosa al riguardo.”

Oggi, molti scienziati e ambientalisti riconoscono che i livelli di CO2 nell’atmosfera stanno aumentando rapidamente e che questo gas serra sta influenzando negativamente l’ambiente.

Dal 1982 al 2022, il livello atmosferico globale medio di CO2 è aumentato di oltre il 20%, da circa 340 ppm a 420 ppm. La maggior parte dell’aumento proviene da attività umane, come l’impiego di combustibili fossili nel trasporto e nell’industria. Nel 2021, le emissioni globali di CO2 causate dall’uomo ammontavano a circa 39,3 miliardi di tonnellate, secondo l’Organizzazione meteorologica mondiale.

Solo 3 o 4 anni fa c’era molta tensione agli incontri sulla CO2 tra i ricercatori che sostenevano di sequestrare la CO2 in profondità nel terreno e quelli che sostenevano che il modo migliore era di convertirla in altri prodotti chimici. Nel giugno 2022, il consenso tra i partecipanti alla 19a Conferenza internazionale sull’utilizzo dell’anidride carbonica a Princeton, era che nell’atmosfera c’è così tanta CO2 che un approccio singolo, sequestro o utilizzo, potrebbe risolvere il problema.

Estrarre una parte di CO2 dall’atmosfera e trasformarla chimicamente in qualcosa di utile sarebbe un grande vantaggio rispetto al sequestro del gas sotto terra, afferma la prof. Laura Gagliardi, direttrice del Center for Theoretical Chemistry dell’Università di Chicago. La chimica di conversione può essere guidata dall’elettricità o dal calore. Entrambi i processi di riduzione della CO2 verrebbero eseguiti in presenza di un catalizzatore per minimizzare l’apporto energetico richiesto. Secondo Gagliardi l’elettrocatalisi può essere più “verde” della catalisi termica, ma proprio come il pensiero sul sequestro rispetto all’utilizzo di CO2, per ridurre i livelli di gas serra si devono considerare entrambe le opzioni.

Riduzione elettrochimica

La riduzione della CO2 in un una cella elettrochimica, offre diversi vantaggi rispetto a quella termica. L’elettroriduzione può essere alimentate da elettricità rinnovabile, ad esempio dall’energia eolica e fotovoltaica che è in rapida crescita e più competitiva in termini di costi.  A differenza dei reattori termici, che in genere riducono la CO2 facendola reagire con idrogeno ad alta temperatura e alta pressione, le celle elettrochimiche generalmente funzionano a temperatura ambiente e pressione atmosferica.

Quindi le celle possono essere relativamente semplici, piccole e poco costose rispetto ai reattori termici, che devono essere grandi per essere convenienti. Inoltre, la reazione termica richiede calore e una fornitura di idrogeno gassoso, entrambi solitamente provenienti da processi basati su combustibili fossili che emettono molta CO2. Il problema con l’elettroriduzione è che ha una bassa efficienza energetica e un controllo insufficiente della sua chimica. Nonostante questo problema, il concetto di elettroriduzione continua ad attrarre nuovi talenti, tanto che oggi il campo è pieno di attività: scienziati nel mondo accademico e industriale in diversi paesi stanno esaminando ogni parte della cella. Lo scopo è migliorare le prestazioni del processo, adattando le celle per ottenere composti utili e dare il via a un eventuale sviluppo commerciale.

Molti ricercatori stanno ottenendo molecole con più di un atomo di carbonio, direttamente nelle celle elettrochimiche.

Decidere quali prodotti ottenere, molecole con uno, due, tre o più atomi di carbonio, dipende principalmente da fattori economici, come il costo dell’elettricità e l’efficienza del processo. Nel caso dell’etilene, l’efficienza energetica dell’elettroriduzione è di circa il 25%; affinché il processo sia commercialmente utilizzabile dovrebbe arrivare al 50-60%.

La CO2 entra in una cella elettrochimica sul lato del catodo, dove interagisce con un catalizzatore, spesso un materiale particellare supportato su quell’elettrodo. La maggior parte del lavoro sulle celle elettrochimiche si concentra sul catalizzatore perché è ciò che dà inizio alla reazione, controlla l’energia e guida i reagenti per formare i prodotti. Piccoli cambiamenti nella composizione del catalizzatore possono avere un forte effetto sulle prestazioni della cella e sulla distribuzione del prodotto. In uno studio in questo senso, il gruppo di Sargent ha collaborato con Zachary Ulissi  della Carnegie Mellon University, e ha utilizzato metodi quantistici per cercare catalizzatori in lega di rame per produrre etilene. I calcoli indicavano leghe rame-alluminio, quindi il team ne ha realizzate e testate una serie. Ha scoperto che l’efficienza faradica, una misura di quanto gli elettroni guidano la reazione desiderata, in questo caso CO2 a etilene, era dell’80%, superiore al 66% per il rame puro [1], figura 1.

Fig. 1 Preparazione di una cella elettrochimica per l’elettroriduzione di CO2. Nothwestern University

In uno studio correlato, il gruppo di Sargent insieme ai ricercatori dell’Università della Scienza e della Tecnologia di Pechino hanno cercato modi per adattare il rame per produrre catalizzatori che inducano la reazione di riduzione a ottenere alcoli multicarbonici rispetto all’etilene. Hanno scoperto che il rame insieme a ossido di bario forma etanolo e 1-propanolo in un rapporto di 3:1, che è 2,5 volte più selettivo del rame puro [2].

La personalizzazione dei catalizzatori è un modo per migliorare le prestazioni delle celle. Un altro modo è ridisegnare la cella. Questo è ciò che hanno fatto Zhu, Wang e i colleghi della Rice University. I prodotti liquidi offrono vantaggi rispetto ai gas perché possono essere trasportati e immagazzinati più facilmente e possono avere densità di energia più elevate. Ma i liquidi generalmente si accumulano nella soluzione elettrolitica della cella e devono essere separati e purificati, il che è costoso. Così il team della Rice ha sostituito il tradizionale elettrolita liquido, che trasporta gli ioni tra il catodo e l’anodo, con uno solido, un copolimero solfonato poroso e conduttore di ioni (figura 2 in basso).

Fig. 2 Le celle H (chiamate per la forma della cella con due grandi camere) e le celle a flusso (chiamate per il flusso di reagenti lungo canali simili a serpenti) usano l’elettricità per convertire l’anidride carbonica in prodotti chimici. In entrambe le celle, la CO2 entra nel dispositivo e fluisce verso un catodo rivestito con un catalizzatore, che riduce il gas a intermedi che vanno a formare monossido di carbonio, etilene e altri prodotti. Per completare la reazione, l’acqua in una soluzione elettrolitica subisce ossidazione all’anodo mentre gli ioni fluiscono attraverso una membrana conduttiva. Adattato da Nat. Sustain./Yang H. Ku/C&EN/Shutterstock

Per testare il progetto, il team ha installato una cella con un catalizzatore di nanoparticelle di bismuto che converte la CO2 in acido formico, che viene utilizzato in grandi quantità come detergente e nella produzione chimica e tessile. La reazione ha formato formiato e ioni idrogeno, che si sono combinati nell’elettrolita solido, generando molecole di acido formico. Il team ha fatto scorrere un flusso di gas inerte attraverso l’elettrolita e ha raccolto il prodotto condensato con una purezza quasi del 100% [3].

Le celle convenzionali hanno un altro difetto: il catalizzatore di rame si degrada gradualmente, il che porta a scarse prestazioni e bassa selettività per l’etilene.

Meenesh Singh, un ingegnere chimico dell’Università dell’Illinois spiega che la forma attiva del catalizzatore è un ossido di rame. Ma la tensione della cella necessaria per ridurre la CO2 riduce anche l’ossido di rame, trasformandolo lentamente in rame metallico inattivo. La soluzione di Singh consiste nel far oscillare il potenziale elettrico, passando rapidamente da una piccola tensione negativa, che genera etilene, a una piccola tensione positiva, che rigenera l’ossido di rame [4].

Un altro componente della cella che può avere margini di miglioramento è l’elettrolita. Le soluzioni acquose, alcaline o acide, sono standard. Ma non sono l’unica opzione. Buxing Han e colleghi, dell’Accademia Cinese delle Scienze, hanno valutato un gran numero di liquidi ionici come elettroliti per l’elettroriduzione della CO2.

Gli elettroliti liquidi ionici possono fornire molti vantaggi rispetto agli elettroliti acquosi, possono avere una maggiore conducibilità e stabilità elettrica, e possono essere utilizzati su una finestra elettrochimica più ampia o su un più ampio intervallo di tensione. I liquidi ionici sono più costosi degli elettroliti standard ma possono essere usati ripetutamente e quindi rendere più facile la separazione dei prodotti.

Qinggong Zhu, un collaboratore di Han, sottolinea che la CO2 è altamente solubile in liquidi ionici, il che favorisce velocità di reazione elevate, al contrario la solubilità della CO2 nelle soluzioni acquose è piuttosto bassa, il che porta a una scarsa efficienza della sua conversione.

Han e colleghi hanno recentemente compilato un’ampia revisione dei liquidi ionici utilizzati per l’elettroriduzione della CO2 [5].

La commercializzazione su larga scala dell’elettroriduzione di CO2 non avverrà dall’oggi al domani, ma l’entusiasmo per la tecnologia sta crescendo rapidamente.

Afferma Bocarsly: “Fino a 10 o 20 anni fa, le persone erano molto scettiche sul fatto che saremmo mai stati in grado di convertire la CO2 in qualcosa di utile che non fosse così costoso che nessuno sarebbe stato interessato ad acquistare. I tempi sono cambiati e le persone stanno iniziando a pensare che sia commercialmente fattibile. Si può discutere sulla bassa efficienza di un prodotto multicarbonio o di un altro, ma questo significa che sai già come farlo. Non c’è dubbio che ciò accadrà”.

Ovviamente le affermazioni di Bocarsly sono quantomeno ottimistiche, c’è anche la questione della sostenibilità ambientale sulla valutazione del ciclo della vita (LCA). A questo proposito Roberta Gagliardi su ilfattoquotidiano.it del 14 marzo scorso scriveva un post dal titolo: I carburanti bio e sintetici sono poco sostenibili, rimandare le e-car danneggerà solo l’industria.

Articolo tradotto, adattato e ridotto da M. Jacoby, Turning carbon dioxide into a valuable re source, C&EN, March 5, 2023.

Bibliografia

[1] M. Zhong et al., Accelerated discovery of CO2 electrocatalysts using active machine learning., Nature, 2020, 581,178–183.

[2] Aoni Xu et al., Copper/alkaline earth metal oxide interfaces for electrochemical CO2-to-alcohol conversion by selective hydrogenation., Nature Catalisys, 2022, 5,1081–1088.

[3] Lei Fan et al., Electrochemical CO2 reduction to high-concentration pure formic acid solutions in an all-solid-state reactor., Nature Communications, 2020, 11, 3633.

[4] Aditya Prajatapi et al., CO2-free high-purity ethylene from electroreduction of CO2 with 4% solar-to-ethylene and 10% solar-to-carbon efficiencies., Cell Reports Physical Science, 2022, 3, 101053. DOI:10.1016/j.xcrp.2022.101053

[5] D. Yang, Q. Zu, B. Han, Electroreduction of CO2 in Ionic Liquid-Based Electrolytes., Innovation, 2020, DOI: 10.1016/j.xinn.2020.100016

Giornata mondiale dell’acqua (22 marzo).

In evidenza

Luigi Campanella, già Presidente SCI

Siamo fatti per il 65% di acqua e questa composizione è fondamentale per il nostro stato di salute. Infatti è l’acqua che lubrifica articolazioni e muscoli, previene la secchezza della pelle, regola la temperatura, aiuta la digestione, mantiene la pressione sanguigna, aumenta le capacità fisiche, trasporta i nutrienti alle varie parti del corpo.

Questo induce i medici ad affermare che bisogna bere prima di avere sete. Ma oltre a bere un’altra forma di idratazione è quella termale. La chimica è la grande guida  di questa forma di cura e prevenzione; infatti la classificazione delle acque termali è tipicamente chimica in relazione ai minerali contenuti: sulfuree, salse, solfato carbonatiche ,ferruginose , bicarbonate ciascuna con evidenti maggiori capacità curative verso specifiche patologie

Si tratta di risorse preziose anch’esse, come tutte quelle riferite all’acqua, esposte a fenomeni di inquinamento. Il nostro territorio è ricco di pozzi in ambienti privati esposti a processi di inquinamento non controllati e non contrastati. Continua inoltre senza sosta, lo sversamento di preziose Acque Sulfuree di falda nei fiumi, come avviene per il fiume Aniene. Potrebbe e dovrebbe essere un tesoro, come lo è sempre stato sin dai tempi dei Romani. Ci dicono che siamo arrivati ad una quota di 6000 litri al secondo, sversati direttamente in Aniene attraverso canali che partono da impianti di estrazione di travertino, tramite potenti impianti di pompaggio. Accade ormai da anni, troppi anni.

Le cure termali sono un metodo terapeutico che consente di

–  diminuire o eliminare i farmaci

–  aumentare l’efficacia di un farmaco

–  ridurre gli effetti collaterali di alcune terapie di lungo periodo.

Le cure termali consentono inoltre:

– la diagnosi precoce di certe affezioni

– la prevenzione delle ricadute e delle complicanze.

L’effetto delle cure termali è pertanto curativo e preventivo. Ogni ciclo ha una tempistica minima studiata per permettere un riequilibrio efficace. Nelle malattie caratterizzate da crisi acute e ripetute, come l’asma, l’emicrania, l’eczema, le cure termali aiutano a diminuire la sensibilità agli agenti scatenanti. Quando i disturbi funzionali sono legati a delle difficoltà psicologiche, possono scomparire completamente una volta riconquistato l’equilibrio psichico.

L’inquinamento ambientale può danneggiare l’acqua termale rilasciando in essa composti estranei, quando non tossici, tanto che oggi alcune terme vengono periodicamente sanificate con radiazioni uv e con ozonoterapia, ma purtroppo quando la falda è stata intaccata la sua completa rigenerazione è difficile.

L’acqua termale contiene sempre molti minerali, ciascuno dei quali implica diversi benefici per la salute della pelle: 

magnesio: stimola la rigenerazione e la cicatrizzazione della pelle;

calcio: protegge e preserva i tessuti cutanei rinforzandone le difese;

manganese: potente antiossidante che stimola la rigenerazione cellulare combattendo così l’invecchiamento cutaneo;

potassio: idrata in profondità le cellule che caratterizzano il tessuto cutaneo;

silicio: rigenera e rende maggiormente compatta l’epidermide;

rame: un potente anti infiammatorio che previene e lenisce eventuali irritazioni;

ferro: fornisce ossigeno alle cellule che caratterizzano i tessuti cutanei agevolandone lo sviluppo;

zinco: stimola la crescita cellulare e ne favorisce il naturale turn over.

La recente legge 24 ottobre 2000 n. 323 definisce le acque termali come “le acque minerali naturali, di cui al regio decreto 28 settembre 1919 n. 1924, e successive modificazioni, utilizzate a fini terapeutici”. Ma non sempre la distinzione è nitida: in alcuni casi, ad esempio, quando le acque termali hanno caratteristiche di composizione tali da potere essere impiegate anche come “comuni” acque minerali (principalmente salinità non elevata e parametri nei limiti previsti dalla normativa), possono venire regolarmente messe in commercio per tale utilizzo.

Non è raro infatti osservare sulle etichette di alcune note acque minerali la dicitura: “Terme di……”. Al fine di stabilire il regime giuridico applicabile, più che alla origine occorre far riferimento alla utilizzazione delle acque. Per quanto riguarda gli aspetti microbiologici, le acque termali seguono quanto è previsto dalla normativa per le acque minerali mentre per gli aspetti chimici non si applica l’articolo 6 del Decreto 542/92 relativo alle sostanze contaminanti o indesiderabili. Questo articolo è da riferirsi, secondo il contenuto della nota del Ministero della sanità  del 19.10.1993, esclusivamente alle acque destinate all’imbottigliamento.

Il tenore di certi elementi (boro, arsenico, bario e altri) è ammesso nelle acque termali in misura superiore a quanto previsto per le acque minerali imbottigliate: il loro uso infatti, oltre ad essere molto limitato nel tempo, avviene sotto controllo medico. Occorre inoltre ricordare che talvolta è proprio la concentrazione di alcuni elementi a determinare l’attività  farmacologica delle acque termali. In Toscana ad esempio sono diffuse acque termali con boro in concentrazione superiore al valore limite previsto per le acque minerali, così come è noto l’impiego delle acque termali arsenicali-ferrugginose in alcuni impianti termali italiani. Con riferimento alle ricadute igienico sanitarie The Lancet, eccellenza scientifica di riferimento mondiale anche nella recente emergenza coronavirus, rilevava in un’inchiesta come la maggiore “rivoluzione sanitaria” in termini di numero di vite umane salvate nella storia fino ai nostri giorni, fosse la gestione sicura dell’acqua e dei servizi igienico-sanitari, considerata addirittura più rilevante dell’invenzione degli antibiotici, dei vaccini e della stessa scoperta del genoma – che ci consente oggi di identificare i virus e studiare le cure. Disporre di una risorsa igienicamente pura è essenziale per garantire la propria salute nel tempo.

WWD actionlist

C’è poi il problema del recupero di risorse idriche ad oggi non utilizzabili, a partire da quelle marine

 All’Italia con 9000 km di coste il mare non manca, ma la salinità impedisce la fruizione diretta di questa risorsa. La desalinizzazione è adottata in quasi 200 Paesi al mondo con oltre 16000 impianti. In Italia è un tecnologia ancora indefinita per scelte e tempi a causa degli elevati costi energetici ad essa correlati, tanto che la politica energetica verso le fonti rinnovabili e quella economica verso il modello circolare potrebbero giocare un ruolo importante nel prossimo futuro. Israele ed Emirati Arabi ci insegnano che dall’acqua marina desalinizzata possono derivare giardini e verde. In Medio Oriente la percentuale di acqua potabile ottenuta dalla desalinizzazione di quella marina sfiora il 50%. In Europa il capofila in materia è la Spagna con quasi 800 impianti di desalinizzazione In Italia come dicevo siamo in uno stallo di attesa per motivi energetici ma anche per le carenze idriche che obbligano ad interventi urgenti per la produzione agricola e per quella industriale, piuttosto che a scelte strutturali.

L’allarme deriva anche dagli ultimi dati: il 2023 si presenta come l’anno più caldo di sempre con un aumento per i primi 2 mesi di 1,44 gradi rispetto alla media. In attesa di scelte e di tempi certi bisogna intervenire con provvedimenti di obbligato rigoroso risparmio, di identificazione di invasi e laghetti artificiali, di ricarica delle falde. Le piogge sono sempre di meno con un calo ogni anno dell’80% e con i grandi laghi e fiumi sempre più secchi:% di riempimento 19 per lago di Como, 36 per lago di Garda, 40 per Lago Maggiore, livello del Po 3 m sotto rispetto al livello idrometrico normale.

Noi, le piante e gli anestetici.

In evidenza

Claudio Della Volpe

Una delle lezioni che ci viene dall’osservazione della storia della scienza (è che è dura da accettare) è che spesso siamo ciechi di fronte a fenomeni evidenti.

Un esperimento chiave può essere fatto e perfino ripetuto più volte ma non sortisce i suoi effetti sulla nostra cultura se non dopo che la nostra costruzione teorica abbia acquisito lo spazio per accettarlo.

L’effetto degli anestetici è uno dei fenomeni che lo mostra.

La scoperta dell’azione degli anestetici risale al 1844; nel dicembre di quell’anno un dentista americano Horace Wells venne a sapere di una manifestazione ad Hartford sul protossido di azoto (meglio noto come gas esilarante, capace di indurre una sorta di ebrezza alcolica in chi lo aspirava). Durante lo spettacolo notò che uno dei volontari, che si era sottoposto alla somministrazione del gas, aveva urtato contro l’orlo di un sedile e, senza accorgersi della profonda ferita procuratesi alla gamba, aveva continuato a far divertire il pubblico, mantenendo i movimenti tipici di un ubriaco. Fu così che intuì la possibilità di estendere l’uso del protossido di azoto anche alla chirurgia odontoiatrica, e dimostrare ai medici dell’epoca che il dolore durante un’operazione chirurgica poteva essere anestetizzato. https://saluteuropa.org/scoprire-la-scienza/storia-dellanestesia/

Da N Engl J Med 2003;348:2110-24.

Appena 5 anni dopo, nel 1849, Scientific American dava notizia dell’esperimento fatto sulle piante “sensibili” da tale Dr. Manet e riportato sul Transactions of Physicial Society of Geneva usando il cloroformio con analoghi risultati. La notizia però si perse e non è stata mai più citata.

Dovettero passare trent’anni e si arrivò al 1878 quando il grande Claude Bernard, fisiologo francese considerato il fondatore della medicina sperimentale, (gli si deve la nozione di mezzo interno e di omeostasi, fondamento della biologia moderna) riscoprì l’effetto e lo riportò nel suo libro Leçons sur les phénomènes de la vie communs aux animaux et aux végétaux. (Librairie J.-B. Baillière et Fils) con un esperimento condotto sulla Mimosa pudica usando l’etere (pg. 259 del libro). Bernard riscoprì il fenomeno e non cita l’esperimento seminale di Manet, fatto quasi 30 anni prima con un diverso anestetico. Egli ne concluse che le piante e gli animali devono condividere un’essenza biologica comune che viene interrotta dagli anestetici.

Da allora la cosa è stata studiata e riportata parecchie volte in letteratura fino ad arrivare alla moderna riscoperta di massa (legata fra gli altri all’attività dell’italiano S. Mancuso) che anche le piante mostrano fenomeni di sensibilità notevolissimi tanto da poter essere considerate non solo sensibili ma perfino “intelligenti”: Planta sapiens (che è poi il titolo di un recente libro di Paco Calvo ed. Il saggiatore).

In realtà la sensibilità all’anestesia è sorprendente poiché accomuna noi, i batteri, le piante e perfino i mitocondri, che come abbiamo ricordato altrove sono batteri che si sono uniti ad altri contribuendo alla formazione della cellula eucariota. Insomma specie che si sono di fatto succedute nell’ambito di almeno un miliardo e mezzo di anni di evoluzione hanno conservato una profonda sensibilità alle medesime molecole.

Questo però nel caso delle piante dovrebbe aiutarci a vederle da un punto di vista diverso. Le piante in sostanza non sono lo “sfondo” della vita animale, ma sono anch’esse vive ed attive con meccanismi che non ci appaiono evidenti solo perché i loro tempi sono diversi dai nostri; ma questo non giustifica una nostra pretesa superiorità.

Da leggere: Planta sapiens, Perché il mondo vegetale ci assomiglia più di quanto crediamo di Paco Calvo con Natalie Lawrence, Ed. Il Saggiatore, 2022, pag. 350

Combattere le disuguaglianze

In evidenza

Vincenzo Balzani, professore emerito UniBo

Il presente modello di sviluppo spinge alla competizione e alla perdita dell’idea di bene comune, causando il deterioramento del tessuto sociale. Il principale, se non unico obiettivo è arricchirsi. Questa situazione si è inacerbata con la crisi pandemica, la guerra in Ucraina e tutti i problemi collegati.

Nonostante la crisi energetica, le compagnie petrolifere stanno guadagnando in modo abnorme (ENI: 10,81 miliardi di euro nei primi nove mesi 2022). Pochi giorni fa, i giornali ci hanno informato che Leonardo nel 2021 ha venduto armi per 13,9 miliardi di dollari, prima fra le aziende europee, e che l’amministratore delegato di una grande banca italiana ha chiesto un aumento del 40% per il suo stipendio, che è già di 7,5 milioni all’anno. In Gran Bretagna, Equality Trust ha riportato che il numero dei miliardari è aumentato da 15 nel 1990 a 177 nel 2022 e che nello stesso periodo la ricchezza dei miliardari è aumentata di più del 1000%, mentre è cresciuto enormemente il numero di poveri. Equality Trust sottolinea che questo divario non è da imputarsi al fatto che i miliardari sono persone intelligenti, creative o fortemente dedicate al lavoro, ma perché essi sono i maggiori beneficiari di un sistema economico inadeguato. E’ quanto afferma anche papa Francesco nell’enciclica Laudato si’: ”Ciò che sta accadendo ci pone di fronte all’urgenza di procedere in una coraggiosa rivoluzione culturale”.

Un’indagine estesa a molti paesi sviluppati indica che al crescere delle disuguaglianze aumentano gli indici di malessere, come la violenza e l’abuso di droghe, mentre diminuiscono gli indici di benessere, come la fiducia reciproca e la mobilità sociale. Quindi, se si vuole migliorare la qualità della vita si devono ridurre le disuguaglianze, problema che non può essere risolto con una caritatevole politica sociale. Consumando più risorse e, allo stesso tempo, aumentando le disuguaglianze, si scivolerà sempre più velocemente verso l’insostenibilità ecologica e sociale, fino a minare, in molti paesi, la sopravvivenza della stessa democrazia.

La piramide dei ricchi nel mondo (fonte: Sole24Ore)

Per migliorare il mondo è necessario, anzitutto, chiedersi ciò che deve essere fatto e ciò che non deve essere fatto, prendendo come valori di riferimento l’obiettivo del lavoro, la sua metodologia e il suo significato. L’obiettivo deve essere la custodia del pianeta, la metodologia giusta è la collaborazione, il significato è la dignità di ogni singola persona. Poi c’è l’economia; in gennaio, i trenta membri della Transformational Economics Commission del Club di Roma hanno chiesto al World Economic Forum di Davos, nel quale ogni anno si incontrano i leader dei governi, dell’economia e della società civile, di prendere concrete decisioni per frenare il cambiamento climatico e prevenire l’instabilità sociale. Hanno calcolato che il forte aumento della spesa pubblica può essere totalmente coperto con fondi ottenuti tassando in modo più efficiente e maggiormente progressivo le imprese e le persone più ricche, in base anche alle emissioni di gas serra che producono e a quanto pesantemente sfruttano le risorse del pianeta.

Tutto questo è in linea con quanto afferma papa Francesco nell’enciclica Laudato si’: ”Ciò che sta accadendo ci pone di fronte all’urgenza di procedere in una coraggiosa rivoluzione culturale”.

Misurare la tossicità del particolato col lievito.

In evidenza

Luigi Campanella, già Presidente SCI

L’atmosfera urbana è caratterizzata dalla presenza di un insieme vasto ed eterogeneo, da un punto di vista chimico-fisico, di particelle aerodisperse di dimensioni comprese tra 0,005 e 100 μm, costituite essenzialmente da minerali della superficie terrestre, prodotti di combustione e di attività industriali, artigiane, domestiche, sali provenienti da aerosol marini, prodotti di reazione in atmosfera. Le quantità di materiale particellare riscontrabili nelle atmosfere urbane sono in genere dell’ordine di 50-150 μg/m3,,ovviamente con i valori bassi dell’intervallo più pertinenti alle città europee e dei paesi più avanzati nelle politiche ambientali.

Fra queste particelle  viene considerata con sempre maggiore interesse per i suoi effetti sulla salute della popolazione esposta la frazione inalabile, ovvero la frazione granulometrica di diametro aerodinamico minore di 10 μm (PM 10). La frazione granulometrica del PM 10 formata da particelle di diametro aerodinamico maggiore di 2,5μm costituisce la frazione coarse, che una volta inalata può raggiungere l’apparato respiratorio superando il livello naso-faringeo, quella costituita da particelle con diametro aerodinamico minore di 2,5μm (PM 2,5) costituisce la frazione fine, che una volta inalata, è in grado di arrivare fino al livello degli alveoli polmonari.

Le polveri fini, o particolato, hanno soprattutto tre origini:

Mezzi di trasporto che bruciano combustibili

Impianti industriali

Impianti di riscaldamento

Le attuali conoscenze sul potenziale rischio cancerogeno per l’uomo dovuto all’esposizione del particolato, derivano da studi di epidemiologia ambientale e di cancerogenesi sperimentale su animali e da saggi biologici a breve termine, quali test di genotossicità, mutagenesi e trasformazione cellulare.

Si è riscontrata un’elevata attività mutagena nell’aria urbana di tutte le città del mondo e risulta crescente la preoccupazione per un possibile effetto cancerogeno sulla popolazione in seguito all’esposizione da particolato urbano. E’ infatti noto da molto tempo che estratti della componente organica da particolato urbano possono indurre cancro alla pelle in animali da esperimento e risultano mutageni in alcuni dei test adottati per tale valutazione.

Inoltre in alcuni studi è stato mostrato come l’esposizione ad aria urbana abbia provocato la formazione di addotti multipli al DNA, sia nel DNA batterico che nel DNA della pelle e del polmone del topo. Infine estratti della componente organica da particolato sono risultati positivi anche in saggi di trasformazione cellulare in cellule di mammifero.

https://www.epa.gov/pmcourse/particle-pollution-exposure

Uno studio dell’US Environmental Protection Agency (USEPA) sui tumori “ambientali” negli Stati Uniti stima che il 35% dei casi di tumore polmonare “urbano” attribuibili all’inquinamento atmosferico sia imputabile all’inquinamento da particolato.

L’organizzazione Mondiale della Sanità ha riconosciuto che in Italia, nelle città più inquinate la percentuale dei decessi che si possono addebitare alle polveri può arrivare fino al 5%.

La variabilità della composizione chimica del particolato atmosferico fa si che, ai fini della protezione dei cittadini e degli esposti, la misura solo quantitativa di questo indice non sia del tutto significativa.

E’ per questo che negli ultimi anni vanno moltiplicandosi gli studi su questo inquinante, riguardanti il campionamento, l’analisi, la valutazione di tossicità.

La presenza nel particolato di elementi e composti diversi a differenti concentrazioni comporta quindi che, a parità di quantità, la qualità di esso possa essere differente da caso a caso e determinante ai fini della individuazione di situazioni di rischio e pericolo. È ovvio che, per gli aspetti più strettamente fisici del rischio ambientale, tale considerazione è relativamente meno influente in quanto tale azione si esercita attraverso un’ostruzione delle vie respiratorie da parte del particolato; ma quando da questi si passa a quelli chimici e quindi alle interazioni chimiche e biochimiche fra l’ecosistema, l’organismo umano, che ne fa parte, ed il particolato, si rende necessaria una valutazione integrale di tipo anche tossicologico finalizzata a valutare le potenzialità nocive del particolato in studio.

I test di tossicità integrale nascono con il fine di fornire in tempo reale risposte finalizzate a possibili interventi tempestivi in caso di situazione di allarme, superando i tempi morti dell’attesa dei risultati delle complesse e complete analisi chimiche e microbiologiche di laboratorio.

Le metodiche di campionamento da adottarsi devono essere compatibili con le procedure e le tecniche di preparazione dei campioni dell’analisi successiva. I metodi adatti a tale fine sono essenzialmente due: il metodo del filtro a membrana che permette di raccogliere direttamente il particolato su un supporto adatto alla successiva analisi mediante microscopio elettronico (MEA) ed il campionamento mediante impattori inerziali. Fra i test di tossicità integrale, escludendo quelli basati su sperimentazione animale che richiedono strutture particolari e guardando piuttosto al contrario verso test semplici ed economici che possano essere applicati anche da laboratori non particolarmente attrezzati, stanno trovando crescente interesse quelli respirometrici. Sostanzialmente si misura la capacità respiratoria di cellule, libere o immobilizzate, spesso di lieviti, nell’ambiente sotto esame e la si confronta con quella in un ambiente di riferimento.

La riduzione della suddetta capacità è correlata alla tossicità dell’atmosfera testata. Il test può anche essere condotto basandosi sulla cinetica di respirazione. Nell’intenzione di rendere il test quanto più sensibile possibile si sono utilizzate modificazioni genetiche cellulari, cellule private della parete o cellule sensibilizzare attraverso trattamenti preliminari. In tutte queste misure l’elettrodo indicatore può essere di 3 tipi: in primis ovviamente l’elettrodo di Clark che misura per via amperometrica la concentrazione dell’ossigeno, l’elettrodo a diffusione gassosa per la CO2 ed un FET (transistor ad effetto di campo) per l’acidità prodotta dalla respirazione.

Geometria e-scatologica

In evidenza

Claudio Della Volpe

Abbiamo ripetuto più volte su queste pagine un concetto che Primo Levi ha portato alla dignità della letteratura e che ripeto qua a modo mio. La materia è dura ed insensibile, il chimico la vivifica mentre essa appare morta, la manipola mentre essa resiste duramente ad ogni manipolazione, e tramite questo intenso rapporto alla fine (anche se non sempre) ne trae qualcosa, una sorta di “anima” della materia, che poi permea tutta la nostra disciplina.

Noi chimici non abbiamo paura della materia di qualunque natura essa sia; sappiamo che col duro lavoro possiamo trarne qualcosa di buono. Ed ecco perché su questo blog parliamo spesso di materiali che sono di solito “vietati”, proibiti: i rifiuti, gli escrementi, l’acqua sporca; noi sappiamo che da essi possiamo riestrarre cose utili e necessarie, ma dobbiamo avvicinarli senza paura, blandirli, studiarli, renderli innocui e poi trasformarli: il lavoro del chimico!

Un recentissimo lavoro pubblicato su Soft matter, una brillante rivista che parla di materiali soffici, come dice il titolo, ci racconta il perché della forma degli escrementi di mammifero; oggi vi parlerò, insomma, della forma della cacca, argomento ostico, ma non così puzzolente come potreste immaginare.

Dietro questo studio c’è l’osservazione della forma degli escrementi diversi in diversi animali; forse il più famoso è il wombat, un piccolo marsupiale noto a molti perché produce escrementi cubici, una geometria certamente peculiare.

Le feci del wombat.

E ancora più alla base c’è il pensiero espresso da un filosofo slavo, Zizek, il quale con grande serietà spiega come la forma dominante dei WC in diversi paesi possa essere collegata alla diversa mentalità dei popoli; non voglio approfondire questa proposta ideologica, ma vi invito a leggerla e vedrete che me ne sarete grati; come minimo vi strapperà un sorriso, ma non privo di più profonde riflessioni. Colgo l’occasione per dire che personalmente concordo col metodo tedesco di fare la pipì.

Torniamo a noi.

Gli escrementi o fatte degli animali sono costituiti dalle parti solide indigeribili degli alimenti (resti vegetali, ossa, peli, penne etc) e rappresentano ottimi segnali che possono indicare la presenza di una specie in un determinato ambiente; oltre alla presenza di una specie gli escrementi consentono anche di conoscerne le abitudini alimentari poiché spesso al loro interno è possibile riconoscere e identificare i resti indigeriti che aiutano a comprendere le abitudini alimentari dell’animale. Per chiarezza il termine borre invece indica un escremento solido espulso dalla bocca (in genere da uccelli) e che contiene resti di cibo non digeriti; si tratta sostanzialmente di pelo, piume, ossa o materiale vegetale indigeribile pressati in una sorta di capsula simile ad una fatta (la pressatura avviene in uno dei due stomaci che alcuni uccelli posseggono).

Nel caso dei mammiferi le fatte fresche hanno un ruolo sessuale poiché indicano dall’odore la disponibilità dell’animale all’accoppiamento, ma servono anche a marcare il territorio e vengono depositate in luoghi specifici che lo delimitano: “questo è mio” o “io sono qua”, questo il senso e-scatologico.

In altri casi le feci vengono espulse in “corsa”, come avviene al capriolo o al cervo (vedi foto qui sotto).

Ma sebbene molto interessante questo non ci fa avanzare nella comprensione della forma così variabile delle fatte.

Il parametro considerato critico dagli autori è la percentuale di acqua presente nel bolo; il bilancio fra l’acqua liquida e quella vapore cambia durante il percorso e questo comporta, in ragione delle dimensioni del corpo, del diametro del bolo e del tempo la formazione di crack trasversali che spezzano il bolo conferendogli una forma specifica, come riportato nel seguente grafico.

Gli autori sviluppano anche una ipotesi, che però non è confermata dall’analisi numerica, ossia che il processo sia simile a quello che ha generato le formazioni poligonali di Causeway, un sito di interesse geologico.

In realtà, almeno per quanto riguarda il caso umano l’osservazione della relazione fra lo stato delle feci e lo stato della salute del soggetto considerato era stata già fatta e viene espressa nella cosiddetta scala di Bristol sviluppata fin dal 1997 come presidio di valutazione medica.

Diciamo che sebbene possa dare adito a considerazioni buffe o peggio, e superando un naturale(?!) disgusto anche la materia fecale ha un ruolo importante nella nostra vita e nel nostro stato di salute e dunque esiste una chimica e perfino una chimica-fisica delle feci, che però non credo i chimici prendano di solito in considerazione nei loro studi, contravvenenendo ai saggi consigli di Primo Levi. Tenete presente che esiste però una letteratura significativa sul tema della composizione delle feci ma una assai più scarsa sulla dinamica della loro formazione, un soggetto forse spiacevole, ma penso molto interessante e con potenziali ricadute tecniche, mediche ed ingegneristiche (a titolo di esempio una volta fui coinvolto nello studio dei meccanismi per i quali è difficile pulire per bene con metodi automatici le superfici dei gabinetti pubblici, tema non peregrino se fate un viaggio chessò in auto, e vi assicuro che la ragione è perfettamente legata alle proprietà di superficie dei materiali ceramici ma anche alla dinamica dei liquidi, in particolare alla cosiddetta no-slip hypothesis, ma questa è un’altra storia).

Da leggere: https://it.wikipedia.org/wiki/Bristol_stool_scale

https://en.wikipedia.org/wiki/Human_feces

Le macchine molecolari: storia e possibili sviluppi futuri

In evidenza

Rinaldo Cervellati

In questo post traduco, adattandolo, un articolo-review di Mark Peplow, pubblicato su C&EN news il 5 febbraio scorso.

I laboratori di ricerca sulle macchine molecolari aumentano di anno in anno, tanto che si può quasi udire il ronzio immaginario di questi dispositivi su scala nanometrica.

Negli ultimi due decenni, i ricercatori hanno assemblato una stupefacente serie di molecole con parti mobili che agiscono come macchinari in miniatura. Hanno realizzato motori con pale rotanti, pompe che raccolgono molecole dalla soluzione, assemblatori molecolari che mettono insieme peptidi e in grado di leggere i dati memorizzati su fili di nastro molecolare. Tra i pionieri in questo campo troviamo l’italiano Vincenzo Balzani,https://www.scienzainrete.it/contenuto/articolo/pietro-greco/balzani-pioniere-delle-macchine-molecolari-premiate-stoccolma

Jean-Pierre Sauvage, J. Fraser Stoddardt e Bernard L. Feringa che hanno ottenuto il premio Nobel per la chimica 2016.

Cosa possono fare questi dispositivi? Sebbene le applicazioni siano ancora relativamente lontane, i ricercatori stanno iniziando a vedere come le macchine molecolari potrebbero essere sfruttate per compiti utili. Ad esempio i motori molecolari possono flettere le nanofibre o riorganizzare i cristalli liquidi, che possono essere utilizzati per creare materiali reattivi e “intelligenti”.

Ora i ricercatori si stanno ponendo domande più profonde: come funzionano le macchine e come possiamo migliorarle? Le risposte, dicono alcuni, arriveranno studiando la cinetica e la termodinamica di questi sistemi per capire come l’energia e le velocità di reazione li fanno funzionare. Affrontare questi fondamenti potrebbe aiutare il campo a superare un approccio in qualche modo basato su tentativi ed errori alla costruzione di macchine e sviluppare invece un insieme più robusto di principi di progettazione.

I ricercatori stanno già iniziando a mettere a punto i combustibili chimici che guidano alcune macchine molecolari. Stanno anche costruendo macchine molecolari autonome che richiedono meno intervento da parte dei loro operatori umani, fintanto che è presente una scorta di carburante scelta con cura. Ma questa attenzione ai carburanti sta anche suscitando accesi dibattiti sui principi fondamentali del funzionamento di queste macchine. I motori sono forse il tipo più iconico di macchina molecolare. In genere operano attraversando un ciclo ripetuto di reazioni chimiche che modificano la forma della molecola e provocano il movimento, ad esempio la rotazione attorno a un legame o il movimento lungo una traccia. Per evitare che il motore si muova inutilmente avanti e indietro, i ricercatori hanno anche bisogno di un meccanismo che assicuri che si muova in una sola direzione.

Il primo motore molecolare rotativo sintetico completamente funzionante è stato presentato nel 1999 da Ben Feringa, dell’Università di Groningen. L’innovativo motore di Feringa conteneva due voluminosi gruppi chimici collegati da un doppio legame carbonio-carbonio. I gruppi ruotavano attorno a questo asse attraverso una serie di isomerizzazioni indotte dalla luce ultravioletta e dal calore. La chiralità della molecola motrice assicurava che i gruppi ingombranti potessero schiacciarsi l’uno accanto all’altro quando si muovevano in avanti nel ciclo ma non all’indietro [1].

Sulla sua scia sono seguiti dozzine di altri motori guidati dalla luce e sono stati sfruttati per una varietà di compiti, come la produzione di gel sensibili alla luce e il movimento di muscoli artificiali. La luce è una fonte di energia comoda e regolabile e non produce prodotti di scarto.

Fig.1 Questo motore autonomo contiene un anello (blu) che si muove in senso orario attorno a un binario circolare in quattro fasi. I siti di riconoscimento (verdi) ostacolano l’anello, mentre i gruppi ingombranti (rossi) ne impediscono l’avanzamento. Le molecole di carburante (sfere rosse) aggiungono questi gruppi bloccanti, che possono essere rimossi per produrre scorie (sfere arancioni). Copyright: Nature.

Tuttavia, per coloro che cercano di comprendere e imitare le macchine molecolari biologiche, come le proteine motrici che aiutano a trasportare il carico all’interno delle cellule, la luce non è sufficiente. La biologia ha utilizzato con successo pompe e motori molecolari per miliardi di anni, ma generalmente li guida con sostanze chimiche come l’adenosina trifosfato (ATP) piuttosto che con la luce. Per i chimici, quel precedente rappresenta una sfida irresistibile per lo sviluppo di macchine molecolari sintetiche alimentate da processi chimici.

Nel 1999, T. Ross Kelly del Boston College ha compiuto un passo importante verso tale obiettivo sviluppando un prototipo di motore alimentato a fosgene in grado di ruotare di 120° [2]. Sei anni dopo, Feringa costruì un motore rotativo ad azionamento chimico in grado di completare un giro completo attorno a un singolo legame C–C formando e rompendo un lattone che collegava le due unità del motore. Un agente riducente chirale fungeva da combustibile, aprendo il lattone e assicurando che il motore ruotasse in un’unica direzione [3].

I ricercatori hanno ora una serie di altre strategie di rifornimento [4]. Alcuni impiegano una serie di passaggi di protezione e deprotezione che aggiungono o rimuovono gruppi chimici pesanti dalla macchina. Altri variano il pH per far compiere a una macchina un ciclo completo. Un terzo approccio, sviluppato negli anni ’90, dipende da reazioni di ossidazione e riduzione.

La maggior parte di questi dispositivi azionati chimicamente si affida ai loro manipolatori umani per aggiungere il giusto tipo di carburante o altri reagenti in ogni punto del ciclo della macchina.

Ancora più importante, non è così che funzionano le macchine biomolecolari. Nuotano in un mare di molecole di carburante come l’ATP, le raccolgono ogni volta che ne hanno bisogno e operano ininterrottamente. Raggiungere quel tipo di autonomia nelle macchine molecolari sintetiche è un obiettivo importante per il settore.

A differenza dei fotoni, i combustibili chimici forniscono un modo per immagazzinare e trasportare una fonte di energia concentrata a cui le macchine molecolari possono accedere su richiesta [5]. David Leigh (University of Manchester) ritiene che se le macchine possono accedere a una fonte di energia secondo necessità, potrebbero avere una gamma più ampia di applicazioni rispetto ai sistemi non autonomi.

Nel 2016, Leigh ha pubblicato una pietra miliare nella spinta all’autonomia delle macchine. Afferma: “È stato il primo motore autonomo guidato chimicamente”. Il motore è costituito da un anello molecolare che può muoversi su una pista circolare. Ci sono due regioni, chiamate siti di riconoscimento, sui lati opposti della pista, che possono mantenere l’anello in posizione mediante legami a idrogeno. Ciascun sito di riconoscimento si trova vicino a un gruppo idrossilico che reagisce con un combustibile, il cloruro di fluorenilmetossicarbonile (Fmoc-Cl). Questa reazione installa ingombranti gruppi Fmoc sul binario, bloccando il movimento dell’anello [6].

Ma la miscela di reazione contiene anche una base che aiuta a strappare i gruppi bloccanti, permettendo all’anello di passare. Il risultato è che i gruppi Fmoc entrano ed escono costantemente dai siti di ancoraggio idrossilici della traccia. Fondamentalmente, l’impedimento sterico assicura che la reazione per aggiungere un Fmoc avvenga circa cinque volte più velocemente nel sito di ancoraggio che si trova di fronte all’anello.

Da allora, Leigh ha utilizzato una chimica del carburante Fmoc in una pompa autonoma che raccoglie gli eteri dalla soluzione e li inserisce in una lunga catena di stoccaggio [7]. L’avvento di tali dispositivi autonomi ha suscitato entusiasmo, ma alimenta anche un dibattito di lunga data su come funzionino effettivamente le macchine molecolari guidate chimicamente. Ed è qui che le cose si complicano.

Per comprendere questo dibattito, si consideri la chinesina, una macchina biologica proteica che trasporta il carico all’interno delle cellule. La proteina ha due “piedi” che avanzano lungo binari rigidi chiamati microtubuli e il movimento è guidato dall’idrolisi dell’ATP in adenosina difosfato (ADP). Alcuni ricercatori hanno sostenuto che la rottura del forte legame fosfato nell’ATP innesca la chinesina mettendola in uno stato ad alta energia. Il rilassamento della chinesina da questo stato provoca un cambiamento conformazionale che spinge i “piedi” in avanti, uno dopo l’altro.

Questa interpretazione non è corretta, afferma Dean Astumian, un fisico dell’Università del Maine che ha svolto un ruolo chiave nel guidare il pensiero sul funzionamento dei motori molecolari: “Lo dico come un fatto deduttivo, non come un’opinione: i dati sperimentali mostrano che il movimento della chinesina è controllato dalle velocità relative delle reazioni reversibili che coinvolgono anche chinesina, ATP e i loro prodotti.”[8].

Fig. 2 Un combustibile carbodiimmide chirale e un catalizzatore chirale aiutano a garantire che questo motore autonomo ruoti in una direzione. Le frecce tratteggiate mostrano reazioni inverse che sono meno probabili nelle condizioni di reazione. Copyright: Nature

Astumian e altri sostengono che tutte le macchine molecolari guidate chimicamente sono governate dall’asimmetria cinetica in questo tipo di “dente di arresto” browniano. Al contrario, i colpi di potenza sono coinvolti nella guida di macchine guidate dalla luce: la luce eccita il dispositivo in uno stato di alta energia e il suo rilassamento provoca un grande cambiamento meccanico. Questa distinzione nel meccanismo ha importanti implicazioni.

Fig. 3 Il “dente di arresto” autonomo contiene un anello (nero) intrappolato su un binario lineare (grigio). Girando finemente il carburante della macchina, che installa un gruppo barriera (rosa) sul binario, i ricercatori possono migliorare le possibilità dell’anello di assestarsi nel sito di riconoscimento (verde) più lontano dalla barriera. Copyright: J. Am. Chem Soc.

Il modello di “dente di arresto” browniano è ampiamente accettato tra i macchinisti molecolari. Ma alcuni sottolineano che se il ruolo principale di una molecola di combustibile non è quello di fornire energia per far muovere un motore molecolare, non dovrebbe essere chiamata combustibile.

Alcuni ricercatori affermano che il carburante è semplicemente una comoda scorciatoia per qualsiasi reagente che aziona una macchina molecolare.

Per affrontare questo e altri problemi meccanicistici, i ricercatori hanno recentemente delineato una serie di modelli che descrivono la termodinamica e la cinetica alla base delle macchine molecolari. In aprile 2022, Leigh ha presentato un motore autonomo guidato chimicamente che è molto più efficiente del suo esempio del 2016. Il motore beneficia di una migliore reazione di alimentazione e di due fasi distinte che conferiscono ciascuna una certa asimmetria cinetica al suo ciclo di reazione. Il motore contiene una coppia di gruppi arilici che ruotano attorno a un legame singolo C–C formando e rompendo un gruppo di anidride a ponte. I ricercatori usano un combustibile chirale di carbodiimmide e un catalizzatore di idrolisi chirale, assicurando che il motore giri (principalmente) in una direzione [9]

Feringa afferma che il suo team sta effettuando calcoli di meccanica molecolare e altri approcci di modellazione per effettuare progetti di macchine e capire come diverse strutture e sostituenti potrebbero farli funzionare più velocemente e in modo più efficiente. A luglio, i ricercatori hanno mostrato un motore autonomo che funziona con carbodiimmide in ambiente acido ma ruota formando e rompendo un estere a ponte [10].

Leigh sta anche modificando i suoi carburanti per migliorarne le prestazioni. A settembre, il suo team ha dimostrato tale approccio su un “dente di arresto” autonomo che contiene un anello intrappolato su un binario lineare [11].

Per ora, tutte queste macchine autonome alimentate chimicamente sono dispositivi di prova che non svolgono compiti utili. Ma Leigh ci sta lavorando. In collaborazione con Katsonis dell’Università di Groningen, ad esempio, spera di manipolare i cristalli liquidi con i suoi motori alimentati chimicamente, cosa già ottenuta con i motori azionati dalla luce. Katsonis afferma che il progetto sta evidenziando una delle difficoltà per i sistemi alimentati chimicamente: come gestire i loro prodotti di scarto. I rifiuti chimici prodotti dalle reazioni di alimentazione possono alterare le condizioni di reazione come il pH o legarsi alla macchina in modi che ostacolano l’accesso a ulteriori molecole di carburante.  Le molecole di scarto potrebbero essere riciclate in carburante, proprio come la natura trasforma l’ADP in ATP. Per raggiungere questo obiettivo, i ricercatori dovranno sviluppare una gamma più ampia di carburanti per macchine autonome.

Nel frattempo, un’altra fonte di energia sta venendo alla ribalta. Stoddart ha recentemente sviluppato un motore molecolare che utilizza un meccanismo redox azionato direttamente dall’elettricità [12]. Di fronte alla sana concorrenza della luce e dell’elettricità, le macchine autonome alimentate chimicamente ora devono dimostrare di poter svolgere una varietà di utili funzioni meccaniche, afferma Feringa: “Questa è la cosa più interessante e importante, e questa è la grande sfida”

Bibliografia

[1] N. Komura et al., Light-driven monodirectional molecular rotor, Nature, 1999, 401, 152-155.

[2] T. Ross Kelly, H. De Silva, R. De Silva, Unidirectional rotary motion in a molecular system, Nature, 1999, 401, 150-152.

[3] S.B. Fletcher et al., A Reversible, Unidirectional Molecular Rotary Motor Driven by Chemical Energy, Science, 2005, 310, 80-82.

[4] R. Benny et al., Recent Advances in Fuel-Driven Molecular Switches and Machines, Chemistry Open, 2022, 9, 1-21.

[5] S. Borsley, D.A. Leigh. BMW. Roberts, Chemical fuels for molecular machinery, Nature Methods, 2022, 14, 728-738.

[6] M.R. Wilson et al., An autonomous chemically fuelled small-molecule motor, Nature, 2016, 534235–240.

[7] S. Amano, S.D.P. Fielding, D.A. Leigh, A catalysis-driven artificial molecular pump, Nature, 2021, 594, 529–534.

[8] R. D. AstumianS. MukherjeeA. Warshel, The Physics and Physical Chemistry of Molecular Machines, ChemPhysChem, 2016, 17, 1719-1741.

[9] S. Borsley et al., Autonomous fuelled directional rotation about a covalent single bond, Nature, 2022, 604, 80–85.

[10] K. Mo et al., Intrinsically unidirectional chemically fuelled rotary molecular motors, Nature, 2022, 609, 293–298.

[11] S. Borsley et al., Tuning the Force, Speed, and Efficiency of an Autonomous Chemically Fueled Information Ratchet,J. Am. Chem. Soc., 2022, 144, 17241–17248.

[12] L. Zhang et al., An electric molecular motor, Nature, 2023, 613, 280–286.

Terra bruciata

In evidenza

Mauro Icardi

James. G Ballard scrittore inglese, che sarebbe riduttivo definire unicamente autore di libri di fantascienza, nel 1964 pubblica un libro che viene tradotto in Italiano con il titolo di “Terra Bruciata”.

È il libro che sto leggendo in questi giorni, attirato sia dall’immagine di copertina di Karel Thole, il grafico olandese che disegnò le copertine della collana di fantascienza “Urania”, che dallo stile letterario di Ballard. Caustico, molto critico nei confronti della società contemporanea e delle sue palesi contraddizioni, che l’autore mette a nudo con racconti quasi surreali.

In questo libro l’autore immagina un pianeta terra piegato dalla siccità. Sono bastate pochissime righe per provare quella gradevole sensazione, quella specie di scossa elettrica che sento quando mi rendo conto di aver trovato un libro che ti incolla alla pagina, uno di quelli che ti fa restare alzato a leggere fino ad ora tarda.

Nelle prime pagine del libro un brano mi ha particolarmente colpito: “La pioggia! Al ricordo di quello che la parola significava un tempo, Ransom alzò lo sguardo al cielo. Completamente libero da nuvole o vapori, il sole incombeva sopra la sua testa come un genio perennemente vigile. Le strade e i campi adiacenti al fiume erano inondati dalla stessa invariabile luce, vitreo immobile baldacchino che imbalsamava ogni cosa nel suo calore”.

Personalmente queste poche righe mi hanno ricordato la situazione del Fiume Po la scorsa estate.

 Nella trama del romanzo si immagina una migrazione umana sulle rive dell’oceano dove si sono dissalati milioni di metri cubi di acqua marina, e dove le spiagge sono ormai ridotte a saline, ugualmente inospitali per la vita degli esseri umani, così come le zone interne,dove fiumi e laghi stanno lentamente prosciugandosi.

So molto bene che molte persone storcono il naso quando si parla di fantascienza ,senza probabilmente averne mai letto un solo libro,probabilmente per una sorta di snobismo preconcetto. La mia non vuole essere una critica, è solmente una mia personale constatazione. Ma non posso fare a meno di pubblicare su questo post un’altra foto,drammaticamente significativa.

L’immagine scattata dal satellite Copernicus, mostra la situazione del Po a nord di Voghera lo scorso 15 Febbraio. La foto è chiarissima. Rimane valido il motto che dice che un’immagine vale più di mille parole.

Ecco è proprio dalle parole che vorrei partire per chiarire alcuni concetti, porre degli interrogativi a me stesso, e a chi leggerà queste righe.

Parole. Quali parole possiamo ancora usare per convincere chi nemmeno davanti a queste immagini prende coscienza del problema siccità, continuando ostinatamente a negare l’evidenza, esprimendosi con dei triti e tristi luoghi comuni.

Uno fra i tanti, un messaggio inviato alla trasmissione di radio 3 “Prima pagina”. Quando la giornalista lo legge in diretta io rimango sbalordito. L’ascoltatore che lo ha inviato scrive testualmente. “Il riscaldamento globale è un falso problema, tra 100 anni saremo in grado di colonizzare altri pianeti e di sfruttare le loro risorse”. Giustamente la conduttrice risponde che non abbiamo cento anni di tempo. I problemi sono qui e adesso.

Il senso di sbigottimento rimane anche mentre sto terminando di scrivere questo post.  Uscendo in bicicletta nel pomeriggio ho potuto vedere palesemente la sofferenza dei corsi d’acqua in provincia di Varese: il Tresa e il Margorabbia ridotti a dei rigagnoli. Ho visto terreni aridi e molti torrenti della zona prealpina completamente asciutti.

Quali parole possiamo ancora usare, parole che facciano capire l’importanza dell’acqua? L’acqua è indispensabile alla vita penso di averlo letto nelle prefazioni praticamente di ogni libro che si occupasse del tema. Mentre scrivo, in un inverno dove non ho visto un fiocco di neve nella zona dove vivo, leggo l’intervista fatta a Massimiliano Pasqui, climatologo del CNR, che dichiara che ci servirebbero 50 giorni di pioggia per contenere il problema della siccità nel Nord Italia. Il deficit idrico del Nord Ovest ammonta a 500 mm. Le Alpi sono un territorio fragile, i ghiacciai arretrano. Lo speciale Tg1 dedica una puntata ai problemi dei territori dell’arco alpino. Ma buona parte delle persone intervistate sono preoccupate unicamente per il destino delle stazioni sciistiche. Solo una guida alpina valdostana suggerisce un nuovo modo per godere la montagna, uscendo dal pensiero unico che vuole che in montagna si vada unicamente per sciare. Una biologa che si occupa della microfauna dei torrenti alpini ricorda l’importanza della biodiversità e delle catene alimentari che la riduzione delle portate può compromettere.  Un sindaco della zona prealpina del comasco, difende l’idea di creare una pista di innevamento artificiale a 1400 metri di quota, quando ormai lo zero termico si sta situando intorno ai 3000. Non posso pensare ad altro se non ad una sorta di dipendenza. Non da gioco d’azzardo o da alcol, ma una dipendenza che ci offusca il ragionamento. Mi vengono in mente altre parole, le parole di un proverbio contadino: “Sotto la neve pane, sotto la pioggia fame”. Ma anche di pioggia se ne sta vedendo poca nel Nord Italia, e la neve sembra essere un ricordo in molte zone.

Il Piemonte sta diventando arido. Mia cugina che vive nelle terre dei miei nonni, nel Monferrato, mi informa che alcuni contadini stanno pensando di piantare fichi d’india. Nei vigneti il legno delle piante è secco e asciutto e la pianta sembra essere in uno stato sicuramente non di piena salute. Ci si accorge di questo anche nel momento in cui si lega il tralcio al primo fil di ferro per indirizzare la crescita della pianta: si ha timore di spezzarlo.

Ritorno per un attimo al libro di Ballard. Nella prefazione trovo un passaggio interessante: nel libro l’autore ci parla della siccità che ha immaginato, non in maniera convenzionale. Ci sono nel libro descrizioni di siccità e arsura, ma quello che emerge dalla lettura è il fantasma dell’acqua. Ballard ha sempre evitato i temi della fantascienza classica, viaggi nello spazio e nel tempo, incontri con civiltà aliene.

Ha preferito narrare e immaginare le catastrofi e le decadenze del futuro prossimo. Ma sono catastrofi particolari. Sono cioè catastrofi che “piacciono” ai protagonisti.  Che quasi si compiacciono di quello che si sta svolgendo sotto i loro occhi. Vale per i protagonisti di “Deserto d’acqua e di “Condominium”. Il primo si compiace della spaventosa inondazione che ha sommerso Londra, il secondo racconta le vicende degli inquilini di un condominio di nuova generazione, dove una serie di black out e dissidi tra vicini fanno regredire tutti gli inquilini allo stato di uomini primitivi.

Terra bruciata invece ci mostra un’umanità che deve fare i conti con la mancanza ed il ricordo del composto linfa, H2O. La formula chimica probabilmente più conosciuta in assoluto. Conosciamo a memoria la formula, ma forse non conosciamo affatto l’acqua.  E a volte è uno scrittore come Ballard che riesce ad essere più diretto nel mostrarci quello che rischiamo non preservandola e dandola per scontata. L’indifferenza, la mercificazione indotta, le nostre percezioni errate, lo sfruttamento del composto indispensabile alla vita ci stanno rivelando come anche noi ci stiamo forse compiacendo o abituando a situazioni surreali. Sul web ho visto la pubblicità di una marca di borracce che ci ingannano. Borracce con sedicenti pod aromatizzati che ti danno la sensazione di stare bevendo acqua aromatizzata. Riporto dal sito, senza citare per ovvie ragioni la marca.

Tu bevi acqua allo stato puro. Ma i Pod aromatizzati fanno credere al tuo cervello che stai provando sapori diversi come Ciliegia, Pesca e molti altri.

Naturalmente gustosi. Tutti i nostri Pod contengono aromi naturali e sono vegetariani e vegani.

Idratazione sana. Prova il gusto senza zuccheri, calorie o additivi.

E ‘scienza (anche se ci piace pensare che sia anche un po’ magia). Il tuo centro olfattivo percepisce l’aroma come se fosse gusto, e fa credere al tuo cervello che tu stia bevendo acqua con un sapore specifico.”

Trovo questa pubblicità davvero agghiacciante.

Mi sto chiedendo ormai da diverso tempo come possiamo opporci a questa deriva. Ho letto diversi romanzi di fantascienza sociologica che immaginano società distopiche. Ma francamente mi sembra che non sia più necessario leggerla. In realtà mi sembra tristemente che siamo molto vicine a vivere in una società distopica. Sull’onnipresente rifiuto di bere acqua di rubinetto con la motivazione che “sa di cloro” o addirittura “che fa schifo”, qualcuno costruisce il business delle borracce ingannatrici. Ormai l’acqua non è più il composto vitale. E ‘un composto puro ma che deve essere migliorato. Qualcuno mette in commercio acqua aromatizzata, qualcun altro ci vuole vendere borracce che ci fanno credere che lo sia.

Mi chiedo davvero cosa sia andato storto, e quando recupereremo non dico la razionalità ma almeno il buon senso comune. E intanto possiamo aspettare fiduciosi la stagione estiva.

Giacimenti di idrogeno

In evidenza

Claudio Della Volpe

Quando si parla di idrogeno viene subito necessario chiarire che si tratta di un vettore di energia perché – si dice- non esistono giacimenti di idrogeno sul nostro pianeta; questo nonostante l’idrogeno sia l’elemento più diffuso dell’universo e anche il più antico degli elementi, quello che si è formato per primo e anche il motore basico dell’energia delle stelle.

Ma questa descrizione è del tutto vera e corretta? Abbiamo parlato ripetutamente del ciclo dell’idrogeno e delle sue peculiarità, per esempio qui  e qui. Ma mai dell’idrogeno naturale.

Lavori che mostravano l’esistenza di risorse “naturali” di idrogeno risalgono almeno al 1962 (World Oil, nov, pag 78), ma il dubbio esiste ufficialmente fin dal 1990, quando un ingegnere minerario, H.C. Petersen scriveva (Int. J. Hydrogen Energy,Vol. 15,No. 1,p. 55, 1990) in una lettera alla rivista, raccontando di aver cercato l’elio nei campioni di gas che gli provenivano da parecchi giacimenti americani, ma di aver trovato anche idrogeno in percentuali che erano significative; e rivelando che, a suo parere, in Kansas and Iowa erano stati perforati pozzi dalla Texaco alla ricerca specifica di idrogeno.,

Da allora sono stati pubblicati un piccolo numero di lavori riguardanti la ricerca di giacimenti di idrogeno; il più famoso dei quali si trova, al momento, in Mali, in Africa.

Nella prima di queste review (1) del 2005 gli autori scrivevano:

Nella medesima review si sosteneva che le risorse di idrogeno “naturale” erano prodotte in massima parte da processi di serpentinizzazione in rocce ultramafiche o ultrabasiche, rocce ignee con contenuto molto basso, meno del 45%, di silice (che esalta l’acidità), generalmente percentuale superiore al 18% di ossidi di magnesio, ossidi ferrosi elevati, basso contenuto in potassio, e sono composte principalmente da minerali femici (ossia contenenti ferro e magnesio).

Queste condizioni erano estranee a quelle dei comuni giacimenti di petrolio e necessitavano dunque di una ricerca specifica.

Per confronto il lavoro mostra la diversa composizione in idrogeno di un tipico deposito carbonifero e quella invece di depositi ultramafici ricchi di idrogeno.

La reazione principale per la formazione di idrogeno è proposta in questa forma:

In definitiva i depositi di ferro ferroso servono da riducenti dell’acqua geologica formando cospicue quantità di idrogeno e di ferro ferrico. Secondo un lavoro del 1979 (2) la quantità di idrogeno che viene ceduta all’intero oceano da questi processi assommerebbe a sole 70 ton al giorno, 25mila ton/anno; e come si sa la quantità di idrogeno presente in atmosfera è particolarmente limitata, dell’ordine di un paio di centinaia di Mton.

Una review più recente del 2019 (3) al contrario stima in circa 23Mton/anno il flusso geologico di idrogeno da tutte le sorgenti verso l’atmosfera, dunque dell’ordine del 10% del deposito atmosferico, che come abbiamo raccontato altrove si disperde nello spazio a causa della bassa gravità terrestre.

Nella review si dice:

“Da un punto di vista geologico, l’idrogeno è stato trascurato”. Questo è stato scritto da Nigel Smith e colleghi più di un decennio fa in un articolo del 2005, che sembra essere l’ultima iniziativa in una revisione dell’idrogeno naturale (Smith et al., 2005). Nel 2019 questa affermazione è ancora valida. Sospetto che ciò sia dovuto a un pregiudizio esistente secondo cui l’idrogeno libero in natura è raro, e le descrizioni delle poche scoperte conosciute sono aneddotiche e per qualche motivo raccolgono pochissima attenzione. Pertanto, se nessuno si aspetta di trovare idrogeno libero, nessuno lo campiona. Questo pregiudizio influenza il modo in cui i campioni di gas vengono analizzati e campionati, ma anche il modo in cui i sistemi di rilevamento sono progettati. L’approccio analitico standard per la gascromatografia utilizza spesso l’idrogeno come gas di trasporto (Angino et al., 1984). Per questo motivo, se c’è idrogeno in un campione di gas, non verrà rilevato. È stato riferito che anche nel 1990, molte indagini non erano attrezzate per analizzare l’idrogeno (Smith, 2002). È ancora vero, fino ad oggi, che solo pochi gas-analizzatori portatili moderni utilizzati nelle scienze naturali includono un sensore di idrogeno nel loro design. È difficile stimare quante volte l’idrogeno non è stato identificato in campioni ricchi di H2 a causa della mancanza di una tecnica di rilevamento adeguata per misurare le concentrazioni di idrogeno.

Questo spiega perché a tutt’oggi non abbiamo idea precisa delle effettive dimensioni degli eventuali giacimenti mondiali di idrogeno naturale.

Nella review del 2020 esiste tuttavia una mappa, dalla quale si potrebbe erroneamente pensare che ci sono più depositi in Europa e Russia, ma questo dipende solo dal maggior numero di analisi condotte:

Il giacimento più famoso e sfruttato al momento è quello scoperto in Mali. La sua scoperta è stata raccontata in un recente articolo su Science (17 FEBRUARY 2023 • VOL 379 ISSUE 6633 631 )

All’ombra di un albero di mango, Mamadou Ngulo Konaré ha raccontato l’evento leggendario della sua infanzia. Nel 1987, gli scavatori di pozzi erano venuti al suo villaggio di Bourakébougou, Mali, per trivellare l’acqua, ma avevano rinunciato a un pozzo asciutto a una profondità di 108 metri. “Nel frattempo, il vento stava uscendo dal buco”, ha detto Konaré. Denis Brière, petrophyfisico e vicepresidente di Chapman Petroleum Engineering, nel 2012. Quando un perforatore ha sbirciato nel buco mentre fumava una sigaretta, il vento gli è esploso in faccia. “Non è morto, ma è stato bruciato”, ha continuato Konaré. “E abbiamo avuto un enorme incendio. Il colore del fuoco durante il giorno era come l’acqua frizzante blu e non aveva inquinamento da fumo nero. Il colore del fuoco di notte era come oro splendente, e in tutti i campi potevamo vederci nella luce…. Avevamo molta paura che il nostro villaggio sarebbe stato distrutto”.

Un racconto ed una descrizione più tecnica si ha nella ref. (5)

Questo ci aiuta a capire che si tratta di riserve di idrogeno NON FOSSILI è bene confermarlo, non dipendenti da processi di trasformazione petrolifera e dunque non soggetti ai medesimi limiti, ma comunque limitati nel loro sviluppo complessivo; sono tecnicamente rinnovabili se non usate al di sopra della loro limitata velocità di riproduzione.

I serbatoi di idrogeno relativamente puri sono associati a tracce di metano, azoto ed elio. L’accumulo geologico stratigrafico di idrogeno è legato alla presenza di davanzali e falde acquifere doleritiche sovrapposte che sembrano svolgere un ruolo per disabilitare la migrazione e la dispersione di gas verso l’alto. Il verificarsi di una miscela di gas e acqua che agisce con un’attività artesiana conferma la presenza di fluidi sovra-pressati. Ciò si traduce in un fluido di superficie difasico eruttivo di tipo geyser in molti dei pozzi. Il sistema di “sollevamento del gas” e la presenza di tracce di monossido di carbonio altamente instabile è legato a una recente carica di idrogeno gassoso ai serbatoi dalle falde acquifere sotterranee, in eruzione con l’acqua associata. I pozzi del Mali sottolineano la fonte non fossile di idrogeno gassoso e presentano caratteristiche di un’energia sostenibile. L’attuale stima del suo prezzo di sfruttamento è molto più economica dell’idrogeno fabbricato, sia da combustibili fossili che dall’elettrolisi.

Al momento mi sembra di poter dire che dunque esistono giacimenti sia pur limitati di idrogeno abbastanza puro nella crosta terrestre, da sorgenti non fossili, nel senso non dipendenti da depositi di tipo petrolifero, o carbonifero, ma solo da processi puramente geochimici ed in potenza rinnovabili; tuttavia la loro presenza SEMBRA limitata e potrebbe dunque dare solo un limitato apporto ad un’economia rinnovabile, probabilmente significativa solo in certi luoghi. Rimane però che non esistono ancora precise descrizioni e  valutazioni delle dimensioni di queste riserve di idrogeno naturale e che il campo si svilupperà fortemente nei prossimi anni

Sono sicuro che torneremo sull’argomento; infatti proprio perché l’interesse per queste tematiche è enorme  serve chiarirne bene i contorni e l’importanza.

1 Hydrogen exploration: a review of global hydrogen accumulations and implications for prospective areas in NW Europe
SMITH, N. J. P. et al.
Geological Society, London, Petroleum Geology Conference Series (2005), 6 (1): 349
https://doi.org/10.1144/0060349

Scuola Salesiana.

In evidenza

Luigi Campanella, già Presidente SCI

Già in altre occasioni ho parlato dei Salesiani e della loro capacità di anticipare i tempi. È successo in occasione della raccolta differenziata, della nutraceutica, oggi avviene per il contrasto agli abbandoni scolastici.

Da quasi un secolo a Palermo i Salesiani accompagnano generazioni di studenti attraverso una gestione della scuola “circolare” fondata sulla responsabilità condivisa della comunità educativa. Già la sede, sopravvissuta indenne alla seconda guerra mondiale, rappresentava un impegno: trasformata da spazio di sollazzo di casati in decadenza in scuola ed oratorio. La visione antropocentrica della vita e lo studio dell’economia sono da sempre i suoi connotati primari

La secondaria di primo grado accompagna gli studenti alla scoperta del proprio talento attraverso il dialogo e la proficua relazione fra giovani ed educatori. Ogni allievo cresce attraverso una combinazione di formazione e di educazione alla vita, financo a farlo abituare sin dalle aule alla competizione concorsuale ed ai laboratori professionali. Molta attenzione è anche riservata alle lingue con full immersion nei relativi laboratori, ma in una visione non solo economica, ma anche culturale, così con uno sguardo ad esempio all’arabo, oltre ai tradizionali inglese, francese e spagnolo.

Villa Ranchibile, sede Istituto Salesiano Don Bosco di Palermo

Nella Scuola Secondaria di Secondo Grado multiculturalità, apertura e dialogo con Paesi vicini e lontani sono le coordinate. Sul piano delle software skills, ossia delle competenze trasversali spendibili in qualsiasi ambito di lavoro, è attiva una Sala Confezione Telegiornale. È poi previsto un tempo da dedicare alla lettura ed interpretazione dei social, da un punto di vista grafico e contenutistico. La sala robotica corrisponde perfettamente alle esigenze della didattica 4.0: il confronto continuo con le istituzioni accademiche garantisce la scelta professionale più idonea.

Due altre attività di certo qualificanti riguardano l’educazione al Teatro sia come spettatori che come attori e l’educazione alla legalità. L’alternanza Scuola Lavoro è realizzata in modo nuovo senza creare le fasi di confusione ed incertezza proprie del metodo nella forma attuale ed avviene sotto la guida di CNR, Agenzia delle Entrate, Istituti Finanziari.

Visite culturali, molto innovativa e moderna quella realizzata a Wall Street, e comunicazione sociale completano questo quadro formativo, al tempo stesso tradizionale ed innovativo.

Come si comprende una scuola diversa da quella tradizionale generalmente basata sulla monoculturalitá che funge da base per caratterizzare l’offerta, dimenticando però la multiculturalità che caratterizza la domanda è che se rispettata può fungere da incentivo a superare i momenti difficili e ridurre gli abbandoni.

C’è bisogno della fusione nucleare?

In evidenza

Vincenzo Balzani

(pubblicato su Avvenire-Bo del19 febbraio 2023)

Sia la fissione nucleare (scissione di un nucleo atomico pesante in nuclei più leggeri) che la fusione nucleare (unione tra nuclei leggeri per formare un nucleo più pesante) convertono piccole quantità di massa (m) in enormi quantità di energia (E), come schematizzato dall’ equazione di Einstein E=mc2, dove c indica la velocità della luce (300.000 km/s). Sia la fissione che la fusione nucleare sono state usate per creare armi di incredibile potenza sin dal 1950. La produzione di energia elettrica da fissione nucleare, realizzata per la prima volta nel 1954, è oggi usata in alcuni paesi fra molte polemiche, a causa dei numerosi problemi che la caratterizzano, quali la produzione di scorie radioattive pericolose per decine di migliaia di anni, che non si sa dove collocare.

Nel 1955 è stata preconizzata la possibilità di ottenere entro due decenni energia elettrica dalla fusione nucleare, risolvendo definitivamente il problema energetico su scala mondiale. Questa (fra due decenni …) è stata riproposta più volte dal 1955 ad oggi. In realtà, nonostante i grandi capitali investiti, finora non sono stati fatti passi significativi, a dispetto della spasmodica attesa di politici, economisti e mezzi di comunicazione.

L’episodio più eclatante è avvenuto il 13 dicembre scorso, quando i giornali di tutto il mondo hanno riportato che la National Ignition Facility (NIF) del Laurence Livermore National Laboratory (USA) aveva ottenuto un importantissimo risultato:  focalizzando l’energia di 192 laser su una sferetta contenente deuterio e trizio (due isotopi dell’idrogeno), si è provocata in pochi nanosecondi la loro fusione generando una quantità di energia (3,15 MJ), leggermente maggiore di quella iniettata dai laser nella sferetta (2.05 MJ).  Da notare, però, che i 192 laser hanno consumato circa 400 MJ, ai quali va aggiunta l’energia usata dalle altre apparecchiature utilizzate nell’esperimento.

Per applicazioni commerciali della fusione nucleare, oltre a generare più energia di quella consumata, si deve vincere un’altra sfida ancora più difficile: costruire un’apparecchiatura che funzioni non per pochi miliardesimi di secondo, ma in modo continuo. Oltre ad altri numerosi problemi tecnici difficili da affrontare, c’è anche quello che il trizio. Si tratta di un gas  radioattivo che non esiste in natura, decade con un tempo di semivita di soli 12 anni e si ottiene con una reazione nucleare di un isotopo del litio, dopo averlo arricchito dal 6% al 90% con un costosissimo processo.

Spendere miliardi di dollari nel tentativo di generare elettricità mediante un processo che molti scienziati giudicano irrealizzabile serve solo ad ostacolare il definitivo sviluppo delle energie rinnovabili che, con una frazione di quei finanziamenti, potrebbero risolvere gli ultimi loro problemi e fornire al pianeta energia elettrica senza provocare il cambiamento climatico, senza generare scorie radioattive e senza facilitare la costruzione di armi atomiche. Già, perché è bene ricordare che il compito primario del NIF e degli altri laboratori di questo tipo non è la produzione di energia, ma lo studio della fusione per scopi bellici.

Una nuova forma amorfa di ghiaccio

In evidenza

Diego Tesauro

E’ noto che l’acqua ha un diagramma di fase complesso (Figura 1), in quanto nella fase solida ha ben 20 fasi cristalline, molte delle quali scoperte anche recentemente (tre nuove fasi cristalline solo negli ultimi 5 anni).

Figura 1 Diagramma di stato dell’acqua e delle diverse forme di ghiaccio

Oltre alle forme cristalline, attualmente, si annoverano delle forme amorfe.

Il ghiaccio amorfo a bassa densità (LDA) è stato prodotto per la prima volta negli anni ’30 dal congelamento del vapore acqueo su una superficie molto fredda, a una temperatura inferiore a -150°C (1).

Il ghiaccio amorfo ad alta densità (HDA) negli anni ’80 è stato prodotto dalla compressione del ghiaccio Ih (la forma più diffusa nelle condizioni di pressione ambiente con la classica struttura solida esagonale) o dal LDA a basse temperature (2).

Il riscaldamento dell’HDA sotto pressione produce ghiaccio amorfo espanso ad alta densità (eHDA) o ad altissima densità (vHDA), come riportato nei primi anni di questo secolo.

Come suggeriscono i loro nomi, i ghiacci amorfi si distinguono principalmente per la loro densità, con LDA che ha una densità di 0,94 g cm–3 e gli HDA partono da 1,13 g cm–3 a pressione ambiente e 77 K. Queste due forme lasciano un “buco” nelle densità attorno alla densità dell’acqua liquida (1 g cm–3) che non è riempito da nessuna fase cristallina nota.

Questo divario, e la questione se i ghiacci amorfi abbiano stati liquidi corrispondenti al di sotto di un punto critico liquido-liquido (Tale punto denota condizioni di temperatura, pressione e composizione oltre le quali una miscela si separerà in due o più fasi liquide differenti), è un argomento di grande interesse per quanto riguarda la spiegazione delle numerose anomalie dell’acqua (3).

Inoltre lo studio dei ghiacci amorfi è di grande interesse perché è quello più abbondante nello spazio. Infatti se queste due forme di ghiaccio sono molto poco comuni sulla Terra, entrambe sono abbondanti ad esempio nelle comete, che come è noto dalla famosa definizione di Whipple sono “palle di neve sporca”, quindi corpi di ghiaccio amorfo a bassa densità.

A queste due forme si deve aggiungere una nuova forma di ghiaccio amorfo che andrebbe a colmare il vuoto intorno alla densità 1 g cm-1, come riportato da un articolo apparso su Science del febbraio ’23 (4).

Per poterlo ottenere questa nuova forma si è ricorsi alla macinazione a sfere, una tecnica consolidata per la produzione di materiali amorfi.  Al centro dei processi di amorfizzazione ci sono impatti cristallo-sfera che esercitano una combinazione di forze di compressione e di taglio sui materiali di partenza cristallini. Sebbene gli effetti di fusione locale siano stati attribuiti come origine dell’amorfizzazione la principale forza trainante del processo sembra essere l’introduzione di difetti di dislocazione. Per ottenere il ghiaccio amorfo con una densità intermedia tra LDA e HDA è stato raffreddato del ghiaccio Ih preventivamente a 77 k con azoto liquido con sfere di acciaio inossidabile. Per ottenere l’amorfizzazione, l’intero assemblaggio è stato agitato vigorosamente per 80 cicli di macinazione a sfere. Il ghiaccio appariva a questo punto come una polvere granulare bianca che si attaccava alle sfere di metallo. La caratterizzazione mediante diffrazione dei raggi X mostra massimi di picco a 1,93 e 3,04 Å–1. Un confronto con i modelli di diffrazione con gli altri ghiacci amorfi evidenzia che il ghiaccio amorfo ottenuto attraverso la macinazione a sfere è strutturalmente diverso. La corrispondenza più vicina in termini di posizioni delle molecole è l’HDA. Tuttavia, contrariamente all’HDA, il ghiaccio amorfo ottenuto non si trasforma in LDA a seguito di riscaldamento a pressione ambiente. Invece, i modelli di diffrazione raccolti, a seguito del riscaldamento, mostrano la ricristallizzazione a seguito di impilazione del ghiaccio disordinato (ghiaccio Isd) sopra i 140 K che successivamente si trasforma nel ghiaccio stabile Ih. L’identificazione sperimentale di MDA mostra che il poliamorfismo di H2O è più complesso di quanto precedentemente stimato a seguito dell’esistenza di più stati amorfi distinti.

Una domanda chiave è se l’MDA debba essere considerato come uno stato vetroso dell’acqua liquida. La natura vitrea di LDA e HDA è ancora dibattuta e una serie di diversi scenari si materializzano con la scoperta di MDA. Una possibilità degna di nota è che MDA rappresenti la fase vetrosa dell’acqua liquida, questa ipotesi sarebbe supportata dalle densità simili e dalle caratteristiche di diffrazione. Ciò non violerebbe necessariamente la ben nota ipotesi del punto critico liquido-liquido, ma MDA dovrebbe avere una temperatura di transizione vetrosa al di sopra del punto critico liquido-liquido. Di conseguenza, MDA rappresenterebbe acqua liquida prima che la separazione di fase in LDA e HDA avvenga a temperature inferiori al punto critico liquido-liquido. Coerentemente con questo scenario, MDA non mostra una transizione vetrosa al di sotto della temperatura di ricristallizzazione a 150 K nonostante l’esteso riscaldamento a una gamma di temperature diverse. Di conseguenza, MDA sarebbe metastabile rispetto a LDA o HDA a basse temperature e a tutte le pressioni.

In alternativa, potrebbe esistere un intervallo di pressione a basse temperature entro il quale MDA è più stabile di LDA e HDA. Tuttavia, a causa della cinetica generalmente lenta a basse temperature, i due scenari sono difficili da distinguere. Il riscaldamento dell’MDA a pressione ambiente non porta alla formazione di LDA e l’MDA è rimasto stabile dopo il riscaldamento alle condizioni p/T dell’eHDA. La compressione di MDA a 77 K, al contrario, mostra una transizione a HDA con una variazione graduale del volume a una pressione iniziale di ~ 1, 1 GPa. Coerentemente con la maggiore densità di MDA rispetto al ghiaccio Ih, la variazione graduale di volume è minore rispetto alla corrispondente transizione della stessa quantità di ghiaccio Ih. La pressione iniziale della transizione da MDA a HDA dopo la compressione è a una pressione più alta rispetto alla transizione da LDA a HDA a 0,5 GPa.

Un terzo scenario è rappresentato dal fatto che MDA non è un liquido vetroso, ma piuttosto uno stato cristallino fortemente tagliato che manca di connessione con la fase liquida. Qualunque sia la precisa natura strutturale di MDA, ci si aspetta che svolga un ruolo nella geologia del ghiaccio a basse temperature, ad esempio nei numerosi corpi planetari come i satelliti di ghiaccio del sistema solare. Infatti alcuni satelliti del nostro Sistema Solare, come uno dei 4 satelliti galileiani di Giove, Europa (Figura 2), e il satellite di Saturno Encelado (Figura 2), hanno superfici ghiacciate.

Zooming In On Enceladus (Movie)

Figura 2 Sopra il satellite Europa ripresa dalla sonda Galileo della NASA.Sotto la superficie di Encelado catturata dalla navicella spaziale Cassini della NASA.

Se due aree ghiacciate dovessero sfregare l’una contro l’altra, a causa delle forze di marea, potrebbero produrre ghiaccio amorfo di media densità, facilitando la transizione del ghiaccio Ih. Si riproduce quindi lo stesso processo a condizione che queste si verifichino in un intervallo di temperatura e pressione simile a quello verificato in laboratorio dai ricercatori. Le forze di marea all’interno delle lune di ghiaccio sono indotte dalle forze gravitazionali dei giganti gassosi. L’aumento della densità potrebbe creare spazi vuoti nella superficie, producendo interruzioni mentre il ghiaccio si rompe tutto insieme. Ci sarebbe un crollo massiccio del ghiaccio che comporterebbe implicazioni per la geofisica delle lune ghiacciate.

Questo potrebbe, a sua volta, avere implicazioni per la potenziale abitabilità da parte di esseri viventi degli oceani di acqua liquida che si trovano sotto le superfici ghiacciate di questi satelliti. Uno degli aspetti fondamentali è se si può avere un’interfaccia tra l’acqua liquida e le rocce. In queste condizioni potrebbe emergere la vita ed il ghiaccio amorfo potrebbe avere un ruolo che è da investigare.

Se confermata, la nuova forma di ghiaccio potrebbe quindi consentire studi sull’acqua in un modo che prima non era possibile. L’acqua liquida è un materiale strano ed ancora non ne sappiamo quanto vorremmo. Ad esempio, si pensa comunemente che l’acqua sia composta da due forme, acqua a bassa densità e acqua ad alta densità, corrispondenti alle varianti precedentemente note del ghiaccio amorfo.

La scoperta di un ghiaccio amorfo di media densità potrebbe sfidare questa idea.

1. E. F. Burton, W. F. Oliver, The Crystal Structure of Ice at Low Temperatures. Proc. R. Soc. Lond.153, 166–172 (1935).

2. O. Mishima, L. D. Calvert, E. Whalley, An Apparently First-order Transition Between Two Amorphous Phases of Ice Induced by Pressure. Nature 314, 76–78 (1985).

3. P.G. Debenedetti, F. Sciortino, G.H. Zerze Second critical point in two realistic models of water Science 369 (6501), 289-292 (2020) https://org.doi/10.1126/science.abb9796.

4. A. Rosu-Finsen, M.B. Davies, A. Amon, H. Wu, A. Sella, A. Michaelides, C.G. Salzmann, Medium-density amorphous ice. Science 379 (6631), 474-478 (2023). https://org.doi/10.1126/science.abq2105.

“Vermi” che si cibano di polistirene

In evidenza

Claudio Della Volpe

Abbiamo già introdotto anni fa l’idea che esistono enzimi nella biosfera in organismi macroscopici in grado di attaccare i legami della “plastica”; fu una brillante ricercatrice italiana, Federica Bertocchini, che però lavorava in Spagna, a scoprire per prima, nel 2017, questo fenomeno di cui abbiamo reso conto sul blog.

Da allora è cresciuta la conoscenza di questo fenomeno presentato da altri “vermi” o meglio larve di insetti i quali ospitano nel loro intestino dei microorganismi capaci di realizzare questa degradazione.

Nel caso della Bertocchini si trattava delle camole, le larve della Galleria mellonella, che si usano da sempre per la pesca e che vi assicuro hanno un ottimo sapore (le ho provate ad una presentazione degli insetti come cibo anni fa, erano molto dolci). Quelle larve erano in grado di mangiarsi i sacchetti di polietilene.

Anche il polistirene è degradabile nel medesimo modo; la cosa è stata scoperta da alcuni ricercatori cinesi; i medesimi avevano scoperto poco prima che il comune Tenebrio molitor, ossia il verme della farina era in grado di degradare la gomma degli pneumatici ed il polistirene; ed in effetti guardando bene la letteratura un gruppo di ricercatori che lavoravano fra Manchester e il Pakistan

Atiq, N., Ahmed, S., Ali, M. I., Andleeb, S., Ahmad, B., & Robson, G. (2010). Isolation and identification of polystyrene biodegrading bacteria from soil. African Journal of Microbiology Research, 4(14), 1537-1541. http://www.academicjournals.org/ajmr/PDF/Pdf2010/18Jul/Atiq%20et%20al.pdf

aveva scoperto nel suolo i batteri direttamente responsabili della degradazione del polistirene.

Guardando sia pur superficialmente la letteratura si trovano organismi e microorganismi capaci di degradare parecchie “plastiche”: polietilene, polistirene, gomma sintetica, e perfino il polivinilcloruro.

Scrivono i colleghi di Pechino:

Il polistirene (PS) è uno dei principali rifiuti di plastica accumulati nell’ambiente. In precedenza, abbiamo riferito che il verme della farina (Tenebrio molitor) era in grado di degradare e mineralizzare il polistirolo (schiuma PS)**. Questa scoperta ha suscitato la nostra curiosità di esplorare se altre specie di insetti avessero la stessa capacità dei vermi della farina. Qui, una larva di insetto, il superverme (Zophobas atratus), è stata recentemente dimostrata in grado di mangiare, degradare e mineralizzare PS. I supervermi potrebbero vivere con il polistirolo come unica dieta come quelli alimentati con una dieta normale (crusca) per un periodo di 28 giorni. Il tasso medio di consumo di polistirolo per ciascun superworm è stato stimato a 0,58 mg / die, 4 volte superiore a quello del verme della farina. Le analisi dell’ingerito, utilizzando la cromatografia a permeazione di gel (GPC), la spettroscopia a risonanza magnetica nucleare 13C cross-polarization/magic angle spinning nuclear magnetic resonance (CP/MAS NMR) allo stato solido e la spettroscopia termogravimetrica interfacciata con la spettroscopia infrarossa a trasformata di Fourier (TG−FTIR), hanno dimostrato che la depolimerizzazione delle molecole di PS a catena lunga e la formazione di prodotti a basso peso molecolare si sono verificate nell’intestino larvale. Un test respirometrico ha dimostrato che fino al 36,7% del carbonio di polistirolo ingerito è stato convertito in CO2 durante un periodo di prova di 16 giorni. La capacità di degradare il PS del superworm è stata inibita dalla soppressione antibiotica del microbiota intestinale, indicando che il microbiota intestinale ha contribuito alla degradazione del PS. Questa nuova scoperta estende gli insetti che degradano il PS oltre le specie all’interno del genere Tenebrio e indica che il microbiota intestinale del superworm sarebbe una nuova biorisorsa per la ricerca di enzimi che degradano la plastica.

Biodegradation and mineralization of polystyrene by plastic- eating superworms Zophobas atratus Yu Yang , Jialei Wang , Mengli Xia Science of The Total Environment  Volume 708, 15 March 2020, 135233

**Il risultato è stato pubblicato  qui: Aboelkheir, M.G., Visconte, L.Y., Oliveira, G.E., Filho, R.D., Souza, F.G., 2019. The biodegradative effect of Tenebrio molitor Linnaeus larvae on vulcanized SBR and tire crumb. Sci. Total. Environ., 649, 1075–1082.

La cosa importante è che la velocità di degradazione dei polimeri ad opera dei batteri in  ambiente artificiale o naturale è lenta, mentre le larve di questi insetti sono molto più veloci; nel loro intestino la cosa diventa talmente veloce che si realizza entro decine di minuti dal contatto con la camola e qualche giorno nel caso del verme della farina e del verme di cui parliamo oggi, il cosiddetto superverme, ufficialmente Zophoba atratus, ritratto nell’immagine qui sopra.

Colgo l’occasione per rispondere anche a chi mi fece notare allora che quando avevo scritto che il legame C-C non è così facile da demolire mi ero dimenticato che noi stessi degradiamo le catene degli acidi grassi.

La cosa è leggermente più complessa di come la metteva il mio critico (che era poi Gustavo Avitabile che ringrazio del commento):

Gli enzimi del metabolismo degli acidi grassi sono tutti mitocondriali, mentre la loro attivazione avviene nel citoplasma: è quindi necessario trasportare gli acidi grassi attivati nel mitocondrio. Nei mitocondri possono essere presenti degli acidi grassi ottenuti dal turnover  delle lipoproteine di membrana: per essi sarà necessaria una attivazione intramitocondriale (questa attivazione è stata utilizzata per confermare che i mitocondri sono l’evoluzione di batteri che, in principio, infettavano le cellule prive degli apparati deputati al metabolismo aerobico; i mitocondri, infatti, hanno un loro patrimonio genetico e sono quasi totalmente sufficienti, anche per la loro riproduzione).

In definitiva nel nostro DNA quegli enzimi non ci sono, ma in quello dei mitocondri che hanno il loro proprio DNA ci sono; e dunque gli antichi batteri che hanno dato origine agli organelli mitocondriali delle nostre cellule eucariote sono i veri contributori.

Inoltre se allunghiamo la catena (e/o escludiamo i terminali come la funzione carbossilica o esterea), la nostra capacità di metabolizzazione si interrompe; la semplice cera di candela che ha catene molto lunghe non siamo capaci di metabolizzarla affatto.

Cosa faremo di queste scoperte? Riusciremo ad usarle per chiudere o almeno cominciare a chiudere il ciclo della plastica?

Voi che ne dite?

Il cuoio e sue imitazioni

In evidenza

Biagio Naviglio**

Cuoio

Il cuoio, materiale naturale di origine animale, è stato utilizzato fin dall’inizio della storia dell’uomo; Infatti, esso è uno degli oggetti più antichi realizzati dall’uomo per proteggersi dagli elementi naturali. Gli uomini primitivi cacciavano gli animali per il cibo e usavano la loro pelle per fare il cuoio il quale veniva usato, inizialmente, per vestiti e tende.

Le peculiari caratteristiche del cuoio derivano, sostanzialmente, dal suo particolare intreccio fibroso il quale determina le proprietà di comfort e di benessere del portatore ed esalta quelle concernenti la praticità/durabilità e bellezza/eleganza; per tale motivo, quindi, si cerca di imitarlo in tutti i modi. A riguardo, la legislazione italiana tutela l’uso dei nomi, cuoio, pelli e pelliccia e di quelli da essi derivati o loro sinonimi; Infatti, il decreto legislativo 9 giugno 2020, n. 68 dal titolo “Nuove disposizioni in materia di utilizzo dei termini, cuoio, pelle e pelliccia e di quelli da essi derivati o loro sinonimi e la relativa disciplina sanzionatoria, ai sensi dell’articolo 7 della legge 3 maggio 2019, n. 37 – Legge europea 2018”, definisce:

Cuoio “termine generale per designare la pelle o il pellame di un animale che ha conservato la sua struttura fibrosa originaria più o meno intatta, conciato in modo che non marcisca. I peli o la lana possono essere stati asportati o no. Il cuoio è anche ottenuto da pelli o pellame tagliati in strati o in segmenti, prima o dopo la conciatura….Omissis”.

Nell’uso corrente, generalmente, si utilizzano i termini pelle e cuoio per indicare quanto segue:

il termine “cuoio” viene utilizzato più frequentemente per indicare la pelle conciata con tannini vegetali o più specificamente quella destinata a suola da scarpe (cioè un materiale più duro e meno flessibile/morbido); invece, il termine “pelle” o “pellame” si usa per indicare la pelle conciata con altri sistemi e destinata ad altri usi come ad esempio giacca in pelle, borsa di pelle, divano in pelle, ecc. (cioè materiale più morbido e flessibile).

In ogni caso, da un punto di vista legale e scientifico il termine “cuoio” sta ad indicare qualunque pelle conciata, indipendentemente dal tipo di pelle e dal tipo di concia.

Pertanto, in virtù della legislazione vigente, risulta ingannevole chiamare pelle/ cuoio un materiale che non sia di origine animale.

Termini come “pelle sintetica, similpelle, finta pelle, cuoio rigenerato, pelle vegana, ecc. sono fuorvianti ed ingannevoli nei riguardi dei consumatori in quanto includendo il termine “pelle” nel nome tali materiali sottintendono di avere la stessa origine naturale e le stesse caratteristiche della pelle autentica, ma in realtà non è così. D’altra parte, per la legislazione italiana, è vietata l’immissione e la messa a disposizione sul mercato di prodotti con il nome pelle che non sia di origine animale.

La sezione al microscopio di un cuoio di origine bovina è qui di seguito riportata:

L’evoluzione dei surrogati del cuoio ha subito dei cambiamenti a partire dall’avvento dell’industrializzazione, con la comparsa dei materiali sintetici derivati dal petrolio, fino ai tempi più recenti con lo sviluppo di materiali di origine vegetale oppure assemblati o sintetizzati mediante processi di bioingegneria.

Materiali sintetici

I materiali sintetici sviluppati ad imitazione del cuoio, denominati con terminologia diversa come ad esempio, finta pelle, similpelle, ecc, sono di solito derivati dal petrolio; sono, quindi, prodotti, completamente realizzati dall’uomo, ottenuti per sintesi chimica.

Tali materiali sono normalmente composti da un supporto tessile, generalmente poliestere, ricoperto da uno strato polimerico di PVC (Polivinilcloruro) o PU (Poliuretano).

“Ecopelle”

Il termine “ecopelle” si è diffuso nell’uso comune con il senso improprio di similpelle; è una denominazione coniata nei primi anni novanta  del 20° secolo per designare un materiale artificiale di aspetto simile alla pelle, prodotto con polimeri sintetici derivati dal petrolio e utilizzato nella confezione di capi d’abbigliamento, nei tessuti d’arredo e nel settore calzaturiero e della pelletteria, che ha progressivamente sostituito l’uso già affermato di similpelle e di vilpelle (sinonimo più comune del marchio registrato vinilpelle del 1961).

Con l’emanazione della norma UNI 11427 del 2011, aggiornata nel 2022, “Cuoio- Criteri per la definizione delle caratteristiche di prestazione di cuoi a ridotto impatto ambientale” la pelle ecologica autentica è definita nelle sue varie accezioni (ecopelle, ecocuoio, ecc.) come pelle conciata secondo le migliori pratiche di sostenibilità ambientale.

Di seguito si riportano immagini al microscopio di alcuni cuoi sintetici:

Rigenerato di fibre di cuoio”

Il decreto legislativo 9 giugno 2020, n. 68 definisce “rigenerato di fibre di cuoio” come il materiale con un contenuto minimo del 50% in peso di fibre di pelle secca, in cui la cute conciata è disintegrata meccanicamente o chimicamente in particelle fibrose, piccoli pezzi o polveri e, successivamente, con o senza la combinazione di legante chimico, trasformata in fogli.

“Pelle vegana”

Anche in questo caso risulta ingannevole chiamare un materiale “pelle vegana”, ma ciò avviene, spesso, per commercializzare dei materiali che si sostiene abbiano la bellezza, le qualità naturali e la durabilità della pelle.

Si può definire vegano qualsiasi materiale che non sia di origine animale. Negli ultimi tempi sono stati proposti sul mercato, ad esempio, materiali ricavati da fibre di foglie di ananas oppure da scarti della lavorazione del vino (vinaccia).

Naturalmente, anche in questo caso tali materiali sono combinati/rivestiti con polimeri di natura sintetica come ad esempio i poliuretani.

Una recente ricerca condotta da Ricercatori tedeschi ha evidenziato che i materiali alternativi al cuoio (sintetici e vegani) non hanno prestazioni paragonabili a quelle del cuoio; in sostanza il cuoio ha una durabilità maggiore e ciò favorisce una minore frequenza di acquisto del prodotto.

Le foto al microscopio ottico della superficie e della sezione del materiale ricavato dalle fibre di foglie di ananas sono qui di seguito mostrate:

Bibliografia

  1. Naviglio B., Difetti riscontrabili nella trasformazione della pelle in cuoio e nei manufatti, Ed. Dinamica Sas, marzo 2022
  2. Naviglio B., Cuoio: Unicità e Sostenibilità, Convegno AICC, Solofra (AV), giugno 2022
  3. Mahltig B, Borlandelli CM., Leather Types and Fiber-Based Leather Alternatives-An Overview on Selected Materials, Properties, Microscopy, Electron Dispersive Spectroscopy EDS and Infrared Spectroscopy, Ann Textile Eng Fashion Technol. 2022; 1(1)
  4. Meyer, M.; Dietrich, S.; Schulz, H.; Mondschein, A. Comparison of the Technical Performance of Leather, Artificial Leather, and Trendy Alternatives. Coatings 2021, 11, 226

**Dott. Chim. Biagio Naviglio

Chimico Industriale e-mail: biagio.naviglio@gmail.com http://www.biagionaviglio.com

Laureato in Chimica Industriale presso l’Università di Napoli “Federico II” nel 1980.

Già Primo Ricercatore e Responsabile dell’Area Ricerca e Sviluppo della Stazione Sperimentale per l’Industria delle Pelli e delle Materie Concianti (SSIP); già Responsabile della prevenzione, della corruzione e della trasparenza dell’Ente ( dipendente SSIP, 1 ottobre 1981 – 30 novembre 2019)

Dal 2016 al 2020 è stato Presidente dell’Ordine Regionale dei Chimici e dei Fisici della Campania.

Strafalcioni.

In evidenza

Mauro Icardi

Forse “’L’altrui mestiere” che Levi amava di più era quello di le lingue, le loro origini e l’etimologia delle parole. Levi lo praticava per puro piacere personale, e girava spesso per casa con in mano un vocabolario o un dizionario. Spinto principalmente dal divertimento ma con una competenza che si salda con la passione. Molti articoli usciti sulla terza pagina del quotidiano “La stampa” hanno un taglio limpido e rapido. Non solo i due capitoli dedicati alla lingua dei chimici, ma anche quelli dedicati alle etimologie popolari, che producono modifiche particolari in parole che dovrebbero essere di uso comune.

Esiste un piccolo elenco di queste false equivalenze che lo scrittore ha raccolto: dai raggi ultraviolenti alle iniezioni indovinose, fino al verme sanitario e il mai dimenticato cloruro demonio.

Questi sono procedimenti nei quali le parole vengono deformate quasi per comprenderle meglio, renderle meno misteriose. Chi le pronuncia cerca di renderle più familiari, utilizzando questo espediente.

Ma la modifica non riguarda soltanto i termini tecnici o scientifici. Anche le parole originarie da altre lingue, che possono risultare difficili da pronunciare, vengono modificate con una certa fantasia.

Levi ne cita una che veniva pronunciata anche da mio padre e da mia nonna, ma che in generale si può sentire in buona parte del Piemonte. La parola è sanguis che altro non è che un tentativo di addomesticare la parola sandwich. Significa panino imbottito, in omaggio a John Montagu, quarto Conte di Sandwich, accanito giocatore di carte, che nelle lunghe sessioni di gare con gli amici, per non perder tempo, si sarebbe concesso solo veloci spuntini di fette di manzo tra due fette di pane tostato.

A mio padre risultava ostico anche il ketchup, sia come salsa, sia come parola da pronunciare che modificò in kachuf. Mio padre non amava avventurarsi in avventure gastronomiche, non amava hamburger e hot dog, si manteneva sui sentieri conosciuti e molto apprezzati della cucina piemontese.

Difficilmente riesco a trattenermi quando sento strafalcioni estremamente particolari, e che tendono a provocarmi un riso irrefrenabile. Mi è capitato di sentire elogiare Mike Tyson che con un pugno bene assestato aveva mandato gnoc out il suo avversario. Per il signore milanese purosangue il termine knock out era evidentemente ostico. Ma essendo un parente acquisito non era opportuno che dessi sfogo all’ilarità, ma risultò piuttosto difficile trattenere le risa. In un altro caso sentendo una signora lamentarsi, perché abitando vicino all’ospedale sentiva spesso le ambulanze che con le loro sirene spietate le disturbavano il sonno del giusto, confesso di non esserci riuscito. Il denominatore comune di tutto questo era quasi sempre la non più giovanissima età di chi le pronunciava. E questo dava alla situazione un qualcosa di quasi gioioso, umoristico.

Ma per molti anni invece uno strafalcione tecnico mi ha lasciato incapace di ogni reazione. Ha imbarazzato forse più me, piuttosto che il collega che lo pronunciava in maniera molto convinta.

La questione riguardava la cavitazione idrodinamica, ovvero ii fenomeno consistente nella formazione di zone di vapore all’interno di un fluido che poi implodono producendo un rumore caratteristico.

Ciò avviene a causa dell’abbassamento locale di pressione, la quale raggiunge la tensione di vapore del liquido, il quale subisce così un passaggio di fase a gas, formando bolle (cavità) contenenti vapore.

Per molti anni quando discutevamo di questo fenomeno lui insisteva a chiamare il problema con il termine di gravitazione delle pompe centrifughe. Ricordo di averlo corretto solo la prima volta che lo disse, poi vi rinunciai. In seguito conobbi un ingegnere che realizzava impianti industriali che si sentì dire da un committente che visionava il progetto: “Mi hanno detto che la pompa deve avere la centrifuga!” Io forse avrei risposto, “Certo, e anche il prelavaggio e l’asciugatura…”. Ma le regole di qualunque bon ton aziendale poco si prestano ad apprezzare l’umorismo. Sono cose che avvengono molto raramente, soprattutto in presenza di partner d’affari.

Vorrei concludere questo post invitando alla rilettura de “L’altrui mestiere” di Primo Levi.

Ma anche di un gradevolissimo libro dal titolo “Bolle, gocce e schiume- Fisica della vita quotidiana” di

F Ronald Young. Dove I fenomeni che avvengono nei liquidi come la turbolenza, la tensione superficiale, la formazione di bolle (e anche la cavitazione), sono spiegati in maniera divertente e con aneddoti molto interessanti.

L’inquinamento (è) di casa.

In evidenza

Luigi Campanella, già Presidente SCI

Ammettiamolo il caminetto rende un ambiente più intimo ed accogliente se a ciò aggiungi il freddo di questi ultimi giorni si comprende come i caminetti accesi siano aumentati di molto esponendo gli abitanti che ne usufruiscono a qualche pericolo. La SIMA, Società Italiana di Medicina Ambientale) il 12 novembre, ha pubblicato una serie di dati sui pericoli legati alle fonti alternative di riscaldamento domestico. In Italia, i camini aperti tradizionali rilasciano nell’atmosfera 3.679 tonnellate di PM10 ogni anno, cifra che scende a 2.401 tonnellate per quelli chiusi, mentre le stufe a legna sono responsabili di 2.651 tonnellate di PM10.

Oltre alle polveri sottili responsabili di patologie broncopolmonari e di cardiopatie i caminetti emettono idrocarburi policiclici aromatici, alcuni dei quali  classificati come cancerogeni dall’Istituto internazionale di ricerca sul cancro. A proposito di inquinamento indoor un ulteriore pericolo viene dal radon presente in molti materiali da costruzione delle nostre case. Il PM è un ottimo carrier del radon le cui emissioni sono capaci di modificare i processi biologici delle cellule tanto da essere considerato la seconda causa di tumore al polmone dopo il fumo di sigaretta. Questa è la ragione per cui di recente l’Istituto Superiore di Sanità ha prodotto una guida di raccomandazioni per proteggerci dal pericolo/rischio radon

Ventilazione degli ambienti, per un corretto ricircolo d’aria;

Sigillatura di crepe o fessure per evitare la penetrazione del gas in altre stanze o ambienti;

Aspirazione dell’aria interna per l’eliminazione dell’aria contaminata;

Pressurizzazione dell’edificio;

Isolamento di locali particolarmente colpiti (solitamente piani interrati, cantine, vespai).

Nei casi più gravi, interventi strutturali o di sostituzione dei materiali.

 Un altro punto debole della sicurezza in casa è rappresentato dalla cucina a gas da alcune recenti ricerche considerata fonte di inquinamento. I due gas prodotti maggiormente sono gli ossidi di azoto (valutati fino ad una concentrazione maggiore di quella misurabile in una strada molto trafficata) ed il monossido di carbonio. Ricambio d’aria e soprattutto vigile manutenzione sono gli strumenti più idonei a ridurre la produzione di questi gas entrambi cause  almeno di patologie respiratorie, per non parlare di danni ancora più gravi riscontrati soprattutto nel caso di bambini.

Una soluzione sarebbe passare alle piastre ad induzione che però è ancora relativamente poco adottata rispetto ai 100 milioni di cittadini che usano la cucina a gas.  C’è da osservare a latere che guardarsi da questi rischi e poi passare ore col cellulare acceso  non sembra prudente visto che anche in questo caso ci si espone a radiazioni. L’Ufficio federale tedesco per la protezione dalle radiazioni aggiorna costantemente online i dati attraverso un database che include tutti gli smartphone presenti sul mercato e i relativi indici SAR (Specific Absorption Rate), ovvero l’unità di misura che rappresenta la quantità di energia elettromagnetica assorbita dal corpo quando si utilizzano. Sebbene la Fondazione AIRC per la Ricerca sul Cancro confermi da tempo che non ci sia un nesso tra l’uso del cellulare, in particolare quelli di nuova generazione, e i tumori cerebrali, alcuni consumatori continuano a temerlo perché le vecchie generazioni di telefoni avevano fatto emergere criticità nel 10% dei soggetti che ne facevano un uso intensivo. Comunque, la radioattività proviene anche da fonti naturali, come è il caso delle radiazioni cosmiche e delle emissioni da parte degli elementi radioattivi della crosta terrestre e da questa difendersi sarebbe più difficile. Per nostra fortuna il campo magnetico ed il guscio dell’atmosfera si comportano come eccellenti scudi e riescono egregiamente a proteggere dall’azione dei raggi cosmici le forme di vita che popolano il pianeta terra.

Breve storia della candela.

In evidenza

Claudio Della Volpe

Non voglio scimmiottare il famosissimo testo di Faraday, del quale posseggo anche una copia originale, regalatami da un caro amico. No, voglio solo parlarvi delle candele e della loro storia tecnica, perché recentemente ho avuto modo di rifletterci più approfonditamente.

Avevo avuto un commento (di Gustavo Avitabile) sulla capacità di degradare i legami C-C e nel rispondere a questo in un recentissimo post sulla degradazione della plastica (che uscirà a breve), mi sono trovato a riflettere su esempi di comuni sostanze digeribili o meno fatte con quel legame. Ne riparleremo più avanti.

La combustione l’ho scritto tante volte, è più antica di Homo Sapiens Sapiens; già conosciuta da Homo Sapiens Erectus, probabilmente ha un milione di anni.

La tecnologia della combustione si è evoluta in modo lento ma costante; oggi sappiamo che la migliore e più efficiente combustione è “senza fiamma” (in inglese flameless) perché la fiamma è solo una superficie di reazione che emette luce e calore e una superficie è una discontinuità, un difetto che introduce irreversibilità e inefficienza; mentre un buon miscelamento è diffuso in 3D, non dà origini a fiamme ma a reazioni omogenee, veloci e controllabili; dunque alla fine, dialetticamente, l’ottimizzazione del fuoco ha portato al senza fiamma, dimostrando che la combustione senza fiamma è la più efficiente. Per questo si è dovuto aspettare il 1991: Flammenlose Oxidation von Brennstoff mit hochvorgewarmter Luft – Joachim Wunning Chem.-1ng.-Tech. 63 (1991) Nr. 12, S. 1243-124s 

Detto questo però, dato che per realizzarla occorre un reattore apposito, la cosa più semplice per secoli è stata di far bruciare in modo comodo materiali comuni e la candela è una di queste tecnologie, forse è stata la più sofisticata per secoli.Dopo la semplice combustione del legno si è ragionevolmente passati alle torce, eventualmente imbevute di materiali diversi (olio, grasso, cera di api), solo dopo alle lampade a combustibile liquido (ossia olio di varia origine) dotate di stoppino e infine alle candele.Le prime di cui abbiamo traccia sono egiziane; nella tomba di Tutankhamon (XIV secolo aC) sono stati trovati candelieri (o porta torce). Candele sono menzionate nella Bibbia (siamo nel X sec aC.) Queste primitive candele erano fatte immergendo tessuto intrecciato nel grasso animale. Il grasso era ragionevolmente più economico della cera delle api; a livello dell’olio usato nelle lampade con lo stoppino.D’altronde il simbolo della religione ebraica è un candeliere a 7 rami, chiamato Menorah. Candelabri sono descritti nell’Odissea e ornano la reggia di Alcinoo, re dei Feaci (nella odierna Corfù).Certamente ci sono state candele cinesi e giapponesi almeno dal II sec aC con un documentato uso di grasso di origine marina, grasso di cetaceo. Come anche candele indiane, che vedremo fra un attimo.Candela è parola romana, dal verbo candēre, ossia esser bianco, splendente; i Romani sapevano già fare le candele almeno dal V sec. aC.

https://www.smith.edu/hsc/museum/ancient_inventions/hsclist.htm

C’è una contraddizione apparente con la mitologia Romana che aveva bisogno delle vestali (Rea Silvia, la madre di Romolo e Remo era una vestale, una custode del fuoco) per mantenere acceso il fuoco, il che fa pensare ad una tecnologia molto più antica; ma forse la spiegazione sta nella interazione forte con la cultura etrusca che possedeva invece la tecnologia della candela. A questo riguardo la Treccani recita: Un’ampia e particolareggiata documentazione sui candelabri metallici forniscono invece le suppellettili delle antiche necropoli etrusche. Si sa che gli Etruschi furono egregi foggiatori di candelabri, e che le loro produzioni erano assai stimate anche fuori della regione. I più antichi candelabri etruschi di bronzo sono ritornati alla luce dalla necropoli arcaica orientalizzante di Vetulonia (secoli VII-VI a. C.): essi sono composti di un asse verticale di lamina, retto da quattro piedi in croce, piegati ad angolo e lisci, e sormontato da un motivo figurato o floreale in bronzo; l’asse sostiene, a distanze uguali una dall’altra, tre o quattro coppie di braccia appuntite. Da questo modello primitivo si sviluppano gli artistici candelabri etruschi dei secoli V e IV a. C., quali si ammirano specialmente nel Museo etrusco del Vaticano, in quello di Villa Giulia a Roma e nel Museo civico di Bologna.

Candelabro etrusco con menade danzante stimato 500aC. Che incredibile bellezza!

La cera delle api che bruciava con meno odore e fumo fu usata certamente, ma solo dalle classi più ricche o nelle situazioni di culto. Ed inoltre le candele furono prodotte per immersione nel sego (altra tipologia di grasso poco costoso il sego è un grasso alimentare ricavato per estrazione a caldo dalle parti grasse di equini, ovini, ma soprattutto bovini tanto che si parla comunemente di “sego di bue”. Il sego può essere prodotto a partire da qualunque pezzo di grasso, sottocutaneo o viscerale, ma viene generalmente prodotto dai depositi adiposi interni, come quelli che circondano il cuore e il rene dei bovini). Fonte: https://www.prezzisalute.com/Alimenti-Cucina/Sego.html come si può dedurre dalla forma irregolare e dal lungo stoppino delle candele romane almeno fino alla fine del medioevo quando, grazie ad una invenzione francese, entrò in funzione un metodo che usava stampi per la cera.

foto reperti antichi siti archeologici The ArchaeologistCandele di cera d’api del cimitero di Oberflacht, Germania, risalenti al VI o VII secolo d.C. Sono le candele di cera d’api più antiche sopravvissute a nord delle Alpi.

La combustione è abbastanza regolare in una candela ben fatta tanto da essere usata come segnatempo, come orologio e perfino come sveglia; come si vede dalla figura qua sotto, dove un chiodo che cade in un fondo di metallo può fare da campanello.

 La candela-sveglia Le candele “grasse”, di sego, non bruciavano così bene come le candele di cera. Una candela grassa era morbida, affumicata, fuligginosa, gocciolava sempre e non dava un odore gradevole (probabilmente a causa della formazione di acroleina). Lo stoppino era fatto di un filo vegetale, la cui estremità carbonizzata doveva essere tagliata (annodata) di volta in volta. Nei paesi non europei l’origine del combustibile era molto varia; sono documentate piante che producono materiali cerosi ma perfino animali, il più strano dei quali è certamente il pesce candela usato per estrarre il suo grasso poi usato per illuminazione dagli indiani americani nel I sec dC ma anche usato come tale; il pesce, che si chiama Osmeride ed è presente anche in Europa, veniva essiccato e messo su un bastone a forcella per poi accenderlo direttamente.Fra le piante ricordiamo il cinnamomo usato come sorgente di cera in India; la bollitura del cinnamomo era usata per le candele dei templi in India; il cinnamomo, una sua varietà, ma non è chiaro se la medesima, corrisponde alla moderna cannella. Il burro di yak si usava invece per le candele in Tibet.  Dal 1200 la produzione e la vendita di candele diventò una attività ufficiale che aveva una sua “gilda”, una corporazione, il che ci assicura che ci fosse una robusta tecnologia di supporto; per esempio la costruzione dello stoppino e le sue proprietà erano importanti, in quanto durante la combustione se lo stoppino non brucia bene fa accumulare i suoi residui nella parte concava che si forma alla sommità cambiando la velocità di consumo della candela; e così lo stoppino doveva essere costruito ed intrecciato in modo da consumarsi completamente durante il processo di combustione della cera o del grasso (stoppino autoestinguente sarà inventato solo più tardi); in alternativa esistevano dei dispositivi che venivano usati per spegnere la fiamma o per tagliare l’eccesso di stoppino non bruciato. I candelai, come altri artigiani giravano di casa in casa e costruivano le candele a partire dal grasso o dai materiali che residuavano dall’attività della famiglia richiedente o da prodotti che nei casi più fortunati venivano anche da lunghe distanze.Dice wikipedia: Nei paesi di lingua inglese il mestiere del candelaio è attestato anche dal nome più pittoresco di smeremongere (“venditore di grasso”), perché sovrintendeva alla fabbricazione di salse, aceto, sapone e formaggio. La popolarità delle candele è dimostrata dal loro uso nella Candelora e nelle festività di Santa Lucia.C’era anche un problema ambientale non banale; il sego bruciava con odore molto sgradevole ma anche l‘odore del processo di fabbricazione era così sgradevole che era bandito con ordinanza in parecchie città europee. Probabilmente l’origine dei sottoprodotti puzzolenti era la glicerina che era una componente ineliminabile dei grassi animali comuni.La stampa della candela in una forma predisposta era stata di fatto inventata dai cinesi che usavano la carta, già da molto tempo, quando un francese reinventò l’idea usando metodi di stampaggio diversi nel 1400.Da questo punto in poi la candela entra a pieno titolo nello sviluppo della manifattura e anche del moderno capitalismo.Infatti il successivo combustibile per candele fu l’olio di balena e di capodoglio, lo spermaceti, che era privo di cattivo odore in fase di produzione e di combustione, aveva una superiore durezza e durata; il grasso di balena fu uno dei primo combustibili mondiali, che portò all’ecocidio dei più grandi abitanti del mare ed alle epopee descritte nei romanzi come Moby Dick.

Molti altri concorrenti, come la colza, il cavolo (di cui abbiamo parlato altrove) e il vero e proprio albero della cera, propriamente detto, una pianta americana (in inglese bayberry) Myrica cerifera non diventarono mai seri concorrenti, pur occupando settori del mercato globale.

La cera di quell’albero era un residuo della bollitura dei suoi frutti; mentre invece le fibre di cotone si fecero strada via via come la forma dominante dello stoppino

.

Un’altra sorgente di cera molto specifica è un insetto denominato Ceroplastes destructor (white wax scale) un insetto dannoso per le piante attaccate che vengono ricoperte di materiale bianco come dall’immagine e che infesta varie piante fra cui il caffè, sfruttato per fare la cera in Asia.

Finalmente i chimici francesi Michel Eugène Chevreul (1786–1889) e Joseph-Louis Gay-Lussac (1778–1850) brevettarono la preparazione della stearina e dell’acido stearico nel 1825. L’enorme passo avanti fu l’eliminazione della glicerina libera e il poter disporre di un materiale omogeneo. Sempre di un grasso di origine animale si trattava ma molto puro. La candela a questo punto prese il nome di candela stearica. Chevreul nel 1823 aveva pubblicato un classico, Recherches chimiques sur les corps gras d’origine animale, che descriveva come egli avesse compreso la natura chimica dei grassi. Nel 1825 il brevetto riguardava la preparazione di candele di acido stearico. Le candele di Chevreul, diversamente da quelle di sego, erano dure, inodori e davano una luce brillante. Apparse nell’esposizione mondiale di Parigi del 1830, diventarono immediatamente la candela moderna.

Michel Chevreul giovane  e da vecchio fotografato da Nadal(1886). Morì a 102 anni dopo aver contribuito a costruire la chimica organica moderna, comprese la natura dei grassi, fondò la moderna teoria del colore ed aiutò Nadar a sviluppare la fotografia moderna.

La storia della candela culmina alla metà dell’800 insieme all’inizio dell’epopea petrolifera.

Nel 1834, Joseph Morgan, Inghilterra, brevettò una macchina che consentiva la produzione continua di candele in stampi usando un cilindro con un pistone mobile per espellere le candele mentre si solidificavano. Questa produzione meccanizzata più efficiente consentì alle candele di diventare una merce facilmente disponibile per grandi masse di persone.

Gli stoppini erano prodotti da fili di cotone strettamente intrecciati (piuttosto che semplicemente ritorti). Questa tecnica fa arricciare gli stoppini mentre bruciano, mantenendo l’altezza dello stoppino e perciò la fiamma. Poiché gran parte dello stoppino in eccesso è incenerito, questi stoppini sono detti “autosmoccolanti” o “autoconsumanti”.

Fino ad ora la cera era stata comunque di origine naturale ma la rivoluzione petrolifera avanzava a grandi passi. Nella metà degli anni 1850, James Young un chimico scozzese riuscì a distillare la paraffina dal carbone e dagli scisti bituminosi e sviluppò un metodo di produzione commercialmente praticabile.

La paraffina, costituita dalle sole catene idrocarburiche poteva essere usata per fare candele poco costose di alta qualità. È una cera bianco-bluastra, brucia senza odori sgradevoli; l’unico inconveniente era che le prime paraffine derivate dal carbone e dal petrolio avevano un punto di fusione molto basso. Questo problema fu risolto dall’aggiunta della stearina che è dura e resistente, con un intervallo di fusione conveniente di 54–72,5 °C. Verso la fine del XIX secolo, la maggior parte delle candele che erano fabbricate consistevano di paraffina e acido stearico (bastava il 10%).

Ci sarebbero molte altre cose da dire ma credo di essere stato abbastanza lungo e forse noioso dunque mi fermo qua, invitandovi a considerare la umile candela, già onorata formidabilmente da Faraday , come uno dei più avanzati ritrovati della chimica moderna e nel medesimo tempo come una spinta ad approfondire la medesima.

Un’ultima nota sempre a commento della degradabilità del legame C-C (siamo in molecole lineari)  mentre potremmo digerire una candela di sego, dubito noi si possa fare lo stesso con la paraffina; mi risulta che la paraffina, priva di “attacchi” sulla catena come gli acidi grassi sia , se pura, priva di tossicità, perfino utile nelle formulazioni farmaceutiche, ma sostanzialmente indigeribile anche dai potenti e volenterosi enzimi dei nostri mitocondri (non i nostri enzimi, i mitocondri hanno il loro DNA, sono vecchissimi ospiti), che metabolizzano gli acidi grassi a catena lunga.

La mia copia del libro di Faraday , donatami dall’amico, filosofo, ferroviere, ricercatore, divulgatore ed editore  PhD Luciano Celi (oggi al CNR di Pisa), edizioni Lu.Ce.

Testi consultati:1)The Chinese White Wax Insect B. SillimanThe American NaturalistVol. 5, No. 11 (Nov., 1871), pp. 683-685 (3 pages)

2)The chemical history of a candle  M. Faraday,  Ed by W. Crookes  1874 Chatto and Windus Londra

3) Flammenlose Oxidation von Brennstoff mit hochvorgewarmter Luft – Joachim Wunning Chem.-1ng.-Tech. 63 (1991) Nr. 12, S. 1243-124s

4) Candles FRANZ WILLHO ̈ FT, RUDOLF HORN, Ullmann encyclopedia of industrial chemistry  Vol. 6 p551-552 Wiley VCH 2012

Sitografiahttps://it.wikipedia.org/wiki/Storia_della_fabbricazione_delle_candelehttp://cyberlipid.gerli.com/description/simple-lipids/chevreul/life/https://it.wikipedia.org/wiki/Stearinahttps://en.wikipedia.org/wiki/Candlehttps://italiawiki.com/pages/natale/candela-storia-invenzione-medioevo-innovazione-tecnologica.html 

La situazione della depurazione in Italia: qualche considerazione.

In evidenza

Mauro Icardi

Il depuratore di Paestum- Capaccio è stato protagonista, nel febbraio 2018, di un incidente che ha causato uno dei più gravi fenomeni di inquinamento marino degli ultimi anni nel Mediterraneo. Dall’impianto fuoriuscirono circa 132 milioni di dischetti in plastica(in inglese carrier) che erano utilizzati come supporti per la crescita di biomassa adesa. La biomassa adesa, così come il fango di ossidazione, è la comunità microbiologica costituita da batteri e protozoi che depura le acque reflue. Nei mesi successivi a questo incidente i dischetti furono ritrovati, sospinti dalle correnti, fin sulle coste della Francia e della Spagna, oltre che nel Lazio, in Toscana, in Liguria, in Sicilia e sugli arenili campani.

Per questo incidente otto persone sono state rinviate a giudizio, con l’accusa di disastro ambientale e inquinamento doloso.

Da quanto ho potuto reperire facendo ricerche in rete, ho desunto che la vasca di ossidazione dove erano contenuti i rack con i dischetti, abbia subito un cedimento strutturale. In qualche caso ho letto che i responsabili della gestione avrebbero sovraccaricato questa vasca, che già presentava segni di ammaloramento, e questo aumento di portata sarebbe stato il fattore scatenante del cedimento.

Posto che l’inchiesta ed il processo (che mi risulta siano ancora in corso), dovranno appurare le responsabilità, ci sono alcune considerazioni che vorrei fare. La prima, piuttosto semplice, è che questo è probabilmente stato il più eclatante incidente occorso ad un impianto di depurazione. Nel momento in cui si verifica un cedimento strutturale, la mente corre al crollo del ponte Morandi, e alle altre decine di situazioni simili che si sono verificate in molte zone d’Italia. E qui la parola andrebbe data a chi è esperto di costruzioni. Si sa che i manufatti in cemento armato possono degradarsi con il tempo. Esiste quindi un problema di insufficiente o mancata manutenzione di questo tipo di costruzioni, che deve essere monitorato e risolto.

Quando si tratta di una vasca di ossidazione, il problema deve essere anche analizzato da un altro punto di vista, cioè quello progettuale. Ovvero un depuratore dovrebbe essere progettato in maniera modulare. Avere cioè delle vasche di equalizzazione, delle vasche di raccolta di maggior volume (chiamate in gergo vasche volano) che possano raccogliere eventuali sversamenti.

Se la portata di acque reflue è molto elevata e il depuratore è al servizio di una grande città, (penso agli impianti di Milano, Torino, Roma per fare un esempio) è usuale avere più linee di trattamento. In questo modo in caso di necessità di manutenzione di queste sezioni, (vasche di ossidazione, sedimentatori, ispessitori), una di esse può essere svuotata per effettuare gli interventi di riparazione o manutenzione, senza che le acque reflue confluiscano senza trattamento direttamente nel corpo idrico ricettore.

Ma a cosa servono i dischetti che sono fuoriusciti dal depuratore di Capaccio?

Un impianto di depurazione in condizioni normali di funzionamento riesce a garantire il rispetto dei limiti su BOD, COD e solidi sospesi senza particolari difficoltà. Diverso è invece il caso dei nutrienti per scarichi in aree sensibili. Le quali non rappresentano più solo i laghi, ma per esempio anche l’area del bacino del Po e che quindi vanno ad interessare impianti che precedentemente non sottostavano a limiti così restrittivi (per esempio per quanto riguarda il fosforo totale).
In generale, quindi, si prospetta la necessità di intervenire su un gran numero di impianti di depurazione per far fronte a due diverse esigenze: incrementarne la potenzialità (come carico trattabile), e migliorare le rese depurative (abbattimento in particolare dei nutrienti).

Nel caso in cui le caratteristiche del liquame influente non rappresentino un fattore inibente, (ad esempio in termini di pH, rapporto BOD/Azoto totale, presenza di sostanze tossiche, ecc.), le condizioni richieste, per conseguire la nitrificazione (ovvero la trasformazione dell’ammoniaca in un composto meno inquinante come il nitrato), sono essenzialmente un adeguato contenuto di ossigeno nel comparto di ossidazione e una biomassa ben strutturata nella quale esista una buona percentuale di batteri nitrificanti.
L’aggiunta di un sistema di coltura a biomassa adesa permette di migliorare la fase di nitrificazione.
Vi sono due distinte possibilità: un sistema ibrido che viene inserito nel preesistente bacino di ossidazione a fanghi attivi, ed un sistema separato che viene di solito inserito a valle della fase di sedimentazione finale per incrementare le rese di nitrificazione e quindi di abbattimento dell’ammonio.
Si tratta in pratica di fissare la biomassa nitrificante su supporti fissi aventi elevata superfice specifica (per esempio supporti in polietilene o in matrici di gel). Mi interessava precisare questa cosa. Può forse sembrare eccessivamente tecnica, ma gli articoli trovati in rete si limitavano a definire i dischetti dei filtri, e la definizione non è esatta, pur avendo un qualche fondamento.

Per una corretta progettazione dei depuratori è necessario effettuare diversi prelievi delle acque che saranno da sottoporre al trattamento, monitorando principalmente COD, BOD5 ,Composti azotati, Fosforo totale, tensioattivi. Una volta conosciuta la concentrazione media di questi parametri, occorre considerare i volumi di acque da trattare.

L’impianto dovrà essere in grado di fare fronte alle variazioni dovute alle precipitazioni. La condizione ideale per ottenere una gestione migliore sarebbe quella di separare le acque nere da quelle meteoriche. Questo per evitare repentine variazioni di portata che possono provocare eccessive diluizioni delle acque reflue, malfunzionamenti e allagamenti. Episodi a cui ho assistito personalmente. La modifica del regime delle piogge è ormai una situazione critica, per i depuratori e per le reti fognarie.  Oppure come già detto in precedenza dotare gli impianti di depurazione di adatte vasche di equalizzazione, per smorzare non solo le variazioni repentine di portata, ma anche per stoccare gli eventuali scarichi anomali costituiti da composti tossici o non biodegradabili.

Data l’ormai ubiqua e di fatto incontrollabile dispersione nell’ambiente di inquinanti emergenti, è di fatto indifferibile la necessità di adeguare gli impianti di depurazione più vecchi, dotandoli di un’efficiente sezione di trattamento terziario, oltre che a potenziare la sezione di ossidazione, non solo con un sistema per la crescita di biomassa adesa, ma anche con sistemi di depurazione più moderni.  Il sistema MBR (Membrane Bio Reactor) è un sistema di depurazione biologica delle acque che consiste nella combinazione del processo tradizionale di depurazione a fanghi attivi e di un sistema di separazione a membrana (generalmente microfiltrazione o ultrafiltrazione) che sostituisce il normale sedimentatore secondario.

Nel 2018 il servizio pubblico di depurazione delle acque reflue urbane, garantito da 18.140 impianti in esercizio, ha trattato un carico inquinante medio annuo di circa 68 milioni di abitanti equivalenti. Il 65,5% del carico inquinante civile e industriale è depurato in impianti con trattamento di tipo avanzato, il 29,5% in impianti di tipo secondario, il restante 5,0% in impianti di tipo primario e vasche Imhoff.

Sin dal 1991, attraverso una specifica Direttiva CEE, l’Europa chiede agli Stati membri l’adeguamento degliimpianti di trattamento delle acque reflue e del sistema fognario.  L’Italia è stata sanzionata con una procedura d’infrazione costata 25 milioni di euro per mancato adeguamento di 74 agglomerati urbani difformi. E altre procedure di infrazione sono in corso.

Se si considerano questi dati e si guarda alle disparità tra Nord e Sud, è evidente che la situazione dell’Italia è complessa e necessita di azioni integrate, coese, coerenti, non solo per garantire gli standard di depurazione su tutto il territorio. È necessaria una concreta politica del ciclo integrato delle acque, con investimenti adeguati sia del settore pubblico che di quello privato.

In quasi tutte le regioni d’Italia il percorso per arrivare alla definizione di un gestore unico a livello provinciale per la gestione del ciclo idrico integrato, è stato lungo ed estenuante.

La gestione unica che molte persone temono serve a razionalizzare gli investimenti. La realizzazione di un depuratore consortile di dimensioni più grandi, rispetto a dieci di piccola taglia semplifica la gestione e la conduzione. Queste sono cose che non tutti possono conoscere, io mi sento di dirle semplicemente perché ho sperimentato queste criticità lavorando sul campo. Chi legge queste righe non me ne voglia, ma ricordando il referendum del 2011 mi sono accorto che spesso intorno al tema acqua si fa molta confusione, e in qualche caso troppa demagogia. Non discuto il diritto all’acqua, e mi sono impegnato in prima persona contro la privatizzazione.

Ma vorrei ricordare che l’acqua non si trasporta, potabilizza, e infine si depura senza adeguati investimenti, programmazioni e senza ricerca. Ho concluso decine di volte i miei post con queste considerazioni e questi auspici. In Italia ci sono molti progetti di ricerca. Il tema acqua e soprattutto il tema fanghi è molto sentito dall’opinione pubblica. Ma mi preoccupa il fatto che troppo spesso l’informazione sia carente.  So che nelle scuole superiori ad indirizzo chimico, con il nuovo ordinamento si studia la depurazione delle acque. Mi piacerebbe anche ci fossero cittadini consapevoli e informati sul tema, che provassero a capire come funziona un depuratore. Ma non solo, anche come funziona questo pianeta.

Quindi mi permetto di dare i miei suggerimenti di lettura. Una bibliografia minima essenziale per avere le idee più chiare.

Ingegneria sanitaria ambientale. 

               D’Antonio Giuseppe Edizioni Hoepli

              Eugene P Odum Edizioni Piccin Nuova Libraria

  • Il grande bisogno

Rose George Edizioni Bompiani

  • I limiti alla crescita

D H Meadows – D L Meadows – J Randers – WW Behrens III Edizioni LU CE

Arte e Scienza

In evidenza

Luigi Campanella, già Presidente SCI

La Scienza ha sempre considerato lo studio della vita in età preistorica come un contributo fondamentale per capire la dinamica della società civile, delle trasmigrazioni, dello sfruttamento delle risorse naturali, del passaggio dall’individualismo alla società civile ed altri affascinanti temi. Sono molte le discipline che hanno contribuito a questi studi e fra queste, non solo storiche, anche la chimica che ha indagato su residui alimentari, sulle articolazioni degli insediamenti civili, sul rapporto fra patologie e qualità ambientale, sullo sfruttamento dei materiali naturali. In un recente volume di Carole Fritz “L’ Arte nella Preistoria” il testo conduce la stessa indagine attraverso lo studio archeologico di pitture ed opere in rilievo diffuse in tutto il globo.

La creatività dei primi gruppi tribali si è dimostrata una rivelazione attraverso immagini di grande valore non solo storico, tanto che per alcuni di essi si parla della loro capacità di ispirare geni del nostro tempo come Picasso. Le immagini ritrovate in Paesi americani, asiatici africani, ma anche, in misura minore, europei si riferiscono al mondo animale e vegetale, ma anche al mondo sociale perfino ai primi concetti di economia, di politica del lavoro, di ricerca della conoscenza.

Oggi in alcuni paesi questi siti vengono esaltati per un valore quasi spirituale, un ponte verso la metafisica celeste. Bisonti, cervi, leoni, giraffe, orsi, cavalli, ma anche sciamani, dee, ninfe che nella loro bellezza estetica confermano che l’arte è l’attività simbolica più preziosa dell’Homo Sapiens.

A volte queste immagini sono collocate in rocce sotterranee che inducono a chiedersi: ma perchè in un luogo così poco accessibile e visitato? La risposta più probabile è data dalla chimica che correla questa abitudine alla migliore qualità ambientale di anfratti protetti dagli eventi atmosferici e dalla incuria dell’uomo.

Quasi contemporaneamente al testo di Fritz ne è stato pubblicato un altro del genetista Guido Barbujani che integra quello di Fritz: questo, abbiamo visto di carattere socioambientale, quello di Barbujani più dedicato all’evoluzione dell’Homo Sapiens ed alle diverse scoperte di scheletri avvenute nel mondo.

L’ autore in 25 racconti descrive l’evoluzione dell’uomo. Ogni racconto si riferisce alla scoperta di uno scheletro da Oase 2, cranio preistorico di 37 mila anni fa, allo scheletro di Cap Blanc, dall’Africa al Brasile, dall’uomo di Cheddar, prime pelli bianche, occhi chiari, a Ötzi,il Sapiens italiano.

In molte di queste scoperte il livello di conoscenza è stato di certo accresciuto attraverso la chimica della datazione che riesce a superare i limiti del tempo che passa individuando segnali e marker che consentono di decifrare la nascita o l’età di un reperto. È vero che i metodi più affidabili, basati sugli isotopi radioattivi del carbonio, possono essere classificati come fisici, ma quelli sulla racemizzazione, sulla degradazione chimica indotta, sul valore dell’indice di depolimerizzazione, per certi aspetti la stessa dendrocronologia, di certo sono chimici.

Resistenza batterica e farmaci non antibiotici.

In evidenza

Claudio Della Volpe

Su questo blog abbiamo parlato spesso di infezioni batteriche e di resistenza agli antibiotici; per esempio qui.

Negli ultimi giorni un lavoro molto interessante è stato pubblicato su PNAS su questo argomento e vale la pena di rifletterci.

Antidepressants can induce mutation and enhance persistence toward multiple antibiotics

Yue Wang, Zhigang Yuh, Pengbo Ding, +6 , and Jianhua Guo  PNAS 2023 Vol. 120 | No. 5

Guo si è interessato ai possibili contributi dei farmaci non antibiotici alla resistenza agli antibiotici nel 2014, dopo che il lavoro del suo laboratorio ha trovato più geni di resistenza agli antibiotici che circolano nei campioni di acque reflue domestiche che nei campioni di acque reflue degli ospedali, dove l’uso di antibiotici è più alto.

Nell’articolo di commento uscito su Scientific American si dice:

In un lavoro del 2018, il gruppo ha riferito che Escherichia coli è diventato resistente a più antibiotici dopo essere stato esposto alla fluoxetina, che viene comunemente venduta come Prozac.

 L’ultimo studio ha esaminato altri 5 antidepressivi e 13 antibiotici di 6 classi di tali farmaci e ha studiato come si è sviluppata la resistenzain E. coli.

Guo ipotizza che essi provochino “una risposta SOS”, innescando meccanismi di difesa cellulare che, a loro volta, rendono i batteri più capaci di sopravvivere al successivo trattamento antibiotico.

Dicono gli autori:

La resistenza agli antibiotici è una minaccia urgente per la salute globale. Gli antidepressivi sono consumati in grandi quantità, con una quota di mercato farmaceutica simile (4,8%) agli antibiotici (5%). Mentre gli antibiotici sono riconosciuti come il principale motore dell’aumento della resistenza agli antibiotici, poca attenzione è rivolta al contributo degli antidepressivi in questo processo. Qui, dimostriamo che gli antidepressivi a concentrazioni clinicamente rilevanti inducono resistenza a più antibiotici, anche dopo brevi periodi di esposizione. Anche la persistenza degli antibiotici è stata migliorata. Le analisi fenotipiche e genotipiche hanno rivelato che l’aumento della produzione di specie reattive dell’ossigeno dopo l’esposizione agli antidepressivi era direttamente associato ad una maggiore resistenza. Una maggiore risposta alla firma dello stress e la stimolazione dell’espressione della pompa di efflusso sono state anche associate a una maggiore resistenza e persistenza. I modelli matematici hanno anche previsto che gli antidepressivi avrebbero accelerato l’emergere di batteri resistenti agli antibiotici e le cellule persistenti avrebbero contribuito a mantenere la resistenza. Nel complesso, i nostri risultati evidenziano il rischio di resistenza agli antibiotici causato dagli antidepressivi.

Ma quale o quali sarebbero i meccanismi implicati?

Nei batteri cresciuti in condizioni di laboratorio ben ossigenate, gli antidepressivi hanno indotto le cellule a generare specie reattive dell’ossigeno: molecole tossiche che attivavano i meccanismi di difesa del microbo. Soprattutto, questo ha attivato i sistemi di pompaggio di efflusso dei batteri, un sistema di espulsione generale che molti batteri usano per eliminare varie molecole, compresi gli antibiotici. Questo probabilmente spiega come i batteri potrebbero resistere agli antibiotici senza avere specifici geni di resistenza. Ma l’esposizione di E. coli agli antidepressivi ha anche portato ad un aumento del tasso di mutazione del microbo e alla successiva selezione di vari geni di resistenza. Tuttavia, nei batteri cresciuti in condizioni anaerobiche, i livelli di specie reattive dell’ossigeno erano molto più bassi e la resistenza agli antibiotici si sviluppava molto più lentamente.

Certamente questa diventa una nuova frontiera per lo studio e l’abbattimento della resistenza agli antibiotici, vista anche la enorme diffusione dei farmaci antidepressivi.

Sitografia

Nature – How antidepressants help bacteria resist antibiotics A laboratory study unravels ways non-antibiotic drugs can contribute to drug resistance. Liam Drew

doi: https://doi.org/10.1038/d41586-023-00186-y

https://www.scientificamerican.com/article/how-antidepressants-help-bacteria-resist-antibiotics/

Il lager, la materia, la chimica e la scrittura nell’esperienza di Primo Levi

In evidenza

Mauro Icardi

Primo Levi in un’intervista televisiva racconta quali siamo stati gli elementi fondamentali della sua vita: la prigionia e l’avere deciso di scrivere.

 Il terzo elemento fondamentale della sua vita, cioè la chimica, non è mai assente anche durante la tragica esperienza quotidiana del vivere in Lager. Si manifesta in diversi modi, dal quasi surreale esame di chimica sostenuto in Lager davanti al Dottor Pannwitz, fino al tentativo di costruire pietrine per accendini con dei cilindretti di cerio trovati in un magazzino dl camp di prigionia.

Levi affermò anche che Auschwitz fosse stata forse l’esperienza più importante della sua vita. Non è semplice mettersi nei panni di questo uomo timido e garbato, che si trova proiettato nella bolgia del Lager a soli ventiquattro anni, e comprendere i pensieri e le emozioni profonde che possono averlo spinto a questa affermazione.

L’esperienza vissuta lo spinge a scrivere, perché sente dentro di sé l’obbligo morale di testimoniare quello che era l’organizzazione dei campi di sterminio.  E lo fa non solo esaminando la questione dal punto di vista morale e storico, ma anche descrivendo le assurde regole che vigevano nel campo, e le terribili condizioni di igieniche a cui i prigionieri dovevano sottostare.

Il primo testo pubblicato da Levi dopo il ritorno dal Lager è intitolato “ Rapporto sulla organizzazione igienico-sanitaria del campo di concentramento per ebrei di Monowitz”. Fu scritto in collaborazione con l’amico Leonardo De Benedetti, e comparve sulla rivista Minerva Medica. L‘intenzione era quella di descrivere con la massima obbiettività le condizioni del campo, le patologie che affliggevano i prigionieri, e il funzionamento delle camere a gas.

Ma Levi scrisse anche una lettera che inviò alla redazione de “La chimica e l’industria” e che venne pubblicata nel numero di Dicembre del 1947.

Levi descrive la condizione dei prigionieri e fornisce alcune notizie sulle sue produzioni chimiche: il campo di Monowitz, struttura satellite del più noto campo di Auschwitz, era infatti sede di vari impianti chimici, tra cui uno gigantesco per la produzione di gomma sintetica, la cosiddetta “buna”*. I bombardamenti alleati del Luglio 1944 danneggiano in parte gli impianti per la produzione della buna, che infatti non verrà mai prodotta nel campo di Monowitz. Restano attive però altre produzioni, tra cui quella di metanolo. L’azienda che gestisce gli impianti all’interno dei lager e tutta la produzione chimica di interesse per il regime nazista e l’economia di guerra è la IG Farben.

Nel dopoguerra, nel breve periodo in cui Levi prova ad esercitare la libera professione, prova a sintetizzare l’allossana come stabilizzante da impiegare nella formulazione di un rossetto. La descrizione della faticosa ricerca della materia prima, cioè escrementi di gallina, e il difficoltoso tentativo di sintetizzarla partendo dall’acido urico che vi è contenuto, e che terminerà con un insuccesso, è narrata in “Azoto”, sedicesimo racconto contenuto ne “Il sistema periodico”.

Ed è in questo capitolo che Levi spiega una parte della filosofia chimica. Partendo dall’idea che lo faceva sorridere, cioè il ricavare un cosmetico da un escremento. Cosa che non lo imbarazzava minimamente.

Il mestiere di chimico (fortificato, nel mio caso, dall’esperienza di Auschwitz) insegna a superare, anzi ad ignorare, certi ribrezzi, che non hanno nulla di necessario né di congenito: la materia è materia, né nobile né vile, infinitamente trasformabile, e non importa affatto quale sia la sua origine prossima.”

Quello della manipolazione della materia, insieme alla modificazione dell’uomo operata nel Lager, è uno dei capisaldi dell’intera sua opera. La materia che resiste all’uomo in una lotta senza fine, così come l’uomo resiste, nonostante tutto, alla manipolazione operata dai nazisti nel campo di concentramento.

* La buna è la gomma sintetica che si può ottenere dalla copolimerizzazione del butadiene con lo stirolo o con il nitrile acrilico. Il termine, il quale può sembrare così particolare, non è altro che la fusione tra le due iniziali delle parole Butadiene e Natrium (sodio) che sono la materia prima e il catalizzatore che si sfruttano nel processo.

Cibo e imballaggi.

In evidenza

Luigi Campanella, già Presidente SCI

La qualità alimentare dipende ovviamente dai prodotti a cui ci si riferisce, ma c’è poi una componente che gioca sempre un ruolo fondamentale, forse anche più importante di quanto si possa pensare. Intendo parlare degli imballaggi alimentari che proteggono l’alimento da contaminazioni e degrado, assicurando al tempo stesso il mantenimento delle caratteristiche di qualità. Inoltre con le etichette le confezioni forniscono preziose indicazioni ai consumatori circa proprietà ed uso dell’alimento confezionato. Si possono individuare 3 fasi nello sviluppo dell’imballaggio alimentare smart: una iniziale fino al 2000, una di sviluppo per altri 15 anni ed una terza esponenziale che arriva e si proietta oltre i tempi nostri.

La ricerca scientifica ha contribuito molto alla seconda fase moltissimo alla terza. In particolare la pandemia dovuta a covid 19 ha segnato un’accelerazione ed una intensificazione delle ricerche aventi per oggetto materiali sostenibili, sicuri, naturali. La maggior parte però dei prodotti delle ricerche non è ancora oggi commercializzata a causa degli elevati costi di produzione e la mancanza di codificati standard di qualità. La ricerca accademica, con le prove sui materiali e lo studio dei meccanismi di funzionamento, è davanti alla commercializzazione, come dimostrano le migliaia di lavori scientifici prodotti sul tema. È anche interessante rilevare la molteplicità delle discipline coinvolte, alternandosi atteggiamenti esclusivi monodisciplinari ad altri ben più aperti in favore di multi-pluri-inter-disciplinarietà.

Dettaglio di un convertitore analogico digitale stampato con materiali organici,
anziché con silicio, per il monitoraggio di alimenti nelle loro confezioni. Economico e veloce da realizzare. © Bart van Overbeeke

Quando i relativi risultati si trasferiranno alla produzione di imballaggi sicuri su larga scala saranno i consumatori ad usufruire di questi avanzamenti. Uno stadio intermedio nella fase di avanzamento con i nuovi materiali inseriti all’interno dei sistemi oggi operanti è probabilmente un saggio approccio metodologico.

Oggi vengono classificati 3 tipi di imballaggi avanzati: gli smart dotati di sensori, in genere Biosensori, per il controllo che il  contenuto non subisca danni durante il tragitto; gli imballaggi attivi in cui il materiale del contenitore è additivato con composti che possono essere assorbiti o rilasciati nelle due direzioni contenuto/contenitore e viceversa; gli imballaggi intelligenti dotati di sensori di controllo del contenuto come negli smart, ma anche in questo caso dell’ambiente circostante per evitare che da esso derivino rischi per il contenuto ed anche per l’integrità dell’imballaggio. Sono numerosi i materiali degli imballaggi di nuova generazione, usati sia come base sia come additivi partire da biopolimeri, cellulosa, proteine, amidi, polisaccaridi formabili in 3D. Quando si utilizzano additivi questi vengono ricercati con attenzione a proprietà specifiche, antibatteriche, antiossidanti, passivanti

La dieta planeterranea

In evidenza

Luigi Campanella, già Presidente SCI

La dieta mediterranea è da sempre considerata un veicolo fondamentale per alcune tradizioni e per la cultura alimentare del nostro Paese, oltre che per un sostegno significativo all’economia, anche se da sempre questi riconoscimenti subiscono qualche critica, dovuta alla difficoltà di trasportare una dieta così specifica a realtà così diverse come quelle che si trovano nel mondo, per di più riconosciute nella visione globalizzata del nostro Pianeta.

Una risposta puntuale a questi dubbi è venuta dalla Università Federico II di Napoli con una proposta ripresa anche da Nature, il più prestigioso giornale scientifico al mondo. La proposta è quella di esportare la dieta mediterranea nel mondo adattandola ai cibi giusti di ogni continente. Nature ha considerata geniale l’idea trasformandola in un editoriale girato, vista la diffusione del giornale, al mondo intero e tale da giustificare una nuova denominazione, non più dieta mediterranea, ma planeterranea.

Resta il carattere di un regime alimentare basato sulla completezza dei nutrimenti provenienti da alimenti freschi, stagionali con basso indice glicemico, conditi con olio extravergine. Nella nuova versione planiterranea la dieta mediterranea potrà accogliere quindi alimenti asiatici come anche sudamericani con nuove piramidi alimentari locali che però dovranno attenersi alle regole della dieta mediterranea, principalmente a base vegetale, frutta fresca e secca, con apporto adeguato di grassi mono e poli-insaturi, con farina integrale, legumi e, in quantità limitata, pesce, latticini, carne.

Assortment of various food groups: proteins, fats, fruit, vegetables and carbohydrates.

Gli studiosi che hanno formulato la proposta si sono spinti oltre, fino ad individuare, continente per continente, gli alimenti equivalenti ai fini della dieta. Un.esempio molto rappresentativo è rappresentato dai cibi algali tipici dei paesi subtropicali, raccomandati contro l’ipertensione, costituenti una fonte importante di fibre, proteine , polisaccaridi, sali, vitamine. In Canada l’olio estratto da una modificazione della colza e e da alcune variazioni di fagioli si fanno consigliare come alimenti contro l’accumulo di colesterolo. In Africa i prodotti estratti dalla manioca risultano pienamente corrispondenti per proprietà ai nostri spinaci. In America Latina avogado e papaia sono fonti di acidi grassi monoinsaturi, vitamine e polifenoli. La dieta planeterranea verrà diffusa attraverso una piattaforma ad hoc con il fine di contrastare malattie ed obesità. Per quanto riguarda le prime la proposta rinforza ulteriormente la cultura nutraceutica, secondo la quale molti dei principi attivi dei farmaci possono essere introdotti nell’organismo attraverso alimenti con proprietà antinfiammatorie, antidolorifiche, antiossidanti, antimicrobiche, antivirali così contribuendo a ridurre uno degli inquinamenti del nostro tempo sempre più presenti, quello da farmaci e loro prodotti metabolici che ha causato il moltiplicarsi, in 3-4 decenni, per 30 dell’inquinamento da farmaci delle acque dei fiumi europei.

Per il secondo aspetto c’è da osservare che adolescenti e genitori sono persone per il 30% inconsapevoli della loro condizione di obesità, come risulta da un recente studio internazionale “Action Teens”. Questa incoscienza della patologia porta a non contrastarla con conseguenze anche peggiori della causa primaria. L’Italia è purtroppo tra i Paesi a maggiori valori di sovrappeso ed obesità nei giovani in età scolare le cui conseguenze possono essere prevenute a patto di interventi tempestivi e finalizzati

Se un giorno ti svegli e il depuratore non c’è più.

In evidenza

Mauro Icardi

(Ricordi degli anni 70 e di scelte che sono state inevitabili)

Per la mia formazione culturale e personale, gli anni 70 sono stati decisamente molto importanti. In quel decennio sono passato dall’essere un bambino con le prime insopprimibili curiosità, e sono arrivato ad un passo dall’essere maggiorenne. I diciotto anni li avrei compiuti nel 1980.

Furono molti gli avvenimenti che in quegli anni cercavo di approfondire, leggendo il quotidiano di Torino “La Stampa”, che mio padre acquistava quasi tutti i giorni. L’austerity, l’epidemia di colera, il disastro di Seveso tra i tanti. Ma anche terrorismo, crisi economica, guerre (che non ci facciamo mancare mai), inquinamento e sofisticazioni alimentari.

L’austerity con la conseguente proibizione dell’uso dell’auto nei giorni festivi mi riportò indietro nel tempo, ovvero a prima dell’acquisto della prima automobile di famiglia, una fiat 500. I mezzi che utilizzavamo per spostarci erano principalmente treno e tram. Questa situazione è durata fino a quando non ho compiuto sei anni. Credo che la passione che ancora oggi ho per i mezzi su rotaia sia nata proprio in quel periodo. Mia madre mi racconta che uno dei nostri svaghi era andare in giro la domenica con il tram numero nove, partendo dal quartiere di Borgo Vittoria a Torino, dove ho abitato fino al 1966, percorrendo quasi tutta la  linea fino ad arrivare al capolinea opposto, che si trovava a pochi metri dallo stadio comunale. Con lo stesso tram raggiungevamo la stazione di Porta Nuova quando si andavano a trovare i nonni paterni e materni nel Monferrato. Un tragitto di circa un’ora e mezza che mi sembrava infinito, e che avrei voluto non finisse tanto presto.  Ero un bambino curioso che pronunciava molto spesso una parola: perché. Su quei treni c’erano molte altre persone, parenti o amici dei miei genitori, che ritornavano nello stesso paese, cioè Mombaruzzo.

Quando mia mamma era sul punto di soccombere alle mie continue domande, mi affidava a qualche persona di buona volontà, che mi faceva passeggiare avanti e indietro lungo il convoglio.

 E puntualmente ricominciavo a tempestare il povero sventurato con una raffica continua di domande. Nel 1973 posso dire che l’austerity fu per me decisamente un periodo festoso. Ero libero di viaggiare quasi a piacimento in treno e in bicicletta! Il treno avevamo smesso di usarlo ormai da cinque anni. La 500 color “Blu turchese”, come recitava la targhetta applicata all’interno del piccolo portello che copriva il vano motore posteriore, lo aveva soppiantato. Ma adesso si prendeva la sua rivincita. Così io potevo tornare a soddisfare la mia passione per treni e tram.

La crisi petrolifera del 1973 ebbe l’effetto di far comprendere, anche se solo parzialmente, che non era saggio affidare le necessità di mobilità unicamente alla motorizzazione privata. Torino accantonò il progetto di dismissione della rete tramviaria, e le ferrovie cercarono di fermare la tendenza al calo costante di passeggeri. Ricordo una campagna pubblicitaria per incentivare l’uso del treno che mi aveva molto colpito. Si poteva vedere sui cartelloni pubblicitari, e sulle pagine di riviste e quotidiani.  Uno sconcertato viaggiatore con la valigia in mano sul marciapiede di una stazione, guardava la massicciata priva di rotaie, mentre la didascalia sullo sfondo recitava più o meno cosi: “Se un giorno ti svegli e il treno non c’è più?”

Personalmente vista la mia passione ferroviaria, provo sempre molto disagio quando vedo massicciate senza più binari. Ed è stato proprio il ricordo di quella campagna pubblicitaria che mi ha suggerito il titolo di questo post e le riflessioni che seguono.

L’abitudine a considerare scontate alcune cose, spesso ci fa perdere la percezione della loro importanza.      In quegli anni si manifestarono con molta evidenza i risultati di uno sviluppo industriale che era stato impetuoso, ma che non aveva minimamente considerato l’impatto dei residui sull’ambiente naturale. Anche la crescita della popolazione nelle città più industrializzate ebbe un forte impatto sull’ambiente. Esistevano sul territorio nazionale alcuni depuratori, che si limitavano ad effettuare un trattamento che spesso si limitava alla sola sedimentazione primaria, prima di scaricare i reflui direttamente nei corsi d’acqua.  Proviamo a immaginare cosa potremmo vedere se domani svegliandoci ci accorgessimo che i depuratori sono spariti.

Faremmo un gigantesco passo indietro. Torneremmo a vedere i fiumi cambiare colore a seconda degli scarichi che in quel momento vi si riversano, e potremmo capire che ora del giorno sia. Questo si diceva del fiume Olona, prima che iniziasse l’opera di risanamento. Ci accorgeremmo della presenza di un fiume sentendo a centinaia di metri di distanza l’odore nauseante della degradazione anossica della sostanza organica. Ma prima di tutto questo sentiremmo l’odore della putrefazione dei pesci. Perché i pesci sarebbero i primi a sparire, boccheggiando disperatamente alla ricerca di quell’ossigeno che le loro branchie, nonostante l’evoluzione le abbia rese più efficienti dei nostri polmoni, non riuscirebbero più ad assorbire. Non vi sarebbe più ossigeno disciolto, né vita acquatica come siamo abituati a concepirla.

E di questo si parlava nei testi scolastici proprio degli anni 70. Nei telegiornali, e nelle trasmissioni televisive che ancora si possono rivedere nei siti della Rai.

Credo abbia un valore storico riportare il testo di questo articolo del 29 Luglio 1970,tratto dall’archivio storico del quotidiano “La stampa”, che descrive l’inquinamento della laguna di Venezia. Nella stessa pagina vi erano articoli relativi allo stesso problema, che spaziavano dal litorale di Roma, al canale Redefossi di Milano, e ai fiumi Bormida e Tanaro in Piemonte.

La laguna “fermenta” Moria di pesci – Gravi preoccupazioni a. (g. gr.)

 La laguna fermenta: questo l’allarme che parte da Venezia e si inserisce nel preoccupante quadro degli inquinamenti. Tralasciando di parlare del mare e dei fiumi della sua zona, è soprattutto la laguna che preoccupa i veneziani. Basti ricordare come alla fine dello scorso giugno una preoccupante moria di pesce si sia accompagnata ad un puzzo insopportabile che giorno e notte infastidì i veneziani; gli oggetti in argento si annerivano, alghe putrefatte affioravano nei canali, macchie preoccupanti comparivano sui muri delle case. Il fenomeno — è stato dichiarato ufficialmente dal comune — verosimilmente è da riferirsi a una lenta modificazione dell’ecologia lagunare. A Venezia, hanno detto gli esperti, la laguna si sta concimando, cioè sta diventando troppo fertile. Secondo i ricercatori dell’Università di Padova, i responsabili di questa trasformazione del fondo e della flora lagunare sono gli scarichi urbani, i detersivi, i fertilizzanti agricoli, le immondizie e l’industria. Nella laguna si sono anche notati aumenti nella presenza di idrocarburi, dovuti probabilmente all’accumulo di scarichi incontrollati di nafta sull’arco dei decenni. Quest’ultimo fenomeno mette in evidenza l’urgenza di dotare la città di fognature e di impianti di depurazione adeguati. Il fenomeno dell’inquinamento preoccupa le autorità per due motivi: la circolazione nei canali viene resa difficile dagli accumuli di rifiuti, il turismo sarebbe poi gravemente danneggiato dalla visione delle larghe chiazze di nafta sulla superficie dell’acqua. Venezia perderebbe il suo fascino, insomma. Non esistono per ora pericoli per gli abitanti, ma si prospetta, con l’andare del tempo, anche questo rischio.

E’ stata la lettura di articoli simili a questo, è stato l’aver visto con i miei occhi di bambino prima, e di adolescente poi, che esplorava il proprio spicchio di mondo pedalando su una bicicletta modello “Graziella” di colore azzurro, i canali di irrigazione nella campagna adiacente a Chivasso dove galleggiavano  flaconi di plastica, che si ammassavano sotto le arcate dei ponti. Tutto origina da quegli anni.

I trent’anni di lavoro in depurazione sono stati già superati. La passione di voler imparare e conoscere ancora, proprio no. Perchè c’è sempre tanto lavoro da dover fare. C’è sempre una spinta ad avere delle passioni E c’è da sperare che domani, svegliandoci al mattino, ci si renda conto che non sono spariti né i treni, né i depuratori. La chimica è stata una chiave, uno strumento di lavoro per approcciare questi temi. Giusto ricordarlo. Rifletto spesso che date queste premesse posso dire di essere stato fortunato a fare il lavoro che ho fatto. E anche quello che cerco di fare qui, raccontando di cosa si occupano i tecnici della depurazione.

Smontiamo le cialde (e le capsule).

In evidenza

Luigi Campanella

Un americano su 2 ha una macchina da caffè con capsule o cialde. Tenuto conto che l’Europa cammina ad una velocità poco inferiore a quella americana e che anche il mercato asiatico è in via di adeguamento a questi numeri si calcola che nel 2025 il giro di affari dei vari tipi di capsule si aggirerà sui 30 miliardi di euro. In Italia 2 famiglie su 5 usano le cialde per un totale di1,5 miliardi di cialde l’anno con un tasso di crescita annua del 13%. Nel.mondo le cialde consumate ammontano a mezzo miliardo di tonnellate. Questi dati giustificano quanto si sta tentando di fare per ridurli a valori più sostenibili. La prima osservazione non può che riguardare lo stile di vita e chiedersi se proprio sia necessario abbandonare la moka per il caffè monouso anche pensando al fine vita: un elettrodomestico elettronico contro un altro più facilmente  smaltibile in quanto più smontabile nei singoli pezzi e ricaricabile nell’uso in modo semplice con un cucchiaino. Ovviamente chi sceglie le cialde fa riferimento alla rapidità con cui si ottiene la bevanda amata ed alla assenza di rischio di bruciare il caffè o di dimenticare il fuoco acceso. Per contrastare le critiche alle cialde i produttori si muovono su varie direzioni a cominciare con lo scaricare sul consumatore la responsabilità di uno smaltimento sostenibile.

L’altro accorgimento è ricorrere a capsule svuotabili fatte in un solo materiale rispetto al.mjx attuale (plastica ed alluminio) con il caffè usato svuotato da conferire nel bidoncino dell’organico. Per agevolare il consumatore alcuni produttori forniscono un apri capsule domestico che con una leggera pressione separa il contenitore dal contenuto. Però nascono allora 2 domande: il guadagno di tempo che fine ha fatto? Perchè non ricorrere alla riutilizzabilità delle capsule con la possibilità di ricaricare con qualunque miscela di caffè e conseguente vantaggio economico? Alcuni produttori raccolgono le capsule usate, separano contenuto da contenitore e riciclano il materiale di questo. L’alluminio è uno degli elementi più facilmente ed economicamente riciclabili con un risparmio energetico del 90% rispetto ai costi di produzione dalle materie prime. Il caffè smaltito è un ottimo concime, specificatamente in relazione alla sua composizione per le culture di riso di cui viene incrementata significativamente la produttività con i conseguenti vantaggi economici ed etici (lotta alla fame.nel.mondo). Una recente opzione del mercato è il ricorso alla cialda fotodegradabile in carta con il vantaggio che si può conferire il tutto nell’organico senza nessuna separazione fra contenitore e contenuto.

L’ultima innovazione viene dalla Svizzera con una sfera costituita da un polimero algale contenente caffè pressato e quindi da potere essere caricato in minore quantità senza incidere sul gusto della bevanda. Come si vede tanti pro e tanti contro, senza parlare dell’aspetto estetico e dell’eleganza dei vari modelli alcuni dei quali smontabili e ristampabili in 3D per le parti danneggiate. Un discorso più scientifico circa il confronto fra le varie possibili soluzioni si può fare con riferimento ai differenti valori della impronta carbonica utilizzando le Public Available Specifications. Una ricerca dell’Università della Tuscia ha fornito i risultati di questo confronto.

La moka ad induzione genera 55-57 g di CO2,la moka a gas 47-59 g, la macchina per il caffè espresso 74-96 g, quella a capsule 57-73, infine quella a cialde 72-92 g. C’è però da precisare che se si considera l’intero ciclo di vita vanno aggiunti ai dati ora forniti le quantità di CO2 prodotta per la produzione e lo smaltimento di cialde e capsule. Ci sono poi da considerare gli imballaggi, tutti a favore della tazzina con moka, solo 0,5 g contro i 6,4 g del caffè in cialde. A questi dati a favore della moka ad induzione si deve poi aggiungere ad ulteriore suo vantaggio che questa consuma meno energia per essere scaldata:6 wattora contro il doppio della macchina a cialde.

Scaldarsi con poco?

In evidenza

Claudio Della Volpe

Giorni fa mi sono imbattuto nella pubblicità di vari tipi di stufe che non appaiono così comuni e mi è venuta spontaneamente la voglia di approfondirne le caratteristiche; dopo tutto siamo in inverno e il riscaldamento degli edifici è uno dei problemi pratici da affrontare per milioni di persone; certo la cosa migliore è di investire in case che non hanno bisogno di riscaldamento oppure che usano energie rinnovabili, per esempio l’accoppiata fotovoltaico-geotermia a bassa temperatura che si avvia a diventare una delle tecniche più interessanti.

Ma diciamo la verità, da una parte la scarsa conoscenza tecnica dall’altra la presenza di un robusto sistema produttivo basato sul bruciare qualche tipo di combustibile e infine i costi relativamente elevati delle tecnologie più nuove fanno si che vengano alla ribalta metodi molto più tradizionali.

Oggi vi farò due esempi, fra di loro alquanto diversi, di questi metodi perché mi hanno colpito e perché dopo tutto sono relativamente diffusi: uno è un metodo di riscaldamento diretto basato sulle stufe ad alcool etilico o come dicono i venditori a “bioetanolo” e l’altro un metodo sostanzialmente di accumulo del calore, le stufe a sabbia, che potrebbe forse essere sfruttato per cose più ambiziose.

C’è un massiccio dispositivo pubblicitario che spinge le cose, specie nel caso delle stufe a bioetanolo e che è basato su una serie di enormi ambiguità.

A cominciare dal nome “bioetanolo”; come al solito il prefisso bio è usato con uno scopo esclusivamente pubblicitario; si sottintende che dato che è di origine naturale, ottenuto per distillazione da componenti vegetali è un prodotto sano e buono di per se; ma le cose sono più complesse di così.

Lavori recenti confermano quel che già si sapeva: la produzione di bioetanolo da piante come la cassava o il mais o la canna da zucchero entra in diretta concorrenza con la produzione di cibo e lo fa specie in paesi poveri, dove quella produzione è preziosa. In secondo luogo se uno fa il conto di quanta energia si ottiene per via netta, scorporando l’energia grigia (ossia quella che serve alla coltivazione distillazione e trasporto ) il conto non torna, i risultati sono spesso al limite o della unità o di un valore critico minimale (EROI 3:1) e solo alcuni autori lo stimano molto alto e comparabile con quello di tecnologia più affermate (per dati affidabili si veda per esempio un lavoro di Hall, che ha inventato il concetto di EROI,  e altri, https://www.sciencedirect.com/science/article/pii/S0301421513003856).

Dunque la parolina bio non basta a rendere l’etanolo di origine agricola un prodotto sostenibile; ma c’è molto di più. Il vantaggio che viene stressato da chi vende le stufe a bioteanolo o ad etanolo (dopo tutto il consumatore finale difficilmente è in grado di rendersi conto della effettiva origine del combustibile che compra casomai su Amazon) è che non c’è bisogno per queste stufe di avere un camino.

Alcuni produttori citano a questo riguardo un regolamento europeo del 1993 (dunque ormai trentennale) ma che si riferisce alla denaturazione dell’alcol etilico; mentre in realtà le norme che consentono e regolano le stufe a bioetanolo sono norme UNI o EN, la UNI-11518:2013 poi superata dalla UNI EN 16647 : 2016; come tutte le norme UNI questa non è libera, cioè occorre pagare per poter leggere le norme necessarie a fare le cose, una assurdità tutta italiana e tutta mercantile; d’altronde siamo o no il paese in cui per sapere come pagare le tasse occorre andare da un commercialista o al CAF? Diciamo che questi pagamenti servono agli stipendi di UNI più che a pagare gli esperti che fanno le norme e che non vengono pagati.

Alcune cose si riescono a estrarre comunque.

Ci sono alcuni metodi di riscaldamento a combustione che non necessitano di camino: sia l’etanolo che gli idrocarburi liquidi, il GPL (questi ultimi se bruciati in stufe a catalizzatore) godono di questo privilegio. (ATTENZIONE: le stufe a pellet dette “senza canna fumaria” in realtà necessitano di una canna fumaria, non necessariamente in muratura.)

La differenza fra queste due tipologie sta nel fatto che le stufe a etanolo o a GPL non fanno fumi (o almeno non ne fanno in quantità significative), ma producono invece i prodotti basici della combustione, CO2 ed acqua, più una quantità piccola ma misurabile di altre molecole tipiche delle combustioni, anche in funzione delle condizioni effettive di composizione del combustibile e di combustione (miscelazione, temperatura, etc). La purezza del combustibile è dunque condizione essenziale per evitare la produzione di sostanze tossiche o semplicemente puzzolenti. Non completamente perché secondo il regolamento del 1993 che invece stabilisce la composizione dell’alcol denaturato (che è quello al 96% che si usa in questi casi) una quantità di “impurezze” sono permesse dalla legge; le tecniche di denaturazione dipendono dal paese europeo; in Italia per esempio l’alcool denaturato contiene:

Per ettolitro anidro di alcole puro:
– 125 grammi di tiofene,
– 0,8 grammi di denatonium benzoato,
– 0,4 grammi di C.l., acid red 51 (colorante rosso),

– 2 litri di metiletilchetone.

Nel momento della combustione queste sostanze, specie all’inizio, possono produrre comunque odore sgradevole. Infine piccole quantità di CO (che è tossico, non solo asfissiante come la CO2) si possono produrre specie se il dispositivo funziona male.

Un secondo problema è causato poi dal fatto che l’alcool etilico è infiammabile e questo, specie in fase di riempimento del serbatoio, può dare origine a pericolosi incidenti se non si rispettano regole precise per evitare il contatto con materiali molto caldi; un nutrito set di incidenti a livello internazionale è riportato in letteratura (vedi in fondo) . Per evitare grandi rischi la quantità di alcol che si può usare per ciascuna alimentazione è ridotta, diciamo che in una grande stufa c’è un serbatoio di 4-5 litri ossia, considerando la densità di 0.8 kg/L, qualche chilo.

E arriviamo ad un po’ di stechiometria e chimica fisica; quanto calore e quanta CO2 si producono?

L’entalpia di combustione dell’alcol etilico puro è di 27 MJ/kg (la legna oscilla fra 15 e 17MJ/kg) e la quantità di CO2 prodotta è di 1.9kg/kg (all’incirca 1.8 nel caso del legno).

La differenza sta oltre che nella bassissima produzione di fumi da parte dell’alcol nel ridotto rischio nel maneggiare la legna; mentre far bruciare l’alcol è molto semplice accendere il fuoco con la legna può essere parecchio più difficile.

Una grande stufa ad alcol, diciamo da 3-4 kW di potenza col suo serbatoio di 5 litri (ossia 4kg) potrà bruciare per quanto tempo? La risposta è alcune ore, ma queste sono le dimensioni massime che si possono avere; semplice fare il conto se avete 4kg di alcol potete ottenere poco più di 108MJ  di energia termica; 4 kW sono 4kJ/s e dunque la stufa potrà lavorare per 7-8 ore, consumando circa mezzo litro l’ora. E quanta CO2 produrrà? Quasi 8kg che sono 4mila litri di gas, 4 metri cubi, raggiungendo una concentrazione in un volume poniamo di 300 metri cubi,(consideriamo un appartamento di 100 metri quadri ) superiore all’1%, che è 20-30 volte maggiore della concentrazione naturale (0.04%) ossia arriviamo a 8-10mila ppm mentre il massimo consigliato in ambienti molto vissuti è 2500 ppm per evitare disturbi significativi ; un po’ troppo! Per cui la norma UNI impone di aerare i locali ripetutamente e questo ovviamente contrasta con il mantenimento di una temperatura decente.  Anche perché si genera parecchia acqua (1.2 kg/kg di alcol) e l’umidità ambientale aumenta col rischio di avere condensa e muffe.

Conclusione: sì, potete risparmiare di costruire un camino se non ce l’avete, ma la resa complessiva non sarà ottimale rispetto a quella di avere un camino funzionante e in genere non se ne consiglia l’uso in grandi ambienti : piccole stufe in piccoli ambienti, non il riscaldamento principale insomma, e sempre attenti a rischio incendio e qualità dell’aria.

Certo sono oggetti anche ben fatti ed esteticamente validi, ma questo cosa c’entra col riscaldamento?

Un’ultima considerazione è il costo; al momento è di 3 euro al litro, poco meno di 4 al kilo, mentre la legna costa 1 euro al kilo; la differenza è notevole per unità di calore ottenuta. 

Passiamo alla stufa a sabbia che è invece un oggetto della mia infanzia. mio padre era un convinto utente della stufa a sabbia; ai tempi era elettrica come è anche adesso e dunque un oggetto dai consumi certo non economici; dove è l’utilità?

L’utilità è nella capacità di riscaldare la stufa ad una temperatura anche elevata e consentire il rilascio lento di questo calore nel tempo; di solito è fatta immergendo delle resistenze metalliche nella sabbia; e la sabbia ha una capacità termica che può essere significativa dato che può raggiungere temperature elevate senza alterarsi significativamente, anche varie centinaia di gradi; ovviamente il problema è che non potete toccare la sabbia e il dispositivo deve essere costruito in modo da evitare contatti molto pericolosi, deve riscaldare solo l’aria ambiente.

La capacità termica della sabbia è di 830J/kgK; immaginiamo allora di averne a disposizione 1 kg e di riscaldarlo a 100°C sopra la temperatura ambiente; il calore disponibile sarà di 83000J; supponiamo di averne 100kg, un oggetto parecchio pesante dunque, ma una volta riscaldato avrà accumulato e ci restituirà nel tempo 8.3MJ e se lo riscaldiamo a 200°C  sopra l’ambiente avremo l’accumulo di 16.6MJ che corrispondono a bruciare un kilo di legno.

Non è impossibile isolare bene la massa di sabbia e conservare il calore per parecchie decine di ore o anche più sfruttandolo all’occorrenza.

L’idea, che è venuta ad un gruppo di tecnici finlandesi della Polar Night Energy, è di usare sabbia di quarzo di buona qualità ed in grandi quantità riscaldata a 1000°C usando per esempio eolico o fotovoltaico  nei momenti di eccesso di produzione; in questo modo ogni ton di sabbia di quarzo potrebbe immagazzinare 830MJ/ton e secondo i loro esperimenti e calcoli rappresenta un modo innovativo ma semplice di accumulare energia termica a basso costo (attenzione una ton di idrocarburo produce oltre 40GJ, 50 volte di più).

Attualmente ci stiamo concentrando su due prodotti. Al momento possiamo offrire un sistema di accumulo di calore con potenza di riscaldamento di 2 MW con una capacità di 300 MWh o una potenza di riscaldamento di 10 MWh con una capacità di 1000 MWh. Il nostro sistema di accumulo di calore è scalabile per molti scopi diversi e amplieremo la gamma di prodotti in futuro. I nostri accumulatori sono progettati sulla base di simulazioni che utilizzano il software COMSOL Multiphysics. Progettiamo i nostri sistemi utilizzando modelli di trasporto del calore transitorio 3D e con dati di input e output reali. Abbiamo progettato e costruito il nostro primo accumulo di calore commerciale a base di sabbia a Vatajankoski, un’azienda energetica con sede nella Finlandia occidentale. Fornirà calore per la rete di teleriscaldamento di Vatajankoski a Kankaanpää, in Finlandia. L’accumulo ha una potenza di riscaldamento di 100 kW e una capacità di 8 MWh. L’utilizzo su vasta scala dello stoccaggio inizierà durante l’anno 2022. Abbiamo anche un impianto pilota da 3 MWh a Hiedanranta, Tampere. È collegato a una rete di teleriscaldamento locale e fornisce calore per un paio di edifici. Il progetto pilota consente di testare, convalidare e ottimizzare la soluzione di accumulo di calore. Nel progetto pilota, l’energia proviene in parte da un array di pannelli solari di 100 metri quadrati e in parte dalla rete elettrica.

Il dispositivo è correntemente sul mercato. Ci riscalderemo con queste “batterie a sabbia”?

Materiali consultati oltre quelli citati.

https://www.expoclima.net/camini-a-bioetanolo-la-nuova-norma-uni-11518

https://eur-lex.europa.eu/legal-content/IT/TXT/HTML/?uri=CELEX:01993R3199-20050814

https://www.treehugger.com/viral-sand-battery-isnt-what-it-seems-5547707

https://sauermanngroup.com/it-IT/insights/misura-della-concentrazione-di-co2-calcolare-il-tasso-di-ricambio-dellaria

anche in Italia si producono “batterie a sabbia”: https://www.magaldigreenenergy.com/en/economy-energia-green-con-le-batterie-di-sabbia

Incidenti con le stufe a bioetanolo:

J Burn Care Res 2011 Mar-Apr;32(2):173-7. doi: 10.1097/BCR.0b013e31820aade7

Burns Volume 42, Issue 1, February 2016, Pages 209-214

https://www.sciencedaily.com/releases/2014/09/140903091728.htm

Ringrazio Gianni Comoretto per gli utili suggerimenti.


 

Recupero del fosforo: problematiche e progetti di ricerca.

In evidenza

Mauro Icardi

Il fosforo (P) è un elemento essenziale della vita, è presente in tutti gli organismi viventi ed èfondamentale in agricoltura per garantire la produttività dei suoli coltivati. Trattandosi di una risorsa nonrinnovabile e limitata, la crescente domanda di fertilizzanti sta gradualmente esaurendo le riserve di rocce fosfatiche. Inoltre i giacimenti di fosforo sono situati in zone specifiche del pianeta. Alcuni dei paesi produttori di fosforo si trovano in condizioni di instabilità geopolitica. Questo rende il prezzo soggetto a forti variazioni, ed allo stesso tempo meno certa la possibilità di approvvigionamento.  L’Europa nord-occidentale importa l’88% del fabbisogno di fosforo, circa 6,37 milioni di tonnellate per anno, da nazioni non appartenenti all’Unione Europea.

 Il fosforo può essere recuperato in diverse fasi del trattamento delle acque reflue, sia sulla matrice acqua che sui fanghi di depurazione. I fanghi di depurazione che si producono alla fine dei trattamenti eseguiti sull’acqua da depurare, contengono circa il 95-99% di acqua e l’1-5% di materia secca. Purtroppo In Italia forse più che in altri paesi, esiste un diffuso senso di perplessità nei confronti di tutto quello che riguarda la gestione ed il trattamento dei fanghi. Con molta probabilità per il risalto che hanno avuto alcune vicende di cattiva gestione. Proprio per questa ragione vanno invece incoraggiate buone pratiche e la ricerca, per la gestione di questi inevitabili residui del trattamento delle acque reflue. E aumentati i controlli sul ciclo dei rifiuti.

Dopo i processi di separazione solido/liquido, la frazione acquosa dei fanghi contiene dal 5 al 20% del fosforo in forma disciolta. Da questa frazione è possibile separare la struvite, sale fosfo-ammonico-magnesiaco. Il processo è conosciuto fin dagli anni 80 ed è utilizzato nei paesi del nord Europa.  Avevo trattato il tema già nel 2015.

 Tuttavia la maggior parte del fosforo (dall’80 al 95%) rimane nei fanghi di risulta, ottenuti dopo i processi di disidratazione meccanica. Se i fanghi vengono essiccati termicamente fino ad avere una percentuale di sostanza secca intorno al 40%, diventano idonei per un processo di termovalorizzazione alimentato dalla combustione dei soli fanghi (mono-incenerimento). La combustione è il trattamento termico oggi più utilizzato (ma non in Italia come vedremo più avanti), per la valorizzazione energetica dei fanghi non idonei per l’utilizzo in ambito agricolo. Il potere calorifico dei fanghi di depurazione essiccati fino al valore del 40% di secco, consente la loro combustione senza necessità di ricorrere all’uso di combustibili ausiliari. Con una progettazione adeguata è possibile recuperare calore per il preriscaldamento dei fanghi, o per la produzione di energia.

La percentuale di fanghi inceneriti sul totale dei fanghi prodotti è del 3% in Italia, 19% in Francia, 24% in Danimarca, 44% in Austria, 56% in Germania, 64% in Belgio, e il 100% nei Paesi Bassi e in Svizzera. Negli Stati Uniti e in Giappone le percentuali sono rispettivamente del 25% e del 55%.  In Svizzera è stato vietato totalmente l’utilizzo agricolo dei fanghi di depurazione.  I fanghi di depurazione in Svizzera sono destinati unicamente all’incenerimento, dopo essere stati sottoposti a disidratazione ed essicamento termico.

Il recupero del fosforo può essere effettuato precipitandolo come struvite dalle acque di risulta del processo di disidratazione dei fanghi, prima che esse siano reimmesse all’ingresso del trattamento depurativo. Queste acque ne contengono all’incirca il 15% del totale. Il rimanente quantitativo, come detto precedentemente, è concentrato nei fanghi umidi. In Svizzera cantone di Zurigo ha realizzato un impianto centralizzato che tratta 84mila tonnellate/anno di fanghi umidi, e produce 13000 tonnellate/anno di ceneri ricche di fosforo residuo del processo di incenerimento. I fanghi provengono da tutti gli impianti di depurazione cantonali. L’ufficio federale per l’ambiente della Svizzera sta modificando la propria normativa sui  rifiuti, ed ha già rilasciato permessi per lo stoccaggio delle ceneri derivanti da incenerimento dei soli fanghi di depurazione. Questo in previsione di poter sviluppare una tecnica adatta ed economicamente conveniente per il recupero del fosforo da questa matrice, con l’intenzione ridurre drasticamente l’importazione di fertilizzanti a base di fosforo. Anche in Danimarca si sta procedendo nella stessa maniera.

Le ceneri di fanghi di depurazione ottenuti da incenerimento potrebbero diventare delle principali risorse secondarie di fosforo. La percentuale di fosforo presente nelle ceneri, espressa come anidride fosforica, di solito varia tra il 10 e il 20%, cioè praticamente uguale alle percentuali presenti nelle rocce fosfatiche minerali. In Svizzera ma anche nell’Unione Europea e in Italia, sono stati sviluppati negli ultimi anni diversi progetti finanziati dall’Unione Europea per lo sviluppo di tecniche per il recupero del fosforo. Non soltanto dalle acque reflue, ma anche dai residui dell’industria agroalimentare, di quella farmaceutica e di quella siderurgica.  

In Lombardia un gruppo di aziende del ciclo idrico ha sviluppato in collaborazione con il Politecnico di Milano, l’università degli di studi Milano-Bicocca e IRSA CNR la piattaforma Per FORM WATER 2030. Le attività di ricerca mirano ad ottimizzare le risorse e a sviluppare tecniche per il recupero di energia e materia dai depuratori. Relativamente al fosforo, il recupero effettuato sui fanghi umidi è una strada ormai abbandonata, per ragioni di scarsa convenienza economica.  L’attenzione si è focalizzata quindi sulle ceneri da mono incenerimento di fanghi, e principalmente su due tecniche per il recupero del fosforo da questa matrice: la lisciviazione acida, e l’arrostimento termico. Il processo termochimico è costituito da un dosaggio di cloruro e da un trattamento termico tra gli 850 e i 1000°C in modo da rimuovere i metalli pesanti. Questa tecnologia nasce a partire dal progetto europeo SUSAN EU-FP6.  In un forno rotativo le ceneri dei fanghi reagiscono con Na2SO4 lasciando evaporare i metalli pesanti e precipitare le ceneri contenenti fosfati.

Nei processi di lisciviazione a umido si effettua una dissoluzione in ambiente acido  (pH< 2) seguita solitamente da una filtrazione, oppure da una separazione liquido-liquido e una successiva precipitazione o scambio ionico. Le tecniche sono attualmente ancora allo stadio realizzativo di impianti pilota. In Italia le sperimentazioni si fermano alle prove di laboratorio, in quanto attualmente sul territorio nazionale non esistono impianti di incenerimento dedicati unicamente alla combustione di fanghi.

Il passaggio allo stato applicativo vero e proprio è ancora frenato dai costi del processo. Se attualmente il prezzo medio del fosforo ottenuto da rocce fosfatiche è di circa 1-1,2 €/Kg le tecniche sperimentali per estrarlo da ceneri arrivano ad un prezzo di produzione pari a 2-2,5 €/Kg. Ma la crescita della popolazione, l’impoverimento dei suoli, la siccità potrebbero essere fattori che con molta probabilità potranno concorrere ad ulteriori richieste di fosforo sul mercato. Ed è facile prevedere la possibilità di ulteriori rincari e difficoltà di approvvigionamento.

Non sono a mio parere importanti le sole considerazioni tecnico-economiche. I passaggi precedenti allo sviluppo di queste tecnologie dovrebbero riguardare un uso meno esasperato della concimazione dei suoli, una diminuzione dello spreco di cibo, una procreazione ponderata e ragionata. Una educazione alla conoscenza delle leggi naturali, delle dinamiche dei cicli biogeochimici, una disintossicazione da un consumismo esagerato e compulsivo, seguito da una negazione dei problemi ambientali del pianeta terra che non ha più nessuna giustificazione logica.

La chimica in questo senso riveste un ruolo fondamentale.  La chimica è studio della materia e, come diceva Primo Levi, non interessa affatto quale sia la sua origine prossima. Se siamo stati distrattamente avidi depauperando le risorse disponibili, dobbiamo imparare e costruire la chimica e la tecnica delle materie residue.

E’ possibile la vita sulla superficie di Marte?

In evidenza

Diego Tesauro

E’ possibile la vita sulla superficie di Marte? A questa domanda potrebbe rispondere il rover  Rosalind Franklin della missione ExoMars (Figura 1) quando verrà lanciato. La missione, essendo una cooperazione congiunta dell’ Esa con la Roscosmos, a seguito dell’invasione dell’Ucraina, è stata bloccata dovendo partire dal cosmodromo di Baikonur lanciata dal razzo Proton. A questa missione è stata affidato l’esperimento Bottle (Brine Observation Transition To Liquid Experiment). Questo esperimento ha come obiettivo di generare acqua liquida sulla superficie di Marte mediante la deliquescenza, un processo in cui un sale igroscopico assorbendo vapore d’acqua dall’atmosfera, genera una soluzione salina. Inoltre si indagherà l’eventuale abitabilità di queste salamoie. La vita, almeno per come la conosciamo, oltre la presenza di carbonio, idrogeno, azoto, ossigeno, fosforo e zolfo, indicati con l’acronimo CHNOPS, necessita anche di altri oligoelementi e soprattutto dell’acqua liquida e di energia. Ora su Marte, l’energia potrebbe essere fornita dalla luce solare o da processi chimici. Il carbonio è disponibile nella sottile atmosfera sotto forma di biossido di carbonio, gli oligoelementi sono largamente presenti nella regolite, lo strato di polvere fine che ne ricopre la superficie.

Il fattore fortemente limitante è la presenza acqua liquida a causa della bassa pressione atmosferica (da 7 a 4 millibar contro i circa mille millibar terrestri) e delle temperature prevalentemente sotto lo zero Celsius. In queste condizioni, come ben sappiamo fin dai nostri primi studi di Chimica Fisica l’unica possibilità perché l’acqua sia liquida, in base alla legge di Raoult e dell’abbassamento crioscopico, è la presenza in soluzioni ad alta concentrazione salina. Sulla superficie del pianeta rosso sono stati rilevati negli ultimi decenni sali igroscopici in grado di formare salamoie che potrebbero rendere l’acqua liquida, fra cui i perclorati. Queste considerazioni hanno negli ultimi anni spinto la ricerca a trovare dei potenziali microorganismi in grado di vivere in queste condizioni drastiche, che chiaramente presentano varie problematiche. In primo luogo l’elevata salinità, che avrebbe quest’acqua, sarebbe in grado di modificare l’equilibrio osmotico delle cellule. Inoltre i perclorati hanno un effetto caotropico promuovendo la denaturazione delle macromolecole, il danno al DNA e lo stress ossidativo dovuto all’elevato potere ossidante del cloro nello stato di ossidazione +7.

Fra i potenziali microorganismi che potrebbero adattarsi a queste condizioni si annoverano gli archaea alofili (famiglia Halobacteriaceae). Queste specie si sono adattate alla vita agli estremi di salinità sulla Terra, pertanto potrebbero risultare dei buoni candidati per la vita anche su Marte. Molte specie resistono a livelli elevati di radiazioni UV e gamma; una specie è sopravvissuta all’esposizione al vuoto e alle radiazioni durante un volo spaziale; e c’è almeno una specie psicrotollerante (specie che crescono a 0°C, ma hanno un optimum di temperatura di 20-40 °C),. Gli archaea alofili possono sopravvivere per milioni di anni all’interno delle inclusioni di salamoia nei cristalli di sale. Molte specie hanno diverse modalità di metabolismo anaerobico e alcune possono utilizzare la luce come fonte di energia utilizzando la batteriorodopsina della pompa protonica guidata dalla luce. Inoltre la presenza dei caratteristici pigmenti carotenoidi (α-bacterioruberina e derivati) rende le Halobacteriaceae facilmente identificabili mediante spettroscopia Raman [1]. Pertanto, se presenti su Marte, tali organismi possono essere rilevati dalla strumentazione Raman pianificata per l’esplorazione EXoMars.

Per verificare la possibilità di vita sul suolo marziano per alcune specie batteriche metanogene, un gruppo di ricercatori della Technische Universität (TU) di Berlino hanno testato l’attività di tre archaea metanogenici: Methanosarcina mazei, M. barkeri e M. soligelidi (Figura 2)[2]. Le cellule microbiche sono state bagnate in un sistema di deliquescenza chiuso (CDS) costituito da una miscela di substrato essiccato Martian Regolith Analog (MRA) e sali. Il metano prodotto tramite attività metabolica è stato misurato dopo averli esposti a tre diversi substrati MRA utilizzando NaCl o NaClO4 come sale igroscopico. Gli esperimenti hanno mostrato che i M. soligelidi e i M. barkeri producevano metano rispettivamente a 4 °C e a 28 °C mentre i M. mazei non venivano riattivati metabolicamente attraverso la deliquescenza. Nessuna però delle specie produceva metano in presenza di perclorato mentre tutte le specie erano metabolicamente più attive nell’MRA contenente fillosilicati. Questi risultati sottolineano l’importanza del substrato, delle specie microbiche, del sale e della temperatura utilizzati negli esperimenti. Inoltre, quest’esperimento per la prima volta dimostra che l’acqua fornita dalla sola deliquescenza è sufficiente per reidratare gli archei metanogenici e riattivare il loro metabolismo in condizioni approssimativamente analoghe all’ambiente marziano vicino al sottosuolo

Lo stesso gruppo berlinese, più recentemente, ha condotto una prima indagine proteomica sulle risposte allo stress specifiche del perclorato del lievito alotollerante Debaryomyces hansenii e lo ha confrontato con gli adattamenti allo stress salino generalmente noti [3]. Le risposte agli stress indotti da NaCl e NaClO4 condividono molte caratteristiche metaboliche comuni, ad esempio vie di segnalazione, metabolismo energetico elevato o biosintesi degli osmoliti. I risultati di questo studio hanno rivelato risposte allo stress microbico specifiche del perclorato mai descritte prima in questo contesto. Anche se le risposte allo stress indotte in D. hansenii condividono diverse caratteristiche metaboliche, è stata identificata una glicosilazione proteica potenziata, il ripiegamento tramite il ciclo della calnexina e la biosintesi o rimodulazione della parete cellulare come misura contraria allo stress caotropico indotto dal perclorato, che generalmente destabilizza le biomacromolecole. Allo stesso tempo, i processi di traduzione mitocondriale sono sottoregolati sotto stress specifico del perclorato. Lo stress ossidativo indotto specificamente dal perclorato sembra giocare solo un ruolo minore rispetto allo stress caotropico. Una possibile spiegazione di questo fenomeno è che il perclorato è sorprendentemente stabile in soluzione a temperatura ambiente a causa del trasferimento di atomi di ossigeno che limita la velocità di riduzione. Per cui, quando si applicano questi adattamenti fisiologici, le cellule possono aumentare sostanzialmente la loro tolleranza al perclorato rispetto all’esposizione allo shock del sale. Questi risultati rendono probabile che i presunti microrganismi su Marte possano attingere a meccanismi di adattamento simili che consentano la sopravvivenza nelle salamoie del sottosuolo ricche di perclorato.

Lo scopo di questa attività di ricerca consiste quindi nel dimostrare come gli organismi estremofili potrebbero tutt’oggi essere presenti su Marte. Un qualunque esperimento da condurre sulla superficie del pianeta rosso alla ricerca della vita, è suffragato da ipotesi già validate sulla Terra. In astrobiologia infatti sono determinanti, per l’approvazione di missioni spaziali, dei risultati promettenti ottenuti in laboratorio. Questi poi potranno essere quindi verificati quando la missione Exomars potrà avere luogo, sembra comunque non prima del 2028. Inoltre la conoscenza di organismi in grado di vivere in condizioni estreme, che riteniamo improbabili, dimostrano come la vita possa svilupparsi anche in ambienti ostili ed avere eventualmente delle ricadute nello studio di processi biotecnologici.

References

1) J Jehlička, H G M Edwards, A Oren Bacterioruberin and salinixanthin carotenoids of extremely halophilic Archaea and Bacteria: a Raman spectroscopic study Spectrochim Acta A Mol Biomol Spectrosc 2013, 106, 99-103. https://doi.org/10.1016/j.saa.2012.12.081

2) D. Maus, et al. Methanogenic Archaea Can Produce Methane in Deliquescence-Driven Mars Analog Environments. Sci Rep  2020, 10, 6. https://doi.org/10.1038/s41598-019-56267-4

3) J. Heinz et al. Perchlorate-specific proteomic stress responses of Debaryomyces hansenii could enable microbial survival in Martian brines Environ Microbiol. 2022, 24, 5051–5065. https://doi.org/10.1111/1462-2920.16152

Figura 1 Il rover di ExoMars è intitolato a Rosalind Franklin i cui studi di cristallografia a raggi X. Sono stati fondamentali per risolvere la struttura del DNA e del RNA. Esplorerà il Pianeta Rosso. . Copyright: ESA/ATG medialab

Figura 2 Methanosarcina barkeri (sopra) e Methanosarcina soligelidi (sotto). Questi ceppi appartengono agli  euryarchaeotearchaea che producono metano usando tutti I pathways metabolici per la metanogenesi