Informazione e conoscenza.

In evidenza

Luigi Campanella, già Presidente SCI

È oggetto di riflessione e sempre più si legge circa la necessità che la cultura umanistica ritrovi fiducia in se stessa e si metta in grado di competere per il primato con quella scientifica che oggi lo detiene.

La riflessione richiesta deriva dal fatto che per decenni abbiamo lamentato nel nostro Paese esattamente il contrario: una scarsa attenzione alla cultura scientifica, storicamente da giustificare con la grandezza di personaggi come Raffaello, Michelangelo, Leonardo, Giotto, Tiziano complessivamente depositari del  primato dell’arte.

Kant si chiedeva cosa posso sapere e cosa posso sperare: forse alla base di questa inversione di tendenza che sorprende ci sono proprio queste due domande. Per molto tempo ci siamo chiesti cosa potevamo sapere del mondo che ci circondava e la risposta non poteva venire che dalla scienza. Oggi che di certo di risposte ne abbiamo avute tante dalla informazione planetaria ed universale- anche se non sempre corredata da reale conoscenza- si guarda avanti e questo richiede non solo dati ma elaborazione che si affida alla ragione capace di porre ciascuno di noi di fronte al mondo, chiedendo perché e cercando significati per i dati acquisiti.

Lucas Cranach il Vecchio, Adamo ed Eva in Paradiso.

Proprio attraverso questa elaborazione ciascuno di noi si collega alla società e diviene componente di un sistema. Al contrario della natura dove tutto è interconnesso (aria, acqua, suolo) ed ogni cosa è legata a tutte le altre, la nostra società consumistica invece costruisce i propri messaggi puntando l’attenzione sull’io, sull’individuo: dobbiamo invece concepire per ciascuno di noi una collocazione sistemica e questa è la risposta alla seconda domanda di Kant perché quello che possiamo sperare non può dipendere dal singolo ma dalla comunità di cui fa parte. Collegato a quanto detto è il rapporto fra Fisica Matematica ed anche Chimica da una parte e Filosofia dall’altra. Il processo di correlazione ha subito un iter molto simile a quello delle cosiddette 2 facce della cultura, ma con andamenti alternati simili.

Oggi come si invoca un riposizionamento della cultura umanistica si chiede anche che Fisica e Filosofia tornino ad incontrarsi: questo avverrà-e ci colleghiamo a quanto detto sopra-quando la distinzione fra informazione e conoscenza con il ridimensionamento di quella e l’amore per questa, sarà consolidata e la confusione tra esse definitivamente superata. Tale confusione è stata di certo favorita proprio dalla disarticolazione culturale e sapienzale.

Non voglio chiudere questa riflessione senza un riferimento alla teologia. La scissione fra scienza da una parte e filosofia e teologia è probabilmente il frutto del nostro stesso modo di pensare con la distinzione fra intelletto e ragione: piu c’é coesione ed armonia fra essi, più l’essere umano è completo, pronto a  quelle integrazioni sociali e culturali di cui ho parlato e di cui va ribadita la necessità. La religione diviene all’interno di questo dibattito un possibile arricchimento personale. Da chimico sono convinto che la nostra disciplina, al centro della quale c’è di certo la creatività e il prevalente carattere induttivo della conoscenza, può dare un grande contributo come processo logico di sintesi.

Ci rimane solo l’adattamento.

In evidenza

Claudio Della Volpe

https://www.economist.com/leaders/2021/07/24/a-3degc-world-has-no-safe-place

Si è appena chiuso il G20 di Napoli sul clima e si è chiuso male; è vero che il comunicato finale è stato proposto come una vittoria, ma la realtà è che due articoli chiave sono stati esclusi.

Il ministro per la Transizione ecologica, Roberto Cingolani al termine di un negoziato che come previsto è “stato molto lungo e intenso” ha dichiarato che un accordo era stato raggiunto, ma ahimè per lui esclude le cose di sostanza.

Anche Cingolani riconosce che “Su 60 articoli due sono stati estratti perché non è stato possibile trovare l’accordo quindi alcuni punti sono stati rinviati ai livelli di decisione politica più alta del G20 dei capi di Stato: oggettivamente è stato un ottimo risultato“.

L’ultima frase è del tutto sballata. Perché?

I due punti su cui non si è raggiunto l’accordo sono

  1. sulla decisione di rimanere sotto 1,5 gradi di riscaldamento globale al 2030
  2.  sull’eliminare il carbone dalla produzione energetica entro il 2025.

A differenza di Cingolani che non può che fare buon viso la grande stampa mondiale non ha peli sulla lingua; l’Economist scrive chiaramente che non ci rimane che l’adattamento perché la mitigazione non è passata. Il titolo che leggete nella figura di apertura è: Non ci sono posti sicuri in un mondo a +3°C rispetto al passato prossimo.

D’altronde i fenomeni estremi verificatisi negli ultimi tempi, partendo dagli incendi australiani e finendo alle tragiche alluvioni tedesche i cui effetti mortali non sono stati ancora quantificati con precisione confermano che nessun emisfero e nessun continente è sicuro nemmeno ora.

Il motivo del disaccordo è che i paesi come India e Cina che rappresentano 3/8 dell’umanità e oggi anche una frazione significativa della produzione mondiale in tutti i settori non hanno accettato condizioni che potrebbero mettere a rischio la loro crescita economica; mentre i 7-8 paesi più industrializzati spingono per una transizione forte e rapida in termini energetici, ma che metterebbe a rischio  le quote di mercato di Cina ed India e a loro volta non sono intenzionati a nessun tipo di aiuto o cessione di diritti.

Il problema appare di non facile soluzione; troppo facile o perfino ipocrita dire che adesso gli inquinatori sono cinesi o indiani quando poi buona parte di quelle economie produce per noi dei paesi ricchi e i gas serra ivi prodotti sono un nostro carico.

Perché le aziende occidentali esternalizzano in paesi che vanno a carbone, hanno un costo del lavoro più basso e nessun controllo sull’inquinamento ambientale? Perché non producono qui, recuperando posti di lavoro?

Il G20 non è una COP, una conference of parties, ma di fatto mostra gli stessi problemi sociali e politici già presenti in tutte le discussioni mondiali sul clima e finora non risolte; nel frattempo le cose peggiorano.

Scultura di Issac Cordal a Berlino intitolata: ′′ Politici che discutono del riscaldamento globale.”

Aptameri: cosa sono e a cosa servono.

In evidenza

Claudio Della Volpe

Per carità solo una brevissima introduzione a questo “nuovo” tipo di molecole (hanno già trent’anni in realtà); che noi chimici chiameremmo volentieri “oligopeptidi e oligonucleotidi mirati”. L’uovo di colombo in un certo senso.

Ma il nuovo termine introduce il concetto (dal latino aptus) che ha uno scopo, che serve ad uno scopo, meglio ancora che si adatta ad uno scopo, che si adatta ad una proteina preesistente o ad un pezzo di acido nucleico preesistente e ne modifica il comportamento: mi ricorda molto una sorta di “anticorpo monoclonale” sintetico per dirla in modo semplice, ma non è poi proprio così.

Il termine aptamer (dal latino apto, che significa appunto “adattarsi”) per questi ligandi quando sono a base di acidi nucleici fu coniato nel laboratorio diretto da J. W Szostak (Harvard) premio Nobel per la medicina nel 2009 insieme a Elizabeth Blackburn e a Carol W. Greider per i  loro studi su come i cromosomi sono protetti dai telomeri e dall’enzima telomerasi.

Probabilmente il primo a pensare ad una cosa del genere (per i nucleotidi) è stato Sol Spiegelman un biologo di New York convertito alla matematica e poi alla biologia molecolare.

Gli aptameri hanno una capacità innata di legarsi a qualsiasi molecola verso la quale abbiano affinità di legame, comprese quelle esistenti sulle cellule tumorali e i batteri.

Una volta legati a un bersaglio, gli aptameri possono agire come agonisti o antagonisti. Gli aptameri soffrono di problemi che ne limitano l’efficacia: in particolare sono facilmente digeribili in vivo dagli enzimi che attaccano gli oligonucleotidi o i peptidi. (fra parentesi questa solo relativa stabilità degli oligonucleotidi è uno dei problemi dei vaccini ad mRNA; ad onta delle cavolate dei no-vax sulla capacità di tali molecole di retrotrascriversi nel DNA, un processo che non è possibile se non in tessuti e contesti molto limitati; su questo ho trovato un bellissimo post qui).

Nel caso dei peptidi l’idea fu sviluppata da R. Brent (Nature. 1996;380:548–550).

ora ad Harvard  (e marito della vincitrice del Nobel  2004 per la medicina per i suoi studi sui recettori olfattivi). In quel caso Brent introdusse l’idea di una breve sequenza di amminoacidi incorporata ("doppio vincolo") nel contesto di uno scheletro proteico piccolo e molto stabile (lo "scaffold").

Per quanto riguarda il modo di determinare la struttura specifica dell’oligomero nucleotidico occorre ricordare che la nozione di selezione in vitro è stata preceduta più di vent’anni prima, quando Sol Spiegelman ha utilizzato un sistema di replicazione Qbeta come un modo per evolvere una molecola autoreplicante. Inoltre, un anno prima della pubblicazione della selezione in vitro e di SELEX, Gerald Joyce utilizzò un sistema che chiamò “evoluzione diretta” per alterare l’attività di scissione di un ribozima.

Dalla scoperta degli aptameri, molti ricercatori hanno utilizzato la selezione degli aptameri come mezzo sia applicativo che scientifico. Nel 2001, il processo di selezione in vitro è stato automatizzato da J. Colin Cox nel laboratorio Ellington dell'Università del Texas ad Austin, riducendo la durata di un esperimento di selezione da sei settimane a tre giorni.
Nel 1990, due laboratori hanno sviluppato indipendentemente la tecnica di selezione: il Gold lab, utilizzando il termine SELEX per il loro processo di selezione dei ligandi dell'RNA contro la DNA polimerasi T4; e il laboratorio Szostak, coniando il termine selezione in vitro, selezionando ligandi di RNA contro vari coloranti organici. Due anni dopo, il laboratorio Szostak e Gilead Sciences, indipendentemente l'uno dall'altro, hanno utilizzato schemi di selezione in vitro per sviluppare ligandi di DNA a singolo filamento per coloranti organici e coagulante umano, trombina (i cosiddetti aptameri antitrombina), rispettivamente. Non sembrano esserci differenze sistematiche tra aptameri di RNA e DNA, salvo la maggiore stabilità chimica intrinseca del DNA.
Per gli aptameri peptidici le tecniche di selezione sono ovviamente diverse e forse più complesse  e meno automatizzabili; non mi addentro nel problema.

https://en.wikipedia.org/wiki/Aptamer

Quali applicazioni per gli aptameri?

Tre esempi veloci ne svelano le enormi possibilità:

https://www.georgofili.it/Media?c=b570baf3-7dda-4f6f-ad23-3acabf7edb72

Un primo aspetto è lo sviluppo di fitofarmaci innovativi, a basso impatto ambientale e ridotta tossicità come nel seguente lavoro di M. Colombo, S. Masiero, S. Vezzulli, P. Pesaresi che lavorano presso il Centro Ricerca ed Innovazione, Fondazione Edmund Mach a S. Michele all’Adige (dalle mie parti) e al  Dipartimento di Bioscienze di Milano ; questi colleghi hanno sviluppato una applicazione di aptameri peptidici che sono individuati e testati sulla base della loro affinità e specificità per proteine vitali per un certo patogeno. Secondo loro l’utilizzo di questa tecnologia consente lo sviluppo di principi attivi che hanno un alto livello di specificità e ridotti rischi di insuccesso, sono dotati di una buona precisione nel colpire solo il bersaglio designato, e  minimizzano i possibili effetti indesiderati su organismi non target. In particolare hanno messo a punto un aptamero peptidico, chiamato NoPv1 (No P. viticola 1), in grado di inibire la crescita di P. viticola su vite e dotato di ottime proprietà di attività, specificità e tossicità. L’aptamero NoPv1 ha infatti dimostrato di essere altamente efficace a dosi molto basse, non essere citotossico per le cellule umane, non essere tossico per le foglie di vite ed essere innocuo su organismi non target, quali batteri del suolo (Agrobacterium tumefaciens, Bacillus amyloliquefaciens) ed Erysiphe necator, agente causale dell’oidio della vite.  Dunque un ottimo sostituto sia per i pesticidi di sintesi che per il solfato di rame (o la poltiglia bordolese usato in biologica)

http://www.scienzaegoverno.org/sites/default/files/file_attach/BiosensoriEnea.pdf

Un secondo esempio sviluppato dai colleghi del centro CNR de La Casaccia  (F. Vitali e collaboratori) è stato lo sviluppo di un biosensore qcm  (quartz crystal microbalance) per la determinazione dell’ aflatossina b1 mediante un saggio sandwich aptamero-anticorpo

Come si vede dal grafico il sensore QCM è in grado di determinare con elevatissima specificità bassissime dosi di aflatossina B1.

Qui invece abbiamo un caso di possibile terapia antitumorale schematizzata nell’immagine che è diventata una invenzione concreta, il cui brevetto è detenuto anche dal CNR (CNR, Beth Israel Deaconess Medical Center, National University of Singapore ) contatto italiano Vittorio de Franciscis (amico di battaglie sessantottine a Napoli e che ritrovo per puro caso qui, ciao Vittorio! se leggi mai questo post)

Inconfondibile profilo di Vittorio de Franciscis.

Gli inventori hanno isolato aptameri ad RNA anti-DNMT1 (DNMT1 è l’enzima responsabile della metilazione del DNA, dunque strettamente correlato allo sviluppo di tumori) capaci di inibizione altamente specifica della metilazione del DNA, alta stabilità, e riduzione della vitalità cellulare, dimostrandosi efficaci ed innovativi per il trattamento del cancro, eventualmente anche inseriti in apposite nanostrutture per veicolare in maniera specifica prodotti antitumorali.

Le promesse erano già vent’anni fa e sono rimaste enormi  in tutti i campi ma, come spesso accade, si tratta di tecniche nuove e da sperimentare con attenzione per evitare di introdurre strumenti potentissimi ma poco gestibili.

Esistono diversi studi preclinici con aptameri non modificati, ma la stragrande maggioranza degli studi sugli aptameri nucleotidici nell’uomo è stata condotta con aptameri modificati, poiché gli aptameri non modificati dimostrano instabilità metabolica, nonché rapida filtrazione ed eliminazione renale. A parte la modifica chimica dei nucleotidi per stabilizzarli contro la degradazione della nucleasi, la principale modifica per prolungare l’emivita è la pegilazione (il processo di legame covalente della catena polimerica del Glicole polietilenico (PEG) ad un’altra molecola, il PEG è uno dei pochissimi polimeri che sono stabili e sicuri nel corpo umano) un termine che è divenuto più conosciuto al grande pubblico perché questa tecnica di stabilizzazione è stata usata pure nei vaccini anticovid ad mRNA.

Mi fermo qua perché non è assolutamente il mio settore ma se qualcuno volesse cimentarsi lo aspettiamo.,

Review sui problemi di uso degli aptameri nucloetidici https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3890987/

Review sulle applicazioni degli aptameri peptidici

https://pubmed.ncbi.nlm.nih.gov/25866267/

La nuova legge europea sul clima

In evidenza

Luigi Campanella, già Presidente SCI

La nuova legge europea sul clima è stata approvata in via definitiva dalla Commissione Europea dopo il voto favorevole del Parlamento Europeo (442 voti a favore,203 contrari e 51 astenuti).Tale legge rende vincolante l’obbligo al rispetto dei temi del Green Deal che punta alla neutralità climatica,entro il 2050.

A parte lo spostamento sempre in avanti degli impegni ambientali assunti nei grandi consessi, forse in.questa occasione ci si poteva aspettare un po’ di più. Il fatto positivo è  che il tasso di abbattimento delle emissioni di gas serra, al 2030 è stato fissato al 55% rispetto al 1990 con un aumento rispetto al precedente valore concordato che era del 40%. Inoltre una proposta della Commissione Europea per regolare le emissioni e le rimozioni di gas serra dall’uso del suolo (cambiamento d’uso e silvicoltura) aumenterà i pozzi di carbonio dell’UE e quindi porterà l’obiettivo dell ‘UE per il 2030 al 57%. Le foreste rappresentano degli importanti pozzi di carbonio per il pianeta, in grado di assorbire circa il 30% delle emissioni antropiche di gas-serra, cioè prodotte dall’attività umana. La vegetazione assorbe CO2 durante la fotosintesi e ciò significa che, fintanto che le piante sono vive, possono essere un importante strumento di stoccaggio a lungo termine di anidride carbonica.

Per tale ragione, uno studio (pubblicato su Nature Ecology & Evolution) ha realizzato una mappa della distribuzione delle aree forestali per analizzare il funzionamento dei pozzi di carbonio nelle varie regioni della Terra. L’accordo dovrebbe essere formalmente approvato a breve anche dal Consiglio Europeo ed il regolamento poi pubblicato nella G.U. dell’UE per entrare in vigore 20 giorni dopo. L’ approvazione di una legge europea sul clima è di certo evento storico, ma i contenuti non possono essere considerati soddisfacenti per un’Europa Verde. In particolare è proprio quel valore al 55 % che non convince perché in effetti se si considerano le emissioni assorbite dal suolo e dalle foreste la percentuale si ferma al 52%. In molti Paesi Europei è stata la Magistratura ad intervenire ricordando ai politici le loro responsabilità. E avvenuto in Germania, Francia, Olanda, ora avviene anche in Italia con il processo Giudizio Universale. Pur con i suoi limiti la legge è tuttavia  stata equiparata per importanza al libro bianco sulla chimica che ha gettato 20 anni fa  le basi della politica europea sui composti chimici e poi portato al  regolamento Europeo REACH.

La globalizzazione e la qualità del sarago.

In evidenza

Claudio Della Volpe

Uno dei ristoranti più famosi di Napoli quando ero un giovanotto si chiamava “Al sarago”; alla fine dell’allora Viale Elena (oggi viale Gramsci) a piazza Sannazzaro; nella classe media, nella “Napoli da bere” degli anni 70 cenare “Al sarago” casomai insieme a Ferlaino, il proprietario del Napoli calcio, era una sorta di punto di arrivo; voleva dire che non solo avevi i soldi per pagare, ma anche che apprezzavi la buona cucina.

Una storia di quegli anni la trovate qui (attenzione c’è un odore di destra politica, ma fa parte del …..piatto).

Negli anni successivi si spostò a Piazza Vittoria (cambiando nome in Sarago dal 1973) all’altro capo del lungomare di Napoli; oggi credo non ci sia più un locale con questo nome; sarà per il covid, sarà forse anche perché il sarago non è “più” un pesce apprezzatissimo e il nome ha perso di attrattiva.

Il sarago è in effetti un pesce tipico del nostro Mediterraneo, Diplodus vulgaris, sui 40cm di lunghezza e un paio di chili, è un pesce molto apprezzato in passato per le sue caratteristiche organolettiche. Ma le cose belle non sono fatte per durare in eterno. Come e perché ce lo racconta un recente lavoro pubblicato su Frontiers in marine science da parte di un composito gruppo di ricercatori italiani.

Il problema del sarago e dei suoi estimatori è cominciato dopo il 1990 quando la Caulerpa cylindracea, un’alga verde di origine Indo-Pacifica, australiana, è arrivata nel Mediterraneo (Verlaque et al. 2015: 251) verosimilmente trasportata dal flusso di navi che da quella zona del mondo risale l’Oceano indiano e poi il canale di Suez.

Detta anche “alga a grappoli verde”, la caulerpa è di origine australiana e fu segnalata per la prima volta nel bacino del Mediterraneo nel 1990 lungo le coste della Libia e in Italia lungo le coste siciliane nel 1993; ha avuto un enorme successo ecologico, diffondendosi in tutto il bacino mediterraneo, prima di tutto a causa della sua elevata capacità di riprodursi e colonizzare tutti i tipi di habitat (fondali sabbiosi, rocciosi e anche (ahimè!) le praterie di Posidonia oceanica), dalla superficie fino a oltre 60 m di profondità.

Caulerpa cylindracea è facilmente riconoscibile: il tallo, cioè il corpo dell’alga, è di colore verde brillante ed è formato da uno stolone strisciante dal quale si dipartono verso il fondo i così detti “rizoidi” e verso la superficie i cosiddetti “filloidi”. I rizoidi sono filamenti che, come le radici delle piante più grandi, consentono l’ancoraggio dell’alga al substrato, i filloidi invece si innalzano come fronde nell’acqua e sono caratterizzati dalla presenza di numerosissime vescicole a forma di clava.

http://www.resmaris.eu/caulerpa-cylindracea-2/

Caulerpa cylindracea.

Caulerpa cylindracea è una specie altamente invasiva e competitiva nei confronti di altre specie in virtù di alcune sue caratteristiche quali la capacità di occupare tridimensionalmente lo spazio e produrre metaboliti secondari (caulerpina, caulerpenina, caulerpicina). Queste tre molecole sono un esempio di mediatore chimico fra specie diverse come discusso qui. Le Caulerpe sono insolite perché sono costituite da una sola cellula con molti nuclei, rendendole tra le più grandi singole cellule del mondo.

Il gruppo di ricerca costituito da colleghi dell’Università della Tuscia, di Trieste, di Catania, della Stazione Anton Dohrn di Napoli e dalla Fipsas, aveva già ipotizzato che il sarago avesse cambiato abitudini alimentari e che questo avesse avuto effetto sulla sua valenza organolettica ed alimentare. Si può ipotizzare una sorta di tendenza del sarago maschio a “drogarsi” con questa alga con la conseguenza che le sue carni diventano stoppose e, se cucinate come di solito, sono amare e si staccano dalla lisca.

L’abstract del lavoro ci riassume perfettamente la situazione:

Le invasioni biologiche provocano impatti negativi e imprevedibili sugli oceani di tutto il mondo. I macrofiti non indigeni spesso sintetizzano metaboliti secondari a fini difensivi e per aumentare l’efficienza competitiva: è il caso della Caulerpa cylindracea, entrata nel Mar Mediterraneo nel 1990 e da allora in competizione con la flora e la fauna locali. È stato dimostrato che il sarago Diplodus sargus (i) ha incluso le alghe nella sua dieta, (ii) è soggetto alla peculiare condizione di Abnormally Tough Specimen (ATS) post-cottura e (iii) soffre di disturbi fisiologici e comportamentali da caulerpina, uno dei tre principali metaboliti secondari algali. Questo documento conferma una relazione di alimentazione tra il pesce e le alghe, quantifica l’accumulo di caulerpina nel fegato, suggerisce una possibile biomagnificazione causata da molluschi ed echinodermi e mette in evidenza il fatto che tutti gli esemplari di ATS erano maschi. Le analisi multivariate su un pannello multi-biomarker rivelano correlazioni differenziali a processi cellulari chiave come lo stress ossidativo, il metabolismo, la neurotossicità e la perossidazione lipidica, nonché agli indici di condizionamento.

La responsabile di tutto ciò è la molecola qui rappresentata, la caulerpina, un alcaloide con attività antiinfiammatoria e forse anche antitumorale; le sue attività farmacologiche sono oggi oggetto di studio e in questo senso si potrebbe dire che non tutto il male vien per nuocere, o come diceva il mio relatore, il compianto Guido Barone, “ogni cosa ha due corni”.

Più modestamente io ricordo in questi casi un verso di Louis MacNeice (da Snow), un poeta comunista inglese amato  e citato da J.B.S Haldane e A.I Oparin, (che pensavano all’origine della vita in una irripetibile stagione della cultura mondiale) e arrivato a me tramite un altro maestro di Napoli (Pierandrea Temussi, PAT per gli amici):

World is crazier and more of it than we think,

Incorrigibly plural.

Il mondo è più matto e ricco di quanto pensiamo,

incorreggibilmente plurimo.

Ecco perché quando facciamo qualcosa dobbiamo ricordarci che gli effetti sull’ecosfera sono spesso imprevedibili ed essere guardinghi e attenti, principio di precauzione: “solo la natura sa il fatto suo”, come diceva Barry Commoner.

Non sono credente (potrei accettare il dio di Spinoza, deus-sive-natura): ma penso che non siamo gli orgogliosi dominatori, ma al più gli umili guardiani di un mondo che non conosciamo, ancora; e se continuiamo così potremmo non conoscere. Mai.

A volte ritornano. La battaglia del glifosato.

In evidenza

Claudio Della Volpe

Nelle ultime settimane si è riaccesa quella che potremmo definire la battaglia del glifosato, l’erbicida più venduto al mondo, del quale avevamo parlato parecchio negli anni dal 2015 al 2017, prima che la UE decidesse di consentirne l’uso per 5 anni, che scadranno nel 2022.

Alla fine dell’articolo troverete la lista dei post che pubblicammo (a mia firma meno uno all’epoca raccontando le varie situazioni); nei commenti ad uno di essi si sviluppò anche una polemica fra me e la senatrice Elena Fattori.

Come vedete dalla figura qua sotto lo IARC (attenzione in italiano la sigla AIRC corrisponde ad una associazione privata fondata da Veronesi, ma qui cita quasi punto per punto in italiano la pagina IARC sul glifosato) ritiene il glifosato un “probabile cancerogeno” cat. 2A; potete accedere a questa pagina qui. Il documento originale sul glifosato di IARC è qui*.

Perché si sta riaccendendo questa discussione?

Il motivo è semplice dato che il permesso di usare il glifosato scadrà il 15/12/2022 stanno scendendo in campo da una parte i produttori di glifosato e di prodotti collegati (soprattutto di semi geneticamente resistenti) riassunti nella sigla GRG (Glyphosate renewal group), una lobby e dall’altra le associazioni ambientaliste a partire per esempio da Stop Glyphosate.

Il suo utilizzo come erbicida è stato approvato nell’Unione europea nel 2017 fino al 2022, con alcune limitazioni, tra cui il divieto di avere nella stessa formulazione glifosato e ammina di sego polietossilata e una serie di divieti relativi al fatto che anche ECHA ha riconosciuto che il glifosato è tossico per l’uomo in certe condizioni e dannoso per l’ambiente acquatico.

I paesi europei arrivano divisi alla questione almeno al momento; scrive il Sole 24 ore:

Dopo la retromarcia dell’Austria, il Lussemburgo sarà il primo Stato Ue a vietare l’uso dell’erbicida già dal 2021. Una decisione che ha anticipato quelle di Francia e Germania. Parigi, nonostante un investimento pubblico da 400 milioni non è riuscita a far decollare il piano, denominato “Ecophyto”, che mira a ridurre del 50% i fitofarmaci in agricoltura entro il 2025. Dal lancio del piano nel 2008 il loro uso è aumentato del 12%, secondo i dati presentati dalla corte dei conti al governo francese

L’Italia non ha una posizione chiara.

Cosa è successo di interessante nel frattempo dal punto di vista scientifico?

Il sito http://www.weedscience.org che riporta lo sviluppo delle resistenza ai vari fitofarmaci mostra che c’è stato un continuo incremento delle resistenze anche per il glifosato

Dal 2017 altre 15 specie sono diventate resistenti al glifosato per un totale attuale di 53; è un fenomeno che dovrebbe far riflettere poiché riguarda TUTTI i fitofarmaci- erbicidi usati nel mondo come mostra quest’altro grafico:

A questo occorre aggiungere che l’azione dei movimenti ambientalisti ha obbligato a rendere pubblici i documenti su cui si sono basate le autorizzazioni delle varie istituzioni pubbliche; se ricordate è stata proprio la diversa strategia nell’accettare la documentazione  che ha portato all’inimmaginabile conflitto fra IARC ed ECHA o EFSA nell’autorizzazione del glifosato.

IARC usa una metodologia autorizzativa basata solo su documenti privi di ogni conflitto di interesse, pubblicati sulla letteratura internazionale, mentre ECHA, EFSA o EPA accettano la documentazione dei produttori, che fra l’altro NON E’ PUBBLICA o almeno non lo è sempre.

Dato che sono in corso negli USA centinaia di cause di privati che sostengono di essere stati danneggiati dall’uso del glifosato le associazioni antiglifosato sono riuscite a rendere pubblici molti dei documenti di cui si parlava grazie alla forza della magistratura; analogamente nel marzo 2019 quattro europarlamentari verdi hanno ottenuto  una sentenza della Corte di giustizia in  cui si afferma che l’EFSA dovrebbe pubblicare tutti gli studi (segreti) sui rischi di cancro del glifosato. L’ONG SumOfUs ha richiesto all’EFSA 54 studi di genotossicità e ha avviato un’azione di finanziamento pubblico per poter pagare scienziati indipendenti per lo screening di questi studi ne è seguita una analisi dettagliata di queste documentazioni che sono ora pubbliche e che è  stata condotta da alcuni specialisti.

Tutta la storia è stata pubblicata dal Guardian e sono disponibili anche i documenti stessi.

https://www.theguardian.com/business/2021/jul/02/glyphosate-herbicide-roundup-corporate-safety-studies

o anche

https://greenreport.it/news/inquinamenti/glifosato-la-valutazione-positiva-dellefsa-si-basava-su-dati-scientifici-accomodanti/

i documenti resi pubblici sono su

L’analisi dei documenti condotta da due specialisti del settore, Armen Nersesyan and Siegfried Knasmueller, dello Institute of Cancer Research, Department of Medicine I, Medical University of Vienna, è scaricabile da qui.

L’analisi è stata condotta gratuitamente da Knasmueller, mentre l’altro autore (precario) è stato ricompensato con 3500 euro.

Cosa si conclude in questa analisi?

«Non meno di 34 dei 53 studi di genotossicità finanziati dall’industria utilizzati per l’attuale autorizzazione dell’Ue del glifosato sono stati identificati come “non affidabili”, a causa di sostanziali deviazioni dalle linee guida per i test dell’OCSE, che potrebbero compromettere la sensibilità e la precisione del sistema di prova. Per quanto riguarda il resto dei 53 studi, 17 erano “parzialmente affidabili” e solo 2 studi “affidabili” da un punto di vista metodologico».

Su questa base molte associazioni ambientaliste e di consumatori chiedono una revisione dei permessi che tenga conto di questi nuovi punti di vista.

Come chimici ci resta da dire che vorremmo che ci fossero metodologie non inficiate da scelte discutibili e soprattutto completamente trasparenti; non è possibile che gli enti regolatori debbano scegliere sulla base di documenti non solo soggetti a conflitti di interesse, ma perfino non completamente pubblici; le stesse leggi europee dovrebbero tener conto di queste profonde debolezze dei processi di accertamento; e non sono le sole modifiche legislative da considerare.

Ricordo qui per la sua assonanza la questione posta dal tema PFAS: l’uso dei brevetti contro i ricercatori che vogliono misurare la presenza di inquinanti nell’ambiente, come denunciato da alcuni colleghi dell’Università di Padova e raccontato in un nostro recente post. Questa situazione porta all’impossibilità di avere lo standard di misura utile per misurare l’inquinamento perché i detentori del brevetto dell’inquinante ne impediscono l’uso o non ne diffondono lo standard.

Poi non ci si dica che non si sa perché la chimica è considerata “sporca e cattiva” o perché molti siano i chemofobici. Sta a noi chimici schierarci apertamente e sempre per la trasparenza dei dati.

SEMPRE.

  • grazie a Francesco Pascale per avermi fatto notare questa possibile confusione.

Post pubblicati sul glifosato nel nostro blog:

https://ilblogdellasci.wordpress.com/2015/04/13/glifosato-e-altre-storie/ https://ilblogdellasci.wordpress.com/2015/08/16/ancora-sul-glifosato/ https://ilblogdellasci.wordpress.com/2015/08/24/non-ce-due-senza-tre-ancora-glifosato/ in questo c’è una polemica negli interventi con la allora senatrice 5S Elena Fattori (oggi SI). https://ilblogdellasci.wordpress.com/2017/07/31/ma-insomma-il-glifosato-e-o-non-e-cancerogeno/ https://ilblogdellasci.wordpress.com/2017/12/15/glifosato-dove-siamo-parte-prima-alcuni-fatti/ https://ilblogdellasci.wordpress.com/2018/01/12/glifosato-dove-siamo-parte-2-altri-fatti-e-qualche-opinione/ https://ilblogdellasci.wordpress.com/2018/10/10/glifosato-e-api-da-miele/

Via Panisperna: museo, ricerca didattica.

In evidenza

Luigi Campanella, già Presidente SCI

Negli anni 30 all’Istituto di Fisica di via Panisperna a Roma  Enrico Fermi con la supervisione di Orso Mario Corbino formò un Gruppo di Ricerca con  Franco Rasetti,Emilio Segre,Bruno Pontecorvo, Edoardo Amaldi ed Ettore Majorana che si rese protagonista di grandi scoperte nel campo della Fisica Nucleare, ma che già dalle parole di Fermi  riaffermò il principio della unitarietà delle Scienze:

”La speranza è che i progetti in corso permetteranno di realizzare qui in forma costruttiva quella collaborazione fra Fisica,Chimica e Biologia che è così fortemente auspicata dai cultori di queste 3 discipline,le quali pure avendo nomi diversi ed essendo per una necessaria divisione del lavoro coltivate da persone diverse non sono in realtà altro  che capitoli dell’unica grande scienza della Natura”.

Purtroppo per lunghi anni la struttura originaria, la palazzina, è stata dismessa e solo l’incancellabile valore storico ne ha rappresentato la difesa dell’identità. Finalmente nel 1999 è stato fondato il Centro Ricerche Enrico Fermi (CREF) come composizione fra un ruolo di Museo dedicato alla eredità scientifica di Fermi con reperti originali  degli esperimenti ed adeguati sistemi audio/video per renderne fruibile la comprensione ed uno di struttura di ricerca  propria. All’atto della fondazione del Centro ne è stata ribadita la funzione di promozione della ricognizione sistematica delle testimonianze storiche  delle scienze e delle tecniche conservate nel Paese, nonché delle relative pertinenti risorse bibliografiche e documentali. Sono anche state focalizzate nell’atto istitutivo l’incentivazione, anche in collaborazione con università e centri di ricerca, delle attività formative e professionali per gestire musei, città della scienza e la promozione della cultura e divulgazione scientifica. Bisogna però fare un salto di 20 anni per arrivare a vedere, come oggi è possibile, qualcosa di concreto, la palazzina completamente  restaurata da potere essere utilizzata per gli obbiettivi scientifici del CREF.

A quelli codificati vorrei aggiungerne un altro connesso ad una mancanza che nell’area romana si sente dal tempo della chiusura del Laboratorio di Didattica delle Scienze della Facoltà di SMFN della Sapienza. Oggi la didattica delle Scienze soffre della mancanza di strumentazione trasparente quindi didattica. Sempre più spesso gli strumenti ai giorni nostri si configurano come vere e proprie “scatole nere”. 

Nel passato recente e meno recente purtroppo esigenze di spazio e di rinnovamento hanno indotto a sacrificare strumenti obsoleti, forse sul piano scientifico, ma straordinariamente utili sul piano didattico in quanto modulari e trasparenti rispetto ai loro contenuti tecnici ed alla loro modalità costruttiva. In tale situazione strumentazioni che si sono salvate dalla rottamazione divengono preziose tanto più se si riflette sulla difficile esperienza a Roma di Kircher e Neviani (Liceo Visconti al Collegio Romano) per formare una collezione museale.

Diceva Neviani “Non vi ha dubbio che per l’incremento delle collezioni (intendiamoci-precisava- non dell’accumulo di materiale qualsiasi che si lasci dormire nei cassetti e negli scaffali  a coprirsi di polvere ed essere preda dei tarli)occorrono alcuni elementi di fatto, senza i quali esse sarebbero impossibili. Locali, arredamento e dotazioni proporzionate” Questo impegno sul CREF oggi finalmente riattivato non deve andare disperso ed in questo senso bisogna affidarsi alla lungimiranza dei nostri governanti. Quando nel 1870 tutte le proprietà del Vaticano passarono allo Stato Italiano, la cultura dell’epoca non era sufficientemente preparata ad accogliere e valutare il valore di questo tipo di Museo che fu insipientemente smembrato e volutamente disperso, distruggendo quanto Kircher aveva razionalmente aggregato.Oggi la situazione e le sensibilità sono diverse.

La ricomposizione culturale ed il valore della Storia e dei suoi insegnamenti è molto cresciuto nella convinzione popolare:la richiesta di conoscenza,non di semplice informazione,deve essere soddisfatta perché davanti ad essa c’è una scelta partecipata dei cittadini alle domande che la vita- e di conseguenza la politica- pone continuamente davanti.

Il sito del nuovo museo: https://cref.it/

Il team di lavoro del nuovo CREF, i nuovi ragazzi di via Panisperna.

Non possiamo più sprecare tempo

In evidenza

Mauro Icardi

Le anomale precipitazioni piovose, che hanno interessato Germania, Belgio e Olanda dovrebbero indurci non solo a maggiori riflessioni, ma anche all’adozione di piani concreti contro il cambiamento climatico. Le ultime notizie parlano di oltre 180 morti e un numero non ben definito di dispersi.

Ridurre le emissioni dovute all’uso dei combustibili fossili, modificherà inevitabilmente e in maniera profonda il nostro modo di vivere. Sia nell’ambito della nostra vita privata, che in quella sociale e nell’organizzazione del lavoro. Non credo si possa pensare di risolvere problemi di questa importanza tramite compromessi. Dovremo adattarci a dei cambiamenti che modificheranno in maniera profonda le nostre abitudini.

L’adattamento a nuove situazioni è un processo che richiede indubbiamente risorse personali, una sorta di meccanismo di omeostasi psicologica, al quale però occorre essere stati preparati.

 Ricordo bene che nel periodo della mia infanzia e poi dell’adolescenza, sono stato educato a non eccedere nella richiesta di beni materiali. A non legare in maniera esagerata le mie soddisfazioni personali al possesso di beni materiali. Soprattutto se questi erano superflui. Queste indicazioni provenivano dai miei genitori, che nati negli anni 30, avevano vissuto in maniera ovviamente diversa.

Personalmente ho vissuto anch’ io il periodo della necessità di essere parte di una comunità di amici, ma fortunatamente nessuno di noi era influenzato in maniera eccessiva dalle lusinghe pubblicitarie.

Oggi invece molte, direi troppe cose sono cambiate. Ci confrontiamo con i problemi ambientali ormai da tempo. Ma quando ne parlo con amici, conoscenti e persone che frequento, rimango sempre piuttosto perplesso. Le obiezioni che mi sono rivolte quando cerco di spiegare quelle che possono essere le soluzioni (per altro non più rimandabili)  sono le stesse che ho iniziato a sentire negli anni 70.

In genere sentivo dire che, la Terra è grande e ha ancora sterminati territori da sfruttare, che l’inquinamento fosse il prezzo da pagare per il progresso, che fosse un diritto fondamentale quello del possesso dell’auto e magari della seconda casa al mare.

La sensazione che provo è che non sia cambiato nulla, quando ascolto le persone che parlano, magari sul tram o al ristorante. Invece sono cambiate diverse cose. E’ aumentata la concentrazione di CO2 in atmosfera, la biodiversità è profondamente compromessa, cosi come i cicli biogeochimici di fosforo e azoto.

Lo scopo di questo blog è questo. Informare nella maniera più rigorosa possibile come si debba preservare il pianeta.  La scienza, soprattutto quella del clima ha già indicato con chiarezza quali sono gli scenari probabili con cui dovremo fare i conti, se non invertiamo la tendenza. Le leggi fisiche non sono emendabili per decreto.  Si è detto e scritto molte volte, su questo blog e su migliaia di altri. Su centinaia di riviste scientifiche.

I segnali che ci dovrebbero far reagire immediatamente, pretendendo un impegno immediato e reale da parte della politica si susseguono con un’ allarmante regolarità. Il 2020 ha chiuso il decennio più caldo mai registrato. La temperatura globale è stata di circa 1,2 °C sopra il livello pre-industriale. 

E mi chiedo cosa altro dobbiamo aspettare che accada per smuoverci da questo torpore.

“ Le basi più elementari dei presupposti su cui si fonda il nostro futuro benessere economico sono marce. La nostra società vive una fase di rifiuto collettivo della realtà che, quanto a proporzioni e implicazioni non ha precedenti nella storia”

Jeremy Legget- Fine corsa Einaudi 2006.

Gli avvertimenti arrivano da lontano. Questo che ho tratto è solo uno dei tanti. Non abbiamo troppo tempo, e sprecarlo non è saggio.

Nota: L’intensità di questo evento alluvionale è stata certamente inusuale, se confrontata con le altre alluvioni avvenute in passato in Germania. E quindi non è corretto attribuire un singolo episodio, sia pure catastrofico come questo direttamente al riscaldamento globale, come affermato dal ministro tedesco Horst Seehofer. Ma quello che ci si può ragionevolmente supporre, e che eventi estremi di questo genere si possano verificare più frequentemente in un’atmosfera modificata dai gas serra.
Riporto quanto dichiarato da Antonio Navarra, climatologo e presidente della fondazione Centro Euro Mediterraneo sui cambiamenti climatici, intervistato a proposito di quanto successo in Germania.

Professor Navarra, eventi come questo sono certamente riconducibili all’emergenza
climatica?

«È molto probabile, ma per essere scientificamente corretti non possiamo parlare di certezza. Si tratta di fenomeni che hanno scale temporali completamente diverse ed è difficile spiegare un evento puntuale con un processo che invece si estende per secoli. Sarebbe come voler creare un rapporto di causa-effetto tra il fatto che sono inciampato in una strada della capitale e il crollo dell’Impero Romano. Probabilmente il legame, c’è ma è difficile dimostrarlo scientificamente.
Qualche collega sta cercando di dimostrate il legame tra global warming e singoli eventi meteo
estremi, ma alla fine non si può che parlarne in termini statistici».
Un dato, statistico appunto, consolidato è che frequenza e intensità dei fenomeni estremi stanno aumentando.
«Questo è fuor di dubbio. C’è una chiara correlazione tra l’aumento della concentrazione
dell’anidride carbonica nell’atmosfera e la frequenza e l’intensità di alluvioni, ondate di calore e
periodi di siccità. Nel caso specifico delle precipitazioni assistiamo a un graduale spostamento
verso nord delle due fasce che attraversano l’Europa. Una passa nella zona centrale del
continente, l’altra attraversa il Mediterraneo. Quest’ultima sta migrando verso latitudini più alte: tra qualche anno da noi ci saranno sempre meno piogge che si riverseranno proprio dove c’è stata l’alluvione di ieri. Le nostre proiezioni danno per l’area mediterranea un calo delle precipitazioni compreso tra il 15 e il 20%».

Riflettendo la luce solare

In evidenza

Dario Zampieri*

Recentemente, è stato pubblicato da parte delle National Academies of Sciences, Engineering and Medecine (Usa) un nuovo rapporto, seguente quello del 2015 del National Research Council, sulla praticabilità della geoingegneria quale possibile risposta al rapido cambiamento climatico che sta creando impatti severi su individui, comunità, economie ed ecosistemi.

Il rapporto dal titolo “Reflecting Sunlight: Recommendations for Solar Geoengineering Research and Research Governance” è dedicato a Paul J. Crutzen, recentemente scomparso, laureato Nobel in Chimica nel 1995 per l’individuazione della causa dell’impoverimento dell’ozono stratosferico, il quale in tempi più recenti si occupò anche della geoingegneria solare (SG) quale tecnica per contrastare gli effetti del cambiamento climatico.

La sfida dell’emergenza climatica richiede una serie di opzioni di mitigazione (che vanno dalla riduzione dell’emissione dei gas climalteranti alla rimozione e sequestro del carbonio dall’atmosfera) e di adattamento. La preoccupazione che l’adozione dell’insieme delle opzioni di mitigazione non avvenga alla dovuta velocità o che comunque non sia sufficiente ad evitare le peggiori conseguenze, ha portato a suggerire di esplorare ulteriori strategie come la geoingegneria solare. Con questo nome si intende l’aumento della riflessione verso lo spazio della radiazione solare o la riduzione della quantità di radiazione termica intrappolata. Naturalmente, per avere efficacia, queste strategie dovrebbero essere perseguite per tempi molto lunghi, come l’uso di un farmaco salvavita che non possa più essere abbandonato. Esse però introducono anche dei nuovi potenziali rischi, alcuni dei quali con effetti molto difficili da prevedere.

La SG è comunque una strategia che non sostituisce la necessaria riduzione dell’emissione dei gas climalteranti, i quali altrimenti continuerebbero a produrre l’acidificazione degli oceani e ad incrementare il cambiamento climatico. Inoltre, non servirebbe a riportare il clima globale o regionale ad uno stato precedente e se dovesse essere interrotto, in assenza di contestuale riduzione delle emissioni, potrebbe portare ad un repentino riscaldamento con effetti catastrofici.

La parola geoingegneria comprende numerose strategie incluse l’alterazione della riflettività della terra, del mare e dei ghiacci, nonché quelle per rimuovere la CO2 dall’atmosfera (emissioni negative). Il rapporto si limita ad esaminare quelle strettamente “solari” che sono:

  • Iniezione stratosferica di aerosol (Stratosferic Aerosol Injection, SAI), con aumento del numero delle particelle in grado di aumentare la riflessione della luce incidente.
  • Lo schiarimento delle nubi marine (Marine Cloud Brightening, MCB), con aumento della riflettività delle nuvole nella bassa atmosfera al di sopra di certe regioni degli oceani.
  • Assottigliamento delle nuvole cirri (Cirrus Cloud Thinning, CCT), con aumento della trasparenza delle nuvole ghiacciate in modo da favorire la radiazione infrarossa in uscita.

La ricerca indica che la SG può ridurre la temperatura, ma al tempo stesso può introdurre nuovi potenziali rischi come la perdita dell’ozono stratosferico, la modificazione regionale del clima interferendo ad esempio sul monsone indiano, e con numerosi effetti ambientali, sociali, politici ed economici (ad esempio, effetti regionali positivi per una certa regione possono implicare effetti negativi per altre regioni, che vanno dal cambio del regime delle piogge con problemi per la produzione di cibo alla induzione di migrazioni interne di popolazione).

SAI: è la tecnica più studiata e meglio compresa. Diversamente dalla troposfera, la stratosfera è relativamente poco turbolenta e gli aerosol possono permanere in sospensione per oltre un anno, prima di passare alla troposfera o precipitare al suolo. L’eruzione vulcanica del M. Pinatubo, nel 1991, ha iniettato nella stratosfera grandi quantità di idrogeno solforato (H2S) e biossido di zolfo (SO2), che si sono ossidati a formare un aerosol con proprietà riflettenti di acido solforico (H2SO4). Si stima che l’eruzione abbia abbassato la temperatura globale di circa mezzo grado centigrado per oltre un anno. Tuttavia, benchè simile agli effetti naturali di grandi eruzioni vulcaniche, lo spargimento di solfati può provocare effetti indesiderati come la riduzione della concentrazione dell’ozono, che protegge dalla dannosa radiazione ultravioletta. La superficie addizionale degli aerosol riduce i livelli di NOx via conversione di N2O5 ad acido nitrico. Nella bassa stratosfera questo aumenta la perdita di ozono per via dell’incremento dei livelli di HO2 e ClO.

Inoltre, l’incremento di riscaldamento infrarosso associato all’aggiunta di solfati cambierebbe la circolazione stratosferica, alterando la distribuzione dell’ozono. Nei prossimi 50-100 anni la concentrazione dell’ozono dovrebbe aumentare per effetto delle restrizioni nella produzione dei clorofluorocarburi. Tuttavia, la messa in opera della SAI potrebbe ritardare questo recupero.

Sostanze alternative ai solfati potrebbero essere particelle solide di calcite, di alluminio o di rutilo, ma la microfisica di questi composti, come la coagulazione sulle superfici degli aerosol non è ancora compresa. Un altro effetto non ben compreso è il possibile aumento del rapporto tra luce diffusa e luce diretta, con implicazioni sulla fotosintesi (produzione agricola, ecosistemi) e sulla produzione di energia fotovoltaica.

Un altro potenziale effetto indesiderato per la salute umana può essere l’esposizione cronica delle popolazioni via ingestione di acqua e cibo contaminati dalle particelle che si depositerebbero al suolo. Infatti, alcuni degli aerosol proposti contengono per esempio alluminio.

MCB: la ricerca mostra che aggiungendo aerosol alle nubi marine (tra 0 e 3 km sulla superficie marina) può in certi casi aumentare la riflettività, come accade per esempio sulla scia lasciata dai gas di scarico dalle navi. È stato proposto che lo stesso effetto possa essere ottenuto spruzzando una nebbia sottile di acqua salata. Non è però chiaro dove e quanto l’albedo delle nuvole possa cambiare e se i feedback amplifichino o mascherino gli effetti. Anche la scala ridotta di questo processo potrebbe essere un problema.

CCT: le nuvole cirri sono composte prevalentemente da cristalli di ghiaccio nella alta troposfera.  Queste contribuiscono al riscaldamento del pianeta, in quanto riducono la radiazione infrarossa in uscita più di quanto riflettano la radiazione solare incidente. Disseminando i cirri con nuclei di ghiaccio si possono produrre cristalli più grandi che cadono più in fretta, riducendo il tempo di vita e quindi la copertura di queste nuvole. L’efficacia della CCT non è ben compresa e le simulazioni di pochi modelli climatici hanno fornito risultati contrastanti.

Etica e geoingegneria

Dal punto di vista etico vi sono parecchie considerazioni, di seguito estremamente sintetizzate e solo accennate.

Alcuni ricercatori sociali hanno prospettato che questo “giocare a essere Dio” di una parte dell’umanità è una brama eccessiva. Altri invece pensano che poiché l’uomo sta già alterando il clima, anche se non intenzionalmente, il farlo invece in modo intenzionale non sarebbe più problematico. Se in futuro si dovesse ricorrere alla geoingegneria come misura disperata, sarebbe meglio conoscere a fondo quali approcci sono più efficaci e quali ne sono i limiti e le incertezze. Sempre nell’ambito delle discipline filosofico/sociali, altri ancora pensano che la ricerca sulla SG potrebbe distrarre dalla ricerca sulla mitigazione (azzardo morale), perché la geoingegneria sarebbe ingovernabile o perché non ha il consenso delle popolazioni indigene del Sud Globale. Un altro aspetto riguarda la giustizia intergenerazionale, in quanto la SG è un’impresa multigenerazionale alla scala dei decenni o dei secoli. La percezione del pubblico è un altro aspetto da considerare, perché esistono tanti pubblici con differenti vedute, come ad esempio la questione delle vaccinazioni anti-Covid sta dimostrando. Inoltre, gli studi (pochi) sinora fatti riguardano quasi esclusivamente i paesi sviluppati (Europa, Usa e Canada, con poche eccezioni in Giappone e Cina) e non si sa quale sia l’opinione delle popolazioni del Sud Globale, che sono maggiormente vulnerabili.

Una conclusione è che la ricerca sulla SG è in uno stadio embrionale e non permette di fornire elementi di supporto ad eventuali decisioni.

Aspetti legali

Anche qui la questione è piuttosto complessa. Ad esempio, la Convenzione di Vienna sulla protezione dello strato di ozono (1985), ratificata da quasi tutte le nazioni, chiede alle parti di proteggere la salute umana e l’ambiente dagli effetti avversi risultanti dalle attività umane che possono modificare lo strato di ozono. L’iniezione di aerosol solfatici nella stratosfera può appunto esacerbare la perdita di ozono. Il Protocollo di Montrèal (1987) restringe la produzione e l’uso di una serie di sostanze elencate in una lista, che dovrebbe essere aggiornata.

In risposta ai tentativi di usare come arma la modificazione del clima durante la guerra del Vietnam è stata ratificata una specifica convenzione (Environment Modification, ENMOD, 1978), che però non esclude usi diversi da quelli militari. La convenzione è comunque carente nel definire le istituzioni che dovrebbero implementare o espandere l’accordo.

La Convenzione delle nazioni unite sulla legge del mare (UNCLOS), ratificata da più di 160 stati ma non dagli Usa, prevede l’obbligo di proteggere gli oceani dall’inquinamento “da o attraverso l’atmosfera”.

Sta aumentando il riconoscimento che il cambiamento climatico e le risposte possono impattare i diritti umani. Il preambolo dell’Accordo di Parigi (2015) incoraggia le parti a rispettare e promuovere gli obblighi rispetto ai diritti umani quando si implementino azioni sul cambiamento climatico.

Una conclusione è che non esiste attualmente una azione coordinata sulla ricerca SG e che i meccanismi legali esistenti, nati in altri contesti, possono applicarsi solo ad alcuni aspetti su impatti di tipo fisico.

Il rapporto 2021 delle National Academies of Sciences, Engineering and Medecine fornisce una serie di proposte per un governo della ricerca su SG e delle raccomandazioni sulle modalità da rispettare per eventuali esperimenti in atmosfera, laddove non sia possibile ottenere informazioni tramite modelli e studi di laboratorio. Nelle conclusioni, si evidenzia che “dato che il cambiamento climatico è una delle sfide più complesse che l’umanità abbia mai affrontato, e che la SG è uno degli aspetti più controversi di risposta, la comunità scientifica deve raccogliere questa sfida con umiltà e creatività, mettendosi alla prova tra discipline diverse e confini nazionali, con nuove modalità oltre gli approcci business-as-usual della ricerca”.

Appare qua evidente il carattere di predicament dell’Antropocene, di cui il cambiamento climatico è uno dei tanti effetti. Non si può risolvere un predicament (situazione spiacevole, difficile o pericolosa), si può solo cercare di farvi fronte con umiltà, sapendo che le risposte non possono essere solo di tipo scientifico e tecnologico, ma anche sociale, culturale, politico ed ecologico.

National Academies of Sciences, Engineering, and Medicine 2021. Reflecting Sunlight: Recommendations for Solar Geoengineering Research and Research Governance. Washington, DC: The National Academies Press.

una versione libera del testo è scaricabile previa registrazione

https://doi.org/10.17226/25762

Rasch, P. J., P. J. Crutzen, and D. B. Coleman. 2008. Exploring the geoengineering of climate using stratospheric sulfate aerosols: The role of particle size. Geophysical Research Letters 35(2). https://doi.org/10.1029/2007GL032179.

*l’autore, già conosciuto dai nostri lettori per altri interessanti contributi è prof. associato di geologia presso UniPd e presidente di Aspo-Italia.

Alan Turing (1912-1954). Parte 2.

In evidenza

Rinaldo Cervellati

la prima parte di questo post è pubblicata qui.

Rinaldo Cervellati

Formazione di modelli e biologia matematica

Quando Turing aveva 39 anni nel 1951, si dedicò alla biologia matematica, pubblicando finalmente il suo capolavoro “Le basi chimiche della morfogenesi” nel gennaio 1952.

Alan Turing

Si interessò alla morfogenesi, allo sviluppo di schemi e forme negli organismi biologici.  Suggerì che un sistema di sostanze chimiche che reagiscono tra loro e si diffondono nello spazio, chiamato sistema di reazione-diffusione, potrebbe spiegare “i principali fenomeni della morfogenesi” [4]. Usò sistemi di equazioni differenziali alle derivate parziali per modellare reazioni chimiche catalitiche. Ad esempio, se è necessario un catalizzatore A affinché una certa reazione chimica abbia luogo e se la reazione ha prodotto più del catalizzatore A, allora diciamo che la reazione è autocatalitica e c’è un feedback positivo che può essere modellato dal differenziale non lineare di equazioni. Turing scoprì che si potevano creare schemi se la reazione chimica non solo producesse il catalizzatore A, ma producesse anche un inibitore B che rallentasse la produzione di A. Se A e B si diffondessero poi attraverso il contenitore a velocità diverse, allora si potevano avere alcune regioni dove A dominava e in alcuni dove dominava B. Per calcolare l’entità di questo fenomeno, Turing avrebbe avuto bisogno di un potente computer, che non era così liberamente disponibili nel 1951, quindi dovette usare approssimazioni lineari per risolvere le equazioni a mano. Questi calcoli hanno dato i giusti risultati qualitativi e hanno prodotto, ad esempio, una miscela uniforme che stranamente aveva macchie rosse regolarmente distanziate. Il biochimico russo Boris Belousov[1] aveva eseguito esperimenti con risultati simili, ma non era riuscito a pubblicare i suoi articoli a causa del pregiudizio contemporaneo che una cosa del genere violasse il secondo principio della termodinamica. Belousov non era a conoscenza dell’articolo di Turing nelle Philosophical Transactions of the Royal Society.

Sebbene pubblicato prima che la struttura e il ruolo del DNA fossero compresi, il lavoro di Turing sulla morfogenesi rimane rilevante oggi ed è considerato un lavoro fndamentale nella biologia matematica. Una delle prime applicazioni dell’articolo di Turing fu il lavoro di James Murray che spiegava macchie e strisce sulla pelliccia dei gatti, grandi e piccoli [5,6]. Ulteriori ricerche nell’area suggeriscono che il lavoro di Turing può spiegare in parte la crescita di “piume, follicoli piliferi, il modello di ramificazione dei polmoni e persino l’asimmetria sinistra-destra che mette il cuore sul lato sinistro del torace”[7]. Nel 2012, Sheth, et al. hanno scoperto che nei topi, la rimozione dei geni Hox provoca un aumento del numero di cifre senza un aumento della dimensione complessiva dell’arto, suggerendo che i geni Hox controllano la formazione delle cifre sintonizzando la lunghezza d’onda di un meccanismo di tipo Turing [8]. I documenti successivi non furono disponibili fino alla pubblicazione delle Collected Works of A. M. Turing nel 1992 [9].

La condanna e la morte

Nel 1941, Turing propose il matrimonio alla collega Joan Clarke, una matematica e criptoanalista, ma il loro fidanzamento fu di breve durata. Dopo aver ammesso la sua omosessualità con la sua fidanzata, che secondo quanto riferito non era “per nulla turbata” dalla rivelazione, Turing decise che non poteva portare avanti il ​​matrimonio.

Nel gennaio 1952, Turing aveva 39 anni quando iniziò una relazione con Arnold Murray, un disoccupato di 19 anni. Poco prima di Natale, Turing stava camminando lungo Oxford Road a Manchester quando incontrò Murray appena fuori dal Regal Cinema e lo invitò a pranzo. Il 23 gennaio, la casa di Turing fu svaligiata. Murray disse a Turing che lui e il ladro si conoscevano e Turing denunciò il crimine alla polizia. Durante le indagini, riconobbe una relazione sessuale con Murray. Gli atti omosessuali erano reati penali nel Regno Unito a quel tempo,ed entrambi gli uomini furono accusati di “gravi atti osceni” ai sensi della Sezione 11 del Criminal Law Amendment Act del 1885. Il 27 febbraio si svolsero i primi procedimenti di rinvio a giudizio per il processo, durante i quali l’avvocato di Turing “si è riservato la difesa”, cioè non ha sostenuto o fornito prove contro le accuse.

Turing fu poi convinto dai consigli di suo fratello e del suo stesso avvocato, e presentò una dichiarazione di colpevolezza.  Il caso, Regina v. Turing e Murray, fu portato in giudizio il 31 marzo 1952.  Turing fu condannato e gli fu data una scelta tra la reclusione e la libertà vigilata. La sua libertà vigilata sarebbe stata subordinata al suo consenso a sottoporsi a cambiamenti fisici ormonali volti a ridurre la libido. Accettò la possibilità di iniezioni di quello che allora veniva chiamato stilbestrolo (ora noto come dietilstilbestrolo o DES), un estrogeno sintetico; questa femminilizzazione del suo corpo è proseguita per un anno. Il trattamento rese Turing impotente e causò la formazione di tessuto mammario, adempiendo in senso letterale alla predizione di Turing secondo cui “senza dubbio ne emergerò un uomo diverso, ma proprio non l’ho scoperto”. A Murray fu dato un congedo condizionale (!).

La condanna di Turing portò alla rimozione del suo nulla osta di sicurezza e gli impedì di continuare con la sua consulenza criptografica per il Government Communications Headquarters, l’agenzia di intelligence dei segnali britannica che si era evoluta da GC&CS nel 1946, sebbene mantenne il suo lavoro accademico. Gli fu negato l’ingresso negli Stati Uniti dopo la sua condanna nel 1952, ma fu libero di visitare altri paesi europei. Turing non fu mai accusato di spionaggio ma, come tutti coloro che avevano lavorato a Bletchley Park, gli fu impedito dall’Official Secrets Act di discutere il suo lavoro di guerra.

L’8 giugno 1954, la governante di Turing lo trovò morto all’età di 41 anni; era morto il giorno prima. L’avvelenamento da cianuro è stato stabilito come causa della morte. Quando il suo corpo fu scoperto, una mela giaceva mezza mangiata accanto al suo letto, e sebbene la mela non fosse stata testata per il cianuro, fu ipotizzato che questo fosse il mezzo con cui Turing aveva consumato una dose fatale[2]. Un’inchiesta stabilì che si era suicidato. Andrew Hodges e un altro biografo, David Leavitt, hanno entrambi ipotizzato che Turing stesse rifacendo una scena del film di Walt Disney Biancaneve e i sette nani (1937), la sua fiaba preferita. Entrambi gli uomini notarono che (secondo le parole di Leavitt) provava “un piacere particolarmente intenso nella scena in cui la Regina Perfida immerge la sua mela nell’infuso velenoso”. I resti di Turing furono cremati al crematorio di Woking il 12 giugno 1954, e le sue ceneri furono sparse nei giardini del crematorio, proprio come lo era stato per suo padre.

Il professore di filosofia Jack Copeland ha messo in dubbio vari aspetti del verdetto storico del coroner. Ha suggerito una spiegazione alternativa per la causa della morte di Turing: l’inalazione accidentale di fumi di cianuro da un apparato utilizzato per placcare l’oro su cucchiai. Il cianuro di potassio è infatti stato utilizzato per sciogliere l’oro. Turing aveva un tale apparato installato nella sua minuscola stanza degli ospiti. Copeland ha notato che i risultati dell’autopsia erano più coerenti con l’inalazione che con l’ingestione del veleno. Turing mangiava abitualmente una mela prima di andare a letto, e non era insolito che la mela venisse scartata mezza mangiata (v. nota 3). Inoltre, secondo quanto riferito, Turing aveva sopportato le sue battute d’arresto legali e il trattamento ormonale  “con buon umore” e non aveva mostrato alcun segno di sconforto prima della sua morte. Fece anche un elenco di compiti che intendeva portare a termine al suo ritorno in ufficio dopo il fine settimana festivo. La madre di Turing credeva che l’ingestione fosse accidentale, a causa dello stoccaggio negligente di suo figlio di sostanze chimiche di laboratorio. Il biografo Andrew Hodges ha teorizzato che Turing abbia organizzato la consegna dell’attrezzatura per consentire deliberatamente a sua madre una negazione plausibile riguardo a qualsiasi affermazione di suicidio[3].

Le “lacrime di coccodrillo” di parlamento e governo e la “giustizia” postuma.

Nell’agosto 2009, il programmatore britannico John Graham-Cumming lanciò una petizione chiedendo al governo britannico di scusarsi per l’accusa a Turing come omosessuale. Il Primo Ministro, Gordon Brown, riconobbe la petizione, rilasciando una dichiarazione il 10 settembre 2009 in cui si scusava e descriveva il trattamento di Turing come “spaventoso”.

Migliaia di persone si sono unite per chiedere giustizia per Alan Turing e il riconoscimento del modo spaventoso in cui è stato trattato. Sebbene Turing sia stato trattato secondo la legge del tempo, il suo trattamento è stato ovviamente assolutamente ingiusto e sono lieto di avere la possibilità di dire quanto profondamente dispiaciuto io e tutti noi siamo per quello che è successo a lui … Quindi, a nome del governo britannico, e di tutti coloro che vivono liberamente grazie al lavoro di Alan, sono molto orgoglioso di dire: ci dispiace, meritavi molto di meglio.

Nel dicembre 2011, William Jones e il membro del Parlamento, John Leech, hanno lanciato una petizione elettronica, chiedendo che il governo britannico condoni Turing per la condanna per “gravi atti osceni”. Chiediamo al governo di Sua Maestà di concedere la grazia ad Alan Turing per la condanna per “gravi atti osceni”. Alan Turing è stato portato a una terribile disperazione e alla morte prematura dalla nazione che aveva fatto così tanto per salvare. Questo rimane una vergogna per il governo britannico e la storia britannica. Un perdono può fungere da scuse per molti altri uomini gay, non così noti come Alan Turing, che sono stati soggetti a queste leggi .La petizione ha raccolto oltre 37.000 firme, ed è stata presentata al Parlamento dal deputato di Manchester John Leech, ma la richiesta è stata scoraggiata dal ministro della Giustizia Lord McNally.

John Leech, il deputato di Manchester, ha presentato diversi progetti di legge al Parlamento e ha condotto una campagna di alto profilo per ottenere la grazia. Leech ha sostenuto alla Camera dei Comuni che il contributo di Turing alla guerra lo ha reso un eroe nazionale e che era “alla fine solo imbarazzante” che la condanna fosse ancora valida. Leech ha continuato a portare il disegno di legge in Parlamento e ha condotto una campagna per diversi anni, ottenendo il sostegno pubblico di numerosi eminenti scienziati, tra cui Stephen Hawking. Alla premiere britannica di un film basato sulla vita di Turing, “The Imitation Game”, i produttori hanno ringraziato Leech per aver portato l’argomento all’attenzione del pubblico e aver ottenuto il “perdono di Turing”. Leech, successivamente alla legge Alan Turing,  ha continuato a garantire la grazia per 75.000 altri uomini e donne condannati per crimini simili.

Nel 2012 è stato presentato alla Camera dei Lord un disegno di legge per concedere la grazia legale a Turing per i reati ai sensi della sezione 11 del Criminal Law Amendment Act 1885, per il quale fu condannato il 31 marzo 1952. Alla fine dell’anno in una lettera al The Daily Telegraph, il fisico Stephen Hawking e altri 10 firmatari tra cui l’astronomo Royal Lord Rees, il presidente della Royal Society Sir Paul Nurse, Lady Trumpington (che ha lavorato per Turing durante la guerra) e Lord Sharkey (sponsor del disegno di legge) ha invitato il primo ministro David Cameron ad agire sulla richiesta di grazia. Il governo ha indicato che avrebbe sostenuto il disegno di legge, ​​e ha approvato la sua terza lettura alla Camera dei Lord in ottobre 2012.

Alla seconda lettura del disegno di legge alla Camera dei Comuni il 29 novembre 2013, il deputato conservatore Christopher Chope si è opposto al disegno di legge, ritardandone l’approvazione. Il disegno di legge sarebbe dovuto tornare alla Camera dei Comuni il 28 febbraio 2014, ma prima che il disegno di legge potesse essere discusso, il governo ha deciso di procedere sotto la prerogativa reale della “misericordia”. Il 24 dicembre 2013, la regina Elisabetta II ha firmato la grazia per la condanna di Turing per “gravi atti osceni”, con effetto immediato.

Questa storia ricorda (a parte gli anni trascorsi), la “riabilitazione” di Galileo da parte delle alte gerarchie della chiesa cattolica…(N.d. R.).

Ci fa piacere ricordare che Alan Turing fu nominato Ufficiale dell’Ordine dell’Impero Britannico nel 1946, nonchè eletto Fellow della Royal Society (FRS) nel 1951. Turing è stato onorato in vari modi a Manchester, la città dove ha lavorato verso la fine della sua vita, come mostrano le seguenti figure.

Figure: (sotto) l’Edificio Alan Turing; (sopra) placca commemorativa. Città  di Manchester.

Oggi, l’effige di Alan Turing è stampata sulla banconota da 50 sterline:

Bibliografia

[1] A.M. Turing, On Computable Numbers, with an Application to the Entscheidungsproblem.,London Math. Soc., 1936

[2]J.Grime,What Did Turing Do for Us?,https://nrich.maths.org/8050

[3] A.M Turing, Systems of  Logic Based on Ordinals, PhD thesis, Univers. Princeton

https://web.archive.org/web/20121023103503/https://webspace.princeton.edu/users/jedwards/Turing%20Centennial%202012/Mudd%20Archive%20files/12285_AC100_Turing_1938.pdf

[4] A.M. Turing, The chemical basis of morphogenesis.,Phil. Trans. R. Soc. Lond. B, 1952, 237, 37-72.

[5] J. D. Murray, How the Leopard Gets its Spots. Scientific American, 1988, 258(3), 80.

[6] J. Murray, Mathematical Biology, Springer Verlag, 2007, Chap. 6.

[7] G. Vogel, Turing Pattern Fingered for Digit Formation., Science, 2012, 338, 1406.

[8] R. Sheth et al., Hox Genes Regulate Digit Patterning by Controlling the Wavelength of a Turing-Type Mechanism., Science, 2012, 338, 1476-1480.

[9] A. Hodges, The Alan Turing Bibliography, https://www.turing.org.uk/sources/biblio2.html


[1] Boris Pavlovich Belousov (1893–1970) è stato un chimico e biofisico sovietico che ha scoperto la reazione Belousov-Zhabotinsky (reazione BZ) nei primi anni ’50. Il suo lavoro ha avviato il campo della moderna dinamica chimica non lineare, anche se la prima reazione chimica periodica fu in realtà scoperta da William Crowell Bray nel 1921. V. anche J. Chem. Educ. 201794 (2), 195-201.

[2] A me sembra che questa “ricostruzione” sia abbastanza fantasiosa: si ritiene che sia sufficiente mezza tazza di semi di mela per uccidere un adulto, e una mezza mela smangiucchiata non è certamente sufficiente.

[3] I Servizi segreti, che già avevano Turing nel mirino, non è difficile pensare che abbiano avuto un loro interesse nell’eliminarlo.

Recensione. I bugiardi del clima.

In evidenza

Luigi Campanella, già Presidente SCI

I bugiardi del clima. Potere, politica psicologia di chi nega la crisi del secolo

di Stella Levantesi,ed.Laterza p.256 2021 17 euro

In questi 2 fine settimana di luglio ho avuto il tempo di leggere un libro che merita alcune riflessioni in relazione all’impegno del nostro blog rispetto ad alcuni temi per i quali l’aspetto scientifico, sociale e politico si intrecciano intimamente. Mi riferisco a “I bugiardi del clima” di Stella Levantesi, ed.Laterza. Il libro vuole rispondere ad una domanda: perchè nonostante decenni di consapevolezza scientifica sui motivi dei cambiamenti climatici l’azione politica è così lenta e le iniziative più significative sono quelle affidate alla società civile? La risposta può aiutare a comprendere gli errori del passato ed a non commetterne ancora.

La novità del libro secondo me deriva dal suo metodo:percorrere al fine di comprendere non il.percorso di chi è giunto alla conclusione dell’emergenza climatica, ma di chi afferma che non c’è. Si comprende quindi come i negazionisti siano abili nel trasformare un fenomeno scientifico da tutti osservabile in un tema politico: così il fenomeno perde il suo fondamento scientifico e diventa questione politica, se non addirittura partitica, e come tale è più facile metterne in discussione l’esistenza e, soprattutto, l’urgenza.

Il libro presenta anche una interpretazione storica della nascita del negazionismo ambientale: alcune aziende di gas,carbone e petrolio sapevano come realmente stessero le cose sin dagli anni ’70-’80 con.i loro tecnici capaci di collegare attività produttive, combustibili fossili ed emissioni climalteranti, causa dell’innalzamento termico del pianeta. Per dirottare la conoscenza delle cose e delle relative responsabilità tali tecnici hanno attuato una campagna di disinformazione durata fino al 2015, quando tali fatti vennero alla luce con riferimento specifico alla Exxon.

In effetti anche Shell ed altri sapevano,ma nessuno aveva parlato cosicché il fronte negazionista aveva avuto la possibilità di crescere e rinforzarsi. Non erano state coinvolte nell’operazione solo aziende di combustibili fossili: associazioni industriali avevano arruolato negazionisti a noleggio (la denominazione è dovuta allo scienziato Michael Mann) ed alcuni circoli conservatori avevano promosso una camera dell’eco che comprendeva alcune piattaforme mediatiche negazioniste. Tra i primi obbiettivi di queste sono stati e sono tuttora l’ostacolo e la resistenza a qualunque regolamentazione al settore fossile ed alla politica climatico ambientale e la semina di discredito alla scienza del clima. Questa – può essere una giusta osservazione a posteriori -si é dispersa in molti troppi rivoli frazionando dati e conoscenze a svantaggio della loro significatività. La macchina negazionista per acquisire forza si serve di differenti strumenti, dai finanziamenti alla propaganda politica alle strategie di comunicazione.Secondo uno studio le maggiori compagnie di gas e petrolio spendono più di 200 milioni di dollari l’anno al fine di esercitare pressioni per ostacolare le politiche climatiche e la regolamentazione del settore. Circa i dati scientifici gli strumenti più adottati per finalizzarli al proprio tornaconto negazionista sono quelli del cosiddetto cherry pickling per cui si isolano dei dati e si sopprimono le prove e le vie di accesso al quadro completo e dell’argumentum ad hominem,strategia per cui invece di criticare i contenuti di un’argomentazione si lancia discredito su chi l’ha formulata. Infine viene confusa l’opinione pubblica dando l’impressione che il dibattito scientifico sui cambiamenti climatici sia ancora in corso e su questo torna l’osservazione già prima formulata, circa alcune responsabilità del mondo scientifico talvolta ubriacato da un numero crescente di dati in un approccio olistico che però finisce per fare perdere la visione di sintesi.

La prima bugia che si può raccontare sull’emergenza climatica è che non è colpa dell’essere umano;la seconda è che tutti gli esseri umani ne sono responsabili in uguale misura.Queste bugie, insieme alla paura di perdere lo status quo ed i propri benefici all’interno della società, finiscono per alimentare il negazionismo. Ed ecco perché la crisi climatica non riguarda solo la Scienza, ma va reinterpretata come crisi che interseca tutte le altre, dalla giustizia sociale alla salute pubblica.
Non voglio chiudere queste note sul libro di Stella Levantesi senza ricordare il significativo paragone che vi si può leggere descritto circa come le strategie negazioniste ricalchino quelle dell’industria del tabacco. I parallelismi tra le due campagne di disinformazione sono evidenti: per continuare a vendere sigarette si nascondono dati e si screditano quanti su basi scientifiche dimostrano la correlazione stretta fra fumo e tumore dei polmoni o anche semplici patologie respiratorie.
Non sono Stella Levantesi ed ho solo cercato di sintetizzare il suo pensiero descritto con chiarezza ed incisività nel suo libro.Il fatto che io condivida quanto riportato non deve togliere a quanti leggono questo post la curiosità di leggere in dettaglio il libro per poi elaborarlo nella propria coscienza al fine di contribuire affinchè il dibattito perda quei caratteri di strumentalità che nuocciono a scelte sostenibili.

Alan Turing (1912-1954). Parte 1.

In evidenza

Rinaldo Cervellati

A proposito del mio post su scienziati e scienziate LGBT, un attento lettore mi ha fatto notare che mi sarei dimenticato di Alan Turing, ampiamente considerato il padre dell’informatica e dell’intelligenza artificiale, oltre di altre “cosette” oggi ricordate dai ricercatori in dinamica non-lineare.(NdP) Ebbene, non mi sono certo dimenticato di Turing, avendo letto la versione italiana della sua ponderosa biografia compilata da Andrew Hodgens[1]. Dopo questo volume, è certamente difficile scrivere un post su Turing, tenendo conto che, dopo aver servito l’Inghilterra decifrando il codice tedesco “Enigma”, fu costretto, nel 1952, alla “castrazione chimica” per la sua omosessualità. Dopo di che, due anni dopo, Alan Turing si suicidò. Guardate che sono solo circa meno di 70 anni fa, ma in Inghilterra le cose stavano così.

E adesso, perdonatemi, ma la mia biografia è presa da wikipedia (English edition)[2]. Molto recentemente, una breve storia di Turing è stata riportata su Rai Storia, “Passato e Presente”, il 23 giugno[3].

Turing nacque a Maida Vale, Londra, mentre suo padre, Julius Mathison Turing, era in congedo dalla sua occupazione come Presidente di Madras nello Stato di Odisha, in India. La madre di Turing, era Ethel Sara Turing, figlia di Edward Waller Stoney, ingegnere capo delle ferrovie di Madras, in India.

Il lavoro di Julius portò la famiglia nell’India britannica, dove suo nonno era stato generale nell’esercito del Bengala. Tuttavia, sia Julius che Ethel volevano che i loro figli crescessero in Gran Bretagna, quindi si trasferirono a Maida Vale(in seguito il Colonnade Hotel), Londra, dove Alan Turing nacque il 23 giugno 1912, Turing aveva un fratello maggiore, John.

L’attività per il servizio civile del padre di Alan era ancora attiva e durante gli anni dell’infanzia di Turing, i suoi genitori viaggiarono tra Hastings nel Regno Unito e l’India, lasciando i loro due figli con una coppia dell’esercito in pensione. Ad Hastings, Turing soggiornò a Baston Lodge, Upper Maze Hill, St Leonards-on-Sea, ora contrassegnato da una targa blu. La targa è stata svelata il 23 giugno 2012, centenario della nascita di Turing.

Molto presto nella vita, Turing mostrò segni del genio che in seguito avrebbe mostrato in modo prominente. I suoi genitori acquistarono una casa a Guildford nel 1927 e Turing visse lì durante le vacanze scolastiche.

I genitori di Turing lo iscrissero a St Michael’s, una scuola diurna di Charles Road, all’età di sei anni. La direttrice riconobbe presto il suo talento, così come molti dei suoi successivi insegnanti.

Tra il gennaio 1922 e il 1926, Turing studiò alla Hazelhurst Preparatory School, una scuola indipendente nel villaggio di Frant nel Sussex. Nel 1926, all’età di 13 anni, passò alla Sherborne School, un collegio indipendente nella città di Sherborne nel Dorset, dove si iscrisse alla Westcott House. Il primo giorno di scuola coincise con lo sciopero generale del 1926, in Gran Bretagna, ma Turing era così determinato a partecipare che percorse in bicicletta  60 miglia (97 km) da Southampton a Sherborne, fermandosi per la notte in una locanda.

La naturale inclinazione di Turing verso la matematica e le scienze non gli valse il rispetto di alcuni degli insegnanti di Sherborne, la cui definizione di educazione poneva più enfasi sui classici. Il suo preside scrisse ai suoi genitori: “Spero che non cada tra due sgabelli. Se vuole restare alla scuola pubblica, deve mirare a diventare istruito. Se vuole essere solo uno specialista scientifico, sta perdendo il suo tempo in una scuola pubblica”. Nonostante ciò, Turing continuò a mostrare notevole abilità negli studi che amava, risolvendo problemi avanzati nel 1927 senza aver studiato nemmeno il calcolo elementare. Nel 1928, all’età di 16 anni, Turing lesse il lavoro di Albert Einstein; non solo lo comprese, ma è possibile che sia riuscito a dedurre l’interrogativo di Einstein sulle leggi del moto di Newton da un testo che non è mai stato reso esplicito.

Ritratto di Alan Turing a 16 anni

A Sherborne, Turing strinse un’amicizia particolare con il compagno di studi Christopher Collan Morcom (1911 – 1930), che è stato descritto come il “primo amore” di Turing. La loro relazione fornì ispirazione per i futuri sforzi di Turing, ma fu interrotta dalla morte di Morcom, nel febbraio 1930, per complicazioni della tubercolosi bovina, contratta dopo aver bevuto latte di mucca infetto alcuni anni prima. L’evento causò grande dolore a Turing.  Affrontò il suo dolore lavorando molto più duramente sui temi della scienza e della matematica che aveva condiviso con Morcom. In una lettera alla madre di Morcom, Frances Isobel Morcom (nata Swan), Turing scrisse:

Sono sicuro che non avrei potuto trovare da nessuna parte un altro compagno così brillante eppure così affascinante e senza presunzione. Consideravo il mio interesse per il mio lavoro, e in cose come l’astronomia (che mi ha fatto conoscere) come qualcosa da condividere con lui e penso che lui provasse un po’ lo stesso per me… so che devo mettere tanta energia se non tanto interesse per il mio lavoro come se fosse vivo, perché così vorrebbe che facessi.

La relazione di Turing con la madre di Morcom continuò a lungo dopo la morte di Morcom, con l’invio di regali a Turing e l’invio di lettere da parte di lui. Un giorno prima del terzo anniversario della morte di Morcom (13 febbraio 1933), scrisse che continuava a mostrare notevole abilità negli studi che amava, risolvendo problemi avanzati. Alcuni hanno ipotizzato che la morte di Morcom sia stata la causa dell’ateismo e del materialismo di Turing. Apparentemente, a questo punto della sua vita credeva ancora in concetti come uno spirito, indipendente dal corpo e sopravvissuto alla morte. In una lettera successiva, scritta anche alla madre di Morcom, Turing scrisse:

Personalmente ritengo che lo spirito sia realmente eternamente connesso con la materia ma certamente non dallo stesso tipo di corpo… per quanto riguarda l’effettiva connessione tra spirito e corpo ritengo che il corpo possa trattenere uno ‘spirito’, mentre il corpo è vivo e sveglio i due sono saldamente collegati. Quando il corpo dorme non riesco a indovinare cosa succede ma quando il corpo muore, il ‘meccanismo’ del corpo, che tiene lo spirito è sparito e lo spirito trova un nuovo corpo prima o poi, forse immediatamente.

Dopo Sherborne, Turing studiò come studente universitario dal 1931 al 1934 al King’s College di Cambridge, dove ricevette il massimo dei voti in matematica. Nel 1935, all’età di 22 anni, fu eletto Fellow del King’s College sulla base di una tesi in cui dimostrò il teorema del limite centrale. Nel 1936 Turing pubblicò il suo articolo “On Computable Numbers, with an Application to the Entscheidungsproblem”[1], sulla rivista Proceedings of the London Mathematical Society in due parti, la prima il 30 novembre e la seconda il 23 dicembre. In questo articolo, Turing ha riformulato i risultati del 1931 di Kurt Gödel sui limiti della dimostrazione e del calcolo, sostituendo il linguaggio formale universale basato sull’aritmetica di Gödel con i dispositivi ipotetici formali e semplici che divennero noti come macchine di Turing. L’Entscheidungsproblem (problema decisionale) fu originariamente posto dal matematico tedesco David Hilbert nel 1928. Turing dimostrò che la sua “macchina di calcolo universale” sarebbe stata in grado di eseguire qualsiasi calcolo matematico concepibile se fosse rappresentabile come un algoritmo. Proseguì dimostrando che non esisteva una soluzione al problema decisionale dimostrando innanzitutto che il problema dell’arresto per le macchine di Turing è indecidibile: non è possibile decidere algoritmicamente se una macchina di Turing si fermerà. Questo articolo è stato definito  “il documento di matematica più influente della storia”.

Al King’s College di Cambridge, dove Turing era uno studente nel 1931 e divenne Fellow nel 1935, la sala computer prende il suo nome.

Sebbene la dimostrazione di Turing sia stata pubblicata poco dopo la dimostrazione equivalente di Alonzo Church usando il suo lambda calcolo, l’approccio di Turing è considerevolmente più accessibile e intuitivo di quello di Church.[2] Comprendeva anche una nozione di “macchina universale” (ora nota come macchina di Turing), con l’idea che tale macchina potesse svolgere i compiti di qualsiasi altra macchina di calcolo (come in effetti potrebbe fare il lambda calcolo di Church). Secondo la tesi di Church-Turing, le macchine di Turing e il lambda calcolo sono in grado di calcolare qualsiasi cosa sia calcolabile. John von Neumann riconobbe che il concetto centrale del computer moderno era dovuto all’articolo di Turing. Fino ad oggi, le macchine di Turing sono un oggetto di studio centrale nella teoria del calcolo.

Dal settembre 1936 al luglio 1938, Turing trascorse la maggior parte del suo tempo a studiare con Church alla Princeton University, nel secondo anno come Jane Eliza Procter Visiting Fellow. Oltre al suo lavoro puramente matematico, studiò la criptografia e costruì anche tre dei quattro stadi di un moltiplicatore binario elettromeccanico. Nel giugno 1938 conseguì il dottorato di ricerca presso il Dipartimento di Matematica di Princeton; la sua tesi, Systems of Logic Based on Ordinals,[3] introdusse il concetto di logica ordinale e la nozione di calcolo relativo, in cui le macchine di Turing sono potenziate con i cosiddetti “oracoli”, che consentono lo studio di problemi che non possono essere risolti dalle macchine di Turing. John von Neumann voleva assumerlo come suo assistente post-dottorato, ma tornò nel Regno Unito.

Quando Turing tornò a Cambridge, frequentò le lezioni tenute nel 1939 da Ludwig Wittgenstein sui fondamenti della matematica. Le lezioni sono state ricostruite testualmente, comprese le interiezioni di Turing e di altri, dagli appunti degli studenti. Turing e Wittgenstein discutevano e non erano d’accordo, con Turing che difendeva il formalismo e Wittgenstein che proponeva la sua opinione secondo cui la matematica non scopre verità assolute, ma piuttosto le inventa.

Criptoanalisi

Durante la seconda guerra mondiale, Turing fu uno dei principali partecipanti alla violazione dei codici tedeschi a Bletchley Park[4]. Lo storico e decodificatore del tempo di guerra Asa Briggs ha detto: “Avevi bisogno di talento eccezionale, avevi bisogno di genio a Bletchley e Turing era quel genio”.

Dal settembre 1938, Turing lavorò part-time con la Government Code and Cypher School (GC&CS), l’organizzazione britannica per la decifrazione dei codici. Si concentrò sulla criptoanalisi della macchina per cifrare Enigma usata dalla Germania nazista, insieme a Dilly Knox, un decifratore anziano di GC&CS. Subito dopo l’incontro del luglio 1939 vicino a Varsavia, durante il quale l’Ufficio di crittografia polacco fornì ai britannici e ai francesi i dettagli del cablaggio dei rotori della macchina Enigma e il loro metodo per decifrare i messaggi della macchina Enigma, Turing e Knox svilupparono una soluzione più ampia. Il metodo polacco si basava su una procedura di indicatore insicura che i tedeschi avrebbero probabilmente cambiato, cosa che in effetti fecero nel maggio 1940. L’approccio di Turing era più generale, utilizzando una decifrazione per la quale produsse la specifica funzionale della “bomba” (un miglioramento sulla “Bomba” polacca).

Il 4 settembre 1939, il giorno dopo che il Regno Unito dichiarò guerra alla Germania, Turing riferì a Bletchley Park, la stazione di guerra di GC&CS. Specificare la bomba fu il primo dei cinque grandi progressi criptoanalitici che Turing fece durante la guerra. Gli altri erano: dedurre la procedura di indicizzazione utilizzata dalla marina tedesca; sviluppare una procedura statistica chiamata Banburismus per fare un uso molto più efficiente delle bombe; sviluppo di una procedura soprannominata Turingery per elaborare le impostazioni dei rotori della macchina cifratrice Lorenz SZ 40/42 (Tunny) e, verso la fine della guerra, lo sviluppo di uno scrambler vocale sicuro portatile a Hanslope Park che è stato nome in codice Delilah .

Utilizzando tecniche statistiche per ottimizzare la sperimentazione di diverse possibilità nel processo di decifrazione del codice, Turing ha dato un contributo innovativo all’argomento. Ha scritto due articoli che discutono gli approcci matematici, intitolati The Applications of Probability to Cryptography e Paper on Statistics of Repetitions, che sono stati di tale valore per GC&CS e il suo successore GCHQ, che non sono stati rilasciati agli archivi nazionali del Regno Unito fino all’aprile 2012, poco prima del centenario della sua nascita. Un matematico del GCHQ, “che si identificò solo come Richard”, disse all’epoca che il fatto che il contenuto fosse stato limitato per circa 70 anni dimostrava la loro importanza, e la loro rilevanza per la criptoanalisi del dopoguerra: [Egli] ha affermato che il fatto che i contenuti siano stati ristretti “dimostra l’enorme importanza che ha nei fondamenti del nostro argomento”. … I documenti dettagliati utilizzando “l’analisi matematica per cercare di determinare quali sono le impostazioni più probabili in modo che possano essere provate il più rapidamente possibile”. … Richard ha detto che GCHQ aveva ora “spremuto il succo” ed era “felice che fossero rilasciati nel pubblico dominio”.

Turing aveva la reputazione di essere eccentrico a Bletchley Park. Era noto ai suoi colleghi come “Prof” e il suo trattato su Enigma era noto come “Libro del prof”. Lo storico Ronald Lewin, Jack Good, un criptoanalista che ha lavorato con Turing, ha detto del suo collega:

Nella prima settimana di giugno di ogni anno aveva un brutto attacco di febbre da fieno e andava in bicicletta in ufficio indossando una maschera antigas di servizio per tenere lontano il polline. La sua bicicletta aveva un difetto: la catena si staccava a intervalli regolari. Invece di farla riparare contava il numero di giri dei pedali e scendeva dalla bicicletta in tempo per aggiustare a mano la catena.

Peter Hilton ha raccontato, nelle sue “Reminiscenze di Bletchley Park”, la sua esperienza di lavoro con Turing nel capanno 8: “È un’esperienza rara incontrare un autentico genio. Quelli di noi che hanno il privilegio di vivere nel mondo della borsa di studio hanno familiarità con gli stimoli intellettuali forniti da colleghi di talento. Possiamo ammirare le idee che condividono con noi e di solito siamo in grado di comprenderne la fonte; possiamo anche spesso credere che noi stessi avremmo potuto creare tali concetti e originato tali pensieri. Tuttavia, l’esperienza di condividere la vita intellettuale di un genio è completamente diversa; ci si accorge di essere in presenza di un’intelligenza, di una sensibilità di tale profondità e originalità che si riempie di stupore ed eccitazione. Alan Turing era un tale genio, e chi, come me, ha avuto la sorprendente e inaspettata opportunità, creata dalle strane esigenze della seconda guerra mondiale, di poter avere Turing come collega e amico, non dimenticherà mai quell’esperienza, né potrà perdere mai il suo immenso beneficio per noi.”

Mentre lavorava a Bletchley, Turing, che era un talentuoso fondista, occasionalmente correva per 40 miglia (64 km) fino a Londra quando era necessario per le riunioni, ed era capace di standard di maratona di livello mondiale. Turing provò per la squadra olimpica britannica del 1948, ma fu ostacolato da un infortunio. Il suo tempo di prova per la maratona è stato di soli 11 minuti più lento del tempo di gara olimpico di 2 ore e 35 minuti di Thomas Richards, medaglia d’argento britannica. Era il miglior corridore del Walton Athletic Club, un fatto scoperto quando ha superato il gruppo mentre correva da solo. Quando gli è stato chiesto perché ha corso così tanto in allenamento, ha risposto: “Ho un lavoro così stressante che l’unico modo per togliermelo dalla testa è correre duro; è l’unico modo per ottenere un po’ di libertà.”

Entro poche settimane dall’arrivo a Bletchley Park, Turing aveva ideato una macchina elettromeccanica chiamata “bomba”, che poteva decifrare Enigma in modo più efficace della bomba kryptologiczna polacca, da cui derivava il nome. La bomba, con un miglioramento suggerito dal matematico Gordon Welchman, divenne uno degli strumenti principali, e il principale automatizzato, utilizzato per decifrare i messaggi cifrati da Enigma.

Una replica completa e funzionante di una bomba è ora al National Museum of Computing a Bletchley Park

Una replica completa e funzionante di una macchina di Turing (“bomba”). National Museum a Bletchley Park

La “bomba” ha cercato possibili impostazioni corrette utilizzate per un messaggio Enigma (cioè, ordine del rotore, impostazioni del rotore e impostazioni del plugboard) utilizzando un frammento di probabile testo in chiaro. Per ogni possibile impostazione dei rotori (che aveva dell’ordine 1019 stati, o 1022 stati per la variante U-boat a quattro rotori), la “ bomba” eseguiva una catena di deduzioni logiche, attuate in modo elettromeccanico.

La bomba ha rilevato quando si verificava una contraddizione ed ha escluso tale impostazione, passando alla successiva. La maggior parte delle possibili impostazioni causerebbe contraddizioni e verrebbe scartata, lasciandone solo alcune da indagare in dettaglio. Si sarebbe verificata una contraddizione quando una lettera cifrata sarebbe stata ritrasformata nella stessa lettera in chiaro, cosa impossibile con Enigma. La prima bomba fu installata il 18 marzo 1940.

Alla fine del 1941, Turing e i suoi colleghi criptoanalisti Gordon Welchman, Hugh Alexander e Stuart Milner-Barry erano frustrati. Basandosi sul lavoro dei polacchi, avevano messo a punto un buon sistema funzionante per decifrare i segnali Enigma, ma il loro personale limitato impedivano loro di tradurre tutti i segnali. In estate ebbero un notevole successo e le perdite dei convogli erano scese a meno di 100.000 tonnellate al mese; tuttavia, avevano un disperato bisogno di più risorse per tenersi al passo con gli adeguamenti tedeschi. Avevano cercato di ottenere più persone e finanziare più bombe attraverso i canali appropriati, ma avevano fallito.

Il 28 ottobre scrissero direttamente a Winston Churchill spiegando le loro difficoltà, con Turing come primo nominato. Sottolineavano quanto fosse esiguo il loro bisogno rispetto all’ingente dispendio di uomini e denaro da parte di esercito e marina e rispetto al livello di assistenza che potevano offrire alle forze armate.

Nel luglio 1942, Turing ideò una tecnica chiamata Turingery (o scherzosamente Turingismus) da usare contro i messaggi cifrati di Lorenz prodotti dalla nuova macchina tedesca Geheimschreiber (scrittore segreto). Questa era una tecnica di cifratura del rotore di una telescrivente, nome in codice Tunny a Bletchley Park. Turingery era una procedura per elaborare le impostazioni dei rotori di Tunny. Ha anche presentato il team di Tunny a Tommy Flowers che, sotto la guida di Max Newman, ha continuato a costruire il computer Colossus, il primo computer elettronico digitale programmabile al mondo, che ha sostituito una macchina precedente più semplice (la Heath Robinson), e la cui velocità superiore ha permesso di applicare utilmente ai messaggi le tecniche di decrittazione statistica. Alcuni hanno erroneamente affermato che Turing fosse una figura chiave nella progettazione del computer Colossus. Turingery e l’approccio statistico di Banburismus hanno senza dubbio alimentato il pensiero sulla criptoanalisi del cifrario di Lorenz, ma non è stato direttamente coinvolto nello sviluppo di Colossus.

Dopo il suo lavoro presso i Bell Labs negli Stati Uniti, Turing perseguì l’idea della cifratura elettronica nel sistema telefonico. Nell’ultima parte della guerra, si trasferì a lavorare per il servizio di sicurezza radio dei servizi segreti (in seguito HMGCC) a Hanslope Park. A Hanslope, ha ulteriormente sviluppato la sua conoscenza dell’elettronica con l’assistenza dell’ingegnere Donald Bayley. Insieme hanno intrapreso la progettazione e la costruzione di una macchina portatile per comunicazioni vocali sicure, nome in codice Delilah. La macchina era destinata a diverse applicazioni, ma non aveva la capacità di essere utilizzata con trasmissioni radio a lunga distanza. In ogni caso, Delilah fu completata troppo tardi per essere utilizzata durante la guerra. Sebbene il sistema funzionasse pienamente, con Turing che lo dimostrava ai funzionari crittografando e decifrando una registrazione di un discorso di Winston Churchill, Delilah non fu usata. Turing si consultò anche con i Bell Labs sullo sviluppo di SIGSALY, un sistema vocale sicuro che fu utilizzato negli ultimi anni della guerra.

Tra il 1945 e il 1947, Turing visse a Hampton, Londra, mentre lavorava alla progettazione dell’ACE (Automatic Computing Engine) presso il National Physical Laboratory (NPL). Presentò un progetto il 19 febbraio 1946, che è stato il primo progetto dettagliato di un computer a programma memorizzato. La prima bozza incompleta di un rapporto sull’EDVAC di von Neumann era precedente all’articolo di Turing, ma era molto meno dettagliata e, secondo John R. Womersley, sovrintendente della divisione matematica della NPL, “contiene una serie di idee che sono proprio del dottor Turing”. Sebbene ACE fosse un progetto fattibile, la segretezza che circondava il lavoro in tempo di guerra a Bletchley Park portò a ritardi nell’avvio del progetto e Turing rimase deluso. Alla fine del 1947 tornò a Cambridge per un anno sabbatico durante il quale produsse un’opera fondamentale sulle macchine intelligenti che non fu pubblicata durante la sua vita. Mentre era a Cambridge, il Pilot ACE venne costruito in sua assenza. Eseguì il suo primo programma il 10 maggio 1950 e un certo numero di computer successivi in ​​tutto il mondo gli devono molto, tra cui l’inglese Electric DEUCE e l’americano Bendix G-15. La versione completa dell’ACE di Turing fu costruita solo dopo la sua morte.

Secondo le memorie del pioniere tedesco dei computer Heinz Billing del Max Planck Institute for Physics, pubblicate da Genscher, Düsseldorf, ci fu un incontro tra Turing e Konrad Zuse. Ebbe luogo a Göttingen nel 1947. L’interrogatorio ha avuto la forma di un colloquio. I partecipanti erano Womersley, Turing, Porter dall’Inghilterra e alcuni ricercatori tedeschi come Zuse, Walther e Billing.

Nel 1948 Turing fu nominato lettore nel dipartimento di matematica della Victoria University di Manchester. Un anno dopo, divenne vicedirettore del Computing Machine Laboratory, dove lavorò al software per uno dei primi computer a programma memorizzato, il Manchester Mark 1. Turing scrisse la prima versione del Manuale del programmatore per questa macchina, e fu reclutato da Ferranti come consulente nello sviluppo della loro macchina commercializzata, la Ferranti Mark 1. Ha continuato a ricevere commissioni di consulenza da Ferranti fino alla sua morte. Durante questo periodo, continuò a fare lavori più astratti in matematica,e in “Computing Machinery and Intelligence”, Turing affrontò il problema dell’intelligenza artificiale e propose un esperimento che divenne noto come Turing test, un tentativo di definire uno standard per una macchina da chiamare “intelligente”. L’idea era che si potesse dire che un computer “pensa” se un interrogatore umano non poteva distinguerlo, attraverso la conversazione, da un essere umano. Nell’articolo, Turing suggerì che piuttosto che costruire un programma per simulare la mente dell’adulto, sarebbe stato meglio produrne uno più semplice per simulare la mente di un bambino e poi sottoporlo a un corso di educazione. Una forma inversa del test di Turing è ampiamente utilizzata su Internet; il test CAPTCHA ha lo scopo di determinare se l’utente è un essere umano o un computer.

Nel 1948 Turing, lavorando con il suo ex collega di laurea, D.G. Champernowne, iniziò a scrivere un programma di scacchi per un computer che non esisteva ancora. Nel 1950, il programma fu completato e ribattezzato Turochamp. Nel 1952, tentò di implementarlo su una Ferranti Mark 1, ma mancando di potenza sufficiente, il computer non fu in grado di eseguire il programma. Invece, Turing “eseguiva” il programma sfogliando le pagine dell’algoritmo ed eseguendo le sue istruzioni su una scacchiera, impiegando circa mezz’ora per mossa. Il gioco è stato registrato. Secondo Garry Kasparov, il programma di Turing “ha giocato una partita a scacchi riconoscibile”. Il programma ha perso contro il collega di Turing, Alick Glennie, anche se si dice che abbia vinto una partita contro Isabel Champernowne. Il test di Turing è stato un contributo significativo, tipicamente provocatorio e duraturo sul dibattito sull’intelligenza artificiale, che continua dopo più di mezzo secolo.

(continua)


[1] Andrew Hodges, Storia di un Enigma. Vita di Alan Turing 1912-1954, Bollati Boringhieri, Torino, 1991.

[2] https://en.wikipedia.org/wiki/Alan_Turing

[3] https://www.raiplay.it/video/2021/03/Passato-e-Presente—Alan-Turing-il-matematico-che-sconfisse-Hitler-1497f5bf-c77f-4efc-8857-004539429d03.html

[4] Bletchley Park, anche nota come Stazione X, è una tenuta situata a Bletchley, un paese a circa 75 km a nord-ovest di Londra. Durante la seconda guerra mondiale, Bletchley Park fu il sito dell’unità principale di criptoanalisi del Regno Unito, nonché sede della Scuola governativa di codici e cifrazione (GC&CS). Codici e messaggi cifrati dei paesi dell’Asse sono stati decifrati a Bletchley Park. Il più noto è il codice nazista ottenuto con la macchina Enigma e la cifratrice di Lorenz.

NdP.

Oltre alla completa bibliografia di Rinaldo ricordo anche i seguenti link:

un articoletto per una rivista divulgativa di matematica Xlatangente, n. 18 2009

Margherite, morfogeni e automi cellulari C. Della Volpe e S. Siboni

http://www.xlatangente.it/page.php?id=1632

sul nostro blog un post sulla castrazione chimica

Turing è anche stato ricordato in un altro post di Nebbia

ed in altri post

Inquinamento da Covid.

In evidenza

Luigi Campanella, già Presidente SCI

Ho già affrontato questo argomento in tempi meno sospetti, ma oggi dati alla mano forniti dal WWF Italia la mia preoccupazione di allora diviene molto più angosciata. Mi riferisco agli effetti della pandemia sullo stato di inquinamento del pianeta, effetti che sembrano vanificare gli sforzi di questi ultimi anni per ridurre il consumo di plastiche monouso.

7miliardi di mascherine indossate al giorno nel.mondo, 900 milioni in Europa, 2000 tonnellate delle quali confluiscono ogni giorno tra i rifiuti, 60% degli utenti che preferisce confezioni a prodotti sfusi, impennata degli imballaggi in plastica, 56% in più di consegne di cibo a domicilio, 54 g di plastica la media di ogni pasto, conseguente aumento di stoviglie monouso (malgrado le recenti contrarie disposizioni in materia), 50 tonnellate di rifiuti plastici al giorno in relazione al divieto di consumo al banco, boom.degli acquisti on-line con il loro carico di imballaggi.

Tutto ciò ha prodotto in corrispondenza con la pandemia un inquinamento crescente di strade e mari, mettendo a rischio la vita di molti animali e la nostra salute. In particolare la plastica smaltita a seguito di questa emergenza è aumentata in quantità ed in pericolosità in quanto proprio la ricerca di matrici plastiche degradabili comporta la formazione per dissoluzione delle pericolosissime microplastiche che finiscono negli intestini degli animali e rappresentano inquinanti di nuova generazione, che giungono attraverso il plancton ad entrare nella catena alimentare apportando all’organismo umano pericolosi composti precedentemente assorbiti, a partire dai metalli pesanti.

https://farmaciagaudiana.it/mascherine-kn95-ffp2-ffp3-filtro-valvola-covid

Per capire bene la complessità del problema con riferimento, ad esempio, alle mascherine anticovid si pensi alla loro composizione, non monostrato ma costituita da tre strati successivi di composizione diversa fra loro il che ne rende difficile il riciclo dei costituenti:uno strato esterno in poliestere o nylon,uno mediano in tessuto non tessuto di polipropilene,uno interno assorbente in cellulosa. La risposta a questa emergenza non può che essere affidata ad un cambiamento di stile di vita con un comportamento corretto di noi cittadini che nella situazione attuale non può che concretizzarsi nello smaltimento come indifferenziata (ma ovviamente questo comportamento non può prescindere da un aumento della quantità di rifiuti) e nell’attenzione ad evitare dispersioni involontarie nell’ambiente (quei 2 g volati via dalle nostre mani peseranno per anni come macigni per l’ambiente!), tornando a frequentare i mercati e ad acquistare prodotti sfusi, riattivando l’uso della borraccia, evitando l’accumulo delle bottiglie per l’acqua, nella messa a punto di tecnologie capaci di riciclare i materiali delle mascherine dopo avere provveduto alla sanificazione ed Infine nella produzione di mascherine resistenti e riutilizzabili più volte attraverso un continuo processo di disinfezione ed una struttura meccanicamente più resistente. Sembrano riflessioni fuori tempo visto l’andamento calante della pandemiaa la storia ci insegna che le lezioni che sono venute dalle emergenze hanno purtroppo sempre trovato occasioni successive di applicazione.

Inoltre il caso delle mascherine ci insegna 2 cose;

-che parlare di economia circolare modo concreto significa adeguarsi per la sua applicazioni ai nuovi consumi

-e che le tecnologie di riciclo e riuso prevedono innovazioni che si basano sull’ avanzamento della ricerca.

Il Piano nazionale di ripresa e resilienza noto come Pnrr punta con decisione sulla diffusione dell’economia circolare, non solo come obiettivo etico, ma come strumento di crescita sostenibile nel tempo, anche dal punto di vista economico. Dall’agricoltura sostenibile alle smart cities fino alla gestione dei rifiuti i temi della circolarità sono in cima alle priorità del Piano e richiederanno grande attenzione anche all’innovazione tecnologica; proprio per adeguarsi al rinnovamento della nostra società.

Acqua chirale

In evidenza

Claudio Della Volpe

Acqua chirale.

Due gruppi molecolari sono chirali quando hanno la stessa struttura chimica ma sono l'immagine speculare l’uno dell'altro. Gli amminoacidi nelle proteine ​​sono chirali e, sebbene possano esistere come immagini speculari sinistrorse (L-) e destrorse (D-), in natura si trovano solo gli enantiomeri L. Al contrario, zuccheri e DNA si trovano solo in forma D. Le macromolecole costruite da blocchi di costruzione chirali formano esclusivamente strutture L o D. La stragrande maggioranza delle reazioni biologiche in ambienti acquosi viene messa a punto per la loro velocità e accuratezza utilizzando la selettività chirale

PNAS 2021 Vol. 118 No. 2 e2024376118 https://doi.org/10.1073/pnas.2024376118





Tutto ciò è ben noto al chimico e soprattutto al biochimico, ma dato che il tutto si svolge in acqua rimane una domanda: che ruolo svolge l’acqua in questa situazione?

La risposta non è chiara ma un recente lavoro getta nuova luce su questo aspetto e lo fa con una risposta inaspettata.

L’acqua viene di solito considerata un solvente “e basta”, un supporto al massimo “polare”, dotato di elevata costante dielettrica e costituita di molecole dipolari; ma questa visione semplicistica e di pubblico dominio ha dovuto pian piano cedere il passo ad una visione più complessa e ricca di chiaroscuri.

Anzitutto la molecola d’acqua è un esempio da manuale di molecola capace di comportarsi da acido e base di Lewis, ossia formare legami idrogeno; il legame idrogeno è una forma di legame chimico in cui l’accettazione e donazione di densità elettronica svolge un ruolo importante; ne abbiamo parlato anche nel blog.

Il legame idrogeno può essere visto come un legame acido-base di Lewis generalizzato; l’ossigeno o l’azoto o l’alogeno è la base che dona all’idrogeno densità elettronica, dall’HOMO dell’ossigeno o azoto o alogeno al LUMO dell’idrogeno; esistono addirittura legami idrogeno CONTRO la componente di carica elettrostatica; per esempio nel legame fra fluoruro e idrogeno del bicarbonato ([Parajuli] R. Parajuli, Does the recent IUPAC definition on hydrogen bonding lead to new intermolecular interactions? CURRENT SCIENCE, VOL. 110, NO. 4, 25 FEBRUARY 2016 ); insomma un legame idrogeno ANTI-ELETTROSTATICO!

L’acqua liquida è anche una sostanza presente sotto forma di due quasi-fasi, in rapido equilibrio, ossia le sue proprietà termodinamiche si possono calcolare considerando che a qualunque temperatura esista un equilibrio veloce fra una acqua strutturata, tipo ghiaccio con 4 primi vicini, ed una cosiddetta destrutturata con un po’ più di molecole vicine, più densa.

Questa visione ha attraversato il secondo cinquantennio del secolo scorso catalizzata soprattutto dai lavori di Bernal e dal monumentale trattato Water in 7 volumi di F. Franks.( https://ilblogdellasci.wordpress.com/2017/11/17/vite-parallele/)

Su idee e modelli come questi c’è chi ci ha passato una intera vita professionale; penso al compianto Guido Barone per esempio ed al suo gruppo storico di ricerca calorimetrica a Napoli (Castronuovo, Elia e tanti altri che mi scuseranno se non li nomino qui) .

All’epoca si sperava di usare i risultati calorimetrici ottenuti con sostanze semplici per modellare il comportamento in acqua di molecole complesse; l’acqua non era considerata un semplice supporto ma un mezzo “attivo” che interagiva e sosteneva la struttura proteica, non un semplice mezzo con un certa costante dielettrica alla maniera di Debye e Huckel per intenderci. E si usava il concetto della cosfera di idratazione, uno spazio organizzato di acqua condiviso fra più molecole disciolte, ma non ricordo si arrivasse mai all’idea che l’acqua delle cosfere potesse essere otticamente attiva.

Ma non basta l’acqua è anche la sostanza, unica al momento oltre l’idrogeno, ad aver mostrato l’impatto di un altro fenomeno originale, l’esistenza di  orto- e para- molecole in cui l’orientamento magnetico dei nuclei gioca un ruolo importante; anche di questo abbiamo parlato nel blog.

Questa caratteristica è stato proposto che abbia un ruolo nella articolazione in quasi-fasi;

S.D. Zakharov ipotizza che le strutture tipo ghiaccio siano strutture di para-acqua legate in cluster chiusi, per spiegarne la nulla libertà di rotazione, mentre la orto-acqua sarebbe invece l’acqua destrutturata; l’idea è intrigante, ma da confermare. http://link.springer.com/article/10.1134/S0006350913050205.

Ed infine oggi vi racconto brevemente che l’acqua è capace di strutturarsi in modo chirale attorno ad oggetti chirali; il lavoro è stato pubblicato su PNAS ed è scaricabile senza problemi.

https://www.pnas.org/content/117/52/32902.short?rss=1

con un commento articolato sulla medesima rivista.

https://www.pnas.org/content/118/2/e2024376118

Si tratta di questo; un gruppo di chimici americani (Yale) e cinesi (di varie sedi) ha esplorato la spettroscopia dell’acqua attorno a proteine con la configurazione delle β-sheets (come nella seta) deposte su un supporto di quarzo in blocchi antiparalleli. E poi ne ha riprodotto i risultati teoricamente.

L’analisi sperimentale è stata condotta usando la tecnica cosiddetta SFG ossia Sum frequency generation spectroscopy (SFG); si tratta di una tecnica di spettroscopia laser non lineare utilizzata per analizzare superfici e interfacce. In una tipica configurazione SFG, due raggi laser si mescolano in corrispondenza di un'interfaccia e generano un raggio di uscita con una frequenza pari alla somma delle due frequenze di ingresso, viaggiando in una direzione data dalla somma dei vettori d'onda dei fasci incidenti.
L’immagine tratta dal lavoro mostra cosa succede. Sulla superficie del quarzo α si formano pellicole idratate di assemblaggi di fogli β peptidici antiparalleli. Il campo elettromagnetico chirale SFG rilevato viene aggiunto a quello del quarzo α, portando alle intensità I1 e I2. I1 e I2 sono misurati per due diversi orientamenti del cristallo di quarzo α. La differenza I1 - I2 fornisce la direzione del campo elettromagnetico che riporta l'orientamento su/giù dei dipoli. Gli spettri abbozzati mostrano segnali speculari osservati per gli enantiomeri L contro D. L'illustrazione in basso a destra mostra lo schema a scacchiera degli orientamenti dei dipoli d'acqua che formano la struttura chirale, rivelata dalle simulazioni MD di Perets et al. 
Secondo gli autori il significato del lavoro è il seguente:
La struttura e la funzione delle biomacromolecole dipendono dalle strutture dell'acqua nel guscio di idratazione. Se si eseguono esperimenti e calcoli per esaminare le molecole d'acqua attorno a un foglio β antiparallelo, gli esperimenti mostrano che il segno delle risposte ottiche chirali dell'acqua si inverte quando il foglio è un enantiomero (L-) o (D-). La modellazione molecolare rivela una topologia chirale dell'acqua assemblata attorno al foglio. Questi risultati suggeriscono che le proteine ​​speculari organizzano le molecole d'acqua in strutture supermolecolari di chiralità opposta. Quindi, una descrizione completa della chiralità biomacromolecolare deve includere le molecole d'acqua circostanti. Questa scoperta invita a una nuova linea di indagine sul ruolo dell'acqua nella selettività chirale delle interazioni biomolecolari e sulle origini molecolari dell'omochiralità nel mondo biologico.
Un risultato davvero molto innovativo ed inaspettato.

E la scuola?

In evidenza

Salvatore Coluccia

In questi giorni vengono fatti, da più parti,  elenchi dei problemi prioritari. In genere sono: Fisco, Salute e Lavoro.

Chi può dissentire da queste urgenze? Nessuno, da qualunque parte stia, in qualsiasi partito o movimento militi. Eppure, devo osservare che “Manca la Scuola”.

Trovo esasperante dover esprimere per l’ennesima volta la mia dolorosa sorpresa.

La Scuola sta per finire e chiude questo anno così particolare, che certamente lascia ferite profonde. Ma, riaprirà a Settembre, tra brevissimo tempo, molto più breve di quello che servirà ad impostare le politiche e le decisione sui tre temi evidentemente prescelti come prioritari

E’ facile prevedere la condizioni: non molto diverse dagli anni passati, organici vacanti, strutture immutate, ecc. Anzi, potrebbe essere peggiore, con l’accresciuta frustrazione dei moltissimi precari che hanno visto deluse ancora una volta le loro aspettative di accesso stabile. Gli esiti dei concorsi, già non sufficienti, sono stati quasi sempre fallimentari, con un numero di idonei molto inferiore ai posti disponibili.

Immagino l’osservazione di profondo buon senso che ci accompagna da anni: visto, gli insegnanti precari sono ignoranti, non riescono neanche a passare un concorso! Poveri nostri figli (e nipoti)!

Mi sottraggo a tanto banalità e pongo invece questa domanda: veramente pensiamo che ci possa essere reclutamento senza formazione per i nuovi e aggiornamento per chi già c’è? E’ quanto successo in questi ultimi decenni, con modalità di selezione (rare) e di formazione mutevoli, instabili, contraddittorie. Alcune buone pratiche che si stavano dimostrando efficaci sono state rapidamente abbandonate.

Possiamo immaginare veramente le riforme previste dal PNRR, anche nei tre settori privilegiati, con una scuola ridotta nello stato in cui è? Quale sarà la preparazione di chi sarà reclutato? E quanti ne avremo di giovani disponibili, con l’abbandono scolastico alle stelle, specie nelle regioni che più ne hanno bisogno, e con tanti, fra i già insufficienti, laureati e dottorati che emigrano?

Sembrano tutte domande retoriche, ma non lo sono, sono urla di disperazione, soprattutto perché non credo che l’assenza del tema Scuola dalla campagna politica sia determinato dalla debolezza degli interlocutori interni. La ragione è che i temi sono difficili, alcuni divisivi, ed è meglio accantonarli. Ci penseremo dopo. E così si allunga la lista degli anni in cui l’Italia sarà condannata alla marginalità a causa del basso livello della formazione generale della popolazione.

Diritto alla conoscenza.

In evidenza

Luigi Campanella, già Presidente SCI

Una settimana fa l’Assemblea Parlamentare del Consiglio di Europa, formata da 47 Stati Membro ha discusso e votato il Rapporto “Libertà dei media,fiducia pubblica e diritto alla conoscenza dei cittadini“.


Si tratta di un diritto di nuova generazione sollevato dai Radicali Europei edificato su quattro pilastri base: disponibilità del potere politico a mettere a disposizione dei cittadini le informazioni e conoscenze ed a rendere centrale il dibattito pubblico;
libertà e monitoraggio dei media pubblici e privati attraverso la raccolta e l’analisi di dati condotte da un organismo indipendente;
l’incentivo alla diffusione dei luoghi del sapere e della cultura per coltivar la libertà di pensiero.
Si tratta di un Rapporto fondamentale come precondizione per un Paese che vuole definirsi democratico: da un lato il diritto dei cittadini ad essere informati, dall’altro con tale diritto garantito la possibilità di partecipare responsabilmente alle scelte del Paese anche candidandosi con proposte che possono essere conosciute e giudicate dall’opinione pubblica.
Il diritto alla conoscenza come diritto umano universale è un contributo volto a ristabilire la fiducia nelle istituzioni democratiche ed a fare fronte a governi autoritari, quando non a vere dittature. Ora il traguardo deve essere l’estensione del diritto alla conoscenza in tutti i Paesi di Europa,,ai Paesi dell’ONU, ai paesi dell’estremo Oriente, a partire dalla Cina.
Non si possono ammettere prosperità e sviluppo che nascono nell’oscurità e nella repressione. Le nuove tecnologie ci aiutano in questo processò di condivisione ed ad esse si appoggiano anche strumenti organizzativi come il Museo diffuso, la didattica in vivo,i Network tematici; l’Intelligenza Artificiale,l’e.leasing, la Block Chain: sono strumenti a doppia faccia perché se gestiti egoisticamente possono portare a discriminazioni anche peggiori dell’ignoranza. Da quì l’esigenza che sia la politica ad assumere la condivisione della conoscenza come una irrinunciabile condizione per un equilibrato sviluppo della società globale.
Un ostacolo potrebbe essere rappresentato dal linguaggio: ecco perché il tutto non può prescindere da un’attività formativa ed educativa, anch’essa base di una crescita civile e sociale

Carta igienica biodegradabile.

In evidenza

Mauro Icardi

Mi sono interessato al tema della depurazione dell’acqua abbastanza presto. In generale di ambiente e trattamento ho sentito parlare molto già negli anni 70, quando i problemi d’inquinamento dei corpi idrici si rivelarono , mostrando problemi e criticità rilevanti. Gli anni del secondo dopoguerra in Italia furono caratterizzati da una crescita economica rilevante (il boom economico). Questa euforia non permise di rendersi conto che la crescita economica non si curava troppo dei danni ambientali che provocava.  Tutto questo ebbe inizialmente un forte impatto nella pubblica opinione, e nello stesso tempo accese in me una forte curiosità. Di acqua e di fognature si parlò molto anche durante l’epidemia di colera del 1973.

E sui quotidiani fino alla metà circa degli anni 80 si lessero molti articoli che si interessavano della tutela delle acque. Alcuni di questi non rivolgevano l’attenzione solamente agli scarichi di origine industriale, ma cercavano di dare indicazioni anche per un corretto uso dei prodotti di detergenza e cosmesi.

Ricordo di avere letto articoli che si occupavano dei prodotti per la pulizia del wc. Questo tipo di prodotti possono essere liquidi o in polvere, con caratteristiche acide o basiche. I primi hanno formulazioni nelle quali possiamo trovare idrogenosolfonato di sodio, acido citrico, acido fosforico. Nelle formulazioni si trovano generalmente anche tensioattivi che migliorano l’azione pulente. I prodotti basici  contengono ipoclorito di calcio o di sodio, e carbonato di sodio. Sono prodotti non adatti a sciogliere calcare o macchie di acido urico. Ma hanno una buona azione candeggiante e disinfettante. Non vanno dimenticati poi i prodotti di detergenza a base di formaldeide, sapone potassico e alcol etilico.

“Un uso scorretto ed eccessivo di questi prodotti, date le loro caratteristiche potrebbe potenzialmente inibire il funzionamento dei sistemi centralizzati di depurazione.” Questo è quanto lessi in un articolo a metà degli anni 80. In quel periodo furono le fioriture algali nel mare adriatico a riportare il tema del trattamento delle acque reflue sotto i riflettori.

La considerazione non è del tutto sbagliata, ma ai tempi probabilmente si enfatizzò la cosa. Uno scarico di origine domestica difficilmente presenta difficoltà di trattamento in un impianto di depurazione biologico a fanghi attivi. Ma un utilizzo non eccessivo dei prodotti di pulizia del bagno è ovviamente raccomandato. E oltre a ciò i prodotti di questo tipo devono essere maneggiati con cautela. Ne avevo scritto a suo tempo.

Ovviamente l’industria della detergenza ha sviluppato linee di prodotti di detergenza green, a base enzimatica. Questo tipo di prodotti ha ovviamente effetto su residui di tipo organico.

Ma le novità nel settore non mancano, e quindi sono venuto a conoscenza dell’immissione sul mercato di un tipo di carta igienica brevettata con l’acronimo BATP ® ovvero Biologic Active Tissue Paper.

https://www.bbaecotech.com/en/

Di fatto tra i due rotoli costituenti lo strato di carta igienica viene nebulizzato uno di una miscela di microrganismi in fase liquida. Non appena la carta finisce nello scarico e viene  a contatto con l’acqua, attiva i microrganismi che iniziano a decomporre la sostanza organica depositata nelle condutture e nei sifoni.

Confesso di essere molto incuriosito.  Cercherò di trovare questo tipo di prodotto per sperimentarne personalmente il funzionamento.

Nel redazionale che ho letto, se ne dice un gran bene. E comunque è importante affermare, che occorre essere attenti a cosa si getta anche negli scarichi delle nostre abitazioni, cosa che spesso è sottovalutata. Invece va riproposta. So che l’argomento potrebbe far storcere il naso, ma anche questa volta devo chiamare in causa Primo Levi. “La materia è materia, e non ha alcuna importanza quale sia la sua origine prossima”. Il brano è tratto da Azoto ed è uno dei capitoli che più apprezzo de “Il sistema periodico”.

La consapevolezza dei nostri gesti quotidiani è spesso sottovalutata. Si banalizzano troppe cose invece assolutamente necessarie. Tutto quello che sparisce dai nostri scarichi, confluisce in impianti di depurazione. Se questi non sono presenti, tutto quello di cui ci liberiamo può terminare nel ruscello vicino casa.  E renderlo una fogna a cielo aperto. Non credo sia inutile ricordarlo. La depurazione, o se vogliamo chiamarla in maniera terminologicamente più completa, l’ingegneria sanitaria ambientale, è una delle conquiste di due secoli fa. E una conquista dei paesi cosiddetti sviluppati. E’ invece ancora un sogno per quelli che vivono situazioni molto gravi dal punto di vista igienico, e di approvvigionamento idrico.

Vorrei terminare questo articolo con un suggerimento di lettura.

https://www.ibs.it/grande-bisogno-perche-non-dobbiamo-libro-rose-george/e/9788845264597

Una popolazione di quasi otto miliardi di esseri umani deve preoccuparsi della gestione dei propri rifiuti. Anche quelli innominabili.

Si veda anche:
https://www.bbaecotech.com/it/carta-igienica-biologicamente-attiva.html

Come va l’economia circolare?

In evidenza

Luigi Campanella, già Presidente SCI

Ho avuto modo di leggere il Rapporto 2021 del CEN( Circular Economy Network).Ho così con piacere appreso una notizia che già era rimbalzata sulla stampa: fra i Paesi a livelli più alti di circolarità, Germania, Francia, Italia, Spagna e Polonia è proprio l’Italia ad essere leader con 79 punti contro i 68 della Francia, i 65 di Germania e Spagna, i 54 della Polonia.Il punteggio deriva da una serie di fattori dalla produzione al consumo, dalla gestione dei rifiuti al riutilizzo.

Il tema centrale del Rapporto 2021 verte sull’apporto che l’economia circolare può dare alla lotta ai cambiamenti climatici. Il nostro Paese ha adottato misure significative come il recepimento delle direttive  UE in materia di rifiuti per garantire un riciclo di almeno il 65% dei rifiuti urbani entro il 2035 e per ridurre alla stessa data del 10% gli smaltimento in discarica. È inoltre previsto entro marzo 2022 l’approvazione del Programma Nazionale di gestione dei rifiuti ed in tempi brevi il Piano di Transizione 4.0 che prevede agevolazioni per gli investimenti delle imprese finalizzati all’economia circolare. Il PNRR potrà giocare un ruolo importante per superare gli ostacoli che frenano questi provvedimenti innovativi.  Alcuni dei dati riportati nel Rapporto che giustificano la nostra posizione di prevalenza

-rifiuti per anno per abitante 499 kg contro la media europea di 502

-tasso di riciclo pari al 46 %, stesso valore dell’Europa

-tasso riciclo dei rifiuti pari al 67 % contro un valore del 58% valido per l’Europa

-tasso di utilizzo circolare di materia pari al 19 % ben superiore al valore dell’Europa fermo all’12%.

La lezione che ci viene da questo Rapporto è che se la natura ha la capacità di rigenerarsi e di adattarsi ai cambiamenti, siamo tutti chiamati a fare la nostra parte riducendo la nostra impronta ecologica per dare modo alla natura di rigenerarsi. La Terra vive grazie ad un complesso meccanismo dove ogni elemento, ogni creatura  ed il sistema ambientale in cui vive sono in stretta relazione fra loro e tutti insieme concorrono a garantire un equilibrio fondamentale per la vita dell’uomo, di animali, di vegetali.

Un’altra osservazione più critica riguarda le scadenze degli impegni concordate nei grandi eventi di accordi internazionali per affrontare le crisi climatiche; non si può non osservare come andando avanti le velocità di adeguamento siano progressivamente cresciute obbligando nei prossimi 3 decenni a riduzioni drastiche a dimostrare quanto le due domande che molti si fanno: perché così tardi? perchè così lenti? siano giustificate. I motivi di questi ritardi sono di natura diversa, di certo di natura politica e gestionale dell’ambiente, ma di certo poiché siamo poi noi cittadini, aziende con il nostro comportamento, con il nostro stile di vita e di consumo a determinare emissioni climalteranti ed azioni di mitigazione ed adattamento, non si può trascurare una componente psicosociale ed antropologica.

Anche in molte università italiane da alcuni anni si é sviluppata la riflessione sui contributi che possono venire dalle scienze sociali per contrastare la crisi climatica. La conoscenza dei processi psico-sociali può aiutare a comprendere innanzitutto lo scarto tra la gravità del problema e la scarsa consapevolezza al livello dell’opinione pubblica e della decisioni politiche; sono state descritte alcune barriere psicologiche -dall’inazione allo scetticismo fino al negazionismo -la cui rimozione potrebbe rappresentare un contributo maggiore di quanto si possa pensare alla risoluzione del problema.

Scienziat* “divers*”

In evidenza

Rinaldo Cervellati

Sinceramente non sapevo che questo mese è il Pride Month (Mese dell’Orgoglio), celebrato in parte della Terra dalla comunità LGTB+.  LGBT o GLBT è un sigla che sta per lesbica, gay, bisessuale e transgender. In uso dagli anni ’90, il termine è un adattamento dell’iniziale LGB, che ha cominciato a sostituire il termine gay con riferimento alla più ampia comunità LGBT a partire dalla metà degli anni ’80. L’iniziale, così come alcune delle sue varianti comuni, funziona come un termine generico per la sessualità e l’identità di genere. Gli appartenenti a questa comunità, che ha lo scopo principale di estendere i diritti civili a tutti, sono spesso soggetti a violenze verbali e fisiche, compreso l’omicidio. Le statistiche recenti mostrano che negli USA i LGBT dichiarati sono il 5,6% della popolazione [1], in Italia erano l’1,6% nel 2011 [2].

Certamente non si è dimenticato del Pride Month Chemistry & Engineering News che, nel numero del 7 giugno scorso ha dedicato un articolo per ricordare alcuni scienziati scomparsi appartenenti alla comunità LGTB, per colmare le lacune nella storia della chimica [3].

Per colmare queste lacune, C&EN ha raccolto un elenco preliminare di chimici LGBTQ+ pionieristici della storia e alcuni persi di recente. Questo elenco di scienziati innovativi mette in evidenza i contributi di lunga data dei chimici LGBTQ+, molti dei quali non si trovano nei libri di testo. Oltre a fornire contributi scientifici, questi pionieri hanno avuto un enorme impatto sulle persone con cui hanno lavorato e come attivisti. Hanno guidato e ispirato gli studenti LGBTQ+, hanno contribuito a riformulare il modo in cui il pubblico li percepiva e hanno sfidato i pregiudizi di genere dei loro colleghi. Altri non potevano dichiararsi a causa della discriminazione sul posto di lavoro e del pericolo fisico. Solo nel 2020 la Corte Suprema degli Stati Uniti ha esteso alle persone LGBTQ+ una legge federale che vieta la discriminazione sul lavoro. Oggi, circa 80 paesi criminalizzano le relazioni tra persone dello stesso sesso e molti altri hanno leggi che negano i pieni diritti civili o discriminano attivamente le persone LGBTQ+. La necessità per le persone di nascondere la propria identità rende difficile compilare storie come quelle che racconteremo qui.

Un’altra sfida quando si mettono insieme storie LGBTQ+, è che il modo in cui si concepiscono le identità cambia continuamente; i personaggi storici non hanno necessariamente usato lo stesso linguaggio per descriversi come si fa oggi. Per compilare un primo elenco, C&EN ha fatto affidamento su risorse storiche di organizzazioni come GLAAD (Gay & Lesbian Alliance Against Defamation), ricerche indipendenti e sondaggi sul pubblico [3].

Qui elencherò alcune scienziate e scienziati in ordine della loro data di nascita.

Nina Vedeneyeva (1882-1955)

Nata nel 1882 a Tbilisi, in Georgia (allora parte dell’Impero russo), Nina Vedeneyeva è stata un’eminente cristallografa. I suoi riconoscimenti includono il Premio Stalin, l’Ordine di Lenin e diverse altre medaglie assegnate dall’Unione Sovietica.

Vedeneyeva ha iniziato i suoi studi presso la Scuola Politecnica di Liegi in Belgio, ma è tornata in Russia dopo solo un anno. Dopo essersi laureata al dipartimento di chimica dei Corsi Bestuzhev, una delle migliori università femminili, nel 1913, iniziò a insegnare alla Seconda Università di Stato e all’Istituto di tecnologia chimica fine, entrambi a Mosca.

Nina Vedeneyeva. Credit:Wikimedia Commons

Sposò un uomo, dal quale in seguito ha divorziato, e più tardi nella vita si è innamorata della famosa poetessa lesbica russa Sophia Parnok. Nel corso della loro relazione, che durò fino alla morte di Parnok nel 1933, la poetessa scrisse 32 poesie ispirate a Vedeneyeva.

Vedeneyeva conseguì il dottorato in fisica e matematica nel 1937 e fu assunta a capo del settore ottico dell’Istituto di scienze geologiche nel 1941. Lì, ha lavorato su problemi di mimetizzazione per l’Armata Rossa e ha sviluppato un metodo per analizzare le proprietà ottiche dei materiali sul campo. Nel 1945, Vedeneyeva fondò il Laboratorio di Cristallo Ottica presso l’Istituto di Cristallografia, parte dell’Accademia delle Scienze dell’URSS; ha diretto il laboratorio fino alla sua morte nel 1955.  Tra gli altri contributi, la sua ricerca ha dimostrato che la colorazione di diversi tipi di quarzo è dovuta a difetti del reticolo.

Rachel Carson (1907-1964)[1]

Se ispirare il movimento ambientale globale può essere attribuito a un individuo, quella persona è la biologa marina Rachel Carson. Il suo lavoro su come i pesticidi danneggiano gli habitat naturali ha avuto un impatto duraturo su governo, industria e società. Un articolo del 1985 sull’EPA (European Patent Office) Journal definì l’Agenzia per la protezione ambientale degli Stati Uniti “l’ombra estesa di Rachel Carson”. Il suo libro del 1962, Primavera silenziosa, sugli effetti dannosi dei pesticidi, ha influenzato in modo significativo il modo in cui le persone pensano sull’impatto ambientale dell’uso di sostanze chimiche, e le autorità di regolamentazione hanno successivamente vietato molti dei pesticidi di cui ha scritto nel libro.

Nata il 27 maggio 1907 a Springdale, in Pennsylvania, Carson è stata affascinata dal mondo naturale fin dalla giovane età. Vinse una borsa di studio per frequentare il Pennsylvania College for Women e nel 1929 fu accettata nel programma di laurea in zoologia della Johns Hopkins University. Due anni dopo aver conseguito la laurea, Carson lasciò la scuola per sostenere la sua famiglia. Nel 1935 entrò a far parte dell’US Bureau of Fisheries.

Rachel Carson a una conferenza. Credit: Associated Press

In questo periodo, ha iniziò a scrivere sulla vita acquatica e ha prodotto una terna di libri: Under the Sea-Wind, The Sea around Us e The Edge of the Sea.

Tuttavia Carson è meglio conosciuta per aver scritto Silent Spring (Primavera silenziosa), che ha sollevato la consapevolezza pubblica sull’inquinamento dovuto all’uso incontrollato di sostanze chimiche nell’agricoltura e nell’industria. Carson sostenne la regolamentazione del governo per gli inquinanti persistenti, incluso il DDT. Dovette affrontare gravi contraccolpi da parte dell’industria chimica per la sua posizione.

Nel 1953, Carson incontrò Dorothy Freeman. Sebbene si vedessero di rado, si scambiarono circa 900 lettere in 12 anni. Carson distrusse la maggior parte di queste lettere prima della sua morte. Quelle che rimangono, pubblicate decenni dopo in una raccolta curata dalla nipote di Freeman, alludono alla natura romantica della relazione.

Carson, cui fu diagnosticato un cancro al seno ebbe una malattia respiratoria in tarda età, è morta per un attacco di cuore nel 1964. Oltre a numerosi riconoscimenti nel corso della sua vita, è stata destinataria postuma della Presidential Medal of Freedom.

Martin Gouterman (1931-2020)

Martin Gouterman, un gay dichiarato in un’epoca in cui pochi scienziati erano aperti sulla loro sessualità, ha scoperto perché il sangue è rosso e l’erba è verde.

Gouterman è nato il 26 dicembre 1931 ed è morto il 22 febbraio 2020 all’età di 88 anni. Era un chimico dell’Università di Washington che divenne un esperto di porfirine, grandi molecole ad anello costituite da quattro anelli più piccoli formati da quattro atomi di carbonio e un azoto . Sono essenziali per gran parte della vita, aiutando a formare sia l’emoglobina rossa nel sangue che la clorofilla verde nelle piante.

Martin Gouterman in laboratorio. Credit: Univ. of Washington

Nel 1963, Gouterman, allora all’Università di Harvard, e i suoi colleghi svilupparono un modello della fisica delle porfirine per spiegare le proprietà delle molecole [4]. Il suo modello a quattro orbitali descrive le porfirine metalliche come aventi due orbitali molecolari occupati più alti che hanno quasi gli stessi livelli di energia, o sono “quasi degeneri” e due orbitali molecolari non occupati esattamente degenerati.

Chiuso a Harvard e brevemente sposato con DeLyle Eastwood, Gouterman è sbocciato quando si è trasferito a Seattle nel 1966. Lì ha vissuto nel quartiere storicamente gay di Capitol Hill e ha contribuito a fondare la Dorian Society, un Gruppo per i diritti di Stonewall che ha cercato di ritrarre gay e lesbiche come cittadini rispettabili. Ha anche lavorato per porre fine alla guerra in Vietnam e si è unito a Kadima/New Jewish Agenda e all’International Jewish Peace Union, facendo una campagna per porre fine all’occupazione israeliana del 1967 della Cisgiordania e della Striscia di Gaza. Durante l’epidemia di AIDS, ha aperto la sua casa a giovani gay malati senza nessun altro posto dove andare, e in seguito si è offerto volontario presso la Bailey-Boushay House di Seattle, il primo ospizio per l’AIDS della nazione.

Nel 1983, ha aiutato una coppia lesbica a concepire un figlio, Mikaelin BlueSpruce, che, insieme a una nipote, gli sopravvive.

Bruce Voeller (1934-1994)

Figura di spicco nella lotta contro l’epidemia di AIDS, Bruce Voeller è stato uno scienziato e attivista, il cui lavoro ha contribuito a prevenire la trasmissione dell’HIV. Intendeva promuovere i diritti degli omosessuali. Infatti, ha coniato il termine sindrome da immunodeficienza acquisita (AIDS) in sostituzione dell’impreciso e stigmatizzante soprannome di disordine da immunodeficienza legato all’omosessualità.

Voeller nacque nel 1934 a Minneapolis ed crebbe nella piccola città di Roseburg, nell’Oregon.  Eccelse nei suoi studi universitari al Reed College e conseguì il dottorato di ricerca in biologia dello sviluppo, biochimica e genetica presso la Rockefeller University nel 1961. Dopo la laurea, è rimasto come ricercatore associato presso Rockefeller. Secondo un necrologio pubblicato al momento della sua morte sul Journal of Sex Research, Voeller era la persona più giovane ad essere promossa a professore associato all’università.

Bruce Voeller. Credit:#7301/Division of Rare and Manuscript Collections/Cornell University Library

Tuttavia, sospese la sua carriera di ricercatore per concentrarsi sulla campagna per i diritti dei gay. Voeller ha cofondato la National Gay Task Force nel 1973 e ne è stato direttore esecutivo fino al 1978.

Alla fine degli anni ’70, Voeller cofondò la Mariposa Education and Research Foundation, che ha studiato la sessualità e le infezioni sessualmente trasmissibili. Mentre l’epidemia di AIDS imperversava negli Stati Uniti negli anni ’80, Voeller e la Fondazione Mariposa erano in prima linea nella ricerca sulla prevenzione della trasmissione del virus successivamente identificato come HIV. È stato uno degli autori di uno studio del 1985 su Lancet che mostrava che un popolare spermicida, nonoxynol-9, potrebbe inattivare l’HIV [5].

Voeller morì nel 1994 per una malattia correlata all’AIDS. Nel 2019, è stato una delle 50 persone  commemorate sull’inaugurando National LGBTQ Wall of Honor degli Stati Uniti.

Ben Barres (1954-2017)

Ben Barres, il primo membro apertamente transgender della National Academy of Sciences degli Stati Uniti, è ricordato non solo per il suo lavoro pionieristico sulle cellule gliali nel cervello, ma anche come campione per le donne nella scienza.

Barres nacque il 13 settembre 1954 a West Orange, nel New Jersey, e alla nascita fu stata assegnata come femmina. Il suo interesse per la scienza si sviluppò mentre era a scuola, ma poiché si presentava come una ragazza, fu scoraggiato dal seguire corsi di matematica e scienze. Nonostante questo, ha guadagnò un posto al Massachusetts Institute of Technology e andò alla Dartmouth Medical School per la sua laurea in medicina.

Ben Barres in laboratorio. Credit: Associated Press

All’inizio degli anni ’80, mentre Barres stava facendo la sua specializzazione in neurologia, le cellule gliali nel cervello catturarono la sua attenzione. Le cellule gliali erano state precedentemente considerate semplicemente come la colla biologica del cervello, ma Barres ha dimostrato che svolgono un ruolo attivo nella funzione cerebrale. Il suo lavoro ha cambiato il modo in cui comprendiamo le interazioni delle cellule con i neuroni.

Barres ha compiuto la transizione sulla quarantina e ha parlato apertamente del sessismo che ha dovuto affrontare come donna nella scienza e di come è cambiato dopo la transizione. Subito dopo la transizione, un collega ha osservato su di lui: “Il suo lavoro è molto migliore di quello di sua sorella”, non rendendosi conto che erano la stessa persona.

Ha continuato a sostenere le donne scienziate e ha sfatato l’idea che l’abilità innata fosse dietro il loro basso numero nelle carriere scientifiche.

Nel 1993, Barres è entrato a far parte del Dipartimento di Neurobiologia di Stanford e nel 2008 ne è diventato presidente. Ha pubblicato 167 articoli, ha vinto numerosi premi e ha fatto parte di numerosi comitati editoriali. Morì di cancro al pancreas nel dicembre 2017, all’età di 63 anni.

Gregory L. Hillhouse (1955-2014)

Gli scienziati hanno a lungo considerato i nitreni, molecole altamente reattive a base di azoto, troppo difficili da usare. Sembrava impossibile isolare un nitrene stabile basato su metalli di transizione perché quei metalli sono così ricchi di elettroni. Gregory L. Hillhouse, nato il 1 marzo 1955, dimostrò di poter produrre nitreni con metalli di transizione tardivi, aprendo nuove reazioni per la creazione di importanti molecole organiche.

Hillhouse chiamò la sua prima molecola del genere, costruita nel 2001, nichel doppio, un nome che anche i suoi colleghi dell’Università di Chicago gli hanno conferito [6]. Il suo lavoro ha vinto l’ACS Award Hillhouse in Chimica organometallica nel 2013.

Era stato affascinato dai composti azotati ricchi di energia sin dalla sua tesi di dottorato all’Indiana University (Bloomington) nel 1980.

Gregory L. Hillhouse. Credit: J. Montgomery

Dopo il lavoro post-dottorato al California Institute of Technology, Hillhouse si stabilì all’Università di Chicago, dove è ricordato non solo come uno scienziato innovativo ma anche come un caloroso amico per studenti e colleghi, cuoco gourmet e collezionista di vini, pittore di talento e organizzatore di squadre di basket e softball intramurali. Il suo ruolo di mentore è stato così efficace che la società universitaria di chimica dell’Università di Chicago ha intitolato la sua conferenza annuale in suo onore.

Hillhouse ha impiegato molti anni per dichiararsi gay, temendo che potesse danneggiare la sua carriera, secondo un ricordo in The Chemists Club, una pubblicazione dell’Università di Chicago. Negli anni ’90, scosso dalla morte di un caro amico, ha iniziato a fare volontariato in un ospizio per l’AIDS di Chicago, dove preparava pasti gourmet ogni fine settimana. È diventato anche un modello per i più giovani chimici LGBTQ+. “Mentre non ero al college, Greg mi ha aiutato a sentirmi bene essendo me stesso e a sentirmi a mio agio nell’essere fuori nella comunità della chimica”, dice Matthew Joannou, che ha frequentato il corso di Hillhouse come studente universitario dell’Università di Chicago.

Hillhouse è morto di cancro al pancreas nel 2014 all’età di 59 anni.

Jemma Redmond (1978-2016)

Da bambina, Jemma Redmond amava smontare i giocattoli e rimetterli insieme, cercando di migliorare il design mentre lo faceva. Nata come donna intersessuale nel 1978 a Tallaght, un sobborgo di Dublino, Redmond ha studiato ingegneria elettronica prima di conseguire la laurea in fisica applicata alla Robert Gordon University. Ha poi completato un master in nanobioscienze presso l’University College di Dublino nel 2012. Ha iniziato a realizzare le sue prime biostampanti sul tavolo della sua cucina e la sua tesi di master si è concentrata sulla stampa 3D delle ossa delle dita da cellule ossee derivate da topi.

A photo of Jemma Redmond.

Jemma Redmond. Credit: You Tube

Redmond era sterile e parte del suo interesse per la stampa 3D biologica derivava dal desiderio di stampare per se stessa organi riproduttivi funzionanti. Ha cofondato una start-up di stampa 3D chiamata Ourobotics nel 2015. Il suo lavoro ha attirato l’attenzione di diverse società di capitali, e di un incubatore di start-up a Cork, in Irlanda.

Redmond è stata CEO (Amministratore delegato) di Ourobotics e, sotto la sua guida, l’azienda ha sviluppato la prima stampante 3D in grado di utilizzare 10 diversi biomateriali contemporaneamente. Era anche una ferma sostenitrice della scienza aperta e accessibile, e la seconda stampante 3D di Ourobotics era interamente open source e un ordine di grandezza più economica del primo design. La sua speranza era che un giorno, ogni ospedale e università del mondo avrebbe avuto una biostampante in loco in grado di stampare nuovi organi per i pazienti nell’elenco dei trapianti. Ha anche immaginato di fondere il biologico e il tecnologico, ad esempio impiantando sensori negli organi per monitorare la salute. Redmond è morta prematuramente nel 2016 all’età di 38 anni.

Bibliografia

[1] https://news.gallup.com/poll/329708/lgbt-identification-rises-latest-estimate.aspx

https://www.vice.com/it/article/mb8kwx/glossario-lgbtq

[2] https://www.oecd.org/social/society-at-a-glance-19991290.htm

[3] AA.VV. LGBTQ+ chemists you should know about, C&EN, June, 7 2021., tradotto e adattato dall’autore del post

[4] M. Gouterman, G.H. Wagnière, Spectra of Porphyrins II. J. Mol. Spectrosc.,1963, 11, 108-127.

[5] D.R. Hicks et al., Inactivation of HTLV-III/LAV-Infected Cultures of  Normal Human Lymphocytes by Nonoxynol-9 in vitro. The Lancet, 1985, 21/28, 1422-23.

[6] D.J. Mindiola, G.L. Hillhouse, Terminal Amido and Imido Complexes of Three-Coordinate Nickel. J. Am. Chem. Soc., 2001, 123, 4623-4624.


[1] Per una biografia di Carson, si può vedere: Rachel Carson (1907-1964), in R. Cervellati, Chimica al feminile, Aracne, Roma, 2020, pp. 235-246.

Biologico e biodinamico.

In evidenza

Luigi Campanella, già Presidente SCI

I due termini biologico e biodinamico, vengono artificiosamente confusi, anche se hanno significati molto diversi e soprattutto fanno parte di due mondi culturali diversi, quello della scienza il biologico, quello della non scienza il biodinamico.

Di fatto la domanda di prodotti agroalimentari ottenuti da un impiego meno intensivo della terra è in continuo aumento ed il biologico rappresenta in questo senso la nuova frontiera, una sorta di ri-orientamento della PAC (politica agricola comunitaria), ma anche un superamento dell’agricoltura industriale in favore di un recupero degli equilibri naturali persi in questi ultimi 50 anni e di una riparazione dell’agroecosistema. Ne guadagnano ambiente, consumatori e produttori. Non è un processo semplice, anzi richiede impegno e disponibilità da parte del produttore che deve mettere in previsione difficoltà organizzative e gestionali, un periodo di transizione a produzione ridotta, una maggiore possibile esposizione delle colture alle avversità parassitarie a causa della rinuncia al ricorso alla chimica di sintesi. Bisogna superare le paure per rese bio inferiori al convenzionale, per rese economiche meno convenienti, per una maggiore vulnerabilità alle malattie vegetali.

In linea con definizioni analoghe in altri settori possiamo parlare di agricoltura 4.0.

Ma l’impegno deve proseguire oltre il cambiamento: saranno necessari monitoraggi sull’adattamento del suolo, sul tasso di produttività, sullo stato di salute. I cambiamenti climatici già causa di tanti danni diventano un ulteriore problema in una fase di transizione. Tutti questi sforzi sono però compensati a regime; quando l’ambiente risulterà più sano, le denunce su alimenti non sicuri, quando non tossici, saranno diminuite, i consumatori dimostrerano con gli acquisti la loro accresciuta fiducia nei prodotti agroalimentari. Fino a qui il biologico.

Diverso il biodinamico che vede crescita delle piante e allevamento di animali come componenti interrelati, combinati insieme da pratiche spirituali e mistiche. In altre parole poca agronomia e molte pseudoscienze varie, che vengono equiparate al metodo scientifico del povero Galileo.

Si vede così preparare il terreno seppellendo in primavera, per rimuoverlo in autunno, un corno di mucca segato e riempito di polvere di quarzo oppure l’intestino tenue di un vitello riempito di fiori così da raccogliere le forze cosmiche. Che poi anche la biodinamica preveda pratiche comuni all’agricoltura biologica, quali la rotazione delle colture e le  colture di superficie, il ricorso a concimi non basati su composti di sintesi, ma  su materiali naturali, come il letame, la difesa della biodiversità è anche vero, ma è proprio da questo che nasce confusione e malinteso sui due termini.

Una curiosità riguarda la storia delle 2 pratiche: mentre la agricoltura biologica è propria del nostro tempo, quella biodinamica è più vecchia e risale ad un secolo fa, essendo nata più come attività filosofica che come pratica agraria, questa è stata vista come un’applicazione.

Plastiche biodegradabili e bioplastiche

In evidenza

Rinaldo Cervellati

Dal 1907, quando fu brevettata la prima plastica completamente sintetica, la bachelite[1], a oggi, le materie plastiche sono aumentate in modo vertiginoso, tanto che difficilmente potremmo farne a meno. Le materie plastiche sono una vasta gamma di materiali sintetici o semisintetici che utilizzano i polimeri come base principale. La loro plasticità consente di modellarle, estruderle o pressarle in oggetti solidi di varie forme. Quest’adattabilità, come la leggerezza, la durevolezza, la flessibilità e l’economicità di produzione, ha portato al loro impiego diffuso. Le materie plastiche sono tipicamente prodotte attraverso sistemi industriali. La maggior parte delle plastiche moderne deriva da sostanze chimiche a base di combustibili fossili come il gas naturale o il petrolio; tuttavia, i metodi industriali recenti utilizzano varianti realizzate con materiali rinnovabili, come i derivati del mais o del cotone.

Poiché la struttura chimica della maggior parte delle materie plastiche le rende durevoli, sono resistenti a molti processi di degradazione naturale. Gran parte delle plastiche può persistere per secoli o più, come dimostrano le seguenti figure, con incalcolabili danni ambientali (fig 1-4).

Figure 1-4. Discariche in spiagge, animali marini e uccelli si cibano di plastiche.

Esistono stime diverse sulla quantità di rifiuti di plastica prodotti nell’ultimo secolo. Secondo una stima, un miliardo di tonnellate di rifiuti di plastica sono stati scartati dagli anni ’50. Altri stimano una produzione umana cumulativa di 8,3 miliardi di tonnellate di plastica, dei quali 6,3 miliardi di tonnellate sono rifiuti, con un tasso di riciclaggio di solo il 9%.

Per questi motivi sono state studiate e prodotte “plastiche biodegradabili” e “bioplastiche”, parole che sebbene siano simili, non sono sinonimi.

La bioplastica è, secondo la definizione data dall’European Bioplastics, un tipo di plastica che può essere biodegradabile, a base biologica (bio-based) o possedere entrambe le caratteristiche. Più precisamente: può derivare (parzialmente o interamente) da biomassa e non essere biodegradabile (per esempio: bio-PE polietilene, bio-PET polietilentereftalato); può derivare interamente da materie prime non rinnovabili ed essere biodegradabile (per esempio: PBAT polibutirrato, PCL policaprolattone, PBS polibutilene succinato); può derivare (parzialmente o interamente) da biomassa ed essere biodegradabile (per esempio: PLA acido polilattico, PHA poliidrossialcanoati, plastiche a base di amido).

Secondo la definizione data da Assobioplastiche, per bioplastiche s’intendono quei materiali e quei manufatti, siano essi da fonti rinnovabili che di origine fossile, che hanno la caratteristica di essere biodegradabili e compostabili. Assobioplastiche suggerisce di non includere nelle bioplastiche quelle derivanti (parzialmente o interamente) da biomassa, che non siano biodegradabili e compostabili, indicandole piuttosto con il nome “plastiche vegetali”.

Su questo blog molto è stato scritto sulle plastiche, il loro riciclo e la degradazione, qui riportiamo i risultati di una recente ricerca condotta da un gruppo dell’Università di Berkeley, coordinato dalla Prof. Ting Xu [1].

Prof. Ting Xu

I ricercatori sono partiti dalla considerazione che molte plastiche biodegradabili spesso impiegano mesi o anni per decomporsi e anche in questo caso possono formare microplastiche[2] potenzialmente dannose. Essi sono stati in grado di accelerare il processo attraverso enzimi che trasformano la plastica in un rivestimento protettivo che incorpora le nanoparticelle.

L’esposizione a umidità e temperature comprese tra 40 e 60 °C libera gli enzimi, che decompongono i polimeri in monomeri di unità trimeriche in poche ore o giorni.

Il policaprolattone (PCL) e l’acido polilattico (PLA) sono entrambi plastiche biodegradabili, utilizzate per contenitori per alimenti, applicazioni biomediche e sacchetti per rifiuti. Tuttavia, questi polimeri si degradano facilmente solo alle alte temperature che si trovano negli impianti di compostaggio industriale. Ting Xu, un ingegnere chimico, e il suo gruppo del Lawrence Berkeley National Laboratory, dell’UC a Berkeley e dell’Università del Massachusetts intendono consentire anche ai consumatori di degradare queste plastiche in casa propria [1].

Il nuovo materiale del gruppo incorpora nanoparticelle, insieme a enzimi tipo lipasi o proteinasi K e avvolte in un polimero costituito da una miscela di esteri metilenici metacrilici, come il “ripieno” di un raviolo. Questo rivestimento protegge gli enzimi dalle alte temperature necessarie per fondere ed estrudere la plastica a formare fogli e altri oggetti. Il gruppo ha aggiunto meno del 2% della nanoparticelle in peso, quindi esse non interferiscono con le proprietà chimiche o meccaniche della plastica.  Solo quando i ricercatori espongono la plastica all’umidità e al calore o alla luce UV che lo strato protettivo si rompe, rilasciando gli enzimi all’interno. Secondo il polimero e la temperatura del test, l’enzima ha scomposto fino al 98% dei polimeri in appena 30 ore. Gli acidi lattici risultanti possono essere buttati con acqua nello scarico o aggiunti al terreno del giardino, così che la degradazione può essere fatta anche in casa (figura 5).

Figura 5. Gli enzimi incapsulati distribuiti in tutto il policaprolattone accelerano la degradazione del sacchetto in presenza di calore e umidità. Le foto mostrano il materiale prima (a sinistra) e dopo (a destra) il trattamento per 3 giorni. Credit: Nature

Tuttavia, come ricorda Xu, la maggior parte delle materie plastiche è composta di parti sia cristalline sia amorfe. Nelle tipiche plastiche biodegradabili, i microrganismi mangiatori di polimeri presenti nei cumuli di compost, degradano le parti amorfe ma non quelle cristalline. Di conseguenza, i materiali non sono completamente scomposti, lasciando frammenti di microplastica cristallina. Incorporando gli enzimi all’interno della plastica, essi sono in una posizione migliore per accedere alle parti cristalline e degradare completamente i polimeri.

Xu sostiene che il punto chiave è che si possono disperdere gli enzimi a livello nanoscopico, che è la stessa scala delle singole catene polimeriche. Questa dispersione aumenta la disponibilità degli enzimi. La maggior parte dell’enzima sarà abbastanza vicino alle catene polimeriche per catalizzare la loro rottura e quindi non è necessario aggiungerne troppo.

Julia A. Kornfield, ingegnere chimico presso il California Institute of Technology, afferma:

Ci sono stati tentativi precedenti di incorporare enzimi nella plastica allo scopo di degradarli alla fine della loro vita, ma hanno fallito e ho considerato l’approccio un vicolo cieco fino a quando non ho letto questa ricerca. Rispetto ai precedenti tentativi di utilizzare enzimi per abbattere la plastica, le nanoparticelle del gruppo di Xu si disperdono molto più finemente nella plastica, “come la differenza tra le dimensioni di una pallina da tennis e un capello umano”.

Xu e il suo gruppo ritengono che le persone siano in grado di decomporre queste plastiche nelle loro case, sia in vasche di acqua calda o in pile di compost nel giardino. Il metodo sarebbe inoltre compatibile con i servizi di compostaggio municipale su scala più ampia. L’ex studente di Xu e coautore del nuovo lavoro, Aaron Hall, ha ideato uno start-up chiamata Intropic Materials per sviluppare commercialmente queste plastiche.

Opere consultate

L. K. Boerner, Plastics with embedded particles decompose in days instead of years, C&EN, 2021, Vol. 99, n. 15

Bibliografia

[1] C. DelRe, Y. Jiang, P. Kang, et al., Near-complete depolymerization of polyesters with nano-dispersed enzymes. Nature  2021, 592,558–563.


[1] La bachelite (poliossibenzilmetilenglicolanidride) è una resina fenolo-formaldeide termoindurente, formata da una reazione di condensazione del fenolo con la formaldeide. È stata sviluppata dal chimico belga-americano Leo Baekeland (1863-1944) a Yonkers (New York).

[2] Le microplastiche sono frammenti di qualsiasi tipo di plastica di lunghezza inferiore a 5 mm. Qui ci interessano le microplastiche secondarie che derivano dalla degradazione di prodotti di plastica più grandi dopo essere entrati nell’ambiente. Tali fonti di microplastiche secondarie includono bottiglie di acqua e soda, reti da pesca, sacchetti di plastica, contenitori per microonde ecc. È noto che persistono nell’ambiente a livelli elevati, in particolare negli ecosistemi acquatici.

Oceani e acqua.

In evidenza

Luigi Campanella, già Presidente SCI

Due giorni fa è stata celebrata la giornata degli Oceani.

Vogliamo celebrarla anche noi , a modo nostro, ricordando due episodi che riguardano l’acqua e che ci educano al rispetto della sua purezza, preziosa risorsa per il Pianeta. Negli oceani è proprio la purezza a garantire la biodiversità.

Il primo ci mostra come l’inquinamento oltre ai ben noti danni che provoca può portare ad errori scientifici, come di recente la stessa dimostrata correlazione con la diffusione del covid 19 dimostra. Negli anni sessanta del secolo scorso circolò in Europa la notizia di una scoperta in Russia relativa ad una nuova forma di acqua che poteva essere prodotta in piccole gocce, in tubi sottilissimi. L’informazione arrivò negli USA e lascio di stucco ed incredulo il mondo della ricerca americana: tale atteggiamento va inquadrato nel clima da guerra fredda tra est ed ovest di quei tempi. L’informazione era arrivata da una conferenza di Boris Derayagin a Nottingham. Questa nuova forma di acqua era caratterizzata da  una tensione di vapore minore, un punto di ebollizione di 200 gradi ed uno di congelamento a -30 gradi,valori quindi molto diversi da quelli della forma nota di acqua Si ipotizzò che questa nuova forma di acqua avesse una densità maggiore di quella che si trova normalmente sulla Terra. Il famoso cristallografo Bernal scrisse addirittura che ci si trovava di fronte ad una scoperta rivoluzionaria, forse la più importante del secolo. Fu battezzata poliacqua con una struttura ipotizzata esagonale : sei molecole di acqua unite da ponti ossigeno.

Americani ed inglesi si misero alla caccia della poliacqua. Si ipotizzò che avesse una struttura esagonale dove sei molecole di acqua si uniscono attraverso ponti di ossigeno.Fu ipotizzata presente nella polvere stellare e sospettata di essere inquinante e pericolosa e quindi da trattare con prudenza. Finalmente si scoprì che poliacqua si produceva dai piccoli capillari da esperimento che la inquinavano. Si tratta di una storia combattuta sui due più grandi giornali scientifici, Nature e Science e con la compartecipazione dei mass media. Ma la conclusione fu che non c’era una nuova forma di acqua, ma solo acqua inquinata.

Il secondo episodio del quale si è scritto molto ed a lungo riguarda la memoria dell’acqua. Il tutto è cominciato con gli esperimenti di uno scienziato francese, Jacques Benveniste, un immunologo di grande reputazione, ricercatore a Clamart all’istituto per la ricerca medica di Francia. Benveniste faceva esperimenti sulla degranulazione di alcuni globuli bianchi speciali (granulociti basofili) in presenza di un siero contenente le immunoglobuline E – quelle dell’asma dei bambini.

Un giorno si accorse che la degranulazione era molto più grande di quella che immaginava potesse avvenire sulla base della diluizione delle proteine usate. A seguito di questa osservazione Benveniste ed i suoi pubblicarono su Nature un lavoro in cui si asseriva che l’acqua era capace di degranulare i basofili anche quando le IgE erano state diluite fino a 10 elevato a 120. A queste diluizioni si disse che non ci sono più IgE e che pertanto la degranulazione era opera dell’acqua che conservava la memoria, quasi un’impronta, delle immunoglobuline disciolte prima che la loro diluizione divenisse tanto elevata da potere considerare prossima a zero la concentrazione.

Posto di fronte ad una commissione internazionale Benveniste non fu in grado di ripetere l’esperimento. Successivi lavori smentirono il risultato. E’ stata una battaglia importante perché se fosse stato vero quel che diceva Benveniste anche l’omeopatia, che si basa sulla diluizione dei farmaci, avrebbe avuto un suo solido supporto su base scientifica. 

Niente improvvisazioni in laboratorio.

In evidenza

Mauro Icardi

Il nostro tempo è quello dell’informazione costante continua ossessiva a cui purtroppo non corrisponde una crescita della conoscenza. Questa ha due possibili metodi di acquisizione quello deduttivo dall’universale al particolare basato sulle grandi verità (Platone, Aristotele fino a Kant) dalle quali derivano le conoscenze attraverso processi di elaborazione e quello induttivo affidato invece all’esperienza da Bacone a Leonardo a Hume fino ad Einstein. La chimica é disciplina che per la sua storia possiamo considerare a prevalente conoscenza induttiva e quindi fondamentalmente legata al laboratorio come sede preferenziale ed irrinunciabile dell’esperienza

Ho scritto diverse volte del lavoro in laboratorio. E delle norme  di comportamento  cui ci si deve attenere.  A mio parere col passare degli anni alcune sono state in parte disattese. Partendo da quella che dovrebbe essere la prima di tutte. Un laboratorio ordinato. Mi è capitato alcune volte di dover essere coinvolto in discussioni che avrei davvero preferito evitare, quando mi erano affiancati colleghi oppure tirocinanti o tesisti che non erano attenti su questo punto.

Nonostante Berzelius abbia sostenuto in un suo noto aforisma che “Un laboratorio ordinato è segno di un chimico pigro”, si può e si deve lavorare con un approccio che sia attento a non trasformare i banconi di laboratorio in vortici di caos e disordine. Se questo concetto viene capito ed applicato con naturalezza, anche la produttività ne risente positivamente. Lo posso affermare con sicurezza.

Un altro aspetto fondamentale è quello di essere in grado di creare una propria metodologia di lavoro. Oggi la tendenza nei laboratori di analisi, in particolare quelli al servizio del ciclo idrico integrato, è quella di raggiungere l’accreditamento. L’accreditamento attesta la competenza,l’indipendenza e l’imparzialità dei laboratori di prova e ne assicura l’idoneità a valutare la conformità di beni e servizi alle prescrizioni stabilite dalle norme volontarie e obbligatorie. Questo è certamente un traguardo importante, ma chi lavora in laboratorio dovrebbe acquisire non solo manualità, ma anche la capacità di saper vedere ed individuare i carichi di lavoro, il modo più opportuno per gestirli, le priorità da dare nell’esecuzione del lavoro giornaliero. Mi sento di dire con un certo rammarico, che non sempre le cose funzionano in questa maniera. Le ragioni di questi comportamenti mi riescono davvero incomprensibili. Credo rientrino in un certo qual modo nella rarefazione del concetto di voglia. La voglia di fare le cose bene, sembra in qualche caso quasi sparita.

Altro tema sul quale ritorno spesso, è quello di sapere osservare. Nell’esecuzione anche di analisi routinarie, essere attenti. Non sottovalutare nessun particolare, anche se a prima vista può apparire insignificante. Questa forma mentis fa la differenza. Sapere osservare può essere una qualità innata, ma ci si può anche esercitare nel coltivarla e farla crescere. E a quel punto (perlomeno a me continua a succedere) ci si rende conto di avere acquisito una consapevolezza del proprio lavoro, e del modo con cui si opera che avvicina davvero molto a quanto diceva Primo Levi. Amore per il proprio lavoro come una delle migliori approssimazioni alla felicità terrena.

Un ultimo punto importante, che si collega agli altri. Saper valutare con attenzione e senso critico il risultato di un’analisi. Nel caso delle acque reflue questo è molto importante. Collegare quel numero alla realtà dell’impianto. Capire se esiste un nesso possibile, oppure si è commesso un errore grossolano che con un minimo di attenzione in più si sarebbe potuto evitare. Gli errori sono ovviamente inevitabili, ma qui mi riferisco ancora all’attenzione continua. Non parlo di demonizzare gli sbagli, ma semplicemente di farne un’occasione per superarli e crescere. Questi atteggiamenti creano un circolo virtuoso. Più impari, più senti la voglia di continuare a farlo. Ultima raccomandazione: imparare, conoscere, riflettere sono tre condizioni importantissime per acquisire una reale cultura della sicurezza. In laboratorio, ma più in generale nell’esecuzione di ogni tipo di lavoro.

Ringrazio Luigi Campanella per gli utili suggerimenti.

In occasione della Giornata dell’ambiente 2021.

In evidenza

Luigi Campanella, già Presidente SCI

Scrive il Parlamento Europeo introducendo il suo Piano d’azione per l’economia circolare che entro il 2050 consumeremo come se avessimo a disposizione tre pianeti terra, per cui il passaggio da un modello lineare ad uno circolare di economia è una pietra angolare per una transizione verso una società e verso un’economia più sostenibili.

L’Assemblea Plenaria del Parlamento Europeo ha accolto con favore la proposta individuando come obbiettivi ad essa correlati la riduzione dell’impronta ambientale dei prodotti e dei materiali riferita all’intero ciclo di vita e di quella di consumo, una cultura della manutenzione e della riparazione, un mercato unico dei materiali riciclati, il design sostenibile, il contrasto all’obsolescenza programmata.

È una strada lunga se si pensa che oggi fino all’80% dell’impatto ambientale dei prodotti è determinato nella fase di progettazione e solo il 12% dei materiali utilizzati dall’industria proviene dal riciclo.

Un interessante specificità nella trattazione del.Parlamento Europeo riguarda i materiali elettronici e per le telecomunicazioni per i quali vengono raccomandati longevità e riparabilità, nonché eco progettazione di batterie (concetto peraltro esteso anche alle autovetture) e per i materiali di imballaggio oggi fonte di grandi quantità di scarti, anche di materuale plastico.

La Commissione Europea punta a che gli Stati membri attraverso incentivi finanziari si muovano verso la creazione di un mercato unico delle materie prime seconde

La chimica della maggioranza (molecolare)

In evidenza

Claudio Della Volpe

Uno dei concetti apparentemente più semplici ed elementari della chimica è la purezza delle varie sostanze di cui conosciamo la formula; prendiamo la comune acqua, la formula è H2O.

E’ una sostanza comunissima e necessaria alla vita; l’acqua che usiamo è solo acqua? Ossia possiamo immaginare almeno in questo caso di avere acqua al 100%?

No, non possiamo; l’acqua che usiamo di solito è una soluzione salina di qualche tipo; anche se la distilliamo in aria il risultato sarà una soluzione di acido carbonico a pH fra 5 e 6; per avere dell’acqua più pura possiamo usare dei metodi a scambio ionico o ad osmosi inversa che partono da acqua già distillata e avremo la cosiddetta acqua ultrapura, che sarà priva di biossido di carbonio, di batteri, virus e quasi di sali disciolti finché non la esporremo all’aria.

Quale è la massima purezza ottenibile dell’acqua?

Se si cerca in rete si trova in vendita acqua con un grado di purezza rispetto alle contaminazioni batteriche del 99.9999%; ma cosa vale per il contenuto in sali? La resistività finale è di 18,2 MΩ.cm a 25°C e i livelli di TOC inferiori a 5 ppb.

Anche un’acqua di questo tipo se esposta all’aria andrà comunque all’equilibrio con i suoi costituenti; fra l’altro qualunque contenitore dell’acqua cederà qualcosa: vetro o PTFE, che sono fra i materiali più resistenti all’attacco dei solventi, cederanno piccole quantità del loro materiale; dunque anche se fossimo in grado di ottenere un’acqua al 100% non sapremmo come conservarla per mantenerne la purezza assoluta.

Ma questo non vale solo per l’acqua.

Un altro materiale relativamente comune che per i suoi impieghi industriali deve essere ultrapuro è il silicio, usato per la costruzione dei dispositivi elettronici.

Cosa possiamo dire del silicio e della sua purezza?

Il silicio è un semiconduttore le cui proprietà vengono esaltate dal drogaggio, un drogaggio che al massimo arriva a 1ppm; dunque la base dell’elemento deve essere più puro se possibile; attualmente si arriva ad un silicio 12N ossia con una purezza di una parte su 1012; questo significa che su una mole di silicio, 28 grammi, abbiamo comunque 1011 atomi di diverso tipo. Esposto all’aria il silicio si ossida ricoprendosi di uno strato di ossido di silicio perché i suoi atomi esterni avranno legami liberi.

In realtà la cosa è più complessa; si è tentato di usare il silicio come campione di massa o del numero di Avogadro, un’idea partorita molti anni fa da uno scienziato italiano (C. Egidi, Phantasies on a Natural Unity of Mass, Nature, 1963, 200, 61-62.) e portata avanti dal gruppo dell’INRIM diretto da Enrico Massa e Carlo Sasso; per fare questo occorreva un campione di silicio isotopicamente puro; ma non si è andati oltre 99.9998% di purezza in 28Si. Dunque se guardiamo le cose dal punto di vista della purezza isotopica le cose stanno ancora peggio che prima; su 28g di silicio isotopo-28 avremo che ben 2 atomi su un milione saranno diversi per qualche motivo.

Il problema isotopico ovviamente è presente anche nell’acqua; avremo infatti isotopi sia dell’idrogeno che dell’ossigeno e dunque oltre alle impurezze dovute alla presenza di gas disciolti o di ioni residui non tutte le molecole saranno veramente uguali; o meglio lo saranno nei limiti in cui la loro nuvola elettronica sarà sovrapponibile a quella dell’acqua “base”, diciamo così; ci sarà un certo effetto isotopico sia per l’idrogeno che per l’ossigeno con proprietà di reazione diverse. Saranno “quasi” uguali; saranno approssimativamente uguali; d’altronde ricordiamo che quando si analizzano le proprietà molecolari teoricamente si fa una approssimazione, nota come approssimazione di Born-Oppenheimer, che vuol dire considerare trascurabile il moto del nucleo che ha una massa molto grande rispetto a quella degli elettroni; questo aiuta a fare i conti ma anche a mascherare le differenze che dipendessero dal nucleo.

Ma anche se avessimo la possibilità di purificare una molecola come l’acqua al 100%, ottenendo solo atomi di H e isotopi dell’ossigeno 16, combinati tra di loro, (cosa che non siamo in grado di fare al momento) comunque avremo una differenza residua che riguarderebbe una percentuale elevata di molecole.

Infatti le molecole come l’acqua hanno che i nuclei dell’idrogeno, dotati ciascuno di un proprio vettore momento magnetico potranno avere i due vettori dei due idrogeni allineati od antiallineati, nel primo caso parliamo di orto-acqua e nel secondo di para-acqua; le due molecole sono interconvertibili, ma hanno proprietà leggermente diverse e sono separabili e si possono mantenere separate.

Una situazione analoga ma molto più evidente, tanto da dare problemi di accumulo, si ha con l’idrogeno, il semplice idrogeno. Ne abbiamo parlato qualche anno fa (https://ilblogdellasci.wordpress.com/2017/02/03/naturale-o-sintetico-note-sullidentita-chimica-1/).

Cosa possiamo concludere?

La nostra tecnologia chimica per quanto ormai basata su una enorme esperienza sperimentale e teorica non è in grado né di generare né di conservare sostanze totalmente pure; la nostra chimica è dunque una chimica approssimata, una “chimica della maggioranza” delle molecole, che riguarda la maggioranza delle molecole di una sostanza o al massimo il loro comportamento medio ma che trascura necessariamente effetti al di sotto di un certo valore critico. Le minoranze molecolari sono trascurate almeno in una descrizione di base.

C’è ancora spazio di progresso e anche enorme. Chissà cosa potrebbe fare (se ci fosse, se ci potesse essere) una chimica in grado di gestire purezze del 100%.

Il chimico analitico potrebbe commentare: Ogni metodo è caratterizzato da 5 grandezze: accuratezza, precisione, limite minimo di rilevabilità, sensibilità, selettività: si comprende facilmente come a seconda del metodo un’impurezza possa essere rilevata oppure no

Questo è giusto ma non cambia la situazione di fatto: la chimica moderna non è in grado di garantire sostanze pure al 100% e non saprebbe nemmeno dove conservarle. E’ in grado di arrivare fino ad un certo punto che dipende dallo sviluppo della tecnica analitica; ma ci sono limiti assoluti? Potremo mai avere una chimica analitica che discrimini la singola molecola?

D’altronde occorre ricordare che SE le molecole sono abbastanza grandi come accade per le proteine o gli acidi nucleici per esempio, questo limite critico è GIA’ stato raggiunto.

Nel recente libro (2018) Single Molecule Analysis – Methods and Protocols Second Edition Edited by Erwin J. G. Peterman si fa il punto sui metodi e le tecniche analitiche che almeno nel settore della biochimica consentono di operare su singole molecole di notevole dimensione. DNA, RNA, proteine possono essere analizzate individualmente usando microscopia a forza atomica o pinze magnetiche o ottiche

.

Ma saremo mai in grado di farlo su piccole molecole?

Voi che ne pensate?

Si veda anche:

Dietro un grande uomo…Katherine (Lady Ranelagh), sorella di Robert Boyle

In evidenza

Rinaldo Cervellati

Robert Boyle (1627-1691), conosciuto soprattutto per la sua legge sulla relazione fra pressione e volume di un gas (a temperatura costante) è stato un filosofo, chimico, fisico e inventore anglo-irlandese. Boyle è ampiamente considerato oggi come il primo chimico moderno e uno dei pionieri del metodo scientifico sperimentale. Tra le sue opere, The Skeptical Chymist (Il chimico scettico) è considerato il primo libro di chimica [1].

Fu il settimo figlio maschio sui 15 avuti dal padre, Richard Boyle, primo conte di Cork, qui comunque desidero parlare di una delle sue sorelle, Katherine, nata nel 1615 [2]. A differenza dei suoi fratelli, non aveva un’istruzione formale, eppure crebbe colta, articolata e curiosa. Dopo la morte della madre nel 1630, si prese cura di Robert, che allora aveva solo tre anni. Fu l’inizio di un legame per tutta la vita, anche se furono separati per gran parte della sua infanzia. Robert crebbe fino a diventare il “fondatore della chimica moderna”[1], per le sue scoperte sulla natura dell’aria e il suo approccio alla filosofia naturale sperimentale.

Katherine, sposata con Arthur Jones (visconte Ranelag), aveva quattro figli all’età di 25 anni. Nel 1642 fuggì da una rivolta dei ribelli cattolici e si stabilì a Londra con i suoi figli. Viveva separata dal marito – un burbero e giocatore d’azzardo – ma mantenne il suo titolo: Lady Ranelagh.

Ritratto di Lady Ranelagh, sorella di Robert Boyle

A Londra, divenne uno dei membri più attivi della cerchia di corrispondenti coltivata dal poliedrico Samuel Hartlib[1]nel suo Circolo. Il gruppo condivise, copiò e discusse lettere e manoscritti. Ranelagh ospitò riunioni a casa sua. I membri ammiravano i suoi contributi su politica, filosofia naturale e religione, soprannominandola “l’Incomparabile” e citandola spesso. Gli interessi del circolo si sono evoluti, convergendo su nuove conoscenze “utili” rivelate attraverso la scienza sperimentale, in particolare la chimica. Una lettera menziona Lady Ranelagh come uno dei primi utenti di strumenti ottici, ad esempio un telescopio.

Ranelagh presentò al circolo suo fratello adolescente Robert, dopo che fu tornato da un tour in Europa nel 1644; divenne il suo mentore spirituale e intellettuale. Mentre si concentrava sulla chimica, attrezzò un laboratorio nella sua casa di Dorset. Robert la ringraziò: “Le delizie che ne assaporo, mi fanno pensare al mio laboratorio una specie di Elysium”. Nel 1668 si trasferì definitivamente a casa di suo marito, conte Ranelagh, nell’elegante Pall Mall di Londra.

Lady Ranelagh raccoglieva e scambiava ricette per curare disturbi comuni, non insoliti per le donne dell’epoca. Tuttavia, lei e Boyle utilizzarono metodi empirici, testando i prodotti in laboratorio e registrando i risultati. Boyle affermò che sua sorella aveva curato dozzine di bambini di rachitismo utilizzando un composto a base di rame. Prese anche nota di un altro resoconto su un esperimento che ora sarebbe stato classificato come alchimia: la trasmutazione dei metalli. Influenzò la scrittura di Boyle su questioni morali incoraggiando la sua difesa dell’empirismo e il rigetto delle idee aristoteliche.

Durante il 1660, la Royal Society occupò lo spazio del circolo di Hartlib, ma era più esclusiva e politicamente conservatrice. Comunicava attraverso pubblicazioni cartacee e manifestazioni pubbliche, dalle quali le donne erano quasi del tutto escluse. Una visita nel 1667 della scrittrice Margaret Cavendish, duchessa di Newcastle, fu un esperimento non ripetuto. Cavendish arrivò in ritardo, vestita in modo “immodesto” e trattò la manifestazione con condiscendenza. La sua “audacia e volgarità possono passare per arguzia”, ​​scrisse Lady Ranelagh a un altro fratello. Questa critica a Cavendish ha migliorato la sua reputazione di correttezza, che le permise di stabilire legami con molti membri della Royal society, anche se non poteva essere ammessa[2].

Nel libro citato in [2], Michelle DiMeo ci dice che Katherine Jones, Lady Ranelagh, è stata centrale nelle discussioni politiche, filosofiche, mediche e religiose, ma destinata all’oblio, perché obbediva alla convenzione del XVII secolo, in base alla quale le donne non dovevano pubblicare i loro pensieri[3]. DiMeo, bibliotecaria presso lo Science History Institute di Philadelphia (Pennsylvania), ha usato le sue capacità di archivista per studiare le carte dei contemporanei, per lo più maschi, di Ranelagh per scoprire il suo ruolo d’intellettuale pubblico.

Lady Ranelagh ha vissuto una violenta ribellione, una guerra civile, l’esecuzione di un re, l’intolleranza religiosa, un cupo protettorato seguito da una riottosa restaurazione, peste, incendi e un altro re deposto.

Ranelagh morì nel 1691. Boyle, con il cuore spezzato, seguì una settimana dopo e furono sepolti insieme. Al funerale, il vescovo di Salisbury dichiarò che Lady Ranelagh “ha fatto la figura più grande … di qualsiasi donna della nostra epoca”.

Eppure la sua vita “è diventata rapidamente un’ombra” [2]. Infatti, mentre i documenti e le opere pubblicate da Boyle sono sopravvissuti per i posteri, Lady Ranelagh non lasciò alcun archivio e non pubblicò nulla. Il fatto che la sua storia sia stata raccolta dalle carte dei suoi parenti e colleghi maschi evidenzia quanto sia facile per le donne cadere nel dimenticatoio della storia [2].

Bibliografia

[1] J.R. Partington, A Short History of Chemistry. Macmillan, 1951.

[2] G. Ferry, An incomparable intellectual who fell through the cracks of history., Nature 2021, 593, 188-189. Recensione del libro: Michelle DiMeo, Lady Ranelagh: The Incomparable Life of Robert Boyle’s Sister., Univ. Chicago Press, 2021.


[1] Samuel Hartlib o Hartlieb (1600-1662) è stato un poliedrico tedesco-britannico. Interessato a scienza, medicina, agricoltura, politica e istruzione. Si stabilì in Inghilterra, dove fondò il Circolo Hartlib.

[2] La Royal Society of London, fondata nel 1660, cominciò ad ammettere membri donne solo nel 1945.

[3] Fortunatamente, la cultura femminista negli ultimi decenni ha portato alla luce donne come la filosofa Anne Conway e le scrittrici Dorothy Moore e Mary Evelyn, che erano attive nel fermento intellettuale dell’epoca.

Elementi della Tavola Periodica. Niobio, Nb (2 parte)

In evidenza

Rinaldo Cevellati

Produzione
Dopo la separazione dagli altri minerali si ottengono gli ossidi misti di tantalio Ta2O5 e niobio Nb2O5. La prima fase della lavorazione è la reazione degli ossidi con acido fluoridrico:
Ta2O5 + 14HF → 2H2[TaF7] + 5H2O
Nb2O5 + 10HF → 2H2[NbOF5] + 3H2O
La prima separazione su scala industriale, sviluppata da de Marignac, sfrutta le diverse solubilità del complesso niobio e fluoruri di tantalio, dipotassio ossipentafluoroniobato monoidrato (K2[NbOF5] · H2O) e dipotassio eptafluorotantalato (K2[TaF7]) in acqua. I processi più recenti utilizzano l’estrazione liquida dei fluoruri dalla soluzione acquosa mediante solventi organici come il cicloesanone. Il complesso niobio e fluoruri di tantalio vengono estratti separatamente dal solvente organico con acqua e precipitati mediante l’aggiunta di fluoruro di potassio per produrre un complesso di fluoruro di potassio, oppure precipitati con ammoniaca come pentossido:
H2[NbOF5] + 2KF → K2[NbOF5]↓ + 2 HF
Seguito da:
2H2[NbOF5] + 10NH4OH → Nb2O5↓ + 10NH4F + 7H2O
Diversi metodi vengono utilizzati per la riduzione al niobio metallico. L’elettrolisi di una miscela fusa di K2[NbOF5] e cloruro di sodio è una; l’altro è la riduzione del fluoruro con il sodio. Con questo metodo è possibile ottenere un niobio di purezza relativamente elevata. Nella produzione su larga scala, Nb2O5 viene ridotto con idrogeno o carbonio. Nella reazione alluminotermica, una miscela di ossido di ferro e ossido di niobio viene fatta reagire con l’alluminio:
3Nb2O5 + Fe2O3 + 12Al → 6Nb + 2Fe + 6Al2O3
Piccole quantità di ossidanti come il nitrato di sodio vengono aggiunte per migliorare la reazione. Il risultato è ossido di alluminio e ferroniobio, una lega di ferro e niobio utilizzata nella produzione dell’acciaio. Il ferroniobio contiene tra il 60 e il 70% di niobio. Senza ossido di ferro, il processo alluminotermico viene utilizzato per produrre niobio. È necessaria un’ulteriore purificazione per raggiungere il grado per le leghe superconduttive. La fusione a fascio di elettroni sottovuoto è il metodo utilizzato dai due principali distributori di niobio.
Applicazioni
Delle 44.500 tonnellate di niobio estratte nel 2006, circa il 90% è stato utilizzato in acciaio strutturale di alta qualità. La seconda più grande applicazione sono le superleghe. I superconduttori in lega di niobio e i componenti elettronici rappresentano una quota molto ridotta della produzione mondiale.
Acciai al niobio
Il niobio è un efficace elemento di micro lega per l’acciaio, all’interno del quale forma carburo di niobio e nitruro di niobio. Tali composti migliorano la raffinazione del prodotto e ne ritardano la ricristallizzazione e l’indurimento. Questi effetti a loro volta aumentano la tenacità, la resistenza, la formabilità e la saldabilità. All’interno degli acciai inossidabili microlegati, il contenuto di niobio è un’aggiunta piccola (meno dello 0,1%) ma importante agli acciai bassolegati ad alta resistenza che sono ampiamente utilizzati strutturalmente nelle automobili moderne. Il niobio è talvolta utilizzato in quantità considerevolmente più elevate per componenti di macchine e coltelli altamente resistenti all’usura, fino al 3% nell’acciaio inossidabile Crucible. Queste leghe sono spesso utilizzate nella costruzione di condutture.
Superleghe
Quantità di niobio sono utilizzate nelle superleghe a base di nichel, cobalto e ferro in proporzioni fino al 6,5% per applicazioni quali componenti di motori a reazione, turbine a gas, sottogruppi di razzi, sistemi di turbocompressore, resistenza al calore e combustione attrezzature.
Un esempio di superlega è Inconel 718, costituita da circa il 50% di nichel, 18,6% di cromo, 18,5% di ferro, 5% di niobio, 3,1% di molibdeno, 0,9% di titanio e 0,4% di alluminio. Queste superleghe sono state utilizzate, ad esempio, in sistemi di air frame avanzati per il programma Gemini. Un’altra lega di niobio è stata utilizzata per l’ugello del modulo di servizio Apollo. Poiché il niobio viene ossidato a temperature superiori a 400 °C, è necessario un rivestimento protettivo in queste applicazioni per evitare che la lega diventi fragile.
La reattività del niobio con l’ossigeno richiede che sia lavorato sottovuoto o in atmosfera inerte, il che aumenta notevolmente il costo e la difficoltà di produzione. La rifusione ad arco sottovuoto (VAR) e la fusione con fascio di elettroni (EBM), all’epoca nuovi processi, consentirono lo sviluppo del niobio e di altri metalli reattivi.
Magneti superconduttori
Niobio-germanio (Nb3Ge), niobio-stagno (Nb3Sn), così come le leghe niobio-titanio, sono usati come filo superconduttore di tipo II per magneti superconduttori. Questi sono utilizzati negli strumenti di risonanza magnetica nucleare, nonché negli acceleratori di particelle. Ad esempio, il Large Hadron Collider utilizza 600 tonnellate di filamenti superconduttori, mentre l’International Thermonuclear Experimental Reactor utilizza circa 600 tonnellate di filamenti Nb3Sn e 250 tonnellate di filamenti NbTi. Solo nel 1992, più di 1 miliardo di dollari USA di sistemi di risonanza magnetica per immagini cliniche sono stati costruiti con filo di niobio-titanio (Figura 6).

Figura 6. Scanner per risonanza magnetica clinica che utilizza una lega superconduttrice al niobio
Le cavità a radiofrequenza superconduttrici (SRF) utilizzate nei laser a elettroni liberi FLASH e XFEL sono realizzate in niobio puro. Un team di crio-modulo al Fermilab ha utilizzato la stessa tecnologia SRF del progetto FLASH per sviluppare cavità SRF a nove celle da 1,3 GHz realizzate con niobio puro. Le cavità saranno usate nell’acceleratore lineare di particelle di 30 chilometri (19 mi) dell’International Linear Collider. La stessa tecnologia sarà utilizzata in LCLS-II presso SLAC National Accelerator Laboratory e PIP-II presso Fermilab. L’elevata sensibilità dei bolometri superconduttori di nitruro di niobio li rende rilevatori ideali per le radiazioni elettromagnetiche nella banda di frequenza THz. Questi rilevatori sono stati testati presso il Submillimeter Telescope, il South Pole Telescope, il Receiver Lab Telescope e l’APEX, e sono ora utilizzati nello strumento HIFI a bordo dell’Herschel Space Observatory.
Altre applicazioni
In elettroceramica, il niobato di litio è ampiamente utilizzato nei telefoni cellulari e nei modulatori ottici e per la produzione di dispositivi a onde acustiche di superficie. Il niobio viene aggiunto al vetro per ottenere un indice di rifrazione più elevato, rendendo possibili vetri correttivi più sottili e leggeri.
Il niobio e alcune leghe di niobio sono fisiologicamente inerti e ipoallergenici. Per questo motivo sono utilizzati in protesi e in dispositivi di impianto, ad esempio nei pacemaker.
Come il titanio, il tantalio e l’alluminio, può essere riscaldato e anodizzato per produrre una vasta gamma di colori iridescenti per gioielli, dove la sua proprietà ipoallergenica è altamente desiderabile.
In numismatica è usato come metallo prezioso nelle monete commemorative, spesso con argento o oro. Ad esempio, l’Austria ha prodotto una serie di monete in euro d’argento al niobio a partire dal 2003; il colore in queste monete è creato dalla diffrazione della luce da un sottile strato di ossido anodizzato (Figura 7).

Figura 7. Moneta commemorativa del 2004 fatta di niobio e argento
Dal 2012, sono disponibili dieci monete che mostrano un’ampia varietà di colori al centro della moneta: blu, verde, marrone, viola o giallo. Altri due esempi sono la moneta commemorativa austriaca da € 25 per i 150 anni della Ferrovia alpina Semmering del 2004, e la moneta commemorativa austriaca da € 25 per la navigazione satellitare europea del 2006. Nel 2011, la Royal Canadian Mint ha iniziato la produzione di una moneta in argento sterling e niobio da $ 5 denominata Hunter’s Moon in cui il niobio è stato selettivamente ossidato, creando così finiture uniche per cui non esistono due monete esattamente uguali.
Le guarnizioni ad arco delle lampade a vapori di sodio ad alta pressione sono realizzate in niobio, a volte legato con l’1% di zirconio; il niobio ha un coefficiente di espansione termica molto simile, corrispondente alla ceramica del tubo ad arco di allumina sinterizzata, un materiale traslucido che resiste all’attacco chimico o alla riduzione del sodio liquido caldo e dei vapori di sodio contenuti all’interno della lampada.
Il niobio è un componente importante dei catalizzatori eterogenei ad alte prestazioni per la produzione di acido acrilico mediante ossidazione selettiva del propano.
Tossicologia e precauzioni
Il niobio non ha un ruolo biologico noto. Mentre la polvere di niobio è irritante per gli occhi e la pelle e un potenziale pericolo di incendio, il niobio elementare su ampia scala è fisiologicamente inerte, ipoallergenico e innocuo. È usato in gioielleria ed è stato testato per l’uso in alcuni impianti medici.
I composti contenenti niobio sono raramente incontrati dalla maggior parte delle persone, ma alcuni sono tossici e dovrebbero essere trattati con cura. L’esposizione a breve e lungo termine ai niobati e al cloruro di niobio, due sostanze chimiche solubili in acqua, è stata testata sui ratti. I ratti trattati con una singola iniezione di pentacloruro di niobio o niobati mostrano una dose letale mediana (LD50) compresa tra 10 e 100 mg/kg. Per la somministrazione orale la tossicità è inferiore; uno studio sui ratti ha prodotto una DL50 dopo sette giorni di 940 mg/kg.
Riciclaggio
Come per il tantalio, la multinazionale Metal Globe offre l’opportunità di riciclare il niobio dagli scarti delle sue leghe. Nel suo sito, scrive:
La fonte più significativa di niobio è presente nelle leghe di acciaio ad alta resistenza (HSLA) e nelle superleghe. Il tipico processo di riciclaggio del niobio è di solito mediante la rifusione. Uno dei principali ostacoli al miglioramento del tasso di riciclaggio è la scarsa attenzione che viene data alla composizione dei rottami di acciaio. Molto niobio viene diluito in acciaio di qualità inferiore o viene perso nelle scorie. Uno dei modi migliori per migliorare gli attuali tassi di riciclaggio del niobio è aumentare l’efficienza della selezione dei rottami di acciaio. In futuro, man mano che le porzioni di acciaio saranno disponibili da altre fonti, comprese le condutture e altre applicazioni che utilizzano HSLA, sarà recuperato più niobio migliorando la selezione dei rottami di acciaio [1].
Nel 2019 è stato pubblicato dal Comitato europeo di coordinamento dell’industria informatica radiologica, elettromedicale e sanitaria (COCIR) con sede a Bruxelles, un dettagliato rapporto su Revisione dei metodi e della loro fattibilità per il recupero del niobio dai cavi superconduttori [2].
Nel 2019 un gruppo di ricercatori internazionali, coordinati dal prof. S. Rahimpour Golroudbary, ha studiato la sostenibilità ambientale del recupero del niobio da leghe di autoveicoli giunti a fine vita.
Il processo messo a punto ha mostrato una riduzione del 18⁒ delle emissioni di gas serra e poveri sottili su base annua dal 2010 al 2050 [3].
Nello stesso anno un gruppo di ricercatori francesi, coordinati dal prof. Gauthier J.P. Deblonde, ha messo a punto un processo idrometallurgico per il recupero di niobio e tantalio utilizzando una miscela acido ossalico-acido nitrico, meno costosi, al posto di acido fluoridrico-fluoruri. Il processo è stato testato sia in laboratorio sia su soluzioni industriali contenenti Nb e Ta con produzioni soddisfacenti di Nb2O5·nH2O(s) al 99,5% in peso di purezza e un concentrato di Ta2O5·nH2O(s) al 20% di tantalio [4].
Ciclo biogeochimico
Il ciclo biogeochimico del niobio non ha ricevuto finora particolare attenzione. Tuttavia, il suo impiego, incrementato notevolmente nelle ultime decadi, ha portato a una crescente pressione per utilizzare le risorse naturali in modo più efficiente riducendo l’emissione di rifiuti industriali e di gas serra. Nel 2019 è stato pubblicato un articolo riguardante la valutazione del ciclo di vita del niobio in Brasile [5]. In questo studio, sono stati utilizzati strumenti di valutazione del ciclo di vita per sviluppare diagrammi proposti come modello per il ciclo di vita del niobio. Per fare ciò, sono stati utilizzati strumenti LCA per sviluppare un diagramma del processo di arricchimento del minerale contenente Nb e quantificare il bilancio di massa rispetto ai prodotti finiti e ai rifiuti solidi, liquidi e gassosi. Uno di questi diagrammi è mostrato in figura 8.

Figura 8. Ciclo di vita del niobio [5]
I dati hanno mostrato che 2200 kg di FeNb e 300 kg di Nb2O5 sono stati prodotti da 100 t di minerale contenente il 2,5% di Nb, e che la valorizzazione del minerale danneggia l’ambiente.

Opere consultate
Handbook of Chemistry and Physics 5th Ed., p. 4-21
https://en.wikipedia.org/wiki/Niobium

Bibliografia
[1] https://globemetal.com/niobium-recycling/
[2] RINA-COCIR, MRI superconductor recycling, Report No. 2019-0088 Rev. 1- February 2019 https://www.cocir.org/fileadmin/6_Initiatives_SRI/Annual_forum/REG01543-001_COCIR_Niobium_recycling_report_V4.pdf
[3] S. Rahimpour Golroudbary et al., Environmental Sustainability of Niobium Recycling: The Case of the Automotive Industry., Recycling, 2019, 4, 5-26. DOI: 10.3390/recycling4010005
[4] Gauthier J.-P. Deblonde et al., Niobium and tantalum processing in oxalic-nitric media: Nb2O5·n2O and Ta2O5·nH2O precipitation with oxalates and nitrates recycling., Separation and Purification Technology, 2019, 226, 209-217.
[5] A. Rangel Alves, A. dos Reis Coutinho, Life cycle assessment of niobium: A mining and production case study in Brazil., Minerals Engineering, 2019, 132, 275-283

Elementi della Tavola periodica. Niobio, Nb.(parte 1)

In evidenza

Rinaldo Cervellati

Il niobio, simbolo Nb, è l’elemento n. 41 della Tavola Periodica, posto al 5° Gruppo, 5° Periodo, sotto il vanadio, sopra il tantalio, affiancato da zirconio (a sinistra) e molibdeno (a destra). È un metallo di transizione, di colore grigio chiaro, cristallino, duttile. È abbastanza raro, la sua abbondanza nella crosta terrestre è valutata fra 17 e 20 ppm.
Il niobio fu identificato dal chimico inglese Charles Hatchett (Figura 1) nel 1801. Egli trovò un nuovo elemento in un campione di minerale che era stato inviato in Inghilterra dal Connecticut, Stati Uniti, nel 1734. Chiamò columbite il minerale e il nuovo elemento colombio, da Columbia, il nome poetico degli Stati Uniti d’America.

Figura 1. Charles Hatchett
Tuttavia il colombio scoperto da Hatchett era probabilmente una miscela del nuovo elemento con il tantalio.
Successivamente c’è stata una notevole confusione sulla differenza tra il colombio (niobio) e il tantalio. Questa confusione è derivata dalle differenze minime osservate tra i due elementi. I nuovi elementi chiamati pelopium, ilmenium e dianium erano infatti identici al niobio o alle miscele di niobio e tantalio.
Le differenze tra tantalio e niobio furono dimostrate inequivocabilmente nel 1864 da Christian Wilhelm Blomstrand (1826-1897) e Henri Etienne Sainte-Claire Deville (1818-1881), così come da Louis J. Troost (1825-1911), che determinò le formule di alcuni suoi composti nel 1865 e infine dal chimico svizzero Jean Charles Galissard de Marignac (1817-1894) nel 1866, che dimostrarono tutti che nel minerale c’erano solo due elementi. Tuttavia, gli articoli sull’ilmenio continuarono ad apparire fino al 1871. De Marignac fu il primo a preparare il metallo nel 1864, quando ridusse il cloruro di niobio riscaldandolo in un’atmosfera di idrogeno. Sebbene de Marignac fosse in grado di produrre niobio privo di tantalio su scala più ampia dal 1866, fu solo all’inizio del XX secolo che il niobio fu utilizzato nei filamenti delle lampade a incandescenza, la prima applicazione commerciale, poi divenuta obsoleta grazie alla sostituzione del niobio con il tungsteno, che ha un punto di fusione più elevato.
Colombio (simbolo “Cb”) fu il nome originariamente conferito da Hatchett alla sua scoperta del metallo nel 1801. Questo nome rimase in uso nelle riviste americane, l’ultimo articolo pubblicato dalla American Chemical Society con colombio nel titolo risale al 1953, mentre niobio era usato in Europa. Per porre fine a questa confusione, il nome niobio fu scelto per l’elemento 41 alla 15a Conferenza dell’Unione di Chimica ad Amsterdam nel 1949. Un anno dopo questo nome fu ufficialmente adottato dall’Unione Internazionale di Chimica Pura e Applicata (IUPAC) dopo 100 anni di controversie, nonostante la precedenza cronologica del nome colombio. Si trattava di una sorta di compromesso: la IUPAC accettava tungsteno invece di wolframio in ossequio all’uso nordamericano, e niobio invece di colombio per rispetto all’uso europeo.
Proprietà fisiche
Il niobio è un metallo lucido, grigio, duttile, paramagnetico nel gruppo 5o della tavola periodica, con una configurazione elettronica nei gusci più esterni atipica per quel gruppo:
Numero di elettroni negli elementi del 5° Gruppo:
23 vanadio 2, 8, 11, 2
41 niobio 2, 8, 18, 12, 1
73 tantalio 2, 8, 18, 32, 11, 2
105 dubnio 2, 8, 18, 32, 32, 11, 2
Sebbene si pensi abbia una struttura cristallina cubica a corpo centrato dallo zero assoluto al suo punto di fusione, le misurazioni ad alta risoluzione dell’espansione termica lungo i tre assi cristallografici rivelano anisotropie che sono incoerenti con una struttura cubica. Pertanto, sono previste ulteriori ricerche.
Il niobio diventa un superconduttore a temperature criogeniche. Alla pressione atmosferica ha la più alta temperatura critica dei superconduttori elementari a 9,2 K. Il niobio ha la maggiore profondità di penetrazione magnetica di qualsiasi altro elemento. Inoltre, è uno dei tre superconduttori elementari di tipo II, insieme a vanadio e tecnezio. Le proprietà superconduttive dipendono fortemente dalla purezza del niobio metallico. Quando è molto puro, è relativamente morbido e duttile, ma le impurità lo rendono più duro.
Il niobio nella crosta terrestre è costituito da un solo isotopo stabile, il 93Nb. Nel 2003, erano stati sintetizzati almeno 32 radioisotopi, con massa atomica compresa tra 81 e 113. Il più stabile di questi è 92Nb con un’emivita di 34,7 milioni di anni. Uno dei meno stabili è 113Nb, con un’emivita stimata di 30 millisecondi.
Proprietà chimiche
Il metallo (Figura 2) assume una sfumatura bluastra se esposto all’aria a temperatura ambiente per lunghi periodi.

Figura 2. Niobio metallico
Nonostante il suo alto punto di fusione (2.468 °C), ha una densità inferiore rispetto ad altri metalli refrattari. Inoltre, è resistente alla corrosione, mostra proprietà di superconduttività e forma strati di ossido dielettrico.
Il niobio è leggermente meno elettropositivo e più compatto del suo predecessore nella tavola periodica, lo zirconio, mentre è di dimensioni praticamente identiche agli atomi di tantalio più pesanti, a causa della contrazione dei lantanidi. Di conseguenza, le proprietà chimiche del niobio sono molto simili a quelle del tantalio, che si trova direttamente sotto il niobio nella tavola periodica. Sebbene la sua resistenza alla corrosione non sia eccezionale come quella del tantalio, il prezzo inferiore e la maggiore disponibilità rendono il niobio attraente per applicazioni meno impegnative, come i rivestimenti delle vasche negli impianti chimici.
Principali composti
Il niobio è simile al tantalio e allo zirconio. Reagisce con la maggior parte dei non metalli alle alte temperature, con fluoro a temperatura ambiente, cloro a 150 °C, idrogeno a 200 °C, e azoto a 400 °C, formando prodotti spesso non stechiometrici. Il niobio metallico inizia a ossidarsi all’aria a 200 °C. Resiste alla corrosione degli alcali fusi e degli acidi, inclusi l’acqua regia, gli acidi cloridrico, solforico, nitrico e fosforico. Viene attaccato dall’acido fluoridrico e miscele di acido fluoridrico/acido nitrico.
Sebbene mostri tutti gli stati di ossidazione da +5 a -1, i composti più comuni hanno il niobio nello stato +5. Tipicamente, i composti in stati di ossidazione inferiori a +5 presentano un legame Nb –Nb. Nelle soluzioni acquose, il niobio ha solo lo stato di ossidazione +5. È anche facilmente soggetto all’idrolisi ed è a malapena solubile in soluzioni diluite di acidi cloridrico, solforico, nitrico e fosforico a causa della precipitazione dell’ossido di niobio idrato. Nb (V) è anche leggermente solubile in mezzi alcalini a causa della formazione di specie solubili di poliossoniobato.
Ossidi e solfuri
Il niobio forma ossidi negli stati di ossidazione +5 (Nb2O5), +4 (NbO2), +3 (Nb2O3), e in quello più raro, +2 (NbO). Il più comune è il pentossido, precursore di quasi tutti i composti e le leghe di niobio. I niobati vengono generati sciogliendo il pentossido in soluzioni di idrossido basico o fondendolo con ossidi di metalli alcalini. Esempi sono il niobato di litio (LiNbO3) e il niobato di lantanio (LaNbO4). Il niobato di litio ha una struttura simile alla perovskite distorta trigonalmente, mentre il niobato di lantanio contiene ioni NbO43−. È anche noto il solfuro di niobio stratificato (NbS2).
Alogenuri
Il niobio forma alogenuri negli stati di ossidazione di +5 e +4 così come diversi composti sub-stechiometrici. I pentaalogenuri (NbX5) presentano centri ottaedrici. Il niobio pentafluoruro (NbF5) è un solido bianco con un punto di fusione di 79,0 °C e il niobio pentacloruro (NbCl5) è giallo
(Figura 3) con un punto di fusione di 203,4 °C.

Figura 3. Campione di niobio pentacloruro
Entrambi si idrolizzano formando ossoalogenuri, come NbOCl3. Il pentacloruro è un reagente versatile utilizzato per ottenere i composti organometallici, come il niobocene dicloruro (C5H5)2NbCl2.
I tetraalogenuri (NbX4) sono polimeri di colore scuro con legami Nb-Nb; per esempio, il tetrafluoruro di niobio igroscopico è nero (NbF4) e il tetracloruro di niobio è marrone (NbCl4).
I composti alogenuri anionici del niobio sono ben noti, in parte a causa dell’acidità di Lewis dei pentaalogenuri. Il più importante è [NbF7]2−, un intermedio nella separazione di Nb e Ta dai minerali. Questo eptafluoruro tende a formare l’ossopentafluoruro più facilmente di quanto non faccia il composto di tantalio. Altri complessi alogenuri includono l’ottaedrico [NbCl6]−:
Nb2Cl10 + 2Cl− → 2[NbCl6]−.
Nitruri e carburi
Altri composti binari del niobio includono il nitruro di niobio (NbN), che diventa un superconduttore a basse temperature e viene utilizzato nei rivelatori di luce infrarossa. Il carburo di niobio principale è l’NbC, un materiale ceramico refrattario estremamente duro, utilizzato commercialmente nelle punte degli utensili da taglio.
Disponibilità
Si stima che il niobio sia il 34° elemento più comune nella crosta terrestre, ma alcuni pensano che l’abbondanza sulla Terra sia molto maggiore e che l’alta densità dell’elemento lo abbia concentrato nel nucleo del pianeta. L’elemento libero non si trova in natura ma in combinazione con altri elementi nei minerali. I minerali che contengono niobio spesso includono anche tantalio. Gli esempi includono la columbite [(Fe, Mn)(Nb, Ta)2O6)] e la columbite-tantalite (o Coltan, (Fe, Mn) (Ta, Nb)2O6). Colombite e minerali di tantalite si trovano di solito come minerali accessori nelle intrusioni di pegmatite e nelle rocce intrusive alcaline. Meno comuni sono i niobati di calcio, uranio, torio e gli elementi delle terre rare. Esempi di tali niobati sono pirocloro [(Na, Ca)2Nb2O6 (OH, F)] (Figura 4) e euxenite-Y [(Y, Ca, Ce, U, Th)(Nb, Ta, Ti)2O6]. Questi grandi depositi di niobio sono stati trovati associati a carbonatiti (rocce ignee carbonato-silicato) e come costituente del pirocloro.

Figura 4. Campione di pirocloro
I tre più grandi depositi di pirocloro attualmente sfruttati, due in Brasile e uno in Canada, sono stati trovati negli anni ’50 e sono ancora i principali produttori di minerali concentrati di niobio. Il giacimento più grande è ospitato all’interno di un’intrusione di carbonatite ad Araxá, stato del Minas Gerais, Brasile, di proprietà della compagnia CBMM; l’altro giacimento brasiliano attivo si trova vicino a Catalão, nello stato di Goiás, anch’esso ospitato all’interno di un’intrusione di carbonatite, ed è di proprietà di una compagnia cinese. Insieme, queste due miniere producono circa l’88% dell’offerta mondiale. Il Brasile ha anche un grande giacimento ancora non sfruttato vicino a São Gabriel da Cachoeira, nello stato di Amazonas, così come alcuni depositi più piccoli, in particolare nello stato di Roraima.
Il terzo più grande produttore di niobio è la miniera di carbonatite Niobec, a Saint-Honoré (Quebec, Canada), di proprietà di Magris Resources (Figura 5).

Figura 5. Carbonatite contenente niobio
Produce tra il 7% e il 10% dell’offerta mondiale.
(continua)

Opere consultate
Handbook of Chemistry and Physics 5th Ed., p. 4-21
https://en.wikipedia.org/wiki/Niobium

William Prout (1785 – 1850): un grande chimico e medico da riscoprire. (2° PARTE)

In evidenza

Roberto Poeti

Prout come Amedeo Avogadro.

 La prima parte di questo post è stata pubblicata qui.                                 

Nel capitolo del libro “Chimica” del Bridgewater Treatise, “Sulle leggi delle combinazioni chimiche“ Prout raccoglie le conclusioni, che in sintesi ho esposto nella prima parte, e le applica a casi concreti.

È una chiara ed efficace descrizione che sorprende per la sua incisività.

Vi è il richiamo al principio da lui enunciato precedentemente e alla legge dei volumi di Gay-Lussac:

«Nel capitolo precedente abbiamo avanzato alcuni degli argomenti principali che ci inducono ad adottare l’ipotesi che tutti i corpi gassosi alla stessa pressione e temperatura, contengano un numero uguale di molecole auto repulsive; e dobbiamo ora considerare, molto brevemente, alcune delle conseguenze importanti alle quali questa ipotesi porta naturalmente. Sembra essere stabilito in modo soddisfacente che i corpi, nel loro stato gassoso, si combinano chimicamente e coesivamente con riferimento ai loro volumi; vale a dire che lo stesso volume di un gas si combina sempre con precisamente un volume simile dello stesso o di un altro gas, o con qualche multiplo o sottomultiplo di quel gas (in altre parole con due, tre o metà, o un quarto di più, ecc.) ma non con alcuna proporzione intermedia; e inoltre, che il composto risultante fa sempre riferimento in volume ai volumi originali dei suoi elementi costitutivi.

Dopo questa premessa passa con grande efficacia ad illustrare la sua interpretazione della reazione tra i gas idrogeno e ossigeno per formare vapor d’acqua: 

 Prendiamo ad esempio l’acqua. È stato dimostrato che l’acqua è composta da un volume di ossigeno gassoso e due volumi di idrogeno gassoso; e così invariabilmente, che non possiamo supporre che l’acqua sia formata da altre proporzioni di questi elementi. È stato anche dimostrato che l’acqua risultante, se allo stato di vapore, occupa esattamente lo spazio di due volumi, per cui un volume è scomparso. Consideriamo ora attentamente cosa deve essere accaduto durante questi cambiamenti. Un volume di ossigeno gassoso ha contribuito a formare due volumi d’acqua, i quali due volumi d’acqua, secondo la nostra ipotesi, devono essere costituiti dal doppio del numero di molecole auto repulsive contenute nell’unico volume di ossigeno; eppure ognuna di queste molecole deve contenere ossigeno, perché l’ossigeno è un elemento essenziale dell’acqua: ne consegue, quindi, inevitabilmente, che ogni molecola auto repulsiva di ossigeno è stata divisa in due, e di conseguenza deve essere originariamente costituita da almeno due elementari molecole, in un modo o nell’altro associate in modo da aver formato una sola molecola auto repulsiva.Questa conclusione, che sembra scaturire naturalmente dalle nostre premesse, è importantissima, come vedremo subito, e ci permette di gettare non poca luce su molti punti ritenuti oscuri.»

A questo punto Prout descrive la possibilità di legame tra due atomi uguali, secondo il suo modello dipolare, non solo per l’ossigeno ma per tutte le molecole elementari, idrogeno, cloro, azoto ecc.: 

«Nel frattempo consideriamo brevemente la natura della molecola composta auto-repulsiva dell’ossigeno. Ci siamo sforzati di mostrare nel capitolo precedente, che ogni ultima molecola di materia deve possedere due tipi di polarità, che, in mancanza di termini migliori, abbiamo denominato chimica e coesiva; e che queste polarità hanno tra loro le stesse relazioni dell’elettricità e del magnetismo; in altre parole che, come queste forze, le polarità esistono ad angolo retto tra loro. Quindi se A e B si suppone siano due molecole (N.d.T. atomi) di ossigeno, di cui Ee, Ee rappresentano i poli e l’asse chimici e Mm, Mm i poli e gli assi coesivi, è evidente che queste due molecole si possono combinare in due modi, sia E con e chimicamente o M con m coesivamente; ma quest’ultima forma naturalmente è più probabile dalla natura simile delle molecole.

 Ogni molecola di ossigeno auto repulsiva, quindi, in quanto esiste allo stato gassoso, deve essere costituita da almeno due molecole [N.d.T. Elementari], unite in modo coesivo, e che agiscono come una sola; e lo stesso può essere mostrato rispetto ad altri corpi gassosi, come, ad esempio, l’idrogeno. Non si può, infatti, dedurre dalla composizione dell’acqua, come sopra affermato, se la molecola auto repulsiva dell’idrogeno sia doppia o meno, ma questo può essere dimostrato da altri composti in cui entra l’idrogeno. Così il gas dell’acido muriatico è composto da un volume di cloro e un volume di idrogeno, che si uniscono senza condensazione e formano due volumi di gas acido muriatico; ora in questo caso è evidente che non solo la molecola auto repulsiva dell’idrogeno, ma anche quella del cloro, deve essere almeno doppia, come la molecola di ossigeno sopra menzionata; e lo stesso potrebbe essere mostrato rispetto agli altri corpi gassosi.»

La giustificazione che le molecole elementari nello stato gassoso potevano essere biatomiche perché gli atomi erano capaci di legarsi tra loro, era molto importante e significativa perché questa assunzione superava la tradizionale obbiezione elettrochimica alla ipotesi di Avogadro, da parte di giganti dell’atomismo come Berzelius, Dalton e Thomson, cioè che parti uguali si respingono tra loro e quindi non possono mai unirsi per formare molecole: l’ipotesi dipolare di Prout non impediva che tra due atomi uguali si stabilisse una coesione [N.d.T. che riteneva più probabile rispetto a quella chimica]

La conclusione a cui arriva Prout è incalzante:

 «È stato scoperto mediante esperimento che gli stessi volumi di corpi diversi allo stato gassoso hanno pesi molto diversi. Così, ad esempio, un volume di ossigeno pesa sedici volte lo stesso volume di idrogeno. Quindi, poiché si presume che il numero di molecole auto repulsive in ciascuno di questi gas sia lo stesso, il peso della molecola auto repulsiva dell’ossigeno deve ovviamente essere sedici volte maggiore di quello dell’idrogeno; e IN GENERALE, i pesi delle molecole auto repulsive di tutti i corpi saranno come i pesi specifici di questi corpi allo stato gassoso, o avranno certe semplici relazioni con questi pesi specifici…. supponendo che i principi che abbiamo avanzato siano ben fondati, richiederebbe che il volume in tutti i casi sia reso l’unità molecolare; in tal caso, i pesi relativi delle molecole auto repulsive di idrogeno e ossigeno, come sopra menzionato, saranno 1 a 16

Ma c’è un altro passaggio dove, ci pare, abbia sfiorato il metodo di Cannizzaro per la determinazione dei pesi atomici:

«Nel modo sopra, i pesi atomici, come vengono chiamati, di tutti i corpi capaci di assumere la forma gassosa possono essere facilmente ottenuti; ma in quei corpi che non assumono la forma gassosa, nel loro stato semplice, ma solo in qualche stato di combinazione siamo obbligati a dedurre il peso della molecola primaria da quello del composto.Così il carbonio nel suo stato elementare è incapace di assumere la forma gassosa; ma combinato con l’ossigeno forma acido carbonico [N.d.T. CO2], un volume del quale pesa 44 volte di più dell’idrogeno standard. Ora è stato scoperto da altri esperimenti, che di queste 44 parti, 32 sono ossigeno. I restanti 12 devono quindi essere carbonio; e di conseguenza 12 è il numero sulla nostra scala che rappresenta il carbonio, e la proporzione, con riferimento alla quale, questo corpo entra sempre nella composizione

Prout non dice che in altri composti si potrebbero avere anche multipli di 12. È probabile che si sia espresso solo in parte, come in altre occasioni. A tutti gli effetti, quindi, Prout è giunto alle stesse conclusioni sulle relazioni tra la combinazione di volumi e pesi come Avogadro prima di lui.

Noi concludiamo però qui la nostra rilettura di Prout. Nato come testo di apologetica, il Trattato di Bridgewater ebbe scarsa influenza. Il suo punto di vista su atomi e molecole, fu discusso favorevolmente da Daubeny nella seconda edizione della sua “Introduzione alla Teoria atomica”. Tuttavia, questa non apparve fino al 1850, momento in cui la legge di Avogadro aveva già ricevuto la sua rivalutazione dagli allievi di Dumas, Laurent e Gerhardt, e doveva essere sostenuta anche da Williamson.

                                                              Prout dimenticato

Malgrado un elenco di risultati impressionanti, scopriamo che, a parte l’ipotesi unitaria dell’idrogeno (che nel Trattato è appena sfiorata), il lavoro chimico e medico di Prout era stato trascurato molto prima della sua morte nel 1850. Ci sono due ragioni per questo. In primo luogo, la carriera scientifica attiva fu essenzialmente terminata nel 1834. Successivamente si dedicò interamente alla sua pratica medica e alla revisione dei suoi libri, mentre la grave sordità lo spinse a evitare la comunità scientifica. In secondo luogo, come conseguenza diretta della sua invalidità, Prout non fu in grado di tenersi al passo con i rapidi sviluppi scientifici in chimica e in fisiologia, cosicché, sebbene gran parte delle sue prime ricerche precedessero quella di Liebig e della sua scuola, nel complesso, Prout si trovò oscurato dalle grandi conquiste degli anni Trenta e Quaranta dell’Ottocento. Concludo con le parole di  W. H. Brock: «Se non riusciamo a trovare alcun uso delle idee di Prout, ciò non deve in alcun modo diminuire l’interesse per noi del suo trattato chimico Bridgewater, poiché ci consente di determinare l’atteggiamento di un chimico che era pronto a riflettere e, quando necessario, a rifiutare, i presupposti di base della teoria atomica di Dalton,  piuttosto che seguire la maggior parte dei chimici che tendevano ad assumere un atteggiamento fenomenista o non realistico nei confronti dell’atomo…»

                                                              —————————————–

William Prout con la sua ipotesi unitaria dell’idrogeno ha condizionato molto più di quanto si pensi la ricerca sugli atomi per tutto l’ottocento, fino alla scoperta degli isotopi. Questa parte interessante della sua storia è contenuta in un PDF in un altro articolo del mio blog:

https://www.robertopoetichimica.it/william-prout-1784-1850-un-grande-chimico-e-medico-dimenticato/

                                                                       Bibliografia

  1. Siegfried, Robert (1956). “The Chemical Basis for Prout’s Hypothesis”. Journal of Chemical Education. 33
  2. Verso un nuovo atomo: le vie spettroscopiche di William Crookes e di Norman Lockyer., Atti del VIII Convegno nazionale di storia e fondamenti della chimica. 
  3. “An Attempt to Establish the First Principles

of Chemistry by Experiment”.

Contraddizioni

In evidenza

Luiigi Campanella, già Presidente SCI

Inizio questo post dichiarando di essere un sostenitore convinto di papa Francesco, dell’Europa ed anche del governo Draghi. Questa premessa è necessaria affinché chi legge possa comprendere come mi senta confuso dopo avere letto e confrontato alcune affermazioni che partono dai 3 suddetti interlocutori e che purtroppo non sembrano andare d’accordo ponendomi il quesito di chi fra i 3 sia nel giusto e chi invece sbagli. Scrive paga Francesco nella Laudato sì

“Non basta conciliare in una via di mezzo la cura per la natura con la rendita finanziaria, o la conservazione dell’ambiente con il progresso.

Il principio di precauzione deve essere rispettato con rigore.

Su questi temi le vie di mezzo sono soltanto un piccolo ritardo nel disastro. La crescita sostenibile diventa spesso un diversivo ed un mezzo di giustificazione che trasferisce valori del discorso ecologista all’interno della logica della finanza e della tecnocrazia e la responsabilità sociale ed ambientale delle imprese si riduce per lo più ad una serie di azioni di marketing e di immagine. L’uso sostenibile di una risorsa deve sempre essere commisurato alla capacita di rigenerazione di ogni ecosistema nei suoi diversi settori ed aspetti”

In buona sostanza il Papa esclude compromessi fra i valori intrinseci dei viventi (umani, animali, vegetali) e la loro valorizzazione economica. Conforta leggere che la pensa allo stesso modo in ambiente completamente diverso l’EEA (European Environmental Agency), una rete indipendente che coopera con l’UE e che in un recente report (titolo molto significativo: Crescita senza crescita economica) ha certificato che la crescita economica in termini solo monetari presuppone obbligatoriamente uno sfruttamento delle risorse naturali non bilanciato né da una maggiore efficienza produttiva né dalla economia circolare, concludendo che sia necessario ripensare a cosa si intenda per crescita e progresso.

Il rischio è che in assenza di un cambio di consumi e di stili di vita la transizione ecologica finisca per basarsi  su ulteriore richiesta di energia e su ulteriore sfruttamento delle risorse naturali: queste poi si aggiornano nella necessità ed oggi sono in atto guerre commerciali per materiali che 50 anni fa riscuotevano modesto interesse: si pensi a litio, grafite, terre rare.

A tale proposito vale ricordare che da alcuni giorni l’Italia sta vivendo avendo superato il limite annuale delle risorse naturali disponibili al Paese. Fino a qui tutto abbastanza chiaro e dal mio punto di vista condivisibile: non si vuole fermare il progresso; lo si vuole solo ripensare come modello nella convinzione che le ricadute in termini di costi e sicurezza di lavoro, di qualità di vita e di equità sociale ci saranno senz’altro.

Ora vengo alla parte delle mie letture che mi ha più confuso.

Quando é stata proposta l’istituzione del Ministero della Transizione Ecologica dapprima ho pensato che si stava creando una nuova struttura i cui compiti già sostanzialmente esistevano distribuiti fra Ministeri diversi, poi mi sono convinto che concentrare poteva essere un passo concreto in avanti. Ho letto l’intervista rilasciata al Corriere della Sera del 3 maggio al Ministro della Transizione Ecologica e qualche dubbio rispetto a quanto avevo letto e che ho riportato prima mi è venuto. Giustamente si mette in guardia da un perdurante disinteresse rispetto alla protezione dei 3 comparti ambientali acqua, aria, suolo con il rischio che eventi climatici estremi e crisi sanitarie diventino sempre più frequenti; ma dopo si dice che la sostenibilità non è un valore assoluto e che quindi va mediato con esigenze diverse senza discuterne priorità e connessioni e soprattutto si lascia la decarbonizzazione affidata all’innovazione tecnologica; e di salute dell’ecosistema ed economia si parla come di due problemi di confrontabile rilievo.

Una posizione particolare che mi ha colpito è stata quella relativa alla presunta inconciliabilitá fra verde e lavoro proprio mentre in più sedi compaiono report ufficiali sulle positive ricadute delle attività green sul mercato del lavoro sia sul piano della qualità che della quantità. La speranza è che l’intervista sia una semplificazione non del tutto fedele del pensiero del Ministro e della politica che il suo Ministero vorrà perseguire.

William Prout (1785 – 1850): un grande chimico e medico da riscoprire (1a PARTE)

In evidenza

Roberto Poeti

La storia personale e professionale di Prout ci fa conoscere uno studioso che ha dato contributi importanti in tanti campi della conoscenza, dalla chimica alla fisiologia, alla medicina. Arriva alla professione di medico grazie alla volontà e alla tenacia, nonostante la difficoltà di avere una istruzione continua e soddisfacente. La famiglia allevava bestiame da generazioni nel Gloucestershire, una contea dell’Inghilterra sud-occidentale. Ha venti anni quando torna a casa insoddisfatto dei propri progressi e degli standard di una scuola privata che ha frequentato per diciotto mesi, dove acquisisce i rudimenti del latino e del greco.  Prende l’iniziativa inconsueta di pubblicare un annuncio in un giornale locale in cui chiede consigli per avere, giovane ventenne educato e malato, una prospettiva di miglioramento dell’istruzione. La malattia a cui si riferisce Prout è un intenso male agli orecchi, di cui ha sofferto durante tutta la giovinezza, e che sarà precursore della sordità che in seguito lo costrinse a ritirarsi dalla comunità scientifica. La risposta arriva dal Rev. Thomas Jones, che gestiva “un seminario classico per giovani signori”.

Prout vi trascorrerà due anni felici e formativi. Conoscerà la chimica che diventerà la sua grande passione per tutta la vita. È stato Jones che ha esortato Prout a diventare un medico e l’ha raccomandato per entrare all’Università di Edimburgo. (Oxford e Cambridge erano naturalmente fuori discussione dato che lo status sociale di Prout era così basso). Così come accadeva spesso a cavallo tra settecento e ottocento, anche Prout diverrà un chimico passando da una educazione medica, tuttavia eserciterà anche la professione di medico. Conseguita la licenza del Royal College of Physicians nel 1812, lo vediamo poco dopo tenere un corso di lezioni presso la sua abitazione, non rare in quel tempo, rivolte a medici e chirurghi illustri, un numero scelto di persone. In un suo annuncio pubblicitario si leggeva” Il dottor Prout intende tenere nel corso dell’inverno una serie di conferenze sulla chimica animale. Lo scopo di questi sarà quello di dare una visione connessa di tutti i fatti principali appartenenti a questo dipartimento di chimica, e di applicarli, per quanto lo stato attuale delle nostre conoscenze lo permetterà, alla spiegazione dei fenomeni delle azioni organiche.” Questo annuncio rappresenta bene il suo campo di azione dove la chimica diventa strumento della medicina. Con il suo corso di conferenze Prout si portò in primo piano nella cerchia degli scienziati londinesi. Era solito alzarsi molto presto per fare i suoi esperimenti di chimica, che interrompeva alle sette per dedicarsi ai pazienti. I suoi studi affronteranno l’analisi e composizione delle urine, uno dei liquidi fisiologici molto spesso oggetto di indagine. Concepirà un apparecchio per l’analisi per combustione delle sostanze organiche. La sua analisi dell’urea sarà utilizzata da Wohler quando riuscirà a produrla artificialmente. È stato il primo che ha identificato l’acido cloridrico responsabile dell’acidità gastrica. È notevole la sua classificazione dei principi alimentari in proteine, zuccheri e grassi, un risultato pionieristico.

 Per il chimico, tuttavia, l’aspetto del lavoro di Prout che è di maggiore interesse è quello relativo ai pesi atomici.

Nel 1815 e 1816 egli scrive due articoli sulla rivista scientifica Annals of Philosophydal titolo “Sulla relazione tra la Gravità specifica dei corpi nel loro stato gassoso e il peso dei loro atomi”, entrambi in forma anonima. La vera spiegazione della sua riluttanza a rivelarsi non è nota, ma forse un indizio si trova nelle frasi di apertura del suo primo articolo “L’autore del saggio seguente lo presenta al pubblico con la massima umiltà; poiché, sebbene si sia preso la massima cura per arrivare alla verità, tuttavia non ha quella fiducia nelle sue capacità di sperimentatore da indurlo a imporlo ad altri di gran lunga superiori che accerteranno  la sua importanza, e che qualcuno si impegnerà a esaminarlo e quindi verificare o confutare le sue conclusioni. Se queste dovessero essere provate errate, le indagini potranno portare alla luce fatti ancora nuovi o meglio accertati; ma se dovessero essere verificate, una nuova e interessante luce verrebbe gettata su tutta la scienza della chimica.”

Nel secondo articolo del 1816, molto breve, dal titolo “Correzione di un errore nel saggio sulla relazione tra i pesi specifici dei corpi nel loro stato gassoso e i pesi dei loro atomi”, Prout apporta una modifica nelle unità di riferimento dei volumi. Lo spazio nei due articoli è quasi interamente occupato da tabelle accompagnate da poche note e nel primo da una breve introduzione. Come si può dedurre dal titolo del primo saggio l’impegno conoscitivo si sviluppa attorno alla stretta relazione tra densità dei gas e i loro pesi “atomici “che vedremo più avanti esprimerà con una relazione matematica. Va subito precisato che il termine “atomo” veniva comunemente usato per indicare sia le parti ultime di un elemento che di un composto. Dal confronto tra densità e pesi “atomici” ricava dei valori per le sostanze elementari che risultano espressi da numeri interi, cioè multipli dell’unità di riferimento che è l’atomo di idrogeno. Alla conclusione dell’articolo Prout esplicita quella che è stata chiamata da W.H. Brock, nel suo libro From Protyle to Proton, “the integral multiple weights hypothesis”, cioè i pesi atomici o le densità sono multipli interi del peso atomico o densità dell’idrogeno. È solo alla fine del secondo articolo, che arriva un anno dopo, che Prout individua nell’idrogeno la materia prima di cui tutti gli altri elementi sono costruiti, cioè sempre Brock chiama “the protyle hypothesis” o “unitary hypothesis”.

                                               L’articolo di Prout contiene più dell’ “ipotesi unitaria

Considerare l‘ipotesi unitaria di Prout nei suoi articoli del 1815-16 (dove comunque non è esplicitamente menzionata) il risultato principale delle sue riflessioni, significa giudicare in modo non corretto il suo scopo, che era invece chiaramente indicato nel titolo, vale a dire, uno studio delle relazioni tra i pesi di combinazione delle sostanze e i volumi di combinazione delle stesse sostanze allo stato gassoso. E ciò che guida la sua ricerca lo dichiara lui stesso all’inizio del primo articolo:

«Sarà forse necessario premettere che le osservazioni che verranno offerte sono fondate principalmente sulla dottrina dei volumi come prima generalizzata da M. Gay-Lussac; e che, almeno per quanto ne sa l’autore, è ormai universalmente ammessa dai chimici

Questa sua strategia è perseguita solo in parte attraverso un lavoro sperimentale condotto in prima persona, in larga parte si basa sulla rassegna di altri lavori e alla fine si presenta come un tentativo di organizzare tale lavoro e di trovarne delle regolarità. E queste regolarità sono illustrate nelle tabelle dei suoi due articoli che contengono i valori delle densità degli elementi e composti correlati ai loro “pesi atomici”, una relazione che viene evidenziata per la prima volta.  Questa relazione tra pesi atomici e densità comporta implicitamente l’assunzione che volumi uguali di gas diversi nelle stesse condizioni contengono lo stesso numero di “atomi”. Va sottolineato che Prout, sta iniziando, per poi portare a compimento come vedremo più avanti nella seconda parte di questo articolo, un cammino che poco tempo prima aveva compiuto Avogadro. È un percorso quasi parallelo ma indipendente da quello di Avogadro.  Il saggio di Avogadro non è stato tradotto e non è conosciuto dai chimici inglesi, e tale rimarrà per molti anni ancora.

La relazione tra densità e “pesi atomici” era espressa, secondo Prout, da:

(Il “peso atomico X” era riferito sia agli elementi che ai composti)

I gas elementari, come l’idrogeno, erano considerati monoatomici, pertanto la relazione forniva il valore corretto del peso atomico relativo degli elementi, eccezione per l’ossigeno che era di proposito dimezzato (In questo Prout si allineava alla ipotesi che riteneva, con Dalton, Thomson e altri, la formula dell’acqua HO. Così per conciliare la formula con il risultato della reazione che era di 2 volumi di idrogeno con 1 di ossigeno, un volume di ossigeno doveva contenere il doppio degli atomi rispetto all’idrogeno e il peso atomico relativo dell’ossigeno era 8 rispetto ad 1 dell’idrogeno). La relazione forniva poi un valore dei pesi molecolari relativi dei composti che era la metà del valore reale. 

In una nota che fa riferimento alla densità dei vapori di iodio, Prout ci fornisce un’altra relazione tra densità e pesi atomici. Queta volta usa come peso di riferimento l’atomo di ossigeno, che era l’unità atomica di riferimento più comune:

«In generale, per trovare la densità di qualsiasi sostanza allo stato gassoso, dobbiamo solo moltiplicare la metà della densità dell’ossigeno per il peso dell’atomo della sostanza rispetto all’ossigeno

L’aspetto che assume così la relazione ha suggerito a W. H. Brock che Prout sia giunto in modo inconsapevole ad una espressione che contempla la molecola biatomica dell’ossigeno. A me pare una semplice coincidenza, che nasce dal fatto che per il peso atomico dell’ossigeno si è assunto la metà del suo valore.

La relazione è recepita subito da Thomas Thomson (1773-1852), uno dei massimi esponenti della chimica inglese, nel suo rapporto degli Annals of Philosophy del 1816 «Account of the improvements in Physique Science during the Year 1815». Recensisce in modo apprezzabile l’articolo di Proust.

«Il dottor Prout in un documento molto prezioso pubblicato nel sesto volume degli Annali, per primo evidenziò la connessione che esisteva tra la densità e i pesi atomici dei gas e ha dimostrato che il peso specifico di qualsiasi corpo può essere ottenuto moltiplicando il peso del suo atomo per metà del peso specifico dell’ossigeno gassoso. È la stessa cosa che dire che il peso di un “atomo” di ogni corpo è sempre il doppio della sua densità nello stato gassoso. Poiché la teoria dei volumi è estremamente conveniente negli esperimenti chimici, ritengo che sarà interessante per i chimici pratici vedere in una panoramica le relazioni molto semplici che esistono tra i pesi specifici dei corpi gassosi e i pesi dei loro atomi

Nello stesso numero Thomson scrive un articolo «Some Observations on the Relations between the Specific Gravity of Gaseous Bodies and the Weights of their Atoms» in cui semplifica la relazione, facendo riferimento ad una scala dove densità e peso atomico dell’ossigeno sono riportati all’unità. La relazione assume la forma suggestiva:

«Il peso di un atomo è il doppio della sua densità»

La relazione di Prout, a differenza della sua “ipotesi unitaria”, non avrà la stessa risonanza.  A parte Thomson non viene messa in evidenza da altri.

                               La storia sorprendente di Prout narrata nel suo “Bridgewater Treatise”

Con quella relazione Prout ha anticipato quello che in seguito riproporrà in modo corretto e approfondito per arrivare alle stesse conclusioni di Avogadro.  Dopo aver scritto i suoi articoli nel 1815-16, l’impegno e l’interesse di Prout si rivolge alla chimica animale, la fisiologia e l’analisi delle sostanze organiche. Nel 1834 Prout scrive un libro, il “Bridgewater Treatise”, che non è un trattato scientifico per addetti ai lavori, è diretto ad un pubblico allargato, non solo di chimici. Nel trattato raccoglie i frutti delle sue riflessioni fatte in molti anni di lavoro.  È l’ottavo e ultimo di una serie di trattati che furono sovvenzionati nel testamento, datato 1825, dall’ottavo e ultimo conte di Bridgewater, Francis Henry Everton, morto nel 1829. Il progetto si inseriva in quella che è stata chiamata la teologia naturale, la quale voleva dimostrare l’esistenza di Dio attraverso le “meraviglie del suo lavoro”. La Royal Society scelse quale autore dell’ottavo trattato “Chimica, Meteorologia e Funzione della Digestione” il chimico e medico William Prout. Il trattato è diviso in tre libri. Il libro sulla funzione della digestione raccoglie un enorme lavoro innovativo, teorico e sperimentale, che fa di lui un pioniere della moderna biochimica. Il primo, quello dedicato alla “Chimica“ è di grande interesse.

 A parte pochi storici della scienza, chi conosce oggi che la trasmissione del calore per conduzione, convezione e irraggiamento è stata definita per primo da Prout nel trattato, o che Prout, in modo chiaro, ha affermato e accettato, molto prima della maggior parte dei chimici, quella che oggi riconosciamo come legge di Avogadro?

Vediamo a proposito alcune parti di questo libro.

Quale è la visione, in sintesi, che vi emerge della materia e delle interazioni tra atomi e molecole? Prout rivolge la sua attenzione alle sostanze omogenee e per primo allo stato solido cristallino prendendo come esempio il ghiaccio. Osserva che se tra le molecole agissero forze, che come le gravitazionali sono dirette in ogni direzione, non si spiegherebbe l’ordine mostrato nei cristalli.

«. È ovvio, quindi, che le ultime molecole dei corpi sono influenzate da altri poteri oltre a quelli di semplice inerzia e attrazione: qual è la natura di questi poteri

Il termine molecola, per Prout, comprende sia le molecole elementari (atomi) che le molecole composte. Prout riprende l’idea di Davy sulla proprietà delle molecole di ruotare e vibrare estendendola alla formazione nella molecola di poli elettrici e magnetici tra loro ortogonali. Il fondamentale esperimento di Oersted (1820), il quale aveva stabilito l’esistenza di un campo magnetico distribuito in circonferenze concentriche al filo conduttore, viene trattato come un modello di una situazione a livello molecolare. Le molecole, supposte sferoidali, ma non necessariamente, erano rappresentate così: 

Attraverso l’asse elettrico si esercita l’attrazione chimica soprattutto tra molecole eterogenee, elementi e composti, mentre gli assi magnetici sono responsabili delle forze di coesione tra molecole omogenee. In un cristallo come il ghiaccio sono presenti entrambe le forze, quelle chimiche tra idrogeno e ossigeno nella molecola di acqua e quelle magnetiche, coesive, tra molecole di acqua.

«Alla luce delle precedenti considerazioni delle forze molecolari, ne consegue che ogni molecola, e aggregato cristallino di molecole, deve possedere un asse (come quello ad esempio che unisce le polarità Ee nelle figure precedenti), avente poteri e proprietà totalmente differenti dagli altri due assi e polarità Mm, M’m’. Questo asse Ee, a titolo di distinzione, può essere chiamato asse e polarità chimico. Gli altri due assi, e in effetti ogni altro asse che si possa supporre tracciato per il centro, da punti opposti della superficie della molecola, probabilmente possiedono proprietà comuni, e possono essere chiamati assi e polarità coesivi»

La descrizione che fa Prout di due tipi di legame quello chimico e quello coesivo, a cui fa corrispondere due realtà fisiche, quella della molecola e quella degli aggregati molecolari, al di là dell’ingenua trasposizione delle proprietà elettriche  dal macroscopico al microscopico, contiene una grande intuizione:  gli assi polari elettrici sono gli assi chimici e il legame che ne deriva è direzionale, e può coinvolgere  atomi e molecole eterogenei, mentre per gli assi magnetici o assi coesivi, che non sono limitati a solo due , sono possibili più alternative direzionali, da essi dipendono le varie forme cristalline, intese come aggregazioni tra molecole e in generale le interazioni tra parti omogenee.

La descrizione fa venire in mente la distinzione tra il legame covalente e i legami intermolecolari, dipolo – dipolo, forze di Van Der Waals, legame a idrogeno ecc.

(L’attenzione di Berzelius, che ha dominato la chimica nella prima metà dell’ottocento, non si è mai rivolta ai legami intermolecolari.)

L’esistenza di dipoli permanenti, elettrico e magnetico nell’atomo o nella molecola è fondamentalmente diversa dalla descrizione di Berzelius, per il quale nell’atomo e nella molecola c’è la predominanza di un solo polo.  La conseguenza è che per Prout è possibile un legame tra atomi e molecole della stessa natura, mentre questo non accade nel modello di Berzelius. Vedremo nella seconda parte dell’articolo le conseguenze che trarrà da questo Prout.

L’ipotesi della polarità era un modello con il quale Prout spiegava anche i cambiamenti di fase. Come nella teoria di Dalton, supponeva che il calorico formava una atmosfera intorno alle particelle, fino a quando all’aumentare del volume complessivo della molecola si indebolivano le forze di coesione magnetica in modo che si verificava una rotazione delle molecole attorno ai loro assi di polarità. Questo allentamento del legame spiegava la formazione e le diverse proprietà dello stato della materia liquido e gassoso. Il modello di Prout comprendeva la presenza, accanto ai due tipi di attrazione, anche di due corrispondenti tipi di repulsione. Il passaggio dal liquido al gassoso vedeva il prevalere delle forze di repulsione, con il raggiungimento della libertà di movimento delle molecole che chiamava self repulsive molecule. Partendo da questo suo modello dipolare, Prout riesce a dimostrare per reductio-ad-absurdum che le note leggi dei gas e la stessa capacità termica che possiedono i gas alle stesse condizioni, sono comprensibili solo supponendo che «tutti i corpi «gassosi, sotto le stesse condizioni di temperatura e pressione contengono lo stesso numero di self-repulsive molecules». In una nota a fondo pagina Prout avvisa il lettore:

«È doveroso osservare che queste opinioni furono adottate dall’autore molto prima che fosse a conoscenza dell’esistenza dei saggi sull’argomento dei signori Avogadro, Ampère e Dumas. In effetti non conosceva quelli di Dumas, che quasi somigliano ai suoi, finché non li ha visti accennati nel recente rapporto di Johnston sulla chimica nelle Transazioni della British Association (1832)».

È interessante notare che Avogadro (1811) non ha dedotto la stessa ipotesi in questo modo, cioè dal comportamento identico di tutti i gas ai cambiamenti di temperatura e pressione, ma puramente da considerazioni della legge di combinazione dei volumi di Gay-Lussac. Non c’è particolare ragione quindi di dubitare dell’affermazione di Prout che egli arriva alla sua legge molecolare «molto prima che fosse venuto a conoscenza del saggio sull’argomento di Avogadro, Ampere, e Dumas.»

(Un suggerimento per gli insegnanti: il percorso che fa Prout per dimostrare il principio di Avogadro, da Prout scoperto indipendentemente, è proponibile in un corso di chimica di base per la sua accessibilità e relativa semplicità.)

Vedremo nella seconda parte dell’articolo come Prout arrivi ad ipotizzare le molecole dei gas elementari biatomiche in modo più chiaro ed efficace di quanto abbia fatto Avogadro.

                                                             Segue 2a PARTE

                                       “William Prout come Amedeo Avogadro”

Chimica analitica e depurazione.

In evidenza

I

Mauro Icardi

Il processo di depurazione biologica delle acque reflue si basa su complessi meccanismi chimici, fisici e biologici, strettamente connessi, che consentono la rimozione della sostanza inquinante e l’ottenimento di un effluente chiarificato e idoneo per essere restituito all’ambiente. L’efficienza del sistema (da cui dipende il rispetto dei limiti di legge) si ottiene attraverso un’attenta e corretta gestione dell’impianto.

Il gestore di un impianto dovrà quindi valutare quali siano i parametri da monitorare, la frequenza di prelievo, i punti di campionamento significativi per valutare la resa complessiva del processo depurativo.  La scelta dei parametri da rilevare presuppone la conoscenza  approfondita di cosa significhino le concentrazioni rilevate, e del significato che assumono in relazione alle varie fasi del processo depurativo.    I dati, infatti, servono per fornire informazioni  utili e facilmente interpretabili per consentire la buona conduzione dell’impianto e, quando necessario, interventi mirati per la soluzione di eventuali anomalie nel processo depurativo. Il campionamento costituisce la prima fase di ogni procedura analitica e pertanto deve essere eseguito in modo da non falsare i risultati finali. Il campione deve essere prelevato con una frequenza adeguata per assicurarne la rappresentatività.

La necessità da parte del gestore di un impianto di trattamento delle acque reflue di seguire in tempo reale l’evolversi di situazioni critiche per il processo biologico e, in alcuni casi, la difficoltà nel dotare gli impianti di un laboratorio chimico preposto ai controlli analitici, hanno portato alla diffusione e all’utilizzo di metodiche semplificate, alternative a quelle consigliate dall’IRSA – CNR e di “kit” per l’esecuzione delle analisi da laboratorio. Le metodiche IRSA – CNR prevedono infatti, in molti casi, l’utilizzo di apparecchiature costose e sofisticate e implicano una procedura molto lunga.  Questo  ne rende poco agevole l’applicazione nel monitoraggio degli impianti di depurazione, relativamente ai controlli di routine. Metodiche alternative (di semplice esecuzione e aventi costi più contenuti) sono suggerite da Enti e associazioni e sostituiscono frequentemente i cosiddetti “metodi ufficiali”.   Qualsiasi metodica si intenda adottare, è necessario che il laboratorio ne documenti la validazione e la riferibilità ai metodi cosiddetti ufficiali o riconosciuti internazionalmente , al fine di consentire il confronto dei dati ottenuti. L’applicazione di queste procedure serve a confermare  l’attendibilità dei dati che il gestore deve, a norma di legge, trasmettere all’Autorità di controllo.

 I kit trovano ampia diffusione, sia presso impianti con potenzialità medio-grande (molti dei quali dotati di laboratori attrezzati), sia presso gli Enti preposti al controllo. I principali vantaggi pratici, connessi al loro utilizzo, sono principalmente: facilità di esecuzione analitica; tempi brevi per l’ottenimento dei risultati;  utilizzo controllato di reagenti tossici o pericolosi; smaltimento degli stessi da parte dei fornitori (in alcuni casi); possibilità di utilizzo anche da parte di personale non specializzato. I kit presentano costi più elevati rispetto ai reagenti necessari per l’esecuzione delle analisi secondo le metodiche ufficiali, ma, considerando il costo analitico complessivo (personale addetto, strumentazione, manutenzione e struttura del laboratorio, smaltimento dei reagenti) i due sistemi sono confrontabili in caso di bassa numerosità di campioni.  L’utilizzo dei kit presenta alcune problematiche generali relative ai seguenti aspetti:  il volume di campione da sottoporre ad analisi, in alcuni casi è molto ridotto, l’operatore di laboratorio deve pertanto intervenire per renderlo idoneo all’analisi. L’uso dei test in cuvetta è ottimale nei controlli in campo e in tempo reale per verificare eventuali anomalie nel funzionamento dell’impianto. Consente anche di effettuare il bilancio delle specie chimiche che concorrono alle principali fasi di trattamento (rimozione dei composti organici biodegradabili, e di trasformazione dei substrati, controllo della fase nitro/denitro). E’ buona prassi però confrontare periodicamente i dati utilizzando metodi ufficiali. Questo perché le corrette regolazioni dei parametri di processo possono ridurre i costi di gestione di un impianto, oltre a garantire il più possibile il rispetto dei limiti di norma. I test in cuvetta, come peraltro le metodiche convenzionali, sono soggetti a interferenze.  Nelle acque reflue che confluiscono all’impianto di trattamento,  possono essere contenute diverse tipologie di molecole interferenti. Vediamo ora quali sono sia  i problemi , che le semplificazioni nell’utilizzo di alcuni test analitici presenti in commercio.

Determinazione del COD.

Poiché il volume di campione utilizzato nell’analisi risulta estremamente ridotto, si introduce un errore significativo, soprattutto nel caso di acque contenenti concentrazioni rilevanti di solidi sospesi (soprattutto nel caso di prelievi effettuati sui liquami in ingresso agli impianti). Il campione deve quindi essere omogeneizzato accuratamente prima di essere sottoposto ad analisi .  

Determinazione della concentrazione dello ione ammonio.

 Il metodo di determinazione secondo Nessler presenta in alcuni casi il problema della formazione di torbidità, dovuta a reazioni secondarie che intervengono in aggiunta a quella colorimetrica principale. I kit che utilizzano questo metodo, quindi, in modo analogo alla metodica secondo l’IRSA, presentano questo tipo di limitazione, associata al metodo stesso e non all’utilizzo dei kit. Il metodo di determinazione al cloro-indofenolo invece, risulta essere  più idoneo per l’analisi dello ione ammonio e non presenta controindicazioni rilevanti. Per eliminare le interferenze dovute alla torbidità si può ricorrere ad una preventiva filtrazione del campione attraverso membrana da 45 µm.

 Determinazione della concentrazione di tensioattivi.

I kit in commercio per la determinazione dei tensioattivi risolvono il problema della preparazione dei reagenti, che contengono molecole pericolose, semplificando e riducendo i tempi dello svolgimento analitico successivo.

Analisi dei metalli.

L’analisi dei metalli utilizzando kit è applicabile esclusivamente alle specie in soluzione, ma non nel caso di matrici solide, come ad esempio per i fanghi. In impianti che trattano prevalentemente reflui di origine civile l’apporto di metalli in soluzione è molto contenuto.

Ma insomma la transizione dov’è?

In evidenza

Luigi Campanella, già Presidente SCI

Voglio tornare sul vertice dei leader per il clima “Leaders Climate Summit 2021″convocato dal presidente americano Joe Biden cambiando l’atteggiamento USA in era trumpiana rispetto al tema.
La prima impressione non può essere che positiva: si sono ripetuti impegni e traguardi che vengono enunciati sempre in questo tipo di incontri. Si e ripetuto che questo è il decennio chiave per la lotta ai cambiamenti climatici. Anche il nostro Paese attraverso il presidente Draghi ha ribadito la sua volontà di cambiare marcia “whatever it takes”.

Dopo la prima impressione vengono le domande: gli Usa secondo Biden dovrebbero in 10 anni dimezzare le proprie emissioni; come è possibile ciò se si pensa all’attuale stile di vita degli americani? Se non ci si vuole trovare al prossimo evento a constatare che siamo in ritardo quali azioni (non solo norme) si intende svolgere? Con riferimento poi al nostro Paese il presidente Draghi ha posto l’accento sulla definizione del Piano Nazionale di Ripresa e Resilienza che consentirà all’Italia di ricevere contributi a vario titolo e modalità per più di 200 miliardi di euro dell’EU Next Generation Fund. Nonostante una certa enfasi su transizione ecologica e green deal é tutto da verificare quanto i combustibili fossili resteranno fuori dal PNRR.
I progetti riportati sono abbastanza datati ed il dubbio è perché non siano stati ancora finanziati. Circa gli interventi strutturali quelli ad esempio in favore dei porti preoccupano, oltre al rapporto di certo non virtuoso con la decarbonizzazione della società civile, i tempi di realizzazione che suggerirebbero di collocarli eventualmente in quella che qualcuno, con riferimento ad eventi calcistici, ha definito la superlega dei progetti fossili, una sorta di transizione nazionale non-ecologica.
C’è poi il rapporto con i giganti che condizionano la politica energetica nazionale ed internazionale ed il cui business ruota in maniera preponderante sui combustibili fossili, parlo di Eni,Snam, Enel. Non sono i fondi europei che possono cambiare questo rapporto, ma il coraggio della politica. Nel frattempo l’estrazione di greggio continua con le nuove trivellazioni in Adriatico, in Val d’Agri, nel più grande campo on Shore di Europa, la situazione Ilva non viene risolta anche per intenzione del Governo, la Sace sta valutando di garantire con miliardi di euro l’operato di società italiane in nuovi mega progetti fossili in Africa, nell’Artico ed in Brasile.Il futuro immediato ci dirà quanto il valore del rapporto fra fossili e rinnovabili ed il suo spostamento in favore di queste ultime veramente sia nella mente e nelle azioni dei nostri governanti.

Alcune specie di battéri potrebbero degradare i PFAS?

In evidenza

Rinaldo Cervellati

Sulla base di recenti ricerche, è quello che si chiede XiaoZhi Lim*, in uno speciale di Chemistry & Engineering news del 21 marzo 2021 (Vol. 99, numero 10).

Lim parte dalla considerazione che per tre decenni, dagli anni ’40, la General Electric ha scaricato solventi dai suoi impianti di produzione nel fiume Hudson (New York), contaminandolo con bifenili policlorurati[1] (PCB). Gli scienziati si sono preoccupati del modo migliore per ripulire il fiume dagli inquinanti, ritenendo che i PCB fossero completamente non biodegradabili, come sostenuto da biochimici consultati dall’azienda agli inizi degli anni ’80.

Tuttavia, l’analisi dei nuclei di sedimenti estratti dal fiume durante gli anni ’80 ha mostrato che i PCB stavano lentamente perdendo i loro atomi di cloro e trasformandosi in idrocarburi non dannosi. Successivamente, gli scienziati hanno stabilito che la trasformazione è stata eseguita da microorganismi [1].

Ora, i ricercatori studiano la possibilità che alcuni ceppi batterici possano fare una analoga trasformazione per le sostanze per- e polifluoroalchiliche[2] (PFAS). Utilizzati nei prodotti per la cura personale, in schiume antincendio, rivestimenti antimacchia e membrane per la produzione di cloroalcali, e altre applicazioni, i PFAS hanno forti legami carbonio-fluoro che li rendono difficili da degradare e sono diventati un contaminante di alto profilo, inquinando aree vicino agli impianti che li producono o utilizzano e siti militari come le basi aeree. (Dei PFAS si sono occupati alcuni post su questo blog).

Figura 1. I batteri Dehalococcoides (cellule rotonde) che possono abbattere i composti clorurati potrebbero anche essere indotti a degradare i composti fluorurati. Altri microrganismi mostrati in questa coltura cellulare sono Desulfovibrio vulgaris (cellula curva con superficie ruvida) e un metanogeno (cellula a forma di bastoncello). © Yujie Men

Usualmente, per trattare l’acqua contaminata, i rimedi prima concentrano i PFAS, tipicamente tramite un filtro a carbone attivo, e poi inceneriscono i filtri saturi ad alte temperature. Tuttavia molte evidenze dimostrano che l’incenerimento è dannoso perché i PFAS invece che degradarsi si possono diffondere nell’atmosfera (ilblogdellasci.wordpress.com/2020/06/19/gli-inceneritori-possono-diffondere-i-pfas-non-eliminarli).

Quindi, la bonifica biologica potrebbe essere più conveniente per bassi livelli di PFAS in grandi volumi di materiale contaminato. Finora tuttavia non è stato trovato alcun organismo in grado di defluorizzare completamente i PFAS, ma i ricercatori hanno motivo di credere che alcuni microorganismi potrebbero fare questo lavoro: mai dire mai in termini di ciò che non possono gestire.

Nel suo libro di testo del 1951, The Chemical Activities of Bacteria, il microbiologo britannico Ernest Gale avanzò l’ipotesi dell’”infallibilità microbica”: se c’è energia da ottenere da un composto, un microrganismo sarà in grado di estrarla e creare una nicchia per se stesso [2].

Per esempio, dopo il disastro ambientale della piattaforma Deepwater Horizon, nel 2009, e la fuoriuscita di petrolio, gli scienziati hanno scoperto che i microorganismi hanno fagocitato la maggior parte dei composti idrocarburici ricchi di energia che si sono riversati nel Golfo del Messico, risolvendo parte del problema in modo naturale.

I composti alogenati come i PCB contengono molta meno energia degli idrocarburi, ma i battéri possono ancora usarli [3]. Nel fiume Hudson, il genere di battéri Dehalococcoides, che vive in ambienti poveri di ossigeno nei sedimenti, trasferisce elettroni ai PCB, riducendoli ed espellendo gli ioni cloruro, spiega Wackett [3].

Rolf U. Halden, un ingegnere ambientale dell’Arizona State University, è molto scettico, sostenendo che in effetti i Dehalococcoides sono dealogenatori obbligati, nel senso che possono sopravvivere solo scaricando i loro elettroni su composti organici clorurati. Ma ci sono differenze significative tra i PFAS e le loro controparti clorurate. Per iniziare, i legami carbonio-fluoro sono molto più forti e più difficili da rompere rispetto ai legami carbonio-cloro. Ancora più importante, i battéri si sono evoluti insieme a migliaia di composti clorurati presenti in natura, quindi quando i Dehalococcoides incontrano inquinanti clorurati prodotti dall’uomo come i PCB o il tricloroetilene (TCE), non li percepiscono come completamente estranei. Dice Halden: “Questi organismi esistevano prima che creassimo  il TCE. Ma i composti fluorurati presenti in natura sono rari; solo il fluoroacetato è ben studiato nelle piante e contiene un solo atomo di fluoro. I PFAS, al contrario, specialmente quelli perfluorurati, sono avvolti in atomi di fluoro. Questo li rende quasi a prova di proiettile”.

I PFAS sono così stabili che uno dei progetti SERDP, finanziati dal Dipartimento USA della difesa, che studiano metodi biologici per distruggere i PFAS, ha dimostrato che i metodi di degradazione chimica precedentemente riportati non funzionano. Pedro J. J. Alvarez, un ingegnere ambientale presso la Rice University, aveva lavorato con batteri in grado di produrre abbondanti quantità di superossido al di fuori delle loro cellule. Alvarez ha letto che il superossido generato dalla decomposizione del perossido di idrogeno potrebbe abbattere l’acido perfluoroottanoico (PFOA), uno dei PFAS più comuni presenti nell’ambiente [4], quindi ha proposto che i batteri che generano superossido potrebbero forse degradare i PFAS. Egli e i suoi colleghi hanno scoperto, tuttavia, che il superossido generato chimicamente o enzimaticamente non è in grado di abbattere il PFOA [5]. Quando Alvarez e il suo team hanno scavato più a fondo, hanno scoperto che anche un’altra sostanza studiata per la degradazione del PFOA, i radicali idrossilici, non poteva degradarlo [6].

Ma Alvarez non si scoraggia: i batteri sono efficaci anche quando è presente ossigeno, che potrebbe competere con il TCE come accettore di elettroni. Poiché il TCE è un co-contaminante comune con i PFAS, Alvarez pensa che i batteri che generano superossido potrebbero ancora rivelarsi utili eliminando altri inquinanti che possono interferire con i processi di bonifica che prendono di mira i PFAS. Inoltre crede nell’ipotesi dell’infallibilità microbica, sostenendo che un batterio troverà un modo per utilizzare anche composti resistenti come i PFAS.

Jinxia Liu, ingegnere ambientale presso la McGill University, afferma che un fattore chiave per la facilità con cui un microorganismo può abbattere un composto fluorurato è che la molecola contenga un punto vulnerabile agli attacchi, come un legame carbonio-idrogeno. Liu studia la biotrasformazione di composti polifluorurati chiamati fluorotelomeri[3] da oltre un decennio. I fluorotelomeri come l’acido 6:2 fluorotelomero solfonico, che viene utilizzato nelle schiume antincendio, contengono un tale punto suscettibile all’azione microbica.

I batteri aerobici del genere Gordonia compiono una ben nota trasformazione sui fluorotelomeri: consumano la parte solfonata, lasciando un acido carbossilico perfluorurato altamente persistente (figura 2).

Liu ha osservato prodotti di biotrasformazione perfluorurati che sono uno o due atomi di carbonio più corti, suggerendo che Gordonia sarebbe anche in grado di tagliare la coda fluorurata un carbonio alla volta. Afferma che in teoria si potrebbe defluorare completamente un fluorotelomero, e i calcoli mostrano che il processo è energeticamente favorevole.

Figura 2. I batteri Gordonia possono sminuzzare le lunghe code dei fluorotelomeri, come l’acido fluorotelomero solfonico 6:2 (in alto) e il fluorotelomero sulfonammide alchilbetaina 6:2 (in basso).

Tuttavia, il gruppo di Liu ha osservato che la rimozione di solito si interrompe dopo due cicli. I ricercatori stanno lavorando per capire perché la defluorizzazione si arresta e come spingere i batteri a ripetere la rimozione fino a quando tutti gli atomi di fluoro non saranno scomparsi.

Nelle molecole perfluorurate insature (figura 3), la parte contenente il doppio legame potrebbe servire come necessario punto di debolezza. Yujie Men, dell’Università della California a Riverside, ha incubato una coltura microbica KB1 disponibile in commercio che viene utilizzata per la declorazione e che include i batteri Dehalococcoides, con lattato e una varietà di molecole perfluorurate. Il lattato fornisce elettroni per i batteri, mentre i PFAS agiscono come accettori di elettroni. I microorganismi hanno degradato il 100% di una molecola perfluorurata insatura, ((E) -perfluoro (acido 4-metilpent-2-enoico)), dopo 130 giorni,  e più del 90% di un’altra (4,5,5,5-tetrafluoro-4- acido (trifluorometil) -2-pentenoico) dopo 70 giorni, rispetto a nessuno dei composti perfluorurati saturi [7].

Figura 3. Una coltura microbica disponibile in commercio potrebbe degradare PFAS insaturi come l’acido (E) -perfluoro (acido 4-metilpent-2-enoico) (a sinistra) e l’acido 4,5,5,5-tetrafluoro-4- (trifluorometil) -2-pentenoico (a destra).

Il gruppo di ricercatori ha identificato intermedi suggerendo che due reazioni iniziali, con effetti opposti, competono durante il processo di biotrasformazione. I microorganismi potrebbero sostituire gli atomi di fluoro sugli atomi di carbonio del doppio legame con atomi di idrogeno, rendendo così la molecola più vulnerabile a una defluorizzazione aggiuntiva. Oppure potrebbero aggiungere due atomi di idrogeno attraverso il doppio legame, creando un composto saturo più resistente alla deflorazione (figura 4).

Figura 4. Illustrazione del processo descritto da Men ©ACS.

Men sta lavorando per identificare i batteri specifici responsabili delle reazioni e degli enzimi coinvolti.

Per quanto riguarda il PFOA e l’acido perfluorottano solfonico (PFOS), che non contengono punti deboli, un batterio originario delle zone umide del New Jersey potrebbe essere in grado di defluorurarli [8]. Peter Jaffé e il suo gruppo dell’Università di Princeton hanno studiato A6, un ceppo del batterio Acidimicrobium, dal 2005. Questo microorganismo esegue una reazione chiamata Feammox, in cui trasferisce gli elettroni dagli ioni ammonio agli ioni ferro(III) nel terreno acido.

Il team di Jaffé ha sequenziato il genoma di A6 e ha notato che aveva geni che codificano per le alogenasi. Alcuni di loro erano piuttosto nuovi e il team ha quindi deciso di vedere cosa succede quando ad A6 viene somministrato solo PFAS come unica fonte di carbonio. In oltre 100 giorni di incubazione con PFOA o PFOS (figura 5), i ricercatori hanno riscontrato una scomparsa costante fino al 60% dei composti, con un conseguente aumento del carbonio organico disciolto e degli ioni fluoruro (figura 6).

Figura 5. Un ceppo noto come A6 del microbo Acidimicrobium può degradare l’acido perfluoroottanoico (PFOA) e l’acido perfluorottano solfonico (PFOS).

Figura 6. Illustrazione del metodo di Jaffé. © ACS

Jaffé sta ora collaborando con Wackett, dell’Università del Minnesota, per decifrare i meccanismi alla base del potere defluorizzante di A6. Wackett sta usando una combinazione di tecniche computazionali e sperimentali per identificare gli enzimi e i geni che potrebbero essere responsabili.

Bruce E. Rittmann (Arizona State University), sta adottando un duplice approccio alla degradazione del PFAS, iniziando con un catalizzatore di palladio per defluorizzare parzialmente (tubo sinistro) il PFAS seguito dai batteri per finire il lavoro (tubo destro), v. figura 7.

Figura 7.  Duplice approccio alla degradazione del PFAS, iniziando con un catalizzatore di palladio per defluorizzare parzialmente (tubo sinistro) il PFAS, seguito dai batteri per completare il lavoro (tubo destro).© Bruce E. Rittmann

In laboratorio, i ricercatori possono creare le condizioni ideali affinché i batteri si nutrano di PFAS o addirittura costringerli a farlo. La distribuzione di microbi nell’ambiente per la bonifica in situ, tuttavia, presenta sfide significative. Halden osserva che gli studi di Jaffé e Men hanno utilizzato alte concentrazioni di PFAS. Ma nell’ambiente reale, anche se i PFAS sono presenti in alcuni luoghi a livelli pericolosi per la salute delle persone, esistono in generale a concentrazioni di parti per miliardo.

Inoltre, ci sono molte altre prelibatezze nell’ambiente con cui i batteri possono banchettare ed è difficile controllare ciò che scelgono. I ricercatori hanno notato i microbi nella cultura commerciale KB1 passare dal consumo di PFAS al consumo di un’alternativa come TCE quando è presente. Men afferma: “È molto difficile perché è come se stessi chiedendo a qualcuno di mangiare erba piuttosto che cibo normale”.

Se l’azione microbica può essere sfruttata in modo economico dipenderà anche dal sito contaminato, afferma Alvarez. Un parametro chiave è la velocità con cui l’acqua trasporterà i PFAS da un particolare sito a un altro luogo: se la migrazione è lenta, i rimedi possono utilizzare un lento processo di degradazione microbica, ma se il tasso di migrazione è veloce, è meglio cercare una soluzione più aggressiva e più rapida per proteggere la salute pubblica.

Un’opzione più fattibile è la bonifica ex situ, in cui il materiale contaminato viene pompato via e trattato in un bioreattore isolato in condizioni controllabili. In un impianto di trattamento, la bonifica biologica può anche essere abbinata alla bonifica chimica. Rittmann sta adottando un tale approccio in due fasi.

La nostra strategia si basa sulla consapevolezza che non saremo in grado di biodegradare direttamente questi PFAS. Dobbiamo iniziare il lavoro per i microrganismi“, afferma Rittmann. Nella strategia di Rittmann, i PFAS passano prima attraverso una reazione di idrogenazione con un catalizzatore al palladio, che sostituisce alcuni degli atomi di fluoro con idrogeno. Quindi, il materiale parzialmente defluorizzato viene somministrato a un gruppo eterogeneo di microbi che completano il lavoro di defluorizzazione. Rittmann ha dimostrato con successo i passaggi individualmente e ora sta lavorando per collegarli in una configurazione a due fasi. Il gruppo sta anche studiando varie questioni, come la quantità di defluorizzazione richiesta nella prima fase e quali sono i prodotti di biotrasformazione.

Liu di McGill sta collaborando con la microbiologa Nancy N. Perreault del Consiglio nazionale delle ricerche canadese per esplorare la biodegradazione microbica del PFOS dopo che ha ricevuto un trattamento fotochimico che lo defluorizza parzialmente.

Attualmente, i microbi studiati per la degradazione dei PFAS crescono troppo lentamente e le loro prestazioni di defluorizzazione non sono sufficienti per alcun rimedio pratico per la contaminazione ambientale dei PFAS, dice Men. Tuttavia, a rischio di sembrare troppo ottimista, Men afferma di sperare che i batteri alla fine saranno all’altezza della sfida: “I batteri hanno un potenziale davvero enorme e si evolvono molto velocemente“.

Indipendentemente dal fatto che i microbi siano o meno in grado di eliminare i PFAS, la maggior parte dei ricercatori concorda sul fatto che l’uso dei PFAS dovrebbe essere limitato. Nonostante l’eliminazione graduale volontaria e persino i divieti internazionali su alcuni PFAS, circa 1.400 PFAS vengono ancora utilizzati in 200 applicazioni, in quasi tutti i settori. Alcune applicazioni, come apparecchiature mediche e membrane di cloroalcali, potrebbero giustificare l’uso di PFAS. Ma i PFAS potrebbero non essere richiesti per altri prodotti, come erba sintetica, corde di chitarra o giacche impermeabili per bambini. Dobbiamo esaminare più a fondo ciò che è veramente necessario e ciò che non lo è.

* XiaoZhi Lim è uno scrittore freelance con sede a Medfield, Massachusetts. Una versione di questa storia è apparsa per la prima volta su ACS Central Science: cenm.ag/pfas-microbe.

Bibliografia

[1] J.F. Brown et al., Polychlorinated Biphenyl Dechlorination in Aquatic Sediments., Science, 1987, 236, 709-712.

[2] E. F. Gale, The Chemical Activities of Bacteria, Academic Press, London, 1951.

[3] L.P. Wackett, S.L. Robinson, The ever-expanding limits of enzyme catalysis and biodegradation: polyaromatic, polychlorinated, polyfluorinated, and polymeric compounds., Biochemical Journal, 2020, 477, 2875–2891.

[4] S.M. Mitchell et al., Degradation of Perfluorooctanoic Acid by Reactive Species Generated through Catalyzed H2O2 Propagation Reactions., Environ. Sci. Technol. Lett., 2014, 1, 117−121.

[5] H. Jawed et al., Discerning the Relevance of Superoxide in PFOA Degradation., Environ. Sci. Technol. Lett., 2020, 7, 653−658.

[6] H. Javed et al., Discerning the inefficacy of hydroxyl radicals during perfluorooctanoic acid degradation., Chemosphere, 2020, 247, DOI: 10.1016 / j.chemosphere.2020.125883

[7] Y. Yu et al., Microbial Cleavage of C−F Bonds in Two C6 Per- and Polyfluorinated  Compounds via Reductive Defluorination., Environ. Sci. Technol. 2020, DOI: 10.1021/acs.est.0c04483

[8] S. Huang, P.R. Jaffé, Defluorination of Perfluorooctanoic Acid (PFOA) and Perfluorooctane Sulfonate (PFOS) by Acidimicrobium sp. Strain A6., Environ. Sci. Technol., 2020, DOI: 10.1021 / acs.est.9b04047


[1] I bifenili policlorurati o policlorobifenili (PCB) sono composti organici clorurati con formula C12H(10−xClx). I PCB furono ampiamente utilizzati come fluidi dielettrici e refrigeranti negli apparecchi elettrici, nella carta da copia senza carbone e nei fluidi per il trasferimento di calore. Con la scoperta della loro tossicità ambientale e la classificazione come inquinanti organici persistenti, la loro produzione è stata vietata da una legge federale degli Stati Uniti nel 1978, in Italia dal 1983. La Convenzione di Stoccolma sugli inquinanti organici persistenti li ha banditi nel 2001.

[2] I PFAS sono sostanze per- e polifluoroalchiliche, una vasta classe di composti chimici sintetici tra cui: acido perfluoroottanoico (PFOA), che è tra gli acidi carbossilici perfluorurati (PFAA)s, il perfluorottano solfonato (PFOS) e GenX (una sostituto del PFOA a catena di carbonio più corta).

[3] I fluorotelomeri sono oligomeri a base di fluorocarburi, o telomeri, sintetizzati mediante telomerizzazione, una reazione di polimerizzazione radicalica in cui un trasferimento di catena limita le dimensioni del prodotto molecolare dell’oligomero. Alcuni fluorotelomeri e composti a base di fluorotelomero sono una fonte di acidi carbossilici perfluorurati persistenti per l’ambiente come PFOA e PFNA.

Acqua virtuale e altre storie.

In evidenza

Claudio Della Volpe

Il primo ad introdurre il concetto di acqua virtuale è stato nel 1993 il professore di geografia John Anthony Allan del King’s College London e della School of Oriental and African Studies, che per questo ha ricevuto, nel 2008, lo Stockholm Water Prizeda parte dello Stockholm International Water Institute.

Si tratta di questo: quanta acqua viene usata nella produzione di una certa merce? Per vari motivi quell’acqua viene considerata come “irreversibilmente” spostata dal ciclo dell’acqua della zona di produzione e si considera che la merce considerata “trasporti” con sé l’acqua usata la quale in qualche modo diventa una sua parte virtuale. Se dunque quella merce viene esportata l’acqua virtuale entra (o entrerebbe) a far parte di fatto del bilancio dell’acqua della zona di importazione.

E’ chiaro che si tratta di una approssimazione anche abbastanza forte dal punto di vista fisico, perché nella maggior parte dei casi l’acqua rimane nella zona di produzione, ma viene spostata dal ciclo naturale! Questo è il punto fisico vero: evapora, si inquina, si sposta dal percorso naturale; se è una acqua geologica (prodotta da processi geologici su grande scala e tempi lunghi) ovviamente il suo uso è effettivamente un processo irreversibile; ma diciamo che in generale è una approssimazione che aiuta a stimare i fenomeni socioeconomici con maggiore completezza.

Ovviamente occorre un grano di sale nella sua analisi.

Affine a questo il concetto di impronta idrica che però si riferisce ai consumi di una comunità o di una persona e in più aggiunge l’indicazione dei punti geografici di captazione, delle modalità esatte di impiego e del tempo in cui l’acqua viene utilizzataintroducendo a questo scopo dei “colori” dell’acqua.

Inizialmente si pensava che l’acqua fosse impiegata principalmente nella produzione agricola, ma studi più ampi hanno consentito di concludere che l’acqua impiegata per la produzione industriale in un paese come il nostro è nella maggior parte impiegata nell’industria, nella produzione di energia, per usi civili e che solo un 40-45% viene impiegata nell’agricoltura; valori analoghi  nella media dei paesi europei.

Di che numeri stiamo parlando? Il ciclo dell’acqua implica una enorme quantità di processi paralleli.

Sulla terraferma la quantità di acqua che cade in tutte le forme assomma a poco più di 100mila km3 all’anno, ma solo un terzo di questa quantità rimane in forma condensata, mentre il resto rievapora; dunque, eccettuato l’oceano, l’acqua liquida o solida che cade attorno a noi ogni anno corrisponde a poco più di 35mila km3.

Si stima che noi intercettiamo più del 10% di questa quantità, circa 4mila km3, per i nostri scopi: agricoli, industriali, civili ed energetici. Nel nostro paese da dati Istat citati qui (impronta dell’acqua)

(Da https://www.greenreport.it/news/acqua/acqua-industria-ed-energia-litalia-vista-luso-del-suo-oro-blu/  ).

per sommi capi ed escludendo l’approvvigionamento a mare (che assomma comunque a 16 km3 per il raffreddamento delle centrali termiche), l’industria manifatturiera italiana utilizza ogni anno 5,5 km3 di acqua dolce, le centrali termoelettriche 2,2 km3, i cittadini 5,2 km3 dalle reti comunali, e il settore dell’agricoltura 11,6 km3: 24,8 km3 in totale, una somma assai rilevante.

Fra l’altro apprendiamo da questi dati che “Con 681 milioni di metri cubi, il settore della chimica e dei prodotti chimici è quello che ne ha impiegati di più, seguito dal settore della gomma e materie plastiche (645 milioni di metri cubi)

In modo analogo la media europea è la seguente:

(https://www.eea.europa.eu/archived/archived-content-water-topic/water-resources/water-use-by-sectors)

On average, 44 % of total water abstraction in Europe is used for agriculture, 40 % for industry and energy production (cooling in power plants), and 15 % for public water supply.

Questi numeri sono notevolmente diversi in lavori od analisi più datati con stime che salgono addirittura ad oltre il 90% per la sola agricoltura, dunque occorre fare attenzione alla sorgente dei dati, soprattutto perché le metodologie usate per i calcoli possono essere molto varie.

Un esempio di questi problemi di interpretazione lo ho avuto facendo una accesa discussione nelle scorse settimane con un altro collega che si richiamava ai risultati di un gruppo di lavoro di UniMi e secondo il quale collega, usando il grafico sottostante,:

La Cina è la principale destinataria di questi flussi che provengono prevalentemente da USA e Brasile. Il totale stimato del commercio di acqua virtuale ammonta a 1748 Km cubi/anno (dati 2016), una quantità confrontabile con quella totale dei fiumi della terra circa 2000 Km cubi e con quella contenuta nella biosfera 1200 Km cubi (dati presi da wikipedia). Praticamente si deforesta l’Amazonia e si consuma la falda fossile di Ogallala, come se fossero risorse infinite, per dar da mangiare ai cinesi.”

In questo lavoro però si esclude fin dal principio il ruolo dell’acqua virtuale legata ai prodotti industriali, concentrandosi solo sull’acqua virtuale legata al cibo.

In effetti questo tipo di approccio separa i flussi di acqua virtuale fra cibo ed altre merci; ora la Cina che è un gigantesco esportatore di merci industriali di ogni tipo esporta acqua virtuale di tipo “industriale” e secondo altri lavori che tengono conto di tutti i beni è un esportatore netto di acqua sia pur virtuale. Si veda per esempio qui (https://www.sciencedirect.com/science/article/pii/S0160412018314582#f0010)

dove si arriva a conclusioni opposte.

Personalmente ritengo che, a parte le difficoltà concettuali legate alla definizione esatta dell’acqua virtuale, l’analisi dei flussi non possa escludere il ruolo determinante, almeno per i paesi più sviluppati, dell’acqua usata nella produzione di beni non legati al cibo; il rischio è di usare queste analisi in modo direttamente politico e poco scientifico traendone conclusioni inesatte o parziali.

Voi che ne dite?

Elementi della Tavola periodica. Renio, Re.

In evidenza

Rinaldo Cervellati

Il renio (ingl. rhenium), simbolo Re, è l’elemento n. 75 della tavola periodica. È un metallo di transizione grigio-argento, pesante, nel 7o Gruppo, 6° Periodo (terza fila degli elementi di transizione), sotto il tecnezio, a sinistra del tungsteno e a destra  dell’osmio. Con una concentrazione media stimata in meno di 1 parte per miliardo (ppb) il renio è uno degli elementi più rari nella crosta terrestre.

Il renio è stato il penultimo degli elementi con un isotopo stabile a essere scoperto (altri nuovi elementi scoperti in natura da allora, come il francio, sono radioattivi). L’esistenza di un elemento ancora da scoprire in questa posizione nella tavola periodica era stata predetta per la prima volta da Dmitri Mendeleev. Altri dati calcolati furono ottenuti da Henry Moseley nel 1914. Il renio è stato scoperto da Walter Noddack, Ida Take (in seguito Noddack) e Otto Berg in Germania nel 1925 e lo chiamarono così dal latino Rhenus che significa: “Reno”:  essi riferirono di aver rilevato l’elemento nei minerali columbite, gadolinite e molibdenite. Nel 1928, i Noddack furono in grado di estrarre 1 g dell’elemento trattando 660 kg di molibdenite[1].

Ida Take Noddack

Ci sono voluti diversi anni da quel momento prima che le superleghe al renio diventassero ampiamente utilizzate.

Caratteristiche fisico-chimiche

Il renio è un metallo bianco-argenteo con uno dei punti di fusione più alti di tutti gli elementi (3186 oC), superato solo dal tungsteno e dal carbonio. Ha anche uno dei punti di ebollizione più alti, e il più alto tra gli elementi stabili (5630 oC). È anche uno dei più densi, superato solo da platino, iridio e osmio. Ha una struttura cristallina esagonale compatta, con parametri reticolari a = 276,1 pm e c = 445,6 pm (figura 1).

Figura 1. Struttura cristallina del renio

La sua forma commerciale abituale è una polvere, ma questo elemento può essere consolidato mediante pressatura e sinterizzazione in atmosfera di idrogeno  o sotto vuoto. Questa procedura dà luogo un solido compatto avente una densità molto alta. Quando ricotto è molto duttile, e può essere piegato, arrotolato o laminato (figura 2).

Figura 2. Campioni di renio metallico

Le leghe renio-molibdeno sono superconduttive a 10 K. Anche le leghe di tungsteno-renio sono superconduttive  intorno a 4-8 K, a seconda della lega. Il renio metallico diventa superconduttore a 1,697 ± 0,006 K.

A temperatura ambiente e pressione atmosferica, l’elemento resiste ad alcali, acido solforico, acido cloridrico, acido nitrico diluito (ma non concentrato) e acqua regia.

Il renio ha un isotopo stabile, renio-185, che tuttavia si trova in percentuale minore, una situazione che si trova solo in altri due elementi, indio e tellurio. Il renio naturale è costituito infatti solo per il 37,4% dallo stabile 185Re, mentre il restante 62,6% è 187Re, che è instabile ma ha un’emivita molto lunga (≈1010 anni). Il decadimento β di 187Re viene utilizzato per la datazione renio-osmio dei minerali. L’energia disponibile per questo decadimento β (2,6 keV) è una delle più basse conosciute tra tutti i radionuclidi.

Sono noti altri 33 isotopi instabili, i più longevi dei quali sono 183Re con un’emivita di 70 giorni, 184Re con un’emivita di 38 giorni, 186Re con un’emivita di 3,7186 giorni, 182Re con un’emivita di 64,0 ore e 189Re con un’emivita di 24,3 ore. Ci sono anche numerosi isomeri, il più longevo dei quali è il metastabile 186mRe con un’emivita di 200.000 anni. Tutti gli altri hanno un’emivita inferiore a un giorno.

Composti principali

I composti del renio sono noti per tutti gli stati di ossidazione compresi tra −3 e +7 tranne −2. Gli stati di ossidazione +7, +6, +4 e +2 sono i più comuni. Il renio è più disponibile in commercio come sali dell’acido perrenico (figura 3) noti come perrenati, inclusi i perrenati di sodio e di ammonio. Questi sono composti bianchi solubili in acqua.

Figura 3. Struttura dell’acido perrenico, H4Re2O9 (H = bianco, Re = blu, O = rosso)

I perrenati possono essere convertiti in tetratioperrenati per azione dell’idrosolfuro di ammonio (NH4)HS.

L’ossido più comune è il giallo volatile Re2O7. Il triossido di renio rosso ReO3 adotta una struttura simile alla perovskite. Altri ossidi includono Re2O5, ReO2 e Re2O3. I solfuri sono ReS2 e Re2S7.

I cloruri di renio più comuni sono ReCl6, ReCl5, ReCl4 e ReCl3. Le strutture di questi composti spesso presentano un ampio legame Re-Re, che è caratteristico di questo metallo negli stati di ossidazione inferiori a +7. I sali di [Re2Cl8]2− presentano un legame metallo-metallo quadruplo. Sebbene il cloruro di renio più elevato sia con Re(+6), il fluoro dà il derivato Re (VII) renio eptafluoruro. Anche i bromuri e gli ioduri di renio sono ben noti.

Come il tungsteno e il molibdeno, con i quali condivide somiglianze chimiche, il renio forma una varietà di ossialogenuri. Gli ossicloruri sono i più comuni e includono ReOCl4 e ReOCl3.

Il diboruro di renio (ReB2) è un composto duro con una durezza simile a quella dei carburi di tungsteno e di silicio, del diboruro di titanio e di zirconio.

Chimica dell’organorenio

Il direnio decacarbonile è la voce più comune nella chimica dell’organorenio. La sua riduzione con l’amalgama di sodio dà Na[Re(CO)5] con il renio nello stato di ossidazione formale −1. Il direnio decacarbonile può essere ossidato con bromo a bromopentacarbonilrenio (I):

Re2(CO)10 + Br2 → 2Re(CO)5Br

La riduzione di questo pentacarbonile con zinco e acido acetico dà pentacarbonilidridorenio:

Re(CO)5Br + Zn + HOAc → Re(CO)5H + ZnBr(OAc)

Il triossido di metilrenio (MTO, CH3ReO3) è un solido volatile e incolore che è stato utilizzato come catalizzatore in alcuni esperimenti di laboratorio. Può essere preparato in molti modi, un metodo tipico è la reazione di Re2O7 e tetrametilstagno:

Re2O7 + (CH3)4Sn → CH3ReO3 + (CH3)3SnOReO3

MTO catalizza le ossidazioni con acqua ossigenata. Gli alchini terminali producono l’acido o l’estere corrispondente, gli alchini interni danno i dichetoni e gli alcheni danno gli epossidi. L’MTO catalizza anche la conversione di aldeidi e diazoalcani in un alchene. Sono noti derivati ​​alchilici e arilici analoghi.

Un derivato distintivo del renio è nonaidrorenato, originariamente pensato per essere l’anione renuro, Re, ma in realtà contenente il ReH92−, anione in cui lo stato di ossidazione del renio è +7 (figura 4).

Figura 4. Struttura dell’anione ReH92−

Disponibilità

Il renio probabilmente non si trova libero in natura (la sua possibile presenza naturale è incerta), ma si trova in quantità fino allo 0,2% nel minerale molibdenite (che è principalmente disolfuro di molibdeno), la principale fonte commerciale, sebbene in singoli campioni di molibdenite è stato trovato fino all’1,88%.

Figura 5. Campione di molibdenite

Il Cile ha le maggiori riserve di renio del mondo, parte dei giacimenti di minerale di rame, ed è stato il principale produttore nel 2005. Nel 1994 è stato trovato e descritto il primo minerale di renio, costituito da solfuro di renio (ReS2), che si condensava da una fumarola sul vulcano Kudriavy, isola di Iturup, nelle Isole Kuril (Russia). Kudriavy scarica fino a 20-60 kg di renio l’anno per lo più sotto forma di disolfuro di renio. Al minerale è stato dato il nome di rhenite (figura 6).

Figura 6. Campione di rhenite, dalla lava indurita del vulcano Kudriavy, Isole Kurile

Produzione

Il renio commerciale viene estratto dal gas di combustione del torrefattore di molibdeno ottenuto dai minerali di solfuro di rame. Alcuni minerali di molibdeno contengono dallo 0,001% allo 0,2% di renio. L’ossido di renio (+7) e l’acido perrenico si dissolvono facilmente in acqua; vengono lisciviati dalle polveri e dai gas dei fumi ed estratti precipitandoli con cloruro di potassio o ammonio come sali di perrenato e purificati mediante ricristallizzazione. La produzione mondiale totale è compresa tra 40 e 50 tonnellate/anno; i principali produttori sono in Cile, Stati Uniti, Perù e Polonia.

Il riciclo del catalizzatore Pt-Re usato e delle leghe speciali consente il recupero di ulteriori 10 tonnellate l’anno. La forma metallica viene preparata riducendo il perrenato di ammonio con idrogeno ad alte temperature:

2NH4ReO4 + 7H2 → 2Re + 8H2O + 2NH3

Applicazioni

Il renio viene aggiunto alle superleghe ad alta temperatura usate per realizzare parti di motori a reazione, utilizzando il 70% della produzione mondiale di renio.  Un’altra importante applicazione è nei catalizzatori platino-renio, che vengono utilizzati principalmente per produrre benzina senza piombo ad alto numero di ottano.

Leghe

Le superleghe a base di nichel hanno una maggiore resistenza allo scorrimento con l’aggiunta di renio; normalmente contengono il 3% o il 6% di renio. Le leghe di seconda generazione contengono il 3%; queste sono state utilizzate nei motori degli aerei a reazione, mentre le più recenti leghe monocristalline di terza generazione contengono il 6% di renio, utilizzate nei motori degli aerei.  Il renio è utilizzato anche nelle superleghe, come CMSX-4 (2a generazione) e CMSX-10 (3a generazione) che vengono utilizzate nei motori a turbina a gas industriali come il GE 7FA. Il renio però può far sì che queste diventino microstrutturalmente instabili, formando fasi TCP indesiderate (topologicamente ravvicinate), quindi nelle superleghe di 4a e 5a generazione, il renio viene sostituito con il rutenio per evitare questo effetto.

Il renio migliora le proprietà del tungsteno. Le leghe di tungsteno-renio sono più duttili alle basse temperature, consentendo loro di essere lavorate più facilmente. Anche la stabilità alle alte temperature è migliorata. L’effetto aumenta con la concentrazione di renio, e quindi si producono leghe di tungsteno contenenti fino al 27% di Re, che è il limite di solubilità. Il filo di tungsteno-renio è stato originariamente creato nel tentativo di sviluppare un filo che fosse più duttile dopo la ricristallizzazione. Ciò consente al filo di soddisfare prestazioni specifiche, tra cui una resistenza alle vibrazioni superiore, una migliore duttilità e una maggiore resistività. Un’applicazione per le leghe di tungsteno-renio sono le sorgenti di raggi X. L’alto punto di fusione di entrambi gli elementi, insieme alla loro elevata massa atomica, li rende stabili contro l’impatto prolungato degli elettroni. Le leghe di tungsteno al renio vengono anche applicate come termocoppie per misurare temperature fino a 2200 °C.

La stabilità alle alte temperature, la bassa pressione di vapore, la buona resistenza all’usura e la capacità di resistere alla corrosione del renio sono utili nei contatti elettrici autopulenti.

Il renio ha un alto punto di fusione e una bassa pressione di vapore simile al tantalio e al tungsteno. Pertanto, i filamenti di renio mostrano una maggiore stabilità se il filamento non viene utilizzato nel vuoto, ma in un’atmosfera contenente ossigeno. Questi sono ampiamente utilizzati negli spettrometri di massa, misuratori di ioni e lampade con flash in fotografia.

Catalizzatori

Il renio sotto forma di lega renio-platino viene utilizzato come catalizzatore per il reforming catalitico, che è un processo chimico per convertire le nafte di raffineria di petrolio con un basso numero di ottano in prodotti liquidi ad alto numero di ottano. In tutto il mondo, il 30% dei catalizzatori utilizzati per questo processo contiene renio.  La metatesi delle olefine è l’altra reazione per la quale il renio viene utilizzato come catalizzatore. Normalmente per questo processo viene utilizzato Re2O7 su allumina. I catalizzatori di renio sono molto resistenti all’avvelenamento chimico da azoto, zolfo e fosforo, e quindi sono usati in alcuni tipi di reazioni di idrogenazione.

Altri usi

Gli isotopi 188Re e 186Re sono radioattivi e vengono utilizzati per il trattamento del cancro al fegato. Entrambi hanno una profondità di penetrazione simile nel tessuto (5 mm per 186Re e 11 mm per 188Re), ma 186Re ha il vantaggio di una maggiore durata (90 ore contro 17 ore).

188Re viene anche utilizzato sperimentalmente in un nuovo trattamento del cancro del pancreas dove viene somministrato per mezzo del batterio Listeria monocytogenes. L’isotopo 188Re viene utilizzato anche per la Rhenium-SCT (Skin Cancer Therapy). Il trattamento utilizza le proprietà degli isotopi come beta emettitori per la brachiterapia nel trattamento del carcinoma a cellule basali e del carcinoma a cellule squamose della pelle.

A causa di tendenze periodiche, il renio ha una chimica simile a quella del tecnezio, ciò è utile per la radiofarmacia, dove è difficile lavorare con il tecnezio, in particolare l’isotopo 99Tcm utilizzato in medicina, a causa della sua spesa e della breve emivita.

Tossicologia e precauzioni

Si sa molto poco sulla tossicità del renio e dei suoi composti perché vengono utilizzati in quantità molto piccole. I sali solubili, come gli alogenuri di renio o i perrenati, potrebbero essere pericolosi a causa di elementi diversi dal renio o a causa del renio stesso. Solo pochi composti di renio sono stati testati per la loro tossicità acuta; due esempi sono il perrenato di potassio e il tricloruro di renio, che sono stati iniettati come soluzione nei ratti. Il perrenato aveva un valore di DL50 di 2800 mg/kg dopo sette giorni (questa è una tossicità molto bassa, simile a quella del sale da cucina) e il tricloruro di renio ha mostrato una DL50 di 280 mg/kg.

Riciclaggio

A causa della sua rarità e del costo elevato, il riciclaggio di scarti di renio è particolarmente economico e conveniente. Diverse ditte, come la tedesca Buss&Buss Spezialmetalle, sono impegnate nel riciclo del renio e di suoi composti [1]. Questa impresa ha sviluppato una varietà di processi per riciclare in modo efficiente gli scarti di renio e reintrodurli nel ciclo delle materie prime come renio puro e suoi composti. Per riciclare con successo il renio, questa ditta sostiene di operare secondo normative rigorose e a standard di qualità, documentati e continuamente ottimizzati dalla certificazione ISO. I rottami di renio che possono essere riciclati sono: pallini, rifiuti di punzonatura, lamiere, bacchette, residui di sinterizzazione, e varie leghe di renio (nichel, tungsteno e molibdeno). Il riciclato viene fornito come renio in polvere o perrenato di ammonio.

Nel 2019, U. Kesieme et al, hanno esaminato in una esaustiva review i processi di riciclaggio del renio da diverse fonti secondarie di renio, come le superleghe e i catalizzatori [2]. In particolare è utile riportare lo schema del recupero del renio dai catalizzatori per il reforming catalitico (figura 7)

Figura 7. Schema del metodo per il recupero del renio dal catalizzatore esaurito [2]

Ciclo biogeochimico

Nel 1993 un gruppo di ricerca statunitense effettuò una dettagliata ricerca sul ciclo biogeochimico del renio in tre grandi fiumi: Amazon, Orinoco, Ganges-Brahmaputra e in alcuni loro affluenti [3]. L’intervallo di concentrazione rilevato fu di quattro ordini di grandezza (0.02 – 400 pmol/kg), con la concentrazione più alta nei fiumi che defluiscono dalle Ande del Venezuela. I livelli del Re nei tre fiumi andavano da 1 a 10 pmol/kg, con un flusso medio pesato di 2,3 pmol/kg. Il tempo di residenza negli oceani è di 750000 anni rispetto agli input dei fiumi. I profili del Re negli Oceani Atlantico e Pacifico confermano che si comporta in modo conservativo in acqua di mare. Questo è vero anche nell’acqua priva di ossigeno (anossica) del Mar Nero. L’interramento nei sedimenti anossici avviene all’interfaccia dei sedimenti bassi o al di sotto dell’acqua. Nei sedimenti ossigenati il Re non viene riciclato con l’ossido di manganese e non si arricchisce in sedimenti ad accumulazione molto lenta o in noduli di manganese. Il seppellimento di Re in sedimenti anossici rimuove circa il 50% del flusso fluviale verso gli oceani. Quindi, la concentrazione oceanica del Re può essere molto sensibile ai cambiamenti nell’area di sedimentazione anossica.

Nel 2012 Indra S. Sen e Bernhard Peucker-Ehrenbrink del Dept. of Marine Chemistry and Biochemistry, Woods Hole Oceanographic Institution (MA, USA) hanno pubblicato l’articolo intitolato: Anthropogenic Disturbance of Element Cycles at the Earth’s Surface [4]. Essi hanno riscontrato che sulla superficie terrestre i flussi antropogenici di iridio, osmio, elio, oro, rutenio, antimonio, platino, palladio, renio, rodio e cromo superano attualmente i flussi naturali. Per questi elementi l’estrazione mineraria è il principale fattore di influenza antropica, mentre la combustione del petrolio influenza fortemente il ciclo superficiale del renio. La loro valutazione indica che se si considerano i contributi antropici all’erosione del suolo e alla polvere eolica, i flussi antropogenici almeno fino a 62 elementi superano i loro flussi naturali corrispondenti (figura 8).

Figura 8. Contributi antropogenici al ciclo naturale degli elementi [4]

Opere consultate

Handbook of Chemistry and Physics, 85th Ed. p. 4-26

https://en.wikipedia.org/wiki/Rhenium

Bibliografia

[1] https://www.buss-spezialmetalle.de/metal-scrap-recycling/rhenium-recycling/?lang=en

[2] U. Kesieme et al., Assessment of supply interruption of rhenium, recycling, processing sources and technologies., Int. J. Refractory Metals & Hard Materials., 2019, DOI: 10.1016/j.ijrmhm.2019.04.006

[3] D. Colodner et al., The geochemical cycle of rhenium: a reconnaissance., Earth and Planetary Science Letters., 1993, 117, 205-211.

[4] I.S. Sen, B. Peucker-Ehrenbrink, Anthropogenic Disturbance of Element Cycles at the Earth’s Surface., Environ. Sci. Technol.2012, 46, 8601–8609.


[1] Vedi anche Ida Noddack, in: Chimica al femminile, Aracne, Roma 2020, pp. 171-180.

Come si testano i farmaci (nel post-covid).

In evidenza

Luigi Campanella, già Presidente SCI

Mentre il processo per produrre farmaci umani è lungo e complesso e richiede notevoli risorse, in situazioni di emergenza, come l’attuale dovuta al covid19, è necessario muoversi molto rapidamente cosicché fasi che durano normalmente anni vengono compresse in pochi mesi.

Sia nel caso di un farmaco cardiaco che di uno contro il covid-19 è in ogni caso necessario dimostrare che esso è efficace contro la malattia ed è sicuro per il genere umano. Pertanto i test di sicurezza assumono una grande importanza durante la fase non clinica e clinica della scoperta di un farmaco. Alcuni test non clinici di sicurezza o di tossicologia vengono svolti durante la fase di scoperta del farmaco, ma la maggior parte dei test tossicologici avviene durante la fase non clinica.  Lo scopo principale dei test tossicologici è determinare, attraverso modelli animali, se un potenziale nuovo farmaco è sicuro per essere usato sull’uomo ed identificare possibili composti dannosi tali da rendere il rischio maggiore del beneficio. Durante la fase non-clinica vengono condotti quattro differenti tipi di studio necessari a produrre le conoscenze per l’applicazione di nuovi farmaci

-studi di tossicologia acuta a breve termine condotti per determinare quali dosi debbano essere testate negli studi a più lungo termine condotti su modelli animali

-studi tossicologici su dosi ripetute per verificare la compatibilità con la sicurezza di somministrazioni ripetute nel giorno e fino a 30 gg di seguito

-studi farmacologici di sicurezza per vedere se il nuovo farmaco abbia effetti sul sistema cardiovascolare, su quello respiratorio e su quello nervoso

-studi di tossicologia genetica per stabilire se il nuovo farmaco possa recare danno all’organismo animale o umano a cui viene somministrato

Finiti questi studi i dati ottenuti vengono valutati per stabilire una dose sicura per la prima prova clinica su animali, determinata la quale, e sperimentandone l’assenza di effetti dannosi, l’azienda produttrice procede per un’applicazione del nuovo farmaco. Se i revisori della Food and Drug Administration sono d’accordo inizia la sperimentazione clinica sull’uomo. Un esito negativo del profilo di tossicità sul modello animale è la principale causa di arresto del processo di sviluppo del nuovo farmaco.

Il rapido avanzamento di nuovi farmaci risponde da un lato alle continue richieste della medicina e dall’altro alla comparsa di nuovi gravi patologie, un esempio essendo rappresentato proprio dal covid19.

La pandemia ha offerto ai cittadini l’immagine di una realtà nella quale con il doppio approccio farmaco/vaccino la scienza affronta emergenze di pubblica salute. La comunità scientifica mondiale che comprende laboratori di Stato, ricercatori accademici, organizzazioni di ricerca a contratto e compagnie attive nel biotech e nella farmaceutica, sta correndo in avanti per trovare soluzioni e le agenzie regolatorie stanno dando il loro contributo per agevolare i tempi di questa corsa. Nel 2020 la FDA ha lanciato il programma di accelerazione al trattamento del coronavirus (CTAP) proprio con il fine di accelerare al massimo i progetti scientifici e l’applicazione di norme per proteggere i cittadini del mondo dall’infezione da SARS-CoV-2, senza però rinunciare a nessuno dei criteri di assoluta sicurezza I risultati di questo programma si sono visti non soltanto nella riduzione degli obblighi burocratici ma anche nella condivisione  rapida attraverso webinar aperti ed open science delle conoscenze, man mano che vengono acquisite. Ecco questo è un altro delle conseguenze positive del  Covid19: chi purtroppo ci ha rimesso la vita potrebbe dire di avere lasciato per certi aspetti una società più giusta e più rispettosa delle sue debolezze di quanto non fosse prima del Covid19.

Soltanto il tempo ci dirà se la riduzione fino a 10 volte dei tempi di attesa per progredire verso un nuovo farmaco rilevata in questo periodo si sarà realmente definitivamente consolidata, ben oltre la fase pandemica attuale. Un aiuto di certo verrà dal machine learning e dall’intelligenza artificiale di cui rappresenta un sottoinsieme con il fine di creare sistemi che apprendono e  migliorano le prestazioni in base ai dati che utilizzano. Gli algoritmi del machine learning rendono più efficienti e sicuri i frutti dell’esperienza. Gli esperti concordano sul fatto che machine learning ed intelligenza artificiale sono destinati a trasformare la scoperta di nuovi farmaci e nuovi vaccini sin dall’immediato futuro. Già oggi gli strumenti computazionali sono largamente usati in tutti gli aspetti delle scoperte di farmaci dalla identificazione del bersaglio alla ottimizzazione della somministrazione. Le reti collegate alle banche dati consentiranno di esplorare più in profondità le malattie dell’organo bersaglio e gli strumenti digitali accresceranno la fiducia nei dati in silico, riducendo così le esigenze di dati sperimentali ai quali corrispondono costi ben più elevati.


https://doctortarget.com/wp-content/uploads/2018/02/Diapositiva7.png

Una preoccupazione deriva dalla possibilità che questa accelerazione e questo atteggiamento interdisciplinare possano essere drogati da interessi soltanto economici che non tengono conto delle povertà nazionali ed internazionali e che quindi non finalizzino i conseguenti interventi al diritto alla salute per tutti. In Italia registriamo un cambio di passo; ma situazioni come quella vissuta in India non possono non farci riflettere anche sull’esigenza che farmaci e vaccini siano patrimonio universale.

Pidocchi, chimica e totani.

In evidenza

Claudio Della Volpe

Giorni fa una foto che ho visto su FB mi ha suscitato un ricordo d’infanzia che poi si è trasformato in questo post.

Probabilmente lo considererete un post un po’ sopra le righe.

Anzitutto perché parlare di pidocchi; beh la pandemia ci ha da oltre un anno dato una “salutare” scossa sociale a riguardo del nostro rapporto con la Natura. Ci ha ricordato che non siamo onnipotenti, nonostante siamo in grado di “turbare l’Universo” come scriveva Freeman Dyson, quello della sfera di Dyson.

Ci sono molti piccoli esseri che vivono con noi in simbiosi, come i batteri intestinali, un mezzo chilo di batteri buoni ed utili per noi, ma anche tanti altri esseri di piccole dimensioni che abbiamo attratto modificando profondamente gli ambienti che abitiamo; sono talmente tanti che c’è un termine per descriverli: sinantropici. L’esempio più famoso è forse il pesciolino d’argento o Lepisma Saccharina che si ciba di materiali comuni per noi come la destrina delle colle dei francobolli o delle rilegature.

Poi ci sono quelli che vivono cibandosi dei nostri stessi “resti” organici per esempio di lembi microscopici di pelle che cade, capelli, forfora etc; di dimensioni submillimetriche gli acari della polvere causano comuni allergie a causa delle loro feci. Si stima ne vivano alcune centinaia per ogni grammo di polvere di casa.

E poi abbiamo i peggiori parassiti che letteralmente si nutrono del nostro sangue come per esempio i pidocchi dei capelli (Pediculus humanus capitis) che sono in grado di trasmetterci varie malattie.

Un pidocchio attaccato ai capelli umani.

Vale la pena leggere queste righe a riguardo scritte in un documento firmato da tre associazioni mediche sia di dermatologi che di pediatri:

ADOI, Sidemast, SIP: La pediculosi del capo è endemica il tutto il mondo. È estremamente difficile disporre di dati epidemiologici completi. Il fenomeno è in continuo incremento anche nei paesi ad elevata industrializzazione. Si stima che nel mondo l’incidenza sia dell’ordine di centinaia di milioni di caso l’anno, con una prevalenza nella popolazione generale dell’1-3%. Negli Stati Uniti sono colpiti ogni anno dai 6 ai 12 milioni di persone (2-Chosidow). In Europa l’incidenza nei bambini in età scolare varia dal 25% in Gran Bretagna al 49% in Francia. In Italia, una stima indiretta, effettuata sulla base dei prodotti pediculocidi venduti nel 2003, porta a un’incidenza nella popolazione generale del 2.5% (9-Gelmetti). La pediculosi del capo colpisce persone di tutte le età e condizioni socio-economiche; tuttavia, è più frequente nei bambini di età compresa tra i 3 e gli 11 anni, soprattutto di sesso femminile. Studi su differenti popolazioni negli Stati Uniti hanno evidenziato una maggiore predisposizione dei soggetti Caucasici o Asiatici, rispetto agli Afro-americani. Questo è dovuto soprattutto al fatto che Pediculus humanus capitis si è ancestralmente adattato a vivere soprattutto su capelli cilindrici e a sezione rotondeggiante, come quelli dei Caucasici. Altri possibili fattori “protettivi” nei confronti della pediculosi del capo sono costituiti dal maggior quantitativo di sebo sulla superficie cutanea e dal ph più acido della cute del cuoio capelluto. Nel complesso, si può quindi affermare che la pediculosi del capo è meno frequente negli individui con pelle scura e capelli molto ricci (4-Ko).
L’infestazione è più frequente durante il periodo scolastico

(NdA: ricordate che la incidenza è la percentuale di casi di un fenomeno  su un totale di casi in cui il fenomeno e assente o presente, un dato che fotografa il fenomeno; mentre la prevalenza è invece il numero di nuovi casi per unità di tempo, dunque un dato che dà l’idea della dinamica del processo, qualunque esso sia)

Dunque i pidocchi sono un po’ razzisti, diciamo così, preferiscono certi tipi di capelli, ma dipendono dalla pulizia più che dalla ricchezza

I pidocchi umani sono specie specifici; ci accompagnano da alcuni milioni di anni; quando eravamo coperti di peli su tutto il corpo erano una sola specie, poi quando perdemmo questa caratteristica, circa un paio di milioni di anni fa si divisero in tre gruppi che però possono intergenerare fra di loro: pidocchi del capo, del pube e del corpo.

Lo spidocchiamento reciproco è una delle attività sociali più importanti fra i primati e anche nel genere Homo; lo è stato certamente fino al ‘600.

Come si combattono i pidocchi?

Originariamente togliendoli a mano uno per uno; i pidocchi tuttavia lasciano delle uova, le lendini, attaccate ai peli che sono più difficili da togliere.

Un grosso aiuto lo ha dato la tecnologia del pettine, un oggetto comune e a cui non facciamo quasi caso.

Un pettine preistorico (da Wikipedia).

Alcuni pettini antipidocchi moderni; ci sono anche modelli a batteria, perché i costruttori sostengono che i pidocchi e le uova possono essere uccisi o inattivati da microscariche elettriche a basso voltaggio.

I prodotti usabili contro i pidocchi con sicura efficacia sono gli insetticidi in particolare i tre: piretro, permetrina e malathion.

Il piretro è estratto da un fiore della famiglia delle Asteracee, il Tanacetum cinerariifolium.

Scoperto nel 1860; la sua polvere detta razzia, veniva usata un tempo direttamente come insetticida; attualmente si usa l’estratto liquido ottenuto trattando i fiori con solvente (etere di petrolio). I capolini già sbocciati, ma con i fiori non fecondati, contengono maggiore quantità (da 0,2 a 0,3%) di principi attivi che quelli chiusi o in frutto. E’ accettato in agricoltura biologica.

La formula del piretro è

Come si vede è un estere, dell’acido crisantemico.

La permetrina da usare all’esterno del corpo è considerata sicura sulle persone ma non sugli animali domestici (i gatti sono molto sensibili) e su quelli acquatici. Esiste in forma di due coppie di enantiomeri; la coppia trans è quella con attività insetticida.

Sintetizzata nel 1973 è sulla lista dei farmaci essenziali dell’OMS; agisce attaccando i neuroni degli insetti come altri piretroidi; penetra nel cervello verosimilmente grazie alle sue proprietà lipofile. Tenete presente che il cervello dei pidocchi è ventrale, situato attorno al loro tubo digerente.

Il più potente fra gli insetticidi antipidocchi è il malathion, un organofosforico fra i meno tossici:

Questo si degrada in malaossone, che è 60 volte più tossico del malatione.

Altri prodotti che si usano contro i pidocchi non hanno però la medesima certezza o efficacia provate; gli oli di vario genere per esempio. Come ci ricorda Altroconsumo:

olio di neem, tea tree oil, lavanda, yang yang hanno dimostrato proprietà antimicrobiche. Per la legge italiana, sono prodotti cosmetici e come tali non possono vantare di uccidere i pidocchi, ma secondo i produttori dovrebbero creare un ambiente sfavorevole all’insediamento dei pidocchi. Gli oli essenziali spesso contengono sostanze allergizzanti (limonene, eugenolo, citronellolo).

Poi ci sono i vari oli minerali che dovrebbero soffocare i pidocchi (però le lendini rimangono e devono essere tolte a mano); tuttavia questa attività di soffocamento non è provata in modo completo.

E adesso veniamo al mio ricordo personale, che ha scatenato il post; una mia zia era solita farmi il seguente indovinello, detto in napoletano:

“Va a Milano co’ totano ‘mmano

E lo porta alla sua sposa

Che se lo  mette nella pelosa”

Che cos’è ?

E’ chiaramente un indovinello popolare a sfondo sessuale, ma la cui risposta esatta è il pettine, la pelosa sono i capelli.

Il nome popolare del pettinino contro i pidocchi è infatti totano o totaro;

Todarodes Sagittatus

questo è anche il nome di un mollusco cefalopode simile al calamaro; che è citato sempre a sfondo sessuale nel numero 67 della famosa Tombola napoletana o Smorfia: 67, o totano int’a chitarra; chiaro anche senza scomodare l’arte giapponese, una cultura che fa riferimento al medesimo concetto (si ricordi la famosa xilografia di Hokusai conosciuta come Tako to ama o Il sogno della moglie del pescatore) o la famosa canzone rimessa in voga da Arbore, quella della chitarrina.

Cortocircuiti mentali che collegano calamari, pettini, pidocchi e sesso; come vedete la mia mente è proprio un blob!

Prima del riciclo: riuso, riparazione.

In evidenza

Claudio Della Volpe

In questi giorni il sito Samsung ha messo online ma solo in francese un manuale veramente unico.

Si tratta del primo manuale tecnico per la manutenzione di un telefono di ultima generazione con i dettagli costruttivi, argomenti di cui le aziende sono in genere molto gelose, il famoso know-how.

Perché ha fatto questo e perché solo in francese?

Perché dal primo gennaio in Francia c’è una nuova legge che impone alle aziende di indicare il “grado di riparabilità” dei prodotti, cioè un numero da uno a dieci che indica quanto è facile aggiustarli se si rompono.

Non è il primo tentativo di combattere l’obsolescenza programmata, una sciagurata tecnica per aumentare i profitti nata ormai quasi un secolo fa; si narra infatti che il primo esempio di obsolescenza programmata sul mercato mondiale sia stato il cosiddetto accordo Febo.

Il 23 dicembre 1924  i grandi produttori di lampade ad incandescenza si riunirono a Ginevra per standardizzare le caratteristiche del loro prodotto, ma fra le altre regole imposero che la durata media della lampada avrebbe dovuto essere di 1000 ore, mentre già allora lo standard produttivo raggiungibile era ben superiore; in questo modo attraverso una apparentemente innocua regola tecnica imposero un sovraconsumo di lampade abbassandone lo standard tecnico al solo scopo di venderne di più; l’accordo avrebbe dovuto durare fino al 1955 ma la 2 guerra mondiale si incaricò di abolirlo; tuttavia in seguito questa scelta divenne la norma per i prodotti di massa che videro la luce DOPO la 2 guerra mondiale.

Oggi siamo arrivati ai casi assurdi come quello dell’iPhone Apple, https://www.altroconsumo.it/organizzazione/media-e-press/comunicati/2020/obsolescenza-programmata-iphone-pronti-alla-class-action-contro-apple

quando su un prodotto già esistente tramite un update software si è peggiorata la durata della batteria senza avvisare gli utenti con la solita scusa di un “miglioramento” del software.

Il Tribunale ha confermato che la società di Cupertino ha rilasciato gli aggiornamenti del firmware iOS 10 e 10.1.2 per gli iPhone 6/6Plus/6s/6sPlus,senza informare adeguatamente i consumatori della riduzione sensibile delle prestazioni che avrebbero subito i loro dispositivi.

In altri paesi l’azione dei consumatori ha costretto Apple a pagare centinaia di milioni di dollari di risarcimento.

Insomma le vie dell’obsolescenza programmata, o perfino indotta post vendita, sono infinite e sono la base materiale dell’invasione di rifiuti, dello sperpero di risorse cui corrispondono dall’altro lato l’accumulo di migliaia di miliardi di profitti.

Anche in Italia c’è una legge sul tema che obbliga in alcuni settori come gli elettrodomestici a produrre i ricambi per almeno 7-10 anni; ma sono ancora deboli sterzate nella direzione giusta.

Nella mia vita ho posseduto finora due lavatrici una mi è durata 20 anni e anche l’altra; e attenzione mi sono durate “solo” 20 anni perché non si trovavano più i pezzi di ricambio; erano della medesima marca italiana non più esistente, che forse produceva troppo bene in un mondo di lupi dalle zanne obsolescenti; non so quanto mi durerà la “tedesca” che ho comprato qualche anno fa, ma certe leggi potrebbero, come l’accordo Febo, stare sotto i limiti tecnici EFFETTIVI con lo scopo di massimizzare le vendite e i profitti, con la scusa di un progresso tecnico inarrestabile ma spesso non necessario. Certo le lavatrici attuali hanno un bel pannello programmabile , ma fanno dopo tutto le stesse azioni meccaniche che facevano 40 anni fa.

Ma perfino gli sviluppi informatici, i sistemi multicore attuali quanto sono effettivamente utili nelle applicazioni comuni di ogni giorno, dopo tutto anche scrivere è una operazione che non può andare centinaia di volte più veloce se la continuiamo a fare a mano; o quanto serve che, come ha fatto Apple si introduca un chip che blocca tutto se uno sostituisce dell’hardware non originale? La mancata interoperabilità fra i software a 32 e 64 bit è necessaria o serve solo a vendere di più? La compatibilità si dice è impossibile, ma non si danno al pubblico i mezzi per accertarsene. Il dubbio rimane e fa pensare che l’industria informatica debba essere soggetta ad una attenta politica di riforma strutturale che metta al centro gli sviluppi tecnici effettivi non solo pubblicizzati e virtuali. Ogni anno ci propongono rivoluzionari cambiamenti che di fatto consistono in un controllo sempre più stretto delle possibilità del cliente o di prestazioni che solo una percentuale ridicola di persone potrà sfruttare.

Il contraltare è un consumo insostenibile di risorse minerarie preziose e non rinnovabili ed un inquinamento crescente legato alla difficoltà di smontare in modo efficace oggetti non progettati per essere riciclati.

La legge francese fornisce una indicazione minima ma importante: i produttori devono dire come si smontano e riparano i prodotti ai clienti e lasciarli liberi di farlo anche da soli, fornire i ricambi per periodi minimi abbastanza lunghi e non obbligarli a cambiare tutto a tempi fissi buttando dispositivi ancora perfettamente funzionanti.

Il nostro pianeta e la nostra civiltà “tecnologica” non possono sopportare ulteriormente uno sfruttamento delle risorse finalizzato al profitto dietro lo scudo di un illusorio “libero” progresso tecnico più virtuale che reale o al contrario (ma con effetti equivalenti) un blocco programmato del progresso tecnico centellinato al pubblico quando non fa più comodo la sua velocità.

Insomma il progresso è una cosa troppo importante per lasciarne il controllo ai privati; è la collettività che deve assumersi la responsabilità di attuarlo in un modo che non peggiori la vita dei più per aumentare i profitti dei pochi.

Riferimenti.

https://www.ilpost.t/2021/4/14/riparabilità-smartphone-francia/

Vongole di Chioggia e sostanze perfluorurate

In evidenza

Rinaldo Cervellati

Cheryl Hogue e Craig Bettenhausen hanno scritto su C&EN una lunga storia sulla rivendicazione dei brevetti per gli standard analitici dei composti per- e polifluorurati che riguarda anche l’Italia [1]. Per questo motivo mi sembra opportuno parlarne sul blog.

Gli standard analitici di riferimento, composti di purezza e concentrazione note, sono fondamentali per lo studio dell’inquinamento perché consentono ai ricercatori di determinare i livelli di contaminanti in campioni di acqua, suolo o tessuti e normalmente non provocano cause e processi. Di recente, tuttavia, il timore di cause per violazione dei brevetti ha impedito ai ricercatori di quantificare la contaminazione ambientale da parte di una sostanza perfluorurata persistente.

Questa situazione complicata coinvolge un produttore chimico con sede a Bruxelles, una società canadese di standard analitici, l’inquinamento da sostanze per- e polifluoroalchiliche (PFAS) in Italia e le complessità del diritto sui brevetti.

All’inizio di quest’anno, la società Solvay ha imposto alla ditta canadese di standard analitici Wellington Laboratories di cessare di produrre e vendere uno standard per C6O4, una sostanza chimica utilizzata per la produzione di composti PFAS commerciali. Solvay, che produce e utilizza C6O4 in Italia ma non lo vende, è titolare di brevetti sul composto e la sua sintesi in diversi altri Paesi. L’utilizzo di un reclamo per violazione di brevetto al fine di ritirare dal mercato uno standard analitico di riferimento è un fatto nuovo per gli esperti di diritto brevettuale consultati da C&EN. I chimici analitici temono però che questa manovra possa avere un effetto tremendo sugli sforzi per rintracciare le fonti di inquinamento.

C6O4 è il nome commerciale del perfluoro ([5-methoxy-1,3-dioxolan-4-yl]oxy) acetic acid, formula grezza C6HF9O6, la cui struttura è riportata in figura 1.

Figura 1.

Solvay ha registrato C6O4 nel 2011, ai sensi della normativa REACH (Registration, Evaluation, Authorisation, and Restriction of Chemicals) dell’Unione Europea. Nei documenti di registrazione, Solvay identifica la sostanza chimica come una sostanza intermedia di produzione che non è destinata al rilascio nell’ambiente.

L’azienda utilizza il sale di ammonio di C6O4 per produrre fluoropolimeri come il politetrafluoroetilene, che vengono utilizzati come rivestimenti antiaderenti su utensili da cucina e altri articoli a contatto con gli alimenti. Secondo il parere scientifico del 2014 dell’Autorità Europea per la Sicurezza Alimentare (EFSA): “Non vi è alcun problema di sicurezza per il consumatore se la sostanza deve essere utilizzata solo come aiuto alla produzione di polimeri durante la fabbricazione di fluoropolimeri prodotti in condizioni di alta temperatura di almeno 370 °C” [2].

Ma anche se il C6O4 avrebbe dovuto rimanere all’interno delle apparecchiature di lavorazione industriale, i funzionari della regione Veneto nel 2019 hanno trovato il composto nel Po, il fiume più lungo d’Italia. A monte del Veneto, l’area che defluisce nel fiume comprende parte della regione  Piemonte dove è in funzione un impianto di fluoropolimeri Solvay nel comune di Spinetta Marengo, in provincia di Alessandria. Il fiume sfocia nel mare Adriatico nel nord-est dell’Italia.

Solvay non è l’unica azienda che ha registrato C6O4 nell’UE. Anche un’altra impresa in Italia lo ha fatto, la Miteni, il cui stabilimento di Trissino (Vicenza), recuperava i fluoroeteri dai rifiuti industriali. Per anni, lo stabilimento ha lavorato materiali dallo stabilimento Chemours di Dordrecht, (Paesi Bassi). Nel 2017, i funzionari della regione Veneto hanno annunciato di aver trovato il dimero dell’ossido di esafluoropropilene (HFPO-DA), un composto perfluorurato, nei pozzi vicino all’impianto di Miteni. Questa sostanza è il prodotto dell’idrolisi del sostituto del PFOA prodotto da Chemours, un fluoroetere chiamato GenX. Nella carta di Figura 2 sono riportati i siti degli impianti Solvay e Miteni.

Figura 2. Cartina del Nord Italia

Solvay produce e utilizza C6O4 in uno stabilimento di Spinetta Marengo, vicino a un affluente del fiume Po, in Piemonte. Funzionari della regione Veneto, nel nord-est del Paese, hanno trovato la sostanza chimica vicino alla foce del Po. Hanno anche trovato C6O4 e un altro composto fluorurato nelle acque sotterranee vicino a una struttura Miteni a Trissino.

Miteni ha chiuso e un tribunale italiano l’ha dichiarata fallita alla fine del 2018. In quel momento, l’Agenzia Regionale per la Prevenzione e la Protezione Ambientale del Veneto ha appreso che l’impianto accettava rifiuti da Solvay, recuperava C6O4 e rispediva la sostanza a Solvay, afferma Sara Valsecchi, una ricercatrice dell’Istituto per la Ricerca sulle Acque dell’IRSA-CNR . L’agenzia ha anche scoperto C6O4 nelle acque sotterranee vicino alla struttura di Miteni, un’area idrologicamente separata dal fiume Po.

Un gruppo di 17 ricercatori italiani dell’Università di Padova insieme all’IRSA-CNR e all’Associazione Vongole Veraci di Chioggia, ha recentemente riportato uno studio sugli effetti del C604 nella vongola Ruditapes philippinarum esposta a concentrazioni realistiche ambientali della sostanza (0,1 μg/L e 1 μg/L) per 7 e 21 giorni. Inoltre, per capire meglio se il C6O4 è un’alternativa valida e meno pericolosa del PFOA, sono state studiate anche alterazioni microbiche e trascrizionali in vongole esposte a 1 μg/L di PFOA. I risultati indicano che C6O4 può causare perturbazioni significative al microbiota della ghiandola digestiva, determinando probabilmente la compromissione dell’omeostasi fisiologica dell’ospite. Nonostante le analisi chimiche suggeriscano un accumulo potenziale 5 volte inferiore del C604 rispetto al PFOA nei tessuti molli delle vongole, le analisi trascrizionali rivelano diverse alterazioni di profilo di espressione genica. Gran parte delle vie alterate, compresa la risposta immunitaria, la regolazione dell’apoptosi, lo sviluppo del sistema nervoso, il metabolismo dei lipidi e la membrana cellulare sono gli stessi nelle vongole esposte a C6O4 e PFOA [3].

In aggiunta, le vongole esposte al C6O4 hanno mostrato risposte dose-dipendenti, nonché possibili effetti narcotici o neurotossici e ridotta attivazione dei geni coinvolti nel metabolismo xenobiotico. L’articolo conclude infine che i potenziali rischi per l’organismo marino a seguito della contaminazione ambientale non vengono ridotti sostituendo il PFOA con il C6O4. Inoltre, la rilevazione sia di C6O4 che di PFOA nei tessuti delle vongole che abitano la Laguna di Venezia,  dove non ci sono fonti industriali di nessuno dei due composti, mostra una capacità della loro diffusione in tutto l’ambiente acquatico. I risultati suggeriscono l’urgente necessità di rivalutare l’uso di C6O4 in quanto può rappresentare non solo un pericolo ambientale ma anche un potenziale rischio per la salute umana poiché le vongole vengono coltivate commercialmente nel delta del Po (figura 3) e finiscono sulle tavole da pranzo, oltre che nelle uova di uccelli selvatici.

Figura 3. Visione del delta del Po.

Sara Valsecchi, che fa parte del gruppo di ricerca, intervistata da C&EN, a proposito del contenzioso sullo standard analitico del C604, ha affermato: “sicuramente rallenterà o fermerà le nostre indagini,  è un esempio di come i brevetti vengono utilizzati in modo improprio per impedire alle autorità e ai ricercatori di rilevare l’inquinamento e dimostrare il rischio di nuovi PFAS che stanno entrando nell’ambiente”.

Bibliografia

[1] C. Hogue , C. Bettenhausen, A tale of PFAS, pollution, and patent claims., C&EN news, 21 March 27, 2021 Vol. 99, no 11.

[2] AA.VV. Scientific Opinion on the safety assessment of the substance, Perfluoro{acetic acid, 2-[(5-methoxy-1,3-dioxolan-4-yl)oxy]}, ammonium salt, CAS No 1190931-27-1, for use in food contact materials  EFSA Journal 2014, 12, 3718.

[3] I. Bernardini et al., The new PFAS C6O4 and its effects on marine invertebrates: First evidence of transcriptional and microbiota changes in the Manila clam Ruditapes philippinarum.,

Environment International, 2021, DOI: 10.1016/j.envint.2021.106484

Riflessioni amare, in un’Italia immobile e immodificabile.

In evidenza

Mauro Icardi

Ho voluto aspettare qualche giorno, prima di scrivere questa mia riflessione. Una che parte da una grande sensazione di sbigottimento, e termina in una grande amarezza. Personale e civile. Nell’Italia della terra dei fuochi, dei rifiuti smaltiti sotto le autostrade, dei capannoni di rifiuti incendiati, si apre un’altra triste pagina.

https://www.ansa.it/toscana/notizie/2021/04/15/ndrangheta-in-toscana23-arresti-drogastradeconcerie_db09b762-f795-4f55-8607-3538436f8dd3.html

La vicenda è l’ennesima cui assistiamo. E probabilmente seguirà la solita trama: sarà detto di non emettere giudizi prima di una pronuncia definitiva delle autorità giudiziarie. Seguiranno diversi commenti  (tra cui anche questo mio), stupore, indignazione e poi, come ciliegina sulla torta, la convinzione in fondo nemmeno troppo priva di fondamento, che in Italia tutto quello che riguarda la gestione ambientale, sia destinato a svolgersi con queste modalità.  Negli anni 70 ho iniziato ad approfondire i temi di cui sentivo spesso parlare. Dalle sofisticazioni alimentari, all’inquinamento. Sono stati gli anni in cui si sono svolte le vicende dell’incidente di Seveso, dell’epidemia di colera a Napoli. Le mie prime riflessioni, istintive e mosse da una curiosità che faticavo a placare. Ho scelto di fare della chimica lo strumento per la mia crescita personale, e con la convinzione che fosse uno strumento utile per l’accesso al mondo del lavoro, e la sua conoscenza utile per la risoluzione dei problemi ambientali, anche se a molti poteva sembrare paradossale.

Ho seguito e cercato di capire le tantissime vicende legate alla questione ambientale in Italia. Molti forse le hanno dimenticate, ma io ancora le ricordo. Vicende storiche, dall’ACNA di Cengio narrata anche da Beppe Fenoglio in “Un giorno di fuoco”. Fenoglio scrive un brano che forse conoscono in pochi, ma che merita una rilettura: “Hai mai visto il Bormida. Ha l’acqua colore del sangue raggrumato, perché porta via i rifiuti delle fabbriche di Cengio e sulle sue rive non cresce più un filo d’erba. Un’acqua più porca e avvelenata, che ti mette freddo nel midollo, specie a vederla di notte sotto la luna.” E l’elenco non finisce qui: Caffaro a Brescia, e tante altre realtà locali che sfuggono. Trissino e PFAS una delle più recenti.

Questa vicenda Toscana poi mi lascia perplesso anche per un’altra ragione, molto personale. Vede coinvolta anche l’associazione dei conciatori di Santa Croce sull’Arno. L’associazione che ha costruito e gestisce il depuratore che si occupa della depurazione dei reflui conciari. Ho scritto un resoconto della visita effettuata nel Settembre 2019.

Ho voluto rileggerlo. Mi è sembrato un articolo corretto ed equilibrato. Che però si ferma al trattamento delle acque, perché quello fu l’oggetto della visita. Dei fanghi ci fu detto che venivano trattati in un altro sito. Che venivano anche recuperati i bagni di cromo esausti.

In questo momento mi domando quale sarà l’effetto immediato di quest’ultima vicenda. Perché la sensazione che provo fatico quasi a descriverla. Questo impianto è (o era) un fiore all’occhiello. Ha avuto un risonanza tale che è assurto agli onori non solo di questo blog, ma anche della televisione nazionale.

In questo servizio televisivo si parla del sito, come di un modello moderno e funzionale di economia circolare.

Nel frattempo anche le organizzazioni sindacali della zona, si dichiarano preoccupate delle ricadute che la vicenda potrà avere sul comparto conciario, sui lavoratori e sulla salute delle persone.

I residui della depurazione delle acque provenienti dal trattamento conciario, circa 8000 tonnellate sono state smaltite non nei siti autorizzati ma utilizzati come fondo di base di strade in costruzione. Pratica non nuova, perché è stata già utilizzata altrove.

https://tg24.sky.it/cronaca/2014/02/11/a4_autostrada_dei_veleni_rifiuti_tossici__cromo_esavalente

In questo momento vorrei cercare di essere razionale. Non ci riesco. Vicende come queste hanno il potere di farmi davvero arrabbiare.

Perché in Italia, e lo dico con molta amarezza la gestione dei beni comuni non interessa di fatto quasi a nessuno, oppure è mal compresa. E così si dalla sindrome Nimby (Not In My Back Yard, ossia non nel mio giardino) si passa alla sindrome Nimto (‘not in my terms of office’ cioè ‘non durante il mio mandato elettorale’).

Se le soluzioni non si trovano, o non si vogliono trovare, non c’è da stupirsi che poi sia la criminalità organizzata a gestire lo smaltimento dei rifiuti.

Questo blog ha come suo scopo, quello di fare informazione, di comunicare che possono esistere soluzioni tecniche praticabili.  Ogni vicenda di questo genere azzera, o diminuisce di molto la fiducia della pubblica opinione, di suo già troppo spesso disorientata.

Ora non rimane che aspettare la conclusione dell’inchiesta. L’ennesima di questo genere. L’ennesima vicenda in cui un albero che cade fragorosamente, fa più rumore di una foresta che cresce. E dove l’assuefazione rende quasi inutili gli sforzi di chi si applica con correttezza a cercare di gestire le questioni ambientali. Io personalmente penso che serva una rivoluzione morale ed etica. Che serva il ritrovare la nostra funzione di cittadini consapevoli. Perché a mio parere un paese disattento e superficiale, non può che esprimere una classe dirigente affine. I tempi per la soluzione dei problemi ambientali non sono maturi. Sono in fase di marcescenza. C’è molto da mettere in discussione.  Credo che in questo caso non siano le questioni tecniche quelle da mettere sotto la lente d’ingrandimento. Ma quelle etiche, morali, educative. Diversamente non ci saranno soluzioni. Né per noi, con le nostre specificità italiche, né per il resto di questo pianeta malato.

Una nuova CnS!

In evidenza

Margherita Venturi

La Chimica nelle Scuola, CnS, è, assieme alla Chimica &Industria, una rivista della Società Chimica Italiana, ma soprattutto è l’unica rivista nazionale di Didattica della chimica ; il suo obiettivo deve essere quello di diffondere le “buone pratiche” alla base di un insegnamento efficace della Chimica, una disciplina tanto importante quanto poco amata dagli studenti. Merita, quindi, di essere adeguatamente valorizzata e apprezzata.

È allora con malcelato orgoglio che annunciamo la “nascita” di una nuova CnS.

È cambiata la grafica, che speriamo piaccia e per la quale dobbiamo ringraziare la CLUEB, la casa editrice che d’ora in poi se ne farà carico, ma sono cambiate anche altre cose.

Prima di tutto la rivista sarà totalmente a libero accesso: chiunque, iscritto o no alla SCI e/o alla Divisione di Didattica, potrà accedere e scaricare gli articoli e le rubriche di interesse. Questo, a nostro avviso, è molto importante dal momento che le scuole, docenti e studenti, potranno usufruire appieno dei contributi formativi e culturali che da sempre la rivista pubblica. Ricordiamo inoltre che presto sarà realizzata un’applicazione per smartphone disponibile sulle principali piattaforme distributive (IOS e Android).

Altra novità riguarda il fatto che la rivista prevede numerose rubriche, ovviamente non tutte per ogni numero, che coprono i vari aspetti della didattica e della chimica, non dimenticando gli insegnanti di scuola primaria e gli studenti dei quali vogliamo sentire idee e opinioni. Come potete vedere c’è solo l’imbarazzo della scelta:

  • Percorsi didattici con approccio storico epistemologico per la scuola superiore –a cura di Eleonora Aquilini e Antonio Testoni
  • Percorsi laboratoriali –a cura di Maria Funicello e Anna Maria Madaio
  • Percorsi didattici per la scuola primaria –a cura di Valentina Domenici e Francesca Turco
  • La Chimica nei musei scientifici –a cura di Valentina Domenici e Luigi Campanella
  • Metodologie didattiche per l’università –a cura di Elena Ghibaudi e Antonio Floriano
  • Diffusione della cultura chimica/eventi importanti –a cura di Silvano Fuso, Elena Lenci e Antonella Rossi
  • Storia della chimica –a cura di Marco Ciardi e Roberto Zingales
  • Dare voce agli studenti per conoscere le loro opinioni sulla chimica e sull’insegnamento della chimica –a cura di Giorgio Cevasco e Raffaele Riccio
  • Le “keyword” della Chimica –a cura di Giovanni Villani
  • Pillole di saggezza –a cura di Margherita Venturi

Sono anche benvenute comunicazioni brevi e lettere alla redazione che potranno sicuramente arricchire il dibattito e la riflessione sui temi proposti dalla rivista.

Per le informazioni relative alla preparazione dei contributi, a chi inviarli e per altri dettagli consultare le Istruzioni per gli Autori al seguente link: https://www.soc.chim.it/it/riviste/cns/catalogo.

È doveroso a questo punto fare i ringraziamenti di rito.

Un grazie ai componenti del nuovo Comitato Scientifico, formato da Luigi Campanella (Presidente), Vincenzo Balzani, Agostino Casapullo e Carlo Fiorentini, che hanno accettato con entusiasmo l’incarico; un grazie particolare al Comitato di Redazione, formato dai curatori delle rubriche, a cui spetta forse il lavoro più gravoso perché, oltre a raccogliere i contributi, avranno anche il compito di farli valutare da opportuni referee; un grazie speciale, infine, al Presidente della Società Chimica Italiana, Gaetano Guerra, che non solo ci ha appoggiato nell’opera di rinnovamento della rivista, ma che ne farà anche parte come Direttore Onorario.

Il passaggio al nuovo non deve, però, dimenticare chi ha duramente lavorato per mantenere in vita la CnS prima di noi e, quindi, è doveroso ringraziare il passato Comitato Scientifico, quello di Redazione e, in particolare, Luigi Campanella e Pasquale Fetto, perché senza la loro dedizione non saremmo arrivati a questo punto.

Ora non resta che concludere e lo vogliamo fare con un impegno e una speranza: noi cercheremo di non deludervi, impegnandoci al massimo, ma la vostra collaborazione, non solo per quanto riguarda l’invio di contributi, ma anche nel divulgare queste informazioni, è fondamentale per far sì che la CnS diventi sempre più attraente per i giovani e importante dal punto di vista didattico e culturale. Speriamo di essere sommersi di contributi da pubblicare!

Il Comitato Editoriale

Direttore: Margherita Venturi

Vice-Direttori: Eleonora Aquilini e Giovanni Villani

Dove si trova la vecchia CnS?

http://www.soc.chim.it/divisioni/didattica/cns

Dove si trova la nuova CnS?

https://www.soc.chim.it/it/riviste/cns/catalogo

Oggi Giornata della Terra, parliamo di carta.

In evidenza

Luigi Campanella, già Presidente SCI

Il 18 marzo è stata la Giornata mondiale del riciclo. A istituirla nel 2018 è stata la Global recycling foundation per celebrare l’importanza del riciclaggio e sensibilizzare cittadini e istituzioni.

Entro il 2035 i volumi di rifiuti urbani conferiti in discarica non dovranno superare la soglia del 10%. Si tratta di uno dei principali obiettivi fissati dall’Ue e rappresenta un impegno che da metà agosto, con il recepimento del pacchetto di normative europee sull’economia circolare, l’Italia non potrà più tradire.

In questa linea si colloca il Decreto 188/2020 “Regolamento recante disciplina della cessazione della qualifica di rifiuto da carta e cartone“, illustrato di recente con interventi del Ministero della Transizione Ecologica e dell’Ispra: secondo tale decreto i rifiuti di carta e cartone vengono invece qualificati come carta e cartone recuperati. Il tema assume particolare attualità rispetto ad alcuni dati recenti: negli ultimi 12 mesi è aumentato del 22 % il volume degli imballaggi presenti nelle raccolte di carta e cartone. Se questo da un lato vuol dire che la rivoluzione informatica che ha tra i suoi fini anche quello di ridurre il consumo di carta, quindi di cellulosa, quindi di alberi sacrificati non è riuscita nel suo intento in corrispondenza dell’emergenza pandemica, dall’altro è una chiara dimostrazione che alcune modificate abitudini, in particolare la crescita di e-commerce (65 % degli italiani lo  ‘hanno adottato) e food delivery non hanno intaccato il senso di responsabilità dei cittadini verso la raccolta differenziata di carta e cartone. Da una statistica (fonte AstraRicerche) risulta che il 63% degli italiani ha differenziato in maniera ancora più attenta carta e cartone proprio durante il periodo della pandemia. PaperWeek:"PNNR e Filiera della carta, stampa e ...

Sullo stesso tema dal 12 al 18 aprile si svolge la Paper Week, una settimana di appuntamenti digitali pensati per approfondire i diversi aspetti legati al mondo del riciclo di carta e cartone. Alcune delle iniziative saranno rivolte alla scuole ed in chiave educazione questa scelta è fondamentale. Il tema rientra all’interno di una più ampia visione relativa al nuovo modello circolare di economia al quale la filiera  della carta e cartone può adattarsi particolarmente bene tanto che ad essa viene assegnato un tasso di circolarità di quasi il 60% e di riciclo di oltre l’80%. Questi dati sono compatibili e coerenti con un significativo contributo alla transizione ecologica ed allo sviluppo di modelli industriali più efficienti, sostenibili e tecnologici, che mirino al risparmio energetico ed alla decarbonizzazione della nostra società. L’Italia a volte bistrattata per una certa approssimazione nel contrasto a derive economiche e sociali in questo caso ha dimostrato di essere fra i primi Paesi sia nel riciclo che nella raccolta differenziata di carta e cartone. Dalla pasta di cellulosa ottenuta grazie al processo di riduzione in poltiglia della carta smaltita è possibile ottenere una nuova carta, anche di buona qualità. Una potenziale alternativa ai processi convenzionali di riciclo è quella di far uso di composti enzimatici. Questa promettente tecnologia del trattamento delle carte da macero per via enzimatica, trova la sua ottimale applicazione nella rimozione dei toner delle carte da ufficio e per stampanti laser, dove con i processi convenzionali si hanno difficoltà di disinchiostrazione.

Restano ancora problemi quali il divario fra Nord e Sud nella raccolta differenziata che, se superato, consentirebbe di intercettare, secondo dati  forniti da Comieco, il Consorzio per il riciclo di carta e cartone, almeno 800.000 tonnellate di carta e cartone.

Le risorse del Recovery Fund in questa prospettiva potrebbero risultare preziose. È poi necessario mantenere viva l’attenzione e la sensibilizzazione dei cittadini ed in questo senso è in questo giorni in corso una sfida in diretta streaming fra i comuni italiani per mettersi alla prova sul tema del riciclo  di carta e cartone e competere tra loro per dimostrare chi sia il riciclatore più preparato sulle regole che garantiscono la qualità della raccolta differenziata di carta e cartone e che al contempo riflette la necessità di trovare sempre soluzioni diverse ed al passo con i tempi per sensibilizzare su  un tema fondamentale, quello dell’educazione ambientale. La sfida si svolge quasi come un video gioco, uno strumento che il grande pubblico ha dimostrato di apprezzare molto con una crescita del suo utilizzo di oltre il 20%in un anno.

Energia per l’Italia sul PNRR (parte seconda)

In evidenza

ENERGIAPERLITALIA,coordinatore Vincenzo Balzani

Ospitiamo volentieri i commenti del gruppo Energia per l’Italia coordinato da Vincenzo Balzani

sul Piano nazionale di ripresa e resilienza (PNRR); il testo è pubblicato in due parti.

Esso è comunque recuperabile integralmente da energiaperlitalia,

la prima parte di questo post è stata pubblicata qui

4. Economia Circolare

Molto contenuto appare la quota di finanziamento destinata all’Economia Circolare (4,5 miliardi di euro)

Occorre realizzare una rete impiantistica tale da rendere autosufficiente ogni regione e provincia italiana per il riciclo dei rifiuti e il riuso dei prodotti dismessi in Centri di preparazione per il riutilizzo.

Occorre promuovere iniziative di ricerca e sviluppo per nuove tecnologie e processi industriali per il riciclo dei rifiuti Elettrici ed Elettronici, in un’ottica di Urban Mining per il recupero e riciclo di materie prime seconde preziose e critiche.

Occorre promuovere iniziative di ricerca e sviluppo per nuove tecnologie e processi per la riduzione della produzione di plastiche e di rifiuti di plastica e massimizzarne il riciclo attraverso un’implementazione dell’efficienza soprattutto a livello industriale.

Occorre finanziare impianti di smaltimento rifiuti adeguati in Campania per uscire dalle procedure di infrazione che costano alla comunità centinaia di migliaia di euro al mese.

E’ anche necessario velocizzare le pratiche amministrative nei vari ministeri per le Valutazioni di Impatto ambientale e per le VAS

Istruzione e Ricerca (Missione 4)

Una conoscenza diffusa del metodo scientifico e dei suoi sviluppi contemporanei è necessaria: aiuta a comprendere che i problemi cui ci troviamo di fronte in tanti campi diversi non sono semplici. Occorre colmare questa lacuna, perché oggi viviamo “immersi” in sistemi complessi, con cui dobbiamo interagire in maniera corretta per trovare delle soluzioni efficaci ed eque (come economia globalizzata, diffusione delle pandemie, sistema climatico, web, ecc.)

E’ oggi indispensabile e urgente porre in atto un grande piano di formazione e informazione, principalmente nella scuola, ma anche con interventi extrascolastici di formazione permanente, che permetta di raggiungere un’alfabetizzazione estesa e un avvicinamento ai metodi e ai risultati della scienza da parte dei giovani e di strati i più ampi possibili della cittadinanza.

Questo consentirà un più diffuso apprezzamento della scienza, dei risultati raggiunti e delle incertezze che permangono, e si potranno riconoscere e isolare con più facilità le fake news che sempre più spesso compaiono nei mezzi di informazione.

Insegnamento e corretta comunicazione della scienza sono una priorità del Paese, così come la ricerca e la ricerca scientifica in particolare. In questo senso, come indicato da studi di autorevoli economisti, gli investimenti in ricerca risultano un efficace moltiplicatore di sviluppo. Ma qui, purtroppo, scontiamo gravi carenze: basti pensare che l’Italia investe in ricerca solo 150 Euro annui per ogni cittadino, contro i 250 e i 400 di Francia e Germania, rispettivamente, e che i nostri ricercatori sono solo 75.000 contro i 110.000 della Francia e 160.000 della Germania.

In questa situazione, riteniamo fondamentale investire in istruzione e ricerca, sfruttando anche il PNRR, per raggiungere i futuri obiettivi europei di spesa in questi settori, o almeno per allinearci con la percentuale di PIL dedicata attualmente a questo scopo dai Paesi che maggiormente puntano su un’economia della conoscenza.

Salute (Missione 6)

Assolutamente prioritario è il diritto alla salute pubblica, inteso come pieno benessere e non soltanto come assenza di malattia. E’ necessario il rafforzamento della medicina territoriale e della copertura sanitaria di qualità per tutti.

E’ anche necessaria un’azione capillare di diffusione, con ogni mezzo d’informazione, della cultura e della pratica della evitabilità di molte malattie mediante la conservazione e la difesa dell’ambiente e delle sicurezze logistiche quotidiane, la modalità e la qualità del produrre e consumare, l’adozione di opportuni stili di vita, la scolarizzazione e il contrasto alle diseguaglianze sociali.

Inoltre è importante promuovere la prevenzione primaria (evitabilità delle malattie connesse all’organizzazione sociale, ai sistemi produttivi e di consumo) e quella secondaria (diagnosi precoce) presso la pubblica opinione, le Istituzioni, le sedi della Politica, delle autorità scientifiche, accademiche e scolastiche.

Commento su tre importanti problemi fra loro collegati

1.  CCS (Carbon Capture and Storage)

Come è noto, la CO2, gas generato dalla combustione dei combustibili fossili, immessa nell’atmosfera contribuisce ad aumentare l’effetto serra e il conseguente cambiamento climatico. Secondo gli scienziati dell’IPCC, per frenare il cambiamento climatico, definito dalla conferenza di Parigi del 2015 “il pericolo più grave per l’umanità”, è necessario azzerare le emissioni di CO2 entro il 2050. Questo è quanto prevede l’Accordo di Parigi, al quale hanno aderito praticamente tutte le nazioni del mondo, compresi gli Stati Uniti che poi, con Trump presidente, sono usciti dall’accordo e con Biden vi sono rientrati. Poiché in questi ultimi sei anni le emissioni di CO2 sono aumentate, secondo gli scienziati bisogna agire più rapidamente di quanto fosse stato previsto e azzerare le emissioni entro il 2035.

La strada maestra per raggiungere l’obiettivo dell’azzeramento delle emissioni di CO2 è una graduale transizione dall’uso dei combustibili fossili a quello delle energie rinnovabili (Sole, vento e acqua), che non producono né CO2 né sostanze inquinanti.

Le compagnie petrolifere invece, prima fra tutte ENI, stanno intensificando le estrazioni di combustibili fossili in tutto il mondo e, con il loro grande potere, agiscono a tutti i livelli e con ogni mezzo per evitare che i combustibili fossili vengano messi al bando. Secondo le compagnie petrolifere, infatti, si può continuare ad usare i combustibili fossili, anche ben oltre il 2050, evitando che la CO2 prodotta sia immessa in atmosfera. Questa operazione, indicata con la sigla CCS (Carbon Capture and Sequestration), implica la cattura dell’anidride carbonica dai fumi emessi da impianti industriali, la sua separazione da altri gas, il suo trasporto con gasdotti in un impianto di raccolta e infine il suo deposito in giacimenti di idrocarburi ormai esauriti, dove dovrà rimanere “per sempre”. Nelle intenzioni di Eni, quello di Ravenna sarà il più grande impianto del genere in Europa e un “hub” per il sud Europa e il Mediterraneo.

La strategia basata sul CCS per controllare il cambiamento climatico a nostro parere è irrazionale e impraticabile, come si evince dalle numerose, grandi criticità che si possono riassumere nei seguenti 12 punti:

1)- Produrre CO2 per poi catturarla e immagazzinarla è un procedimento contrario ad ogni logica scientifica ed economica; è molto più semplice ed economico usare, al posto dei combustibili fossili, le energie rinnovabili (fotovoltaico, eolico, idroelettrico) che non producono né CO2, né inquinamento.  

2)- Il CCS è una tecnologia sperimentale ancora in fase di ricerca; studi sugli impianti CCS sono stati finanziati con fondi europei dal 2009 al 2017, ma non hanno portato ad alcun risultato utile (1).

3)- E’ possibile applicare il CCS solo ai grandi impianti emettitori di CO2, come le centrali termo-elettriche. Non è possibile usarlo per catturare le emissioni di mezzi di trasporto, abitazioni e piccole industrie.

4)- La tecnologia CCS è molto dispendiosa perché per catturare CO2 c’è bisogno di energia. Ad esempio, per applicare questa tecnologia a una centrale termoelettrica a carbone è necessario affiancare alla centrale un’unità dedicata, alimentata a gas. Cioè, si brucia gas fossile (senza compensare le relative emissioni) per alimentare l’impianto CCS che poi cattura solo una piccola parte della CO2 emessa dalla centrale. Oltre al costo dell’impianto dedicato, si deve anche considerare che la cattura di CO2 all’interno della centrale riduce le sue prestazioni del 10%-20%.

5)- Un impianto CCS in Norvegia viene utilizzato dalla compagnia petrolifera Equinor per rivitalizzare parzialmente, con l’immissione di CO2, giacimenti petroliferi quasi esauriti (Enhanced Oil Recovery, EOR). Questo, che attualmente è l’unico uso che si può fare della CO2 catturata, potrebbe essere lo scopo nascosto della costruzione di un impianto CCS di Eni a Ravenna. L’Enhanced Oil Recovery, che taluni considerano come un esempio di economia circolare, è semplicemente un artificio per continuate ad estrarre e quindi usare  i combustibili fossili.

 6)- L’unico impianto CCS americano, utilizzato per sequestrare una parte della CO2 emessa dalla centrale a carbone di Petra Nova in Texas, è stato chiuso da pochi mesi a tempo indeterminato perché ritenuto non più sostenibile dal punto di vista economico dal gestore dell’impianto, NRG Energy (2,3). Anche in questo caso la CO2 catturata era trasportata via tubo in giacimenti petroliferi per potenziare l’estrazione (EOR). La performance dell’impianto di Petra Nova era considerato un test per capire se la tecnologia CCS può veramente essere utile nella battaglia contro il cambiamento climatico.  La risposta è chiare: il CCS è economicamente insostenibile.

7)- La cattura della CO2 non elimina l’inquinamento causato da combustibili fossili, che ogni anno causa in Italia 80.000 morti premature; il passaggio dai combustibili fossili alle energie rinnovabili risolverebbe anche questo problema.

8)- La letteratura scientifica è scettica sulla possibilità che si possa immagazzinare permanentemente CO2. La sua fuoriuscita vanificherebbe l’opera intrapresa per combattere il cambiamento climatico; una fuoriuscita improvvisa potrebbe creare danni gravi alla popolazione (soffocamento: CO2, gas pesante, non si allontana dalla superficie della Terra)

9)- Lo stoccaggio di CO2, come hanno dimostrato analoghe attività in altre aree, potrebbe provocare un progressivo incremento della sismicità; cosa molto pericolosa nel territorio ravennate, che già presenta un rischio sismico medio-alto ed è soggetto a significativi fenomeni di subsidenza.

10)– Sviluppare il CCS significa investire miliardi di euro pubblici che sarebbe invece necessario e urgente utilizzare per sviluppare l’uso di energie rinnovabili pienamente collaudate come fotovoltaico ed eolico. A questo proposito è bene notare che Il costo di un kW di fotovoltaico è diminuito di oltre 20 volte negli ultimi 20 anni e che attualmente, con l’eolico, il fotovoltaico è la tecnologia meno costosa per produrre energia elettrica. L’efficienza di conversione della luce in elettricità di un pannello fotovoltaico supera ormai il 20%. Se la paragoniamo alla efficienza della fotosintesi naturale, che è mediamente inferiore all’1%, possiamo capire come il fotovoltaico sia tra le invenzioni più dirompenti del XX secolo.

11)- Il CCS non è stato ancora sviluppato su una scala macroscopica corrispondente alla necessità di evitare l’immissione di significative quantità di CO2 in atmosfera (4).

12)- Una analisi comparativa dimostra inequivocabilmente che l’elettricità prodotta dalle energie rinnovabili ha un ritorno energetico superiore a quello della elettricità da centrali termoelettriche dotate di CCS (5).

Si conclude quindi che il CCS è un disperato tentativo delle compagnie petrolifere per tenere in vita processi produttivi e di approvvigionamento energetico basato sui combustibili fossili. In ogni caso, non è opportuno investire ingenti risorse pubbliche nella realizzazione di un sistema di cattura e stoccaggio di CO2 perché i risultati promessi non sono affatto garantiti, né dal punto di vista della sicurezza, né dal punto di vista climatico.

Le risorse disponibili debbono essere usate per lo sviluppo delle energie rinnovabili, particolarmente fotovoltaico ed eolico, nonché per gli impianti di accumulo di energia elettrica, per l’efficienza energetica degli edifici e delle attività produttive e commerciali; tutti questi settori garantiscono anche una più un’alta intensità di posti di lavoro rispetto al settore dei combustibili fossili.

(1) Corte dei conti Europea, N. 24, 2018, Relazione speciale: … I progressi attesi non sono stati realizzati …

(2) QualEnergia, 5 febbraio 2021: La cattura della CO2 fa un buco nell’acqua negli Usa: il caso di Petra Nova

(3)  Reuters, August 7, 2020: Problems plagued U.S. CO2 capture project before shutdown: document

(4) Energy Environ. Sci, 1062, 11, 2018: Carbon capture and storage (CCS)

(5) Nature Energy, 456, 4, 2019: Comparative net energy analysis of renewable electricity and carbon capture and storage

2. CCS e idrogeno

Quando la produzione di energia elettrica da fonti rinnovabili sarà molto abbondante, diventerà conveniente utilizzarla, in parte, per produrre idrogeno (H2) mediante elettrolisi dell’acqua. L’idrogeno è un gas che può essere usato come combustibile (contenuto energetico molto superiore a quello del metano), oppure può essere riconvertito in energia elettrica mediante pile a combustibile (fuel cells). In entrambi i casi produce solo acqua: niente CO2, nessuna sostanza inquinante. L’idrogeno è un gas incolore. Quello prodotto mediante energia elettrica rinnovabile mediante l’elettrolisi dell’acqua è idrogeno purissimo e viene chiamato significativamente idrogeno verde. La produzione e l’utilizzo di idrogeno verde richiedono vari processi di conversione, che implicano un’efficienza sostanzialmente inferiore rispetto all’utilizzo diretto dell’elettricità. L’idrogeno è quindi una risorsa costosa e preziosa che deve essere utilizzata solo in alcuni settori specifici come il trasporto pesante (es., navi e aerei) e l’industria pesante (es., acciaierie). Il primo passo verso la produzione e l’uso di l’idrogeno verde è l’aumento della potenza elettrica rinnovabile per possederne surplus da immagazzinare sotto forma di idrogeno.

Attualmente l’idrogeno viene usato principalmente per la sintesi dell’ammoniaca (fertilizzanti) o per la raffinazione del petrolio e viene quasi tutto prodotto a partire da metano, petrolio o carbone mediante processi che comportano l’emissione di ingenti quantità di CO2 in atmosfera. Questo idrogeno viene chiamato idrogeno grigio; non è puro, ma oggi costa circa tre volte meno dell’idrogeno verde. Utilizzando impianti basati sull’uso di combustibili fossili abbinati a CCS, la CO2 generata potrebbe venire catturata e intrappolata: questo idrogeno, che non è ancora stato prodotto, viene chiamato idrogeno blu.

Le aziende del petrolio e del gas, in Italia ENI e SNAM, puntano sull’idrogeno blu per poter continuare a estrarre e usare metano. Il principale obiettivo del progetto CCS ENI a Ravenna è proprio diffondere l’idea che si possa produrre idrogeno blu. Ma abbiamo visto che la tecnologia CCS non è economicamente sostenibile e neppure tecnicamente provata, dopo 20 anni di prove. In ogni caso, ENI e le altre compagnie petrolifere cercano di rientrare in gioco per ottenere finanziamenti dal Next Generation EU spacciando per verde la tecnologia CCS perché, in teoria, cattura e sequestra CO2. Accade così che nell’Unione Europea la lobby delle aziende dei fossili, registrata col nome di Hydrogen Europe, preme perché l’idrogeno blu sia incluso nei piani di finanziamento per la transizione energetica. La Re:Common, un’associazione che fa inchieste e campagne contro la corruzione, ha notato con preoccupazione che in effetti “la strategia europea sull’idrogeno varata dalla Commissione Europea nel luglio 2020 è molto vicina alle richieste della lobby”. RE:Common definisce il CCS un inganno che serve all’ENI per dare un parvenza di transizione; è cioè una operazione di green washing, quando in realtà l’azienda continua a puntare su giacimenti di metano e petrolio.

3. Idrogeno e fusione nucleare

Il 16 marzo scorso, nell’illustrare il programma del Ministero della Transizione Ecologica, il ministro Cingolani ha fatto alcune dichiarazioni molto discutibili. Ha citato il nucleare da fusione, che dagli anni Settanta del secolo scorso ci viene ripetutamente promesso come fattibile “entro 30 anni” per risolvere la crisi energetico climatica. In effetti, anche oggi gli esperti ci dicono che la fusione nucleare, nella migliore delle ipotesi, non potrà dare alcun contributo concreto alla produzione di energia elettrica per usi civili prima del 2060, mentre sappiamo che dobbiamo mettere sotto controllo il cambiamento climatico entro i prossimi 15-20 anni.

Il ministro Cingolani è, inspiegabilmente, molto più ottimista: “Io spero che se avremo lavorato bene, fra dieci anni i nostri successori parleranno di come abbassare il prezzo dell’idrogeno verde e di come investire sulla fusione nucleare. Questa è la transizione che ho in testa … L’universo funziona con la fusione nucleare. Quella è la rinnovabile delle rinnovabili. Noi oggi abbiamo il dovere nel PNRR di potenziare il ruolo dell’Italia nei progetti internazionali ITER e MIT sulla fusione. Quello è un treno che non possiamo perdere”. L’idrogeno prodotto per elettrolisi dell’acqua utilizzando energia elettrica proveniente dal nucleare viene chiamato idrogeno viola ed è puro come l’idrogeno verde.

Cingolani ha anche affermato che “Fra dieci anni avremo l’idrogeno verde e le automobili che andranno a celle a combustibile”. Forse ignora che il consumo totale di energia di un’auto a idrogeno è oltre il triplo di quella di un’auto elettrica a causa delle perdite associate alla produzione di idrogeno da rinnovabili, al suo trasporto e stoccaggio e alla ri-conversione dell’idrogeno in elettricità con le celle a combustibile. Quindi, la competizione delle auto a idrogeno con le auto elettriche è persa in partenza per un fattore tre a vantaggio dell’elettrico.

Cingolani ha anche detto “Abbiamo un decennio per rendere la nostra società competitiva sull’idrogeno verde. Al momento non abbiamo gli impianti, non sappiamo come stoccare e come utilizzare l’idrogeno. Ma questa è solo la realtà odierna. Dobbiamo cominciare a lanciare i nostri programmi, dobbiamo creare quel sistema che intorno a quel vettore energetico ci consenta di operare al meglio”. E in più occasioni ha anche parlato di idrogeno blu, il progetto proposto da ENI con impianti CCS. Questo progetto in un primo tempo era stato inserito nel Recovery Plan; scartato nella seconda versione, potrebbe riapparire in quella finale. Insomma, non vorremmo che l’uso dell’idrogeno blu fosse considerato un ponte necessario per passare poi all’idrogeno verde, così come ENI sostiene da anni che l’uso del metano è un ponte necessario per poi passare alle rinnovabili, giudicate non ancora mature.

Infatti, parlando della transizione energetica, Cingolani ha parlato anche, implicitamente, del ruolo del metano: «Sappiamo quale strada dobbiamo fare, dobbiamo partire da A e arrivare a B, più difficile è dire con quale pendenza raggiungere la meta». Il Piano integrato energia e clima del governo Conte prevedeva molto metano e una curva di crescita delle rinnovabili «schiacciata»: 4,5-5 GW di potenza di rinnovabili installata per il 2025. Come abbiamo visto, questo aumento è assolutamente insufficiente. La potenza installata deve essere di almeno 20 GW al 2026 e 40-50 GW al 2030. Con un capacity factor medio del 20% (fotovoltaico e eolico), 50 GW corrispondono a circa 90 TWh, cioè circa un quarto della domanda attuale, che è il minimo per raggiungere l’obiettivo EU di 2/3 di elettricità rinnovabile al 2030. Si tratta di un obiettivo ciclopico che va affrontato con urgenza, incominciando con l’attuare procedure autorizzative serie, ma molto più snelle per sviluppare eolico e fotovoltaico, tecnologie sulle quali si sa già tutto. L’ultimo impianto eolico entrato in funzione ci ha messo otto anni per essere autorizzato.

Invenzioni anticovid.

In evidenza

Luigi Campanella, già Presidente SCI

Dinnanzi al covid19 che rallenta ma non si ferma si moltiplicano le iniziative di “difesa personale”, non tutte scientificamente supportate, ma tutte legate alla speranza di proteggerci dal virus pandemico.

Cominciamo da uno studio dell’Università di Città del Messico secondo cui la pandemia si sconfigge a tavola con una dieta ricca di omega 3 e 6 presenti in molti alimenti a base di pesce: ne deriverebbe un effetto antiinfiammatorio ed un’accresciuta resistenza alla penetrazione del virus nelle nostre cellule.

Un’altra proposta riguarda una mascherina innovativa dotata di un sensore che trasmette i dati della respirazione al cellulare e di un filtro che rileva l’inquinamento: dai due dati si ricavano informazioni preziose sul nostro stato di salute.

Un cerotto da applicare sotto l’ascella funge da termometro e consente di controllare da remoto la temperatura del corpo: questo sistema è stato messo a punto nell’Università di Tor Vergata.

2 mascherine, una Ffp2 sovrapposta ad una chirurgica, vengono consigliate dal consigliere di Joe Biden, Antony Fauci: la protezione totale risulta aumentata, soprattutto rispetto alle miniparticelle di saliva diffuse dai vicini.

L’Universitá della Corea propone un armadio disinfettante per tenere i nostri vestiti sempre privi di carica virale.

Un italiano, Cosimo Scotucci, ha scoperto una fibra funzionale che ti guida, legata al pavimento, verso percorsi più sanificati.

Infine secondo i risultati dello studio clinico Remap-Cap resi pubblici dal Governo Inglese due farmaci impiegati contro l’artrite reumatoide risulterebbero attivi anche contro il covid19.

Tenuto conto della raccomandazione del Ministero della Salute circa le condizioni di idratazione e adeguata nutrizione dei malati covid19 assume importanza, come osservato in più sedi, l’assunzione di vitamina C, principio attivo di molti agrumi. Da qui il moltiplicarsi di studi sugli agrumi. In particolare l’attenzione dei ricercatori è concentrata sulla composizione in flavonoidi considerati preziosi componenti alimentari con possibile attività antivirale, modulatori del sistema immunitario e sentinelle dell’organismo rispetto allo stress ossidativo associato all’infezione.

Particolarmente presente negli agrumi l’esperidina è stata studiata per i suoi effetti benefici nel regolare il metabolismo e la pressione del sangue,nell’accrescere le capacità antiox dell’organismo. Con riferimento specifico al covid 19 sono emerse dagli studi due proprietà, la capacità dell’esperidina a legarsi alla proteina Spike del coronavirus impedendo il legame al recettore e quindi la penetrazione del virus nella cellula e la sua capacitá di inibire l’enzima proteolitico necessario alla replicazione del virus.

Esperidina

Oltre all’esperidina un altro flavonoide che può risultare utile nella lotta al covid 19 è la quercetina, antiossidante ed antiinfiammatorio, contenuto nei capperi, cicoria, piselli e cipolle.Questi composti giovano all’organismo in quanto favoriscono il metabolismo dei carboidrati e dei lipidi migliorando le condizioni di salute ed evitando copatologie che possono aggravare quella dovuta al virus.

Quercetina

Ricerche sono ancora in atto in tutto il mondo e la speranza è quella di acquisire nuove e più profonde conoscenze in materia.

Energia per l’Italia sul PNRR (parte prima)

In evidenza

ENERGIAPERLITALIA, coordinatore Vincenzo Balzani

Ospitiamo volentieri i commenti del gruppo Energia per l’Italia coordinato da Vincenzo Balzani

sul Piano nazionale di ripresa e resilienza (PNRR); il testo sarà pubblicato in due parti.

Esso è comunque recuperabile integralmente da energiaperlitalia,

Bologna, 4 aprile 2021

Hanno contribuito alla stesura di questo documento: Nicola Armaroli, Vincenzo Balzani, Alessandra Bonoli, Sergio Castellari, Marco Cervino, Vittorio Marletto, Leonardo Setti

Riassunto

Il gruppo Energia per l’Italia (http://www.energiaperlitalia.it/) ha esaminato e commentato alcuni aspetti del PNRR (Piano Nazionale di Ripresa e Resilienza), con particolare attenzione ai provvedimenti centrali per una reale transizione energetica e alle azioni efficaci di mitigazione e adattamento ai cambiamenti climatici.

 A nostro parere il Piano non affronta adeguatamente gli obiettivi europei in materia di clima ed energia. Infatti, considerando le proposte di investimenti in nuove azioni in campo climatico (inclusa l’energia), non raggiunge la quota prescritta del 37% del totale dei fondi.

Notiamo che nel Piano manca una exit strategy dai combustibili fossili al 2050, cioè manca uno schema con cui agire concretamente per il passaggio all’energia elettrica prodotta da fonti rinnovabili quale sole vento e acqua per applicazioni nell’industria, nell’agricoltura, nella climatizzazione degli edifici e ancor più nella mobilità pubblica e privata di persone e merci.

L’aumento di energia rinnovabile proposto nel PNRR (4,5-5 GW) è assolutamente insufficiente. La nuova potenza installata deve essere aumentata di un fattore 5x al 2026 (20-25 GW) e 10x al 2030 (40-50 GW). Con un capacity factor medio del 20% (FV + eolico) 50 GW corrispondono infatti a circa 90 TWh, cioè un quarto della domanda elettrica attuale.

Anche per raggiungere l’obiettivo europeo di -55% emissioni di CO2 al 2030 rispetto al 1990 è necessario nei prossimi 10 anni uno sforzo molte volte superiore rispetto a quello degli ultimi 30 anni, dato che dovremo ridurre le emissioni di almeno 160 milioni di tonnellate di CO2 eq rispetto alle attuali 390 nette.

Per questo è necessario da una parte semplificare ed accelerare molto le procedure di autorizzazione di impianti eolici in mare e in terra e di impianti fv a terra, su aree dismesse o da bonificare, dall’altra sostenere l’autoproduzione di fotovoltaico sui tetti con bonus di almeno il 65% in fattura.

Inutili o dannose invece le proposte PNRR di riportare in Italia la produzione di moduli FV, saldamente in mano alla Cina, o peggio di sostenere il carico di base della rete elettrica con il gas, quando invece la tendenza nel resto dell’occidente è di sfruttare al massimo i pompaggi idrici (oggi largamente inutilizzati) e puntare con decisione all’accumulo in grandi batterie, potenziando la filiera elettrochimica (meccatronica di precisione) in cui l’Italia vanta punte di eccellenza. Vanno abbattuti i costi di realizzazione dei punti di ricarica diffusa dei mezzi elettrici nonché le relative tariffe, mentre l’idrogeno va riservato in via esclusiva a settori specifici come il volo la navigazione e la siderurgia, dato che ogni altra applicazione delineata nel PNRR rasenta la follia energetica (usare 100 W per produrne 10).

Anche il tema cruciale dell’adattamento ai cambiamenti climatici è trattato in modo insufficiente nel Piano, mancando fondi adeguati per le aree urbane, una governance multilivello del tema resilienza che sia partecipata e integrata nell’esistente (es. settore risorse idriche), nonché uno schema di monitoraggio e valutazione delle misure attuate.

Sul tema dell’economia circolare sono scarsi i fondi previsti per gli impianti necessari a rendere autosufficiente ogni regione e provincia italiana per il recupero e riciclo di materie prime seconde. Anche qui le procedure di autorizzazione risultano troppo complesse e lente.

Essenziale puntare su istruzione e ricerca sia per infondere un’adeguata cultura della transizione energetica nella popolazione a partire dai giovani sia per colmare il grande divario che ci separa dagli altri paesi europei (l’Italia investe in ricerca solo 150 Euro annui per ogni cittadino, contro i 250 e i 400 di Francia e Germania, e ha solo 75.000 ricercatori contro i 110.000 della Francia e 160.000 della Germania).

Il gruppo disapprova fermamente l’approccio CCS (Cattura del Carbonio e Stoccaggio) sostenuto nel PNRR, elencando ben 12 ragioni di critica dello stesso tra le quali spicca l’indimostrata applicabilità del metodo alla scala necessaria e la sua efficacia reale, con il rischio di gravi ripercussioni sul territorio. Per gli stessi motivi disapprova sia l’idea di sfruttare il CCS per produrre dal metano il cosiddetto idrogeno blu, sia l’idea ministeriale di considerare imminente l’arrivo di energia illimitata da fusione nucleare, che contrasta con la storia ormai cinquantennale del settore. I fondi attualmente erogati alle fonti fossili vanno invece dirottati su tecnologie perfettamente consolidate come le rinnovabili (sole, vento e acqua) che in pochi mesi dal progetto, se autorizzate, possono produrre l’energia elettrica pulita indispensabile per raggiungere gli obiettivi europei al 2030 e la neutralità climatica al 2050.

Osservazioni su punti specifici del documento

Rivoluzione verde e transizione ecologica (Missione 2)

La transizione ecologica deve basarsi sul concetto di ecologia integrale, ben espresso nel capitolo 4 dell’enciclica “Laudato si’” di papa Francesco: ecologia ambientale, economica, sociale e culturale, per il bene comune e la giustizia tra le generazioni.

Siamo di fronte a un impegno senza precedenti, che appare quasi insormontabile, soprattutto in termini di urgenza. Ma occorre accogliere la sfida e avviare da subito la transizione necessaria.

A nostro parere l’ultima versione del PNRR non affronta in maniera adeguata gli obiettivi in materia di clima e energia delineati nel Quadro 2030 per il clima e l’energia e nel Green Deal Europeo e non considera pienamente i capisaldi delineati nella Guidance Europea (Commission Staff Working Document – Guidance to MS Recovery and Resilience Plans, 17.9.2020). Infatti, considerando le proposte di investimenti in nuove azioni in campo climatico (includendo l’energia), non si raggiunge la quota (come prescritta nelle Guidance Europee) del 37% del totale dei fondi.

Nel PNRR questi fondi sono pianificati principalmente per i seguenti obiettivi: contrasto del dissesto idrogeologico; gestione sostenibile della risorsa idrica; attuazione di un programma di riforestazione; miglioramento della qualità delle acque interne e marine. Sono invece scarsi i fondi assegnati per l’adattamento climatico.

1. Transizione energetica e sviluppo delle rinnovabili

Premessa

La transizione energetica dai fossili alle energie rinnovabili implica il passaggio dai combustibili alla elettricità come energia di uso comune. Produrremo quantità sempre maggiori di energia elettrica con fonti rinnovabili (Sole, vento, acqua). Dovremo estendere l’uso dell’energia elettrica nell’industria, nell’agricoltura, nella climatizzazione degli edifici e ancor più nella mobilità, perché i motori elettrici sono da 3 a 4 volte più efficienti dei motori termici. Dovremo sviluppare prevalentemente trasporti pubblici alimentati dall’elettricità, e quindi usare meno aerei, più treni, tram e autobus elettrici e costruire meno autostrade e più ferrovie. Dovremo smettere di fornire sussidi alle fabbriche di auto, soprattutto se di lusso, con motori a combustione e trasferire alle energie rinnovabili i sussidi di cui ancora oggi godono i combustibili fossili.

Purtroppo, notiamo che nel Piano manca una exit strategy dai combustibili fossili al 2050, cioè manca uno schema con cui agire concretamente.

Fotovoltaico ed eolico oggi sono le due tecnologie che forniscono energia elettrica ai costi più bassi, anche tenendo conto dell’integrazione con sistemi di accumulo. Nel mercato mondiale della nuova potenza elettrica installata hanno raggiunto una quota di circa il 70%, superando nettamente le tecnologie tradizionali basate su carbone, gas e nucleare. Il fotovoltaico converte la luce del Sole in energia elettrica con un’efficienza di circa il 20%, quasi cento volte maggiore dell’efficienza con cui la fotosintesi naturale converte la luce solare in energia chimica.

Sviluppo delle energie rinnovabili

Secondo il PNRR “Gli obiettivi fissati al 2026 sono rappresentati da un aumento di 4,5-5 GW della capacità di rinnovabili installata, al fine di supportare l’obiettivo del PNIEC per il 2025. In combinazione con gli impianti eolici, saranno progettati e installati impianti fotovoltaici galleggianti da 100 MW in un’area ad alto irraggiamento, aumentando così la produzione totale di energia.”

Questo aumento è assolutamente insufficiente. La potenza installata deve essere almeno 5x al 2026 (20-20 GW) e 10x al 2030 (40-50 GW). Con un capacity factor medio del 20% (FV + eolico) 50 GW corrispondono a circa 90 TWh, cioè un quarto della domanda attuale. Questo è il minimo necessario per raggiungere nel 2030 l’obiettivo UE di 2/3 di elettricità rinnovabile sul totale. Bisogna fare, dunque, uno sforzo ciclopico per non rimanere indietro. Il potenziale di eolico in Italia è di 16 GW, 9 dei quali già realizzati per cui ora dobbiamo andare a coprire aree complesse e a bassa accettabilità sociale. Quindi, bisogna sviluppare soprattutto il fotovoltaico. Gli impianti galleggianti per 100 MW previsti dal Piano sono ben poca cosa.

Anche considerando l’obiettivo fissato dall’Unione Europea di abbattere le emissioni del 55% al 2030 si capisce che è necessario un grande sforzo. E’ necessario nei prossimi 10 anni correre 9 volte più veloci di quanto fatto negli ultimi 30 anni nell’abbattimento dei gas climalteranti.

Pertanto bisogna semplificare le procedure per l’approvazione dei progetti di risorse rinnovabili e promuovere e finanziare adeguatamente impianti eolici e fotovoltaici offshore e a terra in aree dismesse o da bonificare (come le ex discariche chiuse e altre aree da riqualificare).

E’ anche necessario promuovere l’autoproduzione domestica e industriale per realizzare una rete capillare di piccoli impianti con benefici per i territori e per le famiglie attraverso la diffusione delle comunità energetiche

Se si considerasse un bonus del 65% sul fotovoltaico domestico, scontato in fattura, non sarebbe difficile rilanciare le installazioni su milioni di tetti, con grande risparmio in bolletta per le famiglie.

Altre osservazioni

–  Il Piano prevede di rilanciare la produzione di moduli fotovoltaici in Italia, una iniziativa inutile poiché il mercato di moduli fotovoltaici è saldamente in mano alla Cina. Questo non significa che tutta la complessa filiera produttiva del FV sia in mano alla Cina, come spesso viene affermato: è una filiera globale e interconnessa, come tutte le grandi filiere industriali (abbiamo visto in questi mesi quanto sia complessa e globale la catena produttiva dei vaccini).

– Nel Piano si parla anche di realizzare sistemi di accumulo termico abbinati a impianti CCGT, cioè turbogas a metano. Questi impianti vengono definiti strategici poiché permettono di avviare le centrali termoelettriche in modo più flessibile, cosa necessaria per sopperire a eventuali buchi di potenza in rete generati dalle rinnovabili. I sistemi di accumulo termico non sono altro, in realtà, che un’altra “invenzione” per mantenere attive le centrali turbogas e chiedere sussidi per garantire la stabilità della rete. A nostro parere il modo più flessibile per gestire questi buchi è quello di usare blocchi di batterie di grande potenza (400 MW), come stanno facendo in California; oppure, tramite pompaggi nelle dighe.

– In tutto il PNRR non c’è neppure un cenno sulla filiera dei sistemi di accumulo in batteria. Tutto il settore elettrochimico è stato trascurato, quando invece potrebbe essere un asse strategico considerato anche che in Italia abbiamo gruppi di ricerca di eccellenza in questo settore. La produzione delle batterie è “meccatronica di precisione” e in questo campo nel nord Italia ci sono eccellenti industrie.

– Sostenere la mobilità elettrica incentivando stazioni di ricarica non è strategico in quanto queste stazioni saranno certamente realizzate anche senza sussidi con l’aumento delle automobili circolanti. Occorre invece incentivare l’allacciamento delle colonnine in modo diffuso. Il 20% del costo di installazione (2500 euro su 14 mila euro, per una colonnina da 22 kW) è dovuto alla richiesta del contatore.

– La strategia sull’idrogeno, di cui si parlerà diffusamente in seguito, deve essere focalizzata soltanto su tre settori: aeronautica, nautica e grandi produzioni industriali. Treni e autoarticolati devono essere alimentati con elettricità implementando la rete di distribuzione per i primi e la rete di ricarica   veloce per i secondi.

– Non è strategico produrre idrogeno verde (con rendimenti non superiori al 30% e l’annesso consumo di acqua) per poi bruciarlo in centrali turbogas in sostituzione del gas metano. Questa è pura “follia” energetica, si avrebbero rendimenti complessivi del solo 10%.

– La produzione di idrogeno è nettamente in contrasto con la “Tutela del territorio e della risorsa idrica” tanto che nel Piano mancano scenari su quello che dovrebbe essere il consumo di suolo legato alla produzione di energia rinnovabile necessaria per produrre l’idrogeno.

2. Mitigazione degli impatti climatici

Il PNRR afferma (pag.13): “La transizione ecologica sarà la base del nuovo modello economico e sociale di sviluppo su scala globale, in linea con l’Agenda 2030 per lo Sviluppo Sostenibile delle Nazioni Unite. Per avviarla sarà necessario, in primo luogo, ridurre drasticamente le emissioni di gas clima-alteranti in linea con gli obiettivi dell’Accordo di Parigi e del Green Deal europeo”. Per raggiungere questo obiettivo sarà necessaria una revisione del PNIEC

A pag.76 del PNRR si riportano le cifre della questione: emissioni nazionali di riferimento (1990) 516 MtCO2eq.; riduzione necessaria al 2030: -55%. Quindi al 2030 le emissioni non dovranno superare 516×0.45=232 MtCO2eq. Questo significa che in questi 10 anni occorre tagliare le emissioni di circa 160 MtCO2eq.

Sempre a pag.76 si evidenzia la grande occasione di finanziare un cambiamento di passo significativo: “Gli investimenti in cui si concretizzano le quattro componenti della missione Rivoluzione verde e transizione ecologica sono distribuiti su diverse linee progettuali per un ammontare complessivo di risorse pari a 68,9 miliardi di euro.” A tale proposito il PNRR rimanda a “ulteriori analisi pertinenti alla capacità di raggiungere con efficacia ed efficienza gli obiettivi PNIEC”. Tuttavia, non si parla del metodo con cui misurare la capacità di realizzazione dei “cantieri” che saranno finanziati.

Va dunque individuato e applicato un metodo capace di:

a) fare lo screening dei progetti (Rilevante/Non Rilevante ai fini dell’obiettivo di riduzione delle emissioni).

b) quantificare per i progetti Rilevanti il bilancio delle emissioni climalteranti dalla data di inizio di cantiere (i cantieri aumentano le emissioni rispetto a far nulla) fino al 2030.

Come apparato tecnico per l’individuazione del metodo di analisi e l’applicazione del metodo agli interventi indicati nel Piano possiamo suggerire SNPA

A margine, notiamo che il dimensionamento dei parchi agrisolari appare incongruente: “si punterà ad ottenere entro il 2026 una superficie coperta con pannelli fotovoltaici pari a 13.250 mq, tale da produrre 1.300-1.400 GWh a regime.”

3. Adattamento alla crisi climatica

A nostro parere i fondi pianificati per l’adattamento ai cambiamenti climatici (finalizzato ad accrescere la resilienza climatica del territorio, includendo i vari settori socio-economici, le infrastrutture e gli ecosistemi) sono veramente pochi

In particolare, è stata data poca attenzione al grande e trasversale tema del “climate proofing” con riguardo alla resilienza climatica e al tema della “perdita di biodiversità e degrado degli ecosistemi”.

Questo è evidenziato anche dagli scarsi fondi pianificati per la sostenibilità delle aree urbane – un tema molto complesso per il territorio Italiano che deve tener conto di sfide non solo ambientali, climatiche, energetiche, urbanistiche, ma anche di preservazione di importanti e unici beni culturali.

A nostro parere c’è il rischio di una non continuità nelle azioni proposte e finanziate dai Recovery fund dopo il 2026, in particolare proprio in merito alle tematiche di lotta ai cambiamenti climatici e alla perdita di biodiversità.

Questo rischio potrà essere amplificato dalla mancanza di una definizione nel PNRR di una governance unica finalizzata alla pianificazione e coordinazione dei progetti.

Questa governance dovrebbe:

a) integrarsi nelle strutture settoriali già esistenti (e.g., gestione risorse idriche);

b) applicare le varie modalità più efficienti di processi partecipativi;

c) fare buon uso di uno schema di monitoraggio/valutazione dell’efficacia nella attuazione delle nuove misure mediante consistenti ed efficaci indicatori.

Occorre infine finanziare tecnologie verdi per la resilienza urbana come strumenti indispensabili all’adattamento delle nostre città ai cambiamenti climatici, come viene fatto per tante città europee.

(continua)

Repliche di primavera.

In evidenza

Mauro Icardi

E’ una triste tradizione quella  cui stiamo assistendo. Vale a dire che ogni inizio anno, con una impressionante regolarità, che è scandita quasi cronometricamente, e purtroppo nell’indifferenza quasi totale si leggono titoli di giornali o agenzie di stampa di questo tenore.

https://www.ansa.it/lombardia/notizie/2021/03/29/ambiente-grande-siccita-po-e-sceso-fino-a-45-portata_e673bfec-e115-4a57-9df3-c757e56abb33.html

Leggendo questa nota di agenzia, quello che maggiormente mi lascia dubbioso è la speranza nell’arrivo di precipitazioni, e l’ennesimo richiamo a interventi concreti che troppo spesso rimangono lettera morta.

 Dato che si parla di pioggia, e che tra le dotazioni dell’impianto dove opero figura un pluviometro dal quale posso acquisire dati, condivido il grafico delle precipitazioni da inizio anno.

L’ultima precipitazione piovosa di una certa importanza risale alla data del sette Febbraio, quando abbiamo rilevato 43 mm di pioggia caduta. Il giorno dieci dello stesso sono stati rilevati 12 mm.  Nel mese di Marzo in totale 7 mm  dovuti  principalmente a nevischio e che nel bilancio totale e nella valutazione degli effetti sono praticamente insignificanti.

Per amore di precisione ho confrontato i dati del pluviometro aziendale, con quelli del bollettino del Centro Geofisico Prealpino di Varese, e con mia grande soddisfazione li ho trovati congruenti.

 Sono quasi due mesi che non piove in maniera importante: basti pensare che in questo intervallo di tempo si sono misurate precipitazioni che sono pari al 15% di quelle che cadono in media in questo periodo dell’anno nella zona compresa tra Varese, Como e il Canton Ticino. Con qualche mese di anticipo, si rischia di dover ricorrere all’irrigazione per salvare le colture, soprattutto quelle orticole. Le maggiori preoccupazioni riguardano gli ortaggi seminati nelle ultime settimane. Molti agricoltori aspettano prima di montare l’impianto di irrigazione, dunque ci si ritrova a ‘rincorrere’ la siccità.

 A questa situazione si aggiunge il problema dello scioglimento dei ghiacciai. Questo fenomeno provoca l’accresciuto rischio di disastri naturali quali inondazioni, colate detritiche e frane. I laghi che si formano all’interno di un ghiacciaio rischiano di riversarsi improvvisamente a valle, spazzando via villaggi e infrastrutture. E con l’assottigliarsi del ghiaccio e dello strato di permafrost, le montagne diventano più instabili. Regolarmente, le immagini del cedimento dei versanti alpini fanno il giro del mondo.

Tutto questo ci pone di fronte alla necessità di una gestione diversa della risorsa idrica, soprattutto per quanto riguarda la gestione delle precipitazioni nevose in quota. Che molto spesso non sono più a carattere nevoso, ma di pioggia, spesse volte concentrata in tempi ristretti (qualche ora) con precipitazioni molto abbondanti.

A valle di tutte queste situazioni, gli impianti di trattamento acque, particolarmente quelli di depurazione sono sottoposti a fenomeni di repentine variazioni di portata, con la possibilità di evidenti fenomeni di wash out (trascinamento veloce e violento di solidi nelle zone terminali di trattamento).

Ormai la maggior parte delle aziende di gestione del ciclo idrico sta predisponendo i “Water safety plan”, e quindi analizza i fattori di rischio in ogni singola fase del trattamento del ciclo idrico. E questa è una garanzia di controllo ed attenzione. Ma occorre un altro passo avanti. Cioè quello di inserire questo tipo di attività, all’interno di una visione più ampia. Cioè la consapevolezza dell’importanza dei beni comuni, e conseguentemente la loro protezione e valorizzazione. Partendo proprio dall’acqua che è forse quello più conosciuto.

Io sono un tecnico di laboratorio del ciclo idrico. E inseguo ancora un progetto personale di sensibilizzazione e educazione idrica. Che non è completo se non si allarga anche alla comprensione di problemi tra loro collegati, per esempio di come il riscaldamento globale stia incidendo in maniera decisamente significativa sulla gestione della risorsa idrica. Ritengo che cittadini e utenti correttamente informati,  possano essere  meno influenzati a rifugiarsi in atteggiamenti irrazionali di negazione e superficialità.

Un complesso del calcio si lega all’azoto

In evidenza

Rinaldo Cervellati

Questa sorprendente notizia è stata riportata da Bethany Halford sul volume 99, numero 9 dell’11 marzo scorso di C&EN news.

Il calcio è uno di quegli elementi che i chimici pensano di conoscere bene. Nella sua forma più comune, lo ione calcio (II), costruisce le ossa. È anche uno degli elementi più abbondanti nella crosta terrestre come calcare (carbonato di calcio CaCO3). Il calcio metallico è molto reattivo cedendo i due elettroni del guscio di valenza 4s. Ma il calcio, a quanto pare, può ancora sorprendere. Infatti, un gruppo di chimici in Germania ha scoperto che un complesso del raro calcio(I) può reagire con il diazoto, una molecola che è tipicamente considerata inerte e richiede catalizzatori di metalli di transizione insieme ad alte temperature o pressioni per reagire. Sjoerd Harder, un chimico inorganico dell’Università Friedrich Alexander (Erlangen-Norimberga), insieme al suo gruppo comprendente due dottorandi (Bastian Rösch e Thomas Gentner), ha sintetizzato un complesso di calcio (I) utilizzando un ingombrante ligando β-dichetiminato per stabilizzare lo ione (LCa-CaL, L = ligando bidentato).

Friedrich-Alexander-Universität Erlangen Nürnberg Department Chemie Professoren Habilitanten

Sjoerd Harder

 Essi hanno incontrato molti problemi: il calcio reagiva con i solventi aromatici che usavano (benzene, toluene e para-xilene). Quindi hanno provato con solventi  meno reattivi, e quando hanno aggiunto tetraidrofurano o tetraidropirano alla reazione, si sono formati immediatamente cristalli bruno-rossastri. L’analisi cristallografica ha rivelato che due degli atomi di calcio complessati avevano legato l’azoto (N2) utilizzato come atmosfera inerte per la reazione, (figura 1).

Figura 1. Struttura cristallina del complesso calcio-diazoto (atomi di H omessi per chiarezza). Credit: adattato da Nature

Il gruppo di Harder è rimasto molto sorpreso da questo risultato. Infatti, che un metallo di blocco s come il calcio, che in genere cede i suoi elettroni esterni, possa attivare N2 a temperature fino a –60 °C era qualcosa che non si era mai previsto sarebbe stato possibile. Harder ha contattato Gernot Frenking, un chimico teorico presso la Philipps University di Marburg, per avere un’interpretazione del fenomeno.

Gernot Frenking

I calcoli di Frenking e suoi colleghi hanno mostrato che gli orbitali d del calcio si legano con N2, suggerendo che il calcio può usare i suoi orbitali d proprio come fanno i metalli di transizione. Frenking e collaboratori sono stati inseriti fra gli autori della pubblicazione [1].

Frenking sostiene di essere sbalordito: “Si è aperta una porta per guardare questo tipo di composti in un modo diverso, e i risultati suggeriscono che il calcio, insieme ai suoi cugini più pesanti stronzio e bario, dovrebbe essere incluso fra i metalli di transizione della tavola periodica”.

Marc-André Légaré della McGill University (Canada), che lavora alla sintesi di catalizzatori da elementi del blocco s afferma: “La scoperta cambierà il modo in cui i chimici vedono gli elementi abbondanti sulla terra sul lato sinistro della tavola periodica, nota come blocco s. Questa è una chiara dimostrazione che il calcio, e probabilmente gli altri alcalino terrosi come il magnesio, hanno da offrire alla chimica molto più di quanto siamo abituati a vedere. Mostra che il calcio può usare i suoi orbitali, e non solo la sua carica, per realizzare una chimica che è difficile anche per i metalli del blocco d che vengono solitamente utilizzati per la catalisi”.

Robert J. Gilliard Jr., che studia chimica dei gruppi principali presso l’Università della Virginia (USA), definisce il risultato rivoluzionario: “Fornisce informazioni su ciò che deve ancora venire per la chimica molecolare degli elementi a bassa valenza del blocco s. Con l’innovazione nella progettazione dei ligandi e nelle strategie di stabilizzazione, potrebbe essere possibile sviluppare una nuova chimica aggiuntiva per gli elementi del blocco s”.

Per quanto riguarda le possibili applicazioni pratiche, Harder afferma che poiché questa chimica del calcio richiede potassio metallico per ridurre il calcio (II) a calcio (I), è troppo poco pratico e costoso sostituire il processo Haber-Bosch[1], che utilizza ferro o altri catalizzatori di metalli di transizione per catturare N2 dall’aria per produrre ammoniaca per fertilizzanti e altri prodotti contenenti azoto. Ma, dice, forse si potrebbe escogitare un percorso elettrochimico per produrre il complesso di calcio(I).

Bibliografia

[1] B. Rösch et al., Dinitrogen complexation and reduction at low-valent calcium. Science  2021, 371,1125-1128; DOI: 10.1126/science.abf2374


[1] Il processo Haber–Bosch, è una reazione di fissazione artificiale dell’azoto ed è oggi il principale procedimento industriale per la produzione di ammoniaca. Prende il nome dai suoi inventori, i chimici tedeschi Fritz Haber (1878-1934) e Carl Bosch (1784-1940), che lo svilupparono nel primo decennio del XX secolo. Il processo converte l’azoto atmosferico (N2) in ammoniaca (NH3) mediante una reazione con l’idrogeno (H2) utilizzando un catalizzatore metallico ad alte temperature e pressioni

Elementi della Tavola Periodica. Calcio, Ca (2 parte)

In evidenza

Rinaldo Cervellati

il primo post di questa serie è qui

Ruolo biologico e patologie da carenza

Il calcio è un elemento essenziale. Lo ione Ca2+ agisce come elettrolita ed è vitale per la salute dei sistemi muscolare, circolatorio e digestivo; è indispensabile per la costruzione delle ossa; supporta la sintesi e la funzione delle cellule del sangue. Ad esempio, regola la contrazione dei muscoli, la conduzione nervosa e la coagulazione del sangue. Di conseguenza, i livelli di calcio intra ed extracellulare sono strettamente regolati dal corpo. Il calcio può svolgere questo ruolo perché lo ione Ca2+ forma complessi di coordinazione stabili con molti composti organici, in particolare le proteine; forma anche composti con un’ampia gamma di solubilità, consentendo la formazione dello scheletro.

Gli ioni calcio possono essere complessati dalle proteine ​​legando i gruppi carbossilici dell’acido glutammico o dei residui dell’acido aspartico; attraverso l’interazione con residui fosforilati di serina, tirosina o treonina; o essendo chelato da residui amminoacidici γ-carbossilati. La tripsina, un enzima digestivo, utilizza il primo metodo; l’osteocalcina, una proteina della matrice ossea, utilizza il terzo. Alcune altre proteine ​​della matrice ossea come l’osteopontina e la sialoproteina ossea utilizzano sia il primo sia il secondo. L’attivazione diretta degli enzimi leganti il calcio è comune; alcuni altri enzimi sono attivati ​​dall’associazione non covalente con enzimi leganti direttamente il ​​calcio. Si lega anche allo strato fosfolipidico della membrana cellulare, ancorando le proteine ​​associate alla superficie cellulare.

Come esempio dell’ampia gamma di solubilità dei composti di calcio, il fosfato monocalcico è molto solubile in acqua, l’85% del calcio extracellulare è come fosfato bicalcico con una solubilità di 2,0 mM e l’idrossiapatite delle ossa in una matrice organica è il fosfato tricalcico a 100 μM.

Nutrizione

Il calcio è un costituente comune degli integratori alimentari multivitaminici, ma la composizione dei complessi di calcio negli integratori può influire sulla sua biodisponibilità che varia secondo la solubilità del sale coinvolto: citrato di calcio, malato e lattato sono altamente biodisponibili, mentre l’ossalato lo è meno. Altre preparazioni includono carbonato di calcio, citrato malato di calcio e gluconato di calcio. L’intestino assorbe circa un terzo del calcio ingerito come ione libero e il suo livello nel plasma viene regolato dai reni.

Regolazione ormonale della formazione ossea e dei livelli sierici

L’ormone paratiroideo e la vitamina D promuovono la formazione delle ossa consentendo e migliorando la deposizione di ioni calcio, consentendo un rapido turnover osseo senza influenzare la massa ossea o il contenuto di minerali. Quando i livelli di calcio plasmatico diminuiscono, i recettori della superficie cellulare vengono attivati ​​e si verifica la secrezione dell’ormone paratiroideo; procede quindi a stimolare l’ingresso di calcio nel pool plasmatico prelevandolo da cellule renali, intestinali e ossee mirate, con l’azione di formazione ossea dell’ormone paratiroideo antagonizzata dalla calcitonina, la cui secrezione aumenta con l’aumentare dei livelli di calcio plasmatico.

Figura 6. Assunzione di calcio nella dieta globale tra gli adulti (mg/giorno).

<400, 400–500, 500–600, 600–700, 700–800, 800–900, 900−1000, >1000

rosso, rosso chiaro, più chiaro — giallo — verde, più chiaro, —–grigio

Livelli sierici anormali

Un consumo eccessivo di calcio può causare ipercalcemia. Tuttavia, poiché viene assorbito in modo piuttosto inefficiente dall’intestino, un alto livello di calcio sierico è più probabilmente causato da un’eccessiva secrezione di ormone paratiroideo (PTH) o forse da un’eccessiva assunzione di vitamina D, che facilitano l’assorbimento del calcio. Tutte queste condizioni provocano il deposito di sali di calcio in eccesso nel cuore, nei vasi sanguigni o nei reni. I sintomi includono anoressia, nausea, vomito, perdita di memoria, confusione, debolezza muscolare, aumento della minzione, disidratazione e malattia metabolica delle ossa. L’ipercalcemia cronica porta tipicamente alla calcificazione dei tessuti molli e alle sue gravi conseguenze: ad esempio, la calcificazione può causare la perdita di elasticità delle pareti vascolari e l’interruzione del flusso sanguigno laminare, e quindi la rottura della placca e la trombosi. Al contrario, un’assunzione inadeguata di calcio o vitamina D può provocare ipocalcemia, spesso causata anche da una secrezione inadeguata dell’ormone paratiroideo o da recettori PTH difettosi nelle cellule. I sintomi includono l’eccitabilità neuromuscolare, che potenzialmente causa tetania e interruzione della conduttività nel tessuto cardiaco.

Calcoli renali

Poiché il calcio è necessario per lo sviluppo osseo, molte malattie ossee possono essere ricondotte alla matrice organica o all’idrossiapatite nella struttura molecolare o nell’organizzazione dell’osso. L’osteoporosi è una riduzione del contenuto di minerali dell’osso per unità di volume e può essere trattata con l’integrazione di calcio, vitamina D e bisfosfonati. Quantità inadeguate di queste sostanze possono provocare un ammorbidimento delle ossa, chiamato osteomalacia.

Cibi ricchi di calcio

Gli alimenti ricchi di calcio includono latticini (come yogurt e formaggi), sardine, salmone, prodotti a base di soia, cavoli e cereali  da colazione fortificati.

Sia l’Istituto di medicina degli Stati Uniti (IOM) che l’Autorità europea per la sicurezza alimentare (EFSA) hanno stabilito i livelli di assunzione superiore tollerabile (UL) per la dieta combinata e gli integratori di calcio. Lo IOM ha stabilito che persone di età compresa tra 9 e 18 anni non devono superare l’assunzione combinata di 3 g/giorno; per età 19–50 2,5 g/giorno; dai 51 anni in su 2 g/giorno. L’EFSA ha fissato l’UL per tutti gli adulti a 2,5 g/giorno, ma ha deciso che le informazioni per bambini e adolescenti non erano sufficienti per determinare l’UL.

Ciclo biogeochimico

Il ciclo del calcio fornisce un collegamento tra tettonica, clima e ciclo del carbonio (figura 7).

Figura 7. Ciclo del calcio e relazione con quello del carbonio

In termini semplici, il sollevamento delle montagne espone le rocce contenenti calcio agli agenti atmosferici chimici (CO2 gas e H2O) e rilascia Ca2+ nelle acque superficiali. Questi ioni vengono trasportati nell’oceano dove reagiscono con la CO2 disciolta per formare calcare (CaCO3), che a sua volta si deposita sul fondo del mare dove viene inglobato in nuove rocce. La CO2 disciolta, insieme agli ioni carbonato e bicarbonato, è definita “carbonio inorganico disciolto” (DIC).

La reazione effettiva è più complicata e coinvolge lo ione bicarbonato (HCO3) che si forma quando la CO2 reagisce con l’acqua al pH dell’acqua marina:

Ca2+ + 2HCO3− ⇌ CaCO3(s) + CO2 + H2O

Al pH dell’acqua di mare, la maggior parte della CO2 viene immediatamente riconvertita in HCO3e la reazione si traduce in un trasporto netto di una molecola di CO2 dall’oceano/atmosfera alla litosfera. Il risultato è che ogni ione Ca2+ rilasciato dagli agenti atmosferici chimici alla fine rimuove una molecola di CO2 dal sistema superficiale (atmosfera, oceano, suolo e organismi viventi), immagazzinandola nelle rocce carbonatiche dove è probabile che rimanga per centinaia di milioni di anni. L’erosione del calcio dalle rocce elimina quindi la CO2 dall’oceano e dall’atmosfera, esercitando un forte effetto a lungo termine sul clima.

Con l’acidificazione degli oceani, l’apporto di anidride carbonica promuove la dissoluzione del carbonato di calcio e danneggia gli organismi marini che dipendono dai loro gusci protettivi di calcite o aragonite. La solubilità del carbonato di calcio aumenta con la pressione e l’anidride carbonica e diminuisce con la temperatura. Pertanto, il carbonato di calcio è più solubile nelle acque profonde rispetto alle acque superficiali a causa della pressione più elevata e della temperatura inferiore. Di conseguenza, la precipitazione del carbonato di calcio è più comune negli oceani meno profondi. La profondità alla quale la velocità di dissoluzione della calcite è uguale alla velocità di precipitazione della calcite è nota come profondità di compensazione della calcite.

L’acidità degli oceani dovuta all’anidride carbonica è già aumentata del 25% dalla rivoluzione industriale. Poiché le emissioni di anidride carbonica aumentano e si accumulano continuamente, ciò influirà negativamente sulla vita di molti ecosistemi marini. Il carbonato di calcio utilizzato per formare gli esoscheletri di molti organismi marini inizierà a degradarsi, lasciando questi animali vulnerabili e incapaci di vivere nei loro habitat. Questo alla fine ha un effetto sui predatori, influenzando ulteriormente la funzione di molte catene alimentari a livello globale.

Data la sua stretta relazione con il ciclo del carbonio e gli effetti dei gas serra, si prevede che i cicli del calcio e del carbonio cambieranno nei prossimi anni. Il monitoraggio degli isotopi del calcio consente la previsione dei cambiamenti ambientali, con molte fonti che suggeriscono un aumento delle temperature sia nell’atmosfera sia nell’ambiente marino. Di conseguenza, questo altererà drasticamente la degradazione della roccia, il pH degli oceani e dei corsi d’acqua e quindi la sedimentazione del calcio, con una serie di implicazioni sul ciclo del calcio. A causa delle complesse interazioni del calcio con molti aspetti della vita, è improbabile che gli effetti delle condizioni ambientali alterate siano noti fino a quando non si verificano. Le previsioni possono tuttavia essere fatte provvisoriamente, sulla base di ricerche basate sull’evidenza [1,2].

Riciclaggio

Dato l’ampio uso dei composti del calcio in diversi settori industriali e agrari, molti articoli hanno proposto metodi per il riciclo di silicati, carbonati e cloruro di calcio. Qui riportiamo un brevetto statunitense per il recupero da prodotti di scarto o materiale calcico naturale contaminato [3]. In sintesi il calcio viene recuperato preparando una sospensione acquosa del materiale contenente calcio da recuperare e abbassando il pH della sospensione a pH <6, o preferibilmente <4, per fornire una sospensione che include una fase liquida acida contenente i composti di calcio in forma solubile. Successivamente il pH del liquido viene portato a pH> 6 o 7, mescolando in esso una base, per precipitare la porzione principale di alluminio; alla fase liquida neutra o basica viene aggiunto carbonato o bicarbonato di sodio (Na2CO3 o NaHCO3), per precipitare i composti di calcio come CaCO3.

Opere consultate

Handbook of Chemistry and Physics, 85th Ed. p. 4-7

https://en.wikipedia.org/wiki/Calcium

https://en.wikipedia.org/wiki/Carbonate-silicate_cycle

Bibliografia

[1] https://www.pmel.noaa.gov/co2

[2] Ocean acidification, Smithsonian,

https://ocean.si.edu/ocean-life/invertebrates/ocean-acidification

[3] Method of recovering calcium from waste material or contaminated natural calcic material.

https://patents.google.com/patent/US6193945

Big data e covid19

In evidenza

Luigi Campanella, già Presidente SCI

La drammatica esperienza che stiamo vivendo ci sta insegnando tante cose: mi é capitato di dirlo più volte!  

Saremo stati buoni scolari?

Uno degli argomenti che più mi hanno affascinato riguarda il patrimonio dati. Quando ero studente disporre di dati era un privilegio di pochi, i computer personali praticamente non esistevano, le banche dati erano appena in formazione.

Eppure oggi il patrimonio di informazione che dietro questi dati si cela è una ricchezza; ma come è vero che il denaro spesso non fa la felicità anche i dati spesso restano informazione, non diventano conoscenza, assumono il ruolo di barriere fra addetti e cittadini, diventano pericolosi superamenti del giusto diritto alla privacy.

Ecco allora che come per i soldi la felicità così per i dati la conoscenza: si possono ottenere ma se si è capaci di gestire il prezioso patrimonio con attenzione ed etica. Questa é la scienza del comportamento, quello di ognuno, che per rispondere a criteri etici deve essere rispettoso della dignità della persona, come singolo e come comunità.

In questi giorni credo non ci sia cittadino che non presti attenzione ai comunicati, alle reprimende, alle raccomandazioni, all’elenco di imposizioni e limitazioni da parte dei vari Comitati Tecnici preposti a regolare la libertà dei cittadini durante la pandemia. Questi esperti svolgono un lavoro prezioso, cercano di giustificare ai cittadini le necessarie riduzioni di libertà. Il problema è che entrano in dialogo diretto con i cittadini senza mediazione politica.

Questo stile di comunicazione è inappropriato: come diceva Weber “la scienza è come una mappa, non ci dice dove andare, ma come andarci“.

Invece circa il dove andare spesso sentiamo critiche alle scelte di governo, per influenzare e governare sulla base di dati che però risultano filtrati. I big data proprio per la loro natura per produrre conoscenza devono essere interpretati, ma la chiave di interpretazione diviene uno strumento selettivo fra conoscenza e chi la può acquisire e non-conoscenza. I politici hanno certamente il dovere di utilizzare la migliore conoscenza che i dati disponibili offrono, ma il bilanciamento fra conoscenza scientifica e altri valori, quali costi psicologici, economici, sociali, disomogeneità di carico fra le differenti situazioni geopolitiche sociali, industriali spettano alla politica.

Un altro punto che prima ricordavo riguarda la privacy. Ogni giorno sui mass media vengono pubblicate notizie di diffusione illecita di dati personali che riguardano anche le Amministrazioni ed i Ministeri. La pandemia ha accelerato il processo di digitalizzazione. Ma questa rivoluzione, in sé preziosa, non può prescindere da quella della ciber-sicurezza e della protezione dati.

D’altra parte fra i due c’è stretta relazione: si pensi alle frodi bancarie, ai furti di account, alla vendita di prodotti inesistenti. Esistono normative importanti a livello europeo e figure obbligatorie in ambito sia pubblico che privato: il responsabile della protezione dati DPO  esiste formalmente dal maggio 2018, ma purtroppo trattasi di figura difficile ad essere formata. Questo ci riporta ad un altro tema più volte sollevato sul blog, cioè alla corrispondenza fra offerta didattica ed esigenze/richieste del mercato. La tradizionale articolazione dell’università a volte fatica a rendersi conto della richiesta di figure che la scavalcano per il taglio interdisciplinare e la combinazione di discipline tecniche con altre più amministrative.

Il DPO può rappresentare uno stimolo a riconsiderare da parte degli atenei queste figure realizzando progetti didattici integrati. La chimica credo sia fra le discipline più interessate ad un approccio olistico verso la conoscenza