Un ricordo di Giorgio Nebbia.

In evidenza

Claudio Della Volpe

Questo post è basato in piccola parte sui miei ricordi ma soprattutto sulla formidabile intervista fatta a Giorgio Nebbia nel 2016 da Luigi Piccioni e riportata qui; dura quasi tre ore e se avete pazienza è molto interessante, quasi un archivio della cultura e della vita italiana del 900 attraverso gli occhi di un protagonista.

Come tutti i lettori sanno Giorgio è stato redattore anche di questo blog, una delle tante attività che ha svolto nel suo quasi-secolo di vita attivissima. Dunque questo breve ricordo gli è dovuto. Se volete cercare gli articoli con i quali ha contribuito al nostro blog basta che mettiate “Nebbia” nella finestrella in alto a destra, ne troverete decine. Giorgio era stato nominato socio onorario della SCI, su mia proposta, prima del 2010.

Giorgio Nebbia nasce a Bologna nell’aprile 1926, da una famiglia che era però metà toscana e in Toscana rimarrà un pezzo di cuore fra Livorno e Massa, dove il padre aveva costruito, a Poveromo, una casetta delle vacanze, in via delle Macchie.

Ma il sogno piccolo borghese della famiglia impiegatizia di Giorgio dura poco, perché la crisi del 29 fa perdere il lavoro al padre; e segue dunque un periodo di ristrettezze che culmina poi durante la guerra con la morte del padre e il ritorno a Bologna, che era la patria della mamma.

Qui si inizia il percorso universitario di Giorgio, nel primissimo dopoguerra; in un primo momento iscritto a ingegneria e studente lavoratore, conosce per caso colui che diventerà suo mentore, Walter Ciusa, allora associato di merceologia a Bologna, che lo assume come collaboratore del suo lavoro accademico. Giorgio aveva conoscenza dell’inglese, disegnava bene e questo lo rende già un buon collaboratore; in questo periodo Giorgio incontra la chimica analitica e si scopre un buon analista; Ciusa più tardi gli consiglia di lasciare ingegneria ed iscriversi a Chimica; Giorgio si iscrive a Chimica a Bari, dove pensava di riuscire a laurearsi prima e infatti si laurea nel 1949. In un articolo del 2011 lui stesso ci racconta il contenuto della tesi di laurea.

Nei primi del Novecento i perfezionamenti dei metodi di analisi chimica consentirono di separare e caratterizzare numerose sostanze che si rivelarono cancerogene. Si trattava in gran parte di idrocarburi aromatici policiclici, contenenti diecine di atomi di carbonio e idrogeno uniti fra loro in “anelli”. La svolta fondamentale si ebbe con le ricerche condotte negli anni trenta del Novecento da James Wilfred Cook (1900-1975) che preparò per sintesi numerosi idrocarburi policiclici ad alto grado di purezza con cui fu possibile riconoscere il vario grado di cancerogenicità di ciascuno. Il più tossico si rivelò appunto il 3,4-benzopirene, generalmente indicato come benzo(a)pirene per distinguerlo dal benzo(e)pirene (4,5-benzopirene) che ha lo stesso numero di atomi di carbonio e idrogeno, ma disposti diversamente. Negli anni 40 fu possibile anche identificare a quali strutture molecolari era maggiormente associata l’attività cancerogena. Per inciso è stato l’argomento della mia tesi di laurea in chimica nel 1949 nell’Università di Bari e di un successivo libro.”

Il libro è Maria Prato e G. Nebbia, “Le sostanze cancerogene”, Bari, Leonardo da Vinci Editore, 1950, 151 pp.

A questo punto quello che lui stesso descrive come un colpo di fortuna; Ciusa diventa ordinario di Merceologia e lo chiama come assistente a Bologna, a soli 5 giorni dalla laurea. Per la prima volta Giorgio ha un vero lavoro pagato dallo Stato, come lui stesso dice orgogliosamente. Questo ruolo di assistente alla cattedra di merceologia Giorgio lo manterrà per dieci anni fino al 1959.

La merceologia nell’idea di Nebbia è “il racconto di come si fanno le cose”, ereditato da un Ciusa che era a sua volta molto interessato alla storia delle merci ed alla loro evoluzione. Nebbia dunque raccoglie insieme l’eredità culturale del mondo chimico ma anche di quello umanistico , una impostazione a cui rimarrà sempre fedele.

In questi anni il grosso della sua attività di ricerca è dedicato ai metodi della chimica analitica e pubblica anche in tedesco.

Nel 1959 viene chiamato a coprire la cattedra di merceologia a Bari.

Giorgio Nebbia, secondo da sinistra a Bari negli anni 60, con alcuni collaboratori ed un distillatore solare sul tetto dell’università.

Questo segna un cambiamento nell’indirizzo delle sue ricerche; quelle che gli erano state rimproverate a volte come le “curiosità” o perfino capricci da Ciusa o da altri, entrano con maggiore peso nella sua attività di ricerca; entrano in gioco, l’energia, l’acqua, l’ambiente; rimane l’interesse per le merci e la loro storia tanto che si sobbarca un corso di Storia delle merci provenienti da paesi asiatici, ma la sensibilità per l’acqua, che dopo tutto è una merce basica, per l’energia che è anche una merce (e che merce!) crescono. Di questo periodo mi fa piacere ricordare un articolo brevissimo con cui corresse un altro breve articolo su Journal Chemical Education , 1969, e che riporto qui sotto integralmente. Si tratta di un argomento affascinante e di grande impatto didattico e culturale: chi è più efficiente la Volkswagen o il colibrì?

Nebbia trova un errore nell’ultimo conticino di Gerlach che ne inverte radicalmente il senso.

Come potete vedere la sua conclusione ha un impatto che oserei definire filosofico; l’”unità termodinamica del mondo”; un concetto che condivido totalmente e che sarebbe utile far condividere ai nostri politici più illustri ed ai loro “esperti” che di solito la termodinamica non se la filano molto.

Giorgio Nebbia fine anni 70, era consigliere comunale a Massa e presidente della Società degli Amici di Ronchi e Poveromo. Erano gli anni in cui partecipò alle mobilitazioni contro l’inquinamento generato dalla Farmoplant.

 

Inizia con gli anni 70 la fase che potremmo definire ambientalista di Nebbia. Gli impegni sui temi dell’acqua, dell’energia, della dissalazione, dei rifiuti si saldano con una visione che di base è cattolica, ma che vira rapidamente verso sinistra.

Dunque di questi anni è l’impegno nella costruzione di associazioni ambientaliste grandi e piccole, di una divulgazione che ha prodotto nel tempo migliaia di articoli che sono conservati con tutto l’archivio dei libri e dati presso la Fondazione Micheletti.

Gli articoli di Giorgio assommano ad oltre 2000; di questi una rapida ricerca su Google Scholar ne fa trovare 450 dei quali articoli di tipo scientifico sono oltre 130. Purtroppo non riuscite a metterli in ordine temporale perchè probabilmente Giorgio non si era mai iscritto a Google Scholar che d’altronde è nato DOPO che lui era andato in pensione; comunque è una lettura utile a scandire la varietà di interessi che si sono susseguiti nel tempo.

Durante gli anni 80 viene eletto due volte in Parlamento per la Sinistra Indipendente prima come deputato nella IX legislatura (1983-87) e poi come senatore nella X (1987-92). Sono gli anni in cui si discute del nucleare e si vota il primo referendum antinucleare (1987) nel quale Giorgio costituisce un punto di riferimento degli antinuclearisti. D’altronde rimarrà tale anche nel corso del secondo referendum , quello del 2011. Quello fu un periodo eccezionale per la chimica italiana ripetto alla politica; erano in parlamento parecchi chimici fra i quali oltre Giorgio vale la pena di ricordare Enzo Tiezzi.

Nel 1995 va in pensione, ma continua la sua attività pubblicistica sia con libri che che sui quotidiani e sulle riviste.

Era stato nominato professore emerito, ed ottenne le lauree honoris causa in scienze economiche e sociali dall’Università del Molise e in economia e commercio dagli atenei di Bari e Foggia.

Personalmente ho conosciuto Giorgio in questa più recente fase della sua vita, perché era iscritto alla lista di discussione sulla merce regina, il petrolio, una lista che era stata messa su da Ugo Bardi quando aveva fondato l’associazione ASPO-Italia, per studiare il picco del petrolio. Non ci siamo mai incontrati di persona ma ci siamo sentiti varie volte; ovviamente non mi era sconosciuto, anzi avevo già letto molte cose scritte da lui fin da studente e mi sentivo un po’ imbarazzato a parlargli così come se fosse uno qualunque.

Giorgio come altri “grandi” che ho conosciuto era di una semplicità disarmante, rispondeva personalmente alle chiamate ed alle mails, non c’era alcun filtro col pubblico.

Aveva scoperto da solo che avevo un mio blog personale, sul quale esponevo le mie idee sullle cose del mondo e ovviamente le nostre idee politiche erano molto consonanti; subito mi propose di conservarne copia; era uno che conservava tutto, faceva copia di tutto; sembra che conservasse anche i biglietti del tram.

Mi battei con successo per farlo nominare socio onorario della SCI e gli proposi di collaborare col nascente blog della SCI; lui aderì con entusiasmo e fece subito varie proposte di successo, come la serie di articoli: Chi gli ha dato il nome? Dedicata a strumenti o dispositivi di laboratorio di cui ricostruì la storia; ed anche un’altra serie di post di successo è stata quella dedicata alla economia circolare; nei quali l’idea di base era che l’economia circolare non è una invenzione recente ma la riscoperta di qualcosa che l’industria chimica ha nel suo DNA.

Era poi una continua risorsa per la ricostruzione della Storia della Chimica nei suoi più disparati aspetti. A partire dalla storia del Parlamento italiano ovviamente e del ruolo che vi avevano avuto chimici come Avogadro e Cannizzaro.

Quando compì 90 anni ebbe una festa par suo, dunque condita di pubblicazioni varie ; la più interessante delle quali è la raccolta di suoi scritti

Un quaderno speciale di Altro900 con scritti di Giorgio si può scaricare da: http://www.fondazionemicheletti.eu/altronovecento/quaderni/4/AltroNovecento-4_Nebbia-Piccioni_Scritti-di-storia-dell-ambiente.pdf

Il testamento di Giorgio:

http://www.fondazionemicheletti.it/nebbia/sm-4014-lettera-dal-2100-2018/

Giorgio ci ha anche lasciato un testamento ed è un testamento particolare, uno scritto che è una sorta di piccolo romanzo di fantascienza ma anche scritto politico, ma anche novella breve ma anche lettera, una lettera dal futuro, la lettera dal 2100 in cui immagina di ricevere una lettera da chi ha vissuto e ormai digerito le gigantesche trasformazioni che stiamo vivendo. Scritta nel 2018 e pubblicata da Pier Paolo Poggio (a cura di), “Comunismo eretico e pensiero critico”, volume V, JacaBook e Fondazione Luigi Micheletti, p. 47-60, ottobre 2018, ve ne accludo qualche brano.

La crisi economica e ambientale dell’inizio del ventesimo secolo è dovuta e esacerbata dalle regole, ormai globalmente adottate, della società capitalistica basata sulla proprietà privata dei mezzi di produzione e sul dogma dell’aumento del possesso e dei consumi dei beni materiali. E’ possibile prevedere — come ci scrivono dall’inizio del XXII secolo — la trasformazione della società attuale in una società postcapitalistica comunitaria in grado di soddisfare, con le risorse naturali esistenti, una popolazione terrestre di dieci miliardi di persone con minore impoverimento delle risorse naturali e con minori inquinamenti e danni ambientali. …….. Nella società comunitaria i bisogni di ciascuna persona vengono soddisfatti con il lavoro a cui ciascuna persona è tenuto, nell’ambito delle sue capacità, nell’agricoltura, nelle industrie e nei servizi….

La inaccettabile differenza fra la ricchezza dei vari paesi, misurata in arbitrarie unità monetarie, che caratterizzava il mondo all’inizio del 2000 ha portato all’attuale revisione delle forme di pagamento delle merci e del lavoro, su scala internazionale, in unità fisiche, legate al consumo di energia, e al numero di ore di lavoro necessarie per ottenere ciascuna merce e servizio. Queste unità sono regolate su scala internazionale da una banca centrale comunitaria……

La transizione ha comportato una grande modifica della struttura dell’agricoltura e delle foreste, la principale fonte degli alimenti e di molti materiali da costruzione….

Ogni persona ogni anno, in media, ha bisogno di alimenti costituiti da circa 300 kg di sostanze nutritive (carboidrati, grassi, proteine animali e vegetali, grassi, eccetera) ottenibili con la produzione di circa 1000 kg/anno, circa 10 miliardi di tonnellate all’anno, di prodotti vegetali e animali. La coltivazione intensiva dei suoli, con forti apporti di concimi e pesticidi, è stata sostituita da coltivazioni di superfici di suolo adatte a fornire principalmente alimenti alle comunità vicine, con la prevalente partecipazione al lavoro dei membri di ciascuna comunità. Venuta meno la proprietà privata dei terreni agricoli si è visto che la superficie disponibile era largamente sufficiente a soddisfare i fabbisogni alimentari mondiali……

L’altra grande materia naturale essenziale per soddisfare i bisogni elementari umani è costituita dall’acqua: sul pianeta Terra, fra oceani e continenti, si trova una riserva, uno stock, di circa 1.400 milioni di chilometri cubi di acqua; la maggior parte è nei mari e negli oceani sotto forma di acqua salina, inutilizzabile dagli esseri umani; solo il 3 per cento di tutta l’acqua del pianeta è presente sotto forma di acqua dolce, priva o povera di sali, e la maggior parte di questa è allo stato solido, come ghiaccio, nei ghiacciai polari e di montagna; resta una frazione (circa 10 milioni di km3) di acqua dolce liquida che si trova nel sottosuolo, nei laghi, nei fiumi……

Una parte di questo fabbisogno è soddisfatto con l’acqua recuperata dal trattamento e depurazione delle acque usate, sia domestiche, sia zootecniche, grazie ai progressi in tali tecniche che permettono di ottenere acqua usabile in agricoltura e in attività non domestiche; si ottengono anche fanghi di depurazione dai quali è possibile ottenere per fermentazione metano usato come combustibile (contabilizzato come energia dalla biomassa)……

Operazioni che erano difficili quando grandi masse di persone abitavano grandi città lontane dalle attività agricole e che ora sono rese possibili della diffusione di piccole comunità urbane integrate nei terreni agricoli…….

Non ci sono dati sui consumi di acqua nelle varie attività industriali, alcune delle quali usano l’acqua soltanto a fini di raffreddamento e la restituiscono nei corpi naturali da cui l’hanno prelevata (fiumi, laghi) nella stessa quantità e soltanto con una più elevata temperatura (inquinamento termico)……

In particolari casi di emergenza acqua dolce viene ricavata anche dal mare con processi di dissalazione che usano elettricità, come i processi di osmosi inversa.

Dopo il cibo e l’acqua il principale bisogno delle società umane è rappresentato dall’energia che è indispensabile, sotto forma di calore e di elettricità, per produrre le merci, consente gli spostamenti, contribuisce alla diffusione delle conoscenze e dell’informazione e permette di difendersi dal freddo…….

Il programma delle nuove comunità è stato basato sul principio di graduale eliminazione del ricorso ai combustibili fossili, il cui uso è limitato alla produzione di alcuni combustibili liquidi e di alcune materie prime industriali in alcune produzioni metallurgiche, e nella chimica, e di contemporanea chiusura di tutte le centrali nucleari……

L’energia necessaria per le attività umane, 600 EJ/anno è principalmente derivata direttamente o indirettamente dal Sole.

Oggi è stato possibile contenere il fabbisogno di energia dei 10 miliardi abitanti del pianeta a 600 GJ/anno, con una disponibilità media di circa 60 GJ/anno.persona (equivalente a circa 18.000 kWh/anno.persona e ad una potenza di circa 2000 watt), e oscillazioni fra 50 e 80 GJ/anno.persona a seconda del clima e delle condizioni produttive. Questo significa che i paesi con più alti consumi e sprechi sono stati costretti a contenere tali consumi agli usi più essenziali, in modo da assicurare ai paesi più poveri una disponibilità di energia sufficiente ad una vita decente.

Una “società a 2000 watt” era stata auspicata già cento anni fa come risposta al pericolo di esaurimento delle riserve di combustibili fossili e alle crescenti emissioni di gas serra nell’atmosfera…….

Ai fini dell’utilizzazione “umana” dell’energia solare va notato subito che l’intensità della radiazione solare è maggiore nei paesi meno abitati; molti dei paesi che un secolo fa erano arretrati, hanno potuto uscire dalla miseria proprio grazie all’uso dell’energia solare; la società comunitaria ha così potuto contribuire a ristabilire una forma di giustizia distributiva energetica fra i diversi paesi della Terra, realizzando la profezia formulata due secoli fa dal professore italiano Giacomo Ciamician, “i paesi tropicali ospiterebbero di nuovo la civiltà che in questo modo tornerebbe ai suoi luoghi di origine“……..

La struttura economica della società comunitaria richiede molti macchinari e oggetti e strumenti che devono essere fabbricati con processi industriali. Questi sono diffusi nel territorio integrati con le attività agricole e le abitazioni; la loro localizzazione è pianificata in modo da ridurre le necessità di trasporto delle materie prime e dei prodotti a grandi distanze e da ridurre il pendolarismo dei lavoratori fra fabbriche e miniere e abitazioni……

Macchine e merci sono prodotte con criteri di standardizzazione che assicurano una lunga durata e limitata manutenzione. I processi industriali richiedono minerali, metalli, materie estratte dalla biomassa, prodotti chimici, e inevitabilmente sono fonti di rifiuti e scorie.

L’abolizione degli eserciti ha portato ad un graduale declino e poi estinzione delle fabbriche di armi ed esplosivi.

Mentre nella società capitalistica l’unico criterio che stava alla base della produzione industriale era la massimizzazione del profitto degli imprenditori, e tale obiettivo era raggiunto spingendo i cittadini ad acquistare sempre nuove merci progettate per una breve durata, tale da assicurare la sostituzione con nuovi modelli, nella società comunitaria la progettazione dei prodotti industriali è basata su una elevata standardizzazione e su una lunga durata di ciascun oggetto…….

Nella società comunitaria odierna la mobilità di persone e merci è assicurata in gran parte da trasporti ferroviari elettrici, con una ristrutturazione delle linee ferroviarie dando priorità alla mobilità richiesta dalle persone che vanno al lavoro e alle scuole.

Oggi è praticamente eliminato il possesso privato di autoveicoli e il trasporto di persone è assicurato dalle comunità sia mediante efficaci mezzi di trasporto collettivo elettrici, sia mediante prestito di autoveicoli di proprietà collettiva per il tempo necessario alla mobilità richiesta……..

Siamo alle soglie del XXII secolo; ci lasciamo alle spalle un secolo di grandi rivoluzionarie transizioni, un mondo a lungo violento, dominato dal potere economico e finanziario, sostenuto da eserciti sempre più potenti e armi sempre più devastanti. L’umanità è stata più volte, nel secolo passato, alle soglie di conflitti fra paesi e popoli che avrebbero potuto spazzare via la vita umana e vasti territori della biosfera, vittima della paura e del sospetto, è stata esposta ad eventi meteorologici che si sono manifestati con tempeste, alluvioni, siccità.

Fino a quando le “grandi paure” hanno spinto a riconoscere che alla radice dei guasti e delle disuguaglianze stava dell’ideologia capitalistica del “di più”, dell’avidità di alcune classi e popoli nei confronti dei beni della natura da accumulare sottraendoli ad altre persone e popoli.

Con fatica abbiamo così realizzato un mondo in cui le unità comunitarie sono state costruite sulla base dell’affinità fra popoli, in cui città diffuse nel territorio sono integrate con attività agricole, in cui l’agricoltura è stata di nuovo riconosciuta come la fonte primaria di lavoro, di cibo e di materie prime, un mondo di popoli solidali e indipendenti, in cui la circolazione di beni e di persone non è più dominata dal denaro, ma dal dritto di ciascuna persona ad una vita dignitosa e decente.

Questo è il sogno è il lascito di Giorgio.

Giorgio, grazie di essere stato con noi; questo augurio che ci fai, a noi che restiamo piace; non ti dimenticheremo; che la terra ti sia lieve!

Bibiliografia essenziale.

http://www.fondazionemicheletti.it/nebbia/

Il Ferro nello spazio

In evidenza

Diego Tesauro

Il ferro, l’elemento numero 26 della tavola periodica, è oggetto di studio per tutte le discipline dello scibile sia umanistiche che scientifiche.

Gioca infatti un ruolo centrale nella storia dell’evoluzione della società umana tanto da caratterizzare un’età millenaria (https://ilblogdellasci.wordpress.com/brevissime/il-ferro-ha-5000-anni/) della preistoria; è perno dell’economia, essendo la metallurgia, ancora oggi nell’era dei nuovi materiali, un importante settore strategico per l’industria manifatturiera.

La sua presenza ed i composti che forma con gli altri elementi della tavola periodica a maggior ragione coinvolgono tutte le discipline scientifiche dalla geologia, alla biologia, all’astronomia.

Questa centralità è sicuramente dovuta, oltre alle sue peculiari proprietà chimico-fisiche, all’abbondanza sulla Terra, costituisce infatti il 16% della massa del nostro pianeta (la maggior parte concentrata nel nucleo), e il 5% della crosta terrestre. Ma la presenza di questo elemento così elevata sulla Terra trova riscontro anche in una notevole abbondanza nello spazio essendo il settimo fra tutti gli elementi della tavola periodica. Come si spiega questa elevata quantità in un universo dove invece, abbondano i nuclei leggeri come l’idrogeno e l’elio?

Innanzitutto occorre ricordare che nei processi di fusione nucleare nei nuclei delle stelle con emissione di energia i nuclei degli atomi più leggeri fondono per generare elementi più pesanti. Le stelle di massa come il Sole o poco maggiore terminano la loro evoluzione generando elementi come il carbonio e l’ossigeno, mentre le stelle di grande massa (dalle 8 masse solari in su) terminano i loro processi di nucleosintesi proprio con il ferro, in particolare con l’isotopo 56. I processi di nucleosintesi, quindi, hanno come elemento terminale il ferro. Il ferro viene successivamente disperso nello spazio dalle esplosioni di supernova con le quali implodono le stelle quando hanno termine i processi di produzione di energia per fusione nucleare, rendendone ubiquitaria la sua presenza.

Nelle stelle, compreso il Sole, viene ritrovato dall’ ”impronta” lasciata nelle righe di assorbimento degli spettri elettromagnetici delle fotosfere. Nel sistema solare è abbondante negli asteroidi chiamati sideriti, oltre che nei pianeti rocciosi come appunto la Terra, Marte e Venere, dove la presenza è stata confermata con la spettroscopia Mössbauer. Più complessa è la possibilità di rilevare il ferro nello spazio interstellare (ISM). Rispetto a quanto previsto dai modelli, la quantità di ferro gassoso è particolarmente bassa. Evidentemente il ferro non si trova allo stato gassoso, ma in clusters o in composti di tipo molecolare. Clusters metallici di Fe di tutte le dimensioni <1 nm e nanoparticelle di dimensioni> 1 nm sono presenti nella polvere interstellare, ma sono stati rilevati in misura inferiore rispetto alle quantità di ferro previste dai modelli. I clusters svolgono una funzione importantissima nello spazio interstellare. Essi infatti tendono a legare atomi e strutture molecolari ricche di elettroni. Questa proprietà potrebbe giocare un ruolo importante nella sintesi di molecole organiche complesse a cominciare dagli idrocarburi policiclici aromatici (IPA) di cui ci siamo occupati In precedente intervento (https://ilblogdellasci.wordpress.com/2018/01/22/gli-idrocarburi-policiclici-aromatici-ipa-nello-spazio-qual-e-la-loro-origine/ ). In laboratorio, i clusters di Ferro sono noti per catalizzare la formazione di idrocarburi aromatici da acetilene (C2H2) a basse pressioni [1], suggerendo che potrebbero fare lo stesso nell’ISM reagendo con l’acetilene e formando catene di carbonio più lunghe. Le catene lunghe di carbonio, in particolare i poliini, (CnH2) per n >10 sono termodinamicamente instabili, e quelli contenenti più di nove carbonio non sono stati osservati nelle regioni di gas circumstellare o interstellare. Come possono allora stabilizzarsi per dar luogo a molecole organiche complesse?

Recentemente le ipotesi avanzate per una loro maggiore stabilità assegnano ai clusters di ferro questa capacità formando dei pseudocarbini Ferro la cui struttura è riportato nella figura [2].

Potrebbero quindi costituire quel anello mancante che possa giustificare il passaggio da catene di atomi di carbonio a molecole organiche complesse che sono state ritrovate nel mezzo interstellare come gli IPA ed il fullerene. Le ipotesi andrebbero suffragate da osservazioni. Un modello teorico, messo punto ultimamente, ha permesso di dimostrare che spettri infrarossi di molecole di poliini legate ai cluster di ferro non risultano modificati sensibilmente, ma cambiati solo nell’intesità. Pertanto il ferro potrebbe nascondersi nei gas circumstellari delle stelle AGB (https://it.wikipedia.org/wiki/Ramo_asintotico_delle_giganti); infatti un singolo atomo di ferro aggiunto a catene contenenti nove atomi di carbonio esaurirebbe l’abbondanza di Ferro in fase gas del 95%.. L’esaurimento del ferro sarebbe maggiore qualora le catene di carbonio fossero più corte o contenessero altri atomi di ferro. Pertanto il ferro sarebbe presente in modo elusivo e giocherebbe un ruolo fondamentale anche nello spazio interstellare per la chimica organica. In questo modo si affiancherebbe a quello già ipotizzato nella chimica pre-biotica, ad esempio nella formazione di molecole organiche come l’acetato e il piruvato a partire dal biossido di carbonio [3] o nel folding e nella catalisi della molecola di RNA nelle fasi primordiali della vita sulla Terra [4].

La Catena di carbonio e idrogeno collegata ad un cluster di Fe13 (gli atomi di ferro sono rappresentati in colore bruno-rossastro, il carbonio in grigio, l’idrogeno in grigio chiaro).

[1] P., Schnabel K. G, Weil, M.P. Irion. Proof of the Catalytic Activity of a Naked Metal Cluster in the Gas Phase Angewandte Chemie International Edition in English 1992, 31, 636-638. https://doi.org/10.1002/anie.199206361

[2] P. Tarakeshwar , P. R. Buseck, F. X. Timmes. On the Structure, Magnetic Properties, and Infrared Spectra of Iron Pseudocarbynes in the Interstellar Medium The Astrophysical Journal 2019, 879(2) (8pp) https://doi.org/10.3847/1538-4357/ab22b7

[3] S.J. Varma, K.B. Muchowska, P. Chatelain, J. Moran Native iron reduces CO2 to intermediates and end-products of the acetyl CoA pathway. Nature Ecology & Evolution 2018, 2, 1019–1024. https://doi.org/10.1038/s41559-018-0542-2

[4] S.S. Athavale, A.S. Petrov, C. Hsiao, D. Watkins, C.D. Prickett, J.J. Gossett, L. Lie, J.C. Bowman, E. O’Neill, C.R. Bernier, N.V. Hud, R.M. Wartell, S.C. Harvey, L.D. Williams. RNA Folding and Catalysis Mediated by Iron (II) PLOS 2012, 7(5) , e38024.https://doi.org/10.1371/journal.pone.0038024

Agricoltura urbana e ambiente delle città.

In evidenza

Luigi Campanella, già Presidente SCI

Il boom dell’agricoltura urbana è uno dei processi in atto nella nostra società moderna. Il Brooklyn Grange di New York è l’orto urbano più grande del mondo con fattorie urbane sui tetti dei palazzi in un ex cantiere navale della marina militare, ma anche in Italia ci sono importanti casi di orto urbano.

Brooklyn Grange, a one acre urban farm on top of industrial 6 story industrial building in the Long Island City neighborhood of Queens.

Da Bologna da considerare la prima città italiana in materia, a Palermo dove terreni coltivabili vengono affittati per allenarsi all’agricoltura biologica; da Venezia dove l’orto urbano è alla base di un progetto di rigenerazione del sito industriale di Marghera, a Torino dove nel quartiere Mirafiori Sud, ex Fiat, si è creato uno spazio per chi voglia dedicarsi all’agricoltura urbana e nell’area industriale del Parco Mennea sono stati messi a dimora 300 alberi,un orto collettivo ed una vigna; da Milano che ha riqualificato gli spazi degli scali ferroviari dismessi fino a Roma.

Quali gli stimoli a questa nuova tendenza?

Innanzitutto il recupero di aree potenzialmente contaminate, ex siti industriali, poi la voglia di verde nelle nostre città, dove questo colore spesso manca, ancora la convinzione che i processi naturali, come la crescita di vegetazione, siano correttivi dell’ambiente inquinato, infine la possibilità di disporre di matrici alimentari preziose e di qualità a portata di mano, a Km zero come oggi si dice, senza cioè i costi e l’inquinamento che il trasporto dai siti di produzione a quelli di consumo comporta. Diffusi ovunque dal centro alla periferia gli orti nascono in zone urbane e periurbane per consentire alle famiglie di dedicarsi ad essi in nome dell ‘autoproduzione e dell’autosufficienza.

https://www.architetturaecosostenibile.it/green-life/curiosita-ecosostenibili/coltivare-citta-orti-urbani-italia-551

Ci sono però anche valutazioni negative rispetto a questo tipo di interventi, prima fra tutte quella che considera l’orto urbano un parassita competitore e predatore dell’ambiente rurale. C’è poi il problema dell’inquinamento urbano che può divenire un pericolo per la qualità delle produzioni da parte di orti urbani. Da qui deriva l’esigenza di scegliere il sito di collocamento dell’orto e soprattutto la sua gestione quanto più bio possibile. Una riflessione riguarda il ruolo dei politici: che non pensino di risolvere con gli orti urbani il problema della qualità dell’aria urbana!

Se è vero che l’attività foto sintetica delle piante in luoghi inquinati migliora l’assorbimento di CO2 e che un albero può ridurre il particolato disperso nell’aria che lo circonda in una percentuale che va dal 7 al 24%, sarebbe però sbagliato demandare agli orti urbani l’intero problema, magari puntando sul fatto che camminare in città attraverso strade e piazze circondate da vegetazione lussureggiante modifichi il nostro umore in meglio, alzando il livello di criticità ed abbassando quello di criticismo.

Depuratore? No, bioparco!

In evidenza

Mauro Icardi

Generalmente le persone che non li conoscono, si fanno spesso idee particolari sugli impianti di depurazione. La più diffusa, come ho avuto modo di scrivere in passato, è quella che al termine del processo di trattamento l’acqua di uscita sia pronta per essere destinata all’uso potabile. Altre persone sono convinte che nei depuratori sia convogliata l’acqua dei fiumi, e non invece come avviene nella realtà quella degli scarichi fognari. Ma c’è una realtà inconsueta e particolare che voglio raccontare. Cioè la coabitazione tra addetti all’impianto, e comunità di animali di vario genere. Che è un aspetto che personalmente trovo molto interessante.

L’impianto dove lavoro si trova in una zona periferica di Varese, e nelle vicinanze vi sono diverse aree boschive. E anche l’area interna dell’impianto è piantumata, cosa che favorisce questo tipo di fenomeno.

Per iniziare partirei dai gabbiani. Nel periodo invernale, generalmente da Febbraio ad Aprile inoltrato, una colonia piuttosto numerosa di gabbiani reali si stabilisce in impianto.

In Italia la specie è sedentaria e nidificante. Uccelli che normalmente possiamo trovare in Sardegna, Sicilia, isole minori e coste dell’Alto Adriatico, dagli anni 70 ha colonizzato i grandi laghi interni, e tra questi il Lago Maggiore che da Varese dista pochi chilometri. Il gabbiano reale si nutre prevalentemente di pesce, ratti, animali morti e scarti dell’alimentazione umana. Da alcuni decenni i gabbiani reali hanno imparato a trovare cibo nelle discariche urbane, ma prelevano i rifiuti anche direttamente dai cassonetti dell’immondizia. Tra le loro prede vi sono anche altri uccelli, come storni e rondoni, che catturano in volo, o che prelevano dai nidi. Nidificano a terra su isolotti e anche su manufatti, in particolare sui tetti in città, dove trovano grandi quantità di cibo e assenza di predatori. Quindi in impianto possono svolgere egregiamente il loro ruolo di “netturbini”. In effetti lo stormo si posiziona quasi sempre nella zona di sedimentazione primaria.

Sopra la nostra testa volteggiano spesso anche diversi esemplari di poiane. Normalmente circa sei esemplari. E nel mese di febbraio vi è un visibile ed evidente affollamento di volatili. Gabbiani e poiane si dividono il territorio e le prede.

Restando in tema ornitologico un nutrito gruppo di rondini staziona invece nella zona della vasca di disinfezione. Occupandosi di liberarci dagli insetti. Svolgono il loro servizio di disinfestazione con molta costanza. Rivederle ogni anno ritornare è per me motivo di gioia.

In impianto ci sono vaste aree di prato. Ed è per questa ragione che per esempio spesso fanno capolino i fagiani. In questa foto un esemplare di femmina.

Non ho rinvenuto né nido né uova, ma l’animale si è trovato a proprio agio. I fagiani, hanno abitudini stanziali e sono soliti vagare per campi, prati e pianure fertili; difficilmente si inoltrano all’interno di foreste.

Per chiudere la parte dedicata ai volatili un altro uccello che vediamo piuttosto frequentemente è l’airone cenerino.

In effetti è possibile oramai vedere esemplari di Airone cenerino anche lungo le autostrade. Soprattutto al nord, lungo i fiumi della Pianura Padana, dove sono concentrate molte delle sue colonie, ma anche tra le risaie del Piemonte e della Lombardia. Il nostro esemplare qui è ritratto nella zona di ricezione delle acque reflue, ma molto spesso si appollaia con aria regale su un albero di pino domestico che è vicino al cancello d’ingresso principale. La nostra esperienza di ornitologi amatoriali ci ha consentito negli anni di recuperare, e di portare nel centro di recupero della fauna selvatica gestito dal WWF nell’oasi di Vanzago, due esemplari di uccelli molto belli e particolari. Uno svasso maggiore, e un albanella minore. Entrambi feriti sono stati recuperati e rimessi in libertà. Cosa che ci ha fatto davvero molto piacere.

Veniamo ora ai conigli selvatici. In impianto sono molto comuni.

Sono come delle mascotte. I colleghi che si occupano della manutenzione esterna, quando sono impegnati nel taglio erba sono sempre molto attenti a non disturbare gli animali, nell’epoca in cui ci sono le nidiate.

La precauzione è di fatto inutile. Il coniglio selvatico ha un alto tasso di natalità, anche se nel nostro caso non ne siamo invasi. Rinveniamo spesso le entrate dei cunicoli che le bestiole scavano. A volte questi cunicoli sono sistemi estesi e complessi, ma nel nostro caso la coabitazione è serena. Per altro i conigli aiutano la gestione del taglio erba! Ne possono trovare in abbondanza.

Nella foto si intravede la coda bianca dell’esemplare. Una conferma del fatto che si tratti di coniglio selvatico autoctono. E pur vero che in provincia di Varese, come del resto in tutta Italia, questa specie competa con quella della minilepre (silvilago orientale) di origine Nordamericana. La minilepre venne introdotta a scopo venatorio. E come molte altre specie alloctone può dare luogo a pesanti squilibri nell’equilibrio ecologico locale.

A proposito di specie alloctone, presso un impianto di depurazione più piccolo, situato in prossimità del Lago di Varese ho avuto un incontro con il famigerato Gambero della Louisiana.

Questi animali sono piuttosto comuni in questa zona. Purtroppo anche a causa della loro introduzione, insieme alla diminuzione della qualità ecologica di alcune acque superficiali, stanno soppiantando il gambero di fiume autoctono. In Italia, attualmente, il gambero di fiume è in forte rarefazione e rimane confinato in zone limitate; in genere si tratta di zone poco o per nulla antropizzate, dalle acque pulite e ben ossigenate. In Italia la sua presenza è stata recentemente segnalata in alcuni torrenti abruzzesi e nel bacino del Bussento, in provincia di Salerno. Il gambero d’acqua dolce ha sostenuto per secoli, almeno in parte, molte comunità contadine. Soprattutto in alcune aree del Veneto, era considerato “cibo povero, buono, per ingannare la fame e non per saziarla“.
Era talmente numeroso che anche i più piccoli riuscivano facilmente a catturarlo senza difficoltà. Qualsiasi attrezzo era adatto per catturarlo, un barattolo, un catino, un pezzo di rete. Di gamberi di fiume mi raccontava anche mio padre, che era solito catturarli nei piccoli rii della zona del basso Monferrato. Nel 1859 – 1860 in Lombardia, venne descritta per la prima volta la “peste del gambero“, associata al fungo Aphanomyces astasci, importato involontariamente dal nord America insieme al gambero Orconectes limosus (Rafinesque, 1871). Quest’ultimo, resistente all’infezione, trasferì come portatore sano la malattia alla specie italica, che venne immediatamente decimata. Il gambero della Louisiana venne importato anche per sopperire a questa decimazione, in quanto si riproduce facilmente, ed altrettanto facilmente può essere allevato. Introdotto a scopo commerciale in Toscana è sfuggito al controllo degli allevamenti, diffondendosi velocemente anche nella zona del Varesotto. E non a caso proprio l’immagine di un gambero della Louisiana è stata utilizzata per il manifesto di una mostra naturalistica allestita lo scorso anno in primavera presso i Musei Civici di Villa Mirabello a Varese. La mostra si occupava proprio della proliferazione di specie alloctone in Italia.

Per chiudere questa rassegna, non certamente esaustiva, in quanto si potrebbe parlare di altri animali che sono diventati “inquilini” dell’impianto e che sono utili (mi riferisco alla biscia d’acqua ), è arrivato il momento di parlare degli anfibi.

Mi sono molto appassionato a questa specie di animali. Le specie appartenenti agli anfibi sono tra le più minacciate. Si calcola che delle 85 specie europee il 60% circa sia in rapido declino come numero di esemplari e la situazione italiana sarebbe tra le più gravi dal momento che l’Italia ospita un maggior numero di specie complessivo. Sono animali in pericolo per una serie di ragioni (tra le quali la bonifica delle zone acquatiche, la deforestazione, l’inquinamento diffuso.) Quando ci siamo resi conto che vi erano degli esemplari di rana italica in alcune vasche non utilizzate dell’impianto, abbiamo cercato di creare per loro un habitat dove potessero trovarsi a loro agio.

Questa foto ritrae un esemplare posizionato sopra un asse di legno. L’asse permette alla rana di fuoriuscire da una vasca di contenimento non più utilizzata che si è riempita di acqua, per poi potervi fare ritorno se necessario.

Allo stesso modo, in una vasca di accumulo che si utilizza in caso di forti precipitazioni piovose (evento tutt’altro che raro di questi tempi), abbiamo creato delle isole artificiali per questi simpatici anfibi, per fare in modo che vi si possano issare per riposarsi.

Come si può vedere, il depuratore dove lavoro si è trasformato in una specie di oasi per alcuni animali. O in una specie di bioparco.

Ho sempre pensato che sia importante proteggere la biodiversità. E la foto che segue è una di quelle che sono riuscito a scattare con molta pazienza, ma che mi ha dato molta soddisfazione.

E’ scattata all’interno della vasca di contenimento, quella in cui abbiamo predisposto la via di uscita. Mi sono sentito per un attimo come un fotografo del National Geographic. Per altro sono anche l’addetto al salvataggio delle lucertole che incautamente riescono ad entrare nell’ufficio del Laboratorio. Le recupero su un foglio di carta da filtro, poi delicatamente le libero nel prato adiacente. E invariabilmente mi viene in mente l’operazione che Primo Levi faceva con i ragni, descritta in “Fosforo” ne “Il sistema periodico”.

Mi chiamava ad espellere un ragnetto dal suo banco di lavoro (non dovevo però ammazzarlo, ma metterlo in un pesafiltri e portarlo fuori nell’aiuola), e questo mi faceva sentire virtuoso e forte come Ercole davanti all’Idra di Lerna, ed insieme tentato, perché percepivo la intensa carica femminile della richiesta.

Da Fosforo, Primo Levi

Tutto questo non è in conflitto con quello che faccio, anzi il contrario. Prendersi cura di questi animali è uno stimolo maggiore per occuparsi di depurazione con impegno e passione. E questi “inquilini” me lo ricordano ogni giorno.

Elementi della tavola periodica: Manganese, Mn.

In evidenza

Rinaldo Cervellati

 

Il manganese (Mn) è l’elemento n. 25 della Tavola Periodica. Non si trova libero in natura ma combinato in alcuni minerali, il più importante dei quali è la pirolusite, costituita essenzialmente da biossido di manganese (MnO2). Importante è anche la romanechite (ossidi di manganese e idrossido di bario), costituente principale dello psilomelano, che è un insieme di minerali.

Altri minerali di manganese economicamente importanti mostrano solitamente una stretta associazione con minerali di ferro.

Pirolusite

Diversi ossidi di manganese, ad esempio la pirolusite, abbondante in natura, furono usati come pigmenti sin dall’età della pietra. Le pitture rupestri di Lascaux (Francia), datate fra 30.000 e 24.000 anni fa, contengono pigmenti a base di manganese.

Pitture rupestri a Lascaux (Francia)

L’origine del nome manganese è alquanto complessa. Nell’antichità, due minerali neri provenienti dalla regione detta Magnesia (oggi situata in Grecia) erano entrambi chiamati magnes dal loro luogo di origine, ma avevano caratteristiche e proprietà molto diverse. Il magnes definito maschile di colore grigio scuro con venature rossastre attirava il ferro (si trattava del minerale di ferro ora noto come calamita o magnetite, da cui probabilmente l’origine del termine magnete). Il magnes detto femminile di colore nero non attraeva il ferro, ma era usato per colorare il vetro. Questo magnes femminile era la pirolusite. Né questo minerale né il manganese elementare sono magnetici.

Composti di manganese sono stati usati da vetrai egiziani e romani, sia per aggiungere sia per rimuovere il colore dal vetro. L’uso di questi composti come “sapone per vetrai” è proseguito nel Medioevo fino ai tempi moderni ed è evidente nel vetro trecentesco di Venezia.

Nel 16° secolo la pirolusite era chiamata manganesum dai vetrai, forse come concatenazione di due parole, poiché alchimisti e vetrai dovevano differenziare fra magnesia nigra (il minerale nero) e magnesia alba[1] (un minerale bianco, proveniente anche esso dalla Magnesia, utile anche nella produzione del vetro). Michele Mercati[2] chiamò manganesa la magnesia nigra, in seguito il metallo isolato da essa divenne noto come manganese (in tedesco: Mangan).

Nel 18° secolo diversi chimici, fra i quali Carl Wilhelm Scheele, identificarono importanti composti del manganese, come ad es. il permanganato di potassio, usato come antisettico, e scoprirono che facendo reagire il biossido di manganese con l’acido muriatico (acido cloridrico) si otteneva il cloro. Tutto ciò fece supporre che i composti del manganese dovessero contenere un nuovo elemento, ma il merito di averlo isolato per primo va allo svedese Johan Gottlieb Gahn[3] che lo ottenne arrostendo la pirolusite con carbone (in termini chimici riducendo il biossido di manganese con carbonio: MnO2 + C ® Mn +CO2).

Manganese metallico

Il manganese con le sue 1000 ppm (0.1% ca.) occupa il 12° posto per abbondanza fra gli elementi chimici nella crosta terrestre. Il suolo contiene 7-9000 ppm di manganese con una media di 440 ppm. L’acqua di mare ha solo 10 ppm di manganese e l’atmosfera ne contiene 0,01 μg/m3.

Le risorse terrestri sono grandi ma distribuite in modo irregolare. Circa l’80% delle riserve di manganese conosciute nel mondo si trovano in Sud Africa; altri importanti depositi sono in Ucraina, Australia, India, Cina, Gabon e Brasile.

Distribuzione delle risorse di manganese (minerali), 2006

Secondo la stima del 1978, il fondo oceanico conterrebbe 500 miliardi di tonnellate di noduli di manganese. I tentativi di trovare metodi economicamente validi per la raccolta di questi noduli furono abbandonati negli anni ’70.

In Sud Africa la maggior parte dei depositi identificati si trova vicino a Hotazel nella Provincia di Northern Cape, con una stima (2011) di 15 miliardi di tonnellate. Nel 2011 il Sudafrica ha prodotto 3,4 milioni di tonnellate di manganese, superando tutte le altre nazioni.

Il manganese metallico si ottiene ancor oggi per riduzione del suo diossido. Come riducente però non si usa più il carbone ma una miscela di gas idrogeno e monossido di carbonio che fornisce sia il calore necessario (il processo avviene a 850 °C) sia l’opportuno riducente. Il diossido di manganese si riduce a monossido (MnO), che viene raffreddato e opportunamente frantumato. Questo composto viene poi inviato a un reattore che riduce ulteriormente il monossido di manganese a manganese metallico per reazione con solfato ferroso in ambiente acido. Il rendimento del processo è del 92%.

Il metallo può essere ulteriormente purificato per via elettrolitica.

Il manganese è essenziale per la produzione di ferro e acciaio per le sue proprietà desolforanti, deossigenanti e leganti.

La produzione dell’acciaio e altre leghe ferrose assorbe attualmente dall’85% al 90% della produzione mondiale di manganese: fra le altre cose, il manganese è un componente chiave per gli acciai inossidabili a basso costo e per alcune leghe di alluminio di largo impiego.

Piatti e lastre in manganese sono utilizzati durante la costruzione o riparazione di un tipo di impianti di sabbiatura chiamati granigliatrici, dotati di motori elettrici collegati a speciali turbine che sparano graniglia metallica ad alta velocità sabbiando il pezzo. Il manganese è più resistente del ferro durante il processo di sabbiatura e risulta essenziale per la longevità dell’impianto.

Il manganese può assumere tutti gli stati di ossidazione da +1 a +7 sebbene i più comuni siano +2, +3, +4, +6 e +7. Agli stati di ossidazione più bassi funziona chimicamente come metallo formando ossidi basici (es. MnO), a quelli più alti funziona da non metallo fornendo ossidi acidi, come nei permanganati del cui sale di potassio si è già detto.

Il biossido di manganese (MnO2) è stato ampiamente utilizzato nelle batterie “a secco” zinco-carbone[4]. Lo stesso materiale funziona anche nelle più recenti batterie alcaline, che utilizzano la stessa reazione di base, ma una diversa miscela di elettroliti. Nel 2002 sono state utilizzate più di 230.000 tonnellate di biossido di manganese per questo scopo e sono attualmente in continuo aumento causa lo sviluppo delle auto elettriche.

Il monossido di manganese (MnO) è un pigmento marrone che si usa per vernici e si trova nelle terre naturali (ad esempio nella terra di Siena e nella terra di Siena bruciata ).

Composti del manganese si usano anche per togliere la tinta verdastra conferita al vetro dalle impurezze di ferro; a concentrazioni molto alte donano al vetro un colore violetto.

In chimica organica sono utilizzati come catalizzatori in molte sintesi.

Il riciclo degli scarti degli acciai e delle altre leghe non ferrose contenenti manganese procede come descritto nei precedenti post sul nickel e il cobalto, il metallo riciclato è riutilizzato nell’industria siderurgica. Per coloro particolarmente interessati ai dettagli del riciclaggio dei metalli dagli scarti di tale industria si rimanda al volume curato da Scott Sibley [1].

Il riciclo del manganese dalle batterie alcaline al litio per auto elettriche è più complicato perché lo si deve separare da litio, nickel e cobalto. Illustriamo qui il procedimento messo a punto da una nota fabbrica tedesca di automobili [2]. Con riferimento alla figura:

Riciclaggio manganese da batterie al litio

da ciascun elemento del sistema di batterie si tolgono dapprima i cavi elettronici da cui vengono separati alluminio e rame dall’acciaio, il corpo del modulo viene invece flottato e triturato poi asciugato e infine setacciato fino a ottenere una polvere nera contenente il manganese insieme a litio, nickel e cobalto. Questi metalli vengono poi separati singolarmente con un procedimento idrometallurgico.

In vista della costante diminuzione delle risorse minerarie e del contemporaneo aumento del consumo globale di manganese, lo sviluppo di tecnologie rispettose dell’ambiente per la ricerca di fonti alternative di Mn ha acquisito grande importanza. Il recupero dai residui minerari o metallici utilizzando gli approcci convenzionali è poco remunerativo a causa degli elevati costi di gestione e di energia coinvolti. Il recupero di Mn mediante biolisciviazione con diversi microrganismi può quindi diventare una valida alternativa verde alle attuali tecniche pirometallurgiche. La biolisciviazione è un complesso di operazioni che si compiono su materiali misti, contenenti metalli e altro materiale, al fine di portare in soluzione i metalli, lasciando come residuo indisciolto la porzione non metallica. La trasformazione è lenta se si usano reagenti inorganici (ad es. acidi), mentre è fortemente accelerata se alla soluzione acida si aggiungono particolari organismi, battéri o funghi. La biolisciviazione batterica è principalmente dovuta a influenza enzimatica, mentre quella fungina non è enzimatica.

Schema del meccanismo generale della biotrasformazione batterica intracellulare di Mn [3]

Una rassegna su questa interessante prospettiva “verde” per lo sfruttamento degli scarti di miniera e il riciclo del manganese è stata pubblicata da S. Gosh et al. [3].

Il manganese è un elemento essenziale per l’organismo umano. È presente come coenzima in diversi processi biologici, tra cui il metabolismo dei macronutrienti, la formazione delle ossa e i sistemi di difesa dai radicali liberi. È un componente fondamentale in dozzine di proteine ed enzimi. Il corpo umano contiene circa 12 mg di manganese, principalmente nelle ossa, il rimanente è concentrato nel fegato e nei reni. Nel cervello umano il manganese è legato a metalloproteine, in particolare la glutammina sintetasi negli astrociti[5].

L’enzima Mn-Superossido dismutasi (Mn-SOD) è il tipo di SOD presente nei mitocondri delle cellule eucariote, ma anche nella maggior parte dei batteri. Questo enzima è probabilmente uno dei più antichi, poiché quasi tutti gli organismi che vivono in presenza di ossigeno lo usano per affrontare gli effetti tossici del superossido (O2), formato dalla riduzione del normale ossigeno molecolare (O2).

Cioccolato fondente, riso, noci, pasta e farina contengono discrete quantità del minerale, ma anche tutta una serie di aromi, dallo zafferano al prezzemolo, al basilico [4].

Negli Stati Uniti le dosi giornaliere raccomandate variano dai 1,2 ai 2,3 mg/giorno per i maschi ai 1,2 – 1,8 mg/giorno per le femmine a seconda dell’età. Per le donne incinte e i lattanti le dosi sono aumentate a 2 e 2,6 mg/giorno di manganese. In Europa la dose media raccomandata per individui maggiori di 15 anni è di 3,0 mg/giorno, che è pure quella consigliata per le donne incinte. Per bambini e ragazzi da 1 a 14 anni le dosi vanno da 0,5 a 2,0 mg/giorno.

Casi di deficienza da manganese sono comunque molto rari.

I composti di manganese sono meno tossici di quelli di altri metalli come il nickel e il rame.  Tuttavia, l’esposizione a polveri e fumi di manganese non deve superare il valore massimo di 5 mg/m 3 anche per brevi periodi a causa del suo livello di tossicità. L’avvelenamento con manganese è stato associato a compromissione delle capacità motorie e a disturbi cognitivi.

A livelli di 500 mg/m3 il manganese diventa molto pericoloso per la salute e la vita.

Il manganese è importante anche nell’evoluzione fotosintetica dell’ossigeno nei cloroplasti delle piante. Per soddisfare il fabbisogno, la maggior parte dei fertilizzanti vegetali ad ampio spettro contiene manganese.

Infine un accenno al ciclo biochimico, ricordando anzitutto che con questo termine, tipico delle Scienze della Vita e della Terra e dell’Ecologia, si intende il percorso attraverso il quale una sostanza chimica si muove attraverso compartimenti biotici (biosfera) e abiotici (litosfera, atmosfera e idrosfera) della Terra. Nella figura è mostrata parte del ciclo dei macronutrienti e dei micronutrienti (oligoelementi) che comprende anche il manganese.

Ciclo biogeochimico schematico di macro e micronutrienti

Come ricordato più volte in questo blog molti cicli biogeochimici sono attualmente studiati per la prima volta poiché i cambiamenti climatici e l’impatto delle attività umane stanno cambiando drasticamente la velocità, l’intensità e l’equilibrio di questi cicli relativamente poco conosciuti.

Per chi volesse saperne di più, rimando alla citazione [5].

Opere consultate

https://en.wikipedia.org/wiki/Manganese

Bibliografia

[1] S. F. Sibley (Ed.), Flow Studies for Recycling Metal Commodities in the United States., U.S. Geological Survey, Reston, Virginia, 2004.

[2] https://www.volkswagen-newsroom.com/en/stories/lithium-to-lithium-manganese-to-manganese-4662

[3] S. Gosh et al., A greener approach for resource recycling: Manganese bioleaching., Chemosphere, 2016, 154, 628-639.

[4] http://www.dietabit.it/alimenti/manganese/

[5] V. Cilek (a cura di), Earth System: History and Natural Variability – Volume IV, UNESCO-EOLSS, 2009, pp. 229-249.

[1] Il nome magnesia fu infine usato per riferirsi solo alla bianca magnesia alba (ossido di magnesio), che fornì il nome di magnesio per l’elemento libero quando fu isolato più di trenta anni dopo, precisamente nel 1808 da Humphrey Davy.

[2] Michele Mercati (1541 – 1593) medico italiano, fu sovrintendente dell’Orto Botanico Vaticano sotto i papi Pio V, Gregorio XIII, Sisto V e Clemente VIII. Fu uno dei primi studiosi a riconoscere gli strumenti di pietra preistorici come oggetti creati dall’uomo piuttosto che pietre naturali o mitologiche.

[3] Johan Gottlieb Gahn (1745 – 1818), chimico e metallurgista svedese, isolò il manganese metallico nel 1774. Dieci anni dopo fu nominato membro dell’Accademia Reale Svedese delle Scienze.

[4] Dette anche pile Leclanché, dal nome del loro inventore nel 1866. Il biossido di manganese impastato con cloruro d’ammonio funge da accettore di idrogeno nelle reazioni che avvengono al catodo di zinco. La barretta di carbone funge unicamente come trasportatore di elettroni.

[5] Gli Astrociti sono caratteristiche cellule a forma di stella presenti nel cervello e nel midollo spinale. Svolgono molte funzioni, tra cui il supporto biochimico alle cellule endoteliali che formano la barriera emato-encefalica, la fornitura di sostanze nutritive al tessuto nervoso, il mantenimento dell’equilibrio degli ioni extracellulari e un ruolo nel processo di riparazione e cicatrizzazione del cervello e del midollo spinale dopo trauma o lesioni.

Dalle forze di van der Waals all’adesione.2. Perchè il ghiaccio è scivoloso?

In evidenza

Claudio Della Volpe

Nella prima parte di questo post abbiamo affrontato il tema di esprimere le forze di van der Waals fra molecole di gas reali nel contesto quantistico e soprattutto tenendo conto della velocità finita con cui i campi si propagano; questo ci ha fatto concludere che le forze di van der Waals in questo contesto sono definibili come forze di Casimir-Polder e il loro comportamento ha a che fare con la natura più intima della materia e dello spazio-tempo (l’energia di punto zero).

In questa seconda parte introdurremo un secondo punto di vista quello macroscopico; ossia invece di ragionare a partire dall’interazione fra due molecole o atomi ragioneremo sull’interazione fra corpi macroscopici, cosa che ha enorme importanza nei casi concreti.

Già Casimir aveva introdotto questo punto di vista col suo effetto, noi ripartiremo dalle forze non ritardate, ossia nella versione vdW. E cercheremo conferme macroscopiche di questi effetti e di queste forze.

Introduciamo qui un’idea molto produttiva che è quella della cosiddetta pressione interna.

La equazione di van der Waals è come detto la seguente:

il termine additivo sulla pressione, +a/V2 che la riconduce ad un comportamento ideale, quanto vale in un caso comune?

Ricordate che la pressione interna è la quantità da aggiungere al valore sperimentale, che si oppone a quella “tradizionale”, che ne riduce il valore “ideale” dunque è una pressione in effetti negativa.

Usando i valori tabulati che sono espressi in kPa L2 e considerando di avere 1 mole di vapor d’acqua a c.n. con un volume dunque di 22.4 litri circa, il risultato sarà dell’ordine di 1000 Pa (per la precisione 1102Pa), dunque l’1% della pressione totale (1atm = 101.325Pa).

Stimiamo la stessa quantità nell’acqua liquida o nel ghiaccio, ossia in fase condensata.

Qui potremmo usare una delle più belle equazioni della termodinamica classica.

Partendo dal primo principio:

dU=TdS-pdV

deriviamo contro il V a T costante

(dU/dV)T=T(dS/dV)T-p

ed infine ricordando le famose relazioni di Maxwell (le relazioni fra derivate seconde) sostituiamo la derivata a destra ottenendo

(dU/dV)T =pressione interna=T(dp/dT)V-p

Questa quantità si trova tabulata in letteratura (J. Chem. Phys. 13, 493 (1945); doi: 10.1063/1.1723984 ) ed ha un valore che si aggira per la maggior parte dei liquidi attorno a 0.2-0.7 GPa, circa 1 milione di volte più alta che nei gas.

E questa è già una bella osservazione che è espressa nel grafico qui sotto estratto da un classico della teoria cinetica

lNTRODUCTlON TO THERMODYNAMicS AND KlNETlC THEORY O f MATTER: Second Edition A. I. Burshstein Copyright@ 2005 WILEY-VCH

A sinistra il confronto fra pressione mozionale o traslazionale ed interna in un gas e a destra in un solido o liquido. La differenza fra la pressione traslazionale o mozionale e quella interna è uguale alla pressione sperimentale. In un gas la pressione traslazionale è poco più grande di quella interna, ed entrambe sono piccole; in una fase condensata invece, a destra entrambe sono grandi e quella traslazionale è ancora di poco più grande di quella interna. I valori finali di p sperimentale sono uguali ma sono il risultato di due differenze molto “diverse” tra loro, due numeri piccoli nei gas e due numeri grandi in fase condensata.

Questa grandezza, la pressione interna, correla bene, linearmente con altre quantità; per esempio se mettiamo in grafico la pressione interna e la tensione superficiale dei liquidi troviamo un ottimo accordo:

La pressione interna “strizza” il liquido o il solido comprimendone la superficie, che dall’altro lato non ha molecole che bilancino la pressione interna e ne ispessisce la superficie esterna, costruendo una sorta di membrana, che dà luogo all’effetto di tensione superficiale. Questa membrana era stata immaginata già da Thomas Young nel 1804.

E’ la membrana che appare visibile quando un insetto come l’idrometra (Hydrometra stagnorum) “schettina “ sull’acqua.

Nel grafico di pressione interna e tensione superfciale, come si vede, l’acqua costituisce un’eccezione, un outlier, è fuori linea, poi vedremo perchè.

Prima però ragioniamo sulle conseguenze degli effetti di questa pressione interna. Se consideriamo il diagramma di fase dell’acqua, vediamo che a questo valore di pressione (0.17GPa) e alla temperatura attorno allo zero, fino a quasi -38°C, l’acqua è liquida (la protuberanza a becco verde fra i ghiacci II, III, V e VI).

Questo fa capire una conseguenza importante; la pressione interna esercitata dal bulk dell’acqua nei confronti della propria superficie, la altera profondamente. Il ghiaccio (che ha una densità minore dell’acqua liquida) non resiste a questa pressione così elevata e fonde assumendo una distribuzione molecolare a maggiore densità, come mostrato nel grafico seguente, ottenuto per via numerica e confermato da varie misure sperimentali.

Quindi la superficie del ghiaccio o della neve fra 0 e -38°C possiede un sottile strato di acqua liquida; questo strato ha uno spessore variabile, decrescente con la temperatura; questo strato, che esiste si badi bene senza effetto di pressione esterna, è quello che permette di sciare, pattinare, schettinare o fare curling. Quando esso scompare, sotto -38°C il ghiaccio aumenta bruscamente il suo attrito e non si riesce più a sciare.

La comune interpretazione che sciare o pattinare si può grazie all’effetto del peso del pattinatore sui pattini funzionerebbe solo a 1°C sotto zero, ma non più giù, perchè nessun pattinatore o sciatore pesa abbastanza da esercitare una pressione sufficiente, le forze di attrazione intermolecolari si.

Prendete un pattinatore da 80 kg e mettetelo su un paio di pattini con un coltello da 5cm2 (25cm per 2mm di spessore), la pressione sarebbe di 8000N/0.001m2=8MPa solamente.

Per verificare se bastano usiamo la equazione di Clausius Clapeyron che ci da l’aumento di temperatura di fusione per un certo aumento di pressione.

la variazione fra il volume del ghiaccio e dell’acqua per un kg è 0.0905 litri (d=0.917) il calore latente di fusione è 3.33×105 J/kg.

273x-0.0905×10-3 x 8000000 /3.33×105 = -0.59°C. Quindi fino a -0.59°C bastano e poi?

E a t più basse? No non si pattina o si scia per questo effetto, come si crede comunemente.

http://physicspages.com/pdf/Schroeder/Schroeder%20Problems%2005.32.pdf

In questo bell’articolo (Why ice is slippery,2005 Physics today, p.50) una serie di approfondimenti (https://physicstoday.scitation.org/doi/full/10.1063/1.2169444 )

Il fatto che la superficie del ghiaccio possedesse un film di acqua era stato notato da Faraday (M. Faraday, Experimental Researches in Chemistry and Physics, Taylor and Francis, London (1859), p. 372. 
) con un esperimento elegantissimo che faceva attaccare due sfere di ghiaccio al semplice contatto (regelation)

Questo fenomeno costituì oggetto di discussione fra Faraday, J.J. Thomson, quello del plum-pudding model dell’atomo e che non ci credeva e perfino Gibbs, che ci credeva. Ed è stato poi confermato varie volte, per esempio in questo bel lavoro del 1954 di Nakaja e Matsumoto che riproducono l’esperimento di Faraday.

O in quest’altro di Hosler o in molte analisi fatte con i raggi X sulla lunghezza di legame nelle molecole di superficie.

Hosler, R. E. Hallgren, Discuss. Faraday Soc. 30, 200 (1961); C. L. Hosler, D. C. Jensen, L. Goldshlak, J. Meteorol. 14, 415 (1957).

Questo effetto che si potrebbe definire “fusione superficiale”, surface melting, è presente anche in altre sostanze: J. W. M. Frenken, J. F. van der Veen, Phys. Rev. Lett. 54, 134

(1985) e produce in esse una superficie intrinsecamente scivolosa.

Finisco il post notando che la formula usata prima per calcolare la pressione interna dà comunque un risultato che fa pensare, in quanto l’acqua, nella quale la tensione superficiale è più forte, ma nella quale la correlazione con la pressione interna viene meno, in questo si assomiglia ad altri liquidi con legami idrogeno e ci dà l’indicazione che qualcosa non torna.

Questa osservazione l’aveva fatta alcuni anni fa il compianto H.S. Frank (famoso per la bibbia sull’acqua, Water in 7 voll) (J. Chem. Phys. 13, 493 (1945); doi: 10.1063/1.1723984 ); l’acqua ed in genere le molecole lontane da una forma “ideale” semplice, sferica sono situazioni in cui una parte dell’energia libera del sistema è catturata da gradi di libertà “non manifesti”. Se usate questa stima della pressione interna l’acqua sembra peggio del pentano per esempio, il che è strano davvero. Molecole come gli idrocarburi senza forti interazioni specifiche sembrano avere la stessa pressione interna dell’acqua e dunque le stesse forze di interazione. Fatto che fa sorgere dubbi.

Per questo motivo la grandezza in questione, la pressione interna di un liquido si potrebbe stimare altrimenti, usando un’altra quantità: la energia di coesione o densità di energia di coesione (ced), ossia l’entalpia di vaporizzazione (oppure la somma di entalpia di vaporizzazione e fusione)per unità di volume. Il confronto fra i due tipi di dato è fatto per esempio da Y. Marcus (Internal Pressure of Liquids and Solutions, Yizhak Marcus, 2013 Chem. Rev.)

Una energia per unità di volume è equivalente dimensionalmente ad una forza per unità di superficie e dunque ad una pressione!!

U/V=Fxl /(lxS) dunque dividendo per l entrambi, numeratore e denominatore si ha una pressione! Per i liquidi “normali” diciamo senza legami idrogeno, le due quantità sono molto simili, ma in quelli con legami idrogeno, no; i legami idrogeno non sono forze di van der Waals e hanno effetti diversi. Ricordatelo, ci servirà per i prossimi post.

Per l’acqua questo valore è di circa 2.3 GPa, allo stato liquido (mentre la pressione interna calcolata nell’altro modo è di soli 0.17GPa); di poco superiore sarebbe quella del ghiaccio, appena sopra i 2.5GPa. Questo è dunque l’ordine di grandezza della pressione che si esercita anche all’interfaccia e che giustifica un comportamento dell’acqua molto particolare.

A questo punto nel diagramma di fase l’acqua si sposterebbe verso altre forme di ghiaccio piuttosto che verso uno stato disordinato più vicino al liquido.

A questo stadio della nostra riflessione la questione rimane irrisolta, ma si può pensare che l’effetto di strizzatura superficiale, distruggendo la struttura regolare impedisca la formazione di legami idrogeno e riconduca le interazioni molecolari nel più semplice stato di interazioni di vdW.

Nel prossimo post analizzeremo il caso delle interazioni fra oggetti macroscopici in modo più formale, andando a scoprire chi erano Hamaker e Lifshitz, due giganti della chimica e della fisica.

(continua).

Un composto stabile dell’elio: l’eliuro di sodio

In evidenza

Rinaldo Cervellati

Nel febbraio 2017, Stefano Parisini diede sull’INAF (Notiziario on-line dell’Istituto Nazional e di Astrofisica) la notizia della scoperta di un composto stabile del gas nobile elio con il sodio, con stechiometria Na2He*.

Scrive Parisini che l’articolo definitivo su questa importante scoperta è stato pubblicato su Nature Chemistry [1] dopo una lunga gestazione. Ho voluto ripercorrerne la storia, poiché l’ho trovata molto istruttiva.

Una prima versione fu sottoposta il 16 settembre 2013 e una seconda il giorno dopo [2]. In queste versioni i sei autori, cinque cinesi (fra i quali Hui-Tian Wang[1]) e il russo Artem Oganov[2], riportano la previsione teorica dell’esistenza e della struttura cristallina cubica (tipo fluorite) del composto fra l’elio e il sodio, stabile a pressioni maggiori di 160 GPa (ca. 1,6´106 atm). Essi razionalizzano anche la stabilità di questo composto in termini di teoria degli orbitali. Queste versioni non furono pubblicate.

Struttura cristallina di Na2He [1]

Il 10 luglio 2014 fu sottoposta una terza versione della ricerca [3]. Ai sei autori delle versioni precedenti se ne aggiunsero diversi altri, fra cui l’italiano Carlo Gatti[3]. In questa versione sono riportati calcoli più accurati che danno la molecola Na2He termodinamicamente stabile sopra 113 GPa (ca. 1,12´106 atm) e la previsione di un nuovo composto dell’elio con stechiometria Na2HeO, stabile da 13 GPa. Anche questa versione non fu pubblicata.

I ricercatori decisero comunque di presentare una comunicazione al XXIII Congresso dell’International Union of Crystallography, svoltosi a Montreal (Canada) dal 5 al 12 agosto 2014. Il testo della comunicazione fu pubblicato da Acta Crystallografica negli Abstracts of XXIII IUCr [4].

Artem Oganov (a sinistra) Carlo Gatti (a destra)

Ma il gruppo internazionale di scienziati (cinesi, russi, italiani, greci, americani) dovrà aspettare più di due anni per vedere pubblicata la ricerca, cioè non prima di aver provato la reale esistenza di Na2He, oggi chiamato eliuro di sodio (IUPAC: disodio eliuro).

Anzitutto ulteriori più raffinati calcoli su possibili altri elementi che potrebbero formare composti con l’elio (O, F, Na, K, Mg, Li, Rb, Cs, ecc.) mostrarono che solo il sodio avrebbe potuto facilmente formare un composto stabile con He alle pressioni accessibili a esperimenti statici.

Per ottenere Na2He, gli scienziati hanno utilizzato uno strumento particolare, una cella a incudini di diamante, un’apparecchiatura che permette di generare pressioni altissime e di studiare la struttura tramite diffrattometria a raggi X, simile a quella di cui abbiamo parlato nel post sul ghiaccio superionico[4].

Cella a incudini di diamante: schema (a sinistra) apparecchiatura (a destra)

Il composto Na2He è stato ottenuto a una pressione pari a circa 1,1 milioni di volte quella dell’atmosfera terrestre, in accordo con il valore calcolato, e resta stabile anche a pressioni circa 10 volte superiori.

Carlo Gatti, intervistato da Parisini, dice:

Questa scoperta dimostra che l’elio non è completamente inerte come si pensava. In certe condizioni può formare dei composti stabili e addirittura assumere una carica negativa. Di fatto, quello che capita è la creazione di coppie elettroniche che occupano alternativamente le posizioni dell’elio.

E aggiunge:

Na2He appartiene infatti alla categoria dei cosiddetti elettruri, materiali cristallini simili a sali, essendo costituito da un reticolo di ioni sodio carichi positivamente all’interno del quale si trova un sottoreticolo carico negativamente formato da coppie di elettroni localizzate.

Tali coppie di elettroni isolati hanno una topologia della densità elettronica che assomiglia a quella di un atomo, per cui possiamo vedere in questo composto la presenza di sodio depauperato di elettroni, elio leggerissimamente carico negativamente, e queste coppie elettroniche, che formano una struttura ordinata tipo fluorite [fluoruro di calcio CaF2].

Funzione di localizzazione elettronica tracciata in un piano cristallino [1]

Il nuovo composto, qualunque nome avrà, difficilmente troverà applicazioni pratiche, nel caso si potesse mai produrre su scala industriale. È tuttavia di grande interesse per l’astrofisica, vista l’abbondanza dell’elio nel cosmo e la presenza di pressioni e temperature più estreme di quelle ottenute in laboratorio.

*S. Parisini, L’elio non è più solo: sotto pressione si combina, Media INAF, 7 Febbraio 2017 https://www.media.inaf.it/2017/02/07/lelio-non-e-piu-solo-sotto-pressione-si-combina/

Bibliografia

[1] Xiao Dong et al., A stable compound of helium and sodium at high pressure., Nature Chemistry, 2017, 9, 440-445.

[2] Xiao Dong et al., Stable Compound of Helium and Sodium at High Pressure., September 17, 2013, arXiv:1309.3827v2 [cond-mat.mtrl-sci], https://arxiv.org/abs/1309.3827v2

[3] Xiao Dong et al., Stable Compound of Helium and Sodium at High Pressure., July 10, 2014, arXiv:1309.3827v3 [cond-mat.mtrl-sci], https://arxiv.org/abs/1309.3827v3

[4] G. Saleh et al. Stable Compound of Helium and Sodium at High Pressure., Acta Cryst. 2014, A70, C617.

[1] Hui-Tian Wang, Nankai University, Tianjin, China and National Laboratory of Solid State Microstructures, Nanjing University, China

[2] Artem R. Oganov (1975-) è un cristallografo teorico russo, mineralogista, chimico, fisico e scienziato dei materiali. È conosciuto soprattutto per i suoi lavori sulla previsione computazionale di nuovi materiali e sulla loro struttura cristallina.

[3] Carlo Gatti, ricercatore senior dell’Istituto di Scienze e Tecnologie Molecolari del CNR di Milano, esperto in teoria del legame chimico, si occupa delle proprietà chimico fisiche dei materiali e della loro modellizzazione teorica.

[4] https://ilblogdellasci.wordpress.com/2019/06/10/ghiaccio-superionico-ottenuto-in-laboratorio/

Intervista al teorico del ghiaccio nero.

In evidenza

a cura di Claudio Della Volpe

Qualche giorno fa abbiamo pubblicato un post riguardante la conferma sperimentale dell’esistenza del cosiddetto ghiaccio superionico, ottenuta in laboratorio da un gruppo italo francese .

L’ipotesi di esistenza di questo materiale, nero, conduttore e caldissimo, che potrebbe essere la forma più comune dell’ acqua nel sistema solare e forse nell’Universo è stata formulata oltre trent’anni fa da un chimico italiano, Pierfranco Demontis, oggi all’Università di Sassari. Laurea in Chimica, Università di Sassari, 16 Marzo 1979. Oggi professore ordinario di Chimica Fisica. Si occupa di chimica teorica, automi cellulari, simulazioni numeriche su liquidi e solidi con applicazioni alla scienza dei materiali, ed in particolare materiali microporosi (zeoliti).

Ci ha colpito il fatto che questa ipotesi, fatta tanti anni fa usando la potenza di calcolo di allora e le conoscenze teoriche di allora, abbia necessitato tanti anni per essere confermata; che in effetti il lavoro originale di Demontis et al.( New high-pressure phases of ice. Phys. Rev. Lett. 60, 2284–2287 (1988).) sia stato citato relativamente poche volte in letteratura e che invece la conferma sperimentale abbia avuto uno spazio enorme sui siti e sui giornali; ed infine che quasi nessuno abbia ricordato chi ha fatto l’ipotesi e soprattutto cosa pensa, chi l’ipotesi aveva fatto, di questa conferma sperimentale che apre una quantità enorme di speculazioni sulla costituzione dei pianeti giganti, sulla loro struttura sui dettagli del loro campo magnetico, insomma c’è da lavorare per anni.

C’è anche l’aspetto della capacità previsionale sui materiali, sembra che si possa prevedere tutto teoricamente. Ma è così?

Infine gli italiani ci fanno un figurone; la teoria e la pratica di laboratorio dei nostri scienziati, le nostre collaborazioni internazionali sembrano al top in entrambi i casi, una tradizione che rivoluziona l’ipotesi che spesso fanno i giornali che l’Italia sia la cenerentola della ricerca; manco per idea.Abbiamo dunque deciso di intervistare Pierfranco Demontis che ha cortesemente acconsentito.

D. Prof. Demontis oggi operi in una Università che si sente nominare poco, in una regione fra le più difficili d’Italia, che va alla ribalta quasi solo per cose negative; mentre oltre alle bellezze naturali ha evidentemente una tradizione culturale di tutto rispetto; parlaci di te e della tua carriera; di cosa ti occupi oggi? hai studiato in Sardegna, hai avuto esperienze all’estero ma poi sei tornato. Perché? Come mai non sei un “cervello in fuga”?

R. Sono nato in Sardegna, a Sassari, dove ho completato i miei studi laureandomi in chimica nel 1979. Dopo avere passato quattro anni come assistente volontario (cioè senza borsa) nel gruppo del Prof. Aldo Gamba, nel 1983 ho vinto un concorso per Ricercatore Universitario, ruolo allora istituito di recente con la legge 382 del 1980. Nel 1987 fui invitato a trascorrere un anno sabbatico all’Università della Pennsylvania nel gruppo di Mike Klein. Il progetto che avevamo discusso riguardava lo studio delle proprietà di trasporto di carica dei conduttori superionici, e il loro comportamento quando sottoposti ad altissime pressioni. Cominciai sviluppando i codici di calcolo per simulare alcuni di questi materiali per poi trasferirli sul nostro vero obiettivo: lo studio dell’acqua, il cui diagramma di fase era oggetto di speculazioni teoriche e d’indagini sperimentali. Il risultato fu sorprendente: era possibile immaginare una nuova fase del ghiaccio con proprietà da conduttore superionico. Spedimmo il lavoro, fatto in collaborazione con Mike e Richard LeSar, che all’epoca lavorava nei laboratori di Los Alamos, nel dicembre del 1987 e fu accettato e pubblicato su Physical Review Letters nel maggio del 1988, dopo un attento esame da parte dei “referees”. Nel corso degli anni, sull’argomento, sono state fatte altre simulazioni con metodi sempre più sofisticati e sempre con l’obiettivo di spiegare il comportamento dell’acqua sottoposta ad altissime pressioni. Trent’anni dopo, il 14 Febbraio 2018, ho avuto da Mike la notizia che la nostra previsione era stata verificata sperimentalmente e che i risultati sarebbero stati pubblicati su Nature Physics. Ho incontrato Mike a Febbraio di quest’anno a Bangalore (India) ad un congresso e abbiamo parlato di quegli anni, dove con mezzi all’epoca all’avanguardia, oggi relativamente modesti, fummo capaci di fare una previsione così inaspettata.

Rientrato in Italia nel 1988 continuai ad occuparmi principalmente di simulazioni di proprietà strutturali e dinamiche di molecole adsorbite in materiali microporosi, . Nel corso degli anni abbiamo cercato di affrontare problemi metodologici finalizzati all’integrazione di diverse tecniche di simulazione al calcolatore per studiare le interazioni e il comportamento diffusivo delle specie molecolari assorbite all’interno di materiali microporosi ad alta tecnologia, inserite in un contesto teorico-computazionale multi-scala.

Questa è in breve la mia storia scientifica. Sono tornato in Italia, e pur avendo la possibilità di restare, per ragioni familiari ho preferito rientrare. D’altra parte avevo già una posizione permanente, quindi non mi considero un “cervello in fuga” sebbene debba riconoscere che all’estero, e in particolare negli Stati Uniti vi siano molte più risorse e opportunità che in Italia.

D. Trent’anni fa eri al Dipartimento di Chimica all’Università di Pennsylvania e collaboravi con figure di prestigio; quale era all’epoca il ruolo del calcolo e della relativa conferma sperimentale, come arrivaste a formulare l’ipotesi del ghiaccio superionico? E come si è evoluta da allora la previsione teorica sulle proprietà dei materiali?

R. All’epoca, come oggi, la comunità dei simulatori crede che una simulazione ben fatta o esperimento “in silico”, dove le relazioni (leggi fisiche) tra gli oggetti (nel nostro caso atomi e molecole) che lo compongono siano trasformate in algoritmi di calcolo, abbia la capacità di avvicinarsi a prevederne le proprietà ed eventualmente la dinamica spazio-temporale. Tutto questo sarà verificato con le misure sperimentali disponibili o da realizzarsi, come nel caso del ghiaccio superionico. La moderna scienza dei materiali oggi fa largo uso di simulazioni inserite in un contesto teorico-computazionale, multi-scala; ossia, poiché i materiali d’interesse saranno da utilizzarsi in processi su scala macroscopica, ovvero la scala degli oggetti visibili, ed essendo però la loro relativa efficienza determinata dalle loro caratteristiche microscopiche, ovvero la scala delle proprietà atomiche, tutti i sistemi oggetto d’indagine passano attraverso una sequenza di fasi di studio diversificate nelle relative scale di spazio e tempo e nel grado di dettaglio appropriato per ciascuna scala. Più specificatamente, la sequenza delle simulazioni è caratterizzata da un’estensione delle scale di spazio e tempo crescente e nel contempo da un livello di dettaglio, nella rappresentazione digitale, necessariamente decrescente. Grazie alla continua evoluzione dei calcolatori elettronici e al continuo aumentare delle loro prestazioni, le tecniche di simulazione numerica rappresentano oggi una valida alternativa a basso costo rispetto alle procedure di sintesi e analisi in laboratorio per la progettazione e lo studio di materiali ad alta tecnologia altamente specifici e dei processi chimico-fisici che, al loro interno, coinvolgano una o più specie molecolari. In generale il protocollo per l’indagine di un sistema fisico comincia con la simulazione a principi primi (laddove la materia è descritta dalla meccanica quantistica, utilizzando le tecniche proprie della chimica quantistica) di piccole porzioni dello stesso. I risultati ottenuti sono quindi elaborati e il grado di dettaglio nella rappresentazione è ridotto allo scopo di ottenere i parametri adatti a descrivere, stavolta secondo le leggi della meccanica classica, porzioni molto più ampie di sistema seppur mantenendo un grado di accuratezza elevato; tale parametrizzazione sarà impiegata in simulazioni di Dinamica Molecolare classica (Molecular Dynamics, MD), in cui il sistema è rappresentato su scala microscopica nella sua evoluzione temporale, e di Monte Carlo (MC) classico, in cui le proprietà statiche del sistema vengono determinate attraverso metodi probabilistici basati sui principi della meccanica statistica. L’indagine si sposta poi dalla scala microscopica a quella mesoscopica, ovvero intermedia tra quella macroscopica e quella microscopica, compresa in genere tra i 5 e 100 nanometri: il sistema simulato attraverso metodi classici è partizionato in porzioni ampie, e le mutue interazioni tra porzioni diverse sono analizzate e riprodotte attraverso simulazioni ad hoc basate su algoritmi semplificati ad altissima efficienza come gli Automi Cellulari (Cellular Automata, CA), il Monte Carlo Cinetico (Kinetic Monte Carlo, KMC) e le Reti Neurali (Neural Networks, NN). Il comportamento su scala mesoscopica delle proprietà d’interesse sarà poi fatto confluire all’interno di equazioni di stato appositamente concepite che permetteranno il definitivo passaggio alla scala macroscopica, quella per cui è previsto il reale utilizzo dei materiali.

D. All’epoca concludevate:

Se potessi rifare quel lavoro oggi lo rifaresti diversamente?

R. Oggi è possibile studiare il sistema con mezzi teorici molto più sofisticati, in particolare gli effetti quantistici possono essere trattati in modo assai più accurato. Direi però che manterrei inizialmente il nostro approccio semplificato per poi passare a metodi più precisi. Una consuetudine quando si comincia ad affrontare un problema nuovo.

D. Conosci i colleghi che hanno confermato la tua ipotesi? In che rapporti è oggi il teorico con il lavoro di laboratorio? Secondo te si può dedurre che con gli strumenti attuali la previsione teorica può effettivamente costituire una sorta di strumento progettuale per i materiali o credi invece che l’esperimento abbia la prevalenza sempre e comunque? Fra l’altro vediamo che ti occupi anche di materia oscura; quale è la situazione al momento su questo tema?

R. Non conosco i colleghi che hanno confermato l’esistenza del ghiaccio superionico. Le simulazioni a volte precedono e a volte inseguono il risultato sperimentale per arricchirlo con proprietà non immediatamente misurabili. C’è comunque una stretta interazione.

Partecipo al progetto DarkSide come chimico computazionale con l’idea di progettare materiali più efficienti per la separazione delle miscele isotopiche. Non sono un fisico delle particelle elementari e quindi non saprei entrare nel dettaglio della situazione attuale della ricerca in questo campo.

D. Ho una curiosità personale; vedo che nelle immagini degli interni planetari il ghiaccio superionico viene rappresentato nero anche se in effetti si tratta di un materiale che si trova ad alta temperatura; è corretta una rappresentazione del genere? E più in dettaglio cosa pensi del modo in cui le riviste divulgative hanno riportato l’argomento?

R. A mio parere l’interesse su questo argomento di “nicchia” è dovuto al fatto che questa forma del ghiaccio potrebbe essere la più comune nel nostro sistema solare e forse nell’universo. Le proprietà magnetiche di Nettuno e Urano e degli esopianeti sono meno comprensibili al grande pubblico mentre invece l’esistenza di un ghiaccio nero e caldo fa “notizia”.

D. Cosa consigli ai giovani brillanti; fuga o ritorno? La situazione della ricerca italiana come è vista da Sassari? E quali prospettive vedi per il settore della Chimica Fisica oggi, specie nel contesto così vicino e quasi sovrapposto alla Fisica di cui ti occupi?

R. Diverse ragioni spingono un giovane brillante a partire, anzitutto credo il desiderio di imparare in un ambiente diverso e confrontarsi con altri giovani che hanno maturato esperienze diverse. Rientrare in Italia purtroppo non è facile. La nostra struttura accademica è molto “conservativa”, con poche opportunità e poche risorse, è spesso chi ha trovato una posizione permanente all’estero preferisce tornare in Italia in vacanza. L’interazione tra Fisica e Chimica Fisica è fortissima, le collaborazioni sono numerose e molti dei nostri chimico fisici provengono dal mondo della fisica.

D. Un tuo famoso conterraneo, Antonio Gramsci parlando di scienza denunciava la superficialità anche di parte dell’accademia del suo tempo la cosiddetta “superficiale infatuazione per la scienza”, come anche la necessità di una socialità della scienza contrapposta alla semplice universalità della medesima; tu cosa ne pensi? La scienza di oggi è abbastanza socializzata?

R. Sono d’accordo con Gramsci. L’idea che ciò che viene definito scientifico è “vero” è molto radicata anche tra gli scienziati, come anche l’idea che la scienza possa risolvere qualunque problema. In realtà società molto evolute scientificamente e tecnologicamente non hanno risolto forti disparità interne di accesso alle risorse economiche e culturali e a livello globale nel mondo ancora milioni di persone soffrono per denutrizione e malattie facilmente curabili.

L’importanza della molecola-ione H3+ in astrochimica

In evidenza

Rinaldo Cervellati

Come riporta Janet Pelley in uno speciale* di Chemistry & Engineering newsletter dell’8 giugno scorso, la molecola più semplice a 3 atomi sta rivoluzionando le osservazioni dello spazio interstellare e facendo nuova luce sulla formazione del legame chimico.

La molecola ione H3+ fu scoperta da J. J. Thomson[1] attorno al 1911 mentre stava studiando le specie risultanti da scariche elettriche nel plasma usando una prima versione di spettrometro di massa. Egli notò la grande abbondanza di uno ione molecolare con un rapporto massa/carica di 3, che assegnò correttamente alla specie H3+ [1].

H3+ (o anche idrogeno molecolare protonato) è un catione costituito da tre nuclei di idrogeno (protoni) che condividono due elettroni. È la specie triatomica più semplice, perché i suoi due elettroni sono gli unici elettroni di valenza nel sistema. È anche l’esempio più elementare di un sistema di legame a tre centri e due elettroni[2] (citato in un recente post).

Strutture per H3+

Fin dagli anni ’60 del secolo scorso gli scienziati ipotizzarono che H3+ potesse trovarsi nello spazio, ma occorre aspettare il 1989 prima che i ricercatori riuscissero ad individuare il suo segnale caratteristico proveniente da Giove.

La scoperta di H3+ nello spazio dipendeva infatti dalla descrizione dello spettro della molecola, parti del quale erano state osservate nel 1980 da Takeshi Oka dell’Università di Chicago [2].

La molecola ione emette luce infrarossa (IR) a lunghezze d’onda caratteristiche che possono attraversare le vaste distanze dello spazio, arrivando fino ai rivelatori sulla Terra. Va sottolineato che le emissioni più forti di H3+ si trovano in un insieme di lunghezze d’onda raramente emesso da altre molecole, rendendolo relativamente facile da individuare, anche a distanza di anni luce.

Giove ha spettacolari aurore, dovute a nuvole colorate di gas carichi, ma negli anni ’80 si sapeva poco della loro chimica, dice Steve Miller, scienziato studioso dei pianeti all’University College di Londra. Così Pierre Drossart dell’Osservatorio di Parigi, lo stesso Miller, e i loro colleghi puntarono un telescopio a infrarossi sulle aurore che si libravano sopra i poli di Giove. Con un moderno spettrometro sensibile collegato al telescopio si aspettavano di osservare la presenza di gas idrogeno, H2, la molecola più abbondante sul gigante gassoso. Ma lo spettrometro rilevò anche un altro insieme di lunghezze d’onda IR impreviste. Miller e collaboratori si resero subito conto che il loro spettro IR calcolato per H3+, che avevano costruito in base al lavoro di Oka, coincideva perfettamente con le misteriose emissioni provenienti da Giove [3].

Il pianeta Giove

La scoperta inaspettata per la prima volta di H3+ nello spazio convinse gli scienziati a cercare anche altrove nell’universo.

Negli ultimi 30 anni, i ricercatori hanno trovato H3+ quasi ovunque nello spazio che hanno esplorato. La sua presenza ha dato loro uno strumento per osservare direttamente i processi nello spazio che in precedenza erano stati solo ipotizzati teoricamente.

Dice James O’ Donoghue dell’Agenzia Giapponese per l’Esplorazione dello Spazio: “Non è soltanto il fatto che possiamo osservare H3+ nelle atmosfere superiori di pianeti come Giove, Saturno e Urano, ma possiamo derivare proprietà come la temperatura e la densità di H3+”.

I modelli possono anche prevedere la quantità di luce che una singola molecola di H3+ dovrebbe emettere a varie temperature. La capacità di misurare l’intensità della luce che raggiunge i loro rivelatori consente ai ricercatori di ricavare la concentrazione di H3+ sopra le superfici dei pianeti.

Questo tipo di misurazioni ha permesso a O’Donoghue e colleghi di confermare un’ipotesi di lunga data sugli anelli di Saturno. Gli anelli sono costituiti da pezzi e particelle di ghiaccio, tenuti in orbita dall’equilibrio tra la gravità del pianeta e la forza centrifuga degli anelli rotanti. Gli scienziati sospettavano da tempo che a volte queste particelle piovessero sul pianeta. Hanno proposto che le particelle di ghiaccio possano essere caricate da collisioni con micrometeoriti che si muovono nello spazio o dalla luce ultravioletta proveniente dal Sole. Gli scienziati ipotizzarono che queste particelle cariche potessero quindi essere catturate dal campo magnetico di Saturno ed essere attirate nell’atmosfera superiore del pianeta, dove sarebbero sublimate in vapore acqueo gassoso neutro. L’acqua neutra riduce la densità di elettroni nell’atmosfera, che a sua volta prolunga la durata di vita di H3+, quindi le aree del pianeta che ricevono tale pioggia di anelli dovrebbero avere densità più alte di H3+.

Il pianeta Saturno

Gli studi sulle emissioni H3+ di Saturno hanno rilevato alte concentrazioni della molecola nell’atmosfera che circonda il pianeta proprio dove il ghiaccio dovrebbe uscire dagli anelli e precipitare nell’atmosfera. Ma mancava un’analisi dettagliata della temperatura e della densità a diverse latitudini, dice O’Donoghue. Dopo aver condotto tali analisi, lui e il suo team non solo hanno confermato la presenza di H3+ in modelli che sostenevano la teoria della pioggia dall’anello, ma hanno anche calcolato che l’intero sistema di anelli dovrebbe scomparire in almeno 300 milioni di anni, un battito di ciglia in confronto ai tempi cosmologici [4].

Lo ione H3+ ha anche contribuito a risolvere un mistero sull’atmosfera superiore di Giove. Giove è cinque volte più lontano dal Sole della Terra, quindi la parte superiore della sua atmosfera dovrebbe essere estremamente fredda. Eppure gli scienziati hanno misurato che essa è tanto calda quanto quella della Terra. Perché?

Studi modellistici precedenti avevano suggerito che le onde sonore provenienti dalla superficie di Giove potessero riscaldare la parte superiore della sua atmosfera. È infatti noto che le onde acustiche prodotte sopra i temporali viaggiano verso l’alto e riscaldano l’atmosfera terrestre. La famosa Grande Macchia Rossa di Giove è la più grande tempesta del nostro sistema solare, con venti che arrivano a oltre 600 km/h, quindi sarebbe ragionevole pensare che possa contribuire a riscaldare l’atmosfera del pianeta.

La Grande Macchia Rossa di Giove emette calore

Utilizzando le lunghezze d’onda emesse da H3+, O’Donoghue e il suo gruppo nel 2016 hanno mappato per la prima volta le temperature nell’atmosfera superiore di Giove, trovando che le massime si trovano proprio sopra la Grande Macchia Rossa. Il gruppo ha quindi dedotto che questo dato è coerente con l’ipotesi secondo cui le onde sonore provenienti dalla Grande Macchia Rossa stanno riscaldando l’atmosfera superiore del pianeta. Le onde sonore viaggiano verso l’alto, frangendosi sullo strato esterno dell’atmosfera come le onde su una spiaggia, causando eccitazione vibrazionale e rotazionale di H3+ e di altre molecole. Questo incremento di energia cinetica provoca il riscaldamento [5].

Questi risultati hanno aiutato gli scienziati a comprendere anche altre questioni terrestri. Basandosi su questi, Bowman e Lees hanno suggerito che il suono a bassa frequenza delle onde oceaniche che si infrangono l’una con l’altra potrebbe riscaldare l’atmosfera superiore della Terra [6].

Particolarmente interessante è che la molecola-ione H3+ in una sua forma particolare[3] può anche agire come un orologio chimico, aiutando gli astrofisici a studiare processi che vanno ben oltre il nostro sistema solare.

A quattrocento anni luce dalla Terra, nella costellazione di Ofiuco, fluttuano nubi di polvere interstellare. Questi insiemi relativamente densi di molecole e particelle possiedono le caratteristiche per diventare due future stelle, si potrebbe quindi trattare di due stelle in formazione. Costituite principalmente da idrogeno gassoso, le nuvole contengono anche elio e granelli di polvere congelata di carbonio e silicio talvolta rivestiti di ghiaccio. Questo elenco di “ingredienti” contiene anche H3+.

Le nubi di gas e polvere nella costellazione di Ofiuco

La temperatura delle nuvole è di poche decine di gradi sopra lo zero assoluto (−273.16 °C). In questo ambiente, gli atomi e le molecole si scontrano occasionalmente per poi rimbalzare immutati perché non hanno abbastanza energia per reagire. L’H3+ altamente reattivo, tuttavia, è pronto a donare un protone a qualsiasi cosa in cui si imbatte. La piccola molecola arricchisce la chimica della nuvola lanciando catene di reazioni che producono molecole più grandi e diversificate che coinvolgono principalmente carbonio, idrogeno e ossigeno.

Gli scienziati sono molto interessati al tempo necessario per la formazione di una stella, stimato tra i 100000 e oltre il milione di anni per cui non può essere seguito con gli orologi convenzionali. Gli astrofisici hanno valutato la possibilità di utilizzare la molecola-ione triidrogeno.

Olli Sipilä, un astrochimico del Max Planck Institute for Extraterrestrial Physics, particolarmente interessato alle nubi nella costellazione di Ofiuco, dice però che sebbene H3+ sia facile da rivelare non è di per se un buon orologio chimico. Tuttavia, aggiunge Sipilä, nel freddo spazio interstellare, H3+ a volte sostituisce uno ione deuterio (isotopo dell’idrogeno con un protone e un neutrone nel nucleo) a uno ione idrogeno, formando H2D+. Le due forme orto- e para- di H2D+ (v nota 3) emettono luce IR a differenti lunghezze d’onda. Tuttavia mentre la luce emessa dalla forma orto- riesce a raggiungere i rivelatori sulla Terra, quella emessa dalla forma para- è bloccata dall’atmosfera terrestre. Solo recentemente il nuovo telescopio montato a bordo di un aereo che vola a 14 km sopra la Terra[4], ha consentito ai ricercatori di misurare la luce IR emessa dal para-H2D+.

Utilizzando queste misure, Sipilä e collaboratori hanno potuto stimare in un milione di anni l’età del nucleo delle protostelle in Ofiuco [7].

Protostelle in formazione

Infine queste ricerche hanno ovviamente attratto l’attenzione dei chimici verso le proprietà e le reazioni cui il catione H3+ può dar luogo in laboratorio. Chi fosse particolarmente interessato a questi aspetti, oltre all’articolo di Janet Pelley, può consultare il lavoro di N. Ekanayake et al. Mechanisms and time-resolved dynamics for trihydrogen cation (H3+) formation from organic molecules in strong laser fields, Scientific Reports, 2017, scaricabile al sito https://www.nature.com/articles/s41598-017-04666-w.pdf

*Lo speciale per C&EN è tratto da un articolo per ACS Central Science (2019, 5, 741-744) di Janet Pelley, scrittrice freelance con sede a Victoria, nella British Columbia. L’articolo è scaricabile dal sito: cenm.ag/trihydrogen

Bibliografia

[1] J. J. Thomson, Rays of Positive Electricity., Proceedings of the Royal Society A, 191389 1–20.

[2] T. Oka, Observation of the Infrared Spectrum of H3+., Phys. Rev. Lett., 1980, 45, 531.

[3] P. Drossart et al., Detection of H3+ on Jupiter., Nature, 1989, 340, 539–541.

[4] J. O’Donoghue et al., Observations of the chemical and thermal response of ‘ring rain’ on

Saturno’s ionosphere., Icarus, 2018, DOI: 10.1016/j.icarus.2018.10.027

[5] J. O’Donoghue et al., Heating of Jupiter’s upper atmosphere above the Great Red Spot., Nature, 2016536,190–192.

[6] D.C. Bowman, J.M. Lees, Upper Atmosphere Heating From Ocean Generated Acoustic Wave Energy., Geophys. Res. Letters, 2018, DOI:10.1029/2018gl077737

[7] S. Brunken, O. Sipilä et al., H2D+ observations give an age of at least one million years for a cloud core forming Sun-like stars., Nature, 2014, 516, 219-221.

[1] Sir Joseph John Thomson (1856-1940), fisico inglese, premio Nobel per la fisica nel 1906 per i suoi studi sulla conduzione dell’elettricità nei gas, è accreditato per la scoperta e l’identificazione dell’elettrone, la prima particella subatomica a essere scoperta. Con una prima versione dello spettrometro di massa fornì la prova dell’esistenza degli isotopi di un elemento stabile. È anche conosciuto per il suo modello di atomo, noto come “modello a panettone”.

[2] Un legame 3-centri 2-elettroni (3c-2e) è un legame chimico carente di elettroni in cui tre atomi condividono due elettroni. La combinazione di tre orbitali atomici forma tre orbitali molecolari: uno di legame, uno di non legame e uno di anti-legame. I due elettroni entrano nell’orbitale di legame, determinando un effetto di legame netto e costituendo un legame chimico tra tutti e tre gli atomi. In molti legami comuni di questo tipo, l’orbitale di legame viene spostato verso due dei tre atomi anziché essere distribuito equamente tra tutti e tre. Questo tipo di legame è anche chiamato legame a banana.

[3] Così come la molecola di idrogeno H2 possiede due isomeri, rispettivamente orto- e para-idrogeno, anche H3+ possiede gli isomeri orto- e para. Le due forme differiscono per il diverso orientamento del momento magnetico del nucleo (spin nucleare).

[4] Di questo telescopio montato su un Boeing 747SP opportunamente adattato ho parlato in un precedente post:

https://ilblogdellasci.wordpress.com/2019/05/13/le-prime-molecole-delluniverso-finalmente-trovate-nello-spazio/

L’acqua si perde!

In evidenza

Luigi Campanella, già Presidente SCI

I nostri acquedotti sono ormai un colabrodo, perdiamo in alcuni punti fino a 75 gocce su cento. “Per di più, quando piove, l’acqua incontra terreni così induriti che non riesce a filtrarsi, scorre sulla superficie e magari fa disastri”, spiega Vito Felice Uricchio, direttore dell’Irsa, Istituto di ricerca sulle acque del CNR. Con situazioni come questa si comprende come al timone dei cambiamenti climatici si aggiungano gli errori,e talora orrori, del nostro modo di gestire i problemi: la rete nazionale di distribuzione dell’acqua potabile (quindi pregiata, trattata e depurata) perde oltre 6.5 milioni di litri al minuto, pari al 41,9 per cento di quella immessa nelle tubature. Dati in costante rialzo: eravamo al 35 per cento nel 2012, al 38 nel 2015. Ci sono zone, come Frosinone, in cui le perdite raggiungono il terrificante primato del 75 per cento. Lo stesso tipo di dati per la Germania fornisce per la Germania perdite pari al 6,5% e per la Francia pari al 20,9%.In realtà, oggi esistono tecnologie che permettono di localizzare e aggiustare il punto esatto della perdita a costi minimi, in modo rapido e tutto sommato economico. “Noi dell’Università a Milano Bicocca, per esempio, abbiamo inventato un software che, attraverso piccolo sensori, registra cali di pressione e portata dove il tubo ha una falla”, spiega Antonio Candelieri.Con tale metodo ci sono impianti che hanno ottenuto una riduzione delle perdite fino al 30 per cento.

C’è poi discorso della prevenzione, sempre meglio della cura. All’IRSA CNR sono 40 anni che invitano lo Stato a costruire gli invasi sotterranei di raccolta dell’acqua piovana: costano un quinto di quelli all’aperto, non hanno il problema dell’evaporazione.“Noi proponiamo di incentivare con l’aiuto pubblico anche la costruzione di microinvasi condominiali, che possano rendere i palazzi più autonomi”, dice Uricchio.

Siamo il Paese con uno dei consumi d’acqua domestica più alti (circa 240 litri al giorno pro capite, contro i 180 della media europea) e in compenso siamo la terza nazione al mondo per consumo di acqua in bottiglia. L’acqua del rubinetto è perfettamente sana, dovremmo imparare a consumarne di meno e soprattutto bisognerebbe creare sistemi per recuperarla (per esempio, dopo una doccia) e riutilizzarla in giardino o per altri usi meno pregiati.E’ tempo di lanciare la cosiddetta microirrigazione nei campi, in modo che alle piante arrivino giusto le gocce di cui hanno davvero bisogno.

La discussione di questo tema è entrata in Parlamento lo scorso ottobre 2018, con un progetto di legge in materia di “Gestione pubblica e partecipativa del ciclo integrale delle acque” che si muove in continuità con un disegno di legge già presentato nella precedente legislatura e che a breve approderà in aula della Camera dei Deputati. Difatti, come riportato nella bozza del DEF 2019: “E ‘obiettivo del Governo garantire l’accesso all’acqua quale bene comune e diritto umano universale, anche avvalendosi degli strumenti normativi europei. Sarà rafforzata la tutela quali-quantitativa della risorsa e si incentiverà l’uso di sistemi per ridurre gli sprechi e le dispersioni con l’introduzione e la diffusione di nuove tecnologie e si incrementeranno gli investimenti di natura pubblica sul servizio idrico integrato.

Al riguardo, un progetto di legge in materia di gestione pubblica e partecipativa del ciclo integrale delle acque (A.C. n.773) è all’esame della Camera dei Deputati.

Da una prima lettura del progetto di legge emergono questioni di grande importanza che potranno creare forti criticità nella struttura del settore idrico a livello nazionale. In particolare, secondo la Federazione nazionale degli ordini dei chimici e dei fisici (Fncf) alcune proposte previste nel progetto di legge meritano un confronto approfondito, come ad esempio:

  • Il principio di “unitarietà” della gestione, in luogo dell’”unicità”, all’interno di bacini idrografici;
  • L’adesione facoltativa alla gestione unitaria del servizio idrico integrato per i Comuni con popolazione fino a 5 mila abitanti situati in territori di comunità montane o di unioni di comuni.
  • Il restringimento degli affidamenti, consentiti in ambiti territoriali non superiori alle province o alle città metropolitane;
  • Il ritorno delle competenze in materia di regolazione al Ministero dell’Ambiente. Così era sino al 2011, cioè prima del mandato conferito a un’autorità indipendente, l’Autorità per l’energia, le reti e l’ambiente denominata Area.

In merito al deficit da dati della Fncf risulta che il 4% della popolazione è ancora priva di adeguati impianti acquedottistici, mentre il 7% di un collegamento alla rete fognaria. Sul versante della depurazione delle acque emerge un ritardo drammatico con il 15% della popolazione sprovvista di impianti di trattamento

Gli investimenti nel settore idrico, dopo uno scenario decennale inerziale (30 euro/abitante/anno), hanno avuto qualche miglioramento con evidente ripresa (45 euro/abitante/anno) e con previsioni di crescita (in media oltre 50 euro/abitante/anno). Tuttavia, si è ancora molto lontani dal fabbisogno di 80 euro/abitante/anno). Serve quindi uno scenario più forte e di ripresa degli investimenti: da 3,2Mld€/anno (oltre 50 €/abitante/anno a 4,8 Mld€/anno (circa 80 €/abitante/anno). Attualmente, tali risorse sono, a livello regionale, reperite all’interno della tariffa a carico del consumatore.

Immagini dal bell’articolo di Milena Gabanelli:

https://www.corriere.it/dataroom-milena-gabanelli/acqua-potabile-rete-colabrodo-si-perdono-274mila-litri-minuto/886100ba-5841-11e8-9f2b-7afb418fb0c0-va.shtml

 

Elementi della tavola periodica: Cobalto, Co.

In evidenza

Rinaldo Cervellati

 Il cobalto (Co) è l’elemento n. 27 della Tavola Periodica. Non si trova libero in natura (fatta eccezione per leghe di origine meteorica) ma combinato in alcuni minerali come l’heterogenite (ossido idrato di Co), la cobaltite (solfoarseniuro di Co), l’eritrite (arseniato idrato di Co), la skutterudite (arseniuro di Co) e il glaucodoto (solfo arseniuro di ferro e cobalto). La sua abbondanza in natura è valutata fra 20 e 30 ppm (parti per milione).

Heterogenite                                                               Cobaltite

Composti del cobalto sono stati usati per secoli per conferire un vivido colore blu a oggetti di vetro, ceramica e a smalti. Sali di cobalto sono stati individuati nella gioielleria persiana del terzo millennio a.C., in sculture egiziane (1550-1292 a.C.), nelle rovine di Pompei, e in oggetti cinesi, risalenti alle dinastie Tang (618-907 d.C.) e Ming (1368-1644 d.C.).

Manufatti in vetro colorato al cobalto

Il nome cobalto potrebbe derivare dal greco kobalos o dal tedesco kobalt, con il significato di “diavoletto”, usato dai minatori tedeschi che incolpavano i diavoletti di fargli trovare un minerale di scarso valore anziché oro.

L’isolamento del cobalto metallico è attribuito al chimico e mineralogista Georg Brandt (1694-1768) che, attorno al 1741 scrisse:

Dato che ci sono sei tipi di metalli, come ho dimostrato con esperimenti affidabili, ci devono anche essere sei tipi di semi-metalli: ho ricavato un nuovo semi-metallo, che ho chiamato cobalt regulus[1] [1]

Brandt fu anche in grado di dimostrare che il cobalto era la fonte del colore blu nel vetro, in precedenza attribuita al bismuto (presente insieme al cobalto).

Oggi, solo una parte di cobalto viene estratta per fusione e riduzione dai suoi minerali, la maggior parte del metallo viene ottenuta come sottoprodotto dell’estrazione di rame e nickel. I principali produttori di cobalto sono la Repubblica democratica del Congo (RDC), la Russia, l’Australia, il Canada e lo Zambia. Nel 2016 la sola RDC ha rappresentato circa il 60% della produzione mondiale di cobalto (123.000 tonnellate) [2].

Paesi produttori di cobalto

Dal 10 al 25% della produzione nella RDC proviene da miniere artigianali, dove i minatori scavano con attrezzi manuali per decine di metri con scarsa pianificazione e ancora meno sicurezza. La mancanza di precauzioni è causa frequente di lesioni o morte. L’estrazione mineraria inquina l’ambiente circostante esponendo la fauna locale e le comunità indigene a metalli tossici che si ritiene causino malformazioni alla nascita e difficoltà respiratorie (rapporto di funzionari dell’OMS). Gli attivisti per i diritti umani hanno asserito, e il giornalismo investigativo ne ha data conferma, che il lavoro infantile viene utilizzato nelle miniere artigianali africane. Questa rivelazione ha spinto la produttrice di cellulari Apple Inc., il 3 marzo 2017, a smettere di acquistare minerali da fonti che provengono dalle zone incriminate della RDC, utilizzando solo fornitori verificati per soddisfare il proprio fabbisogno di cobalto [2].Il cobalto metallico è fragile e duro, il suo aspetto è simile a quello del ferro e del nickel. Possiede una permeabilità magnetica pari a circa due terzi di quella del ferro. Il cobalto tende a esistere come una miscela di due forme allotropiche in un ampio intervallo di temperatura; la forma β predomina sotto i 400 °C, la forma α sopra questa temperatura. La trasformazione è lenta il che rende in parte conto dell’ampia variazione dei dati riportati sulle proprietà fisiche del metallo. Il cobalto ha due principali stati di ossidazione: +2 e +3.

Cobalto metallico

Storicamente la maggior parte del cobalto prodotto è stata utilizzata per la produzione di superleghe. La stabilità alla temperatura di queste leghe le rende adatte per le pale di turbine a gas. Le leghe sono anche resistenti alla corrosione e all’usura, sono quindi utilizzate per realizzare impianti ortopedici che non si consumano nel tempo. Speciali leghe di cobalto-cromo-molibdeno come il Vitallium sono utilizzate nelle protesi dell’anca e del ginocchio. Le leghe di cobalto sono anche usate per protesi dentali come conveniente sostituto del nickel, che può essere allergenico. Alcuni acciai speciali contendono anche cobalto per aumentarne la resistenza al calore e all’usura. Le leghe speciali di alluminio, nichel, cobalto e ferro, note come Alnico, sono utilizzate nella costruzione di magneti permanenti. La lega con il 95% di platino, particolarmente adatta per la microfusione, è molto usata in gioielleria.

L’ossido di litio e cobalto (LiCoO2) è ampiamente utilizzato nei catodi delle batterie agli ioni di litio. Il materiale è composto di strati di ossido di cobalto intercalati con il litio. Durante la scarica della batteria, il litio viene rilasciato come ioni di litio (Li+). Le batterie al nichel-cadmio (NiCd) e nickel-idruro metallico (NiMH) includono anche cobalto per migliorare l’ossidazione del nichel nella batteria.

Sebbene nel 2018 la maggior parte delle batterie al litio-cobalto siano state utilizzate nei telefoni cellulari, un’applicazione più recente è costituita da batterie ricaricabili per auto elettriche. In questo settore la richiesta di cobalto è quintuplicata. Si prevede che la domanda continui a crescere con l’aumento della diffusione dei veicoli elettrici. Ciò rende urgente trovare nuove materie prime contenenti cobalto in aree più stabili del mondo.

                  Vano batterie di un’auto elettrica           Batteria di uno smartphone

Diversi composti del cobalto sono utilizzati come catalizzatori in chimica organica sia in laboratorio sia nell’industria. L’idrodesolforazione del petrolio, ad esempio, il processo industriale che serve a eliminare le impurezze di zolfo nei combustibili liquidi, utilizza catalizzatori contenenti cobalto e molibdeno.

Composti del cobalto continuano a essere usati come pigmenti e coloranti in vari rami dell’arte e dei tessuti. Prima del XIX secolo, il cobalto era usato prevalentemente come pigmento. Il pigmento, di un intenso colore blu, era prodotto fin dal Medioevo fondendo una miscela del minerale smaltite (una varietà di skutterudite) con potassa (carbonato di potassio), raffreddata e poi finemente macinata. Rifusa insieme a silice o silicati produceva un vetro di colore blu. Il pigmento era ampiamente utilizzato anche nei dipinti. Nel 1802 Louis Jacques Thénard[2] scaldando una miscela di fosfato o arsenato di cobalto e allumina (ossido di alluminio) scoprì l’alluminato di cobalto che prese il nome di blu cobalto. Questo pigmento presentò grandi vantaggi per i pittori dell’epoca poiché era molto stabile e facilitava l’asciugatura della pittura a olio. Ancora oggi il blu cobalto è ottenuto con un procedimento simile a quello di Thénard.

Altri pigmenti al cobalto come blu ceruleo (stannato di cobalto (II)), varie tonalità di verde cobalto (miscele di ossido di cobalto (II) e ossido di zinco), cobalto viola (fosfato di cobalto) vengono utilizzati come pigmenti dagli artisti per la loro elevata stabilità cromatica.

Blu cobalto pigmento

Il cobalto è un oligoelemento appartenente secondo alcuni alla categoria dei microelementi [4], secondo altri a quella degli ultratracce [5]. Il cobalto, tossico allo stato ionico, viene assunto in forma organica tramite l’apporto di vitamina B12.

La vitamina B12, nota anche come cobalamina, è una vitamina idrosolubile coinvolta nel metabolismo di ogni cellula del corpo umano: è un cofattore nella sintesi del DNA e nel metabolismo degli acidi grassi e degli aminoacidi. È particolarmente importante nel normale funzionamento del sistema nervoso attraverso il suo ruolo nella sintesi della mielina e nella maturazione dello sviluppo di globuli rossi nel midollo osseo.

La maggior parte delle persone onnivore nei paesi sviluppati ottiene abbastanza vitamina B12 dal consumo di prodotti animali tra cui carne, pesce, uova e latte. Le fonti vegane di cibo contenente vitamina B12 sono molto rare, i vegani sono quindi particolarmente esposti a sindromi da deficienza da vitamina B12.

L’americana FDA suggerisce una RDA (recommended daily allowance) di 2,4 μg/giorno per gli adulti e gli adolescenti, l’europea EFSA l’ha aumentata a 4,0 μg/giorno.

Sintomi da deficienza di vitamina B12 possono essere gastrite, anemia, disturbi intestinali e del sistema immunitario. Nei casi accertati, il trattamento consiste nell’aumentare la dieta con alimenti ricchi della vitamina e nell’utilizzo di opportuni integratori.

I batteri nello stomaco degli animali ruminanti convertono i sali di cobalto in vitamina B12. Una presenza minima di minerali di cobalto nel suolo assicura la salute degli animali al pascolo. Poiché questa è l’unica fonte di vitamina B12 per i ruminanti, è raccomandata un’assunzione di 0,20 mg/kg al giorno.

La dose letale di cobalto è stata valutata in 140-500 mg/kg di peso corporeo [6].

Il cobalto ha diversi isotopi, tutti radioattivi il più noto dei quali è il cobalto-60 (o 60Co), artificiale, sorgente di raggi gamma, usato in radioterapia e per la sterilizzazione di strumenti chirurgici.

Il riciclo degli scarti degli acciai e delle altre leghe non ferrose al cobalto procede come descritto nel precedente post sul nickel, e il prodotto riciclato viene riutilizzato nell’industria siderurgica. Negli ultimi anni, lo sviluppo delle batterie al nickel-litio e litio-cobalto ha determinato una sempre maggiore necessità di mettere punto efficaci processi di riciclaggio dei prodotti esausti.

Molto recentemente il gruppo di ricerca guidato dal professor Pulickel Ajayan della Rice University di Houston (TX) ha messo a punto un metodo più sostenibile per recuperare metalli come il cobalto dai loro ossidi comunemente usati come catodi nelle batterie agli ioni di litio (M.K. Tran et al., Deep Eutectic Solvents for Cathode Recycling of Li-Ion Batteries, Nature Energy, 2019, 4(4): 339-345.)

Pulickel Ajayan

Il metodo utilizza una miscela di due solventi: cloruro di colina[3] (un integratore per alimenti animali) e glicole etilenico (il comune antigelo). La miscela è eutettica, cioè congela a una temperatura più bassa di quella dei due componenti singolarmente. La dottoranda Mai Kim Tran, collaboratrice di Ajayan dice: L’aspetto interessante di questo solvente è che può sciogliere una grande varietà di ossidi metallici. Inoltre può essere considerato un solvente “verde”, composto da un integratore di mangimi per polli e dal precursore del polietilene, che, miscelati a temperatura ambiente, formano una soluzione limpida, relativamente poco tossica con efficaci proprietà solvatanti.

Durante i test con polvere di ossido di litio-cobalto, il solvente trasparente ha prodotto un ampio spettro di colori blu-verde, una indicazione della presenza di cobalto disciolto. Più brillante diventava il colore, più cobalto veniva catturato. Per l’estrazione del metallo dall’ossido di litio-cobalto (III), sono state ottenute efficienze ≥90% sia per il cobalto sia per il litio.

Mai K. Tran

Tran afferma: Nell’usuale recupero dei metalli si usano acidi che sebbene siano efficaci, sono corrosivi e non ecologici. Nel complesso, riciclare i componenti delle batterie agli ioni di litio è in generale costoso e rappresenta un rischio per i lavoratori.

Il professor Ajayan sostiene che i rifiuti di batterie ricaricabili diventeranno “una sfida ambientale sempre più incombente a causa della crescente domanda di veicoli elettrici e relativi accessori. È molto importante recuperare metalli strategici come il cobalto che sono fondamentali per le prestazioni di questi dispositivi di accumulo di energia e potrebbero un domani avere una fornitura limitata. Dalla situazione attuale dei rifiuti di plastica dovremmo imparare che è arrivato il momento giusto per porre in atto una strategia globale per riciclare il crescente volume di rifiuti delle batterie”.

Infine, anche per quanto detto sulla capacità degli animali ruminanti di sintetizzare la vitamina B12, il ciclo biogeochimico del cobalto riveste particolare importanza. Poiché non è riportato nell’articolo citato nel post sui cicli biogeochimici degli elementi, si può fare riferimento allo schema semplificato della Figura 7 del più recente articolo di G. Dulaquais et al: Contrasting biogeochemical cycles of cobalt in the surface western Atlantic Ocean, Global Biogeochemical Cycles, 2014, 28, 1387-1314. Scaricabile al link:

https://agupubs.onlinelibrary.wiley.com/doi/epdf/10.1002/2014GB004903

Bibliografia

[1] E.M. Gusenius, Beginnings of Greatness in Swedish Chemistry Georg Brandt, (1694-1768), Trans. Kansas Acad. Sci., 1967, 70(4), 413-425.

[2] https://en.wikipedia.org/wiki/Cobalt

[3] H. Chisholm, Hugh, ed. (1911). Thénard, Louis Jacques, Enciclpaedia Britannica26 (11th ed.), Cambridge University Press.

[4] https://it.wikipedia.org/wiki/Oligoelementi

[5] https://www.nutritionalhq.com/what-is-cobalt/

[6] https://www.mineravita.com/eng/cobalt_rda.php

[1] Regulus era il nome usato dai chimici al tempo di Brandt per indicare la massa più o meno impura di metallo formatosi durante la fusione e riduzione dei minerali. Georg Brandt è considerato il fondatore della chimica svedese.

[2] Louis Jacques Thénard (1777-1857), chimico francese. Le sue ricerche hanno spaziato dai composti di arsenico e antimonio con ossigeno e zolfo agli eteri, acidi sebacici e alla bile. Nel 1818 scoprì il perossido di idrogeno. Nel 1810 ottenne la cattedra di chimica all’Ecole Polytechnique e alla Faculté des Sciences. Thénard era un eccellente insegnante; come lui stesso disse: il professore, gli assistenti, il laboratorio: tutto deve essere sacrificato agli studenti [3]. Come la maggior parte dei grandi maestri pubblicò un libro di testo, il Traité de chimie élémentaire, théorique et pratique (4 voll., Parigi, 1813-16), che è servito come modello per un quarto di secolo. Il suo nome è uno dei 72 iscritti nella Torre Eiffel.

[3] La colina (che deriva dal greco kolè, “bile”) è una sostanza organica classificata come nutriente essenziale, per l’esattezza si tratta di 2-idrossi-N,N,N-trimetiletanammonio. Viene denominata anche vitamina J e talvolta è accostata (non a caso) alle vitamine del Gruppo B. È un costituente dei fosfolipidi che compongono la membrana cellulare e del neurotrasmettitore acetilcolina.

Dalle forze di van der Waals all’adesione.1. L’effetto Casimir.

In evidenza

Claudio Della Volpe

In un libro (THE CASIMIR EFFECT Physical Manifestations of Zero-Point Energy

2001, WSP) dedicato al tema dell’effetto Casimir, l’autore K. Milton scrive

It might seem to the reader that the Casimir effect is an esoteric aspect of quantum mechanics of interest only to specialists. That this is not the case should be apparent from the duality of this effect with van der Waals forces between molecules. The structure of gross matter is therefore intimately tied to the Casimir effect.

In altri termini quelle che i chimici hanno sempre chiamato forze di van der Waals, sono di fatto al cuore della meccanica quantistica più sofisticata e sarebbe più giusto chiamarle forze di Casimir-Polder.

Hendrik Casimir, 1909-2000

Vediamo di darci un’occhiata.

C’era una volta l’equazione di stato dei gas ideali, una delle prime e più conosciute leggi di comportamento della materia, basata sia sull’esperienza sperimentale che sulla teoria cinetica dei gas. Credo non ci sia relazione più conosciuta e studiata da chi si avvicina alla chimica.

PV=nRT

Fu proposta nel 1834 da Émile Clapeyron, come summa sperimentale e teorica di secoli di studio del comportamento della materia in fase gassosa.

Nel 1873 J. D. van der Waals ne propose una modifica importante Over de Continuïteit van den Gas – en Vloeistoftoestand, Sulla continuità dello stato liquido e gassoso); per la formulazione di questa legge lo studioso fu insignito del Premio Nobel per la fisica nel 1910.

L’articolo fu tradotto e commentato in inglese su Nature nel 1874 da J. Clerk-Maxwell.

Questa modifica introduceva una nuova equazione:

I due parametri a sinistra nell’equazione sono un’assoluta novità; b è il covolume, ossia il volume occupato dalle molecole o dagli atomi in fase gassosa, che bisogna sottrarre al volume totale del recipiente per avere il volume libero a disposizione delle molecole in movimento. van der Waals pone questo valore pari a 4 volte il volume delle molecole come tali; si tratta, come nota Maxwell, di una idea che in qualche modo ha basi empiriche; oggi diremmo che le molecole non sono oggetti rigidi come li immaginiamo a volte.

Per esempio, il valore oggi accettato per il covolume dell’acqua è 30cm3/mole, mentre il volume molare dell’acqua liquida è solo 18cm3/mole; le molecole allo stato liquido sono “compresse” rispetto allo stato gassoso: le molecole e gli atomi sono oggetti soffici, non sfere dure.

Ma la parte più interessante è l’altro parametro; che esprime di quanto dobbiamo aumentare numericamente la pressione del gas per rispettare un comportamento ideale. Questo equivale a dire che fra di esse si esercita una sorta di pressione negativa, una pressione interna, direbbe oggi la teoria cinetica, che si oppone alla pressione traslazionale o mozionale (come la chiamano alcuni), che riduce la pressione che il gas esercita sulle pareti esterne. Ci sono dunque delle forze agenti fra le molecole che, pur incapaci di tenerle insieme quando sono allo stato gassoso, ne riducono le capacità di muoversi, ne riducono la pressione esercitata; c’è fra di loro una forza di attrazione come fra i pianeti del sistema solare e il Sole.

Dal punto di vista sperimentale i parametri di van der Waals sono legati alle condizioni critiche, ossia alle condizioni in cui la funzione di van der Waals ha un flesso e che delimita il confine oltre il quale il gas entra in equilibrio con la fase liquida.

Dal punto di vista teorico come si affronta la cosa? Come sono correlati i parametri con il potenziale di interazione?

Devo dire che c’è una certa ambiguità nelle definizioni che si trovano in giro; ma in questo post chiameremo forze di van der Waals tutte le forze che dipendono da interazioni dipolari sia che coinvolgano dipoli fissi, come una molecola d’acqua o di monossido di carbonio, che dipoli indotti, come un atomo di elio sottoposto ad un campo elettrico di qualunque origine; dunque le tre combinazioni dipolo-dipolo (forze di Keesom), dipolo-dipolo indotto (forze di Debye) e dipolo indotto-dipolo indotto (forze di London) saranno tutte considerate nell’insieme denominato forze di van der Waals o forze di dispersione.

Le energie di interazione fra atomi conseguenti alle forze di van der Waals variano con l’inverso della sesta potenza della distanza: W=-A/r6, dove A è una costante.

Se volete una dimostrazione esatta di come si arrivi a questa conclusione potete guardarvi questo link.

In sostanza questo tipo di interazione è la componente attrattiva nella rappresentazione che spesso viene data della interazione biatomica, definita curva di Lennard-Jones. Ovviamente se la energia di interazione o potenziale di interazione (il potenziale ricordiamo che è una energia per unità di “carica” del campo di interazione) varia con l’inverso della sesta potenza della distanza, allora la forza varierà con l’inverso della settima potenza poiché F=dV/dr (dove F è la forza).

Un aspetto di cui si parla poco è che le forze di van der Waals possono essere anche repulsive, dipendono dalla combinazione fra tutte le attrazioni e le repulsioni; nel grafico seguente la cosa è correlata esplicitamente ai parametri macroscopici, meglio di quanto non possa fare la curva di Lennard-Jones fra due atomi.

Questa rappresentazione è la base di molti dei discorsi e delle descrizioni semplificate che si fanno e c’è un errore a cui voglio accennare: questa descrizione vale nell’interazione fra DUE particelle, come appunto avviene in un un gas di van der Waals in cui la distanza fra le molecole è grande. Ora usare questo tipo di analisi in fase condensata è sbagliato. In fase condensata dove le distanze fra le particelle sono molto inferiori avviene che non si possa più usare un modello di calcolo “ a coppie” di particelle, in cui il minimo è ben definito.

Succede una cosa che potremmo esemplificare con questa immagine e che significa che l’uso del termine “interazioni polari” è spesso un abuso concettuale.

Ma di questo argomento e delle sue conseguenze sulle interazioni in fase condensata parleremo in un altro prossimo post. Anche perchè un aspetto qui non considerato con precisione è quello delle variazioni dei potenziali conseguenti al considerare forze fra oggetti macroscopici in generale. Altrove potete trovare una definizione più precisa: forze di Lifshitz-van der Waals, a seguire ad un fondamentale articolo di Lifshitz sul tema delle interazioni dipolari fra corpi macroscopici in genere, successivo a quello di cui parlamo oggi qui (E.M. Lifshitz, The theory of molecular attractive forces between solid bodies, Zh. Exsp. Teor. Fiz. 29, 83-94 (1955)

e E.M. Lifshitz, The theory of molecular attractive forces between solid bodies, Sov. Phys. JETP 2, 73-83 (1956)).

Ma ne riparleremo.

Torniamo alle forze di van der Waals.

Le forze di van der Waals per come sono state introdotte ed analizzate e per come sono conosciute mediamente dal chimico, sono una forma semplificata della situazione effettiva.

Hendrik Casimir è stato un fisico olandese (1909-2000) che ha lavorato presso il laboratorio Philips ad Eindhoven, uno dei più prestigiosi laboratori di fisica del mondo; pur lavorando presso una azienda privata, Casimir ha sviluppato concezioni teoriche generali e fondamentali. Nel 1947 Hendrik Casimir e Dirk Polder proposero l’esistenza di una forza fra due atomi polarizzabili e fra un’atomo di questo tipo ed una piastra conduttrice chiamata forza di Casimir–Polder. Voi mi direte ma questa è roba vecchia, la conosciamo già, è la forza di London!

Può essere interessante capire la differenza fra le forze di London ipotizzate già nel 1937 fra due atomi e il punto di vista di Casimir-Polder.

La differenza come vedete già dai titoli è che London considera piccole distanze e non tiene conto dell’effetto del campo e della sua dinamica nel tempo; il campo è ritardato, si espande a velocità finita ed i suoi effetti si propagano a velocità finita; dunque mentre London ragiona come in una azione a distanza, Casimir accetta il fatto basilare che il campo elettromagnetico viaggi e si modifichi a velocità finita, quella della luce. Questa impostazione che “ritarda” la trasmissione del segnale è appunto chiamata “ritardo”, retardation in inglese.

Questa è certamente una correzione di secondo ordine per così dire ma non così piccola come si può immaginare. Il titolo del lavoro di Casimir e Polder ha a che fare proprio con la differenza di cui parliamo.

La conclusione di Casimir e Polder è la seguente:

Dunque come vedete, a piccole distanze le cose non cambiano, l’approssimazione di London è accettabile, ma quando si considerano distanze più grandi le interazioni variano più velocemente.

A questo punto interviene l’imponderabile. Dopo una conversazione fra Casimir e Bohr sul lavoro pubblicato, Bohr suggerisce che il fenomeno previsto da Casimir e Polder abbia a che fare con la cosiddetta energia di punto zero e questo catalizza un secondo lavoro a nome del solo Casimir che gli dà fama perenne. (http://www.dwc.knaw.nl/DL/publications/PU00018547.pdf) Come vedete il lavoro effettivo (più vecchio di qualche settimana) è citato in questo mostrato in figura, ma non sono riuscito a scaricarlo; il suggerimento di Bohr è riportato in varie cronache ma non corrisponde a qualcosa di scritto, è tradizione orale che ci sia stato!

Cosa è questa benedetta energia di punto zero? E’ una di quelle cose che i chimici si trovano scodellata dalla fisica teorica e con la quale devono fare i conti: piccola, sottile, imprevedibile e scotta come un laser UV.

Giusto per chiarire se vi andate a leggere il lavoro di London del 1937 l’energia di punto zero è già presente.

Bella questa descrizione qualitativa ma chiarissima: l’energia di punto zero viene dalla natura profonda della MQ: gli oggetti quantistici non stanno mai fermi!

Ora una nota può servire; alcuni presentano questa energia di punto zero come derivante dalla relazione di indeterminazione fra energia e tempo; ma questa è una approssimazione concettuale forte; come dire per brevi istanti di tempo il primo principio può essere violato! Falso! La MQ non prevede la violazione del primo principio.

Se fosse così esisterebbero due operatori quello dell’energia, l’hamiltoniano e quello del tempo che dovrebbero essere nel medesimo rapporto degli altri operatori connessi dalle relazioni di indeterminazione, i due operatori delle relazioni di indeterminazione tecnicamente sono coniugati, ma non commutano (ossia la differenza fra le loro due applicazioni in ordine invertito è pari a iħ).

MA QUESTO E’ FALSO!! Per la buonissima ragione che un operatore tempo non c’è in MQ. Dunque se si scrive che il prodotto ΔExΔt è soggetto alla relazione di indeterminazione si sta forzando la MQ. (ringrazio per questa nota il collega Stefano Siboni del mio dipartimento con cui collaboro da sempre). Il tempo della MQ è un parametro, è un tempo assoluto e questo cari colleghi è uno dei punti deboli della MQ.

Meglio la chiara e generale interpretazione di London. Gli oggetti quantistici non stanno mai fermi e dunque hanno un’energia di punto zero.

Questa situazione mi ricorda molto il caso dell’equilibrio. L’equilibrio per un chimico è un fenomeno dinamico, anche all’equilibrio due fasi si scambiano materia, fra reagenti e prodotti, fra gas e liquido per esempio, ma anche fra un elettrodo e una soluzione anche a corrente netta nulla c’è uno scambio di cariche, misurabile (è la cosiddetta corrente di scambio); questo è in totale contrasto con l’idea dell’equilibrio meccanico. Per la meccanica all’equilibrio non succede nulla, per la chimica succede sempre qualcosa. In una visione classica ad energia zero non succede nulla, in una visione quantistica gli oggetti non stanno mai fermi e l’energia non è esattamente zero.

Dal punto di vista sperimentale l’effetto Casimir inteso come l’attrazione fra piastre metalliche a piccola distanza (qualche nanometro) è difficile da misurare precisamente, ma la misura è stata fatta ripetutamente ed è in perfetto accordo con la teoria. Nel 1997 lo ha misurato Steve K. Lamoreaux del Los Alamos National Laboratory e poi Umar Mohideen e Anushree Roy della Università di California, Riverside. In pratica hanno usato una piastra metalllica ed una superficie sferica con raggio molto grande. Infine nel 2001 un gruppo padovano (Giacomo Bressi, Gianni Carugno, Roberto Onofrio e Giuseppe Ruoso) ha fatto la prima misura fra microrisonatori e dunque fra lastre piane.

Possiamo interpretare l’effetto in questo modo, ma tenete presente che si tratta sempre di una interpretazione non matematica; il vuoto non è tale a causa dell’energia di punto zero, ossia del principio di indeterminazione; dunque il vuoto dello spazio non è vuoto assoluto, ma è un “vuoto quantistico”, ossia una schiuma effervescente di particelle virtuali in coppie materia-antimateria che si affacciano all’esistenza e scompaiono continuamente; questo materiale è tantissimo nella media statistica ed esercita l’equivalente di una pressione; dato che la probabilità di esistenza o se volete il principio di indeterminazione dipende dai confini del sistema considerato, se limitiamo questi confini riduciamo la probabilità di esistenza di queste coppie “virtuali”; dunque fra due piastre metalliche ci sarà minore probabilità e pressione e le due piastre sperimenteranno una forza netta di attrazione che è pari (a qualche nanometro) ad 1 atmosfera! Pazzesco! L’effetto della pressione del vuoto!

https://physicsworld.com/a/the-casimir-effect-a-force-from-nothing/

Non sto a raccontarvi le altre cose: esiste un effetto Casimir repulsivo, esiste un effetto Casimir dinamico e tutto ciò dipende dalla combinazione fra energia di punto zero, ossia principio di indeterminazione e vuoto. Le forze di Casimir-Polder sono l’equivalente “ritardato” delle forze di van der Waals, e spiegano buona parte dell’adesione fra corpi solidi; ma non tutta. Ne ho parlato altrove e ve ne riparlerò, anche perchè sull’adesione ci ho lavorato anni. E la differenza viene dalla vecchia amica teoria acido-base (versione Lewis).

Potremo mai usare l’effetto Casimir per produrre energia dal “nulla”? Al momento pensiamo di no. Ma la MQ è imprevedibile!! Finchè dura beninteso, dopo tutto è solo una teoria ed ha il difettuccio di usare un tempo assoluto.

Nel frattempo cominciamo a sostituire al termine forze di van der Waals il termine più ampio e preciso: forze di Casimir-Polder (ed in futuro anche forze di Lifshitz-van der Waals, ma prima scriverò un altro post sul tema delle forze di adesione fra corpi macroscopici).

(continua)

http://www.lescienze.it/news/2013/02/16/news/luce_vuoto_quantistico_particelle_virtuali_fotoni_effetto_casimir_dinamico-1511221/

Lamoreaux, S. K. (1997). “Demonstration of the Casimir Force in the 0.6 to 6 μm Range”. Physical Review Letters. 78 (1): 5–8

Mohideen, U.; Roy, Anushree (1998). “Precision Measurement of the Casimir Force from 0.1 to 0.9 µm”. Physical Review Letters. 81 (21): 4549–4552. arXiv:physics/9805038

Bressi, G.; Carugno, G.; Onofrio, R.; Ruoso, G. (2002). “Measurement of the Casimir Force between Parallel Metallic Surfaces”. Physical Review Letters. 88 (4): 041804. arXiv:quant-ph/0203002

La famigerata durezza dell’acqua

In evidenza

Mauro Icardi

Quando parliamo della durezza di un’acqua facciamo riferimento al contenuto di sali di calcio e magnesio, presenti in forma di carbonati, bicarbonati, solfati, cloruri e nitrati. La durezza dipende dall’origine superficiale o profonda delle acque e dalla geologia dell’area di captazione. In funzione dei diversi gradi di durezza, espressa comunemente in equivalenti di carbonato di calcio (mg/L CaCO3 o grado francese °f), si riconoscono diversi tipi di acque con diversa durezza. La durezza si può distinguere in totale, permanente e temporanea.

La durezza totale è la somma della durezza temporanea e di quella permanente. Viene espressa in base al contenuto totale di calcio e magnesio, calcolato come CaCO3 (scala in gradi francesi °f), o come CaO (scala in gradi tedeschi, °t): 1 grado francese = 10 mg/l di CaCO3, 1 grado tedesco = 10 mg/l di CaO .

La durezza permanente è dovuta a sali di calcio e magnesio che non si decompongono per riscaldamento, come i carbonati, solfati e cloruri.

Il termine durezza temporanea si riferisce a quei sali solubili (idrogenocarbonati, HCO3) che per ebollizione dell’acqua si trasformano in sali insolubili (carbonati, CO32-) che precipitano:

Ca(HCO3)2 (aq)   ⇌   CaCO3 (s)   +   CO2(g)   +   H2O (l)

DUREZZA TEMPORANEA = DUREZZA TOTALE – DUREZZA PERMANENTE

Utilizzando la scala di durezza in gradi francesi (quella solitamente di uso più comune) la valutazione della qualità di un acqua si può esprimere con questa tabella.

Una tabella simile a questa normalmente si trova sulle confezioni di detersivo, per determinare il dosaggio ottimale di prodotto.

Le acque dure possono ridurre l’efficacia dell’azione dei saponi e detersivi e causare incrostazioni su elementi idraulici e macchinari, dovute a precipitazione dei sali, rendendo in alcuni casi utile il ricorso a processi di addolcimento delle acque, realizzato con diversi trattamenti tra cui scambio ionico od osmosi inversa.

Esistono vari tipi di resine che vengono utilizzate nei trattamenti delle acque, e a seconda del tipo di ioni che scambiano vengono classificate in: cationiche o anioniche.

 

Le resine a scambio cationico rimuovono dall’acqua gli ioni positivi calcio (Ca++) e magnesio (Mg++) scambiandoli con lo ione sodio (Na+).

Un funzionamento analogo hanno le resine a scambio anionico utilizzate ad esempio per rimuovere il nitrato (NO3), che viene trattenuto dalla resina e scambiato con lo ione cloruro (Cl).

Tornando alla durezza, ed alle incrostazioni calcaree, non è inusuale che caldaie per produzione di acqua calda sanitaria e riscaldamento domestico, risultino ancora perfettamente funzionanti a livello di bruciatore, ma di fatto fortemente ostruite da calcare per quanto riguarda il bollitore di accumulo, oppure i tubi di circolazione dell’acqua.

La determinazione analitica della durezza dell’acqua è ancora un’analisi che si esegue con i mai dimenticati metodi di una volta. Il principio è quello della titolazione complessometrica degli ioni calcio e magnesio, disciolti nel campione di acqua.

Il campione di acqua viene tamponato a pH 10 e successivamente titolato con una soluzione di sale disodico dell’acido etilendiamminotetracetico (EDTA) in presenza di nero eriocromo T come indicatore.

il campione da titolare assume un colore rosso-violetto che al raggiungimento del punto equivalente (quando tutti gli ioni calcio e magnesio sono stati complessati dell’EDTA) vira al blu. Questa tecnica che può sembrare obsoleta, in un immaginario del laboratorio di analisi ormai dominato dalle apparecchiature di analisi strumentale, è invece la metodica di analisi ufficiale emanate dell’Istituto superiore di sanità per le acque destinate al consumo umano.

Nella legislazione in vigore, per il parametro “durezza” viene data solo l’indicazione di un range di valori consigliati, e pertanto il mancato rispetto di questi valori non rappresenta una vera e propria non conformità e dovrà, di volta in volta, essere valutato ai fini dell’emanazione del giudizio di idoneità. La composizione in sali minerali che conducono ad una durezza di 10 – 15 °f rappresenta il miglior contenuto raccomandabile a livello sanitario.

E a proposito di implicazioni a livello sanitario, una pubblicazione del 2007 suggerisce che, un valore adeguato di durezza delle acque destinate al consumo umano, rappresenti un fattore protettivo nei confronti dell’insorgenza di malattie cardiovascolari. Lo studio per altro suggeriva altresì di approfondire il ruolo del parametro durezza, così come quello di altri micronutrienti che si assumono con l’acqua potabile, nella valutazione del rischi cardiovascolare. Che è legato a diversi altri fattori, quali quelli metabolici, genetici, ed allo stile di vita.

Qui il link della pubblicazione.

http://old.iss.it/binary/itti/cont/Notiziario%20ISS%20durezza%20acqua.1179820668.pdf

Per concludere credo che occorra ricordare un principio fondamentale: parametri e i rispettivi limiti parametrici, così come il recepimento nella normativa nazionale, sono basati sulle conoscenze scientifiche disponibili, e tengono conto del principio di precauzione, al fine di garantire che le acque possano essere utilizzate e consumate in condizioni di sicurezza nell’intero arco della vita. In generale, i valori parametrici individuati si fondano sugli orientamenti stabiliti dall’Organizzazione mondiale della Sanità (WHO, o OMS).

(Nota del curatore. Su alcuni siti il grado francese è ancora indicato con la °F maiuscola che è un errore, perchè quello è il simbolo del grado Fahreneit °F; per questa perla si veda il sito Culligan, al quale avevamo segnalato la questione ma senza effetto, https://www.culligan.it/la-durezza-dellacqua/ il simbolo acccettato del grado francese è °f o °fH)

Mary Elvira Weeks (1892-1972)

In evidenza

Rinaldo Cervellati

 

Non sapere cosa sia accaduto nei tempi passati, sarebbe come restare per sempre un bambino  (Cicerone)

Coloro che non ricordano il passato sono condannati a ripeterlo (George Santayana)

Nell’anno dedicato al 150° anniversario della Tavola Periodica mi sembra opportuno ricordare la figura di Mary Elvira Weeks, chimico e storica della chimica che scrisse fra il 1932 e il 1933 la serie di 21 articoli sulla scoperta degli elementi per il Journal of Chemical Education, poi raccolta   nel ponderoso volume Discovery of the Elements che dal 1935 al 1968 ha visto sette edizioni e numerose ristampe.

Mary Elvira nacque il 10 aprile 1892 a Lyons, una cittadina di poche migliaia di abitanti nella Contea di Walworth, Wisconsin. Frequentò il Ripon College, ottenendo il B.A. (Bachelor of Arts) in chimica nel 1913. Si recò quindi all’Università del Wisconsin, dove nel 1914 ottenne il Master in chimica lavorando con J. Howard Mathews[1]. Durante i successivi sette anni ha lavorato come insegnante di chimica in scuole secondarie superiori e analista in laboratori industriali.

Nel 1921 divenne istruttrice di chimica all’Università del Kansas, dove continuò il suo lavoro di ricerca per il dottorato che completò poco tempo dopo. Nel 1927 fu promossa assistant professor e, dieci anni dopo, associate professor. Anche se effettuava alcune ricerche sperimentali oltre ai suoi pesanti doveri di insegnamento, i suoi veri interessi erano storico-linguistici, quindi iniziò a combinare questi talenti spostando i suoi studi dalla ricerca sperimentale a quella in storia della chimica.Mary Elvira Weeks

Alla Kansas University conobbe Frank B. Dains[2] che aveva accumulato una splendida collezione di immagini di chimici famosi. Infatti, dopo aver conseguito il dottorato a Chicago nel 1898, Dains aveva trascorso un anno a Berlino e Friburgo e, com’era consuetudine tra gli studenti americani, aveva visitato numerosi chimici e chiesto foto. Dains continuò a collezionare immagini durante il resto della sua carriera ma a causa di un intenso programma di ricerca in chimica organica non aveva mai pubblicato nulla sulla sua collezione.

Elvira Weeks combinò il suo doppio interesse per la chimica e la linguistica preparando una collezione di articoli sulla scoperta degli elementi, che furono pubblicati come una serie di 21 articoli sul Journal of Chemical Education negli anni 1932-1933. La popolarità di questi articoli incoraggiò la Chemical Education Publishing Company di Easton (Pennsylvania) a raccogliere la serie in un libro: Discovery of the Elements (1° edizione 1934). Gli articoli e il libro furono generosamente illustrati con le immagini della collezione Dains, successivamente integrata da immagini raccolte da Weeks. Il libro infine ha visto sette edizioni; le ultime con la collaborazione di Henry M. Leicester[3].

Discovery of Elements 6th Edition

In realtà Discovery of the Elements è, per molti aspetti, una storia della chimica che si sviluppa attorno al tema principale della scoperta degli elementi. Vi sono lunghe interessanti digressioni su altre ricerche dei chimici che hanno scoperto nuovi elementi.

Nonostante il successo dei suoi scritti, il Dipartimento di Chimica della Kansas University non era disposto a premiarla per la sua “opera letteraria”. Le facoltà di chimica erano inclini a dare premi alle indagini sperimentali di laboratorio piuttosto che a ricerche storiche, a prescindere da quanto fossero accurate[4]. Weeks infatti rimase assistant professor per dieci anni prima della promozione a associate professor. Dopo altri sette anni come professore associato, decise di abbandonare l’insegnamento per sfruttare meglio i suoi interessi storici e linguistici. Nel 1944, Weeks divenne associato di ricerca in letteratura scientifica presso la biblioteca scientifica Kresge-Hooker in fase di sistemazione alla Wayne State University di Detroit. Alla Kresge-Hooker ebbe finalmente l’opportunità di utilizzare al meglio i suoi talenti.

All’avvicinarsi del 75° anniversario della sua fondazione (1876) l’American Chemical Society decise che sarebbe stata un’ottima iniziativa scrivere e pubblicare una storia della Società. Nel 1944 affidò questo incarico a Charles A. Browne, membro dell’ACS fin dagli ultimi anni del diciannovesimo secolo, un chimico con esperienza nel mondo accademico (dottorato a Göttingen, 1901), industriale e governativo e uno dei fondatori della Divisione ACS di Storia della Chimica (HIST). Browne, durante la sua carriera come direttore del New York Sugar Research Laboratory, e successivamente come capo chimico dell’Ufficio USA di Chimica e Suoli, aveva maturato una vivace vocazione per la storia della chimica. Era quindi la persona giusta per scrivere la storia della Società e accettò questo incarico. Browne morì all’inizio del 1947 all’età di 76 anni con l’organizzazione del libro impostata e nove capitoli completati. Diversi mesi prima aveva persuaso Weeks a diventare co-autore. Weeks si trovò dunque responsabile per la maggior parte degli undici capitoli che restavano da scrivere e per la raccolta del materiale supplementare. Il volume A History of the American Chemical Society-Seventy-five Eventful Years, di Charles Albert Browne e Mary Elvira Weeks fu pubblicato nel 1952.

Mary Elvira Weeks si ritirò nel 1954 ma continuò a vivere nella sua casa di Detroit lavorando part-time come traduttrice scientifica. Nel 1967 ricevette il Dexter Award, premio assegnato dall’American Chemical Society in riconoscimento di una straordinaria carriera di contributi in storia della chimica.

Weeks era per natura una persona amichevole ma molto riservata, capace comunque di affrontare impegni di notevole portata. Morì il 20 giugno 1975 dopo diversi mesi in una casa di riposo.

Per la stesura di questo post ho attinto dalle seguenti opere:

A.J. Ihde, A Quarter Century of Dexter Awards, 1981, unpublished manuscript, estratto in

http://acshist.scs.illinois.edu/awards/Dexter%20Papers/WeeksDexterBioJJB1.pdf

A.J, Ihde, The History of The Dexter Awards. Part III: The Second Decade, Bulletin for the History of Chemistry, 1989, 3, 11–12.

[1] Joseph Howard Mathews (1881-1970) chimico fisico americano, professore universitario ed esperto di identificazione delle armi da fuoco. Nel 1914 Mathews aveva da poco completato il dottorato di ricerca in chimica a Harvard sotto la guida di Theodore W. Richards, primo americano a vincere il Premio Nobel “per le sue accurate determinazioni dei pesi atomici”. Mathews è stato preside del Dipartimento di Chimica dell’Università di Wisconsin-Madison per 33 anni, dal 1919 al 1952.

[2] Frank Burnett Dains (1869-1948) chimico organico americano ottenne il B.Sc. nel 1890 e l’M.Sc. nel 1981, entrambi alla Wesleyan University. Nel 1898 ottenne il dottorato di ricerca all’università di Chicago. Entrò nel Dipartimento di Chimica della Kansas University nel 1911, raggiungendo lo status di professore ordinario nel 1914. Si ritirò nel 1942. La collezione dei suoi scritti, foto e disegni è conservata all’University of Kansas Libraries, a Lawrence.

[3] Henry Marshall Leicester (1906 – 1991), statunitense, è stato un biochimico e storico della chimica. Particolarmente interessato alla storia della chimica in Russia, ha pubblicato diverse biografie di chimici russi sul Journal of Chemical Education e in varie enciclopedie. Tradusse anche opere di chimica classica russa, come quelle di Mikhail Vasilyevich Lomonosov (1711-1765) considerato il “Leonardo da Vinci russo”, del quale era considerato un esperto negli Stati Uniti. Dal 1951 al ritiro nel 1971 è stato professore di biochimica presso la Dental School dell’Università del Pacifico.

[4] Le cose sono molto migliorate negli USA, mentre in Italia non è cambiato quasi nulla, resta il micidiale pregiudizio per cui chi si occupa di ricerca in storia (o in didattica) della chimica è un fallito nella ricerca scientifica.

Il chimico e l’intelligenza, un ricordo di H. Christopher Longuet-Higgins

In evidenza

Claudio Della Volpe

Quasi tutti i chimici sanno che c’è stato un famoso musicista che era anche chimico; beh in effetti egli si riteneva un chimico, e fu anche famoso, a contatto con i grandi chimici della sua epoca, ma coltivava la musica come passione. Poi la storia ha deciso che Borodin è stato prima una grande musicista (autore delle Danze Poloviciane e del Principe Igor) e poi un chimico analitico che si occupò delle reazioni delle aldeidi.
Ma oggi voglio parlarvi invece di un altro chimico di cui avete sentito certamente parlare almeno per una delle sue scoperte avvenute addirittura prima della laurea e che al colmo della sua carriera di chimico e fisico teorico abbandonò la chimica per dedicarsi alle “scienze cognitive”, alla musica ed alla percezione visiva, alle applicazioni della nascente intelligenza artificiale al tema della composizione musicale e della visione, un chimico che pubblicò, su riviste famose, sia di argomenti chimici che musicali e percettivi.
Sto parlando di Hugh Christopher Longuet-Higgins. La sua vita e la sua attività scientifica porterebbero a intitolare questo breve ricordo: l’intelligenza di un chimico, visto il carattere poliedrico e profondo delle sue ricerche.
Christopher nacque nella parrocchia di Lenham, nel Kent, secondo dei tre figli di un parroco. La sua famiglia era di origini ugonotte (i protestanti francesi). In realtà fu poi ateo per il resto della vita. Studiò alla Pilgrims’ School e quindi al Winchester College di Winchester.Si trattava di un ambiente prestigioso come attestano i nomi di parecchi dei suoi compagni di studi: Freeman Dyson e Michael Dewar fra gli altri. Insieme con Dyson costruì modelli dei poliedri. Vinse il premio per la matematica nel 1941 in forte concorrenza con Dyson.

Nel 1941 vinse anche una borsa di studio per il Balliol College di Oxford. Seguì il corso di chimica, ma fece anche esami di musica e fu organista al Balliol. Ebbe come insegnante di chimica Ronnie Bell con il quale pubblicò, ancora studente, il lavoro di chimica per cui è più famoso proponendo la struttura corretta del diborano, un composto chimico la cui struttura non era interpretabile con il modello allora in uso del legame di valenza. Si era nel 1943, in piena II guerra mondiale.

Il legame a tre centri (e 2 elettroni), come viene definito, è divenuto un classico della chimica; c’è da dire che la struttura adgeuata (ma senza le finezze della meccanica quantistica) era stata già proposta nel 1921 (W. Dilthey, Über die Konstitution des Wassers, in Angew. Chem., vol. 34, nº 95, 1921, p. 596, DOI:10.1002/ange.19210349509. ma questo sarà un altro post.)Iniziò il PhD e lo completò all’Università di Oxford sotto la supervisione di Charles Coulson, il celeberrimo autore di “Valence bond”. Coulson era un cristiano metodista, mentre Longuet-Higgins era ateo; ne seguirono dibattiti pubblici sul tema della religione cui entrambi parteciparono su sponde opposte. Seguì un’attività di post-dottorato all’Università di Chicago e all’Università di Manchester.

Nel 1947 Longuet-Higgins sviluppò la teoria degli orbitali delle molecole organiche coniugate ottenendo teoricamente risultati che erano stati conosciuti sperimentalmente già da molti decenni. Mostrò come le proprietà dei sistemi coniugati possono essere derivate combinando nella trattazione degli orbitali molecolari il comportamento degli orbitali di non legame. Formulò una teoria che descriveva le proprietà termodinamiche delle miscele che più tardi estese alle soluzioni di polimeri. Fece anche ricerche sulle proprietà ottiche delle molecole ad elica e sui loro spettri elettronici.

Nel 1952 fu nominato professore di fisica teorica al King’s College di Londra; nel 1954 diventò professore di chimica teorica all’Università di Cambridge e membro del Corpus Christi College (Cambridge). In questo periodo diede importanti contributi alla chimica teorica.
Dal 1954, usò tecniche matematiche per predire comportamenti chimici. Per esempio nel 1962 previde che il ciclobutadiene (che non era ancora stato sintetizzato) sarebbe potuto esistere come legando di un atomo di un metallo di transizione; tre anni più tardi, nel 1965, per la prima volta questo composto fu sintetizzato da Rowland Pettit della University of Texas, sebbene egli non riuscisse a isolarlo.
Applicò la teoria dei gruppi per definire gli elementi di simmetria delle molecole non rigide, come nel caso dell’idrazina (N2H4) e così fu capace di classificare i singoli livelli quantici della molecola.
All’inizio degli anni 70 maturò un cambiamento radicale della sua vita. Da affermato chimico teorico si trasformò in un esploratore dell’intelligenza aritificiale e delle sue applicazioni alle arti umane: musica e immagine. Egli era probabilmente arrivato a questo salto sulla base della sua esperienza come utente dei computer dell’epoca; tuttavia non ci considerò mai un ricercatore di AI ma piuttosto di “scienza cognitiva” , un termine che inventò lui stesso, intendendo che si occupava di come l’uomo guarda all’Universo atttorno a lui.
Si spostò prima all’Università di Edinburgo e poi, insieme ad altri scienziati nel 1974, fondò il Centro per le ricerche su Percezione e Cognizione alla Università del Sussex, Brighton. Qui sotto due dei lavori che pubblicò su Nature su temi di scienza cognitiva, sia di musica che di visione.

I suoi contributi al problema della rappresentazione tridimensionale nella visione sono ormai un fatto acquisito in tutte le applicazioni.

In particolare nell’articolo sulla visione egli introduce “il metodo degli otto punti” che serve a ricostruire un oggetto da una sua visione binoculare, dunque una rappresentazione del processo che il nostro cervello compie effettivamente.

Una breve rappresentazione del suo punto di vista sui temi musicaliLonguet-Higgins (1979): —

You’re browsing, let us imagine, in a music shop, and come across a box of faded pianola rolls. One of them bears an illegible title, and you unroll the first foot or two, to see if you can recognize the work from the pattern of holes in the paper. Are there four beats in the bar, or only three? Does the piece begin on the tonic, or some other note? Eventually you decide that the only way of finding out is to buy the roll, take it home, and play it on the pianola. Within seconds your ears have told you what your eyes were quite unable to make out—that you are now the proud possessor of a piano arrangement of “Colonel Bogey“.

Andò in pensione nel 1988 e morì nel 2004. Costituisce un esempio raro di scienziato abile sia nei temi puramente naturalistici che umanistici e di una capacità e visione culturale amplissima, come è difficile trovare oggi attorno a noi. Ai miei occhi il fatto che se ne parli poco è segno della povertà culturale dei nostri tempi, mascherata dalla parossistica preoccupazione per il numero delle pubblicazioni.

Referenze e testi consultati.

https://en.wikipedia.org/wiki/Christopher_Longuet-Higgins   dove si trova anche una lista pressocché completa di lavori; una lista sicuramente completa è su: https://royalsocietypublishing.org/doi/10.1098/rsbm.2006.0012

Gregory, R. L.; Murrell, J. N. (2006). “Hugh Christopher Longuet-Higgins. 11 April 1923 — 27 March 2004: Elected FRS 1958”. Biographical Memoirs of Fellows of the Royal Society. 52: 149–166. doi:10.1098/rsbm.2006.0012.

http://www.quantum-chemistry-history.com/Lo-Hi2Ue.htm

Longuet-Higgins, H. C.; Bell, R. P. (1943). “64. The Structure of the Boron Hydrides”. Journal of the Chemical Society (Resumed). 1943: 250–255. doi:10.1039/JR9430000250.

 Longuet-Higgins, Hugh Christopher (1947). Some problems in theoretical chemistry by the method of molecular orbitals. bodleian.ox.ac.uk (DPhil thesis). University of Oxford.

  Venn Cambridge University database Archived 14 June 2010 at the Wayback Machine

  H. C. Longuet Higgins; U. Öpik; M. H. L. Pryce; R. A. Sack (1958). “Studies of the Jahn-Teller effect .II. The dynamical problem”. Proc. R. Soc. A. 244 (1236): 1–16. Bibcode:1958RSPSA.244….1L. doi:10.1098/rspa.1958.0022.See page 12

  Longuet-Higgins, H. C.; Abrahamson, E. W. (1965). “The Electronic Mechanism of Electrocyclic Reactions”. Journal of the American Chemical Society. 87 (9): 2045. doi:10.1021/ja01087a033.

 Longuet-Higgins, H.C. (1963). “The symmetry groups of non-rigid molecules”. Molecular Physics. 6 (5): 445–460. Bibcode:1963MolPh…6..445L. doi:10.1080/00268976300100501.

Longuet-Higgins, H. C. (1981). “A computer algorithm for reconstructing a scene from two projections”. Nature. 293 (5828): 133–135. Bibcode:1981Natur.293..133L. doi:10.1038/293133a0.

Elementi della tavola periodica: Nickel, Ni.

In evidenza

Rinaldo Cervellati

Il nickel (Ni) (nichel o nichelio) è l’elemento n. 28 della Tavola Periodica, la sua abbondanza nella crosta terrestre è di circa 26,6 ppm (parti per milione), per confronto quella del più abbondante zinco è circa 72 ppm. Sull’origine del suo nome vi sono opinioni contrastanti, secondo alcuni deriverebbe dal diminutivo del nome svedese Nicolaus (Nickel, che significa folletto) [1], secondo altri dal tedesco kupfernichel, col significato di “rame del diavolo”.

Sebbene siano stati ritrovati bronzi risalenti al 3500 a.C. contenenti fino al 2% di nickel e alcuni manoscritti cinesi del 1700-1400 a.C. riportino che il paitung (“rame bianco”) era diffuso in Oriente, il metallo fu isolato dal suo minerale niccolite dal chimico tedesco Axel Frederik Cronsted nel 1751. La niccolite è un minerale costituito principalmente da arseniuro di nickel (NiAs) con piccole quantità di cobalto, antimonio, ferro e zolfo. Il nome deriva dal latino scientifico del minerale, Niccolum, il che fa propendere per l’origine nordica svedese per il metallo.

A sinistra: niccolite minerale; a destra: nickel metallo

Il nickel è un metallo bianco argenteo di aspetto lucido. È duro, malleabile, duttile, ferromagnetico, discreto conduttore di calore ed elettricità. Lo stato di ossidazione più comune del nickel è +2 ma sono stati osservati anche complessi di nickel negli stati di ossidazione 0, +1 e +3.

Il nichel si trova come costituente nella maggior parte dei meteoriti e spesso serve come uno dei criteri per distinguere un meteorite da altri minerali. I meteoriti di ferro, o sideriti, possono contenere ferro in lega contenente dal 5 al 20% di nickel. Commercialmente si ottiene dalla pentlandite (solfuro di ferro e nichel in rapporto 1:1 Fe:Ni) della regione Sudbury dell’Ontario, un distretto che produce gran parte del nichel del mondo. Si pensa che il deposito di Sudbury sia il risultato di un antico impatto di meteoriti. Un altro tipo di riserva nickelifera è costituito da lateriti in cui i minerali principali sono limonite (un idrossido di ferro e nickel) e garnierite (un silicato idrato di nichel).

Si stima che, dalle zone emerse in cui si è osservato almeno 1% di concentrazione di nichel, le risorse di nichel disponibili siano almeno 130 milioni di tonnellate, circa il doppio delle riserve già note. Il 60% è in lateriti e il 40% in depositi di solfuri.

Tuttavia il 45% delle riserve totali note di nickel si trova in Australia e Nuova Caledonia. Altri giacimenti di nichel si trovano in Russia, Cuba, Indonesia e altrove.

Mappa delle riserve mondiali di minerali di nickel (2005)

Vaste risorse di nickel si trovano nei noduli di manganese sul fondo degli oceani. La difficoltà di trovare nuovi depositi di lateriti e solfuri nelle usuali zone di sfruttamento sta conducendo all’esplorazione in Africa centro-orientale e nel subartico.

Nel 1967 nei pressi di Canala in Nuova Caledonia è stato scoperto un minerale costituito quasi esclusivamente da nickel contenente tracce di cobalto e di ferro. A questo minerale è stato il nome nickel (nativo) [2, p.348]. Successivamente, nel 1975, nel letto di un fiume del Sud Westland, in Nuova Zelanda, furono trovati detriti contenenti scaglie o granuli di nickel nativo (Ni 96.3%, Fe 1.77%, Co 0.69%) di dimensioni fino a 75 mm. La località del ritrovamento è circa 13 km a valle di una zona ricca di awaruite, un minerale costituito essenzialmente da leghe di nickel e ferro a composizione variabile da Ni2Fe a Ni3Fe. È stato dimostrato che il contenuto di nichel dei granuli detritici aumenta con la distanza dai depositi di awaruite. Ciò dà credito all’ipotesi che granuli e scaglie siano di origine naturale formatisi per lenta lisciviazione dell’awaruite a bassa temperatura nel corso dei millenni, da cui il nome nickel nativo [3]. Il nickel nativo non ha applicazioni pratiche.

Circa il 47% del nichel primario consumato è impiegato per la fabbricazione di acciaio inossidabile e altre leghe di acciaio, il 41% in leghe non ferrose e superleghe, il 7% in galvanoplastica e il 5% in altri usi. L’industria siderurgica degli Stati Uniti ha prodotto circa 2,4 milioni di tonnellate di acciaio inossidabile al nichel nel 2018, quasi il 20% in più rispetto al 2017. Le vendite di superleghe a base di nickel per motori a reazione continuano ad aumentare [4].

Fra gli altri impieghi i più importanti sono: batterie ricaricabili, catalizzatori e altri prodotti chimici, materiali per placcature e per coniare monete.

Alcuni impieghi del nichel (oltre che negli acciai)

A quest’ultimo proposito piace ricordare che le prime monete di rame-nickel furono emesse nel regno indo-greco nel II secolo a.C., mentre la prima moneta di nickel puro fu coniata nel 1881.

Col nome nichelino (nickel) si indica popolarmente la moneta statunitense da cinque cent, ossia cinque centesimi di dollaro. Dal 1938 al 2003 il disegno del nichelino ha sempre presentato al dritto il profilo del presidente degli Stati Uniti Thomas Jefferson e sul retro il Monticello, ossia la tenuta presidenziale di Thomas Jefferson. Negli anni 2004 e 2005 il Monticello fu sostituito da disegni commemorativi ma nel 2006 si tornò all’impressione originaria, mentre nel lato dritto della moneta continua a figurare l’immagine di fronte del Presidente Jefferson. Dal 1866 al 1938 si sono succeduti vari tipi di nichelino con leghe ed effigi diverse.

Il “nichelino” USA dal 2006

In Italia le monete da 50 e 100 lire erano fatte di acmonital (acronimo per acciaio monetario italiano) o di cupronichel, due leghe metalliche contenenti nickel. È contenuto nelle monete da 1 e 2 euro. Altri stati usano o hanno usato nickel per le loro monete.

Monete da 1 euro

Molti enzimi del tipo idrogenasi contengono nickel oltre agli aggregati ferro-zolfo. I siti nickel in queste idrogenasi hanno il compito di ossidarsi piuttosto che di sviluppare idrogeno: sono state presentate prove a sostegno dell’ipotesi che i centri nickel siano i reali siti attivi di questa classe di enzimi. Alcuni studi clinici hanno ipotizzato un qualche ruolo del nickel nell’organismo umano escludendone comunque il rischio di carenze, è comunque essenziale per alcuni microorganismi costituenti la flora intestinale dei vertebrati. Il nickel è pertanto classificato come oligoelemento ultra-traccia, da assumere eventualmente in quantità dell’ordine del microgrammo/giorno.

Sono comunque in commercio fiale contenenti un’associazione di gluconato di cobalto e zinco insieme a solfato di nickel (circa 76 microgrammi/fiala) consigliato come integratore per tutte le disfunzioni endocrine!

Sopra certi livelli il nickel è tossico, il valore limite di soglia, cioè la concentrazione ambientale dei prodotti chimici aerodispersi al di sotto delle quali si ritiene che la maggior parte dei lavoratori possa rimanere esposta nella vita lavorativa senza alcun effetto negativo per la salute, è di 0.05 mg/m3 settimana per il nickel e i suoi composti.

Purtroppo il nickel è uno tra i più potenti allergizzanti e il fatto che sia frequentemente presente in oggetti di uso comune (oggetti di bigiotteria, utensili da cucina, forbici, monete, piercing, ecc.) rende particolarmente diffusa la relativa dermatite da contatto. I sintomi comprendono eczema nel punto di contatto sotto forma di puntini o vescicole, prurito, rossore, bruciore o dolore, gonfiore. Pertanto, in alcuni categorie di oggetti (ad es. bottoni, gioielli, orologi) la presenza di nickel è stata limitata per legge sotto una soglia piuttosto restrittiva. L’Unione Europea regola per decreto la quantità di nichel che può essere contenuta in prodotti che sono a contatto con la pelle. In un articolo pubblicato dalla rivista Nature alcuni ricercatori svizzeri hanno però riportato che le monete da 1 e 2 euro eccedono il limite imposto dalla UE [5].

In una piccola percentuale di pazienti allergici si riscontrano anche disturbi sistemici, per esempio gastrointestinali, in questo caso si parla di allergia sistemica al nichel. Questi pazienti dovrebbero evitare gli alimenti contenenti nickel, tra i quali troviamo legumi (fagioli, lenticchie, piselli), frutta secca (arachidi, nocciole, noci), cacao e derivati.

I metalli vengono riciclati non solo per il loro valore commerciale ma anche perché la riciclabilità è una loro qualità intrinseca. Ciò è particolarmente vero per i metalli non ferrosi, un gruppo che include il nickel. Il nickel è uno dei più apprezzati metalli comuni non ferrosi e probabilmente è il materiale più riciclato. Gli esperti del settore stimano che 4,4-4,6 milioni di tonnellate all’anno di rottami della lavorazione degli acciai e altre leghe al nickel vengano raccolti per riciclare circa 350.000 tonnellate del metallo (circa un quarto della domanda totale). Questo nickel riciclato è riutilizzato principalmente dall’industria siderurgica.

L’industria di trasformazione dei rottami contenenti nickel è composta di quattro o cinque grandi aziende operanti a livello internazionale per garantire che gli scarti siano raccolti da ogni angolo del globo.

Le batterie contengono una varietà di materiali che possono essere riutilizzati come materia prima secondaria. Esistono metodi e tecniche consolidati per il riciclaggio della maggior parte delle batterie contenenti piombo, nichel-cadmio e mercurio. Per le nuove batterie al nichel-idruro e al litio, i metodi di riciclaggio sono tuttavia nelle fasi iniziali di sviluppo.

Schema riciclaggio nickel

Secondo il Nickel Institute: “L’efficienza del riciclaggio del nickel è una delle più alte” [6].

Afferma lo stesso Istituto: “In riferimento all’anno 2010, circa il 68% di tutto il nickel disponibile dagli scarti viene riciclato e inizia un nuovo ciclo di vita; un altro 15% entra nel ciclo degli acciai al carbonio. Tuttavia, circa il 17% continua a finire in discarica, principalmente in prodotti metallici e nei rifiuti di apparecchiature elettriche ed elettroniche, ma la richiesta di nickel riciclato è in continuo aumento” [6].

Infine, al nickel è dedicato uno dei racconti del libro Il Sistema Periodico di Primo Levi. Nichel descrive il primo lavoro di Primo Levi, subito dopo la laurea, nei laboratori chimici di una miniera.

Opere consultate

CRC, Handbook of Chemistry and Physics, 85th, p. 4-20

https://it.wikipedia.org/wiki/Nichel

Bibliografia

[1] O. Lurati, Toponymie et géologie., Quaderni di semantica, 2008, XXIX(2), 437-452.

[2] M. Fleischer, New Mineral Names., The American Mineralogist, 1968, 53, 348-353

[3] G.A. Challis, Native nickel from the Jerry River, South Westland, New Zealand: an example of natural refining., Mineralogic Magazine, 1975, 40, 247-251

[4] U.S. Geological Survey, Mineral Commodity Summaries, febbraio 2019

[5] F.O. Nestle et al., High nickel release from 1- and 2-euro coins., Nature, 2002, 419, 132.

[6] https://www.nickelinstitute.org/policy/nickel-life-cycle-management/nickel-recycling/

I cicli biogeochimici degli elementi.

In evidenza

Claudio Della Volpe

L’idea di quest’anno di pubblicare post sugli elementi della tavola periodica sta avendo un certo successo; tuttavia devo dire che pochi di coloro che hanno contribuito hanno accettato lo spirito del mio invito completamente e in particolare una cosa che nella mia proposta era basilare: riportare per ogni elemento il ciclo biogeochimico e l’impatto del ciclo industriale su quello naturale.

E’ un argomento che mi affascina e che non è molto conosciuto né presente in letteratura e che fra l’altro ha a che fare col titolo e il soggetto del nostro blog; tutti conoscono i cicli degli elementi “maggiori” i cosiddetti “grandi nutrienti”, come il carbonio, l’azoto, il fosforo, l’ossigeno o lo zolfo casomai ma si fermano qua. Invece i cicli biogeochimici sono presenti per tutti gli elementi; come ho scritto recentemente (C&I 2019 n. 3) i cicli biogeochimici possono essere visti come parte degli ipercicli su cui Manfred Eigen (premio Nobel per la chimica nel 1967) ha basato la sua visione della vita; i cicli biogeochimici come volano degli ipercicli biologici e nel medesimo tempo come dissipatori del flusso di energia libera che dal Sole si scarica sulla Terra in ragione di decine di migliaia di terawatt.

Come scrisse nel suo libro Weather Prediction by Numerical Process (p 66) il fisico Lewis Fry Richardson

Big whirls have little whirls that feed on their velocity,

and little whirls have lesser whirls and so on to viscosity.

Grandi vortici hanno vortici più piccoli che si nutrono della loro velocità,

                        e piccoli vortici hanno vortici più piccoli e così via fino alla viscosità.

https://svs.gsfc.nasa.gov/vis/a000000/a003800/a003827/

Lo stesso meccanismo di degradazione dell’energia libera che funziona nei fluidi funziona dappertutto: “vortici han vortici più piccoli”.

Sembra una frase leonardesca: esprime qua come il flusso di energia solare si articola non solo sul piano meccanico dai grandi venti che coprono costantemente grandi zone di superficie ai piccoli venti regolari come l’Ora del Garda, dalle grandi correnti oceaniche alle onde che vi bagnano l’ombrellone, ma anche dai grandi cicli degli elementi ai processi chimici dentro la cellula vivente; la cascata dissipativa prosegue costantemente da quando la Terra esiste.

Il flusso dal Sole è di circa 174.000 terawatt (122.000 dopo albedo), ma quello netto che la macchina termodinamica terrestre, il sistema della biosfera, il Sistema Terra considerato come una macchina termica accoglie ed usa trasformandolo in “lavoro ordinato”, strutture è molto più basso, circa 6000 terawatt, come ho provato a calcolare in un post precedente).

In questa ottica l’economia umana è il metabolismo della nostra particolare specie; l’economia non è solo costrutto storicamente determinato, ma parte da una base biofisica, è ecological economics, come scriveva già tanti anni fa Enzo Tiezzi, una delle menti chimiche italiane più brillanti a cui va il mio grato ricordo sempre. E questo purtroppo nessun economista del Sole-24 ore lo capisce. E anche parecchi colleghi fanno spallucce!

Questo metabolismo ha inglobato i metalli facendo partire l’epoca che chiamiamo preistorica già oltre 7000 anni fa con il cosiddetto calcolitico, l’età del rame; dunque prima le rocce e la pietra, da sempre, godendo del lascito delle razze umane che ci hanno preceduto e affiancato, poi il carbonio, l’azoto e il fosforo con la scoperta dell’agricoltura circa 10-12000 anni fa e poi il rame, il bronzo, il ferro e così via.

Il nostro metabolismo sociale è stato questo.

A proposito dell’economia scriveva un filosofo ottocentesco:

«il lavoro non è la fonte di ogni ricchezza. La natura è la fonte dei valori d’uso (…) altrettanto quanto il lavoro»…..“dal punto di vista di una più elevata formazione economica della società, la proprietà privata del globo terrestre da parte di singoli individui apparirà così assurda come la proprietà privata di un uomo da parte di un altro uomo». “I beneficiari dei frutti della terra, infatti, sono soltanto «i suoi usufruttuari – e hanno il dovere di tramandarla migliorata, come boni patres familias, alle generazioni successive».

Appunto, la Natura! Come stanno le cose?

In un bel lavoro del 2009 (GLOBAL BIOGEOCHEMICAL CYCLES, VOL. 23, GB2001, doi:10.1029/2008GB003376, 2009) gli autori scrivono:

Sebbene i metalli servano come “nutrienti tecnologici” senza i quali la società moderna non può funzionare, essi non hanno ricevuto la stessa attenzione su scala globale dei “grandi nutrienti” C, N, S e P. Solo il ciclo globale completo del rame, comprendente sia i depositi che i flussi sia naturali che antropogenici è stato ricostruito quantitativamente [Rauch and Graedel, 2007]. (si tratta di un lavoro che è stato citato in un post precedente dedicato al rame)

Il lavoro è dotato di magnifiche tavole di cui vi riporto un esempio:

Il ciclo globale del Nickel:

E conclude con alcune considerazioni estremamente importanti ma non del tutto nuove per i lettori di questo blog:

La dimensione crescente della riserva in uso ha anche ripercussioni sul futuro delle sorgenti della risorsa metallica, poiché più metallo sarà ragionevolmente estratto dalle discariche dello stock in uso adesso attraverso il riciclo. Questo recupero non necessariamente ridurrà la pressione sulla estrazione del metallo da minerale, perché la maggior parte dei depositi metallici rimane molto concentrato rispetto agli stock in uso ed il minerale è necessario per i crescenti livelli di consumo e per compensare per le perdite del riciclo. Comunque , la stabilizzazione della popolazione mondiale ragionevolmente costituirà il primo passo per equilibrare il ciclo metallico mondiale. Enfasi dovrà essere messa sulla comprensione della quantità, la forma, e la distribuzione spaziale degli stock di metalli in uso poiché questa riserva diventerà importante in modo crescente come risorsa metallica cui attingere.

I nostri risultati complessivi indicano che l’azione dell’umanità è diventata un agente geomorfico (NdT relativo cioè alla morfologia della superficie terrestre) significativo attraverso la mobilizzazione dei metalli.

Flussi totali naturali ed antropogenici al presente esistono al medesimo ordine di grandezza per tutti i metalli investigati.

Il più grande movimento di masse nel sistema naturale (produzione crostale e subduzione, erosione dei sedimenti e loro denudazione, e deposizione oceanica) eccede di un ordine di grandezza o più il maggiore movimento di masse antropogenico (estrazione mineraria, produzione metallica e consumo del metallo) solo per Al e Fe. D’altronde Cu è l’unico metallo per il quale il flusso antropogenico eccede quello naturale per un ordine di grandezza o più.

Questa equivalenza degli ordini di grandezza si paragona bene con quello dei “grandi nutrienti”, dove la mobilizzazione del C da parte di attività umane è meno di un’ordine di grandezza rispetto a quello naturale, N e S sono approssimativamente gli stessi, mentre la mobilizzazione del P eccede quella naturale per più di mezzo ordine di grandezza. Queste perturbazioni dei cicli naturali globali dei metalli risultano nella riallocazione delle masse di metalli dai sedimenti superficiali ai margini continentali e dalle masse di minerali agli stock di metalli in uso.

Questo è l’Antropocene! I nostri “cicli”  (che sono “aperti”, non sono cicli ) dominano la situazione e questo sconvolge la biosfera; dobbiamo dedicare maggiore atttenzione a questi processi e cercare quanto più possibile di chiuderli come la Natura ha sempre fatto; non esistono discariche planetarie di metalli e rischiamo dunque di  trasformare la Terra in una pattumiera. Il primo passo è studiare e conoscere la situazione, per poterla adeguatamente trasformare. Ecco perché inserire il ciclo biogeochimico nei post sugli elementi è importante.

Voi che ne dite?

Ascoltare le richieste dei giovani.

In evidenza

Mauro Icardi

Il 24 Maggio, invitato dai giovani di “Friday for future “, ho partecipato insieme a loro alla manifestazione per il clima. Devo premettere che avrei partecipato ugualmente. Ma la richiesta di intervenire, e fare un breve intervento di una decina di minuti dopo il corteo per le strade di Varese , mi ha permesso di stabilire un contatto con loro. Ho risposto alla loro richiesta senza alcuna esitazione.

Quando sono salito sul palco non ho parlato di acqua. Ho voluto invece parlare di tempo. Il tempo che non possiamo più perdere, relativamente ai problemi ambientali e climatici.

E del tempo trascorso da quando l’umanità, o per meglio dire una parte di essa, ha iniziato a interrogarsi su un tema fondamentale. Cioè se è reale la possibilità di poter crescere economicamente, senza alcun limite. In un pianeta che invece è limitato. Un pianeta finito, inteso come spazio. Anche se la frase si presta a ad altre tristi considerazioni.

Ho voluto raccontare loro la vicenda che portò alla pubblicazione del “Rapporto sui limiti dello sviluppo”.

Di come, seppure molto giovane (avevo dieci anni quando lessi la notizia su un trafiletto di poche pagine sul numero domenicale del quotidiano “La stampa”, il 4 Marzo del 1972), quella notizia abbia finito per essere quello che ho definito il mio imprinting culturale.

I ragazzi in piazza mi hanno ascoltato con attenzione ed interesse. Forse anche perplessi che tutto quello che oggi li spinge a scendere in piazza, a protestare, a cercare di risvegliare la coscienza, sia singola, sia collettiva, non sia di fatto una cosa successa ora. E’ invece da quasi cinquant’anni che i problemi ambientali aspettano soluzioni. Alcune regole di comportamento personale erano già state suggerite. Per esempio evitare l’uso sconsiderato di imballaggi in plastica, oppure quello di usare l’automobile con intelligenza e parsimonia. Questi suggerimenti, due in un elenco che ne comprendeva quindici, erano contenuti in un libro di biologia pubblicato nella prima metà degli anni 70, e da adottarsi per gli istituti di scuola superiore.

Terminata la manifestazione del mattino, ho voluto rimanere con loro ancora qualche ora. Ascoltarli e dialogare. Senza cadere nella retorica, la loro generazione è quella che rischia di pagare un dazio alle scelte non ponderate che la mia generazione, e quelle che l’hanno preceduta hanno fatto.

Ho voluto invitarli sia all’impegno personale, che allo studio. Studio e comprensione che non devono essere limitati al loro percorso formativo e scolastico. Ma che deve, secondo il mio parere, continuare praticamente ogni giorno. In questo modo potranno rispondere a chi, superficialmente, definisce queste manifestazioni una scusa per perdere ore di lezione.

Questa partecipazione è solo un primo passo. Cercherò, per quanto mi sarà possibile di continuare ad ascoltarli, e di fare un pezzo di strada al loro fianco. Come sempre ho ricevuto, forse più di quanto ho potuto dare. Ma credo, così come proprio in questi giorni ha dichiarato Vandana Shiva, che abbiano bisogno di essere ascoltati. Aiutati a capire dinamiche che spesso forse comprendono, ma che possono anche metterli in difficoltà. Aiutarli ad apprezzare impegno, etica e sobrietà Credo che sia un impegno importante nei loro confronti. Ma da quel che ho potuto cogliere, credo che si possa essere ragionevolmente ottimisti.

Ghiaccio superionico ottenuto in laboratorio

In evidenza

Rinaldo Cervellati

L’acqua solida in condizioni normali si presenta in forma amorfa o di cristalli esagonali chiamati ghiaccio Ih, forma cristallina tipica di quasi tutto il ghiaccio presente nella biosfera.Varietà di forme di ghiaccio esagonale

Quasi tutto perché in alta atmosfera si possono trovare piccole quantità della forma cristallina cubica, chiamata ghiaccio Ic, che però è metastabile. Il ghiaccio Ic, in cui la configurazione degli atomi di ossigeno è simile a quella degli atomi di carbonio nel reticolo cristallino del diamante, si può produrre in laboratorio a temperature fra -140 e -50°C, ma si trasforma nella forma Ih sopra -30°C.

In laboratorio sono state ottenute almeno altre 17 forme cristalline di ghiaccio lavorando a diverse temperature e pressioni, un elenco con le corrispondenti caratteristiche si può trovare nel riferimento [1].

Fin dal 1988 calcoli teorici avevano previsto che l’acqua, sottoposta a pressioni estreme superiori a 100´103 atmosfere e temperature oltre 2000 K, poteva diventare superionica con un “mare” di protoni (ioni di idrogeno) che diffondono attraverso il reticolo solido dell’ossigeno.

Tuttavia la conferma sperimentale si è avuta solo lo scorso febbraio con la pubblicazione di una ricerca effettuata da un gruppo di scienziati del Lawrence Livermore National Laboratory, CA, coadiuvati dal Laboratory for Laser Energetics dell’Università di Rochester, NY, (M. Millot, F. Coppari et al., Nanosecond X-ray diffraction of shock-compressed superionic water ice., Nature, 2019, DOI: 10.1038/s41586-019-1114-6). Gli scienziati suppongono che questa particolare forma di ghiaccio possa giocare un ruolo chiave nella struttura di pianeti come Urano e Nettuno.

La notizia è stata riportata da Chemistry & Engineering newsletter nel numero del 16 maggio scorso [2], ma un’anticipazione è stata data dal notiziario on-line dell’Istituto Nazionale di Astrofisica (INAF) che contiene anche un’ intervista a Federica Coppari, responsabile della ricerca insieme a Marius Millot [3].

Federica Coppari, italiana, dopo la laurea e un master in Fisica all’Università di Camerino ha ottenuto il dottorato in Fisica all’Université Pierre et Marie Curie di Parigi, poi si è trasferita negli USA, dove attualmente è ricercatrice nel Lawrence National Laboratory a Livermore.

Federica Coppari

Marius Millot, francese, dopo il dottorato in Fisica ottenuto nell’Université Paul Sabatier di Tolosa, si è trasferito negli USA dove attualmente è responsabile di ricerca al Lawrence National Laboratory.

Marius Millot

L’intervista a Coppari è stata effettuata da Lorenzo Pizzuti, dell’INAF.

Alla prima domanda su in cosa consiste il ghiaccio superionico e in quali condizioni si ottiene, Coppari ha detto:

La condizione di superionicità è un particolare stato della materia in cui gli ioni pesanti si presentano sotto forma solida, mentre quelli leggeri sono in stato liquido. Nel caso dell’acqua, l’ossigeno occupa delle posizioni ben definite dalla struttura cristallina, mentre gli idrogeni non occupano delle posizioni fisse, ma si muovono liberamente.

Struttura del ghiaccio superionico [3]

Nel lavoro che abbiamo pubblicato abbiamo visto che il ghiaccio superionico è stabile tra circa 100 e 200 miliardi di Pascal e tra 2000 e 4000 gradi Kelvin.

A proposito della domanda su come sono riusciti a ottenere il ghiaccio superionico, Coppari ha risposto:

Per ottenerlo abbiamo preso un campione di acqua (l’acqua che conosciamo, per intenderci), l’abbiamo compressa usando un particolare dispositivo chiamato cella a incudini di diamante[1] fino a formare il ghiaccio chiamato Ice VII: una struttura più densa del 60 per cento rispetto al ghiaccio che abbiamo in frigorifero. Siamo poi andati a fare i nostri esperimenti di compressione shock all’Omega Laser facility, nel Laboratory for Laser Energetics di Rochester. In pratica, abbiamo messo la cella a incudini di diamante in una camera apposita, poi abbiamo focalizzato 2000 Joule di energia laser su uno dei diamanti per formare un’onda d’urto che si propaga attraverso la cella, comprimendo e scaldando l’acqua ulteriormente».

Immagine dall’esperimento di compressione, ottenuta con il laser per studiare le proprietà dell’acqua superionica [3].

Pizzuti ha poi chiesto quali differenze ci sono fra il nostro normale giaccio di freezer e questa nuova forma superionica. Ecco la risposta:

Il ghiaccio che troviamo sulla Terra, stabile a basse temperature e a pressioni ambiente ha struttura cristallina esagonale. Cambiando le condizioni di pressione e temperatura il ghiaccio può diventare acqua (scaldando) o assumere una struttura cristallina diversa (comprimendo). Ecco perché all’interno di pianeti tipo Urano e Nettuno, nei quali ci aspettiamo pressioni di centinaia di miliardi di Pascal e migliaia di gradi Kelvin, l’acqua avrà una struttura e delle proprietà sicuramente diverse da quelle del ghiaccio che usiamo per fare il mojito! Probabilmente l’interno dei pianeti non sarà formato da acqua pura, ma da composti e misture di carbonio, idrogeno, ossigeno e azoto. Lo studio delle proprietà dell’acqua pura alle condizioni che ci aspettiamo all’interno di questi pianeti è comunque un primo passo verso una comprensione più approfondita dei meccanismi che hanno portato alla formazione di questi pianeti.

Infine, alla domanda sulle implicazioni e gli sviluppi futuri della ricerca, Coppari ha risposto:

Le implicazioni si possono identificare su diversi fronti: per quanto riguarda la fisica fondamentale, è la prima osservazione sperimentale che questo stato della materia, predetto sulla base di calcoli teorici più di 30 anni fa, esiste nell’acqua. Un’altra implicazione per le scienze riguarda il campo magnetico di questi pianeti, che è intimamente legato a come si sono formati ed evoluti. La visione di molti planetologi è che Urano e Nettuno siano caratterizzati da una struttura interna formata da fluidi convettivi. Altri hanno invece postulato una struttura a strati, con un sottile strato fluido e un mantello di ghiaccio superionico per spiegare le anomalie del campo magnetico di questi pianeti. La scoperta che il ghiaccio è in effetti superionico alle condizioni interne di Urano e Nettuno dà credito a questa teoria. Anche gli sviluppi futuri sono molteplici. Una domanda ovvia è: qual è l’effettiva struttura dell’ossigeno nell’acqua superionica? Con esperimenti di diffrazione X si potrà rispondere a tale quesito. Ulteriori sviluppi riguardano l’esplorazione del diagramma di fase dell’acqua a più alte pressioni per vedere fino a dove si estende il dominio di stabilità del ghiaccio superionico. Non tralasciamo, ovviamente, lo studio delle misture di C-H-O-N [carbonio-idrogeno-ossigeno-azoto] per avere un’idea più precisa di cosa succede all’interno di questi pianeti.

Robert Car, un fisico teorico che ha studiato il ghiaccio superionico all’Università di Princeton è impressionato dal controllo sperimentale che ha consentito al gruppo di ricerca non solo di raggiungere quelle temperature e pressioni, ma anche di effettuare misure di diffrattometria a raggi X. Marius Millot è intenzionato a continuare il progetto di ricerca per indagare il ghiaccio superionico a diverse pressioni e temperature e per effettuare studi simili sull’ammoniaca solida.

Riferimenti

[1] https://it.wikipedia.org/wiki/Cristalli_di_ghiaccio

[2] S. Lemonick, Scientists make superionic ice,

https://cen.acs.org/physical-chemistry/Scientists-make-superionic-ice/97/i20?utm_source=NonMember&utm_medium=Newsletter&utm_campaign=CEN

[3] L. Pizzuti, Quant’è strano un mojito su Urano, https://www.media.inaf.it/2018/02/09/ghiaccio-urano-nettuno-coppari/

[1] Dispositivo che permette di generare pressioni altissime e di studiare il comportamento di un materiale sottoposto a tali condizioni. Originariamente ideata per essere usata in apparati sperimentali in cui era prevista l’osservazione ottica di quanto avveniva nel campione, è stata successivamente resa polivalente per ogni tipo di studio in cui il campione sottoposto a pressione è riscaldato e irraggiato con vari tipi di radiazione elettromagnetica (raggi X o gamma o infrarossi, luce di sincrotrone ecc.). Il dispositivo è stato utilizzato anche per ottenere in laboratorio il primo composto dell’elio, Na2He, di cui parleremo in un prossimo post.

NdP: http://www.lescienze.it/news/2019/05/11/news/ghiaccio_nero_caldo-4403157/

New high-pressure phases of ice   P Demontis, R LeSar, ML Klein  Physical review letters 60 (22), 2284  (questo lavoro ha ricevuto finora solo 58 citazioni ma probabilmente è il più importante lavoro sull’acqua degli ultimi decenni).

 

I modelli sconfitti. 2.

In evidenza

Claudio Della Volpe.

(la prima parte del post è qui)

Stiamo raccontando la storia dei modelli atomici del primo novecento e siamo arrivati a questo punto ad una proposta di atomo che incomincia ad avere caratteri rivoluzionari; il prossimo modello è intitolato a G. A. Schott(8).

Schott è stato un vero e proprio “maestro” della teoria elettromagnetica, un conoscitore tecnicamente approfondito delle equazioni di Maxwell e degli effetti che dipendono dal movimento delle cariche.

Ha tentato fino alla sua morte nel 1937 di opporsi alla teoria quantistica della materia cercando di sviluppare un approccio classico che tenesse fede ai necessari impegno sperimentali.

Anche se la teoria quantistica di Planck è del 1900 il primo attacco alla teoria classica per quanto riguarda la struttura atomica è solo del 1913, col modello planetario di Bohr, in cui si realizzano due punti di vista estremi: orbite elettroniche prive di emissione radiativa ed una espressione quantizzata per i salti energetici.

Schott è stato l’estremo campione della teoria classica della fisica; ha basato la sua difesa su una teoria “ad hoc” ma non priva di stimoli che riprenderemo appena dopo.

In particolare egli sostiene che la soluzione può venire da una struttura interna dell’elettrone che preveda che l’elettrone non sia una particella puntiforme e che esso invece si espanda sia pur a velocità bassa. E’ un’idea che riprende quella di Jeans dell'”elettrone strutturato”. Questa proposta contrasterebbe con la conservazione dell’energia e dunque l’autore è costretto a considerare uno stress interno all’elettrone causato dalla pressione esercitata dall’etere. Infine Schott propone sulla base di alcuni calcoli che questo fenomeno di interazione fra etere e elettrone sia all’origine della gravità.

La sua teoria non riesce comunque a riprodurre la relazione di Rydberg, ma getta le basi di un’idea interessante per spiegare il comportamento non-radiativo del sistema atomico: la espansione dell’elettrone, vedremo fra un momento.

Risale al 1910 il modello dell’archione, di J. Stark.(9)

Ancora una volta vediamo che la lingua può giocare un ruolo essenziale nella divulgazione delle teorie; questo è un lavoro in tedesco dunque meno accessibile sia allora che oggi allo scienziato medio. In questo originale lavoro non sufficientemente celebrato si introduce di fatto l’idea del protone, che viene chiamato “archione”.

As was determined, a chemical atom can contain several positive quanta, separable from each other, with which a mass is connected on the order of that of the hydrogen atom; we may not exclude after the current conditions of our experience the possibility that this also for the smallest chemical atom, which applies for hydrogen atom. As Archion we define now the individual which possesses an electrical charge equal that of the positive elementary quantity and whose mass afflicted with this charge cannot be made smaller, without the individual destroyed as such too. The designation positive quantity is to only characterize the size of the electrical charge, not those with it linked mass. The word Archion is, similar to the word electron, the statement about the charge and that statement about the minimum mass connected with the charge association towards.

Secondo l’idea di Stark l’archione possiede un momento dipolare magnetico, che consentirebbe all’archione di legarsi testa coda con un altro archione, allineandosi per formare un circolo chiuso che darebbe forma e struttura all’atomo come tale. La relativa debolezza dell’attrazione magnetica fra archioni sarebbe aiutata dalla opportuna presenza di elettroni che diminuirebbero la repulsione fra archioni. Ancora una volta questa proposta non risponde all’esigenza di prevedere la formula di Rydberg.

A questo punto nel medesimo 1910 viene pubblicato un articolo da parte di Ehrenfest che segna un punto a favore della meccanica classica ed anche un seme per il futuro problema della creazione di materiali per l’invisibilità, oggi si direbbe metamateriali per l’invisibilità. Solita sfiga , è in tedesco, ma rimedio mettendo l’immagine qua, non si sa mai qualche volenteroso……Questo articolo (10) non ebbe assolutamente il peso e l’impatto che avrebbe meritato.

Uno dei problemi fondamentali, abbiamo visto è quello della stabilità del modello atomico, e la domanda che ci si pone è: ma esiste nell’ambito della teoria di Maxwell un modo per evitare che un sistema di cariche in movimento accelerato emetta una radiazione elettromagnetica e dunque che la sua energia diminuisca? Si può passare ad una visione che impedisca di ricorrere a scelte radicali, ossia la MQ?

La traduzione grossolana del titolo sarebbe: “Movimenti elettrici senza radiazione elettromagnetica”, oggi si direbbe radiationless o nonradiating sources (potenza dell’inglese altro che impronunciabile ungleichformige!!!!!).

In questo brevissimo testo di una sola pagina (una modalità veramente wittgensteiniana) l’intuizione geniale di Ehrenfest è che possono esistere distribuzioni di cariche in accelerazione che non emettono radiazione. Una la vedete rappresentata nel piccolo filmino (in inglese gif) qua sotto (cliccate su quella che sembra una riga), una lamina infinita piana con densità di carica omogenea che accelera verticalmente, cioè perpendicolarmente a se stesso; dato che il campo elettromagnetico è TRASVERSALE, un tale movimento perpendicolare alla superficie NON corrisponde all’emissione di radiazione! Bellissima intuizione!

Lamina orizzontale d carica oscillante.

Tenete presente che al momento della pubblicazione di questo articolo geniale Bohr non aveva ancora scritto nulla sul suo modello e che i due modelli quello “dei Thomson” e di Nagaoka pongono al centro il problema della stabilità del moto di cariche elettriche. Dunque proposta perfettamente centrata. Articolo “economico” in linea con i tempi: dopo tutto il Tractatus di Wittgenstein è solo del 1921, il libro filosofico più breve del mondo, la scrittura essenziale; qua abbiamo l’idea geniale in una sola pagina. E questa E’ un’idea geniale, un seminal paper secolare.

Se il moto del sistema di cariche è perpendicolare alla superficie onde elettromagnetiche non si possono generare.

Perchè questo sistema non irradia? Perchè è un sistema infinito non puntiforme come l’esempio che si fa sempre; ovviamente sistemi infiniti non ne esistono; ma la soluzione finita c’è, la vedete nel secondo filmato qua sotto; una sfera uniformemente carica il cui raggio oscilli!!

Abbiamo la medesima situazione e non ci sono campi elettromagnetici emissibili da questo sistema che ricorda ovviamente l’elettrone autoespandente del campione dell’anti MQ: Schott!

Come se non bastasse Ehrenfest traccia la proprietà generale che un sistema di cariche accelerate deve possedere per non emettere un campo.

La condizione in modo riassuntivo recita: supponiamo di avere nella zona A indicata in figura una disposizione di cariche la quale generi un potenziale che al confine con la zona B va costantemente al valore presente in B; in B il laplaciano (come indicato nell’equazione) è costante, ossia in media il campo elettrico ha divergenza nulla, ha valore costante (se non vi ricordate cosa è il laplaciano non vi preoccupate, ve lo riassumo io in forma non rigorosa, è la media dei valori dei vettori in uscita da un punto).

.

mentre in A il campo elettrico è espresso dall’equazione seguente e

, , .

e H = 0; queste scelte garantiscono un comportamento non radiativo.

Ecco qua, in una paginetta, risolto in modo originale il problema della stabilità che aveva ossessionato per 10 anni i fisici classici; ma non bastò!

Accidenti agli articoli in tedesco! La MQ ha vinto per una questione di lingua? Certamente una diffusione di queste idee più ampia avrebbe reso inutili almeno nell’immediato le scelte radicali della MQ fatte solo tre anni dopo da Bohr, avrebbe aperto altre prospettive. Ma così non è stato.

Salto la storia dell’esperimento di Geiger-Marsden, gli studenti di Rutheford, dato che ne ho parlato in un post precedente. Quell’esperimento impose un modello “planetario”; ma nella descrizione di Rutheford (11) non ci sono commenti su come gli elettroni si muovano;

Considering the evidence as a whole, it seems simplest to suppose that the atom contains a central charge distributed through a very small volume, and that the large single deflexions are due to the central charge as a whole, and not to its constituents. At the same time, the experimental evidence is not precise enough to negative the possibility that a small fraction of the positive charge may be carried by satellites extending some distance from the centre.

Rutheford sapeva che quel movimento degli elettroni inteso in modo tradizionale avrebbe reso l’atomo instabile

The question of the stability of the atom proposed need not be considered at this stage, for this will obviously depend upon the minute structure of the atom, and on the motion of the constituent charged parts.

ma non coglie nessuno dei suggerimenti originali fatti da Schott o da Erhenfest, forse non li conosceva? Certo non li cita. Non so, non ho trovato commenti in merito. Sta di fatto, ma pochi lo ricordano, che Rutheford si tira indietro sulla questione della stabilità.

Alla fine il vincitore risultò N. Bohr (12)

Che modello di interazione aveva Bohr? Secondo questo lavoro (13) che ritraccia la storia del modello Nagaoka il modello Rutheford, quello di Bohr e di Nagaoka condividevano lo stesso tipo di potenziale e di interazione fra nucleo ed elettroni. Rimaneva il problema della stabilità.

Le regole nuove che Bohr ha suggerito per risolvere le contraddizioni di Rutheford, la solita instabilità elettromagnetica degli elettroni in rotazione attorno al nucleo piccolo e lontano, sono su un altro piano:

  1. Gli elettroni possono muoversi solo in orbite stabili che possiedono un momento angolare quantizzato.
  2. Un elettrone può cedere la sua energia solo tutta in una volta saltando da uno stato n ad uno n-1.

In queste regole Bohr ha riversato quello che Jeans aveva immaginato fosse necessario, ed era, h, la costante di Planck.

A questo punto i fisici avevano un modo di riprodurre finalmente la formula di Rydberg e tutti i sofisticati e sottili ragionamenti del decennio precedente furono in gran parte dimenticati.

Ma non del tutto, perchè qualcuno continuò a combattere contro i quanti.

Sto parlando ovviamente di Schott. Nel 1933 egli dimostrò un nuovo modo di costruire un sistema non radiativo(14).

Una carica sferica uniforme di raggio α sottoposta ad un moto periodico di periodo T non produrrà radiazioni se si soddisfa la seguente condizione :dove m è un intero piccolo e c la velocità della luce. Il fenomeno è mostrato in figura.Nel 1933 la teoria quantistica si era già rafforzata in modo tale che Schott non tentò assolutamente di costruire un modello atomico basato sul fenomeno appena scoperto, ma dato che nel 1930 si era scoperta una nuova forma di radiazione senza carica elettrica (che poi Chadwick dimostrerà essere il neutrone) Schott ipotizzò che il neutrone potesse farsi risalire alla sua scoperta. Il neutrone dunque come una collezione di una o più sfere non radianti.

Having now established the principal result of our investigation, we may perhaps be permitted to indulge in a little speculation, and, though models of the atom and its constituents, especially classical ones, are out of fashion, enquire whether such models, constructed out of charged sphere, like the one considered above, may not, after all, be of use in the elucidation of atomic problems… Obviously it does not help to account for Bohr’s radiationless electron orbits, for, if one of our spheres were used as a model of the electron, the radiationless orbits of its centre would be far too small, since they would lie entirely inside the electron, as we saw in the last section.

But this very fact suggests that, if two of our spheres were taken as models of the electron and proton, it might prove possible to use them to construct a permanent model of the neutron, possibly also permanent models of atomic nuclei; for we require radiationless orbits of nuclear dimensions, which can be provided by our spheres, if they are of such dimensions, and have no spin.

La teoria matematica usata per il calcolo è così elegante che si è pensato non potesse essere inutile; come ho scritto altrove: la bellezza è verità e la verità è bellezza, seguendo Keats.

In effetti questa teoria è diventata la base di partenza per lo studio di sistemi radiationless, senza emissione, le cosiddette nonradiating sources, che hanno dato la spinta alla ricerca sui cosiddetti metamateriali invisibili a indice di rifrazione negativo, ma questa è un’altra storia che vi racconterò in un altro post ed è anche un importante argomento non di magia ma di fisica e chimica dei metamateriali (15).

Concludiamo dicendo questo; i modelli atomici prequantistici sono stati numerosi; molti più di quanti ne ricordiamo comunemente; alcuni di essi contenevano idee matematiche e fisiche di notevole interesse; oggi quei modelli “erronei” rivivono in teorie fisiche diverse dalle originali e ci insegnano che forse il mondo potrebbe essere diverso da come lo rappresentiamo e lo raccontiamo.

Sappiamo che due teorie basilari come la relatività e la MQ presentano problemi di compatibilità; non abbiamo ancora una soluzione per questo problema, forse sia la MQ che la relatività sono “sbagliate”, sono casi particolari di altro. E forse proprio nei “modelli sconfitti” possiamo trovare suggerimenti per superare i problemi; e certamente possiamo trovare in essi lo spirito indomito di scienziati creativi e misconosciuti che vale la pena di ricordare con orgoglio. Attenti a parlare di modelli sconfitti e di modelli vincitori. Nel calorico c’era l’intuizione dell’entropia, nell’intuizione di Ehrenfest e Schott c’è il mondo dell’invisibilità.

Non tutto ciò che viene sconfitto è destinato a perire.

Riferimenti

  • 8) A. Schott, “On the electron theory of matter and the explanation of fine spectrum lines and of gravitation,” Phil. Mag., Ser. 6, Vol. 12 (1906), 21-29.)
  • 9) Stark, Prinzipien der Atomdynamik: Die Elektrischen Quanten (Leipzig, Verlag von S. Hirsel, 1910)
  • 10) Phys. Z. 11 (1910), 708-709) titolo:  “Ungleichförmige Elektrizitätsbewegungen ohne Magnet- und Strahlungsfeld”.
  • 11) Ernest Rutherford, The Scattering of α and β Particles by Matter and the Structure of the Atom – April 1911, Philos. Mag, 21:669-688,[
  • 12) Niels Bohr, “On the Constitution of Atoms and Molecules (Part 1 of 3),” Phil. Mag. 26 (1913), 1-25; sono tre articoli il primo si scarica liberamente gli altri no ed è una vergogna; abbasso il copyright che è in realtà un modo di coprire il selvaggio accumulo di profitto delle grandi case editoriali.
  • 13) https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4989051/
  •  14) A. Schott, “The electromagnetic field of a moving uniformly and rigidly electrified sphere and its radiationless orbits,” Phil. Mag. Vol. 15, Ser. 7 (1933), 752-761.
  • 15) https://skullsinthestars.com/2008/04/19/invisibility-physics-acceleration-without-radiation-part-i/

I modelli sconfitti.1.

In evidenza

Claudio Della Volpe

Si dice comunemente (ma non so chi l’abbia detto o scritto per primo): la storia la scrivono i vincitori. Credo che ciò avvenga almeno sul breve periodo; sui tempi lunghi le cose poi si chiariscono, almeno spesso è così. Ma potrebbe meravigliare scoprire che questo meccanismo possa dominare anche in campo scientifico, dove la ricerca viene spesso vista (in modo erroneo) come il progresso da una idea vincente ad una migliore. Le cose non stanno così, sono molto più complesse e contraddittorie.

Uno degli argomenti dove si potrebbe raccontare qualcosa di interessante è quello dei modelli dell’atomo.

Comunemente la vulgata ci riporta che storicamente si sono succeduti il modello del plum pudding di Thomson, il cosiddetto panettone, l’esperimento di Rutheford con le particelle alfa e infine il nuovo modello atomico di Bohr. Anche io ho raccontato un po’ questa vulgata in un post di qualche tempo fa. Ma le cose stanno veramente così?

In un blog molto affascinante, che ho scoperto di recente, ho trovato un po’ di post che fanno vedere le cose diversamente.

In uno dei post si elencano ben 8 modelli atomici (della maggior parte dei quali non ero a conoscenza), ma soprattutto si introduce un discorso, una ipotesi di lavoro che cercava di spiegare un fenomeno basilare che ha spinto a introdurre la quantizzazione e per il quale c’è una alternativa; una volta che ve lo avrò indicato vi farà cadere dalla sedia. Dunque tenetevi forte; il punto del post sarà: sarebbe potuta esistere una alternativa alla meccanica quantistica? E ancor più cosa ci insegna questa possibile alternativa?

Ci sono alcuni fenomeni alla base dell’attuale modello atomico e della visione quantistica della realtà:

  • I fenomeni di emissione/assorbimento della luce: le righe degli spettri, un fenomeno scoperto da Fraunhofer nel lontano 1814 (quello del congresso di Vienna, la restaurazione antinapoleonica);  potete osservarlo facilmente usando un reticolo di diffrazione da pochi euro, nello spettro solare ci sono righe scure in posizioni fisse che oggi interpretiamo come dovute all’assorbimento della radiazione di corpo nero in uscita dal Sole alle sole lunghezze d’onda corrispondenti a salti quantici ben definiti. In modo analogo le righe di emissione si hanno quando si porta all’incandescenza un elemento, come avviene nel saggio alla fiamma; in quel caso le righe non sono scure ma molto luminose e la loro lunghezza d’onda misurata con l’equazione del reticolo, corrisponde alla medesima bloccata nell’atmosfera solare. Per alcuni elementi come l’idrogeno alla fine dell’800 era possibile avere le lunghezze d’onda espresse da serie matematiche in cui la variabile era un numero intero (serie di Rydberg) ; questo fenomeno era al giro del secolo del tutto ben conosciuto ed indispensabile da interpretare. A questo fenomeno dobbiamo aggiungere la questione dello spettro di corpo nero, il fatto che la probabilità di emettere energia non sia equipartita fra le frequenze ma abbia un massimo che dipende dalla temperatura (effetto Wien); la teoria di Planck della quantizzazione è del 1900. Ed infine l’effetto fotoelettrico studiato da Hertz e Lenard (che ritroveremo più avanti come modellatore di atomi) per cui l’emissione di elettroni da metalli avviene tramite radiazione UV; nei dettagli il fenomeno dipende dalla differenza di potenziale applicata ma funziona solo da un certo potenziale in poi (detto potenziale d’arresto): il potenziale d’arresto non dipendeva dall’intensità della luce incidente, sorprendendo lo sperimentatore, che si aspettava il contrario.
  • La seconda classe di fenomeni sono quelli del comportamento chimico, espressi dalla tavola periodica, di cui festeggiamo quest’anno il 150esimo anniversario; la possibilità rappresentata da Mendeleev nel 1869 di schematizzare le proprietà dei vari elementi raggruppandoli in quelli che oggi chiamiamo gruppi e periodi, proprietà simili o variabili in modo semplice; tale schema obbliga ad una struttura atomica che sia altrettanto schematica e prevedibile in base ad un parametro unico, che oggi chiamiamo numero atomico, ossia il numero di elettroni o di protoni.
  • Ed infine l’esistenza di particelle elementari di carica opposta; l’esistenza di elettricità di carica opposta era stata teorizzata fin dal 1734 e ne abbiamo parlato anche qui (l’elettricità resinosa e vitrea, di Charles François de Cisternay du Fay); nel 1897 J.J. Thomson (da non confondere con William Thomson, primo Lord Kelvin)) scoprì i raggi catodici, nel 1919 Rutheford scoprì il protone.

Queste tre classi di fenomeni sono da includere nella struttura dell’atomo in modo “naturale”, devono essere previsti dalla teoria.

Il modello di J.J. Thomson è stato preceduto dal modello del “dinamide”, dynamid, proposto da Lenard(1). Il modello del dinamide è sbagliato ma probabilmente è poco conosciuto prima di tutto perchè oggi esiste solo l’inglese mentre questa proposta come altre è scritta in tedesco.

Lenard, che vinse il Nobel per la fisica nel 1905 per il suo lavoro sui raggi catodici, era un convinto assertore del nazismo. Egli fece molte osservazioni importanti sul comportamento degli elettroni: dimostrò che l’assorbimento degli elettroni dipendeva più dalla massa di materiale che non dalla sua specifica composizione o dalle sue proprietà chimiche, suggerendo quindi che la composizione atomica fosse basata sui medesimi mattoni, sulla loro quantità più che sulla loro qualità; inoltre egli dimostrò che le forze di interazione erano essenzialmente elettriche e che queste forze comandavano le interazioni chimiche. Ne seguiva un modello illustrato nella immagine seguente in cui il blocco base di tutta la materia era il dinamide ossia una coppia di cariche positive e negative legate fra di loro. Le forze che tenevano insieme i dinamidi non erano spiegate ma la teoria rendeva conto della struttura della tavola periodica e della presenza di elettroni negli atomi anche se non era in grado di spiegare la formula di Rydberg degli spettri dell’idrogeno; infine le componenti positive avrebbero dovuto essere egualmente estraibili di quelle negative dall’atomo ma ciò non avveniva.

Il modello di Thomson fu presentato l’anno dopo (2).

L’idea originale del modello di JJ fu in effetti suggerita dall’altro Thomson ossia William, Lord Kelvin mentre il ruolo fondamentale di JJ fu di fare dei calcoli quantitativi che dimostrassero la stabilità del sistema. Non si confonda questa proposta di Lord Kelvin con quell’altra del 1867 dell’atomo come vortice di etere, che pure ha avuto una serie di emuli successivi ed è stata presa a base della teoria delle stringhe (https://en.wikipedia.org/wiki/William_Thomson,_1st_Baron_Kelvin – Kelvin’s_vortex_theory_of_the_atom). Non parlerò qui del vortice di etere e dei modelli “magnetici come quello di Mayer(1878) (3). Qua parliamo invece di una proposta fatta dal Thomson più famoso cioè William, del plum pudding model e ripresa dall’altro, J.J per valutarne la stabilità. Devo dire che non sono stato capace di trovare il testo originale di Kelvin e che non ci sono citazioni nel lavoro di JJ, ma moltissimi testi riportano questa dualità; se si tratta di una mera confusione non sono in grado di dire; non c’è nemmeno una lista completa dei lavori di William da verificare. Suppongo che sia così, è ragionevole ma potrebbe essere anche sbagliato. Chi vuole può provare a cercare un libro dedicato a questi problemi (4). Più avanti vi mostro un lavoro che fa riferimento alla proposta di William.

La stabilità era in effetti una questione molto importante nei primi modelli atomici. Per esempio Jean Baptiste Perrin avrebbe proposto un modello nucleo-planetario in anticipo (anche in questo caso non si trova il lavoro originale di Perrin, ma solo vari riferimenti a questa idea) nel quale gli elettroni negativi ruotavano attorno al nucleo, ma la difficoltà che cito qui la prima volta era che questo sistema era instabile; se una carica puntiforme si muove di moto accelerato genera un campo elettromagnetico variabile e dissipa energia, dunque prima o poi cade nel nucleo. Riparleremo di questo problema della instabilità dovuta a radiazione elettromagnetica.

La soluzione di Kelvin o di J.J. Thomson fu di sostituire il nucleo positivo con una distribuzione ampia ed omogenea di cariche positive in cui gli elettroni erano mescolati, come i canditi nel panettone. La forza elettrica nell’interno della sfera uniforme di carica aumenta con la distanza dal centro, mentre DIMINUISCE all’esterno di tale distribuzione, esattamente come avviene per la gravità: se scavate un tunnel che passi dentro la Terra, classico problema di fisica, la forza di attrazione diminuisce andando verso il centro a causa dell’effetto di tutti gli strati più esterni.

(Ovviamente la sfera è tenuta insieme da forze NON ELETTRICHE)

Nel 1906 J.J. concluse da una analisi dei raggi X riemessi dai gas e dall’assorbimento dei raggi beta dai solidi che il numero di elettroni era approssimativamente eguale al numero atomico. Forse analizzando i possibili modi di vibrazione degli elettroni in questa configurazione si sarebbe potuta avere una descrizione spettrale fedele alle formule conosciute.

La combinazione fra le forze di attrazione e di repulsione avrebbe prodotto un anello di elettroni in stabile equilibrio ad un certo raggio. J.J. Thomson provvide una serie di calcoli a questo scopo suggerendo che la stabilità dipendesse dalla velocità degli elettroni e che sotto una certa velocità la stabilità fosse rotta manifestandosi come radioattività. Thomson vinse il premio Nobel nel 1906

in recognition of the great merits of his theoretical and experimental investigations on the conduction of electricity by gases.”

Come si vede questi aspetti di calcolo non sono ben rappresentati dalla figura classica del plum pudding model e per certi aspetti si mescolano col modello seguente.

Nel 1904 lo studioso di origine giapponese Hantaro Nagaoka propose il modello “saturniano”, (5) rappresentato nella figura seguente.

La proposta di Nagaoka riprendeva un lavoro del 1859 di James Clerk Maxwell, che aveva dimostrato che gli anelli di Saturno erano sufficientemente stabili e composti da una serie relativamente piccola di oggetti; i disturbi inevitabili dell’orbita causavano solo delle oscillazioni ma non la distruzione dell’anello. Nagaoka applicò la medesima idea matematica, ma considerando che i corpi in rotazione non si attraevano come i componenti dell’anello di Saturno, ma si respingevano.

Egli dimostrò matematicamente che le oscillazioni dell’anello di elettroni producevano linee spettrali e una struttura a bande continua, che in presenza di un campo magnetico si sarebbe prodotto un effetto di splitting (analogo all’effetto Zeeman) e propose che la radioattività dipendesse da effetti repulsivi fra anelli di elettroni diversi attorno al medesimo atomo. Questa proposta, nonostante il notevole successo esplicativo che includeva gli spettri, non ebbe molta risonanza.

Nel 1906 arrivò una proposta (6) di uno dei maggiori scienziati del secolo Lord Rayleigh; nel suo caso l’idea è di considerare un numero di elettroni così alto da poter analizzare il loro comportamento come un fluido di elettroni continuo.

Come si vede qui Rayleigh fa riferimento ad un suggerimento di Kelvin rispetto al modello del plum-pudding, una conferma che conforta, ma rimane il problema di una citazione ad uno scritto di Kelvin. Inoltre Rayleigh considera un numero così elevato di elettroni da poterli considerare un fluido elettronico a cui attribuisce un paio di proprietà tipiche dei fluidi e diverse da quelle finora considerate. Il fluido elettronico di Rayleigh è irrotazionale, ossia non c’è nessun elemento che ruota attorno all’asse passante per il centro di massa dell’elemento stesso. Questo semplifica molto i calcoli ed unito alla supposta incompressibilità ne facilita la modellazione matematica. Il fluido elettronico, dunque, oscilla ma non ruota attorno al centro e lo fa con frequenze discrete e calcolabili, ma che non risultano essere quelle di Rydberg, difficoltà che Rayleigh cerca di superare considerandole come “battimenti” di frequenze molto più elevate. Rayleigh arriva anche alla conclusione che occorrono probabilmente altre condizioni per giustificare che le frequenze di oscillazione siano solo quelle rilevate, un’idea che in qualche modo è in accordo con le richiesta della MQ. Le idee di Rayleigh sono potenti, eliminano la necessità di una regolare rotazione ma indicano la necessità di nuove condizioni. Geniale.

Un paio di anni dopo continua il fermento di nuove intuzioni. Il modello di Jeans è quello dell’elettrone vibrante.(7)

Si tratta più che di un modello organico di una serie di suggerimenti per modificare il modello di Rayleigh. Scrive Jeans:

… may I mention that in the Phil. Mag. for Nov. 1901, I attacked a problem similar in many respects to that which forms the main substance of Lord Rayleigh’s paper? The actual premises upon which I worked were different from those of Lord Rayleigh – his positive sphere being represented, in my work, by a crowd of positive electrons, and the definiteness of structure, which he obtains by regarding this sphere as rigidly fixed, being obtained in my work by using a law more general than ee’/r^2.

Cercando delle condizioni distabilità che supportino il modello di Rayleigh, Jeans conclude che:

If this were so, these frequencies would depend only on the constituents of the atom and not on the actual type of motion taking place in the atom. Thus if we regard the atom as made up of point-charges influencing one another according to the usual electrodynamical laws, the frequencies could depend only on the number, masses, and charges of the point-charges and on the aether-constant V. What I wish to point out first is that it is impossible, by combining these quantities in any way, to obtain a quantity of the physical dimensions of a frequency.

In brief, no equation involving charge, mass, and aether-constant V will ever result in a frequency. Since we know that atoms are emitting light with definite frequency, something is missing in the description.

E suggerisce

It seems, then, that we must somehow introduce new quantities – electrons must be regarded as something more complex than point-charges. And when we have once been driven to surrendering the simplicity of the point-charge view of the electron, is there any longer any objection to putting the most obvious interpretation on the line-spectrum, and regarding its frequencies as those of isochronous vibrations about a position of statical equilibrium?

In simple words, if we imagine that the electron itself not as a point charge but as an object with its own internal structure, then the frequencies of light emitted from atoms could result from vibrations within this ‘structured electron’.

Come si vede Jeans arriva molto vicino alla necessità di una nuova fisica in cui l’elettrone sia un oggetto che vibra come un pendolo, il che ammetterete che è una sorprendente e rivoluzionaria conclusione che partorisce interamente dai geniali tentativi di risolvere i problemi rimanendo all’interno della fisica tradizionale.

Riferimenti

  1. Lenard, “Über die Absorption der Kathodenstrahlen verschiedener Geschwindigkeit,” Ann. Physik 12 (1903), 714-744.

2. Mag., Ser. 6, Vol. 7 (1904), 237-26

     3. http://galileo.phys.virginia.edu/classes/252/more_atoms.html

  • 4. Alex Keller, The Infancy of Atomic Physics: Hercules in his Cradle.
  • 5. H. Nagaoka, “Kinetics of a system of particles illustrating the line and the band spectrum and the phenomena of radioactivity,” Phil. Mag., Ser. 6, Vol. 7 (1904), 445-455.)
  • 6. Lord Rayleigh, “On electrical vibrations and the constitution of the atom,” Phil. Mag., Ser. 6, Vol. 11 (1906), 117-123.)

      7. J.H. Jeans, “On the constitution of the atom,” Phil. Mag., Ser. 6, Vol. 11 (1906), 604-607.)

 

(continua)

Sintetizzate le più piccole ciclodestrine

In evidenza

Rinaldo Cervellati

La notizia è stata riportata da Cella Arnaud nel numero del 12 aprile di Chemistry & Engeering newsletter con il sottotitolo: Un ponte fra ligandi mantiene l’insieme in una posizione che dà luogo a strutture flessibili.

Le ciclodestrine (CD) sono una famiglia di oligosaccaridi ciclici, costituiti da un anello macrociclico di subunità di glucosio unite da legami α-1,4 glucosidici. Le ciclodestrine sono prodotte dall’amido mediante conversione enzimatica. Esse sono composte da 5 o più unità α-D-glucopiranoside collegate 1→ 4, come nell’amilosio (un frammento di amido). La ciclodestrina più grande contiene 32 unità 1,4-anidroglucopiranoside. Le ciclodestrine tipiche contengono un numero di monomeri di glucosio che vanno da sei a otto unità in un anello.

Ciclodestrina a 8 unità

Secondo il numero di unità di glucosio contenute nell’anello sono chiamate α– (6 unità), β− (7 unità) e γ- (8 unità) –ciclodestrina rispettivamente.

Data la struttura spaziale delle molecole di zucchero, si viene in realtà a realizzare una struttura tronco conica (toroide). Questi toroidi, immersi in un solvente, espongono i gruppi ossidrili secondari e quelli primari dalle aperture più grandi e più piccole rispettivamente. A causa di questa disposizione, l’interno dei toroidi è considerevolmente meno idrofilo rispetto all’ambiente esterno. Ciò si traduce nella possibilità per le ciclodestrine di ospitare molecole idrofobiche all’interno della cavità e di essere solubili in acqua. Ne risulta anche l’abilità di indurre un incremento di solubilità in acqua delle sostanze idrofobiche ospitate nella cavità. Quando una molecola di polarità e dimensioni opportune viene ospitata nella cavità della ciclodestrina si forma un cosiddetto complesso di inclusione.  Come conseguenza di questa capacità le ciclodestrine sono abbondantemente usate in molti prodotti industriali, tecnologici e analitici. Il loro effetto citotossico trascurabile le porta a un largo impiego come efficaci vettori nei cosmetici e nelle preparazioni farmaceutiche. Trovano impiego anche negli imballaggi, nell’insaporimento di cibi, nei processi di separazione, nella tutela dell’ambiente, nella fermentazione e nella catalisi.

Tutto ciò è stato ampiamente discusso da Claudio Della Volpe nel post sulla molecola C2 della pubblicità: https://ilblogdellasci.wordpress.com/2016/10/24/le-molecole-della-pubblicita-2c/

La novità sta nel fatto che un gruppo di ricercatori giapponesi, coordinati dal prof. Hidetoshi Yamada (Dept of Chemistry, Kwansei Gakuin University), sono riusciti a sintetizzare le ciclodestrine più piccole, a 4 e 3 unità di glucosio nell’anello (D. Ikuta et al., Conformationally supple glucose monomers enable synthesis of the smallest cyclodextrins, Science, 2019, DOI: 10.1126/science.aaw3053).

Hidetoshi Yamada

Poiché queste ciclodestrine a 3 e 4 unità zuccherine hanno una dimensione dell’anello troppo piccola per permettere la conformazione più stabile del glucopiranosio, la sintesi a partire da quest’ultimo non è possibile. Il fattore principale del successo nella sintesi effettuata dal gruppo giapponese è stata la formazione di un anello glucopiranoside conformazionalmente controbilanciato fra le forme equatoriale e assiale.

EDB = ponte molecolare fra O3 e O6

La flessibilità è stata fornita mediante l’inserimento di un ponte fra gli atomi di ossigeno O3 e O6 del glucosio. Questa elasticità consente la generazione degli opportuni conformeri, anche se deformati, per la sintesi del trimero e del tetramero ciclici CD3 e CD4:

Sebbene i ricercatori siano stati in grado di ottenere CD3 e CD4, la sintesi ha funzionato meglio per il trimero che per il tetramero. Tuttavia essi sono riusciti a sintetizzare solo quantità limitate di entrambi gli oligomeri. Yamada e colleghi stanno lavorando per aumentare la resa della reazione e per ottenere quantità diciclodestrine a livello di grammi.

Riferendosi alle applicazioni generali delle ciclodestrine, Yamada e collaboratori terminano augurandosi che la cavità più piccola di CD4 possa consentire l’inclusione selettiva di molecole con dimensioni inferiori a quelle ospitate dalle CD attualmente disponibili.

TRA FRONTIERE E CONFINI. Recensione

In evidenza

Eleonora Aquilini*

Recensione:  di INSEGNARE E APPRENDERE CHIMICA

 

Il libro di Valentina Domenici “Insegnare e apprendere chimica”(Mondadori, 2018, p.XIV-338 euro 23.80), è sicuramente una novità di rilievo per chi si occupa di didattica della chimica.

Mancava, infatti, un testo di riferimento che facesse il punto sulle teorie e le pratiche che costituiscono il panorama della didattica nazionale e internazionale. Uno strumento importante per studenti che affrontano per la prima volta il problema dell’insegnamento della chimica, per insegnanti di scuola in servizio e per insegnanti universitari. Il libro, nella prima parte che consta di tre capitoli, mostra i vari passaggi che ci portano verso l’insegnamento della disciplina prendendo in esame diversi aspetti: la natura della chimica, il suo insegnamento oggi, il suo apprendimento lungo tutto l’arco della vita, le buone pratiche e i casi di studio.

Valentina Domenici

Ognuno di questi aspetti costituisce una parte del libro che viene analizzata in chiave didattica con un’ampia bibliografia, sicuramente preziosa per il lettore. La prima parte individua lo statuto epistemologico della chimica, la sua storia e il ruolo del suo linguaggio nell’insegnamento, dando un quadro dei capisaldi entro i quali muoversi per ragionare di didattica. La seconda parte del libro viene introdotta dal capitolo 4 che prende in esame l’insegnamento della chimica a scuola e all’università; questa è una novità di non poco conto in quanto, solitamente, la didattica viene considerata un mezzo, un modo per trasporre il sapere accademico ufficiale, dato per scontato e che non si discute, al mondo della scuola. Qui si ragiona alla pari, prendendo la didattica della Chimica come problema comune. Sappiamo tutti, infatti, che se vogliamo cambiare il modo d’insegnare usuale, prevalentemente trasmissivo e “autoritario”, come sostiene Kuhn[1], la discussione su come e cosa s’insegna deve nascere anche in ambito accademico. Allora, il capitolo 4 getta proprio un ponte fra scuola e università, disegna un interregno, una proficua zona di confine, promettente per gli sviluppi di tutta la scuola. A questo riguardo, a proposito cioè di quanto può essere efficace la contaminazione fra campi diversi, viene in mente la distinzione fra frontiera e confine che Richard Sennett delinea in L’uomo artigiano. Facendo riferimento alle pareti e alle membrane cellulari che si differenziano per la maggiore possibilità di scambio con l’esterno delle seconde rispetto alle prime, Sennett scrive: “In tutti gli ecosistemi naturali si possono trovare strutture analoghe alla parete e alla membrana cellulari. Gli ecosistemi hanno frontiere, che assomigliano alle pareti della cellula, e hanno confini che assomigliano alla membrana cellulare. Le frontiere possono delimitare un territorio da difendere, come il territorio abitato da un gruppo di leoni o da un branco di lupi, o la zona controllata da una banda e proibita alle altre … Il confine ecologico, invece, è un luogo di scambio, dove gli organismi diventano più attivi. Tale è la linea costiera di un lago: al bordo di acqua e terra gli organismi possono trovare molti altri organismi di cui nutrirsi”[2]. Sennett ricorda poi come, in ambito antropico, le mura delle città medioevali, nate come frontiere, si siano trasformate in confini attivi, quando ai loro bordi, sono nati piccoli mercati clandestini, o si siano popolati di proscritti e altri vagabondi[3]. Secondo Sennett, la sfida di noi esseri umani è trasformare le frontiere in confini, ossia luoghi di scambio, resistenze porose. Seguendo questa singolare chiave di lettura, diversi sono i luoghi di scambio che vengono evidenziati soprattutto nella terza parte del libro di Valentina, quella che è intitolata “L’apprendimento della Chimica lungo l’arco della vita (Lifelong learning)”: la chimica nella vita di ogni giorno, la comunicazione della scienza, l’immagine della chimica, i contesti non formali, i musei scientifici. In questi casi la disciplina viene a patti con altre strutture di pensiero (si pensi all’Etica), con altre organizzazioni (si pensi ai complessi museali), e modifica se stessa, cambia rotta, o chissà, preferisce tacere. Questi sono tutti ambiti in cui la chimica si confronta, si contamina con altre realtà diventando meno formale e forse più fruibile dai cittadini. L’autrice mette poi in luce, nell’ultima parte del libro, le possibilità, offre prospettive, documentando ciò che già esiste e riportando le buone pratiche, le piste di lavoro che sono sperimentazioni attuate nei diversi ordini di scuola e riflessioni su concetti fondanti per la disciplina. È evidente in questa, come nelle altre parti del libro, la passione e la competenza con le quali Valentina affronta le varie tematiche e come sa documentarle. Sicuramente questo è un libro importante per gli studenti che si stanno preparando all’insegnamento e per tutti i docenti, compresi quelli universitari, un riferimento, uno strumento che accompagnerà costantemente il nostro lavoro.

*Eleonora Aquilini, vive a Pisa e insegna Chimica nella scuola secondaria di secondo grado. Dal 1995 svolge attività di ricerca didattica nel “Gruppo di ricerca e sperimentazione didattica in educazione scientifica” del CIDI di Firenze. Attualmente è vicepresidente della divisione didattica della Società Chimica Italiana. È co-autrice del volume Leggere il mondo oltre le apparenze e ha scritto numerosi articoli riguardanti la didattica della Chimica e delle Scienze.

[1] Thomas S. Kuhn, La struttura delle rivoluzioni scientifiche, Einaudi, Torino,1999.

[2] Richard Sennett, L’uomo artigiano, Feltrinelli, Milano, 2009, pag. 217.

[3] Ibidem, pag. 218.

Carl Remigius Fresenius, 1818-1897

In evidenza

Luigi Campanella, già Presidente SCI

Alla fine dello scorso anno,forse perché presi dalle feste di Natale e Capodanno abbiamo perso di celebrare i 200 anni dalla nascita di Carl Remigius Fresenius, un pioniere ed un padre della Chimica che ci ha lasciato un patrimonio importante che vive ancora oggi.

Sin da giovane appassionato alle Scienze Naturali, praticò la professione del farmacista che lo guidò verso un crescente interesse per le scienze sperimentali tanto che nel giardino di casa condusse i primi esperimenti sull’acido solfidrico. Molto formativo per lui fu anche il periodo della sua vita trascorso in Germania,il suo paese d’origine.sia in organismi pubblici che privati acquisendo una manualità che si rivelò poi preziosa per il suo successo iniziato dalla pubblicazione del suo saggio “Un sistema di di istruzione in analisi qualitativa”,che fu anche la base della sua tesi di dottorato.

Ottenuto questo traguardo superò un esame comparabile alla Libera Docenza che gli aprì le porte dell’insegnamento universitario con la sua prima lezione svolta quando aveva appena compiuto 25 anni. Cominciò a maturare in lui la distinzione fra chimica di base e chimica applicata,giungendo alla conclusione che era questa ad aprire all’interesse ed alla gratitudine dei cittadini l’opera del ricercatore ed a questa volle dedicarsi prevalentemente,in particolare alla chimica analitica applicata che,secondo lui,rappresenta il cuore della Chimica. Cominciò a sviluppare i primi nuclei di Etica della Chimica raccomandando a chi esegue misure di ripeterle tutte le volte che sussistano i benché minimi dubbi sull’accuratezza del risultato.,superando qualunque atteggiamento di pigrizia e di comodo. Nessun risultato pubblicato dovrebbe-secondo Fresenius-suscitare perplessità su autenticità ed accuratezza delle misurazioni eseguite per ottenerlo. Ebbe numerosi allievi anche prestigiosi in campo industriale,quali i fondatori di Bayer,Leverkusen,Hoechst,ai quali trasferì questo suo interesse per la sperimentazione ,raccomandando veri e propri protocolli di laboratorio. Considerò l’analisi chimica qualitativa come corso propedeutico alla chimica pratica perché consente di capire rapidamente ed affidabilmente su quali prerequisiti sia basato il successo degli esperimenti chimici:ordine,pulizia,abilità,osservazione attenta,considerazione completa delle condizioni sperimentali,corretta valutazione delle conseguenze di ogni atto e procedura,programmazione delle esperienze dopo averle meditate, considerazione di possibile ulteriore sperimentazione in tutti i casi in cui i risultati precedenti siano in conflitto fra loro.                 Si occupò anche di chimica forense in casi di avvelenamento,di materiali falsificati,di alimenti adulterati e/o scaduti..Contribuì anche allo sviluppo economico divenendo un assertore dell’esigenza di fare circolare le conoscenze sì da moltiplicare ed amplificare la capacità innovativa del sistema industriale..                                                                       Forse il campo in cui la sua produzione è più apprezzata è quello dell’analisi delle acque minerali delle quali esaminò oltre 100 campioni diversi provenienti anche dall’estero e per la quale mise a punto un sistema analitico procedurale consolidato e pubblicato in molte diverse lingue. Lanciò anche un Giornale di Chimica Analitica che introdusse con questa frase:” Può essere facilmente dimostrato che tutti i progressi maggiori in chimica sono più o meno legati con i nuovi metodi analitici;essi ci hanno aiutato e ci aiutano a stabilire la stechiometria,a sviluppare la sintesi organica, a scoprire nuovi elementi” .

Questo giornale, anche noto come Fresenius’ Zeitschrift für Analytische Chemie or Fresenius’ Journal of Analytical Chemistry ha prodotto 371 volumi durante quasi 3 secoli (1962-2001).Di fatto i suoi più recenti interessi scientifici verso il campo della bioanalitica, in forte sviluppo dalla fine degli anni 80, hanno catalizzato la sua continuità nel nuovo giornale Analytical and Bioanalytical Chemistry,ancora attivo e di grande impatto sulla comunità internazionale della Chimica Analitica.

Dalla Russia la più vecchia Tavola periodica da aula

In evidenza

Rinaldo Cervellati

E’ la notizia apparsa su un recente numero di Chemistry World Weekly*, la newsletter settimanale della Royal Society of Chemistry, riportata da Emma Stoye, Senior science correspondent della rivista.

All’inizio di quest’anno è stato riportato che quella che si pensava la Tavola periodica da aula più antica del mondo, fosse un manifesto cartaceo scoperto in un magazzino presso l’Università di St. Andrews in Scozia, datato 1885.

La Tavola periodica scoperta all’Università di St Andrews

Ora, quel record è stato battuto da una versione dipinta a mano, si ritiene commissionata dallo stesso Mendeleev, esposta in una sala conferenze nell’edificio dell’Istituto di Chimica dell’Università statale di San Pietroburgo in Russia, datata 1876.

Tavola periodica da aula utilizzata in una sala conferenze dell’Università Statale di San Pietroburgo in Russia dal 1876.

Sebbene non si tratti di una stampa a livello commerciale – quella di St Andrews è ancora considerata la più antica di questo tipo ancora esistente, dice Emma Stoye – la Tavola di San Pietroburgo risale al 1876 ed è stata indubbiamente usata per insegnare nel corso degli anni. Fu dipinta solo sette anni dopo che Mendeleev pubblicò il suo sistema per organizzare gli elementi, usando colori ad olio su tela, circondata da una cornice di legno. La Tavola è stata restaurata alcune volte nel corso della sua storia, recentemente nei primi anni 2000.

Il dipinto fu posto nella sua posizione attuale quando l’università di San Pietroburgo costruì un nuovo edificio per l’Istituto di Chimica nei primi anni del 1890. Prima di allora, era probabile che fosse appeso nell’edificio principale dell’università, dove insegnava Mendeleev. Gli accademici all’università dicono che stanno studiando gli archivi della Società Russa di Fisica e Chimica, esistita fino al 1895, per cercare di saperne di più sulla storia di questa Tavola periodica dipinta.

*Tradotto da: E. Stoye, New candidate for oldest classroom periodic table emerges in Russia, Chem. World Weekly, May 9, 2019

Emma Stoye

I quattro elementi fondamentali dell’Universo.

In evidenza

Claudio Della Volpe

Afferma Empedocle:

«Conosci innanzitutto la quadruplice radice
di tutte le cose: Zeus è il fuoco luminoso,
Era madre della vita, e poi Idoneo,
Nesti infine, alle cui sorgenti i mortali bevono»

Secondo una interpretazione Empedocle indicherebbe Zeus, il dio della luce celeste come il Fuoco, Era, la sposa di Zeus è l’Aria, Edoneo (Ade), il dio degli inferi, la Terra e infine Nesti (Persefone), l’Acqua.

Secondo altri interpreti i quattro elementi designerebbero divinità diverse: il fuoco (Ade), l’aria (Zeus), la terra (Era) e l’acqua (Nesti-Persefone).Tiziano, Concerto campestre, 1509, Parigi, Museo del Louvre. La donna alla fonte è una personificazione dell’Acqua. Il suonatore di liuto rappresenta il Fuoco. L’uomo con i capelli scompigliati dal vento simboleggia l’Aria. La donna di spalle raffigura la Terra.

 Col tempo a questi quattro elementi se ne aggiunse un quinto, la “quintessenza” o etere.
L’idea che la Natura potesse esser costituita con pochissimi elementi mescolati fra di loro è stata una delle idee più antiche ma anche di maggior successo nella storia umana.

Di fatti potremmo dire che tutto sommato la chimica moderna dice lo stesso.

Voi mi direte: ma non è vero la tavola periodica di cui celebriamo quest’anno il valore riporta ben 118 elementi possibili e sappiamo ce ne sono anche altri non ancora scoperti o sintetizzati.

Già ma di cosa sono fatti questi 118 atomi? Di cosa è fatto tutto ciò che ci circonda sulla Terra almeno? Cosa c’è dietro e per così dire “sotto” la Tavola Periodica?

Bastano solo quattro particelle: fotoni, protoni, neutroni ed elettroni; con queste quattro entità le leggi della chimica e della meccanica quantistica ricostruiscono tutto ciò che ci circonda; beh quasi, nel senso che ogni tanto arrivano raggi cosmici dal fondo cielo che si trasformano in mesoni e quelli non sono parte dei quattro oggetti nominati.

L’idea che a partire da pochi elementi si possa ricostruire tutto è stata accettata da grandi menti antiche e moderne; ovviamente per spiegare questo si sono ipotizzate e poi misurate esattamente le forze fra le particelle.

Newton che fu prima di tutto un grande alchimista (e solo dopo un fisico, era un chimico-fisico ante litteram, ma ce lo siamo fatto scippare dai fisici puri) ma è anche uno dei fondatori della fisica moderna scriveva:

There are therefore agents in nature able to make the particles of bodies stick together by very strong attractions. And it is the business of experimental philosophy to find them out. Now the smallest particles of matter may cohere by the strongest attractions and compose bigger particles of weaker virtue; and many of these may cohere and compose bigger particles whose virtue is still weaker, and so on for diverse successions, until the progression ends in the biggest particles on which the operations in chemistry, and the colors of natural bodies depend.” (I. Newton, Opticks).

(notate come parla di chimica e fisica INSIEME!!!)

Dunque per spiegare queste associazioni ci vogliono le forze che le manovrano.

Ma voglio essere più preciso; ne ho già parlato tempo fa su questo blog, discutendo la chimica ipotetica della materia oscura; i fisici hanno la loro “tavola” che si chiama “modello standard”; purtroppo i chimici non studiano queste cose, ma secondo me dovrebbero.

oppure questa è un’altra rappresentazione:

Ci sono nella materia ordinaria 18 componenti essenziali divisi fra 6 leptoni, 6 quark e 6 vettori delle forze.

Di questi 18 componenti per fare tutto ciò che si vede sulla Terra occorrono solo:

3 mediatori delle forze: fotoni, gluoni e bosone di Higgs, 2 quark, up (u) e down (d) che nelle combinazioni uud e udd producono protone e neutrone ed 1 solo leptone, ossia l’elettrone; sei entità (appartenenti rispettivamente tre ad una classe di componenti, due ad un’altra e il terzo ad un’altra ancora). E tutto viene fuori da questi 6.

Alla fine non siamo cascati così lontani. Credo che Empedocle si meraviglierebbe se tornasse a vivere di come la sua idea fosse dopo tutto vicina alla verità considerata tale anche dopo vari millenni.

Certo noi abbiamo una solida serie di esperimenti e di relazioni matematiche che supportano il nostro punto di vista, anche se non è ben chiaro perchè poi la matematica abbia così tanto successo (E. Wigner, The Unreasonable Effectiveness of Mathematics in the Natural Sciences); c’è stato un ampio dibattito su questo tema, che inizia da Galileo (il mondo è scritto in linguaggio matematico; e passando per Wigner approda a conclusioni anche opposte: siamo noi che vediamo tutto attraverso la lente della matematica (Richard Hamming); dove è la verità? Non lo so. Esiste una terza via?

Pitagora aveva notato questo strano matematizzarsi dell’Universo già oltre 2000 anni fa.

Per Pitagora (575 a.C. circa – 495 a.C. circa) la successione aritmetica dei primi quattro numeri naturali, geometricamente disposti secondo un triangolo equilatero di lato quattro, ossia in modo da formare una piramide, aveva anche un significato simbolico: a ogni livello della tetraktys corrisponde uno dei quattro elementi.

1º livello. Il punto superiore: l’Unità fondamentale, la compiutezza, la totalità, il Fuoco

2º livello. I due punti: la dualità, gli opposti complementari, il femminile e il maschile, l’Aria

3º livello. I tre punti: la misura dello spazio e del tempo, la dinamica della vita, la creazione, l’Acqua

4º livello. I quattro punti: la materialità, gli elementi strutturali, la Terra

Non vi ricorda qualcosa? 1 punto di un tipo, due del secondo, tre del terzo!! Divisi per classi ed in quantità crescente, 1, 2, 3, come i 6 componenti del modello standard che abbiamo citato prima (1 leptone, 2 quark e 3 mediatori delle forze). Stupefacente combinazione?!

OK, può essere, comunque, siamo arrivati a 6 per descrivere quello che c’è sulla Terra dopo oltre 2000 anni di travaglio e lavoro, ma in fondo ci erano arrivati anche Pitagora ed Empedocle e Democrito e con caratteristiche per certi aspetti simili.

Ne è valsa la pena? E’ una teoria che torna periodicamente, un’applicazione dei cicli storici di Giambattista Vico? Eterni ritorni nella spirale dialettica hegeliana? Non so, credo che la scienza moderna post-galileiana sia un grande metodo di scoperta, ma anche l’intuizione e la osservazione degli uomini che ci hanno preceduto non era poi così male, e come insegna Lucio Russo gli scienziati alessandrini ci hanno preceduto nell’uso del metodo moderno. Abbiamo ancora da rifletterci a lungo su questa relazione fra scienza, matematica e osservazione, capacità di meravigliarsi.

Qualche collega potrebbe lamentarsi dell’eccessivo spazio che do alla fisica ed alla matematica in questo post; ma non è così. A mio parere la visione del mondo naturale dovrebbe essere unitaria per quanto possibile, la materia è una; e la Chimica costituisce evvero un linguaggio euristico ed indipendente rispetto alla Meccanica Quantistica, è esistita senza di essa, ma ha contribuito a svilupparla. Ci sono alternative alla meccanica quantistica? Non so ma ne riparleremo in un prossimo post.

Sarà vero casomai che dopo tutto la fisica teorica attuale e Pitagora sono simili perché guardano al mondo prima di tutto tramite la sua simmetria e bellezza:

La bellezza è verità, la verità è bellezza: questo è tutto ciò che voi sapete in terra e tutto ciò che vi occorre sapere.

(John Keats, poeta)

Ma non lo fa anche il chimico quando sintetizza le sue molecole, strutture la cui simmmetria e bellezza, che ci ricorda Vincenzo Balzani, viene prima del loro uso?

Non so, riflessioni catalizzate dall’anno della tavola.

Cosa ne dite chimici?

Bianka Tchoubar (1910-1990)

In evidenza

Rinaldo Cervellati 

Bianka Tchoubar ha introdotto e sviluppato in Francia i meccanismi delle reazioni organiche vincendo le forti opposizioni della scuola tradizionalista di Prévost e Kirrmann[1].

Bianka nacque nel 1910 a Kharkov in Ucraina da una famiglia russo-ebraica appartenente alla minoranza caraita, fortemente perseguitata dai rabbini ortodossi. Nel 1920, dopo la rivoluzione d’ottobre, la famiglia si trasferì a Costantinopoli (oggi Istanbul) poi a Budapest, stabilendosi infine a Parigi dove Bianka trascorrerà tutta la vita.

All’età di 14 anni iniziò i suoi studi francesi presso il liceo russo di Parigi, dove incontrò la chimica nella persona della prof.ssa Chamier, ex collaboratrice di origine russa di Marie Curie. Si convertì alla religione ortodossa, ma molto presto diventò agnostica. Nel 1929 si iscrisse alla Sorbona diplomandosi in scienze due anni dopo. Con la vocazione di chimico ben salda, decise di proseguire gli studi per il diploma di studi superiori facendo ricerche originali su molecole e particelle cariche nel laboratorio del professor Paul Freundler[2]. Nonostante la disapprovazione del suo supervisore, Bianka Tchoubar ottenne il diploma nel 1932. Questo episodio mostra subito il carattere ribelle ma fermo nelle sue convinzioni di Tchoubar.

Fra la comunità degli emigrati russi, M. Magat, di qualche anno più anziano di lei, lavorava al Collége de France con Edmond Bauer[3], chimico fisico noto a livello internazionale. Magat raccomandò Tchoubar al prof. Marc Tiffeneau[4], chimico e farmacologo, anch’egli internazionalmente noto, direttore del laboratorio di farmacologia della Facoltà di Medicina. Tiffeneau la accolse inizialmente come assistente personale, resosi poi conto delle potenzialità della ragazza, integratasi perfettamente nel gruppo di ricerca, alla creazione del CNRS (Centre National de la Recherche Scientifique) nel 1937 la nominò assistente ricercatrice.

In questo periodo prima della guerra, viene fondato il gruppo chiamato “I giovani chimici” con lo scopo di discutere liberamente di chimica al di fuori della pesante e conformista Società Chimica di Francia. Subito Bianka Tchoubar ne entra a far parte facendo la conoscenza di F. Janot, futuro condirettore dell’Istituto di Sostanze Naturali del CNRS, di F. Gallais, che sarà vice direttore e responsabile del Dipartimento di Chimica e Medicina e soprattutto di R. Rumpf, pioniere della chimica fisica organica, disciplina innovatrice che ricevette a quel tempo in Francia la peggior considerazione (v. nota 1).

Nel 1939 scoppiò la guerra e dopo la conseguente occupazione nazista l’attività dell’Istituto rallentò, anche se ne entrarono a far parte alcuni giovani che saranno i primi allievi di Bianka Tchoubar. Con essi iniziò le ricerche sui meccanismi di reazione.

Bianka Tchoubar

Nel 1945 fu promossa Research Associate. Già in possesso di un notevole curriculum comprendente circa quindici pubblicazioni e la supervisione di diversi studenti, sotto la spinta di Marc Tiffeneau aveva preparato la tesi di dottorato: “Contribution à l’étude des extensions de cycles. Désamination nitreuse des aminométhyl-1 cyclanols-1“, che però fu discussa solo nel 1946.

La guerra e la resistenza furono certamente responsabili del rinvio della discussione. La sua famiglia e quella di Marc Tiffeneau erano molto attive, proteggendo partigiani e prigionieri evasi. Ma questo non fu l’unico motivo del ritardo. La sola descrizione dei risultati sperimentali non era abbastanza da soddisfare la sua avidità di sapere e capire. Molto presto annunciò, contro il suo stesso tornaconto immediato, di essere interessata alle specie cariche. Quando cercò di convincere Tiffeneau che “affinità” e “migrazione” non spiegavano molto, mentre le teorie moderne sulla natura del legame chimico consentivano di interpretare scientificamente la deaminazione nitrosa con estensione del ciclo, non ottenne un rifiuto, ma un silenzio molto più eloquente. Non ebbe molta più fortuna con Pauline Ramart-Lucas[5] che doveva difendere la tesi ma che era altrettanto insensibile alle teorie di Bianka Tchoubar. Fortunatamente nel 1946 fu accettato l’arbitrato del prof. Edmond Bauer (v. nota 3), che avrebbe assicurato la qualità della parte teorica della tesi. Bauer ne fu così entusiasta da presiedere persino la difesa, durante la quale Bianca sostenne i concetti di risonanza e mesomeria oltre che l’esistenza di carbocationi intermedi già postulati venti anni prima da Hans Meerwein[6], ignorato dai chimici francesi.

Divenuta incaricata di ricerca presso il CNRS, dovette aspettare il 1955 per ottenere il grado di ricercatore senior, che le sarebbe spettato per le funzioni che svolgeva, perché i “mandarini” del Centro non erano ancora molto ricettivi alle “teorie inglesi” che Tchoubar utilizzava per interpretare i meccanismi delle sue reazioni.

Riconosciuta finalmente specialista in un campo in piena effervescenza, tenne, negli anni 1957-58 diverse conferenze prima di pubblicare nel 1960 il libro intitolato Les mécanismes réactionnels en chimie organique, che ebbe un notevole successo e fu tradotto in sei lingue.

In realtà il suo talento pedagogico e la sua influenza si erano già espressi in un lavoro di riflessione svolto con alcuni colleghi sulle teorie strutturistiche in chimica organica, basate sui principi enunciati dal britannico Cristopher Ingold e dallo statunitense Linus Pauling, e altri.

Sull’importanza del libro di Tchoubar per la disseminazione delle metodologie di chimica fisica organica in Francia vale la pena citare il saggio di P. Laszlo [1], che riporta anche alcuni aspetti della personalità e del carattere di questa notevole scienziata. Scrive Laszlo:

…è stata un personaggio memorabile… non solo sembrava indomabile, dava l’impressione di essere sempre in conflitto con tutto e con tutti. Non curava l’abbigliamento e non le importava l’aspetto fisico…fumatrice accanita andava dappertutto con una sigaretta accesa fra le dita macchiate di nicotina. Allo stesso modo era totalmente inconsapevole nei confronti del rischio di guidare a tutta velocità la sua macchina, una piccola Citroën Due Cavalli… Solitamente a pranzo mangiava alla sua scrivania, un sandwich e un bicchiere di vino rosso…. Sulla scrivania una copia del quotidiano l’Humanité, l’organo del Partito Comunista Francese, di cui lei era militante.

… Potrebbe quindi sembrare ironico che Tchoubar, membro militante del PCF dalle salde opinioni, sia diventata la principale propagandista della scuola anglo-americana sui meccanismi di reazione. Il fatto è che per lei l’evidenza scientifica annullava qualsiasi ideologia politica.

Bianka Tchoubar

Nel 1956, in seguito alla discussione in URSS su: “La mesomeria e la risonanza sono delle teorie borghesi?”, Bianka rispose con il saggio rigorosamente scientifico “Etat actuel de la théorie de la structure en chimie organique” (Nuovo Cimento Supplemento n. 1, vol. 4, Serie X, p. 101), ulteriore dimostrazione della sua indipendenza scientifica nei confronti anche delle sue concezioni politiche.

Nel 1961, Bianka Tchoubar fu nominata direttore di ricerca e si stabilì con tutto il suo gruppo nel nuovo edificio dell’Istituto di Chimica delle Sostanze Naturali a Gif-sur-Yvette. La tenacia di Bianka Tchoubar aveva vinto.

Nel febbraio 1968, fu costituito il gruppo di ricerca n. 12 (GR-12) al CNRS di Thiais di cui divenne il leader scientifico. Al nucleo iniziale dei suoi collaboratori si aggiunsero sei nuovi gruppi per un totale di quasi 70 persone impegnate in vari argomenti di ricerca.

Il gruppo di ricerca. Tchoubar è alla sinistra di Hugh Felkin, britannico che lavorò in Francia per molti anni.

A Thiais Tchoubar terminò ufficialmente la carriera nel 1978. Di fatto però continuò a lavorare in laboratorio lanciandosi in nuove aree di ricerca: gli effetti dei solventi sulle competizioni E2/SN2, e sulle reazioni organiche senza solvente. Con André Loupy[7] pubblicò il libro Les Effets de sels en chimie organique et organométallique (editore Dunod), tradotto in inglese (Wiley-VCH) e in russo (MIR).

Durante la sua carriera professionale Bianka Tchoubar riuscì a realizzare un progetto che le stava a cuore da tempo: una collaborazione franco-sovietica. Per quanto fosse consentito dalle circostanze della “guerra fredda”, stabilì legami scientifici e di amicizia con il prof. A. E. Shilov[8] dell’Istituto di Chimica Fisica di Mosca, diretto dal Premio Nobel Nikolai N. Semionov[9].

La collaborazione si trasformò in un rapporto formale nel quadro degli accordi fra CNRS e Accademia delle Scienze dell’URSS. Vi fu uno scambio di ricercatori che portò alla realizzazione di una tecnica particolare di chimica organometallica.

A parte il suo anticonformismo, Bianka amava l’ambiente sociale, culturale e artistico di Parigi insieme a molte persone amiche.

Bianka Tchoubar morì il 24 agosto 1990 nella sua abitazione a causa di una emorragia interna.

Bibliografia

[1] P. Laszlo, How an Anglo-American Methodology Took Root in France, Bulletin for the History of Chemistry2011, 36, 75-81.

Opere consultate

  1. Charpentier-Morize, Bianca Tchoubar (1910-1990), L’Actualité chimique1991,166,‎ 444-446.

(contiene numerose citazioni dei più importanti articoli di Bianka Tchoubar)

  1. Jacquesy, A. Loupy, M. Gruselle, Bianca Tchoubar, la révolution des mécanismes », L’Actualité chimique, 2015, 397-398, p. 8-10.
  2. Astruc, Bianka Tchoubar (1910-1990), in: J. Apotheker, L.S. Sarkadi Eds., European Women in Chemistry, Wiley-VCH, Weinheim, Germany, 2011, p. 191-194.

[1] Charles Prévost (1899-1983) e Albert Kirrmann (1900-1974) rispettivamente: professore di Chimica Organica a Nancy, Lille poi alla Sorbonne dal 1953 al 1969, e preside della Facoltà di Scienze a Strasburgo poi direttore dei laboratori chimici dell’Ecole normale supérieure di Parigi dal 1955 al 1970. Nei primi anni ’30 pubblicarono una teoria delle reazioni organiche senza successo. Prévost e Kirrmann furono molto delusi dalla totale mancanza di impatto delle loro idee teoriche sulla letteratura internazionale. Di conseguenza fecero in modo che l’intero corpus di lavoro meccanicistico avviato da Ingold e Hughes nel Regno Unito negli anni ’30 fosse ignorato nei programmi di chimica organica delle università francesi. Poiché questi due professori erano a quei tempi i “mandarini” della chimica organica in Francia, l’embargo sulle nuove teorie anglosassoni fu quasi totale fino ai primi anni ’60.

[2] Paul Freundler (1874-1942) chimico francese, allievo di Charles Adolphe Wurtz e amico di Joseph-Achille Le Bel si è occupato di composti organici contenenti azoto asimmetrico in particolare ammine terziarie.

[3] Edmond Bauer (1880 -1963), chimico fisico e professore francese presso la Facoltà di Scienze di Parigi, si è occupato di meccanica statistica e di chimica quantistica.

[4] Marc Tiffeneau (1873-1945) chimico, farmacologo e medico francese, è noto per il suo lavoro sulle trasposizioni molecolari. Ha dato il suo nome alla reazione di Tiffeneau-Demjanov.

[5] Pauline Ramart-Lucas (1880 – 1953) è stata un chimico, accademico e politico francese. È stata la seconda donna, dopo Marie Curie, a occupare la cattedra di chimica organica, dal 1935 al 1941 e dal 1944 al 1953. Le succedette Charles Prévost (nota 1). Dal 1941 al 1944 fu perseguitata dal regime di Vichy. Nel 1944 designata dall’Unione delle Donne Francesi a far parte dell’Assemblée Consultative Provisoire, promossa dal CLNF.

[6] Hans Meerwein (1879 – 1965) chimico tedesco. Ha svolto ricerche di chimica organica, dando particolare importanza agli aspetti teorici e meccanicistici. Il suo nome è ricordato nella riduzione di Meerwein-Ponndorf-Verley, nel riarrangiamento di Wagner-Meerwein e nel reattivo di Meerwein.

[7] André Loupy vivente, chimico francese è stato direttore di ricerca in pensione del Laboratorio di ricerca sulle reazioni organiche media-selettive del CNRS, Université Paris-Sud, Orsay.

[8] Alexander E. Shilov (1930-2014) chimico russo, ha scoperto i primi esempi di reazioni degli alcani Pt- catalizzate in fase omogenea con attivazione dei legami CH, oggi note come sistemi di Shilov. Le sue ricerche spaziano dalla cinetica e catalisi chimica ai meccanismi di reazione e modellizzazione chimica dei sistemi enzimatici.

[9] Nikolaj Nikolaevič Semënov (1896 – 1986) è stato un chimico fisico sovietico, premio Nobel per la chimica nel 1956, insieme a C.N. Hinshelwood “per le loro ricerche sui meccanismi delle reazioni chimiche”.

L’etica del lavoro nell’opera di Primo Levi e la sua attualità.

In evidenza

Mauro Icardi

Il grande riconoscimento, o per meglio dire la collocazione di Primo Levi tra gli scrittori, e non solamente tra i memorialisti è certamente meritata. Levi si considerò scrittore a tutti gli effetti solo dopo il pensionamento dalla fabbrica di vernici Siva di Settimo Torinese, dove lavorò per la maggior parte della sua attività. Prima come chimico, e poi Direttore Tecnico, fino al suo ritiro dall’attività lavorativa.

E proprio il lavoro è uno dei temi che Levi sviluppa lungo tutto il dipanarsi della sua opera. Lavoro che avrebbe dovuto renderlo libero, secondo la crudele e beffarda scritta posta all’ingresso del campo di Buna Monowitz, parte dell’immenso sistema concentrazionario di Auschwitz. Lavoro che poi lo scrittore cerca con costanza subito dopo la liberazione dalla prigionia. Le pagine che narrano delle sue esperienze di lavoro sono la struttura del “Sistema periodico”, ma soprattutto de “La chiave a stella”. Ma per i lettori più attenti, si possono trovare molti racconti nei quali il tema e sviluppato. Anche in “Vizio di forma” dove nel racconto “Le nostre belle specificazioni” il lavoro è inserito in una trama narrativa di tipo fantascientifico. Dove lo scrittore torinese immagina una scheda di collaudo di una materia prima molto particolare, cioè dell’essere umano.

Non possiamo dimenticare, che il lavoro è uno dei fattori che contribuisce alla sopravvivenza di Levi durante la prigionia. Dal lavoro di schiavo, al lavoro sempre come essere inferiore, ma nel laboratorio della fabbrica di Buna. Al riparo dalle condizioni più disagevoli, al riparo dal freddo. Condizione questa che anche Liliana Segre ha evidenziato, nel raccontare la propria vicenda di deportata.

Levi si occupa di approfondire il tema del lavoro nel suo primo romanzo d’invenzione cioè “La chiave a stella”. In realtà, ad un’osservazione più approfondita, questo romanzo rappresenta un ibrido, una dualità (altro tema ricorrente nell’opera di Levi, chimico-scrittore, centauro quindi, cioè ibrido tra uomo e cavallo, come amava definirsi, e come si rappresenta in una delle sue sculture di fili di rame).

Infatti il protagonista Tino Faussone, il montatore di tralicci e derrick per l’industria petrolifera, altro non è che una delle due anime di Levi. L’alter ego con cui lo scrittore dialoga nello scorrere dei capitoli del romanzo. Faussone metalmeccanico, e Levi narratore che spiega in cosa consista il lavoro del chimico nei due bellissimi capitoli “Acciughe” uno e due. Dal chimico che assembla le molecole, al chimico che le deve determinare, utilizzando gli strumenti della tecnologia. In entrambi i casi sapendo della loro esistenza, ma senza vederle ad occhio nudo. Credo che queste siano tra le pagine più efficaci per spiegare i fondamenti della sintesi chimica, e della chimica analitica. E anche del percorso che da Democrito, passando per Avogadro e Lavoisier pone le basi della chimica.

Levi non solo ci tiene a raccontare la vita e le esperienze del chimico ma osserva con attenzione l’universo già allora, ma oggi più che mai variegato del mondo del lavoro. Lo descrive in molti racconti “Da zolfo” nel “Sistema periodico” fino a “La sfida della molecola” pubblicato nel volume “Lilit ed altri racconti”.

E questo suo scrivere di lavoro lo aiuta non solo a cancellare il ricordo del lavoro come strumento di annientamento dei deportati in Lager, ma anche darne una visione del tutto diversa rispetto a come viene descritto nella letteratura industriale degli anni 60. Penso a romanzi come “Memoriale” di Paolo Volponi, o l’ormai quasi dimenticato “Tre operai” di Carlo Bernari che ne è forse in qualche modo capostipite e che viene pubblicato nel 1934. Romanzi dove il lavoro non è realizzazione, ma spesso alienazione. Il secondo libro, proprio perché descriveva una classe operaia impossibilitata ad avere una vita dignitosa, venne censurato dal regime fascista.

Levi invece fa pronunciare a Faussone questa frase: “«Io l’anima ce la metto in tutti i lavori. Per me, ogni lavoro che incammino è come un primo amore»

E va oltre, arrivando anche a sconfessare la maledizione lanciata da Dio ad Adamo, che disubbidendo è condannato a perdere l’eden e lavorare con sforzo e sudore. Con questo paragone, credo abbastanza conosciuto tratto sempre da “La chiave a stella”: «Se si escludono istanti prodigiosi e singoli che il destino ci può donare, l’amore per il proprio lavoro (che purtroppo è privilegio di pochi) costituisce la miglior approssimazione concreta alla felicità sulla terra: ma questa è una verità che non molti conoscono».

E traccia anche un parallelo con l’idea di libertà: «Il termine libertà ha notoriamente molti sensi, ma forse il tipo di libertà più accessibile, più goduto soggettivamente, e più utile al consorzio umano, coincide con l’essere competenti nel proprio lavoro e quindi nel provare piacere a svolgerlo»

“La chiave a stella esce nel 1978, e Levi è conscio che potrebbe (come in effetti sarà) provocare discussioni e polemiche. E quindi precisa: «So che il mio libro è destinato a provocare qualche polemica anche se non è nato con intento polemico. Certo, al giorno d’oggi il rifiuto del lavoro è addirittura teorizzato da componenti giovanili ma anche senza giungere a queste posizioni estreme esiste in stati piuttosto diffusi una tendenza a sottovalutare la competenza professionale intesa come valore positivo in sé».

Ci si può chiedere se, al giorno d’oggi dove una delle parole più pronunciate e lette è crisi, e la seconda è crescita che viene invocata come fosse una litania, oggi che la sensazione più diffusa sembra essere l’insicurezza. Oggi che il lavoro è profondamente cambiato, si è parcellizzato arrivando a creare la singolare sigla NIL (cioè nuove identità di lavoro). Un termine che vorrebbe ricomprendere i lavori precari, sottopagati, i lavori che sottraggono tempo all’esperienza di vita. Oggi che molte persone con un percorso di istruzione si devono adattare a friggere patatine nei fast food, oppure a fare i fattorini. Oggi che addirittura la ricerca scientifica, ovvero una delle forme più necessarie di lavoro ormai viene snobbata. Oggi che parallelamente al lavoro si tende a denigrare e svilire la preparazione professionale, e lo studio che ne è la base. Oggi che anche il lavoro di insegnanti e docenti è difficile, è legittimo chiedersi se le parole di Levi hanno ancora un senso, riescono ancora a rappresentare la realtà.

Io credo di si. Le pagine di Levi dedicate al lavoro possono essere uno stimolo per la difesa della dignità. Di chi lavora, e di chi un lavoro lo sta cercando. Può sembrare utopico. agli studenti che ho seguito negli stages, che spesso mi confidavano le loro aspettative e le loro incertezze sul futuro, parlavo spesso di come Primo Levi concepiva il lavoro. E qualche volta stampavo per loro questo brano tratto dall’intervista del 1986 con Philiph Roth.

Ad Auschwitz ho notato spesso un fenomeno curioso: il bisogno del lavoro ben fatto è talmente radicato da spingere a far bene anche il lavoro imposto, schiavistico. Il muratore italiano che mi ha salvato la vita, portandomi cibo di nascosto per sei mesi, detestava i tedeschi, il loro cibo, la loro lingua, la loro guerra; ma quando lo mettevano a tirar su muri, li faceva dritti e solidi, non per obbedienza ma per dignità professionale”.

Per Primo Levi il “privilegio di pochi” è riferito a provare la gioia del lavoro ben fatto. E’ auspicabile e doveroso che invece questo privilegio possa essere offerto a più persone. E che le persone vedano tutelata la loro dignità umana, e non solo la loro professionalità. Con gli auspici e i suggerimenti che lo scrittore torinese ci ha indicato.

Uno sguardo all’effetto Volta e alla giunzione P-N.

In evidenza

Claudio Della Volpe

Da quasi 20 anni faccio un corso di elettrochimica, anche se con titoli diversi; il corso di quest’anno si chiama Electrochemical energy storage and conversion (originariamente il titolo conteneva production, ma il primo principio ci ha obbligato a cambiare nome) . Uno dei concetti che cito di più è l’effetto Volta o prima legge di Volta: il contatto tra due metalli diversi alla stessa temperatura fa sì che si stabilisca una differenza di potenziale caratteristica della natura dei metalli che non dipende dall’estensione del contatto.

Volta è stato un genio, un grande scienziato che con a disposizione strumenti limitati è stato in grado di costruire una coerente visione della realtà naturale.

Pochi sanno che Volta ha usato come strumento prima di tutto il proprio corpo; i suoi sensi e gli effetti biologici della corrente elettrica sono stati il suo primo strumento di lavoro (testava la corrente con la lingua, gli occhi, il naso).

Volta era anche un piacevole raccontatore; le sue opere, piacevolissime da leggere sono state raccolte da UTET (A. Volta Opere scelte, a cura di Mario Gliozzi, 1967), un testo che si trova anche in rete e che vi consiglio caldamente anche per la vasta e completa introduzione.La interpretazione moderna dell’effetto Volta è per me la chiave di volta, (scusate il gioco di parole) anche per introdurre i potenziali termodinamici misti: elettrochimico, gravitochimico o ancora termogravitochimico.

Concetti usati moltissimo in settori i più disparati, dall’elettrochimica alla meteorologia, ma che trovano la loro base nella formalizzazione robusta della termodinamica e nella trattazione della termodinamica del vicino equilibrio.

Nell’elettrochimica moderna l’elettrone è considerato una specie reattiva come un’altra; possiede dunque un suo potenziale chimico oltre che un potenziale elettrico. Per chi avesse difficoltà a considerare il potenziale chimico dell’elettrone gli consiglio di immaginarlo come la concentrazione di elettroni “liberi” in un certo ambiente.

I fenomeni legati al funzionamento delle valvole termoioniche per esempio rendono evidente che gli elettroni nel vuoto relativo della valvola si comportano come un gas di particelle libere in equilibrio con le superfici metalliche a diverse temperature; semplici esperimenti fattibili anche con lampadine da auto rotte vi consentono di mostrare che se aumentate la temperatura del metallo gli elettroni fluiscono verso un secondo elettrodo presente nella valvola.Insomma si comportano come particelle di un gas, ma in più trasportano una carica e dunque sono una corrente: chimica ed elettricità si fondono nell’analisi di una valvola termoionica, che purtroppo è uscita dall’orizzonte tecnologico, ma rimane un potente strumento didattico (si chiama anche effetto Edison).

(si veda per esempio : https://aapt.scitation.org/doi/abs/10.1119/1.5051166?journalCode=pte)

Allora tornando all’effetto Volta:

avete due metalli diversi a contatto, zinco e rame; il primo presenta un potenziale chimico dell’elettrone superiore, ossia i suoi elettroni hanno una maggiore tendenza a diffondere o se volete una maggiore “concentrazione”(i puristi si tappino il naso).

Ebbene essi si sposteranno dal lato del rame generando una differenza di potenziale che ad un certo punto si opporrà al moto ulteriore, ma la barriera di potenziale si sarà creata, sarà gratuita, stabile ed utile; questo concetto si può applicare a TUTTE le sostanze.

All’equilibrio avrete che le due differenze di potenziale si equivarranno:

Δμ+nFΔV=0 il potenziale misto, elettrochimico è nullo e il sistema è all’equilibrio

(per trasformare in energia la parte elettrica ho moltiplicato la differenza di potenziale elettrico per la carica, a sua volta espressa come prodotto del numero di moli di carica per il Faraday).

Il famoso esperimento che tutti i ragazzini fanno con penna a maglietta per caricare la penna, in realtà funziona anche senza grattare la penna sulla maglia ma molto meno; anche penna e maglietta sono (poco) conduttori; per esaltare le superfici di contatto e ampliare il fenomeno si grattano reciprocamente e l’attrito fa la sua parte; ma il fenomeno sarebbe evidente con un microelettroscopio.Qua si potrebbe estendere il discorso alla serie triboelettrica con innumerevoli applicazioni industriali: i polimeri idrofobici come il teflon ad una estremità, si caricano negativamente, l’aria positivamente. I chimici si sono inventati il concetto di “trasferimento di carica” per studiare queste cose o la teoria acido-base delle superfici (Good, van Oss e Chaudury), cui ho dato qualche contributo, ma i concetti sono sempre quelli.

Le motivazioni chimiche sono facilmente deducibili e il potenziale misto rappresenta un potente strumento concettuale unificante.

Lo strumento base dell’elettronica moderna è basato esattamente sull’esperimento di Volta: la giunzione P-N.

Due semiconduttori, in genere silicio ultrapuro da un lato arricchito di fosforo e dall’altro di boro; in questo modo si altera in modo opposto il potenziale chimico dell’elettrone; dal lato del fosforo si avranno elettroni in eccesso non legati, rispetto ai legami possibili (silicio-n)e dall’altra se ne avranno in difetto (silicio-p).

Per effetto Volta gli elettroni si spostano dall’-n al –p e a questo punto se per qualche motivo liberate elettroni a destra (tramite poniamo un fascio di luce solare) questi poverini spinti a diffondere verso potenziali superiori non potranno traversare la barriera e dovranno giocoforza fluire nel circuito elettrico (esterno all’immagine) che gli metteremo a disposizione!

Le celle FV sono esattamente questo; ma anche i LED sono questo, sono delle giunzioni PN in cui però la logica costruttiva e diversa perché finalizzata a fare la cosa opposta: trasformare in luce un flusso di corrente.

Un LED non è fatto come una cella FV ma è basato sui medesimi principi: primo effetto Volta.

se voi esponete un LED alla luce il LED fa il suo lavoro alla rovescia; produce una differenza di potenziale ed una minuscola corrente; si può costruire una cella FV fatta di LED; ovviamente sarebbe poco efficiente perché la sua geometria interna non è ottimale.

(si veda https://www.youtube.com/watch?v=L3-0aCJOedo)

Una cosa da precisare; queste giunzioni sono macchine termodinamiche che rispettano ovviamente il secondo principio: quando fate una trasformazione da una forma di energia all’altra avrete sempre una dissipazione termica; tutte le macchine termodinamiche (intese come i dispositivi di conversione dell’energia da una forma all’altra) seguono questa legge ma con un ma.

Ci sono due classi di macchine quelle che lavorano attraverso un salto termico come le macchine termiche tradizionali le turbine, le macchine a vapore o le giunzioni PN che sfruttano la luce oppure le macchine elettrochimiche o le giunzioni PN che NON sfruttano la luce.

Le prime seguono la seconda legge nella forma tradizionale di Carnot la loro efficienza massima è dettata da η=1-Tbassa/Talta

La altre no! Sono isoterme e dunque la temperatura non influenza la loro efficienza, ma invece lo fa il potenziale elettrico: η=Veff /Vequ per una cella elettrochimica. Le celle elettrochimiche e le batterie si fanno un baffo di Carnot.

Le giunzioni PN che sfruttano la luce si comportano come macchine termiche fra la T della sorgente e la T ambiente); le celle FV avrebbero una mostruosa efficienza (superiore al 90%) se potessero sfruttare TUTTA la radiazione in arrivo, ma di solito sono limitate ad un intervallo discreto e dunque la loro efficienza con la luce solare ed una giunzione PN singola non supera un modesto ma interessante 33.7% (il limite di Shockley–Queisser); se si mettono insieme più giunzioni diverse o si scelgono sorgenti diverse dal Sole le cose cambiano. Le celle multigiunzione arrivano ormai a superare il 45%! I LED possono addirittura arrivare ad efficienze teoriche si apure come ogni macchina che s rispetti a bassa intensità (https://phys.org/news/2012-03-efficiency.html).

Quando racconto queste cose ai miei studenti cerco di metterli in difficoltà il che non è difficile perché gli studenti raramente fondono insieme la visione termodinamica , chimica e quella della Fisica dello stato solido e dunque se chiedo:

ragazzi la Terra emette nell’IR tutta l’energia che riceve dal Sole, sia di giorno che di notte; allora come mai non posso mettere in cantina delle celle FV che siano centrate non sul visibile ma sull’IR e rivolte verso terra e ottenere energia elettrica in questo modo

rispondono:

si, buona idea, ma non ci sono i materiali adatti

Beh non è vero, ci sono le celle FV nell’IR e la loro efficienza sta rapidamente crescendo; ma il motivo è diverso; anche con i materiali migliori non potremo mai usare la Terra come sorgente IR nella nostra cantina, per un semplice motivo termodinamico; la T della sorgente terra sarebbe uguale a quella del ricevitore e allora l’efficienza termodinamica sarebbe nulla!

L’unica cosa che potremo fare è portare una aereo in stratosfera a -50°C ed applicare sotto le sue ali delle celle FV infrarosse; allora la loro efficienza teorica sarebbe η=1-Tbassa/Talta ossia circa il 22% non male!

Ma non è finita qui; cosa succederebbe se esponessimo una giunzione PN ad una sorgente più fredda di quella ambiente?

L’idea (del tutto geniale!) venne qualche anno fa

e dunque c’è un’altra via per convertire energia con una giunzione PN; invece di ottenere energia elettrica esponendo la giunzione ad una sorgente più calda si può ottenere energia esponendola ad una più fredda!

E questa “sorgente negativa” c’è sempre, è lo spazio, il nero del fondo cielo la cui temperatura è molto bassa, almeno 50 o più sottozero se si considera la quota stratosferica; in questo caso la corrente andrebbe non dalla porzione n alla porzione p, ma viceversa dalla p alla n; la cosa è stata fatta notare qualche tempo fa, accludo il lavoro e recentemente hanno fatto una celletta del genere (efficienza ridicola al momento); se usata verso lo spazio esterno da t ambiente farebbe anche oltre 50W/mq, ma di fatto il limte è “vedere” la sorgente fredda attraverso la copertura atmosferica il che si può fare solo in ristrette zone di frequenza; nel pratico al massimo farebbe il 4%, ma l’idea è comunque eccezionale, harvesting che sfrutta il calore ambiente e il suo spontaneo raffreddamento; idea del tutto eccezionale secondo me.

Recentemente han provato a costruirne una e, al di là delle sciocchezze che possiate aver letto sui giornali, la cosa è fattibile, ma al momento non utile praticamente. Guardate solo la immagine qua sotto e capirete subito il concetto;

(ricordiamo sempre che la corrente convenzionale è di cariche positive, dunque quella elettronica va in direzione opposta).

Qualunque sorgente sia esposta al diodo PN si realizza comunque un flusso di corrente!

Siamo arrivati alla fine di una rapida galoppata nel reame delle idee base dell’elettrochimica, ma forse da un punto di vista che non avevate esplorato mai così. Spero.

La nostra guida è stato un principio scoperto oltre 200 anni fa. Alessandro Volta, da qualche parte ci guarda sornione.

Castrazione “chimica”.

In evidenza

Claudio Della Volpe

Negli ultimi giorni i giornali hanno ripetutamente parlato di questo argomento; uno dei due vice presidenti del consiglio, durante la attuale campagna elettorale, ne ha parlato ripetutamente proponendo una legge a riguardo e pare da un sondaggio SWG che il 58% degli italiani sia favorevole, anche se non è chiaro bene a cosa siano favorevoli. Dato che il tema ha a che fare con la chimica mi sembra opportuno informare a riguardo per evitare confusione.

Cosa si intende per castrazione chimica?

Cominciamo dal dire che la castrazione in genere è l’atto di eliminare chirugicamente le gonadi maschili, l’atto corrispondente nel genere femminile (eliminazione delle ovaie) viene più pudicamente definito sterilizzazione e chirurgicamente è molto più invasivo. Entrambi vengono usati per motivi vari in specie animali e nella specie umana; di solito per impedire la riproduzione di animali ma anche solo per cambiarne il comportamento (il bue invece del toro, il cappone invece del gallo sono animali castrati e castrati in età precoce; cappone viene dal latino capo,-onis a sua volta dal verbo greco “κόπτω”, che significa “tagliare”).

L’esistenza di maschi castrati definiti eunuchi o castrati è stata diffusa nella storia della specie umana con varie motivazioni e si sa che induce modifiche notevoli nel corpo: voce, accumulo di grasso, comportamento si modificano; la castrazione è stata anche usata in particolare per indurre lo sviluppo di una voce canora di elevata qualità ed è presente nella nostra storia nazionale con riferimento alla storia della musica.

http://quinteparallele.net/2016/11/24/le-voci-senza-sesso-i-castrati/

Nel corso del XVIII secolo, circa centomila giovani ragazzi furono evirati per preservare le loro voci acute. Tra di loro, pochissimi riuscirono a salire all’Olimpo del bel canto, diventando i cantanti più famosi di quell’era, le prime vere e proprie superstar internazionali. Erano forse i performer più virtuosi mai sentiti sulla faccia della Terra: i castrati.

Chi era il castrato? Il termine castrato indica un tipo di cantante, molto in voga nel panorama operistico del XVII e XVIII secolo, che, non avendo sviluppato alcun carattere sessuale a seguito di un’evirazione precoce, aveva i riflessi e la potenza di una voce adulta e il timbro di una laringe da bambino. Eseguita prima della pubertà, la soppressione (o piuttosto l’annullazione delle funzioni) dei testicoli comprometteva l’apparizione dei caratteri sessuali principali e, in particolare, arrestava lo sviluppo della laringe. Mentre il corpo del giovane castrato cresceva, la mancanza di testosterone non permetteva alle articolazioni di irrigidirsi, perciò gli arti degli eunuchi spesso erano anormalmente lunghi, come anche le costole della loro cassa toracica. Queste particolarità anatomiche, a cui si aggiunge un intenso allenamento musicale, permettevano loro di avere un’impareggiabile potenza di voce e capacità di respiro.

Ritratto di Carlo Maria Broschi, detto Farinelli, che fu tra i più celebri cantanti castrati; il dipinto fu eseguito dall’amico Jacopo Amigoni nel 1750 e si trova a Madrid nella Real Academia de Bellas Artes de San Fernando

I castrati erano raramente chiamati con questo nome: nel XVIII secolo, veniva utilizzato più generalmente l’eufemismo musico, sebbene il termine contenesse delle implicazioni denigratorie; un altro sinonimo usato era evirato. La denominazione eunuco, invece, aveva un’accezione più generale, visto che storicamente parlando gli eunuchi venivano castrati dopo la pubertà e perciò il processo di evirazione non aveva alcun effetto sulla loro voce, già cambiata nella muta adolescenziale.

Castrati a scopi musicali esistettero e furono presenti in cori vaticani fino al 1902. Dunque questo atto così invasivo dal nostro punto di vista è in realtà un atto usato ampiamente in passato e anche nel nostro paese. Noto di passaggio che l’articolo che ho citato sostiene che la castrazione fisica non obbligava la persona né ad una vita omosessuale come qualcuno pensa e nemmeno a non poter avere una normale vita sessuale, con persone dell’altro sesso; dunque perfino la castrazione fisica non impedisce, né vieta di provare desiderio sessuale per l’altro sesso e di realizzare tale desiderio.

Ma pochi sanno che la castrazione fisica è usata ancora oggi in Europa e in Occidente seppure con scopi affatto diversi.

Man mano che la cultura si sviluppava si è compreso che una azione del genere era inaccettabile eticamente; ma sono rimasti dei casi in cui essa è considerata possibile ed è di fatto attuata; nel lavoro citato nei riferimenti si dice:

Though its use has declined, surgical castration of sex offenders still occurs, including in the West. At present, voluntary surgical castration of sex offenders is legal in California, Florida, Iowa, Louisiana, and Texas (del Busto and Harlow 2011). In Europe, it has remained in limited use in Germany and more widespread use in the Czech Republic, where, between 2001 and 2006, more than 50 sex offenders underwent surgical castration (European Committee for the Prevention of Torture 2009).

Dunque la castrazione fisica è ancora usata ma come mezzo di difesa sociale contro coloro che mostrino comportamenti sessualmente aggressivi nei confronti di minori o in genere (questo il senso di sex offender).

Con lo sviluppo delle conoscenze mediche e biologiche si è capito che si potevano trovare alternative a questo tipo di strategia; e lo si è fatto in passato anche recente per motivi che oggi considereremmo assolutamente abietti.

Basti ricordare il caso di Alain Turing.

Turing è stato uno dei maggiori scienziati nel campo dell’informatica, e probabilmente il più grande informatico moderno ed uno dei maggiori matematici del 900; potete leggere un mio breve articolo di qualche anno comparso su XlaTangente, in cui insieme al collega Stefano Siboni avevo cercato di raccontare i rapporti fra Turing, la matematica e la chimica: http://www.xlatangente.it/upload/files/margheritesito.pdf

Turing era omosessuale; era anche un genio matematico che contribuì in modo determinante alla vittoria alleata nella 2 guerra mondiale scoprendo il meccanismo di funzionamento di Enigma, la macchina tedesca che cifrava i messaggi usati per dare ordini all’armata tedesca. Dopo aver contribuito in segreto alla vittoria, qualche anno dopo, fu accusato di omosessualità, considerata un reato nell’Inghilterra postbellica. Fu costretto a scegliere tra una pena a due anni di carcere o la castrazione chimica mediante assunzione di estrogeni. Per non finire in prigione, lo scienziato optò per la seconda alternativa. Per oltre un anno si sottopose a trattamenti che provocarono in lui un calo della libido e lo sviluppo del seno (ginecomastia). La depressione legata al trattamento e all’umiliazione subita fu, a parere di molti storici, il motivo che lo condusse, il 7 giugno 1954, al suicidio.

E veniamo alla castrazione chimica, considerata oggi.

E’ un argomento ampio e complesso anche perchè sconfina con il controllo riproduttivo più in generale.

Anzitutto diciamo che interventi che impediscano la procreazione degli animali compresa la specie umana attraverso l’uso di sostanze apposite ce ne sono; da questo punto di vista anche l’uso della pillola anticoncezionale femminile entra in questa definizione. Ci sono sostanze che inibiscono parti del processo di riproduzione sia nel maschio che nella femmina; nella femmina inibiscono per esempio l’attaccamento dell’ovulo fecondato ai tessuti appositi, nel maschio invece abbassano il tasso di uno degli ormoni chiave che controlla la risposta sessuale, il testosterone e dunque inibiscono all’origine il desiderio sessuale; si tratta sempre di trattamenti reversibili; nel maschio di cane per esempio l’iniezione dura sei mesi, poi bisogna ripeterla e costa quanto una “castrazione fisica”.

Ma cosa avviene nella specie umana?

Qui il discorso cambia perchè la castrazione chimica a differenza del semplice controllo riproduttivo è inteso come un trattamento con sostanze di sintesi che inibisca NON la capacità riproduttiva, che anzi rimane, ma che controlli il desiderio sessuale e la sua messa in atto nei confronti specialmente di persone che per la loro condizione (minori o donne o perfino maschi in alcune circostanze) non riescano a difendersi da atti sessuali indesiderati.

Abbiamo già notato che perfino la castrazione fisica non impedisce necessariamente il desiderio e la sua attuazione, ma in effetti impedisce la sola riproduzione; e questo limite si accompagna anche alle procedure che usano inibitori di sintesi del comportamento sessuale.

Nella situazione più comune si desidera controllare la riproduzione umana senza conseguenze sul desiderio sia nell’uomo che nella donna; sappiamo che nella donna la sintesi chimica ha ottenuto il risultato perfetto con la cosiddetta “pillola”; la pillola nell’uomo, il “pillolo” viceversa che disgiunga la capacità riproduttiva dal desiderio non è ancora in commercio, ma si prova a sintetizzarlo; al contrario esistono prodotti che inducono e mantengono l’erezione, dunque una sorta di sottoprodotto del desiderio a qualunque età.

Qua invece stiamo parlando di una cosa ancora diversa: eliminare il solo desiderio ed in modo certo essenzialmente nell’uomo.

Il risultato, benchè largamente imperfetto può essere raggiunto usando vari tipi di molecole come

– dal 1960 medrossiprogesterone acetato (MPA) o ciproterone acetato (CPA), con MPA usato negli USA e il CPA in Europa, Medio oriente e Canadà; entrambi hanno potenti effetti collaterali ed uno è sospettato di essere cancerogeno.

Ciproterone acetato

Medrossiprogesterone acetato

Dal 1980 si è aggiunta la classe degli SSRI (selective serotonin reuptake inhibitors). Usati inizialmente nel trattare la depressione possono essere usati anche nei casi più lievi di sex offenders.

Paroxetina

Ed infine ci sono nuovi agenti ormonali—gonadotrophin-releasing hormone (GnRH) agonists—usati essenzialmente nel cancro della prostata ma che riducono fortemente il livello di testosterone e possono essere usati nella diminuzione reversibile dell’aggressività sessuale nei soggetti responsabili di questi comportamenti.

Nafarelina

Ci sono però almeno due considerazioni:

  • queste sostanze come tutte le medicine non sono onnipotenti, ossia sono efficaci solo in un certo numero di casi, devono essere somministrate in continuazione e secondo la maggioranza dei medici usate INSIEME ad un trattamento psicologico, ad un controllo continuo del comportamento effettivo della persona poichè potrebbero anche fallire sia pure in una percentuale ridotta di casi;
  • inoltre come tutte le medicine hanno effetti collaterali anche gravi e significativi di vario genere; per esempio riguardo la struttura ossea ma anche la circolazione sanguigna, dati gli effetti molteplici del testosterone

In conclusione il trattamento denominato “castrazione chimica” non è una soluzione perfetta, ha un costo di gestione e non può essere usato da solo oltre a poter indurre effetti collaterali indesiderati che pongono vari problemi etici.

Io non esprimo un giudizio sul tema, ma penso che sarebbe utile che quando si chiede il giudizio alle persone (come ha fatto SGW) sarebbe il caso che le persone siano informate con precisione dei problemi; e lasciatemi dubitare che questo sia vero per la maggioranza della popolazione italiana per la quale la chimica oscilla fra la nemica perenne e la pillola magica, immagini entrambe completamente sbagliate. E’ forse il caso che noi si contribuisca almeno ad informare la popolazione.

Riferimenti

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3824348/

 

http://www.psicologiagiuridica.com/pub/docs/numero_14/articoli/la%20castrazione%20chimica%20-%20Annamaria%20Faraudo.pdf

 

Le prime molecole dell’universo finalmente trovate nello spazio

In evidenza

Rinaldo Cervellati.

Il titolo che abbiamo usato è il titolo sensazionale con cui Sam Lemonik annuncia, nel numero del 17 aprile di Chemistry & Engineering newsletter, la scoperta della molecola-ione HeH+ nel mezzo interstellare della nebulosa planetaria[1] NGC 7027, situata a circa 3000 anni luce dalla Terra. La luce di questa “piccola” nebulosa (dimensioni 0.1x 0.2 anni luce)[2] è visibile puntando un telescopio (di almeno 120-150 mm di apertura) verso la costellazione del Cigno, 5° a sud-ovest di Deneb, la stella più brillante del Cigno.

A sinistra: NGC 7027 a forte ingrandimento; a destra: la stessa al telescopio120-150 mm

L’osservazione della molecola-ione HeH+, a lungo cercata, può migliorare i modelli astrochimici dell’universo.

Si ritiene che circa 380.000 anni dopo il Big Bang, il plasma che formava l’universo primordiale si raffreddò abbastanza da permettere ai nuclei e agli elettroni di iniziare a combinarsi. L’elio fu il primo atomo a formarsi e i suoi atomi si unirono abbastanza presto con i protoni (nuclei di idrogeno) per formare la prima molecola-ione dell’universo, l’idruro di elio (HeH+).

L’idruro di elio HeH+ fu sintetizzato dai chimici in laboratorio già nel 1925, ma fu solo negli anni ’70 del secolo scorso che gli scienziati suggerirono che potesse trovarsi nel mezzo interstellare dello spazio. Quattro decenni dopo, un gruppo internazionale di astrofisici, coordinato dal Dr. Rolf Güsten riporta di averlo finalmente osservato nella nebula NGC 7027 (R. Güsten et al., Astrophysical detection of the helium hydride ion HeH+, Nature, 2019, DOI: 10.1038/s41586-019-1090-x).

Rolf Güsten

L’incapacità di individuare HeH+ era stata un vero grattacapo per il fisico dell’Università della Georgia Phillip Stancil, uno degli autori di un articolo del 2002 in cui, sulla base di calcoli basati su dati combinati di fisica atomica e molecolare e di astrofisica, veniva prevista HeH+ come prima molecola-ione formatasi nell’universo[3] [1].

Phillip Stancil

Stancil affermò che non si potevano sostenere modelli astrochimici senza riscontri sperimentali su HeH+. Ora, dice, finalmente si può.

Rolf Güsten e collaboratori hanno identificato una linea spettrale caratteristica di HeH+ nelle osservazioni della nebulosa planetaria NGC 7027, uno dei luoghi in cui era probabilmente ritenuta possibile l’esistenza di HeH+. Per l’esattezza è stata identificata la transizione rotazionale J = 1−0 dello stato fondamentale della molecola-ione a 149,137 μm. (2.01018 THz).

Alcuni fattori hanno ostacolato i precedenti tentativi di osservare HeH+, il primo dei quali è la sua relativa scarsità. Una transizione del legame carbonio-idrogeno a 149,09 μm maschera spesso questo segnale, oscurato anche dall’acqua e da altre molecole nell’atmosfera terrestre, rendendo improbabili le osservazioni dalla Terra.

Nell’ambito del progetto SOFIA (Stratospheric Observatory for Infrared Astronomy) dell’ente spaziale americano NASA, i ricercatori coordinati da Rolf Güsten hanno montato su un Boeing 747SP opportunamente modificato, il recente spettrometro eterodina GREAT (German Receiver for Astronomy at Terahertz Frequencies). L’aereo vola nella stratosfera, che blocca il 99% delle radiazioni infrarosse dalla Terra all’atmosfera, a un’altitudine fra 11000 e 14000 metri.

Il Boeing 747SP di SOFIA mentre vola sopra le montagne della Sierra Nevada. Notare la porta del vano per il GREAT

Lo spettrometro GREAT confronta la luce in ingresso con una luce di riferimento, una tecnica che ne aumenta la sensibilità. I ricercatori sono stati così in grado di distinguere la frequenza della transizione di HeH+ da quella del legame C-H.

“È stata una lunga ricerca”, afferma Jérôme Loreau, un fisico che ha sviluppato modelli di come HeH+ e altre molecole si siano sviluppate nell’universo primordiale. Una delle ragioni per cui questa osservazione è interessante, dice, “è che c’è una discrepanza tra l’abbondanza prevista di HeH+ e l’abbondanza osservata”. Sulla base delle loro osservazioni, il gruppo di Güsten ha infatti calcolato un’abbondanza di HeH+ di un fattore 3 più elevata di quanto previsto dai modelli disponibili per le reazioni chimiche nello spazio.

Questa discrepanza indica margini di miglioramento nei modelli astrofisici, afferma Loreau: “Mi aspetto che i modelli dell’universo primitivo cambieranno”. Güsten è d’accordo.

Stancil è meno sicuro. Informa di aver già pianificato con un collega il ricalcolo della velocità di reazione per HeH+ alla luce di questo risultato. Ma sostiene che i calcoli di molti ricercatori richiedono molte assunzioni che potrebbero nascondere qualcosa che non è stata ancora pienamente compresa. Ciononostante, afferma che questa scoperta potrebbe stimolare nuovi modelli e lavori di laboratorio per migliorare la comprensione della chimica nello spazio e nell’universo primordiale.

Articolo tradotto e ampliato da c&en del 17 aprile 2018.

Bibliografia

[1] S. Lepp, P.C. Stancil, A. Dalgarno, Atomic and molecular processes in the early Universe, J. Phys. B: At. Mol. Opt. Phys., 2002, 35, R57–R80.

[1]Una nebulosa planetaria è un tipo di nebulosa a emissione costituita da un guscio di gas ionizzato in espansione, incandescente, espulso dalle stelle giganti rosse al termine delle loro vite. Il termine “planetarie” fu coniato dal loro scopritore, l’astronomo William Herschel (1738-1922), ma in realtà esse spesso contengono stelle ma non pianeti visibili. Successivamente fu dimostrato che queste nebulose erano “piccole” galassie.

[2] La dimensione tipica per una nebulosa planetaria è di 1 anno luce.

[3]La prima molecola neutra formatasi nell’universo è stata l’idrogeno molecolare H2 e rimane il più abbondante [1].

La tavola periodica sottosopra.

In evidenza

Claudio Della Volpe

Un recente articolo comparso su Nature Chemistry pone il problema di una ulteriore rivisitazione della Tavola periodica.

(Nature Chemistry | VOL 11 | MAY 2019 | 391–393 | http://www.nature.com/naturechemistry )

L’idea di base è che quando una persona guarda la Tavola non ne coglie subito la struttura e non ne riesce a coprire con un solo sguardo molti degli elementi; inoltre dato che l’idea che sta alla base alla tavola è quella del riempimento degli orbitali, l’aufbau, detto in tedesco, il riempimento di una cosa avviene dal basso verso l’alto; mentre l’attuale tavola è più una lista che si forma appunto scrivendo da sinistra a destra ma in direzione verticale opposta, cioè dall’alto verso il basso.

Dunque una tavola considerata come un contenitore da riempire di elettroni dal basso verso l’alto contro una tavola considerata come una lista e scritta invece dall’alto verso il basso. La tavola attuale è una lista; viene proposto un contenitore.

Contemporaneamente si pone anche il problema della posizione degli elementi di tipo f che vengono rappresentati separatamente; nella classica rappresentazione essi quasi scompaiono essendo elencati nella parte più bassa della Tavola, anzi al di sotto della Tavola, mentre in questo modo essi acquisterebbero una posizione centrale, il che non guasta pensando al ruolo che hanno in termini di tecnologia.

In alternativa, come mostrato qui sotto si può pensare ad una tavola extra-large che li mette nel posto a loro naturale, ma ovviamente a costo di avere bisogno di un foglio molto più largo che lungo.

L’articolo è supportato da una analisi basata su gruppi di persone a cui la proposta è stata fatta, sia fra gli specialisti che fra i non specialisti e sulle loro reazioni.

E’ una delle tante proposte che sarà dimenticata o invece che cambierà il nostro modo di vedere la tavola periodica?

A voi i commenti.

Cocaina e biodiversità

In evidenza

Mauro Icardi

In questi giorni, partendo dai quotidiani, del Regno Unito, ma ovviamente a seguire anche su quelli Italiani, si può leggere questa notizia.

https://www.repubblica.it/ambiente/2019/05/02/news/regno_unito_cocaina_e_ketamina_nei_gamberi-225322595/

Se si continuano le ricerche, si trovano rimandi a notizie dello stesso tenore che ogni tanto ritornano sulle pagine dei giornali. Nel corso degli ultimi anni con una allarmante frequenza. E si parla sempre di cocaina nei fiumi, ma anche dei residui di metaboliti di farmaci. Questi fenomeni entrano a far parte del vasto problema della diffusione nell’ambiente di prodotti di difficile, se non impossibile biodegradabilità con i processi biochimici di autodepurazione svolti da batteri o protozoi.

I ricercatori di varie istituzioni scientifiche europee hanno condotto negli anni diverse campagne di monitoraggio, in collaborazione con i gestori degli impianti di depurazione. Su questo blog ne abbiamo parlato, cercando di indicare le soluzioni tecniche praticabili, da adottarsi in tempi rapidi.

Una volta che la cocaina è stata assunta e assorbita dall’organismo, avviene una prima idrolisi del gruppo metilico con produzione di benzoilecgonina (principale metabolita) e metanolo. Una seconda idrolisi trasforma la benzoilecgonina in ecgonina ed acido benzoico. Quest’ultimo viene poi trasformato in acido ippurico. Parte della sostanza stupefacente viene invece escreta tal quale nelle urine. Il metabolismo porta sostanzialmente a rendere il farmaco idrofilo ai fini dell’escrezione ed avviene principalmente nel fegato, che sviluppa enzimi per questo scopo.

Uno studio condotto dai ricercatori dell’Università Federico II di Napoli, e pubblicato sulla rivista Science of the total environment ha voluto verificare gli effetti della cocaina sulle anguille.

150 anguille europee sono state poste in vasche che contenevano una concentrazione di 20ng/lt di cocaina per un tempo di 5 giorni. Sono state scelte le anguille perché essendo pesci con una forte componente di grassi sono, più soggette ai meccanismi di bioaccumulo di sostanze nocive.

I ricercatori hanno scoperto che la cocaina si era accumulata nel cervello, nelle branchie, nella pelle e soprattutto nei muscoli di questi pesci. Problemi che si sono verificati anche dopo un periodo di riabilitazione di 10 giorni, in cui i ricercatori hanno rimosso le anguille dall’acqua contaminata dalla cocaina.Lo studio ha anche evidenziato che la cocaina ha aumentato i livelli di cortisolo, un ormone dello stress che induce il consumo di grassi. Dato particolarmente preoccupante visto che le anguille hanno bisogno di accumulare grasso prima del loro lungo viaggio verso il Mar dei Sargassi. Inoltre, i ricercatori hanno notato gravi lesioni e rotture del tessuto muscolare, suggerendo quindi che la cocaina, a concentrazioni ambientali, potrebbe compromettere seriamente il nuoto di questi pesci.

Secondo lo studio, la cocaina sarebbe solo una parte del problema. Le acque dei fiumi, infatti, contengono anche residui di altre droghe, metalli pesanti, antibiotici e pesticidi.  Anna Capaldo, coordinatrice del progetto conclude con queste parole “Non sappiamo le possibili conseguenze di tali combinazioni di sostanze, ma è chiaro che potrebbero influenzare la sopravvivenza e lo stato di salute delle anguille” E conclude dicendo che, poiché è altamente improbabile che l’abuso di droghe diminuisca in tempi rapidi, il problema potrebbe essere risolto con trattamenti delle acque reflue molto più efficienti che impediscano a queste sostanze di raggiungere gli ecosistemi marini.

Dagli anni Ottanta ad oggi la popolazione di anguilla europea si sarebbe ridotta  del 99 per cento. Le cause principali sono ormai le solite, tristemente note e sottovalutate: cambiamenti climatici, inquinamento diffuso. Ora lo studio partenopeo (e anche quello britannico relativo ai fiumi inglesi), fa squillare un nuovo campanello d’allarme.

Mentre si deplora l’assassinio di massa perpetrato sugli animali marini grazie ai sacchetti di plastica, ecco la scomparsa programmata delle anguille e la contaminazione dei gamberi di fiume, dovuta alla moda dello “sniffo” diffusa ed ubiquitaria.

La biodiversità, la qualità delle acque sempre più minacciata dal più sciocco dei comportamenti umani. Cioè quello della superficialità, del consumismo, della moda e dell’accettazione sociale. Non ho mai voluto assumere atteggiamenti moralisti, e ancora oggi cerco di esserne scevro. Ma l’atteggiamento modaiolo relativo al consumo degli stupefacenti mi ha sempre fatto provare un certo fastidio.

Nell’Ottobre del 2017 seguii la conferenza di Marco Vincenti chimico dell’Università di Torino e del centro antidoping regionale della regione Piemonte. Il titolo era illuminante. “ Nuove droghe, istruzioni per il non uso”.

Una conoscenza dei meccanismi che concorrono all’intossicazione, all’instaurarsi dei fenomeni di dipendenza, e quindi di declino intellettuale e fisico dei consumatori di sostanze stupefacenti sarebbe utile.

Doveroso direi. Sono le conoscenze che servono. Non serve una mitizzazione dell’uso di droghe, cosa che constato quando sento parlare delle mirabolanti virtù di potenza sessuale che darebbe la cocaina. Non è certamente pensabile un calo del consumo di sostanze stupefacenti in tempi rapidi. Anna Capaldo dice una triste verità. Chi si occupa di gestione del ciclo idrico sta già affrontando il problema da anni, almeno a livello di presa di coscienza. Delle ricerche fatte in collaborazione con l’Istituto Mario Negri, ed eseguite sul depuratore di Varese ho già scritto. Delle conseguenze forse sarebbe il caso ci occupassimo tutti. Noi addetti, ma soprattutto noi persone. Cittadini, genitori. Se solo per una volta si desse retta alla chimica, alla tossicologia. Non al “pensiero magico” che pretenderebbe che il consumo di stupefacenti non dia conseguenze. Primo fra tutti il mito molto diffuso che la cocaina non dia assuefazione. E le stesse considerazioni valgono per l’uso smodato ed indiscriminato di farmaci. La qualità delle acque è sotto forte stress. Qualche volta il problema non è solo di altri. Spesso è anche nostro, di noi singoli. Delle resistenze ad assumere comportamenti semplicemente di buon senso. In ossequio ad una specie di epidemia di rifiuto collettivo della realtà. Di cui lo smodato uso di droghe, ma anche di alcol è il segnale più evidente.

Riferimenti.

https://www.sciencedirect.com/science/article/pii/S0048969718320084

Yvette Cauchois (1908 – 1999)

In evidenza

Rinaldo Cervellati

Yvette Cauchois è stata un chimico fisico francese, nota per i suoi fondamentali contributi in spettrografia a raggi X e pioniera europea nella ricerca con il sincrotrone.

Yvette nacque il 19 dicembre 1908 a Parigi, dove frequentò scuola primaria e liceo, dimostrando fin da bambina uno spiccato interesse per le scienze, in particolare fisica e chimica. Fu quindi ammessa all’Università della Sorbona, dove ottenne il baccalauréat (analogo all’inglese bachelor) in scienze fisiche nel 1928. Per proseguire gli studi vinse una borsa di ricerca che utilizzò nel Laboratorio di Chimica Fisica a quel tempo diretto da Jean Perrin[1].

Yvette Cauchois da giovane

Nel luglio del 1933, all’età di 24 anni, Yvette Cauchois discusse la tesi di dottorato dal titolo “Extension de la spectroscopie des rayons X. Spectrographe à focalisation par cristal courbé; spectre d’émission X des gaz”. Nel nuovo spettrografo a raggi X descritto nella tesi di Cauchois, i raggi X sono riflessi dalle facce di una lamina cristallina (mica o gesso) sagomata cilindricamente, per ottenere una forte luminosità: in queste condizioni la radiazione emessa da un’ampia sorgente si concentra in punti diversi del cilindro detto di focalizzazione quindi inviata al rilevatore.

Lo spettrometro di Cauchois ha il triplice vantaggio di essere estremamente luminoso, di avere una risoluzione elevata e di essere facile da maneggiare. Esso permette di ottenere fasci di raggi X intensi, monocromatici e convergenti da fasci incidenti a bassa risoluzione. Con questo spettrometro, Yvette Cauchois è la prima a osservare gli spettri di emissione di alcuni gas.

Presto i laboratori specializzati in Europa, Stati Uniti, Giappone e Australia cominciarono a usare questo spettrometro per studiare la struttura di solidi e gas ai raggi X, portando a un rapido sviluppo della fisica di questa radiazione. Ottenuto il dottorato, Cauchois divenne assistente ricercatore al CNRS (Centre National de la Recherche Scientifique), estendendo l’applicazione della spettroscopia a raggi X allo studio degli atomi, degli elementi radioattivi e della struttura elettronica dei solidi. Nel 1937 diventò responsabile di ricerca, l’anno successivo coordinatore dei lavori al Laboratorio di Chimica della Sorbona. Durante la seconda guerra mondiale fu incaricata dell’insegnamento di Chimica Fisica e responsabile della gestione dello stesso Laboratorio.

Yvette Cauchois

In tutto questo periodo pubblicò molti lavori di ricerca, i principali riportati in bibliografia [1- 4].

Ha determinato i livelli energetici di atomi e ioni provenienti dall’espulsione di elettroni di un guscio interno per provare l’esistenza di elementi rari come il polonio e l’astato e sviluppare la spettroscopia degli attinidi. Dopo essere diventata il capo del laboratorio di chimica fisica si concentrò sull’argomento dell’assorbimento ed emissione di raggi X nei solidi e degli effetti chimici sugli spettri di raggi X [5-9].

Nel 1945 divenne docente, poi professore nel 1951 e infine nel 1953 titolare della cattedra di Chimica fisica che fu di Jean Perrin.

Yvette Cauchois in laboratorio

In Europa, Cauchois fu la prima a utilizzare e sviluppare e sorgenti di luce di sincrotrone, prima ai Laboratori Nazionali di Frascati (Roma) dal 1963 al 1964, e nei primi anni ’70 alla LURE (Laboratorio per l’Uso della Radiazione Elettromagnetica) a Orsay, Francia [10].

Cauchois si interessò anche di raggi X extraterrestri. Il suo laboratorio di chimica fisica in collaborazione con astrofisici portò, nel 1970, all’ottenimento di immagini a raggi X del sole.

Cauchois ha dato importanti contributi alla produzione di fasci elettronici per studiarne l’interazione con la materia e alla ricerca sulla risonanza fluorescente nucleare. Sotto la sua guida, il Laboratorio di chimica fisica è stato, per molto tempo, l’unico centro francese impegnato nella ricerca di base in spettroscopia a raggi X.

Yvette Cauchois in età matura

Ha ideato un eccellente programma di insegnamento della chimica fisica moderna circondandosi di colleghi competenti in ogni disciplina che erano dispersi tra molti laboratori in Francia e all’estero. Quando negli anni ‘60 il laboratorio in Rue Pierre et Marie Curie a Parigi diventò troppo piccolo, fondò un Centro per la Chimica Fisica a Orsay, molto prima della fusione fra l’Université Pierre et Marie Curie (UPMC) e la Paris Sorbonne nella nuova Sorbonne Université di Parigi.

Dal 1978 fino al suo pensionamento nel 1983, Yvette Cauchois è stata professore emerito presso l’UPMC, continuando a fare ricerca fino al 1992, all’età di 83 anni. Nel corso della sua vita ha prodotto più di 200 pubblicazioni, alcune delle quali continuano a essere citate ancora oggi.

È stata la seconda donna, dopo Marie Curie, a diventare Presidente della Società Francese di Chimica Fisica.

Ha vinto numerosi premi nazionali e internazionali È stata insignita dell’Ordine della Legion d’Onore e Ufficiale dell’Ordine Nazionale del Merito. Medaglia d’oro dell’Università di Parigi nel 1987.

Yvette Cauchois non è stata solo una scienziata in un periodo in cui le donne trovavano molte difficoltà a impegnarsi in questo settore, essa mostrò grande interesse per giovani svantaggiati cui ha fornito aiuto emotivo e supporto materiale. Oltre alla scienza amava la musica (suonava il pianoforte a coda) e le arti.

Yvette Cauchois è morta a Parigi nel 1999 per bronchite contratta durante un viaggio al monastero di Bârsana (Romania), dove è stata sepolta.

Opere consultate

  1. Bonnelle, Yvette Cauchois, Physics Today, 2001,54(4) 88–89.

Quelques portraits Cauchois Yvette,

http://ww2.ac-poitiers.fr/sc_phys/spip.php?article42&debut_page=4

Yvette Cauchois 1908-1999

http://cwp.library.ucla.edu/Phase2/Cauchois,_Yvette@871234567.html

 

Bibliografia

[1] Y. Cauchois, Spectrographie des rayons X par transmission d’un faisceau non canalisé à travers un cristal courbé, Journal de Physique, 1932VII (3), 320; also ibid., 1933, 4, 61.

[2] Y. Cauchois, I. Manescu, Spectres d’absorption et niveaux caractéristiques de l’uranium, du platine, et du tungstene, Comptes Rendus, 1940210 (part 1), 172.

[3] Y. Cauchois, Les niveaux extérieurs des atomes lourds révélés par leurs spectres de rayons X de grande fréquence, Journal de Physique, 1942XIII (3), 5S.

[4] Y. Cauchois, Observations nouvelles sur les émissions X hor-diagramme, de la série L – Application à une première détermination expérimentale, par spectrographie cristalline, des états d’ionisation profonde multiple des atomes lourds Journal de Physique, 1944VIII (5), 1.

[5] Y. Cauchois, N.F. Mott The Interpretation of X-Ray Absorption Spectra of Solids, Philosophical Magazine, 1949, 40, 1260.

[6] Y. Cauchois, Sur la formation d’images avec les rayons X, Revue d’optique, 1950,  29, 151.

[7] Y. Cauchois, The L Spectra of Nickel and Copper, Philosphical Magazine, 195344, 173.

[8] Y. Cauchois, Les niveaux d’énergie des atomes lourds, Journal de Physique, 1953, 13, 113 .

[9] Y. Cauchois, Les niveaux d’énergie des atomes de numéro atomique inférieure à 70, Journal de Physique, 1955, 16, 233.

[10] Y. Cauchois, C. Bonnelle, G. Missoni, Premiers spectres X du synchrotron de Frascati, Comptes Rendus de l’Académie de Sciences, 1963, 257, 409.

[1] Jean Baptiste Perrin (1870-1942) è stato un fisico francese. Iniziò la carriera scientifica studiando i raggi catodici e i raggi X. Nel 1897 gli fu affidato l’incarico di lettore di chimica fisica alla Sorbona. Divenne professore di quell’università nel 1910 mantenendo questo ruolo fino a dopo l’occupazione tedesca. Nel 1942 si trasferì negli USA. Determinò la costante di Avogadro. Il suo libro più noto, Les atomes (1912), è stato tradotto anche in italiano: Gli atomi, Editori Riuniti, Roma, 1981. Premio Nobel per la fisica 1926 “per il suo lavoro sulla struttura discontinua della materia, e specialmente per la sua scoperta dell’equilibrio di sedimentazione”.

Elementi della Tavola Periodica: Radon, Rn

In evidenza

 

Alessandro Del Zotto*.

Caratteristiche fisiche e chimiche del radon

 Il radon è un gas radioattivo, incolore e inodore, prodotto dal decadimento a del radio, presente in quantità più o meno elevata, ma comunque ubiquitario, nella crosta terrestre. Il radio, a sua volta, proviene dall’uranio o dal torio, due dei più importanti radionuclidi primordiali.

Del radon si conoscono 26 isotopi che vanno dal 199Rn al 226Rn, solo tre dei quali sono però presenti in natura:

  • il 219Rn (o actinon) appartiene alla famiglia radioattiva che ha come progenitore l’235U (0.72% di abbondanza relativa, t1/2 = 04.108 anni). La scarsa abbondanza relativa del 219Rn, assieme al brevissimo tempo di dimezzamento (ca. 4 s) ne determina il basso o quasi nullo impatto a livello ambientale
  • il 220Rn (o thoron) appartiene alla famiglia radioattiva del torio. L’abbondanza relativa del 232Th nella crosta terrestre è alta ma il breve tempo di dimezzamento del 220Rn (61 secondi) ne limita fortemente la diffusione in ambiente. La sua concentrazione può raggiungere livelli apprezzabili solo in prossimità dei materiali da cui viene prodotto
  • il 222Rn (o radon propriamente detto) appartiene alla famiglia radioattiva dell’238 L’elevata abbondanza relativa di tale capostipite (99.28%), associata al relativamente lungo tempo di dimezzamento del 222Rn (3.82 giorni), rende tale radionuclide abbondante in natura e facilmente misurabile.

Tutti e tre gli isotopi naturali del radon decadono, emettendo particelle a, e producono “discendenti” radioattivi a vita breve. Questi ultimi, a loro volta, decadono emettendo radiazioni a o β⁻ accompagnate da emissione di fotoni γ. Tutte e tre le catene di decadimento terminano con un isotopo stabile del piombo: rispettivamente il 207Pb per la serie radioattiva dell’235U, il 208Pb per la serie radioattiva del torio e il 206Pb per la serie radioattiva dell’238U. Va precisato che gli isotopi del radon sono gli unici elementi delle tre serie radioattive a essere gassosi, tutti gli altri elementi sono solidi metallici.

Per le caratteristiche sopra menzionate, la famiglia radioattiva di maggior interesse radioprotezionistico è quella dell’238U. Nel seguito, pertanto, con il termine radon si intenderà unicamente l’isotopo 222Rn.

Chimicamente il radon è uno dei gas nobili, gruppo a cui appartengono elio (He), neon (Ne), argon (Ar), kripton (Kr) e xeno (Xe), e come essi presenta gli orbitali atomici esterni completamente riempiti. Date queste caratteristiche, il radon risulta essere relativamente inerte, ossia è coinvolto soltanto in deboli interazioni dovute alle forze di van der Waals. Tale proprietà gli conferisce la capacità di migrare liberamente nel suolo una volta raggiunti gli spazi interstiziali. A questo punto è facilmente trasportabile nell’aria e nell’acqua e quindi può raggiungere velocemente (relativamente al suo tempo di dimezzamento) gli edifici prima di decadere. Rispetto agli altri gas nobili, esso risulta essere il più pesante (ca. 8 volte più denso dell’aria) e inoltre possiede il punto di ebollizione, il punto di fusione, la temperatura critica e la pressione critica più elevati. È solo moderatamente solubile in acqua. A una temperatura di 20 °C il coefficiente di solubilità è 0.250: ciò significa che il radon si distribuisce preferibilmente in aria piuttosto che in acqua. Il radon, infatti, fuoriesce facilmente dall’acqua facendovi gorgogliare dell’aria, oppure semplicemente agitandola vigorosamente o riscaldandola. Anche nel caso di una sorgente dove l’acqua scaturisce dalla roccia, la maggior parte del radon si volatilizza velocemente. Il coefficiente di solubilità, inoltre, aumenta all’abbassarsi della temperatura, il che gli consente, se le condizioni sono favorevoli, di allontanarsi anche di molto dal luogo in cui è stato generato.

Principali caratteristiche chimico-fisiche del 222Rn: numero atomico, 86; massa atomica, 222.02 u.m.a.; nucleo genitore, 226Ra; nucleo figlio, 218Po; densità a 0 °C e 1 atm, 9.72 g/l; coefficiente di solubilità in acqua, 0.570 (0 °C), 0.250 (20 °C), 0.106 (100 °C); temperatura di fusione, -71.0 °C; temperatura di ebollizione, -61.8 °C; energia del decadimento a, 5.5 MeV.

L’unità di misura della concentrazione di radon in aria, secondo il Sistema Internazionale delle Unità di Misura è il Bq/m3 (Becquerel per metro cubo) che rappresenta il numero di disintegrazioni nucleari che avvengono in un secondo in un metro cubo d’aria. Quindi, a esempio, una concentrazione di 100 Bq/m3 indica che, in un metro cubo di aria, ogni secondo, 100 atomi di radon decadono emettendo radiazioni. È stata utilizzata in passato l’unità di misura picoCurie per litro (pCi/L), equivalente a 37 Bq/m3, che ancora oggi trova impiego nei paesi anglosassoni.

Cenni storici

Nel sedicesimo secolo Paracelso aveva notato l’alta mortalità dovuta a malattie polmonari tra i lavoratori delle miniere sotterranee di Schneeberg, in Sassonia (Germania). Tali malattie, da lui etichettate come “mala metallorum”, sono oggi conosciute con il termine di Schneeberg lungenkrankheit, cioè malattia al polmone di Schneeberg. La presenza di questa malattia, nei due secoli successivi, andò intensificandosi con l’intensificarsi dello sfruttamento delle miniere di argento, rame e cobalto ma solo nel 1879 fu riconosciuta da Haerting e Hesse come cancro ai polmoni. I due studiosi riferiscono che in quel periodo il 75% dei minatori della regione di Schneeberg moriva di cancro polmonare.

Si riteneva che tale patologia fosse causata dall’inalazione di polveri minerarie contenenti metalli tossici e che, tra le cause che contribuivano alla cancerogenesi, si dovessero includere anche malattie tubercolari e la presenza di arsenico nelle polveri.

Nel 1901, a seguito di una serie di misurazioni, venne rilevata una significativa concentrazione di gas radon nelle miniere di Schneeberg e di altre regioni, pertanto si cominciò a ipotizzare una correlazione tra questo gas e il cancro polmonare. Questa ipotesi fu rafforzata da più accurate misure compiute nel 1920 nelle miniere di Schneeberg e in altre, in particolare quelle di Jachymov in Boemia. Comunque, il ruolo del radon come fattore causale non venne generalmente riconosciuto.

In Germania fu avviato un programma di ricerca nel 1936 da Rajewsky che comprese sia misurazioni nelle miniere di Schneeberg che misure di attività a in campioni di tessuto e analisi istologiche sui tessuti polmonari di minatori deceduti per cancro polmonare. Sulla base dei risultati di queste indagini e di studi biologici di supporto, si concluse che nelle miniere di Schneeberg l’inalazione di radon era il fattore causale dell’elevata frequenza di tumore polmonare tra i minatori.

Nonostante questi importanti risultati, quando cominciò nel 1940 l’estrazione intensiva e il trattamento dell’uranio a scopi militari, si prestò scarsa attenzione alla protezione della salute dei lavoratori. Si pensava, infatti, che rispetto alle vecchie miniere la concentrazione di radon fosse sensibilmente più bassa, e, pertanto, i livelli di radon iniziarono a essere misurati regolarmente solo dal 1950.

Nel contempo procedevano gli studi dosimetrici e le ricerche biologiche sui possibili effetti dell’esposizione al radon. Fu Bale, nel 1951, a individuare nei prodotti di decadimento del radon i principali responsabili dell’induzione del tumore al polmone, dato che la dose di radiazioni dovuta a questi prodotti, presenti nell’aria assieme al genitore, superava di gran lunga la dose dovuta al radon e ai discendenti che si formano mentre il radon si trova nei bronchi.

In seguito a questa scoperta, le prime valutazioni di esposizione dei minatori al radon e ai suoi “figli”, condotte in USA e Canada, indicavano come il rischio di un’aumentata incidenza del tumore polmonare nei soggetti esposti fosse concreta.

In ogni caso, si riteneva ancora un problema specifico ristretto a determinati luoghi di lavoro, come le miniere, e quindi in funzione della tipologia di attività estrattiva e delle caratteristiche condizioni ambientali in cui i minatori lavoravano con ritmi fisiologici e respiratori particolari. La possibile influenza del radon sul rischio di tumore polmonare per la popolazione, infatti, fu scoperta molto più recentemente.

Solo negli anni 50 in Svezia fu pubblicato un primo studio di misure indoor, relativo a 225 abitazioni di tale nazione che riportò alti livelli di radon nelle case costruite con un calcestruzzo ad alto contenuto di radio. A questa scoperta, tuttavia, venne data scarsa risonanza internazionale, in quanto si ritenne un problema limitato unicamente al contesto svedese. Solo diversi anni più tardi, in molti paesi si svolsero indagini più ampie (risultati riportati nei rapporti UNSCEAR 1977, 1982, 1988 e 1993) che mostrarono, oltre a un’elevata variabilità nei valori di radon all’interno delle abitazioni, che il principale contributo degli alti livelli del gas era fornito dal sottosuolo e non dai materiali di costruzione.

Nel 1988 l’Agenzia Internazionale per la Ricerca sul Cancro (IARC) dell’Organizzazione Mondiale della Sanità (World Health Organization, WHO) ha riconosciuto l’attività cancerogena del radon, inserendolo tra i cancerogeni di gruppo 1, cioè tra quelle sostanze che, sulla base di studi condotti sugli esseri umani, evidenziano un effetto cancerogeno certo (a oggi tale lista elenca ca. 120 sostanze). Anche la Commissione Internazionale per la Protezione Radiologica (ICRP) sottolineò la vastità del problema per la salute pubblica indicando specifiche raccomandazioni nella pubblicazione numero 65 del 1993.

Più recentemente, nel 2009, l’Organizzazione Mondiale della Sanità nell’ambito del progetto “International Radon Project” ha identificato il radon come seconda causa di cancro al polmone dopo il fumo.

Dosimetri per radon a elettrete (in alto) e CR-39 (in basso)

Effetti sanitari del radon

All’interno degli edifici il radon, grazie all’elevata mobilità, si distribuisce rapidamente in tutto l’ambiente in modo piuttosto uniforme. Essendo un gas inerte non reagisce chimicamente, per cui, una volta inalato, è facilmente esalato dall’organismo stesso e quindi, da un punto di vista sanitario, non dovrebbe risultare pericoloso.

In aria, però, decade in altri nuclei radioattivi, i suoi figli, che sono invece chimicamente reattivi e hanno dei tempi di dimezzamento brevi, minori di 30 minuti. Una volta formatisi, questi rimangono in parte liberi o associati in cluster, cioè agglomerati di particelle con diametro inferiore a 1 nm, e in parte si associano al particolato atmosferico, depositandosi sulle superfici (effetto plate-out) o rimanendo sospesi in aria. La parte che non si fissa sul particolato è definita frazione non attaccata o libera mentre quella che si fissa viene definita frazione attaccata. I prodotti di decadimento che rimangono sospesi in aria (frazione non attaccata e frazione attaccata non depositata) possono essere inalati. Peraltro, i sistemi di filtraggio interni dell’apparato respiratorio non sono in grado di bloccare le particelle più piccole che quindi aderiscono alle superfici dei tessuti dell’apparato respiratorio. I prodotti di decadimento, a loro volta, continuano a decadere emettendo radiazioni di tipo a che possono danneggiare le cellule dell’apparato polmonare in modo irreversibile.

Il passaggio di una particella a attraverso il nucleo della cellula può causare un serio danneggiamento del DNA della cellula stessa. Nella maggior parte dei casi tali danni sono riparati da appositi meccanismi cellulari, ma si possono anche sviluppare mutazioni in grado di dare origine a un processo di formazione di cellule cancerogene. Il principale effetto sanitario dei prodotti di decadimento del radon è, quindi, un aumento di rischio di tumore polmonare. La probabilità di contrarre il tumore polmonare è proporzionale alla concentrazione di radon, al tempo trascorso nei vari ambienti di vita, nonché al consumo di tabacco. Per persone esposte al radon per circa 30 anni, l’analisi degli studi epidemiologici effettuati in 11 Paesi europei, tra cui l’Italia, ha evidenziato un aumento di rischio del 16% ogni 100 Bq/m3 di concentrazione di radon. Quindi il rischio raddoppia per un’esposizione di circa 30 anni a una concentrazione di circa 600 Bq/m3.

L’associazione tra esposizione al radon e fumo di tabacco crea un effetto sinergico in base al quale, a parità di esposizione al radon, il conseguente rischio assoluto per un fumatore di contrarre un tumore polmonare risulta molto superiore di quello di un non fumatore. Il rischio cumulativo assoluto, stimato all’età di 75 anni per una esposizione al radon per tutta la vita è riportato nella Figura seguente.

Percentuale di rischio cumulativo assoluto di tumore al polmone per non fumatori (verde) e fumatori (blu), stimato all’età di 75 anni, per una esposizione al radon per tutta la vita in funzione della concentrazione di radon (Bq/m3).

Si tratta pertanto, nei fumatori, di un valore circa 25 volte più elevato. Ciò conferma l’importanza di ridurre quanto più possibile l’abitudine al fumo, obiettivo supportato anche dall’EPA (Environmental Protection Agency) attraverso il Citizen’s guide to radon. Negli ultimi anni l’utilizzo della sigaretta elettronica, quale alternativa più salutare rispetto a quella tradizionale, sta diventando sempre più diffuso. Tuttavia, l’impatto della sigaretta elettronica sulla qualità dell’aria interna è stato studiato solo di recente. Secondo uno studio del 2015, condotto dall’Università degli studi di Cassino e del Lazio Meridionale in collaborazione con il National Institute of Ionizing Radiation Metrology, l’aerosol prodotto dalla sigaretta elettronica funziona come vettore dei figli del radon e, di conseguenza, esiste la stessa correlazione dimostrata per il radon e il fumo di sigaretta.

In Italia il numero di casi di tumore polmonare attribuibili all’esposizione al radon, stimati dall’Istituto Superiore di Sanità (ISS), è compreso tra 1.500 e 5.500 ogni anno (su un totale di circa 31.000), la maggior parte dei quali tra i fumatori a causa dell’effetto sinergico tra radon e fumo di sigaretta.

È importante sottolineare che non esiste una concentrazione di radon al di sotto della quale l’esposizione non comporti rischi. Per tale motivo, molte organizzazioni scientifiche internazionali, quali l’OMS, la Comunità Europea e i singoli Paesi, hanno fissato dei cosiddetti livelli di azione, ossia dei valori di concentrazione di radon superati i quali raccomandare o imporre azioni di rimedio per ridurne la concentrazione. Sotto questi livelli, invece, il rischio è considerato accettabile.

I riferimenti normativi

Tutta la normativa in materia di radon indoor ha come caratteristica generale quella di fissare dei livelli di azione. Attualmente, il concetto di livello di azione è stato sostituito da quello di livello di riferimento che, come vedremo in seguito, assume un significato diverso e ben preciso.

Nella maggior parte dei paesi europei, compresa l’Italia, esiste una distinzione per il tipo di normativa proposta tra ambienti di lavoro e ambienti residenziali (abitazioni). Il principale motivo di questa differenza deriva dal numero di ore che si trascorrono in tali ambienti.

Ambienti residenziali

In Italia non esiste ancora una normativa nazionale o regionale che fissi un limite di legge per gli ambienti residenziali.

Per molti anni si è fatto riferimento alla Raccomandazione Euratom 143/90 “Sulla tutela della popolazione contro l’esposizione al radon in ambienti chiusi” della Commissione Europea, emanata il 21 febbraio 1990. In tale Raccomandazione è consigliata per gli edifici residenziali, una soglia di intervento pari a 400 Bq/m3 per gli edifici esistenti, e pari a 200 Bq/m3 per gli edifici di nuova costruzione. Le soglie di intervento vanno intese come valori medi annui di concentrazione di radon. In caso di superamento di tali valori, si raccomanda di adottare provvedimenti semplici ma efficaci volti a ridurre il livello di radon.

Successivamente, nel 2009, il WHO ha pubblicato un documento di riferimento internazionale per la valutazione e la gestione del rischio radon negli ambienti confinati (WHO Handbook on Indoor Radon: A Public Health Perspective), nel quale, sulla base delle stime di rischio derivate da più recenti studi epidemiologici, si raccomanda per le abitazioni un livello di riferimento di 100 Bq/m3 o, nel caso di Paesi per i quali le condizioni esistenti non consentono il rispetto di questo valore, di 300 Bq/m3.

Il 17 Gennaio 2014 è stata pubblicata la nuova Direttiva della Comunità Europea “Direttiva 2013/59/Euratom” che stabilisce le norme fondamentali di sicurezza relative alla protezione contro i pericoli derivanti dall’esposizione alle radiazioni ionizzanti. L’articolo 74 richiede agli Stati membri di stabilire livelli di riferimento nazionali, per la media annua della concentrazione di radon in aria, non superiori a 300 Bq/m3 per tutti gli ambienti chiusi, incluse le abitazioni. La direttiva parla di livelli di riferimento e quindi l’ottimizzazione della protezione riguarda sia le esposizioni al di sopra del livello di riferimento sia al di sotto di detto livello. Questa è la differenza fondamentale rispetto al precedente concetto di livello di azione. Gli stati dovranno inoltre promuovere interventi volti ad individuare le abitazioni che presentano concentrazioni di radon superiori al livello di riferimento e, se del caso, incoraggiano misure di riduzione della concentrazione di radon in tali abitazioni. L’articolo 103 richiede agli Stati Membri di definire un piano d’azione nazionale che affronta i rischi di lungo termine dovuti alle esposizioni al radon nelle abitazioni, negli edifici pubblici e nei luoghi di lavoro per qualsiasi fonte di radon, sia essa il suolo, i materiali da costruzione o l’acqua. Lo stesso articolo, al punto 3, impone agli Stati Membri di individuare le zone in cui si prevede che la concentrazione di radon superi il pertinente livello di riferimento nazionale in un numero significativo di edifici.

La Direttiva 2013/59/Euratom, seppur di notevole impatto per la protezione delle abitazioni dal radon, non è stata recepita nel nostro Paese entro il termine previsto (6 febbraio 2018). Diverse autorità sottolineano l’importanza e l’urgenza del recepimento al fine di garantire la protezione della popolazione negli ambienti residenziali.

Ambienti di lavoro

A differenza di quanto accade per le abitazioni, allo scopo di tutelare i lavoratori e la popolazione dall’esposizione al radon negli ambienti di lavoro in Italia si dispone di una normativa specifica, il Decreto Legislativo n° 241 del 26 maggio 2000. Tale decreto recepisce le direttive 89/618/Euratom, 90/641/Euratom, 92/3/Euratom e 96/29/Euratom, e modifica i precedenti decreti 230/95 e 187/00.

Questa norma definisce come campo di applicazione particolari luoghi quali tunnel, sottovie, catacombe, grotte, terme e tutti i luoghi di lavoro interrati (art. 10-bis, comma 1). Nel decreto è imposta l’obbligatorietà delle misurazioni di radon indoor nei luoghi di lavoro suddetti entro 24 mesi dall’inizio dell’attività. Viene fissato un livello di azione oltre il quale il datore di lavoro deve attuare particolari adempimenti, a esempio notifiche a pubbliche amministrazioni e, in particolare, una valutazione della dose efficace. Tale livello è espresso come concentrazione media annua di radon in aria e corrisponde a 500 Bq/m3. Nel caso in cui la dose efficace superi il valore di 3 mSv/anno, il datore di lavoro ha l’obbligo di ridurre la concentrazione di radon o la dose efficace al di sotto dei valori sopra riportati.

Il datore di lavoro non è tenuto alle azioni di rimedio se dimostra, avvalendosi di un esperto, che nessun lavoratore è esposto a una dose superiore a 3 mSv/anno; questa disposizione non si applica per gli esercenti di asili nido, scuola materna e scuola dell’obbligo, per i quali rimane il limite di 500 Bq/m3 (art. 10-quinquies, comma 5).

Il decreto prevede, inoltre, che le regioni e le province autonome individuino le zone o i luoghi di lavoro con caratteristiche determinate a elevata probabilità di alte concentrazioni di attività di radon, definite radon prone areas, secondo le modalità individuate da un’apposita commissione (non ancora istituita).

La Direttiva 2013/59/Euratom, come riportato sopra, riguarda tutti gli ambienti chiusi e, quindi, i luoghi di lavoro. Anche in questo caso, poiché introduce livelli di riferimento inferiori rispetto al D.lgs. 241/2000, risulta importante il suo recepimento nella normativa nazionale.

Il radon indoor in Italia

 

La distribuzione del radon indoor in Italia è parecchio disomogena, come si evince dalla mappa sotto riportata. La media nazionale si attesta attorno a 75 Bq/m3 (quella mondiale è molto più bassa, 48 Bq/m3). Vi sono quattro regioni (Lombardia, Lazio, Campania e Friuli Venezia Giulia) in cui il valore medio misurato si attesta intorno a 100 Bq/m3. Se per quanto concerne Lazio e Campania ciò viene giustificato in termini di elevata presenza nel sottosuolo di rocce ignee ricche di uranio, rimane ancora non del tutto compreso l’elevato valore di radon indoor nelle altre due regioni, nonostante i numerosi studi di tipo geologico effettuati nel tentativo di razionalizzare tale realtà. Una plausibile spiegazione per quanto concerne il Friuli Venezia Giulia sta nella possibile elevata fratturazione delle rocce presenti nel sottosuolo a causa della elevata sismicità. Per la Lombardia si è invece ipotizzata la cospicua presenza di sottosuolo caratterizzato da depositi alluvionali molto permeabili.

Mappa dei valori medi di radon indoor in Italia per singola regione o provincia autonoma

Va sottolineato il fatto che il contributo dato dalla composizione del sottosuolo al radon indoor è quasi totale (93-100%), i materiali da costruzione contribuiscono in percentuale molto bassa (0-5%), mentre l’apporto dato dall’acqua potabile è ancora minore (0-2%). I materiali da costruzione che possono dare un discreto apporto sono il tufo, la pozzolana, il granito e il porfido, per questa ragione il problema si pone prevalentemente nel centro-sud della nazione dove è più frequente l’uso di tali materiali in edilizia.

*Lavora presso il Dipartimento di Scienze AgroAlimentari, Ambientali e Animali (DI4A) dell’Università di Udine, dove Insegna “Chimica Generale e Inorganica” – laurea triennale in Scienze per l’Ambiente e la Natura; “Chimica Generale e Inorganica” – laurea triennale in Scienze Agrarie; “Inquinamento Chimico e Fisico dell’Atmosfera” – laurea magistrale in Analisi e Gestione dell’Ambiente.

Svolge attività di ricerca nel settore della chimica dei composti di coordinazione e sintesi di complessi di Ru, Os, Pd e Au e del loro impiego in catalisi omogenea.

E’ stato Presidente della Sezione Friuli Venezia Giulia della SCI nel triennio 2011-2013.

La lotta per ripulire il fiume Sarno.

In evidenza

Raffaele Attardi

Questo articolo sulla situazione del fiume Sarno, e sulla tutela della zona di Sorrento che proponiamo qui sul blog, è interessante per diverse ragioni. Il fiume Sarno è considerato tra i fiumi più inquinati d’Europa. E la storia del suo tentativo di risanamento, ricorda quelle che nel passato interessarono sia il Po, che altri tre fiumi divenuti tristemente famosi negli anni 70:Lambro,Seveso e Olona.

L’autore, partendo dalla descrizione storica della zona di Sarno e più in generale dell’area geografica di Sorrento, scrive un articolo che è un appello accorato perché si realizzino le opere e si sblocchino gli investimenti necessari. Questa vicenda ci fa capire anche come, ancora troppo spesso, a fronte di emergenze ambientali, si sprechino tempo e risorse economiche in un ginepraio di burocrazia, sovrapposizioni di enti preposti ad assumersi l’onere delle realizzazioni, e dell’esercizio di verifica e controllo. La creazione di aziende ad hoc, poi chiuse, l’intervento di un commissario regionale. Sono situazioni che anche in altre regioni si sono verificate, diverse nella forma ma non nella sostanza. Anche per collettare le acque reflue di Milano c’è voluto tempo. Nel 1998 le acque reflue di Milano non erano ancora depurate, e la situazione anomala era nota e conosciuta dagli anni 80. Dal 2003 entrò in funzione il primo lotto del depuratore di Nosedo, seguito poi da quelli di Milano San Rocco nel 2004 e quello di Peschiera Borromeo nel 2005.

L’autore, Raffaele Attardi chimico, fondatore del gruppo “La grande onda” cerca di indicare le soluzioni. Alcune di queste sono state oggetto di articoli che ho pubblicato su questo blog e che quindi mi trovano idealmente al fianco di chi le propone. Ma la cosa importante è la passione civile che lo muove. Le opere di costruzione del depuratore di Punta Gradelle durano da quarant’anni, e il depuratore di Solofra, che tratta reflui industriali, sembra non funzionare adeguatamente. E il gruppo “La grande onda” si gemella idealmente con quello “Amici dell’Olona” che allo stesso modo pungola e sprona una classe politica spesso distratta, e purtroppo non sempre cosciente del fatto che il problema acqua sia un problema che si risolve con atti concreti. Da parte di tutti. Quindi con la realizzazioni di sinergie tra enti, gestori del ciclo idrico, Università. Ma anche con la spinta dal basso, dai comitati di cittadini. Evitando quanto di più deleterio ci sia quando si parla di trattamento delle acque. La demagogia o la superficialità. Attivando un continuo dialogo con i cittadini, i quali a loro volta devono evitare comportamenti scorretti. La plastica che finisce nei fiumi o nei depuratori, per fare l’esempio più banale possibile, non vi è certamente arrivata da sola.

Quindi invito alla lettura con grande piacere, augurando all’autore e ai cittadini della zona, ma augurandomi io stesso che la situazione si sblocchi, e che il fiume Sarno inizi il percorso di risanamento.

La strada è iniziata nel 1976, dalla nascita della mai dimenticata legge Merli. Poi sono arrivati i recepimenti di normative europee (che per quanto si possa criticare l’unione europea sono state invece importanti per sbloccare un percorso che era lentissimo). Ma lo sforzo non è ancora totalmente compiuto. E’ stato fatto molto, ma ancora non tutto.

Buona lettura. Mauro Icardi.

 

Raffaele Attardi.

 

Sorrento ed il bacino del Sarno : due facce della stessa medaglia

Note a margine del Convegno sul disinquinamento organizzato da La Grande Onda e Lyons della penisola sorrentina tenutosi a Sant’Agnello il 29 marzo 2019.

  1. Premessa

La penisola sorrentina, la costa vesuviana ed il bacino del Sarno sono relativamente piccoli, ma il distretto nel quale sono inseriti ha una storia antica con insediamenti e memorie, lasciate da decine di civiltà che iniziano dalla preistoria, e che testimoniano la presenza degli Osci, degli Etruschi , dei Greci , dei   Romani, dei Longobardi e di tutte le diverse dinastie che hanno caratterizzato il Regno di Napoli, fino ai Borbone.

Ma soprattutto è così ricco di vicende umane , tradizioni , mestieri , religiosità e creazioni dell’ingegno , di biodiversità e prodotti agricoli che neanche il Nilo può reggere al suo confronto.

Tutto il distretto dovrebbe essere considerato patrimonio dell’umanità e invece si continua ad esaltare e sfruttare solo alcuni luoghi, peraltro bellissimi come Sorrento , la costiera Amalfitana Pompei   raggiungendo così il risultato di vederli consumati e aggrediti da un turismo di massa , che sta facendo perdere non solo la conoscenza di quello che veramente c’è nel distretto , ma anche l’identità dei singoli luoghi e sta lasciando nel degrado località altrettanto ricche di storia e di bellezza. Facendo nascere in aggiunta problemi sociali enormi come l’impossibilità di trovare alloggi per i residenti nelle località più gettonate e  compromettere la salute delle persone nelle località più degradate.

Le sorgenti del Sarno.

Il turismo può ancora produrre tanta ricchezza e sanare molte ferite ma ad una sola condizione: bisogna bloccare questa crescita disordinata e fare in modo che il turismo cresca in maniera diffusa in tutto il distretto

E per ottenere questo risultato è interesse di tutti risolvere le criticità che si presentano del bacino del Sarno .

Mi sono dilungato in un precedente articolo su ciò che occorre fare per migliorare i sistemi di comunicazioni , adesso voglio esporre le mie idee su cosa bisogna fare per affrontare quelle che sono i rischi storici, derivanti dalla cattiva gestione delle acque , partendo dalle acque meteoriche e passando dall’approvvigionamento fino alla depurazione . Danni enormi scolpiti nella memoria collettiva per le vittime che hanno prodotto le frane , gli allagamenti e l’inquinamento del fiume e del mare.

Ed in particolare voglio affrontare l’argomento rifacendomi alle esperienze che stiamo condividendo insieme ai tanti Cittadini che hanno dato vita ai movimenti della Grande Onda e alla Rete del Sarno.

 

2) LA VISIONE CHE BISOGNA CONDIVIDERE

Per affrontare un problema così complesso prima ancora di cercare soluzioni tecniche bisogna avere chiara la visione da raggiungere.

Il termine visione non ha nulla di tecnico e la definizione del termine che troviamo nel Dizionario Treccani e la seguente : ‘Apparizione, immagine o scena del tutto straordinaria, che si vede, o si crede di aver visto, in stato di estasi o di allucinazione’ .

E quella che noi stiamo cercando di condividere, convinti che può portare al risanamento può essere riassunta in due frasi .

 

  • L’acqua non è un rifiuto che si deve gettare via , ma una benedizione : neanche una goccia d’acqua deve essere persa ; .
  • Neanche una goccia di refluo non trattato deve finire in fossi , canali , fiume o a mare

Un bravo tecnico sa che una visione deve precedere sempre la ricerca di soluzioni : e cercheremo di dimostrare che solo se si segue questa visione tutte le criticità del bacino del Sarno che sono tante riassumibili nel rischio idrogeologico, idraulico ,inquinamento di falde, inquinamento del fiume e del mare, possono essere ricondotte ad un discorso unitario e ad azioni interconnesse fra loro .

  1. a) L’acqua non è un rifiuto da gettare da via ma una benedizione

I vantaggi che si otterrebbero da un recupero delle acque sono intuitivi, ed altrettanto evidenti sono gli effetti in termini di mitigazione del rischio che si otterrebbero.

Regolamentando e regimentando le acque meteoriche e gestendo meglio le acque fluviali si riducono il rischi in campo idrogeologico e idraulico .

Queste cose le sapevano già i Romani ed i Borbone, che per secoli hanno curato la raccolta ed il riutilizzo delle acque idrogeologiche e sorgive del Sarno, lasciandoci in eredità decine e decine di invasi ed un reticolo di canali per la bonifica e l’irrigazione del territorio ,che si estende per centinaia di kilometri. Eredità che abbiamo dissipato largamente utilizzando gli invasi nati per assorbire le acque piovane, per raccogliere le acque fognarie o per il deposito incontrollato dei rifiuti

Distruggendo questa ricchezza non solo abbiamo reso impossibile il riutilizzo della acque piovane , ma abbiamo aumentato il rischio d’inquinamento dei pozzi di approvvigionamento idrico e causato problemi di allagamento .

Il recupero delle acque di pioggia è indispensabile non solo per ridurre questi rischi , ma anche perché favorisce la gestione delle reti fognarie e degli impianti di depurazione . Quando piove, infatti, se le acque di pioggia non sono gestite separatamente , ma finiscono nelle fogne miste,  causano la fuoriuscita di acque inquinate dai troppo pieni della rete fognaria e compromettono l’efficienza degli impianti di depurazione, facendo arrivare agli stessi portate ingestibili .

C’è da dire che la mancata regolamentazione delle acque di pioggia e fluviali si verifica quasi ovunque in Italia e si sente fortemente la necessità di una normativa che imponga la realizzazione di un sistema di gestione delle acque meteoriche che preveda regole per la loro raccolta e trattamento e la regolamentazione del deflusso nei corpi idrici o a mare .

3) NEANCHE UNA GOCCIA DI REFLUI NON TRATTATI DEVE CONTAMINARE FOSSI , CANALI , FIUNI O IL MARE

Il disinquinamento del bacino del Sarno può essere realizzato attraverso il raggiungimento di 3 obiettivi distinti . in particolare isogna :

  1. combattere l’inquinamento biologico
  2. combattere l’inquinamento chimico
  3. c) bisogna eliminare i solidi grossolani trascinati dal fiume .

 

un tratto del Fiume sarno

 

Se si vogliono raggiungere questi obiettivi bisogna analizzare quello che si è verificato nel passato e proporre azioni concrete, senza ripetere sempre gli stessi errori

a ) bisogna combattere l’inquinamento biologico.

L’inquinamento biologico dipende dagli scarichi urbani e non sono bastati gli episodi gravissimi verificatisi , ultimo il colera degli anni ottanta a convincere le Amministrazioni locali del bacino del Sarno della necessità di dotarsi di sistemi adeguati di fognatura e depurazione . Le fogne sono opere di urbanizzazione primaria la cui realizzazione fino al 2000 circa, è stata di competenza dei Comuni . E nel distretto sorrentino sarnese vesuviano ci sono Città che hanno realizzato fogne e sistemi di depurazione completi, talvolta associandosi spontaneamente fra loro fra loro , altre che hanno realizzato sistemi fognari solo parziali e altre che semplicemente non hanno fatto nulla.

I soldi per fare le fogne ci sono sempre stati ,per tutti , messi a disposizione dallo Stato attraverso la Cassa Depositi e Prestiti o sotto altre forme ; e i soldi continuano ancora ad arrivare dai tributi locali che i Cittadini pagano per oneri di urbanizzazione , sanzioni per il condoni e tasse per oneri indivisibili. In conclusione dove le fogne non si sono fatte, questo è dipeso principalmente dall’ignavia di molte Amministrazioni Locali

Per rimediare a questa gravissima situazione , lo Stato si è sostituito ai Sindaci del bacino del Sarno , nominando un commissario Straordinario e ha stanziato direttamente rilevantissime somme. Il Commissario ha iniziato la guerra e vinto alcune battaglie , realizzando la quasi totalità degli impianti di depurazione , ed iniziando la costruzione dei collettori , ma quando si è trattato di realizzare le fogne Città per Città ,    si è impantanato in una guerra di trincea , facendo pochi progressi e rinviando di anno in anno la vittoria finale. Dopo alcuni anni si è deciso di cambiare strategia e allo Stato è subentrata la Regione, e il Commissario è stato sostituito da una struttura regionale, Arcadis.

Ma anche questo tentativo è fallito e Arcadis è stata sciolta E così il problema non solo non è stato risolto, bruciando centinaia di milioni, ma queste gestioni hanno lasciato in eredità una miriade di lavori incompleti ,tanti conteziosi e tante navicelle con equipaggi costosissimi , che ancora navigano in questo mare per chiudere ognuna un capitolo di questa vicenda.

Io penso che questi insuccessi non siano dipesi dalla qualità delle persone scese in campo, o da carenza di risorse, ma da un fatto oggettivo: per costruire un impianto bastano dei tecnici , per costruire una fogna bisogna conoscere e letteralmente occupare il territorio, combattendo talvolta anche contro i Cittadini che vedono molto malvolentieri i lavori fognari , perché creano intralcio , e anche contro altri subdoli padroni del territorio , cioè le aziende del gas e dell’energia , che occupano nel disordine generale il sottosuolo e che quando vedono arrivare una fogna difficilmente cedono il passo.

E poi una rete fognaria non si può fare in un territorio dove tutto cambia senza regole , utilizzando aerofotogrammetrie o rilievi estemporanei, : solo chi gestisce localmente le Città può condurre questa battaglie che richiede mille compromessi .

E nessuno conosce meglio del Sindaco il territorio. Solo i Sindaci possono risolvere questi problemi.

Oggi i Sindaci sono stati chiamati nuovamente a scendere in campo, e una legge regionale li ha riuniti in un unico Ente Assembleare, l’ Ente Idrico Campano (EIC) ed i Distretti, strutture dell’Ente in cui è suddiviso il territorio. L’EIC non è un Ente Regionale, è l’ente associativo dei Sindaci . E i Sindaci sono perciò di nuovo responsabili , dopo il lungo periodo di emergenza non solo della gestione delle fogne , dei collettori e degli impianti di depurazione, ma dell’intero ciclo dell’acqua. E fanno parte dell’EIC anche i cittadini che hanno diritto a partecipare alle sedute dell’ Ente con ruolo consultivo .

Sono i Sindaci attraverso gli organi dell’EIC, che possono e devono decidere la pianificazione delle opere da realizzare e che devono riprendere in mano il completamento della rete fognaria , dei collettori , la verifica della funzionalità dei depuratori , alcuni dei quali funzionano benissimo , ed altri invece presentano gravi criticità , stabilire gli eventuali adeguamenti e la gestione ed il controllo degli stessi.

Nel Convegno che si è tenuto a Sant’Agnello il 29 marzo , il Presidente Luca Mascolo e il Direttore Generale Vincenzo Belgiorno dell’EIC hanno preso un impegno : entro fine luglio 2019 sarà presentato il Piano d’ambito del distretto sarnese vesuviano , con l’indicazione delle opere incomplete e la pianificazione preliminare di ciò che resta da fare .

E la partecipazione dei Sindaci comincia a crescere . Al Convegno di Sant’Agnello abbiamo avuto la soddisfazione di vedere presenti quelli di Torre Annunziata , Sant’Agnello , Massa Lubrense ed i rappresentanti di Cava dei Tirreni .Sono quasi il 10% dei Sindaci dei del Distretto e molti altri hanno dato la loro adesione o mostrato interesse . Abbiamo piantato un primo seme e siamo fiduciosi che crescerà .

E sono venuti e sono stati protagonisti le rappresentanze dei Cittadini di una gran parte del bacino del Sarno , anche loro decisi ad essere attori in questo processo.

  1. Bastano 3 persone per abbattere l’inquinamento chimico

Per combattere questa piaga che è diffusissima nel bacino del Sarno e che dipende dagli scarichi provenienti dalle aree di attività produttiva ma anche dalla miriade di opifici che caratterizzano il bacino e dall’agricoltura industriale che fa uso di pesticidi e fertilizzanti spesso nocivi alla salute delle persone e alle specie viventi del bacino , l’unico presidio che c’è è l’impianto di Solofra , progettato per effettuare la depurazione dei reflui industriali , impianto messo peraltro in discussione perché si nutrono forti dubbi sull’efficienza depurativa; oggi l’impianto é sotto sequestro perché arreca molestie olfattive e  che ci si augura che passi presto all’EIC e che tutta la gestione venga riesaminata.

Le azioni da fare per combattere l’inquinamento chimico sono ben note e includono il controllo su chi mette in commercio e usa prodotti chimici e pesticidi , il controllo delle attività produttive ed in particolare il rispetto degli impianti di trattamento e degli scarichi , e la caccia agli scarichi abusivi. E la caccia ad eventuali scarichi nel sottosuolo , che incidono fortemente sulla qualità delle acque sotterraneee

Ciascuno deve mettere ordine in casa propria. Ed è in queste azioni che si deve concretizzare l’autorità del Sindaco , che ha tutti gli strumenti che servono , a cominciare dall’autorità conferitagli dalla legge di imporre il rispetto delle regole, che sono a monte delle autorizzazioni, ad esercitare le attività produttive , pena il ritiro delle autorizzazioni a produrre , fino al controllo degli scarichi i .

E per fare questo bastano 3 persone per Comune , un tecnico comunale , un fognere ed un vigile urbano.

Se ognuno dei Sindaci del Distretto mette in campo 3 persone per effettuare queste verifiche , si avrà disponibile un esercito di 180 persone che in poco tempo metterà fine all’inquinamento chimico del bacino del Sarno. E se le Amministrazioni locali non ce la fanno da sole, bisogna che anche nel nostro distretto vengano istituite gruppi misti di controllo con il supporto di Guardia Costiera Carabinieri , Guardia di Finanza , replicando lo stesso modello che si è adottato per combattere i roghi nella terra dei fuochi.

E insieme ai Sindaci devono scendere in campo le Associazioni , gli Imprenditori, i Lavoratori, perché i pirati danneggiano tutti gli onesti e compromettono sviluppo e occupazione.

  1. bisogna combattere la presenza di solidi sospesi nel Sarno .

Questo obiettivo è forse al momento il più difficile da raggiungere, ma è anche il più urgente da conseguire.

I solidi trascinati dalla corrente   finiscono a Rovigliano dove inquinano e distruggono la bellezza di uno dei posti più belli del Golfo di Napoli, poi vagano per tutto il Golfo , contribuendo a creare le isole di plastica . ma prima ancora inquinano il fiume , perché spesso i solidi sono formati da contenitori di pesticidi e fertilizzanti , e infine sono una delle cause principali delle esondazioni del Sarno .

Per capire come tutto sia interconnesso bisogna sedersi sulla sponda del fiume e vede cosa succede .

Tutto inizia con la costruzione di un ponticello , spesso abusivo , realizzato a pelo d’acqua per passare da una parte all’altra del fiume . Poi succede che molti solidi, di origine naturale o meno , cominciano nel tempo a depositarsi sul fondo del fiume , riducendo la profondità . Capita anche che per effetto di eventi eccezionali, ad esempio la caduta di un albero o semplicemente a seguito del naturale ciclo vegetativo, fogli, canne e arbusti finiscano contro il ponticello e formino una diga . A questo punto il gioco è fatto : basta poco per vedere formarsi sotto il ponticello un norme tappo formato dai rifiuti .

Ed il fiume esonda , o peggio si forma un onda di piena che allaga il territorio circostante .

Tutto questo accade ogni volta che piove quando cioè l’acqua dilavando tutto, fa franare le sponde e trascina nel fiume gli alberi o la  vegetazione secca, che formano barriere dietro cui si raccolgono enormi quantità di rifiuti scaricati abusivamente lungo gli argini o nel del fiume stesso

C’è un motivo a monte di questi disastri annunciati : è pressa a poco dal 1970 , cioè da quando il governo del fiume è passato dallo Stato alle Regioni, che le operazioni ordinarie di controllo , pulizia e manutenzione del fiume e degli argini e dragaggio dei fondali sono diventate l’eccezione da effettuare in caso di emergenza piuttosto che la prassi da seguire per evitare i disastri .

E c’è la presenza di molti Lazzaroni che continuano ad usare gli argini ed il fiume come una pattumiera

Tutto è interconnesso, inquinamento ed esondazioni sono due facce della stessa medaglia e per risolvere entrami i problemi bisogna curare il governo delle acque e del territorio ed il disinquinamento

4 ) CONCLUSIONI

L’impianto di depurazione Punta Gradelle vorrei mettere in. evidenza  che dopo una gestione durata 40 anni finalmente funziona ed é considerato come uno dei più avanzati d’Europa (é stato recentemente visitato da centinaia di tecnici provenienti da più parti),

La raccolta delle acque meteoriche, la gestione del rischio idraulico ed in parte di quello idrogeologico , la creazione di riserve d’acqua , la protezione delle fonti sotterranee , il disinquinamento sono le diverse facce di una stessa problematica .

Attualmente queste problematiche vengono gestite da soggetti diversi , in particolare la gestione delle acque meteoriche e dei fiumi è condivisa fra Stato , Regione , mentre la realizzazione e gestione delle reti fognare , dei collettori e degli impianti di depurazione è ritornata ai Comuni , che devono esercitarla attraverso l’EIC ed i distretti ovvero il loro ente associativo..

Bisogna che queste gestioni migliorino e si interfaccino .

In particolare occorre che Stato e Regioni mettano mano (in accordo fra loro) a riscrivere le regole per la regolamentazione delle acque meteoriche , rendendo obbligatoria la separazione e recupero delle acque bianche e la creazione di invasi per il loro recupero. E insieme devono stabilire il percorso per ripristinare una corretta gestione dei corsi idrici, gestione che deve prevedere il rispetto delle aree naturali di esondazione ,della biodiversità , il dragaggio dei fondali e la pulizia e manutenzione continua dei corsi d’acqua e degli argini. E la regolamentazione deve includere anche le norme di costruzione delle strade , dei parcheggi esterni e delle superfici impermeabili che raccolgono le acque piovane , talvolta contaminate come accade nel caso delle acque di prima pioggia , e l’obbligo di adottare in tutti i casi possibili le tecniche di drenaggio urbano. Tutte le acque possono e devono essere recuperate, anche per ridurre il consumo di acqua potabile , una risorsa sempre più costosa e difficile da reperire.

Stiamo investendo ancora oggi enormi risorse per gestire le acque, ultime quelle stanziate per il GPS grande progetto Sarno, ma se il progetto non include una corretta gestione delle acque meteoriche e dei fiumi continueremo ad avere allagamenti e frane, con l’aggravante che se ci si limita a spostare acque inquinate , realizzando vasche di laminazione e seconda foce ,le criticità aumenteranno invece di diminuire .

I Comuni invece hanno il compito governare correttamente lo sviluppo del territorio,  facendo in modo che i Piani Urbanistici piuttosto che essere pieni di opere che consumano il territorio , scendano nel dettaglio di quali devono essere le opere di drenaggio urbano , la rete bianca e la rete fognaria ; ed il percorso delle rete fognaria deve essere stabilito prima e non dopo la realizzazione di case e opifici . E devono partecipare e sostenere la gestione dell’EIC , il loro Ente Associativo , nella pianificazione , realizzazione e corretta gestione delle reti , dei collettori e degli impianti di depurazione .

E ancora i Comuni per abbattere l’inquinamento chimico devono verificare  che le aree di sviluppo produttivo , come pure per ogni singola attività produttiva sia dotata degli impianti necessari a garantire il trattamento chimico fisico dei reflui , e devono provvedere a ritirare le autorizzazioni a quelli che non rispettano tali requisiti.

Dobbiamo giocare winner to winner ,facendo ognuno ciò che compete al proprio ruolo, smettendola di giocare a scarica barile .

Dobbiamo tutti avere cura di ciò che ci è stato affidato .E aver cura significa non solo somministrare qualche medicina , ma avere premura , cioè agire con tempestività , amorevolezza , sollecitudine .

Dobbiamo aver cura delle persone e della Terra , che è l’ultimo dei poveri , sottoposto ad uno sfruttamento senza rispetto e senza regole.

Per raggiungere quest’obiettivo è indispensabile la spinta che deve venire dai Cittadini per isolare i Lazzaroni e la spinta che deve venire dalla scuola , per evitare che di generazione in generazione i Lazzaroni si ripresentino.

La Grande Onda , la Rete del Sarno, i movimenti che crescono nei social, le tante Associazioni , i gruppi spontanei , e singoli cittadini , stanno facendo crescere il coinvolgimento e la sensibilizzazione e sta nascendo una nuova consapevolezza dei problemi.

Bisogna continuare a spingere , guardando tutti nella stessa direzione, garantendo la diversità di ognuno e rispettando tutti.

L’inquinamento è un mostro dai mille tentacoli ci voglio mille braccia per combatterlo .

Il prossimo appuntamento è a settembre , quando faremo il punto sulle iniziative messe in campo dal Ministero dell’Ambiente e dalla Regione , augurandoci che il GPS affronti concretamente il rischio idraulico partendo da una visione condivisibile , e di avere disponibile il Piano d’Ambito che l’EIC sta predisponendo con evidenziati i rottami che galleggiano nel mare delle opere incompiute , ma anche la rotta che i Sindaci avranno tracciato per realizzare una sistema adeguato di gestione per le reti fognarie e di depurazione.

Il Sarno nasce puro ogni giorno e ci offre ogni giorno una nuova possibilità.

Helen Kemp Archbold Porter (1899-1987)

In evidenza

Rinaldo Cervellati

Helen Porter è stata un biochimico inglese, prima donna professore ordinario all’Imperial College di Londra, una dei primi scienziati britannici a utilizzare le tecniche, allora innovative, della cromatografia e dei marcatori radioattivi.

Helen nacque il 10 novembre 1899 a Farnham, cittadina nel Surrey, circa 55 km a sud-ovest di Londra, da una famiglia della classe media. Il padre, George Kemp Archbold era direttore e comproprietario di una scuola privata, la madre, Caroline Emily Broughton Whitehead, cantante professionista, formatasi al Conservatorio di Bruxelles in Belgio.

Helen descrisse sua madre come persona energica che eccelleva nelle virtù domestiche con un profondo senso del dovere verso la famiglia. Il suo passatempo era la musica.

La prima infanzia di Helen fu felice, come si intende convenzionalmente la vita in una famiglia vittoriana conservatrice della classe media. Nel 1901 i suoi genitori si trasferirono da Farnham a Clifton, un sobborgo di Bristol. La prima educazione di Helen, come quella della sorella maggiore, avvenne in casa, la madre le insegnò a leggere e scrivere e le fornì una buona conoscenza della lingua francese. In casa c’erano molti libri da leggere per le bambine, ma nessun testo scientifico. Il momento clou dell’anno era la lunga vacanza estiva con i nonni materni a Torquay.

Nel 1906 Helen cominciò a frequentare la Clifton High School for Girls e, all’età di 13 anni, cominciò a interessarsi di scienze grazie anche all’influenza che su di lei ebbe Francis Jennet Clark, l’insegnante di scienze e matematica.

Fotografia delle ragazze della Clifton High School for Girls nel 1917. Helen Kemp è la prima a sinistra della Preside Miss Phillips nella fila di mezzo

L’adolescenza fu bruscamente interrotta dallo scoppio della I Guerra mondiale, la famiglia si separò: il padre si recò nello Yorkshire a lavorare in un’altra scuola, la madre andò a Londra per impiegarsi nelle Cucine Nazionali Governative, le figlie restarono a Clifton per continuare a frequentare la Clifton High School for Girls. Come Helen disse più tardi: la mia infanzia felice era finita.

Giocò a cricket, tennis e hockey nelle squadre della Clifton School, diventando poi capitano di queste ultime due. Nel 1917 superò gli esami finali con successo in tutte le materie e si preparò per l’esame di ammissione al Bedford College for Woman, che faceva parte della London University. Fu ammessa con distinzione nell’ottobre 1917, iscrivendosi a un corso di studi quadriennale in chimica, fisica e matematica pura e applicata, conseguendo nel 1921 i diplomi in chimica e fisica con lode. Durante il suo periodo da studente fece parte attiva dell’Unione Studentesca e per due anni fu rappresentante di Facoltà nel Comitato dell’Unione.

Helen Kemp continuò i suoi studi all’Imperial College di Londra come studente post-diploma; lavorò nel laboratorio di chimica organica diretto dal professor Jocelyn Thorpe sotto la supervisione del Dr. Martha Whiteley[1]. I suoi studi nel laboratorio di Thorpe riguardarono derivati ​​di vari barbiturici.

Per perfezionarsi in biologia e biochimica, Helen Kemp frequentò il Birkbeck College e il Chelsea Polytechnical College.

Nel 1922, entrò a far parte di un gruppo di ricerca del Dipartimento di Fisiologia vegetale e Biochimica delle piante che collaborava con la Stazione di Ricerca Basse Temperature associata all’Università di Cambridge, per studiare il deterioramento delle mele nelle celle frigorifere, un problema che affliggeva gli importatori del frutto. Il gruppo di ricerca, in particolare Kemp, analizzò i composti organici contenuti nel frutto, zuccheri, acidi organici, ammidi, emicellulose e pectine. Lo studio di Kemp si estese dalla semplice analisi chimica all’esame del ruolo di queste sostanze chimiche nello sviluppo e nella maturazione del frutto, come pure nel loro trasporto, sintesi e metabolismo. Nel 1931, Helen Kemp e il suo team avevano capito con successo le reazioni chimiche che avvenivano nelle mele immagazzinate ma non ne avevano ancora accertato la causa; quell’anno il finanziamento dello studio fu purtroppo interrotto a causa della grande depressione e le ricerche considerate concluse. Queste ricerche le valsero il titolo di D.Sc. dall’Università di Londra.

Helen Kemp fu definitivamente trasferita al Dipartimento di Fisiologia Vegetale dell’Imperial College, diretto dal Prof. F.G. Gregory[2], collaborando anche con i Laboratori sperimentali Rothamstead. La sua ricerca comprendeva la relazione fra la nutrizione minerale e il metabolismo dei carboidrati nelle monocotiledoni, in particolare nell’orzo. Allo stesso tempo Kemp divenne Visiting Lecturer in Biochemistry presso lo Swanley Horticultural College.

I suoi studi sull’orzo riguardavano l’origine dell’amido nelle granaglie. Si riteneva comunemente che provenisse dallo zucchero conservato nello stelo trasferitosi nel seme e convertito in amido durante la sua maturazione. Helen Kemp e i suoi colleghi dimostrarono, con analisi accurate e dettagliate, che l’amido si formava direttamente dal biossido di carbonio appena fissato e che lo zucchero nel gambo era usato per la respirazione durante la sua senescenza.

Nel 1937 sposò il medico William George Porter, che morì tragicamente solo pochi anni dopo. Helen Kemp mantenne il cognome Porter per il resto della sua vita.

Allo scoppio della II guerra mondiale l’Imperial College fu requisito per scopi militari, Porter e colleghi furono trasferiti al Centro Sperimentale Agrario Rothamstead nella cittadina di Harpenden. Ancora una volta la sua vita e la sua casa furono sconvolte dalla guerra.

Tuttavia Porter continuò il lavoro di ricerca durante il conflitto, gettando le basi per i suoi futuri studi sulla sintesi dei polisaccaridi, specialmente quella dell’amido delle granaglie e i fruttosi.

Il lavoro sull’orzo la condusse a un interesse duraturo sugli enzimi responsabili della formazione e del degrado dell’amido. Nel 1947 alla fine della guerra andò per un anno al Laboratorio Coris a St Louis, Stati Uniti. Proprio in quell’anno i coniugi Cori (Gerthy Theresa e Carl Ferdinand) avevano vinto il premio Nobel per la medicina e la fisiologia per la scoperta dei meccanismi di conversione catalitica del glicogeno. Di conseguenza questa visita fu molto stimolante per Helen Porter.

Al suo ritorno all’Imperial College, continuò a lavorare sul metabolismo dell’amido e nel 1949 fu invitata a trascorrere sei mesi a Bangor nel laboratorio della Prof. Peat. Durante questo periodo è stata in grado di dimostrare la presenza di amido fosforilasi nell’orzo.

Come risultato della sua crescente reputazione scientifica, nel 1953 ebbe una generosa sovvenzione dalla Fondazione Nuffield. Questo è stato un punto fondamentale nella sua carriera di ricercatrice perché questa sovvenzione comprendeva sia personale che apparecchiature, e lei fu in grado di formare un gruppo di ricerca e dotare di adeguata strumentazione un laboratorio dell’Imperial College. L’intenzione iniziale era far partire un progetto di studio dei sistemi enzimatici interessati al metabolismo dei polisaccaridi dai metodi convenzionali disponibili al momento.

Tuttavia negli anni ’50 si stavano sviluppando due nuove tecniche importanti per la ricerca biochimica: la cromatografia e l’impiego di marcatori radioattivi. Porter divenne uno dei primi ricercatori ad applicare questi metodi per preparare prodotti chimici radioattivi e usarli per studiare il metabolismo intermedio delle piante.

Helen Porter nel suo laboratorio

Con l’aiuto del Dr G. Popjak a Mill Hill e del Dr. J.R. Catch ad Amersham, fu costruito un apparecchio mediante il quale fu preparato amido radioattivo partendo dalla fotosintesi di grandi foglie di tabacco in presenza di 14CO2 marcata con C-14. Questo polisaccaride è stato utilizzato per la prima volta per preparare il glucosio radioattivo a scopo di ricerca medica ma poi sia l’apparato sia le sostanze radioattive prodotte da esso furono usate per gli studi di Helen Porter sul metabolismo delle piante. In particolare lo studio della formazione dell’amido da zuccheri contenuti nel tessuto fogliare e il movimento del materiale fotosintetico nelle piante seguito mediante autoradiografia e tecniche di conteggio portarono a una serie di ricerche innovative descritte in altrettanti importanti articoli scientifici.

Helen Kemp Porter

La crescente reputazione scientifica di Helen Porter fu tale da meritare la sua elezione a Fellow della Royal Society nel 1956, e nel 1957 fu nominata Lettrice in Enzimologia nel Dipartimento di Botanica dell’Imperial College. Fu anche incaricata Responsabile scientifico principale dell’Istituto di Ricerca in Fisiologia Vegetale nello stesso College. Nel 1959 divenne la prima donna professore ordinario nella storia dell’Imperial College e succedette al suo collega e mentore, il professor Gregory, come capo del Dipartimento di Fisiologia vegetale. Helen Porter si ritirò nel 1964 con all’attivo ben 36 pubblicazioni scientifiche.

Nel 1962 si unì in secondo matrimonio con Arthur St George Huggett, professore di fisiologia vedovo con due figlie. Sfortunatamente anche il secondo marito morì sei anni dopo, così, anche se non aveva figli suoi, acquisì le due figlie adolescenti del suo secondo marito e, infine, un notevole numero di nipoti. Agì come amica e saggia consigliere della sua famiglia adottiva, aiutandoli tutti finanziariamente e professionalmente.

Porter possedeva anche eccellenti doti amministrative prendendo decisioni senza suscitare troppo risentimento e antagonismo. Quando lasciò la cattedra all’Imperial College fu secondo segretario al Consiglio di Ricerche Agrarie diventando un funzionario pubblico molto efficace. Nel 1972 divenne consigliere del Primo Segretario.

Curiosamente Helen aveva coltivato fin dall’infanzia un interesse che aveva progressivamente maturato. Nel ricamo era insolitamente abile e mantenne questa passione fino alla morte, avvenuta il 7 dicembre 1987, all’età di 88 anni. Gli arazzi che lei ricamava erano artistici e fantasiosi e in molti casi le immagini erano ispirate da fotografie scientifiche che avevano particolarmente attirato la sua attenzione.

Opere consultate

D.H. Northcote, Helen Kemp Porter, Biographical Memoirs of Fellows of the Royal Society1991, 37, 400–409.

Catharine M.C. Haines, International Women in Science, ABC CLIO, Santa Barbara, 2001

  1. B. Ogilvie, J. D. Harvey, eds, The biographical dictionary of women in science: pioneering lives from ancient times to the mid-20th century. Vol.2, L-Z., Routledge. New York, 2000.

[1] Vedi https://ilblogdellasci.wordpress.com/2018/08/24/scienziate-che-avrebbero-potuto-aspirare-al-premio-nobel-martha-annie-whiteley-1866-1956/

[2] Frederick Gugenheim Gregory (1893−1961) britannico, botanico e fisiologo vegetale noto per le sue ricerche sul fotoperiodismo, traspirazione e metabolismo dei carboidrati. Fu direttore del Laboratorio di Fisiologia Vegetale dell’Imperial College nel 1937 e nel 1947 fu nominato Direttore del Dipartimento contribuendo a ricostruirlo dopo i danni subiti nella 2a guerra mondiale. Eletto Fellow della Royal Society (FRS) nel 1940 e insignito della Royal Medal nel 1957 per I suoi importanti studi di fisiologia vegetale.

Agricoltura 4.0.

In evidenza

Luigi Campanella, già Presidente SCI

L’innovazione tecnologica nel settore della coltivazione, che potremmo chiamare agricoltura 4.0, muove un enorme mercato economico: si stima infatti che nel mondo valga 7 miliardi, raddoppiato rispetto al 2017, di cui 400 milioni di dollari in Italia. Ormai Industria 4.0 ò divenuto un’espressione familiare a molti italiani. Non si può dire purtroppo la stessa cosa per Agricoltura 4.0 intendendo con essa non solo agricoltura digitale, come nel caso delle imprese gestionali, ma anche un approccio globale di sistema, che va dalla coltivazione alla raccolta alla gestione attraverso tecnologie innovative che consentono di valorizzare il significato di filiera Agricola.

Questa limitata percezione da parte del cittadino, se poteva essere giustificata dalla situazione reale fino ad un paio di anni fa,oggi lo è molto meno.La nacchina si è finalmente messa in moto: Un fenomeno globale che lo scorso anno ha visto 500 startup raccogliere 2,9 miliardi di dollari di investimenti: di queste un quarto sono attive nel campo dell’Agricoltura 4,0; nel nostro Paese il settore è cresciuto in un anno del 270% ed è rappresentato per l’80% da aziende esistenti che si sono innovate e per il restante 20% da nuove realtà (elettronica e sensori, software, robotica e droni, produttori indoor). Si tratta comunque di una nicchia rispetto al mercato globale perché il nostro mercato vale soltanto il 5% del mercato globale e il 18% di quello europeo (dati Osservatorio Smart AgriFood del Politecnico di Milano).

Ma l’agricoltura 4.0, anche in un mercato piccolo come il nostro, può dare risposte alle sfide climatiche e ambientali dei prossimi anni e fornire tecnologie che mitighino la mancanza di risorse e riducano gli sprechi, come per esempio le coltivazioni fuori suolo, l’idroponica, l’acquaponica, l’agricoltura urbana e il vertical farming.

La prima sfida è nutrire la crescente popolazione cercando il minor impatto ambientale possibile ed è stata tradotta in numeri da Daniel Podmiserg del Vertical Farm Institute. L’introduzione nelle aree urbane di coltivazioni verticali integrate ha impatto positivo su molte dimensioni della sostenibilità urbana, a patto che il modello agricolo riesca a valorizzare l’intero volume degli edifici, inserendo colture complementari.

La tecnologia del fuori suolo permette di ottenere efficienze elevatissime anche senza iperspecializzare la fattoria, a patto di far coincidere il luogo di vendita/consumo con quello di produzione: il vero Km 0.https://www.wired.com/2017/01/rise-vertical-farm-weeks-must-read-stories/

Dalle micro e nano plastiche nei mari si parla da tempo, ma il problema riguarda anche i terreni agricoli. Si parla delle microplastiche, che vengono ingerite dagli animali da cortile attraverso i vermi, che si occupano anche di diffonderle, e della nanoplastiche, che per le piccolissime dimensioni riescono a entrare in circolo nei vegetali. I pericoli potenziali provengono dalle sostanze chimiche nocive che si attaccano alle particelle di plastica, e in questo modo aggirano le barriere difensive degli organismi. Ancora in larga parte misterioso è invece l’effetto che le nanoplastiche più piccole, sotto i 20 nanometri, hanno sul funzionamento cellulare, per esempio mimando l’azione di determinati enzimi o interferendo sulle membrane.

L’inquinamento da microplastiche e nanoplastiche del terreno e delle falde acquifere.

Tante sono le fonti possibili: una di queste sono i teli usati per la pacciamatura, che si sta diffondendo per combattere meccanicamente le malerbe eliminando i diserbanti; un’altra il compost ottenuto anche con plastiche bio-based, che prima di essere assorbite si comportano come le plastiche tradizionali (anzi peggio, perché sono più bio-affini).Questi sono i primi risultati emersi dalla ricerca del team di Esperanza Huerta della Wageningen University & Research sulla sfida che la richiesta per maggiore produzione agricola con metodi tradizionali pone all’umanità.Per questa sfida, oltre all’educazione contro lo spreco e l’inquinamento, una soluzione radicale è rappresentata dall’ indoor farming, termine che racchiude in sé un alto sviluppo tecnologico, oltre a essere sinonimo di produttività, controllo sulla qualità e localizzazione della produzione. Se il problema è il suolo, perché non disponibile o a rischio di contaminazione o di sfruttamento non sostenibile, riduciamone la necessità per la produzione agricola. Questo innovato approccio alla produzione di cibo include mercati che vanno dai più tradizionali, ortofrutticoli, fino a quelli del non food, come la nutraceutica e la canapa. Oltre ai vantaggi spesso ricordati, rese elevatissime per metro quadro, riduzione dell’uso di suolo, acqua, fertilizzanti, azzeramento di pesticidi e diserbanti, il fuori suolo ne ha molti altri: uniformità della qualità, possibilità di controllare le caratteristiche dei prodotti, purezza dei principi attivi estratti, possibilità di utilizzare varietà ottimizzate che richiederebbero uso di prodotti chimici in grandi quantità, indipendenza dalle condizioni climatiche.

Un altro aspetto importantissimo riguarda la necessità di una buona legge sul consumo di suolo per fare i conti con serietà e responsabilità con il dissesto idrogeologico e l’alto rischio sismico che caratterizzano buona parte del nostri Paese. Va anche resa più equa e sostenibile la filiera alimentare ed è per questo che vanno rilanciati con forza due strumenti che vorremmo fossero supportati anche dalle norme dello Stato.

I prodotti Dop (più menzionati sono stati Parmigiano Reggiano, Prosciutto di Parma, Grana Padano, Prosecco, Chianti e Barolo)e Igp hanno assunto un ruolo nuovo all’interno dei territori italiani diventando il baricentro di una crescita che non è solo economica.

Attraverso le analisi del Big Data, Mauro Rosati, il direttore generale della Fondazione Qualivita sintetizza così i risultati della prima ricerca sperimentale che associa i dati economici e sociali del comparto con le conversazioni digitali sul web e offre il primo report delle informazioni digitali sul food made in Italy: dall’analisi della “nuvola” emergono significative ricadute sulla crescita culturale, turistica e sociale del Paese; ad oggi infatti sugli 882 prodotti Food e Wine IG sono 501 quelli con un sito ufficiale (nel 2016 erano 412, per una crescita del +22%), mentre 420 hanno almeno un profilo social (contro i 268 del 2016, per un +60%);quel che conta è “il lavoro in rete che stanno facendo consorzi e singoli produttori che permettono di fare una promozione di sistema del cibo made in Italy”. I prodotti Dop: non si parla solo più di tradizione, ma anche di “arti, architettura, storia e ambiente ,della conoscenza generale di una comunità. Non è un caso, allora, che le aziende Ig siano in prima linea “con azioni che spaziano dalle ricerche scientifiche che migliorano l’impatto dei metodi di produzione agli studi per l’educazione alimentare e la salute dell’uomo, passando per il sostegno alle più significative attività ricreative delle comunità territoriali.https://novagricoltura.edagricole.it/agricoltura-4-0/

Elementi della Tavola Periodica: Alluminio, Al

In evidenza

Alberto Zanelli*

L’alluminio (Al) è l’elemento con numero atomico 13 e si trova nel terzo periodo, tredicesimo gruppo (IIIA), dell’attuale sistema periodico degli elementi. Con una abbondanza relativa del 8% é il terzo elemento più presente sulla crosta terrestre dopo ossigeno e silicio. In natura si trova con i soli isotopi 27Al, quasi 100% del totale , 26Al (dalla spallazione dei raggi cosmici) ; sempre ossidato, sotto forma di feldspati, miche, argille e caolini. L’ossido puro è il corindone, gemma con durezza Mohs pari a 9 (il diamante sta a fondo scala cioè a 10), di cui alcune varietà sono note come rubino e zaffiro. Per l’estrazione del metallo si ricorre all’ossido idrato (bauxite). A causa del basso potenziale standard di riduzione (E0 = -1.66 V), non è possibile ottenere il metallo per riduzione ad alta temperatura con coke, come per ferro e rame, ma è necessario ricorrere ad un processo elettrochimico, come per magnesio e titanio.

Nel processo Hall-Heroult (1886) la bauxite viene fusa a circa 1000°C con criolite (3NaF·AlF3) che più recentemente è stata sostituita con miscele artificiali di fluoruri di sodio, alluminio e calcio. La riduzione avviene alla base della cella elettrolitica contro anodi di carbone con un dispendio di energia che oggi è circa 14 kWh per 1 kg di Al, secondo la reazione di cella: [1]

2Al2O3 + 3C → 4Al + 3CO2

Ne esce il metallo fuso (punto di fusione di Al 660°C) con un titolo del 99.4 – 99.9%. Recentemente Alcoa ha introdotto una preventiva conversione in carburo di Al e Calsmelt ha ridotto le temperature di esercizio aggiungendo rottami di alluminio nella miscela di minerali fusi, abbassando i consumi energetici.

Nel 2017 la produzione mondiale di Al primario è stata circa 63,4 milioni di tonnellate, di cui il 57% in Cina e solo il 12% in Europa, con un assorbimento di circa il 3,5% della produzione elettrica mondiale. L’elevato costo dell’energia, insieme alla riduzione della richiesta interna e all’aumento del riciclaggio, è il motivo per cui Italia, Paesi Bassi e Regno Unito hanno abbandonato, negli ultimi anni, la produzione di Al primario.[2] Nel 2012 in UE si estraevano poco più di due milioni di tonnellate di bauxite tra Grecia, Francia e Ungheria mentre la produzione di allumina, usata principalmente nei refrattari, raggiungeva 5,6 milioni di tonnellate. La produzione europea di Al soffre anche dell’incertezza sull’approvvigionamento di fluoruro di calcio (fluorite) che la UE importa peri il 70%, principalmente dalla Repubblica Popolare Cinese, responsabile di 2/3 dell’estrazione mondiale.[3] In Italia la bauxite non si estrae più dal 2016, l’allumina dal 2010 e si è ridotta drasticamente anche l’estrazione di fluorite. Era di fluorite la miniera per cui vennero maldestramente costruiti i bacini di decantazione dell’impianto di flottazione che crollarono il 19 luglio 1985 provocando 268 morti in Val di Stava (TN), ma questa è un’altra storia. Resta il fatto che i consumi energetici, le crisi nell’approvvigionamento delle materie prime e i rischi derivanti dall’attività industriale sono tre aspetti interconnessi su cui interrogarsi quando si ragiona sul nostro modello economico anche per un metallo così familiare come Al.

Dopo il ferro, Al è il metallo più utilizzato soprattutto grazie alla sua bassa densità (2690 kg m-3 a 20°C) e alla resistenza alla corrosione dovuta alla formazione spontanea di uno strato protettivo per reazione con l’ossigeno (passivazione). Grazie al punto di fusione relativamente basso Al può essere lavorato per pressofusione in stampi di acciaio o per idroformatura. Le leghe leggere basate su Al, magnesio, rame e zinco a seconda dell’uso, sono utilizzate in aeronautica, ma anche per scafi di imbarcazioni e particolari di automobili sportive. Lo strato di passivazione può essere ispessito con il così detto processo di anodizzazione che ne consente anche una tenace colorazione: per questo Al è largamente usato per la realizzazione di infissi in edilizia.

Figura 1. Manufatti in alluminio: bicicletta, cartellonistica, infissi e, riflessa sul vetro, linea di alta tensione (foto A. Zanelli).

Per la sua buona conducibilità elettrica Al, puro o in lega con Manganese e Silicio per aumentarne il carico di rottura in trazione, sostituisce il rame nelle linee elettriche aeree poiché consente di realizzare cavi che gravano meno sui tralicci di sostegno. Per la sua buona conducibilità termica invece viene utilizzato negli scambiatori di calore mentre leghe Al-silicio-rame si utilizzano per parti di motori.[4]

La versatilità di questo metallo e delle sue leghe ha consentito a ingegneri e stilisti una grande libertà di progettazione per realizzare una miriade di oggetti per uso professionale, sportivo e domestico. Al Museo Nazionale della Scienza e della Tecnologia “Leonardo da Vinci” di Milano, nell’esposizione permanente dedicata ad Al, è esposta un’ampia campionatura di questi oggetti.

Al è molto utilizzato anche per gli imballaggi tanto che, nel 2017 solo in Italia, ne sono stati immesse al consumo 65.000 tonnellate delle quali il 90% riguarda il settore alimentare e oltre 40.000 tonnellate sono ad uso domestico. In quell’anno il 63,4% degli imballaggi in Al è stato riciclato superando l’obiettivo per il 2025 (50%) e sfiorando quello per il 2030 (65%) che era stato superato però nel 2016 con un riciclaggio del 72%.[5] Per riciclare Al è sufficiente separarlo da altri rifiuti, pretrattarlo a 500°C per bruciare vernici ed etichette, rifonderlo a 800°C in atmosfera inerte, descorificare, e colare in lingotti o placche, la resa sul rottame iniziale è dell’87% ma il risparmio sull’energia ―e sulle relative emissioni di CO2― che si consumerebbe per la produzione del metallo primario dai minerali è del 95%.[6]

Figura 2. Utilizzo di Al come imballaggio.

Sempre nel settore imballaggi, piccole quantità di Al sono fatte aderire in fogli sottili o spruzzate su materiali diversi (cartone o plastiche) per ottenere un effetto barriera all’ingresso dell’ossigeno e consentire una maggiore durata delle derrate alimentari ivi contenute in atmosfera inerte. Il recupero da questi materiali poliaccoppiati è però estremamente difficile.

Nel corpo umano Al è presente in concentrazioni inferiori alla parte per milione e, in rapporto all’abbondanza relativa, si colloca al penultimo posto sopra al silicio nella graduatoria degli elementi su cui pare essersi evoluto Homo sapiens. In generale sembra che Al non sia essenziale per gli esseri viventi ma non sia neanche particolarmente tossico, nonostante l’elevata concentrazione nella litosfera e i complessi cicli geochimici che lo mettono continuamente in contatto con la biosfera. Ma se la lenta evoluzione della Vita è rimasta pressoché indifferente ad Al, l’Uomo, nella sua breve storia, ha dapprima sapientemente usato i minerali di Al poi, a partire dal ‘900, forse anche per il valore strategico nell’aereonautica, ha massicciamente introdotto il metallo nel suo armamentario tecnologico facendone uno dei materiali su cui si basa l’impennata del nostro sviluppo negli ultimi decenni. Il frequente uso dei Al nella vita di tutti i giorni, ma ancor di più l’inacidimento delle precipitazioni determinato dall’attività antropica sta aumentando l’esposizione ambientale ad Al e i sospetti di correlazione con l’aumento di casi di alcune patologie tipiche del nostro tempo. [7]

Proprio al controllo di Al nell’acqua potabile è legato un bel ricordo dei miei primi anni da laureato in chimica quando, nella calda mattina del ferragosto ’97, durante il mio stage estivo presso il laboratorio di controllo delle acque dell’allora SeaBo, la concentrazione di Al in un impianto di potabilizzazione sull’Appennino superò il livello di guardia.

Figura 3. Il cloruro di alluminio allo stato solido si presenta con catene di eleganti ottaedri uniti su un lato, centrati sul’atomo di Al e con gli atomi di cloro nei vertici (https://en.wikipedia.org/wiki/Aluminium_chloride)

L’impianto usava “polialluminio cloruro” come agente floculante e, a causa di un anomalo aumento di temperatura del bacino di captazione, cominciò a liberare Al. L’unico tecnico in servizio quella mattina si mosse per andare a risolvere il problema e, non potendo entrare in impianto da solo per motivi di sicurezza, mi chiese di accompagnarlo, con l’unica consegna di chiamare i soccorsi in caso d’incidente. Così io potei fare la mia scampagnata di ferragosto. Grazie alluminio!

[1] World aluminium.

[2] M. Conserva, La produzione mondiale di alluminio primario, A&L 21/02/2019.

[3] Deloitte Sustainability, British Geological Survey, Bureau de Recherches Géologiques et Minières, Netherlands Organisation for Applied Scientific Research, Study on the review of the list of Critical Raw Materials. Critical Raw Materials Factsheets, 2017.

[4] AA. VV. Enciclopedia della Chimica Garzanti, Garzanti editore, Milano, 1998.

[5] I.S.P.R.A Rapporto rifiuti urbani edizione 2018.

[6] CIAL – Consorzio Imballaggi in Alluminio.

[7] C. Exley J. Inorg. Biochem. 97 (2003) 1–7.

* Alberto Zanelli, consigliere del Gruppo Interdivisionale per la Diffusione della Cultura Chimica della S.C.I., si è laureato in Chimica e si è specializzato in Metodologie chimiche di controllo e di analisi presso l’Università di Bologna. Si è occupato di elettrochimica ed igiene industriale è ricercatore presso l’Istituto per la Sintesi Organica e la Fotoreattività del Consiglio Nazionale delle Ricerche dove si è occupato di materiali organici per l’elettronica, sensori e processi avanzati di ossidazione per la riqualificazione delle acque. Consigliere nel Gruppo interdivisionale per la divulgazione della cultura chimica della Società chimica italiana, è coinvolto in alcuni progetti di divulgazione scientifica.

I PFAS nell’uovo di Pasqua.

In evidenza

Mauro Icardi

Di composti organici bioresistenti, ed in particolare di Pfas sulle pagine di questo blog si è scritto parecchio negli ultimi due anni. Ma purtroppo la cronaca di questi giorni riporta il problema alla nostra attenzione.

https://www.rovigooggi.it/n/86836/2019-04-18/4-kg-al-giorno-del-nuovo-pfas-nel-po-servono-limiti-nazionali-per-impedirlo

Viene lanciato un allarme, e un giorno dopo un’altra notizia è in controtendenza rispetto alla prima.

http://www.telestense.it/arpae-nessuna-emergenza-pfas-emilia-romagna-20190418.html

Cominciamo col dire che il susseguirsi di notizie che si smentiscono non aiutano la comprensione del problema. Ammetto di fare fatica, e io sono un tecnico del settore idrico. Immagino lo sgomento della pubblica opinione. Per altro su un tema decisamente molto sentito come quello dell’acqua.

Occorre rendersi conto di alcune cose. E dopo le opportune riflessioni cercare di intraprendere delle azioni mirate e coraggiose.

A mio parere, per tutta una serie di ragioni concomitanti in Italia si è perso lo slancio iniziale, quello che negli anni 70 aveva dato il via alle realizzazioni degli impianti di depurazione e dei collettamenti delle acque fognarie. In Italia abbiamo percentuali di acque fognarie trattate che raggiungono percentuali del 98% nella provincia autonoma di Bolzano, e solo del 40% in Sicilia. Sono dati conosciuti. Occorre uniformare al più presto le percentuali di acque fognarie che devono essere sottoposte almeno alla depurazione fino al trattamento secondario. Ma relativamente al problema dei Pfas tutto questo non è sufficiente. Per eliminare questo genere di inquinanti solamente trattamenti di tipo innovativo (per esempio cavitazione idrodinamica o impianti a membrane) possono essere efficienti. E se guardiamo ai dati Istat la percentuale di Impianti in Italia dotati di trattamento terziario avanzato è solo del 10%, anche se la percentuale di acque trattate è del 60% (Fonte censimento delle acque per uso civile Istat 2012).Un secondo punto da cui partire è l’implementazione dei controlli sugli scarichi di origine industriale. E credo si debba evitare la concessione di deroghe allo scarico per aziende che nel loro ciclo produttivo rilasciano composti che possono esercitare interferenza endocrina, o essere inquinanti persistenti. Ho proposto su queste pagine di creare una sorta di new deal idrico, o in termine italico gli “stati generali dell’acqua”. Abbiamo già procedure di infrazione pendenti per la scarsa qualità delle acque reflue depurate. E non riusciamo a raggiungere gli stati di qualità previsti dalle norme europee per i nostri corsi d’acqua. Il problema degli inquinanti emergenti, legato a quello delle siccità prolungate rischia di creare situazioni decisamente gravi. In Italia esiste il “Portale dell’acqua” dove i cittadini possono recepire informazioni relative. Trovo debba essere migliorato e reso maggiormente fruibile.

Proporrei anche un centro di ricerca, o un coordinamento di Arpa, Ats, Utilitalia, Ispra, Cnr Irsa e Istituto superiore di sanità.

Prendendo esempio da quanto è usuale in Olanda. Creare sinergie significa in ultima analisi ottenere risultati concreti.

Un’altra proposta è quella di inserire i Pfas tra i parametri da ricercare sia nelle acque reflue, che in quelle potabili. In tempi congruenti, ma piuttosto rapidamente. Ricordiamoci che i Pfas sono classificati come cancerogeni di classe 2B e hanno attività di interferenti endocrini. Cancerogeni di classe 2B significa o che sono sicuramente cancerogeni per gli animali ma solo possibilmente per gli uomini o quando c’è limitata evidenza di cancerogenicità nell’uomo e meno che sufficiente evidenza di cancerogenicità negli animali da esperimento. Possibilmente perché i dati disponibili non sono sufficienti per i pochi studi condotti. Servono studi ulteriori. Quindi si devono destinare fondi alla ricerca.La vicenda Pfas ha avuto un impatto piuttosto importante in Veneto. E ha visto e vede i medici impegnati. In particolare quelli dell’associazione Isde (medici per l’ambiente).

http://archivio.vicenzapiu.com/leggi/il-dott-cordiano-risultati-indagine-epidemiologica-isde-su-mortalita-da-pfas

Ai medici la proposta che faccio è quella di dare informazioni certe, e di contribuire ad orientare tutti noi.

La notizia oggi riguarda le acque superficiali. Che sono poi le acque che utilizzeremo per irrigare i nostri campi. Non credo sia più il tempo dei rinvii. Occorre agire. Presto.

Lebbra antiplastica: dalla fantasia alla realtà.

In evidenza

Claudio Della Volpe

Una delle serie più longeve della TV è quella di Doctor Who, un personaggio a metà fra lo scienziato e lo stregone che viaggia avanti e indietro nel tempo e nello spazio in una astronave con le apparenze di cabina telefonica inglese, originario di un altro pianeta ma con l’aspetto di un terrestre che lotta contro i cattivi e per la giustizia; partita negli anni 60 sulla BBC, dunque quasi 60 anni fa, è ancora sulla breccia. Incredibile.

Uno degli autori con più successo delle storie del Doctor Who è stato KIT Pedler, ossia Christopher Magnus Howard “Kit” Pedler, capo del dipartimento di microscopia elettronica dell’istituto di oftalmologia dell’Università di Londra, che è stato un noto autore di libri di fantascienza.

Pedler insieme con Gerry Davis curò un altro programma di fantascienza della BBC Doomwatch.

Il tema di una delle puntate di Doomwatch fu poi usato per scrivere nei primi anni 70 un libro destinato ad un notevole successo, Mutante 59, il mangiatore di plastica, tradotto in italiano con il titolo di Lebbra antiplastica.  Nel libro una mutazione spontanea di alcuni batteri li porta ad attaccare la plastica e produce una gran quantità di disastri prima di essere debellata.

Lo spirito degli autori va in controtendenza rispetto al clima di scienza ultrapossente che spadroneggiava all’epoca, con l’idea che la catastrofe possa annidarsi dove meno ce lo aspettiamo.

Pendler fu anche autore di un libro sull’ecologia del pianeta e sull’ipotesi Gaia, sviluppata da James Lovelock, un modo di spiegare ed introdurre nella scienza i meccanismi di retroazione che rendono la biosfera un sistema complesso e omeostatico, in un universo in continua trasformazione.Insomma un esponente indomito di quella scuola materialista, utopista inglese che vide fra i suoi esponenti di punta il grande biologo JBS Haldane.

L’idea di batteri che potessero “mangiare” la plastica, che è un prodotto sintetico, non naturale è tornata a più riprese non solo nella letteratura, ma sempre più anche nella ricerca; e in anni recenti si è tramutata in ricerca di punta con lo scopo di rendere la plastica un materiale effettivamente riciclabile. Ci sono state osservazioni fortunate, serendipità vera e propria di cui abbiamo reso conto in un post del 2017 (La serendipità della camola) la scoperta delle capacità di digerire la plastica di un comune insetto, la camola del miele.

In realtà ci sono vari organismi che sono in grado di digerire certi tipi di plastica grazie anche alla simbiosi con batteri.

Plodia interpunctella e Galleria mellonella (la camola) , si è dimostrato che possono digerire il PE il primo certamente attraverso l’azione della sua flora intestinale, Enterobacter asburiae e un tipo di Bacillus. Ma si sa che esistono altri casi come Aspergillus tubingensis e Pestalotiopsis microspora, due funghi che digeriscono il poliuretano.

Vi riferisco qua dei tre sistemi enzimatici in grado di aggredire il PET che sono stati scoperti e migliorati in questi ultimi anni.

Nel 2016 Yoshida e collaboratori del Kyoto Institute of Technlology scoprirono un batterio la Ideonella Sakaiensis in grado attraverso due enzimi specifici di degradare il PET a acido tereftlaico e etilenglicole.

I due enzimi chiamati PETasi e MHETasi sono di dimensioni alquanto diverse come appurato da ricerche sucessive. . Nell’aprile 2018 la struttura del Petase è stata decodificata grazie a una ricerca condotta fra Gran Bretagna e Stati Uniti (2)e pochi giorni fa è stata decodificata anche quella del secondo enzimaLa PETasi è la prima forbice a entrare in azione, scomponendo la plastica in frammenti; quindi la MHETasi, molto più grande del primo enzima, scompone i frammenti fino a ottenere gli elementi di base del Pet, ossia l’acido tereftalico e il glicole etilenico.

La conoscenza dei due enzimi e del loro meccanismo di azione apre la possibilità della loro riprogettazione (attraverso modifiche geniche dei batteri) e del loro miglioramento in termini di efficienza, con potenziali enormi ricadute applicative per quanto riguarda l’economia circolare.

Riferimenti.

1) Science, 1196 11 MARCH 2016 • VOL 351 ISSUE 6278

A bacterium that degrades and assimilates poly(ethylene terephthalate) Shosuke Yoshida et al.

 

2) E4350–E4357 | PNAS | vol. 115 | no. 19

Characterization and engineering of a plastic-degrading aromatic polyesterase

Harry P. Austin   et al

3) NATURE COMMUNICATIONS | (2019)10:1717 | https://doi.org/10.1038/s41467-019-09326-3 | http://www.nature.com/naturecommunications

Structure of the plastic-degrading Ideonella sakaiensis MHETase bound to a substrate Gottfried J. Palm et al.

Chimica: oltre le apparenze.

In evidenza

Mauro Icardi

Ho avuto occasione ultimamente, di discutere e scambiare opinioni con ragazzi molto giovani. Cosa che cerco di fare sempre molto volentieri, in particolare se la discussione verte su temi oggi molto sentiti. In particolare la crisi ambientale e climatica. Durante questi anni di collaborazione al blog, ho sempre espresso con chiarezza il mio punto di vista, raccontando anche quale sia stata la mia formazione personale. Non solo legata al percorso formativo scolastico, ma anche a quello dello studio successivo. Studio legato alla formazione continua che ho seguito per passione personale, molto prima di doverlo fare per rispettare le indicazioni e i regolamenti dell’ordine professionale. Parlando con uno studente giovane, che appartiene ad uno dei gruppi locali italiani di “Friday for future”, ho raccontato della mia formazione e interesse per questi temi. E mi sono anche qualificato come chimico ambientale. La risposta che ho ricevuto, mi ha lasciato vagamente sbigottito. Sostanzialmente questo ragazzo mi ha detto “Lei è un chimico e si interessa di queste cose?” Abbiamo ancora chiacchierato per una mezz’oretta, con la promessa di mantenerci eventualmente in contatto.

Per l’ennesima volta ho sentito crescere dentro di me una sensazione di palese ingiustizia. Per riassumerla credo che questo brano, tratto dall’editoriale del mese di Marzo de “L’almanacco delle scienze” del CNR, a firma di Marco Ferrazzoli sia decisamente utile.

Sta di fatto che la chimica sembra scontare sia la sottovalutazione della sua importanza per la vita dell’uomo, sia la sopravvalutazione dei rischi a cui viene consuetamente legata. Chimica vista quindi come scienza complicata, noiosa, oppure causa dell’inquinamento e responsabile della mancanza di rispetto per la natura e per il Pianeta. La chimica se la batte quasi con la matematica per il titolo di disciplina più negletta a livello popolare e mediaticamente con minor appeal. Un giudizio severo, ingiusto, immotivato, poiché si tratta invece di una materia di grande fascino e importanza, a patto ovviamente che sia spiegata e comunicata in modo efficace e comprensibile.

Questo è quello che cerchiamo di fare anche noi che scriviamo su questo blog.

Per quanto riguarda la mia formazione personale, e per il lavoro che svolgo, la chimica e le nozioni principali di questa scienza sono state il mio costante ausilio. Il mio lavoro riguarda l’acqua e la sua salvaguardia. Negli anni mi sono confrontato con moltissime persone (ingegneri, biologi, tossicologi) e con molte persone con le quali collaboro per lavoro (elettricisti, meccanici). Da tutti ho ricevuto qualcosa, e a tutti ho cercato di dare qualcosa. Ma con quasi tutti ho dovuto faticare, lavorare ai fianchi. Per dimostrare (o tentare di farlo) che la chimica è qualcosa di molto diverso, da una sorta di vaso di Pandora dal quale sono scaturiti tutti i mali di questo nostro tempo. Altre volte ho scritto pezzi in difesa di una scienza che a troppi appare come il ricettacolo di ogni male. Mi occupo di acqua. Bastano queste poche nozioni per capire la bellezza della chimica.

Le eccezionali proprietà chimico-fisiche e la maggior parte di quelle chimiche dell’acqua sono legate alla sua polarità elettrica e alla possibilità di formare legami a idrogeno intermolecolari. Pur essendo formata da molecole semplici, possiede una stabilità chimica sorprendentemente elevata. Poiché le sue molecole sono polari è un solvente eccellente per sali e molecole che presentano legami polari (soluzioni).

Questo brano è tratto da appunti scritti a macchina che ho conservato gelosamente. Risalgono all’anno scolastico 1974/75. Frequentavo la seconda classe della scuola secondaria di primo grado, meglio conosciuta come seconda media. Mi vennero regalati da un ragazzo di qualche anno più vecchio di me, che frequentava il liceo scientifico. Sono stati in qualche modo profetici.

Non vorrei ripetere concetti già espressi. Sarebbe tutto sommato noioso e ripetitivo ritornare sul concetto che la chimica ha rischi, ma ci ha concesso molti benefici. Che molto del benessere di cui godiamo oggi, e delle cose a cui siamo abituati dipende da scoperte fatte nei laboratori chimici. Non mi voglio ripetere. La chimica che utilizzo io, è una chimica che deve affinare i propri metodi analitici. Che deve migliorare la parte preparativa dei campioni difficili (fanghi, morchie,reflui, rifiuti di varia tipologia). E’ una chimica che deve modellizzare flussi di acque, oppure di inquinanti aerodispersi. E che quindi deve dialogare strettamente con fisica e matematica. Una chimica che deve guardare al proprio futuro. E che sarà modificata da chi la vorrà studiare con lo stesso impegno. Ritornando per un attimo alla conversazione di cui parlavo all’inizio, mi ha fatto invece molto sorridere l’idea che quel ragazzo aveva della chimica, cioè che si occupasse esclusivamente di petrolio. In parte è vero, se uno sfoglia in maniera distratta e superficiale un testo di chimica organica. Io continuo a studiarla, magari non sistematicamente. Tenendo sul comodino (si lo confesso) dei testi che ogni tanto rileggo, o per meglio dire riassaporo. Tutto questo mi serve ogni giorno, e mi aiuta anche a mantenermi aggiornato ed attento.

Ecco, vorrei dire a quel ragazzo ,e a chi avrà la pazienza e la voglia di leggere questo post. Provate anche voi ad approcciarla. Se lo farete sono certo che troverete almeno un argomento che vi potrà appassionare. Ma per farlo liberatevi da condizionamenti che non hanno più ragione di essere. Perché posso assicurarvi che anche i chimici possono essere artefici di un nuovo modo di guardare al mondo, al pianeta ed al futuro.

E credo ne abbiano tutto il diritto. Lo abbiamo scritto come presentazione di questo blog : “Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.

Provate a leggere la tavola periodica, come fosse il calendario dell’avvento, anche se il Natale è trascorso, ed il prossimo non è alla porte. Provateci, potreste rimanerne finalmente affascinati, abbandonando le due p che si legano alla chimica. Tranquilli, non sto parlando delle p degli orbitali sp. Sto parlando delle p che significano le iniziali di preconcetto e pregiudizio. Che la chimica davvero non merita. Datele una possibilità.

NdA. Spero che le immagini “leggere” di questo post non siano fraintese. Tutto può servire a mio parere ad avvicinare, non solo alla chimica, ma alla conoscenza in generale.

Altre storie di piante e di chimica.

In evidenza

Claudio Della Volpe

Abbiamo recentemente parlato del metil-jasmonato,una molecola simile alle prostaglandine, che serve alle piante a costruire un sistema per comunicare alle altre piante situazioni di pericolo ed a difendersi da esso . E’ un esempio di come le piante non siano esseri che “vegetano”, vegetali come li chiamiamo sprezzantemente noi umani, ma complessi sistemi viventi diversi da noi, alieni, costruiti secondo una logica differente, ma non per questo meno efficace.

La storia di come le piante comunicano ha a che fare con la loro chimica e ci insegna tante cose.

Stavolta vi racconto la storia di come i sistemi di comunicazione delle piante che sono altamente evoluti possono essere messi in difficoltà da un insetto pestifero; e di cosa possiamo imparare da questa lotta fra piante e insetti e dalla sofisticata chimica che vi viene usata.

Questa storia è stata scoperta e raccontata in un lavoro (1) pubblicato di recente su PNAS.

La mosca bianca del tabacco (Bemisia tabaci), scoperta dapprima sul tabacco, è in realtà un insetto responsabile di danni molto ingenti a parecchi tipi di piante coltivate, come il pomodoro. Infatti essa è prima di tutto polifaga, mangia di tutto, induce dunque danni a parecchie colture e per quote elevate, ma trasporta anche virus di vario genere.

La mosca bianca del tabacco.

E’ caratteristica comune di questa specie di insetti, ma anche di altri della medesima famiglia (denominata Aleurodidi) avere comportamenti che ne rendono difficile l’eliminazione: elevato potenziale riproduttivo, insorgenza di fenomeni di resistenza, difficoltà intrinseca di raggiungere con gli insetticidi di copertura la pagina inferiore delle foglie dove comunemente stanziano, la polifagia, ossia l’essere onnivori, attaccare molte piante diverse, la mobilità degli adulti e, infine, la semplificazione degli agrosistemi, in particolare le colture protette in serra, in termini di biodiversità.

Per tutti questi motivi si è sviluppato un grande interesse nello scoprire come queste tipologie di insetti riescono ad essere così invasivi.

La premessa del racconto è che le piante rispondono agli erbivori e alle infezioni patogene con la sintesi di vari composti di difesa, inclusi composti volatili che sono emessi nell’ambiente circostante. Questi composti possono essere percepiti dalle piante vicine e le avvisano dell’attacco e anche dello specifico attaccante.

In particolare le piante usano un sistema a base di acido jasmonico (JA),

che interagisce con il sistema digestivo degli insetti compromettendone l’alimentazione, per difendersi dall’attacco degli insetti ed in genere dei mangiatori di foglie ed invece un secondo sistema a base di acido salicilico (SA), (proprio lui, il nostro antenato dell’aspirina) per comunicare e difendersi dai virus e dai patogeni.

E’ da notare che le due strade di difesa interferiscono, nel senso che se si accentua l’una si deprime l’altra e viceversa.

Difesa JA -> contro gli insetti e gli erbivori (mediata per esempio da (E)-β-ocimene, linaloolo e metil-isonicotinato, composti 8,10 e 11 della figura precedente, attacco di bruchi)

(E)-β-ocimene

linaloolo

metilisonicotinato

Difesa SA -> contro i virus e le infezioni (mediata per esempio da α-pinene e β-mircene, composti 3 e 4 della figura precedente attacco di Pst DC3000 una infezione batterica)

β- mircene

Le mosche bianche sono in grado invece di interferire in questo meccanismo inducendo come conseguenza nelle piante vicine una risposta sbagliata. L’attacco delle mosche bianche (nella prima riga) per esempio induce nel pomodoro la riduzione della produzione del composto 11, il metil-isonicotinato ed invece l’aumento del composto 3, l’α-pinene, così i pomodori circostanti attivano le difese contro i virus ma non quelle contro i mangiatori di foglie.

Ma come fa la mosca bianca ad indurre le piante a produrre il segnale sbagliato?

I ricercatori cinesi hanno usato sia esperimenti sul campo in ambienti controllati misurando le sostanze presenti nell’aria e nei tessuti, sia invece usando sostanze di sintesi, molecole sintetiche usate dalle piante come messaggeri e verificando che le piante infestate da batteri o attaccate da bruchi emettevano composti di allarme diversi da quelli emessi dalle piante attaccate dalla mosca bianca. Il meccanismo era messo in moto tramite l’attivazione di geni specifici. Hanno potuto escludere che la sostanza necessaria fosse emessa dalla mosca direttamente ma che invece la sua produzione era indotta nella pianta. Rimane da capire il meccanismo esatto di induzione da parte dell’insetto alla produzione della sostanza sbagliata da parte della pianta.

In effetti leggendo l’articolo ci si rende conto che la risposta potrebbe essere complessa; le piante potrebbero rispondere ai virus trasportati dagli insetti, quasi come cavalli di troia, prima che agli insetti e mentre combattono i primi sono distrutte dai secondi. Gli insetti da parte loro contribuiscono ad indebolire le difese anti-insetto stimolando quelle antivirus. Nella forma di ninfe fanno dire alle piante: attente ai virus e quando quelle si preparano a combattere i virus, gli insetti ormai maturati da ninfe in insetti adulti sono pronti a distruggerle.

Lotta per la vita mediata dalla chimica.

(1) Airborne host–plant manipulation by whiteflies via an inducible blend of plant volatiles

Peng-Jun Zhang, Jia-Ning Wei, Chan Zhao, Ya-Fen Zhang, Chuan-You Li, Shu-Sheng Liu, Marcel Dicke, Xiao-Ping Yu e Ted C. J. Turlings

Si veda anche Gli hacker delle piante su Internazionale 1301, pag. 102 oppure su The economist https://www.economist.com/science-and-technology/2019/03/30/whiteflies-are-such-a-pest-because-they-hack-the-way-plants-communicate

Spammatori di idrogeno.

In evidenza

Vincenzo Balzani

Bologna, 11 aprile 2019

                                    Lettera aperta al Corriere della Sera

Gentile Direttore,

Sul Corriere del 2 aprile a pag. 35 nella rubrica “Sussurri & Grida” c’era un titolo in grande,  “Snam sperimenta il mix idrogeno-gas, prima in Europa”, e un breve articolo nel quale si elogia “la prima sperimentazione in Europa da parte della Snam di una miscela di idrogeno al 5% e gas naturale (H2HG) fornita a un pastificio  e a un’azienda di imbottigliamento di acque minerali”. L’articolo poi continua così: “Una prima volta che <proietta la Snam e il nostro Paese nel futuro dell’energia pulita>, ha detto il CEO di Snam Marco Alverà, che era a Contursi insieme al sottosegretario al ministero per lo sviluppo economico Andrea Cioffi”. L’articolo infine conclude  notando che “L’idrogeno avrà un ruolo cruciale nel raggiungimento degli obiettivi europei e globali di decarbonizzazione al 2050”.

Forse è giusto aver messo questa notizia nella rubrica “Sussurri & Grida”.  Faccio notare, però, che i primi “sussurri” riguardo la possibilità di utilizzare miscele di idrogeno e metano risalgono al 2006 in Emilia Romagna e al 2010  in Lombardia come combustibile per auto, apparentemente senza successo.  Wikipedia ci informa che dal 2009 al 2013 è stato attivo il “progetto MHyBus“, finanziato dalla Commissione Europea con l’obiettivo di indagare scientificamente sul comportamento di un autobus per trasporto urbano alimentato con una miscela di idrometano al 15% di idrogeno. La relazione finale su questo progetto, al quale hanno lavorato Regione Emilia-Romagna, ENEA, ATM Ravenna, SOL ed ASTER, è molto sintetica: “l’autobus portato in strada ha mostrato significativi risparmi di carburante e riduzioni delle emissioni di anidride carbonica rispetto a un veicolo a metano”. Poi non si è sentito più nulla.

La prima domanda è allora che senso ha “gridare”  che “Snam sperimenta il mix idrogeno-gas, prima in Europa”? Il dubbio che viene è che in Europa nessuno se ne sia interessato perché hanno subito capito che non è una strada utile per decarbonizzare il mondo.

D’altra parte, come potrebbe essere altrimenti? L’idrogeno (5-15%) che viene miscelato al metano e che viene ottenuto anch’esso dal metano, forse migliora un po’ combustione, ma non può ridurre significativamente le emissioni totali di anidride carbonica e non ci sono prove né motivi scientifici cha possa abbattere le emissioni di ossidi di azoto e di particolato ultrafine.

La seconda domanda, allora, è come si può “gridare” che l’esperimento del pastificio di Contursi  <proietta la Snam e il nostro Paese nel futuro dell’energia pulita>?

E’ bene anche ricordare che l’idrogeno, come l’energia elettrica, non è una fonte energetica primaria, semplicemente perché non esiste in natura (non ci sono pozzi di idrogeno!).  La scienza è riuscita a convertire la luce solare, fonte di energia primaria abbondante ed inesauribile, in energia elettrica con ottimi rendimenti mediante i pannelli fotovoltaici. Se anche la scienza riuscirà ad ottenere idrogeno (pulito) dall’acqua mediante la cosiddetta fotosintesi artificiale,  non sarà conveniente “bruciarlo” in un motore a combustione, ma piuttosto convertirlo in elettricità mediante pile a combustibile per alimentare un motore elettrico, che è 3-4 volte più efficiente di un motore a combustione. Ecco, quindi, che la terza  <grida> dell’articolo,  “L’idrogeno avrà un ruolo cruciale nel raggiungimento degli obiettivi europei e globali di decarbonizzazione al 2050”, andrebbe dedicata non all’idrogeno, ma all’energia elettrica prodotta con fonti rinnovabili.

D’altra parte, basta guardare a quello che accade nei paesi all’avanguardia nei trasporti pubblici. Mentre noi stiamo parlando di cose inutili come l’idrometano, un fantasma con cui le compagnie petrolifere tentano disperatamente di tenere in vita i motori a combustione, in Cina ogni cinque settimane vengono messi in strada 9.500 bus elettrici, un numero uguale a quello della intera flotta di bus di Londra. Gli autobus elettrici in funzione nel mondo sono già più di 300.000 e si prevede che dal prossimo anno costeranno meno di quelli convenzionali utilizzati nelle città. È probabile che nel 2040 l’80% di tutti gli autobus saranno elettrici.

Un discorso simile vale per le tratte non elettrificate delle linee ferroviarie. Mentre la Snam spinge per sostituire le motrici a gasolio con motrici a LNG (metano liquefatto), in altri paesi utilizzano treni elettrici alimentati da batterie.

Infine, sempre Snam è molto attiva per diffondere l’uso del biometano per autotrazione. Anche questo è un estremo tentativo per tener in vita il motore a combustione: fin che ci saranno opportunità per usare questi motori, una parte (anzi, la gran parte) di essi continuerà, infatti, ad usare metano fossile. Questo è anche ciò a cui mira la politica di Eni, che continua a trivellare in molte parti del mondo anche se è noto che le riserve di combustibili fossili già disponibili alle compagnie petrolifere sono superiori alle quantità di combustibili fossili che potremo utilizzare senza causare danni gravi al pianeta. Eni e Snam, aziende controllate dallo Stato, fanno quindi una politica in netta contraddizione con quella ufficiale del Governo che, almeno a parole, sostiene la transizione dai combustibili fossili alle energie rinnovabili.

Cordiali saluti,

Vincenzo Balzani, Università di Bologna, Coordinatore del gruppo energiaperlitalia

 

Il racconto del 2019.

In evidenza

Claudio Della Volpe

Come sappiamo questo è l’anno dedicato alla Tavola periodica degli elementi; e certo la rubrica che ci siamo inventati sul più alto numero possibile di elementi da commentare facendo riferimento al loro ciclo biogeochimico ed mano è un modo di celebrarlo. Così come gli innumerevoli riferimenti al nostro autore preferito, Primo Levi ed alla sua opera “Il Sistema periodico”, che sembra fatta apposta per questo anno.

Ma c’è un altro racconto, almeno uno, di fantascienza, scritto molti anni fa, nel 1957, che merita di essere citato come racconto dell’anno.

Il racconto di cui di parlo oggi si chiama “Omnilingual” (Onnilinguista) e fu scritto da uno scrittore americano, Henry Beam Piper e pubblicato su una delle più note riviste di FS del mondo, ossia Astounding Science Fiction; il racconto mi è stato segnalato da due soci della sez. TAA della SCI i colleghi Jolanda Filippi e Marino Kofler.

Henry Beam Piper, morto a soli 60 anni nel 1964 fu uno scrittore autodidatta che scrisse varie serie di racconti legati da due temi: lo sviluppo di una futura federazione terrestre, una sorta di storia del futuro umano e storie basate su pianeti alternativi alla Terra.

Omnilingual è un racconto breve scritto nel 1956-57 e publicato nel numero di febbraio 1957 della rivista; il testo inglese è pubblico, ma non so quello italiano che comunque si trova in rete, se aveste problemi a trovarlo chiedetemi;

https://www.gutenberg.org/files/19445/19445-h/19445-h.htm

Quell’anno è stato un anno decisivo nella scienza e tecnologia internazionali. E’ noto per essere stato il primo anno geofisico internazionale che vide una collaborazione vastissima di ricercatori in ambito geofisico ma anche astronomico; era in corso la lotta per la supremazia spaziale e verso la fine di quell’anno il primo satellite artificiale solcò lo spazio attorno alla Terra, lo Sputnik 1, un piccolo dispositivo che rimase in orbita per parecchio tempo.

L’interesse per lo spazio era enorme.

Il racconto si svolge in un futuro prossimo (e per noi passato) nel 1997 e racconta l’esplorazione di Marte e la scoperta di un modo per tradurre la lingua marziana, una ipotetica civiltà fiorita sul pianeta rosso solo 50.000 anni prima. La protagonista è una astroarcheologa che spera di trovare un modo per tradurre la lingua marziana contro le opinioni di tutti i suoi colleghi maschi.

Ma era il massimo a cui arrivava. Era in grado di pronunciare dalle tre alle quattromila parole marziane, ma non era in grado di assegnare un significato a nessuna di esse. Selim von Ohlmhorst era convinto che non ci sarebbe mai riuscita. E lo stesso credeva Tony Lattimer, il quale era assai meno reticente a dirlo. Ed era sicura che anche Sachiko Koremitsu la pensava allo stesso modo. Di tanto in tanto c’erano momenti in cui cominciava ad aver paura che avessero ragione.

Le lettere sulla pagina davanti a lei cominciarono ad agitarsi e a danzare, magre vocali con piccole e grasse consonanti. Adesso lo facevano ogni notte, nei suoi sogni. E c’erano altri sogni nei quali lei le leggeva con la stessa facilità dell’inglese; quando si svegliava, cercava disperatamente, ma invano, di ricordarsene.

Marte è coperto di polvere depositata dalle famose tempeste e le costruzioni dei marziani sono accessibili solo dalle sommità che emergono.

La squadra terrestre esplora ed occupa questi edifici condizionandoli per usarli come propria base e trova anche materiali nuovi che sulla Terra non sono ancora stati inventati.

Già, ma come si fa a tradurre la lingua di una civiltà di un altro pianeta, ormai scomparsa in assenza di una pietra di Rosetta come è servita sulla Terra per le lingue di altre culture di società più primitive tecnologicamente?

E’ una domanda a cui Asimov, che presenta il testo, dichiara di non essere riuscito a rispondere pur essendo un chimico.

Quando lessi per la prima volta questo racconto nel 1957, non riuscii a prevedere in anticipo la soluzione di Beam. Ma questo non mi rese felice. Mi riempì d’un inconsulto rincrescimento. Avrei dovuto. Ancora oggi per me «Onnilinguista» è la storia il cui finale non mi riuscì di prevedere, anche se avrei dovuto.

Oh, be’, se non avete mai letto la storia, forse riuscirete a fare meglio di me.

ma in realtà la risposta è facile e nella sua forma generale è stata anche applicata da noi stessi nei materiali inclusi nelle due sonde inviate nello spazio profondo: il Pioneer e il Voyager.

Una civiltà avanzata, che domina lo spazio e che dunque per forza di cose conosce la scienza ha un riferimento che è comune a qualunque altra intelligenza, ossia la Natura stessa e le sue leggi e secondo alcuni anche la matematica. Sia su Pioneer che su Voyager ci sono delle piastre d’oro con incisi simboli che si sono ritenuti di universale interpretazione.

Alcuni dei simboli fanno riferimento ad aspetti chimico spettroscopici (come la transizione iperfine dell’idrogeno), ma nulla fa riferimento alla Tavola.

Ho qualche dubbio che siano così banali da interpretare, mentre una tavola periodica o perfino alcuni elementi chimici tipo la Heritage Table ma inserendoci quelli radioattivi sarebbe stata a mio parere comprensibile, fornendo la possibilità di associare numeri e costanti universali o altre notizie come le lettere dell’alfabeto e la loro posizione nell’alfabeto.

«Quella non è soltanto la tavola marziana degli elementi: è la tavola degli elementi. È l’unica che ci sia,» esclamò Mort Tranter, quasi sul punto di esplodere. «Guarda, l’idrogeno ha un protone e un elettrone. Se invece avesse più protoni ed elettroni non sarebbe più idrogeno, ma qualcos’altro. E lo stesso vale per il resto degli elementi. E l’idrogeno, su Marte, è uguale a quello sulla Terra, o su Alfa Centauri, o nella galassia più lontana…»

«Basterà che tu metta i numeri in quell’ordine, e qualunque studente del primo anno di chimica potrà dirti che elementi rappresentano,» disse Penrose. «Sempre che voglia essere promosso, s’intende.»

La Tavola Periodica è uno dei più potenti strumenti di comprensione della Natura e rappresenta verosimilmente una costante universale, qualcosa che non cambia in nessun posto dell’Universo conosciuto dove la vita possa svilupparsi. Il suo uso come strumento di comunicazione è un altro aspetto di questa universalità.

Ed è appunto la scoperta di una tavola degli elementi marziana che consentirà alla protagonista di avere la sua Stele di Rosetta; una stele che varebbe per qualunque civiltà dell’Universo conosciuto, sappiamo infatti dalle osservazioni astronomiche, dalla spettroscopia stellare che la materia è la stessa dappertutto con gli stessi atomi, almeno nella sua parte più facile da sperimentare; se dunque trovassimo una civiltà stellare certamente la tavola Periodica sarebbe uno strumento di comunicazione comune.

Voi che ne dite?

Elsie May Widdowson (1906-2000)

In evidenza

Rinaldo Cervellati

Elsie Widdowson è stata una delle prime donne a ottenere un dottorato di ricerca in chimica all’Imperial College, nato come Istituto di Scienze, Tecnologia e Medicina, uno dei primi college inglesi ad accettare studenti di sesso femminile.

Elsie Widdowson nacque il 21 ottobre 1906 a Wallington, una cittadina nella contea di Surrey, non molto distante da Londra. Il padre faceva l’assistente droghiere. Elsie frequentò la Sydenham County Grammar School for Girls a Durwich, un sobborgo di Londra. La sua materia preferita era la zoologia e lei pensava di proseguirne gli studi all’università. Tuttavia ebbe un’ottima insegnante di chimica che la convinse piuttosto a scegliere questa materia. La tradizione voleva che le donne si iscrivessero ad uno dei college a loro riservati. Incoraggiata da tre ragazze più grandi di lei che erano andate all’Imperial College, decise di fare la stessa cosa. Si trovò in un ambiente del tutto maschile: nell’anno in cui si iscrisse su circa 100 studenti soltanto tre erano donne.

Widdowson sostenne gli esami per il diploma di B.Sc. dopo due anni ma le fu riconosciuto soltanto un anno dopo, nel 1928. Trascorse questo periodo nel laboratorio di biochimica del prof. S.B. Schryver[1] che si occupava di chimica di proteine e aminoacidi estratti da vegetali. A quei tempi non c’era la cromatografia e nel laboratorio si utilizzavano metodi chimici di separazione, lavorando con grandi quantità di materiale contenute in recipienti enormi.

Verso la fine del 1928 Widdowson iniziò il lavoro post-diploma nel Dipartimento di Fisiologia Vegetale dell’Imperial College, che aveva ottenuto una sovvenzione governativa per la ricerca sulla chimica e fisiologia delle mele. Responsabile della ricerca era Helen Porter[2] che affidò a Elsie il compito di analizzare i carboidrati dei frutti dal momento della loro comparsa sugli alberi fino alla maturazione e raccolta, e successivamente durante lo stoccaggio. Per questo lavoro Widdowson si recava ogni due settimane nei frutteti del Kent a raccogliere i frutti di specifici alberi per poi analizzarli in laboratorio. Mise a punto un metodo per separare e analizzare amido, emicellulose, saccarosio, fruttosio e glucosio nelle mele. Nel 1931 pubblicò i risultati di questa lunga ricerca su Biochemical Journal [1]. Nello stesso anno ottenne con questo lavoro il dottorato in chimica.

Indubbiamente Helen Porter diede a Elsie aiuti e consigli, e le comunicò il suo amore per la ricerca, che lei conservò per tutta la vita.

Esaurita la sovvenzione, Widdowson, che peraltro non desiderava dedicare la sua vita alle piante ma era più interessata agli animali e agli umani, lasciò il Dipartimento di Fisiologia Vegetale. Nel 1932 si recò al Courtauld Institute del Middlesex Hospital, facendo ricerche sotto la guida del Professor Edward C. Dodds[3], acquisendo esperienza in biochimica umana. Nei 18 mesi passati al Courtauld, pubblicò i risultati di una ricerca sul confronto fra l’urina e le proteine del siero di soggetti sani e di malati di nefrite [2].

Nel 1933 Elsie rimase senza occupazione e in quei tempi i lavori di ricerca erano difficili da trovare, soprattutto per una donna. Il professor Dodds le disse che quella della dietetica era una professione promettente e, su suo consiglio, Widdowson si iscrisse al primo corso di diploma post-universitario in dietetica, nel Dipartimento di Economia domestica e Scienze sociali al King’s College, diretto dal prof. V.H. Mottram[4].

Figura 1 Elsie May Widdowson

Nella prima parte del corso Widdowson dovette studiare tecniche di cucina industriale nelle cucine del King’s College Hospital. Qui incontrò Robert McCance, un giovane medico che indagava gli effetti chimici della cottura dei cibi come parte della sua ricerca clinica sul trattamento del diabete. Widdowson rilevò un errore nella tecnica analitica di McCance sul contenuto di fruttosio nella frutta, entrambi realizzarono inoltre che c’erano errori significativi anche nelle tabelle nutrizionali standard. Da quel momento iniziò fra i due un sodalizio scientifico che durò per i successivi 60 anni (figura 2), fino alla morte di McCance avvenuta nel 1993[5].

Figura 2

Su suggerimento di Elsie i due ricercatori si proposero di analizzare in dettaglio la composizione di tutti gli alimenti che componevano la dieta britannica. Questa ricerca, durata per più di 15 anni, richiese circa 15000 analisi e condusse alla raccolta dei risultati nel volume The chemical composition of foods, senza dubbio uno dei libri più longevi (v. nota 5).

Poiché McCance e Widdowson stavano raccogliendo così tante informazioni sulla composizione del cibo, erano in una posizione privilegiata per calcolare l’assunzione di energia e sostanze nutritive da parte di uomini, donne e bambini individualmente, invece che basarsi sulle famiglie come era stato fatto fino ad allora. Elsie iniziò le sue indagini seguendo le assunzioni dietetiche dapprima di 63 uomini e 63 donne (lei compresa), per un periodo di una settimana. In seguito estese l’indagine su oltre 1000 bambini e ragazzi di età compresa fra 1 e 18 anni. I risultati evidenziarono la grande variazione nel fabbisogno energetico e sostanze nutritive tra un individuo e un altro dello stesso sesso ed età [3,4]. I Sali minerali (Cu, Zn, Cr e Co) e la loro escrezione furono oggetto di questa e successive ricerche.

Seguì un periodo molto intenso. A McCance furono concessi alcuni letti per pazienti nell’ospedale del King’s College. In particolare, una dei degenti era affetta da policitemia vera e venne trattata con acetil fenilidrazina. Così facendo si ruppero abbastanza globuli rossi da liberare 5 grammi di ferro nel suo corpo. Con loro grande sorpresa il ferro non venne escreto. McCance e Widdowson quindi si auto iniettarono e iniettarono a colleghi volontari ferro per via endovenosa[6].

Anche in questo caso il ferro non fu escreto. Ciò li portò a suggerire che la quantità di ferro nel corpo deve essere regolata non per escrezione ma per assorbimento intestinale controllato. Studi più sofisticati dimostrarono la veridicità dell’ipotesi [5-8].

McCance, analizzando le urine di pazienti in coma diabetico, notò che queste erano prive di sale (cloruro di sodio). Insieme a Widdowson iniziarono una serie di test clinici su volontari cui veniva applicata una dieta senza sale. I risultati di questi esperimenti aiutarono i medici a comprendere l’importante ruolo dei fluidi e del sodio nell’organismo [9].

Oggi, il mantenimento dell’equilibrio dei fluidi e del sale è una parte del trattamento standard dei pazienti con coma diabetico, disfunzioni renali e infarto cardiaco e di chi ha subito interventi chirurgici.

In seguito alla pubblicazione degli articoli sull’assorbimento del ferro, a McCance fu offerto il posto di Lettore di Medicina all’Università di Cambridge. Egli accettò a patto che anche Elsie Widdowson fosse assunta, in modo che la loro collaborazione non si interrompesse. Così McCance e Widdowson si trasferirono a Cambridge nel 1938.

Dopo pochi mesi scoppiò la Guerra. Widdowson, McCance e i loro colleghi divennero essi stessi soggetti sperimentali adottando per diversi mesi una dieta molto povera costituita da pane, cavoli e patate con poca carne e latticini, per scoprire se tale dieta potesse influire sulla loro salute (fig. 3).

Figura 3 Widdowson (al centro), McCance (alla sua destra) e il loro staff mentre sperimentano la loro dieta, 1940 ca.

Dimostrarono che una buona salute poteva essere supportata da questo tipo di dieta se integrata con calcio e vitamine. Il ministro degli approvvigionamenti li nominò responsabili della formulazione del razionamento bellico della Gran Bretagna durante la seconda guerra mondiale. A questo scopo suggerirono di aggiungere piccole quantità di sali di calcio al pane e il loro lavoro è diventato la base della dieta di austerità in tempo di guerra [10].

Dal 1946 Widdowson e McCance lavorarono al Medical Research Council partecipando alla riabilitazione delle vittime della grave inedia nei campi di concentramento nazisti. Visitarono i Paesi Bassi e la Danimarca per studiare l’impatto della dieta in tempo di guerra sulla salute di queste popolazioni sotto l’occupazione tedesca. I due scienziati furono anche per diverso tempo nella Germania del primo dopoguerra visitando diversi orfanotrofi dove il cibo era severamente razionato e di conseguenza i bambini erano denutriti.

Widdowson proseguirà poi questa ricerca nei successivi anni ’50, ’60 e ’70 studiando la malnutrizione in Africa.

Nel 1949 Widdowson e McCance tornarono al Medical Department di Cambridge, riprendendo la ricerca che avevano lasciato prima della guerra sulla composizione del corpo umano. Studiarono le variazioni di composizione dalla nascita alla maturità, analizzando gli stessi costituenti come avevano fatto con gli alimenti: grassi, proteine, carboidrati, ecc. Questa ricerca condusse a numerose pubblicazioni in collaborazione, la più importante è riportata in [11].

La ricerca si estese al confronto con la composizione degli organismi animali e alle funzioni di organi come reni e fegato.

Figura 4 Elsie Widdowson in età matura

Nel 1968 Elsie si trasferì al Dunn Nutrition Laboratory del Medical Research Council, come capo della divisione di ricerca sulla nutrizione infantile. I suoi studi portarono a un importante confronto fra la velocità di crescita di diverse specie animali, fra cui l’uomo [12]. Widdowson mostrò che un neonato umano ha il 16% del suo peso in grasso, molto più elevato dell’1-2% in altre specie. Ha anche studiato l’importanza del contenuto nutrizionale delle diete per bambini, in particolare di tracce di vitamine e minerali nel latte materno. Questo lavoro portò alla revisione degli standard per i sostituti del latte materno nel Regno Unito negli anni ’80.

Nel 1973 si ritirò una prima volta continuando comunque a fare ricerca nel Dipartimento di Medicina Investigativa, nuovo nome dato al Dipartimento di Medicina Sperimentale di cui McCance era stato direttore. Agli amministratori dell’ospedale, sensibili ai movimenti animalisti non piaceva la parola “sperimentale”. Per un certo tempo usufruì di un laboratorio e seguì alcuni studenti di dottorato, ma anche quando il laboratorio non fu più disponibile aveva ancora un ufficio che il direttore Ivor Mills le permise di mantenere fino a quando andò in pensione. Elsie si ritirò per la seconda volta nel 1988.

Anche questo fu però un ritiro “attivo”: Widdowson aveva assunto molte responsabilità, in particolare la presidenza della British Nutrition Foundation dal 1986 al 1996, la presidenza di diversi comitati nazionali e internazionali e la presidenza della Società Nutrizionale e della Società Neonatale.

Elsie Widdowson fu nominata membro della Royal Society nel 1976 e Commander of the Order of the British Empire nel 1979. Ricevette lauree ad honorem da università britanniche e americane.

È morta all’Addenbrooke Hospital (l’Ospedale di Cambridge) in seguito a un ictus il 14 giugno 2000.

Elsie Widdowson divenne una persona famosa e molto amata dai suoi connazionali, oltre ai necrologi sulle riviste specializzate (Nature, 2000, 406, 844), è stata ricordata sui quotidiani: The Telegraph (22/6/2000), The Guardian (22/6/2000) e l’autorevole The Economist (14/6/2000).

Omaggio a Elsie Widdowson

Opere consultate

  1. Ashwell, Elsie May Widdowson, C.H., Biogr. Mems Fell. R. Soc. Lond. 2002, 48, 483–506.

Bibliografia

[1] E. Widdowson, A method for the determination of small quantities of mixed reducing sugars and its application to the estimation of the products of hydrolysis of starch by taka-diastase. Biochem. J., 1931, 25, 863–879.

[2] E. Widdowson, A comparative investigation of urine- and serum-proteins in nephritis. Biochem. J. 1932, 27, 1321-1331.

[3] R.A. McCance, E. Widdowson, A study of English diets by the individual method. Part I. Men. J. Hyg., Camb., 1936, 36, 269–292.

[4] R.A. McCance, E. Widdowson, A study of English diets by the individual method. Part II. Women, J. Hyg., Camb., 1936, 36, 293–309.

[5]R.A. McCance, E. Widdowson, The fate of the elements removed from the blood-stream during the treatment of polycythaemia by acetyl-phenylhydrazine. Q. J. Med. 1937, 6, 277–286.

[6] R.A. McCance, E. Widdowson, The absorption and excretion of iron before, during and after a period of very high intake. Biochem. J., 1937, 31, 2029–2034.

[7] R.A. McCance, E. Widdowson et al., Absorption and excretion of iron. Lancet, 1937, 230(5951), 680–684.

[8] R.A. McCance, E. Widdowson, The absorption and excretion of iron following oral and intravenous administration. J. Physiol., Lond., 1938, 94, 148–154.

[9] R.A McCance, E. Widdowson, The secretion of urine in man during experimental salt deficiency. J. Physiol., Lond. 1937, 91, 222–231.

[10] R.A. McCance, E. Widdowson, Mineral metabolism of healthy adults on white and brown bread dietaries. J. Physiol., Lond. 1942, 101, 44–85.

[11] R.A. McCance, C.M. Spray, E. Widdowson, The chemical composition of the human body. Clin. Sci. 1951, 10, 113–125.

[12] E. Widdowson, Harmony of Growth, Lancet, 1970, 295(7653), 901-905.

[1] Samuel Barnett Schryver (1869-1929) chimico e biochimico britannico, professore all’Imperial College di Londra, è stato un pioniere nell’isolamento di amminoacidi da proteine vegetali.

[2] Di Helen Kelp Archbold Porter (1899-1987) parleremo in un prossimo articolo.

[3] Edward Charles Dodds (Sir) (1899-1973) biochimico britannico, professore di Biochimica all’Università di Londra. I suoi interessi scientifici furono ampi e vari; ebbe un continuo interesse per il cancro e la ricerca sulle sue cause, e fu anche un’autorità in materia di alimentazione e dieta. Incoraggiò sempre colleghi più giovani in attività quali immunopatologia, chimica degli steroidi, citochimica e al lavoro che portò alla scoperta dell’aldosterone.

[4] Vernon Henry Mottram (1882-1976), biochimico e fisiologo britannico compì inizialmente ricerche sul metabolismo dei grassi nel fegato, per dedicarsi poi alla chimica della nutrizione. Divenuto professore di Fisiologia al King’s College di Londra nel 1920, raccolse i suoi studi nel volume Human Nutrition (1944).

[5] Robert Alexander McCance, (1898-1993) britannico, è stato un pediatra, fisiologo, biochimico e nutrizionista, primo professore di Medicina Sperimentale all’Università di Cambridge. Coautore insieme a Elsie Widdowson dell’ampio volume The Chemical Composition of Foods, 1940. Il libro divenne noto come riferimento per il pensiero nutrizionale occidentale moderno, più volte riedito fino al 2002.

[6] A questo proposito Elsie Widdowson scrisse: “Non pensavamo di usare soggetti umani in esperimenti che comportassero dolori o difficoltà, a meno che non avessimo fatto gli stessi esperimenti su noi stessi”

Cenere sei e cenere ritornerai.

In evidenza

Claudio Della Volpe

Una frase famosa della Genesi (3,19), ma stavolta il gioco di parole (sostituendo cenere a polvere, ma tenete presente che dopo tutto la festa è “delle Ceneri”) mi serve per parlare di combustione e di incendi e di come si spengono gli incendi.

Quando ero un giovane studente di chimica una sera ho invitato a cena i nuovi amici che mi ero fatto, fra i quali anche qualche laureato e docente; mio padre che era anche lui appassionato di chimica (aveva fatto l’assistente di laboratorio durante la prigionia nella 2 guerra mondiale) partecipava alla conversazione e mi fece fare una figuraccia. Non ricordo come la conversazione arrivasse alla combustione, ma “Di cosa sono fatte le ceneri?” se ne uscì. Beh io non lo sapevo e dunque cominciai ad “arrotolarmi”, materiale non bruciato, carbone, legna degradata; assolutamente no.

Sotto lo sguardo severo di Ugo Lepore, che insegnava allora stechiometria. Volevo scomparire.

La cenere è fatta di ossidi di metalli del primo e secondo gruppo (potassio, calcio, magnesio, sodio) e se si aspetta che si raffreddi anche di carbonati dei medesimi a causa del riassorbimento di CO2 dall’atmosfera.

E’ una cosa che non ho dimenticato più.

La cenere della legna ha una tradizione possiamo dire di almeno un milione di anni, visto da quanto tempo il genere Homo sa accendere il fuoco, da prima che noi doppi Sapiens (Homo Sapiens Sapiens) esistessimo (solo 200.000 anni).

Per secoli si è usata per fare la “liscivia”, ossia per lavare i panni: acqua calda sulle ceneri estrae gli ossidi e i carbonati che saponificano i grassi staccandoli dai tessuti; una procedura analoga partendo da grassi animali produce il sapone.

Insomma la cenere è una risorsa; si può usare come componente del concime, ma anche come antilumache: una risorsa molto importante.

Ma data la natura dialettica della chimica, data la natura a due facce o “a due corni“, come avrebbe detto il mio maestro Guido Barone, c’è un aspetto non secondario di almeno alcuni dei componenti della cenere che servono ad estinguere il fuoco; vengono dal fuoco ed estinguono il fuoco.

E infatti i carbonati, le loro soluzioni, le loro polveri o i loro aerosol sono una nota base per la produzione di dispositivi antincendio.

Il più recente e spettacolare di questi dispositivi è stato presentato pochi giorni fa in Corea del Sud dalla Samsung (si avete ragione è quella dei cellulari). La Corea del Sud è soggetta al problema di incendi nelle città densissimamente popolate e dunque la lotta agli incendi è una priorità del governo.

Come vedete si tratta di un vaso da fiori a doppia camera; al centro c’è un vero vasetto dove mettere i fiori, mentre nell’intercapedine chiusa c’è una soluzione di carbonato di potassio; l’involucro esterno è di PVC (e questa è una scelta che non capisco tecnicamente, è un PVC fragile ma se brucia può produrre diossine, ma non è questo il punto adesso). Una volta scagliato sul fuoco il dispositivo si rompe e il carbonato svolge la sua azione estinguente in una frazione di secondo; non è una invenzione originale, esistono già altri prodotti analoghi come questo http://m.id.automaticextinguisher.com/throwing-fire-extinguisher/vase-throwing-fire-extinguisher.html

E sono molto efficaci come potete vedere da questo filmato.

Esistono dispositivi analoghi di tipo statico da posizionare nei luoghi a più alto rischio come le Elide fire balls; ma anche altri similari basati su polveri e non su soluzioni come si vede qui.

D’altronde gli estintori a polvere sono un dispositivo tradizionale e nella composizione delle polveri entrano anche i carbonati, bicarbonato di sodio, fosfato di ammonio e cloruro di potassio a seconda del tipo di combustibile da contrastare.

In genere si sostiene che l’azione estinguente dei carbonati e bicarbonati nasca dal fatto che ad alta temperatura i carbonati cedano il biossido di carbonio e dunque estinguano il fuoco soffocandolo, per spostamento dell’ossigeno. E probabilmente questo meccanismo contribuisce.

Tuttavia questa teoria, che viene presentata anche nei corsi antincendio attuali non mi soddisfa né mi convince, certamente non è completa.

La situazione è molto più complessa.

Come funziona la combustione? In realtà non esiste una teoria semplice della combustione; è una reazione radicalica, che sfrutta la natura chimica dell’ossigeno; e si propaga attraverso una sequenza complessa e numerosa di reazioni radicaliche semplici e ripetute, una catena radicalica.

Come detto altre volte l’ossigeno è una molecola biradicalica che contiene due elettroni spaiati in un orbitale di antilegame e tre coppie di legame; la differenza equivale a due legami covalenti , ma la situazione effettiva è del tutto diversa.

L’ossigeno tripletto è un esempio molto intrigante di molecola biradicalica stabile, i due elettroni spaiati hanno lo stesso spin ½, e la molecola dunque presenta spin totale S=1. (ricordiamo ai lettori meno esperti che lo spin si origina dalle proprietà magnetiche delle particelle, è come se le particelle ruotassero su se stesse divenendo delle piccole calamite).

In questo stato la molecola non è particolarmente reattiva sebbene non sia affatto inerte. L’ossigeno tripletto è paramagnetico, cioè è debolmente attratto dai poli di un magnete. Questa interpretazione è stato uno dei successi della teoria dell’orbitale molecolare.

Lo stato superiore di energia, di norma poco popolato, ma comunque popolato è quello a S=0, denominato ossigeno singoletto; infatti se salta al livello superiore l’ossigeno conterrà adesso entrambi gli elettroni con spin opposto in un unico orbitale di antilegame; la situazione è adesso molto più reattiva, l’ossigeno singoletto, come si chiama, è pronto ad iniziare una catena di reazioni radicaliche.

       Singoletto 1                                           Singoletto   2                           Tripletto

In questo schema vediamo la struttura in termini di orbitali molecolari, a partire dal secondo livello; l’1s è uguale per tutti e non viene mostrato. Dai sei orbitali atomici 2p otteniamo 6 orbitali molecolari, 3 di legame e 3 di antilegame, di cui 4 a simmetria p e 2 a simmetria s.

L’ossigeno tripletto, lo stato fondamentale dell’ossigeno comune, la forma non reattiva o poco reattiva è a destra nello schema; mentre a sinistra vediamo due delle forme che la molecola può avere quando passa al primo stato eccitato; come si vede a destra lo spin è S=1, mentre a sinistra lo spin S=0.

La regola di Hund (in realtà ci sono tre regole, ma questa è la più importante), scoperta da Frederik Hund nel 1925 stabilisce che per una certa configurazione elettronica il termine con l’energia più bassa è quello con la maggiore molteplicità di spin dove la molteplicità è definita come 2S+1 dove S è lo spin totale; nel nostro caso dunque lo stato tripletto è a più bassa energia degli stati singoletti.

In questo stato due elettroni con il medesimo spin occupano due orbitali molecolari di antilegame a simmetria p. Attenzione ad immaginarveli; non potreste usare il classico salsicciotto, quello vale per quelli di legame, quelli di antilegame hanno il grosso della concentrazione “fuori” dalla zona interatomica, in altre parole tendono a tirar via i loro nuclei dal legame. Purtroppo la figura non rende giustizia a questa complessità.

Nei due stati eccitati i due elettroni hanno spin opposti ed occupano il medesimo orbitale oppure al massimo dell’energia due orbitali di antilegame.

Aggiungo per completezza che lo stato eccitato a sinistra, quello intermedio come energia, non è radicalico poichè i due elettroni occupano il medesimo orbitale. Questo gli consentirebbe di reagire come elettrofilo, o come un’acido di Lewis.

Come fanno a passare dallo stato fondamentale a quello eccitato? Qualcuno mi dirà: assorbendo un fotone di opportuna energia; risposta sbagliata. La transizione è proibita perchè lo spin è diverso e dunque la probabilità che il passaggio avvenga in questo modo, in caso di transizioni elettroniche è del tutto trascurabile; la simmetria della funzione d’onda non può cambiare in questo caso.

Per far avvenire la transizione occorre un intermedio che assorba energia dalla radiazione e la trasferisca alla molecola di ossigeno in uno dei modi permessi.

Adesso possiamo tornare alla questione della combustione.

La reazione di combustione è una reazione a catena alla quale partecipano molte diverse specie radicaliche; una reazione a catena comporta che durante la reazione gli intermedi di reazione vengano ricreati dalla reazione stessa ed in questo caso gli intermedi sono radicali.

Il fatto che la combustione richieda una alta energia per iniziare, ossia abbia bisogno di un iniziatore o di un innesco dipende proprio dalla situazione che abbiamo tratteggiato dell’ossigeno; ci vuole l’ossigeno singoletto, ma esso non si produce facilmente e il tripletto domina la scena. Le molecole di combustibile sono di solito a spin nullo, tutti gli atomi sono ben legati e non ci sono elettroni spaiati.

Nelle reazioni chimiche in genere la somma degli spin si conserva; qualcosa come l’equazione scritta qui sotto.

E allora come si fa?

Dato che partiamo da spin interi o nulli dobbiamo ritrovarci con spin interi o nulli; ma se accade così la reazione non sarà a catena oppure dovrà produrre due radicali alla volta (spin semiintero); o ancora dovrà essere, almeno all’inizio, una reazione che introduce due spin semininteri, staccando un atomo dalla molecola.

In genere si pensa che la reazione iniziale sia la “sottrazione” di un atomo di idrogeno da un combustibile da parte della molecola di ossigeno singoletto per dare un radicale idroperossido HOO. ; una volta formatosi questo può formare ulteriori perossidi o radicali idrossilici. Ecco dunque spiegata l’importanza di iniziatori radicalici o dell’innesco in temperatura.

Rispetto a questo processo le molecole a più alto contenuto energetico come i singoletti sono favorite, perché possono disporre di una quota di energia di attivazione più elevata.

Ma ecco anche spiegato allora il ruolo di quelle molecole che possono bloccare i radicali; gli scavenger radicalici che catturano i radicali o ne bloccano la formazione interrompono la catena della reazione e bloccano la combustione; non si tratta solo allora di sviluppare la CO2 nei millisecondi di riscaldamento disponibili, come vorrebbe l’ipotesi dello spostamento dell’ossigeno, ma di bloccare la catena radicalica. L’effetto di spostamento c’è ma non è così importante. Ma sia lo ione potassio che lo ione carbonato sono in grado di formare un radicale con potenti azioni in vari campi, sia biologici che inorganici: K. and CO3.-. Una ampia letteratura ne conferma il ruolo e l’esistenza. L’azione di questi radicali può spiegare bene la efficienza delle soluzioni di carbonato e di altri sali come agenti estinguenti di incendi nel loro stato iniziale. Non è ancora ben spiegato il ruolo della forma aerosol o comunque delle interfacce che si formano usando i vari dispositivi, ma probabilmente anche quello serve a bloccare la formazione della catena reattiva.

Un uso veramente inatteso della cenere: viene dal fuoco ma lo può anche bloccare. Guido Barone sarebbe stato soddisfatto, avrebbe detto la chimica ha due corni, la chimica è dialettica.

Riferimenti.

  1. Laing The three forms of molecular oxygen JCE 66, 6 (1989)

Scaricabile da:

https://www.uni-saarland.de/fileadmin/user_upload/Professoren/fr81_ProfJung/Laing89.pdf

https://www.nist.gov/sites/default/files/documents/el/fire_research/R0501578.pdf

https://www3.nd.edu/~pkamat/wikirad/pdf/spinchem.pdf

https://onlinelibrary.wiley.com/doi/full/10.1002/fam.1088

https://www.ncbi.nlm.nih.gov/pubmed/17505962

https://www.ncbi.nlm.nih.gov/pubmed/8021011