Informazioni su devoldev

chemist, university researcher, marxian, peakoiler,climate worried, bridge player, Mozart/Vivaldi loving, pedal biker

I quattro elementi fondamentali dell’Universo.

In evidenza

Claudio Della Volpe

Afferma Empedocle:

«Conosci innanzitutto la quadruplice radice
di tutte le cose: Zeus è il fuoco luminoso,
Era madre della vita, e poi Idoneo,
Nesti infine, alle cui sorgenti i mortali bevono»

Secondo una interpretazione Empedocle indicherebbe Zeus, il dio della luce celeste come il Fuoco, Era, la sposa di Zeus è l’Aria, Edoneo (Ade), il dio degli inferi, la Terra e infine Nesti (Persefone), l’Acqua.

Secondo altri interpreti i quattro elementi designerebbero divinità diverse: il fuoco (Ade), l’aria (Zeus), la terra (Era) e l’acqua (Nesti-Persefone).Tiziano, Concerto campestre, 1509, Parigi, Museo del Louvre. La donna alla fonte è una personificazione dell’Acqua. Il suonatore di liuto rappresenta il Fuoco. L’uomo con i capelli scompigliati dal vento simboleggia l’Aria. La donna di spalle raffigura la Terra.

 Col tempo a questi quattro elementi se ne aggiunse un quinto, la “quintessenza” o etere.
L’idea che la Natura potesse esser costituita con pochissimi elementi mescolati fra di loro è stata una delle idee più antiche ma anche di maggior successo nella storia umana.

Di fatti potremmo dire che tutto sommato la chimica moderna dice lo stesso.

Voi mi direte: ma non è vero la tavola periodica di cui celebriamo quest’anno il valore riporta ben 118 elementi possibili e sappiamo ce ne sono anche altri non ancora scoperti o sintetizzati.

Già ma di cosa sono fatti questi 118 atomi? Di cosa è fatto tutto ciò che ci circonda sulla Terra almeno? Cosa c’è dietro e per così dire “sotto” la Tavola Periodica?

Bastano solo quattro particelle: fotoni, protoni, neutroni ed elettroni; con queste quattro entità le leggi della chimica e della meccanica quantistica ricostruiscono tutto ciò che ci circonda; beh quasi, nel senso che ogni tanto arrivano raggi cosmici dal fondo cielo che si trasformano in mesoni e quelli non sono parte dei quattro oggetti nominati.

L’idea che a partire da pochi elementi si possa ricostruire tutto è stata accettata da grandi menti antiche e moderne; ovviamente per spiegare questo si sono ipotizzate e poi misurate esattamente le forze fra le particelle.

Newton che fu prima di tutto un grande alchimista (e solo dopo un fisico, era un chimico-fisico ante litteram, ma ce lo siamo fatto scippare dai fisici puri) ma è anche uno dei fondatori della fisica moderna scriveva:

There are therefore agents in nature able to make the particles of bodies stick together by very strong attractions. And it is the business of experimental philosophy to find them out. Now the smallest particles of matter may cohere by the strongest attractions and compose bigger particles of weaker virtue; and many of these may cohere and compose bigger particles whose virtue is still weaker, and so on for diverse successions, until the progression ends in the biggest particles on which the operations in chemistry, and the colors of natural bodies depend.” (I. Newton, Opticks).

(notate come parla di chimica e fisica INSIEME!!!)

Dunque per spiegare queste associazioni ci vogliono le forze che le manovrano.

Ma voglio essere più preciso; ne ho già parlato tempo fa su questo blog, discutendo la chimica ipotetica della materia oscura; i fisici hanno la loro “tavola” che si chiama “modello standard”; purtroppo i chimici non studiano queste cose, ma secondo me dovrebbero.

oppure questa è un’altra rappresentazione:

Ci sono nella materia ordinaria 18 componenti essenziali divisi fra 6 leptoni, 6 quark e 6 vettori delle forze.

Di questi 18 componenti per fare tutto ciò che si vede sulla Terra occorrono solo:

3 mediatori delle forze: fotoni, gluoni e bosone di Higgs, 2 quark, up (u) e down (d) che nelle combinazioni uud e udd producono protone e neutrone ed 1 solo leptone, ossia l’elettrone; sei entità (appartenenti rispettivamente tre ad una classe di componenti, due ad un’altra e il terzo ad un’altra ancora). E tutto viene fuori da questi 6.

Alla fine non siamo cascati così lontani. Credo che Empedocle si meraviglierebbe se tornasse a vivere di come la sua idea fosse dopo tutto vicina alla verità considerata tale anche dopo vari millenni.

Certo noi abbiamo una solida serie di esperimenti e di relazioni matematiche che supportano il nostro punto di vista, anche se non è ben chiaro perchè poi la matematica abbia così tanto successo (E. Wigner, The Unreasonable Effectiveness of Mathematics in the Natural Sciences); c’è stato un ampio dibattito su questo tema, che inizia da Galileo (il mondo è scritto in linguaggio matematico; e passando per Wigner approda a conclusioni anche opposte: siamo noi che vediamo tutto attraverso la lente della matematica (Richard Hamming); dove è la verità? Non lo so. Esiste una terza via?

Pitagora aveva notato questo strano matematizzarsi dell’Universo già oltre 2000 anni fa.

Per Pitagora (575 a.C. circa – 495 a.C. circa) la successione aritmetica dei primi quattro numeri naturali, geometricamente disposti secondo un triangolo equilatero di lato quattro, ossia in modo da formare una piramide, aveva anche un significato simbolico: a ogni livello della tetraktys corrisponde uno dei quattro elementi.

1º livello. Il punto superiore: l’Unità fondamentale, la compiutezza, la totalità, il Fuoco

2º livello. I due punti: la dualità, gli opposti complementari, il femminile e il maschile, l’Aria

3º livello. I tre punti: la misura dello spazio e del tempo, la dinamica della vita, la creazione, l’Acqua

4º livello. I quattro punti: la materialità, gli elementi strutturali, la Terra

Non vi ricorda qualcosa? 1 punto di un tipo, due del secondo, tre del terzo!! Divisi per classi ed in quantità crescente, 1, 2, 3, come i 6 componenti del modello standard che abbiamo citato prima (1 leptone, 2 quark e 3 mediatori delle forze). Stupefacente combinazione?!

OK, può essere, comunque, siamo arrivati a 6 per descrivere quello che c’è sulla Terra dopo oltre 2000 anni di travaglio e lavoro, ma in fondo ci erano arrivati anche Pitagora ed Empedocle e Democrito e con caratteristiche per certi aspetti simili.

Ne è valsa la pena? E’ una teoria che torna periodicamente, un’applicazione dei cicli storici di Giambattista Vico? Eterni ritorni nella spirale dialettica hegeliana? Non so, credo che la scienza moderna post-galileiana sia un grande metodo di scoperta, ma anche l’intuizione e la osservazione degli uomini che ci hanno preceduto non era poi così male, e come insegna Lucio Russo gli scienziati alessandrini ci hanno preceduto nell’uso del metodo moderno. Abbiamo ancora da rifletterci a lungo su questa relazione fra scienza, matematica e osservazione, capacità di meravigliarsi.

Qualche collega potrebbe lamentarsi dell’eccessivo spazio che do alla fisica ed alla matematica in questo post; ma non è così. A mio parere la visione del mondo naturale dovrebbe essere unitaria per quanto possibile, la materia è una; e la Chimica costituisce evvero un linguaggio euristico ed indipendente rispetto alla Meccanica Quantistica, è esistita senza di essa, ma ha contribuito a svilupparla. Ci sono alternative alla meccanica quantistica? Non so ma ne riparleremo in un prossimo post.

Sarà vero casomai che dopo tutto la fisica teorica attuale e Pitagora sono simili perché guardano al mondo prima di tutto tramite la sua simmetria e bellezza:

La bellezza è verità, la verità è bellezza: questo è tutto ciò che voi sapete in terra e tutto ciò che vi occorre sapere.

(John Keats, poeta)

Ma non lo fa anche il chimico quando sintetizza le sue molecole, strutture la cui simmmetria e bellezza, che ci ricorda Vincenzo Balzani, viene prima del loro uso?

Non so, riflessioni catalizzate dall’anno della tavola.

Cosa ne dite chimici?

Uno sguardo all’effetto Volta e alla giunzione P-N.

In evidenza

Claudio Della Volpe

Da quasi 20 anni faccio un corso di elettrochimica, anche se con titoli diversi; il corso di quest’anno si chiama Electrochemical energy storage and conversion (originariamente il titolo conteneva production, ma il primo principio ci ha obbligato a cambiare nome) . Uno dei concetti che cito di più è l’effetto Volta o prima legge di Volta: il contatto tra due metalli diversi alla stessa temperatura fa sì che si stabilisca una differenza di potenziale caratteristica della natura dei metalli che non dipende dall’estensione del contatto.

Volta è stato un genio, un grande scienziato che con a disposizione strumenti limitati è stato in grado di costruire una coerente visione della realtà naturale.

Pochi sanno che Volta ha usato come strumento prima di tutto il proprio corpo; i suoi sensi e gli effetti biologici della corrente elettrica sono stati il suo primo strumento di lavoro (testava la corrente con la lingua, gli occhi, il naso).

Volta era anche un piacevole raccontatore; le sue opere, piacevolissime da leggere sono state raccolte da UTET (A. Volta Opere scelte, a cura di Mario Gliozzi, 1967), un testo che si trova anche in rete e che vi consiglio caldamente anche per la vasta e completa introduzione.La interpretazione moderna dell’effetto Volta è per me la chiave di volta, (scusate il gioco di parole) anche per introdurre i potenziali termodinamici misti: elettrochimico, gravitochimico o ancora termogravitochimico.

Concetti usati moltissimo in settori i più disparati, dall’elettrochimica alla meteorologia, ma che trovano la loro base nella formalizzazione robusta della termodinamica e nella trattazione della termodinamica del vicino equilibrio.

Nell’elettrochimica moderna l’elettrone è considerato una specie reattiva come un’altra; possiede dunque un suo potenziale chimico oltre che un potenziale elettrico. Per chi avesse difficoltà a considerare il potenziale chimico dell’elettrone gli consiglio di immaginarlo come la concentrazione di elettroni “liberi” in un certo ambiente.

I fenomeni legati al funzionamento delle valvole termoioniche per esempio rendono evidente che gli elettroni nel vuoto relativo della valvola si comportano come un gas di particelle libere in equilibrio con le superfici metalliche a diverse temperature; semplici esperimenti fattibili anche con lampadine da auto rotte vi consentono di mostrare che se aumentate la temperatura del metallo gli elettroni fluiscono verso un secondo elettrodo presente nella valvola.Insomma si comportano come particelle di un gas, ma in più trasportano una carica e dunque sono una corrente: chimica ed elettricità si fondono nell’analisi di una valvola termoionica, che purtroppo è uscita dall’orizzonte tecnologico, ma rimane un potente strumento didattico (si chiama anche effetto Edison).

(si veda per esempio : https://aapt.scitation.org/doi/abs/10.1119/1.5051166?journalCode=pte)

Allora tornando all’effetto Volta:

avete due metalli diversi a contatto, zinco e rame; il primo presenta un potenziale chimico dell’elettrone superiore, ossia i suoi elettroni hanno una maggiore tendenza a diffondere o se volete una maggiore “concentrazione”(i puristi si tappino il naso).

Ebbene essi si sposteranno dal lato del rame generando una differenza di potenziale che ad un certo punto si opporrà al moto ulteriore, ma la barriera di potenziale si sarà creata, sarà gratuita, stabile ed utile; questo concetto si può applicare a TUTTE le sostanze.

All’equilibrio avrete che le due differenze di potenziale si equivarranno:

Δμ+nFΔV=0 il potenziale misto, elettrochimico è nullo e il sistema è all’equilibrio

(per trasformare in energia la parte elettrica ho moltiplicato la differenza di potenziale elettrico per la carica, a sua volta espressa come prodotto del numero di moli di carica per il Faraday).

Il famoso esperimento che tutti i ragazzini fanno con penna a maglietta per caricare la penna, in realtà funziona anche senza grattare la penna sulla maglia ma molto meno; anche penna e maglietta sono (poco) conduttori; per esaltare le superfici di contatto e ampliare il fenomeno si grattano reciprocamente e l’attrito fa la sua parte; ma il fenomeno sarebbe evidente con un microelettroscopio.Qua si potrebbe estendere il discorso alla serie triboelettrica con innumerevoli applicazioni industriali: i polimeri idrofobici come il teflon ad una estremità, si caricano negativamente, l’aria positivamente. I chimici si sono inventati il concetto di “trasferimento di carica” per studiare queste cose o la teoria acido-base delle superfici (Good, van Oss e Chaudury), cui ho dato qualche contributo, ma i concetti sono sempre quelli.

Le motivazioni chimiche sono facilmente deducibili e il potenziale misto rappresenta un potente strumento concettuale unificante.

Lo strumento base dell’elettronica moderna è basato esattamente sull’esperimento di Volta: la giunzione P-N.

Due semiconduttori, in genere silicio ultrapuro da un lato arricchito di fosforo e dall’altro di boro; in questo modo si altera in modo opposto il potenziale chimico dell’elettrone; dal lato del fosforo si avranno elettroni in eccesso non legati, rispetto ai legami possibili (silicio-n)e dall’altra se ne avranno in difetto (silicio-p).

Per effetto Volta gli elettroni si spostano dall’-n al –p e a questo punto se per qualche motivo liberate elettroni a destra (tramite poniamo un fascio di luce solare) questi poverini spinti a diffondere verso potenziali superiori non potranno traversare la barriera e dovranno giocoforza fluire nel circuito elettrico (esterno all’immagine) che gli metteremo a disposizione!

Le celle FV sono esattamente questo; ma anche i LED sono questo, sono delle giunzioni PN in cui però la logica costruttiva e diversa perché finalizzata a fare la cosa opposta: trasformare in luce un flusso di corrente.

Un LED non è fatto come una cella FV ma è basato sui medesimi principi: primo effetto Volta.

se voi esponete un LED alla luce il LED fa il suo lavoro alla rovescia; produce una differenza di potenziale ed una minuscola corrente; si può costruire una cella FV fatta di LED; ovviamente sarebbe poco efficiente perché la sua geometria interna non è ottimale.

(si veda https://www.youtube.com/watch?v=L3-0aCJOedo)

Una cosa da precisare; queste giunzioni sono macchine termodinamiche che rispettano ovviamente il secondo principio: quando fate una trasformazione da una forma di energia all’altra avrete sempre una dissipazione termica; tutte le macchine termodinamiche (intese come i dispositivi di conversione dell’energia da una forma all’altra) seguono questa legge ma con un ma.

Ci sono due classi di macchine quelle che lavorano attraverso un salto termico come le macchine termiche tradizionali le turbine, le macchine a vapore o le giunzioni PN che sfruttano la luce oppure le macchine elettrochimiche o le giunzioni PN che NON sfruttano la luce.

Le prime seguono la seconda legge nella forma tradizionale di Carnot la loro efficienza massima è dettata da η=1-Tbassa/Talta

La altre no! Sono isoterme e dunque la temperatura non influenza la loro efficienza, ma invece lo fa il potenziale elettrico: η=Veff /Vequ per una cella elettrochimica. Le celle elettrochimiche e le batterie si fanno un baffo di Carnot.

Le giunzioni PN che sfruttano la luce si comportano come macchine termiche fra la T della sorgente e la T ambiente); le celle FV avrebbero una mostruosa efficienza (superiore al 90%) se potessero sfruttare TUTTA la radiazione in arrivo, ma di solito sono limitate ad un intervallo discreto e dunque la loro efficienza con la luce solare ed una giunzione PN singola non supera un modesto ma interessante 33.7% (il limite di Shockley–Queisser); se si mettono insieme più giunzioni diverse o si scelgono sorgenti diverse dal Sole le cose cambiano. Le celle multigiunzione arrivano ormai a superare il 45%! I LED possono addirittura arrivare ad efficienze teoriche si apure come ogni macchina che s rispetti a bassa intensità (https://phys.org/news/2012-03-efficiency.html).

Quando racconto queste cose ai miei studenti cerco di metterli in difficoltà il che non è difficile perché gli studenti raramente fondono insieme la visione termodinamica , chimica e quella della Fisica dello stato solido e dunque se chiedo:

ragazzi la Terra emette nell’IR tutta l’energia che riceve dal Sole, sia di giorno che di notte; allora come mai non posso mettere in cantina delle celle FV che siano centrate non sul visibile ma sull’IR e rivolte verso terra e ottenere energia elettrica in questo modo

rispondono:

si, buona idea, ma non ci sono i materiali adatti

Beh non è vero, ci sono le celle FV nell’IR e la loro efficienza sta rapidamente crescendo; ma il motivo è diverso; anche con i materiali migliori non potremo mai usare la Terra come sorgente IR nella nostra cantina, per un semplice motivo termodinamico; la T della sorgente terra sarebbe uguale a quella del ricevitore e allora l’efficienza termodinamica sarebbe nulla!

L’unica cosa che potremo fare è portare una aereo in stratosfera a -50°C ed applicare sotto le sue ali delle celle FV infrarosse; allora la loro efficienza teorica sarebbe η=1-Tbassa/Talta ossia circa il 22% non male!

Ma non è finita qui; cosa succederebbe se esponessimo una giunzione PN ad una sorgente più fredda di quella ambiente?

L’idea (del tutto geniale!) venne qualche anno fa

e dunque c’è un’altra via per convertire energia con una giunzione PN; invece di ottenere energia elettrica esponendo la giunzione ad una sorgente più calda si può ottenere energia esponendola ad una più fredda!

E questa “sorgente negativa” c’è sempre, è lo spazio, il nero del fondo cielo la cui temperatura è molto bassa, almeno 50 o più sottozero se si considera la quota stratosferica; in questo caso la corrente andrebbe non dalla porzione n alla porzione p, ma viceversa dalla p alla n; la cosa è stata fatta notare qualche tempo fa, accludo il lavoro e recentemente hanno fatto una celletta del genere (efficienza ridicola al momento); se usata verso lo spazio esterno da t ambiente farebbe anche oltre 50W/mq, ma di fatto il limte è “vedere” la sorgente fredda attraverso la copertura atmosferica il che si può fare solo in ristrette zone di frequenza; nel pratico al massimo farebbe il 4%, ma l’idea è comunque eccezionale, harvesting che sfrutta il calore ambiente e il suo spontaneo raffreddamento; idea del tutto eccezionale secondo me.

Recentemente han provato a costruirne una e, al di là delle sciocchezze che possiate aver letto sui giornali, la cosa è fattibile, ma al momento non utile praticamente. Guardate solo la immagine qua sotto e capirete subito il concetto;

(ricordiamo sempre che la corrente convenzionale è di cariche positive, dunque quella elettronica va in direzione opposta).

Qualunque sorgente sia esposta al diodo PN si realizza comunque un flusso di corrente!

Siamo arrivati alla fine di una rapida galoppata nel reame delle idee base dell’elettrochimica, ma forse da un punto di vista che non avevate esplorato mai così. Spero.

La nostra guida è stato un principio scoperto oltre 200 anni fa. Alessandro Volta, da qualche parte ci guarda sornione.

Castrazione “chimica”.

In evidenza

Claudio Della Volpe

Negli ultimi giorni i giornali hanno ripetutamente parlato di questo argomento; uno dei due vice presidenti del consiglio, durante la attuale campagna elettorale, ne ha parlato ripetutamente proponendo una legge a riguardo e pare da un sondaggio SWG che il 58% degli italiani sia favorevole, anche se non è chiaro bene a cosa siano favorevoli. Dato che il tema ha a che fare con la chimica mi sembra opportuno informare a riguardo per evitare confusione.

Cosa si intende per castrazione chimica?

Cominciamo dal dire che la castrazione in genere è l’atto di eliminare chirugicamente le gonadi maschili, l’atto corrispondente nel genere femminile (eliminazione delle ovaie) viene più pudicamente definito sterilizzazione e chirurgicamente è molto più invasivo. Entrambi vengono usati per motivi vari in specie animali e nella specie umana; di solito per impedire la riproduzione di animali ma anche solo per cambiarne il comportamento (il bue invece del toro, il cappone invece del gallo sono animali castrati e castrati in età precoce; cappone viene dal latino capo,-onis a sua volta dal verbo greco “κόπτω”, che significa “tagliare”).

L’esistenza di maschi castrati definiti eunuchi o castrati è stata diffusa nella storia della specie umana con varie motivazioni e si sa che induce modifiche notevoli nel corpo: voce, accumulo di grasso, comportamento si modificano; la castrazione è stata anche usata in particolare per indurre lo sviluppo di una voce canora di elevata qualità ed è presente nella nostra storia nazionale con riferimento alla storia della musica.

http://quinteparallele.net/2016/11/24/le-voci-senza-sesso-i-castrati/

Nel corso del XVIII secolo, circa centomila giovani ragazzi furono evirati per preservare le loro voci acute. Tra di loro, pochissimi riuscirono a salire all’Olimpo del bel canto, diventando i cantanti più famosi di quell’era, le prime vere e proprie superstar internazionali. Erano forse i performer più virtuosi mai sentiti sulla faccia della Terra: i castrati.

Chi era il castrato? Il termine castrato indica un tipo di cantante, molto in voga nel panorama operistico del XVII e XVIII secolo, che, non avendo sviluppato alcun carattere sessuale a seguito di un’evirazione precoce, aveva i riflessi e la potenza di una voce adulta e il timbro di una laringe da bambino. Eseguita prima della pubertà, la soppressione (o piuttosto l’annullazione delle funzioni) dei testicoli comprometteva l’apparizione dei caratteri sessuali principali e, in particolare, arrestava lo sviluppo della laringe. Mentre il corpo del giovane castrato cresceva, la mancanza di testosterone non permetteva alle articolazioni di irrigidirsi, perciò gli arti degli eunuchi spesso erano anormalmente lunghi, come anche le costole della loro cassa toracica. Queste particolarità anatomiche, a cui si aggiunge un intenso allenamento musicale, permettevano loro di avere un’impareggiabile potenza di voce e capacità di respiro.

Ritratto di Carlo Maria Broschi, detto Farinelli, che fu tra i più celebri cantanti castrati; il dipinto fu eseguito dall’amico Jacopo Amigoni nel 1750 e si trova a Madrid nella Real Academia de Bellas Artes de San Fernando

I castrati erano raramente chiamati con questo nome: nel XVIII secolo, veniva utilizzato più generalmente l’eufemismo musico, sebbene il termine contenesse delle implicazioni denigratorie; un altro sinonimo usato era evirato. La denominazione eunuco, invece, aveva un’accezione più generale, visto che storicamente parlando gli eunuchi venivano castrati dopo la pubertà e perciò il processo di evirazione non aveva alcun effetto sulla loro voce, già cambiata nella muta adolescenziale.

Castrati a scopi musicali esistettero e furono presenti in cori vaticani fino al 1902. Dunque questo atto così invasivo dal nostro punto di vista è in realtà un atto usato ampiamente in passato e anche nel nostro paese. Noto di passaggio che l’articolo che ho citato sostiene che la castrazione fisica non obbligava la persona né ad una vita omosessuale come qualcuno pensa e nemmeno a non poter avere una normale vita sessuale, con persone dell’altro sesso; dunque perfino la castrazione fisica non impedisce, né vieta di provare desiderio sessuale per l’altro sesso e di realizzare tale desiderio.

Ma pochi sanno che la castrazione fisica è usata ancora oggi in Europa e in Occidente seppure con scopi affatto diversi.

Man mano che la cultura si sviluppava si è compreso che una azione del genere era inaccettabile eticamente; ma sono rimasti dei casi in cui essa è considerata possibile ed è di fatto attuata; nel lavoro citato nei riferimenti si dice:

Though its use has declined, surgical castration of sex offenders still occurs, including in the West. At present, voluntary surgical castration of sex offenders is legal in California, Florida, Iowa, Louisiana, and Texas (del Busto and Harlow 2011). In Europe, it has remained in limited use in Germany and more widespread use in the Czech Republic, where, between 2001 and 2006, more than 50 sex offenders underwent surgical castration (European Committee for the Prevention of Torture 2009).

Dunque la castrazione fisica è ancora usata ma come mezzo di difesa sociale contro coloro che mostrino comportamenti sessualmente aggressivi nei confronti di minori o in genere (questo il senso di sex offender).

Con lo sviluppo delle conoscenze mediche e biologiche si è capito che si potevano trovare alternative a questo tipo di strategia; e lo si è fatto in passato anche recente per motivi che oggi considereremmo assolutamente abietti.

Basti ricordare il caso di Alain Turing.

Turing è stato uno dei maggiori scienziati nel campo dell’informatica, e probabilmente il più grande informatico moderno ed uno dei maggiori matematici del 900; potete leggere un mio breve articolo di qualche anno comparso su XlaTangente, in cui insieme al collega Stefano Siboni avevo cercato di raccontare i rapporti fra Turing, la matematica e la chimica: http://www.xlatangente.it/upload/files/margheritesito.pdf

Turing era omosessuale; era anche un genio matematico che contribuì in modo determinante alla vittoria alleata nella 2 guerra mondiale scoprendo il meccanismo di funzionamento di Enigma, la macchina tedesca che cifrava i messaggi usati per dare ordini all’armata tedesca. Dopo aver contribuito in segreto alla vittoria, qualche anno dopo, fu accusato di omosessualità, considerata un reato nell’Inghilterra postbellica. Fu costretto a scegliere tra una pena a due anni di carcere o la castrazione chimica mediante assunzione di estrogeni. Per non finire in prigione, lo scienziato optò per la seconda alternativa. Per oltre un anno si sottopose a trattamenti che provocarono in lui un calo della libido e lo sviluppo del seno (ginecomastia). La depressione legata al trattamento e all’umiliazione subita fu, a parere di molti storici, il motivo che lo condusse, il 7 giugno 1954, al suicidio.

E veniamo alla castrazione chimica, considerata oggi.

E’ un argomento ampio e complesso anche perchè sconfina con il controllo riproduttivo più in generale.

Anzitutto diciamo che interventi che impediscano la procreazione degli animali compresa la specie umana attraverso l’uso di sostanze apposite ce ne sono; da questo punto di vista anche l’uso della pillola anticoncezionale femminile entra in questa definizione. Ci sono sostanze che inibiscono parti del processo di riproduzione sia nel maschio che nella femmina; nella femmina inibiscono per esempio l’attaccamento dell’ovulo fecondato ai tessuti appositi, nel maschio invece abbassano il tasso di uno degli ormoni chiave che controlla la risposta sessuale, il testosterone e dunque inibiscono all’origine il desiderio sessuale; si tratta sempre di trattamenti reversibili; nel maschio di cane per esempio l’iniezione dura sei mesi, poi bisogna ripeterla e costa quanto una “castrazione fisica”.

Ma cosa avviene nella specie umana?

Qui il discorso cambia perchè la castrazione chimica a differenza del semplice controllo riproduttivo è inteso come un trattamento con sostanze di sintesi che inibisca NON la capacità riproduttiva, che anzi rimane, ma che controlli il desiderio sessuale e la sua messa in atto nei confronti specialmente di persone che per la loro condizione (minori o donne o perfino maschi in alcune circostanze) non riescano a difendersi da atti sessuali indesiderati.

Abbiamo già notato che perfino la castrazione fisica non impedisce necessariamente il desiderio e la sua attuazione, ma in effetti impedisce la sola riproduzione; e questo limite si accompagna anche alle procedure che usano inibitori di sintesi del comportamento sessuale.

Nella situazione più comune si desidera controllare la riproduzione umana senza conseguenze sul desiderio sia nell’uomo che nella donna; sappiamo che nella donna la sintesi chimica ha ottenuto il risultato perfetto con la cosiddetta “pillola”; la pillola nell’uomo, il “pillolo” viceversa che disgiunga la capacità riproduttiva dal desiderio non è ancora in commercio, ma si prova a sintetizzarlo; al contrario esistono prodotti che inducono e mantengono l’erezione, dunque una sorta di sottoprodotto del desiderio a qualunque età.

Qua invece stiamo parlando di una cosa ancora diversa: eliminare il solo desiderio ed in modo certo essenzialmente nell’uomo.

Il risultato, benchè largamente imperfetto può essere raggiunto usando vari tipi di molecole come

– dal 1960 medrossiprogesterone acetato (MPA) o ciproterone acetato (CPA), con MPA usato negli USA e il CPA in Europa, Medio oriente e Canadà; entrambi hanno potenti effetti collaterali ed uno è sospettato di essere cancerogeno.

Ciproterone acetato

Medrossiprogesterone acetato

Dal 1980 si è aggiunta la classe degli SSRI (selective serotonin reuptake inhibitors). Usati inizialmente nel trattare la depressione possono essere usati anche nei casi più lievi di sex offenders.

Paroxetina

Ed infine ci sono nuovi agenti ormonali—gonadotrophin-releasing hormone (GnRH) agonists—usati essenzialmente nel cancro della prostata ma che riducono fortemente il livello di testosterone e possono essere usati nella diminuzione reversibile dell’aggressività sessuale nei soggetti responsabili di questi comportamenti.

Nafarelina

Ci sono però almeno due considerazioni:

  • queste sostanze come tutte le medicine non sono onnipotenti, ossia sono efficaci solo in un certo numero di casi, devono essere somministrate in continuazione e secondo la maggioranza dei medici usate INSIEME ad un trattamento psicologico, ad un controllo continuo del comportamento effettivo della persona poichè potrebbero anche fallire sia pure in una percentuale ridotta di casi;
  • inoltre come tutte le medicine hanno effetti collaterali anche gravi e significativi di vario genere; per esempio riguardo la struttura ossea ma anche la circolazione sanguigna, dati gli effetti molteplici del testosterone

In conclusione il trattamento denominato “castrazione chimica” non è una soluzione perfetta, ha un costo di gestione e non può essere usato da solo oltre a poter indurre effetti collaterali indesiderati che pongono vari problemi etici.

Io non esprimo un giudizio sul tema, ma penso che sarebbe utile che quando si chiede il giudizio alle persone (come ha fatto SGW) sarebbe il caso che le persone siano informate con precisione dei problemi; e lasciatemi dubitare che questo sia vero per la maggioranza della popolazione italiana per la quale la chimica oscilla fra la nemica perenne e la pillola magica, immagini entrambe completamente sbagliate. E’ forse il caso che noi si contribuisca almeno ad informare la popolazione.

Riferimenti

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3824348/

 

http://www.psicologiagiuridica.com/pub/docs/numero_14/articoli/la%20castrazione%20chimica%20-%20Annamaria%20Faraudo.pdf

 

La tavola periodica sottosopra.

In evidenza

Claudio Della Volpe

Un recente articolo comparso su Nature Chemistry pone il problema di una ulteriore rivisitazione della Tavola periodica.

(Nature Chemistry | VOL 11 | MAY 2019 | 391–393 | http://www.nature.com/naturechemistry )

L’idea di base è che quando una persona guarda la Tavola non ne coglie subito la struttura e non ne riesce a coprire con un solo sguardo molti degli elementi; inoltre dato che l’idea che sta alla base alla tavola è quella del riempimento degli orbitali, l’aufbau, detto in tedesco, il riempimento di una cosa avviene dal basso verso l’alto; mentre l’attuale tavola è più una lista che si forma appunto scrivendo da sinistra a destra ma in direzione verticale opposta, cioè dall’alto verso il basso.

Dunque una tavola considerata come un contenitore da riempire di elettroni dal basso verso l’alto contro una tavola considerata come una lista e scritta invece dall’alto verso il basso. La tavola attuale è una lista; viene proposto un contenitore.

Contemporaneamente si pone anche il problema della posizione degli elementi di tipo f che vengono rappresentati separatamente; nella classica rappresentazione essi quasi scompaiono essendo elencati nella parte più bassa della Tavola, anzi al di sotto della Tavola, mentre in questo modo essi acquisterebbero una posizione centrale, il che non guasta pensando al ruolo che hanno in termini di tecnologia.

In alternativa, come mostrato qui sotto si può pensare ad una tavola extra-large che li mette nel posto a loro naturale, ma ovviamente a costo di avere bisogno di un foglio molto più largo che lungo.

L’articolo è supportato da una analisi basata su gruppi di persone a cui la proposta è stata fatta, sia fra gli specialisti che fra i non specialisti e sulle loro reazioni.

E’ una delle tante proposte che sarà dimenticata o invece che cambierà il nostro modo di vedere la tavola periodica?

A voi i commenti.

Elementi della Tavola Periodica: Radon, Rn

In evidenza

 

Alessandro Del Zotto*.

Caratteristiche fisiche e chimiche del radon

 Il radon è un gas radioattivo, incolore e inodore, prodotto dal decadimento a del radio, presente in quantità più o meno elevata, ma comunque ubiquitario, nella crosta terrestre. Il radio, a sua volta, proviene dall’uranio o dal torio, due dei più importanti radionuclidi primordiali.

Del radon si conoscono 26 isotopi che vanno dal 199Rn al 226Rn, solo tre dei quali sono però presenti in natura:

  • il 219Rn (o actinon) appartiene alla famiglia radioattiva che ha come progenitore l’235U (0.72% di abbondanza relativa, t1/2 = 04.108 anni). La scarsa abbondanza relativa del 219Rn, assieme al brevissimo tempo di dimezzamento (ca. 4 s) ne determina il basso o quasi nullo impatto a livello ambientale
  • il 220Rn (o thoron) appartiene alla famiglia radioattiva del torio. L’abbondanza relativa del 232Th nella crosta terrestre è alta ma il breve tempo di dimezzamento del 220Rn (61 secondi) ne limita fortemente la diffusione in ambiente. La sua concentrazione può raggiungere livelli apprezzabili solo in prossimità dei materiali da cui viene prodotto
  • il 222Rn (o radon propriamente detto) appartiene alla famiglia radioattiva dell’238 L’elevata abbondanza relativa di tale capostipite (99.28%), associata al relativamente lungo tempo di dimezzamento del 222Rn (3.82 giorni), rende tale radionuclide abbondante in natura e facilmente misurabile.

Tutti e tre gli isotopi naturali del radon decadono, emettendo particelle a, e producono “discendenti” radioattivi a vita breve. Questi ultimi, a loro volta, decadono emettendo radiazioni a o β⁻ accompagnate da emissione di fotoni γ. Tutte e tre le catene di decadimento terminano con un isotopo stabile del piombo: rispettivamente il 207Pb per la serie radioattiva dell’235U, il 208Pb per la serie radioattiva del torio e il 206Pb per la serie radioattiva dell’238U. Va precisato che gli isotopi del radon sono gli unici elementi delle tre serie radioattive a essere gassosi, tutti gli altri elementi sono solidi metallici.

Per le caratteristiche sopra menzionate, la famiglia radioattiva di maggior interesse radioprotezionistico è quella dell’238U. Nel seguito, pertanto, con il termine radon si intenderà unicamente l’isotopo 222Rn.

Chimicamente il radon è uno dei gas nobili, gruppo a cui appartengono elio (He), neon (Ne), argon (Ar), kripton (Kr) e xeno (Xe), e come essi presenta gli orbitali atomici esterni completamente riempiti. Date queste caratteristiche, il radon risulta essere relativamente inerte, ossia è coinvolto soltanto in deboli interazioni dovute alle forze di van der Waals. Tale proprietà gli conferisce la capacità di migrare liberamente nel suolo una volta raggiunti gli spazi interstiziali. A questo punto è facilmente trasportabile nell’aria e nell’acqua e quindi può raggiungere velocemente (relativamente al suo tempo di dimezzamento) gli edifici prima di decadere. Rispetto agli altri gas nobili, esso risulta essere il più pesante (ca. 8 volte più denso dell’aria) e inoltre possiede il punto di ebollizione, il punto di fusione, la temperatura critica e la pressione critica più elevati. È solo moderatamente solubile in acqua. A una temperatura di 20 °C il coefficiente di solubilità è 0.250: ciò significa che il radon si distribuisce preferibilmente in aria piuttosto che in acqua. Il radon, infatti, fuoriesce facilmente dall’acqua facendovi gorgogliare dell’aria, oppure semplicemente agitandola vigorosamente o riscaldandola. Anche nel caso di una sorgente dove l’acqua scaturisce dalla roccia, la maggior parte del radon si volatilizza velocemente. Il coefficiente di solubilità, inoltre, aumenta all’abbassarsi della temperatura, il che gli consente, se le condizioni sono favorevoli, di allontanarsi anche di molto dal luogo in cui è stato generato.

Principali caratteristiche chimico-fisiche del 222Rn: numero atomico, 86; massa atomica, 222.02 u.m.a.; nucleo genitore, 226Ra; nucleo figlio, 218Po; densità a 0 °C e 1 atm, 9.72 g/l; coefficiente di solubilità in acqua, 0.570 (0 °C), 0.250 (20 °C), 0.106 (100 °C); temperatura di fusione, -71.0 °C; temperatura di ebollizione, -61.8 °C; energia del decadimento a, 5.5 MeV.

L’unità di misura della concentrazione di radon in aria, secondo il Sistema Internazionale delle Unità di Misura è il Bq/m3 (Becquerel per metro cubo) che rappresenta il numero di disintegrazioni nucleari che avvengono in un secondo in un metro cubo d’aria. Quindi, a esempio, una concentrazione di 100 Bq/m3 indica che, in un metro cubo di aria, ogni secondo, 100 atomi di radon decadono emettendo radiazioni. È stata utilizzata in passato l’unità di misura picoCurie per litro (pCi/L), equivalente a 37 Bq/m3, che ancora oggi trova impiego nei paesi anglosassoni.

Cenni storici

Nel sedicesimo secolo Paracelso aveva notato l’alta mortalità dovuta a malattie polmonari tra i lavoratori delle miniere sotterranee di Schneeberg, in Sassonia (Germania). Tali malattie, da lui etichettate come “mala metallorum”, sono oggi conosciute con il termine di Schneeberg lungenkrankheit, cioè malattia al polmone di Schneeberg. La presenza di questa malattia, nei due secoli successivi, andò intensificandosi con l’intensificarsi dello sfruttamento delle miniere di argento, rame e cobalto ma solo nel 1879 fu riconosciuta da Haerting e Hesse come cancro ai polmoni. I due studiosi riferiscono che in quel periodo il 75% dei minatori della regione di Schneeberg moriva di cancro polmonare.

Si riteneva che tale patologia fosse causata dall’inalazione di polveri minerarie contenenti metalli tossici e che, tra le cause che contribuivano alla cancerogenesi, si dovessero includere anche malattie tubercolari e la presenza di arsenico nelle polveri.

Nel 1901, a seguito di una serie di misurazioni, venne rilevata una significativa concentrazione di gas radon nelle miniere di Schneeberg e di altre regioni, pertanto si cominciò a ipotizzare una correlazione tra questo gas e il cancro polmonare. Questa ipotesi fu rafforzata da più accurate misure compiute nel 1920 nelle miniere di Schneeberg e in altre, in particolare quelle di Jachymov in Boemia. Comunque, il ruolo del radon come fattore causale non venne generalmente riconosciuto.

In Germania fu avviato un programma di ricerca nel 1936 da Rajewsky che comprese sia misurazioni nelle miniere di Schneeberg che misure di attività a in campioni di tessuto e analisi istologiche sui tessuti polmonari di minatori deceduti per cancro polmonare. Sulla base dei risultati di queste indagini e di studi biologici di supporto, si concluse che nelle miniere di Schneeberg l’inalazione di radon era il fattore causale dell’elevata frequenza di tumore polmonare tra i minatori.

Nonostante questi importanti risultati, quando cominciò nel 1940 l’estrazione intensiva e il trattamento dell’uranio a scopi militari, si prestò scarsa attenzione alla protezione della salute dei lavoratori. Si pensava, infatti, che rispetto alle vecchie miniere la concentrazione di radon fosse sensibilmente più bassa, e, pertanto, i livelli di radon iniziarono a essere misurati regolarmente solo dal 1950.

Nel contempo procedevano gli studi dosimetrici e le ricerche biologiche sui possibili effetti dell’esposizione al radon. Fu Bale, nel 1951, a individuare nei prodotti di decadimento del radon i principali responsabili dell’induzione del tumore al polmone, dato che la dose di radiazioni dovuta a questi prodotti, presenti nell’aria assieme al genitore, superava di gran lunga la dose dovuta al radon e ai discendenti che si formano mentre il radon si trova nei bronchi.

In seguito a questa scoperta, le prime valutazioni di esposizione dei minatori al radon e ai suoi “figli”, condotte in USA e Canada, indicavano come il rischio di un’aumentata incidenza del tumore polmonare nei soggetti esposti fosse concreta.

In ogni caso, si riteneva ancora un problema specifico ristretto a determinati luoghi di lavoro, come le miniere, e quindi in funzione della tipologia di attività estrattiva e delle caratteristiche condizioni ambientali in cui i minatori lavoravano con ritmi fisiologici e respiratori particolari. La possibile influenza del radon sul rischio di tumore polmonare per la popolazione, infatti, fu scoperta molto più recentemente.

Solo negli anni 50 in Svezia fu pubblicato un primo studio di misure indoor, relativo a 225 abitazioni di tale nazione che riportò alti livelli di radon nelle case costruite con un calcestruzzo ad alto contenuto di radio. A questa scoperta, tuttavia, venne data scarsa risonanza internazionale, in quanto si ritenne un problema limitato unicamente al contesto svedese. Solo diversi anni più tardi, in molti paesi si svolsero indagini più ampie (risultati riportati nei rapporti UNSCEAR 1977, 1982, 1988 e 1993) che mostrarono, oltre a un’elevata variabilità nei valori di radon all’interno delle abitazioni, che il principale contributo degli alti livelli del gas era fornito dal sottosuolo e non dai materiali di costruzione.

Nel 1988 l’Agenzia Internazionale per la Ricerca sul Cancro (IARC) dell’Organizzazione Mondiale della Sanità (World Health Organization, WHO) ha riconosciuto l’attività cancerogena del radon, inserendolo tra i cancerogeni di gruppo 1, cioè tra quelle sostanze che, sulla base di studi condotti sugli esseri umani, evidenziano un effetto cancerogeno certo (a oggi tale lista elenca ca. 120 sostanze). Anche la Commissione Internazionale per la Protezione Radiologica (ICRP) sottolineò la vastità del problema per la salute pubblica indicando specifiche raccomandazioni nella pubblicazione numero 65 del 1993.

Più recentemente, nel 2009, l’Organizzazione Mondiale della Sanità nell’ambito del progetto “International Radon Project” ha identificato il radon come seconda causa di cancro al polmone dopo il fumo.

Dosimetri per radon a elettrete (in alto) e CR-39 (in basso)

Effetti sanitari del radon

All’interno degli edifici il radon, grazie all’elevata mobilità, si distribuisce rapidamente in tutto l’ambiente in modo piuttosto uniforme. Essendo un gas inerte non reagisce chimicamente, per cui, una volta inalato, è facilmente esalato dall’organismo stesso e quindi, da un punto di vista sanitario, non dovrebbe risultare pericoloso.

In aria, però, decade in altri nuclei radioattivi, i suoi figli, che sono invece chimicamente reattivi e hanno dei tempi di dimezzamento brevi, minori di 30 minuti. Una volta formatisi, questi rimangono in parte liberi o associati in cluster, cioè agglomerati di particelle con diametro inferiore a 1 nm, e in parte si associano al particolato atmosferico, depositandosi sulle superfici (effetto plate-out) o rimanendo sospesi in aria. La parte che non si fissa sul particolato è definita frazione non attaccata o libera mentre quella che si fissa viene definita frazione attaccata. I prodotti di decadimento che rimangono sospesi in aria (frazione non attaccata e frazione attaccata non depositata) possono essere inalati. Peraltro, i sistemi di filtraggio interni dell’apparato respiratorio non sono in grado di bloccare le particelle più piccole che quindi aderiscono alle superfici dei tessuti dell’apparato respiratorio. I prodotti di decadimento, a loro volta, continuano a decadere emettendo radiazioni di tipo a che possono danneggiare le cellule dell’apparato polmonare in modo irreversibile.

Il passaggio di una particella a attraverso il nucleo della cellula può causare un serio danneggiamento del DNA della cellula stessa. Nella maggior parte dei casi tali danni sono riparati da appositi meccanismi cellulari, ma si possono anche sviluppare mutazioni in grado di dare origine a un processo di formazione di cellule cancerogene. Il principale effetto sanitario dei prodotti di decadimento del radon è, quindi, un aumento di rischio di tumore polmonare. La probabilità di contrarre il tumore polmonare è proporzionale alla concentrazione di radon, al tempo trascorso nei vari ambienti di vita, nonché al consumo di tabacco. Per persone esposte al radon per circa 30 anni, l’analisi degli studi epidemiologici effettuati in 11 Paesi europei, tra cui l’Italia, ha evidenziato un aumento di rischio del 16% ogni 100 Bq/m3 di concentrazione di radon. Quindi il rischio raddoppia per un’esposizione di circa 30 anni a una concentrazione di circa 600 Bq/m3.

L’associazione tra esposizione al radon e fumo di tabacco crea un effetto sinergico in base al quale, a parità di esposizione al radon, il conseguente rischio assoluto per un fumatore di contrarre un tumore polmonare risulta molto superiore di quello di un non fumatore. Il rischio cumulativo assoluto, stimato all’età di 75 anni per una esposizione al radon per tutta la vita è riportato nella Figura seguente.

Percentuale di rischio cumulativo assoluto di tumore al polmone per non fumatori (verde) e fumatori (blu), stimato all’età di 75 anni, per una esposizione al radon per tutta la vita in funzione della concentrazione di radon (Bq/m3).

Si tratta pertanto, nei fumatori, di un valore circa 25 volte più elevato. Ciò conferma l’importanza di ridurre quanto più possibile l’abitudine al fumo, obiettivo supportato anche dall’EPA (Environmental Protection Agency) attraverso il Citizen’s guide to radon. Negli ultimi anni l’utilizzo della sigaretta elettronica, quale alternativa più salutare rispetto a quella tradizionale, sta diventando sempre più diffuso. Tuttavia, l’impatto della sigaretta elettronica sulla qualità dell’aria interna è stato studiato solo di recente. Secondo uno studio del 2015, condotto dall’Università degli studi di Cassino e del Lazio Meridionale in collaborazione con il National Institute of Ionizing Radiation Metrology, l’aerosol prodotto dalla sigaretta elettronica funziona come vettore dei figli del radon e, di conseguenza, esiste la stessa correlazione dimostrata per il radon e il fumo di sigaretta.

In Italia il numero di casi di tumore polmonare attribuibili all’esposizione al radon, stimati dall’Istituto Superiore di Sanità (ISS), è compreso tra 1.500 e 5.500 ogni anno (su un totale di circa 31.000), la maggior parte dei quali tra i fumatori a causa dell’effetto sinergico tra radon e fumo di sigaretta.

È importante sottolineare che non esiste una concentrazione di radon al di sotto della quale l’esposizione non comporti rischi. Per tale motivo, molte organizzazioni scientifiche internazionali, quali l’OMS, la Comunità Europea e i singoli Paesi, hanno fissato dei cosiddetti livelli di azione, ossia dei valori di concentrazione di radon superati i quali raccomandare o imporre azioni di rimedio per ridurne la concentrazione. Sotto questi livelli, invece, il rischio è considerato accettabile.

I riferimenti normativi

Tutta la normativa in materia di radon indoor ha come caratteristica generale quella di fissare dei livelli di azione. Attualmente, il concetto di livello di azione è stato sostituito da quello di livello di riferimento che, come vedremo in seguito, assume un significato diverso e ben preciso.

Nella maggior parte dei paesi europei, compresa l’Italia, esiste una distinzione per il tipo di normativa proposta tra ambienti di lavoro e ambienti residenziali (abitazioni). Il principale motivo di questa differenza deriva dal numero di ore che si trascorrono in tali ambienti.

Ambienti residenziali

In Italia non esiste ancora una normativa nazionale o regionale che fissi un limite di legge per gli ambienti residenziali.

Per molti anni si è fatto riferimento alla Raccomandazione Euratom 143/90 “Sulla tutela della popolazione contro l’esposizione al radon in ambienti chiusi” della Commissione Europea, emanata il 21 febbraio 1990. In tale Raccomandazione è consigliata per gli edifici residenziali, una soglia di intervento pari a 400 Bq/m3 per gli edifici esistenti, e pari a 200 Bq/m3 per gli edifici di nuova costruzione. Le soglie di intervento vanno intese come valori medi annui di concentrazione di radon. In caso di superamento di tali valori, si raccomanda di adottare provvedimenti semplici ma efficaci volti a ridurre il livello di radon.

Successivamente, nel 2009, il WHO ha pubblicato un documento di riferimento internazionale per la valutazione e la gestione del rischio radon negli ambienti confinati (WHO Handbook on Indoor Radon: A Public Health Perspective), nel quale, sulla base delle stime di rischio derivate da più recenti studi epidemiologici, si raccomanda per le abitazioni un livello di riferimento di 100 Bq/m3 o, nel caso di Paesi per i quali le condizioni esistenti non consentono il rispetto di questo valore, di 300 Bq/m3.

Il 17 Gennaio 2014 è stata pubblicata la nuova Direttiva della Comunità Europea “Direttiva 2013/59/Euratom” che stabilisce le norme fondamentali di sicurezza relative alla protezione contro i pericoli derivanti dall’esposizione alle radiazioni ionizzanti. L’articolo 74 richiede agli Stati membri di stabilire livelli di riferimento nazionali, per la media annua della concentrazione di radon in aria, non superiori a 300 Bq/m3 per tutti gli ambienti chiusi, incluse le abitazioni. La direttiva parla di livelli di riferimento e quindi l’ottimizzazione della protezione riguarda sia le esposizioni al di sopra del livello di riferimento sia al di sotto di detto livello. Questa è la differenza fondamentale rispetto al precedente concetto di livello di azione. Gli stati dovranno inoltre promuovere interventi volti ad individuare le abitazioni che presentano concentrazioni di radon superiori al livello di riferimento e, se del caso, incoraggiano misure di riduzione della concentrazione di radon in tali abitazioni. L’articolo 103 richiede agli Stati Membri di definire un piano d’azione nazionale che affronta i rischi di lungo termine dovuti alle esposizioni al radon nelle abitazioni, negli edifici pubblici e nei luoghi di lavoro per qualsiasi fonte di radon, sia essa il suolo, i materiali da costruzione o l’acqua. Lo stesso articolo, al punto 3, impone agli Stati Membri di individuare le zone in cui si prevede che la concentrazione di radon superi il pertinente livello di riferimento nazionale in un numero significativo di edifici.

La Direttiva 2013/59/Euratom, seppur di notevole impatto per la protezione delle abitazioni dal radon, non è stata recepita nel nostro Paese entro il termine previsto (6 febbraio 2018). Diverse autorità sottolineano l’importanza e l’urgenza del recepimento al fine di garantire la protezione della popolazione negli ambienti residenziali.

Ambienti di lavoro

A differenza di quanto accade per le abitazioni, allo scopo di tutelare i lavoratori e la popolazione dall’esposizione al radon negli ambienti di lavoro in Italia si dispone di una normativa specifica, il Decreto Legislativo n° 241 del 26 maggio 2000. Tale decreto recepisce le direttive 89/618/Euratom, 90/641/Euratom, 92/3/Euratom e 96/29/Euratom, e modifica i precedenti decreti 230/95 e 187/00.

Questa norma definisce come campo di applicazione particolari luoghi quali tunnel, sottovie, catacombe, grotte, terme e tutti i luoghi di lavoro interrati (art. 10-bis, comma 1). Nel decreto è imposta l’obbligatorietà delle misurazioni di radon indoor nei luoghi di lavoro suddetti entro 24 mesi dall’inizio dell’attività. Viene fissato un livello di azione oltre il quale il datore di lavoro deve attuare particolari adempimenti, a esempio notifiche a pubbliche amministrazioni e, in particolare, una valutazione della dose efficace. Tale livello è espresso come concentrazione media annua di radon in aria e corrisponde a 500 Bq/m3. Nel caso in cui la dose efficace superi il valore di 3 mSv/anno, il datore di lavoro ha l’obbligo di ridurre la concentrazione di radon o la dose efficace al di sotto dei valori sopra riportati.

Il datore di lavoro non è tenuto alle azioni di rimedio se dimostra, avvalendosi di un esperto, che nessun lavoratore è esposto a una dose superiore a 3 mSv/anno; questa disposizione non si applica per gli esercenti di asili nido, scuola materna e scuola dell’obbligo, per i quali rimane il limite di 500 Bq/m3 (art. 10-quinquies, comma 5).

Il decreto prevede, inoltre, che le regioni e le province autonome individuino le zone o i luoghi di lavoro con caratteristiche determinate a elevata probabilità di alte concentrazioni di attività di radon, definite radon prone areas, secondo le modalità individuate da un’apposita commissione (non ancora istituita).

La Direttiva 2013/59/Euratom, come riportato sopra, riguarda tutti gli ambienti chiusi e, quindi, i luoghi di lavoro. Anche in questo caso, poiché introduce livelli di riferimento inferiori rispetto al D.lgs. 241/2000, risulta importante il suo recepimento nella normativa nazionale.

Il radon indoor in Italia

 

La distribuzione del radon indoor in Italia è parecchio disomogena, come si evince dalla mappa sotto riportata. La media nazionale si attesta attorno a 75 Bq/m3 (quella mondiale è molto più bassa, 48 Bq/m3). Vi sono quattro regioni (Lombardia, Lazio, Campania e Friuli Venezia Giulia) in cui il valore medio misurato si attesta intorno a 100 Bq/m3. Se per quanto concerne Lazio e Campania ciò viene giustificato in termini di elevata presenza nel sottosuolo di rocce ignee ricche di uranio, rimane ancora non del tutto compreso l’elevato valore di radon indoor nelle altre due regioni, nonostante i numerosi studi di tipo geologico effettuati nel tentativo di razionalizzare tale realtà. Una plausibile spiegazione per quanto concerne il Friuli Venezia Giulia sta nella possibile elevata fratturazione delle rocce presenti nel sottosuolo a causa della elevata sismicità. Per la Lombardia si è invece ipotizzata la cospicua presenza di sottosuolo caratterizzato da depositi alluvionali molto permeabili.

Mappa dei valori medi di radon indoor in Italia per singola regione o provincia autonoma

Va sottolineato il fatto che il contributo dato dalla composizione del sottosuolo al radon indoor è quasi totale (93-100%), i materiali da costruzione contribuiscono in percentuale molto bassa (0-5%), mentre l’apporto dato dall’acqua potabile è ancora minore (0-2%). I materiali da costruzione che possono dare un discreto apporto sono il tufo, la pozzolana, il granito e il porfido, per questa ragione il problema si pone prevalentemente nel centro-sud della nazione dove è più frequente l’uso di tali materiali in edilizia.

*Lavora presso il Dipartimento di Scienze AgroAlimentari, Ambientali e Animali (DI4A) dell’Università di Udine, dove Insegna “Chimica Generale e Inorganica” – laurea triennale in Scienze per l’Ambiente e la Natura; “Chimica Generale e Inorganica” – laurea triennale in Scienze Agrarie; “Inquinamento Chimico e Fisico dell’Atmosfera” – laurea magistrale in Analisi e Gestione dell’Ambiente.

Svolge attività di ricerca nel settore della chimica dei composti di coordinazione e sintesi di complessi di Ru, Os, Pd e Au e del loro impiego in catalisi omogenea.

E’ stato Presidente della Sezione Friuli Venezia Giulia della SCI nel triennio 2011-2013.

La lotta per ripulire il fiume Sarno.

In evidenza

Raffaele Attardi

Questo articolo sulla situazione del fiume Sarno, e sulla tutela della zona di Sorrento che proponiamo qui sul blog, è interessante per diverse ragioni. Il fiume Sarno è considerato tra i fiumi più inquinati d’Europa. E la storia del suo tentativo di risanamento, ricorda quelle che nel passato interessarono sia il Po, che altri tre fiumi divenuti tristemente famosi negli anni 70:Lambro,Seveso e Olona.

L’autore, partendo dalla descrizione storica della zona di Sarno e più in generale dell’area geografica di Sorrento, scrive un articolo che è un appello accorato perché si realizzino le opere e si sblocchino gli investimenti necessari. Questa vicenda ci fa capire anche come, ancora troppo spesso, a fronte di emergenze ambientali, si sprechino tempo e risorse economiche in un ginepraio di burocrazia, sovrapposizioni di enti preposti ad assumersi l’onere delle realizzazioni, e dell’esercizio di verifica e controllo. La creazione di aziende ad hoc, poi chiuse, l’intervento di un commissario regionale. Sono situazioni che anche in altre regioni si sono verificate, diverse nella forma ma non nella sostanza. Anche per collettare le acque reflue di Milano c’è voluto tempo. Nel 1998 le acque reflue di Milano non erano ancora depurate, e la situazione anomala era nota e conosciuta dagli anni 80. Dal 2003 entrò in funzione il primo lotto del depuratore di Nosedo, seguito poi da quelli di Milano San Rocco nel 2004 e quello di Peschiera Borromeo nel 2005.

L’autore, Raffaele Attardi chimico, fondatore del gruppo “La grande onda” cerca di indicare le soluzioni. Alcune di queste sono state oggetto di articoli che ho pubblicato su questo blog e che quindi mi trovano idealmente al fianco di chi le propone. Ma la cosa importante è la passione civile che lo muove. Le opere di costruzione del depuratore di Punta Gradelle durano da quarant’anni, e il depuratore di Solofra, che tratta reflui industriali, sembra non funzionare adeguatamente. E il gruppo “La grande onda” si gemella idealmente con quello “Amici dell’Olona” che allo stesso modo pungola e sprona una classe politica spesso distratta, e purtroppo non sempre cosciente del fatto che il problema acqua sia un problema che si risolve con atti concreti. Da parte di tutti. Quindi con la realizzazioni di sinergie tra enti, gestori del ciclo idrico, Università. Ma anche con la spinta dal basso, dai comitati di cittadini. Evitando quanto di più deleterio ci sia quando si parla di trattamento delle acque. La demagogia o la superficialità. Attivando un continuo dialogo con i cittadini, i quali a loro volta devono evitare comportamenti scorretti. La plastica che finisce nei fiumi o nei depuratori, per fare l’esempio più banale possibile, non vi è certamente arrivata da sola.

Quindi invito alla lettura con grande piacere, augurando all’autore e ai cittadini della zona, ma augurandomi io stesso che la situazione si sblocchi, e che il fiume Sarno inizi il percorso di risanamento.

La strada è iniziata nel 1976, dalla nascita della mai dimenticata legge Merli. Poi sono arrivati i recepimenti di normative europee (che per quanto si possa criticare l’unione europea sono state invece importanti per sbloccare un percorso che era lentissimo). Ma lo sforzo non è ancora totalmente compiuto. E’ stato fatto molto, ma ancora non tutto.

Buona lettura. Mauro Icardi.

 

Raffaele Attardi.

 

Sorrento ed il bacino del Sarno : due facce della stessa medaglia

Note a margine del Convegno sul disinquinamento organizzato da La Grande Onda e Lyons della penisola sorrentina tenutosi a Sant’Agnello il 29 marzo 2019.

  1. Premessa

La penisola sorrentina, la costa vesuviana ed il bacino del Sarno sono relativamente piccoli, ma il distretto nel quale sono inseriti ha una storia antica con insediamenti e memorie, lasciate da decine di civiltà che iniziano dalla preistoria, e che testimoniano la presenza degli Osci, degli Etruschi , dei Greci , dei   Romani, dei Longobardi e di tutte le diverse dinastie che hanno caratterizzato il Regno di Napoli, fino ai Borbone.

Ma soprattutto è così ricco di vicende umane , tradizioni , mestieri , religiosità e creazioni dell’ingegno , di biodiversità e prodotti agricoli che neanche il Nilo può reggere al suo confronto.

Tutto il distretto dovrebbe essere considerato patrimonio dell’umanità e invece si continua ad esaltare e sfruttare solo alcuni luoghi, peraltro bellissimi come Sorrento , la costiera Amalfitana Pompei   raggiungendo così il risultato di vederli consumati e aggrediti da un turismo di massa , che sta facendo perdere non solo la conoscenza di quello che veramente c’è nel distretto , ma anche l’identità dei singoli luoghi e sta lasciando nel degrado località altrettanto ricche di storia e di bellezza. Facendo nascere in aggiunta problemi sociali enormi come l’impossibilità di trovare alloggi per i residenti nelle località più gettonate e  compromettere la salute delle persone nelle località più degradate.

Le sorgenti del Sarno.

Il turismo può ancora produrre tanta ricchezza e sanare molte ferite ma ad una sola condizione: bisogna bloccare questa crescita disordinata e fare in modo che il turismo cresca in maniera diffusa in tutto il distretto

E per ottenere questo risultato è interesse di tutti risolvere le criticità che si presentano del bacino del Sarno .

Mi sono dilungato in un precedente articolo su ciò che occorre fare per migliorare i sistemi di comunicazioni , adesso voglio esporre le mie idee su cosa bisogna fare per affrontare quelle che sono i rischi storici, derivanti dalla cattiva gestione delle acque , partendo dalle acque meteoriche e passando dall’approvvigionamento fino alla depurazione . Danni enormi scolpiti nella memoria collettiva per le vittime che hanno prodotto le frane , gli allagamenti e l’inquinamento del fiume e del mare.

Ed in particolare voglio affrontare l’argomento rifacendomi alle esperienze che stiamo condividendo insieme ai tanti Cittadini che hanno dato vita ai movimenti della Grande Onda e alla Rete del Sarno.

 

2) LA VISIONE CHE BISOGNA CONDIVIDERE

Per affrontare un problema così complesso prima ancora di cercare soluzioni tecniche bisogna avere chiara la visione da raggiungere.

Il termine visione non ha nulla di tecnico e la definizione del termine che troviamo nel Dizionario Treccani e la seguente : ‘Apparizione, immagine o scena del tutto straordinaria, che si vede, o si crede di aver visto, in stato di estasi o di allucinazione’ .

E quella che noi stiamo cercando di condividere, convinti che può portare al risanamento può essere riassunta in due frasi .

 

  • L’acqua non è un rifiuto che si deve gettare via , ma una benedizione : neanche una goccia d’acqua deve essere persa ; .
  • Neanche una goccia di refluo non trattato deve finire in fossi , canali , fiume o a mare

Un bravo tecnico sa che una visione deve precedere sempre la ricerca di soluzioni : e cercheremo di dimostrare che solo se si segue questa visione tutte le criticità del bacino del Sarno che sono tante riassumibili nel rischio idrogeologico, idraulico ,inquinamento di falde, inquinamento del fiume e del mare, possono essere ricondotte ad un discorso unitario e ad azioni interconnesse fra loro .

  1. a) L’acqua non è un rifiuto da gettare da via ma una benedizione

I vantaggi che si otterrebbero da un recupero delle acque sono intuitivi, ed altrettanto evidenti sono gli effetti in termini di mitigazione del rischio che si otterrebbero.

Regolamentando e regimentando le acque meteoriche e gestendo meglio le acque fluviali si riducono il rischi in campo idrogeologico e idraulico .

Queste cose le sapevano già i Romani ed i Borbone, che per secoli hanno curato la raccolta ed il riutilizzo delle acque idrogeologiche e sorgive del Sarno, lasciandoci in eredità decine e decine di invasi ed un reticolo di canali per la bonifica e l’irrigazione del territorio ,che si estende per centinaia di kilometri. Eredità che abbiamo dissipato largamente utilizzando gli invasi nati per assorbire le acque piovane, per raccogliere le acque fognarie o per il deposito incontrollato dei rifiuti

Distruggendo questa ricchezza non solo abbiamo reso impossibile il riutilizzo della acque piovane , ma abbiamo aumentato il rischio d’inquinamento dei pozzi di approvvigionamento idrico e causato problemi di allagamento .

Il recupero delle acque di pioggia è indispensabile non solo per ridurre questi rischi , ma anche perché favorisce la gestione delle reti fognarie e degli impianti di depurazione . Quando piove, infatti, se le acque di pioggia non sono gestite separatamente , ma finiscono nelle fogne miste,  causano la fuoriuscita di acque inquinate dai troppo pieni della rete fognaria e compromettono l’efficienza degli impianti di depurazione, facendo arrivare agli stessi portate ingestibili .

C’è da dire che la mancata regolamentazione delle acque di pioggia e fluviali si verifica quasi ovunque in Italia e si sente fortemente la necessità di una normativa che imponga la realizzazione di un sistema di gestione delle acque meteoriche che preveda regole per la loro raccolta e trattamento e la regolamentazione del deflusso nei corpi idrici o a mare .

3) NEANCHE UNA GOCCIA DI REFLUI NON TRATTATI DEVE CONTAMINARE FOSSI , CANALI , FIUNI O IL MARE

Il disinquinamento del bacino del Sarno può essere realizzato attraverso il raggiungimento di 3 obiettivi distinti . in particolare isogna :

  1. combattere l’inquinamento biologico
  2. combattere l’inquinamento chimico
  3. c) bisogna eliminare i solidi grossolani trascinati dal fiume .

 

un tratto del Fiume sarno

 

Se si vogliono raggiungere questi obiettivi bisogna analizzare quello che si è verificato nel passato e proporre azioni concrete, senza ripetere sempre gli stessi errori

a ) bisogna combattere l’inquinamento biologico.

L’inquinamento biologico dipende dagli scarichi urbani e non sono bastati gli episodi gravissimi verificatisi , ultimo il colera degli anni ottanta a convincere le Amministrazioni locali del bacino del Sarno della necessità di dotarsi di sistemi adeguati di fognatura e depurazione . Le fogne sono opere di urbanizzazione primaria la cui realizzazione fino al 2000 circa, è stata di competenza dei Comuni . E nel distretto sorrentino sarnese vesuviano ci sono Città che hanno realizzato fogne e sistemi di depurazione completi, talvolta associandosi spontaneamente fra loro fra loro , altre che hanno realizzato sistemi fognari solo parziali e altre che semplicemente non hanno fatto nulla.

I soldi per fare le fogne ci sono sempre stati ,per tutti , messi a disposizione dallo Stato attraverso la Cassa Depositi e Prestiti o sotto altre forme ; e i soldi continuano ancora ad arrivare dai tributi locali che i Cittadini pagano per oneri di urbanizzazione , sanzioni per il condoni e tasse per oneri indivisibili. In conclusione dove le fogne non si sono fatte, questo è dipeso principalmente dall’ignavia di molte Amministrazioni Locali

Per rimediare a questa gravissima situazione , lo Stato si è sostituito ai Sindaci del bacino del Sarno , nominando un commissario Straordinario e ha stanziato direttamente rilevantissime somme. Il Commissario ha iniziato la guerra e vinto alcune battaglie , realizzando la quasi totalità degli impianti di depurazione , ed iniziando la costruzione dei collettori , ma quando si è trattato di realizzare le fogne Città per Città ,    si è impantanato in una guerra di trincea , facendo pochi progressi e rinviando di anno in anno la vittoria finale. Dopo alcuni anni si è deciso di cambiare strategia e allo Stato è subentrata la Regione, e il Commissario è stato sostituito da una struttura regionale, Arcadis.

Ma anche questo tentativo è fallito e Arcadis è stata sciolta E così il problema non solo non è stato risolto, bruciando centinaia di milioni, ma queste gestioni hanno lasciato in eredità una miriade di lavori incompleti ,tanti conteziosi e tante navicelle con equipaggi costosissimi , che ancora navigano in questo mare per chiudere ognuna un capitolo di questa vicenda.

Io penso che questi insuccessi non siano dipesi dalla qualità delle persone scese in campo, o da carenza di risorse, ma da un fatto oggettivo: per costruire un impianto bastano dei tecnici , per costruire una fogna bisogna conoscere e letteralmente occupare il territorio, combattendo talvolta anche contro i Cittadini che vedono molto malvolentieri i lavori fognari , perché creano intralcio , e anche contro altri subdoli padroni del territorio , cioè le aziende del gas e dell’energia , che occupano nel disordine generale il sottosuolo e che quando vedono arrivare una fogna difficilmente cedono il passo.

E poi una rete fognaria non si può fare in un territorio dove tutto cambia senza regole , utilizzando aerofotogrammetrie o rilievi estemporanei, : solo chi gestisce localmente le Città può condurre questa battaglie che richiede mille compromessi .

E nessuno conosce meglio del Sindaco il territorio. Solo i Sindaci possono risolvere questi problemi.

Oggi i Sindaci sono stati chiamati nuovamente a scendere in campo, e una legge regionale li ha riuniti in un unico Ente Assembleare, l’ Ente Idrico Campano (EIC) ed i Distretti, strutture dell’Ente in cui è suddiviso il territorio. L’EIC non è un Ente Regionale, è l’ente associativo dei Sindaci . E i Sindaci sono perciò di nuovo responsabili , dopo il lungo periodo di emergenza non solo della gestione delle fogne , dei collettori e degli impianti di depurazione, ma dell’intero ciclo dell’acqua. E fanno parte dell’EIC anche i cittadini che hanno diritto a partecipare alle sedute dell’ Ente con ruolo consultivo .

Sono i Sindaci attraverso gli organi dell’EIC, che possono e devono decidere la pianificazione delle opere da realizzare e che devono riprendere in mano il completamento della rete fognaria , dei collettori , la verifica della funzionalità dei depuratori , alcuni dei quali funzionano benissimo , ed altri invece presentano gravi criticità , stabilire gli eventuali adeguamenti e la gestione ed il controllo degli stessi.

Nel Convegno che si è tenuto a Sant’Agnello il 29 marzo , il Presidente Luca Mascolo e il Direttore Generale Vincenzo Belgiorno dell’EIC hanno preso un impegno : entro fine luglio 2019 sarà presentato il Piano d’ambito del distretto sarnese vesuviano , con l’indicazione delle opere incomplete e la pianificazione preliminare di ciò che resta da fare .

E la partecipazione dei Sindaci comincia a crescere . Al Convegno di Sant’Agnello abbiamo avuto la soddisfazione di vedere presenti quelli di Torre Annunziata , Sant’Agnello , Massa Lubrense ed i rappresentanti di Cava dei Tirreni .Sono quasi il 10% dei Sindaci dei del Distretto e molti altri hanno dato la loro adesione o mostrato interesse . Abbiamo piantato un primo seme e siamo fiduciosi che crescerà .

E sono venuti e sono stati protagonisti le rappresentanze dei Cittadini di una gran parte del bacino del Sarno , anche loro decisi ad essere attori in questo processo.

  1. Bastano 3 persone per abbattere l’inquinamento chimico

Per combattere questa piaga che è diffusissima nel bacino del Sarno e che dipende dagli scarichi provenienti dalle aree di attività produttiva ma anche dalla miriade di opifici che caratterizzano il bacino e dall’agricoltura industriale che fa uso di pesticidi e fertilizzanti spesso nocivi alla salute delle persone e alle specie viventi del bacino , l’unico presidio che c’è è l’impianto di Solofra , progettato per effettuare la depurazione dei reflui industriali , impianto messo peraltro in discussione perché si nutrono forti dubbi sull’efficienza depurativa; oggi l’impianto é sotto sequestro perché arreca molestie olfattive e  che ci si augura che passi presto all’EIC e che tutta la gestione venga riesaminata.

Le azioni da fare per combattere l’inquinamento chimico sono ben note e includono il controllo su chi mette in commercio e usa prodotti chimici e pesticidi , il controllo delle attività produttive ed in particolare il rispetto degli impianti di trattamento e degli scarichi , e la caccia agli scarichi abusivi. E la caccia ad eventuali scarichi nel sottosuolo , che incidono fortemente sulla qualità delle acque sotterraneee

Ciascuno deve mettere ordine in casa propria. Ed è in queste azioni che si deve concretizzare l’autorità del Sindaco , che ha tutti gli strumenti che servono , a cominciare dall’autorità conferitagli dalla legge di imporre il rispetto delle regole, che sono a monte delle autorizzazioni, ad esercitare le attività produttive , pena il ritiro delle autorizzazioni a produrre , fino al controllo degli scarichi i .

E per fare questo bastano 3 persone per Comune , un tecnico comunale , un fognere ed un vigile urbano.

Se ognuno dei Sindaci del Distretto mette in campo 3 persone per effettuare queste verifiche , si avrà disponibile un esercito di 180 persone che in poco tempo metterà fine all’inquinamento chimico del bacino del Sarno. E se le Amministrazioni locali non ce la fanno da sole, bisogna che anche nel nostro distretto vengano istituite gruppi misti di controllo con il supporto di Guardia Costiera Carabinieri , Guardia di Finanza , replicando lo stesso modello che si è adottato per combattere i roghi nella terra dei fuochi.

E insieme ai Sindaci devono scendere in campo le Associazioni , gli Imprenditori, i Lavoratori, perché i pirati danneggiano tutti gli onesti e compromettono sviluppo e occupazione.

  1. bisogna combattere la presenza di solidi sospesi nel Sarno .

Questo obiettivo è forse al momento il più difficile da raggiungere, ma è anche il più urgente da conseguire.

I solidi trascinati dalla corrente   finiscono a Rovigliano dove inquinano e distruggono la bellezza di uno dei posti più belli del Golfo di Napoli, poi vagano per tutto il Golfo , contribuendo a creare le isole di plastica . ma prima ancora inquinano il fiume , perché spesso i solidi sono formati da contenitori di pesticidi e fertilizzanti , e infine sono una delle cause principali delle esondazioni del Sarno .

Per capire come tutto sia interconnesso bisogna sedersi sulla sponda del fiume e vede cosa succede .

Tutto inizia con la costruzione di un ponticello , spesso abusivo , realizzato a pelo d’acqua per passare da una parte all’altra del fiume . Poi succede che molti solidi, di origine naturale o meno , cominciano nel tempo a depositarsi sul fondo del fiume , riducendo la profondità . Capita anche che per effetto di eventi eccezionali, ad esempio la caduta di un albero o semplicemente a seguito del naturale ciclo vegetativo, fogli, canne e arbusti finiscano contro il ponticello e formino una diga . A questo punto il gioco è fatto : basta poco per vedere formarsi sotto il ponticello un norme tappo formato dai rifiuti .

Ed il fiume esonda , o peggio si forma un onda di piena che allaga il territorio circostante .

Tutto questo accade ogni volta che piove quando cioè l’acqua dilavando tutto, fa franare le sponde e trascina nel fiume gli alberi o la  vegetazione secca, che formano barriere dietro cui si raccolgono enormi quantità di rifiuti scaricati abusivamente lungo gli argini o nel del fiume stesso

C’è un motivo a monte di questi disastri annunciati : è pressa a poco dal 1970 , cioè da quando il governo del fiume è passato dallo Stato alle Regioni, che le operazioni ordinarie di controllo , pulizia e manutenzione del fiume e degli argini e dragaggio dei fondali sono diventate l’eccezione da effettuare in caso di emergenza piuttosto che la prassi da seguire per evitare i disastri .

E c’è la presenza di molti Lazzaroni che continuano ad usare gli argini ed il fiume come una pattumiera

Tutto è interconnesso, inquinamento ed esondazioni sono due facce della stessa medaglia e per risolvere entrami i problemi bisogna curare il governo delle acque e del territorio ed il disinquinamento

4 ) CONCLUSIONI

L’impianto di depurazione Punta Gradelle vorrei mettere in. evidenza  che dopo una gestione durata 40 anni finalmente funziona ed é considerato come uno dei più avanzati d’Europa (é stato recentemente visitato da centinaia di tecnici provenienti da più parti),

La raccolta delle acque meteoriche, la gestione del rischio idraulico ed in parte di quello idrogeologico , la creazione di riserve d’acqua , la protezione delle fonti sotterranee , il disinquinamento sono le diverse facce di una stessa problematica .

Attualmente queste problematiche vengono gestite da soggetti diversi , in particolare la gestione delle acque meteoriche e dei fiumi è condivisa fra Stato , Regione , mentre la realizzazione e gestione delle reti fognare , dei collettori e degli impianti di depurazione è ritornata ai Comuni , che devono esercitarla attraverso l’EIC ed i distretti ovvero il loro ente associativo..

Bisogna che queste gestioni migliorino e si interfaccino .

In particolare occorre che Stato e Regioni mettano mano (in accordo fra loro) a riscrivere le regole per la regolamentazione delle acque meteoriche , rendendo obbligatoria la separazione e recupero delle acque bianche e la creazione di invasi per il loro recupero. E insieme devono stabilire il percorso per ripristinare una corretta gestione dei corsi idrici, gestione che deve prevedere il rispetto delle aree naturali di esondazione ,della biodiversità , il dragaggio dei fondali e la pulizia e manutenzione continua dei corsi d’acqua e degli argini. E la regolamentazione deve includere anche le norme di costruzione delle strade , dei parcheggi esterni e delle superfici impermeabili che raccolgono le acque piovane , talvolta contaminate come accade nel caso delle acque di prima pioggia , e l’obbligo di adottare in tutti i casi possibili le tecniche di drenaggio urbano. Tutte le acque possono e devono essere recuperate, anche per ridurre il consumo di acqua potabile , una risorsa sempre più costosa e difficile da reperire.

Stiamo investendo ancora oggi enormi risorse per gestire le acque, ultime quelle stanziate per il GPS grande progetto Sarno, ma se il progetto non include una corretta gestione delle acque meteoriche e dei fiumi continueremo ad avere allagamenti e frane, con l’aggravante che se ci si limita a spostare acque inquinate , realizzando vasche di laminazione e seconda foce ,le criticità aumenteranno invece di diminuire .

I Comuni invece hanno il compito governare correttamente lo sviluppo del territorio,  facendo in modo che i Piani Urbanistici piuttosto che essere pieni di opere che consumano il territorio , scendano nel dettaglio di quali devono essere le opere di drenaggio urbano , la rete bianca e la rete fognaria ; ed il percorso delle rete fognaria deve essere stabilito prima e non dopo la realizzazione di case e opifici . E devono partecipare e sostenere la gestione dell’EIC , il loro Ente Associativo , nella pianificazione , realizzazione e corretta gestione delle reti , dei collettori e degli impianti di depurazione .

E ancora i Comuni per abbattere l’inquinamento chimico devono verificare  che le aree di sviluppo produttivo , come pure per ogni singola attività produttiva sia dotata degli impianti necessari a garantire il trattamento chimico fisico dei reflui , e devono provvedere a ritirare le autorizzazioni a quelli che non rispettano tali requisiti.

Dobbiamo giocare winner to winner ,facendo ognuno ciò che compete al proprio ruolo, smettendola di giocare a scarica barile .

Dobbiamo tutti avere cura di ciò che ci è stato affidato .E aver cura significa non solo somministrare qualche medicina , ma avere premura , cioè agire con tempestività , amorevolezza , sollecitudine .

Dobbiamo aver cura delle persone e della Terra , che è l’ultimo dei poveri , sottoposto ad uno sfruttamento senza rispetto e senza regole.

Per raggiungere quest’obiettivo è indispensabile la spinta che deve venire dai Cittadini per isolare i Lazzaroni e la spinta che deve venire dalla scuola , per evitare che di generazione in generazione i Lazzaroni si ripresentino.

La Grande Onda , la Rete del Sarno, i movimenti che crescono nei social, le tante Associazioni , i gruppi spontanei , e singoli cittadini , stanno facendo crescere il coinvolgimento e la sensibilizzazione e sta nascendo una nuova consapevolezza dei problemi.

Bisogna continuare a spingere , guardando tutti nella stessa direzione, garantendo la diversità di ognuno e rispettando tutti.

L’inquinamento è un mostro dai mille tentacoli ci voglio mille braccia per combatterlo .

Il prossimo appuntamento è a settembre , quando faremo il punto sulle iniziative messe in campo dal Ministero dell’Ambiente e dalla Regione , augurandoci che il GPS affronti concretamente il rischio idraulico partendo da una visione condivisibile , e di avere disponibile il Piano d’Ambito che l’EIC sta predisponendo con evidenziati i rottami che galleggiano nel mare delle opere incompiute , ma anche la rotta che i Sindaci avranno tracciato per realizzare una sistema adeguato di gestione per le reti fognarie e di depurazione.

Il Sarno nasce puro ogni giorno e ci offre ogni giorno una nuova possibilità.

Elementi della Tavola Periodica: Alluminio, Al

Alberto Zanelli*

L’alluminio (Al) è l’elemento con numero atomico 13 e si trova nel terzo periodo, tredicesimo gruppo (IIIA), dell’attuale sistema periodico degli elementi. Con una abbondanza relativa del 8% é il terzo elemento più presente sulla crosta terrestre dopo ossigeno e silicio. In natura si trova con i soli isotopi 27Al, quasi 100% del totale , 26Al (dalla spallazione dei raggi cosmici) ; sempre ossidato, sotto forma di feldspati, miche, argille e caolini. L’ossido puro è il corindone, gemma con durezza Mohs pari a 9 (il diamante sta a fondo scala cioè a 10), di cui alcune varietà sono note come rubino e zaffiro. Per l’estrazione del metallo si ricorre all’ossido idrato (bauxite). A causa del basso potenziale standard di riduzione (E0 = -1.66 V), non è possibile ottenere il metallo per riduzione ad alta temperatura con coke, come per ferro e rame, ma è necessario ricorrere ad un processo elettrochimico, come per magnesio e titanio.

Nel processo Hall-Heroult (1886) la bauxite viene fusa a circa 1000°C con criolite (3NaF·AlF3) che più recentemente è stata sostituita con miscele artificiali di fluoruri di sodio, alluminio e calcio. La riduzione avviene alla base della cella elettrolitica contro anodi di carbone con un dispendio di energia che oggi è circa 14 kWh per 1 kg di Al, secondo la reazione di cella: [1]

2Al2O3 + 3C → 4Al + 3CO2

Ne esce il metallo fuso (punto di fusione di Al 660°C) con un titolo del 99.4 – 99.9%. Recentemente Alcoa ha introdotto una preventiva conversione in carburo di Al e Calsmelt ha ridotto le temperature di esercizio aggiungendo rottami di alluminio nella miscela di minerali fusi, abbassando i consumi energetici.

Nel 2017 la produzione mondiale di Al primario è stata circa 63,4 milioni di tonnellate, di cui il 57% in Cina e solo il 12% in Europa, con un assorbimento di circa il 3,5% della produzione elettrica mondiale. L’elevato costo dell’energia, insieme alla riduzione della richiesta interna e all’aumento del riciclaggio, è il motivo per cui Italia, Paesi Bassi e Regno Unito hanno abbandonato, negli ultimi anni, la produzione di Al primario.[2] Nel 2012 in UE si estraevano poco più di due milioni di tonnellate di bauxite tra Grecia, Francia e Ungheria mentre la produzione di allumina, usata principalmente nei refrattari, raggiungeva 5,6 milioni di tonnellate. La produzione europea di Al soffre anche dell’incertezza sull’approvvigionamento di fluoruro di calcio (fluorite) che la UE importa peri il 70%, principalmente dalla Repubblica Popolare Cinese, responsabile di 2/3 dell’estrazione mondiale.[3] In Italia la bauxite non si estrae più dal 2016, l’allumina dal 2010 e si è ridotta drasticamente anche l’estrazione di fluorite. Era di fluorite la miniera per cui vennero maldestramente costruiti i bacini di decantazione dell’impianto di flottazione che crollarono il 19 luglio 1985 provocando 268 morti in Val di Stava (TN), ma questa è un’altra storia. Resta il fatto che i consumi energetici, le crisi nell’approvvigionamento delle materie prime e i rischi derivanti dall’attività industriale sono tre aspetti interconnessi su cui interrogarsi quando si ragiona sul nostro modello economico anche per un metallo così familiare come Al.

Dopo il ferro, Al è il metallo più utilizzato soprattutto grazie alla sua bassa densità (2690 kg m-3 a 20°C) e alla resistenza alla corrosione dovuta alla formazione spontanea di uno strato protettivo per reazione con l’ossigeno (passivazione). Grazie al punto di fusione relativamente basso Al può essere lavorato per pressofusione in stampi di acciaio o per idroformatura. Le leghe leggere basate su Al, magnesio, rame e zinco a seconda dell’uso, sono utilizzate in aeronautica, ma anche per scafi di imbarcazioni e particolari di automobili sportive. Lo strato di passivazione può essere ispessito con il così detto processo di anodizzazione che ne consente anche una tenace colorazione: per questo Al è largamente usato per la realizzazione di infissi in edilizia.

Figura 1. Manufatti in alluminio: bicicletta, cartellonistica, infissi e, riflessa sul vetro, linea di alta tensione (foto A. Zanelli).

Per la sua buona conducibilità elettrica Al, puro o in lega con Manganese e Silicio per aumentarne il carico di rottura in trazione, sostituisce il rame nelle linee elettriche aeree poiché consente di realizzare cavi che gravano meno sui tralicci di sostegno. Per la sua buona conducibilità termica invece viene utilizzato negli scambiatori di calore mentre leghe Al-silicio-rame si utilizzano per parti di motori.[4]

La versatilità di questo metallo e delle sue leghe ha consentito a ingegneri e stilisti una grande libertà di progettazione per realizzare una miriade di oggetti per uso professionale, sportivo e domestico. Al Museo Nazionale della Scienza e della Tecnologia “Leonardo da Vinci” di Milano, nell’esposizione permanente dedicata ad Al, è esposta un’ampia campionatura di questi oggetti.

Al è molto utilizzato anche per gli imballaggi tanto che, nel 2017 solo in Italia, ne sono stati immesse al consumo 65.000 tonnellate delle quali il 90% riguarda il settore alimentare e oltre 40.000 tonnellate sono ad uso domestico. In quell’anno il 63,4% degli imballaggi in Al è stato riciclato superando l’obiettivo per il 2025 (50%) e sfiorando quello per il 2030 (65%) che era stato superato però nel 2016 con un riciclaggio del 72%.[5] Per riciclare Al è sufficiente separarlo da altri rifiuti, pretrattarlo a 500°C per bruciare vernici ed etichette, rifonderlo a 800°C in atmosfera inerte, descorificare, e colare in lingotti o placche, la resa sul rottame iniziale è dell’87% ma il risparmio sull’energia ―e sulle relative emissioni di CO2― che si consumerebbe per la produzione del metallo primario dai minerali è del 95%.[6]

Figura 2. Utilizzo di Al come imballaggio.

Sempre nel settore imballaggi, piccole quantità di Al sono fatte aderire in fogli sottili o spruzzate su materiali diversi (cartone o plastiche) per ottenere un effetto barriera all’ingresso dell’ossigeno e consentire una maggiore durata delle derrate alimentari ivi contenute in atmosfera inerte. Il recupero da questi materiali poliaccoppiati è però estremamente difficile.

Nel corpo umano Al è presente in concentrazioni inferiori alla parte per milione e, in rapporto all’abbondanza relativa, si colloca al penultimo posto sopra al silicio nella graduatoria degli elementi su cui pare essersi evoluto Homo sapiens. In generale sembra che Al non sia essenziale per gli esseri viventi ma non sia neanche particolarmente tossico, nonostante l’elevata concentrazione nella litosfera e i complessi cicli geochimici che lo mettono continuamente in contatto con la biosfera. Ma se la lenta evoluzione della Vita è rimasta pressoché indifferente ad Al, l’Uomo, nella sua breve storia, ha dapprima sapientemente usato i minerali di Al poi, a partire dal ‘900, forse anche per il valore strategico nell’aereonautica, ha massicciamente introdotto il metallo nel suo armamentario tecnologico facendone uno dei materiali su cui si basa l’impennata del nostro sviluppo negli ultimi decenni. Il frequente uso dei Al nella vita di tutti i giorni, ma ancor di più l’inacidimento delle precipitazioni determinato dall’attività antropica sta aumentando l’esposizione ambientale ad Al e i sospetti di correlazione con l’aumento di casi di alcune patologie tipiche del nostro tempo. [7]

Proprio al controllo di Al nell’acqua potabile è legato un bel ricordo dei miei primi anni da laureato in chimica quando, nella calda mattina del ferragosto ’97, durante il mio stage estivo presso il laboratorio di controllo delle acque dell’allora SeaBo, la concentrazione di Al in un impianto di potabilizzazione sull’Appennino superò il livello di guardia.

Figura 3. Il cloruro di alluminio allo stato solido si presenta con catene di eleganti ottaedri uniti su un lato, centrati sul’atomo di Al e con gli atomi di cloro nei vertici (https://en.wikipedia.org/wiki/Aluminium_chloride)

L’impianto usava “polialluminio cloruro” come agente floculante e, a causa di un anomalo aumento di temperatura del bacino di captazione, cominciò a liberare Al. L’unico tecnico in servizio quella mattina si mosse per andare a risolvere il problema e, non potendo entrare in impianto da solo per motivi di sicurezza, mi chiese di accompagnarlo, con l’unica consegna di chiamare i soccorsi in caso d’incidente. Così io potei fare la mia scampagnata di ferragosto. Grazie alluminio!

[1] World aluminium.

[2] M. Conserva, La produzione mondiale di alluminio primario, A&L 21/02/2019.

[3] Deloitte Sustainability, British Geological Survey, Bureau de Recherches Géologiques et Minières, Netherlands Organisation for Applied Scientific Research, Study on the review of the list of Critical Raw Materials. Critical Raw Materials Factsheets, 2017.

[4] AA. VV. Enciclopedia della Chimica Garzanti, Garzanti editore, Milano, 1998.

[5] I.S.P.R.A Rapporto rifiuti urbani edizione 2018.

[6] CIAL – Consorzio Imballaggi in Alluminio.

[7] C. Exley J. Inorg. Biochem. 97 (2003) 1–7.

* Alberto Zanelli, consigliere del Gruppo Interdivisionale per la Diffusione della Cultura Chimica della S.C.I., si è laureato in Chimica e si è specializzato in Metodologie chimiche di controllo e di analisi presso l’Università di Bologna. Si è occupato di elettrochimica ed igiene industriale è ricercatore presso l’Istituto per la Sintesi Organica e la Fotoreattività del Consiglio Nazionale delle Ricerche dove si è occupato di materiali organici per l’elettronica, sensori e processi avanzati di ossidazione per la riqualificazione delle acque. Consigliere nel Gruppo interdivisionale per la divulgazione della cultura chimica della Società chimica italiana, è coinvolto in alcuni progetti di divulgazione scientifica.