Informazioni su devoldev

chemist, university researcher, marxian, peakoiler,climate worried, bridge player, Mozart/Vivaldi loving, pedal biker

La chimica della maggioranza (molecolare)

In evidenza

Claudio Della Volpe

Uno dei concetti apparentemente più semplici ed elementari della chimica è la purezza delle varie sostanze di cui conosciamo la formula; prendiamo la comune acqua, la formula è H2O.

E’ una sostanza comunissima e necessaria alla vita; l’acqua che usiamo è solo acqua? Ossia possiamo immaginare almeno in questo caso di avere acqua al 100%?

No, non possiamo; l’acqua che usiamo di solito è una soluzione salina di qualche tipo; anche se la distilliamo in aria il risultato sarà una soluzione di acido carbonico a pH fra 5 e 6; per avere dell’acqua più pura possiamo usare dei metodi a scambio ionico o ad osmosi inversa che partono da acqua già distillata e avremo la cosiddetta acqua ultrapura, che sarà priva di biossido di carbonio, di batteri, virus e quasi di sali disciolti finché non la esporremo all’aria.

Quale è la massima purezza ottenibile dell’acqua?

Se si cerca in rete si trova in vendita acqua con un grado di purezza rispetto alle contaminazioni batteriche del 99.9999%; ma cosa vale per il contenuto in sali? La resistività finale è di 18,2 MΩ.cm a 25°C e i livelli di TOC inferiori a 5 ppb.

Anche un’acqua di questo tipo se esposta all’aria andrà comunque all’equilibrio con i suoi costituenti; fra l’altro qualunque contenitore dell’acqua cederà qualcosa: vetro o PTFE, che sono fra i materiali più resistenti all’attacco dei solventi, cederanno piccole quantità del loro materiale; dunque anche se fossimo in grado di ottenere un’acqua al 100% non sapremmo come conservarla per mantenerne la purezza assoluta.

Ma questo non vale solo per l’acqua.

Un altro materiale relativamente comune che per i suoi impieghi industriali deve essere ultrapuro è il silicio, usato per la costruzione dei dispositivi elettronici.

Cosa possiamo dire del silicio e della sua purezza?

Il silicio è un semiconduttore le cui proprietà vengono esaltate dal drogaggio, un drogaggio che al massimo arriva a 1ppm; dunque la base dell’elemento deve essere più puro se possibile; attualmente si arriva ad un silicio 12N ossia con una purezza di una parte su 1012; questo significa che su una mole di silicio, 28 grammi, abbiamo comunque 1011 atomi di diverso tipo. Esposto all’aria il silicio si ossida ricoprendosi di uno strato di ossido di silicio perché i suoi atomi esterni avranno legami liberi.

In realtà la cosa è più complessa; si è tentato di usare il silicio come campione di massa o del numero di Avogadro, un’idea partorita molti anni fa da uno scienziato italiano (C. Egidi, Phantasies on a Natural Unity of Mass, Nature, 1963, 200, 61-62.) e portata avanti dal gruppo dell’INRIM diretto da Enrico Massa e Carlo Sasso; per fare questo occorreva un campione di silicio isotopicamente puro; ma non si è andati oltre 99.9998% di purezza in 28Si. Dunque se guardiamo le cose dal punto di vista della purezza isotopica le cose stanno ancora peggio che prima; su 28g di silicio isotopo-28 avremo che ben 2 atomi su un milione saranno diversi per qualche motivo.

Il problema isotopico ovviamente è presente anche nell’acqua; avremo infatti isotopi sia dell’idrogeno che dell’ossigeno e dunque oltre alle impurezze dovute alla presenza di gas disciolti o di ioni residui non tutte le molecole saranno veramente uguali; o meglio lo saranno nei limiti in cui la loro nuvola elettronica sarà sovrapponibile a quella dell’acqua “base”, diciamo così; ci sarà un certo effetto isotopico sia per l’idrogeno che per l’ossigeno con proprietà di reazione diverse. Saranno “quasi” uguali; saranno approssimativamente uguali; d’altronde ricordiamo che quando si analizzano le proprietà molecolari teoricamente si fa una approssimazione, nota come approssimazione di Born-Oppenheimer, che vuol dire considerare trascurabile il moto del nucleo che ha una massa molto grande rispetto a quella degli elettroni; questo aiuta a fare i conti ma anche a mascherare le differenze che dipendessero dal nucleo.

Ma anche se avessimo la possibilità di purificare una molecola come l’acqua al 100%, ottenendo solo atomi di H e isotopi dell’ossigeno 16, combinati tra di loro, (cosa che non siamo in grado di fare al momento) comunque avremo una differenza residua che riguarderebbe una percentuale elevata di molecole.

Infatti le molecole come l’acqua hanno che i nuclei dell’idrogeno, dotati ciascuno di un proprio vettore momento magnetico potranno avere i due vettori dei due idrogeni allineati od antiallineati, nel primo caso parliamo di orto-acqua e nel secondo di para-acqua; le due molecole sono interconvertibili, ma hanno proprietà leggermente diverse e sono separabili e si possono mantenere separate.

Una situazione analoga ma molto più evidente, tanto da dare problemi di accumulo, si ha con l’idrogeno, il semplice idrogeno. Ne abbiamo parlato qualche anno fa (https://ilblogdellasci.wordpress.com/2017/02/03/naturale-o-sintetico-note-sullidentita-chimica-1/).

Cosa possiamo concludere?

La nostra tecnologia chimica per quanto ormai basata su una enorme esperienza sperimentale e teorica non è in grado né di generare né di conservare sostanze totalmente pure; la nostra chimica è dunque una chimica approssimata, una “chimica della maggioranza” delle molecole, che riguarda la maggioranza delle molecole di una sostanza o al massimo il loro comportamento medio ma che trascura necessariamente effetti al di sotto di un certo valore critico. Le minoranze molecolari sono trascurate almeno in una descrizione di base.

C’è ancora spazio di progresso e anche enorme. Chissà cosa potrebbe fare (se ci fosse, se ci potesse essere) una chimica in grado di gestire purezze del 100%.

Il chimico analitico potrebbe commentare: Ogni metodo è caratterizzato da 5 grandezze: accuratezza, precisione, limite minimo di rilevabilità, sensibilità, selettività: si comprende facilmente come a seconda del metodo un’impurezza possa essere rilevata oppure no

Questo è giusto ma non cambia la situazione di fatto: la chimica moderna non è in grado di garantire sostanze pure al 100% e non saprebbe nemmeno dove conservarle. E’ in grado di arrivare fino ad un certo punto che dipende dallo sviluppo della tecnica analitica; ma ci sono limiti assoluti? Potremo mai avere una chimica analitica che discrimini la singola molecola?

D’altronde occorre ricordare che SE le molecole sono abbastanza grandi come accade per le proteine o gli acidi nucleici per esempio, questo limite critico è GIA’ stato raggiunto.

Nel recente libro (2018) Single Molecule Analysis – Methods and Protocols Second Edition Edited by Erwin J. G. Peterman si fa il punto sui metodi e le tecniche analitiche che almeno nel settore della biochimica consentono di operare su singole molecole di notevole dimensione. DNA, RNA, proteine possono essere analizzate individualmente usando microscopia a forza atomica o pinze magnetiche o ottiche

.

Ma saremo mai in grado di farlo su piccole molecole?

Voi che ne pensate?

Si veda anche:

Elementi della Tavola Periodica. Niobio, Nb (2 parte)

In evidenza

Rinaldo Cevellati

Produzione
Dopo la separazione dagli altri minerali si ottengono gli ossidi misti di tantalio Ta2O5 e niobio Nb2O5. La prima fase della lavorazione è la reazione degli ossidi con acido fluoridrico:
Ta2O5 + 14HF → 2H2[TaF7] + 5H2O
Nb2O5 + 10HF → 2H2[NbOF5] + 3H2O
La prima separazione su scala industriale, sviluppata da de Marignac, sfrutta le diverse solubilità del complesso niobio e fluoruri di tantalio, dipotassio ossipentafluoroniobato monoidrato (K2[NbOF5] · H2O) e dipotassio eptafluorotantalato (K2[TaF7]) in acqua. I processi più recenti utilizzano l’estrazione liquida dei fluoruri dalla soluzione acquosa mediante solventi organici come il cicloesanone. Il complesso niobio e fluoruri di tantalio vengono estratti separatamente dal solvente organico con acqua e precipitati mediante l’aggiunta di fluoruro di potassio per produrre un complesso di fluoruro di potassio, oppure precipitati con ammoniaca come pentossido:
H2[NbOF5] + 2KF → K2[NbOF5]↓ + 2 HF
Seguito da:
2H2[NbOF5] + 10NH4OH → Nb2O5↓ + 10NH4F + 7H2O
Diversi metodi vengono utilizzati per la riduzione al niobio metallico. L’elettrolisi di una miscela fusa di K2[NbOF5] e cloruro di sodio è una; l’altro è la riduzione del fluoruro con il sodio. Con questo metodo è possibile ottenere un niobio di purezza relativamente elevata. Nella produzione su larga scala, Nb2O5 viene ridotto con idrogeno o carbonio. Nella reazione alluminotermica, una miscela di ossido di ferro e ossido di niobio viene fatta reagire con l’alluminio:
3Nb2O5 + Fe2O3 + 12Al → 6Nb + 2Fe + 6Al2O3
Piccole quantità di ossidanti come il nitrato di sodio vengono aggiunte per migliorare la reazione. Il risultato è ossido di alluminio e ferroniobio, una lega di ferro e niobio utilizzata nella produzione dell’acciaio. Il ferroniobio contiene tra il 60 e il 70% di niobio. Senza ossido di ferro, il processo alluminotermico viene utilizzato per produrre niobio. È necessaria un’ulteriore purificazione per raggiungere il grado per le leghe superconduttive. La fusione a fascio di elettroni sottovuoto è il metodo utilizzato dai due principali distributori di niobio.
Applicazioni
Delle 44.500 tonnellate di niobio estratte nel 2006, circa il 90% è stato utilizzato in acciaio strutturale di alta qualità. La seconda più grande applicazione sono le superleghe. I superconduttori in lega di niobio e i componenti elettronici rappresentano una quota molto ridotta della produzione mondiale.
Acciai al niobio
Il niobio è un efficace elemento di micro lega per l’acciaio, all’interno del quale forma carburo di niobio e nitruro di niobio. Tali composti migliorano la raffinazione del prodotto e ne ritardano la ricristallizzazione e l’indurimento. Questi effetti a loro volta aumentano la tenacità, la resistenza, la formabilità e la saldabilità. All’interno degli acciai inossidabili microlegati, il contenuto di niobio è un’aggiunta piccola (meno dello 0,1%) ma importante agli acciai bassolegati ad alta resistenza che sono ampiamente utilizzati strutturalmente nelle automobili moderne. Il niobio è talvolta utilizzato in quantità considerevolmente più elevate per componenti di macchine e coltelli altamente resistenti all’usura, fino al 3% nell’acciaio inossidabile Crucible. Queste leghe sono spesso utilizzate nella costruzione di condutture.
Superleghe
Quantità di niobio sono utilizzate nelle superleghe a base di nichel, cobalto e ferro in proporzioni fino al 6,5% per applicazioni quali componenti di motori a reazione, turbine a gas, sottogruppi di razzi, sistemi di turbocompressore, resistenza al calore e combustione attrezzature.
Un esempio di superlega è Inconel 718, costituita da circa il 50% di nichel, 18,6% di cromo, 18,5% di ferro, 5% di niobio, 3,1% di molibdeno, 0,9% di titanio e 0,4% di alluminio. Queste superleghe sono state utilizzate, ad esempio, in sistemi di air frame avanzati per il programma Gemini. Un’altra lega di niobio è stata utilizzata per l’ugello del modulo di servizio Apollo. Poiché il niobio viene ossidato a temperature superiori a 400 °C, è necessario un rivestimento protettivo in queste applicazioni per evitare che la lega diventi fragile.
La reattività del niobio con l’ossigeno richiede che sia lavorato sottovuoto o in atmosfera inerte, il che aumenta notevolmente il costo e la difficoltà di produzione. La rifusione ad arco sottovuoto (VAR) e la fusione con fascio di elettroni (EBM), all’epoca nuovi processi, consentirono lo sviluppo del niobio e di altri metalli reattivi.
Magneti superconduttori
Niobio-germanio (Nb3Ge), niobio-stagno (Nb3Sn), così come le leghe niobio-titanio, sono usati come filo superconduttore di tipo II per magneti superconduttori. Questi sono utilizzati negli strumenti di risonanza magnetica nucleare, nonché negli acceleratori di particelle. Ad esempio, il Large Hadron Collider utilizza 600 tonnellate di filamenti superconduttori, mentre l’International Thermonuclear Experimental Reactor utilizza circa 600 tonnellate di filamenti Nb3Sn e 250 tonnellate di filamenti NbTi. Solo nel 1992, più di 1 miliardo di dollari USA di sistemi di risonanza magnetica per immagini cliniche sono stati costruiti con filo di niobio-titanio (Figura 6).

Figura 6. Scanner per risonanza magnetica clinica che utilizza una lega superconduttrice al niobio
Le cavità a radiofrequenza superconduttrici (SRF) utilizzate nei laser a elettroni liberi FLASH e XFEL sono realizzate in niobio puro. Un team di crio-modulo al Fermilab ha utilizzato la stessa tecnologia SRF del progetto FLASH per sviluppare cavità SRF a nove celle da 1,3 GHz realizzate con niobio puro. Le cavità saranno usate nell’acceleratore lineare di particelle di 30 chilometri (19 mi) dell’International Linear Collider. La stessa tecnologia sarà utilizzata in LCLS-II presso SLAC National Accelerator Laboratory e PIP-II presso Fermilab. L’elevata sensibilità dei bolometri superconduttori di nitruro di niobio li rende rilevatori ideali per le radiazioni elettromagnetiche nella banda di frequenza THz. Questi rilevatori sono stati testati presso il Submillimeter Telescope, il South Pole Telescope, il Receiver Lab Telescope e l’APEX, e sono ora utilizzati nello strumento HIFI a bordo dell’Herschel Space Observatory.
Altre applicazioni
In elettroceramica, il niobato di litio è ampiamente utilizzato nei telefoni cellulari e nei modulatori ottici e per la produzione di dispositivi a onde acustiche di superficie. Il niobio viene aggiunto al vetro per ottenere un indice di rifrazione più elevato, rendendo possibili vetri correttivi più sottili e leggeri.
Il niobio e alcune leghe di niobio sono fisiologicamente inerti e ipoallergenici. Per questo motivo sono utilizzati in protesi e in dispositivi di impianto, ad esempio nei pacemaker.
Come il titanio, il tantalio e l’alluminio, può essere riscaldato e anodizzato per produrre una vasta gamma di colori iridescenti per gioielli, dove la sua proprietà ipoallergenica è altamente desiderabile.
In numismatica è usato come metallo prezioso nelle monete commemorative, spesso con argento o oro. Ad esempio, l’Austria ha prodotto una serie di monete in euro d’argento al niobio a partire dal 2003; il colore in queste monete è creato dalla diffrazione della luce da un sottile strato di ossido anodizzato (Figura 7).

Figura 7. Moneta commemorativa del 2004 fatta di niobio e argento
Dal 2012, sono disponibili dieci monete che mostrano un’ampia varietà di colori al centro della moneta: blu, verde, marrone, viola o giallo. Altri due esempi sono la moneta commemorativa austriaca da € 25 per i 150 anni della Ferrovia alpina Semmering del 2004, e la moneta commemorativa austriaca da € 25 per la navigazione satellitare europea del 2006. Nel 2011, la Royal Canadian Mint ha iniziato la produzione di una moneta in argento sterling e niobio da $ 5 denominata Hunter’s Moon in cui il niobio è stato selettivamente ossidato, creando così finiture uniche per cui non esistono due monete esattamente uguali.
Le guarnizioni ad arco delle lampade a vapori di sodio ad alta pressione sono realizzate in niobio, a volte legato con l’1% di zirconio; il niobio ha un coefficiente di espansione termica molto simile, corrispondente alla ceramica del tubo ad arco di allumina sinterizzata, un materiale traslucido che resiste all’attacco chimico o alla riduzione del sodio liquido caldo e dei vapori di sodio contenuti all’interno della lampada.
Il niobio è un componente importante dei catalizzatori eterogenei ad alte prestazioni per la produzione di acido acrilico mediante ossidazione selettiva del propano.
Tossicologia e precauzioni
Il niobio non ha un ruolo biologico noto. Mentre la polvere di niobio è irritante per gli occhi e la pelle e un potenziale pericolo di incendio, il niobio elementare su ampia scala è fisiologicamente inerte, ipoallergenico e innocuo. È usato in gioielleria ed è stato testato per l’uso in alcuni impianti medici.
I composti contenenti niobio sono raramente incontrati dalla maggior parte delle persone, ma alcuni sono tossici e dovrebbero essere trattati con cura. L’esposizione a breve e lungo termine ai niobati e al cloruro di niobio, due sostanze chimiche solubili in acqua, è stata testata sui ratti. I ratti trattati con una singola iniezione di pentacloruro di niobio o niobati mostrano una dose letale mediana (LD50) compresa tra 10 e 100 mg/kg. Per la somministrazione orale la tossicità è inferiore; uno studio sui ratti ha prodotto una DL50 dopo sette giorni di 940 mg/kg.
Riciclaggio
Come per il tantalio, la multinazionale Metal Globe offre l’opportunità di riciclare il niobio dagli scarti delle sue leghe. Nel suo sito, scrive:
La fonte più significativa di niobio è presente nelle leghe di acciaio ad alta resistenza (HSLA) e nelle superleghe. Il tipico processo di riciclaggio del niobio è di solito mediante la rifusione. Uno dei principali ostacoli al miglioramento del tasso di riciclaggio è la scarsa attenzione che viene data alla composizione dei rottami di acciaio. Molto niobio viene diluito in acciaio di qualità inferiore o viene perso nelle scorie. Uno dei modi migliori per migliorare gli attuali tassi di riciclaggio del niobio è aumentare l’efficienza della selezione dei rottami di acciaio. In futuro, man mano che le porzioni di acciaio saranno disponibili da altre fonti, comprese le condutture e altre applicazioni che utilizzano HSLA, sarà recuperato più niobio migliorando la selezione dei rottami di acciaio [1].
Nel 2019 è stato pubblicato dal Comitato europeo di coordinamento dell’industria informatica radiologica, elettromedicale e sanitaria (COCIR) con sede a Bruxelles, un dettagliato rapporto su Revisione dei metodi e della loro fattibilità per il recupero del niobio dai cavi superconduttori [2].
Nel 2019 un gruppo di ricercatori internazionali, coordinati dal prof. S. Rahimpour Golroudbary, ha studiato la sostenibilità ambientale del recupero del niobio da leghe di autoveicoli giunti a fine vita.
Il processo messo a punto ha mostrato una riduzione del 18⁒ delle emissioni di gas serra e poveri sottili su base annua dal 2010 al 2050 [3].
Nello stesso anno un gruppo di ricercatori francesi, coordinati dal prof. Gauthier J.P. Deblonde, ha messo a punto un processo idrometallurgico per il recupero di niobio e tantalio utilizzando una miscela acido ossalico-acido nitrico, meno costosi, al posto di acido fluoridrico-fluoruri. Il processo è stato testato sia in laboratorio sia su soluzioni industriali contenenti Nb e Ta con produzioni soddisfacenti di Nb2O5·nH2O(s) al 99,5% in peso di purezza e un concentrato di Ta2O5·nH2O(s) al 20% di tantalio [4].
Ciclo biogeochimico
Il ciclo biogeochimico del niobio non ha ricevuto finora particolare attenzione. Tuttavia, il suo impiego, incrementato notevolmente nelle ultime decadi, ha portato a una crescente pressione per utilizzare le risorse naturali in modo più efficiente riducendo l’emissione di rifiuti industriali e di gas serra. Nel 2019 è stato pubblicato un articolo riguardante la valutazione del ciclo di vita del niobio in Brasile [5]. In questo studio, sono stati utilizzati strumenti di valutazione del ciclo di vita per sviluppare diagrammi proposti come modello per il ciclo di vita del niobio. Per fare ciò, sono stati utilizzati strumenti LCA per sviluppare un diagramma del processo di arricchimento del minerale contenente Nb e quantificare il bilancio di massa rispetto ai prodotti finiti e ai rifiuti solidi, liquidi e gassosi. Uno di questi diagrammi è mostrato in figura 8.

Figura 8. Ciclo di vita del niobio [5]
I dati hanno mostrato che 2200 kg di FeNb e 300 kg di Nb2O5 sono stati prodotti da 100 t di minerale contenente il 2,5% di Nb, e che la valorizzazione del minerale danneggia l’ambiente.

Opere consultate
Handbook of Chemistry and Physics 5th Ed., p. 4-21
https://en.wikipedia.org/wiki/Niobium

Bibliografia
[1] https://globemetal.com/niobium-recycling/
[2] RINA-COCIR, MRI superconductor recycling, Report No. 2019-0088 Rev. 1- February 2019 https://www.cocir.org/fileadmin/6_Initiatives_SRI/Annual_forum/REG01543-001_COCIR_Niobium_recycling_report_V4.pdf
[3] S. Rahimpour Golroudbary et al., Environmental Sustainability of Niobium Recycling: The Case of the Automotive Industry., Recycling, 2019, 4, 5-26. DOI: 10.3390/recycling4010005
[4] Gauthier J.-P. Deblonde et al., Niobium and tantalum processing in oxalic-nitric media: Nb2O5·n2O and Ta2O5·nH2O precipitation with oxalates and nitrates recycling., Separation and Purification Technology, 2019, 226, 209-217.
[5] A. Rangel Alves, A. dos Reis Coutinho, Life cycle assessment of niobium: A mining and production case study in Brazil., Minerals Engineering, 2019, 132, 275-283

Elementi della Tavola periodica. Niobio, Nb.(parte 1)

In evidenza

Rinaldo Cervellati

Il niobio, simbolo Nb, è l’elemento n. 41 della Tavola Periodica, posto al 5° Gruppo, 5° Periodo, sotto il vanadio, sopra il tantalio, affiancato da zirconio (a sinistra) e molibdeno (a destra). È un metallo di transizione, di colore grigio chiaro, cristallino, duttile. È abbastanza raro, la sua abbondanza nella crosta terrestre è valutata fra 17 e 20 ppm.
Il niobio fu identificato dal chimico inglese Charles Hatchett (Figura 1) nel 1801. Egli trovò un nuovo elemento in un campione di minerale che era stato inviato in Inghilterra dal Connecticut, Stati Uniti, nel 1734. Chiamò columbite il minerale e il nuovo elemento colombio, da Columbia, il nome poetico degli Stati Uniti d’America.

Figura 1. Charles Hatchett
Tuttavia il colombio scoperto da Hatchett era probabilmente una miscela del nuovo elemento con il tantalio.
Successivamente c’è stata una notevole confusione sulla differenza tra il colombio (niobio) e il tantalio. Questa confusione è derivata dalle differenze minime osservate tra i due elementi. I nuovi elementi chiamati pelopium, ilmenium e dianium erano infatti identici al niobio o alle miscele di niobio e tantalio.
Le differenze tra tantalio e niobio furono dimostrate inequivocabilmente nel 1864 da Christian Wilhelm Blomstrand (1826-1897) e Henri Etienne Sainte-Claire Deville (1818-1881), così come da Louis J. Troost (1825-1911), che determinò le formule di alcuni suoi composti nel 1865 e infine dal chimico svizzero Jean Charles Galissard de Marignac (1817-1894) nel 1866, che dimostrarono tutti che nel minerale c’erano solo due elementi. Tuttavia, gli articoli sull’ilmenio continuarono ad apparire fino al 1871. De Marignac fu il primo a preparare il metallo nel 1864, quando ridusse il cloruro di niobio riscaldandolo in un’atmosfera di idrogeno. Sebbene de Marignac fosse in grado di produrre niobio privo di tantalio su scala più ampia dal 1866, fu solo all’inizio del XX secolo che il niobio fu utilizzato nei filamenti delle lampade a incandescenza, la prima applicazione commerciale, poi divenuta obsoleta grazie alla sostituzione del niobio con il tungsteno, che ha un punto di fusione più elevato.
Colombio (simbolo “Cb”) fu il nome originariamente conferito da Hatchett alla sua scoperta del metallo nel 1801. Questo nome rimase in uso nelle riviste americane, l’ultimo articolo pubblicato dalla American Chemical Society con colombio nel titolo risale al 1953, mentre niobio era usato in Europa. Per porre fine a questa confusione, il nome niobio fu scelto per l’elemento 41 alla 15a Conferenza dell’Unione di Chimica ad Amsterdam nel 1949. Un anno dopo questo nome fu ufficialmente adottato dall’Unione Internazionale di Chimica Pura e Applicata (IUPAC) dopo 100 anni di controversie, nonostante la precedenza cronologica del nome colombio. Si trattava di una sorta di compromesso: la IUPAC accettava tungsteno invece di wolframio in ossequio all’uso nordamericano, e niobio invece di colombio per rispetto all’uso europeo.
Proprietà fisiche
Il niobio è un metallo lucido, grigio, duttile, paramagnetico nel gruppo 5o della tavola periodica, con una configurazione elettronica nei gusci più esterni atipica per quel gruppo:
Numero di elettroni negli elementi del 5° Gruppo:
23 vanadio 2, 8, 11, 2
41 niobio 2, 8, 18, 12, 1
73 tantalio 2, 8, 18, 32, 11, 2
105 dubnio 2, 8, 18, 32, 32, 11, 2
Sebbene si pensi abbia una struttura cristallina cubica a corpo centrato dallo zero assoluto al suo punto di fusione, le misurazioni ad alta risoluzione dell’espansione termica lungo i tre assi cristallografici rivelano anisotropie che sono incoerenti con una struttura cubica. Pertanto, sono previste ulteriori ricerche.
Il niobio diventa un superconduttore a temperature criogeniche. Alla pressione atmosferica ha la più alta temperatura critica dei superconduttori elementari a 9,2 K. Il niobio ha la maggiore profondità di penetrazione magnetica di qualsiasi altro elemento. Inoltre, è uno dei tre superconduttori elementari di tipo II, insieme a vanadio e tecnezio. Le proprietà superconduttive dipendono fortemente dalla purezza del niobio metallico. Quando è molto puro, è relativamente morbido e duttile, ma le impurità lo rendono più duro.
Il niobio nella crosta terrestre è costituito da un solo isotopo stabile, il 93Nb. Nel 2003, erano stati sintetizzati almeno 32 radioisotopi, con massa atomica compresa tra 81 e 113. Il più stabile di questi è 92Nb con un’emivita di 34,7 milioni di anni. Uno dei meno stabili è 113Nb, con un’emivita stimata di 30 millisecondi.
Proprietà chimiche
Il metallo (Figura 2) assume una sfumatura bluastra se esposto all’aria a temperatura ambiente per lunghi periodi.

Figura 2. Niobio metallico
Nonostante il suo alto punto di fusione (2.468 °C), ha una densità inferiore rispetto ad altri metalli refrattari. Inoltre, è resistente alla corrosione, mostra proprietà di superconduttività e forma strati di ossido dielettrico.
Il niobio è leggermente meno elettropositivo e più compatto del suo predecessore nella tavola periodica, lo zirconio, mentre è di dimensioni praticamente identiche agli atomi di tantalio più pesanti, a causa della contrazione dei lantanidi. Di conseguenza, le proprietà chimiche del niobio sono molto simili a quelle del tantalio, che si trova direttamente sotto il niobio nella tavola periodica. Sebbene la sua resistenza alla corrosione non sia eccezionale come quella del tantalio, il prezzo inferiore e la maggiore disponibilità rendono il niobio attraente per applicazioni meno impegnative, come i rivestimenti delle vasche negli impianti chimici.
Principali composti
Il niobio è simile al tantalio e allo zirconio. Reagisce con la maggior parte dei non metalli alle alte temperature, con fluoro a temperatura ambiente, cloro a 150 °C, idrogeno a 200 °C, e azoto a 400 °C, formando prodotti spesso non stechiometrici. Il niobio metallico inizia a ossidarsi all’aria a 200 °C. Resiste alla corrosione degli alcali fusi e degli acidi, inclusi l’acqua regia, gli acidi cloridrico, solforico, nitrico e fosforico. Viene attaccato dall’acido fluoridrico e miscele di acido fluoridrico/acido nitrico.
Sebbene mostri tutti gli stati di ossidazione da +5 a -1, i composti più comuni hanno il niobio nello stato +5. Tipicamente, i composti in stati di ossidazione inferiori a +5 presentano un legame Nb –Nb. Nelle soluzioni acquose, il niobio ha solo lo stato di ossidazione +5. È anche facilmente soggetto all’idrolisi ed è a malapena solubile in soluzioni diluite di acidi cloridrico, solforico, nitrico e fosforico a causa della precipitazione dell’ossido di niobio idrato. Nb (V) è anche leggermente solubile in mezzi alcalini a causa della formazione di specie solubili di poliossoniobato.
Ossidi e solfuri
Il niobio forma ossidi negli stati di ossidazione +5 (Nb2O5), +4 (NbO2), +3 (Nb2O3), e in quello più raro, +2 (NbO). Il più comune è il pentossido, precursore di quasi tutti i composti e le leghe di niobio. I niobati vengono generati sciogliendo il pentossido in soluzioni di idrossido basico o fondendolo con ossidi di metalli alcalini. Esempi sono il niobato di litio (LiNbO3) e il niobato di lantanio (LaNbO4). Il niobato di litio ha una struttura simile alla perovskite distorta trigonalmente, mentre il niobato di lantanio contiene ioni NbO43−. È anche noto il solfuro di niobio stratificato (NbS2).
Alogenuri
Il niobio forma alogenuri negli stati di ossidazione di +5 e +4 così come diversi composti sub-stechiometrici. I pentaalogenuri (NbX5) presentano centri ottaedrici. Il niobio pentafluoruro (NbF5) è un solido bianco con un punto di fusione di 79,0 °C e il niobio pentacloruro (NbCl5) è giallo
(Figura 3) con un punto di fusione di 203,4 °C.

Figura 3. Campione di niobio pentacloruro
Entrambi si idrolizzano formando ossoalogenuri, come NbOCl3. Il pentacloruro è un reagente versatile utilizzato per ottenere i composti organometallici, come il niobocene dicloruro (C5H5)2NbCl2.
I tetraalogenuri (NbX4) sono polimeri di colore scuro con legami Nb-Nb; per esempio, il tetrafluoruro di niobio igroscopico è nero (NbF4) e il tetracloruro di niobio è marrone (NbCl4).
I composti alogenuri anionici del niobio sono ben noti, in parte a causa dell’acidità di Lewis dei pentaalogenuri. Il più importante è [NbF7]2−, un intermedio nella separazione di Nb e Ta dai minerali. Questo eptafluoruro tende a formare l’ossopentafluoruro più facilmente di quanto non faccia il composto di tantalio. Altri complessi alogenuri includono l’ottaedrico [NbCl6]−:
Nb2Cl10 + 2Cl− → 2[NbCl6]−.
Nitruri e carburi
Altri composti binari del niobio includono il nitruro di niobio (NbN), che diventa un superconduttore a basse temperature e viene utilizzato nei rivelatori di luce infrarossa. Il carburo di niobio principale è l’NbC, un materiale ceramico refrattario estremamente duro, utilizzato commercialmente nelle punte degli utensili da taglio.
Disponibilità
Si stima che il niobio sia il 34° elemento più comune nella crosta terrestre, ma alcuni pensano che l’abbondanza sulla Terra sia molto maggiore e che l’alta densità dell’elemento lo abbia concentrato nel nucleo del pianeta. L’elemento libero non si trova in natura ma in combinazione con altri elementi nei minerali. I minerali che contengono niobio spesso includono anche tantalio. Gli esempi includono la columbite [(Fe, Mn)(Nb, Ta)2O6)] e la columbite-tantalite (o Coltan, (Fe, Mn) (Ta, Nb)2O6). Colombite e minerali di tantalite si trovano di solito come minerali accessori nelle intrusioni di pegmatite e nelle rocce intrusive alcaline. Meno comuni sono i niobati di calcio, uranio, torio e gli elementi delle terre rare. Esempi di tali niobati sono pirocloro [(Na, Ca)2Nb2O6 (OH, F)] (Figura 4) e euxenite-Y [(Y, Ca, Ce, U, Th)(Nb, Ta, Ti)2O6]. Questi grandi depositi di niobio sono stati trovati associati a carbonatiti (rocce ignee carbonato-silicato) e come costituente del pirocloro.

Figura 4. Campione di pirocloro
I tre più grandi depositi di pirocloro attualmente sfruttati, due in Brasile e uno in Canada, sono stati trovati negli anni ’50 e sono ancora i principali produttori di minerali concentrati di niobio. Il giacimento più grande è ospitato all’interno di un’intrusione di carbonatite ad Araxá, stato del Minas Gerais, Brasile, di proprietà della compagnia CBMM; l’altro giacimento brasiliano attivo si trova vicino a Catalão, nello stato di Goiás, anch’esso ospitato all’interno di un’intrusione di carbonatite, ed è di proprietà di una compagnia cinese. Insieme, queste due miniere producono circa l’88% dell’offerta mondiale. Il Brasile ha anche un grande giacimento ancora non sfruttato vicino a São Gabriel da Cachoeira, nello stato di Amazonas, così come alcuni depositi più piccoli, in particolare nello stato di Roraima.
Il terzo più grande produttore di niobio è la miniera di carbonatite Niobec, a Saint-Honoré (Quebec, Canada), di proprietà di Magris Resources (Figura 5).

Figura 5. Carbonatite contenente niobio
Produce tra il 7% e il 10% dell’offerta mondiale.
(continua)

Opere consultate
Handbook of Chemistry and Physics 5th Ed., p. 4-21
https://en.wikipedia.org/wiki/Niobium

William Prout (1785 – 1850): un grande chimico e medico da riscoprire. (2° PARTE)

In evidenza

Roberto Poeti

Prout come Amedeo Avogadro.

 La prima parte di questo post è stata pubblicata qui.                                 

Nel capitolo del libro “Chimica” del Bridgewater Treatise, “Sulle leggi delle combinazioni chimiche“ Prout raccoglie le conclusioni, che in sintesi ho esposto nella prima parte, e le applica a casi concreti.

È una chiara ed efficace descrizione che sorprende per la sua incisività.

Vi è il richiamo al principio da lui enunciato precedentemente e alla legge dei volumi di Gay-Lussac:

«Nel capitolo precedente abbiamo avanzato alcuni degli argomenti principali che ci inducono ad adottare l’ipotesi che tutti i corpi gassosi alla stessa pressione e temperatura, contengano un numero uguale di molecole auto repulsive; e dobbiamo ora considerare, molto brevemente, alcune delle conseguenze importanti alle quali questa ipotesi porta naturalmente. Sembra essere stabilito in modo soddisfacente che i corpi, nel loro stato gassoso, si combinano chimicamente e coesivamente con riferimento ai loro volumi; vale a dire che lo stesso volume di un gas si combina sempre con precisamente un volume simile dello stesso o di un altro gas, o con qualche multiplo o sottomultiplo di quel gas (in altre parole con due, tre o metà, o un quarto di più, ecc.) ma non con alcuna proporzione intermedia; e inoltre, che il composto risultante fa sempre riferimento in volume ai volumi originali dei suoi elementi costitutivi.

Dopo questa premessa passa con grande efficacia ad illustrare la sua interpretazione della reazione tra i gas idrogeno e ossigeno per formare vapor d’acqua: 

 Prendiamo ad esempio l’acqua. È stato dimostrato che l’acqua è composta da un volume di ossigeno gassoso e due volumi di idrogeno gassoso; e così invariabilmente, che non possiamo supporre che l’acqua sia formata da altre proporzioni di questi elementi. È stato anche dimostrato che l’acqua risultante, se allo stato di vapore, occupa esattamente lo spazio di due volumi, per cui un volume è scomparso. Consideriamo ora attentamente cosa deve essere accaduto durante questi cambiamenti. Un volume di ossigeno gassoso ha contribuito a formare due volumi d’acqua, i quali due volumi d’acqua, secondo la nostra ipotesi, devono essere costituiti dal doppio del numero di molecole auto repulsive contenute nell’unico volume di ossigeno; eppure ognuna di queste molecole deve contenere ossigeno, perché l’ossigeno è un elemento essenziale dell’acqua: ne consegue, quindi, inevitabilmente, che ogni molecola auto repulsiva di ossigeno è stata divisa in due, e di conseguenza deve essere originariamente costituita da almeno due elementari molecole, in un modo o nell’altro associate in modo da aver formato una sola molecola auto repulsiva.Questa conclusione, che sembra scaturire naturalmente dalle nostre premesse, è importantissima, come vedremo subito, e ci permette di gettare non poca luce su molti punti ritenuti oscuri.»

A questo punto Prout descrive la possibilità di legame tra due atomi uguali, secondo il suo modello dipolare, non solo per l’ossigeno ma per tutte le molecole elementari, idrogeno, cloro, azoto ecc.: 

«Nel frattempo consideriamo brevemente la natura della molecola composta auto-repulsiva dell’ossigeno. Ci siamo sforzati di mostrare nel capitolo precedente, che ogni ultima molecola di materia deve possedere due tipi di polarità, che, in mancanza di termini migliori, abbiamo denominato chimica e coesiva; e che queste polarità hanno tra loro le stesse relazioni dell’elettricità e del magnetismo; in altre parole che, come queste forze, le polarità esistono ad angolo retto tra loro. Quindi se A e B si suppone siano due molecole (N.d.T. atomi) di ossigeno, di cui Ee, Ee rappresentano i poli e l’asse chimici e Mm, Mm i poli e gli assi coesivi, è evidente che queste due molecole si possono combinare in due modi, sia E con e chimicamente o M con m coesivamente; ma quest’ultima forma naturalmente è più probabile dalla natura simile delle molecole.

 Ogni molecola di ossigeno auto repulsiva, quindi, in quanto esiste allo stato gassoso, deve essere costituita da almeno due molecole [N.d.T. Elementari], unite in modo coesivo, e che agiscono come una sola; e lo stesso può essere mostrato rispetto ad altri corpi gassosi, come, ad esempio, l’idrogeno. Non si può, infatti, dedurre dalla composizione dell’acqua, come sopra affermato, se la molecola auto repulsiva dell’idrogeno sia doppia o meno, ma questo può essere dimostrato da altri composti in cui entra l’idrogeno. Così il gas dell’acido muriatico è composto da un volume di cloro e un volume di idrogeno, che si uniscono senza condensazione e formano due volumi di gas acido muriatico; ora in questo caso è evidente che non solo la molecola auto repulsiva dell’idrogeno, ma anche quella del cloro, deve essere almeno doppia, come la molecola di ossigeno sopra menzionata; e lo stesso potrebbe essere mostrato rispetto agli altri corpi gassosi.»

La giustificazione che le molecole elementari nello stato gassoso potevano essere biatomiche perché gli atomi erano capaci di legarsi tra loro, era molto importante e significativa perché questa assunzione superava la tradizionale obbiezione elettrochimica alla ipotesi di Avogadro, da parte di giganti dell’atomismo come Berzelius, Dalton e Thomson, cioè che parti uguali si respingono tra loro e quindi non possono mai unirsi per formare molecole: l’ipotesi dipolare di Prout non impediva che tra due atomi uguali si stabilisse una coesione [N.d.T. che riteneva più probabile rispetto a quella chimica]

La conclusione a cui arriva Prout è incalzante:

 «È stato scoperto mediante esperimento che gli stessi volumi di corpi diversi allo stato gassoso hanno pesi molto diversi. Così, ad esempio, un volume di ossigeno pesa sedici volte lo stesso volume di idrogeno. Quindi, poiché si presume che il numero di molecole auto repulsive in ciascuno di questi gas sia lo stesso, il peso della molecola auto repulsiva dell’ossigeno deve ovviamente essere sedici volte maggiore di quello dell’idrogeno; e IN GENERALE, i pesi delle molecole auto repulsive di tutti i corpi saranno come i pesi specifici di questi corpi allo stato gassoso, o avranno certe semplici relazioni con questi pesi specifici…. supponendo che i principi che abbiamo avanzato siano ben fondati, richiederebbe che il volume in tutti i casi sia reso l’unità molecolare; in tal caso, i pesi relativi delle molecole auto repulsive di idrogeno e ossigeno, come sopra menzionato, saranno 1 a 16

Ma c’è un altro passaggio dove, ci pare, abbia sfiorato il metodo di Cannizzaro per la determinazione dei pesi atomici:

«Nel modo sopra, i pesi atomici, come vengono chiamati, di tutti i corpi capaci di assumere la forma gassosa possono essere facilmente ottenuti; ma in quei corpi che non assumono la forma gassosa, nel loro stato semplice, ma solo in qualche stato di combinazione siamo obbligati a dedurre il peso della molecola primaria da quello del composto.Così il carbonio nel suo stato elementare è incapace di assumere la forma gassosa; ma combinato con l’ossigeno forma acido carbonico [N.d.T. CO2], un volume del quale pesa 44 volte di più dell’idrogeno standard. Ora è stato scoperto da altri esperimenti, che di queste 44 parti, 32 sono ossigeno. I restanti 12 devono quindi essere carbonio; e di conseguenza 12 è il numero sulla nostra scala che rappresenta il carbonio, e la proporzione, con riferimento alla quale, questo corpo entra sempre nella composizione

Prout non dice che in altri composti si potrebbero avere anche multipli di 12. È probabile che si sia espresso solo in parte, come in altre occasioni. A tutti gli effetti, quindi, Prout è giunto alle stesse conclusioni sulle relazioni tra la combinazione di volumi e pesi come Avogadro prima di lui.

Noi concludiamo però qui la nostra rilettura di Prout. Nato come testo di apologetica, il Trattato di Bridgewater ebbe scarsa influenza. Il suo punto di vista su atomi e molecole, fu discusso favorevolmente da Daubeny nella seconda edizione della sua “Introduzione alla Teoria atomica”. Tuttavia, questa non apparve fino al 1850, momento in cui la legge di Avogadro aveva già ricevuto la sua rivalutazione dagli allievi di Dumas, Laurent e Gerhardt, e doveva essere sostenuta anche da Williamson.

                                                              Prout dimenticato

Malgrado un elenco di risultati impressionanti, scopriamo che, a parte l’ipotesi unitaria dell’idrogeno (che nel Trattato è appena sfiorata), il lavoro chimico e medico di Prout era stato trascurato molto prima della sua morte nel 1850. Ci sono due ragioni per questo. In primo luogo, la carriera scientifica attiva fu essenzialmente terminata nel 1834. Successivamente si dedicò interamente alla sua pratica medica e alla revisione dei suoi libri, mentre la grave sordità lo spinse a evitare la comunità scientifica. In secondo luogo, come conseguenza diretta della sua invalidità, Prout non fu in grado di tenersi al passo con i rapidi sviluppi scientifici in chimica e in fisiologia, cosicché, sebbene gran parte delle sue prime ricerche precedessero quella di Liebig e della sua scuola, nel complesso, Prout si trovò oscurato dalle grandi conquiste degli anni Trenta e Quaranta dell’Ottocento. Concludo con le parole di  W. H. Brock: «Se non riusciamo a trovare alcun uso delle idee di Prout, ciò non deve in alcun modo diminuire l’interesse per noi del suo trattato chimico Bridgewater, poiché ci consente di determinare l’atteggiamento di un chimico che era pronto a riflettere e, quando necessario, a rifiutare, i presupposti di base della teoria atomica di Dalton,  piuttosto che seguire la maggior parte dei chimici che tendevano ad assumere un atteggiamento fenomenista o non realistico nei confronti dell’atomo…»

                                                              —————————————–

William Prout con la sua ipotesi unitaria dell’idrogeno ha condizionato molto più di quanto si pensi la ricerca sugli atomi per tutto l’ottocento, fino alla scoperta degli isotopi. Questa parte interessante della sua storia è contenuta in un PDF in un altro articolo del mio blog:

https://www.robertopoetichimica.it/william-prout-1784-1850-un-grande-chimico-e-medico-dimenticato/

                                                                       Bibliografia

  1. Siegfried, Robert (1956). “The Chemical Basis for Prout’s Hypothesis”. Journal of Chemical Education. 33
  2. Verso un nuovo atomo: le vie spettroscopiche di William Crookes e di Norman Lockyer., Atti del VIII Convegno nazionale di storia e fondamenti della chimica. 
  3. “An Attempt to Establish the First Principles

of Chemistry by Experiment”.

William Prout (1785 – 1850): un grande chimico e medico da riscoprire (1a PARTE)

In evidenza

Roberto Poeti

La storia personale e professionale di Prout ci fa conoscere uno studioso che ha dato contributi importanti in tanti campi della conoscenza, dalla chimica alla fisiologia, alla medicina. Arriva alla professione di medico grazie alla volontà e alla tenacia, nonostante la difficoltà di avere una istruzione continua e soddisfacente. La famiglia allevava bestiame da generazioni nel Gloucestershire, una contea dell’Inghilterra sud-occidentale. Ha venti anni quando torna a casa insoddisfatto dei propri progressi e degli standard di una scuola privata che ha frequentato per diciotto mesi, dove acquisisce i rudimenti del latino e del greco.  Prende l’iniziativa inconsueta di pubblicare un annuncio in un giornale locale in cui chiede consigli per avere, giovane ventenne educato e malato, una prospettiva di miglioramento dell’istruzione. La malattia a cui si riferisce Prout è un intenso male agli orecchi, di cui ha sofferto durante tutta la giovinezza, e che sarà precursore della sordità che in seguito lo costrinse a ritirarsi dalla comunità scientifica. La risposta arriva dal Rev. Thomas Jones, che gestiva “un seminario classico per giovani signori”.

Prout vi trascorrerà due anni felici e formativi. Conoscerà la chimica che diventerà la sua grande passione per tutta la vita. È stato Jones che ha esortato Prout a diventare un medico e l’ha raccomandato per entrare all’Università di Edimburgo. (Oxford e Cambridge erano naturalmente fuori discussione dato che lo status sociale di Prout era così basso). Così come accadeva spesso a cavallo tra settecento e ottocento, anche Prout diverrà un chimico passando da una educazione medica, tuttavia eserciterà anche la professione di medico. Conseguita la licenza del Royal College of Physicians nel 1812, lo vediamo poco dopo tenere un corso di lezioni presso la sua abitazione, non rare in quel tempo, rivolte a medici e chirurghi illustri, un numero scelto di persone. In un suo annuncio pubblicitario si leggeva” Il dottor Prout intende tenere nel corso dell’inverno una serie di conferenze sulla chimica animale. Lo scopo di questi sarà quello di dare una visione connessa di tutti i fatti principali appartenenti a questo dipartimento di chimica, e di applicarli, per quanto lo stato attuale delle nostre conoscenze lo permetterà, alla spiegazione dei fenomeni delle azioni organiche.” Questo annuncio rappresenta bene il suo campo di azione dove la chimica diventa strumento della medicina. Con il suo corso di conferenze Prout si portò in primo piano nella cerchia degli scienziati londinesi. Era solito alzarsi molto presto per fare i suoi esperimenti di chimica, che interrompeva alle sette per dedicarsi ai pazienti. I suoi studi affronteranno l’analisi e composizione delle urine, uno dei liquidi fisiologici molto spesso oggetto di indagine. Concepirà un apparecchio per l’analisi per combustione delle sostanze organiche. La sua analisi dell’urea sarà utilizzata da Wohler quando riuscirà a produrla artificialmente. È stato il primo che ha identificato l’acido cloridrico responsabile dell’acidità gastrica. È notevole la sua classificazione dei principi alimentari in proteine, zuccheri e grassi, un risultato pionieristico.

 Per il chimico, tuttavia, l’aspetto del lavoro di Prout che è di maggiore interesse è quello relativo ai pesi atomici.

Nel 1815 e 1816 egli scrive due articoli sulla rivista scientifica Annals of Philosophydal titolo “Sulla relazione tra la Gravità specifica dei corpi nel loro stato gassoso e il peso dei loro atomi”, entrambi in forma anonima. La vera spiegazione della sua riluttanza a rivelarsi non è nota, ma forse un indizio si trova nelle frasi di apertura del suo primo articolo “L’autore del saggio seguente lo presenta al pubblico con la massima umiltà; poiché, sebbene si sia preso la massima cura per arrivare alla verità, tuttavia non ha quella fiducia nelle sue capacità di sperimentatore da indurlo a imporlo ad altri di gran lunga superiori che accerteranno  la sua importanza, e che qualcuno si impegnerà a esaminarlo e quindi verificare o confutare le sue conclusioni. Se queste dovessero essere provate errate, le indagini potranno portare alla luce fatti ancora nuovi o meglio accertati; ma se dovessero essere verificate, una nuova e interessante luce verrebbe gettata su tutta la scienza della chimica.”

Nel secondo articolo del 1816, molto breve, dal titolo “Correzione di un errore nel saggio sulla relazione tra i pesi specifici dei corpi nel loro stato gassoso e i pesi dei loro atomi”, Prout apporta una modifica nelle unità di riferimento dei volumi. Lo spazio nei due articoli è quasi interamente occupato da tabelle accompagnate da poche note e nel primo da una breve introduzione. Come si può dedurre dal titolo del primo saggio l’impegno conoscitivo si sviluppa attorno alla stretta relazione tra densità dei gas e i loro pesi “atomici “che vedremo più avanti esprimerà con una relazione matematica. Va subito precisato che il termine “atomo” veniva comunemente usato per indicare sia le parti ultime di un elemento che di un composto. Dal confronto tra densità e pesi “atomici” ricava dei valori per le sostanze elementari che risultano espressi da numeri interi, cioè multipli dell’unità di riferimento che è l’atomo di idrogeno. Alla conclusione dell’articolo Prout esplicita quella che è stata chiamata da W.H. Brock, nel suo libro From Protyle to Proton, “the integral multiple weights hypothesis”, cioè i pesi atomici o le densità sono multipli interi del peso atomico o densità dell’idrogeno. È solo alla fine del secondo articolo, che arriva un anno dopo, che Prout individua nell’idrogeno la materia prima di cui tutti gli altri elementi sono costruiti, cioè sempre Brock chiama “the protyle hypothesis” o “unitary hypothesis”.

                                               L’articolo di Prout contiene più dell’ “ipotesi unitaria

Considerare l‘ipotesi unitaria di Prout nei suoi articoli del 1815-16 (dove comunque non è esplicitamente menzionata) il risultato principale delle sue riflessioni, significa giudicare in modo non corretto il suo scopo, che era invece chiaramente indicato nel titolo, vale a dire, uno studio delle relazioni tra i pesi di combinazione delle sostanze e i volumi di combinazione delle stesse sostanze allo stato gassoso. E ciò che guida la sua ricerca lo dichiara lui stesso all’inizio del primo articolo:

«Sarà forse necessario premettere che le osservazioni che verranno offerte sono fondate principalmente sulla dottrina dei volumi come prima generalizzata da M. Gay-Lussac; e che, almeno per quanto ne sa l’autore, è ormai universalmente ammessa dai chimici

Questa sua strategia è perseguita solo in parte attraverso un lavoro sperimentale condotto in prima persona, in larga parte si basa sulla rassegna di altri lavori e alla fine si presenta come un tentativo di organizzare tale lavoro e di trovarne delle regolarità. E queste regolarità sono illustrate nelle tabelle dei suoi due articoli che contengono i valori delle densità degli elementi e composti correlati ai loro “pesi atomici”, una relazione che viene evidenziata per la prima volta.  Questa relazione tra pesi atomici e densità comporta implicitamente l’assunzione che volumi uguali di gas diversi nelle stesse condizioni contengono lo stesso numero di “atomi”. Va sottolineato che Prout, sta iniziando, per poi portare a compimento come vedremo più avanti nella seconda parte di questo articolo, un cammino che poco tempo prima aveva compiuto Avogadro. È un percorso quasi parallelo ma indipendente da quello di Avogadro.  Il saggio di Avogadro non è stato tradotto e non è conosciuto dai chimici inglesi, e tale rimarrà per molti anni ancora.

La relazione tra densità e “pesi atomici” era espressa, secondo Prout, da:

(Il “peso atomico X” era riferito sia agli elementi che ai composti)

I gas elementari, come l’idrogeno, erano considerati monoatomici, pertanto la relazione forniva il valore corretto del peso atomico relativo degli elementi, eccezione per l’ossigeno che era di proposito dimezzato (In questo Prout si allineava alla ipotesi che riteneva, con Dalton, Thomson e altri, la formula dell’acqua HO. Così per conciliare la formula con il risultato della reazione che era di 2 volumi di idrogeno con 1 di ossigeno, un volume di ossigeno doveva contenere il doppio degli atomi rispetto all’idrogeno e il peso atomico relativo dell’ossigeno era 8 rispetto ad 1 dell’idrogeno). La relazione forniva poi un valore dei pesi molecolari relativi dei composti che era la metà del valore reale. 

In una nota che fa riferimento alla densità dei vapori di iodio, Prout ci fornisce un’altra relazione tra densità e pesi atomici. Queta volta usa come peso di riferimento l’atomo di ossigeno, che era l’unità atomica di riferimento più comune:

«In generale, per trovare la densità di qualsiasi sostanza allo stato gassoso, dobbiamo solo moltiplicare la metà della densità dell’ossigeno per il peso dell’atomo della sostanza rispetto all’ossigeno

L’aspetto che assume così la relazione ha suggerito a W. H. Brock che Prout sia giunto in modo inconsapevole ad una espressione che contempla la molecola biatomica dell’ossigeno. A me pare una semplice coincidenza, che nasce dal fatto che per il peso atomico dell’ossigeno si è assunto la metà del suo valore.

La relazione è recepita subito da Thomas Thomson (1773-1852), uno dei massimi esponenti della chimica inglese, nel suo rapporto degli Annals of Philosophy del 1816 «Account of the improvements in Physique Science during the Year 1815». Recensisce in modo apprezzabile l’articolo di Proust.

«Il dottor Prout in un documento molto prezioso pubblicato nel sesto volume degli Annali, per primo evidenziò la connessione che esisteva tra la densità e i pesi atomici dei gas e ha dimostrato che il peso specifico di qualsiasi corpo può essere ottenuto moltiplicando il peso del suo atomo per metà del peso specifico dell’ossigeno gassoso. È la stessa cosa che dire che il peso di un “atomo” di ogni corpo è sempre il doppio della sua densità nello stato gassoso. Poiché la teoria dei volumi è estremamente conveniente negli esperimenti chimici, ritengo che sarà interessante per i chimici pratici vedere in una panoramica le relazioni molto semplici che esistono tra i pesi specifici dei corpi gassosi e i pesi dei loro atomi

Nello stesso numero Thomson scrive un articolo «Some Observations on the Relations between the Specific Gravity of Gaseous Bodies and the Weights of their Atoms» in cui semplifica la relazione, facendo riferimento ad una scala dove densità e peso atomico dell’ossigeno sono riportati all’unità. La relazione assume la forma suggestiva:

«Il peso di un atomo è il doppio della sua densità»

La relazione di Prout, a differenza della sua “ipotesi unitaria”, non avrà la stessa risonanza.  A parte Thomson non viene messa in evidenza da altri.

                               La storia sorprendente di Prout narrata nel suo “Bridgewater Treatise”

Con quella relazione Prout ha anticipato quello che in seguito riproporrà in modo corretto e approfondito per arrivare alle stesse conclusioni di Avogadro.  Dopo aver scritto i suoi articoli nel 1815-16, l’impegno e l’interesse di Prout si rivolge alla chimica animale, la fisiologia e l’analisi delle sostanze organiche. Nel 1834 Prout scrive un libro, il “Bridgewater Treatise”, che non è un trattato scientifico per addetti ai lavori, è diretto ad un pubblico allargato, non solo di chimici. Nel trattato raccoglie i frutti delle sue riflessioni fatte in molti anni di lavoro.  È l’ottavo e ultimo di una serie di trattati che furono sovvenzionati nel testamento, datato 1825, dall’ottavo e ultimo conte di Bridgewater, Francis Henry Everton, morto nel 1829. Il progetto si inseriva in quella che è stata chiamata la teologia naturale, la quale voleva dimostrare l’esistenza di Dio attraverso le “meraviglie del suo lavoro”. La Royal Society scelse quale autore dell’ottavo trattato “Chimica, Meteorologia e Funzione della Digestione” il chimico e medico William Prout. Il trattato è diviso in tre libri. Il libro sulla funzione della digestione raccoglie un enorme lavoro innovativo, teorico e sperimentale, che fa di lui un pioniere della moderna biochimica. Il primo, quello dedicato alla “Chimica“ è di grande interesse.

 A parte pochi storici della scienza, chi conosce oggi che la trasmissione del calore per conduzione, convezione e irraggiamento è stata definita per primo da Prout nel trattato, o che Prout, in modo chiaro, ha affermato e accettato, molto prima della maggior parte dei chimici, quella che oggi riconosciamo come legge di Avogadro?

Vediamo a proposito alcune parti di questo libro.

Quale è la visione, in sintesi, che vi emerge della materia e delle interazioni tra atomi e molecole? Prout rivolge la sua attenzione alle sostanze omogenee e per primo allo stato solido cristallino prendendo come esempio il ghiaccio. Osserva che se tra le molecole agissero forze, che come le gravitazionali sono dirette in ogni direzione, non si spiegherebbe l’ordine mostrato nei cristalli.

«. È ovvio, quindi, che le ultime molecole dei corpi sono influenzate da altri poteri oltre a quelli di semplice inerzia e attrazione: qual è la natura di questi poteri

Il termine molecola, per Prout, comprende sia le molecole elementari (atomi) che le molecole composte. Prout riprende l’idea di Davy sulla proprietà delle molecole di ruotare e vibrare estendendola alla formazione nella molecola di poli elettrici e magnetici tra loro ortogonali. Il fondamentale esperimento di Oersted (1820), il quale aveva stabilito l’esistenza di un campo magnetico distribuito in circonferenze concentriche al filo conduttore, viene trattato come un modello di una situazione a livello molecolare. Le molecole, supposte sferoidali, ma non necessariamente, erano rappresentate così: 

Attraverso l’asse elettrico si esercita l’attrazione chimica soprattutto tra molecole eterogenee, elementi e composti, mentre gli assi magnetici sono responsabili delle forze di coesione tra molecole omogenee. In un cristallo come il ghiaccio sono presenti entrambe le forze, quelle chimiche tra idrogeno e ossigeno nella molecola di acqua e quelle magnetiche, coesive, tra molecole di acqua.

«Alla luce delle precedenti considerazioni delle forze molecolari, ne consegue che ogni molecola, e aggregato cristallino di molecole, deve possedere un asse (come quello ad esempio che unisce le polarità Ee nelle figure precedenti), avente poteri e proprietà totalmente differenti dagli altri due assi e polarità Mm, M’m’. Questo asse Ee, a titolo di distinzione, può essere chiamato asse e polarità chimico. Gli altri due assi, e in effetti ogni altro asse che si possa supporre tracciato per il centro, da punti opposti della superficie della molecola, probabilmente possiedono proprietà comuni, e possono essere chiamati assi e polarità coesivi»

La descrizione che fa Prout di due tipi di legame quello chimico e quello coesivo, a cui fa corrispondere due realtà fisiche, quella della molecola e quella degli aggregati molecolari, al di là dell’ingenua trasposizione delle proprietà elettriche  dal macroscopico al microscopico, contiene una grande intuizione:  gli assi polari elettrici sono gli assi chimici e il legame che ne deriva è direzionale, e può coinvolgere  atomi e molecole eterogenei, mentre per gli assi magnetici o assi coesivi, che non sono limitati a solo due , sono possibili più alternative direzionali, da essi dipendono le varie forme cristalline, intese come aggregazioni tra molecole e in generale le interazioni tra parti omogenee.

La descrizione fa venire in mente la distinzione tra il legame covalente e i legami intermolecolari, dipolo – dipolo, forze di Van Der Waals, legame a idrogeno ecc.

(L’attenzione di Berzelius, che ha dominato la chimica nella prima metà dell’ottocento, non si è mai rivolta ai legami intermolecolari.)

L’esistenza di dipoli permanenti, elettrico e magnetico nell’atomo o nella molecola è fondamentalmente diversa dalla descrizione di Berzelius, per il quale nell’atomo e nella molecola c’è la predominanza di un solo polo.  La conseguenza è che per Prout è possibile un legame tra atomi e molecole della stessa natura, mentre questo non accade nel modello di Berzelius. Vedremo nella seconda parte dell’articolo le conseguenze che trarrà da questo Prout.

L’ipotesi della polarità era un modello con il quale Prout spiegava anche i cambiamenti di fase. Come nella teoria di Dalton, supponeva che il calorico formava una atmosfera intorno alle particelle, fino a quando all’aumentare del volume complessivo della molecola si indebolivano le forze di coesione magnetica in modo che si verificava una rotazione delle molecole attorno ai loro assi di polarità. Questo allentamento del legame spiegava la formazione e le diverse proprietà dello stato della materia liquido e gassoso. Il modello di Prout comprendeva la presenza, accanto ai due tipi di attrazione, anche di due corrispondenti tipi di repulsione. Il passaggio dal liquido al gassoso vedeva il prevalere delle forze di repulsione, con il raggiungimento della libertà di movimento delle molecole che chiamava self repulsive molecule. Partendo da questo suo modello dipolare, Prout riesce a dimostrare per reductio-ad-absurdum che le note leggi dei gas e la stessa capacità termica che possiedono i gas alle stesse condizioni, sono comprensibili solo supponendo che «tutti i corpi «gassosi, sotto le stesse condizioni di temperatura e pressione contengono lo stesso numero di self-repulsive molecules». In una nota a fondo pagina Prout avvisa il lettore:

«È doveroso osservare che queste opinioni furono adottate dall’autore molto prima che fosse a conoscenza dell’esistenza dei saggi sull’argomento dei signori Avogadro, Ampère e Dumas. In effetti non conosceva quelli di Dumas, che quasi somigliano ai suoi, finché non li ha visti accennati nel recente rapporto di Johnston sulla chimica nelle Transazioni della British Association (1832)».

È interessante notare che Avogadro (1811) non ha dedotto la stessa ipotesi in questo modo, cioè dal comportamento identico di tutti i gas ai cambiamenti di temperatura e pressione, ma puramente da considerazioni della legge di combinazione dei volumi di Gay-Lussac. Non c’è particolare ragione quindi di dubitare dell’affermazione di Prout che egli arriva alla sua legge molecolare «molto prima che fosse venuto a conoscenza del saggio sull’argomento di Avogadro, Ampere, e Dumas.»

(Un suggerimento per gli insegnanti: il percorso che fa Prout per dimostrare il principio di Avogadro, da Prout scoperto indipendentemente, è proponibile in un corso di chimica di base per la sua accessibilità e relativa semplicità.)

Vedremo nella seconda parte dell’articolo come Prout arrivi ad ipotizzare le molecole dei gas elementari biatomiche in modo più chiaro ed efficace di quanto abbia fatto Avogadro.

                                                             Segue 2a PARTE

                                       “William Prout come Amedeo Avogadro”

Acqua virtuale e altre storie.

In evidenza

Claudio Della Volpe

Il primo ad introdurre il concetto di acqua virtuale è stato nel 1993 il professore di geografia John Anthony Allan del King’s College London e della School of Oriental and African Studies, che per questo ha ricevuto, nel 2008, lo Stockholm Water Prizeda parte dello Stockholm International Water Institute.

Si tratta di questo: quanta acqua viene usata nella produzione di una certa merce? Per vari motivi quell’acqua viene considerata come “irreversibilmente” spostata dal ciclo dell’acqua della zona di produzione e si considera che la merce considerata “trasporti” con sé l’acqua usata la quale in qualche modo diventa una sua parte virtuale. Se dunque quella merce viene esportata l’acqua virtuale entra (o entrerebbe) a far parte di fatto del bilancio dell’acqua della zona di importazione.

E’ chiaro che si tratta di una approssimazione anche abbastanza forte dal punto di vista fisico, perché nella maggior parte dei casi l’acqua rimane nella zona di produzione, ma viene spostata dal ciclo naturale! Questo è il punto fisico vero: evapora, si inquina, si sposta dal percorso naturale; se è una acqua geologica (prodotta da processi geologici su grande scala e tempi lunghi) ovviamente il suo uso è effettivamente un processo irreversibile; ma diciamo che in generale è una approssimazione che aiuta a stimare i fenomeni socioeconomici con maggiore completezza.

Ovviamente occorre un grano di sale nella sua analisi.

Affine a questo il concetto di impronta idrica che però si riferisce ai consumi di una comunità o di una persona e in più aggiunge l’indicazione dei punti geografici di captazione, delle modalità esatte di impiego e del tempo in cui l’acqua viene utilizzataintroducendo a questo scopo dei “colori” dell’acqua.

Inizialmente si pensava che l’acqua fosse impiegata principalmente nella produzione agricola, ma studi più ampi hanno consentito di concludere che l’acqua impiegata per la produzione industriale in un paese come il nostro è nella maggior parte impiegata nell’industria, nella produzione di energia, per usi civili e che solo un 40-45% viene impiegata nell’agricoltura; valori analoghi  nella media dei paesi europei.

Di che numeri stiamo parlando? Il ciclo dell’acqua implica una enorme quantità di processi paralleli.

Sulla terraferma la quantità di acqua che cade in tutte le forme assomma a poco più di 100mila km3 all’anno, ma solo un terzo di questa quantità rimane in forma condensata, mentre il resto rievapora; dunque, eccettuato l’oceano, l’acqua liquida o solida che cade attorno a noi ogni anno corrisponde a poco più di 35mila km3.

Si stima che noi intercettiamo più del 10% di questa quantità, circa 4mila km3, per i nostri scopi: agricoli, industriali, civili ed energetici. Nel nostro paese da dati Istat citati qui (impronta dell’acqua)

(Da https://www.greenreport.it/news/acqua/acqua-industria-ed-energia-litalia-vista-luso-del-suo-oro-blu/  ).

per sommi capi ed escludendo l’approvvigionamento a mare (che assomma comunque a 16 km3 per il raffreddamento delle centrali termiche), l’industria manifatturiera italiana utilizza ogni anno 5,5 km3 di acqua dolce, le centrali termoelettriche 2,2 km3, i cittadini 5,2 km3 dalle reti comunali, e il settore dell’agricoltura 11,6 km3: 24,8 km3 in totale, una somma assai rilevante.

Fra l’altro apprendiamo da questi dati che “Con 681 milioni di metri cubi, il settore della chimica e dei prodotti chimici è quello che ne ha impiegati di più, seguito dal settore della gomma e materie plastiche (645 milioni di metri cubi)

In modo analogo la media europea è la seguente:

(https://www.eea.europa.eu/archived/archived-content-water-topic/water-resources/water-use-by-sectors)

On average, 44 % of total water abstraction in Europe is used for agriculture, 40 % for industry and energy production (cooling in power plants), and 15 % for public water supply.

Questi numeri sono notevolmente diversi in lavori od analisi più datati con stime che salgono addirittura ad oltre il 90% per la sola agricoltura, dunque occorre fare attenzione alla sorgente dei dati, soprattutto perché le metodologie usate per i calcoli possono essere molto varie.

Un esempio di questi problemi di interpretazione lo ho avuto facendo una accesa discussione nelle scorse settimane con un altro collega che si richiamava ai risultati di un gruppo di lavoro di UniMi e secondo il quale collega, usando il grafico sottostante,:

La Cina è la principale destinataria di questi flussi che provengono prevalentemente da USA e Brasile. Il totale stimato del commercio di acqua virtuale ammonta a 1748 Km cubi/anno (dati 2016), una quantità confrontabile con quella totale dei fiumi della terra circa 2000 Km cubi e con quella contenuta nella biosfera 1200 Km cubi (dati presi da wikipedia). Praticamente si deforesta l’Amazonia e si consuma la falda fossile di Ogallala, come se fossero risorse infinite, per dar da mangiare ai cinesi.”

In questo lavoro però si esclude fin dal principio il ruolo dell’acqua virtuale legata ai prodotti industriali, concentrandosi solo sull’acqua virtuale legata al cibo.

In effetti questo tipo di approccio separa i flussi di acqua virtuale fra cibo ed altre merci; ora la Cina che è un gigantesco esportatore di merci industriali di ogni tipo esporta acqua virtuale di tipo “industriale” e secondo altri lavori che tengono conto di tutti i beni è un esportatore netto di acqua sia pur virtuale. Si veda per esempio qui (https://www.sciencedirect.com/science/article/pii/S0160412018314582#f0010)

dove si arriva a conclusioni opposte.

Personalmente ritengo che, a parte le difficoltà concettuali legate alla definizione esatta dell’acqua virtuale, l’analisi dei flussi non possa escludere il ruolo determinante, almeno per i paesi più sviluppati, dell’acqua usata nella produzione di beni non legati al cibo; il rischio è di usare queste analisi in modo direttamente politico e poco scientifico traendone conclusioni inesatte o parziali.

Voi che ne dite?

Pidocchi, chimica e totani.

In evidenza

Claudio Della Volpe

Giorni fa una foto che ho visto su FB mi ha suscitato un ricordo d’infanzia che poi si è trasformato in questo post.

Probabilmente lo considererete un post un po’ sopra le righe.

Anzitutto perché parlare di pidocchi; beh la pandemia ci ha da oltre un anno dato una “salutare” scossa sociale a riguardo del nostro rapporto con la Natura. Ci ha ricordato che non siamo onnipotenti, nonostante siamo in grado di “turbare l’Universo” come scriveva Freeman Dyson, quello della sfera di Dyson.

Ci sono molti piccoli esseri che vivono con noi in simbiosi, come i batteri intestinali, un mezzo chilo di batteri buoni ed utili per noi, ma anche tanti altri esseri di piccole dimensioni che abbiamo attratto modificando profondamente gli ambienti che abitiamo; sono talmente tanti che c’è un termine per descriverli: sinantropici. L’esempio più famoso è forse il pesciolino d’argento o Lepisma Saccharina che si ciba di materiali comuni per noi come la destrina delle colle dei francobolli o delle rilegature.

Poi ci sono quelli che vivono cibandosi dei nostri stessi “resti” organici per esempio di lembi microscopici di pelle che cade, capelli, forfora etc; di dimensioni submillimetriche gli acari della polvere causano comuni allergie a causa delle loro feci. Si stima ne vivano alcune centinaia per ogni grammo di polvere di casa.

E poi abbiamo i peggiori parassiti che letteralmente si nutrono del nostro sangue come per esempio i pidocchi dei capelli (Pediculus humanus capitis) che sono in grado di trasmetterci varie malattie.

Un pidocchio attaccato ai capelli umani.

Vale la pena leggere queste righe a riguardo scritte in un documento firmato da tre associazioni mediche sia di dermatologi che di pediatri:

ADOI, Sidemast, SIP: La pediculosi del capo è endemica il tutto il mondo. È estremamente difficile disporre di dati epidemiologici completi. Il fenomeno è in continuo incremento anche nei paesi ad elevata industrializzazione. Si stima che nel mondo l’incidenza sia dell’ordine di centinaia di milioni di caso l’anno, con una prevalenza nella popolazione generale dell’1-3%. Negli Stati Uniti sono colpiti ogni anno dai 6 ai 12 milioni di persone (2-Chosidow). In Europa l’incidenza nei bambini in età scolare varia dal 25% in Gran Bretagna al 49% in Francia. In Italia, una stima indiretta, effettuata sulla base dei prodotti pediculocidi venduti nel 2003, porta a un’incidenza nella popolazione generale del 2.5% (9-Gelmetti). La pediculosi del capo colpisce persone di tutte le età e condizioni socio-economiche; tuttavia, è più frequente nei bambini di età compresa tra i 3 e gli 11 anni, soprattutto di sesso femminile. Studi su differenti popolazioni negli Stati Uniti hanno evidenziato una maggiore predisposizione dei soggetti Caucasici o Asiatici, rispetto agli Afro-americani. Questo è dovuto soprattutto al fatto che Pediculus humanus capitis si è ancestralmente adattato a vivere soprattutto su capelli cilindrici e a sezione rotondeggiante, come quelli dei Caucasici. Altri possibili fattori “protettivi” nei confronti della pediculosi del capo sono costituiti dal maggior quantitativo di sebo sulla superficie cutanea e dal ph più acido della cute del cuoio capelluto. Nel complesso, si può quindi affermare che la pediculosi del capo è meno frequente negli individui con pelle scura e capelli molto ricci (4-Ko).
L’infestazione è più frequente durante il periodo scolastico

(NdA: ricordate che la incidenza è la percentuale di casi di un fenomeno  su un totale di casi in cui il fenomeno e assente o presente, un dato che fotografa il fenomeno; mentre la prevalenza è invece il numero di nuovi casi per unità di tempo, dunque un dato che dà l’idea della dinamica del processo, qualunque esso sia)

Dunque i pidocchi sono un po’ razzisti, diciamo così, preferiscono certi tipi di capelli, ma dipendono dalla pulizia più che dalla ricchezza

I pidocchi umani sono specie specifici; ci accompagnano da alcuni milioni di anni; quando eravamo coperti di peli su tutto il corpo erano una sola specie, poi quando perdemmo questa caratteristica, circa un paio di milioni di anni fa si divisero in tre gruppi che però possono intergenerare fra di loro: pidocchi del capo, del pube e del corpo.

Lo spidocchiamento reciproco è una delle attività sociali più importanti fra i primati e anche nel genere Homo; lo è stato certamente fino al ‘600.

Come si combattono i pidocchi?

Originariamente togliendoli a mano uno per uno; i pidocchi tuttavia lasciano delle uova, le lendini, attaccate ai peli che sono più difficili da togliere.

Un grosso aiuto lo ha dato la tecnologia del pettine, un oggetto comune e a cui non facciamo quasi caso.

Un pettine preistorico (da Wikipedia).

Alcuni pettini antipidocchi moderni; ci sono anche modelli a batteria, perché i costruttori sostengono che i pidocchi e le uova possono essere uccisi o inattivati da microscariche elettriche a basso voltaggio.

I prodotti usabili contro i pidocchi con sicura efficacia sono gli insetticidi in particolare i tre: piretro, permetrina e malathion.

Il piretro è estratto da un fiore della famiglia delle Asteracee, il Tanacetum cinerariifolium.

Scoperto nel 1860; la sua polvere detta razzia, veniva usata un tempo direttamente come insetticida; attualmente si usa l’estratto liquido ottenuto trattando i fiori con solvente (etere di petrolio). I capolini già sbocciati, ma con i fiori non fecondati, contengono maggiore quantità (da 0,2 a 0,3%) di principi attivi che quelli chiusi o in frutto. E’ accettato in agricoltura biologica.

La formula del piretro è

Come si vede è un estere, dell’acido crisantemico.

La permetrina da usare all’esterno del corpo è considerata sicura sulle persone ma non sugli animali domestici (i gatti sono molto sensibili) e su quelli acquatici. Esiste in forma di due coppie di enantiomeri; la coppia trans è quella con attività insetticida.

Sintetizzata nel 1973 è sulla lista dei farmaci essenziali dell’OMS; agisce attaccando i neuroni degli insetti come altri piretroidi; penetra nel cervello verosimilmente grazie alle sue proprietà lipofile. Tenete presente che il cervello dei pidocchi è ventrale, situato attorno al loro tubo digerente.

Il più potente fra gli insetticidi antipidocchi è il malathion, un organofosforico fra i meno tossici:

Questo si degrada in malaossone, che è 60 volte più tossico del malatione.

Altri prodotti che si usano contro i pidocchi non hanno però la medesima certezza o efficacia provate; gli oli di vario genere per esempio. Come ci ricorda Altroconsumo:

olio di neem, tea tree oil, lavanda, yang yang hanno dimostrato proprietà antimicrobiche. Per la legge italiana, sono prodotti cosmetici e come tali non possono vantare di uccidere i pidocchi, ma secondo i produttori dovrebbero creare un ambiente sfavorevole all’insediamento dei pidocchi. Gli oli essenziali spesso contengono sostanze allergizzanti (limonene, eugenolo, citronellolo).

Poi ci sono i vari oli minerali che dovrebbero soffocare i pidocchi (però le lendini rimangono e devono essere tolte a mano); tuttavia questa attività di soffocamento non è provata in modo completo.

E adesso veniamo al mio ricordo personale, che ha scatenato il post; una mia zia era solita farmi il seguente indovinello, detto in napoletano:

“Va a Milano co’ totano ‘mmano

E lo porta alla sua sposa

Che se lo  mette nella pelosa”

Che cos’è ?

E’ chiaramente un indovinello popolare a sfondo sessuale, ma la cui risposta esatta è il pettine, la pelosa sono i capelli.

Il nome popolare del pettinino contro i pidocchi è infatti totano o totaro;

Todarodes Sagittatus

questo è anche il nome di un mollusco cefalopode simile al calamaro; che è citato sempre a sfondo sessuale nel numero 67 della famosa Tombola napoletana o Smorfia: 67, o totano int’a chitarra; chiaro anche senza scomodare l’arte giapponese, una cultura che fa riferimento al medesimo concetto (si ricordi la famosa xilografia di Hokusai conosciuta come Tako to ama o Il sogno della moglie del pescatore) o la famosa canzone rimessa in voga da Arbore, quella della chitarrina.

Cortocircuiti mentali che collegano calamari, pettini, pidocchi e sesso; come vedete la mia mente è proprio un blob!

Prima del riciclo: riuso, riparazione.

In evidenza

Claudio Della Volpe

In questi giorni il sito Samsung ha messo online ma solo in francese un manuale veramente unico.

Si tratta del primo manuale tecnico per la manutenzione di un telefono di ultima generazione con i dettagli costruttivi, argomenti di cui le aziende sono in genere molto gelose, il famoso know-how.

Perché ha fatto questo e perché solo in francese?

Perché dal primo gennaio in Francia c’è una nuova legge che impone alle aziende di indicare il “grado di riparabilità” dei prodotti, cioè un numero da uno a dieci che indica quanto è facile aggiustarli se si rompono.

Non è il primo tentativo di combattere l’obsolescenza programmata, una sciagurata tecnica per aumentare i profitti nata ormai quasi un secolo fa; si narra infatti che il primo esempio di obsolescenza programmata sul mercato mondiale sia stato il cosiddetto accordo Febo.

Il 23 dicembre 1924  i grandi produttori di lampade ad incandescenza si riunirono a Ginevra per standardizzare le caratteristiche del loro prodotto, ma fra le altre regole imposero che la durata media della lampada avrebbe dovuto essere di 1000 ore, mentre già allora lo standard produttivo raggiungibile era ben superiore; in questo modo attraverso una apparentemente innocua regola tecnica imposero un sovraconsumo di lampade abbassandone lo standard tecnico al solo scopo di venderne di più; l’accordo avrebbe dovuto durare fino al 1955 ma la 2 guerra mondiale si incaricò di abolirlo; tuttavia in seguito questa scelta divenne la norma per i prodotti di massa che videro la luce DOPO la 2 guerra mondiale.

Oggi siamo arrivati ai casi assurdi come quello dell’iPhone Apple, https://www.altroconsumo.it/organizzazione/media-e-press/comunicati/2020/obsolescenza-programmata-iphone-pronti-alla-class-action-contro-apple

quando su un prodotto già esistente tramite un update software si è peggiorata la durata della batteria senza avvisare gli utenti con la solita scusa di un “miglioramento” del software.

Il Tribunale ha confermato che la società di Cupertino ha rilasciato gli aggiornamenti del firmware iOS 10 e 10.1.2 per gli iPhone 6/6Plus/6s/6sPlus,senza informare adeguatamente i consumatori della riduzione sensibile delle prestazioni che avrebbero subito i loro dispositivi.

In altri paesi l’azione dei consumatori ha costretto Apple a pagare centinaia di milioni di dollari di risarcimento.

Insomma le vie dell’obsolescenza programmata, o perfino indotta post vendita, sono infinite e sono la base materiale dell’invasione di rifiuti, dello sperpero di risorse cui corrispondono dall’altro lato l’accumulo di migliaia di miliardi di profitti.

Anche in Italia c’è una legge sul tema che obbliga in alcuni settori come gli elettrodomestici a produrre i ricambi per almeno 7-10 anni; ma sono ancora deboli sterzate nella direzione giusta.

Nella mia vita ho posseduto finora due lavatrici una mi è durata 20 anni e anche l’altra; e attenzione mi sono durate “solo” 20 anni perché non si trovavano più i pezzi di ricambio; erano della medesima marca italiana non più esistente, che forse produceva troppo bene in un mondo di lupi dalle zanne obsolescenti; non so quanto mi durerà la “tedesca” che ho comprato qualche anno fa, ma certe leggi potrebbero, come l’accordo Febo, stare sotto i limiti tecnici EFFETTIVI con lo scopo di massimizzare le vendite e i profitti, con la scusa di un progresso tecnico inarrestabile ma spesso non necessario. Certo le lavatrici attuali hanno un bel pannello programmabile , ma fanno dopo tutto le stesse azioni meccaniche che facevano 40 anni fa.

Ma perfino gli sviluppi informatici, i sistemi multicore attuali quanto sono effettivamente utili nelle applicazioni comuni di ogni giorno, dopo tutto anche scrivere è una operazione che non può andare centinaia di volte più veloce se la continuiamo a fare a mano; o quanto serve che, come ha fatto Apple si introduca un chip che blocca tutto se uno sostituisce dell’hardware non originale? La mancata interoperabilità fra i software a 32 e 64 bit è necessaria o serve solo a vendere di più? La compatibilità si dice è impossibile, ma non si danno al pubblico i mezzi per accertarsene. Il dubbio rimane e fa pensare che l’industria informatica debba essere soggetta ad una attenta politica di riforma strutturale che metta al centro gli sviluppi tecnici effettivi non solo pubblicizzati e virtuali. Ogni anno ci propongono rivoluzionari cambiamenti che di fatto consistono in un controllo sempre più stretto delle possibilità del cliente o di prestazioni che solo una percentuale ridicola di persone potrà sfruttare.

Il contraltare è un consumo insostenibile di risorse minerarie preziose e non rinnovabili ed un inquinamento crescente legato alla difficoltà di smontare in modo efficace oggetti non progettati per essere riciclati.

La legge francese fornisce una indicazione minima ma importante: i produttori devono dire come si smontano e riparano i prodotti ai clienti e lasciarli liberi di farlo anche da soli, fornire i ricambi per periodi minimi abbastanza lunghi e non obbligarli a cambiare tutto a tempi fissi buttando dispositivi ancora perfettamente funzionanti.

Il nostro pianeta e la nostra civiltà “tecnologica” non possono sopportare ulteriormente uno sfruttamento delle risorse finalizzato al profitto dietro lo scudo di un illusorio “libero” progresso tecnico più virtuale che reale o al contrario (ma con effetti equivalenti) un blocco programmato del progresso tecnico centellinato al pubblico quando non fa più comodo la sua velocità.

Insomma il progresso è una cosa troppo importante per lasciarne il controllo ai privati; è la collettività che deve assumersi la responsabilità di attuarlo in un modo che non peggiori la vita dei più per aumentare i profitti dei pochi.

Riferimenti.

https://www.ilpost.t/2021/4/14/riparabilità-smartphone-francia/

Energia per l’Italia sul PNRR (parte seconda)

In evidenza

ENERGIAPERLITALIA,coordinatore Vincenzo Balzani

Ospitiamo volentieri i commenti del gruppo Energia per l’Italia coordinato da Vincenzo Balzani

sul Piano nazionale di ripresa e resilienza (PNRR); il testo è pubblicato in due parti.

Esso è comunque recuperabile integralmente da energiaperlitalia,

la prima parte di questo post è stata pubblicata qui

4. Economia Circolare

Molto contenuto appare la quota di finanziamento destinata all’Economia Circolare (4,5 miliardi di euro)

Occorre realizzare una rete impiantistica tale da rendere autosufficiente ogni regione e provincia italiana per il riciclo dei rifiuti e il riuso dei prodotti dismessi in Centri di preparazione per il riutilizzo.

Occorre promuovere iniziative di ricerca e sviluppo per nuove tecnologie e processi industriali per il riciclo dei rifiuti Elettrici ed Elettronici, in un’ottica di Urban Mining per il recupero e riciclo di materie prime seconde preziose e critiche.

Occorre promuovere iniziative di ricerca e sviluppo per nuove tecnologie e processi per la riduzione della produzione di plastiche e di rifiuti di plastica e massimizzarne il riciclo attraverso un’implementazione dell’efficienza soprattutto a livello industriale.

Occorre finanziare impianti di smaltimento rifiuti adeguati in Campania per uscire dalle procedure di infrazione che costano alla comunità centinaia di migliaia di euro al mese.

E’ anche necessario velocizzare le pratiche amministrative nei vari ministeri per le Valutazioni di Impatto ambientale e per le VAS

Istruzione e Ricerca (Missione 4)

Una conoscenza diffusa del metodo scientifico e dei suoi sviluppi contemporanei è necessaria: aiuta a comprendere che i problemi cui ci troviamo di fronte in tanti campi diversi non sono semplici. Occorre colmare questa lacuna, perché oggi viviamo “immersi” in sistemi complessi, con cui dobbiamo interagire in maniera corretta per trovare delle soluzioni efficaci ed eque (come economia globalizzata, diffusione delle pandemie, sistema climatico, web, ecc.)

E’ oggi indispensabile e urgente porre in atto un grande piano di formazione e informazione, principalmente nella scuola, ma anche con interventi extrascolastici di formazione permanente, che permetta di raggiungere un’alfabetizzazione estesa e un avvicinamento ai metodi e ai risultati della scienza da parte dei giovani e di strati i più ampi possibili della cittadinanza.

Questo consentirà un più diffuso apprezzamento della scienza, dei risultati raggiunti e delle incertezze che permangono, e si potranno riconoscere e isolare con più facilità le fake news che sempre più spesso compaiono nei mezzi di informazione.

Insegnamento e corretta comunicazione della scienza sono una priorità del Paese, così come la ricerca e la ricerca scientifica in particolare. In questo senso, come indicato da studi di autorevoli economisti, gli investimenti in ricerca risultano un efficace moltiplicatore di sviluppo. Ma qui, purtroppo, scontiamo gravi carenze: basti pensare che l’Italia investe in ricerca solo 150 Euro annui per ogni cittadino, contro i 250 e i 400 di Francia e Germania, rispettivamente, e che i nostri ricercatori sono solo 75.000 contro i 110.000 della Francia e 160.000 della Germania.

In questa situazione, riteniamo fondamentale investire in istruzione e ricerca, sfruttando anche il PNRR, per raggiungere i futuri obiettivi europei di spesa in questi settori, o almeno per allinearci con la percentuale di PIL dedicata attualmente a questo scopo dai Paesi che maggiormente puntano su un’economia della conoscenza.

Salute (Missione 6)

Assolutamente prioritario è il diritto alla salute pubblica, inteso come pieno benessere e non soltanto come assenza di malattia. E’ necessario il rafforzamento della medicina territoriale e della copertura sanitaria di qualità per tutti.

E’ anche necessaria un’azione capillare di diffusione, con ogni mezzo d’informazione, della cultura e della pratica della evitabilità di molte malattie mediante la conservazione e la difesa dell’ambiente e delle sicurezze logistiche quotidiane, la modalità e la qualità del produrre e consumare, l’adozione di opportuni stili di vita, la scolarizzazione e il contrasto alle diseguaglianze sociali.

Inoltre è importante promuovere la prevenzione primaria (evitabilità delle malattie connesse all’organizzazione sociale, ai sistemi produttivi e di consumo) e quella secondaria (diagnosi precoce) presso la pubblica opinione, le Istituzioni, le sedi della Politica, delle autorità scientifiche, accademiche e scolastiche.

Commento su tre importanti problemi fra loro collegati

1.  CCS (Carbon Capture and Storage)

Come è noto, la CO2, gas generato dalla combustione dei combustibili fossili, immessa nell’atmosfera contribuisce ad aumentare l’effetto serra e il conseguente cambiamento climatico. Secondo gli scienziati dell’IPCC, per frenare il cambiamento climatico, definito dalla conferenza di Parigi del 2015 “il pericolo più grave per l’umanità”, è necessario azzerare le emissioni di CO2 entro il 2050. Questo è quanto prevede l’Accordo di Parigi, al quale hanno aderito praticamente tutte le nazioni del mondo, compresi gli Stati Uniti che poi, con Trump presidente, sono usciti dall’accordo e con Biden vi sono rientrati. Poiché in questi ultimi sei anni le emissioni di CO2 sono aumentate, secondo gli scienziati bisogna agire più rapidamente di quanto fosse stato previsto e azzerare le emissioni entro il 2035.

La strada maestra per raggiungere l’obiettivo dell’azzeramento delle emissioni di CO2 è una graduale transizione dall’uso dei combustibili fossili a quello delle energie rinnovabili (Sole, vento e acqua), che non producono né CO2 né sostanze inquinanti.

Le compagnie petrolifere invece, prima fra tutte ENI, stanno intensificando le estrazioni di combustibili fossili in tutto il mondo e, con il loro grande potere, agiscono a tutti i livelli e con ogni mezzo per evitare che i combustibili fossili vengano messi al bando. Secondo le compagnie petrolifere, infatti, si può continuare ad usare i combustibili fossili, anche ben oltre il 2050, evitando che la CO2 prodotta sia immessa in atmosfera. Questa operazione, indicata con la sigla CCS (Carbon Capture and Sequestration), implica la cattura dell’anidride carbonica dai fumi emessi da impianti industriali, la sua separazione da altri gas, il suo trasporto con gasdotti in un impianto di raccolta e infine il suo deposito in giacimenti di idrocarburi ormai esauriti, dove dovrà rimanere “per sempre”. Nelle intenzioni di Eni, quello di Ravenna sarà il più grande impianto del genere in Europa e un “hub” per il sud Europa e il Mediterraneo.

La strategia basata sul CCS per controllare il cambiamento climatico a nostro parere è irrazionale e impraticabile, come si evince dalle numerose, grandi criticità che si possono riassumere nei seguenti 12 punti:

1)- Produrre CO2 per poi catturarla e immagazzinarla è un procedimento contrario ad ogni logica scientifica ed economica; è molto più semplice ed economico usare, al posto dei combustibili fossili, le energie rinnovabili (fotovoltaico, eolico, idroelettrico) che non producono né CO2, né inquinamento.  

2)- Il CCS è una tecnologia sperimentale ancora in fase di ricerca; studi sugli impianti CCS sono stati finanziati con fondi europei dal 2009 al 2017, ma non hanno portato ad alcun risultato utile (1).

3)- E’ possibile applicare il CCS solo ai grandi impianti emettitori di CO2, come le centrali termo-elettriche. Non è possibile usarlo per catturare le emissioni di mezzi di trasporto, abitazioni e piccole industrie.

4)- La tecnologia CCS è molto dispendiosa perché per catturare CO2 c’è bisogno di energia. Ad esempio, per applicare questa tecnologia a una centrale termoelettrica a carbone è necessario affiancare alla centrale un’unità dedicata, alimentata a gas. Cioè, si brucia gas fossile (senza compensare le relative emissioni) per alimentare l’impianto CCS che poi cattura solo una piccola parte della CO2 emessa dalla centrale. Oltre al costo dell’impianto dedicato, si deve anche considerare che la cattura di CO2 all’interno della centrale riduce le sue prestazioni del 10%-20%.

5)- Un impianto CCS in Norvegia viene utilizzato dalla compagnia petrolifera Equinor per rivitalizzare parzialmente, con l’immissione di CO2, giacimenti petroliferi quasi esauriti (Enhanced Oil Recovery, EOR). Questo, che attualmente è l’unico uso che si può fare della CO2 catturata, potrebbe essere lo scopo nascosto della costruzione di un impianto CCS di Eni a Ravenna. L’Enhanced Oil Recovery, che taluni considerano come un esempio di economia circolare, è semplicemente un artificio per continuate ad estrarre e quindi usare  i combustibili fossili.

 6)- L’unico impianto CCS americano, utilizzato per sequestrare una parte della CO2 emessa dalla centrale a carbone di Petra Nova in Texas, è stato chiuso da pochi mesi a tempo indeterminato perché ritenuto non più sostenibile dal punto di vista economico dal gestore dell’impianto, NRG Energy (2,3). Anche in questo caso la CO2 catturata era trasportata via tubo in giacimenti petroliferi per potenziare l’estrazione (EOR). La performance dell’impianto di Petra Nova era considerato un test per capire se la tecnologia CCS può veramente essere utile nella battaglia contro il cambiamento climatico.  La risposta è chiare: il CCS è economicamente insostenibile.

7)- La cattura della CO2 non elimina l’inquinamento causato da combustibili fossili, che ogni anno causa in Italia 80.000 morti premature; il passaggio dai combustibili fossili alle energie rinnovabili risolverebbe anche questo problema.

8)- La letteratura scientifica è scettica sulla possibilità che si possa immagazzinare permanentemente CO2. La sua fuoriuscita vanificherebbe l’opera intrapresa per combattere il cambiamento climatico; una fuoriuscita improvvisa potrebbe creare danni gravi alla popolazione (soffocamento: CO2, gas pesante, non si allontana dalla superficie della Terra)

9)- Lo stoccaggio di CO2, come hanno dimostrato analoghe attività in altre aree, potrebbe provocare un progressivo incremento della sismicità; cosa molto pericolosa nel territorio ravennate, che già presenta un rischio sismico medio-alto ed è soggetto a significativi fenomeni di subsidenza.

10)– Sviluppare il CCS significa investire miliardi di euro pubblici che sarebbe invece necessario e urgente utilizzare per sviluppare l’uso di energie rinnovabili pienamente collaudate come fotovoltaico ed eolico. A questo proposito è bene notare che Il costo di un kW di fotovoltaico è diminuito di oltre 20 volte negli ultimi 20 anni e che attualmente, con l’eolico, il fotovoltaico è la tecnologia meno costosa per produrre energia elettrica. L’efficienza di conversione della luce in elettricità di un pannello fotovoltaico supera ormai il 20%. Se la paragoniamo alla efficienza della fotosintesi naturale, che è mediamente inferiore all’1%, possiamo capire come il fotovoltaico sia tra le invenzioni più dirompenti del XX secolo.

11)- Il CCS non è stato ancora sviluppato su una scala macroscopica corrispondente alla necessità di evitare l’immissione di significative quantità di CO2 in atmosfera (4).

12)- Una analisi comparativa dimostra inequivocabilmente che l’elettricità prodotta dalle energie rinnovabili ha un ritorno energetico superiore a quello della elettricità da centrali termoelettriche dotate di CCS (5).

Si conclude quindi che il CCS è un disperato tentativo delle compagnie petrolifere per tenere in vita processi produttivi e di approvvigionamento energetico basato sui combustibili fossili. In ogni caso, non è opportuno investire ingenti risorse pubbliche nella realizzazione di un sistema di cattura e stoccaggio di CO2 perché i risultati promessi non sono affatto garantiti, né dal punto di vista della sicurezza, né dal punto di vista climatico.

Le risorse disponibili debbono essere usate per lo sviluppo delle energie rinnovabili, particolarmente fotovoltaico ed eolico, nonché per gli impianti di accumulo di energia elettrica, per l’efficienza energetica degli edifici e delle attività produttive e commerciali; tutti questi settori garantiscono anche una più un’alta intensità di posti di lavoro rispetto al settore dei combustibili fossili.

(1) Corte dei conti Europea, N. 24, 2018, Relazione speciale: … I progressi attesi non sono stati realizzati …

(2) QualEnergia, 5 febbraio 2021: La cattura della CO2 fa un buco nell’acqua negli Usa: il caso di Petra Nova

(3)  Reuters, August 7, 2020: Problems plagued U.S. CO2 capture project before shutdown: document

(4) Energy Environ. Sci, 1062, 11, 2018: Carbon capture and storage (CCS)

(5) Nature Energy, 456, 4, 2019: Comparative net energy analysis of renewable electricity and carbon capture and storage

2. CCS e idrogeno

Quando la produzione di energia elettrica da fonti rinnovabili sarà molto abbondante, diventerà conveniente utilizzarla, in parte, per produrre idrogeno (H2) mediante elettrolisi dell’acqua. L’idrogeno è un gas che può essere usato come combustibile (contenuto energetico molto superiore a quello del metano), oppure può essere riconvertito in energia elettrica mediante pile a combustibile (fuel cells). In entrambi i casi produce solo acqua: niente CO2, nessuna sostanza inquinante. L’idrogeno è un gas incolore. Quello prodotto mediante energia elettrica rinnovabile mediante l’elettrolisi dell’acqua è idrogeno purissimo e viene chiamato significativamente idrogeno verde. La produzione e l’utilizzo di idrogeno verde richiedono vari processi di conversione, che implicano un’efficienza sostanzialmente inferiore rispetto all’utilizzo diretto dell’elettricità. L’idrogeno è quindi una risorsa costosa e preziosa che deve essere utilizzata solo in alcuni settori specifici come il trasporto pesante (es., navi e aerei) e l’industria pesante (es., acciaierie). Il primo passo verso la produzione e l’uso di l’idrogeno verde è l’aumento della potenza elettrica rinnovabile per possederne surplus da immagazzinare sotto forma di idrogeno.

Attualmente l’idrogeno viene usato principalmente per la sintesi dell’ammoniaca (fertilizzanti) o per la raffinazione del petrolio e viene quasi tutto prodotto a partire da metano, petrolio o carbone mediante processi che comportano l’emissione di ingenti quantità di CO2 in atmosfera. Questo idrogeno viene chiamato idrogeno grigio; non è puro, ma oggi costa circa tre volte meno dell’idrogeno verde. Utilizzando impianti basati sull’uso di combustibili fossili abbinati a CCS, la CO2 generata potrebbe venire catturata e intrappolata: questo idrogeno, che non è ancora stato prodotto, viene chiamato idrogeno blu.

Le aziende del petrolio e del gas, in Italia ENI e SNAM, puntano sull’idrogeno blu per poter continuare a estrarre e usare metano. Il principale obiettivo del progetto CCS ENI a Ravenna è proprio diffondere l’idea che si possa produrre idrogeno blu. Ma abbiamo visto che la tecnologia CCS non è economicamente sostenibile e neppure tecnicamente provata, dopo 20 anni di prove. In ogni caso, ENI e le altre compagnie petrolifere cercano di rientrare in gioco per ottenere finanziamenti dal Next Generation EU spacciando per verde la tecnologia CCS perché, in teoria, cattura e sequestra CO2. Accade così che nell’Unione Europea la lobby delle aziende dei fossili, registrata col nome di Hydrogen Europe, preme perché l’idrogeno blu sia incluso nei piani di finanziamento per la transizione energetica. La Re:Common, un’associazione che fa inchieste e campagne contro la corruzione, ha notato con preoccupazione che in effetti “la strategia europea sull’idrogeno varata dalla Commissione Europea nel luglio 2020 è molto vicina alle richieste della lobby”. RE:Common definisce il CCS un inganno che serve all’ENI per dare un parvenza di transizione; è cioè una operazione di green washing, quando in realtà l’azienda continua a puntare su giacimenti di metano e petrolio.

3. Idrogeno e fusione nucleare

Il 16 marzo scorso, nell’illustrare il programma del Ministero della Transizione Ecologica, il ministro Cingolani ha fatto alcune dichiarazioni molto discutibili. Ha citato il nucleare da fusione, che dagli anni Settanta del secolo scorso ci viene ripetutamente promesso come fattibile “entro 30 anni” per risolvere la crisi energetico climatica. In effetti, anche oggi gli esperti ci dicono che la fusione nucleare, nella migliore delle ipotesi, non potrà dare alcun contributo concreto alla produzione di energia elettrica per usi civili prima del 2060, mentre sappiamo che dobbiamo mettere sotto controllo il cambiamento climatico entro i prossimi 15-20 anni.

Il ministro Cingolani è, inspiegabilmente, molto più ottimista: “Io spero che se avremo lavorato bene, fra dieci anni i nostri successori parleranno di come abbassare il prezzo dell’idrogeno verde e di come investire sulla fusione nucleare. Questa è la transizione che ho in testa … L’universo funziona con la fusione nucleare. Quella è la rinnovabile delle rinnovabili. Noi oggi abbiamo il dovere nel PNRR di potenziare il ruolo dell’Italia nei progetti internazionali ITER e MIT sulla fusione. Quello è un treno che non possiamo perdere”. L’idrogeno prodotto per elettrolisi dell’acqua utilizzando energia elettrica proveniente dal nucleare viene chiamato idrogeno viola ed è puro come l’idrogeno verde.

Cingolani ha anche affermato che “Fra dieci anni avremo l’idrogeno verde e le automobili che andranno a celle a combustibile”. Forse ignora che il consumo totale di energia di un’auto a idrogeno è oltre il triplo di quella di un’auto elettrica a causa delle perdite associate alla produzione di idrogeno da rinnovabili, al suo trasporto e stoccaggio e alla ri-conversione dell’idrogeno in elettricità con le celle a combustibile. Quindi, la competizione delle auto a idrogeno con le auto elettriche è persa in partenza per un fattore tre a vantaggio dell’elettrico.

Cingolani ha anche detto “Abbiamo un decennio per rendere la nostra società competitiva sull’idrogeno verde. Al momento non abbiamo gli impianti, non sappiamo come stoccare e come utilizzare l’idrogeno. Ma questa è solo la realtà odierna. Dobbiamo cominciare a lanciare i nostri programmi, dobbiamo creare quel sistema che intorno a quel vettore energetico ci consenta di operare al meglio”. E in più occasioni ha anche parlato di idrogeno blu, il progetto proposto da ENI con impianti CCS. Questo progetto in un primo tempo era stato inserito nel Recovery Plan; scartato nella seconda versione, potrebbe riapparire in quella finale. Insomma, non vorremmo che l’uso dell’idrogeno blu fosse considerato un ponte necessario per passare poi all’idrogeno verde, così come ENI sostiene da anni che l’uso del metano è un ponte necessario per poi passare alle rinnovabili, giudicate non ancora mature.

Infatti, parlando della transizione energetica, Cingolani ha parlato anche, implicitamente, del ruolo del metano: «Sappiamo quale strada dobbiamo fare, dobbiamo partire da A e arrivare a B, più difficile è dire con quale pendenza raggiungere la meta». Il Piano integrato energia e clima del governo Conte prevedeva molto metano e una curva di crescita delle rinnovabili «schiacciata»: 4,5-5 GW di potenza di rinnovabili installata per il 2025. Come abbiamo visto, questo aumento è assolutamente insufficiente. La potenza installata deve essere di almeno 20 GW al 2026 e 40-50 GW al 2030. Con un capacity factor medio del 20% (fotovoltaico e eolico), 50 GW corrispondono a circa 90 TWh, cioè circa un quarto della domanda attuale, che è il minimo per raggiungere l’obiettivo EU di 2/3 di elettricità rinnovabile al 2030. Si tratta di un obiettivo ciclopico che va affrontato con urgenza, incominciando con l’attuare procedure autorizzative serie, ma molto più snelle per sviluppare eolico e fotovoltaico, tecnologie sulle quali si sa già tutto. L’ultimo impianto eolico entrato in funzione ci ha messo otto anni per essere autorizzato.

Energia per l’Italia sul PNRR (parte prima)

In evidenza

ENERGIAPERLITALIA, coordinatore Vincenzo Balzani

Ospitiamo volentieri i commenti del gruppo Energia per l’Italia coordinato da Vincenzo Balzani

sul Piano nazionale di ripresa e resilienza (PNRR); il testo sarà pubblicato in due parti.

Esso è comunque recuperabile integralmente da energiaperlitalia,

Bologna, 4 aprile 2021

Hanno contribuito alla stesura di questo documento: Nicola Armaroli, Vincenzo Balzani, Alessandra Bonoli, Sergio Castellari, Marco Cervino, Vittorio Marletto, Leonardo Setti

Riassunto

Il gruppo Energia per l’Italia (http://www.energiaperlitalia.it/) ha esaminato e commentato alcuni aspetti del PNRR (Piano Nazionale di Ripresa e Resilienza), con particolare attenzione ai provvedimenti centrali per una reale transizione energetica e alle azioni efficaci di mitigazione e adattamento ai cambiamenti climatici.

 A nostro parere il Piano non affronta adeguatamente gli obiettivi europei in materia di clima ed energia. Infatti, considerando le proposte di investimenti in nuove azioni in campo climatico (inclusa l’energia), non raggiunge la quota prescritta del 37% del totale dei fondi.

Notiamo che nel Piano manca una exit strategy dai combustibili fossili al 2050, cioè manca uno schema con cui agire concretamente per il passaggio all’energia elettrica prodotta da fonti rinnovabili quale sole vento e acqua per applicazioni nell’industria, nell’agricoltura, nella climatizzazione degli edifici e ancor più nella mobilità pubblica e privata di persone e merci.

L’aumento di energia rinnovabile proposto nel PNRR (4,5-5 GW) è assolutamente insufficiente. La nuova potenza installata deve essere aumentata di un fattore 5x al 2026 (20-25 GW) e 10x al 2030 (40-50 GW). Con un capacity factor medio del 20% (FV + eolico) 50 GW corrispondono infatti a circa 90 TWh, cioè un quarto della domanda elettrica attuale.

Anche per raggiungere l’obiettivo europeo di -55% emissioni di CO2 al 2030 rispetto al 1990 è necessario nei prossimi 10 anni uno sforzo molte volte superiore rispetto a quello degli ultimi 30 anni, dato che dovremo ridurre le emissioni di almeno 160 milioni di tonnellate di CO2 eq rispetto alle attuali 390 nette.

Per questo è necessario da una parte semplificare ed accelerare molto le procedure di autorizzazione di impianti eolici in mare e in terra e di impianti fv a terra, su aree dismesse o da bonificare, dall’altra sostenere l’autoproduzione di fotovoltaico sui tetti con bonus di almeno il 65% in fattura.

Inutili o dannose invece le proposte PNRR di riportare in Italia la produzione di moduli FV, saldamente in mano alla Cina, o peggio di sostenere il carico di base della rete elettrica con il gas, quando invece la tendenza nel resto dell’occidente è di sfruttare al massimo i pompaggi idrici (oggi largamente inutilizzati) e puntare con decisione all’accumulo in grandi batterie, potenziando la filiera elettrochimica (meccatronica di precisione) in cui l’Italia vanta punte di eccellenza. Vanno abbattuti i costi di realizzazione dei punti di ricarica diffusa dei mezzi elettrici nonché le relative tariffe, mentre l’idrogeno va riservato in via esclusiva a settori specifici come il volo la navigazione e la siderurgia, dato che ogni altra applicazione delineata nel PNRR rasenta la follia energetica (usare 100 W per produrne 10).

Anche il tema cruciale dell’adattamento ai cambiamenti climatici è trattato in modo insufficiente nel Piano, mancando fondi adeguati per le aree urbane, una governance multilivello del tema resilienza che sia partecipata e integrata nell’esistente (es. settore risorse idriche), nonché uno schema di monitoraggio e valutazione delle misure attuate.

Sul tema dell’economia circolare sono scarsi i fondi previsti per gli impianti necessari a rendere autosufficiente ogni regione e provincia italiana per il recupero e riciclo di materie prime seconde. Anche qui le procedure di autorizzazione risultano troppo complesse e lente.

Essenziale puntare su istruzione e ricerca sia per infondere un’adeguata cultura della transizione energetica nella popolazione a partire dai giovani sia per colmare il grande divario che ci separa dagli altri paesi europei (l’Italia investe in ricerca solo 150 Euro annui per ogni cittadino, contro i 250 e i 400 di Francia e Germania, e ha solo 75.000 ricercatori contro i 110.000 della Francia e 160.000 della Germania).

Il gruppo disapprova fermamente l’approccio CCS (Cattura del Carbonio e Stoccaggio) sostenuto nel PNRR, elencando ben 12 ragioni di critica dello stesso tra le quali spicca l’indimostrata applicabilità del metodo alla scala necessaria e la sua efficacia reale, con il rischio di gravi ripercussioni sul territorio. Per gli stessi motivi disapprova sia l’idea di sfruttare il CCS per produrre dal metano il cosiddetto idrogeno blu, sia l’idea ministeriale di considerare imminente l’arrivo di energia illimitata da fusione nucleare, che contrasta con la storia ormai cinquantennale del settore. I fondi attualmente erogati alle fonti fossili vanno invece dirottati su tecnologie perfettamente consolidate come le rinnovabili (sole, vento e acqua) che in pochi mesi dal progetto, se autorizzate, possono produrre l’energia elettrica pulita indispensabile per raggiungere gli obiettivi europei al 2030 e la neutralità climatica al 2050.

Osservazioni su punti specifici del documento

Rivoluzione verde e transizione ecologica (Missione 2)

La transizione ecologica deve basarsi sul concetto di ecologia integrale, ben espresso nel capitolo 4 dell’enciclica “Laudato si’” di papa Francesco: ecologia ambientale, economica, sociale e culturale, per il bene comune e la giustizia tra le generazioni.

Siamo di fronte a un impegno senza precedenti, che appare quasi insormontabile, soprattutto in termini di urgenza. Ma occorre accogliere la sfida e avviare da subito la transizione necessaria.

A nostro parere l’ultima versione del PNRR non affronta in maniera adeguata gli obiettivi in materia di clima e energia delineati nel Quadro 2030 per il clima e l’energia e nel Green Deal Europeo e non considera pienamente i capisaldi delineati nella Guidance Europea (Commission Staff Working Document – Guidance to MS Recovery and Resilience Plans, 17.9.2020). Infatti, considerando le proposte di investimenti in nuove azioni in campo climatico (includendo l’energia), non si raggiunge la quota (come prescritta nelle Guidance Europee) del 37% del totale dei fondi.

Nel PNRR questi fondi sono pianificati principalmente per i seguenti obiettivi: contrasto del dissesto idrogeologico; gestione sostenibile della risorsa idrica; attuazione di un programma di riforestazione; miglioramento della qualità delle acque interne e marine. Sono invece scarsi i fondi assegnati per l’adattamento climatico.

1. Transizione energetica e sviluppo delle rinnovabili

Premessa

La transizione energetica dai fossili alle energie rinnovabili implica il passaggio dai combustibili alla elettricità come energia di uso comune. Produrremo quantità sempre maggiori di energia elettrica con fonti rinnovabili (Sole, vento, acqua). Dovremo estendere l’uso dell’energia elettrica nell’industria, nell’agricoltura, nella climatizzazione degli edifici e ancor più nella mobilità, perché i motori elettrici sono da 3 a 4 volte più efficienti dei motori termici. Dovremo sviluppare prevalentemente trasporti pubblici alimentati dall’elettricità, e quindi usare meno aerei, più treni, tram e autobus elettrici e costruire meno autostrade e più ferrovie. Dovremo smettere di fornire sussidi alle fabbriche di auto, soprattutto se di lusso, con motori a combustione e trasferire alle energie rinnovabili i sussidi di cui ancora oggi godono i combustibili fossili.

Purtroppo, notiamo che nel Piano manca una exit strategy dai combustibili fossili al 2050, cioè manca uno schema con cui agire concretamente.

Fotovoltaico ed eolico oggi sono le due tecnologie che forniscono energia elettrica ai costi più bassi, anche tenendo conto dell’integrazione con sistemi di accumulo. Nel mercato mondiale della nuova potenza elettrica installata hanno raggiunto una quota di circa il 70%, superando nettamente le tecnologie tradizionali basate su carbone, gas e nucleare. Il fotovoltaico converte la luce del Sole in energia elettrica con un’efficienza di circa il 20%, quasi cento volte maggiore dell’efficienza con cui la fotosintesi naturale converte la luce solare in energia chimica.

Sviluppo delle energie rinnovabili

Secondo il PNRR “Gli obiettivi fissati al 2026 sono rappresentati da un aumento di 4,5-5 GW della capacità di rinnovabili installata, al fine di supportare l’obiettivo del PNIEC per il 2025. In combinazione con gli impianti eolici, saranno progettati e installati impianti fotovoltaici galleggianti da 100 MW in un’area ad alto irraggiamento, aumentando così la produzione totale di energia.”

Questo aumento è assolutamente insufficiente. La potenza installata deve essere almeno 5x al 2026 (20-20 GW) e 10x al 2030 (40-50 GW). Con un capacity factor medio del 20% (FV + eolico) 50 GW corrispondono a circa 90 TWh, cioè un quarto della domanda attuale. Questo è il minimo necessario per raggiungere nel 2030 l’obiettivo UE di 2/3 di elettricità rinnovabile sul totale. Bisogna fare, dunque, uno sforzo ciclopico per non rimanere indietro. Il potenziale di eolico in Italia è di 16 GW, 9 dei quali già realizzati per cui ora dobbiamo andare a coprire aree complesse e a bassa accettabilità sociale. Quindi, bisogna sviluppare soprattutto il fotovoltaico. Gli impianti galleggianti per 100 MW previsti dal Piano sono ben poca cosa.

Anche considerando l’obiettivo fissato dall’Unione Europea di abbattere le emissioni del 55% al 2030 si capisce che è necessario un grande sforzo. E’ necessario nei prossimi 10 anni correre 9 volte più veloci di quanto fatto negli ultimi 30 anni nell’abbattimento dei gas climalteranti.

Pertanto bisogna semplificare le procedure per l’approvazione dei progetti di risorse rinnovabili e promuovere e finanziare adeguatamente impianti eolici e fotovoltaici offshore e a terra in aree dismesse o da bonificare (come le ex discariche chiuse e altre aree da riqualificare).

E’ anche necessario promuovere l’autoproduzione domestica e industriale per realizzare una rete capillare di piccoli impianti con benefici per i territori e per le famiglie attraverso la diffusione delle comunità energetiche

Se si considerasse un bonus del 65% sul fotovoltaico domestico, scontato in fattura, non sarebbe difficile rilanciare le installazioni su milioni di tetti, con grande risparmio in bolletta per le famiglie.

Altre osservazioni

–  Il Piano prevede di rilanciare la produzione di moduli fotovoltaici in Italia, una iniziativa inutile poiché il mercato di moduli fotovoltaici è saldamente in mano alla Cina. Questo non significa che tutta la complessa filiera produttiva del FV sia in mano alla Cina, come spesso viene affermato: è una filiera globale e interconnessa, come tutte le grandi filiere industriali (abbiamo visto in questi mesi quanto sia complessa e globale la catena produttiva dei vaccini).

– Nel Piano si parla anche di realizzare sistemi di accumulo termico abbinati a impianti CCGT, cioè turbogas a metano. Questi impianti vengono definiti strategici poiché permettono di avviare le centrali termoelettriche in modo più flessibile, cosa necessaria per sopperire a eventuali buchi di potenza in rete generati dalle rinnovabili. I sistemi di accumulo termico non sono altro, in realtà, che un’altra “invenzione” per mantenere attive le centrali turbogas e chiedere sussidi per garantire la stabilità della rete. A nostro parere il modo più flessibile per gestire questi buchi è quello di usare blocchi di batterie di grande potenza (400 MW), come stanno facendo in California; oppure, tramite pompaggi nelle dighe.

– In tutto il PNRR non c’è neppure un cenno sulla filiera dei sistemi di accumulo in batteria. Tutto il settore elettrochimico è stato trascurato, quando invece potrebbe essere un asse strategico considerato anche che in Italia abbiamo gruppi di ricerca di eccellenza in questo settore. La produzione delle batterie è “meccatronica di precisione” e in questo campo nel nord Italia ci sono eccellenti industrie.

– Sostenere la mobilità elettrica incentivando stazioni di ricarica non è strategico in quanto queste stazioni saranno certamente realizzate anche senza sussidi con l’aumento delle automobili circolanti. Occorre invece incentivare l’allacciamento delle colonnine in modo diffuso. Il 20% del costo di installazione (2500 euro su 14 mila euro, per una colonnina da 22 kW) è dovuto alla richiesta del contatore.

– La strategia sull’idrogeno, di cui si parlerà diffusamente in seguito, deve essere focalizzata soltanto su tre settori: aeronautica, nautica e grandi produzioni industriali. Treni e autoarticolati devono essere alimentati con elettricità implementando la rete di distribuzione per i primi e la rete di ricarica   veloce per i secondi.

– Non è strategico produrre idrogeno verde (con rendimenti non superiori al 30% e l’annesso consumo di acqua) per poi bruciarlo in centrali turbogas in sostituzione del gas metano. Questa è pura “follia” energetica, si avrebbero rendimenti complessivi del solo 10%.

– La produzione di idrogeno è nettamente in contrasto con la “Tutela del territorio e della risorsa idrica” tanto che nel Piano mancano scenari su quello che dovrebbe essere il consumo di suolo legato alla produzione di energia rinnovabile necessaria per produrre l’idrogeno.

2. Mitigazione degli impatti climatici

Il PNRR afferma (pag.13): “La transizione ecologica sarà la base del nuovo modello economico e sociale di sviluppo su scala globale, in linea con l’Agenda 2030 per lo Sviluppo Sostenibile delle Nazioni Unite. Per avviarla sarà necessario, in primo luogo, ridurre drasticamente le emissioni di gas clima-alteranti in linea con gli obiettivi dell’Accordo di Parigi e del Green Deal europeo”. Per raggiungere questo obiettivo sarà necessaria una revisione del PNIEC

A pag.76 del PNRR si riportano le cifre della questione: emissioni nazionali di riferimento (1990) 516 MtCO2eq.; riduzione necessaria al 2030: -55%. Quindi al 2030 le emissioni non dovranno superare 516×0.45=232 MtCO2eq. Questo significa che in questi 10 anni occorre tagliare le emissioni di circa 160 MtCO2eq.

Sempre a pag.76 si evidenzia la grande occasione di finanziare un cambiamento di passo significativo: “Gli investimenti in cui si concretizzano le quattro componenti della missione Rivoluzione verde e transizione ecologica sono distribuiti su diverse linee progettuali per un ammontare complessivo di risorse pari a 68,9 miliardi di euro.” A tale proposito il PNRR rimanda a “ulteriori analisi pertinenti alla capacità di raggiungere con efficacia ed efficienza gli obiettivi PNIEC”. Tuttavia, non si parla del metodo con cui misurare la capacità di realizzazione dei “cantieri” che saranno finanziati.

Va dunque individuato e applicato un metodo capace di:

a) fare lo screening dei progetti (Rilevante/Non Rilevante ai fini dell’obiettivo di riduzione delle emissioni).

b) quantificare per i progetti Rilevanti il bilancio delle emissioni climalteranti dalla data di inizio di cantiere (i cantieri aumentano le emissioni rispetto a far nulla) fino al 2030.

Come apparato tecnico per l’individuazione del metodo di analisi e l’applicazione del metodo agli interventi indicati nel Piano possiamo suggerire SNPA

A margine, notiamo che il dimensionamento dei parchi agrisolari appare incongruente: “si punterà ad ottenere entro il 2026 una superficie coperta con pannelli fotovoltaici pari a 13.250 mq, tale da produrre 1.300-1.400 GWh a regime.”

3. Adattamento alla crisi climatica

A nostro parere i fondi pianificati per l’adattamento ai cambiamenti climatici (finalizzato ad accrescere la resilienza climatica del territorio, includendo i vari settori socio-economici, le infrastrutture e gli ecosistemi) sono veramente pochi

In particolare, è stata data poca attenzione al grande e trasversale tema del “climate proofing” con riguardo alla resilienza climatica e al tema della “perdita di biodiversità e degrado degli ecosistemi”.

Questo è evidenziato anche dagli scarsi fondi pianificati per la sostenibilità delle aree urbane – un tema molto complesso per il territorio Italiano che deve tener conto di sfide non solo ambientali, climatiche, energetiche, urbanistiche, ma anche di preservazione di importanti e unici beni culturali.

A nostro parere c’è il rischio di una non continuità nelle azioni proposte e finanziate dai Recovery fund dopo il 2026, in particolare proprio in merito alle tematiche di lotta ai cambiamenti climatici e alla perdita di biodiversità.

Questo rischio potrà essere amplificato dalla mancanza di una definizione nel PNRR di una governance unica finalizzata alla pianificazione e coordinazione dei progetti.

Questa governance dovrebbe:

a) integrarsi nelle strutture settoriali già esistenti (e.g., gestione risorse idriche);

b) applicare le varie modalità più efficienti di processi partecipativi;

c) fare buon uso di uno schema di monitoraggio/valutazione dell’efficacia nella attuazione delle nuove misure mediante consistenti ed efficaci indicatori.

Occorre infine finanziare tecnologie verdi per la resilienza urbana come strumenti indispensabili all’adattamento delle nostre città ai cambiamenti climatici, come viene fatto per tante città europee.

(continua)