Informazioni su devoldev

chemist, university researcher, marxian, peakoiler,climate worried, bridge player, Mozart/Vivaldi loving, pedal biker

Commenti alla PROPOSTA DI PIANO NAZIONALE INTEGRATO PER L’ENERGIA E IL CLIMA

In evidenza

15 marzo 2019

Gruppo di scienziati energia per litalia

Commenti alla

PROPOSTA DI PIANO NAZIONALE INTEGRATO PER L’ENERGIA E IL CLIMA 31/12/2018

Introduzione

Nella conferenza COP21 di Parigi (2015) si è unanimemente riconosciuto che il cambiamento climatico è il più preoccupante problema per l’umanità e si è individuato un percorso per fermarlo: la transizione dai combustibili fossili alle energie rinnovabili entro il 2050. Nella COP24 del dicembre scorso a Katowice il segretario dell’ONU Guterres ha dichiarato però che “il mondo è fuori rotta” e gli scienziati dell’IPCC hanno lanciato “un’ultima chiamata” per salvare il pianeta.

Il Piano Nazionale Integrato per l’Energia e il Clima presentato dal Governo deve necessariamente inserirsi in questo quadro. Nel Piano sono presentate molte proposte sulle quali non si può non essere d’accordo, come, la necessità di riorganizzare e potenziare i sistemi di accumulo, l’autoconsumo e la formazione di comunità energetiche. Altri punti pienamente condivisibili sono: l’urgenza di superare le attuali criticità nella distribuzione dell’energia e nell’integrazione del mercato, l’individuazione di meccanismi per risolvere il problema della povertà energetica, la necessità di aumentare i fondi e ridurre la frammentazione nei finanziamenti delle ricerche sull’energia e di promuovere un’azione di informazione e formazione delle persone
Chi si aspettava però un piano capace di riportare l’Italia nella “rotta giusta” e di rispondere “all’ultima chiamata” degli scienziati rimarrà deluso.

Energia primaria e mix energetico

Il Piano prevede una diminuzione del consumo di energia primaria, da 155 Mtep nel 2016 a 135 Mtep nel 2030: si tratta di una diminuzione di poco maggiore (5%) rispetto a quanto accadrebbe senza le misure proposte dal Piano stesso. Il mix energetico al 2030 non cambia molto rispetto a quello del 2016: viene confermata l’uscita dal carbone, ma il petrolio diminuisce solo da 36% al 31%, il gas rimane addirittura invariato al 37% e le rinnovabili aumentano soltanto dal 18% al 28%. Questi dati sono molto deludenti, tanto più che in questo modo al 2030 la quota delle rinnovabili sarebbe ancora minore sia di quella del petrolio che di quella del gas, prese separatamente. Per il mix energetico il Piano si spinge al 2040, prevedendo che la fonte prevalente di energia primaria saranno ancora i combustibili fossili (circa 65%). Questi obiettivi riguardo il mix energetico, del tutto insoddisfacenti, sono la conseguenza inevitabile di un Piano che si preoccupa di facilitare e potenziare, anziché di limitare, l’approvvigionamento e l’utilizzo di gas e petrolio. Evidentemente nella stesura del Piano ci sono state forti pressioni delle lobby che hanno interessi nella ricerca ed estrazione di idrocarburi, nell’importazione di GNL e nella messa in opera di strutture per la sua di distribuzione, e nel completamento della TAP, che pure una delle forze politiche che guida il paese sembrava volesse eliminare. Fa parte di queste pressioni il ricatto “diminuzione oil & gas uguale perdita di posti di lavoro”, anche se tutti gli studi dimostrano che il bilancio fra posti persi e posti creati nella transizione dai combustibili fossili alle energie rinnovabili sarà positivo perché l’intensità di lavoro nelle rinnovabili (industria manifatturiera) è più alto di quello che si ha nell’industria estrattiva [1,2].

Persino nel settore dell’energia elettrica, in cui le rinnovabili sono partite da una posizione molto avvantaggiata grazie all’idroelettrico preesistente, secondo il Piano più di un terzo della produzione elettrica verrà ancora da fonti fossili nel 2030. In questo settore si potrebbe certamente fare di più perché nel 2018 c’è stata una diminuzione del 27% nel costo dei pannelli fotovoltaici. Inoltre, la quantità di celle fabbricabili con un lingotto di silicio puro è destinata ad aumentare ulteriormente grazie al progresso tecnologico e si ritiene che ben prima del 2030 si svilupperanno pannelli con moduli flessibili di uso più generale. Il Piano prevede, e non si può che essere d’accordo, l’individuazione di aree idonee per la realizzazione di nuovi impianti di eolico e fotovoltaico, il repowering e rewamping degli impianti già esistenti, il potenziamento dell’obbligo di quota minima negli edifici nuovi o ristrutturati e snellimento delle pratiche burocratiche. La previsione di raggiungere con le rinnovabili 187 TWh nel 2030 (38.7% della produzione elettrica) è però deludente e notevolmente inferiore alla previsione del Coordinamento FREE (210 TWh) [3].

Per quanto riguarda la riduzione delle emissioni, il Piano si adagia sulle prescrizione della UE (riduzione delle emissioni del 40% al 2030), mentre il Parlamento europeo ha già chiesto che la riduzione sia portata 55%. Anche chi aspettava misure più conseguenti al tanto sbandierato principio “chi inquina paga” sarà deluso. Nel Piano, infatti, non c’è traccia della carbon tax [4], provvedimento molto delicato, ma necessario per la transizione energetica.

Risparmio ed efficienza

In base alle norme europee, nel periodo 2021-2030 siamo tenuti a ridurre il consumo di circa 51 Mtep. Il Piano afferma che si raggiungerà questo obiettivo risparmiando ogni anno lo 0,8% di energia rispetto ai consumi dell’anno precedente. Questo risparmio si otterrà, in gran parte adeguando e potenziando gli strumenti di sostegno già in vigore: (i) il meccanismo dei Certificati Bianchi; (2) le detrazioni fiscali per gli interventi di efficienza energetica e il recupero del patrimonio edilizio esistente; (iii) il Conto Termico; (iv) il Fondo Nazionale per l’Efficienza Energetica. Un forte contributo dovrà poi venire dal settore dei trasporti.

Il Piano prevede grandi risparmi di energia termica derivanti da una forte diffusione delle reti di teleriscaldamento alimentate da centrali termoelettriche a cogenerazione,

biomasse, o termovalorizzazione dei rifiuti (Figura 47), mentre insiste molto meno sulla opportunità di diffondere l’uso di solare termico e di pompe di calore.
La difficoltà di ridurre i consumi energetici aumentando l’efficienza è materia di vasta discussione nella letteratura scientifica [5,6]. Per raggiungere l’obiettivo prefisso sarà necessaria l’attuazione di un serio programma informativo e formativo per i cittadini, molto più incisivo dei tentativi fatti finora. Bisogna partire dal concetto di sufficienza, cioè convincere le persone e, se necessario, obbligarle mediante opportune disposizioni di legge, a ridurre l’uso dei servizi energetici. Per consumare meno, bisogna anzitutto “fare meno”: meno viaggi, minor velocità, meno luce, meno riscaldamento. Se poi tutto quello che si usa dopo aver adottato la strategia della sufficienza è più efficiente, si avrà un risparmio ancora maggiore: è il fare meno (sufficienza) con meno (efficienza).

La recente proposta di aumentare il limite di velocità in autostrada a 150 km/ora e il continuo aumento del numero, delle dimensioni e della potenza delle auto che costituiscono il parco macchine italiano non contribuiscono certamente a ridurre i consumi. Il Piano non affronta questi argomenti.

Trasporti

Nel settore dei trasporti le politiche del Piano sono deludenti. Anzitutto c’è un equivoco, purtroppo molto diffuso, dovuto anche a disposizioni di legge precedenti: si parla di “carburanti alternativi” indicando con questo nome biocarburanti, elettricità da rinnovabili, idrogeno e a volte anche gas naturale, cose che non potrebbero essere più diverse fra loro. Ad esempio (pag. 88) , “Ci si propone di accelerare quanto previsto dal comma 10 del D.Lgs 275/2016…… per la sostituzione del parco autovetture, autobus e mezzi di servizio in modo che le Pubbliche Amministrazioni …. siano obbligate all’acquisto di almeno il 30% entro il 2022, il 50% entro il 2025 e l’85% entro il 2030 di veicoli elettrici e veicoli ibridi con ricarica esterna, a metano e a idrogeno, nonché elettrici o metano nel caso degli autobus”.

Il Piano è chiaramente orientato per continuare con l’uso dei combustibili fossili. Manca qualsiasi accenno a una data indicativa per il phase out dei veicoli a benzina e diesel, fissata per il 2025 in Olanda e per il 2040 in Francia e Regno Unito. Il Piano a parole sostiene la diffusione della mobilità elettrica per persone e merci, ma si propone come obiettivo soltanto 1,6 milioni di auto elettriche “pure” nel 2030, in contrasto con stime molto superiori di altre fonti che si basano anche sulla forte riduzione nel costo delle batterie che avverrà nei prossimi anni. Ma l’energia elettrica che sarà usata nei trasporti nel 2030 sarà ancora prodotta per quasi il 40% usando combustibili fossili, per cui la penetrazioni delle rinnovabili nel settore dei trasporti stradali è affidata prevalentemente ad una selva di norme e agevolazioni per l’uso dei biocarburanti (vide infra).

Il Piano, in accordo con le compagnie petrolifere, incoraggia l’uso del metano non solo per la produzione di elettricità, ma anche come “combustibile ponte” per la mobilità. E’ vero che a parità di energia prodotta, il metano genera il 24% in meno di CO2 rispetto a benzina e gasolio, ma questo non basta per combattere il cambiamento climatico in modo sostanziale. Inoltre, va tenuto presente che Il metano è un gas serra 72 volte più potente di CO2. Poiché nella lunga filiera del metano si stima ci siano perdite di almeno il 3% rispetto alla quantità di gas usato, passando dal carbone e dal petrolio al metano c’è il rischio di peggiorare la situazione riguardo gli effetti sul clima [7]. Anche per quanto riguarda l’inquinamento, gli studi più recenti [8] indicano che il particolato prodotto dalla combustione del metano è, come massa, inferiore a quello prodotto dal gasolio, ma le particelle sono in numero superiore e più piccole, quindi potenzialmente più pericolose per la salute. Pertanto, non ha senso considerare il metano come combustibile “pulito” e come fonte energetica “alternativa” al carbone e al petrolio [9]. Questo importante concetto è ignorato dal Piano che ha per obiettivo nel 2040 una quota del 37% di energia primaria da metano, la stessa del 2016.

Nel Piano non c’è alcuna recriminazione sul fatto che le case automobilistiche italiane continuano a produrre auto a benzina o diesel e si dedicano in particolare alla fabbricazione di auto di lusso e/o di SUV, utilizzando incentivi diretti o indiretti. La FCA ha annunciato che, accanto ai SUV Alfa Romeo e Lancia che già produce, costruirà a Modena, dove gli operai della Maserati sono sotto occupati, una nuova super sportiva ad alta gamma a partire dall’autunno 2020. Ci si dovrebbe interrogare su quale sia il “valore sociale” di questo tipo di “lavoro” e sarebbe anche opportuno chiedersi per quanto tempo potranno andare avanti queste produzioni prima di trovare rifugio, ancora una volta, negli ammortizzatori sociali. Nel frattempo sempre FCA ha annunciato, in grave ritardo rispetto ai concorrenti tedeschi e francesi, la produzione di un veicolo elettrico, la 500, a partire dalla seconda metà del 2020 a Mirafiori, dove nel frattempo verranno messi in cassa integrazione per un anno 3.245 dipendenti, tra operai e dirigenti [10].

Approvvigionamenti di combustibili

l consumo di gas, che era di circa 85 Gm3 all’anno nel periodo 2005-2008, è diminuito negli ultimi anni (75,2 Gm3 nel 2017). Le previsioni SNAM sono per un consumo di 74,3 Gm3 nel 2027 e per una più decisa diminuzione negli anni successivi (70.9 Gm3 nel 2030) [11]. Gli attuali canali di fornitura del metano sono, dunque, più che sufficienti. Nonostante questo, il Piano insiste per la diversificazione degli approvvigionamenti dall’estero di gas e sostiene la necessità di agire su tre fronti: 1) ottimizzare la capacità di importazione e di distribuzione di gas naturale liquefatto (GNL); 2) aprire la TAP entro il 2020 per consentire l’importazione da 8.8 a 18 mld di m3 all’anno; 3) partecipare al progetto EastMed. L’intendimento del Piano, già contenuto nella Strategia Energetica Nazionale del precedente governo, è fare dell’Italia un hub del gas: un report di SNAM chiarisce infatti che importiamo più gas di quello che serve, per poi esportarne circa l’8% a paesi del Nord Europa.

Per quanto riguarda il GNL, il Piano parte dalla considerazione che sono già su strada più di 2000 veicoli pesanti che usano questo combustibile. Prevedendo una forte crescita nel numero di questi veicoli, il Piano sostiene la necessità di sviluppare una rete di distribuzione GNL lungo i 3000 km di autostrade, mentre dovrebbe incoraggiare con iniziative concrete il passaggio del trasporto merci dalla strada alla rotaia o alle vie marittime, che pure a parole dice di voler sostenere coniando due nuovi tipi di incentivi, Ferrobonus e Marebonus.

C’è il rischio reale di costruire infrastrutture per il gas che rimarranno inutilizzate o sotto utilizzate, con spreco di denaro pubblico. Poi, al solito, ci saranno forti pressioni perché “ormai ci sono e quindi vanno utilizzate”, come accade per le centrali termoelettriche a carbone, la cui chiusura è condizionata alla concessione di compensazioni per il mancato uso, e le centrali a turbogas che vanno remunerate anche se funzionano solo parzialmente, perché troppo numerose. Poiché in futuro per vari motivi si produrrà e si userà sempre più energia elettrica, sarebbe meglio investire ancor di più di quanto previsti nel Piano in sistemi di accumulo dell’elettricità, piuttosto che in impianti di stoccaggio geologico del gas di importazione, con tutte le problematiche di sicurezza che ne derivano (vedi deposito di Minerbio).

Più in generale, le compagnie petrolifere, non avendo interesse nel carbone, sono d’accordo per la progressiva sostituzione delle centrali termoelettriche a carbone con centrali turbogas a metano, vedendo in questa trasformazione non solo un interesse economico, ma anche il modo di ridurre le preoccupazioni dell’opinione pubblica. Le compagnie petrolifere hanno anche capito che l’uso del gasolio per i trasporti non sarà difendibile a lungo dopo il diesel gate e le notizie sul più recente accordo delle industrie automobilistica tedesca di rallentare, per contenere i costi, lo sviluppo di tecnologie in grado di ridurre le emissioni dei motori a benzina e a gasolio [12]. Ufficialmente le compagnie petrolifere sostengono che è necessario usare il gas come energia ponte in attesa che le rinnovabili siano “mature”, ma in realtà, come è emerso alla World Gas Conference (Washington, 29 giugno 2018), pensano al gas come il combustibile “pulito” del futuro. Quindi c’è una forte spinta anche nel settore dei trasporti per passare al gas, spacciandolo per fonte alternativa al pari dell’energia elettrica. Ma è provato che, se anche l’energia elettrica fosse tutta ottenuta dal gas, sarebbe ugualmente più conveniente perché i motori elettrici sono 3-4 volte più efficienti di quelli a combustione [9].

Biocarburanti

Quello sui biocarburanti è un discorso molto delicato perché tocca grandi interessi economici e molti incentivi, ma è necessario fare chiarezza anche su questo argomento. Come già fece la Strategia Energetica Nazionale del precedente governo, l’attuale Piano incoraggia l’uso di biocarburanti al fine di rimpiazzare i combustibili fossili con fonti rinnovabili. A questa presa di posizione non è certamente estraneo il fatto che ENI ha puntato sulle bioraffinerie, abbondantemente pubblicizzate sulle pagine dei quotidiani fino ad affermare che “in Italia il carburante si otterrà anche dalle bucce di mele” [13].

In linea generale, può essere utile ottenere biocarburanti da prodotti di scarto, ma va anche detto che i prodotti di scarto sono in piccola quantità rispetto al consumo di carburanti. Ecco allora che il biometano di cui parla il Piano non sarà ottenuto solo da scarti e rifiuti, ma dallo “sviluppo di una filiera agricolo/industriale per la produzione di biometano sia da matrice agricola, sia da rifiuti” come chiarisce SNAM [11]. Bisogna rendersi conto che la produzione di biometano o biocarburanti liquidi di prima generazione da prodotti agricoli dedicati non è una soluzione per la mobilità sostenibile. D’altra parte, i biocarburanti di seconda generazione, che sfruttano una frazione maggiore della biomassa non sono affatto in uno stato avanzato.

L’Unione Europea, nel tentativo di abbattere la produzione di CO2, ha concesso agli Stati membri di fornire sussidi per la produzione di biodiesel da miscelare al gasolio di origine fossile. In Italia il biodiesel viene prodotto da ENI in massima parte con olio di palma proveniente da Paesi equatoriali. E’ noto [14] che il biodiesel prodotto in questo modo genera quantità di CO2 maggiori del gasolio fossile perché per creare piantagioni di olio di palma vengono abbattute foreste tropicali che hanno un’azione positiva sul clima. Per rimediare a questo errore, che gli scienziati avevano segnalato da tempo, il Parlamento Europeo, nel gennaio 2018 ha votato per escludere entro il 2020 l’olio di palma dai sussidi per il biodiesel. Il provvedimento però non è stato ancora approvato dalla Commissione Europea. Nel frattempo, la Norvegia è stata presentata una petizione per chiedere all’Esecutivo comunitario di rispettare gli impegni presi con il Parlamento UE per far cessare subito i sussidi e anticipare entro il 2025 la messa al bando dell’olio di palma nei biocarburanti prevista al momento per il 2030. E’ il solito ricatto: ormai le bioraffinerie ci sono e bisogna usarle, altrimenti si perdono posti di lavoro.
Su un piano più generale, per rappresentare un’alternativa credibile ai combustibili fossili i biocarburanti devono (a) fornire un guadagno energetico (EROEI>1), (b) offrire benefici dal punto di vista ambientale, (c) essere economicamente sostenibili e (d) non competere con la produzione di cibo. Molto spesso queste condizioni, in particolare la prima e l’ultima, non sono verificate.
I biocarburanti non possono giocare un ruolo importante nelle transizione energetica semplicemente perché l’efficienza della fotosintesi naturale è molto bassa (0,1-0,2%) e la ricerca scientifica mostra che non è possibile aumentarla in modo significativo. E’ evidente che il trasporto (a volte su lunghe distanze) e il processo di raffinazione delle biomasse contribuiscono ad abbassare ulteriormente l’EROEI dei biocarburanti, ma dati attendibili su questo parametro non vengono mai forniti dai produttori. Ma gli scienziati sanno che l’efficienza di conversione dei fotoni del sole in energia meccanica delle ruote di un’automobile (sun-to-wheels efficiency) è più di 100 volte superiore per la filiera che dal fotovoltaico porta alle auto elettriche rispetto alla filiera che dalle biomasse porta alle auto alimentate da biocarburanti [15]. Questo spiega perché gli esperti, al contrario di quanto si propone il Piano, non prevedono una sostituzione significativa dei  combustibili fossili con biocarburanti, ma una rapida, dirompente diffusione delle auto elettriche. La cosa non meraviglia perché i motori elettrici, oltre a non produrre CO2, non inquinano, sono quattro volte più efficienti dei motori a combustione interna, sono molto più facili da riparare e meno costosi da mantenere. Un ultimo grande vantaggio dell’alimentazione elettrica è che l’energia si può ottenere senza occupare suolo agricolo, ma collocando i pannelli fotovoltaici sui tetti e su altre aree inidonee alla agricoltura.

La non sostenibilità dei biocarburanti in Italia balza all’occhio anche dai dati riportati nel Piano (Figure 14 e 15): il 50% della produzione delle 997 mila tonnellate di materie prime consumate nel 2017 veniva dall’Indonesia, il 38% da altri paesi e solo il 12% dall’Italia; la materia prima è era costituita in gran parte da olii vegetali (in particolare, olio di palma), con un 5% di colture dedicate (grano, mais, soia), che probabilmente erano il principale contributo italiano.

Sicurezza e energetica

Il Piano prevede (pag. 191) che la dipendenza energetica, essenzialmente dovuta all’importazioni di petrolio e metano, diminuisca dal 77,5% nel 2016 al 72,7% nel 2025, al 71,2% nel 2030 e al 67,2 neo 2040. Con una diminuzione così lenta, non si capisce come faremo ad eliminare i combustibili fossili entro il 2050.

Il Piano si prefigge di assicurare la sicurezza energetica aumentando e differenziando le connessioni internazionali sia per la rete gas che per quella elettrica e con la formazione di scorte di sicurezza per il petrolio. Come già sottolineato, c’è il rischio concreto di costruire infrastrutture, specie nella visione di fare dell’Italia un hub del gas, che rimarranno inutilizzate o sotto utilizzate. La vera sicurezza energetica, quella che potrebbero fornirci le energie rinnovabili, non viene perseguita.

Ricerca, innovazione, formazione, cultura

Per quanto riguarda la ricerca, il Piano lamenta giustamente la scarsa disponibilità di fondi, la frammentazione dei finanziamenti e la carenza di coordinamento. Andrebbe sottolineata anche la necessità che la politica si giovi della disponibilità e dell’esperienza degli scienziati, cosa che negli ultimi anni non è avvenuta.

Per quanto riguarda i fondi per l’innovazione, nel Piano viene giustamente sottolineato che l’innovazione nel settore della sostenibilità ecologica ed energetica deve avere priorità, discorso che può sembrare ovvio, ma che ovvio non è poiché si premia ancora l’innovazione nelle ricerche petrolifere e nell’energia nucleare. Anche se il futuro è già presente, il passato non vuole passare.

il Piano si propone anche di rivedere il sistema degli incentivi e a questo proposito riporta che da una recente indagine del Ministero dell’Ambiente sono state individuate 57 misure che hanno un impatto in campo energetico per un totale di 30,6 mld€ nel 2017; di questi, 16,9 mld€ sono costituiti da sovvenzioni ai combustibili fossili (altro che“carbon tax”!), mentre i sussidi a fonti con impatto ambientale favorevole ammontano a 13,7 miliardi. Dunque, l’uso dei i combustibili fossili, responsabili per il cambiamento climatico e i danni alla salute dell’uomo, è ancora oggi incentivato più delle energie rinnovabili, che ci salveranno da queste sciagure.

Conclusione

In base agli accordi di Parigi e al successivo riesame della situazione presentato a Katowice si devono ridurre le emissioni di CO2 del 45% entro il 2030 e a zero al 2050. Il primo obiettivo che ogni Paese dovrebbe proporsi oggi è quindi una rapida transizione energetica. Non sembra che il Piano proposto dal Governo sia molto efficace per svolgere questo compito, poiché non prevede e tanto meno propone una forte riduzione dell’uso dei combustibili fossili e una forte espansione delle rinnovabili. Non accenna neppure alla necessità di facilitare, con opportune strutture stradali, la mobilità ciclistica, che ha anche un forte potenziale turistico.

Nel Piano c’è un ossequioso rispetto per gli obiettivi che l’Unione Europea si è data per il 2030, ma non ci sono idee originali e tanto meno proposte concrete per andare oltre quegli obiettivi, come converrebbe ad un Paese come l’Italia che ha abbondanti energie rinnovabili, una affermata industria manifatturiera, scarsissimi combustibili fossili, forte dipendenza energetica dall’estero e che è molto colpita nella sua vocazione turistica e culturale dai cambiamenti climatici e dall’inquinamento. Bisognerebbe finalmente capire che per avere energia abbiamo “bruciato” più di quello che si poteva “bruciare”, che l’agricoltura deve essere utilizzata solo per l’alimentazione e che il futuro è nell’energia elettrica rinnovabile.

Quello proposto dal Governo è un Piano che sembra non rendersi conto che la transizione energetica dai combustibili fossili alle energie rinnovabili è non solo necessaria, ma inevitabile e che assecondarla e anticiparla è una grande opportunità di crescita economica e riduzione dei costi causati dagli impatti ambientali e climatici. Compito del Piano dovrebbe essere anche quello gettare le basi per il passaggio dal consumismo e dall’usa e getta dell’economia lineare ad una economia circolare caratterizzata dalla sobrietà. L’Italia, che per decenni ha caricato pesanti debiti sulle spalle delle future generazioni, può e deve trovare nella transizione energetica l’occasione per un netto cambiamento di rotta che le permetterebbe anche di assumere un ruolo di guida all’interno della Unione Europea.

[1] http://www.irena.org/publications/2018/Apr/Global-Energy-Transition-A-Roadmap- to-2050
[2] M.Z. Jacobson, et al., Joule, 2017, 1, 108-21. http://dx.doi.org/10.1016/j.joule.2017.07.005

[3] https://energiaoltre.it/wp-content/…/11/Position-paper-Coordinamento-FREE-2.pdf [4] https://www.rivistamicron.it/corsivo/la- -e-possibile-a-patto-che/
[5] http://www.eueduk.com/bedazzled-energy-efficiency/

carbon-

tax

8

[6] E. Shove, BuildingResearch&Information, 2018, 46(7), 779.
[7] priceofoil.org/2017/11/09/burning-the-gas-bridge-fuel-myth/
[8] T. Wang et al., Environ. Sci. Technol., 2017, 51, 6990.
[9] https://www.transportenvironment.org/sites/te/files/2018_10_TE_GNC_e_GNL_per_au to_e_navi_ITA.pdf
[10] http://www.hdmotori.it/2018/12/04/fiat-500-elettrica-mirafiori-cassa-prezzi-uscita/
[11] pianodecennale.snamretegas.it/includes/doc/2/2019012208362018- decennale_web.pdf.
[12] https://www.repubblica.it/economia/rubriche/eurobarometro/2018/09/29/news/auto _diesel-207618352/?ref=search.
[13] Si veda, ad esempio, Corriere della Sera, 5 gennaio 2018.
[14] https://www.transportenvironment.org/news/biodiesel-increasing-eu-transport- emissions-4-instead-cutting-co2.
[15] E. Williams et al., Environ. Sci. Technol., 2015, 49, 6394

ENERGIA PER L’ITALIA (http://www.energiaperlitalia.it/energia-per-litalia/) è un gruppo di docenti e ricercatori di Università e Centri di ricerca di Bologna, coordinato dal prof. Vincenzo Balzani (vincenzo.balzani@unibo.it ; tel: 335 264411)

Energia per l’Italia

Vincenzo Balzani (coordinatore), Dipartimento di Chimica “G. Ciamician”, Università Nicola Armaroli, ISOF-CNR

Alberto Bellini, Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, Università

Giacomo Bergamini, Dipartimento di Chimica “G. Ciamician”, Università Enrico Bonatti, Columbia University, Lamont Earth Observatory, ISMAR-CNR

Alessandra Bonoli, Dipartimento di Ingegneria Civile, Chimica, dell’Ambiente e dei Materiali, Università

Carlo Cacciamani, Dipartimento della Protezione Civile Nazionale Romano Camassi, INGV

Sergio Castellari, INGV

Daniela Cavalcoli, Dipartimento di Fisica ed Astronomia, Università

Marco Cervino, ISAC-CNR

Maria Cristina Facchini, ISAC-CNR

Sandro Fuzzi, ISAC-CNR

Luigi Guerra, Dipartimento di Scienze dell’Educazione «Giovanni Maria Bertin», Università

Giulio Marchesini Reggiani, Dipartimento di Scienze Mediche e Chirurgiche, Università Vittorio Marletto, Servizio IdroMeteoClima, ARPA

Enrico Sangiorgi, Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, Università

Leonardo Setti, Dipartimento di Chimica Industriale, Università
Micol Todesco, INGV
Margherita Venturi, Dipartimento di Chimica “G. Ciamician”, Università Stefano Zamagni, Scuola di Economia, Management e Statistica, Università Gabriele Zanini, ENEA-Divisione MET

Sicurezza del lavoro all’Università e nella Scuola.

In evidenza

Claudio Della Volpe

Da quasi 5 anni mi occupo di sicurezza sul lavoro nella mia università; la cosa andò così. Sono sempre stato iscritto ad un sindacato (non vi dico quale, potreste immaginarlo; anche se devo dire che i sindacati non si muovono molto per i docenti universitari, siamo considerati tutto sommato dei privilegiati).

Ad un certo punto il mio sindacato mi contatta e mi chiede di presentarmi come Rappresentante dei lavoratori per la sicurezza. 5 anni fa la cosa non mi impressionò particolarmente; all’epoca vedevo le pur rare richieste da parte dell’ufficio della Sicurezza Prevenzione e Protezione come delle richieste a volte eccessive e comunque molto burocratiche.

Il Rappresentante dei Lavoratori è previsto dalla Legge 81/08 ed è una figura che serve ai lavoratori di qualunque tipo e attività a monitorare, senza obblighi, ma a monitorare cosa succede nel proprio ambiente di lavoro ed eventualmente a fare presenti problemi alla controparte, ossia al Datore di lavoro, oppure nel caso estremo agli organismi esterni di controllo: ispettorati del Lavoro, UO delle ASL e Magistratura del Lavoro.

Attenzione non è che non fossi attento alla sicurezza nel mio laboratorio e nemmeno che fossi contrario, ma mi sentivo sicuro delle mie procedure e dunque poco propenso a perdere altro tempo.

Beh devo dire che questa esperienza mi ha cambiato la vita e mi è servita a rendermi conto che mi sbagliavo.

Prima di 5 anni fa non avevo mai letto la legge 81/08; voi sapete cosa è?

E’ la legge che regola nel nostro paese le questioni relative alla sicurezza sul lavoro. Ha sostituito la precedente 626 che già fu una vera rivoluzione.

Secondo una stima del 2017 della Agenzia per la Salute e la sicurezza sul lavoro europea il costo degli incidenti e delle malattie sul lavoro nell’Europa a 27 è poco meno di 500 miliardi di euro, ossia dell’ordine di 1000 euro a testa all’anno.

(https://osha.europa.eu/en/about-eu-osha/press-room/eu-osha-presents-new-figures-costs-poor-workplace-safety-and-health-world)

che corrispondono a più del 3% del PIL.

Sempre in Europa si stima che il numero di morti sul lavoro (eccettuati quelli avvenuti in itinere, ossia per incidenti stradali legati al lavoro e che sono una percentuale elevata del totale almeno in Italia) sia dovuto come segue:

https://visualisation.osha.europa.eu/osh-costs#!/

In Europa metà di tutti i morti sul lavoro sono legati ad un tumore preso sul posto di lavoro, un quarto a malattie circolatorie ed un altro quarto scarso a malattie muscolo scheletriche anche su base autoimmune e solo il 2% ad incidenti veri e proprii.

Questi dati sono importanti perchè poi quelli che compaiono sui giornali sono solo quel 2%; dunque un enorme numero di morti (ed incidenti e malattie) che hanno a che fare col lavoro non le vediamo quotidianamente.

In quel 2% però non ci sono tutti i morti per incidenti violenti; una parte è mascherata da incidenti stradali per andare al lavoro o tornare a casa.

Infine tenete presente che il numero di morti per cause di lavoro nel mondo è dominato da quelli dovuti alle malattie cardiocircolatorie; in Europa invece il numero dominante è quello dei tumori.

Diciamo subito una cosa; queste statistiche non sono articolate a livello di singolo paese per quanto riguarda le cause di morte; dunque non sono in grado di dirvi se quel 2% vale anche in Italia; supponiamo per un istante che sia vero.

Allora se fosse così in quel 2% ci sarebbero i circa 1000 morti all’anno per motivi di lavoro per INCIDENTE. Se moltiplichiamo il valore per 50 per avere il totale avremmo una stima (ripeto non ho i dati specifici per l’Italia) di quasi 50.000 morti all’anno per motivi legati al lavoro: sarebbero l’8% di tutti i morti di un anno.

Siete sbalorditi? Beh è normale quasi nessuno ci pensa o semplicemente lo sa.

Ma è solo una stima, probabilmente sono di meno. Probabilmente la distribuzione percentuale per l’Italia è diversa, probabilmente le statistiche europee sulla mortalità sono fatte diversamente dalle nostre.

Potete anche criticarmi perchè parto con queste ipotesi di calcolo tutto sommato molto approssimate; ma sono giustificato; in realtà c’è una notevole confusione statistica. Noi chimici ed in genere scienziati della Natura siamo abituati a valori esatti, deviazioni standard valutate con notevole precisione.

Invece in un settore come quello dela sicurezza sul lavoro non potete immaginare quante approssimazioni e mancanze ci siano; a partire dal fatto che i valori ufficiali INAIL riguardano solo gli assicurati INAIL e non tutti i lavoratori lo sono; per legge. A partire dal fatto che i dati non sono aggiornati in tempo reale e vengono cambiati spesso DOPO l’anno considerato; questo perchè le stime sono soggette a conclusioni giuridiche che arrivano in ritardo sui fatti nudi e crudi.

Ecco perchè sono nati molti gruppi di lavoro, siti internet dedicati a questo tema che cercano di denunciare tutti i casi che vengono alla luce, per esempio l’Osservatorio Indipendente di Bologna gestito da un pensionato, Carlo Soricelli.

http://cadutisullavoro.blogspot.com/

Ma torniamo alla questione che da il titolo al post.

L’università.

Bene allora diciamo subito che a norma della legge 81 art 2 comma a è un lavoratore fra l’altro: l’allievo degli istituti di istruzione ed universitari e il partecipante ai corsi di formazione professionale nei quali si faccia uso di laboratori, attrezzature di lavoro in genere, agenti chimici, fisici e biologici, ivi comprese le apparecchiature fornite di videoterminali limitatamente ai periodi in cui l’allievo sia effettivamente applicato alla strumentazioni o ai laboratori in questione;

Questo comporta da parte del Datore di lavoro una serie di obblighi a partire da una formazione generale e specifica della durata di 12 ore almeno.

Questa formazione deve esere somministrata PRIMA dell’accesso ai laboratori o dell’uso delle apparecchiature.

Da voi si fa? Nella mia Università noi RLS ossia rappresentanti dei lavoratori (siamo 6 al momento di cui solo io docente) siamo riusciti a spingere l’Università a iniziare questo percorso. I corsi devono essere somministrati da personale qualificato in classi di non più di 35 persone e seguiti da un test di verifica.

L’Università, come molte altre istituzioni statali (ospedali, forze armate, scuole in genere, carceri, etc ) è prevista esplicitamente nella 81/08 ma vi si dice anche che saranno emanate norme specifiche a causa delle condizioni particolari di svolgimento del lavoro; in realtà a parte un caso (quello dei volontari) tali norme non sono state emanate, lasciando la situazione in colpevole assenza e costringendo molte istituzioni ad arrangiarsi. Si dice che in Italia ci siano troppe leggi; beh qua invece mancano.

Per le Università inoltre esiste una legge specifica, il decreto ministeriale 363/98, che non è mai stata abrogata ma nemmeno aggiornata e dunque rimane valida con ulteriore problema.

Il Datore di Lavoro dell’Università è il Rettore a meno che non abbia delegato ad altri, per esempio ai Direttori di Dipartimento, delega che prevede prima di tutto la possibilità di spendere, di avere autonomia di spesa sul tema. Dunque in genere il Rettore è il responsabile di ultima istanza se si verificano problemi; e sicuramente lo è per la mancata formazione degli studenti ma anche del personale, compresi noi stessi, che pure possiamo essere considerati preposti degli studenti e dei tecnici. Nelle scuole il Datore di Lavoro è il Dirigente scolastico.

Il tema è complesso ma assolutamente urgente; non conosco casi specifici di altre Università a parte il famoso “caso Catania”, che ha avuto l’onore di un film (Col fiato sospeso), e che per quanto mi consta è la punta dell’iceberg. Conoscendo le condizioni di lavoro dellla mia Università so che ci sono molti punti da migliorare o perfino da iniziare ad affrontare: locali interrati non derogati (quanti laboratori sono interrati senza motivi tecnici e opportune metodiche di gestione?), misure antincendio non attuate (le Università sono luoghi a rischio incendio alto a causa del numero dei frequentanti), documenti di valutazione del rischio non realistici o veritieri, e potrei continuare a lungo.

Non aspettiamo un secondo caso Catania, non potremmo sopportarlo di fronte ad una opinione pubblica molto critica con l’università; facciamoci parte dirigente in un processo di aggiornamento e di attuazione delle norme di sicurezza in tutte le Università a partire dai nostri laboratori.

Concludo dicendo che molte scuole tecniche su questo sono anni luce avanti.

L’ambiente al Portico della Pace.

In evidenza

Vincenzo Balzani

PORTICO DELLA PACE

luogo interculturale interreligioso interconfessionale intergenerazionale di incontro e di lavoro di tutte le donne e uomini costruttori di pace a Bologna

Portico della Pace, 2 marzo 2019, Piazza Maggiore, Bologna

Buon pomeriggio, grazie per la presentazione, sono molto contento di essere qui per partecipare, con tutti voi, a questo presidio. Siamo qui, in tanti, per dimostrare che è possibile organizzare una resistenza pacifica e democratica contro chi chiude confini, alza muri, rifiuta cooperazione e solidarietà, provoca ed esalta le disuguaglianze.

Mi è stato chiesto di parlare dell’ambiente, una parola che oggi, nel suo significato più comune, si riferisce al clima, all’inquinamento e alla natura considerata come un patrimonio da proteggere. Ma l’ambiente non riguarda solo la natura; l’ambiente è anche l’insieme delle condizioni sociali e culturali in cui viviamo. L’ambiente comprende il pianeta e anche noi che ci viviamo sopra.

Quello dell’ambiente, quindi, è un tema, e anche un problema, molto importante. Un grande scrittore, Italo Calvino era solito dire: “Se vuoi capire bene le cose importanti, prima di tutto devi guardarle da lontano”. Uno dei primi uomini che ha visto da lontano la Terra è stato William Anders, un’astronauta della missione Apollo 8 che, nel 1968, la vigilia di Natale, era in orbita attorno alla Luna. All’improvviso apparve agli astronauti uno spettacolo che nessuno prima aveva mai visto: il sorgere della Terra, la Terra che usciva dal cono d’ombra della luna. Sbalordito, William Anders fece una fotografia, che ancor oggi è considerata fra le cento foto più importanti. Scattò quella foto e un attimo dopo disse: “Siamo venuti fin quassù per esplorare la luna e la cosa più importante è che abbiamo capito cos’è la Terra”. Aveva ragione Calvino: per capire le cose importanti, bisogna prima guardarle da lontano.

Quando si guarda la Terra da lontano, ci si rende conto quale sia la nostra condizione, il nostro ambiente: appare chiaro che siamo passeggeri di una specie di astronave che viaggia nell’infinità dell’universo. Su questa astronave siamo in tanti e così diversi: bianchi, neri gialli, ricchi e poveri, buoni e cattivi; nessuno se ne può andare, se non morendo, nessuno può arrivare da fuori: bisogna nascerci dentro. La Terra, dunque, è una astronave, ma un’astronave del tutto speciale perché non potrà mai atterrare da nessuna parte, non potrà mai attraccare a nessun porto per far rifornimento o scaricare rifiuti. E se qualcosa non funziona, se qualcosa si rompe dovremo ripararla da soli, senza neppure scendere.

Si capisce, allora, che siamo in un a situazione molto delicata. Quindi, questa astronave Terra, questo unico luogo dove possiamo vivere vivere, questa nostra casa Comune come la Chiama papa Francesco, va custodita con grande attenzione. Purtroppo, non lo stiamo facendo. Lo dicono gli scienziati come Lester Brown che ha scritto un libro per ammonire che siamo vicini al collasso, siamo sull’orlo del baratro; lo dice anche papa Francesco nell’ enciclica laudato si’:

“Le previsioni catastrofiche ormai non si possono più guardare con disprezzo e ironia. Lo stile di vita attuale, essendo insostenibile, può sfociare solo in catastrofi”.

Che la situazione sia critica lo aveva già capito, tempo fa, un grande filosofo, Hans Jonas:

... è lo smisurato potere che ci siamo dati, su noi stessi e sull’ambiente, sono le immani dimensioni causali di questo potere ad imporci di sapere che cosa stiamo facendo e di scegliere in che direzione andare”.

Se dobbiamo imporci di sapere cosa stiamo facendo, vuol dire che stiamo sbagliando qualcosa, che non abbiamo capito come si deve vivere su questa Terra, su questa allora astronave. Cerchiamo allora di capire insieme cosa c’è che non va.

Dobbiamo vivere, e per vivere ci vogliono risorse. L’unica risorsa proveniente dall’esterno su cui possiamo contare è la luce del sole. Tutte le altre risorse dobbiamo prenderle dalla Terra. Ora la Terra ha dimensioni “finite”, è quella che è, non è grande come la voglio io: siccome la Terra ha dimensioni finite, le risorse della Terra sono limitate. Sembrerebbe un concetto ovvio, ma evidentemente non lo è se papa Francesco nell’enciclica deve scrivere:

“L’idea di una crescita infinita, che tanto entusiasma gli economisti, è basata sul falso presupposto che esiste una quantità illimitata di risorse”.

Falso presupposto, perché non è vero che le risorse sono illimitate. Sono limitate, e dobbiamo tenerne conto in tutto quello che facciamo. Ne deriva che il PIL (prodotto interno lordo), parametro che è basato sull’idea di una crescita infinita, è un non senso.

Poi c’è l’altra faccia della medaglia: ogni volta che si utilizzano risorse, si producono rifiuti. Esempio: uso la risorsa carbone, produco il rifiuto anidride carbonica CO2. E siccome la Terra ha dimensioni finite, anche lo spazio disponibile per collocare I rifiuti è limitato. Altro concetto che sembrerebbe ovvio, ma evidentemente neanche questo lo è se papa Francesco nell’enciclica deve scrivere:

“L’uomo pensa di essere di fronte ad una natura che può essere sfruttata senza problemi perché gli effetti negativi dello sfruttamento possono essere eliminati”.

Non è affatto vero che i rifiuti possono essere eliminati; non possiamo metterli in un non luogo che appunto non c’è. I rifiuti dobbiamo tenerceli qui, sulla Terra.

Vediamo ora perché la situazione risorse/rifiuti è insostenibile. Prendiamo il caso della risorsa più importante, che è l’energia. La nostra principale fonte di energia oggi sono i combustibili fossili. Sapete quanti ne consumiamo? Attenzione: ogni secondo, e i secondi passano in fretta, ogni secondo al mondo consumiamo 250 tonnellate di carbone, 1000 barili di petrolio e 105 mila metri cubi di gas. Ogni secondo. E ogni secondo, bruciando queste enormi quantità di combustibili fossili, produciamo e immettiamo nell’atmosfera 1000 tonnellate di anidride carbonica. Quindi, stiamo consumando con una rapidità incredibile una grande risorsa, i combustibili fossili e allo stesso tempo immettiamo nell’atmosfera quantità enormi di rifiuti: l’anidride carbonica, responsabile del cambiamento climatico e altre sostanze, come le famigerate polveri sottili che danneggiano la salute.

Questo discorso si può estendere a tutti gli altri tipi di risorse e di rifiuti. 100 o a anche solo 50 anni fa c’erano molte risorse non ancora usate e non c’erano tutti i rifiuti che abbiamo prodotto. Ecco allora che in questi ultimi 100 anni l’uomo, con una frenetica attività resa possibile dalla grande diponibilità di energia fornita da combustibili fossili e dai progressi della scienza e delle tecnica, ha modificato profondamente il pianeta. Gli scienziati dicono infatti che stiamo vivendo in una nuova epoca, a cui hanno dato il nome Antropocene. Nel passato le epoche erano scandite da cambiamenti nella Natura: oggi l’uomo è più forte della natura e si è creato una sua epoca: l’Antropocene.

Negli ultimi 20 anni però, le persone che guardano non solo al presente ma anche al futuro hanno capito che non si può andare avanti così. Lo hanno capito scienziati, filosofi, anche gente non colta, pochissimi fra i politici. Hanno capito che in un mondo limitato come è la nostra astronave Terra non si può avere una crescita infinita. Hanno capito che bisogna cambiare.

Per prima cosa, bisogna smettere di usare i combustibili fossili per tre motivi: intanto sono una risorsa non rinnovabile e quindi in via di esaurimento, per cui verrebbero in ogni caso a mancare alle generazioni future; poi, l’inquinamento che causano è molto pericoloso per la salute dell’uomo (in Italia, abbiamo, ogni anno, circa 80.000 persone che muoiono prematuramente); e c’è un terzo motivo che è di gran lunga il più importante: l’anidride carbonica che immettiamo nell’atmosfera bruciando i combustibili fossili provoca il cosiddetto effetto serra: avvolge il pianeta come in un manto permettendo alla luce solare di giungere sulla superficie della Terra, ma poi impedisce, almeno parzialmente, al calore di uscire. L’effetto serra provoca poi il cambiamento climatico. Come certamente sapete nel dicembre 2015 in una conferenza indetta dall’ONU a Parigi le delegazioni di tutti i 195 paesi presenti hanno riconosciuto che il cambiamento climatico è oggi il pericolo più grave che per l’umanità. Questo significa che dobbiamo diminuire da subito l’uso dei combustibili fossili e cessare del tutto di usarli entro il 2050.

La cosa è possibile se sostituiamo l’energia che fino ad oggi ci hanno fornito i combustibili fossili con le energie rinnovabili generate dall’unica risorsa che ci viene da fuori, la luce del Sole: possiamo convertire direttamente la luce solare in elettricità col processo fotovoltaico e utilizzare anche l’energia solare che genera il vento (energia eolica) e la pioggia (energia idrica). Purtroppo non c’è tempo per illustrare i molti pregi e i pochi difetti delle energie rinnovabili. Ricordo solo che il processo fotovoltaico è un vero miracolo della scienza poiché converte l’energia solare in energia elettrica con un’efficienza del 20%, quando la fotosintesi naturale, che utilizza la luce solare per fornirci chimica, ha un’efficienza minore del 0,5%. Ricordo anche che già oggi l’eolico fornisce, senza dare problemi, una quantità di energia pari a quella che produrrebbero, con infiniti problemi, 180 centrali nucleari.

Se fino ad oggi la civiltà è progredita utilizzando energia termica generata dalla combustione di carbone, petrolio e metano, in futuro non sarà più così: il progresso della civiltà è ormai affidato all’utilizzo, diretto e indiretto, dell’energia solare per generare energia elettrica.

Fotovoltaico, eolico e idroelettrico sono forme di energia già utilizzabili, ma fanno fatica ad affermarsi perché il loro sviluppo è ostacolato da interessi economici e di potere legati alle grandi compagnie petrolifere, come la nostra ENI; ENI oggi per l’Italia è come una palla al piede che ci impedisce di correre verso il futuro. Ha pozzi di metano e petrolio in molte parti del mondo, in particolare in Africa, e ora grazie a un permesso del presidente Trump comincia a sforacchiare anche nell’Artico.

Potremmo riassumere la situazione dicendo che il futuro (le energie rinnovabili) è già presente, ma il passato (i combustibili fossili) non vuole passare. Il passato viene tenuto in vita artificialmente perché coinvolge molti interessi. E se poi continuando ad usare i combustibili fossili si aggrava il cambiamento climatico e aumenta il numero di poveri costretti a lasciare i paesi africani, a noi ricchi poco importa: continueremo a fermarli chiudendo i porti, lasciandoli affogare nel Mare Nostrum o morire nei campi di concentramento in Libia. E noi ricchi potremo continuare senza problemi a scegliere in quale paese dell’Africa andare in vacanza: per esempio in Egitto, con cui facciamo affari importanti nel campo dei combustibili fossili e anche nel commercio delle armi, affari che forse impediscono sia fatta luce sul caso Regeni.

Abbiamo molti motivi, dunque, perché sia portata a termine la transizione dai combustibili fossili alle e energie rinnovabili e dobbiamo batterci perché questo avvenga il più rapidamente possibile.

La transizione energetica, pur necessaria, non è però sufficiente per garantire un futuro sostenibile. Perché c’è un problema più generale, che investe tutte le risorse che prendiamo dalla Terra. Oggi il mondo funziona con la cosiddetta economia lineare: prendiamo le risorse dalla Terra, costruiamo quello che ci serve (spesso anche quello che non serve) lo usiamo e alla fine lo gettiamo nei rifiuti: è l’economia dell’usa e getta, il consumismo. Un sistema economico di questo tipo non è sostenibile perché è basato su due falsità che abbiamo già avuto modo di notare: non c’è una quantità infinita di risorse a cui attingere, e non è possibile eliminare i rifiuti. E sappiamo anche che l’accumulo di rifiuti, vedi anidride carbonica, può causare gravi problemi.

Se vogliamo raggiungere almeno un certo grado di di sostenibilità, bisogna passare dall’economia lineare dell’usa e getta all’economia circolare: che significa prelevare dalla Terra le risorse nella minima quantità possibile, usarle in modo intelligente per produrre cose che funzionino bene, che se si rompano possano essere riparate o usate per altri scopi, e che infine vengano raccolte in modo differenziato per poterle riciclare e ottenere così nuove risorse.

Ma anche questa seconda transizione, dall’economia lineare all’economia circolare non può garantirci un futuro sostenibile se non ci abituiamo a consumare di meno, a vivere adottando il criterio della sufficienza e della della sobrietà, che non vuol dire essere meno felici.

Non c’è tempo per approfondire l’argomento, ma prima di chiudere vorrei soffermarmi brevemente sul problema più grave che affligge oggi l’umanità: è il problema delle disuguaglianze. Quando vado a fare conferenze nelle scuole parlo ai ragazzi delle disuguaglianze: in Italia, dove il 5% più ricco ha risorse economiche pari al 90% più povero; negli Stati Uniti dove accanto ad un folto gruppo di miliardari convivono 46 milioni di poveri che che mangiano una volta al giorno con i food stamps, i buoni pasto forniti dal governo. Ma la cosa che più impressiona gli studenti è questa pagina di giornale nella quale è scritto che al mondo ci sono “tre uomini ricchi come l’Africa”. L’Africa, la nostra vicina di casa, l’Africa, di cui tanto si parla, magari senza saperne nulla.

Se avessi avuto modo di proiettare, avrei potuto mostrarvi 4 o 5 figure molto interessanti sull’Africa: provo a riassumerle brevemente.

  • l’Africa: è talmente grande che dentro all’Africa ci starebbero la Cina, gli Stati Uniti, l’India, l’Europa occidentale, parte dell’Europa orientale e il Giappone;
  • L’Africa ha una popolazione di 1,1 miliardi di persone; la popolazione della Nigeria, attualmente 200 milioni, nel 2050 supererà la popolazione degli USA;
  • l’Africa è molto povera da punto di vista economico, ma è molto ricca di risorse naturali e di minerali pregiati
  • molti stati, direttamente come fa la Cina o indirettamente tramite multinazionali stanno spolpando l’Africa. Alex Zanotelli, uno che di Africa se ne intende, ha detto che “Per aiutare l’Africa i paesi ricchi dovrebbero anzitutto smettere di portare via le sue risorse ”.Infine, vi sarà capitato di guardare nel computer le foto del mondo di notte: avrete visto quante luci ci sono in tutta Europa, mentre l’immensa Africa è quasi tutta buia. In Africa 400 milioni di persone non hanno elettricità. Senza elettricità non ci può essere progresso economico, scientifico, politico, culturale. L’Africa è tutta buia di notte perché non ha energia elettrica, ma di giorno gode di una immensa quantità di energia solare. l’Africa è benedetta dall’energia solare.

Ecco allora di cosa c’è bisogno in Africa: sviluppare il fotovoltaico e le altre tecnologie connesse alle energia rinnovabili. Un Governo italiano che si rispetti dovrebbe avere un Ministero dedicato all’Africa, non per colonizzarla come fece il fascismo, non per portarle via risorse come fanno oggi molti stati, non per estrarne il petrolio inquinando il territorio come fa ENI, ma per aiutarla ad utilizzare le sue immense risorse di energie rinnovabili.

Un’Africa non più buia, ma piena di luce, non sarebbe né un peso né una minaccia per l’Italia e per l’Europa.

Un’antica controversia fotochimica: William Fox Talbot e il brevetto della stampa al collodio

In evidenza

Andrea Turchi

Premessa

Nel maggio del 1854 lo scienziato inglese William Fox Talbot, noto per i suoi studi di ottica e inventore della calotipia, un originale processo di sviluppo fotografico, citò davanti alla corte di Londra un fotografo, James Henderson, accusandolo di utilizzare la calotipia senza pagare le royalties previste dal brevetto che lo stesso aveva registrato alcuni anni prima, nel 1841.

La causa, che Talbot perse, ha una peculiare importanza storica perché permette di esemplificare la profonda connessione tra il progresso delle conoscenze nelle tecniche fotografiche e lo straordinario sviluppo della chimica come disciplina che avvenne nei primi decenni del XIX secolo. Inoltre quella causa mise in luce l’importanza economica e commerciale che stava assumendo la fotografia, la cui nascita e affermazione tanto doveva alle conoscenze chimiche.

Chimica e fotografia a braccetto

Probabilmente non c’è settore della tecnica in cui l’importanza della chimica sia stato più grande che nella fotografia. I processi tradizionali di impressione, fissaggio, sviluppo e stampa fotografici sono essenzialmente chimici e tutti coloro che si dedicarono alla fotografia nella prima metà del XIX sec. avevano conoscenze chimiche (sia pure solo empiriche) ben solide[1].

Impressione delle immagini e ossidoriduzioni

Un antesignano del processo di impressione fotografica fu l’inglese Thomas Wedgood che all’inizio del XIX secolo aveva notato che una carta rivestita con nitrato d’argento risultava fotosensibile, ossia si anneriva nei punti colpiti dalla luce. L’annerimento dei sali d’argento era già noto ai chimici del XVIII sec.: nel 1727 il tedesco Johann Heinrich Schulze si accorse che un recipiente di vetro che conteneva un impasto d’argento, gesso e acido nitrico cambiava colore se esposto alla luce; applicando un oggetto sul vetro si otteneva così l’impronta dello stesso nell’impasto. Schulze chiamò scotophorus (portatrice di tenebre) l’impasto contenuto nel recipiente. Più tardi il grande chimico inglese Robert Boyle annotò l’annerimento del cloruro d’argento (che però attribuì all’azione dell’aria), mentre fu Carl Wilhelm Scheele che per primo mostrò il diverso comportamento chimico tra zone annerite e zone chiare dei sali d’argento, mostrando che facendo digerire il composto fotosensibile con ammoniaca solo la parte non fotosensibilizzata veniva dissolta.

L’annerimento del sale d’argento è, come noto, un processo ossidoriduttivo complesso che comporta la perdita di un elettrone da parte dell’alogeno, per azione di un fotone, e la conseguente riduzione dello ione argento. La conoscenza di questo processo ampliò il panorama chimico dei processi ossidoriduttivi aggiungendosi alla tradizionale riduzione termica e a quella, successiva, elettrochimica, che avevano permesso l’individuazione e l’isolamento di molti nuovi elementi[2].

Talbot era riuscito a preparare una carta a elevata sensibilità fotografica (da lui chiamata fotogenica) immergendo un foglio di carta in una soluzione ‘debole’ (ossia poco concentrata) di NaCl e, dopo averlo asciugata, trattandolo con una soluzione concentrata di AgNO3. In questo modo Talbot otteneva una carta al cloruro d’argento più sensibile di quella ottenuta con soluzioni concentrate di NaCl, utilizzate in precedenza per essere certi di ‘saturare’ tutto l’argento presente [fig.1]. Fig. 1: Disegno fotogenico ottenuto con la tecnica di Talbot (fonte: https://azlein14.wordpress.com/2011/04/04/salted-paper-and-photogenic-drawings-ii/)

Talbot non poteva dare una spiegazione microscopica del suo procedimento, incomprensibile se si ragionava solo sulla base legge delle proporzioni definite.

In realtà l’annerimento delle immagini non è un processo solo ‘atomico’, ma dipende dal contesto molecolare e cristallino in cui avviene. La maggiore sensibilità della carta fotogenica di Talbot sta nel fatto che nel cristallo di AgCl vi è un inserimento interstiziale di ioni Ag+ in eccesso stechiometrico. Gli ioni ridotti danno luogo a una breve reazione redox a catena che porta alla formazione di cluster di atomi di argento, che costituiscono i centri di sviluppo dell’immagine [fig.2].

Fig.2: Catena di reazioni redox che portano alla formazione del cluster d’argento.

Questo processo dipende fortemente dalla grandezza dei cristalli e questo spiega il successo storico dell’uso della gelatina e del collodio nella preparazione dei supporti fotografici, in quanto permettono un processo di cristallizzazione più lento e regolare rispetto alle soluzioni acquose.

Fissaggio delle immagini e nuovi composti chimici

Wedgood non era riuscito a risolvere il problema di rendere stabile l’immagine impressionata su carta: dopo un po’ di tempo tutta la carta si anneriva per azione della luce. Un passo in avanti decisivo in tal senso fu compiuto nel 1824 dal francese Nicéphore Niepce, un geniale inventore, che ‒ utilizzando, probabilmente senza saperlo, le osservazioni di Scheele ‒ sfruttò il diverso comportamento di una sostanza fotosensibilizzata per separarla dalla parte che non aveva reagito alla luce. Dopo vari tentativi (con fosforo, resina di guaiaco,ecc.) Niepce utilizzò il bitume di Giudea, un asfalto già usato da tempo dagli incisori[3] che ha la particolare proprietà di indurire se sottoposto alla luce. Niepce usò dapprima il bitume come materiale sensibile per la fotoincisione calcografica.

Una lastra di rame ricoperta di bitume veniva associata a un disegno e sottoposta alla luce; le parti coperte dal disegno, al contrario di quelle scoperte, non indurivano e venivano dissolte con olio di lavanda così da formare un negativo dell’immagine su lastra metallica; questa poi viene usata come matrice per la stampa di positivi. Questo processo permetteva per la prima volta di riprodurre un disegno originale in un numero indefinito di copie, ponendo le basi per la commercializzazione su vasta scala delle riproduzioni artistiche. Niepce usò questa tecnica per la riproduzione fotografica, che chiamò eliografia: inseriva una lastra di rame (o di peltro) ricoperta di bitume all’interno di una camera oscura dove avveniva l’impressione dell’immagine. La parte non impressionata veniva dissolta dall’olio di lavanda e si otteneva un negativo. In questo modo Niepce ottenne la prima fotografia della storia con una veduta del cortile della casa di Niepce nel villaggio di Saint Loup de Varenne [fig.3].

Fig.3: La prima eliografia realizzata da Niepce nel 1826. L’immagine originale è attualmente conservata nella collezione Gernshiem dell’Università del Texas (fonte: http://100photos.time.com/photos/joseph-niepce-first-photograph-window-le-gras)

Ne 1839, alcuni anni dopo gli esperimenti di Niepce, Louis Jaques Mandé Daguerre, un artista che aveva inventato il Diorama, una teatro di straordinarie e realistiche illusioni ottiche, annunciò di aver trovato un modo per fissare le immagine impressionate nella camera oscura. Daguerre trattava con iodio una lastra di rame argentata per formare ioduro d’argento fotosensibile. Dopo essere stata impressionata nella camera oscura, la lastra veniva sottoposta a vapori di mercurio che condensava sulle parti dell’immagine impressionata (in pratica formando un’amalgama con l’argento). Lo ioduro non impressionato veniva asportato con una soluzione di sale; la lastra veniva poi lavata e asciugata. In questo modo Daguerre otteneva un positivo di grandissima finezza, che chiamò dagherrotipo [fig.4].

Fig. 4: Ritratto di Louis Jacques Mandé Daguerre. Dagherrotipo eseguito da Jean Baptiste Sabatier-Blot nel 1844 (fonte: https://jarrahotel.com/illustration-representing-theories-of-jean-baptiste.html

Rispetto agi altri metodi il dagherrotipo aveva il grande vantaggio di dare un positivo diretto (in quanto le parti colpite dalla luce risultano più chiare per via dell’amalgama) e di non aver bisogno di fissaggio perché l’annerimento prosegue nel tempo solo per le parti non esposte, aumentando il contrasto dell’immagine. Di contro, il grande svantaggio del dagherrotipo era il fatto che consisteva in una immagine unica e non riproducibile, a guisa di un ritratto dipinto.

Niepce e Daguerre non erano chimici, anche se il primo si dilettava in esperimenti. Eppure usavano con disinvoltura sostanze chimiche ben definite: il motivo è che operavano in un ambiente intellettuale nel quale riverberavano sicuramente le nuove conoscenze della chimica. Un ambiente che aveva prodotto la sistematizzazione della conoscenze dovuta a Lavoisier e la conseguente rigorosa definizione delle proprietà delle sostanze. Nei primi decenni del XIX sec. la chimica aveva prodotto un grande accumulo di osservazioni sperimentali sul comportamento delle sostanze, identificando nuove classi di composti e di elementi. In particolare, ai tempi di Daguerre si stavano affermando i grandi laboratori chimici, ben organizzati e ricchi di strumentazione, che permettevano una precisa caratterizzazione delle sostanze. Protagonista in tal senso furono Jöns Berzelius e Justus Liebig. Il primo codificò i comportamenti delle sostanze in principi normativi e fondò metodi di sperimentazione chimica rigorosi e controllati, che furono poi modello per i laboratori di tutta Europa. Il secondo istituì grandi laboratori chimici, ben organizzati e ricchi di strumentazione, vero e proprio luogo si scambio di informazioni dei chimici di tutta Europa.

Fu in questo contesto scientifico che Daguerre iniziò i suoi esperimenti fotografici con lo iodio nel 1833. L’elemento era stato scoperto da Bernard Courtois e isolato da Charles-Bernard Desormes e Nicolas Clément solo venti anni prima mentre le sue proprietà erano state indagate da appena 10 anni. Come detto, Daguerre non era uno studioso della chimica ma conosceva il lavoro di Courtois sullo iodio e questo dimostra come la comunicazione delle scoperte scientifiche si diffondesse allora rapidamente in ambienti non specializzati, anche se è da notare che il milieu culturale dell’epoca era piuttosto ristretto, in particolare dal punto di vista geografico[4], e ciò favoriva lo scambio di informazioni.

Inoltre, non appena   l’invenzione del dagherrotipo fu divulgata nel 1839, l’astronomo e matematico inglese ‒ nonché provetto chimico ‒ John Frederick William Herschel [fig.5],

Fig. 5: Ritratto di Sir John Frederick William Herschel. Stampa da una negativa al collodio del 1867 (fonte: https://www.britannica.com/biography/John-Herschel)

cercò di scoprire i segreti della tecnica, in particolare dell’operazione di fissaggio. Alcuni anni prima Herschel aveva preparato l’acido tiosolforico, che lui aveva chiamato iposolforico, e utilizzò con successo il sale di sodio per solubilizzare[5] lo ioduro d’argento non impressionato. Nel giro di pochissimo tempo Daguerre modificò il suo procedimento sostituendo come agente fissante il sale con il tiosolfato di sodio[6], a dimostrazione del corto circuito rapidissimo tra fotografia e chimica in quel periodo.

Sviluppo delle immagini e catalisi

Le prime fotografie richiedevano tempi di posa lunghissimi, incompatibili con figure in movimento. Per la prima foto ottenuta da Niepce era stato necessario un tempo di posa di alcune ore, mentre per il dagherrotipo, grazie all’azione di sviluppo del mercurio, il tempo di posa era sceso ad alcuni minuti.

Fu però John Talbot a trasformare l’atto fotografico da posa statica a istantanea, aprendo la strada alla moderna fotografia. Tra tutti i protagonisti della nascita della fotografia, Talbot è con Herschel quello ad avere il più alto profilo scientifico e a svolgere il suo lavoro con un vero e proprio programma di ricerca. Talbot aveva idee molto chiare sulle trasformazioni chimiche che avvengono nei processi fotografici. Così, nella sua comunicazione nel 1839 al Royal Society sul suo metodo di sviluppo, scriveva che: «Il nitrato d’argento che diventa nero per azione della luce non è più la stessa sostanza di prima. Di conseguenza se l’immagine, prodotta dalla luce solare,viene successivamente sottoposta a un qualunque processo chimico, le parti chiare e scure si comporteranno diversamente: non c’è evidenza, dopo che tale azione ha avuto luogo, che tali parti bianche e nere siano soggette a ulteriori mutamenti spontanei. Anche se ciò avvenisse non segue che il cambiamento tenderà a farle assomigliare l’una all’altra».

Talbot scoprì nel 1841 che, trattando carta iodizzata[7] con una miscela formata da una soluzione concentrata di AgNO3 in acido acetico glaciale e da una soluzione satura di acido gallico in egual volume, si otteneva una carta di tale sensibilità che erano sufficienti pochi secondi di esposizione per formare l’immagine, di contro le lunghissime pose necessarie per altri processi, come la dagherrotipia. Talbot chiamò la carta così preparato “al calotipo” (dal greco kalós, “bello”) [fig.6]

Fig. 6 Ritratto di William Fox Talbot ottenuto nel 1864 con il metodo della calotipia (fonte: https://en.wikipedia.org/wiki/Henry_Fox_Talbot)

e interpretò correttamente il fenomeno, attribuendo all’acido gallico la capacità catalitica nell’autosviluppo dell’immagine latente, ossia di quella che si forma per effetto della luce ma che è troppo debole per essere correttamente visualizzata.

La scoperta dello sviluppo fotografico rivoluzionò la storia del ritratto, aprendo la strada all’istantanea, ossia all’attuale modo comune di collezionare immagini. Fu un rivolgimento anche sociale: i procedimenti base della produzione delle carte fotosensibili potevano essere facilmente standardizzati e quindi commercializzati, aprendo la strada alla grande diffusione della fotografia. Non solo, ma la rapidità con cui avveniva l’impressione estese grandemente il campo dei soggetti fotografici: non più solo ritratti in posa di regnanti e riproduzioni di paesaggi, a somiglianza delle tecniche pittoriche, ma immagini della vita quotidiana e di persone comuni. Queste innovazioni tecnologiche incrociarono perciò le esigenze degli strati emergenti della società borghese, fornendo loro possibilità di espressione e di autorappresentazione.

L’acido gallico, un raffinato catalizzatore redox

L’azione dell’acido gallico sull’immagine latente è oggi spiegata a partire dai cluster di Ag che si formano durante l’impressione fotografica. L’acido gallico, come altri agenti riducenti quali l’idrochinone, ha la capacità di ridurre solo l’alogenuro attivato presente nei granuli dove si sono formati i cluster. Dal punto di vista termodinamico questa reazione redox è possibile anche per i cristalli non attivati ma è molto più lenta, quindi è cineticamente sfavorita. La grande abilità e, insieme, la grande fortuna di Talbot, fu di aver trovato un agente riducente molto efficiente per lo sviluppo dell’immagine latente ma non aggressivo nei confronti delle parti non attivate dell’alogenuro, come sarebbe accaduto invece con i comuni agenti ossido riduttivi inorganici.

Gli storici della fotografia hanno dibattuto a lungo sulla originalità del processo inventato da Talbot e su quale fosse la fonte di informazioni che lo condussero all’uso dell’acido gallico. In particolare, gli studi si sono concentrati sulla conoscenza che Talbot poteva aver avuto dei lavori con l’infuso delle noci di galla del reverendo Joseph Bancroft Reade, vicario di Stone (nel Buckinghamshire), singolare figura di religioso  a cui interessava più la microscopia che non i compiti pastorali. La questione ebbe notevole rilievo all’epoca di Talbot perché nelle cause che lui intentò per violazione del suo brevetto, gli avvocati avversi ne contestarono l’originalità in quanto l’uso dell’acido gallico come sviluppatore sarebbe risalito agli esperimenti originali di Reade.

In realtà, il proposito originale di Reade era di ottenere immagini ingrandite su carta proiettate dal microscopio; siccome in genere queste risultavano troppo sbiadite, Reade cercò un metodo per ottenere carte più sensibili. Reade aveva letto da Wedgood che il cuoio rendeva il nitrato d’argento più sensibile e, secondo la sua testimonianza, si fece dare dalla moglie un suo guanto per fare delle prove di impressione fotografica: «La signora Reade fu così gentile di darmi un paio di guanti di pelle chiari così da ripetere gli esperimenti di Wedgwood». Al rifiuto della moglie di un secondo paio di guanti Reade Reade, partendo dall’idea che la sensibilità del cuoio fosse dovuta al tannino, con cui solitamente viene trattato il cuoio, si diresse verso l’uso della carta all’infuso di noci di galla che contiene tannino al 50%. Forse questo ricordo così gustoso è ricostruito ad arte[8], come altre volte è capitato nella storia della scienza.

È più probabile che Reade fosse giunto all’uso delle noci di galla perché all’epoca circolava già l’idea che alcune sostanze organiche rafforzassero la fotosensibilità dell’AgNO3, che tra l’altro era un prodotto usato anche in cosmesi e quindi in combinazione con emulsionanti organici (lo stesso Reade aveva sperimentato l’uso della colla di pesce). Inoltre, nella letteratura tecnica dell’epoca erano note le reazioni dei sali metallici con l’estratto di noci di galla nella formulazione degli inchiostri, con i quali anche Reade aveva avuto a che fare.

Sta di fatto che Reade non parlò mai esplicitamente dell’uso di acido gallico che si forma durante la macerazione delle noci di galla per preparare la tintura, e nella quale è presente per il 3%. Lo stesso Reade riconobbe a Talbot tutti i meriti della scoperta dell’uso dell’acido gallico come agente sviluppatore in fotografia e a sé stesso solo quello dell’iniziatore. Per farlo Reade usò un’efficace immagine sportiva: «Io lanciai la palla e Talbot la prese». Sta di fatto che ci sono prove storiche che Talbot era venuto a conoscenza degli esperimenti di Reade e che, in un ambito scientifico più avanzato e accurato, li aveva finalizzati al suo scopo. Forte delle sue competenze chimiche, Talbot concentrò la sua attenzione sull’acido gallico: con ogni probabilità conosceva il procedimento originale del chimico svedese Carl Wilhelm Scheele per l’estrazione dell’acido gallico dall’infuso di galla, ripreso da Berzelius in un suo trattato molto diffuso in quegli anni.

Il brevetto

Talbot brevettò il suo metodo di impressione e sviluppo fotografici l’8 febbraio 1841 con il titolo Metodi per ottenere immagini o rappresentazioni di oggetti. [fig.7]

Fig. 7: Frontespizio del brevetto di Talbot (fonte: http://www.nonesuchsilverprints.com/art-of-silver/PDFs/Fox%20Talbot%20Patent%208842%20-%201841.pdf)

Nel brevetto compariva la preparazione della carta iodizzata e di quella al calotipo, il processo di impressione in camera oscura, quello di fissaggio tramite lavaggio con KBr e NaCl e l’ottenimento del positivo. In quest’ultima fase del processo si usava una seconda carta al calotipo che veniva accoppiata al negativo separandolo con una lastra di vetro e fissando il tutto con viti in un telaio che veniva esposto alla luce. Successivamente si sottoponeva il positivo alle stesse procedure di sviluppo e fissaggio del negativo.

Anche se il brevetto non abbonda di specifiche tecniche, è notevole il travaso di contenuti squisitamente scientifici in un ordinamento giuridico-economico. Talbot aveva esitato a lungo prima di depositare il brevetto, e ciò avvenne dopo che aveva presentato le sue scoperte in diverse occasioni: nel 1839 aveva sottoposto il suo metodo alla Royal Society e nel 1840 [fig.8]

“The Art of Photogenic Drawing” by Fox Talbot. Photo books for auction at Christies, St. James’s London on 31 May 2007.

Fig. 8 Frontespizio della comunicazione di Talbot alla Royal Society nel 1839 (fonte: http://www.photohistories.com/photo-books/15/photogenic_drawing)

aveva allestito a Londra una mostra di fotografie realizzate con il suo metodo. Ciononostante Talbot prese una decisione che pochi decenni prima, nell’epoca dei Faraday e dei Priestley, non sarebbe stato concepibile, e questa novità rappresentò il risultato tangibile dell’incontro diretto e irreversibile tra impresa scientifica e impresa economica.

La novità non stava certo nel fatto che le scoperte scientifiche fossero il motore del progresso tecnico-industriale ‒ basti pensare al contemporaneo sviluppo dell’industria chimica del cloro-soda ‒ ma che il lavoro del singolo scienziato diventasse rapidamente questione economica di estremo rilievo. Non è un caso che ciò sia avvenuto prima di tutto con la fotografia, nella quale il tasso necessario di competenze scientifiche è molto alto. A distanza di quasi due secoli, oggi assistiamo gli estremi esiti di questo connubio, per esempio con la Celera Genomics di Craig Venter, nella quale aspetti scientifici e imprenditoriali sono del tutto indistinguibili.

La controversia

Nel periodo successivo a quello in cui Talbot aveva depositato il suo brevetto, si diffusero altri supporti fotografici. Era noto che il vetro costituiva un supporto molto più efficiente della carta: il problema era come far aderire l’alogenuro al supporto. Anche in questo caso fecero la loro comparsa le sostanze organiche: lo stesso Talbot propose e brevettò una lastra all’albume che, anche se poco sensibile, permise di ottenere una vera e propria istantanea di un oggetto in movimento[9] illuminato da una forte scintilla elettrica.

Ma il sistema che ebbe maggior successo fu la lastra al collodio inventata dall’inglese Frederick Scott Archer nel 1851: su una lastra di vetro veniva versata una sospensione di KI in collodio[10] che, una volta asciugata, veniva immersa in una soluzione di AgNO3: dopo l’impressione la lastra veniva sviluppata in una soluzione di acido gallico. La tecnica al collodio umido ebbe un rapido sviluppo (soprattutto dopo la grande Esposizione universale di Londra del 1851) sostituendo rapidamente la dagherrotipia e la stessa calotipia. Tuttavia Talbot riteneva che i fotografi che utilizzavano quella tecnica violassero il suo brevetto che si basava sull’acido gallico come sviluppatore e fece causa nel 1854 a due fotografi londinesi: James Henderson e Martin Silvester Laroche. Per Talbot la sostituzione del supporto cartaceo con quello al collodio non costitutiva fatto rilevante in quanto la chimica del processo era la medesima, incentrata sull’azione catalizzatrice dell’acido gallico. La difesa di Henderson sosteneva invece che la tecnica al collodio era diversa da quella della calotipia in quanto dai due procedimenti si ottenevano risultati apprezzabilmente diversi. Un esperto della difesa, lo scienziato Robert Hunt, sostenne anche che l’acido gallico era diverso dall’acido pirogallico[11] di cui si serviva Henderson [fig.9]:

Fig. 9: Acido gallico e “acido pirogallico”

 

Talbot però ebbe a controbattere che le due sostanze svolgevano la medesima azione chimica di agente riducente.

La controversia Talbot-Laroche precedette quello con Henderson. Al termine del lungo e complesso dibattimento, nel quale Talbot fece intervenire a suo supporto[12] anche William Thomas Brande, scopritore del litio e tra i più influenti chimici dell’epoca, il tribunale si pronunciò dando ragione alla difesa. Infatti sentenziò che, malgrado si dovesse riconoscere a Talbot il merito dell’invenzione del metodo della calotipia e, in particolare, dell’uso del’acido gallico come rivelatore, il metodo al collodio era sostanzialmente differente da quello al calotipo e che quindi la richiesta di indennizzo da parte di Talbot a Laroche era insussistente.

Per Talbot fu un duro colpo: lo scienziato aveva investito molto del suo nelle ricerche sulla carta al calotipo e si trovò a fronteggiare anche le richieste per danni avanzate da due citati, che avevano dovuto per un certo tempo interrompere la loro attività legate alle lastre al collodio umido. Talbot fu così costretto a risarcire Henderson con 150 ₤. La sconfitta di Talbot fu invece accolta molto positivamente dai numerosi fotografi dell’epoca (solo a Regent street c’erano 20 negozi di fotografi che usavano all’epoca il metodo al collodio), che si vedevano liberati dai vincoli brevettuali del calotipo e del dagherrotipo[13].

Conclusioni

La vicenda giudiziaria di Talbot è molto significativa perché rappresenta bene quel difficile incrocio tra ragioni scientifiche, progresso tecnico-industriale e motivazioni commerciali che si andava realizzando nei primi decenni del XIX secolo. La chimica, in particolare, aveva in tal senso un ruolo rilevante in quanto le competenze chimiche erano presenti sin dall’alba delle prime grandi produzioni industriali. Basti pensare che pochi anni prima della invenzione di Talbot, nel 1825, si avviava a Glasgow la produzione della soda secondo il metodo Leblanc, il primo vero e proprio procedimento industriale chimico, fondamentale per la lavorazione del vetro, dei saponi e dei candeggianti.

Rispetto alla produzione della soda, nella fotografia il prodotto finale non è però un composto chimico, ma un procedimento tecnico nel quale la chimica ha un notevole ruolo. Quel che Talbot non comprese, probabilmente, era che il riconoscimento della primazia intellettuale della scoperta chimica non poteva coincidere con i diritti del brevetto: Talbot si ostinò a cercare di dimostrare che quello al collodio e quello al calotipo erano lo stesso processo in quanto medesimo era il procedimento di riduzione chimica nella fase di sviluppo. Ma questo non significava che l’intero processo al collodio potesse essere riassunto nel brevetto di Talbot. Storicamente, lo scienziato inglese si trovava, come dire, a metà dell’opera: pur consapevole dell’importanza commerciale della sua invenzione, Talbot era ancora mentalmente legato a un’epoca precedente in cui il lavoro dello scienziato doveva comunque primeggiare rispetto alle altre istanze della società. Così Talbot andò incontro a una cocente sconfitta, anche se la sua figura di scienziato non ne rimase intaccata e non sono stati mai disconosciuti i suoi meriti di fondatore dello sviluppo e della riproduzione a stampa fotografica.

Nel prosieguo del secolo,e ancor più in quello seguente, i rapporti tra esigenze industriali, commerciali e chimiche divennero sempre più stringenti e la Rivoluzione industriale suggellò quel rapporto tra pari che è durato per secoli e che oggi deve trovare un nuovo equilibrio per la formidabile spinta delle nuove tecnologie informatiche, per le quali la distinzione tra esperienze scientifiche e applicazioni industriali è semplicemente insussistente. Così, Il pennello della natura, romantico titolo che Talbot diede al primo libro illustrato con le sue fotografie, ha ormai un sapore di cose lontane, molto lontane.

Ringraziamenti

Ringrazio sentitamente Antonio Seccia, litografo, calcografo, litografo, costruttore di torchi storici, profondo conoscitore dei metodi tradizionali di stampa, per i preziosi consigli.

Bibliografia e sitografia utilizzate

·       Berzelius B.B., Trattato di chimica, Napoli 1839, in https://books.google.it/books?id=18S24Ods7PQC&pg=PA157&lpg=PA157&dq=scheele+acido+gallico&source=bl&ots=4bhk4VVxUx&sig=INwwKGFN8Pn8CiL3QTC43Cu9RUM&hl=it&sa=X&ved=2ahUKEwjDiOaNtrDeAhUOWhoKHeUdBI8Q6AEwAnoECAcQAQ#v=onepage&q=scheele%20acido%20gallico&f=false

  • De Franceschi J., La fotografia del Novecento. Studio dell’emulsione argento-gelatinosa attraverso indagini non invasive su campioni dal 1908 al 1980, Tesi di Laurea del Corso d Laurea Magistrale in Scienze chimiche per la Conservazione e il Restauro, Università Ca’ Foscari di Venezia, A:A 2014-15 in http://dspace.unive.it/bitstream/handle/10579/7121/834394-1187735.pdf?sequence=2
  • Leicester H. M., Storia della chimica, ISEDI, Milano, 1978

·       Newhall B., L’immagine latente, Zanichelli, Bologna, 1980

·       Singer Ch., Holmyard E.J., Hall A.R., Williams T.I., Storia della tecnologia, Vol 4*, Bollati-Boringhieri, Torino, 2013

  • Talbot H. F., Some Account of the Art of Photogenic Drawing Or, the process by which Natural Objects may be made to delineate themselves, without the aid of the Artist’s Pencil, Royal Society, London, Received 28th Jan 1839 Read 31 Jan 1839 in http://www.lens-and-sensibility.eu/en/kalotypie/kalotypie.php

·       Torracca E., Il periodo della chimica classica in Storia della chimica, Marsilio editori, Venezia, 1989

  • Watt S., The elements: Silver, Benchmark book, New York, 2003

·       Weeks M. E. The discovery of the Elements, JCE, vol. 9, n. 11, 1932

[1] Naturalmente un grande impulso alla fotografia fu dato anche dall’ottica fisica e geometrica e dalle arti figurative, che usavano da tempo la camera oscura per la riproduzione di immagini dal vero.

[2] Nel primo decennio del XIX sec. furono scoperti ben 14 elementi chimici.

[3] Nella calcografia, per esempio, la lastra di rame viene ricoperta con un impasto di bitume, cere e gomma, che viene inciso con una punta dall’incisore. Sulla lastra viene versato l’acido nitrico che incide il rame laddove lasciato scoperto dal bitume. La lastra viene pulita, inchiostrata e usata come matrice per la stampa.

[4] Nei primi decenni del XIX sec. il cuore delle ricerche chimiche si collocava tra Francia, Inghilterra e Germania.

[5] In realtà non si tratta di una semplice solubilizzazione, in quanto nel lavaggio si forma il tiosolfato doppio di sodio e argento. Da notare che per i chimici degli anni Trenta del XIX secolo era ormai del tutto normale che un sale ‘appena’ modificato dalla luce avesse una ‘solubilità’ del tutto diversa da quello non impressionato e questo dimostra come si fosse rapidamente raffinato lo studio del comportamento chimico delle sostanze.

[6] Il successo del tiosolfato di sodio come agente fissante fu tale che fino a tempi recenti i fotografia hanno continuato ad usare come fissatore il tiosolfato chiamandolo iposolfito, ossia con l’errato nome iniziale dato da Herschel.

[7] Nel tempo si era scoperto che il bromuro e lo ioduro di Ag erano più sensibili del cloruro. Per preparare la sua carta iodizzata Talbot immergeva in una soluzione di KI una carta spennellata con AgNO3.

[8] L’obiezione più fondata a questo ricordo è che i guanti, i particolare quelli chiari da donna, venivano conciati all’allume e non al tannino.

[9] L’oggetto era un copia del Times, a celebrare l’anglocentricità delle tecniche fotografiche del tempo.

[10] Il collodio è fondamentalmente nitrocellulosa, composto sintetizzato per la prima volta nel 1845 dal chimico tedesco Christian Friedrick Schönbein, solo sei anni prima dell’invenzione di Archer, a ulteriore dimostrazione di come chimica e fotografia progredissero allora di pari passo.

[11] L’acido pirogallico differisce dal gallico perché manca del gruppo carbossilico. In effetti, l’attribuzione del termine ‘acido’ per il pirogallico, dovuto al fatto che veniva preparato per pirolisi dell’acido gallico, è impropria perché si tratta di un alcole polivalente. Hunt disse che differivano tra loro come l’aceto dallo zucchero e, strutturalmente parlando, non aveva tutti i torti.

[12] Talbot cercò di convincere a testimoniare anche sir John Frederick William Herschel, suo amico e grande estimatore. Ma Herschel, pur riconoscendo il valore delle scoperte di Talbot, si rifiutò, intuendo la differenza tra primato scientifico e primato commerciale.

[13] La dagherrotipia era libera in Francia ma non in Inghilterra, dove era sottoposta a brevetto, forse per motivi extracommerciali, dovuti alle continue ruggini politiche tra i due Stati.

…per i miracoli ci stiamo attrezzando!

In evidenza

Claudio Della Volpe

Giorni fa il collega Gustavo Avitabile mi ha scritto una mail raccontandomi un episodio avvenuto nel contesto dell’Università di Napoli, dove sono nato e cresciuto; e dunque mi scuserete se, prendendomela a cuore, lo racconto anche a voi. Secondo Gustavo è off-topic sul blog, ma non credo.

Gustavo è un chimico molto bravo e ormai in pensione, si è occupato di raggi X e didattica al computer; ma è anche il Gustavo che insieme ad altri amici di Napoli, come Ugo Lepore, Pina Castronuovo, Guido Barone, Luciano Ferrara, Vittorio Elia hanno fatto di me quel che sono oggi, Gustavo (e Ugo) mi hanno anche fatto il primo esame (nell’estate di 50 anni fa! sono proprio vecchio). E dunque a questa intellettualità napoletana che ha fatto il 68 e ha ancora il buon gusto di indignarsi io devo questo post.

Di cosa parliamo?

L’Università Federico II fa una serie di conferenzedi cui vi mostro la locandina ed in una di queste il prof. Alessandro De Franciscis, 15° presidente dell’Ufficio delle constatazioni mediche di Lourdes, ha raccontato la sua esperienza e anche la storia di Lourdes. Conferenza indubbiamente brillante e vivace, come nella personalità del relatore, tipicamente partenopea, ma anche capace di far indignare Gustavo, perchè poco fondata scientificamente perchè di fatti si passa dalle remissioni spontanee ai miracoli senza soluzione di continuità e senza soprattutto metodo scientifico; la conferenza è visibile su YouTube, potete seguirvela, dura un’ora e mezza e capisco se vorrete farne a meno, ma è piacevole; una sera che non avete di meglio da fare vale la pena al posto del Festival di Sanremo o di altre amenità. Vedrete che la parte finale del titolo, la verifica, è mancata.

Vi accorgerete di quel che dice Gustavo; la conferenza parte bene, il relatore ricorda che le remissioni spontanee sono sempre esistite, ma si finisce male, con l’enumerazione dei 70 miracoli riconosciuti dalla Chiesa Cattolica. Ora è questo che Gustavo rimprovera all’Università di Napoli, con una mail inviata a tutti i colleghi che non è passata, che è stata censurata diciamo così, di non aver saputo garantire il contesto; solo un collega del pubblico, intervenuto a titolo personale il prof. Pignata ha fatto notare i punti deboli del relatore, la mancanza di elementi di controllo e verifica nell’approccio “miracolistico”, la mancanza di considerazione degli aggravamenti ingiustificati come delle remissioni spontanee.

Quel che nessuno ha detto bene e che forse Gustavo avrebbe voluto sentir dire lo dirò io qui.

Cosa sono i 70 miracoli riconosciuti di Lourdes o se volete anche i 7500 casi di guarigioni elencate ma non riconosciute come miracoli? Sono una parte della numerosa congerie di “remissioni spontanee” elencate per esempio in questa pagina:

https://noetic.org/research/projects/spontaneous-remission

E in questo libro scaricabile gratis: http://library.noetic.org/library/publication-bibliographies/spontaneous-remission

Si tratta di 3500 casi analizzati in dettaglio su 800 riviste pubblicate in 20 lingue, dunque al livello dei 70 miracoli, ma circa 50 volte di più. In fondo a Lourdes ci sono andati solo alcune decine di milioni di persone, ma sono una minima parte della popolazione mondiale.

Per quelli che hanno meno tempo consiglio il bel post della counselor in psicosomatica Luciana Giordo: https://www.psicosomatica.eu/remissioni-spontanee/ molto ben scritto o i riferimenti citati allla fine.

La remissione spontanea da malattie anche traumatiche normalmente inguaribili è un fenomeno ben documentato ma ancora non spiegato, nel quale elenco i 70 casi provati di Lourdes rientrano bene; dice la Giordo: se andate su Medline il numero di riferimenti per le chiavi di ricerca “spontaneous remission” o “spontaneous regression”, passa dai 10.603 del periodo 1966-1992 ai 20.502 attuali. Insomma ampio data base sul quale però lo studio non è altrettanto esteso; e questo è il limite della scienza. Le remissioni spontanee da malattie molto gravi (eccettuati i casi fasullli, gli errori, le diagnosi sbagliate etc.) sono non miracoli ma eventi rarissimi ed inaspettati ed al momento non spiegati.

L’interazione corpo-psiche è un argomento poco studiato; certamente c’è la chimica dietro, ma c’è anche un mistero: cosa è l’autocoscienza? Cosa rende noi e tanti altri animali coscienti di se stessi; cosa ci fa comunicare col nostro gatto o col nostro cane e rende noi capaci di guarire spontaneamente (la percentuale è ridottissima, 1/100.000 non vi illudete, se avete un tumore andate dal medico) e lui capace si di guardarsi allo specchio ma non riconoscersi? Non lo sappiamo. Dobbiamo studiarci e tanto.

http://www.treccani.it/enciclopedia/il-rapporto-tra-mente-e-cervello_(XXI-Secolo)/

Ecco questo è il punto; quale è la base materiale della coscienza e dell’autocoscienza e dunque di tutte quelle interazioni fra corpo e mente, per lo più inconsce, automatiche ma potentissime che sperimentiamo continuamente? Milioni di reazioni chimiche, migliaia di enzimi e di sequenze reattive, un “sistema” di reazioni complesse della cui complessità stiamo appena accorgendoci; questo è il cervello, la base fisica; ma la mente, il sistema informatico che è basato sul cervello, il programma che ci gira, il software se volete (so di essere impreciso, ma ci sta, non sono un esperto) dove sta e cosa fa, come comunica col resto, dove sta scritto? La scienza dei sistemi complessi, i meccanismi della retroazione che esploriamo tramite sistemi di equazioni differenziali non lineari, questo contesto che tende ad unire mente e cervello, la tomografia NMR unita alle neuroscienze se volete, questo è mancato nella conferenza, dando spazio al miracolismo; ognuno può pensarla come gli pare ed essere religiosi non è in contrasto per forza con il fare scienza, ma la cosa dovrebbe essere detta e distinta più chiaramente di quanto ha fatto De Franciscis (e ci sta, lui è dichiaratamente cattolico e dichiaratamente di parte) e soprattutto di come gli hanno consentito di fare l’Università di Napoli e anche l’intellighenzia partenopea, che invece dovrebbe essere garante e che a volte dimentica di aver fatto il ’99 e anche il ’68 e si riduce al più modesto presente.

Un’ultima considerazione per giustificare come mai questo apparente OT non sia poi OT; non solo per motivi generali, politici, I care, direbbe Vincenzo, io come intellettuale DEVO occuparmi della società e delle ricadute della scienza, ma anche per un motivo di merito; cosa è una remissione spontanea o se volete col linguaggio di De Franciscis un miracolo? E’ un evento inaspettato, un cigno nero, un accadimento NON LINEARE! Dunque di esso ci occupiamo con i metodi che conosciamo che usiamo per questo: i sistemi lontani dall’equilibrio come il nostro corpo e quello di ogni essere vivente o la biosfera sono proprio il luogo deputato agli eventi non lineari che studiamo con la retroazione, la dialettica, i metodi della termodinamica irreversibile, le equazioni differenziali; ecco perchè non siamo OT (Off Topic).

Bravo Gustavo per esserti indignato, ma non avevo dubbi; su Gustavo si può contare. Un abbraccio e un ricordo grato a te e agli altri chimici ribelli di Napoli (dei quali ho fatto parte e mi scuserà chi non è stato ricordato) da un ex studente.si veda anche: http://www.cicap.org/emilia/miracolo/

http://www.medbunker.it/2013/10/guarire-miracolosamente-o-spontaneamente.html

Precursori dell’Adenina nella sintesi abiotica nello spazio

In evidenza

Diego Tesauro

Tra le ipotesi sull’origine della vita terrestre nelle ultime decadi, ha avuto maggiori fautori l’ipotesi che i primi organismi viventi avessero alla base la molecola dell’RNA. L’RNA quindi avrebbe svolto il ruolo sia di catalizzatore delle reazioni nelle cellule che di trasmettitore dell’informazione. Solo successivamente la maggiore stabilità del DNA e delle proteine avrebbero portato alla sostituzione dell’RNA. Il mondo basato sull’RNA richiede la sintesi abiotica dei nucleotidi e la loro partecipazione nelle reazioni di replicazione dell’RNA non enzimatica. Entrambe le due funzioni mostrano delle criticità non risolte. In questo intervento mi vorrei focalizzare sulla sintesi dei nucleotidi in particolare di una delle basi, l’adenina, per cui di recente sono stati osservati alcuni precursori chiave nella sintesi.

Storicamente la presenza dell’adenina di origine extraterrestre, e quindi di sintesi abiotica, è stata rilavata alla fine degli anni sessanta nella famosa meteorite carbonacea di Murchison (https://it.wikipedia.org/wiki/Murchison_(meteorite)), fonte di innumerevoli molecole organiche di origine prebiotica. Una possibile via sintetica abiotica era già stata proposta da Oro et al. all’inizio degli anni sessanta in una pubblicazione sulla rivista Nature [1]. In questo schema la sintesi prevede la presenza del cianuro di idrogeno e l’ammoniaca come reagenti, verosimilmente presenti nell’atmosfera primordiale terrestre. Per poter spiegare la sintesi dell’adenina nelle nubi idi gas molecolare, da cui hanno origine per contrattazione gravitazionale i sistemi planetari, Chakrabarti ha proposto successivamente che l’adenina si possa formare attraverso l’oligomerizzazione di HCN nella fase gassosa in quattro fasi: HCN → H2C2N2 → NH2CH(CN)2 → NH2(CN)C = C(CN)NH2 → H5C5N5 in cui il primo step è una dimerizzazione del cianuro di idrogeno per dare la cianometanimmina [2] .

Figura 1 I due isomeri geometrici della cianometimmina

Figura 2 Sintesi attraverso due vie dei due isomeri geometrici della cianometimmina

Tuttavia, eseguendo calcoli teorici, negli ultimi decenni, la formazione del dimero di HCN, non sembra verificarsi in maniera efficiente nelle condizioni del mezzo interstellare (ISM). Pertanto il meccanismo di formazione e la possibilità di rilevare la molecola nelle nubi interstellari è di cruciale importanza per spiegare la formazione dell’adenina. La cianometanimmina presenta due diversi isomeri geometrici: l’isomero Z e l’isomero E (Figura 1). Pur essendo l’isomero Z più stabile dal punto di vista energetico fino ad oggi nell’ISM era stato rilevato solo l’isomero E. Solo recentemente è stata osservata la presenza di entrambi gli isomeri geometrici nella nube molecolare quiescente G + 0.693 del Centro Galattico mediante le osservazioni del radiotelescopio 30 m dell’IRAM sul Pico Veleta della Sierra Nevada in Spagna, nel dominio delle onde millimetriche [3]. Il rapporto osservato di abbondanza relativa tra i due isomeri [Z/E] è circa 6. Questo valore è estremamente maggiore rispetto a quanto previsto teoricamente dalle due vie di formazione chimica precedentemente proposte (in fase gassosa o sulla superficie dei grani di polvere della nube). Infatti la prima via prevede la reazione del radicale ciano con la metanimmina con formazione dei due isomeri nel rapporto 1.5 mentre l’alternativa, avente come reagenti il cianogeno e due atomi di idrogeno, mostra un rapporto nel prodotto tra gli isomeri intorno a 0,9 (Figura 2). Invece il rapporto [Z/E] osservato è in buon accordo con l’equilibrio termodinamico alla temperatura cinetica del gas (130-210 K). Poiché l’isomerizzazione non è possibile nell’ISM, le due specie potrebbero essersi formate ad alta temperatura. Nuovi modelli chimici, inclusa la chimica delle superfici su grani di polvere e reazioni in fase gassosa, dovrebbero essere esplorati per poter spiegare questi risultati. Qualunque sia il meccanismo di formazione, l’elevata abbondanza di Z-HNCHCN mostra che i precursori dell’adenina si sono formati nell’ISM. Ancora più recentemente è stata osservata per la prima volta anche la presenza di idrossiacetonitrile o glicolnitrile (Figura 3) in una protostella di tipo solare in formazione in IRAS 16293-2422 B, una zona della nebulosa oscura r Ophiuchi (Foto 1) [4]. La rilevazione è stata ottenuta mediante il radiotelescopio ALMA (Atacama Large Millimeter/submillimeter Array) in Cile (Foto 2), osservando a frequenze comprese tra 86,5 GHz e 266,5 GHz Sono state identificate in totale 15 transizioni di glicolnitrile.

Figura 3 Sintesi del Glicolnitrile e sue reazioni per produrre Adenina e Glicina

 

Foto 1 Il complesso Rho Ophiuchi cloud, una nebulosa oscura di gas e polveri localizzata ad 1° a sud dalla stella ρ Ophiuchi della costellazione dell’Ofiuco. Trovandosi a circa 131 ± 3 parsecs, (430 anni luce) è una delle zone di formazione di sistemi planetari più vicine al sistema solare.

Foto 2 Alcune delle antenne del Radiotelescopio interferometrico ALMA sull’altopiano di Chajnantor delle Ande cilene (https://www.eso.org/public/italy/teles-instr/alma/)

Anche questa molecola è coinvolta nella sintesi dell’adenina. Nel mezzo interstellare (ISM), il glicolnitrile potrebbe formarsi su superfici di grani ghiacciate attraverso la reazione tra formaldeide e cianuro di idrogeno. Questo composto, in presenza di ammoniaca e cianuro di idrogeno a pH basico, è in grado di accelerare il processo di sintesi dell’adenina. Inoltre in una miscela eutettica ghiaccio-acqua in presenza di ammoniaca, si può ottenere dal glicolnitrile la glicina. Quindi questa molecola gioca un ruolo chiave nella sintesi abiotica e nella chimica dei nitrili nell’ISM. Inoltre i dati mostrano la presenza della molecola sia nel core caldo interno che nell’involucro esterno freddo di IRAS16293 B, pertanto ci si può spiegare la sua presenza (e di composti organici quali la glicina) in oggetti appartenenti alle zone remote dei sistemi planetari come le comete e gli asteroidi. Molti punti restano però oscuri per cui è necessario condurre ulteriori esperimenti nonché elaborare dei modelling per avere una visione completa della chimica in fase gassosa a bassa densità e nelle interfaccia dei sistemi eutettici a bassa temperatura.

[1] J. Oro Mechanism of Synthesis of Adenine from Hydrogen Cyanide under Possible Primitive Earth Conditions Nature 1961, 1193-1194)

[2] S. Chakrabarti, S.K. Chakrabarti Astronomy and Astrophysics, 2000, 354, L6-L8 doi astroph/0001079

[3] V. M. Rivilla, J. Martín-Pintado, I. Jiménez-Serra, S. Zeng, S. Martín, J. Armijos-Abendaño, M. A. Requena-Torres, R. Aladro, D. Riquelme Abundant Z-cyanomethanimine in the interstellar medium: paving the way to the synthesis of adenine Monthly Notices of the Royal Astronomical Society: Letters, 2019, 483(1), L114–L119. doi 10.1093/mnrasl/sly228

[4] S. Zeng, D. Quénard, I. Jiménez-Serra, J. Martín-Pintado, V M. Rivilla, L. Testi, R. Martín-Doménech First detection of the pre-biotic molecule glycolonitrile (HOCH2CN) in the interstellar medium Monthly Notices of the Royal Astronomical Society: Letters, 2019, 484(1), L43–L48. doi:10.1093/mnrasl/slz002

 

 

La chimica di Star Trek

In evidenza

Claudio Della Volpe

Alla base della tecnologia di Star Trek c’è una macchina che si vede poco ma che giustifica allo spettatore attento tutte le incredibili cose che si possono fare sulle astronavi della Federazione (dei Pianeti Uniti, che lasciatemi dire, oggi a due minuti dalla mezzanotte nucleare, è ancora più incredibile del resto): il replicatore.

Do per scontato che abbiate anche solo sentito nominare Star Trek anche se non siete appassionati di fantascienza; io sono un lettore di fs da sempre, da quando ho letto Dalla Terra alla Luna; in realtà lo sono diventato nel tempo passando dalla fs ingenua, ipertecnologica degli anni iniziali a quella mano a mano più sottile, psicologica e intelligente, una vera letteratura fantastica, ma mica tanto, che aveva attratto anche persone come Primo Levi.Bene, alla base dell’universo di Star Trek c’è una macchina fantastica che è in grado di ricostituire qualunque oggetto le sia richiesto o che abbia in memoria usando la sua capacità di trasformare energia in materia e formarla a partire dagli atomi e dalle molecole sintetizzate; anche se la riproduzione non è esattissima per evitare di poter sintetizzare esseri viventi dal nulla; un limite etico che richiama le 3 leggi della robotica di Asimov. Nell’universo di ST questo avviene solo quando si teletrasportano esseri già viventi, senza crearli ex-novo. Fa anche il contrario ritrasformando in energia qualunque materia e dunque costituendo un perfetto dispositivo di riciclo. Dunque dovremmo farne una sorta di “santo Graal” del blog.

Senza il replicatore le astronavi della Federazione avrebbero ben poco spazio dovendo trasportare cibo e ricambi; anche l’aria viene ricreata e riciclata dal replicatore, eliminando così molti problemi delle nostre piccole astronavi planetarie.

Il replicatore di ST è basato sulla medesima fisica immaginaria che permette di trasferire le persone e le cose da un punto all’altro dell’universo.

Quando furono inventate le stampanti 3D ci fu chi fece un parallelo fra il replicatore di ST e la nuova tecnologia; ovviamente le stampanti 3D sono una grande idea, ma molto lontana dal replicatore; ma si sa gli inventori non stanno a guardare e se non sanno che una cosa è impossibile è meglio.

Necessario ricordare poi che se dietro Star Trek c’è una fisica (ci hanno anche scritto un libro), dietro le applicazioni reali c’è una chimica molto bella.Sull’ultimo numero di Science è stato pubblicato un articolo che racconta di una nuova tecnologia di stampa 3D che manda in soffitta quella presente (eh si chi ha appena comprato una stampante 3D ci rimarrà male) e apre un intero mondo; la nuova tecnologia consente di stampare in blocco, non a strati, oggetti di forma complessa, anche se inglobano altri oggetti e con una superficie molto ben rifinita: il tutto è controllato da una reazione fotochimica e dalle proprietà fotochimiche del materiale usato, che è un polimero. La stampante è basata su un dispositivo che proietta radiazione in quantità ben controllata nello spazio in cui è contenuto un polimero liquido e fotosensibile; man mano che nell’intervallo di pochi minuti la radiazione si accumula nel liquido in opportuna quantità nelle diverse zone del volume di controllo, si inizia una reazione di polimerizzazione che si conclude rapidamente, a questo punto il polimero non reagito viene eliminato per semplice aggiunta di solvente ed aspirazione e rimane l’oggetto che ci serve. Idea semplice e potente. L’acronimo della nuova tecnica è CAL, Computed Axial Lithography; ci avrei visto bene Tomography, perchè ricorda l’inverso della tomografia; nella tomografia NMR o X le radiazioni consentono di ricostruire la forma dell’oggetto, mentre qui la radiazione consente di costruire l’oggetto, casomai analizzato prima con la tomografia.Il primo oggetto stampato è stato “Il pensatore” di Rodin.

Nature battuta dalla eterna rivale si rifà descrivendo magistralmente la tecnologia:

As the projector cycled through the images, which covered all 360 degrees, the container rotated by a corresponding angle. “As the volume rotates, the amount of light received by any point can be independently controlled,” says Taylor. “Where the total amount exceeds a certain value, the liquid will become solid.”This is because a chemical in the resin absorbs photons and, once it reaches a certain threshold, the acrylate undergoes polymerization — the resin molecules link together into chains to make a solid plastic.

La nuova tecnologia oltre a vantare una superficie finale di altissima qualità può anche usare polimeri senza adattatori di viscosità che servono al flusso nell’ugello della matrice; tutte tecniche ormai da gettar via; dalla luce all’oggetto grazie ad una chimica sofisticatissima. La radiazione generata dal proiettore mentre il contenitore del polimero ancora “liquido” ruota consuma poco a poco l’ossigeno che fa da scavenger ai radicali prodotti; appena la soglia di ossigeno scende la polimerizzazione parte veloce e da luogo all’oggetto così, tutto in una volta, come per magia; osservate il filmato .gif che non ho riprodotto sul blog per motivi di proprietà, ma che potete gustarvi sul sito di Nature. Si possono inglobare materiali di altro genere senza problemi. Il polimero usato è stato ottenuto da una miscela delle sostanze denominate comunemente BPAGDA e PEGDA (3:1) con una viscosità di circa 5200cp. Il fotoiniziatore che è l’antenna che permette di “accumulare” la luce in arrivo integrandone gli effetti è il canforchinone (CQ) (che si usa nelle polimerizzazione dentarie) insieme con l’etil 4-dimetilamminobenzoato (EDAB).canforchinone

BPAGDA

PEGDA

La fotochimica e la chimica dei materiali trasformano un sogno in realtà; speriamo che sia usato bene.

PS (Un sogno lo aveva anche Prince Jerry, giovane immigrato economico, laureato in chimica nel suo paese, ma si è infranto sui binari di Tortona.)