L’ambiente al Portico della Pace.

In evidenza

Vincenzo Balzani

PORTICO DELLA PACE

luogo interculturale interreligioso interconfessionale intergenerazionale di incontro e di lavoro di tutte le donne e uomini costruttori di pace a Bologna

Portico della Pace, 2 marzo 2019, Piazza Maggiore, Bologna

Buon pomeriggio, grazie per la presentazione, sono molto contento di essere qui per partecipare, con tutti voi, a questo presidio. Siamo qui, in tanti, per dimostrare che è possibile organizzare una resistenza pacifica e democratica contro chi chiude confini, alza muri, rifiuta cooperazione e solidarietà, provoca ed esalta le disuguaglianze.

Mi è stato chiesto di parlare dell’ambiente, una parola che oggi, nel suo significato più comune, si riferisce al clima, all’inquinamento e alla natura considerata come un patrimonio da proteggere. Ma l’ambiente non riguarda solo la natura; l’ambiente è anche l’insieme delle condizioni sociali e culturali in cui viviamo. L’ambiente comprende il pianeta e anche noi che ci viviamo sopra.

Quello dell’ambiente, quindi, è un tema, e anche un problema, molto importante. Un grande scrittore, Italo Calvino era solito dire: “Se vuoi capire bene le cose importanti, prima di tutto devi guardarle da lontano”. Uno dei primi uomini che ha visto da lontano la Terra è stato William Anders, un’astronauta della missione Apollo 8 che, nel 1968, la vigilia di Natale, era in orbita attorno alla Luna. All’improvviso apparve agli astronauti uno spettacolo che nessuno prima aveva mai visto: il sorgere della Terra, la Terra che usciva dal cono d’ombra della luna. Sbalordito, William Anders fece una fotografia, che ancor oggi è considerata fra le cento foto più importanti. Scattò quella foto e un attimo dopo disse: “Siamo venuti fin quassù per esplorare la luna e la cosa più importante è che abbiamo capito cos’è la Terra”. Aveva ragione Calvino: per capire le cose importanti, bisogna prima guardarle da lontano.

Quando si guarda la Terra da lontano, ci si rende conto quale sia la nostra condizione, il nostro ambiente: appare chiaro che siamo passeggeri di una specie di astronave che viaggia nell’infinità dell’universo. Su questa astronave siamo in tanti e così diversi: bianchi, neri gialli, ricchi e poveri, buoni e cattivi; nessuno se ne può andare, se non morendo, nessuno può arrivare da fuori: bisogna nascerci dentro. La Terra, dunque, è una astronave, ma un’astronave del tutto speciale perché non potrà mai atterrare da nessuna parte, non potrà mai attraccare a nessun porto per far rifornimento o scaricare rifiuti. E se qualcosa non funziona, se qualcosa si rompe dovremo ripararla da soli, senza neppure scendere.

Si capisce, allora, che siamo in un a situazione molto delicata. Quindi, questa astronave Terra, questo unico luogo dove possiamo vivere vivere, questa nostra casa Comune come la Chiama papa Francesco, va custodita con grande attenzione. Purtroppo, non lo stiamo facendo. Lo dicono gli scienziati come Lester Brown che ha scritto un libro per ammonire che siamo vicini al collasso, siamo sull’orlo del baratro; lo dice anche papa Francesco nell’ enciclica laudato si’:

“Le previsioni catastrofiche ormai non si possono più guardare con disprezzo e ironia. Lo stile di vita attuale, essendo insostenibile, può sfociare solo in catastrofi”.

Che la situazione sia critica lo aveva già capito, tempo fa, un grande filosofo, Hans Jonas:

... è lo smisurato potere che ci siamo dati, su noi stessi e sull’ambiente, sono le immani dimensioni causali di questo potere ad imporci di sapere che cosa stiamo facendo e di scegliere in che direzione andare”.

Se dobbiamo imporci di sapere cosa stiamo facendo, vuol dire che stiamo sbagliando qualcosa, che non abbiamo capito come si deve vivere su questa Terra, su questa allora astronave. Cerchiamo allora di capire insieme cosa c’è che non va.

Dobbiamo vivere, e per vivere ci vogliono risorse. L’unica risorsa proveniente dall’esterno su cui possiamo contare è la luce del sole. Tutte le altre risorse dobbiamo prenderle dalla Terra. Ora la Terra ha dimensioni “finite”, è quella che è, non è grande come la voglio io: siccome la Terra ha dimensioni finite, le risorse della Terra sono limitate. Sembrerebbe un concetto ovvio, ma evidentemente non lo è se papa Francesco nell’enciclica deve scrivere:

“L’idea di una crescita infinita, che tanto entusiasma gli economisti, è basata sul falso presupposto che esiste una quantità illimitata di risorse”.

Falso presupposto, perché non è vero che le risorse sono illimitate. Sono limitate, e dobbiamo tenerne conto in tutto quello che facciamo. Ne deriva che il PIL (prodotto interno lordo), parametro che è basato sull’idea di una crescita infinita, è un non senso.

Poi c’è l’altra faccia della medaglia: ogni volta che si utilizzano risorse, si producono rifiuti. Esempio: uso la risorsa carbone, produco il rifiuto anidride carbonica CO2. E siccome la Terra ha dimensioni finite, anche lo spazio disponibile per collocare I rifiuti è limitato. Altro concetto che sembrerebbe ovvio, ma evidentemente neanche questo lo è se papa Francesco nell’enciclica deve scrivere:

“L’uomo pensa di essere di fronte ad una natura che può essere sfruttata senza problemi perché gli effetti negativi dello sfruttamento possono essere eliminati”.

Non è affatto vero che i rifiuti possono essere eliminati; non possiamo metterli in un non luogo che appunto non c’è. I rifiuti dobbiamo tenerceli qui, sulla Terra.

Vediamo ora perché la situazione risorse/rifiuti è insostenibile. Prendiamo il caso della risorsa più importante, che è l’energia. La nostra principale fonte di energia oggi sono i combustibili fossili. Sapete quanti ne consumiamo? Attenzione: ogni secondo, e i secondi passano in fretta, ogni secondo al mondo consumiamo 250 tonnellate di carbone, 1000 barili di petrolio e 105 mila metri cubi di gas. Ogni secondo. E ogni secondo, bruciando queste enormi quantità di combustibili fossili, produciamo e immettiamo nell’atmosfera 1000 tonnellate di anidride carbonica. Quindi, stiamo consumando con una rapidità incredibile una grande risorsa, i combustibili fossili e allo stesso tempo immettiamo nell’atmosfera quantità enormi di rifiuti: l’anidride carbonica, responsabile del cambiamento climatico e altre sostanze, come le famigerate polveri sottili che danneggiano la salute.

Questo discorso si può estendere a tutti gli altri tipi di risorse e di rifiuti. 100 o a anche solo 50 anni fa c’erano molte risorse non ancora usate e non c’erano tutti i rifiuti che abbiamo prodotto. Ecco allora che in questi ultimi 100 anni l’uomo, con una frenetica attività resa possibile dalla grande diponibilità di energia fornita da combustibili fossili e dai progressi della scienza e delle tecnica, ha modificato profondamente il pianeta. Gli scienziati dicono infatti che stiamo vivendo in una nuova epoca, a cui hanno dato il nome Antropocene. Nel passato le epoche erano scandite da cambiamenti nella Natura: oggi l’uomo è più forte della natura e si è creato una sua epoca: l’Antropocene.

Negli ultimi 20 anni però, le persone che guardano non solo al presente ma anche al futuro hanno capito che non si può andare avanti così. Lo hanno capito scienziati, filosofi, anche gente non colta, pochissimi fra i politici. Hanno capito che in un mondo limitato come è la nostra astronave Terra non si può avere una crescita infinita. Hanno capito che bisogna cambiare.

Per prima cosa, bisogna smettere di usare i combustibili fossili per tre motivi: intanto sono una risorsa non rinnovabile e quindi in via di esaurimento, per cui verrebbero in ogni caso a mancare alle generazioni future; poi, l’inquinamento che causano è molto pericoloso per la salute dell’uomo (in Italia, abbiamo, ogni anno, circa 80.000 persone che muoiono prematuramente); e c’è un terzo motivo che è di gran lunga il più importante: l’anidride carbonica che immettiamo nell’atmosfera bruciando i combustibili fossili provoca il cosiddetto effetto serra: avvolge il pianeta come in un manto permettendo alla luce solare di giungere sulla superficie della Terra, ma poi impedisce, almeno parzialmente, al calore di uscire. L’effetto serra provoca poi il cambiamento climatico. Come certamente sapete nel dicembre 2015 in una conferenza indetta dall’ONU a Parigi le delegazioni di tutti i 195 paesi presenti hanno riconosciuto che il cambiamento climatico è oggi il pericolo più grave che per l’umanità. Questo significa che dobbiamo diminuire da subito l’uso dei combustibili fossili e cessare del tutto di usarli entro il 2050.

La cosa è possibile se sostituiamo l’energia che fino ad oggi ci hanno fornito i combustibili fossili con le energie rinnovabili generate dall’unica risorsa che ci viene da fuori, la luce del Sole: possiamo convertire direttamente la luce solare in elettricità col processo fotovoltaico e utilizzare anche l’energia solare che genera il vento (energia eolica) e la pioggia (energia idrica). Purtroppo non c’è tempo per illustrare i molti pregi e i pochi difetti delle energie rinnovabili. Ricordo solo che il processo fotovoltaico è un vero miracolo della scienza poiché converte l’energia solare in energia elettrica con un’efficienza del 20%, quando la fotosintesi naturale, che utilizza la luce solare per fornirci chimica, ha un’efficienza minore del 0,5%. Ricordo anche che già oggi l’eolico fornisce, senza dare problemi, una quantità di energia pari a quella che produrrebbero, con infiniti problemi, 180 centrali nucleari.

Se fino ad oggi la civiltà è progredita utilizzando energia termica generata dalla combustione di carbone, petrolio e metano, in futuro non sarà più così: il progresso della civiltà è ormai affidato all’utilizzo, diretto e indiretto, dell’energia solare per generare energia elettrica.

Fotovoltaico, eolico e idroelettrico sono forme di energia già utilizzabili, ma fanno fatica ad affermarsi perché il loro sviluppo è ostacolato da interessi economici e di potere legati alle grandi compagnie petrolifere, come la nostra ENI; ENI oggi per l’Italia è come una palla al piede che ci impedisce di correre verso il futuro. Ha pozzi di metano e petrolio in molte parti del mondo, in particolare in Africa, e ora grazie a un permesso del presidente Trump comincia a sforacchiare anche nell’Artico.

Potremmo riassumere la situazione dicendo che il futuro (le energie rinnovabili) è già presente, ma il passato (i combustibili fossili) non vuole passare. Il passato viene tenuto in vita artificialmente perché coinvolge molti interessi. E se poi continuando ad usare i combustibili fossili si aggrava il cambiamento climatico e aumenta il numero di poveri costretti a lasciare i paesi africani, a noi ricchi poco importa: continueremo a fermarli chiudendo i porti, lasciandoli affogare nel Mare Nostrum o morire nei campi di concentramento in Libia. E noi ricchi potremo continuare senza problemi a scegliere in quale paese dell’Africa andare in vacanza: per esempio in Egitto, con cui facciamo affari importanti nel campo dei combustibili fossili e anche nel commercio delle armi, affari che forse impediscono sia fatta luce sul caso Regeni.

Abbiamo molti motivi, dunque, perché sia portata a termine la transizione dai combustibili fossili alle e energie rinnovabili e dobbiamo batterci perché questo avvenga il più rapidamente possibile.

La transizione energetica, pur necessaria, non è però sufficiente per garantire un futuro sostenibile. Perché c’è un problema più generale, che investe tutte le risorse che prendiamo dalla Terra. Oggi il mondo funziona con la cosiddetta economia lineare: prendiamo le risorse dalla Terra, costruiamo quello che ci serve (spesso anche quello che non serve) lo usiamo e alla fine lo gettiamo nei rifiuti: è l’economia dell’usa e getta, il consumismo. Un sistema economico di questo tipo non è sostenibile perché è basato su due falsità che abbiamo già avuto modo di notare: non c’è una quantità infinita di risorse a cui attingere, e non è possibile eliminare i rifiuti. E sappiamo anche che l’accumulo di rifiuti, vedi anidride carbonica, può causare gravi problemi.

Se vogliamo raggiungere almeno un certo grado di di sostenibilità, bisogna passare dall’economia lineare dell’usa e getta all’economia circolare: che significa prelevare dalla Terra le risorse nella minima quantità possibile, usarle in modo intelligente per produrre cose che funzionino bene, che se si rompano possano essere riparate o usate per altri scopi, e che infine vengano raccolte in modo differenziato per poterle riciclare e ottenere così nuove risorse.

Ma anche questa seconda transizione, dall’economia lineare all’economia circolare non può garantirci un futuro sostenibile se non ci abituiamo a consumare di meno, a vivere adottando il criterio della sufficienza e della della sobrietà, che non vuol dire essere meno felici.

Non c’è tempo per approfondire l’argomento, ma prima di chiudere vorrei soffermarmi brevemente sul problema più grave che affligge oggi l’umanità: è il problema delle disuguaglianze. Quando vado a fare conferenze nelle scuole parlo ai ragazzi delle disuguaglianze: in Italia, dove il 5% più ricco ha risorse economiche pari al 90% più povero; negli Stati Uniti dove accanto ad un folto gruppo di miliardari convivono 46 milioni di poveri che che mangiano una volta al giorno con i food stamps, i buoni pasto forniti dal governo. Ma la cosa che più impressiona gli studenti è questa pagina di giornale nella quale è scritto che al mondo ci sono “tre uomini ricchi come l’Africa”. L’Africa, la nostra vicina di casa, l’Africa, di cui tanto si parla, magari senza saperne nulla.

Se avessi avuto modo di proiettare, avrei potuto mostrarvi 4 o 5 figure molto interessanti sull’Africa: provo a riassumerle brevemente.

  • l’Africa: è talmente grande che dentro all’Africa ci starebbero la Cina, gli Stati Uniti, l’India, l’Europa occidentale, parte dell’Europa orientale e il Giappone;
  • L’Africa ha una popolazione di 1,1 miliardi di persone; la popolazione della Nigeria, attualmente 200 milioni, nel 2050 supererà la popolazione degli USA;
  • l’Africa è molto povera da punto di vista economico, ma è molto ricca di risorse naturali e di minerali pregiati
  • molti stati, direttamente come fa la Cina o indirettamente tramite multinazionali stanno spolpando l’Africa. Alex Zanotelli, uno che di Africa se ne intende, ha detto che “Per aiutare l’Africa i paesi ricchi dovrebbero anzitutto smettere di portare via le sue risorse ”.Infine, vi sarà capitato di guardare nel computer le foto del mondo di notte: avrete visto quante luci ci sono in tutta Europa, mentre l’immensa Africa è quasi tutta buia. In Africa 400 milioni di persone non hanno elettricità. Senza elettricità non ci può essere progresso economico, scientifico, politico, culturale. L’Africa è tutta buia di notte perché non ha energia elettrica, ma di giorno gode di una immensa quantità di energia solare. l’Africa è benedetta dall’energia solare.

Ecco allora di cosa c’è bisogno in Africa: sviluppare il fotovoltaico e le altre tecnologie connesse alle energia rinnovabili. Un Governo italiano che si rispetti dovrebbe avere un Ministero dedicato all’Africa, non per colonizzarla come fece il fascismo, non per portarle via risorse come fanno oggi molti stati, non per estrarne il petrolio inquinando il territorio come fa ENI, ma per aiutarla ad utilizzare le sue immense risorse di energie rinnovabili.

Un’Africa non più buia, ma piena di luce, non sarebbe né un peso né una minaccia per l’Italia e per l’Europa.

Industria farmaceutica italiana prima in Europa.

In evidenza

Luigi Campanella, già Presidente SCI

La recente notizia del superamento da parte dell’Italia del gigante Germania per quanto riguarda la produzione di farmaci – per esattezza 31,2 miliardi contro 30,1-non può che essere al tempo stesso motivo di soddisfazione e di riflessione. La soddisfazione deriva soprattutto dai caratteri di questo sorpasso da ascrivere all’export italiano nel settore cresciuto da 1,3 miliardi nel 1991 agli attuali 24,8 miliardi,di fatto il 55 % dell’export hi tech del Paese:tale dato è indicatore della fiducia che i farmaci prodotti in Italia riscuotono nel mondo. Tale soddisfazione deriva anche dalle statistiche in termini di allungamento della vita media-quasi 10 anni dal 1978 ad oggi – e di ridotta mortalità per le prime 5 cause di decesso (malattie del sistema cardiocircolatorio, tumori, malattie del sistema respiratorio, patologie dell’apparato digestivo, HIV/AIDS). A tale soddisfazione non può però non accompagnarsi una riflessione:come nello stesso Paese tali descritte eccellenze coesistano con zone d’ombra e con situazioni di crisi?

Di recente il dibattito su Industria 4.0 ha messo a fuoco quali siano le innovazioni e le direttrici di questa nuova concezione industriale. Se si va ad esaminarne i contenuti non si può fare a meno di osservare che l’industria farmaceutica è stata quella che più li ha interpretati e realizzati. Molti paradigmi dell’ ìndustria farmaceutica sono mutati dall’anno zero, quello cruciale del 1978, nel quale nacque il Servizio Sanitario Nazionale. Negli ultimi 10 anni grazie all’accelerazione tecnologica supportata dalla rivoluzione digitale e dai Big Data le innovazioni hanno trasformato il mondo dei farmaci, che non sono più solo un prodotto, ma fanno parte di un processo di cura più complesso ed interconnesso a diagnostica di precisione, sensoristica, medical device e kit. Tale innovazione per tornare a vantaggio della filiera richiede che i singoli operatori si integrino a sistema, come appunto industria4.0 sostiene., e un sistema per funzionare deve basarsi su regole certe, stabili e condivise, su modelli nuovi di finanziamento, su partecipazione e comunicazione inside e outside continue ed attive.

Credo che uno dei grandi meriti dell’industria farmaceutica sia proprio nell’avere in parte anticipato i tempi pervenendo alla configurazione anzidetta pure nelle difficoltà correnti.

Due questioni in particolare bene interpretano industria 4.0 con riferimento alla farmaceutica: con la serializzazione, la piena attuazione della direttiva sulle falsificazioni di farmaci e la condivisione con le altre associazioni di categoria della ottimizzazione del trasporto nel pieno rispetto della buona pratica di laboratorio. La serializzazione – volgarmente assimilabile alla tracciabilità – segna nel campo dei farmaci una vera e propria rivoluzione: non si tratta solo di produrre e gestire , ma di attuare un sistema di verifica sull’intero ciclo di vita del prodotto (produzione, trasporto, immagazzinamento, vendita, consumo). Per quanto riguarda il secondo punto, il trasporto, si pensi che quello di farmaci rappresenta l’8% del totale trasportato e che da disfunzioni di esso derivano problemi alla distribuzioni con interruzioni o alterazioni che possono mettere in pericolo la vita di malati. Sono due esempi di come fare sistema comporti avanzamenti nella soluzione di problemi anche gravi. Tornano ancora una volta i capisaldi di Industria 4.0 : sicurezza,comunicazione e partecipazione, digitalizzazione. Chi si adegua prima -seguendo l’esempio della farmaceutica – sopravvive meglio e ha più possibilità di crescere, come la farmaceutica stessa ha dimostrato. Anche la Chimica sta percorrendo la stessa strada:dopo la Chimica 1.0, quella del carbone ,la Chimica 2.0, quella del petrolio, la Chimica 3.0,quella delle specialties, siamo alla Chimica 4.0 quella della digitalizzazione, che rende continuo lo scambio di dati fra utente ed utente, fra utente e macchina, superando la discontinuità di Chimica 3.0. Da questa conoscenza scambiata, da questa partecipazione globale nascono le banche dati ed i Big data ai quali prima si accennava sul piano gestionale e nasce il contributo della Chimica all’economia circolare che sostituisce il modello lineare. La circolarità è una caratteristica che si basa sullo partecipazione ad un anello : si riceve (conoscenza e materia) e si offre lo stesso tipo di merce.

Il processo di progressiva trasformazione dell’industria simbolizzato dalla sigla Industria 4.0 interessa l’economia e la società e richiede la formazione di nuove professionalità. Ecco perché l’università viene coinvolta in misura significativa. Fa piacere quindi osservare che qualcosa si muove nella direzione di una collaborazione fra atenei ed imprenditori. In questa logica si è costituito a Milano il Made, nuovo Centro di Competenza guidato dal Politecnico e nato con l’obbiettivo di fornire alle imprese , in particolare di piccola e media dimensione, tre specifici servizi: orientamento, formazione, supporto a progetti di innovazione. Dispone di 2000 mq e sarà organizzato in isole multifunzionali dove le imprese costituenti il Made mostreranno ad altre imprese cosa sia possibile fare con le nuove tecnologie (realtà aumentata, robotica, tecnologie di Big data e Cybersecurity), gettando le basi per indurre queste ad entrare nel Centro o a divenirne clienti. I partner del Centro sono 39,sia pubblici che privati, fra i quali 4 atenei, l’Inail ed alcune istituzioni di ricerca. Quello della formazione è proprio il punto debole di un altro settore delle attività antropiche, l’agricoltura. Oggi non si può parlare,al contrario dei settori di cui prima si è discusso,di agricoltura 4.0. L’agricoltura italiana conserva ancora per certi aspetti la dimensione artigianale:è in limite di cultura che solo si può superare con una formazione adeguata degli addetti,che li renda in grado di confrontarsi con sensori, algoritmi, GIS. I giovani devono essere incoraggiati su questa strada: siano bene accolti quindi start up e spin off. Ancora una volta l’università è chiamata in causa:risponda presente, è in gioco il futuro del nostro settore più tradizionale

Elementi della tavola periodica: Rame, Cu

In evidenza

Mauro Icardi

Rame: simbolo chimico Cu, numero atomico 29, peso atomico 63,546. Elemento conosciuto praticamente da sempre, se si pensa che in Turchia sono stati rinvenuti oggetti in rame risalenti al 7000 a.C.

Ötzi il corpo mummificato di un uomo risalente al 3200 a.C. ,rinvenuto sulle Alpi , ha come corredo un’ascia con la punta di rame.

E’ un metallo duttile, malleabile, e dopo l’argento è il migliore conduttore di elettricità e di calore. Si può trovare in natura allo stato di rame nativo, oppure sotto forma di sali come il solfuro rameoso o calcosite (Cu2S), solfuro di ferro e rame o calcopirite (CuFeS2), e nei composti quali la cuprite (Cu2O). Il simbolo Cu che lo rappresenta deriva dall’abbreviazione di “Cuprum”, dal greco Kyprios, l’isola di Cipro dai cui giacimenti minerari si estraeva il metallo.

I principali paesi produttori di rame sono CILE (Produzione mineraria: 5.5 milioni di tonnellate), PERÙ (Produzione mineraria: 2,3 milioni di tonnellate). Il Perù ha sorpassato la Cina, diventando il secondo più grande produttore del mondo. Nel futuro è possibile che la produzione di rame del paese possa aumentare ulteriormente, CINA (Produzione mineraria: 1,74 milioni di tonnellate), STATI UNITI (Produzione mineraria: 1,41 milioni di tonnellate).

Il rame si utilizza nel processo cuproammoniacale per la produzione di seta artificiale, ed è usato come anticrittogamico. Io ricordo molto bene la preparazione della poltiglia bordolese da spruzzare sulle viti con l’irroratrice a spalla. Nelle estati trascorse dai nonni in Monferrato, ascoltavo con curiosità ed interesse le conversazioni relative alla coltivazione della vite, che si svolgevano a volte sulla piazza principale del paese. La poltiglia bordolese è il rimedio più antico contro la peronospora: per ottenerla si fa disciogliere 1 hg di solfato di rame in 10 litri di acqua, quindi si aggiunge 1 hg di calce spenta in polvere. Il prodotto va tenuto agitato e irrorato subito, altrimenti la calce, in sospensione, decanta sul fondo del recipiente. Oggi si preferiscono prodotti già pronti, in polvere bagnabile o allo stato colloidale, a base di ossicloruro di rame; possono essere mescolati allo zolfo e costituire così un rimedio anche contro l’oidio. Io però ricordo i contenitori all’inizio dei filari, con un lungo bastone per il mescolamento della sospensione, e l’utilizzo ancora per buona parte degli anni 70.

Del rame si fa presto esperienza, anche semplicemente togliendo la copertura isolante di un filo elettrico, oppure perché in qualche casa di campagna è usuale vedere pentole e tegami di rame, che in qualche caso sono diventati elementi di arredo. Nel tempo le pentole in rame sono state progressivamente abbandonate, in quanto la possibile solubilizzazione del rame da parte di acidi organici contenuti negli alimenti, poteva dar luogo ad intossicazioni.

Ma le notizie di cronaca ci hanno anche parlato dei furti di rame, tanto che è stato istituito presso il dipartimento della Pubblica sicurezza, direzione centrale della Polizia criminale, l’osservatorio nazionale su questo fenomeno. Negli ultimi anni i furti sono tendenzialmente diminuiti. Ricordo che invece erano frequenti negli anni 2008-2009 periodo che molti osservatori ed analisti fanno coincidere con l’inizio della crisi economica attuale. L’incremento dei prezzi delle materie prime, iniziato nei primi mesi del 2008 che vide salire il prezzo del petrolio al valore record di 147$ al barile il giorno 11 luglio 2008, la crisi alimentare mondiale e l’aumento del prezzo del grano, un’elevata inflazione globale, la minaccia di una recessione provocarono l’inizio di questo fenomeno.

Iniziarono furti di rame nei cimiteri, nelle sottostazioni elettriche. Si rimuovevano le guaine isolanti dai cavi elettrici, in qualche caso anche bruciandoli, con ovvie emissione di fumi tossici. La stabilizzazione della produzione, ed il calo conseguente del prezzo, oltre a maggiori controlli da parte delle forze dell’ordine hanno diminuito il fenomeno, che però non è stato eliminato completamente. Su un impianto di grosse dimensioni gestito dalla società per la quale lavoro, si è resa necessaria l’istituzione di un servizio di sorveglianza, dopo che si erano verificati ben tre fermi impianto a causa dei furti. Situazioni simili si sono verificate sulle linee ferroviarie.

Episodi di questo genere devono farci riflettere: la terra non può essere sovrasfruttata, anche per quanto riguarda l’estrazione di minerali. Le nuove tecnologie estrattive non potranno prescindere da un uso più attento e consapevole delle risorse. E anche le nostre abitudini personali dovranno necessariamente conformarsi alla constatazione (forse per molti non così semplice), che anche gli elementi chimici in futuro potranno diventare scarsi, o per meglio dire non più economicamente sfruttabili. Con tutte le conseguenze del caso.

L’andamento del mercato del rame può esser preso come termometro della situazione politico-economica internazionale, ma risente notevolmente anche di manovre speculative. Il prezzo infatti è influenzato non solo dal tenore del minerale e dai costi d’impianto, ma anche dalla situazione politica internazionale. Inoltre a periodi di scarsa disponibilità seguono periodi in cui le scorte si accumulano. Dal punto di vista della provenienza, il 60% del rame proviene dalle miniere; il restante 40% è ricavato dal riciclo dei rottami. I giacimenti da cui si estrae il metallo hanno un tenore medio dell’1,5%; sono quindi necessarie grandi operazioni di scavo, di concentrazione e di arricchimento. Per quanto riguarda il recupero i rifiuti di apparecchiature elettriche ed elettroniche potrebbero diventare delle vere e proprie miniere urbane o urban mining; basti pensare che da una tonnellata di schede elettroniche, si possono ricavare più di 2 quintali di rame.

Il rame è un normale componente dell’organismo umano. Un uomo adulto ne contiene da 70 a 180 mg. Questo metallo svolge un importante ruolo nella formazione del tessuto nervoso, osseo e connettivo, ed e presente in molti enzimi.

Dal punto di vista ambientale il rame è un metallo frequente nel regno animale e vegetale. Il catione monovalente (Cu+)) è parte integrante del pigmento respiratorio dei molluschi, l’emocianina.

Nelle acque superficiali la concentrazione di rame è normalmente di poco inferiore ad 1 mg/lt. Il rame monovalente in acqua viene rapidamente ossidato a rame bivalente (Cu++) che in gran parte viene adsorbito su solidi in sospensione o sedimenti.

Il rame è un elemento pericoloso per le pecore, che vanno soggette ad avvelenamento da questo metallo. Un episodio di questo genere è narrato dal veterinario inglese James Herriot in uno dei suoi libri (“Beato tra le bestie”) pubblicato in Italia nel 1977.

http://www.interno.gov.it/it/ministero/osservatori/osservatorio-nazionale-sui-furti-rame

https://copperalliance.it/industria-rame/dove-si-trova/

Una rappresentazione moderna del ciclo del rame

An ‘‘anthrobiogeochemical’’ copper cycle, from Earth’s core to the Moon, combining natural biogeochemical and human anthropogenic stocks and flows is derived for the mid-1990s. Although some aspects of the quantification have moderate to high uncertainty, the anthropogenic mining, manufacturing, and use flows (on the order of 104 Gg Cu/yr) clearly dominate the cycle. In contrast, the natural repositories of Earth’s core, mantle, and crust, and of the Moon, hold much higher stocks of copper (>1010 Gg) than do anthropogenic repositories (<106 Gg). The results indicate that the present anthropogenic rate of copper extraction exceeds the natural rate of renewal by 􏰁106.

Citation: Rauch, J. N., and T. E. Graedel (2007), Earth’s anthrobiogeochemical copper cycle, Global Biogeochem. Cycles, 21, GB2010, doi:10.1029/2006GB002850.

Elizaveta Karamihailova (1897-1968)

In evidenza

Rinaldo Cervellati

Elizaveta Karamihailova è stata una pioniera della fisica nucleare all’inizio del XX secolo, istituì i primi corsi pratici di fisica delle particelle in Bulgaria ed è stata la prima donna a ottenere un titolo di professore in quel Paese.

Elizaveta nacque a Vienna nel 1897 da Ivan Mikhaylov, bulgaro, e Mary Slade, inglese, entrambi studenti all’università della capitale austriaca, lui di medicina, lei di musica. Elizaveta trascorse così gran parte della sua infanzia a Vienna, finché nel 1909 la famiglia si trasferì a Sofia, la capitale della Bulgaria, dove Ivan sarebbe diventato uno dei chirurghi più famosi del paese contribuendo alla costruzione dell’Ospedale della Croce Rossa, diventandone direttore a titolo gratuito. Con un padre chirurgo e una madre musicista, Elizaveta crebbe in un ambiente multiculturale, artistico e scientifico.

Si iscrisse al Sofia Girls’ College, dove si diplomò nel 1917, dopodiché partì per studiare all’Università di Vienna.

Elizaveta Karamihailova

Nel 1922 Karamihailova ottenne il dottorato in fisica e matematica discutendo la tesi “A proposito di figure elettriche su materiali diversi, in particolare cristalli”, sotto la guida di Karl Przibram. Karamihailova continuò il suo lavoro presso l’Institute for Radium Studies di Vienna, interessandosi particolarmente alla radioluminescenza. Nell’autunno del 1923 tornò brevemente in Bulgaria e lavorò come “ricercatore ospite” nell’Istituto di Fisica dell’Università di Sofia. Ben presto Karamihailova tornò a Vienna all’Institute of Radium Studies e iniziò un lavoro sulla trasmutazione degli elementi bombardati con particelle alfa. Nel 1931 Karamihailova e Marietta Blau[1] osservarono uno specifico tipo di radiazione precedentemente sconosciuta emessa dal polonio, che in seguito avrebbe portato James Chadwick alla scoperta dei neutroni. Nel frattempo frequentò corsi di ingegneria elettronica al Politecnico di Vienna.

Elizaveta Karamihailova in laboratorio

Poiché Elizaveta non era austriaca, non poteva essere assunta come assistente di ricerca, pertanto lavorò con un contratto temporaneo. Quando nel 1933 il contratto terminò, fu quasi costretta ad abbandonare la ricerca ma fu in grado di mantenersi attraverso lezioni private mentre continuava a lavorare in laboratorio senza retribuzione.

Nel 1935, dopo più di un decennio senza molte soddisfazioni, il talento di Elizaveta e il suo contributo alla scienza ottennero finalmente un riconoscimento. Fu infatti premiata con una borsa di ricerca triennale Alfred Yarrow Scientific, istituita per consentire alle scienziate di talento di proseguire la ricerca dal Girton College di Cambridge. Lavorò quindi al Cavendish Laboratory dell’Università di Cambridge, uno dei più importanti istituti di ricerca atomica e nucleare dell’epoca[2].

Karamihailova nel suo studio

Karamihailova tornò in Bulgaria nel 1939, dove fu nominata docente di Atomistica Sperimentale e Radioattività all’Università di Sofia. Istituì un corso di fisica atomica, introducendo le conoscenze acquisite nei suoi studi in Austria e Inghilterra e importando alcune delle sue attrezzature.

Karamihailova e suoi studenti

Lo scoppio della seconda guerra mondiale interruppe ogni ulteriore espansione delle attività di ricerca nucleare.

Nonostante il suo formidabile intelletto e la sua statura scientifica, Elizaveta era una persona semplice e amichevole che fraternizzava con i suoi studenti ed era rispettata e amata da loro. Non era particolarmente interessata alle correnti politiche che attraversavano il suo paese durante la seconda guerra mondiale. “Era anticomunista e aveva orrore per tutte le armi”, ha ricordato Mary Cartwright, una collega di Cambridge. Questa avversione avrebbe potuto costarle caro dopo l’invasione sovietica della Bulgaria nel 1944. Fu intrapresa un’epurazione dell’intero sistema educativo per eliminare gli anticomunisti. Elizaveta non fu rimossa ma il suo nome apparve in una lista di “scienziati inaffidabili”. Non perse la cattedra, ma fu trasferita all’Istituto di Fisica dell’Accademia Bulgara delle Scienze, dove ricevette il titolo di professore ordinario. Il divieto di viaggiare all’estero le impedì di interagire e collaborare con altri scienziati. Continuò tuttavia a lavorare nel campo della radioattività.

Omaggio a Elizaveta Karamihailova

I timori di Elizaveta sugli effetti delle radiazioni erano fondati e lei, come molti dei suoi colleghi ne subirono le conseguenze. Elizaveta Karamihailova morì di cancro nel 1968.

Opere consultate

Women in Science, European Communities, 2009, pp. 142-144

[1] Vedi il volume 2007 in bulgaro qui linkato.

[2] All’epoca i principali istituti di ricerca in fisica e chimica nucleare e delle radiazioni erano tre: L’Istituto del Radio a Parigi, in Francia, il Cavendish Laboratory a Cambridge, in Inghilterra e L’Istituto di Ricerca sul Radium a Vienna, in Austria.

Un’antica controversia fotochimica: William Fox Talbot e il brevetto della stampa al collodio

In evidenza

Andrea Turchi

Premessa

Nel maggio del 1854 lo scienziato inglese William Fox Talbot, noto per i suoi studi di ottica e inventore della calotipia, un originale processo di sviluppo fotografico, citò davanti alla corte di Londra un fotografo, James Henderson, accusandolo di utilizzare la calotipia senza pagare le royalties previste dal brevetto che lo stesso aveva registrato alcuni anni prima, nel 1841.

La causa, che Talbot perse, ha una peculiare importanza storica perché permette di esemplificare la profonda connessione tra il progresso delle conoscenze nelle tecniche fotografiche e lo straordinario sviluppo della chimica come disciplina che avvenne nei primi decenni del XIX secolo. Inoltre quella causa mise in luce l’importanza economica e commerciale che stava assumendo la fotografia, la cui nascita e affermazione tanto doveva alle conoscenze chimiche.

Chimica e fotografia a braccetto

Probabilmente non c’è settore della tecnica in cui l’importanza della chimica sia stato più grande che nella fotografia. I processi tradizionali di impressione, fissaggio, sviluppo e stampa fotografici sono essenzialmente chimici e tutti coloro che si dedicarono alla fotografia nella prima metà del XIX sec. avevano conoscenze chimiche (sia pure solo empiriche) ben solide[1].

Impressione delle immagini e ossidoriduzioni

Un antesignano del processo di impressione fotografica fu l’inglese Thomas Wedgood che all’inizio del XIX secolo aveva notato che una carta rivestita con nitrato d’argento risultava fotosensibile, ossia si anneriva nei punti colpiti dalla luce. L’annerimento dei sali d’argento era già noto ai chimici del XVIII sec.: nel 1727 il tedesco Johann Heinrich Schulze si accorse che un recipiente di vetro che conteneva un impasto d’argento, gesso e acido nitrico cambiava colore se esposto alla luce; applicando un oggetto sul vetro si otteneva così l’impronta dello stesso nell’impasto. Schulze chiamò scotophorus (portatrice di tenebre) l’impasto contenuto nel recipiente. Più tardi il grande chimico inglese Robert Boyle annotò l’annerimento del cloruro d’argento (che però attribuì all’azione dell’aria), mentre fu Carl Wilhelm Scheele che per primo mostrò il diverso comportamento chimico tra zone annerite e zone chiare dei sali d’argento, mostrando che facendo digerire il composto fotosensibile con ammoniaca solo la parte non fotosensibilizzata veniva dissolta.

L’annerimento del sale d’argento è, come noto, un processo ossidoriduttivo complesso che comporta la perdita di un elettrone da parte dell’alogeno, per azione di un fotone, e la conseguente riduzione dello ione argento. La conoscenza di questo processo ampliò il panorama chimico dei processi ossidoriduttivi aggiungendosi alla tradizionale riduzione termica e a quella, successiva, elettrochimica, che avevano permesso l’individuazione e l’isolamento di molti nuovi elementi[2].

Talbot era riuscito a preparare una carta a elevata sensibilità fotografica (da lui chiamata fotogenica) immergendo un foglio di carta in una soluzione ‘debole’ (ossia poco concentrata) di NaCl e, dopo averlo asciugata, trattandolo con una soluzione concentrata di AgNO3. In questo modo Talbot otteneva una carta al cloruro d’argento più sensibile di quella ottenuta con soluzioni concentrate di NaCl, utilizzate in precedenza per essere certi di ‘saturare’ tutto l’argento presente [fig.1]. Fig. 1: Disegno fotogenico ottenuto con la tecnica di Talbot (fonte: https://azlein14.wordpress.com/2011/04/04/salted-paper-and-photogenic-drawings-ii/)

Talbot non poteva dare una spiegazione microscopica del suo procedimento, incomprensibile se si ragionava solo sulla base legge delle proporzioni definite.

In realtà l’annerimento delle immagini non è un processo solo ‘atomico’, ma dipende dal contesto molecolare e cristallino in cui avviene. La maggiore sensibilità della carta fotogenica di Talbot sta nel fatto che nel cristallo di AgCl vi è un inserimento interstiziale di ioni Ag+ in eccesso stechiometrico. Gli ioni ridotti danno luogo a una breve reazione redox a catena che porta alla formazione di cluster di atomi di argento, che costituiscono i centri di sviluppo dell’immagine [fig.2].

Fig.2: Catena di reazioni redox che portano alla formazione del cluster d’argento.

Questo processo dipende fortemente dalla grandezza dei cristalli e questo spiega il successo storico dell’uso della gelatina e del collodio nella preparazione dei supporti fotografici, in quanto permettono un processo di cristallizzazione più lento e regolare rispetto alle soluzioni acquose.

Fissaggio delle immagini e nuovi composti chimici

Wedgood non era riuscito a risolvere il problema di rendere stabile l’immagine impressionata su carta: dopo un po’ di tempo tutta la carta si anneriva per azione della luce. Un passo in avanti decisivo in tal senso fu compiuto nel 1824 dal francese Nicéphore Niepce, un geniale inventore, che ‒ utilizzando, probabilmente senza saperlo, le osservazioni di Scheele ‒ sfruttò il diverso comportamento di una sostanza fotosensibilizzata per separarla dalla parte che non aveva reagito alla luce. Dopo vari tentativi (con fosforo, resina di guaiaco,ecc.) Niepce utilizzò il bitume di Giudea, un asfalto già usato da tempo dagli incisori[3] che ha la particolare proprietà di indurire se sottoposto alla luce. Niepce usò dapprima il bitume come materiale sensibile per la fotoincisione calcografica.

Una lastra di rame ricoperta di bitume veniva associata a un disegno e sottoposta alla luce; le parti coperte dal disegno, al contrario di quelle scoperte, non indurivano e venivano dissolte con olio di lavanda così da formare un negativo dell’immagine su lastra metallica; questa poi viene usata come matrice per la stampa di positivi. Questo processo permetteva per la prima volta di riprodurre un disegno originale in un numero indefinito di copie, ponendo le basi per la commercializzazione su vasta scala delle riproduzioni artistiche. Niepce usò questa tecnica per la riproduzione fotografica, che chiamò eliografia: inseriva una lastra di rame (o di peltro) ricoperta di bitume all’interno di una camera oscura dove avveniva l’impressione dell’immagine. La parte non impressionata veniva dissolta dall’olio di lavanda e si otteneva un negativo. In questo modo Niepce ottenne la prima fotografia della storia con una veduta del cortile della casa di Niepce nel villaggio di Saint Loup de Varenne [fig.3].

Fig.3: La prima eliografia realizzata da Niepce nel 1826. L’immagine originale è attualmente conservata nella collezione Gernshiem dell’Università del Texas (fonte: http://100photos.time.com/photos/joseph-niepce-first-photograph-window-le-gras)

Ne 1839, alcuni anni dopo gli esperimenti di Niepce, Louis Jaques Mandé Daguerre, un artista che aveva inventato il Diorama, una teatro di straordinarie e realistiche illusioni ottiche, annunciò di aver trovato un modo per fissare le immagine impressionate nella camera oscura. Daguerre trattava con iodio una lastra di rame argentata per formare ioduro d’argento fotosensibile. Dopo essere stata impressionata nella camera oscura, la lastra veniva sottoposta a vapori di mercurio che condensava sulle parti dell’immagine impressionata (in pratica formando un’amalgama con l’argento). Lo ioduro non impressionato veniva asportato con una soluzione di sale; la lastra veniva poi lavata e asciugata. In questo modo Daguerre otteneva un positivo di grandissima finezza, che chiamò dagherrotipo [fig.4].

Fig. 4: Ritratto di Louis Jacques Mandé Daguerre. Dagherrotipo eseguito da Jean Baptiste Sabatier-Blot nel 1844 (fonte: https://jarrahotel.com/illustration-representing-theories-of-jean-baptiste.html

Rispetto agi altri metodi il dagherrotipo aveva il grande vantaggio di dare un positivo diretto (in quanto le parti colpite dalla luce risultano più chiare per via dell’amalgama) e di non aver bisogno di fissaggio perché l’annerimento prosegue nel tempo solo per le parti non esposte, aumentando il contrasto dell’immagine. Di contro, il grande svantaggio del dagherrotipo era il fatto che consisteva in una immagine unica e non riproducibile, a guisa di un ritratto dipinto.

Niepce e Daguerre non erano chimici, anche se il primo si dilettava in esperimenti. Eppure usavano con disinvoltura sostanze chimiche ben definite: il motivo è che operavano in un ambiente intellettuale nel quale riverberavano sicuramente le nuove conoscenze della chimica. Un ambiente che aveva prodotto la sistematizzazione della conoscenze dovuta a Lavoisier e la conseguente rigorosa definizione delle proprietà delle sostanze. Nei primi decenni del XIX sec. la chimica aveva prodotto un grande accumulo di osservazioni sperimentali sul comportamento delle sostanze, identificando nuove classi di composti e di elementi. In particolare, ai tempi di Daguerre si stavano affermando i grandi laboratori chimici, ben organizzati e ricchi di strumentazione, che permettevano una precisa caratterizzazione delle sostanze. Protagonista in tal senso furono Jöns Berzelius e Justus Liebig. Il primo codificò i comportamenti delle sostanze in principi normativi e fondò metodi di sperimentazione chimica rigorosi e controllati, che furono poi modello per i laboratori di tutta Europa. Il secondo istituì grandi laboratori chimici, ben organizzati e ricchi di strumentazione, vero e proprio luogo si scambio di informazioni dei chimici di tutta Europa.

Fu in questo contesto scientifico che Daguerre iniziò i suoi esperimenti fotografici con lo iodio nel 1833. L’elemento era stato scoperto da Bernard Courtois e isolato da Charles-Bernard Desormes e Nicolas Clément solo venti anni prima mentre le sue proprietà erano state indagate da appena 10 anni. Come detto, Daguerre non era uno studioso della chimica ma conosceva il lavoro di Courtois sullo iodio e questo dimostra come la comunicazione delle scoperte scientifiche si diffondesse allora rapidamente in ambienti non specializzati, anche se è da notare che il milieu culturale dell’epoca era piuttosto ristretto, in particolare dal punto di vista geografico[4], e ciò favoriva lo scambio di informazioni.

Inoltre, non appena   l’invenzione del dagherrotipo fu divulgata nel 1839, l’astronomo e matematico inglese ‒ nonché provetto chimico ‒ John Frederick William Herschel [fig.5],

Fig. 5: Ritratto di Sir John Frederick William Herschel. Stampa da una negativa al collodio del 1867 (fonte: https://www.britannica.com/biography/John-Herschel)

cercò di scoprire i segreti della tecnica, in particolare dell’operazione di fissaggio. Alcuni anni prima Herschel aveva preparato l’acido tiosolforico, che lui aveva chiamato iposolforico, e utilizzò con successo il sale di sodio per solubilizzare[5] lo ioduro d’argento non impressionato. Nel giro di pochissimo tempo Daguerre modificò il suo procedimento sostituendo come agente fissante il sale con il tiosolfato di sodio[6], a dimostrazione del corto circuito rapidissimo tra fotografia e chimica in quel periodo.

Sviluppo delle immagini e catalisi

Le prime fotografie richiedevano tempi di posa lunghissimi, incompatibili con figure in movimento. Per la prima foto ottenuta da Niepce era stato necessario un tempo di posa di alcune ore, mentre per il dagherrotipo, grazie all’azione di sviluppo del mercurio, il tempo di posa era sceso ad alcuni minuti.

Fu però John Talbot a trasformare l’atto fotografico da posa statica a istantanea, aprendo la strada alla moderna fotografia. Tra tutti i protagonisti della nascita della fotografia, Talbot è con Herschel quello ad avere il più alto profilo scientifico e a svolgere il suo lavoro con un vero e proprio programma di ricerca. Talbot aveva idee molto chiare sulle trasformazioni chimiche che avvengono nei processi fotografici. Così, nella sua comunicazione nel 1839 al Royal Society sul suo metodo di sviluppo, scriveva che: «Il nitrato d’argento che diventa nero per azione della luce non è più la stessa sostanza di prima. Di conseguenza se l’immagine, prodotta dalla luce solare,viene successivamente sottoposta a un qualunque processo chimico, le parti chiare e scure si comporteranno diversamente: non c’è evidenza, dopo che tale azione ha avuto luogo, che tali parti bianche e nere siano soggette a ulteriori mutamenti spontanei. Anche se ciò avvenisse non segue che il cambiamento tenderà a farle assomigliare l’una all’altra».

Talbot scoprì nel 1841 che, trattando carta iodizzata[7] con una miscela formata da una soluzione concentrata di AgNO3 in acido acetico glaciale e da una soluzione satura di acido gallico in egual volume, si otteneva una carta di tale sensibilità che erano sufficienti pochi secondi di esposizione per formare l’immagine, di contro le lunghissime pose necessarie per altri processi, come la dagherrotipia. Talbot chiamò la carta così preparato “al calotipo” (dal greco kalós, “bello”) [fig.6]

Fig. 6 Ritratto di William Fox Talbot ottenuto nel 1864 con il metodo della calotipia (fonte: https://en.wikipedia.org/wiki/Henry_Fox_Talbot)

e interpretò correttamente il fenomeno, attribuendo all’acido gallico la capacità catalitica nell’autosviluppo dell’immagine latente, ossia di quella che si forma per effetto della luce ma che è troppo debole per essere correttamente visualizzata.

La scoperta dello sviluppo fotografico rivoluzionò la storia del ritratto, aprendo la strada all’istantanea, ossia all’attuale modo comune di collezionare immagini. Fu un rivolgimento anche sociale: i procedimenti base della produzione delle carte fotosensibili potevano essere facilmente standardizzati e quindi commercializzati, aprendo la strada alla grande diffusione della fotografia. Non solo, ma la rapidità con cui avveniva l’impressione estese grandemente il campo dei soggetti fotografici: non più solo ritratti in posa di regnanti e riproduzioni di paesaggi, a somiglianza delle tecniche pittoriche, ma immagini della vita quotidiana e di persone comuni. Queste innovazioni tecnologiche incrociarono perciò le esigenze degli strati emergenti della società borghese, fornendo loro possibilità di espressione e di autorappresentazione.

L’acido gallico, un raffinato catalizzatore redox

L’azione dell’acido gallico sull’immagine latente è oggi spiegata a partire dai cluster di Ag che si formano durante l’impressione fotografica. L’acido gallico, come altri agenti riducenti quali l’idrochinone, ha la capacità di ridurre solo l’alogenuro attivato presente nei granuli dove si sono formati i cluster. Dal punto di vista termodinamico questa reazione redox è possibile anche per i cristalli non attivati ma è molto più lenta, quindi è cineticamente sfavorita. La grande abilità e, insieme, la grande fortuna di Talbot, fu di aver trovato un agente riducente molto efficiente per lo sviluppo dell’immagine latente ma non aggressivo nei confronti delle parti non attivate dell’alogenuro, come sarebbe accaduto invece con i comuni agenti ossido riduttivi inorganici.

Gli storici della fotografia hanno dibattuto a lungo sulla originalità del processo inventato da Talbot e su quale fosse la fonte di informazioni che lo condussero all’uso dell’acido gallico. In particolare, gli studi si sono concentrati sulla conoscenza che Talbot poteva aver avuto dei lavori con l’infuso delle noci di galla del reverendo Joseph Bancroft Reade, vicario di Stone (nel Buckinghamshire), singolare figura di religioso  a cui interessava più la microscopia che non i compiti pastorali. La questione ebbe notevole rilievo all’epoca di Talbot perché nelle cause che lui intentò per violazione del suo brevetto, gli avvocati avversi ne contestarono l’originalità in quanto l’uso dell’acido gallico come sviluppatore sarebbe risalito agli esperimenti originali di Reade.

In realtà, il proposito originale di Reade era di ottenere immagini ingrandite su carta proiettate dal microscopio; siccome in genere queste risultavano troppo sbiadite, Reade cercò un metodo per ottenere carte più sensibili. Reade aveva letto da Wedgood che il cuoio rendeva il nitrato d’argento più sensibile e, secondo la sua testimonianza, si fece dare dalla moglie un suo guanto per fare delle prove di impressione fotografica: «La signora Reade fu così gentile di darmi un paio di guanti di pelle chiari così da ripetere gli esperimenti di Wedgwood». Al rifiuto della moglie di un secondo paio di guanti Reade Reade, partendo dall’idea che la sensibilità del cuoio fosse dovuta al tannino, con cui solitamente viene trattato il cuoio, si diresse verso l’uso della carta all’infuso di noci di galla che contiene tannino al 50%. Forse questo ricordo così gustoso è ricostruito ad arte[8], come altre volte è capitato nella storia della scienza.

È più probabile che Reade fosse giunto all’uso delle noci di galla perché all’epoca circolava già l’idea che alcune sostanze organiche rafforzassero la fotosensibilità dell’AgNO3, che tra l’altro era un prodotto usato anche in cosmesi e quindi in combinazione con emulsionanti organici (lo stesso Reade aveva sperimentato l’uso della colla di pesce). Inoltre, nella letteratura tecnica dell’epoca erano note le reazioni dei sali metallici con l’estratto di noci di galla nella formulazione degli inchiostri, con i quali anche Reade aveva avuto a che fare.

Sta di fatto che Reade non parlò mai esplicitamente dell’uso di acido gallico che si forma durante la macerazione delle noci di galla per preparare la tintura, e nella quale è presente per il 3%. Lo stesso Reade riconobbe a Talbot tutti i meriti della scoperta dell’uso dell’acido gallico come agente sviluppatore in fotografia e a sé stesso solo quello dell’iniziatore. Per farlo Reade usò un’efficace immagine sportiva: «Io lanciai la palla e Talbot la prese». Sta di fatto che ci sono prove storiche che Talbot era venuto a conoscenza degli esperimenti di Reade e che, in un ambito scientifico più avanzato e accurato, li aveva finalizzati al suo scopo. Forte delle sue competenze chimiche, Talbot concentrò la sua attenzione sull’acido gallico: con ogni probabilità conosceva il procedimento originale del chimico svedese Carl Wilhelm Scheele per l’estrazione dell’acido gallico dall’infuso di galla, ripreso da Berzelius in un suo trattato molto diffuso in quegli anni.

Il brevetto

Talbot brevettò il suo metodo di impressione e sviluppo fotografici l’8 febbraio 1841 con il titolo Metodi per ottenere immagini o rappresentazioni di oggetti. [fig.7]

Fig. 7: Frontespizio del brevetto di Talbot (fonte: http://www.nonesuchsilverprints.com/art-of-silver/PDFs/Fox%20Talbot%20Patent%208842%20-%201841.pdf)

Nel brevetto compariva la preparazione della carta iodizzata e di quella al calotipo, il processo di impressione in camera oscura, quello di fissaggio tramite lavaggio con KBr e NaCl e l’ottenimento del positivo. In quest’ultima fase del processo si usava una seconda carta al calotipo che veniva accoppiata al negativo separandolo con una lastra di vetro e fissando il tutto con viti in un telaio che veniva esposto alla luce. Successivamente si sottoponeva il positivo alle stesse procedure di sviluppo e fissaggio del negativo.

Anche se il brevetto non abbonda di specifiche tecniche, è notevole il travaso di contenuti squisitamente scientifici in un ordinamento giuridico-economico. Talbot aveva esitato a lungo prima di depositare il brevetto, e ciò avvenne dopo che aveva presentato le sue scoperte in diverse occasioni: nel 1839 aveva sottoposto il suo metodo alla Royal Society e nel 1840 [fig.8]

“The Art of Photogenic Drawing” by Fox Talbot. Photo books for auction at Christies, St. James’s London on 31 May 2007.

Fig. 8 Frontespizio della comunicazione di Talbot alla Royal Society nel 1839 (fonte: http://www.photohistories.com/photo-books/15/photogenic_drawing)

aveva allestito a Londra una mostra di fotografie realizzate con il suo metodo. Ciononostante Talbot prese una decisione che pochi decenni prima, nell’epoca dei Faraday e dei Priestley, non sarebbe stato concepibile, e questa novità rappresentò il risultato tangibile dell’incontro diretto e irreversibile tra impresa scientifica e impresa economica.

La novità non stava certo nel fatto che le scoperte scientifiche fossero il motore del progresso tecnico-industriale ‒ basti pensare al contemporaneo sviluppo dell’industria chimica del cloro-soda ‒ ma che il lavoro del singolo scienziato diventasse rapidamente questione economica di estremo rilievo. Non è un caso che ciò sia avvenuto prima di tutto con la fotografia, nella quale il tasso necessario di competenze scientifiche è molto alto. A distanza di quasi due secoli, oggi assistiamo gli estremi esiti di questo connubio, per esempio con la Celera Genomics di Craig Venter, nella quale aspetti scientifici e imprenditoriali sono del tutto indistinguibili.

La controversia

Nel periodo successivo a quello in cui Talbot aveva depositato il suo brevetto, si diffusero altri supporti fotografici. Era noto che il vetro costituiva un supporto molto più efficiente della carta: il problema era come far aderire l’alogenuro al supporto. Anche in questo caso fecero la loro comparsa le sostanze organiche: lo stesso Talbot propose e brevettò una lastra all’albume che, anche se poco sensibile, permise di ottenere una vera e propria istantanea di un oggetto in movimento[9] illuminato da una forte scintilla elettrica.

Ma il sistema che ebbe maggior successo fu la lastra al collodio inventata dall’inglese Frederick Scott Archer nel 1851: su una lastra di vetro veniva versata una sospensione di KI in collodio[10] che, una volta asciugata, veniva immersa in una soluzione di AgNO3: dopo l’impressione la lastra veniva sviluppata in una soluzione di acido gallico. La tecnica al collodio umido ebbe un rapido sviluppo (soprattutto dopo la grande Esposizione universale di Londra del 1851) sostituendo rapidamente la dagherrotipia e la stessa calotipia. Tuttavia Talbot riteneva che i fotografi che utilizzavano quella tecnica violassero il suo brevetto che si basava sull’acido gallico come sviluppatore e fece causa nel 1854 a due fotografi londinesi: James Henderson e Martin Silvester Laroche. Per Talbot la sostituzione del supporto cartaceo con quello al collodio non costitutiva fatto rilevante in quanto la chimica del processo era la medesima, incentrata sull’azione catalizzatrice dell’acido gallico. La difesa di Henderson sosteneva invece che la tecnica al collodio era diversa da quella della calotipia in quanto dai due procedimenti si ottenevano risultati apprezzabilmente diversi. Un esperto della difesa, lo scienziato Robert Hunt, sostenne anche che l’acido gallico era diverso dall’acido pirogallico[11] di cui si serviva Henderson [fig.9]:

Fig. 9: Acido gallico e “acido pirogallico”

 

Talbot però ebbe a controbattere che le due sostanze svolgevano la medesima azione chimica di agente riducente.

La controversia Talbot-Laroche precedette quello con Henderson. Al termine del lungo e complesso dibattimento, nel quale Talbot fece intervenire a suo supporto[12] anche William Thomas Brande, scopritore del litio e tra i più influenti chimici dell’epoca, il tribunale si pronunciò dando ragione alla difesa. Infatti sentenziò che, malgrado si dovesse riconoscere a Talbot il merito dell’invenzione del metodo della calotipia e, in particolare, dell’uso del’acido gallico come rivelatore, il metodo al collodio era sostanzialmente differente da quello al calotipo e che quindi la richiesta di indennizzo da parte di Talbot a Laroche era insussistente.

Per Talbot fu un duro colpo: lo scienziato aveva investito molto del suo nelle ricerche sulla carta al calotipo e si trovò a fronteggiare anche le richieste per danni avanzate da due citati, che avevano dovuto per un certo tempo interrompere la loro attività legate alle lastre al collodio umido. Talbot fu così costretto a risarcire Henderson con 150 ₤. La sconfitta di Talbot fu invece accolta molto positivamente dai numerosi fotografi dell’epoca (solo a Regent street c’erano 20 negozi di fotografi che usavano all’epoca il metodo al collodio), che si vedevano liberati dai vincoli brevettuali del calotipo e del dagherrotipo[13].

Conclusioni

La vicenda giudiziaria di Talbot è molto significativa perché rappresenta bene quel difficile incrocio tra ragioni scientifiche, progresso tecnico-industriale e motivazioni commerciali che si andava realizzando nei primi decenni del XIX secolo. La chimica, in particolare, aveva in tal senso un ruolo rilevante in quanto le competenze chimiche erano presenti sin dall’alba delle prime grandi produzioni industriali. Basti pensare che pochi anni prima della invenzione di Talbot, nel 1825, si avviava a Glasgow la produzione della soda secondo il metodo Leblanc, il primo vero e proprio procedimento industriale chimico, fondamentale per la lavorazione del vetro, dei saponi e dei candeggianti.

Rispetto alla produzione della soda, nella fotografia il prodotto finale non è però un composto chimico, ma un procedimento tecnico nel quale la chimica ha un notevole ruolo. Quel che Talbot non comprese, probabilmente, era che il riconoscimento della primazia intellettuale della scoperta chimica non poteva coincidere con i diritti del brevetto: Talbot si ostinò a cercare di dimostrare che quello al collodio e quello al calotipo erano lo stesso processo in quanto medesimo era il procedimento di riduzione chimica nella fase di sviluppo. Ma questo non significava che l’intero processo al collodio potesse essere riassunto nel brevetto di Talbot. Storicamente, lo scienziato inglese si trovava, come dire, a metà dell’opera: pur consapevole dell’importanza commerciale della sua invenzione, Talbot era ancora mentalmente legato a un’epoca precedente in cui il lavoro dello scienziato doveva comunque primeggiare rispetto alle altre istanze della società. Così Talbot andò incontro a una cocente sconfitta, anche se la sua figura di scienziato non ne rimase intaccata e non sono stati mai disconosciuti i suoi meriti di fondatore dello sviluppo e della riproduzione a stampa fotografica.

Nel prosieguo del secolo,e ancor più in quello seguente, i rapporti tra esigenze industriali, commerciali e chimiche divennero sempre più stringenti e la Rivoluzione industriale suggellò quel rapporto tra pari che è durato per secoli e che oggi deve trovare un nuovo equilibrio per la formidabile spinta delle nuove tecnologie informatiche, per le quali la distinzione tra esperienze scientifiche e applicazioni industriali è semplicemente insussistente. Così, Il pennello della natura, romantico titolo che Talbot diede al primo libro illustrato con le sue fotografie, ha ormai un sapore di cose lontane, molto lontane.

Ringraziamenti

Ringrazio sentitamente Antonio Seccia, litografo, calcografo, litografo, costruttore di torchi storici, profondo conoscitore dei metodi tradizionali di stampa, per i preziosi consigli.

Bibliografia e sitografia utilizzate

·       Berzelius B.B., Trattato di chimica, Napoli 1839, in https://books.google.it/books?id=18S24Ods7PQC&pg=PA157&lpg=PA157&dq=scheele+acido+gallico&source=bl&ots=4bhk4VVxUx&sig=INwwKGFN8Pn8CiL3QTC43Cu9RUM&hl=it&sa=X&ved=2ahUKEwjDiOaNtrDeAhUOWhoKHeUdBI8Q6AEwAnoECAcQAQ#v=onepage&q=scheele%20acido%20gallico&f=false

  • De Franceschi J., La fotografia del Novecento. Studio dell’emulsione argento-gelatinosa attraverso indagini non invasive su campioni dal 1908 al 1980, Tesi di Laurea del Corso d Laurea Magistrale in Scienze chimiche per la Conservazione e il Restauro, Università Ca’ Foscari di Venezia, A:A 2014-15 in http://dspace.unive.it/bitstream/handle/10579/7121/834394-1187735.pdf?sequence=2
  • Leicester H. M., Storia della chimica, ISEDI, Milano, 1978

·       Newhall B., L’immagine latente, Zanichelli, Bologna, 1980

·       Singer Ch., Holmyard E.J., Hall A.R., Williams T.I., Storia della tecnologia, Vol 4*, Bollati-Boringhieri, Torino, 2013

  • Talbot H. F., Some Account of the Art of Photogenic Drawing Or, the process by which Natural Objects may be made to delineate themselves, without the aid of the Artist’s Pencil, Royal Society, London, Received 28th Jan 1839 Read 31 Jan 1839 in http://www.lens-and-sensibility.eu/en/kalotypie/kalotypie.php

·       Torracca E., Il periodo della chimica classica in Storia della chimica, Marsilio editori, Venezia, 1989

  • Watt S., The elements: Silver, Benchmark book, New York, 2003

·       Weeks M. E. The discovery of the Elements, JCE, vol. 9, n. 11, 1932

[1] Naturalmente un grande impulso alla fotografia fu dato anche dall’ottica fisica e geometrica e dalle arti figurative, che usavano da tempo la camera oscura per la riproduzione di immagini dal vero.

[2] Nel primo decennio del XIX sec. furono scoperti ben 14 elementi chimici.

[3] Nella calcografia, per esempio, la lastra di rame viene ricoperta con un impasto di bitume, cere e gomma, che viene inciso con una punta dall’incisore. Sulla lastra viene versato l’acido nitrico che incide il rame laddove lasciato scoperto dal bitume. La lastra viene pulita, inchiostrata e usata come matrice per la stampa.

[4] Nei primi decenni del XIX sec. il cuore delle ricerche chimiche si collocava tra Francia, Inghilterra e Germania.

[5] In realtà non si tratta di una semplice solubilizzazione, in quanto nel lavaggio si forma il tiosolfato doppio di sodio e argento. Da notare che per i chimici degli anni Trenta del XIX secolo era ormai del tutto normale che un sale ‘appena’ modificato dalla luce avesse una ‘solubilità’ del tutto diversa da quello non impressionato e questo dimostra come si fosse rapidamente raffinato lo studio del comportamento chimico delle sostanze.

[6] Il successo del tiosolfato di sodio come agente fissante fu tale che fino a tempi recenti i fotografia hanno continuato ad usare come fissatore il tiosolfato chiamandolo iposolfito, ossia con l’errato nome iniziale dato da Herschel.

[7] Nel tempo si era scoperto che il bromuro e lo ioduro di Ag erano più sensibili del cloruro. Per preparare la sua carta iodizzata Talbot immergeva in una soluzione di KI una carta spennellata con AgNO3.

[8] L’obiezione più fondata a questo ricordo è che i guanti, i particolare quelli chiari da donna, venivano conciati all’allume e non al tannino.

[9] L’oggetto era un copia del Times, a celebrare l’anglocentricità delle tecniche fotografiche del tempo.

[10] Il collodio è fondamentalmente nitrocellulosa, composto sintetizzato per la prima volta nel 1845 dal chimico tedesco Christian Friedrick Schönbein, solo sei anni prima dell’invenzione di Archer, a ulteriore dimostrazione di come chimica e fotografia progredissero allora di pari passo.

[11] L’acido pirogallico differisce dal gallico perché manca del gruppo carbossilico. In effetti, l’attribuzione del termine ‘acido’ per il pirogallico, dovuto al fatto che veniva preparato per pirolisi dell’acido gallico, è impropria perché si tratta di un alcole polivalente. Hunt disse che differivano tra loro come l’aceto dallo zucchero e, strutturalmente parlando, non aveva tutti i torti.

[12] Talbot cercò di convincere a testimoniare anche sir John Frederick William Herschel, suo amico e grande estimatore. Ma Herschel, pur riconoscendo il valore delle scoperte di Talbot, si rifiutò, intuendo la differenza tra primato scientifico e primato commerciale.

[13] La dagherrotipia era libera in Francia ma non in Inghilterra, dove era sottoposta a brevetto, forse per motivi extracommerciali, dovuti alle continue ruggini politiche tra i due Stati.

Elementi della tavola periodica: Azoto, N.

In evidenza

Mauro Icardi

Azoto: simbolo chimico N, numero atomico 7, peso atomico 14,007.  Un gas senza colore, né odore. Appartenente alla serie dei non metalli. Tra tutti gli elementi del quinto gruppo, l’unico che si trova libero (allo stato biatomico) in natura. Capace di formare legami doppi e tripli. L’80% del volume totale dell’atmosfera è occupato da questo elemento. L’aria quindi è la principale fonte di azoto della terra.

In natura esso si presenta in forme diverse, più o meno disponibili per gli organismi viventi.  E’ sempre stato al centro degli approfondimenti nel lavoro che svolgo. Si può ritenere il propagatore degli eterni dilemmi della chimica. Se da tempo ci si interroga sulla chimica, se essa sia portatrice di benefici, oppure la responsabile di ogni nefandezza, a partire dall’ottimo libro di Luciano Caglioti “I due volti della chimica: Benefici o rischi?”, allo stesso modo ci si può porre la domanda per l’azoto: amico o nemico?

Ovviamente le attività dell’uomo hanno prodotto, in particolare negli ultimi tre secoli, un certo cambiamento nella composizione dell’aria sia in termini di concentrazione delle specie già presenti, sia in termini di rilascio di “nuovi” composti. Nel caso dei composti dell’azoto è necessario aggiungere ad N2 e NO anche il biossido di azoto (NO2), l’ammoniaca (NH3), gli acidi nitrico (HNO3) e nitroso (HNO2)

L’azoto venne scoperto nel 1772 da Daniel Rutherford, e contemporaneamente anche da Henry Cavendish in Inghilterra e da Carl W. Scheele in Svezia. Fu Lavoisier a dimostrare che si trattava di un elemento chimico. La presenza di ben tre legami covalenti impartisce alla molecola biatomica dell’azoto un’elevata stabilità. Per questa ragione, viene ampiamente utilizzato come gas inerte a livello industriale. L’azoto liquido è usato come refrigerante per il congelamento tramite immersione, per il trasporto dei prodotti alimentari, per l’immagazzinamento stabile dei campioni biologici.

L’azoto è anche componente delle proteine e degli acidi nucleici.
La proverbiale inerzia chimica dell’azoto molecolare, però, complica notevolmente la sua fissazione e quindi il suo impiego da parte degli organismi viventi come fonte di azoto indispensabile nella sintesi degli amminoacidi e delle proteine.

A questo punto vediamo di focalizzare l’attenzione sul ciclo dell’azoto.

Osservando questa immagine si nota una fitta trama di interconnessioni. Diversi sono anche i compartimenti dove le reazioni che rimettono in circolo l’azoto, tramutandolo da una forma all’altra, avvengono: il suolo, le piante, ma anche le stesse proteine e gli amminoacidi, costituenti degli organismi.

E’ possibile raggruppare l’insieme dei processi che determinano il ciclo dell’azoto in 3 gruppi di reazioni:

  1. Le reazioni di azotofissazione
  2. Le reazioni di ammonificazione
  3. Le reazioni di nitrificazione/denitrificazione

L’azotofissazione consiste in una serie di reazioni, che possono avvenire sia per via biologica che chimica, attraverso le quali viene attivata la conversione dell’azoto molecolare ad azoto organico in modo da renderlo disponibile per il metabolismo delle piante. Le leguminose sono piante che possiedono nelle proprie radici batteri azoto fissatori, in grado di arricchire il suolo di sostanze nutritive azotate. La fissazione biologica è mediata da microrganismi come l’Azobacter e il Rhizobium, ed è resa possibile da un enzima, la nitrogenasi, che catalizza la reazione che produce la rottura del triplo legame covalente stabile presente nella molecola di azoto. Una stima quantitativa è riportata nella figura seguente dal lavoro di Fowler e coll. citato in fondo:Nelle reazioni di ammonificazione si parte da composti organici complessi contenenti azoto. Le sostanze azotate, già derivate da processi di decomposizione della sostanza organica, vengono ulteriormente demolite in sostanze più semplici grazie all’azione di organismi presenti nei suoli, come funghi e batteri, che le utilizzano per fabbricare le proprie molecole essenziali (proteine e amminoacidi). La restante parte di azoto in eccesso viene liberata sotto forma di ioni ammonio  o di ammoniaca.Nelle reazioni di nitrificazione si ha l’ossidazione dello ione ammonio. Questo processo è a carico di alcune specie di batteri che ne traggono energia per le loro attività metaboliche.

Questo processo particolarmente attivo nei suoli caldi e umidi caratterizzati da valori di pH vicino a 7, si svolge attraverso due reazioni ossidative: la nitrosazione e la nitrificazione. La prima consiste nell’ossidazione dell’ammonio a nitrito ed è mediata da microrganismi come i Nitrosomonas:

NH4+ + 3/2 O2 → 2H+ + NO2 + H2O

La seconda reazione di ossidazione porta alla formazione dei nitrati mediata dai Nitrobacter:

NO2 + 1/2 O2 → NO3

In questo modo l’azoto rientra in circolo nella rete alimentare, considerato che il nitrato è la specie chimica attraverso la quale la maggior parte dell’azoto viene assimilata dalle piante attraverso le radici.

In ultimo con la denitrificazione i nitrati vengono scissi in seguito alle attività di alcuni batteri che vivono nel terreno (es Pseudomonas). Questi batteri scindono i nitrati liberando l’azoto che torna all’atmosfera. La denitrificazione avviene soprattutto in terreni saturi d’acqua con poca disponibilità di ossigeno e in presenza di materia organica decomponibile.

Da notare come le reazioni di nitrosazione, nitrificazione e denitrificazione siano quelle usate anche nei processi di trattamento biologico delle acque reflue.

Dopo la scoperta e l’industrializzazione del processo Haber-Bosch per la sintesi dell’ammoniaca, utilizzando come fonte di azoto l’aria atmosferica, il ciclo stesso nel tempo è risultato alterato.

La produzione mondiale di fertilizzanti azotati è cresciuta ,e si è verificato l’accumulo di forme reattive di azoto nella biosfera. Gli inconvenienti principali sono stati quelli dell’eutrofizzazione, del rilascio di tossine algali, e la perdita di biodiversità. I processi produttivi umani convertono all’incirca 120 milioni di tonnellate/anno di azoto in forme più reattive. E’ intuitivo capire che il problema dello sbilanciamento del ciclo dell’azoto non è di facile soluzione. Nell’articolo “A safe operating space for humanity” uscito nel Settembre 2009 su “Nature”, Johan Rockstrom ed i suoi collaboratori hanno proposto la riduzione di questo prelievo di azoto riducendolo a 35 milioni di tonnellate/anno.

Per lavorare in questa direzione occorrono più fondi per la ricerca , e come sempre un’informazione precisa, per rendere l’opinione pubblica più informata e attenta. E allo stesso tempo dobbiamo ricordarci che stime risalenti al 2008 ci ricordano che il 48% dell’umanità e stata sfamata grazie ai concimi prodotti dall’ammoniaca di sintesi. E che nel frattempo la produzione mondiale di fertilizzanti ha raggiunto attualmente i 190 milioni di tonnellate, di cui poco più di 110 milioni di azoto, 45 di fosforo e 35 di potassio. Sono le sfide che ci attendono nel futuro.

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3682748/

Fowler D et al. 2013 The global nitrogen cycle in the twenty-first century. Phil Trans R Soc B 368: 20130164. http://dx.doi.org/10.1098/rstb.2013.0164

Un contributo a Discussion Meeting Issue ‘The global nitrogen cycle in the twenty-first century’.

Due aromi utilizzati nelle sigarette elettroniche possono danneggiare le cellule polmonari

In evidenza

Rinaldo Cervellati

La notizia è stata riportata da Tien Nguyen in un recente numero di Chemistry & Engineering newsletter on line. Le due sostanze sospette sono il diacetile e il suo omologo 2,3-pentandione.

                  Diacetile                         2,3-pentandione

Il diacetile, comunemente utilizzato nell’industria alimentare per il suo aroma di burro, è sotto esame fin dai primi anni del 2000. Gli studi rivelarono una possibile correlazione fra questa sostanza e l’insorgenza di bronchiolite obliterante, una malattia che provoca tosse secca e respiro sibilante, osservata per la prima volta negli operai delle fabbriche di popcorn degli USA

Nel 2012, la US Flavor and Extract Manufacturers Association ha stabilito limiti di esposizione sul posto di lavoro per il diacetile (e il suo omologo 2,3-pentanedione) e ha raccomandato che i contenitori di queste sostanze rechino un’etichetta con l’avvertimento che l’inalazione di vapori provenienti dai contenitori potrebbe provocare gravi danni.

Il diacetile è anche il composto più comune fra diverse centinaia di sostanze aromatizzanti utilizzate nelle sigarette elettroniche, uno studio del 2016 su 51 prodotti per sigaretta elettronica ha rilevato che più della metà conteneva 2,3-pentanedione.

Un gruppo multidisciplinare di ricerca, coordinato dai Dott. Joseph Allen & Quan Lu della Harvard TH Chan School of Public Health a Boston, ha valutato l’effetto delle due sostanze aromatizzanti su colture di cellule epiteliali bronchiali e ha proposto un possibile meccanismo di come potrebbero compromettere la funzionalità polmonare. (H-R. Park Sci et al., Transcriptomic response of primary human airway epithelial cells to flavoring chemicals in electronic cigarettes., Sci. Rep. 2019, DOI: 10.1038 / s41598-018-37913-9).

D.J.Allen

Quan Lu

 

 

 

Lo studio si concentra inizialmente sugli effetti del diacetile e del 2,3 pentanedione sulle cellule epiteliali. Queste cellule rivestono le vie respiratorie dei polmoni e le mantengono pulite, ricorda il genetista Quan Lu, condirettore della ricerca. Esistono in tre forme: cellule ciliate, caliciformi e basali. Le cellule ciliate, simili a capelli, lavorano con quelle caliciformi che producono muco per spazzare via la polvere e gli agenti patogeni dalle vie aeree. Le cellule basali possono trasformarsi in uno degli altri due tipi di cellule epiteliali.

I ricercatori hanno trattato tutti e tre i tipi di cellule epiteliali con soluzioni di diacetile, 2,3-pentanione e con una soluzione inerte (controllo). L’esposizione alle sostanze aromatiche ha portato a una diminuzione del numero di cellule ciliate, rispetto all’esposizione alla soluzione di controllo. Usando una tecnica genetica, chiamata RNA-seq, il gruppo ha monitorato i livelli di RNA delle cellule, consentendo di osservare quali geni hanno cambiato la loro espressione dopo l’esposizione alle sostanze aromatiche. Molti dei geni con livelli di espressione più bassi dopo l’esposizione sono stati coinvolti nella ciliogenesi, il modo in cui le cellule basali si trasformano in cellule ciliate. Avere meno cellule ciliate lungo le vie aeree significa che i polmoni hanno meno protezione contro corpi estranei che possono causare infiammazioni. Questo lavoro ha permesso di ipotizzare un possibile meccanismo con cui queste sostanze producono i danni osservati.

Un’indagine commissionata dallo US Public Health Commission ha riportato che gli aromi aggiunti contribuiscono al fascino che i giovani hanno per la sigaretta elettronica: dal 2011 al 2015 l’uso di sigarette elettroniche fra gli studenti delle scuole superiori negli Stati Uniti è cresciuto del 900%, portando il Presidente della Commissione a dichiarare che questo fenomeno potrebbe comportare grossi problemi per la salute pubblica. Nel tentativo di ridurre l’uso di sigarette elettroniche tra i giovani, nel novembre 2018 il commissario della FDA (Food and Drug Administration), Scott Gottlieb, ha proposto politiche per limitare la vendita di prodotti aromatizzati per sigarette elettroniche (senza includere menta, mentolo o aromi di tabacco) nei negozi in cui i minorenni devono presentare un documento di identità per fare acquisti.

I ricercatori di Harvard hanno in programma di testare un insieme più ampio di sostanze chimiche aromatizzanti e di sviluppare anche una tecnica di laboratorio per esporre le cellule agli aromatizzanti aerosolizzati, che imiterebbe meglio il modo in cui le cellule dei polmoni vengono esposte a queste sostanze.

Maciej L. Goniewicz del Roswell Park Comprehensive Cancer Center, che studia la tossicità dei composti aromatizzanti nelle sigarette elettroniche, afferma che studi cellulari controllati come questo sono importanti perché consentono agli scienziati di studiare l’impatto delle singole sostanze chimiche in vitro, che possono essere difficili da investigare in vivo.

                                         Maciej L. Goniewicz

Tuttavia afferma che può non essere corretto estrapolare questi risultati e applicarli alla salute umana. Nel valutare i rischi per la salute Goniewicz aggiunge che è importante tenere presente che i loro rischi sono relativi. Ad esempio, fumare sigarette espone le persone a migliaia di sostanze chimiche, quindi è possibile che anche ammettendo una certa tossicità degli aromatizzanti, le sigarette elettroniche possano essere meno pericolose di quelle tradizionali. Ponderare i rischi dipenderà dalle autorità di regolamentazione, che necessiteranno però di più dati sperimentali e epidemiologici per fare raccomandazioni attendibili.

Negli USA la FDA (Food and Drug Administration) non si è espressa in maniera nettamente negativa sull’uso del diacetile nel liquido per le sigarette elettroniche.

Anche in Europa si è registrato un aumento del mercato delle sigarette elettroniche, a eccezione dell’Italia, dove si è verificato un netto calo dal 2013 al 2015.  Dal 1 gennaio 2018 le sigarette elettroniche sono passate sotto il controllo diretto del Monopolio di Stato, come il tabacco tradizionale. Una ulteriore tassa che rischia di soffocare un intero settore e alimenta una battaglia combattuta a suon di leggi, sanzioni e ricorsi. Non tutti i liquidi per sigaretta elettronica contengono infatti nicotina, molti contengono solo l’aroma del tabacco, insieme ad altri aromi aggiunti.

Wikipedia, alla voce Diacetyl in lingua inglese riporta letteralmente:

In 2016, diacetyl was banned in eliquids / ecigarettes in the EU under the EU Tobacco Products Directive.

Ma le cose non stanno così. Andando a esaminare attentamente il documento citato a sostegno della frase precedente, disponibile in tutte le lingue dell’Unione Europea:

http://europa.eu/rapid/press-release_IP-16-1762_it.htm

si può notare che in nessun punto è menzionato il divieto del diacetile, gli aromi sono citati solo al punto 2 che recita:

Le sigarette e il tabacco da arrotolare non potranno più avere aromi caratterizzanti come mentolo, vaniglia o caramello, che mascherano il gusto e l’odore del tabacco. Nel caso di prodotti con una quota di mercato superiore al 3 % (come il mentolo), il divieto sarà applicato a partire dal 2020.    

 

Nota del blogmaster: si vedano anche

– pag. 20 del rapporto dell’ISS http://old.iss.it/binary/publ/cont/16_44_web.pdf

http://news.doccheck.com/it/2857/sigarette-elettroniche-un-polmone-al-popcorn-per-favore/