Elementi della tavola periodica: Rame, Cu

Mauro Icardi

Rame: simbolo chimico Cu, numero atomico 29, peso atomico 63,546. Elemento conosciuto praticamente da sempre, se si pensa che in Turchia sono stati rinvenuti oggetti in rame risalenti al 7000 a.C.

Ötzi il corpo mummificato di un uomo risalente al 3200 a.C. ,rinvenuto sulle Alpi , ha come corredo un’ascia con la punta di rame.

E’ un metallo duttile, malleabile, e dopo l’argento è il migliore conduttore di elettricità e di calore. Si può trovare in natura allo stato di rame nativo, oppure sotto forma di sali come il solfuro rameoso o calcosite (Cu2S), solfuro di ferro e rame o calcopirite (CuFeS2), e nei composti quali la cuprite (Cu2O). Il simbolo Cu che lo rappresenta deriva dall’abbreviazione di “Cuprum”, dal greco Kyprios, l’isola di Cipro dai cui giacimenti minerari si estraeva il metallo.

I principali paesi produttori di rame sono CILE (Produzione mineraria: 5.5 milioni di tonnellate), PERÙ (Produzione mineraria: 2,3 milioni di tonnellate). Il Perù ha sorpassato la Cina, diventando il secondo più grande produttore del mondo. Nel futuro è possibile che la produzione di rame del paese possa aumentare ulteriormente, CINA (Produzione mineraria: 1,74 milioni di tonnellate), STATI UNITI (Produzione mineraria: 1,41 milioni di tonnellate).

Il rame si utilizza nel processo cuproammoniacale per la produzione di seta artificiale, ed è usato come anticrittogamico. Io ricordo molto bene la preparazione della poltiglia bordolese da spruzzare sulle viti con l’irroratrice a spalla. Nelle estati trascorse dai nonni in Monferrato, ascoltavo con curiosità ed interesse le conversazioni relative alla coltivazione della vite, che si svolgevano a volte sulla piazza principale del paese. La poltiglia bordolese è il rimedio più antico contro la peronospora: per ottenerla si fa disciogliere 1 hg di solfato di rame in 10 litri di acqua, quindi si aggiunge 1 hg di calce spenta in polvere. Il prodotto va tenuto agitato e irrorato subito, altrimenti la calce, in sospensione, decanta sul fondo del recipiente. Oggi si preferiscono prodotti già pronti, in polvere bagnabile o allo stato colloidale, a base di ossicloruro di rame; possono essere mescolati allo zolfo e costituire così un rimedio anche contro l’oidio. Io però ricordo i contenitori all’inizio dei filari, con un lungo bastone per il mescolamento della sospensione, e l’utilizzo ancora per buona parte degli anni 70.

Del rame si fa presto esperienza, anche semplicemente togliendo la copertura isolante di un filo elettrico, oppure perché in qualche casa di campagna è usuale vedere pentole e tegami di rame, che in qualche caso sono diventati elementi di arredo. Nel tempo le pentole in rame sono state progressivamente abbandonate, in quanto la possibile solubilizzazione del rame da parte di acidi organici contenuti negli alimenti, poteva dar luogo ad intossicazioni.

Ma le notizie di cronaca ci hanno anche parlato dei furti di rame, tanto che è stato istituito presso il dipartimento della Pubblica sicurezza, direzione centrale della Polizia criminale, l’osservatorio nazionale su questo fenomeno. Negli ultimi anni i furti sono tendenzialmente diminuiti. Ricordo che invece erano frequenti negli anni 2008-2009 periodo che molti osservatori ed analisti fanno coincidere con l’inizio della crisi economica attuale. L’incremento dei prezzi delle materie prime, iniziato nei primi mesi del 2008 che vide salire il prezzo del petrolio al valore record di 147$ al barile il giorno 11 luglio 2008, la crisi alimentare mondiale e l’aumento del prezzo del grano, un’elevata inflazione globale, la minaccia di una recessione provocarono l’inizio di questo fenomeno.

Iniziarono furti di rame nei cimiteri, nelle sottostazioni elettriche. Si rimuovevano le guaine isolanti dai cavi elettrici, in qualche caso anche bruciandoli, con ovvie emissione di fumi tossici. La stabilizzazione della produzione, ed il calo conseguente del prezzo, oltre a maggiori controlli da parte delle forze dell’ordine hanno diminuito il fenomeno, che però non è stato eliminato completamente. Su un impianto di grosse dimensioni gestito dalla società per la quale lavoro, si è resa necessaria l’istituzione di un servizio di sorveglianza, dopo che si erano verificati ben tre fermi impianto a causa dei furti. Situazioni simili si sono verificate sulle linee ferroviarie.

Episodi di questo genere devono farci riflettere: la terra non può essere sovrasfruttata, anche per quanto riguarda l’estrazione di minerali. Le nuove tecnologie estrattive non potranno prescindere da un uso più attento e consapevole delle risorse. E anche le nostre abitudini personali dovranno necessariamente conformarsi alla constatazione (forse per molti non così semplice), che anche gli elementi chimici in futuro potranno diventare scarsi, o per meglio dire non più economicamente sfruttabili. Con tutte le conseguenze del caso.

L’andamento del mercato del rame può esser preso come termometro della situazione politico-economica internazionale, ma risente notevolmente anche di manovre speculative. Il prezzo infatti è influenzato non solo dal tenore del minerale e dai costi d’impianto, ma anche dalla situazione politica internazionale. Inoltre a periodi di scarsa disponibilità seguono periodi in cui le scorte si accumulano. Dal punto di vista della provenienza, il 60% del rame proviene dalle miniere; il restante 40% è ricavato dal riciclo dei rottami. I giacimenti da cui si estrae il metallo hanno un tenore medio dell’1,5%; sono quindi necessarie grandi operazioni di scavo, di concentrazione e di arricchimento. Per quanto riguarda il recupero i rifiuti di apparecchiature elettriche ed elettroniche potrebbero diventare delle vere e proprie miniere urbane o urban mining; basti pensare che da una tonnellata di schede elettroniche, si possono ricavare più di 2 quintali di rame.

Il rame è un normale componente dell’organismo umano. Un uomo adulto ne contiene da 70 a 180 mg. Questo metallo svolge un importante ruolo nella formazione del tessuto nervoso, osseo e connettivo, ed e presente in molti enzimi.

Dal punto di vista ambientale il rame è un metallo frequente nel regno animale e vegetale. Il catione monovalente (Cu+)) è parte integrante del pigmento respiratorio dei molluschi, l’emocianina.

Nelle acque superficiali la concentrazione di rame è normalmente di poco inferiore ad 1 mg/lt. Il rame monovalente in acqua viene rapidamente ossidato a rame bivalente (Cu++) che in gran parte viene adsorbito su solidi in sospensione o sedimenti.

Il rame è un elemento pericoloso per le pecore, che vanno soggette ad avvelenamento da questo metallo. Un episodio di questo genere è narrato dal veterinario inglese James Herriot in uno dei suoi libri (“Beato tra le bestie”) pubblicato in Italia nel 1977.

http://www.interno.gov.it/it/ministero/osservatori/osservatorio-nazionale-sui-furti-rame

https://copperalliance.it/industria-rame/dove-si-trova/

Una rappresentazione moderna del ciclo del rame

An ‘‘anthrobiogeochemical’’ copper cycle, from Earth’s core to the Moon, combining natural biogeochemical and human anthropogenic stocks and flows is derived for the mid-1990s. Although some aspects of the quantification have moderate to high uncertainty, the anthropogenic mining, manufacturing, and use flows (on the order of 104 Gg Cu/yr) clearly dominate the cycle. In contrast, the natural repositories of Earth’s core, mantle, and crust, and of the Moon, hold much higher stocks of copper (>1010 Gg) than do anthropogenic repositories (<106 Gg). The results indicate that the present anthropogenic rate of copper extraction exceeds the natural rate of renewal by 􏰁106.

Citation: Rauch, J. N., and T. E. Graedel (2007), Earth’s anthrobiogeochemical copper cycle, Global Biogeochem. Cycles, 21, GB2010, doi:10.1029/2006GB002850.

Elizaveta Karamihailova (1897-1968)

Rinaldo Cervellati

Elizaveta Karamihailova è stata una pioniera della fisica nucleare all’inizio del XX secolo, istituì i primi corsi pratici di fisica delle particelle in Bulgaria ed è stata la prima donna a ottenere un titolo di professore in quel Paese.

Elizaveta nacque a Vienna nel 1897 da Ivan Mikhaylov, bulgaro, e Mary Slade, inglese, entrambi studenti all’università della capitale austriaca, lui di medicina, lei di musica. Elizaveta trascorse così gran parte della sua infanzia a Vienna, finché nel 1909 la famiglia si trasferì a Sofia, la capitale della Bulgaria, dove Ivan sarebbe diventato uno dei chirurghi più famosi del paese contribuendo alla costruzione dell’Ospedale della Croce Rossa, diventandone direttore a titolo gratuito. Con un padre chirurgo e una madre musicista, Elizaveta crebbe in un ambiente multiculturale, artistico e scientifico.

Si iscrisse al Sofia Girls’ College, dove si diplomò nel 1917, dopodiché partì per studiare all’Università di Vienna.

Elizaveta Karamihailova

Nel 1922 Karamihailova ottenne il dottorato in fisica e matematica discutendo la tesi “A proposito di figure elettriche su materiali diversi, in particolare cristalli”, sotto la guida di Karl Przibram. Karamihailova continuò il suo lavoro presso l’Institute for Radium Studies di Vienna, interessandosi particolarmente alla radioluminescenza. Nell’autunno del 1923 tornò brevemente in Bulgaria e lavorò come “ricercatore ospite” nell’Istituto di Fisica dell’Università di Sofia. Ben presto Karamihailova tornò a Vienna all’Institute of Radium Studies e iniziò un lavoro sulla trasmutazione degli elementi bombardati con particelle alfa. Nel 1931 Karamihailova e Marietta Blau[1] osservarono uno specifico tipo di radiazione precedentemente sconosciuta emessa dal polonio, che in seguito avrebbe portato James Chadwick alla scoperta dei neutroni. Nel frattempo frequentò corsi di ingegneria elettronica al Politecnico di Vienna.

Elizaveta Karamihailova in laboratorio

Poiché Elizaveta non era austriaca, non poteva essere assunta come assistente di ricerca, pertanto lavorò con un contratto temporaneo. Quando nel 1933 il contratto terminò, fu quasi costretta ad abbandonare la ricerca ma fu in grado di mantenersi attraverso lezioni private mentre continuava a lavorare in laboratorio senza retribuzione.

Nel 1935, dopo più di un decennio senza molte soddisfazioni, il talento di Elizaveta e il suo contributo alla scienza ottennero finalmente un riconoscimento. Fu infatti premiata con una borsa di ricerca triennale Alfred Yarrow Scientific, istituita per consentire alle scienziate di talento di proseguire la ricerca dal Girton College di Cambridge. Lavorò quindi al Cavendish Laboratory dell’Università di Cambridge, uno dei più importanti istituti di ricerca atomica e nucleare dell’epoca[2].

Karamihailova nel suo studio

Karamihailova tornò in Bulgaria nel 1939, dove fu nominata docente di Atomistica Sperimentale e Radioattività all’Università di Sofia. Istituì un corso di fisica atomica, introducendo le conoscenze acquisite nei suoi studi in Austria e Inghilterra e importando alcune delle sue attrezzature.

Karamihailova e suoi studenti

Lo scoppio della seconda guerra mondiale interruppe ogni ulteriore espansione delle attività di ricerca nucleare.

Nonostante il suo formidabile intelletto e la sua statura scientifica, Elizaveta era una persona semplice e amichevole che fraternizzava con i suoi studenti ed era rispettata e amata da loro. Non era particolarmente interessata alle correnti politiche che attraversavano il suo paese durante la seconda guerra mondiale. “Era anticomunista e aveva orrore per tutte le armi”, ha ricordato Mary Cartwright, una collega di Cambridge. Questa avversione avrebbe potuto costarle caro dopo l’invasione sovietica della Bulgaria nel 1944. Fu intrapresa un’epurazione dell’intero sistema educativo per eliminare gli anticomunisti. Elizaveta non fu rimossa ma il suo nome apparve in una lista di “scienziati inaffidabili”. Non perse la cattedra, ma fu trasferita all’Istituto di Fisica dell’Accademia Bulgara delle Scienze, dove ricevette il titolo di professore ordinario. Il divieto di viaggiare all’estero le impedì di interagire e collaborare con altri scienziati. Continuò tuttavia a lavorare nel campo della radioattività.

Omaggio a Elizaveta Karamihailova

I timori di Elizaveta sugli effetti delle radiazioni erano fondati e lei, come molti dei suoi colleghi ne subirono le conseguenze. Elizaveta Karamihailova morì di cancro nel 1968.

Opere consultate

Women in Science, European Communities, 2009, pp. 142-144

[1] Vedi il volume 2007 in bulgaro qui linkato.

[2] All’epoca i principali istituti di ricerca in fisica e chimica nucleare e delle radiazioni erano tre: L’Istituto del Radio a Parigi, in Francia, il Cavendish Laboratory a Cambridge, in Inghilterra e L’Istituto di Ricerca sul Radium a Vienna, in Austria.

Un’antica controversia fotochimica: William Fox Talbot e il brevetto della stampa al collodio

Andrea Turchi

Premessa

Nel maggio del 1854 lo scienziato inglese William Fox Talbot, noto per i suoi studi di ottica e inventore della calotipia, un originale processo di sviluppo fotografico, citò davanti alla corte di Londra un fotografo, James Henderson, accusandolo di utilizzare la calotipia senza pagare le royalties previste dal brevetto che lo stesso aveva registrato alcuni anni prima, nel 1841.

La causa, che Talbot perse, ha una peculiare importanza storica perché permette di esemplificare la profonda connessione tra il progresso delle conoscenze nelle tecniche fotografiche e lo straordinario sviluppo della chimica come disciplina che avvenne nei primi decenni del XIX secolo. Inoltre quella causa mise in luce l’importanza economica e commerciale che stava assumendo la fotografia, la cui nascita e affermazione tanto doveva alle conoscenze chimiche.

Chimica e fotografia a braccetto

Probabilmente non c’è settore della tecnica in cui l’importanza della chimica sia stato più grande che nella fotografia. I processi tradizionali di impressione, fissaggio, sviluppo e stampa fotografici sono essenzialmente chimici e tutti coloro che si dedicarono alla fotografia nella prima metà del XIX sec. avevano conoscenze chimiche (sia pure solo empiriche) ben solide[1].

Impressione delle immagini e ossidoriduzioni

Un antesignano del processo di impressione fotografica fu l’inglese Thomas Wedgood che all’inizio del XIX secolo aveva notato che una carta rivestita con nitrato d’argento risultava fotosensibile, ossia si anneriva nei punti colpiti dalla luce. L’annerimento dei sali d’argento era già noto ai chimici del XVIII sec.: nel 1727 il tedesco Johann Heinrich Schulze si accorse che un recipiente di vetro che conteneva un impasto d’argento, gesso e acido nitrico cambiava colore se esposto alla luce; applicando un oggetto sul vetro si otteneva così l’impronta dello stesso nell’impasto. Schulze chiamò scotophorus (portatrice di tenebre) l’impasto contenuto nel recipiente. Più tardi il grande chimico inglese Robert Boyle annotò l’annerimento del cloruro d’argento (che però attribuì all’azione dell’aria), mentre fu Carl Wilhelm Scheele che per primo mostrò il diverso comportamento chimico tra zone annerite e zone chiare dei sali d’argento, mostrando che facendo digerire il composto fotosensibile con ammoniaca solo la parte non fotosensibilizzata veniva dissolta.

L’annerimento del sale d’argento è, come noto, un processo ossidoriduttivo complesso che comporta la perdita di un elettrone da parte dell’alogeno, per azione di un fotone, e la conseguente riduzione dello ione argento. La conoscenza di questo processo ampliò il panorama chimico dei processi ossidoriduttivi aggiungendosi alla tradizionale riduzione termica e a quella, successiva, elettrochimica, che avevano permesso l’individuazione e l’isolamento di molti nuovi elementi[2].

Talbot era riuscito a preparare una carta a elevata sensibilità fotografica (da lui chiamata fotogenica) immergendo un foglio di carta in una soluzione ‘debole’ (ossia poco concentrata) di NaCl e, dopo averlo asciugata, trattandolo con una soluzione concentrata di AgNO3. In questo modo Talbot otteneva una carta al cloruro d’argento più sensibile di quella ottenuta con soluzioni concentrate di NaCl, utilizzate in precedenza per essere certi di ‘saturare’ tutto l’argento presente [fig.1]. Fig. 1: Disegno fotogenico ottenuto con la tecnica di Talbot (fonte: https://azlein14.wordpress.com/2011/04/04/salted-paper-and-photogenic-drawings-ii/)

Talbot non poteva dare una spiegazione microscopica del suo procedimento, incomprensibile se si ragionava solo sulla base legge delle proporzioni definite.

In realtà l’annerimento delle immagini non è un processo solo ‘atomico’, ma dipende dal contesto molecolare e cristallino in cui avviene. La maggiore sensibilità della carta fotogenica di Talbot sta nel fatto che nel cristallo di AgCl vi è un inserimento interstiziale di ioni Ag+ in eccesso stechiometrico. Gli ioni ridotti danno luogo a una breve reazione redox a catena che porta alla formazione di cluster di atomi di argento, che costituiscono i centri di sviluppo dell’immagine [fig.2].

Fig.2: Catena di reazioni redox che portano alla formazione del cluster d’argento.

Questo processo dipende fortemente dalla grandezza dei cristalli e questo spiega il successo storico dell’uso della gelatina e del collodio nella preparazione dei supporti fotografici, in quanto permettono un processo di cristallizzazione più lento e regolare rispetto alle soluzioni acquose.

Fissaggio delle immagini e nuovi composti chimici

Wedgood non era riuscito a risolvere il problema di rendere stabile l’immagine impressionata su carta: dopo un po’ di tempo tutta la carta si anneriva per azione della luce. Un passo in avanti decisivo in tal senso fu compiuto nel 1824 dal francese Nicéphore Niepce, un geniale inventore, che ‒ utilizzando, probabilmente senza saperlo, le osservazioni di Scheele ‒ sfruttò il diverso comportamento di una sostanza fotosensibilizzata per separarla dalla parte che non aveva reagito alla luce. Dopo vari tentativi (con fosforo, resina di guaiaco,ecc.) Niepce utilizzò il bitume di Giudea, un asfalto già usato da tempo dagli incisori[3] che ha la particolare proprietà di indurire se sottoposto alla luce. Niepce usò dapprima il bitume come materiale sensibile per la fotoincisione calcografica.

Una lastra di rame ricoperta di bitume veniva associata a un disegno e sottoposta alla luce; le parti coperte dal disegno, al contrario di quelle scoperte, non indurivano e venivano dissolte con olio di lavanda così da formare un negativo dell’immagine su lastra metallica; questa poi viene usata come matrice per la stampa di positivi. Questo processo permetteva per la prima volta di riprodurre un disegno originale in un numero indefinito di copie, ponendo le basi per la commercializzazione su vasta scala delle riproduzioni artistiche. Niepce usò questa tecnica per la riproduzione fotografica, che chiamò eliografia: inseriva una lastra di rame (o di peltro) ricoperta di bitume all’interno di una camera oscura dove avveniva l’impressione dell’immagine. La parte non impressionata veniva dissolta dall’olio di lavanda e si otteneva un negativo. In questo modo Niepce ottenne la prima fotografia della storia con una veduta del cortile della casa di Niepce nel villaggio di Saint Loup de Varenne [fig.3].

Fig.3: La prima eliografia realizzata da Niepce nel 1826. L’immagine originale è attualmente conservata nella collezione Gernshiem dell’Università del Texas (fonte: http://100photos.time.com/photos/joseph-niepce-first-photograph-window-le-gras)

Ne 1839, alcuni anni dopo gli esperimenti di Niepce, Louis Jaques Mandé Daguerre, un artista che aveva inventato il Diorama, una teatro di straordinarie e realistiche illusioni ottiche, annunciò di aver trovato un modo per fissare le immagine impressionate nella camera oscura. Daguerre trattava con iodio una lastra di rame argentata per formare ioduro d’argento fotosensibile. Dopo essere stata impressionata nella camera oscura, la lastra veniva sottoposta a vapori di mercurio che condensava sulle parti dell’immagine impressionata (in pratica formando un’amalgama con l’argento). Lo ioduro non impressionato veniva asportato con una soluzione di sale; la lastra veniva poi lavata e asciugata. In questo modo Daguerre otteneva un positivo di grandissima finezza, che chiamò dagherrotipo [fig.4].

Fig. 4: Ritratto di Louis Jacques Mandé Daguerre. Dagherrotipo eseguito da Jean Baptiste Sabatier-Blot nel 1844 (fonte: https://jarrahotel.com/illustration-representing-theories-of-jean-baptiste.html

Rispetto agi altri metodi il dagherrotipo aveva il grande vantaggio di dare un positivo diretto (in quanto le parti colpite dalla luce risultano più chiare per via dell’amalgama) e di non aver bisogno di fissaggio perché l’annerimento prosegue nel tempo solo per le parti non esposte, aumentando il contrasto dell’immagine. Di contro, il grande svantaggio del dagherrotipo era il fatto che consisteva in una immagine unica e non riproducibile, a guisa di un ritratto dipinto.

Niepce e Daguerre non erano chimici, anche se il primo si dilettava in esperimenti. Eppure usavano con disinvoltura sostanze chimiche ben definite: il motivo è che operavano in un ambiente intellettuale nel quale riverberavano sicuramente le nuove conoscenze della chimica. Un ambiente che aveva prodotto la sistematizzazione della conoscenze dovuta a Lavoisier e la conseguente rigorosa definizione delle proprietà delle sostanze. Nei primi decenni del XIX sec. la chimica aveva prodotto un grande accumulo di osservazioni sperimentali sul comportamento delle sostanze, identificando nuove classi di composti e di elementi. In particolare, ai tempi di Daguerre si stavano affermando i grandi laboratori chimici, ben organizzati e ricchi di strumentazione, che permettevano una precisa caratterizzazione delle sostanze. Protagonista in tal senso furono Jöns Berzelius e Justus Liebig. Il primo codificò i comportamenti delle sostanze in principi normativi e fondò metodi di sperimentazione chimica rigorosi e controllati, che furono poi modello per i laboratori di tutta Europa. Il secondo istituì grandi laboratori chimici, ben organizzati e ricchi di strumentazione, vero e proprio luogo si scambio di informazioni dei chimici di tutta Europa.

Fu in questo contesto scientifico che Daguerre iniziò i suoi esperimenti fotografici con lo iodio nel 1833. L’elemento era stato scoperto da Bernard Courtois e isolato da Charles-Bernard Desormes e Nicolas Clément solo venti anni prima mentre le sue proprietà erano state indagate da appena 10 anni. Come detto, Daguerre non era uno studioso della chimica ma conosceva il lavoro di Courtois sullo iodio e questo dimostra come la comunicazione delle scoperte scientifiche si diffondesse allora rapidamente in ambienti non specializzati, anche se è da notare che il milieu culturale dell’epoca era piuttosto ristretto, in particolare dal punto di vista geografico[4], e ciò favoriva lo scambio di informazioni.

Inoltre, non appena   l’invenzione del dagherrotipo fu divulgata nel 1839, l’astronomo e matematico inglese ‒ nonché provetto chimico ‒ John Frederick William Herschel [fig.5],

Fig. 5: Ritratto di Sir John Frederick William Herschel. Stampa da una negativa al collodio del 1867 (fonte: https://www.britannica.com/biography/John-Herschel)

cercò di scoprire i segreti della tecnica, in particolare dell’operazione di fissaggio. Alcuni anni prima Herschel aveva preparato l’acido tiosolforico, che lui aveva chiamato iposolforico, e utilizzò con successo il sale di sodio per solubilizzare[5] lo ioduro d’argento non impressionato. Nel giro di pochissimo tempo Daguerre modificò il suo procedimento sostituendo come agente fissante il sale con il tiosolfato di sodio[6], a dimostrazione del corto circuito rapidissimo tra fotografia e chimica in quel periodo.

Sviluppo delle immagini e catalisi

Le prime fotografie richiedevano tempi di posa lunghissimi, incompatibili con figure in movimento. Per la prima foto ottenuta da Niepce era stato necessario un tempo di posa di alcune ore, mentre per il dagherrotipo, grazie all’azione di sviluppo del mercurio, il tempo di posa era sceso ad alcuni minuti.

Fu però John Talbot a trasformare l’atto fotografico da posa statica a istantanea, aprendo la strada alla moderna fotografia. Tra tutti i protagonisti della nascita della fotografia, Talbot è con Herschel quello ad avere il più alto profilo scientifico e a svolgere il suo lavoro con un vero e proprio programma di ricerca. Talbot aveva idee molto chiare sulle trasformazioni chimiche che avvengono nei processi fotografici. Così, nella sua comunicazione nel 1839 al Royal Society sul suo metodo di sviluppo, scriveva che: «Il nitrato d’argento che diventa nero per azione della luce non è più la stessa sostanza di prima. Di conseguenza se l’immagine, prodotta dalla luce solare,viene successivamente sottoposta a un qualunque processo chimico, le parti chiare e scure si comporteranno diversamente: non c’è evidenza, dopo che tale azione ha avuto luogo, che tali parti bianche e nere siano soggette a ulteriori mutamenti spontanei. Anche se ciò avvenisse non segue che il cambiamento tenderà a farle assomigliare l’una all’altra».

Talbot scoprì nel 1841 che, trattando carta iodizzata[7] con una miscela formata da una soluzione concentrata di AgNO3 in acido acetico glaciale e da una soluzione satura di acido gallico in egual volume, si otteneva una carta di tale sensibilità che erano sufficienti pochi secondi di esposizione per formare l’immagine, di contro le lunghissime pose necessarie per altri processi, come la dagherrotipia. Talbot chiamò la carta così preparato “al calotipo” (dal greco kalós, “bello”) [fig.6]

Fig. 6 Ritratto di William Fox Talbot ottenuto nel 1864 con il metodo della calotipia (fonte: https://en.wikipedia.org/wiki/Henry_Fox_Talbot)

e interpretò correttamente il fenomeno, attribuendo all’acido gallico la capacità catalitica nell’autosviluppo dell’immagine latente, ossia di quella che si forma per effetto della luce ma che è troppo debole per essere correttamente visualizzata.

La scoperta dello sviluppo fotografico rivoluzionò la storia del ritratto, aprendo la strada all’istantanea, ossia all’attuale modo comune di collezionare immagini. Fu un rivolgimento anche sociale: i procedimenti base della produzione delle carte fotosensibili potevano essere facilmente standardizzati e quindi commercializzati, aprendo la strada alla grande diffusione della fotografia. Non solo, ma la rapidità con cui avveniva l’impressione estese grandemente il campo dei soggetti fotografici: non più solo ritratti in posa di regnanti e riproduzioni di paesaggi, a somiglianza delle tecniche pittoriche, ma immagini della vita quotidiana e di persone comuni. Queste innovazioni tecnologiche incrociarono perciò le esigenze degli strati emergenti della società borghese, fornendo loro possibilità di espressione e di autorappresentazione.

L’acido gallico, un raffinato catalizzatore redox

L’azione dell’acido gallico sull’immagine latente è oggi spiegata a partire dai cluster di Ag che si formano durante l’impressione fotografica. L’acido gallico, come altri agenti riducenti quali l’idrochinone, ha la capacità di ridurre solo l’alogenuro attivato presente nei granuli dove si sono formati i cluster. Dal punto di vista termodinamico questa reazione redox è possibile anche per i cristalli non attivati ma è molto più lenta, quindi è cineticamente sfavorita. La grande abilità e, insieme, la grande fortuna di Talbot, fu di aver trovato un agente riducente molto efficiente per lo sviluppo dell’immagine latente ma non aggressivo nei confronti delle parti non attivate dell’alogenuro, come sarebbe accaduto invece con i comuni agenti ossido riduttivi inorganici.

Gli storici della fotografia hanno dibattuto a lungo sulla originalità del processo inventato da Talbot e su quale fosse la fonte di informazioni che lo condussero all’uso dell’acido gallico. In particolare, gli studi si sono concentrati sulla conoscenza che Talbot poteva aver avuto dei lavori con l’infuso delle noci di galla del reverendo Joseph Bancroft Reade, vicario di Stone (nel Buckinghamshire), singolare figura di religioso  a cui interessava più la microscopia che non i compiti pastorali. La questione ebbe notevole rilievo all’epoca di Talbot perché nelle cause che lui intentò per violazione del suo brevetto, gli avvocati avversi ne contestarono l’originalità in quanto l’uso dell’acido gallico come sviluppatore sarebbe risalito agli esperimenti originali di Reade.

In realtà, il proposito originale di Reade era di ottenere immagini ingrandite su carta proiettate dal microscopio; siccome in genere queste risultavano troppo sbiadite, Reade cercò un metodo per ottenere carte più sensibili. Reade aveva letto da Wedgood che il cuoio rendeva il nitrato d’argento più sensibile e, secondo la sua testimonianza, si fece dare dalla moglie un suo guanto per fare delle prove di impressione fotografica: «La signora Reade fu così gentile di darmi un paio di guanti di pelle chiari così da ripetere gli esperimenti di Wedgwood». Al rifiuto della moglie di un secondo paio di guanti Reade Reade, partendo dall’idea che la sensibilità del cuoio fosse dovuta al tannino, con cui solitamente viene trattato il cuoio, si diresse verso l’uso della carta all’infuso di noci di galla che contiene tannino al 50%. Forse questo ricordo così gustoso è ricostruito ad arte[8], come altre volte è capitato nella storia della scienza.

È più probabile che Reade fosse giunto all’uso delle noci di galla perché all’epoca circolava già l’idea che alcune sostanze organiche rafforzassero la fotosensibilità dell’AgNO3, che tra l’altro era un prodotto usato anche in cosmesi e quindi in combinazione con emulsionanti organici (lo stesso Reade aveva sperimentato l’uso della colla di pesce). Inoltre, nella letteratura tecnica dell’epoca erano note le reazioni dei sali metallici con l’estratto di noci di galla nella formulazione degli inchiostri, con i quali anche Reade aveva avuto a che fare.

Sta di fatto che Reade non parlò mai esplicitamente dell’uso di acido gallico che si forma durante la macerazione delle noci di galla per preparare la tintura, e nella quale è presente per il 3%. Lo stesso Reade riconobbe a Talbot tutti i meriti della scoperta dell’uso dell’acido gallico come agente sviluppatore in fotografia e a sé stesso solo quello dell’iniziatore. Per farlo Reade usò un’efficace immagine sportiva: «Io lanciai la palla e Talbot la prese». Sta di fatto che ci sono prove storiche che Talbot era venuto a conoscenza degli esperimenti di Reade e che, in un ambito scientifico più avanzato e accurato, li aveva finalizzati al suo scopo. Forte delle sue competenze chimiche, Talbot concentrò la sua attenzione sull’acido gallico: con ogni probabilità conosceva il procedimento originale del chimico svedese Carl Wilhelm Scheele per l’estrazione dell’acido gallico dall’infuso di galla, ripreso da Berzelius in un suo trattato molto diffuso in quegli anni.

Il brevetto

Talbot brevettò il suo metodo di impressione e sviluppo fotografici l’8 febbraio 1841 con il titolo Metodi per ottenere immagini o rappresentazioni di oggetti. [fig.7]

Fig. 7: Frontespizio del brevetto di Talbot (fonte: http://www.nonesuchsilverprints.com/art-of-silver/PDFs/Fox%20Talbot%20Patent%208842%20-%201841.pdf)

Nel brevetto compariva la preparazione della carta iodizzata e di quella al calotipo, il processo di impressione in camera oscura, quello di fissaggio tramite lavaggio con KBr e NaCl e l’ottenimento del positivo. In quest’ultima fase del processo si usava una seconda carta al calotipo che veniva accoppiata al negativo separandolo con una lastra di vetro e fissando il tutto con viti in un telaio che veniva esposto alla luce. Successivamente si sottoponeva il positivo alle stesse procedure di sviluppo e fissaggio del negativo.

Anche se il brevetto non abbonda di specifiche tecniche, è notevole il travaso di contenuti squisitamente scientifici in un ordinamento giuridico-economico. Talbot aveva esitato a lungo prima di depositare il brevetto, e ciò avvenne dopo che aveva presentato le sue scoperte in diverse occasioni: nel 1839 aveva sottoposto il suo metodo alla Royal Society e nel 1840 [fig.8]

“The Art of Photogenic Drawing” by Fox Talbot. Photo books for auction at Christies, St. James’s London on 31 May 2007.

Fig. 8 Frontespizio della comunicazione di Talbot alla Royal Society nel 1839 (fonte: http://www.photohistories.com/photo-books/15/photogenic_drawing)

aveva allestito a Londra una mostra di fotografie realizzate con il suo metodo. Ciononostante Talbot prese una decisione che pochi decenni prima, nell’epoca dei Faraday e dei Priestley, non sarebbe stato concepibile, e questa novità rappresentò il risultato tangibile dell’incontro diretto e irreversibile tra impresa scientifica e impresa economica.

La novità non stava certo nel fatto che le scoperte scientifiche fossero il motore del progresso tecnico-industriale ‒ basti pensare al contemporaneo sviluppo dell’industria chimica del cloro-soda ‒ ma che il lavoro del singolo scienziato diventasse rapidamente questione economica di estremo rilievo. Non è un caso che ciò sia avvenuto prima di tutto con la fotografia, nella quale il tasso necessario di competenze scientifiche è molto alto. A distanza di quasi due secoli, oggi assistiamo gli estremi esiti di questo connubio, per esempio con la Celera Genomics di Craig Venter, nella quale aspetti scientifici e imprenditoriali sono del tutto indistinguibili.

La controversia

Nel periodo successivo a quello in cui Talbot aveva depositato il suo brevetto, si diffusero altri supporti fotografici. Era noto che il vetro costituiva un supporto molto più efficiente della carta: il problema era come far aderire l’alogenuro al supporto. Anche in questo caso fecero la loro comparsa le sostanze organiche: lo stesso Talbot propose e brevettò una lastra all’albume che, anche se poco sensibile, permise di ottenere una vera e propria istantanea di un oggetto in movimento[9] illuminato da una forte scintilla elettrica.

Ma il sistema che ebbe maggior successo fu la lastra al collodio inventata dall’inglese Frederick Scott Archer nel 1851: su una lastra di vetro veniva versata una sospensione di KI in collodio[10] che, una volta asciugata, veniva immersa in una soluzione di AgNO3: dopo l’impressione la lastra veniva sviluppata in una soluzione di acido gallico. La tecnica al collodio umido ebbe un rapido sviluppo (soprattutto dopo la grande Esposizione universale di Londra del 1851) sostituendo rapidamente la dagherrotipia e la stessa calotipia. Tuttavia Talbot riteneva che i fotografi che utilizzavano quella tecnica violassero il suo brevetto che si basava sull’acido gallico come sviluppatore e fece causa nel 1854 a due fotografi londinesi: James Henderson e Martin Silvester Laroche. Per Talbot la sostituzione del supporto cartaceo con quello al collodio non costitutiva fatto rilevante in quanto la chimica del processo era la medesima, incentrata sull’azione catalizzatrice dell’acido gallico. La difesa di Henderson sosteneva invece che la tecnica al collodio era diversa da quella della calotipia in quanto dai due procedimenti si ottenevano risultati apprezzabilmente diversi. Un esperto della difesa, lo scienziato Robert Hunt, sostenne anche che l’acido gallico era diverso dall’acido pirogallico[11] di cui si serviva Henderson [fig.9]:

Fig. 9: Acido gallico e “acido pirogallico”

 

Talbot però ebbe a controbattere che le due sostanze svolgevano la medesima azione chimica di agente riducente.

La controversia Talbot-Laroche precedette quello con Henderson. Al termine del lungo e complesso dibattimento, nel quale Talbot fece intervenire a suo supporto[12] anche William Thomas Brande, scopritore del litio e tra i più influenti chimici dell’epoca, il tribunale si pronunciò dando ragione alla difesa. Infatti sentenziò che, malgrado si dovesse riconoscere a Talbot il merito dell’invenzione del metodo della calotipia e, in particolare, dell’uso del’acido gallico come rivelatore, il metodo al collodio era sostanzialmente differente da quello al calotipo e che quindi la richiesta di indennizzo da parte di Talbot a Laroche era insussistente.

Per Talbot fu un duro colpo: lo scienziato aveva investito molto del suo nelle ricerche sulla carta al calotipo e si trovò a fronteggiare anche le richieste per danni avanzate da due citati, che avevano dovuto per un certo tempo interrompere la loro attività legate alle lastre al collodio umido. Talbot fu così costretto a risarcire Henderson con 150 ₤. La sconfitta di Talbot fu invece accolta molto positivamente dai numerosi fotografi dell’epoca (solo a Regent street c’erano 20 negozi di fotografi che usavano all’epoca il metodo al collodio), che si vedevano liberati dai vincoli brevettuali del calotipo e del dagherrotipo[13].

Conclusioni

La vicenda giudiziaria di Talbot è molto significativa perché rappresenta bene quel difficile incrocio tra ragioni scientifiche, progresso tecnico-industriale e motivazioni commerciali che si andava realizzando nei primi decenni del XIX secolo. La chimica, in particolare, aveva in tal senso un ruolo rilevante in quanto le competenze chimiche erano presenti sin dall’alba delle prime grandi produzioni industriali. Basti pensare che pochi anni prima della invenzione di Talbot, nel 1825, si avviava a Glasgow la produzione della soda secondo il metodo Leblanc, il primo vero e proprio procedimento industriale chimico, fondamentale per la lavorazione del vetro, dei saponi e dei candeggianti.

Rispetto alla produzione della soda, nella fotografia il prodotto finale non è però un composto chimico, ma un procedimento tecnico nel quale la chimica ha un notevole ruolo. Quel che Talbot non comprese, probabilmente, era che il riconoscimento della primazia intellettuale della scoperta chimica non poteva coincidere con i diritti del brevetto: Talbot si ostinò a cercare di dimostrare che quello al collodio e quello al calotipo erano lo stesso processo in quanto medesimo era il procedimento di riduzione chimica nella fase di sviluppo. Ma questo non significava che l’intero processo al collodio potesse essere riassunto nel brevetto di Talbot. Storicamente, lo scienziato inglese si trovava, come dire, a metà dell’opera: pur consapevole dell’importanza commerciale della sua invenzione, Talbot era ancora mentalmente legato a un’epoca precedente in cui il lavoro dello scienziato doveva comunque primeggiare rispetto alle altre istanze della società. Così Talbot andò incontro a una cocente sconfitta, anche se la sua figura di scienziato non ne rimase intaccata e non sono stati mai disconosciuti i suoi meriti di fondatore dello sviluppo e della riproduzione a stampa fotografica.

Nel prosieguo del secolo,e ancor più in quello seguente, i rapporti tra esigenze industriali, commerciali e chimiche divennero sempre più stringenti e la Rivoluzione industriale suggellò quel rapporto tra pari che è durato per secoli e che oggi deve trovare un nuovo equilibrio per la formidabile spinta delle nuove tecnologie informatiche, per le quali la distinzione tra esperienze scientifiche e applicazioni industriali è semplicemente insussistente. Così, Il pennello della natura, romantico titolo che Talbot diede al primo libro illustrato con le sue fotografie, ha ormai un sapore di cose lontane, molto lontane.

Ringraziamenti

Ringrazio sentitamente Antonio Seccia, litografo, calcografo, litografo, costruttore di torchi storici, profondo conoscitore dei metodi tradizionali di stampa, per i preziosi consigli.

Bibliografia e sitografia utilizzate

·       Berzelius B.B., Trattato di chimica, Napoli 1839, in https://books.google.it/books?id=18S24Ods7PQC&pg=PA157&lpg=PA157&dq=scheele+acido+gallico&source=bl&ots=4bhk4VVxUx&sig=INwwKGFN8Pn8CiL3QTC43Cu9RUM&hl=it&sa=X&ved=2ahUKEwjDiOaNtrDeAhUOWhoKHeUdBI8Q6AEwAnoECAcQAQ#v=onepage&q=scheele%20acido%20gallico&f=false

  • De Franceschi J., La fotografia del Novecento. Studio dell’emulsione argento-gelatinosa attraverso indagini non invasive su campioni dal 1908 al 1980, Tesi di Laurea del Corso d Laurea Magistrale in Scienze chimiche per la Conservazione e il Restauro, Università Ca’ Foscari di Venezia, A:A 2014-15 in http://dspace.unive.it/bitstream/handle/10579/7121/834394-1187735.pdf?sequence=2
  • Leicester H. M., Storia della chimica, ISEDI, Milano, 1978

·       Newhall B., L’immagine latente, Zanichelli, Bologna, 1980

·       Singer Ch., Holmyard E.J., Hall A.R., Williams T.I., Storia della tecnologia, Vol 4*, Bollati-Boringhieri, Torino, 2013

  • Talbot H. F., Some Account of the Art of Photogenic Drawing Or, the process by which Natural Objects may be made to delineate themselves, without the aid of the Artist’s Pencil, Royal Society, London, Received 28th Jan 1839 Read 31 Jan 1839 in http://www.lens-and-sensibility.eu/en/kalotypie/kalotypie.php

·       Torracca E., Il periodo della chimica classica in Storia della chimica, Marsilio editori, Venezia, 1989

  • Watt S., The elements: Silver, Benchmark book, New York, 2003

·       Weeks M. E. The discovery of the Elements, JCE, vol. 9, n. 11, 1932

[1] Naturalmente un grande impulso alla fotografia fu dato anche dall’ottica fisica e geometrica e dalle arti figurative, che usavano da tempo la camera oscura per la riproduzione di immagini dal vero.

[2] Nel primo decennio del XIX sec. furono scoperti ben 14 elementi chimici.

[3] Nella calcografia, per esempio, la lastra di rame viene ricoperta con un impasto di bitume, cere e gomma, che viene inciso con una punta dall’incisore. Sulla lastra viene versato l’acido nitrico che incide il rame laddove lasciato scoperto dal bitume. La lastra viene pulita, inchiostrata e usata come matrice per la stampa.

[4] Nei primi decenni del XIX sec. il cuore delle ricerche chimiche si collocava tra Francia, Inghilterra e Germania.

[5] In realtà non si tratta di una semplice solubilizzazione, in quanto nel lavaggio si forma il tiosolfato doppio di sodio e argento. Da notare che per i chimici degli anni Trenta del XIX secolo era ormai del tutto normale che un sale ‘appena’ modificato dalla luce avesse una ‘solubilità’ del tutto diversa da quello non impressionato e questo dimostra come si fosse rapidamente raffinato lo studio del comportamento chimico delle sostanze.

[6] Il successo del tiosolfato di sodio come agente fissante fu tale che fino a tempi recenti i fotografia hanno continuato ad usare come fissatore il tiosolfato chiamandolo iposolfito, ossia con l’errato nome iniziale dato da Herschel.

[7] Nel tempo si era scoperto che il bromuro e lo ioduro di Ag erano più sensibili del cloruro. Per preparare la sua carta iodizzata Talbot immergeva in una soluzione di KI una carta spennellata con AgNO3.

[8] L’obiezione più fondata a questo ricordo è che i guanti, i particolare quelli chiari da donna, venivano conciati all’allume e non al tannino.

[9] L’oggetto era un copia del Times, a celebrare l’anglocentricità delle tecniche fotografiche del tempo.

[10] Il collodio è fondamentalmente nitrocellulosa, composto sintetizzato per la prima volta nel 1845 dal chimico tedesco Christian Friedrick Schönbein, solo sei anni prima dell’invenzione di Archer, a ulteriore dimostrazione di come chimica e fotografia progredissero allora di pari passo.

[11] L’acido pirogallico differisce dal gallico perché manca del gruppo carbossilico. In effetti, l’attribuzione del termine ‘acido’ per il pirogallico, dovuto al fatto che veniva preparato per pirolisi dell’acido gallico, è impropria perché si tratta di un alcole polivalente. Hunt disse che differivano tra loro come l’aceto dallo zucchero e, strutturalmente parlando, non aveva tutti i torti.

[12] Talbot cercò di convincere a testimoniare anche sir John Frederick William Herschel, suo amico e grande estimatore. Ma Herschel, pur riconoscendo il valore delle scoperte di Talbot, si rifiutò, intuendo la differenza tra primato scientifico e primato commerciale.

[13] La dagherrotipia era libera in Francia ma non in Inghilterra, dove era sottoposta a brevetto, forse per motivi extracommerciali, dovuti alle continue ruggini politiche tra i due Stati.

Elementi della tavola periodica: Azoto, N.

Mauro Icardi

Azoto: simbolo chimico N, numero atomico 7, peso atomico 14,007.  Un gas senza colore, né odore. Appartenente alla serie dei non metalli. Tra tutti gli elementi del quinto gruppo, l’unico che si trova libero (allo stato biatomico) in natura. Capace di formare legami doppi e tripli. L’80% del volume totale dell’atmosfera è occupato da questo elemento. L’aria quindi è la principale fonte di azoto della terra.

In natura esso si presenta in forme diverse, più o meno disponibili per gli organismi viventi.  E’ sempre stato al centro degli approfondimenti nel lavoro che svolgo. Si può ritenere il propagatore degli eterni dilemmi della chimica. Se da tempo ci si interroga sulla chimica, se essa sia portatrice di benefici, oppure la responsabile di ogni nefandezza, a partire dall’ottimo libro di Luciano Caglioti “I due volti della chimica: Benefici o rischi?”, allo stesso modo ci si può porre la domanda per l’azoto: amico o nemico?

Ovviamente le attività dell’uomo hanno prodotto, in particolare negli ultimi tre secoli, un certo cambiamento nella composizione dell’aria sia in termini di concentrazione delle specie già presenti, sia in termini di rilascio di “nuovi” composti. Nel caso dei composti dell’azoto è necessario aggiungere ad N2 e NO anche il biossido di azoto (NO2), l’ammoniaca (NH3), gli acidi nitrico (HNO3) e nitroso (HNO2)

L’azoto venne scoperto nel 1772 da Daniel Rutherford, e contemporaneamente anche da Henry Cavendish in Inghilterra e da Carl W. Scheele in Svezia. Fu Lavoisier a dimostrare che si trattava di un elemento chimico. La presenza di ben tre legami covalenti impartisce alla molecola biatomica dell’azoto un’elevata stabilità. Per questa ragione, viene ampiamente utilizzato come gas inerte a livello industriale. L’azoto liquido è usato come refrigerante per il congelamento tramite immersione, per il trasporto dei prodotti alimentari, per l’immagazzinamento stabile dei campioni biologici.

L’azoto è anche componente delle proteine e degli acidi nucleici.
La proverbiale inerzia chimica dell’azoto molecolare, però, complica notevolmente la sua fissazione e quindi il suo impiego da parte degli organismi viventi come fonte di azoto indispensabile nella sintesi degli amminoacidi e delle proteine.

A questo punto vediamo di focalizzare l’attenzione sul ciclo dell’azoto.

Osservando questa immagine si nota una fitta trama di interconnessioni. Diversi sono anche i compartimenti dove le reazioni che rimettono in circolo l’azoto, tramutandolo da una forma all’altra, avvengono: il suolo, le piante, ma anche le stesse proteine e gli amminoacidi, costituenti degli organismi.

E’ possibile raggruppare l’insieme dei processi che determinano il ciclo dell’azoto in 3 gruppi di reazioni:

  1. Le reazioni di azotofissazione
  2. Le reazioni di ammonificazione
  3. Le reazioni di nitrificazione/denitrificazione

L’azotofissazione consiste in una serie di reazioni, che possono avvenire sia per via biologica che chimica, attraverso le quali viene attivata la conversione dell’azoto molecolare ad azoto organico in modo da renderlo disponibile per il metabolismo delle piante. Le leguminose sono piante che possiedono nelle proprie radici batteri azoto fissatori, in grado di arricchire il suolo di sostanze nutritive azotate. La fissazione biologica è mediata da microrganismi come l’Azobacter e il Rhizobium, ed è resa possibile da un enzima, la nitrogenasi, che catalizza la reazione che produce la rottura del triplo legame covalente stabile presente nella molecola di azoto. Una stima quantitativa è riportata nella figura seguente dal lavoro di Fowler e coll. citato in fondo:Nelle reazioni di ammonificazione si parte da composti organici complessi contenenti azoto. Le sostanze azotate, già derivate da processi di decomposizione della sostanza organica, vengono ulteriormente demolite in sostanze più semplici grazie all’azione di organismi presenti nei suoli, come funghi e batteri, che le utilizzano per fabbricare le proprie molecole essenziali (proteine e amminoacidi). La restante parte di azoto in eccesso viene liberata sotto forma di ioni ammonio  o di ammoniaca.Nelle reazioni di nitrificazione si ha l’ossidazione dello ione ammonio. Questo processo è a carico di alcune specie di batteri che ne traggono energia per le loro attività metaboliche.

Questo processo particolarmente attivo nei suoli caldi e umidi caratterizzati da valori di pH vicino a 7, si svolge attraverso due reazioni ossidative: la nitrosazione e la nitrificazione. La prima consiste nell’ossidazione dell’ammonio a nitrito ed è mediata da microrganismi come i Nitrosomonas:

NH4+ + 3/2 O2 → 2H+ + NO2 + H2O

La seconda reazione di ossidazione porta alla formazione dei nitrati mediata dai Nitrobacter:

NO2 + 1/2 O2 → NO3

In questo modo l’azoto rientra in circolo nella rete alimentare, considerato che il nitrato è la specie chimica attraverso la quale la maggior parte dell’azoto viene assimilata dalle piante attraverso le radici.

In ultimo con la denitrificazione i nitrati vengono scissi in seguito alle attività di alcuni batteri che vivono nel terreno (es Pseudomonas). Questi batteri scindono i nitrati liberando l’azoto che torna all’atmosfera. La denitrificazione avviene soprattutto in terreni saturi d’acqua con poca disponibilità di ossigeno e in presenza di materia organica decomponibile.

Da notare come le reazioni di nitrosazione, nitrificazione e denitrificazione siano quelle usate anche nei processi di trattamento biologico delle acque reflue.

Dopo la scoperta e l’industrializzazione del processo Haber-Bosch per la sintesi dell’ammoniaca, utilizzando come fonte di azoto l’aria atmosferica, il ciclo stesso nel tempo è risultato alterato.

La produzione mondiale di fertilizzanti azotati è cresciuta ,e si è verificato l’accumulo di forme reattive di azoto nella biosfera. Gli inconvenienti principali sono stati quelli dell’eutrofizzazione, del rilascio di tossine algali, e la perdita di biodiversità. I processi produttivi umani convertono all’incirca 120 milioni di tonnellate/anno di azoto in forme più reattive. E’ intuitivo capire che il problema dello sbilanciamento del ciclo dell’azoto non è di facile soluzione. Nell’articolo “A safe operating space for humanity” uscito nel Settembre 2009 su “Nature”, Johan Rockstrom ed i suoi collaboratori hanno proposto la riduzione di questo prelievo di azoto riducendolo a 35 milioni di tonnellate/anno.

Per lavorare in questa direzione occorrono più fondi per la ricerca , e come sempre un’informazione precisa, per rendere l’opinione pubblica più informata e attenta. E allo stesso tempo dobbiamo ricordarci che stime risalenti al 2008 ci ricordano che il 48% dell’umanità e stata sfamata grazie ai concimi prodotti dall’ammoniaca di sintesi. E che nel frattempo la produzione mondiale di fertilizzanti ha raggiunto attualmente i 190 milioni di tonnellate, di cui poco più di 110 milioni di azoto, 45 di fosforo e 35 di potassio. Sono le sfide che ci attendono nel futuro.

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3682748/

Fowler D et al. 2013 The global nitrogen cycle in the twenty-first century. Phil Trans R Soc B 368: 20130164. http://dx.doi.org/10.1098/rstb.2013.0164

Un contributo a Discussion Meeting Issue ‘The global nitrogen cycle in the twenty-first century’.

Due aromi utilizzati nelle sigarette elettroniche possono danneggiare le cellule polmonari

Rinaldo Cervellati

La notizia è stata riportata da Tien Nguyen in un recente numero di Chemistry & Engineering newsletter on line. Le due sostanze sospette sono il diacetile e il suo omologo 2,3-pentandione.

                  Diacetile                         2,3-pentandione

Il diacetile, comunemente utilizzato nell’industria alimentare per il suo aroma di burro, è sotto esame fin dai primi anni del 2000. Gli studi rivelarono una possibile correlazione fra questa sostanza e l’insorgenza di bronchiolite obliterante, una malattia che provoca tosse secca e respiro sibilante, osservata per la prima volta negli operai delle fabbriche di popcorn degli USA

Nel 2012, la US Flavor and Extract Manufacturers Association ha stabilito limiti di esposizione sul posto di lavoro per il diacetile (e il suo omologo 2,3-pentanedione) e ha raccomandato che i contenitori di queste sostanze rechino un’etichetta con l’avvertimento che l’inalazione di vapori provenienti dai contenitori potrebbe provocare gravi danni.

Il diacetile è anche il composto più comune fra diverse centinaia di sostanze aromatizzanti utilizzate nelle sigarette elettroniche, uno studio del 2016 su 51 prodotti per sigaretta elettronica ha rilevato che più della metà conteneva 2,3-pentanedione.

Un gruppo multidisciplinare di ricerca, coordinato dai Dott. Joseph Allen & Quan Lu della Harvard TH Chan School of Public Health a Boston, ha valutato l’effetto delle due sostanze aromatizzanti su colture di cellule epiteliali bronchiali e ha proposto un possibile meccanismo di come potrebbero compromettere la funzionalità polmonare. (H-R. Park Sci et al., Transcriptomic response of primary human airway epithelial cells to flavoring chemicals in electronic cigarettes., Sci. Rep. 2019, DOI: 10.1038 / s41598-018-37913-9).

D.J.Allen

Quan Lu

 

 

 

Lo studio si concentra inizialmente sugli effetti del diacetile e del 2,3 pentanedione sulle cellule epiteliali. Queste cellule rivestono le vie respiratorie dei polmoni e le mantengono pulite, ricorda il genetista Quan Lu, condirettore della ricerca. Esistono in tre forme: cellule ciliate, caliciformi e basali. Le cellule ciliate, simili a capelli, lavorano con quelle caliciformi che producono muco per spazzare via la polvere e gli agenti patogeni dalle vie aeree. Le cellule basali possono trasformarsi in uno degli altri due tipi di cellule epiteliali.

I ricercatori hanno trattato tutti e tre i tipi di cellule epiteliali con soluzioni di diacetile, 2,3-pentanione e con una soluzione inerte (controllo). L’esposizione alle sostanze aromatiche ha portato a una diminuzione del numero di cellule ciliate, rispetto all’esposizione alla soluzione di controllo. Usando una tecnica genetica, chiamata RNA-seq, il gruppo ha monitorato i livelli di RNA delle cellule, consentendo di osservare quali geni hanno cambiato la loro espressione dopo l’esposizione alle sostanze aromatiche. Molti dei geni con livelli di espressione più bassi dopo l’esposizione sono stati coinvolti nella ciliogenesi, il modo in cui le cellule basali si trasformano in cellule ciliate. Avere meno cellule ciliate lungo le vie aeree significa che i polmoni hanno meno protezione contro corpi estranei che possono causare infiammazioni. Questo lavoro ha permesso di ipotizzare un possibile meccanismo con cui queste sostanze producono i danni osservati.

Un’indagine commissionata dallo US Public Health Commission ha riportato che gli aromi aggiunti contribuiscono al fascino che i giovani hanno per la sigaretta elettronica: dal 2011 al 2015 l’uso di sigarette elettroniche fra gli studenti delle scuole superiori negli Stati Uniti è cresciuto del 900%, portando il Presidente della Commissione a dichiarare che questo fenomeno potrebbe comportare grossi problemi per la salute pubblica. Nel tentativo di ridurre l’uso di sigarette elettroniche tra i giovani, nel novembre 2018 il commissario della FDA (Food and Drug Administration), Scott Gottlieb, ha proposto politiche per limitare la vendita di prodotti aromatizzati per sigarette elettroniche (senza includere menta, mentolo o aromi di tabacco) nei negozi in cui i minorenni devono presentare un documento di identità per fare acquisti.

I ricercatori di Harvard hanno in programma di testare un insieme più ampio di sostanze chimiche aromatizzanti e di sviluppare anche una tecnica di laboratorio per esporre le cellule agli aromatizzanti aerosolizzati, che imiterebbe meglio il modo in cui le cellule dei polmoni vengono esposte a queste sostanze.

Maciej L. Goniewicz del Roswell Park Comprehensive Cancer Center, che studia la tossicità dei composti aromatizzanti nelle sigarette elettroniche, afferma che studi cellulari controllati come questo sono importanti perché consentono agli scienziati di studiare l’impatto delle singole sostanze chimiche in vitro, che possono essere difficili da investigare in vivo.

                                         Maciej L. Goniewicz

Tuttavia afferma che può non essere corretto estrapolare questi risultati e applicarli alla salute umana. Nel valutare i rischi per la salute Goniewicz aggiunge che è importante tenere presente che i loro rischi sono relativi. Ad esempio, fumare sigarette espone le persone a migliaia di sostanze chimiche, quindi è possibile che anche ammettendo una certa tossicità degli aromatizzanti, le sigarette elettroniche possano essere meno pericolose di quelle tradizionali. Ponderare i rischi dipenderà dalle autorità di regolamentazione, che necessiteranno però di più dati sperimentali e epidemiologici per fare raccomandazioni attendibili.

Negli USA la FDA (Food and Drug Administration) non si è espressa in maniera nettamente negativa sull’uso del diacetile nel liquido per le sigarette elettroniche.

Anche in Europa si è registrato un aumento del mercato delle sigarette elettroniche, a eccezione dell’Italia, dove si è verificato un netto calo dal 2013 al 2015.  Dal 1 gennaio 2018 le sigarette elettroniche sono passate sotto il controllo diretto del Monopolio di Stato, come il tabacco tradizionale. Una ulteriore tassa che rischia di soffocare un intero settore e alimenta una battaglia combattuta a suon di leggi, sanzioni e ricorsi. Non tutti i liquidi per sigaretta elettronica contengono infatti nicotina, molti contengono solo l’aroma del tabacco, insieme ad altri aromi aggiunti.

Wikipedia, alla voce Diacetyl in lingua inglese riporta letteralmente:

In 2016, diacetyl was banned in eliquids / ecigarettes in the EU under the EU Tobacco Products Directive.

Ma le cose non stanno così. Andando a esaminare attentamente il documento citato a sostegno della frase precedente, disponibile in tutte le lingue dell’Unione Europea:

http://europa.eu/rapid/press-release_IP-16-1762_it.htm

si può notare che in nessun punto è menzionato il divieto del diacetile, gli aromi sono citati solo al punto 2 che recita:

Le sigarette e il tabacco da arrotolare non potranno più avere aromi caratterizzanti come mentolo, vaniglia o caramello, che mascherano il gusto e l’odore del tabacco. Nel caso di prodotti con una quota di mercato superiore al 3 % (come il mentolo), il divieto sarà applicato a partire dal 2020.    

 

Nota del blogmaster: si vedano anche

– pag. 20 del rapporto dell’ISS http://old.iss.it/binary/publ/cont/16_44_web.pdf

http://news.doccheck.com/it/2857/sigarette-elettroniche-un-polmone-al-popcorn-per-favore/

 

…per i miracoli ci stiamo attrezzando!

Claudio Della Volpe

Giorni fa il collega Gustavo Avitabile mi ha scritto una mail raccontandomi un episodio avvenuto nel contesto dell’Università di Napoli, dove sono nato e cresciuto; e dunque mi scuserete se, prendendomela a cuore, lo racconto anche a voi. Secondo Gustavo è off-topic sul blog, ma non credo.

Gustavo è un chimico molto bravo e ormai in pensione, si è occupato di raggi X e didattica al computer; ma è anche il Gustavo che insieme ad altri amici di Napoli, come Ugo Lepore, Pina Castronuovo, Guido Barone, Luciano Ferrara, Vittorio Elia hanno fatto di me quel che sono oggi, Gustavo (e Ugo) mi hanno anche fatto il primo esame (nell’estate di 50 anni fa! sono proprio vecchio). E dunque a questa intellettualità napoletana che ha fatto il 68 e ha ancora il buon gusto di indignarsi io devo questo post.

Di cosa parliamo?

L’Università Federico II fa una serie di conferenzedi cui vi mostro la locandina ed in una di queste il prof. Alessandro De Franciscis, 15° presidente dell’Ufficio delle constatazioni mediche di Lourdes, ha raccontato la sua esperienza e anche la storia di Lourdes. Conferenza indubbiamente brillante e vivace, come nella personalità del relatore, tipicamente partenopea, ma anche capace di far indignare Gustavo, perchè poco fondata scientificamente perchè di fatti si passa dalle remissioni spontanee ai miracoli senza soluzione di continuità e senza soprattutto metodo scientifico; la conferenza è visibile su YouTube, potete seguirvela, dura un’ora e mezza e capisco se vorrete farne a meno, ma è piacevole; una sera che non avete di meglio da fare vale la pena al posto del Festival di Sanremo o di altre amenità. Vedrete che la parte finale del titolo, la verifica, è mancata.

Vi accorgerete di quel che dice Gustavo; la conferenza parte bene, il relatore ricorda che le remissioni spontanee sono sempre esistite, ma si finisce male, con l’enumerazione dei 70 miracoli riconosciuti dalla Chiesa Cattolica. Ora è questo che Gustavo rimprovera all’Università di Napoli, con una mail inviata a tutti i colleghi che non è passata, che è stata censurata diciamo così, di non aver saputo garantire il contesto; solo un collega del pubblico, intervenuto a titolo personale il prof. Pignata ha fatto notare i punti deboli del relatore, la mancanza di elementi di controllo e verifica nell’approccio “miracolistico”, la mancanza di considerazione degli aggravamenti ingiustificati come delle remissioni spontanee.

Quel che nessuno ha detto bene e che forse Gustavo avrebbe voluto sentir dire lo dirò io qui.

Cosa sono i 70 miracoli riconosciuti di Lourdes o se volete anche i 7500 casi di guarigioni elencate ma non riconosciute come miracoli? Sono una parte della numerosa congerie di “remissioni spontanee” elencate per esempio in questa pagina:

https://noetic.org/research/projects/spontaneous-remission

E in questo libro scaricabile gratis: http://library.noetic.org/library/publication-bibliographies/spontaneous-remission

Si tratta di 3500 casi analizzati in dettaglio su 800 riviste pubblicate in 20 lingue, dunque al livello dei 70 miracoli, ma circa 50 volte di più. In fondo a Lourdes ci sono andati solo alcune decine di milioni di persone, ma sono una minima parte della popolazione mondiale.

Per quelli che hanno meno tempo consiglio il bel post della counselor in psicosomatica Luciana Giordo: https://www.psicosomatica.eu/remissioni-spontanee/ molto ben scritto o i riferimenti citati allla fine.

La remissione spontanea da malattie anche traumatiche normalmente inguaribili è un fenomeno ben documentato ma ancora non spiegato, nel quale elenco i 70 casi provati di Lourdes rientrano bene; dice la Giordo: se andate su Medline il numero di riferimenti per le chiavi di ricerca “spontaneous remission” o “spontaneous regression”, passa dai 10.603 del periodo 1966-1992 ai 20.502 attuali. Insomma ampio data base sul quale però lo studio non è altrettanto esteso; e questo è il limite della scienza. Le remissioni spontanee da malattie molto gravi (eccettuati i casi fasullli, gli errori, le diagnosi sbagliate etc.) sono non miracoli ma eventi rarissimi ed inaspettati ed al momento non spiegati.

L’interazione corpo-psiche è un argomento poco studiato; certamente c’è la chimica dietro, ma c’è anche un mistero: cosa è l’autocoscienza? Cosa rende noi e tanti altri animali coscienti di se stessi; cosa ci fa comunicare col nostro gatto o col nostro cane e rende noi capaci di guarire spontaneamente (la percentuale è ridottissima, 1/100.000 non vi illudete, se avete un tumore andate dal medico) e lui capace si di guardarsi allo specchio ma non riconoscersi? Non lo sappiamo. Dobbiamo studiarci e tanto.

http://www.treccani.it/enciclopedia/il-rapporto-tra-mente-e-cervello_(XXI-Secolo)/

Ecco questo è il punto; quale è la base materiale della coscienza e dell’autocoscienza e dunque di tutte quelle interazioni fra corpo e mente, per lo più inconsce, automatiche ma potentissime che sperimentiamo continuamente? Milioni di reazioni chimiche, migliaia di enzimi e di sequenze reattive, un “sistema” di reazioni complesse della cui complessità stiamo appena accorgendoci; questo è il cervello, la base fisica; ma la mente, il sistema informatico che è basato sul cervello, il programma che ci gira, il software se volete (so di essere impreciso, ma ci sta, non sono un esperto) dove sta e cosa fa, come comunica col resto, dove sta scritto? La scienza dei sistemi complessi, i meccanismi della retroazione che esploriamo tramite sistemi di equazioni differenziali non lineari, questo contesto che tende ad unire mente e cervello, la tomografia NMR unita alle neuroscienze se volete, questo è mancato nella conferenza, dando spazio al miracolismo; ognuno può pensarla come gli pare ed essere religiosi non è in contrasto per forza con il fare scienza, ma la cosa dovrebbe essere detta e distinta più chiaramente di quanto ha fatto De Franciscis (e ci sta, lui è dichiaratamente cattolico e dichiaratamente di parte) e soprattutto di come gli hanno consentito di fare l’Università di Napoli e anche l’intellighenzia partenopea, che invece dovrebbe essere garante e che a volte dimentica di aver fatto il ’99 e anche il ’68 e si riduce al più modesto presente.

Un’ultima considerazione per giustificare come mai questo apparente OT non sia poi OT; non solo per motivi generali, politici, I care, direbbe Vincenzo, io come intellettuale DEVO occuparmi della società e delle ricadute della scienza, ma anche per un motivo di merito; cosa è una remissione spontanea o se volete col linguaggio di De Franciscis un miracolo? E’ un evento inaspettato, un cigno nero, un accadimento NON LINEARE! Dunque di esso ci occupiamo con i metodi che conosciamo che usiamo per questo: i sistemi lontani dall’equilibrio come il nostro corpo e quello di ogni essere vivente o la biosfera sono proprio il luogo deputato agli eventi non lineari che studiamo con la retroazione, la dialettica, i metodi della termodinamica irreversibile, le equazioni differenziali; ecco perchè non siamo OT (Off Topic).

Bravo Gustavo per esserti indignato, ma non avevo dubbi; su Gustavo si può contare. Un abbraccio e un ricordo grato a te e agli altri chimici ribelli di Napoli (dei quali ho fatto parte e mi scuserà chi non è stato ricordato) da un ex studente.si veda anche: http://www.cicap.org/emilia/miracolo/

http://www.medbunker.it/2013/10/guarire-miracolosamente-o-spontaneamente.html

Precursori dell’Adenina nella sintesi abiotica nello spazio

Diego Tesauro

Tra le ipotesi sull’origine della vita terrestre nelle ultime decadi, ha avuto maggiori fautori l’ipotesi che i primi organismi viventi avessero alla base la molecola dell’RNA. L’RNA quindi avrebbe svolto il ruolo sia di catalizzatore delle reazioni nelle cellule che di trasmettitore dell’informazione. Solo successivamente la maggiore stabilità del DNA e delle proteine avrebbero portato alla sostituzione dell’RNA. Il mondo basato sull’RNA richiede la sintesi abiotica dei nucleotidi e la loro partecipazione nelle reazioni di replicazione dell’RNA non enzimatica. Entrambe le due funzioni mostrano delle criticità non risolte. In questo intervento mi vorrei focalizzare sulla sintesi dei nucleotidi in particolare di una delle basi, l’adenina, per cui di recente sono stati osservati alcuni precursori chiave nella sintesi.

Storicamente la presenza dell’adenina di origine extraterrestre, e quindi di sintesi abiotica, è stata rilavata alla fine degli anni sessanta nella famosa meteorite carbonacea di Murchison (https://it.wikipedia.org/wiki/Murchison_(meteorite)), fonte di innumerevoli molecole organiche di origine prebiotica. Una possibile via sintetica abiotica era già stata proposta da Oro et al. all’inizio degli anni sessanta in una pubblicazione sulla rivista Nature [1]. In questo schema la sintesi prevede la presenza del cianuro di idrogeno e l’ammoniaca come reagenti, verosimilmente presenti nell’atmosfera primordiale terrestre. Per poter spiegare la sintesi dell’adenina nelle nubi idi gas molecolare, da cui hanno origine per contrattazione gravitazionale i sistemi planetari, Chakrabarti ha proposto successivamente che l’adenina si possa formare attraverso l’oligomerizzazione di HCN nella fase gassosa in quattro fasi: HCN → H2C2N2 → NH2CH(CN)2 → NH2(CN)C = C(CN)NH2 → H5C5N5 in cui il primo step è una dimerizzazione del cianuro di idrogeno per dare la cianometanimmina [2] .

Figura 1 I due isomeri geometrici della cianometimmina

Figura 2 Sintesi attraverso due vie dei due isomeri geometrici della cianometimmina

Tuttavia, eseguendo calcoli teorici, negli ultimi decenni, la formazione del dimero di HCN, non sembra verificarsi in maniera efficiente nelle condizioni del mezzo interstellare (ISM). Pertanto il meccanismo di formazione e la possibilità di rilevare la molecola nelle nubi interstellari è di cruciale importanza per spiegare la formazione dell’adenina. La cianometanimmina presenta due diversi isomeri geometrici: l’isomero Z e l’isomero E (Figura 1). Pur essendo l’isomero Z più stabile dal punto di vista energetico fino ad oggi nell’ISM era stato rilevato solo l’isomero E. Solo recentemente è stata osservata la presenza di entrambi gli isomeri geometrici nella nube molecolare quiescente G + 0.693 del Centro Galattico mediante le osservazioni del radiotelescopio 30 m dell’IRAM sul Pico Veleta della Sierra Nevada in Spagna, nel dominio delle onde millimetriche [3]. Il rapporto osservato di abbondanza relativa tra i due isomeri [Z/E] è circa 6. Questo valore è estremamente maggiore rispetto a quanto previsto teoricamente dalle due vie di formazione chimica precedentemente proposte (in fase gassosa o sulla superficie dei grani di polvere della nube). Infatti la prima via prevede la reazione del radicale ciano con la metanimmina con formazione dei due isomeri nel rapporto 1.5 mentre l’alternativa, avente come reagenti il cianogeno e due atomi di idrogeno, mostra un rapporto nel prodotto tra gli isomeri intorno a 0,9 (Figura 2). Invece il rapporto [Z/E] osservato è in buon accordo con l’equilibrio termodinamico alla temperatura cinetica del gas (130-210 K). Poiché l’isomerizzazione non è possibile nell’ISM, le due specie potrebbero essersi formate ad alta temperatura. Nuovi modelli chimici, inclusa la chimica delle superfici su grani di polvere e reazioni in fase gassosa, dovrebbero essere esplorati per poter spiegare questi risultati. Qualunque sia il meccanismo di formazione, l’elevata abbondanza di Z-HNCHCN mostra che i precursori dell’adenina si sono formati nell’ISM. Ancora più recentemente è stata osservata per la prima volta anche la presenza di idrossiacetonitrile o glicolnitrile (Figura 3) in una protostella di tipo solare in formazione in IRAS 16293-2422 B, una zona della nebulosa oscura r Ophiuchi (Foto 1) [4]. La rilevazione è stata ottenuta mediante il radiotelescopio ALMA (Atacama Large Millimeter/submillimeter Array) in Cile (Foto 2), osservando a frequenze comprese tra 86,5 GHz e 266,5 GHz Sono state identificate in totale 15 transizioni di glicolnitrile.

Figura 3 Sintesi del Glicolnitrile e sue reazioni per produrre Adenina e Glicina

 

Foto 1 Il complesso Rho Ophiuchi cloud, una nebulosa oscura di gas e polveri localizzata ad 1° a sud dalla stella ρ Ophiuchi della costellazione dell’Ofiuco. Trovandosi a circa 131 ± 3 parsecs, (430 anni luce) è una delle zone di formazione di sistemi planetari più vicine al sistema solare.

Foto 2 Alcune delle antenne del Radiotelescopio interferometrico ALMA sull’altopiano di Chajnantor delle Ande cilene (https://www.eso.org/public/italy/teles-instr/alma/)

Anche questa molecola è coinvolta nella sintesi dell’adenina. Nel mezzo interstellare (ISM), il glicolnitrile potrebbe formarsi su superfici di grani ghiacciate attraverso la reazione tra formaldeide e cianuro di idrogeno. Questo composto, in presenza di ammoniaca e cianuro di idrogeno a pH basico, è in grado di accelerare il processo di sintesi dell’adenina. Inoltre in una miscela eutettica ghiaccio-acqua in presenza di ammoniaca, si può ottenere dal glicolnitrile la glicina. Quindi questa molecola gioca un ruolo chiave nella sintesi abiotica e nella chimica dei nitrili nell’ISM. Inoltre i dati mostrano la presenza della molecola sia nel core caldo interno che nell’involucro esterno freddo di IRAS16293 B, pertanto ci si può spiegare la sua presenza (e di composti organici quali la glicina) in oggetti appartenenti alle zone remote dei sistemi planetari come le comete e gli asteroidi. Molti punti restano però oscuri per cui è necessario condurre ulteriori esperimenti nonché elaborare dei modelling per avere una visione completa della chimica in fase gassosa a bassa densità e nelle interfaccia dei sistemi eutettici a bassa temperatura.

[1] J. Oro Mechanism of Synthesis of Adenine from Hydrogen Cyanide under Possible Primitive Earth Conditions Nature 1961, 1193-1194)

[2] S. Chakrabarti, S.K. Chakrabarti Astronomy and Astrophysics, 2000, 354, L6-L8 doi astroph/0001079

[3] V. M. Rivilla, J. Martín-Pintado, I. Jiménez-Serra, S. Zeng, S. Martín, J. Armijos-Abendaño, M. A. Requena-Torres, R. Aladro, D. Riquelme Abundant Z-cyanomethanimine in the interstellar medium: paving the way to the synthesis of adenine Monthly Notices of the Royal Astronomical Society: Letters, 2019, 483(1), L114–L119. doi 10.1093/mnrasl/sly228

[4] S. Zeng, D. Quénard, I. Jiménez-Serra, J. Martín-Pintado, V M. Rivilla, L. Testi, R. Martín-Doménech First detection of the pre-biotic molecule glycolonitrile (HOCH2CN) in the interstellar medium Monthly Notices of the Royal Astronomical Society: Letters, 2019, 484(1), L43–L48. doi:10.1093/mnrasl/slz002

 

 

Scienziate che avrebbero potuto aspirare al Premio Nobel: Ellen Gleditsch (1879-1968)

Rinaldo Cervellati

Ellen Gleditsch è stata uno dei primi specialisti in radiochimica, misurò l’emivita del radio e confermò l’esistenza degli isotopi. Come esperta cristallografa, ha dato importanti contributi alla scienza nel laboratorio di Marie Skłodowska-Curie. Fu la seconda donna a occupare una cattedra universitaria in Norvegia.

Ellen nacque il 28 dicembre 1879 a Mandal (Norvegia), prima di 11 figli. Suo padre, un insegnante di storia naturale, e sua madre, intellettuale e sostenitrice dei diritti delle donne, fecero in modo che tutti i figli fossero impegnati in attività culturali e musicali oltre a frequentare la scuola regolare.

Una giovane Ellen Gleditsch

Fu la prima della classe alla scuola di farmacia nel 1902. Nel 1903, Gleditsch fu invitata a studiare nel laboratorio del chimico Eyvind Bødtker[1] all’Università di Oslo e presto divenne la sua assistente. Nel 1905 superò l’esame di ammissione all’università[2] ma su suggerimento e con il sostegno di Bødtker decise di proseguire gli studi a Parigi.

Nel 1907 iniziò a lavorare nel laboratorio di Marie Curie, già famosa avendo vinto il Premio Nobel per la fisica nel 1903 (insieme al marito Pierre Curie e a Henry Becquerel). Ellen si dimostrò una risorsa inestimabile per il laboratorio di Curie, eseguendo “cristallizzazioni frazionate”, una tecnica difficile in cui pochi scienziati erano competenti. Con questa tecnica Gleditsch riuscì a purificare il radio. Lavorò a stretto contatto con Curie per cinque anni analizzando minerali radioattivi alla ricerca di uranio e radio e, dopo aver lasciato il laboratorio, vi tornò più volte per supervisionare gli esperimenti. In questo periodo pubblica almeno cinque lavori [1-4].

Ellen conseguì la Licenciée en sciences degree (licenza in scienze) dalla Sorbona nel 1911 e nello stesso anno ottenne una borsa di studio presso l’Università di Oslo.

Ellen Gleditsch dottore in scienze

Dopo un anno nella capitale norvegese, vinse una borsa della American-Scandinavian Foundation (la prima borsa di studio assegnata a una donna) per studiare negli Stati Uniti, e colse al volo l’occasione. Fece domanda a due prestigiose scuole degli USA chiedendo di lavorare nei loro laboratori ma entrambe le domande furono rifiutate, in un caso su base di genere.

Nonostante fosse stata respinta, si recò all’Università di Yale, nel laboratorio di Bertram Boltwood[3] , dove trascorse un anno per completare le sue ricerche sul tempo di emivita del radio stabilendolo in 1686 anni [5], che è rimasto lo standard per molto tempo prima di essere corretto a 1620 anni.

La misurazione di Ellen ha aperto la strada a diverse importanti scoperte, poiché l’emivita del radio poteva essere utilizzata come parametro per lo studio della radiochimica di altri elementi. Gli scienziati che l’avevano rifiutata cambiarono idea sul fatto di avere donne nei loro laboratori. Nel giugno 1914, ricevette un dottorato onorario per il suo lavoro sulla radioattività dallo Smith College di Northampton, nel Massachusetts.

Ellen tornò all’Università di Oslo nel 1914 e nel 1917 divenne la seconda donna ad essere eletta all’Accademia delle Scienze di Oslo. Dodici anni più tardi, dopo un’ardua procedura di nomina, è diventata la seconda donna a ricoprire una cattedra universitaria in un’università norvegese (università di Oslo). A Oslo avviò con successo un gruppo di ricerca in radiochimica. Durante gli anni ’30, continuò a produrre articoli in inglese, francese, tedesco e norvegese. Nel 1939 è stata nominata membro del comitato internazionale per la cooperazione intellettuale, del quale aveva fatto parte Maria Curie alcuni anni prima.

Ellen Gleditsch in laboratorio

Sebbene il suo risultato scientifico più celebre sia stato la determinazione del tempo di emivita del radio, Gleditsch ha anche svolto un ruolo importante nel confermare l’esistenza degli isotopi. Quando nel 1913 il chimico britannico Frederick Soddy avanzò l’ipotesi che gli atomi di un elemento potevano avere pesi atomici[4] diversi, Ellen, insieme ad altri ricercatori, inviò un campione di piombo che aveva purificato a un importante scienziato negli Stati Uniti. Il suo campione era l’unico abbastanza puro da provare l’esistenza degli isotopi.

Fervente sostenitrice delle donne nella scienza per tutta la sua vita, è stata co-fondatrice della Norwegian Women Academics Association nel 1919 e, dal 1926 al 1929, ha ricoperto il ruolo di presidente della International Federation of University Women, posizione che le ha permesso di viaggiare e tenere conferenze.

Quando la Norvegia fu occupata durante la seconda guerra mondiale, nascose gli scienziati e continuò a usare la sua casa per gli esperimenti. Durante un’incursione nel suo laboratorio nel 1943, le scienziate riuscirono a nascondere i minerali radioattivi ma tutti gli uomini furono arrestati.

Si ritirò dall’università nel 1946 e iniziò a lavorare con l’UNESCO partecipando a iniziative per porre fine all’analfabetismo. Nel 1952 fu nominata alla commissione norvegese che lavorava per il controllo delle armi atomiche. Nello stesso anno si dimise dall’UNESCO per protesta contro l’ammissione della Spagna fascista di Francisco Franco.

Ellen Gleditsch in conferenza

Nel 1962, all’età di 83 anni, ricevette un dottorato onorario dalla Sorbona, la prima donna a ricevere un tale onore.

Ellen Gleditsch morì, stroncata da un ictus, il 5 giugno 1968. In suo onore è stata istituita la Ellen Gleditsch Scholarship Foundation con lo scopo di sostenere aspiranti scienziati.

Opere consultate

The gifted cristallographer. Epigenesys https://www.epigenesys.eu/en/science-and-you/women-in-science/773-ellen-gleditsch

Marelene F. Rayner-Canham, Geoffrey W. Rayner-Canham, A Devotion to Their Science: Pioneer Women of Radioactivity, Chemical Heritage Foundation, 1997, pp. 51-75 https://books.google.com.mx/books?id=YAbzjGWdIA0C&pg=PA73&lpg=PA73#v=onepage&q&f=false

  1. Lykknes, L. Kvittingen, A. K. Børresen, Appreciated Abroad, Depreciated at Home. The Career of a Radiochemist in Norway: Ellen Gleditsch (1879–1968)., 2004, 95, 576-609.

Bibliografia

[1] Mme Curie et Mlle Gleditsch, Action de l’émanation du radium sur les solutions des sels de cuivre., Radium, 1908, 5(8), 225-227 https://hal.archives-ouvertes.fr/jpa-00242300/document

[2] E. Gleditsch, Sur le radium et l’uranium contenus dans les mineraux radioactifs., Comptes Rendus, 1909, 148, 1451.

[3] E. Gleditsch, Ratio Between Uranium and Radium in the Radio-active Minerals., Comptes Rendus, 1909, 149, 267.

[4] E. Gleditsch, Sur les rapports entre l’uranium et le radium dans les mineraux radioactifs., Radium, 1911, 8(7), 256-273.

[5] E. Gleditsch, The life of Radium., American Journal of Science., 1916, 41, 112-124.

[1] Eyvind Bødtker (1867 – 1932) farmacista e chimico norvegese si è occupato principalmente di omologhi del benzene e di composti aliciclici. La maggior parte della sua carriera si è svolta all’università di Christiana dove è stato professore dal 1918.

[2] Il Matriculatium exam o Examen artium, corrispondeva all’esame di maturità di oggi, dopodiché gli alunni ricevevano il titolo di “studenti” poiché era anche il requisito per accedere all’università. Fino al 1923 questo esame non era tuttavia obbligatorio per gli studi di farmacia. Questo spiega perché Gleditsch aspettò fino al 1905 per iniziare i suoi studi universitari di chimica.

[3] Bertram Borden Boltwood (1870 – 1927), radiochimico statunitense stabilì che il piombo è il prodotto finale del decadimento dell’uranio. Professore alla Yale University.

[4] A quel tempo i chimici parlavano ancora in termini di peso. Di massa si cominciò a ragionare quando Francis Aston nel 1921 introdusse la whole-number rule, secondo cui le masse degli isotopi sono multipli interi della massa dell’atomo di idrogeno. A Francis Aston (1877-1945) fu assegnato il Premio Nobel per la chimica 1922 “per la sua scoperta, grazie all’utilizzo del suo spettrografo di massa, di isotopi di molti elementi non radioattivi e per la sua enunciazione della teoria del numero intero”. Volendo essere precisi, la massa di ciascun isotopo non è un intero causa il difetto di massa durante la sua formazione in cui si libera energia.

Nanoparticelle da batteri, funghi e estratti vegetali.

Luigi Campanella, già Presidente SCI

Le nano-scienze studiano i materiali nelle componenti più piccole di cui sono composti, quindi a livello atomico e molecolare. Alcune delle applicazioni più moderne ed attuali dei nano-materiali sono la protezione da scritte e graffiti di vetri, carrozzerie, pannelli pubblicitari, l’azione di contrasto allo sporco ed all’umidità su superfici di vetro o specchio; l’azione idrorepellente, l’attività antivegetativa su imbarcazioni e cabine marine.

Per grandi applicazioni si utilizzano dispersioni delle nanoparticelle in alcool; tali applicazioni sono sempre più diffuse e variate, allargando i campi di interesse e di studio. Alcune nano particelle hanno dimostrato proprietà di inibizione della crescita di microorganismi, altre sono state applicate alla decontaminazione delle acque reflue da uranio. Tutto ciò mette in evidenza come le nano-particelle rappresentino promettenti opzioni per la chimica sostenibile. In alcuni casi, la maggior parte in realtà, la loro preparazione comporta metodi e processi non ecocompatibili; da qui l’importanza di superare questo limite con metodi di sintesi delle nanoparticelle che siano riconducibili alla green chemistry.

Nasce così la nanotecnologia verde come combinazione delle nanotecnologie con la chimica verde, che punta a creare nano-materiali sostenibili e sviluppare applicazioni per ridurre i residui dannosi a salute ed ambiente da smaltire. Il risanamento di terreni inquinati è uno dei problemi che rientrano in questa casistica. Questo può avvenire in situ senza la necessità di scavare ed ex situ con rimozione del terreno seguita da trattamento adeguato in condizioni controllate. La nanotecnologia verde ha trovato applicazioni proprio nei metodi di risanamento in situ, ovviamente i più ambiti per la maggiore semplicità operativa. Il primo aspetto da considerare per dare credito al carattere green è quello relativo alla preparazione/sintesi rispettosa di ambiente e salute. Le sintesi tradizionali avvengono per via chimica, che può essere con tecnologia tradizionale o con tecnologia green: nel primo caso si utilizzano spesso solventi tossici e condizioni sperimentali estreme, consumi energetici elevati, mentre nel secondo caso si impiegano reagenti green, per lo più estratti naturali, condizioni ambientali miti, catalisi chimica con ridotti consumi energetici. Successiva alla sintesi è la caratterizzazione che avviene con tecniche diverse XRD, UV, FTIR.

Sono note due classi di nano-materiali ,l’organica e l’inorganica, la prima costituita principalmente da carbonio, la seconda da metalli nobili come l’oro e l’argento. Un’altra classificazione distingue le nano-particelle in naturali, sintetiche, ingegnerizzate, a seconda della loro origine; quelle metalliche rientrano in quest’ultima classe.

I microrganismi hanno talvolta la capacità di ridurre gli ioni metallici conducendo alla sintesi di materiali in nanoscala; ciò avviene attraverso l’azione di enzimi extracellulari secreti dai microorganismi. I batteri hanno una speciale affinità per i materiali e questa proprietà di legarli li rende particolarmente utili nel nanobiorisanamento. Oltre ai batteri analoghi usi hanno i funghi ed i lieviti, questi ultimi in particolare nei casi di sintesi di grandi quantità di nano particelle, in ragione dell’elevato contenuto proteico di questi microorganismi. Infine in letteratura si trovano molti esempi di sintesi di nanoparticelle a partire da estratti di piante. Esistono numerosi articoli nella bibliografia scientifica che, in funzione delle nano particelle che si vogliono sintetizzare, indicano la piante o il microorganismo più idoneo.

Alcuni esempi: per la sintesi di nanoparticelle di argento i microrganismi o le piante più adatti sono il lievito del pane, lo staffilococco, la magnolia,la trigonella e il ficus; per quelle di oro aspergillus penicillium ed eucalipto; per quelle di ferro escherichia coli, papaya, tè verde, rosmarino.

Questo fra l’altro getta luce sulla pretesa di alcuni che le nanoparticelle che si ritrovano nei cibi o nell’ambiente siano tutte sintomo di inquinamento. Non sembra sia così e secondo alcuni anzi talune nanoparticelle hanno un ruolo nella crescita delle piante. Diciamo che c’è molto da studiare.

Dopo la loro caratterizzazione le nanoparticelle vengono applicate al nanorisanamento del sistema in cui è richiesto di abbattere la concentrazione di composti pericolosi per l’uomo e per l’ambiente. L’azione delle nano particelle si può esplicare attraverso l’adsorbimento con conseguente rimozione dei composti adsorbiti o attraverso la loro proprietà di donatori elettronici che comporta una reazione con le specie ioniche metalliche e con gli elettronaccettori con la trasformazione di questi in specie meno tossiche; tale minore tossicità auspicata deve essere però testata.

Alcuni dei problemi che assillano queste nuove tecnologie sono la perdita di attività nel tempo delle nanoparticelle, il trasporto di queste, l’azione tossica nei confronti dei biocatalizzatori, spesso indispensabili per lo sviluppo di una reazione. I microorganismi del suolo ,ad esempio, sono estremamente importanti per il ciclo naturale dei nutrienti nell’ambiente, proteggendo anche il suolo da eventuali composti contaminanti. Dovendo decidere sul metodo più adatto per risanare un sito contaminato vanno tenuti in conto numerosi aspetti, quali l’efficienza, la complessità, il rischio, la disponibilità di risorse, il tempo necessario, giungendo alla conclusione che non esiste un metodo che soddisfi completamente ed inducendo quindi la convinzione di ricorrere ad una multi-tecnologia.

Alcuni riferimenti.

Nanochem Res 3(1): 1-16, Winter and Spring 2018

Sustainability 2018, 10, 913; doi:10.3390/su10040913

J Nanomed Nanotechnol
 Volume 5 • Issue 5 • 1000233


­ M.H. Siddiqui et al. (eds.), Nanotechnology and Plant Sciences,
DOI 10.1007/978-3-319-14502-0_2

Anshup A, Venkataraman JS, Subramaniam C, Kumar RR, Priya S, Kumar TS, Omkumar RV, John A, Pradeep T. (2005). Growth of gold nanoparticles in human cells. Langmuir, 21 11562–11567.

Chaudhuri GR, Paria S. (2012). Core/shell nanoparticles: classes, properties, synthesis mechanisms, characterization, and applications. Chem Rev, 112 (4) 2373-433.

Dwivedi AD, Gopal K. (2010). Biosynthesis of silver and gold nanoparticles using Chenopodium album leaf extract. Colloids Surf A Physicochem Eng Asp, 369 (1–3) 27–33.

Iravani S. (2011). Green synthesis of metal nanoparticles using plants. Green Chem, 13 2638–2650. Iravani S. (2011). Green synthesis of metal nanoparticles using plants. Green Chem, 13 2638–2650.

Inaugurazione ufficiale dell’Anno Internazionale della Tavola Periodica

Rinaldo Cervellati

Il 29 gennaio a Parigi, nella sede dell’UNESCO (Organizzazione delle Nazioni Unite per l’educazione, la scienza e la cultura), ha avuto luogo la cerimonia ufficiale inaugurale dell’International Year of Periodic Table (IYPT).

Ne ha parlato Laura Howes su Chemistry & Engineering News del 30 gennaio (The International Year of the Periodic Table officially kicks off in Paris, C&EN, 97 (5))

Il 2019 coincide con il 150° anniversario del primo articolo di Dmitri Mendeleev che proponeva una classificazione degli elementi conosciuti in un sistema basato sulle loro proprietà fisiche e chimiche, da lui stesso chiamato sistema periodico. Molti interventi alla cerimonia di apertura di martedì 29 hanno riguardato il lavoro di Mendeleev e la sua Tavola Periodica che gli permise di prevedere le proprietà di elementi non ancora noti, che vennero poi effettivamente scoperti in base a queste previsioni. Mendeleev è stato un “vero genio della chimica”, ha detto il premio Nobel Ben Feringa durante il suo discorso di apertura.

Feringa ha anche affrontato un tema condiviso in molti altri interventi: l’importanza della collaborazione internazionale. I chimici “hanno un linguaggio universale che usa gli elementi e le molecole e non ha confini” ha affermato Feringa.

Oltre ai discorsi, l’inaugurazione del 29 gennaio ha previsto tavole rotonde e spettacoli musicali. Fuori dall’auditorium principale, i delegati hanno preso parte a dimostrazioni pratiche di chimica e hanno potuto ammirare una serie di tavole periodiche. Questa collezione comprendeva diversi Tavole realizzate dall’insegnante giapponese Nagayasu Nawa e un Tavola da muro del 1885 scoperta da Alan Aitken mentre stava pulendo l’Anfiteatro delle Conferenze all’università di St. Andrews nel 2014.

Questa Tavola potrebbe essere il più antico esempio al mondo di una tavola periodica usata a scopo didattico.

Parlando alla cerimonia di apertura, la presidente della American Chemical Society, Bonnie Charpentier, ha affermato che l’ACS spera che le società scientifiche e le istituzioni educative si riuniscano nel 2019 per condividere l’importanza della chimica e della tavola periodica. “Non vedo l’ora di vedere tutti i modi in cui si festeggerà l’IYPT e discutere su come possiamo lavorare insieme”, ha aggiunto, rivolgendosi alla platea.

La cerimonia di apertura è stata solo l’inizio dell’IYPT. Eventi e convegni sono stati pianificati per tutto l’anno. Queste manifestazioni includeranno anche il sostanziale apporto, troppo spesso dimenticato o ignorato, delle donne scienziate che hanno contribuito al completamento della Tavola con la scoperta di nuovi elementi e più in generale al progresso delle scienze chimiche.

L’IYPT, con il suo tema sugli elementi come linguaggio comune per la scienza, ha pertanto lo scopo di migliorare la consapevolezza globale e l’educazione nelle scienze di base.

Alla cerimonia inaugurale ha partecipato anche il nostro collega Marco Taddia che rappresenta la Società Chimica Italiana nel Working Party on History of Chemistry di EuChemS (Società Europea di Chimica). Sicuramente Marco scriverà su questa cerimonia su La Chimica & l’Industria, rivista ufficiale della SCI.

In questo 2019 cade anche il 100°anno di fondazione della IUPAC (Unione Internazionale di Chimica Pura e Applicata), con lo scopo di promuovere la comunicazione internazionale nelle scienze chimiche attraverso un linguaggio standardizzato condiviso da tutti i settori, accademico, industriale e pubblico. Come ricordato nel precedente post la IUPAC ha convocato un gruppo di lavoro con il compito di dare una raccomandazione aggiornata sulla struttura della Tavola periodica.