Strategie contro l’inquinamento “indoor”

In evidenza

Luigi Campanella, già Presidente SCI

Con inquinamento indoor si intende l’inquinamento che interessa l’aria degli ambienti confinati, cioè quella presente in quei luoghi all’interno dei quali si svolgono attività umane sia di lavoro che conviviali, di svago o di riposo.

E’ comunque opportuno sottolineare che nell’ambito della definizione “indoor” vengono esclusi gli ambienti industriali, che pur essendo spesso confinati, presentano un tipo di inquinamento ben specifico e relazionato alla tipologia di lavoro.

Invece, al contrario di quanto succede in ambito industriale, nel caso di abitazioni, scuole, uffici, edifici pubblici, mezzi di trasporto, ecc., l’inquinamento indoor viene frequentemente sottovalutato per fattori di natura squisitamente culturale, psicologica o storica.

In realtà, diverse ricerche hanno dimostrato che in questi luoghi l’esposizione ad inquinanti di varia natura può essere addirittura superiore a quella relativa agli inquinanti in ambiente esterno o industriale.

Si tenga presente che il tempo speso da ognuno in ambienti confinati è di gran lunga superiore a quello speso in ambiente outdoor.

Un caso poi di particolare importanza è rappresentato dall’ambiente ospedaliero (sul quale scrivemmo già un post). Qui la possibilità di contrarre varie malattie, anche di tipo professionale,obbliga ad attenzione ancora maggiore,rappresentando i frequentatori una fascia debole di utenza.

Il problema dell’inquinamento indoor è emerso nel corso di questi ultimi anni: parallelamente al crescente desiderio di migliorare la qualità della vita realizzando condizioni di benessere e di salubrità ottimali per la salute. Risulta da tutto ciò quanto preziosa possa risultare una tecnologia capace di rimuovere da un ambiente indoor gli inquinanti in esso presenti.

Oggi si lavora a pitture foto catalitiche capaci di farlo utilizzando un processo fotodegradativo degli inquinanti stessi affidato alla presenza, fra i suoi componenti, di un semiconduttore fotocatalizzatore che, stimolato dalla luce solare, produce radicali liberi dell’ossigeno molto reattivi e quindi capaci di degradare fino alla mineralizzazione molti dei comuni inquinanti indoor.

I limiti a tale tecnologia sono due: necessità di illuminazione solare della parete verniciata, stop al processo nelle ore notturne.

L’implementazione è quindi indirizzata verso una modulazione della lunghezza d’onda attiva, modificando il fotocatalizzatore o drogandolo ed integrando nell’attuale composizione un generatore radicalico che possa svolgere il ruolo coperto nell’attuale versione dal sistema costituito da TiO2, luce solare, molecole di acqua ed ossigeno,capace di produrre radicali dell’ossigeno molto attivi per degradare gli inquinanti da abbattere.

Chemistry » “Phthalocyanines and Some Current Applications”, book edited by Yusuf Yilmaz, ISBN 978-953-51-3256-1, Chapter 10 Phthalocyanines: Alternative Sensitizers of TiO2 to be Used in Photocatalysis By William A. Vallejo Lozada, Carlos Diaz-Uribe, Cesar Quiñones, Mileidy Lerma, Catalina Fajardo and Karen Navarro DOI: 10.5772/67880

Note sull’Antropocene.2.Le ipotesi. Parte seconda.

In evidenza

Claudio Della Volpe

Le prime due parti di questo post sono state pubblicate qui e qui.

Continuiamo ad esaminare le varie proposte sulla scansione temporale dell’Antropocene usando come falsariga l’articolo di Lewis e Maslin pubblicato su Nature nel 2015.

Dopo aver esaminato le ipotesi dell’origine delle attività agricole e dello scambio colombiano, la scoperta dell’America e delle sue conseguenze arriviamo alla

Ipotesi 3.

 terza ipotesi, ossia la rivoluzione industriale.

L’inizio della rivoluzione industriale è stata spesso suggerita come inizio dell’Antropocene, perchè certamente l’accelerazione nell’uso dei fossili e i rapidi cambiamenti sociali sono stati unici nella storia umana. Eppure occorre notare che l’umanità è stata a lungo impegnata in trasformazioni di tipo industriale come l’uso esteso di metalli negli ultimi 8000 anni e con un esteso inquinamento conseguente.

Per esempio un elevato inquinamento da mercurio è stato documentato fin dal 1400aC nelle Ande peruviane mentre le lavorazioni di rame nell’impero Romano sono tracciabili nei ghiacci della Groenlandia a partire da circa 2000 anni fa. Ciononostante questo tipo di inquinamento da metallli come altri esempi che si possono prendere dalla Rivoluzione industriale sono troppo locali ed estesi nel tempo per costituire un vero e proprio golden spike, un segnale certo ed univoco.

Le definizioni storiche della Rivoluzione industriale danno una data iniziale fra il 1760 e il 1880 a partire da eventi iniziali nel NordEuropa. Dato il lento aumento dell’uso di carbone le testimonianze fossili nel ghiaccio registrano un impatto limitato sul totale della CO2 atmosferica fino al 19esimo secolo e mostrano poi un incremento continuo ma non un brusco salto impedendo di usarlo come marcatore geologico vero e proprio.

In modo analogo i cambiamenti associati di metano e nitrati, dei prodotti fossili delle combustioni (come le particelle carbonacee sferiche e la frazione magnetica delle ceneri) e tutti gli altri cambiamenti prodotti nei sedimenti dei laghi si sono alterati solo lentamente e sono cresciuti durante molte decadi. Il piombo, una volta aggiunto routinariamente ai combustibili dei veicoli come piombo tetratile, è stato proposto come possibile marcatore proprio perchè il combustibile additivato di piombo è stato usato globalmente e poi proibito. Comunque il picco del rapporto isotopico del piombo da questa specifica sorgente nei sedimenti varia durante l’intervallo fra il 1940 e il 1980 limitandone l’utilità come marcatore.

La rivoluzione industriale in definitiva fornisce si un certo numero di marcatori dal Nord Europa al Nord America e nel resto del mondo sin dal 1800 ma nessuno di essi costituisce finora un marcatore primario chiaro e valido in tutti i contesti.

Ipotesi 4

La grande accelerazione.

Fin dal 1950 l’influenza dell’attività umana sul sistema terra si è accresciuta enormemente. Questa “grande accelerazione” è caratterizzata dalla crescita della popolazione, da cambiamenti nei processi naturali, dallo sviluppo di nuovi materiali sia minerali che della plastica e inquinanti organici ed inorganici persistenti.

Fra tutti questi cambiamenti la ricaduta globale di residui radioattivi dai test di bombe nucleari è stato proposto come marcatore globale dell’orizzonte degli eventi umano. La prima esplosione è stata nel 1945 con un picco atmosferico che si situa fra il 1950 e primi anni 60, seguito da un rapido declino successivo al Partial Test Ban Treaty nel 1963 e agli accordi posteriori, cosicchè al momento continuano ad essere presenti solo bassi livelli di inquinamento.

Un picco caratteristico è presente nelle carote glaciali ad alta risoluzione , nei laghi, nei sedimenti marini , nei coralli, negli anelli degli alberi dai primi anni 50 fino ai primi anni 60.

Il segnale maggiore proviene dal carbonio 14, visto in aria e manifesto negli anelli degli alberi e nei ghiacciai che raggiunge un massimo sia nelle medie latitudini che in quelle alte dell’emisfero Nord nel 1963-64 e un anno dopo nei tropici. Sebbene il carbonio 14 sia a emivita relativamente breve (5730 anni) il suo livello rimarrà abbastanza alto da costituire un segnale utile per le future generazioni.

Le emivite di altri prodotti essenzialmente sintetici, come alcuni gas fluorurati, che sono anche di alcune migliaia o perfino decine di migliaia di anni sarebbero sufficienti ma la loro utilità è ridotta al fatto che gli accordi internazionali ne hanno ridotto o impedito l’uso, come per esempiio il protocollo di Montreal.

Proprio per questo motivo dei vari potenziali marcatori della Grande Accelerazione il picco globale del 14C costituisce un segnale non ambiguo nella maggior parte dei depositi stratigrafici. In particolare il picco del 1964 potrebbe essere usato come marcatore nelle sequenze degli anelli annuali degli alberi. Altri marcatori secondari potrebbero essere il rapporto degli isotopi del Plutonio (240Pu/239Pu) il cesio 137 ed infine lo iodio 129 che ha una emivita di parecchi milioni di anni. E ovviamente molti altri segnali secondari dovuti all’attività umana, potrebbero essere usati come per esempio:

i pollini fossili di specie geneticamente modificate, i picchi di gas fluorurati, isotopi del piombo, microplastiche nei sedimenti marini, variazione nella presenza di diatomee dovuti all’eutroficazione delle acque.

In conclusione delle 4 ipotesi che abbiamo analizzato usando come falsariga il lavoro di Lewis la prima e la terza, l’inizio dell’agricoltura e la rivoluzione industriale non presentano almeno allo stato dell’arte la possibilità di essere usati come marcatore geologico, mentre la seconda e la quarta ossia lo scambio colombiano e le esplosioni atomiche dei primi anni 60 potrebbero essere usati senza grossi problemi.

E’ interessante notare che la scelta anche solo fra queste due ipotesi di delimitazione può avere un significato che va al di là della semplice scelta tecnica; infatti sono fenomeni che mettono l’accento su aspetti diversi della nostra società e della nostra storia.

Infine ci sarebbe da dire questo; la rivoluzione scientifica dal Rinascimento in poi ha sottolineato che l’uomo dopo tutto è un animale come gli altri, senza particolari origini divine e vive in un piccolo pianeta ai margini della Galassia; ma nonostante questo il semplice riconoscimento dell’esistenza e l’analisi degli effetti dell’Antropocene potrebbe cambiare un po’ la nostra visione: dopo tutto al momento questo è l’unico pianeta su cui sappiamo che esista la vita e non solo una vita che è cosciente di se stessa; dunque la nostra azione nei confronti della biosfera non è affatto trascurabile e potrà avere conseguenze non banali e specifiche; abbiamo una enorme responsabilità nei confronti della nostra specie ma anche del pianeta che abitiamo e, per quel che ne sappiamo adesso e finchè non scopriremo altri pianeti dotati di biosfera o perfino di vita autocosciente e di cultura, perfino nei confronti dell’intero Universo.

Dunque siamo partiti da una concezione antropomorfa dell’Universo e attraverso lo sviluppo della Scienza in un certo senso ci siamo tornati, ma ad un livello diverso, una cosa che avrebbe fatto contento Hegel.

Cronache dall’ “Ora della Chimica”

In evidenza

Mauro Icardi

Ho avuto modo di visitare la quinta edizione festival dell’innovazione e della ricerca scientifica ospitato nella biblioteca Archimede di Settimo Torinese. Edizione dedicata alla chimica. Più che giusto intitolarla quindi “L’ora di chimica”. E ho trovato interessante ed appropriata la mostra dedicata a Primo Levi scrittore di fantascienza, di cui mi ero già occupato nella recensione del libro di Francesco Cassata tratta dalla settima lezione Primo Levi tenutasi nell’ottobre del 2015.

Ho potuto nuovamente verificare di persona che questa parte dell’opera dello scrittore è sconosciuta a molti. Forse da altri considerata minore. Io credo che vada invece scoperta e apprezzata. E’ una parte integrante della “galassia Primo Levi”, e alcuni racconti sono acuti e profetici. Come ho già avuto modo di far notare, per esempio il “Mimete” di “Storie naturali” è una rappresentazione di un prodotto tecnologico odierno, non essendo altro che la descrizione con mezzo secolo di anticipo (il libro uscì nel 1966) delle odierne stampanti 3D.

La chimica viene vista spesso in maniera distorta e confusa. Ma alla chimica dobbiamo anche l’elevato livello di qualità della vita di cui (almeno nel mondo occidentale) abbiamo potuto godere negli anni successivi al secondo conflitto mondiale. Prima che la crisi ecologica e quella economica, cioè le due facce della stessa medaglia ci mettessero sotto gli occhi il fatto incontrovertibile che i limiti fisici di pianeta e biosfera non possono essere superati.

La chimica e particolarmente l’industria chimica dovrà in un futuro molto prossimo modificare i propri cicli produttivi, privilegiando l’utilizzo di materie prime rinnovabili, approfondendo ulteriormente la conoscenza dei meccanismi chimici e biochimici che sono alla base dei processi di degradazione ambientale. La chimica permea la nostra vita anche nei processi e nelle reazioni biochimiche che avvengono nel corpo umano. Tutto questo nella mostra di Settimo Torinese è stato ampiamente divulgato, grazie anche a laboratori per ragazzi delle scuole, dalle elementari fino alle superiori. Per mostrare la magia della chimica. Consapevolezza e conoscenza sono ottime chiavi di comprensione.

E di conoscenza e comprensione si è parlato anche nella conferenza sulle sostanze stupefacenti dal titolo “Nuove droghe. Istruzioni per il non uso”. Sappiamo che esiste una cultura parallela dello “sballo”. Sappiamo che il consumo di sostanze stupefacenti o psicotrope non è un fenomeno recente, ma accompagna l’uomo da secoli. Da quando i nostri antenati e progenitori scoprirono che da diverse sostanze di origine naturale si potevano estrarre sostanze che miglioravano il tono dell’umore. Che aiutavano a sopportare la fatica, o lo illudevano di stare meglio. Di aiutarlo a dimenticare la fatica della vita e della quotidianità.

Quello che il relatore il Professor Marco Vincenti, che è Direttore del dipartimento di chimica dell’Università di Torino ha voluto sottolineare, è che il suo intervento non aveva l’intenzione di formulare un giudizio etico o morale. Ma si proponeva di dare un quadro oggettivo della realtà attuale del consumo di sostanze stupefacenti. Sottolineando che molto spesso esiste un consumo inconsapevole. Non tanto per le cosiddette sostanze stupefacenti “storiche” come quelle derivate dagli oppiacei, come l’eroina, o quelle stimolanti come la cocaina. Ma soprattutto per le nuove droghe che possono essere sintetizzate con relativa semplicità. Per esempio l’ecstasy che può essere facilmente sintetizzata partendo dal safrolo (4-allil-1,2-metilendiossibenzene), sostanza di facile reperimento in commercio. La stessa pianta di cannabis che oggi viene coltivata in serre modernissime, sia pure illegali, e che irrorata costantemente con luce artificiale si arricchisce in principio attivo di THC a valori di molto alti (20-40%) rispetto a quelli consueti molto più bassi (0,5-1,5%). E’ intuitivo che un consumo inconsapevole di uno spinello che ne contenga in dosi così elevate provochi effetti collaterali di gran lunga maggiori e più pericolosi.

Estremamente interessanti anche le parti delle conferenza dedicate ai metodi analitici di determinazione di metaboliti di sostanze stupefacenti rilevabili su matrici quali sangue, urine o capelli, nonchè quelli di riconoscimento rapido di alcuni dei principali composti e principi attivi di narcotici o stupefacenti, effettuati tramite l’utilizzo della spettroscopia Raman utilizzando lo strumento portatile Tru Narc.

Il pubblico era formato per la maggior parte di ragazzi di scuole superiori, a cui in ultima analisi è giusto che sia diretto il maggior sforzo di divulgazione. Per esperienza so che la chimica parallela, praticata nei laboratori dove si sintetizzano sostanze stupefacenti si ammanta di un’aura di mito che non permette di discernere e di osservare la cose con il dovuto giudizio critico. Ed è pur vero che anche in questo campo si perpetra l’ennesima dicotomia falsa che recita naturale= buono, sintetico=cattivo.

Il grande successo della serie “Breaking Bad”, che è in ogni caso un prodotto di fiction di buonissimo livello dal punto di vista strettamente legato alla storia, alla sua narrazione, produzione e regia, credo debba a questo mito inossidabile una buona parte (ovviamente non tutta) della sua fortuna.

Qui il mito è rappresentato dal professor Walter White, che conoscendo perfettamente la chimica, utilizza questa sua preparazione professionale per la produzione clandestina di metanfetamina.

La divulgazione e la conoscenza della chimica, degli effetti collaterali del consumo di questo tipo di sostanze possono aiutare soprattutto i giovani a non lasciarsi influenzare da questi falsi miti. E a saper distinguere tra quello che viene raccontato in qualunque prodotto di intrattenimento, e la realtà della chimica e della tossicologia delle sostanze stupefacenti. Si potrebbe pensare che sia un concetto acquisito e che si possa sottintendere. Ma in un’epoca dove si tende ad una mitizzazione generalizzata credo sia corretto invece sottolineare il concetto.

In conclusione questo festival dedicato alla chimica merita un sincero elogio.

E questa immagine che mostra una platea di bambini intenti a seguire una lezione sulla chimica dei profumi è decisamente beneaugurante. Per la chimica e la sua divulgazione, ma più in generale per un giusto riavvicinamento all’amore per la conoscenza.

Note sull’antropocene. 2. Le ipotesi. prima parte

In evidenza

Claudio Della Volpe

Nella prima parte di questo post (https://ilblogdellasci.wordpress.com/2017/10/18/note-sullantropocene-1-le-origini/) abbiamo introdotto la storia del meme Antropocene. In questa seconda parte introdurremo invece le varie ipotesi avanzate per stabilirne i confini storici; diciamo subito che ci sono tante diverse ipotesi, ma le principali sono quattro e le enumero in ordine di datazione dell’origine dell’Antropocene.

Ipotesi 1: In un libro del 2013 (1) Timothy Morton introduce il concetto di iperoggetto. L’iperoggetto è un oggetto tale per cui non può essere intrinsecamente conosciuto da una posizione esterna, in altre parole il soggetto ne fa parte per definizione. Il soggetto che esplora e conosce non può guardare gli “iperoggetti” dall’esterno, ma piuttosto, ne fa parte, ne è ospitato , circondato, legato, ci interagisce così fortemente che non può che esserne considerato una parte “interna”. L’universo è un iperoggetto. La società umana come tale è un iperoggetto, ma poniamo anche il riscaldamento globale o i “giri”oceanici che producono isole plasticose con i nostri rifiuti, essi sono iperoggetti perchè noi ci interagiamo fortemente, in un certo senso ne siamo parte integrante, siamo contemporaneamente il soggetto che vuole conoscerli ma anche quello che li produce.

L’iperoggetto inoltre non è solo grande nello spazio e nel tempo, ma è anche “viscoso”.

tale viscosità è il prodotto diretto del proliferare di informazioni. Quanto più sappiamo a proposito degli iper-oggetti, tanto più ci rendiamo conto che non potremo mai veramente conoscerli. Eppure, per quanto ci sforziamo di allontanarli, non possiamo separarci da loro” (p. 180).

In definitiva l’uomo come specie crea una enorme quantità di iperoggetti a partire dall’uso del fuoco (circa un milione di anni fa, Homo erectus) che già ha avuto un enorme impatto sulla biosfera; ma il momento chiave secondo Morton è la invenzione dell’agricoltura circa 10.000 anni fa o meglio dell’agrilogistica, una organizzazione della vita sociale che è caratterizzata da un “certo numero di sotto-variabili: l’eliminazione di contraddizioni e anomalie, l’innalzamento di confini tra umano e non-umano, la massimizzazione dell’esistenza a scapito d’ogni altra considerazione, inclusa ogni qualità dell’esistenza stessa. Ora che l’agrilogistica copre quasi interamente la superficie terrestre possiamo vederne gli effetti come in una reazione di polimerizzazione: ebbene, sono catastrofici

Si tratta come vedete di una concezione un po’ filosofica; Morton propone una società contemplativa per uscire dai problemi dell’agrilogistica, una proposta difficilmente accettabile, un po’ elitaria diciamo così.

Se si cercano dati fisici, precedenti o successivi all’inizio dell’Olocene (11700 anni fa) si trovano varie date possibili, dagli effetti del fuoco a quelli dell’estinzione della megafauna a quelli dell’inizio vero e proprio dell’agricoltura fino all’introduzione del riso e dei ruminanti che potrebbero aver modificato la percentuale di metano in atmosfera, ma su tutti ci sono sufficienti dubbi da esludere una chiara individuazione come inequivoco confine dell’Antropocene al momento.

Ipotesi 2: in un articolo del 2015 (2) Simon Lewis e Mark Maslin propongono come limite temporale dell’Antropocene la scoperta del’America da parte di Colombo, anzi tutto il periodo che ne segue, definito come “Columbian exchange”, lo scambio colombiano. In realtà l’articolo di Lewis e Maslin è da leggere tutto intero e dà una descrizione completa e precisa dell’azione umana al di là della singola ipotesi che sostiene poi; lo consiglio caldamente a chi volesse farsi un’idea precisa e riccamente documentata della situazione (magistrale il paragrafo a pag. 172 intitolato The geological importance of human actions).

L’arrivo degli europei nei Caraibi nel 1492 e l’annessione delle Americhe causò il più grande scambio di popolazioni degli ultimi 13000 anni, con la formazione della prima grande rete globale di commerci fra Europa, Cina, Africa e le Americhe e la susseguente miscelazione di bioti prima separati, conosciuta come “lo scambio colombiano”.

Il più vistoso effetto fu certamente quella che si potrebbe definire la globalizzazione del cibo che è descritta nella figura precedente, che diede luogo a scambi di semi e pollini ma anche di scheletri di animali che si ritroveranno nei secoli in varie sedi.

Oltre a ciò ci fu l’effetto di ridurre drasticamente la popolazione umana sia in America, ma anche in Africa. Si stima che dei circa 60 milioni di persone che vivevano in America ne sia rimasto dopo oltre un secolo meno del 10%. a causa delle malattie importate dagli europei (contro le quali quelle popolazioni non avevano difesa), della schiavitù , della fame, etc.. Occorre anche considerare (questo è una mia considerazione) che l’apertura dei territori del Sud e centro America diede il via ad una tratta atlantica degli schiavi che riguardò oltre 10 milioni di persone che costituivano come ordine di grandezza qualcosa come la metà della popolazione africana di quel periodo.

Si stima che la sola decrescita della popolazione centro e sud americana comportasse l’abbandono di una enorme quantità di terreno coltivato a latitudini cui corrispondeva una enorme produttività biologica, con la conseguente rigenerazione di oltre 50 milioni di ettari di foresta, savana boscosa e prateria con un assorbimento di carbonio a causa di questo effetto di rivegetazione del suolo pari a 5-40 Pg, ossia miliardi di ton equivalenti, in 100 anni. Simile contributo dalla tratta degli schiavi, anche se la situazione sembra più complessa ((http://nrs.harvard.edu/urn-3:HUL.InstRepos:3710252 e https://econpapers.repec.org/paper/csawpaper/2014-02.htm).

Questo suggerisce che l’episodio ha contribuito in modo significativo ad un evento globale , ossia la riduzione della concentrazione di CO2 di 7–10 p.p.m. (1 p.p.m. CO2 = 2.1 Pg di carbonio equivalente) fra il 1570 e il 1620 documentato nelle registrazioni ad alta risoluzione delle carote di ghiaccio antartiche (si veda parte c di due figure più in alto). La riduzione della CO2, badate, il contrario di quel che sta succedendo adesso.

Si tratta dell’evento più importante nella storia della CO2 sia in velocità di variazione che in dimensione nella storia pre industriale degli ultimi 2000 anni.

Gli autori propongono di considerare i fenomeni globali dello scambio colombiano, ossia la riduzione di CO2 di 7-10 ppm nella carota di ghiaccio del Law Dome, la prima presenza di fossili al di quà e al di là del’oceano del mais e altri fenomeni simili come segnali inequivoci del fenomeno, elencandoli in dettaglio.

Essi concludono che questo “incontro” delle popolazioni dei continenti vecchio e nuovo e l’omogeinizzazione mai prima avvenuta dei loro bioti rappresenti un evento estremamente importante per la storia del pianeta; trovano anche un nome per questa ipotesi la ipotesi Orbis dalla parola latina per mondo e Orbis spike sarebbe il segnale della riduzione di CO2; il motivo di questa scelta starebbe nel fatto che solo dopo il 1492 i due emisferi del pianeta si sono “connessi” tanto che molti altri scienziati si riferiscono a questo periodo come all’inizio del “sistema mondo”.

Nel prossimo post discuteremo le altre due ipotesi principali prese in considerazione per l’nizio dell’Antropocene, la rivoluzione industriale e il periodo delle esplosioni atomiche in atmosfera..

(continua)

(1)Timothy Morton, Hyperobjects: Philosophy and Ecology after the End of the World, Minneapolis: U Minnesota P, 2013.

(2) Defining the Anthropocene doi:10.1038/nature14258

Simon L. Lewis & Mark A. Maslin 12 MARCH 2015, VOL 519 , NATURE, p.171

La denominazione K, L, M per i gusci elettronici e s, p, d, f per gli orbitali

In evidenza

Rinaldo Cervellati

Ancora oggi quando si studia l’atomo di Bohr, gli strati (o gusci) di orbite permesse per gli elettroni sono identificati con le lettere maiuscole K, L, M, ecc. Da dove proviene questa denominazione? W.B. Jensen [1] ci informa che non c’è traccia di essa nella famosa trilogia di Bohr del 1913. K e L provengono piuttosto dalle ricerche del fisico britannico Charles Glover Barkla[1] sulla fluorescenza emessa dagli elementi bombardati da raggi X ad alta energia.

Charles G. Barkla

La fluorescenza è il fenomeno per cui un materiale sottoposto a radiazioni emette a sua volta radiazioni, generalmente di più bassa energia. Barkla studiò approfonditamente il fenomeno dell’emissione di raggi X (radiazione secondaria) da parte di metalli sottoposti a bombardamento di radiazione X a più alta energia provenienti da una sorgente esterna (radiazione primaria). Durante anni di studi egli caratterizzò la radiazione secondaria in base alle caratteristiche di omogeneità e penetrabilità, cioè la capacità di attraversare un certo numero di fogli di alluminio interposti fra sorgente e bersaglio. Trovò che la radiazione secondaria era formata da due serie di radiazioni, una più penetrante dell’altra che chiamò appunto K e L rispettivamente. Questa denominazione appare chiaramente nella seguente nota a piede di pagina in un suo articolo del 1911 [2].

Scrive appunto e annota:

Si osserva che le radiazioni rientrano in due serie distinte, qui indicate con le lettere K e L.* [2]

* Precedentemente indicate con le lettere B e A. Le lettere K e L sono tuttavia preferibili, in quanto è altamente probabile che esista una serie di radiazioni più assorbibili e più penetranti. [2, p.406]

Barkla osservò anche che la produzione delle radiazioni secondarie sembrava correlata con il peso atomico degli elementi: fra Ca e Rh viene prodotta solo la K, fra W e Bi solo la radiazione L, e fra Ag e Ce vengono emesse entrambe. [1, Table, p.407].

Come abbiamo ricordato più volte queste ultime osservazioni furono interpretate dal fisico britannico Moseley[2] nel suo classico studio sul rapporto tra la frequenza dei raggi X secondari e i numeri atomici degli elementi [3].

Con riferimento alla figura:

I raggi X primari che possiedono abbastanza energia, possono espellere un elettrone strettamente trattenuto nei livelli energetici interni dell’atomo. La rimozione di un elettrone in questo modo rende la struttura elettronica dell’atomo instabile e l’elettrone nel livello più alto “cade” in quello inferiore per riempire la lacuna. Nel cadere, l’energia viene rilasciata sotto forma di un fotone, la cui energia è uguale alla differenza di energia fra i due livelli coinvolti. Così, il materiale emette una radiazione che ha caratteristiche energetiche degli atomi presenti.

La razionalizzazione della fluorescenza a raggi X di Barkla-Moseley in termini del modello di Bohr è di solito accreditata all’articolo del 1914 del fisico tedesco Walther Kossel[3] [4].

Walther Kossel

Egli sostenne che la radiazione K fosse dovuta ad un elettrone eccitato che cadeva in un posto vacante nel primo guscio di un atomo, e la radiazione L ad un elettrone eccitato che ricade in un posto vacante nel secondo guscio [4]. Di conseguenza, le lettere K e L si sono associate al primo e al secondo guscio dell’atomo di Bohr, soprattutto nella letteratura che si occupa di spettroscopia.

Già nel suo articolo del 1911, Barkla aveva ipotizzato la possibile esistenza di raggi secondari ancora meno energetici che sarebbero emessi da Au e Pt e corrispondenti a possibili serie M e N, queste denominazioni furono presto assegnate al terzo e al quarto guscio dell’atomo di Bohr. È interessante notare che Bohr raramente ha fatto uso di queste denominazioni alfabetiche per i gusci nei suoi lavori, preferendo invece utilizzare i numeri quantici [5].

Da notare che sono state fatte diverse altre congetture sulla scelta delle lettere K e L, fra esse piace ricordare quella che, facendo notare che queste lettere stanno in posizione centrale nell’alfabeto inglese, Barkla le avrebbe scelte perché parte del suo cognome. Congettura priva di fondamento storico, la scelta è quella motivata nella nota a p. 406 del lavoro di Barkla [2].

Riconosciuta quindi l’origine “spettroscopica” della denominazione K, L, M, anche l’uso delle lettere minuscole s, p, d e f per indicare gli orbitali atomici si può far risalire alle ricerche spettroscopiche dell’ultimo quarto del XIX secolo.

Secondo W.B. Jensen [6] questa storia inizia con le ricerche di due chimici britannici, l’inglese G. Liveing[4] e lo scozzese Sir James Dewar[5], che fra il 1872 e il 1880 pubblicarono una serie di articoli sugli spettri di emissione dei metalli alcalini [7]. Nel descrivere questi spettri, Liveing e Dewar caratterizzarono qualitativamente le varie righe in termini sia di intensità che di definizione chiamandole principali, strette o diffuse, osservarono inoltre che le righe di un determinato tipo comparivano in gruppi o serie.

Come ricordato in un precedente post, dopo la scoperta di Balmer di un’equazione empirica descrivente una delle serie di righe dell’idrogeno, la ricerca si concentrò su una formula più generale per tutte le righe di tutte le serie spettrali degli elementi. Per i metalli alcalini, lo svedese Johannes Rydberg[6] [8] e i tedeschi Heinrich Kayser[7] e Carl Runge [9] giunsero indipendentemente alla medesima conclusione. Il loro lavoro dimostrò che molte righe degli spettri dei metalli alcalini potevano essere modellizzate matematicamente come la somma di tre serie indipendenti, che Rydberg, seguendo la nomenclatura di Liveing e Dewar, definì principale, stretta e diffusa. Nel 1907 Arno Bergmann scoprì una quarta serie di righe negli spettri dei metalli alcalini che chiamò fondamentale [10].

Com’è noto gli anni successivi sono stati caratterizzati dai tentativi, a partire dalla famosa trilogia di Niels Bohr del 1913, di fornire un modello fisico dell’atomo coerente con le formule empiriche per le serie spettrali trovate in precedenza. L’estensione di questo modello dall’idrogeno ad altri elementi ha portato all’introduzione di una varietà di schemi di quantizzazione più complessi, nessuno dei quali si è rivelato del tutto soddisfacente fino all’opera di Stoner, Main Smith[8] e Pauli e l’introduzione della nuova meccanica quantistica di Heisemberg (1925) e Schrödinger (1926).

Tuttavia, il primo tentativo di introdurre configurazioni elettroniche degli atomi (atombau) e comprendere il loro rapporto con il sistema periodico è usualmente attribuito a Bohr [11]. In questo lavoro Bohr ragiona in termini di gusci e sottogusci di orbite, circolari ed ellittiche utilizzando i numeri quantici principale e azimultale, n e k (oggi l). In figura sono riportate le configurazioni dei gas nobili.

Configurazioni elettroniche di Bohr per i gas nobili dall’originale di Bohr [11], p. 113

Sicché la configurazione elettronica dello zolfo secondo Bohr sarebbe 2,4,4,6 invece di 2,8,6 pertanto dovevano esserci incongruenze nell’assegnazione dei sottolivelli. Incorporando il terzo numero quantico j (dovuto ad A. Sommerfeld[9], oggi ml) nella descrizione dei sottogusci, E.C. Stoner [12] riuscì a dare la configurazione elettronica corretta dello zolfo[10]. Tuttavia né il sistema di Bohr né quello di Stoner riuscivano a descrivere correttamente gli effetti di un campo magnetico sugli spettri atomici. Vi erano inoltre ragioni teoriche per le quali a Bohr sembrava inaccettabile la proposta di Stoner.

Lo storico E. Scerri [13] e altri scrivono che Bohr invitò allora l’amico Wolfgang Pauli a cercare di mettere ordine nella situazione sempre più complicata nella descrizione degli atomi polielettronici, che richiedeva, fra l’altro, l’introduzione di nuovi numeri quantici. Pauli [14] studiò a fondo il problema e lo risolse giungendo alla conclusione che i gusci elettronici completi attorno al nucleo di un atomo non contribuiscono affatto al suo momento magnetico. Suggerì che la separazione delle righe spettrali o i loro spostamenti in presenza di campi magnetici fossero dovute interamente alla presenza degli elettroni esterni. Suggerì inoltre l’assegnazione di un quarto numero quantico m (oggi ms) ad ogni elettrone relativo a una sua proprietà quantistica intrinseca non descrivibile in termini classici[11]. Trovò inoltre che si sarebbe potuto arrivare alle configurazioni di Stoner ammettendo che:

È vietato che più di un elettrone con lo stesso valore del numero quantico principale n abbiano lo stesso valore per gli altri tre numeri quantici k, j e m. [14]

Che è la forma con cui Pauli espresse per la prima volta il suo principio detto “di esclusione”.

Niels Bohr

Wolfgang Pauli

Lo storico W. B. Jensen [6] riporta che le nostre attuali configurazioni (aufbau), ad esempio quella dello zolfo (1s2 2s2 2p6 3s2 3p4), sono apparse per la prima volta in una monografia di Friedrich Hund[12] [15] nella quale il numero quantico azimutale o secondario, fino a allora utilizzato da Bohr e altri, viene sostituito con le lettere s (l = 0), p (l = 1), d (l = 2) e f (l = 3).

Friedrich Hund

Ovvero con le vecchie notazioni utilizzate da Sommerfeld e altri come abbreviazione per la costante delle serie stretta, principale, diffusa e fondamentale nell’equazione empirica originale di Rydberg.

Hund stabilì anche le regole per costruire la configurazione dello stato fondamentale (di minima energia) degli atomi degli elementi, regole dette della massima molteplicità o di Hund, esse hanno come conseguenza immediata il fatto che nel completamento di orbitali isoenergetici gli elettroni occupano il maggior numero possibile di orbitali vuoti.

A partire dagli anni Trenta, le configurazioni corrette di Hund e la notazione s, p, d, f cominciarono a penetrare lentamente nella letteratura chimica per indicare gli orbitali.

Bibliografia

[1] W.B. Jensen, The KLM Shell Labels, J. Chem. Educ., 2003, 80, 996-997.

[2] C. G. Barkla, The Spectra of the Fluorescent Röntgen Radiations, Phil. Mag., 1911, 22, 396-412.

[3] H. Moseley, The High Frequency Spectra of the Elements, Phil. Mag., 1913, 26, 1025-1034; ibid., 1914, 27, 703-713.

[4] W. Kossel, Bemerkung zur Absorption homogener Röntgenstrahlen, Verhand. deutschen physik. Gesell., 1914, 16, 898-909.

[5] L. Rosenfeld, Ed., Niels Bohr: Collected Works, 9 Voll., North-Holland Publishing: Amsterdam, 1972-1996.

[6] W.B. Jensen, The Origin of the s, p, d, f Orbital Labels, J. Chem. Educ., 2007, 84, 757-758.

[7] G. Liveing, J. Dewar, Collected Papers on Spectroscopy, Cambridge University Press: Cambridge, 1915. Cit. in [6]

[8] J. R. Rydberg, Sur la constitution des spectres linéaires des éléments chimiques, Comptes Rendus, 1890, 110, 394-399.

[9] H. Kayser, C. Runge, Über die Spectren der Alkalien, Ann Physik, 1890, 41, 302-320.

[10] A. Bergmann, Beiträge zur Kenntniss der ultrarothen Emissionsspectren der Alcalien, Doctoral Dissertation, Jena, 1907. Cit in [6]

[11] N. Bohr, The Theory of Spectra and Atomic Constitution, Three Essays, Essay III The Structure of the Atom and the Physical and Chemical Properties of the Elements, Cambridge University Press, 1922, pp. 85-117.

[12] E.C. Stoner, The distribution of electrons among atomic levels, Phil. Mag.,. 1924, 48, 719–36.

[13] E.R. Scerri. The Electronic Configuration Model, Quantum Mechanics and Reduction, Brit. J. Phil. Sci. 1991, 42, 309-325.

[14] W. Pauli, Uber den Einfluss der Geschwindi gkeitsabhangigkeit der elektronmasse auf den Zeemaneffek, Zeit. Phys., 1925, 31, 373-385; Uber den Zusammehang des Abschlusses der Elektrongruppen im Atom mit der Komplexstruktur der Spektren, Zeit. Phys., 1925, 31, 765-783.

[15] F. Hund, Linienspektren und periodisches System der Elemente, Springer, Berlin, 1927

 

[1] Charles Glover Barkla (1877-1944) fisico britannico, fu allievo di J. J. Thomson (lo scopritore dell’elettrone) fece significativi progressi nello sviluppo delle leggi che regolano lo scattering dei raggi X, per il quale ottenne il Premio Nobel per la Fisica nel 1917.

[2] Henry Moseley (1887-1915) fisico britannico morì prematuramente nella battaglia di Gallipoli nella Prima Gerra Mondiale. Oltre ad aver individuato il principio informatore della Tavola periodica, fornì la prima evidenza sperimentale in favore della quantizzazione di Bohr. http://www.scienzainrete.it/contenuto/articolo/marco-taddia/elemento-moseley/marzo-2016.

[3] Walther Kossel (1888-1956) fisico tedesco, professore e direttore dell’Istituto di Fisica dell’Università di Tubingen dal 1954 al 1953 si è distinto per le sue ricerche sugli spettri atomici e la caratterizzazione dell’emissione di raggi X. Indipendentemente da G.N. Lewis propose la teoria del legame ionico.

[4] George Downing Liveing (1827-1924) chimico inglese, professore di Chimica all’Università di Cambridge, Medaglia Davy 1901 per i suoi contributi alla spettroscopia

[5] James Dewar (1842-1923) fisico e chimico scozzese è noto soprattutto per i suoi studi sulla liquefazione dei gas e l’invenzione del vaso Dewar (thermos). Meno note ma notevoli le sue ricerche spettroscopiche. Medaglie Rumford (1894), Davy (1909), Copley (1916). Primo britannico a ottenere la Medaglia Lavoisier (1904) dall’Accademia Francese delle Scienze, Medaglia Matteucci (1906) dell’Accademia Italiana delle Scienze.

[6] V. post: https://ilblogdellasci.wordpress.com/2017/09/25/johannes-rydberg-e-la-tavola-periodica/

[7] Heinrich Gustav Joannes Kayser (1853-1940) fisico tedesco, scoperse la presenza di elio nell’atmosfera terrestre durante l’eclisse solare del 1868 rilevando una nuova riga nello spettro solare, a lui si deve il termine spettro di assorbimento. Insieme a Carl Runge (1856-1927) matematico e fisico tedesco, interpretò gli spettri di molti elementi.

[8] E. Scerri, Who was John David Main Smith?, https://blog.oup.com/2016/03/john-david-main-smith/

[9] Arnold Sommerfeld (1868-1951) fisico tedesco, è considerato co-fondatore della teoria quantistica dell’atomo di idrogeno, spesso chiamata teoria di Bohr-Sommerfeld.

[10] La configurazione elettronica dello zolfo di Stoner è: 2, 2, 2, 4, 2, 2, 2, cioè 2,8,6.

[11] È quello che oggi si chiama momento angolare di spin. Lo spin dell’elettrone era stato scoperto nel 1922 da Otto Stern e Walther Gerlach con l’ormai classico esperimento del passaggio di un fascio di atomi di argento attraverso un campo magnetico non omogeneo, alcuni anni prima della proposta di Pauli e del concetto di spin elettronico di George Uhlenbeck e Samuel Goudsmit.

[12] Friedrich Hund (1896-1997) fisico tedesco, professore di fisica teorica in diverse università europee, ha dato contributi essenziali in meccanica quantistica collaborando con i principali fisici dell’epoca. Oltre a quanto menzionato in questo testo, Hund è stato un precursore nell’interpretazione quantomeccanica degli spettri e della struttura molecolari. R.S. Mulliken che ha ottenuto il premio Nobel per la chimica 1966 per la teoria degli orbitali molecolare ha sempre proclamato la grande influenza che l’opera di Hund aveva esercitato su di lui e che avrebbe volentieri condiviso il premio Nobel con Hund.

Nobel 2017: perché il cryo-EM è così importante, con una intervista a Martino Bolognesi.

In evidenza

Claudio Della Volpe

Il premio Nobel 2017 per la Chimica è stato assegnato a Jacques Dubochet, Joachim Frank e Richard Henderson  “per aver sviluppato la microscopia crioelettronica per determinare in alta definizione le strutture delle biomolecole”.

L’origine della microscopia crioelettronica è stata il tentativo di trovare un metodo per ridurre il danno inflitto dalle radiazioni elettroniche ai campioni biologici. La quantità di radiazioni richiesta per raccogliere una immagine di un campione attaverso il microscopo elettronico è sufficientemente elevata da costituire una potenziale sorgente di danno per le strutture più delicate. Inoltre l’ambiente ad alto vuoto richiesto per il microscopio elettronico costituisce una situazione drastica per molti campioni. D’altronde il SEM offre la possibilità di una risoluzione molto elevata, dell’ordine di una frazione di nanometro, inferiore a quella ottenibile con i raggi X, ma pur sempre elevatissima, capace di risolvere la struttura macromolecolare.

Il problema del vuoto è stato parzialmente risolto con la introduzione del negative stains o macchia negativa (il campione è inserito in un ambiente, ghiaccio o soluzione di sali, che lo isola dall’ambiente, il fascio elettronico interagisce con entrambi ma in modo diverso e dalla differenza di interazione risalta il volume del campione), ma perfino con la macchia negativa i campioni biologici sono soggetti ad un collasso strutturale a seguito della disidratazione del campione. L’introdurre il campione nel ghiaccio sotto la temperatura di sublimazione è stata una possibilità contemplata fin dalle origini del metodo, ma l’acqua tende a strutturarsi in un reticolo cristallino di bassa densità durante il congelamento e questo può distruggere la struttura di qualunque macromolecola inserita in essa.

Nei primi anni 80 parecchi gruppi che studiavano fisica dello stato solido tentavano di usare ghiaccio vetroso e in un lavoro basilare del 1984 il gruppo diretto da Jacques Dubochet al European Molecular Biology Laboratory mostrò immagini di adenovirus incluse in ghiaccio vetrificato; questo lavoro viene considerato comunemente come il lavoro fondativo della cryo-EM o cryo 3D.

L’energia degli elettroni usati per costruire una immagine (poche centinaia di kV) è alta abbastanza da rompere i legami covalenti. Nel fare una immagine dunque è necessario limitare l’esposizione agli elettroni, specie per materiali molto delicati; questo si ottiene selezionando le immagini di migliaia o milioni di molecole identiche allineate e mediate per ottenere una immagine in alta risoluzione (un metodo analogo, stacking planetario, è usato per esempio dagli astrofili evoluti per le immagini planetarie ottenute da filmati telescopici). Ci vuole ovviamente un software specializzato.

Negli ultimi anni l’introduzione di sensori capaci di individuare singoli elettroni e di metodi di calcolo più efficienti in grado di passare da immagini 2D a immagini 3D è stata determinante. In particolare transistor CMOS ultrapiccoli (L = 20 nm, W = 20 nm) sono in grado di raggiungere il limite di un singolo elettrone quando operano a temperatura molto basse (–269 °C (4 K) a –258 °C (15 K)).

  • Nel 1975 Joachim Frank cominciò a lavorare sugli algoritmi che analizzano e mediano immagini 2D confuse per ricostruire strutture 3D ad elevata risoluzione.
  • Nei primi anni 80 Jacques Dubochet riuscì a vetrificare l’acqua un ambiente che permetteva alle biomolecole di conservare la loro forma nel vuoto.
  • Nel 1990, Richard Henderson fu il primo ad usare un microscopio elettronico per generare immagini 3D di una proteina a risoluzione atomica.

Abbiamo intervistato Martino Bolognesi*, un biochimico di UniMi che ad oggi è l’unico ricercatore italiano che abbia disponibile nel suo laboratorio uno di questi costosi strumenti.

D: Martino sei l’unico a “possedere” in questo momento l’apparecchio in Italia; come mai? è solo un problema di costi? cosa ti ha spinto in questo settore?

R: La rivoluzione cui stiamo assistendo nel campo della crio-microscopia elettronica (cryo EM) e’ in atto, a livello mondiale, da non piu’ di tre anni. La possibilita’ di analizzare la struttura tridimensionale (3D) di grossi complessi molecolari, dal ribosoma alle proteine di membrana, ad esempio, e raggiungere risoluzioni prossime a quelle della cristallografia, ha promosso la rapida diffusione di strumenti che lavorano sotto condizioni sperimentali compatibili con la natura ‘delicata’ delle molecole biologiche. I grossi centri di ricerca hanno colto il significato e l’opportunità di questo sviluppo, impegnandosi con tempi rapidi in installazioni importanti e distribuite nei paesi piu’ avanzati. Stiamo parlando di investimenti dell’ordine di alcuni milioni di euro per ogni strumento installato. In Italia il messaggio innovativo e’ stato colto dalla comunita’ dei biologi strutturali, che e’ di dimensioni ridotte rispetto ad altri paesi europei, e distribuita presso atenei e centri di ricerca, spesso in laboratori di dimensioni ridotte. L’Università di Milano, assieme alla Fondazione Romeo ed Enrica Invernizzi, ha saputo cogliere il messaggio innovativo presentato dalla comunità scientifica, dando il via ad un’operazione di acquisizione di un microscopio FEI Talos Arctica FEG, 200 kV, a partire dal 2016. Lo strumento e’ stato installato in locali dell’Ateneo a meta’ del 2017.

D: dal classico lavoro del 1984 sono passati 40 anni e più; cosa pensi abbia rallentato l’evoluzione della crio 3D?

R: Il potere risolutivo (capacita’ di distinguere/risolvere due ‘oggetti’ posti ad una certa distanza) di un pennello di elettroni accelerato a 200-300 kV e’ in linea di principio piu’ che sufficiente ad esempio per risolvere due atomi, e sfruttato in altri campi della micoscopia elettronica (es. studio di materiali) a risoluzione atomica. In ambito biologico, le macromolecole di interesse (proteine e acidi nucleici, prevalentemente) non sono in grado di tollerare l’intensita’ del fascio di elettroni che viene usato negli studi di microscopia elettronica applicata ai materiali; le molecole biologiche vengono letteralmente distrutte dalla radiazione. Per questo motivo da diversi anni si usano tecniche di congelamento alle temperature dell’azoto liquido per limitare il danno da radiazione; ma questo non basta. Lo sviluppo degli ultimi anni, chiave per le innovazioni che stiamo osservando, e’ stato quello di rendere disponibili dei detectors di elettroni estremamente sensibili, letteralmente in grado di contare gli elettroni uno per uno. Cio’ permette di esaminare i campioni biologici con dosi minime di elettroni, permettendo l’acqusizione delle immagini di cryo EM entro limiti di irraggiamento compatibili con la natura ‘fragile’ delle macromolecole biologiche. Il vero salto avanti, premiato dal recente Premio Nobel 2017 a Henderson, Frank e Dubochet, e’ stato possibile, quindi, tramite l’abbinamento delle tecniche criogeniche con i nuovi detectors particolarmente efficienti.

220px–Structure-of-Alcohol-Oxidase-from-Pichia-pastoris-by-Cryo-Electron-Microscopy

D: che differenza c’è stata e ci sarà  fra le classiche tecniche a Raggi X e le tecniche crio-3d? il futuro della strutturistica in biochimica passa per il 3d? cosa rimarrà alla strutturistica tradizionale?

R: In ambito biologico, il settore cui la cryo EM si rivolge principalmete, l’approccio alla struttura delle macromolecole associate a processi cellulari e non, va sotto il nome di Biologia Strutturale. Tecniche in uso da tempo in Biologia Strutturale sono la cristallografia a raggi-X, che ad oggi ha contribuito le strutture 3D di circa 130.000 proteine, la risonanza magnetica nucleare (NMR), i metodi di scattering di raggi X in soluzione, e altre tecniche biofisiche che richiedono installazioni meno impegnative. La cryo EM che fino a poco tempo fa contribuiva con strutture 3D a bassa risoluzione (10-20 Angstroem), oggi si affainca ai metodi a piu’ alta risoluzione e li integra in maniera sinergistica. La cristallografia a raggi X permette nei casi favorevoli di raggiungere risoluzioni veramente atomiche (meglio di 2 Angstroem), e presumbilmente rimarra’ la tecnica di elezione per proteine o complessi comunque cristallizabili. L’approccio single particle cryo EM mirera’ ai grossi complessi macromolecolari, spesso dificili da ricostruire in laboratorio o difficilmente cristallizzabili. L’NMR si focalizzera’ su informazioni di natura dinamica, applicate a macromolecole di dimensioni minori di 40-50 kDa. Le tecniche di scattering in soluzione permetteranno visioni dinamiche di macromolecole in soluzione e a bassa risoluzione, utili in una serie di contesti diversi. Pertanto, non si parla di rimpiazzare una delle tecniche maturate da tempo, quanto di affrontare le grandi domande della biologia in maniera integrata, mettendo in sinergia le informazioni complementari che le diverse tecniche ci forniscono. Non c’e’ dubbio che l’immediatezza delle indagini cryo EM, la potenza risolutiva raggiunta, e qualche ulteriore progresso nell’hardware, spianeranno la strada ad una loro ampia diffusione.

D: quali sono le tue attività di ricerca attuali e come pensi che la crio-3D possa in futuro contribuire alla biochimica e ad altre discipline, per esempio alla scienza dei materiali? vedi altri settori di uso?

R: Limitero’ la mia risposta al campo biologico, in quanto applicazioni in altri campi sono troppo numerose per poter essere discusse qui (es. scienza dei materiali, nelle sue innumerevoli sfaccettature). Per quanto detto sopra, vari campi della biologia cellulare beneficeranno degli approcci cryo EM. In primo luogo, poter accedere in maniera relativamente diretta alle strutture 3D di grossi complessi molecolari della cellula e alla struttura delle proteine di membrana fornira’ informazioni impagabili sui loro meccanismi di azione. Oltre al beneficio che questo comportera’ per la scienza di base, comprendere i meccanismi di azione di un sistema macromolecolare significa capire come regolarne l’attivita’ in vivo. In altre parole, significa disporre delle basi razionali per la progettazione di farmaci di nuova generazione, diretti verso bersagli molecolari che fino ad oggi potevano essere raggiunti solo per caso, o dopo lunghi processi di ‘trial and error’. Questo ritengo sia (e sara’) il principale campo di applicazione degli studi di cryo EM su macromolecole biologiche, non sottovalutando comunque il significato del valore scientifico di base da quello applicativo. Infine, tecniche di cryo EM troveranno sempre maggiore applicazione a studi di tomografia elettronica applicati alla cellula intera, consentendo quindi di osservare i componenti citoplasmatici e nucleari nel loro ambiente naturale, mentre sono in piena attivita’.

Per approfondire:

  1. Calloway 172 | NATURE | VOL 525 | 10 SEPTEMBER 2015

2. Adrian e Dubochet Nature vol. 308 p. 32 (1984)

********************************************

*Martino Bolognesi (Laurea in Chimica a Pavia) ha lavorato presso l’University of Oregon, Institute of Molecular Biology, e presso il Max Planck Institut fur Biochemie, Martinsried (Prof. R. Huber, premio Nobel nel 1988). Dal 1991 e’ Professore Ordinario di Chimica Biologica, presso l’Universita’ di Milano, dove a partire dal 2005 ha installato un nuovo gruppo di ricerca. Bolognesi ha studiato la struttura tridimensionale delle proteine tramite diffrazione di raggi ‐ X, con piu’di 460 pubblicazioni su riviste internazionali. Oggetti principali della ricerca sono le strutture ed i meccanismi di azione di proteine e di enzimi, i cui risultati sono presenti in piu’ di 240 deposizioni presso il Protein Data Bank. Il Prof. Bolognesi e’ stato uno dei fondatori della biologia strutturale a raggi ‐ X in Italia.

Note sull’Antropocene.1.Le origini.

In evidenza

Claudio Della Volpe

Il nostro blog ha un sottotitolo che contiene la parola Antropocene:

Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.

In realtà una definizione formale e condivisa dell’Antropocene non esiste ancora ma ci si sta lavorando e in questo post vorrei appunto raccontare a chi non la conosce una breve storia di questo concetto, di questo meme, che è destinato secondo me e secondo tutti noi del blog ad un ruolo culturale crescente.

Una occasione per approfondire potrebbe essere la lettura di un libro di recente tradotto in italiano e che tratta proprio di questi temi; mi riferisco a Jason W. Moore: Antropocene o Capitalocene? Scenari di ecologia-mondo nell’era della crisi planetaria, Ombre Corte, 2017

Il termine è stato inventato dal microbiologo Eugene Stoermer professore di microbiologia all’Università del Michigan; grande esperto di diatomee egli usò questo termine per indicare, fin dai primi anni Ottanta del XX secolo, l’impatto dell’uomo sul pianeta.

Fu solo nel 2000 che il premio Nobel per la chimica Paul Crutzen (lo aveva vinto con Molina e Rowland per la scoperta del buco dell’ozono e dei meccanismi connessi) popolarizzò il termine in un articolo scritto a quattro mani (1).

L’idea non era nuovissima; era stata intravista fra i primi dal geologo italiano abate Antonio Stoppani, una delle menti più fini della nostra cultura nazionale, patriota e rivoluzionario, zio di Maria Montessori; che inventò il termine di Era antropozoica. Stoppani è un personaggio di cui sicuramente avete visto il ritratto o usato un’espressione; eh si, perchè egli scrisse fra gli altri un testo dal titolo, pensate un pò, “Il bel paese”. Il titolo del libro era a sua volta preso in prestito da Petrarca:antropocene12

Questo titolo fu preso a prestito insieme con il ritratto di Stoppani nel 1906 dalla Galbani per il suo famoso prodotto; e dunque difficile che non lo conosciate. Come il vecchio dei formaggini.

Di meno come intellettuale. Ma per fortuna nostra lo conoscono all’estero; tanto è vero che Crutzen e Stoermer citano una sua frase che cade qui a fagiolo:

“[l’attività umana] è una nuova forza tellurica che in potenza e universalità può essere paragonata alle maggiori forze della terra”, scritta nel 1873 (3). Vorrei farla leggere a certi colleghi che so io e che la negano ancora oggi, dopo oltre 130 anni.

antropocene11

Lo riconoscete? Era su parecchi dei formaggini che ci siamo sbafati da fanciulli.

SE vi sembra incredibile che un comunistaccio come me debba citare come gloria nazionale un abatino, pensate che lo spessore delle persone non dipende dalle loro idee religiose. E questa citazione di Crutzen e Stoermer ne è la conferma. Perchè vedete Stoppani partecipò alle 5 giornate di Milano e costruì ad uso dei combattenti dei piccoli palloni aerostatici per mandare messaggi della rivolta che superassero le mura senza essere colpiti dagli austriaci, aiutato dal tipografo Vincenzo Guglielmini. Più tardi scrisse un testo “Gli intransigenti” contro la resistenza della chiesa cattolica ai nuovi fermenti politici e sociali. Un abate “rosso” si direbbe oggi (ma non per i capelli come si diceva di Vivaldi). Un teologo della liberazione. E anche uno scienziato a tutto tondo.

Ma dato che nemo propheta in patria il testo da cui è presa la frase, cioè il suo Corso di Geologia (scritto da professore universitario a Milano) è sostanzialmente introvabile sulla rete come pdf; fortunatamente viene citato sempre da una rivista straniera, in inglese (3).

Diffidate da chi scrive che la frase si trova ne “Il bel paese”, non si è guardato le carte e mi ha fatto perdere un pomeriggio per capirci qualcosa.

Torniamo al nostro argomento principale.

L’articolo seminale di Crutzen e Stoermer cita molti altri autori che hanno preparato il terreno al meme, per esempio Vernadskij e Teillard de Chardin che inventarono l’idea della noosfera, cioè della crescente importanza della scienza e della tecnologia nel forgiare il futuro della biosfera terrestre. (4)

In quell’articolo i due autori indicano i motivi per i quali considerano giustificato definire una nuova era geologica e che a distanza di soli 17 anni noi ritroviamo potenziati ed aggiornati (l’elenco che segue è stato aggiornato da me):

-durante gli ultimi 3 secoli la popolazione umana è cresciuta più di dieci volte ad oltre 7.5 miliardi di persone, con una crescita della popolazione di animali asserviti tale per cui la biomassa totale degli uomini e dei loro animali rappresenta il 97% della massa dei vertebrati terrestri (tutti i grandi animali selvatici sono solo il 3%!!)

– per effetto delle azioni umane la velocità di estinzione delle specie nelle foreste tropicali è cresciuta di un fattore stimato da 1000 a 10.000 volte;

– durante gli ultimi 100 anni la popolazione urbanizzata è cresciuta di più di 10 volte

-dal 30 al 50% della superficie terrestre è stata trasformata per opera dell’uomo (esaurimento del suolo) e l’uomo è il principale produttore di materiali in forma di polveri e granuli (più della erosione naturale);

– in poche generazioni l’umanità si avvia all’esaurimento dei combustibili fossili prodotti in quasi 400 milioni di anni.

– il rilascio di zolfo sotto forma di biossido a causa della combustione di tali combustibili è almeno due volte la somma annua di tutte le emissioni naturali di zolfo che avvengono principalmente come dimetilsolfuro oceanico;

– l’azoto fissato sinteticamente, principalmente dalla reazione di Born-Haber ed usato come fertilizzante agricolo (e come componente degli esplosivi) è maggiore della quota fissata da tutti gli ecosistemi terrestri; il rilascio di NO nell’atmosfera da combustioni è maggiore dell’output naturale dando origine alla formazione di ozono fotochimico (smog) in molte regioni del pianeta

– l’uomo estrae una quantità di fosforo multipla di quella estratta naturalmente per erosione (phosphate weathering); come conseguenza di questa situazione sia il ciclo delll’azoto che quello del fosforo sono totalmente alterati rispetto alla situazione naturale;

– l’uomo intercetta il 10% di tutta l’acqua che cade sul pianeta, questa quota rappresenta però più di metà dell’acqua potabile accessibile; la restituisce spesso spostandola da fonti geologiche esauribili e in molti casi profondamente inquinata;

– la combustione dei fossili e l’agricoltura basata sui fertilizzanti sintetici hanno accresciuto il flusso di alcuni gas serra verso l’atmosfera e l’oceano: come conseguenza la concentrazione di tali gas è aumentata negli ultimi 3 secoli di oltre il 30% per la CO2 e del 100% per il metano; il conseguente aumento di temperatura media superficiale oceano-terra è misurato al momento in poco meno di 1 grado centigrado; il pH oceanico si è ridotto di circa 0.2 unità e mette a rischio la sopravvivenza di alcune specie.

– la criosfera polare e continentale si sta riducendo a velocità enorme; si prevede che entro pochi decenni i ghiacci del Polo Nord scomparirano e quelli dell’Antartide e della Groenlandia scompariranno entro qualche secolo, con la conseguenza di innalzare il livello dei mari di alcuni metri.

– inoltre l’umanità ha immesso in circolo alcune sostanze inquinanti profondamente tossiche come mercurio e cadmio estraendole dai loro depositi geologici e altre sintetiche, apparentemente stabili chimicamente come i clorofluorocarburi o la “sporca dozzina”; ma in tutti i casi queste molecole alogenate sono in realtà instabili sul lungo periodo e hanno danneggiato significativamente lo strato di ozono stratosferico e si sono accumulate nei tessuti di parecchie specie viventi con danni ancora non precisamente valutabili; nonostante gli accordi internazionali in vigore per controllare tale inquinamento la situazione non è ancora sotto controllo; si sospettano azioni che simulano effetti ormonali in molte altre sostanze usate comunemente (bisfenolo-A e alcuni tensioattivi) e si ipotizza di attribuire a tale inquinamento la riduzione della fertilità maschile stimabile in alcuni casi ad oltre la metà dei valori naturali;

– le zone costiere sono state danneggiate sia dall’arricchimento in fosforo e azoto con la formazione di zone anossiche, dead zones, in varie parti dell’oceano e dei mari interni come il Mediterraneo, sia con la scomparsa del 50% delle mangrovie;

– la pesca industrializzata rimuove una percentuale crescente della produzione primaria dell’oceano valutabile in oltre un terzo;

– le attività nucleari umane (belliche e non) hanno inquinato irreversibilmente con isotopi radioattivi anche sintetici alcune zone del pianeta e tale presenza è comunque misurabile in ogni zona del mondo.

PB_FIG33_media_11jan2015_web2

Il lavoro di Crutzen e Stoermer conclude:

Considering these and many other major and still growing impacts of human activities on earth and atmosphere, and at all, including global, scales, it seems to us more than appropriate to emphasize the central role of mankind in geology and ecology by proposing to use the term “anthropocene” for the current geological epoch. The impacts of current human activities will continue over long periods. According to a study by Berger and Loutre, because of the anthropogenic emissions of CO2, climate may depart significantly from natural behaviour over the next 50,000 years.

“Si tratta di una proposta che è stata presa in seria considerazione. La reazione del mondo umanistico è stata entusiastica con la nascita di ben tre riviste internazionali dedicate al tema: Anthropocene, The Anthropocene Review ed Elementa.

Nel campo delle scienze naturali sia la International Commission on Stratigraphy che la International Union of Geological Sciences hanno finora rifiutato di riconoscere il termine come categoria valida per la suddivisione del tempo geologico. Dall’altro, nell’agosto 2016 il Working Group on the Anthropocene – dopo sette anni di lavori – ha ufficialmente raccomandato un tale riconoscimento ai suddetti organi burocratici (con voto ad ampia maggioranza ma senza unanimità). In buona sostanza gli scienziati del gruppo presieduto da Jan Zalasiewicz propongono di considerare l’Antropocene come una serie, l’equivalente stratigrafico di un’epoca, tanto quanto l’Olocene o il Pleistocene che l’hanno preceduto. Il golden spike [chiodo d’oro] individuato come punto originario sarebbe da collocarsi nella cosiddetta grande accelerazione, cioè a partire dagli ultimi sussulti della seconda guerra mondiale, quando le bombe atomiche vennero sganciate e la dipendenza da carbone e petrolio contagiò l’intero pianeta (sebbene con intensità molto variabili).”

(Il sintomo-Antropocene di Emanuele Leonardi e Alessandro Barbero, Effimera, 9 ottobre 2017)

Nella seconda parte del post racconteremo più in dettaglio quali sono i possibili confini temporali dell’Antropocene, una questione per la quale in realtà esistono almeno 4 differenti ipotesi e proposte.

(continua)

Riferimenti.

(1)Crutzen, P. J. & Stoermer, E. F. The Anthropocene. IGBP Global Change Newsl. 41, 17–18 (2000)

(2)Stoppani, Il bel paese, 1873 –http://www.sba.unifi.it/upload/scienze/img150anniuniti/doc150anniuniti/belpaese.pdf

https://ia600502.us.archive.org/6/items/ilbelpaeseconver00stopuoft/ilbelpaeseconver00stopuoft.pdf

(3)Stoppani Corso di geologia in 3 vol. 1873; la parte che ci interessa è tradotta in inglese qui http://www.geologicnow.com/2_Turpin+Federighi.php; MAKING THE GEOLOGIC NOW RESPONSES TO MATERIAL CONDITIONS OF CONTEMPORARY LIFE edited by Elizabeth Ellsworth e Jamie Kruse trad. di Valeria Federeghi

Riporto qui l’intera frase perchè sia chiaro che Stoppani non rinnega la sua fede, ma la fonde con i fermenti dell’era di rivoluzione economica, sociale e politica che vive (la lascio in inglese come scorno, per far risaltare l’abbandono che abbiamo della nostra storia migliore):

“…when, in the bosom of the aged fabric of ancient pagan societies, the Christian ferment was introduced, the new element par excellence, that substituted ancient slavery with freedom, darkness with light, fall and degeneration with rebirth and true progress of humanity.

It is in this sense, precisely, that I do not hesitate in proclaiming the Anthropozoic era. The creation of man constitutes the introduction into nature of a new element with a strength by no means known to ancient worlds. And, mind this, that I am talking about physical worlds, since geology is the history of the planet and not, indeed, of intellect and morality. But the new being installed on the old planet, the new being that not only, like the ancient inhabitants of the globe, unites the inorganic and the organic world, but with a new and quite mysterious marriage unites physical nature to intellectual principle; this creature, absolutely new in itself, is, to the physical world, a new element, a new telluric force that for its strength and universality does not pale in the face of the greatest forces of the globe.”

(4)Personalmente conosco almeno un filosofo dell’800 (fra il 1850 e il 1860) che scrisse a proposito di ciò nella critica alla società capitalistica che vedeva nascere; lascio a voi scoprire chi era costui, che pensava alla scienza applicata alla produzione e al lavoro sociale nella forma di divisione del lavoro come la base materiale della trasformazione della biosfera; egli vedeva già allora il puro tempo di lavoro che andava scomparendo mano a mano come fonte principale della ricchezza sostituito da questo nuovo e più potente paradigma sociale che avrebbe inglobato ogni sviluppo (anche legato ai robot, a lui sconosciuti ma inglobabili nel suo “sistema automatico di macchine”). Si tratta di una forza produttiva talmente potente che se non domata e sottoposta alla ragione e al controllo sociale può, con la sua esigenza di sviluppo infinito, distruggere ogni biosfera e giustificare il paradosso di Fermi.