Note sull’Antropocene.2.Le ipotesi. Parte seconda.

Claudio Della Volpe

Le prime due parti di questo post sono state pubblicate qui e qui.

Continuiamo ad esaminare le varie proposte sulla scansione temporale dell’Antropocene usando come falsariga l’articolo di Lewis e Maslin pubblicato su Nature nel 2015.

Dopo aver esaminato le ipotesi dell’origine delle attività agricole e dello scambio colombiano, la scoperta dell’America e delle sue conseguenze arriviamo alla

Ipotesi 3.

 terza ipotesi, ossia la rivoluzione industriale.

L’inizio della rivoluzione industriale è stata spesso suggerita come inizio dell’Antropocene, perchè certamente l’accelerazione nell’uso dei fossili e i rapidi cambiamenti sociali sono stati unici nella storia umana. Eppure occorre notare che l’umanità è stata a lungo impegnata in trasformazioni di tipo industriale come l’uso esteso di metalli negli ultimi 8000 anni e con un esteso inquinamento conseguente.

Per esempio un elevato inquinamento da mercurio è stato documentato fin dal 1400aC nelle Ande peruviane mentre le lavorazioni di rame nell’impero Romano sono tracciabili nei ghiacci della Groenlandia a partire da circa 2000 anni fa. Ciononostante questo tipo di inquinamento da metallli come altri esempi che si possono prendere dalla Rivoluzione industriale sono troppo locali ed estesi nel tempo per costituire un vero e proprio golden spike, un segnale certo ed univoco.

Le definizioni storiche della Rivoluzione industriale danno una data iniziale fra il 1760 e il 1880 a partire da eventi iniziali nel NordEuropa. Dato il lento aumento dell’uso di carbone le testimonianze fossili nel ghiaccio registrano un impatto limitato sul totale della CO2 atmosferica fino al 19esimo secolo e mostrano poi un incremento continuo ma non un brusco salto impedendo di usarlo come marcatore geologico vero e proprio.

In modo analogo i cambiamenti associati di metano e nitrati, dei prodotti fossili delle combustioni (come le particelle carbonacee sferiche e la frazione magnetica delle ceneri) e tutti gli altri cambiamenti prodotti nei sedimenti dei laghi si sono alterati solo lentamente e sono cresciuti durante molte decadi. Il piombo, una volta aggiunto routinariamente ai combustibili dei veicoli come piombo tetratile, è stato proposto come possibile marcatore proprio perchè il combustibile additivato di piombo è stato usato globalmente e poi proibito. Comunque il picco del rapporto isotopico del piombo da questa specifica sorgente nei sedimenti varia durante l’intervallo fra il 1940 e il 1980 limitandone l’utilità come marcatore.

La rivoluzione industriale in definitiva fornisce si un certo numero di marcatori dal Nord Europa al Nord America e nel resto del mondo sin dal 1800 ma nessuno di essi costituisce finora un marcatore primario chiaro e valido in tutti i contesti.

Ipotesi 4

La grande accelerazione.

Fin dal 1950 l’influenza dell’attività umana sul sistema terra si è accresciuta enormemente. Questa “grande accelerazione” è caratterizzata dalla crescita della popolazione, da cambiamenti nei processi naturali, dallo sviluppo di nuovi materiali sia minerali che della plastica e inquinanti organici ed inorganici persistenti.

Fra tutti questi cambiamenti la ricaduta globale di residui radioattivi dai test di bombe nucleari è stato proposto come marcatore globale dell’orizzonte degli eventi umano. La prima esplosione è stata nel 1945 con un picco atmosferico che si situa fra il 1950 e primi anni 60, seguito da un rapido declino successivo al Partial Test Ban Treaty nel 1963 e agli accordi posteriori, cosicchè al momento continuano ad essere presenti solo bassi livelli di inquinamento.

Un picco caratteristico è presente nelle carote glaciali ad alta risoluzione , nei laghi, nei sedimenti marini , nei coralli, negli anelli degli alberi dai primi anni 50 fino ai primi anni 60.

Il segnale maggiore proviene dal carbonio 14, visto in aria e manifesto negli anelli degli alberi e nei ghiacciai che raggiunge un massimo sia nelle medie latitudini che in quelle alte dell’emisfero Nord nel 1963-64 e un anno dopo nei tropici. Sebbene il carbonio 14 sia a emivita relativamente breve (5730 anni) il suo livello rimarrà abbastanza alto da costituire un segnale utile per le future generazioni.

Le emivite di altri prodotti essenzialmente sintetici, come alcuni gas fluorurati, che sono anche di alcune migliaia o perfino decine di migliaia di anni sarebbero sufficienti ma la loro utilità è ridotta al fatto che gli accordi internazionali ne hanno ridotto o impedito l’uso, come per esempiio il protocollo di Montreal.

Proprio per questo motivo dei vari potenziali marcatori della Grande Accelerazione il picco globale del 14C costituisce un segnale non ambiguo nella maggior parte dei depositi stratigrafici. In particolare il picco del 1964 potrebbe essere usato come marcatore nelle sequenze degli anelli annuali degli alberi. Altri marcatori secondari potrebbero essere il rapporto degli isotopi del Plutonio (240Pu/239Pu) il cesio 137 ed infine lo iodio 129 che ha una emivita di parecchi milioni di anni. E ovviamente molti altri segnali secondari dovuti all’attività umana, potrebbero essere usati come per esempio:

i pollini fossili di specie geneticamente modificate, i picchi di gas fluorurati, isotopi del piombo, microplastiche nei sedimenti marini, variazione nella presenza di diatomee dovuti all’eutroficazione delle acque.

In conclusione delle 4 ipotesi che abbiamo analizzato usando come falsariga il lavoro di Lewis la prima e la terza, l’inizio dell’agricoltura e la rivoluzione industriale non presentano almeno allo stato dell’arte la possibilità di essere usati come marcatore geologico, mentre la seconda e la quarta ossia lo scambio colombiano e le esplosioni atomiche dei primi anni 60 potrebbero essere usati senza grossi problemi.

E’ interessante notare che la scelta anche solo fra queste due ipotesi di delimitazione può avere un significato che va al di là della semplice scelta tecnica; infatti sono fenomeni che mettono l’accento su aspetti diversi della nostra società e della nostra storia.

Infine ci sarebbe da dire questo; la rivoluzione scientifica dal Rinascimento in poi ha sottolineato che l’uomo dopo tutto è un animale come gli altri, senza particolari origini divine e vive in un piccolo pianeta ai margini della Galassia; ma nonostante questo il semplice riconoscimento dell’esistenza e l’analisi degli effetti dell’Antropocene potrebbe cambiare un po’ la nostra visione: dopo tutto al momento questo è l’unico pianeta su cui sappiamo che esista la vita e non solo una vita che è cosciente di se stessa; dunque la nostra azione nei confronti della biosfera non è affatto trascurabile e potrà avere conseguenze non banali e specifiche; abbiamo una enorme responsabilità nei confronti della nostra specie ma anche del pianeta che abitiamo e, per quel che ne sappiamo adesso e finchè non scopriremo altri pianeti dotati di biosfera o perfino di vita autocosciente e di cultura, perfino nei confronti dell’intero Universo.

Dunque siamo partiti da una concezione antropomorfa dell’Universo e attraverso lo sviluppo della Scienza in un certo senso ci siamo tornati, ma ad un livello diverso, una cosa che avrebbe fatto contento Hegel.

Cronache dall’ “Ora della Chimica”

Mauro Icardi

Ho avuto modo di visitare la quinta edizione festival dell’innovazione e della ricerca scientifica ospitato nella biblioteca Archimede di Settimo Torinese. Edizione dedicata alla chimica. Più che giusto intitolarla quindi “L’ora di chimica”. E ho trovato interessante ed appropriata la mostra dedicata a Primo Levi scrittore di fantascienza, di cui mi ero già occupato nella recensione del libro di Francesco Cassata tratta dalla settima lezione Primo Levi tenutasi nell’ottobre del 2015.

Ho potuto nuovamente verificare di persona che questa parte dell’opera dello scrittore è sconosciuta a molti. Forse da altri considerata minore. Io credo che vada invece scoperta e apprezzata. E’ una parte integrante della “galassia Primo Levi”, e alcuni racconti sono acuti e profetici. Come ho già avuto modo di far notare, per esempio il “Mimete” di “Storie naturali” è una rappresentazione di un prodotto tecnologico odierno, non essendo altro che la descrizione con mezzo secolo di anticipo (il libro uscì nel 1966) delle odierne stampanti 3D.

La chimica viene vista spesso in maniera distorta e confusa. Ma alla chimica dobbiamo anche l’elevato livello di qualità della vita di cui (almeno nel mondo occidentale) abbiamo potuto godere negli anni successivi al secondo conflitto mondiale. Prima che la crisi ecologica e quella economica, cioè le due facce della stessa medaglia ci mettessero sotto gli occhi il fatto incontrovertibile che i limiti fisici di pianeta e biosfera non possono essere superati.

La chimica e particolarmente l’industria chimica dovrà in un futuro molto prossimo modificare i propri cicli produttivi, privilegiando l’utilizzo di materie prime rinnovabili, approfondendo ulteriormente la conoscenza dei meccanismi chimici e biochimici che sono alla base dei processi di degradazione ambientale. La chimica permea la nostra vita anche nei processi e nelle reazioni biochimiche che avvengono nel corpo umano. Tutto questo nella mostra di Settimo Torinese è stato ampiamente divulgato, grazie anche a laboratori per ragazzi delle scuole, dalle elementari fino alle superiori. Per mostrare la magia della chimica. Consapevolezza e conoscenza sono ottime chiavi di comprensione.

E di conoscenza e comprensione si è parlato anche nella conferenza sulle sostanze stupefacenti dal titolo “Nuove droghe. Istruzioni per il non uso”. Sappiamo che esiste una cultura parallela dello “sballo”. Sappiamo che il consumo di sostanze stupefacenti o psicotrope non è un fenomeno recente, ma accompagna l’uomo da secoli. Da quando i nostri antenati e progenitori scoprirono che da diverse sostanze di origine naturale si potevano estrarre sostanze che miglioravano il tono dell’umore. Che aiutavano a sopportare la fatica, o lo illudevano di stare meglio. Di aiutarlo a dimenticare la fatica della vita e della quotidianità.

Quello che il relatore il Professor Marco Vincenti, che è Direttore del dipartimento di chimica dell’Università di Torino ha voluto sottolineare, è che il suo intervento non aveva l’intenzione di formulare un giudizio etico o morale. Ma si proponeva di dare un quadro oggettivo della realtà attuale del consumo di sostanze stupefacenti. Sottolineando che molto spesso esiste un consumo inconsapevole. Non tanto per le cosiddette sostanze stupefacenti “storiche” come quelle derivate dagli oppiacei, come l’eroina, o quelle stimolanti come la cocaina. Ma soprattutto per le nuove droghe che possono essere sintetizzate con relativa semplicità. Per esempio l’ecstasy che può essere facilmente sintetizzata partendo dal safrolo (4-allil-1,2-metilendiossibenzene), sostanza di facile reperimento in commercio. La stessa pianta di cannabis che oggi viene coltivata in serre modernissime, sia pure illegali, e che irrorata costantemente con luce artificiale si arricchisce in principio attivo di THC a valori di molto alti (20-40%) rispetto a quelli consueti molto più bassi (0,5-1,5%). E’ intuitivo che un consumo inconsapevole di uno spinello che ne contenga in dosi così elevate provochi effetti collaterali di gran lunga maggiori e più pericolosi.

Estremamente interessanti anche le parti delle conferenza dedicate ai metodi analitici di determinazione di metaboliti di sostanze stupefacenti rilevabili su matrici quali sangue, urine o capelli, nonchè quelli di riconoscimento rapido di alcuni dei principali composti e principi attivi di narcotici o stupefacenti, effettuati tramite l’utilizzo della spettroscopia Raman utilizzando lo strumento portatile Tru Narc.

Il pubblico era formato per la maggior parte di ragazzi di scuole superiori, a cui in ultima analisi è giusto che sia diretto il maggior sforzo di divulgazione. Per esperienza so che la chimica parallela, praticata nei laboratori dove si sintetizzano sostanze stupefacenti si ammanta di un’aura di mito che non permette di discernere e di osservare la cose con il dovuto giudizio critico. Ed è pur vero che anche in questo campo si perpetra l’ennesima dicotomia falsa che recita naturale= buono, sintetico=cattivo.

Il grande successo della serie “Breaking Bad”, che è in ogni caso un prodotto di fiction di buonissimo livello dal punto di vista strettamente legato alla storia, alla sua narrazione, produzione e regia, credo debba a questo mito inossidabile una buona parte (ovviamente non tutta) della sua fortuna.

Qui il mito è rappresentato dal professor Walter White, che conoscendo perfettamente la chimica, utilizza questa sua preparazione professionale per la produzione clandestina di metanfetamina.

La divulgazione e la conoscenza della chimica, degli effetti collaterali del consumo di questo tipo di sostanze possono aiutare soprattutto i giovani a non lasciarsi influenzare da questi falsi miti. E a saper distinguere tra quello che viene raccontato in qualunque prodotto di intrattenimento, e la realtà della chimica e della tossicologia delle sostanze stupefacenti. Si potrebbe pensare che sia un concetto acquisito e che si possa sottintendere. Ma in un’epoca dove si tende ad una mitizzazione generalizzata credo sia corretto invece sottolineare il concetto.

In conclusione questo festival dedicato alla chimica merita un sincero elogio.

E questa immagine che mostra una platea di bambini intenti a seguire una lezione sulla chimica dei profumi è decisamente beneaugurante. Per la chimica e la sua divulgazione, ma più in generale per un giusto riavvicinamento all’amore per la conoscenza.

Note sull’antropocene. 2. Le ipotesi. prima parte

Claudio Della Volpe

Nella prima parte di questo post (https://ilblogdellasci.wordpress.com/2017/10/18/note-sullantropocene-1-le-origini/) abbiamo introdotto la storia del meme Antropocene. In questa seconda parte introdurremo invece le varie ipotesi avanzate per stabilirne i confini storici; diciamo subito che ci sono tante diverse ipotesi, ma le principali sono quattro e le enumero in ordine di datazione dell’origine dell’Antropocene.

Ipotesi 1: In un libro del 2013 (1) Timothy Morton introduce il concetto di iperoggetto. L’iperoggetto è un oggetto tale per cui non può essere intrinsecamente conosciuto da una posizione esterna, in altre parole il soggetto ne fa parte per definizione. Il soggetto che esplora e conosce non può guardare gli “iperoggetti” dall’esterno, ma piuttosto, ne fa parte, ne è ospitato , circondato, legato, ci interagisce così fortemente che non può che esserne considerato una parte “interna”. L’universo è un iperoggetto. La società umana come tale è un iperoggetto, ma poniamo anche il riscaldamento globale o i “giri”oceanici che producono isole plasticose con i nostri rifiuti, essi sono iperoggetti perchè noi ci interagiamo fortemente, in un certo senso ne siamo parte integrante, siamo contemporaneamente il soggetto che vuole conoscerli ma anche quello che li produce.

L’iperoggetto inoltre non è solo grande nello spazio e nel tempo, ma è anche “viscoso”.

tale viscosità è il prodotto diretto del proliferare di informazioni. Quanto più sappiamo a proposito degli iper-oggetti, tanto più ci rendiamo conto che non potremo mai veramente conoscerli. Eppure, per quanto ci sforziamo di allontanarli, non possiamo separarci da loro” (p. 180).

In definitiva l’uomo come specie crea una enorme quantità di iperoggetti a partire dall’uso del fuoco (circa un milione di anni fa, Homo erectus) che già ha avuto un enorme impatto sulla biosfera; ma il momento chiave secondo Morton è la invenzione dell’agricoltura circa 10.000 anni fa o meglio dell’agrilogistica, una organizzazione della vita sociale che è caratterizzata da un “certo numero di sotto-variabili: l’eliminazione di contraddizioni e anomalie, l’innalzamento di confini tra umano e non-umano, la massimizzazione dell’esistenza a scapito d’ogni altra considerazione, inclusa ogni qualità dell’esistenza stessa. Ora che l’agrilogistica copre quasi interamente la superficie terrestre possiamo vederne gli effetti come in una reazione di polimerizzazione: ebbene, sono catastrofici

Si tratta come vedete di una concezione un po’ filosofica; Morton propone una società contemplativa per uscire dai problemi dell’agrilogistica, una proposta difficilmente accettabile, un po’ elitaria diciamo così.

Se si cercano dati fisici, precedenti o successivi all’inizio dell’Olocene (11700 anni fa) si trovano varie date possibili, dagli effetti del fuoco a quelli dell’estinzione della megafauna a quelli dell’inizio vero e proprio dell’agricoltura fino all’introduzione del riso e dei ruminanti che potrebbero aver modificato la percentuale di metano in atmosfera, ma su tutti ci sono sufficienti dubbi da esludere una chiara individuazione come inequivoco confine dell’Antropocene al momento.

Ipotesi 2: in un articolo del 2015 (2) Simon Lewis e Mark Maslin propongono come limite temporale dell’Antropocene la scoperta del’America da parte di Colombo, anzi tutto il periodo che ne segue, definito come “Columbian exchange”, lo scambio colombiano. In realtà l’articolo di Lewis e Maslin è da leggere tutto intero e dà una descrizione completa e precisa dell’azione umana al di là della singola ipotesi che sostiene poi; lo consiglio caldamente a chi volesse farsi un’idea precisa e riccamente documentata della situazione (magistrale il paragrafo a pag. 172 intitolato The geological importance of human actions).

L’arrivo degli europei nei Caraibi nel 1492 e l’annessione delle Americhe causò il più grande scambio di popolazioni degli ultimi 13000 anni, con la formazione della prima grande rete globale di commerci fra Europa, Cina, Africa e le Americhe e la susseguente miscelazione di bioti prima separati, conosciuta come “lo scambio colombiano”.

Il più vistoso effetto fu certamente quella che si potrebbe definire la globalizzazione del cibo che è descritta nella figura precedente, che diede luogo a scambi di semi e pollini ma anche di scheletri di animali che si ritroveranno nei secoli in varie sedi.

Oltre a ciò ci fu l’effetto di ridurre drasticamente la popolazione umana sia in America, ma anche in Africa. Si stima che dei circa 60 milioni di persone che vivevano in America ne sia rimasto dopo oltre un secolo meno del 10%. a causa delle malattie importate dagli europei (contro le quali quelle popolazioni non avevano difesa), della schiavitù , della fame, etc.. Occorre anche considerare (questo è una mia considerazione) che l’apertura dei territori del Sud e centro America diede il via ad una tratta atlantica degli schiavi che riguardò oltre 10 milioni di persone che costituivano come ordine di grandezza qualcosa come la metà della popolazione africana di quel periodo.

Si stima che la sola decrescita della popolazione centro e sud americana comportasse l’abbandono di una enorme quantità di terreno coltivato a latitudini cui corrispondeva una enorme produttività biologica, con la conseguente rigenerazione di oltre 50 milioni di ettari di foresta, savana boscosa e prateria con un assorbimento di carbonio a causa di questo effetto di rivegetazione del suolo pari a 5-40 Pg, ossia miliardi di ton equivalenti, in 100 anni. Simile contributo dalla tratta degli schiavi, anche se la situazione sembra più complessa ((http://nrs.harvard.edu/urn-3:HUL.InstRepos:3710252 e https://econpapers.repec.org/paper/csawpaper/2014-02.htm).

Questo suggerisce che l’episodio ha contribuito in modo significativo ad un evento globale , ossia la riduzione della concentrazione di CO2 di 7–10 p.p.m. (1 p.p.m. CO2 = 2.1 Pg di carbonio equivalente) fra il 1570 e il 1620 documentato nelle registrazioni ad alta risoluzione delle carote di ghiaccio antartiche (si veda parte c di due figure più in alto). La riduzione della CO2, badate, il contrario di quel che sta succedendo adesso.

Si tratta dell’evento più importante nella storia della CO2 sia in velocità di variazione che in dimensione nella storia pre industriale degli ultimi 2000 anni.

Gli autori propongono di considerare i fenomeni globali dello scambio colombiano, ossia la riduzione di CO2 di 7-10 ppm nella carota di ghiaccio del Law Dome, la prima presenza di fossili al di quà e al di là del’oceano del mais e altri fenomeni simili come segnali inequivoci del fenomeno, elencandoli in dettaglio.

Essi concludono che questo “incontro” delle popolazioni dei continenti vecchio e nuovo e l’omogeinizzazione mai prima avvenuta dei loro bioti rappresenti un evento estremamente importante per la storia del pianeta; trovano anche un nome per questa ipotesi la ipotesi Orbis dalla parola latina per mondo e Orbis spike sarebbe il segnale della riduzione di CO2; il motivo di questa scelta starebbe nel fatto che solo dopo il 1492 i due emisferi del pianeta si sono “connessi” tanto che molti altri scienziati si riferiscono a questo periodo come all’inizio del “sistema mondo”.

Nel prossimo post discuteremo le altre due ipotesi principali prese in considerazione per l’nizio dell’Antropocene, la rivoluzione industriale e il periodo delle esplosioni atomiche in atmosfera..

(continua)

(1)Timothy Morton, Hyperobjects: Philosophy and Ecology after the End of the World, Minneapolis: U Minnesota P, 2013.

(2) Defining the Anthropocene doi:10.1038/nature14258

Simon L. Lewis & Mark A. Maslin 12 MARCH 2015, VOL 519 , NATURE, p.171

La denominazione K, L, M per i gusci elettronici e s, p, d, f per gli orbitali

Rinaldo Cervellati

Ancora oggi quando si studia l’atomo di Bohr, gli strati (o gusci) di orbite permesse per gli elettroni sono identificati con le lettere maiuscole K, L, M, ecc. Da dove proviene questa denominazione? W.B. Jensen [1] ci informa che non c’è traccia di essa nella famosa trilogia di Bohr del 1913. K e L provengono piuttosto dalle ricerche del fisico britannico Charles Glover Barkla[1] sulla fluorescenza emessa dagli elementi bombardati da raggi X ad alta energia.

Charles G. Barkla

La fluorescenza è il fenomeno per cui un materiale sottoposto a radiazioni emette a sua volta radiazioni, generalmente di più bassa energia. Barkla studiò approfonditamente il fenomeno dell’emissione di raggi X (radiazione secondaria) da parte di metalli sottoposti a bombardamento di radiazione X a più alta energia provenienti da una sorgente esterna (radiazione primaria). Durante anni di studi egli caratterizzò la radiazione secondaria in base alle caratteristiche di omogeneità e penetrabilità, cioè la capacità di attraversare un certo numero di fogli di alluminio interposti fra sorgente e bersaglio. Trovò che la radiazione secondaria era formata da due serie di radiazioni, una più penetrante dell’altra che chiamò appunto K e L rispettivamente. Questa denominazione appare chiaramente nella seguente nota a piede di pagina in un suo articolo del 1911 [2].

Scrive appunto e annota:

Si osserva che le radiazioni rientrano in due serie distinte, qui indicate con le lettere K e L.* [2]

* Precedentemente indicate con le lettere B e A. Le lettere K e L sono tuttavia preferibili, in quanto è altamente probabile che esista una serie di radiazioni più assorbibili e più penetranti. [2, p.406]

Barkla osservò anche che la produzione delle radiazioni secondarie sembrava correlata con il peso atomico degli elementi: fra Ca e Rh viene prodotta solo la K, fra W e Bi solo la radiazione L, e fra Ag e Ce vengono emesse entrambe. [1, Table, p.407].

Come abbiamo ricordato più volte queste ultime osservazioni furono interpretate dal fisico britannico Moseley[2] nel suo classico studio sul rapporto tra la frequenza dei raggi X secondari e i numeri atomici degli elementi [3].

Con riferimento alla figura:

I raggi X primari che possiedono abbastanza energia, possono espellere un elettrone strettamente trattenuto nei livelli energetici interni dell’atomo. La rimozione di un elettrone in questo modo rende la struttura elettronica dell’atomo instabile e l’elettrone nel livello più alto “cade” in quello inferiore per riempire la lacuna. Nel cadere, l’energia viene rilasciata sotto forma di un fotone, la cui energia è uguale alla differenza di energia fra i due livelli coinvolti. Così, il materiale emette una radiazione che ha caratteristiche energetiche degli atomi presenti.

La razionalizzazione della fluorescenza a raggi X di Barkla-Moseley in termini del modello di Bohr è di solito accreditata all’articolo del 1914 del fisico tedesco Walther Kossel[3] [4].

Walther Kossel

Egli sostenne che la radiazione K fosse dovuta ad un elettrone eccitato che cadeva in un posto vacante nel primo guscio di un atomo, e la radiazione L ad un elettrone eccitato che ricade in un posto vacante nel secondo guscio [4]. Di conseguenza, le lettere K e L si sono associate al primo e al secondo guscio dell’atomo di Bohr, soprattutto nella letteratura che si occupa di spettroscopia.

Già nel suo articolo del 1911, Barkla aveva ipotizzato la possibile esistenza di raggi secondari ancora meno energetici che sarebbero emessi da Au e Pt e corrispondenti a possibili serie M e N, queste denominazioni furono presto assegnate al terzo e al quarto guscio dell’atomo di Bohr. È interessante notare che Bohr raramente ha fatto uso di queste denominazioni alfabetiche per i gusci nei suoi lavori, preferendo invece utilizzare i numeri quantici [5].

Da notare che sono state fatte diverse altre congetture sulla scelta delle lettere K e L, fra esse piace ricordare quella che, facendo notare che queste lettere stanno in posizione centrale nell’alfabeto inglese, Barkla le avrebbe scelte perché parte del suo cognome. Congettura priva di fondamento storico, la scelta è quella motivata nella nota a p. 406 del lavoro di Barkla [2].

Riconosciuta quindi l’origine “spettroscopica” della denominazione K, L, M, anche l’uso delle lettere minuscole s, p, d e f per indicare gli orbitali atomici si può far risalire alle ricerche spettroscopiche dell’ultimo quarto del XIX secolo.

Secondo W.B. Jensen [6] questa storia inizia con le ricerche di due chimici britannici, l’inglese G. Liveing[4] e lo scozzese Sir James Dewar[5], che fra il 1872 e il 1880 pubblicarono una serie di articoli sugli spettri di emissione dei metalli alcalini [7]. Nel descrivere questi spettri, Liveing e Dewar caratterizzarono qualitativamente le varie righe in termini sia di intensità che di definizione chiamandole principali, strette o diffuse, osservarono inoltre che le righe di un determinato tipo comparivano in gruppi o serie.

Come ricordato in un precedente post, dopo la scoperta di Balmer di un’equazione empirica descrivente una delle serie di righe dell’idrogeno, la ricerca si concentrò su una formula più generale per tutte le righe di tutte le serie spettrali degli elementi. Per i metalli alcalini, lo svedese Johannes Rydberg[6] [8] e i tedeschi Heinrich Kayser[7] e Carl Runge [9] giunsero indipendentemente alla medesima conclusione. Il loro lavoro dimostrò che molte righe degli spettri dei metalli alcalini potevano essere modellizzate matematicamente come la somma di tre serie indipendenti, che Rydberg, seguendo la nomenclatura di Liveing e Dewar, definì principale, stretta e diffusa. Nel 1907 Arno Bergmann scoprì una quarta serie di righe negli spettri dei metalli alcalini che chiamò fondamentale [10].

Com’è noto gli anni successivi sono stati caratterizzati dai tentativi, a partire dalla famosa trilogia di Niels Bohr del 1913, di fornire un modello fisico dell’atomo coerente con le formule empiriche per le serie spettrali trovate in precedenza. L’estensione di questo modello dall’idrogeno ad altri elementi ha portato all’introduzione di una varietà di schemi di quantizzazione più complessi, nessuno dei quali si è rivelato del tutto soddisfacente fino all’opera di Stoner, Main Smith[8] e Pauli e l’introduzione della nuova meccanica quantistica di Heisemberg (1925) e Schrödinger (1926).

Tuttavia, il primo tentativo di introdurre configurazioni elettroniche degli atomi (atombau) e comprendere il loro rapporto con il sistema periodico è usualmente attribuito a Bohr [11]. In questo lavoro Bohr ragiona in termini di gusci e sottogusci di orbite, circolari ed ellittiche utilizzando i numeri quantici principale e azimultale, n e k (oggi l). In figura sono riportate le configurazioni dei gas nobili.

Configurazioni elettroniche di Bohr per i gas nobili dall’originale di Bohr [11], p. 113

Sicché la configurazione elettronica dello zolfo secondo Bohr sarebbe 2,4,4,6 invece di 2,8,6 pertanto dovevano esserci incongruenze nell’assegnazione dei sottolivelli. Incorporando il terzo numero quantico j (dovuto ad A. Sommerfeld[9], oggi ml) nella descrizione dei sottogusci, E.C. Stoner [12] riuscì a dare la configurazione elettronica corretta dello zolfo[10]. Tuttavia né il sistema di Bohr né quello di Stoner riuscivano a descrivere correttamente gli effetti di un campo magnetico sugli spettri atomici. Vi erano inoltre ragioni teoriche per le quali a Bohr sembrava inaccettabile la proposta di Stoner.

Lo storico E. Scerri [13] e altri scrivono che Bohr invitò allora l’amico Wolfgang Pauli a cercare di mettere ordine nella situazione sempre più complicata nella descrizione degli atomi polielettronici, che richiedeva, fra l’altro, l’introduzione di nuovi numeri quantici. Pauli [14] studiò a fondo il problema e lo risolse giungendo alla conclusione che i gusci elettronici completi attorno al nucleo di un atomo non contribuiscono affatto al suo momento magnetico. Suggerì che la separazione delle righe spettrali o i loro spostamenti in presenza di campi magnetici fossero dovute interamente alla presenza degli elettroni esterni. Suggerì inoltre l’assegnazione di un quarto numero quantico m (oggi ms) ad ogni elettrone relativo a una sua proprietà quantistica intrinseca non descrivibile in termini classici[11]. Trovò inoltre che si sarebbe potuto arrivare alle configurazioni di Stoner ammettendo che:

È vietato che più di un elettrone con lo stesso valore del numero quantico principale n abbiano lo stesso valore per gli altri tre numeri quantici k, j e m. [14]

Che è la forma con cui Pauli espresse per la prima volta il suo principio detto “di esclusione”.

Niels Bohr

Wolfgang Pauli

Lo storico W. B. Jensen [6] riporta che le nostre attuali configurazioni (aufbau), ad esempio quella dello zolfo (1s2 2s2 2p6 3s2 3p4), sono apparse per la prima volta in una monografia di Friedrich Hund[12] [15] nella quale il numero quantico azimutale o secondario, fino a allora utilizzato da Bohr e altri, viene sostituito con le lettere s (l = 0), p (l = 1), d (l = 2) e f (l = 3).

Friedrich Hund

Ovvero con le vecchie notazioni utilizzate da Sommerfeld e altri come abbreviazione per la costante delle serie stretta, principale, diffusa e fondamentale nell’equazione empirica originale di Rydberg.

Hund stabilì anche le regole per costruire la configurazione dello stato fondamentale (di minima energia) degli atomi degli elementi, regole dette della massima molteplicità o di Hund, esse hanno come conseguenza immediata il fatto che nel completamento di orbitali isoenergetici gli elettroni occupano il maggior numero possibile di orbitali vuoti.

A partire dagli anni Trenta, le configurazioni corrette di Hund e la notazione s, p, d, f cominciarono a penetrare lentamente nella letteratura chimica per indicare gli orbitali.

Bibliografia

[1] W.B. Jensen, The KLM Shell Labels, J. Chem. Educ., 2003, 80, 996-997.

[2] C. G. Barkla, The Spectra of the Fluorescent Röntgen Radiations, Phil. Mag., 1911, 22, 396-412.

[3] H. Moseley, The High Frequency Spectra of the Elements, Phil. Mag., 1913, 26, 1025-1034; ibid., 1914, 27, 703-713.

[4] W. Kossel, Bemerkung zur Absorption homogener Röntgenstrahlen, Verhand. deutschen physik. Gesell., 1914, 16, 898-909.

[5] L. Rosenfeld, Ed., Niels Bohr: Collected Works, 9 Voll., North-Holland Publishing: Amsterdam, 1972-1996.

[6] W.B. Jensen, The Origin of the s, p, d, f Orbital Labels, J. Chem. Educ., 2007, 84, 757-758.

[7] G. Liveing, J. Dewar, Collected Papers on Spectroscopy, Cambridge University Press: Cambridge, 1915. Cit. in [6]

[8] J. R. Rydberg, Sur la constitution des spectres linéaires des éléments chimiques, Comptes Rendus, 1890, 110, 394-399.

[9] H. Kayser, C. Runge, Über die Spectren der Alkalien, Ann Physik, 1890, 41, 302-320.

[10] A. Bergmann, Beiträge zur Kenntniss der ultrarothen Emissionsspectren der Alcalien, Doctoral Dissertation, Jena, 1907. Cit in [6]

[11] N. Bohr, The Theory of Spectra and Atomic Constitution, Three Essays, Essay III The Structure of the Atom and the Physical and Chemical Properties of the Elements, Cambridge University Press, 1922, pp. 85-117.

[12] E.C. Stoner, The distribution of electrons among atomic levels, Phil. Mag.,. 1924, 48, 719–36.

[13] E.R. Scerri. The Electronic Configuration Model, Quantum Mechanics and Reduction, Brit. J. Phil. Sci. 1991, 42, 309-325.

[14] W. Pauli, Uber den Einfluss der Geschwindi gkeitsabhangigkeit der elektronmasse auf den Zeemaneffek, Zeit. Phys., 1925, 31, 373-385; Uber den Zusammehang des Abschlusses der Elektrongruppen im Atom mit der Komplexstruktur der Spektren, Zeit. Phys., 1925, 31, 765-783.

[15] F. Hund, Linienspektren und periodisches System der Elemente, Springer, Berlin, 1927

 

[1] Charles Glover Barkla (1877-1944) fisico britannico, fu allievo di J. J. Thomson (lo scopritore dell’elettrone) fece significativi progressi nello sviluppo delle leggi che regolano lo scattering dei raggi X, per il quale ottenne il Premio Nobel per la Fisica nel 1917.

[2] Henry Moseley (1887-1915) fisico britannico morì prematuramente nella battaglia di Gallipoli nella Prima Gerra Mondiale. Oltre ad aver individuato il principio informatore della Tavola periodica, fornì la prima evidenza sperimentale in favore della quantizzazione di Bohr. http://www.scienzainrete.it/contenuto/articolo/marco-taddia/elemento-moseley/marzo-2016.

[3] Walther Kossel (1888-1956) fisico tedesco, professore e direttore dell’Istituto di Fisica dell’Università di Tubingen dal 1954 al 1953 si è distinto per le sue ricerche sugli spettri atomici e la caratterizzazione dell’emissione di raggi X. Indipendentemente da G.N. Lewis propose la teoria del legame ionico.

[4] George Downing Liveing (1827-1924) chimico inglese, professore di Chimica all’Università di Cambridge, Medaglia Davy 1901 per i suoi contributi alla spettroscopia

[5] James Dewar (1842-1923) fisico e chimico scozzese è noto soprattutto per i suoi studi sulla liquefazione dei gas e l’invenzione del vaso Dewar (thermos). Meno note ma notevoli le sue ricerche spettroscopiche. Medaglie Rumford (1894), Davy (1909), Copley (1916). Primo britannico a ottenere la Medaglia Lavoisier (1904) dall’Accademia Francese delle Scienze, Medaglia Matteucci (1906) dell’Accademia Italiana delle Scienze.

[6] V. post: https://ilblogdellasci.wordpress.com/2017/09/25/johannes-rydberg-e-la-tavola-periodica/

[7] Heinrich Gustav Joannes Kayser (1853-1940) fisico tedesco, scoperse la presenza di elio nell’atmosfera terrestre durante l’eclisse solare del 1868 rilevando una nuova riga nello spettro solare, a lui si deve il termine spettro di assorbimento. Insieme a Carl Runge (1856-1927) matematico e fisico tedesco, interpretò gli spettri di molti elementi.

[8] E. Scerri, Who was John David Main Smith?, https://blog.oup.com/2016/03/john-david-main-smith/

[9] Arnold Sommerfeld (1868-1951) fisico tedesco, è considerato co-fondatore della teoria quantistica dell’atomo di idrogeno, spesso chiamata teoria di Bohr-Sommerfeld.

[10] La configurazione elettronica dello zolfo di Stoner è: 2, 2, 2, 4, 2, 2, 2, cioè 2,8,6.

[11] È quello che oggi si chiama momento angolare di spin. Lo spin dell’elettrone era stato scoperto nel 1922 da Otto Stern e Walther Gerlach con l’ormai classico esperimento del passaggio di un fascio di atomi di argento attraverso un campo magnetico non omogeneo, alcuni anni prima della proposta di Pauli e del concetto di spin elettronico di George Uhlenbeck e Samuel Goudsmit.

[12] Friedrich Hund (1896-1997) fisico tedesco, professore di fisica teorica in diverse università europee, ha dato contributi essenziali in meccanica quantistica collaborando con i principali fisici dell’epoca. Oltre a quanto menzionato in questo testo, Hund è stato un precursore nell’interpretazione quantomeccanica degli spettri e della struttura molecolari. R.S. Mulliken che ha ottenuto il premio Nobel per la chimica 1966 per la teoria degli orbitali molecolare ha sempre proclamato la grande influenza che l’opera di Hund aveva esercitato su di lui e che avrebbe volentieri condiviso il premio Nobel con Hund.

Nobel 2017: perché il cryo-EM è così importante, con una intervista a Martino Bolognesi.

Claudio Della Volpe

Il premio Nobel 2017 per la Chimica è stato assegnato a Jacques Dubochet, Joachim Frank e Richard Henderson  “per aver sviluppato la microscopia crioelettronica per determinare in alta definizione le strutture delle biomolecole”.

L’origine della microscopia crioelettronica è stata il tentativo di trovare un metodo per ridurre il danno inflitto dalle radiazioni elettroniche ai campioni biologici. La quantità di radiazioni richiesta per raccogliere una immagine di un campione attaverso il microscopo elettronico è sufficientemente elevata da costituire una potenziale sorgente di danno per le strutture più delicate. Inoltre l’ambiente ad alto vuoto richiesto per il microscopio elettronico costituisce una situazione drastica per molti campioni. D’altronde il SEM offre la possibilità di una risoluzione molto elevata, dell’ordine di una frazione di nanometro, inferiore a quella ottenibile con i raggi X, ma pur sempre elevatissima, capace di risolvere la struttura macromolecolare.

Il problema del vuoto è stato parzialmente risolto con la introduzione del negative stains o macchia negativa (il campione è inserito in un ambiente, ghiaccio o soluzione di sali, che lo isola dall’ambiente, il fascio elettronico interagisce con entrambi ma in modo diverso e dalla differenza di interazione risalta il volume del campione), ma perfino con la macchia negativa i campioni biologici sono soggetti ad un collasso strutturale a seguito della disidratazione del campione. L’introdurre il campione nel ghiaccio sotto la temperatura di sublimazione è stata una possibilità contemplata fin dalle origini del metodo, ma l’acqua tende a strutturarsi in un reticolo cristallino di bassa densità durante il congelamento e questo può distruggere la struttura di qualunque macromolecola inserita in essa.

Nei primi anni 80 parecchi gruppi che studiavano fisica dello stato solido tentavano di usare ghiaccio vetroso e in un lavoro basilare del 1984 il gruppo diretto da Jacques Dubochet al European Molecular Biology Laboratory mostrò immagini di adenovirus incluse in ghiaccio vetrificato; questo lavoro viene considerato comunemente come il lavoro fondativo della cryo-EM o cryo 3D.

L’energia degli elettroni usati per costruire una immagine (poche centinaia di kV) è alta abbastanza da rompere i legami covalenti. Nel fare una immagine dunque è necessario limitare l’esposizione agli elettroni, specie per materiali molto delicati; questo si ottiene selezionando le immagini di migliaia o milioni di molecole identiche allineate e mediate per ottenere una immagine in alta risoluzione (un metodo analogo, stacking planetario, è usato per esempio dagli astrofili evoluti per le immagini planetarie ottenute da filmati telescopici). Ci vuole ovviamente un software specializzato.

Negli ultimi anni l’introduzione di sensori capaci di individuare singoli elettroni e di metodi di calcolo più efficienti in grado di passare da immagini 2D a immagini 3D è stata determinante. In particolare transistor CMOS ultrapiccoli (L = 20 nm, W = 20 nm) sono in grado di raggiungere il limite di un singolo elettrone quando operano a temperatura molto basse (–269 °C (4 K) a –258 °C (15 K)).

  • Nel 1975 Joachim Frank cominciò a lavorare sugli algoritmi che analizzano e mediano immagini 2D confuse per ricostruire strutture 3D ad elevata risoluzione.
  • Nei primi anni 80 Jacques Dubochet riuscì a vetrificare l’acqua un ambiente che permetteva alle biomolecole di conservare la loro forma nel vuoto.
  • Nel 1990, Richard Henderson fu il primo ad usare un microscopio elettronico per generare immagini 3D di una proteina a risoluzione atomica.

Abbiamo intervistato Martino Bolognesi*, un biochimico di UniMi che ad oggi è l’unico ricercatore italiano che abbia disponibile nel suo laboratorio uno di questi costosi strumenti.

D: Martino sei l’unico a “possedere” in questo momento l’apparecchio in Italia; come mai? è solo un problema di costi? cosa ti ha spinto in questo settore?

R: La rivoluzione cui stiamo assistendo nel campo della crio-microscopia elettronica (cryo EM) e’ in atto, a livello mondiale, da non piu’ di tre anni. La possibilita’ di analizzare la struttura tridimensionale (3D) di grossi complessi molecolari, dal ribosoma alle proteine di membrana, ad esempio, e raggiungere risoluzioni prossime a quelle della cristallografia, ha promosso la rapida diffusione di strumenti che lavorano sotto condizioni sperimentali compatibili con la natura ‘delicata’ delle molecole biologiche. I grossi centri di ricerca hanno colto il significato e l’opportunità di questo sviluppo, impegnandosi con tempi rapidi in installazioni importanti e distribuite nei paesi piu’ avanzati. Stiamo parlando di investimenti dell’ordine di alcuni milioni di euro per ogni strumento installato. In Italia il messaggio innovativo e’ stato colto dalla comunita’ dei biologi strutturali, che e’ di dimensioni ridotte rispetto ad altri paesi europei, e distribuita presso atenei e centri di ricerca, spesso in laboratori di dimensioni ridotte. L’Università di Milano, assieme alla Fondazione Romeo ed Enrica Invernizzi, ha saputo cogliere il messaggio innovativo presentato dalla comunità scientifica, dando il via ad un’operazione di acquisizione di un microscopio FEI Talos Arctica FEG, 200 kV, a partire dal 2016. Lo strumento e’ stato installato in locali dell’Ateneo a meta’ del 2017.

D: dal classico lavoro del 1984 sono passati 40 anni e più; cosa pensi abbia rallentato l’evoluzione della crio 3D?

R: Il potere risolutivo (capacita’ di distinguere/risolvere due ‘oggetti’ posti ad una certa distanza) di un pennello di elettroni accelerato a 200-300 kV e’ in linea di principio piu’ che sufficiente ad esempio per risolvere due atomi, e sfruttato in altri campi della micoscopia elettronica (es. studio di materiali) a risoluzione atomica. In ambito biologico, le macromolecole di interesse (proteine e acidi nucleici, prevalentemente) non sono in grado di tollerare l’intensita’ del fascio di elettroni che viene usato negli studi di microscopia elettronica applicata ai materiali; le molecole biologiche vengono letteralmente distrutte dalla radiazione. Per questo motivo da diversi anni si usano tecniche di congelamento alle temperature dell’azoto liquido per limitare il danno da radiazione; ma questo non basta. Lo sviluppo degli ultimi anni, chiave per le innovazioni che stiamo osservando, e’ stato quello di rendere disponibili dei detectors di elettroni estremamente sensibili, letteralmente in grado di contare gli elettroni uno per uno. Cio’ permette di esaminare i campioni biologici con dosi minime di elettroni, permettendo l’acqusizione delle immagini di cryo EM entro limiti di irraggiamento compatibili con la natura ‘fragile’ delle macromolecole biologiche. Il vero salto avanti, premiato dal recente Premio Nobel 2017 a Henderson, Frank e Dubochet, e’ stato possibile, quindi, tramite l’abbinamento delle tecniche criogeniche con i nuovi detectors particolarmente efficienti.

220px–Structure-of-Alcohol-Oxidase-from-Pichia-pastoris-by-Cryo-Electron-Microscopy

D: che differenza c’è stata e ci sarà  fra le classiche tecniche a Raggi X e le tecniche crio-3d? il futuro della strutturistica in biochimica passa per il 3d? cosa rimarrà alla strutturistica tradizionale?

R: In ambito biologico, il settore cui la cryo EM si rivolge principalmete, l’approccio alla struttura delle macromolecole associate a processi cellulari e non, va sotto il nome di Biologia Strutturale. Tecniche in uso da tempo in Biologia Strutturale sono la cristallografia a raggi-X, che ad oggi ha contribuito le strutture 3D di circa 130.000 proteine, la risonanza magnetica nucleare (NMR), i metodi di scattering di raggi X in soluzione, e altre tecniche biofisiche che richiedono installazioni meno impegnative. La cryo EM che fino a poco tempo fa contribuiva con strutture 3D a bassa risoluzione (10-20 Angstroem), oggi si affainca ai metodi a piu’ alta risoluzione e li integra in maniera sinergistica. La cristallografia a raggi X permette nei casi favorevoli di raggiungere risoluzioni veramente atomiche (meglio di 2 Angstroem), e presumbilmente rimarra’ la tecnica di elezione per proteine o complessi comunque cristallizabili. L’approccio single particle cryo EM mirera’ ai grossi complessi macromolecolari, spesso dificili da ricostruire in laboratorio o difficilmente cristallizzabili. L’NMR si focalizzera’ su informazioni di natura dinamica, applicate a macromolecole di dimensioni minori di 40-50 kDa. Le tecniche di scattering in soluzione permetteranno visioni dinamiche di macromolecole in soluzione e a bassa risoluzione, utili in una serie di contesti diversi. Pertanto, non si parla di rimpiazzare una delle tecniche maturate da tempo, quanto di affrontare le grandi domande della biologia in maniera integrata, mettendo in sinergia le informazioni complementari che le diverse tecniche ci forniscono. Non c’e’ dubbio che l’immediatezza delle indagini cryo EM, la potenza risolutiva raggiunta, e qualche ulteriore progresso nell’hardware, spianeranno la strada ad una loro ampia diffusione.

D: quali sono le tue attività di ricerca attuali e come pensi che la crio-3D possa in futuro contribuire alla biochimica e ad altre discipline, per esempio alla scienza dei materiali? vedi altri settori di uso?

R: Limitero’ la mia risposta al campo biologico, in quanto applicazioni in altri campi sono troppo numerose per poter essere discusse qui (es. scienza dei materiali, nelle sue innumerevoli sfaccettature). Per quanto detto sopra, vari campi della biologia cellulare beneficeranno degli approcci cryo EM. In primo luogo, poter accedere in maniera relativamente diretta alle strutture 3D di grossi complessi molecolari della cellula e alla struttura delle proteine di membrana fornira’ informazioni impagabili sui loro meccanismi di azione. Oltre al beneficio che questo comportera’ per la scienza di base, comprendere i meccanismi di azione di un sistema macromolecolare significa capire come regolarne l’attivita’ in vivo. In altre parole, significa disporre delle basi razionali per la progettazione di farmaci di nuova generazione, diretti verso bersagli molecolari che fino ad oggi potevano essere raggiunti solo per caso, o dopo lunghi processi di ‘trial and error’. Questo ritengo sia (e sara’) il principale campo di applicazione degli studi di cryo EM su macromolecole biologiche, non sottovalutando comunque il significato del valore scientifico di base da quello applicativo. Infine, tecniche di cryo EM troveranno sempre maggiore applicazione a studi di tomografia elettronica applicati alla cellula intera, consentendo quindi di osservare i componenti citoplasmatici e nucleari nel loro ambiente naturale, mentre sono in piena attivita’.

Per approfondire:

  1. Calloway 172 | NATURE | VOL 525 | 10 SEPTEMBER 2015

2. Adrian e Dubochet Nature vol. 308 p. 32 (1984)

********************************************

*Martino Bolognesi (Laurea in Chimica a Pavia) ha lavorato presso l’University of Oregon, Institute of Molecular Biology, e presso il Max Planck Institut fur Biochemie, Martinsried (Prof. R. Huber, premio Nobel nel 1988). Dal 1991 e’ Professore Ordinario di Chimica Biologica, presso l’Universita’ di Milano, dove a partire dal 2005 ha installato un nuovo gruppo di ricerca. Bolognesi ha studiato la struttura tridimensionale delle proteine tramite diffrazione di raggi ‐ X, con piu’di 460 pubblicazioni su riviste internazionali. Oggetti principali della ricerca sono le strutture ed i meccanismi di azione di proteine e di enzimi, i cui risultati sono presenti in piu’ di 240 deposizioni presso il Protein Data Bank. Il Prof. Bolognesi e’ stato uno dei fondatori della biologia strutturale a raggi ‐ X in Italia.

Note sull’Antropocene.1.Le origini.

Claudio Della Volpe

Il nostro blog ha un sottotitolo che contiene la parola Antropocene:

Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.

In realtà una definizione formale e condivisa dell’Antropocene non esiste ancora ma ci si sta lavorando e in questo post vorrei appunto raccontare a chi non la conosce una breve storia di questo concetto, di questo meme, che è destinato secondo me e secondo tutti noi del blog ad un ruolo culturale crescente.

Una occasione per approfondire potrebbe essere la lettura di un libro di recente tradotto in italiano e che tratta proprio di questi temi; mi riferisco a Jason W. Moore: Antropocene o Capitalocene? Scenari di ecologia-mondo nell’era della crisi planetaria, Ombre Corte, 2017

Il termine è stato inventato dal microbiologo Eugene Stoermer professore di microbiologia all’Università del Michigan; grande esperto di diatomee egli usò questo termine per indicare, fin dai primi anni Ottanta del XX secolo, l’impatto dell’uomo sul pianeta.

Fu solo nel 2000 che il premio Nobel per la chimica Paul Crutzen (lo aveva vinto con Molina e Rowland per la scoperta del buco dell’ozono e dei meccanismi connessi) popolarizzò il termine in un articolo scritto a quattro mani (1).

L’idea non era nuovissima; era stata intravista fra i primi dal geologo italiano abate Antonio Stoppani, una delle menti più fini della nostra cultura nazionale, patriota e rivoluzionario, zio di Maria Montessori; che inventò il termine di Era antropozoica. Stoppani è un personaggio di cui sicuramente avete visto il ritratto o usato un’espressione; eh si, perchè egli scrisse fra gli altri un testo dal titolo, pensate un pò, “Il bel paese”. Il titolo del libro era a sua volta preso in prestito da Petrarca:antropocene12

Questo titolo fu preso a prestito insieme con il ritratto di Stoppani nel 1906 dalla Galbani per il suo famoso prodotto; e dunque difficile che non lo conosciate. Come il vecchio dei formaggini.

Di meno come intellettuale. Ma per fortuna nostra lo conoscono all’estero; tanto è vero che Crutzen e Stoermer citano una sua frase che cade qui a fagiolo:

“[l’attività umana] è una nuova forza tellurica che in potenza e universalità può essere paragonata alle maggiori forze della terra”, scritta nel 1873 (3). Vorrei farla leggere a certi colleghi che so io e che la negano ancora oggi, dopo oltre 130 anni.

antropocene11

Lo riconoscete? Era su parecchi dei formaggini che ci siamo sbafati da fanciulli.

SE vi sembra incredibile che un comunistaccio come me debba citare come gloria nazionale un abatino, pensate che lo spessore delle persone non dipende dalle loro idee religiose. E questa citazione di Crutzen e Stoermer ne è la conferma. Perchè vedete Stoppani partecipò alle 5 giornate di Milano e costruì ad uso dei combattenti dei piccoli palloni aerostatici per mandare messaggi della rivolta che superassero le mura senza essere colpiti dagli austriaci, aiutato dal tipografo Vincenzo Guglielmini. Più tardi scrisse un testo “Gli intransigenti” contro la resistenza della chiesa cattolica ai nuovi fermenti politici e sociali. Un abate “rosso” si direbbe oggi (ma non per i capelli come si diceva di Vivaldi). Un teologo della liberazione. E anche uno scienziato a tutto tondo.

Ma dato che nemo propheta in patria il testo da cui è presa la frase, cioè il suo Corso di Geologia (scritto da professore universitario a Milano) è sostanzialmente introvabile sulla rete come pdf; fortunatamente viene citato sempre da una rivista straniera, in inglese (3).

Diffidate da chi scrive che la frase si trova ne “Il bel paese”, non si è guardato le carte e mi ha fatto perdere un pomeriggio per capirci qualcosa.

Torniamo al nostro argomento principale.

L’articolo seminale di Crutzen e Stoermer cita molti altri autori che hanno preparato il terreno al meme, per esempio Vernadskij e Teillard de Chardin che inventarono l’idea della noosfera, cioè della crescente importanza della scienza e della tecnologia nel forgiare il futuro della biosfera terrestre. (4)

In quell’articolo i due autori indicano i motivi per i quali considerano giustificato definire una nuova era geologica e che a distanza di soli 17 anni noi ritroviamo potenziati ed aggiornati (l’elenco che segue è stato aggiornato da me):

-durante gli ultimi 3 secoli la popolazione umana è cresciuta più di dieci volte ad oltre 7.5 miliardi di persone, con una crescita della popolazione di animali asserviti tale per cui la biomassa totale degli uomini e dei loro animali rappresenta il 97% della massa dei vertebrati terrestri (tutti i grandi animali selvatici sono solo il 3%!!)

– per effetto delle azioni umane la velocità di estinzione delle specie nelle foreste tropicali è cresciuta di un fattore stimato da 1000 a 10.000 volte;

– durante gli ultimi 100 anni la popolazione urbanizzata è cresciuta di più di 10 volte

-dal 30 al 50% della superficie terrestre è stata trasformata per opera dell’uomo (esaurimento del suolo) e l’uomo è il principale produttore di materiali in forma di polveri e granuli (più della erosione naturale);

– in poche generazioni l’umanità si avvia all’esaurimento dei combustibili fossili prodotti in quasi 400 milioni di anni.

– il rilascio di zolfo sotto forma di biossido a causa della combustione di tali combustibili è almeno due volte la somma annua di tutte le emissioni naturali di zolfo che avvengono principalmente come dimetilsolfuro oceanico;

– l’azoto fissato sinteticamente, principalmente dalla reazione di Born-Haber ed usato come fertilizzante agricolo (e come componente degli esplosivi) è maggiore della quota fissata da tutti gli ecosistemi terrestri; il rilascio di NO nell’atmosfera da combustioni è maggiore dell’output naturale dando origine alla formazione di ozono fotochimico (smog) in molte regioni del pianeta

– l’uomo estrae una quantità di fosforo multipla di quella estratta naturalmente per erosione (phosphate weathering); come conseguenza di questa situazione sia il ciclo delll’azoto che quello del fosforo sono totalmente alterati rispetto alla situazione naturale;

– l’uomo intercetta il 10% di tutta l’acqua che cade sul pianeta, questa quota rappresenta però più di metà dell’acqua potabile accessibile; la restituisce spesso spostandola da fonti geologiche esauribili e in molti casi profondamente inquinata;

– la combustione dei fossili e l’agricoltura basata sui fertilizzanti sintetici hanno accresciuto il flusso di alcuni gas serra verso l’atmosfera e l’oceano: come conseguenza la concentrazione di tali gas è aumentata negli ultimi 3 secoli di oltre il 30% per la CO2 e del 100% per il metano; il conseguente aumento di temperatura media superficiale oceano-terra è misurato al momento in poco meno di 1 grado centigrado; il pH oceanico si è ridotto di circa 0.2 unità e mette a rischio la sopravvivenza di alcune specie.

– la criosfera polare e continentale si sta riducendo a velocità enorme; si prevede che entro pochi decenni i ghiacci del Polo Nord scomparirano e quelli dell’Antartide e della Groenlandia scompariranno entro qualche secolo, con la conseguenza di innalzare il livello dei mari di alcuni metri.

– inoltre l’umanità ha immesso in circolo alcune sostanze inquinanti profondamente tossiche come mercurio e cadmio estraendole dai loro depositi geologici e altre sintetiche, apparentemente stabili chimicamente come i clorofluorocarburi o la “sporca dozzina”; ma in tutti i casi queste molecole alogenate sono in realtà instabili sul lungo periodo e hanno danneggiato significativamente lo strato di ozono stratosferico e si sono accumulate nei tessuti di parecchie specie viventi con danni ancora non precisamente valutabili; nonostante gli accordi internazionali in vigore per controllare tale inquinamento la situazione non è ancora sotto controllo; si sospettano azioni che simulano effetti ormonali in molte altre sostanze usate comunemente (bisfenolo-A e alcuni tensioattivi) e si ipotizza di attribuire a tale inquinamento la riduzione della fertilità maschile stimabile in alcuni casi ad oltre la metà dei valori naturali;

– le zone costiere sono state danneggiate sia dall’arricchimento in fosforo e azoto con la formazione di zone anossiche, dead zones, in varie parti dell’oceano e dei mari interni come il Mediterraneo, sia con la scomparsa del 50% delle mangrovie;

– la pesca industrializzata rimuove una percentuale crescente della produzione primaria dell’oceano valutabile in oltre un terzo;

– le attività nucleari umane (belliche e non) hanno inquinato irreversibilmente con isotopi radioattivi anche sintetici alcune zone del pianeta e tale presenza è comunque misurabile in ogni zona del mondo.

PB_FIG33_media_11jan2015_web2

Il lavoro di Crutzen e Stoermer conclude:

Considering these and many other major and still growing impacts of human activities on earth and atmosphere, and at all, including global, scales, it seems to us more than appropriate to emphasize the central role of mankind in geology and ecology by proposing to use the term “anthropocene” for the current geological epoch. The impacts of current human activities will continue over long periods. According to a study by Berger and Loutre, because of the anthropogenic emissions of CO2, climate may depart significantly from natural behaviour over the next 50,000 years.

“Si tratta di una proposta che è stata presa in seria considerazione. La reazione del mondo umanistico è stata entusiastica con la nascita di ben tre riviste internazionali dedicate al tema: Anthropocene, The Anthropocene Review ed Elementa.

Nel campo delle scienze naturali sia la International Commission on Stratigraphy che la International Union of Geological Sciences hanno finora rifiutato di riconoscere il termine come categoria valida per la suddivisione del tempo geologico. Dall’altro, nell’agosto 2016 il Working Group on the Anthropocene – dopo sette anni di lavori – ha ufficialmente raccomandato un tale riconoscimento ai suddetti organi burocratici (con voto ad ampia maggioranza ma senza unanimità). In buona sostanza gli scienziati del gruppo presieduto da Jan Zalasiewicz propongono di considerare l’Antropocene come una serie, l’equivalente stratigrafico di un’epoca, tanto quanto l’Olocene o il Pleistocene che l’hanno preceduto. Il golden spike [chiodo d’oro] individuato come punto originario sarebbe da collocarsi nella cosiddetta grande accelerazione, cioè a partire dagli ultimi sussulti della seconda guerra mondiale, quando le bombe atomiche vennero sganciate e la dipendenza da carbone e petrolio contagiò l’intero pianeta (sebbene con intensità molto variabili).”

(Il sintomo-Antropocene di Emanuele Leonardi e Alessandro Barbero, Effimera, 9 ottobre 2017)

Nella seconda parte del post racconteremo più in dettaglio quali sono i possibili confini temporali dell’Antropocene, una questione per la quale in realtà esistono almeno 4 differenti ipotesi e proposte.

(continua)

Riferimenti.

(1)Crutzen, P. J. & Stoermer, E. F. The Anthropocene. IGBP Global Change Newsl. 41, 17–18 (2000)

(2)Stoppani, Il bel paese, 1873 –http://www.sba.unifi.it/upload/scienze/img150anniuniti/doc150anniuniti/belpaese.pdf

https://ia600502.us.archive.org/6/items/ilbelpaeseconver00stopuoft/ilbelpaeseconver00stopuoft.pdf

(3)Stoppani Corso di geologia in 3 vol. 1873; la parte che ci interessa è tradotta in inglese qui http://www.geologicnow.com/2_Turpin+Federighi.php; MAKING THE GEOLOGIC NOW RESPONSES TO MATERIAL CONDITIONS OF CONTEMPORARY LIFE edited by Elizabeth Ellsworth e Jamie Kruse trad. di Valeria Federeghi

Riporto qui l’intera frase perchè sia chiaro che Stoppani non rinnega la sua fede, ma la fonde con i fermenti dell’era di rivoluzione economica, sociale e politica che vive (la lascio in inglese come scorno, per far risaltare l’abbandono che abbiamo della nostra storia migliore):

“…when, in the bosom of the aged fabric of ancient pagan societies, the Christian ferment was introduced, the new element par excellence, that substituted ancient slavery with freedom, darkness with light, fall and degeneration with rebirth and true progress of humanity.

It is in this sense, precisely, that I do not hesitate in proclaiming the Anthropozoic era. The creation of man constitutes the introduction into nature of a new element with a strength by no means known to ancient worlds. And, mind this, that I am talking about physical worlds, since geology is the history of the planet and not, indeed, of intellect and morality. But the new being installed on the old planet, the new being that not only, like the ancient inhabitants of the globe, unites the inorganic and the organic world, but with a new and quite mysterious marriage unites physical nature to intellectual principle; this creature, absolutely new in itself, is, to the physical world, a new element, a new telluric force that for its strength and universality does not pale in the face of the greatest forces of the globe.”

(4)Personalmente conosco almeno un filosofo dell’800 (fra il 1850 e il 1860) che scrisse a proposito di ciò nella critica alla società capitalistica che vedeva nascere; lascio a voi scoprire chi era costui, che pensava alla scienza applicata alla produzione e al lavoro sociale nella forma di divisione del lavoro come la base materiale della trasformazione della biosfera; egli vedeva già allora il puro tempo di lavoro che andava scomparendo mano a mano come fonte principale della ricchezza sostituito da questo nuovo e più potente paradigma sociale che avrebbe inglobato ogni sviluppo (anche legato ai robot, a lui sconosciuti ma inglobabili nel suo “sistema automatico di macchine”). Si tratta di una forza produttiva talmente potente che se non domata e sottoposta alla ragione e al controllo sociale può, con la sua esigenza di sviluppo infinito, distruggere ogni biosfera e giustificare il paradosso di Fermi.

 

Cromorama

Mauro Icardi

Il titolo di questo articolo è lo stesso di un libro uscito nella collana Einaudi “Stile libero extra” a Settembre. L’autore, Riccardo Falcinelli è designer e insegnante. In questi giorni è impegnato nella promozione del suo volume, la cui preparazione, a quanto lui stesso ha raccontato in una delle presentazioni radiofoniche, ha richiesto circa dieci anni. In questo periodo ha   raccolto molti appunti e molta documentazione storica, fino alla pubblicazione del libro. Libro che ci racconta di come la storia dei colori, ha finito per modificare il nostro sguardo. Questo articolo non è una recensione del libro, ma un aggancio ai temi che lo scrittore ha sviluppato nel suo libro tratto dalle presentazioni del libro in radio. ) E in queste presentazioni del libro, Falcinelli parla comunque di chimica e di rivoluzione industriale.

 

E lo spunto parte da una considerazione estremamente interessante.

Prima dello sviluppo dell’industria dei coloranti di sintesi non esisteva la tinta unita. Ma “la rivoluzione della chimica permette di avere qualunque oggetto di qualunque colore”.

L’autore intervistato per la rubrica di radio 3 Fahrenheit pronuncia queste parole riferendosi allo sviluppo dell’industria dei coloranti di sintesi.

Premesso che come lui stesso dichiara, il suo libro non vuole essere un saggio ma un racconto di come il colore abbia cambiato il nostro sguardo, ma anche il nostro immaginario, ecco che il legame con la chimica, o meglio con la storia dell’industria chimica è subito trovato.

Riportandoci alla storia dell’anilina , isolata nel XIX secolo e che August Wilhelm von Hofmann riconoscerà e cui darà il nome nel 1855. E solo un anno dopo, nel 1856 l’avvio dell’industria dei coloranti sintetici grazie all’entusiasmo di William Henry Perkin, che tentando ricavare dal catrame i precursori del chinino, fini per ossidare l’anilina ed ottenere il colore “mauve”. La polvere nera ricavata dall’ossidazione dell’anilina si scioglieva in metanolo dando origine ad un colore porpora molto persistente.

Questi episodi sono appunto uno spartiacque. L’industria dei coloranti avrà un enorme sviluppo. Tingere diventerà meno difficile e meno costoso. Non dimentichiamo che i coloranti naturali non sempre potevano essere utilizzati con facilità. Per esempio in Piemonte nel 1789, dati gli alti costi per la tintura delle divise dei soldati, il Governo si rivolse addirittura all’Accademia delle Scienze.

Fu creata una commissione che lavorò per trovare un sostituto dell’indaco che si otteneva dalle foglie di Indigofera Tintoria, pianta di origine Asiatica. Il sostituto venne trovato nella foglia del guado (Isatis tinctoria) che si poteva reperire anche in Piemonte, essendo molto diffusa nelle Alpi Occidentali e in quelle marittime.

Lo sviluppo dell’industria dei coloranti di sintesi modificherà non solo la tecnologia, ma anche il modo in cui noi oggi percepiamo i colori, secondo Falcinelli. Nel passato normalmente ogni colore o pigmento aveva un solo utilizzo. Ad esempio il colore blu ricavato dalla macinazione del lapislazzuli che è il blu degli affreschi della cappella sistina, e di quella degli Scrovegni, poteva essere utilizzato solo per gli affreschi, e non per esempio per tingere tessuti. La versatilità dei coloranti di sintesi che invece possono essere utilizzati per materiali diversi, hanno reso i colori, o meglio l’idea che ne abbiamo ,come svincolata dall’idea della provenienza da un determinato minerale o pianta. Secondo l’autore oggi abbiamo un’idea dei colori come svincolata dalla provenienza da sostanze reali.

A mio parere questo non credo sia del tutto vero per i chimici. Abituati come siamo a pensare in termini di strutture, di sostanze, a cercare di indagare la composizione della materia.

Le tesi di Falcinelli si possono ascoltare in questa conversazione nel programma Fahrenheit.

http://www.radio3.rai.it/dl/portaleRadio/media/ContentItem-97d47773-8f3a-4253-89a7-200f800be993.html

Ci sono moltissimi interessanti spunti. E si parla molto spesso di chimica. D’altronde il legame tra chimica e colori esiste praticamente da sempre. Ognuno di noi ne ha fatto pratica in Laboratorio per esempio nelle titolazioni con gli indicatori, nella colorimetria E quindi Cromorama può trovare posto accanto a libri di divulgazione chimica. Rappresentandone una visione diversa. E decisamente affascinante.

 

Tutto ciò che è bene sapere sul latte e derivati del latte

Marino Melissano

Il latte è un alimento bilanciato che contribuisce a soddisfare il fabbisogno giornaliero di proteine, zuccheri, grassi, oligoelementi e vitamine di ogni persona, in ogni età della vita.

È facile convincersi del fatto che il latte sia uno degli alimenti più completi, grazie alla sua composizione chimica. Infatti contiene tutti i principi alimentari indispensabili, quali sostanze proteiche, carboidrati, vitamine, enzimi e sali minerali, tra cui il calcio (126 mg/100 g di latte), il magnesio (13 mg/100 g) e il fosforo (100 mg/100 g). Da notare che il rapporto calcio/fosforo è superiore a uno: questa particolarità permette la calcificazione delle ossa anche in assenza di vitamina D.

    

Tra le vitamine spiccano le presenze dell’acido pantotenico, che favorisce la produzione ormonale; la vitamina B2 indispensabile all’accrescimento delle cellule; la A, importante per la pelle e per la vista; la K, antiemorragica; oltre alle note vitamine C, D, E e B6.

Le proteine del latte sono di alto valore biologico; la più importante di queste, il caseinogeno, è ricca di fosforo e ha la proprietà di coagulare, scindendosi in paracaseina, ad opera di speciali enzimi, quali la chimasi. Questa coagulazione è sfruttata nella preparazione dei formaggi.

L’unico zucchero del latte è il lattosio; essendo la sua molecola complessa, essa non viene digerita tal quale, ma viene prima degradata ad opera di un enzima specifico, la lattasi, che manca nelle persone disabituate al latte, la qual cosa spiega l’azione lassativa che il latte esplica in alcuni individui, in quanto il lattosio non scisso si comporta come un purgante salino. Però è sufficiente ricominciare a berne quantità gradualmente crescenti perché il proprio organismo riproduca la lattasi.

Per i sali di calcio e per la presenza di un amminoacido essenziale, il triptofano, il latte è un ottimo regolatore nervoso e, secondo recenti ricerche, anche un buon regolatore del sonno. Sembra, ancora, che prevenga la osteoporosi, cioè la decalcificazione delle ossa che spesso si verifica in età avanzata, e l’ulcera gastrica.

Un’assunzione dì mezzo litro di latte intero al giorno assicurerebbe: 17 g di lipidi; 19 g di glucidi; 16 g di protidi; 3,5 g di sali minerali, oltre una corretta quantità di vitamine; il tutto per un valore energetico di 289 kcal. Lo stesso mezzo litro di latte apporta, quindi, tante proteine quante sono contenute in 100 g di carne di manzo o in tre uova.

In commercio esistono diversi tipi di latte: pastorizzato intero, (contenente non meno del 3% di grasso); parzialmente scremato (contenente non meno dell’1,5% di grasso) e scremato (contenente meno dello 0,3 % di grasso); omogeneizzato; sterilizzato; in polvere e condensato.

La pastorizzazione (stassanizzazione) consiste in un trattamento a 75 °C per 15 secondi; si distruggono così tutti i germi patogeni, senza significative perdite neanche delle vitamine più termosensibili.

In base alla legge 3 maggio 1989, n. 169 e al decreto del Ministero della Attività produttive 27 giugno 2002, si può definire latte pastorizzato quel latte, sottoposto a pastorizzazione, che, al consumo, presenti:

–                 prova della fosfatasi alcalina negativa: è questo un enzima contenuto nel latte in misura quasi sempre costante; la sua attività è pressoché annullata quando il latte viene riscaldato a circa 70°C; il controllo è quindi inteso a stabilire se la pastorizzazione sia stata svolta regolarmente o se siano state aggiunte al latte pastorizzato piccole quantità di latte crudo;

  • un contenuto in sieroproteine solubili, non denaturate, non inferiori all’11% delle proteine totali. Il tenore di sieroproteine solubili decresce ogni qualvolta il latte subisce un trattamento termico. Non di rado il latte trattato dopo un certo tempo dalla mungitura viene pastorizzato più volte: in questo caso non sarà possibile denominarlo fresco. Infatti, il latte pastorizzato si può fregiare della denominazione di latte fresco pastorizzato se, pervenuto crudo allo stabilimento di confezionamento e qui sottoposto a un solo trattamento termico entro 48 ore dalla mungitura, presenti al consumo:
  • prova della fosfatasi alcalina negativa;
  • prova della perossidasi positiva: è questo un altro enzima sempre presente nel latte crudo, che è distrutto ad una temperatura di almeno 80 °C, anche per pochi secondi;
  • un contenuto di sieroproteine solubili non denaturate non inferiori al 14% delle proteine totali. Se questa percentuale sale almeno al 15,5% il latte fresco pastorizzato può essere definito latte fresco pastorizzato di alta qualità.

(Marino Melissano – Alimentologia – Youcanprint – www.youcanprint.it)

Un’altra tecnica di conservazione del latte è la microfiltrazione: prima di subire il trattamento termico, il latte viene fatto passare, alla temperatura di 50°C, attraverso una membrana che possiede fori microscopici, capace di trattenere la maggior parte dei batteri naturalmente presenti ed eventualmente particelle estranee. In questa fase si separa anche il grasso, poiché le sue particelle non passano attraverso i fori.
Il grasso e la parte rimanente del latte vengono poi pastorizzati separatamente: il grasso, insieme ai batteri, viene pastorizzato a 85°C, una temperatura superiore alla normale pastorizzazione, che elimina quindi una quantità superiore di microrganismi, mentre il filtrato viene pastorizzato a 72 °C;

il grasso viene poi miscelato nuovamente al latte, omogeneizzato, ed è così pronto per la commercializzazione.
In questo modo il latte possiede una carica batterica inferiore rispetto al latte pastorizzato e può quindi conservare più a lungo le sue caratteristiche naturali.

(www.salutarmente.it).

A livello qualitativo e nutritivo, ha le stesse caratteristiche del latte fresco.

Mentre per il latte pastorizzato la data di scadenza è determinata dal produttore, il decreto 24 luglio 2003 del Ministero delle Politiche Agricole e Forestali stabilisce che: la data di scadenza del “latte fresco pastorizzato” e del “latte fresco pastorizzato di alta qualità”, così come definiti dall’art. 4 della legge 3 maggio 1989, n. 169, è determinata nel sesto giorno successivo a quello del trattamento termico.
La data di scadenza del “latte microfiltrato fresco pastorizzato” è determinata nel decimo giorno successivo a quello del trattamento termico.

In base al decreto-legge 24 giugno 2004, n. 157, coordinato con la legge di conversione 3 agosto 2004, n. 204, il latte ottenuto con questo trattamento innovativo di conservazione può essere indicato in etichetta solo con la denominazione di latte microfiltrato: sparisce, perciò, il “fresco pastorizzato”.

Questo ha determinato un pasticcio sulla scadenza del microfiltrato, perché il decreto del 2003 prevedeva una scadenza di 10gg, ma riferita al “microfiltrato fresco”; caduto il termine “fresco” sembra che la scadenza sia stata liberalizzata, al pari di quella del latte UHT; quindi, si trovano in commercio latti microfiltrati con scadenza diverse. (www.issa-europe.eu).

Presso l’esercizio di vendita la temperatura di conservazione del latte, sottoposto a trattamento di pastorizzazione, deve essere compresa tra 1 e 6 °C.

Per una conservazione maggiore del latte si ricorre a metodi di conservazione più spinti, come la sterilizzazione, che può essere una sterilizzazione UHT semplice, consistente in un trattamento a 135-140 °C per 2-4 secondi. Un metodo recente di sterilizzazione UHT è quello della “uperizzazione”: esso consiste nella iniezione di vapore vivo al latte pre-riscaldato (si raggiunge così una temperatura di 135-145 °C) cui segue il passaggio in camera a decompressione (il vuoto che si applica fa abbassare la temperatura e fa allontanare il vapore che viene riceduto all’impianto).

Una sterilizzazione ancora più spinta si attua con un preriscaldamento a temperatura ultra-alta (Ultra High Temperature o UHT) per pochi secondi e successivo trattamento in bottiglia a 110-120 °C per 12-20 minuti.

Con la pastorizzazione le perdite sono in genere modeste: le proteine non subiscono praticamente deterioramento, la vitamina C si perde anche per azione della luce ed il processo è sensibilizzato dalla presenza di riboflavina; la vitamina B12, pur essendo termostabile, è influenzata tuttavia negativamente dalla vitamina C in presenza di ossigeno. La sterilizzazione in bottiglia arreca danni maggiori anche alle proteine, a differenza della sterilizzazione UHT.

Definiamo il latte sottoposto a trattamento di sterilizzazione:

latte sterilizzato a lunga conservazione”, quando ha subìto un trattamento termico finale di sterilizzazione in contenitore sigillato. Esso deve riportare sul contenitore il termine di conservazione, indicato con la menzione “da consumarsi preferibilmente entro”, seguito dalla data riferita al giorno, al mese e all’anno, con data di riferimento di 180 giorni dal confezionamento;

latte UHT a lunga conservazione”, trattato a temperatura molto alta, ha subìto un trattamento termico di sterilizzazione in flusso continuo, seguito dal confezionamento asettico che ne consente una conservazione prolungata nel tempo. Il termine di conservazione va indicato sul contenitore con la medesima menzione prevista alla lettera precedente, con data di riferimento di 90 giorni dal confezionamento.
(da “Marino Melissano”- Alimentologia – Ed. Youcanprint – www.youcanprint.it)

Grazie al DM 09.12.2016, entrato in vigore il 20.04.2017, oggi, in Italia, è obbligatoria in etichetta l’indicazione dell’origine della materia prima dei prodotti lattiero caseari, come ad esempio: il latte UHT, il burro, lo yogurt, la mozzarella, i formaggi e i latticini.
L’obbligo si applica al latte vaccino, ovicaprino, bufalino e di altra origine animale.

L’origine del latte e dei derivati dovrà essere indicata in etichetta in modo chiaro, visibile e facilmente leggibile.

Queste le diciture utilizzate:
a) “PAESE DI MUNGITURA: nome del Paese nel quale è stato munto il latte”;
b) “PAESE DI CONDIZIONAMENTO O TRASFORMAZIONE: nome del Paese in cui il prodotto è stato condizionato o trasformato il latte”.
Qualora il latte o il latte utilizzato come ingrediente nei prodotti lattiero-caseari sia stato munto, confezionato e trasformato nello stesso Paese, si può utilizzare una sola dicitura, ad esempio: “ORIGINE DEL LATTE: ITALIA“.
Se le fasi di confezionamento e trasformazione avvengono nel territorio di più Paesi, diversi dall’Italia, possono essere utilizzate, a seconda della provenienza, le seguenti diciture:
latte di Paesi UE: se la mungitura avviene in uno o più Paesi europei;
latte condizionato o trasformato in Paesi UE: se queste fasi avvengono in uno o più Paesi europei.
Se le operazioni avvengono al di fuori dell’Unione europea, verrà usata la dicitura “Paesi non UE”. 
Sono esclusi solo i prodotti Dop e Igp che hanno già disciplinari relativi anche all’origine e il latte fresco già tracciato.

Attenzione, però: le norme suddette non si applicano ai prodotti fabbricati o commercializzati in altri Stati membri UE o in Paesi extra-UE: per esempio, in Germania e in Austria non vige il medesimo obbligo italiano sull’origine; quindi, se compro in Italia latte o prodotti lattiero-caseari austriaci o tedeschi, posso anche non trovare in etichetta alcuna indicazione del Paese di mungitura e del Paese di condizionamento o trasformazione.

Un discorso a parte merita il latte crudo, che, secondo il Regolamento CE n. 853/2004, è il latte che non è stato riscaldato a più di 40°C e non è stato sottoposto a nessun trattamento avente un effetto equivalente, prima di essere consumato. Al controllo, il latte vaccino crudo non deve contenere, a 30°C, più di 300.000 germi/ml e 400.000 cellule somatiche/ml. Se è destinato alla produzione di derivati mediante processi che non comportano trattamenti termici, il numero di germi non può essere superiore a 500.000/ml.

Questo prodotto si è di fatto reso disponibile al consumatore che lo acquista al di fuori dell’azienda agricola, a partire dalla metà degli anni 2000, quando si sono diffuse sull’intero territorio nazionale apposite macchine erogatrici. L’obbligo di riportare nell’etichettatura del latte crudo la dicitura “da consumarsi previa bollitura”, introdotto a partire dal 2008 con una Ordinanza del Ministero della salute e previsto dal Decreto legge n. 158 del 13/09/2012, ha consentito di inserire un principio di garanzia a tutela della salute del consumatore. (http://www.salute.gov.it/portale/news/p3_2_3_1_1.jsp?menu=dossier&p=dadossier&id=10)

L’etichetta

L’etichettatura del latte crudo deve contenere le diciture:

  • “Latte crudo”, per il latte crudo destinato al consumo umano;
  • “Fabbricato con latte crudo”, per i prodotti lattiero caseari derivati da latte crudo.

Il latte crudo può essere venduto attraverso macchine erogatrici, che, però, devono contenere la dicitura, sul frontale della macchina, in rosso, “prodotto da consumarsi dopo bollitura”.

La data di scadenza non può superare i 3 gg da quella della messa a disposizione del consumatore. (ordinanza 10.12.2008)

E’ vietata la somministrazione di latte crudo nell’ambito della ristorazione collettiva.

E’ vietata la produzione di gelati prodotti con latte crudo. (ordinanza 2.12.2010).

La produzione di formaggi a latte crudo viene consentita, nel rispetto di alcuni requisiti minimi aziendali e igienici. Tra questi:

  • Il latte deve provenire da animali che non presentano sintomi di malattie infettive trasmissibili all’uomo attraverso il latte (in particolare provenire da allevamenti ufficialmente indenni da brucellosi e tubercolosi), in buono stato sanitario e ai quali non siano state somministrate sostanze o prodotti non autorizzati oppure senza il rispetto dei termini minimi di sospensione.
  • Se il latte non è lavorato entro due ore dalla mungitura, deve essere posto immediatamente in un luogo pulito e deve essere raffreddato a una temperatura non superiore a 8 °C (in caso di raccolta giornaliera) e non superiore a 6 °C (qualora la raccolta non sia effettuata giornalmente).
  • Le strutture devono essere pulite, sottoposte a manutenzione, e tenute in buone condizioni.

principali batteri patogeni che interessano il latte crudo sono:

Campylobacter jejuni 
Escherichia coli (E. coli O157:H7)
Listeria monocytogenes 
Salmonella spp.

L’Escherichia coli è naturalmente presente nell’intestino umano e in quello degli animali a sangue caldo. I fattori che aumentano il rischio per chi beve latte crudo stanno nel contatto tra il latte e la materia fecale di animali o persone portatori di questo batterio. L’impatto sull’uomo dell’Escherichia coli 0157:H7 è minimo, ma ha molta risonanza a causa dei potenziali effetti e malattie che provoca (come la sindrome emolitico-uremica o SEU, causata da una tossina, detta vero-citotossina o Shiga-tossina o Vtec, trasmessa per via alimentare o orofecale), talvolta molto serie e/o mortali. Si stima che dal 1999 al 2010 solo 5 su 63.153 ammalati all’anno a causa dell’Escherichia coli siano stati contaminati dopo aver bevuto latte, ma questa patologia sta, purtroppo, diventando attuale, visti i casi registrati negli ultimi mesi. Infatti, in Puglia, nella zona di Altamura, a giugno 2017, sono stati segnalati 3 casi di bambini affetti da SEU e la Regione, che ha allestito un tavolo tecnico per analizzare la situazione, ha esordito con una nota “la situazione non rappresenta un’emergenza e sarebbe da riferire ad una contaminazione derivata dall’uso non corretto di latte crudo, che non può essere assolutamente utilizzato per l’alimentazione umana se non previo trattamento termico”. (www.wired.it)

Altro batterio, forse il più temuto, la Listeria. È importante sapere che solo alcune sottoclassi di questo batterio causano effettivamente la Listeriosi, la quale può essere mortale solo se ingerita in grandi quantità e solo in casi particolarmente a rischio come neonati, donne incinte, anziani e persone con deficit immunitario in genere. Nella maggior parte dei casi si prende una gastroenterite.

La Listeria vive bene in ambienti freschi e umidi e si trova, in quantità variabili, letteralmente ovunque, nelle nostre case e nel nostro corpo. Ingeriamo piccole quantità di Listeria ogni giorno senza che ci capiti nulla, e lo stesso accade quando beviamo il latte crudo. Ci sono stati pochissimi casi di contaminazione da Listeria che hanno visto coinvolti latte e formaggi a latte crudo, specialmente se stagionati per lungo tempo.

Passando dal latte al formaggio, è necessario garantire, con analisi periodiche:
– l’assenza di Listeria monocytogenes
– l’assenza di Salmonella
– l’assenza di Enterotossina Stafilococcica
– il controllo della presenza di germi indicatori di carenze igieniche (Escherichia coli e Stafilococchi coagulasi positivi).

L’etichetta che accompagna i prodotti fabbricati con latte crudo deve indicare chiaramente i termini «fabbricato con latte crudo».

Latte art

In conclusione, l’uso di latte crudo da parte dei caseifici non è vietato (a differenza dei produttori di gelati), ma le prescrizioni a cui sono soggetti sono tante e, a volte, disattese. Anche l’EFSA, con un documento del 2015, ha comunicato un rischio per i consumatori.

Pertanto, consigliamo di non somministrare, soprattutto ai soggetti più deboli, alimenti prodotti a partire da latte crudo.

L’ora di chimica. 5° edizione del festival dell’innovazione e della scienza a Settimo Torinese.

Mauro Icardi

Con questo accattivante titolo, la città di Settimo Torinese si appresta a dare il via a questa manifestazione, che negli anni passati si è occupata di nuove tecnologie, di spazio ed esplorazione dell’universo, di luce e di robotica. Ma che per l’edizione 2017 ha deciso di dedicare una settimana alla chimica (dal 15 al 22 Ottobre) e a come essa entri giornalmente nella nostra vita quotidiana.

Il tema non è nuovo, ma è particolarmente stimolante che venga affrontato nella città dove ha lavorato Primo Levi per 23 anni. Settimo Torinese ha un legame piuttosto forte con la chimica. In passato nel territorio della città non vi è stata solo la Siva, la fabbrica di vernici di cui Levi fu direttore tecnico e dove lavorò per 23 anni, ma anche la Paramatti che produceva anch’essa vernici, le fabbriche di pneumatici della Ceat e della Pirelli. E poi i centodieci anni di storia storia della Schiapparelli Farmaceutici, fondata nel 1907 e che cambierà varie volte nome e ragione sociale (Farmitalia Carlo Erba, Antibioticos) fino ad essere oggi la Olon Spa.

Proprio in parte dell’area ex Paramatti è sorta la nuova biblioteca multimediale Archimede che è stata inaugurata nel 2010.

Ma i luoghi di questo festival sono diversi, e coinvolgeranno anche Torino ed altri luoghi del suo hinterland, come Moncalieri e Grugliasco.

Il programma di incontri e iniziative e ampio e diversificato. Si parlerà di chimica e del suo ruolo in vari settori. Alimentazione, produzione industriale, elettronica. Questo il programma del festival:

http://www.festivaldellinnovazione.settimo-torinese.it/wp-content/uploads/2017/09/INNOV-2017-Programma.pdf

Si possono soddisfare le più diverse curiosità. Dalla chimica degli alimenti e delle fermentazioni parlando di cioccolato, vermut e spumante e infine il caffè. Che abbiamo anche noi trattato su questo blog, parlando di vino e birra.

La chimica ancestrale che diventa la chimica di oggi, quella che molti non pensano sia così vicina a loro. Basta pensare ai nostri recettori dell’olfatto che percepiscono qualità e identità di molecole volatili e gas presenti nell’aria.

Non mancherà il tema dell’acqua, delle nuove tecnologie per preservarla. Poi la polvere cosmica, l’elettronica.

Degna di nota la mostra dedicata al Primo Levi scrittore di fantascienza. Interessante il collegamento dei temi della fantascienza di Levi con quelli della fantascienza del novecento. Lo scrittore poliedrico e centauro che immaginava le odierne stampanti 3d, quando parlava del duplicatore Mimete. Ingiustamente ritenuti minori i suoi due libri “Storie naturali” e “Vizio di forma”. Avevo auspicato che venisse riscoperto il Levi fantascientifico, e non posso che essere contento di questa scelta.

Molti i laboratori e gli esperimenti scientifici dedicati ai ragazzi della scuole. Non mancheranno gli esperimenti di chimica spettacolare, quella che in molti apprezzano e che riporta alla mente gli spettacoli scientifici che si tenevano nel 700.

Basta osservare questo programma per rendersi conto delle possibilità di didattiche e divulgative, che spazieranno dalla chimica fisica, alla leggi dei gas. Produrre CO2 decomponendo bicarbonato, o studiare i fluidi utilizzando succhi di frutta e di verdura.

Lo scorso anno furono circa 35.000 le presenze per il tema della robotica. Il mio augurio è che quest’anno siano altrettante se non di più. Le note di presentazione lo dicono chiaramente. Invitano a scoprire la bellezza, la magia della chimica. Io ovviamente non posso che essere d’accordo.

In quella città ho vissuto. Sono davvero contento che si sia trasformata in un polo culturale, da città dormitorio come veniva considerata fino a qualche anno fa.

E ovviamente ci tornerò. Sono tanti gli spunti che questo festival offre. E d è un invito che doverosamente estendo ai lettori di questo blog.

 

La plastica, un nuovo materiale per i Beni Culturali

Luigi Campanella, già pesidente SCI

Il Museo ha subito negli ultimi 50 anni una profonda trasformazione che lo ha reso da sede di informazione a sede di conoscenza,essendo i due termini ben distinti anche concettualmente.

Su questa base sono nati e si sono imposti all’attenzione culturale nuovi musei, dove la novità ha, a seconda dei casi, riguardato le innovazioni ICT, l’organizzazione della struttura, i contenuti esposti.

In questo ultimo senso un museo nuovo è di certo il PLART di Napoli. Il Plart Napoli è uno spazio polifunzionale, un museo della plastica e centro di ricerca e restauro dei polimeri. Il Plart ospita una delle più ricche collezioni di plastiche storiche, con una esposizione di millecinquecento opere d’arte e design, tra prototipi e pezzi di culto della storia del design.

Tutti gli oggetti esposti sono accomunati dalla doppia anima di oggetto di uso comune e opera d’arte. La collezione del Plart raccoglie accessori, apparecchi elettronici, utensili in celluloide, acrilico, bachelite, fino al più recente PVC. Gli oggetti della collezione del Museo Plart Napoli appartengono tutti all’arco di tempo in cui il design ha dato il meglio di sé, dalla metà dell’Ottocento fino agli anni Sessanta.

Colorata, bianca, nera, duttile o inflessibile. Nelle sue mille varianti, la plastica è senza dubbio il materiale che ha dominato gli artefatti prodotti dall’uomo nell’ultimo secolo. Con i suoi pregi e i suoi difetti, questo materiale si è imposto come supporto per gli oggetti più vari, fino a diventare protagonista di opere d’arte e pezzi unici nella storia della creatività. Dalle Barbie ai lettori mp3, dai telefoni agli utensili della cucina siamo quotidianamente circondati da materiali plastici. Se fino agli anni Settanta si pensava alla plastica come a qualcosa di indistruttibile, oggi il suo tallone d’Achille è ben noto agli esperti di conservazione: la plastica, infatti, non solo non è immortale, ma subisce un processo di decomposizione tra i più insidiosi e difficili da arginare. Proprio per questo – cercare di salvare i “tesori di plastica” e rendersi conto per tempo dei primi segni di cedimento – da un paio d’anni scienziati di tutta Europa sono al lavoro al cosiddetto Popart Project, progetto finanziato dall’Unione Europea per la preservazione degli artefatti in plastica esposti in musei e gallerie. Un tempo si pensava fosse eterna, oggi sono evidenti i primi segni del degrado. Oggetti d’uso quotidiano e capolavori del design, tutti rischiano di andare perduti.

“La degradazione della plastica è una bomba a orologeria”, spiega Yvonne Shashoua, ricercatrice di conservazione al National Museum of Denmark di Copenhagen. In termini molecolari, infatti, la plastica è costituita da polimeri, gruppi di molecole fatte di lunghe catene di carbonio. Nel tempo, i legami chimici che tengono insieme queste catene si rompono man mano che vengono attaccati dall’ossigeno o dai raggi ultravioletti, o semplicemente si indeboliscono per effetto del calore ambientale. La riduzione delle proprietà meccaniche può essere determinata dall’ossidazione e dall’idrolisi attraverso meccanismi che coinvolgono i radicali liberi provenienti dall’ambiente e dalla rottura di legami chimici. Particolarmente sensibile a questo tipo di degrado è il polipropilene.

La resistenza alle aggressioni chimiche delle materie plastiche è in genere buona; il cloruro di polivinile, il PTFE e la sua variante, l’ETFE, il polietilene e il polipropilene risultano particolarmente resistenti all’attacco di acidi e di basi. Tutte le materie plastiche sono però soggette ad invecchiamento, a un processo lento di degradazione per effetto della luce del sole, soprattutto delle radiazioni ultraviolette,

Le conseguenze di questi processi hanno lasciato un segno indelebile su oggetti risalenti al XIX secolo o all’inizio del XX, come le pellicole fatte di celluloide o gli artefatti realizzati in cellulosa acetata. Per questo e altri tipi di plastica la decomposizione è autocatalizzata: quando i legami iniziano a rompersi, rilasciano degli agenti chimici che attaccano le catene stesse dei polimeri. In sostanza, si tratta di un meccanismo autodistruttivo difficile da bloccare, una volta avviato.

Le Materie plastiche sono Materiali polimerici costituiti in genere da macromolecole organiche, caratterizzati dalla possibilità di essere modellati in qualsiasi forma, quando si trovano allo stato plastico; vengono lavorati mediante procedimenti vari, generalmente a caldo. Le unità di base della materie plastiche, cioè i polimeri, possono essere naturali (come la cellulosa, la cera e la gomma naturale), artificiali, cioè costituiti da polimeri naturali modificati (come l’acetato di cellulosa e il cloridrato di caucciù) o sintetici,cioè prodotti mediante reazioni chimiche di sintesi o di addizione (come il nylon, il politene ecc.). I materiali iniziali sono resine sotto forma di granulati, polveri o soluzioni, dai quali si formano le materie plastiche finite. Si basano sulla chimica del carbonio, il quale ha la capacità di formare catene legate in forme diverse. Quando induriscono, le molecole di cui sono costituite le materie plastiche – i monomeri – si uniscono in catene, formando i polimeri, Le materie plastiche sono caratterizzate da un alto rapporto resistenza-densità, un’eccellente proprietà di isolamento termico, elettrico e acustico, e una buona resistenza ad acidi, basi e solventi. Le macromolecole dalle quali sono costituite possono essere lineari, ramificate o reticolate; nei primi due casi esse sono termoplastiche, cioè rammolliscono quando vengono riscaldate, mentre nell’ultimo caso sono termoindurenti, cioè induriscono in seguito a innalzamenti della temperatura.

Le proprietà di un polimero dipendono dal tipo di monomero con cui è stato ottenuto, dalla lunghezza delle macromolecole, dallo loro struttura e dal modo con cui si dispongono nello spazio le diverse macromolecole. I materiali amorfi hanno macromolecole disposte in modo disordinato, quelli cristallini presentano configurazioni spaziali ordinate.

Una strategia per arginare il problema del degrado consiste nell’aggiungere composti anti-invecchiamento capaci di bloccare la degradazione fin dalle sue fasi iniziali. Alcune di queste sostanze agiscono come degli schermi solari che proteggono le catene da ossigeno, luce e raggi ultravioletti. Spesso, però, gli additivi sono costosi e vengono centellinati in fase di manifattura. Oppure possono perdere la loro efficacia, lasciando “scoperto” il polimero e aprendo così la strada alla degradazione.

Una delle difficoltà maggiori per la conservazione è la varietà dei modi in cui diversi tipi di plastica si degradano per cui ciò che funziona bene per preservare un materiale può rivelarsi completamente deleterio per un altro.

La maggior parte delle plastiche moderne, ad esempio, decade principalmente a causa delle reazioni con l’ossigeno, ed è quindi più protetta se sigillata in un’atmosfera priva di ossigeno. La cellulosa acetata, invece, necessita di un trattamento diametralmente opposto: senza una ventilazione adeguata, i vapori di acido acetico che originano dall’invecchiamento del materiale ne accelerano il processo di decadimento.

L’esigenza che si verifica è quella di predire questi meccanismi di degradazione.

Per ciò si cerca di ‘velocizzare’ questi meccanismi, simulando il più possibile le condizioni di esposizione del manufatto/materiale.

Partendo dal presupposto che una simulazione fedele è impossibile si sono sviluppate nel tempo alcune procedure standard per l’esposizione dei materiali in modo tale che, almeno tra loro, possa esserci una accettabile riproducibilità dei risultati.

Esistono delle strumentazioni e delle metodologie che vengono generalmente utilizzate per sottoporre i materiali a cicli di invecchiamento ‘accelerati‘ rispetto all’esposizione naturale. Queste tecniche sono utilissime per paragonare il comportamento di diversi materiali, ma tutte le variabili devono essere attentamente valutate se si vuole predire la degradazione nel tempo.

Partendo dal presupposto che non si possono riprodurre esattamente tutte le variabili esterne, anche perché è proprio lo stesso ‘invecchiamento naturale’ che non è riproducibile, sono state sviluppati degli apparecchi e delle metodologie che consentono il controllo delle variabili più importanti, quali lo spettro di emissione delle lampade, la potenza emessa, la temperatura, l’umidità, etc.