Terrawash, la nuova “palla” magica.

In evidenza

Mauro Icardi

Ad inizio dicembre un noto quotidiano italiano ha pubblicato un articolo nel quale si decantavano le “miracolose” proprietà di un prodotto denominato “Terrawash”. Prodotto che prometteva e promette di essere un detergente biologico, non inquinante. Mentre leggevo l’articolo qualcosa mi ha fatto pensare di voler approfondire i termini della questione. Prima osservazione, che occorre ripetere è come gli articoli pubblicati sui quotidiani e che trattano temi tecnici, e specificatamente chimici abbiano sempre titoli fuorvianti. Ormai è una situazione alla quale credo ci stiamo purtroppo abituando. Sappiamo che se qualcuno viene ustionato con soda caustica probabilmente il titolo potrà essere “Sfigura il rivale in amore con l’acido”.

Tornando al prodotto miracoloso una ricerca in rete mostra una pagina nelle quali sono elencati i motivi per i quali si dovrebbe utilizzare questo prodotto. Contenuto in un piccolo sacchettino riutilizzabile per più lavaggi. Si parla di magnesio purificato, si decantano le proprietà e poi si dice che il prodotto detergente è privo di sostanze chimiche.

Qui la riflessione è ovviamente doverosa. Posso immaginare che chi ha redatto il foglio illustrativo usi ogni strategia per venderlo. E per far breccia utilizzi la mai sopita chemofobia. Ma qui c’è una confusione ed una leggerezza che sfiorano l’umorismo. Il magnesio viene prodotto industrialmente per elettrolisi di cloruro di magnesio. Una tecnica consolidata di chimica industriale.

Se si va a leggere sul sito dell’azienda https://www.terrawashmg.com/how-it-works-1 viene spiegato il meccanismo per cui il prodotto sarebbe un ottimo detergente.

Magnesio che liberando idrogeno in acqua calda (in realtà all’ebollizione) “forma acqua alcalina ionizzata che facilità l’eliminazione dello sporco dai tessuti”. Il termine acqua ionizzata è molto di moda, basta fare ricerche in rete per rendersene conto.

Mgs) + 2 H2O(l)  Mg++(aq) + 2 OH(aq) + H2(g)

Il meglio però deve ancora venire. Il prodotto non agirebbe come un normale tensioattivo in commercio, cioè diminuendo la tensione superficiale dell’acqua per aumentare la bagnabilità dei tessuti. In realtà la sua caratteristica sarebbe quella “di ridurre le dimensioni delle molecole d’ acqua” o dei loro “clusters” i loro gruppi, che diverrebbero più penetranti. Il motivo sarebbe aver “incontrato” la più piccola molecola di idrogeno!

In realtà tutto si riduce appunto a produrre idrogeno gassoso, un poco di idrossido di magnesio che è poco solubile (il vecchio latte di magnesia) ed ha certamente meno efficacia sgrassante della soda caustica che è uno dei componenti dei normali saponi.Continuando a indagare sul prodotto si scopre che nelle indicazioni di uso però, non si esclude la possibilità di utilizzare normale detersivo insieme al prodotto.

Tutta la cosa una volta vista con un poco di attenzione si rivela per quello che è.

Una assurdità. Una “palla”, una bufala.

Il tutto probabilmente dovuto al fatto che, oltre ad essere chemofobici, stiamo diventando un po’ tutti maniaci della pulizia. E’ pur vero che sono state proprio le schiume dei tensioattivi a dimostrare palesemente negli anni 70 che lo stato dei fiumi era pessimo. Ed in quel periodo eravamo bombardati da pubblicità di ogni tipo che ci invitavano ad avere il bianco più bianco. Sono passati decenni, e lo sviluppo impetuoso di catene di supermercati che vendono esclusivamente prodotti per la detergenza e che si sono moltiplicate e tornano a bombardarci con pubblicità continue.

Probabilmente questo prodotto avrà forse un minimo effetto igienizzante, nulla di più. Ma sfrutta ancor una volta alcune delle idee preconcette che tutti abbiamo. E mi ricorda una vicenda simile per certi versi: quella delle “Biowashball”, “Palla Linda” ed altre con nomi simili che promettevano la stessa cosa. Ridurre l’uso di detersivi, ma che in realtà non avevano alcuna efficacia pulente.

Converrà ritrovare il senso critico perduto, per non credere a chiunque proponga soluzioni miracolose, oppure semplici quando i problemi sono complessi. Ultima annotazione su questa vicenda. L’azienda produttrice sembra essere giapponese, mentre il quotidiano riportava la notizia che il Terrawash fosse invenzione di un imprenditore risicolo italiano. Serve dire altro?

Questione PFAS ovvero l’arte di spostare il problema

In evidenza

Francesca Hinegk*

Nei primissimi anni ’50 i composti poli- e perfluorurati (PFC) conquistarono il mercato grazie alle loro potenzialità d’uso e d’applicazione nei più svariati ambiti: dalle schiume filmogene antincendio a vernici e inchiostri, dall’abbigliamento sportivo idrorepellente all’equipaggiamento medico, dal rivestimento di utensili da cucina all’attrezzatura per il trattamento del cibo, fino ad utilizzi per il trattamento della carta ed a pesticidi. L’elevata resistenza all’idrolisi, alla fotolisi ed alla degradazione microbica di queste sostanze le rende altamente persistenti e dotate di un elevato potenziale di bioaccumulazione e biomagnificazione, comportando un serio problema di natura ambientale e sanitaria.

Figura 1 Esempi di applicazione dei PFC (ntp.niehs.nih.gov)

Sono numerose le misure adottate dai primi anni 2000 nel tentativo di limitare i danni comportati da cinquant’anni di produzione e diffusione delle PFAS (sostanze perfluoro alchiliche), avvenute senza le dovute conoscenze sulle problematiche legate a questa famiglia di composti. Nessuno dei provvedimenti presi può tuttavia dirsi risolutivo: la questione rimane infatti aperta su diversi fronti e per certi versi si è giunti solamente ad un trasferimento del problema, sia in termini di scelta del composto chimico che in senso geografico.

Tra i provvedimenti adottati per la regolamentazione di queste sostanze si possono riconoscere tre tipologie di intervento: la limitazione della produzione, l’apposizione di restrizioni alle vendite e la definizione di valori limite di riferimento per le concentrazioni nelle acque. Le azioni intraprese dalle istituzioni nazionali e sovranazionali sono state mirate principalmente ai due composti all’epoca più diffusi nell’ambiente: l’acido perfluoroottanoico (PFOA) e l’acido perfluoroottansolfonico (PFOS).

Figura 2 Struttura chimica di PFOA e PFOS
( charlestonwaterkeeper.org)

La produzione di PFOS e PFOA subì una prima battuta d’arresto nel maggio del 2000, quando la 3M, la maggiore azienda statunitense produttrice di PFOS, in accordo con la US-EPA iniziò una progressiva riduzione della produzione di questo composto, fino ad una completa cessazione nel 2002. Pochi anni più tardi, nel 2006, l’EPA diede l’avvio al 2010/2015 PFOA Stewardship Program, un programma di gestione mirato ad una riduzione del 95% della produzione di PFOA entro il 2010 fino ad una totale eliminazione delle emissioni di questo composto entro il 2015. Le otto maggiori aziende del settore vi presero parte volontariamente.

Nel dicembre dello stesso 2006 gli PFOS furono inclusi nella lista degli inquinanti organici persistenti (POPs) della Convenzione di Stoccolma, quindi assoggettati alle restrizioni imposte dal Programma delle Nazioni Unite per l’ambiente (UNEP). Il Parlamento Europeo stabilì di conseguenza il divieto di vendita per questo composto su tutto il territorio dell’UE applicabile a partire dal 2008 (2006/122/EC).

La presenza di numerosi casi di forte contaminazione in diversi Paesi degli Stati Uniti e dell’Europa, in Giappone ed in altri Stati, insieme ai risultati di importanti studi di settore dimostrarono la necessità di definire valori di soglia per la presenza di PFAS nelle acque potabili. In particolare fu determinante il C8 Health Project, che mise in luce l’esistenza di una probabile correlazione tra l’esposizione a PFOA ed alcune gravi patologie, come malattie tiroidee, tumori del testicolo e del rene.

Nella tabella sottostante sono raccolti alcuni esempi di valori di riferimento health based adottati in diverse nazioni.

Le restrizioni imposte hanno condotto all’introduzione di sostituti a catena più corta all’interno dei processi industriali che lo permettevano. La scelta di questi composti è giustificata dal minore potenziale di bioaccumulazione e dai minori livelli di tossicità acuta e cronica rispetto ai loro predecessori. Nel paper Helsingør Statement un team di esperti internazionali del settore ha espresso la propria preoccupazione relativa alla sostituzione in atto, argomentando come le PFAS a catena corta non siano un’alternativa priva di rischi. Esse mantengono infatti l’elevata persistenza in ambiente tipica di questo gruppo di sostanze e continuano di conseguenza a rappresentare una minaccia per gli ecosistemi e per la salute umana. In alcuni casi, inoltre, i perfluorurati a catena corta sono meno performanti dei corrispondenti composti a catena lunga, rendendo probabilmente necessario l’impiego di un maggior quantitativo di sostanza e/o di utilizzare più composti per ottenere le stesse prestazioni. Un’ulteriore causa di preoccupazione sono le limitate conoscenze che si hanno riguardo a proprietà, uso e profili tossicologici di queste sostanze, informazioni estremamente costose da ottenere sia in termini economici che in termini di tempo. Tempo durante il quale le crescenti e sempre più disperse emissioni potrebbero avere effetti irreversibili.

Un secondo effetto della regolamentazione della produzione di PFOA e PFOS è stata la delocalizzazione della produzione in Paesi in via di sviluppo come la Cina, che è diventata il maggior produttore ed utilizzatore di queste sostanze. Le stime affermano che l’attuale produzione annuale e l’utilizzo di PFAS a catena lunga in Cina eguagliano o addirittura superano i valori che si avevano in Europa e Nord America prima dello Stewardship Program. Di recente il Ministero cinese per la Protezione dell’Ambiente ha incluso gli PFOS nella lista preliminare di sostanze pericolose prioritarie per la gestione ambientale, ma non sono ancora stati stabiliti valori limite per questa o per altre PFAS.

L’assenza di una legislazione che regoli le emissioni di perfluorurati in Paesi come la Cina rappresenta una minaccia anche per le nazioni che hanno provveduto a porre limitazioni sul proprio territorio. Non va infatti dimenticato che le PFAS sono soggette a global transport, come hanno attestato le numerose ricerche che hanno rilevato la presenza ubiqua di PFOA e PFOS nelle acque degli oceani, nelle precipitazioni, nel biota e nel sangue umano in ogni parte del globo. Il problema, quindi, rimane mondiale.

Figura 3 Schematizzazione del global transport ( worldoceanreview.com)

* Francesca si è laureata nel 2017 in Ingegneria ambientale a Trento discutendo una tesina sul tema dell’inquinamento da PFAS, ed è attualmente iscritta alla laurea quinquennale.

Approfondimenti:

Emerging contaminants – Perfluorooctane Sulfonate (PFOS) and Perfluorooctanoic Acid (PFOA); EPA, 2014.

Madrid Statement; 2015.

Alcune ricerche sulla presenza globale di PFAS:

Scott et al. 2005: Trifluoroacetate profiles in the Arctic, Atlantic and Pacific Oceans.

Yamashita et al. 2005: A global survey of perfluorinated acids in oceans.

Scott et al. 2006: Poly and perfluorinated carboxylates in North American precipitation.

Kannan et al. 2004: Perfluorooctanesulfonate and related fluorochemicals in human blood from several countries. Environ Sci Technol 38:4489–4495

Houde et al. 2006: Biological monitoring of polyfluoroalkyl substances: a review.

Scienziate che avrebbero dovuto vincere il Premio Nobel: Nettie Stevens (1861-1912)

In evidenza

Rinaldo Cervellati.

Nettie Maria Stevens nacque il 7 luglio 1861 a Cavendish (una città del Vermont), terza di quattro figli. I due fratelli maggiori morirono prima che lei nascesse, la sorella minore, Emma, nacque nel 1863. Le informazioni sulla sua infanzia e giovinezza sono piuttosto scarse almeno nelle biografie che ho consultato [1].

Completato il percorso scolastico, dove si fece presto notare per la sua eccezionale abilità negli studi, frequentò la Westford Academy, Massachusetts. Diplomatasi nel 1880, insegnò fisiologia e zoologia ma anche matematica, latino e inglese in diverse high school, per qualche tempo fu anche bibliotecaria a Westford. Maturò il suo interesse per la ricerca in fisiologia durante un corso estivo di formazione cui partecipò nel 1890 e 1891 sull’isola di Vineyard (Massachusetts). Con il denaro risparmiato dal lavoro di insegnante entrò all’Università di Stanford (California) nel 1896, ottenendo il B.A. nel 1899 e poi il M.A. in fisiologia l’anno successivo. A Stanford restò un altro anno iniziando il lavoro di dottorato, perfezionando gli studi in fisiologia, citologia e istologia [1].

Nettie Maria Stevens nel 1904

Continuò studi e ricerche per il dottorato al Bryn Mawr College in Pennsylvania, un’istituzione facente parte delle “Seven Sister Colleges”, cioè i pochi istituti di educazione superiore che concedevano anche alle donne tutti i livelli di studio fino al dottorato, ma Stevens fu attratta dal Bryn soprattutto perché vi insegnarono due dei maggiori biologi americani, E.B. Wilson[1] e T.H. Morgan[2]. Essi facevano parte anche del Comitato Editoriale della rivista Journal of Experimental Zoology. Come studente e in seguito collega di Morgan, Stevens fu in grado di tenersi in contatto con le ricerche nei campi in rapida evoluzione della genetica, della citologia e dell’embriologia [1]. Come promettente scienziata che aveva già pubblicato nove articoli durate il periodo di dottorato, ottenuto nel 1903, Stevens aveva diritto a borse e premi speciali. Il Presidente del Comitato per le Borse di studio per l’Europa del Bryn Mawr le assegnò una borsa di ricerca con la quale si recò alla Stazione Zoologica di Napoli per studiare organismi marini e all’Università di Wurzburg, per lavorare con il biologo tedesco Theodor Boveri[3]. Successivamente ricevette un premio di 1000 dollari dall’”Associazione per la promozione della ricerca scientifica tra le donne”, offerta per il miglior articolo scritto da una donna su un argomento scientifico [2].

Una borsa postdottorato per assistente ricercatore alla Carnegie Institution di Washington, permise a Stevens di continuare le ricerche al Bryn Mawr College durante gli anni cruciali 1904-1905, quando intraprese le sue ricerche sui cromosomi del sesso.

Microscopio Zeiss usato da Stevens (Bryn Mawr College)

Durante il decennio precedente Boveri, Wilson e altri avevano trovato forti prove a sostegno dell’individualità dei cromosomi come parti identificabili delle cellule (reidentificabili dopo la divisione cellulare) e suggerivano che ciascun cromosoma potesse essere responsabile di una parte definita della dotazione ereditaria di un organismo. Nella prima edizione (1896) del suo fondamentale libro The Cell in Development and Inheritance, Wilson enumerò le prove secondo cui la sede dell’ereditarietà sta nei cromosomi nel nucleo della cellula. Ma Wilson, Morgan e la maggior parte degli altri biologi non erano ancora pronti ad accettare l’idea che il sesso fosse completamente determinato dai cromosomi al momento della fecondazione. Invece, molti credevano che fattori ambientali, come ad esempio la nutrizione, giocassero un ruolo importante nel determinare il sesso dell’embrione in via di sviluppo. Nel 1903 Morgan [3] concluse una sua dettagliata review sulla determinazione del sesso con la seguente frase:

La nostra conclusione generale è che mentre le teorie recenti sono state molto utili nell’indirizzare l’attenzione sulla determinazione precoce del sesso nell’ovulo, quelle che hanno tentato di collegare questa conclusione con l’assunzione della separazione del maschio dalla femmina nella cellula germinata non sono riuscite a stabilire il loro punto di vista. L’ovulo, per quanto riguarda il sesso, sembra essere in una sorta di stato di equilibrio, e le condizioni a cui è esposto, anche quando non è completamente formato, possono determinare quale sesso produrrà. Può essere un tentativo futile cercare di scoprire qualsiasi influenza che sia decisiva per tutti i tipi di ovuli. Qui, come altrove nella natura organica, diversi stimoli possono determinare in specie diverse quali delle possibilità esistenti si realizzeranno.[3]

Morgan si riferisce qui a un articolo di C.E. Mc Clung[4] [4] che chiamava in causa un “cromosoma accessorio” (scoperto in precedenza da H. Henking) facendo l’ipotesi che fosse esso il portatore delle qualità che appartengono all’organismo maschile.

Stevens invece fu rapida nel vedere le possibilità offerte dall’ipotesi di McClung in concomitanza con la teoria mendeliana dell’ereditarietà. Nella lettera di Morgan alla Carnegie Institution, il 19 novembre 1903, a sostegno della richiesta di fondi di Stevens, chiarisce che era lei quella che voleva investigare la determinazione del sesso tramite cromosomi, mentre egli, partner senior (sebbene più giovane di età) del gruppo di ricerca, era ancora sotto l’influenza delle teorie ambientali[5]. Tuttavia questa differenza di opinioni non impedì loro di collaborare. Secondo S. Brush [1a], data la situazione di rispetto reciproco, il disaccordo è stato vantaggioso per Stevens nel lungo periodo, poiché significava che avrebbe pubblicato i suoi risultati solo con il suo nome. Se il nome di Morgan fosse stato sulla sua pubblicazione del 1905, il mondo scientifico avrebbe indubbiamente dato la maggior parte del merito a lui.

Sia Morgan che Wilson furono comunque entusiasti nel raccomandare Stevens alla Carnegie Institution. Morgan scrisse: fra gli studenti laureati degli ultimi dodici anni non ho avuto nessuno che fosse capace e indipendente nel lavoro di ricerca come Miss Stevens…[1a]

. Wilson dichiarò: Conosco bene il lavoro di Miss Stevens, un personaggio molto indipendente e ammirevole sotto tutti i punti di vista, la considero non solo la migliore dei ricercatori donne, ma una che farà il proprio lavoro come quello di un qualsiasi uomo dello stesso livello. cit. in [1a]

La sovvenzione fu concessa e Stevens proseguì la sua ricerca, che comportava un esame dettagliato dei cromosomi di diversi insetti e il confronto con il sesso della progenie.

Dopo un tentativo fallito, Stevens fu più fortunata con Tenebrio molitor, il comune verme della farina; trovò che i maschi sono prodotti da spermatozoi contenenti un cromosoma chiaramente molto più piccolo del corrispondente cromosoma negli spermatozoi che producono femmine. Il 23 maggio 1905 sottopose alla Carnegie Institution un manoscritto intitolato “Studies in Spermatogenesis” per la pubblicazione nella serie di monografie della Carnegie. Il manoscritto fu inviato il 29 maggio a Wilson per un parere come membro del comitato consultivo dell’istituzione. Lo restituì il 13 giugno con questo breve commento: È in ogni modo un lavoro ammirevole che è degno di essere pubblicato da qualsiasi società istruita, e non esito a raccomandarlo per la pubblicazione da parte dell’Istituzione (Cit. in [1a]). Fu pubblicato nel settembre 1905 [5].

Dopo aver descritto gli esperimenti e le osservazioni Stevens scrive:

Poiché le cellule somatiche della femmina contengono 20 cromosomi grandi, mentre quelli del maschio ne contengono 19 grandi e 1 piccolo, ciò sembra essere un chiaro caso di determinazione del sesso, non da un cromosoma accessorio, ma da una netta differenza nel carattere degli elementi di una coppia di cromosomi degli spermatociti… gli spermatozoi che contengono il piccolo cromosoma determinano il sesso maschile, mentre quelli che contengono 10 cromosomi di uguale dimensione determinano il sesso femminile. Questo risultato suggerisce che ci possono essere in molti casi alcune differenze intrinseche che influenzano il sesso, nel carattere della cromatina di una metà degli spermatozoi, anche se di solito non possono essere individuate dalla differenza esterna nella forma o dimensione dei cromosomi come nel Tenebrio. [5]

Nettie Stevens e i cromosomi del sesso

In generale viene affermato che E.B. Wilson ottenne gli stessi risultati di Stevens, indipendentemente e nello stesso tempo [6]. Quest’affermazione è vera solo in via approssimativa, infatti come fa rilevare Brush [1a], in primo luogo Wilson scelse una specie (Anasa tristis) in cui il maschio ha un cromosoma in meno rispetto alla femmina, mentre Stevens studiò il caso molto più comune in cui il maschio ha un piccolo cromosoma (Y) corrispondente al grande cromosoma (X) nella femmina. In secondo luogo, Wilson probabilmente sarebbe arrivato alle sue conclusioni sulla determinazione del sesso solo dopo aver visto i risultati di Stevens. Questo è forse il punto più importante, confermato dai documenti conservati alla Carnegie Institution. Inoltre Wilson pubblicò l’articolo che è usualmente considerato il primo in cui parla esplicitamente della scoperta sulla determinazione del sesso [7], affermando all’inizio:

Non c’è dubbio che in questi animali esiste una precisa connessione di qualche tipo tra i cromosomi e la determinazione del sesso. [7]

Conclude però tornando a una teoria semi-ambientale:

… grandiose, se non insuperabili, difficoltà si incontrano con qualsiasi forma di assunzione che questi cromosomi siano specificamente determinanti del sesso maschile o femminile. [7]

Edmund B. Wilson

Nel 1906 Stevens verificò la sua teoria su altre specie di insetti, in particolare coleotteri, emitteri e lepidotteri pubblicando la seconda parte degli Studies on Spermatogenesis [8].

Tuttavia, non c’è dubbio che nel 1906 Stevens era più avanti di Wilson nel realizzare il significato della loro scoperta. Scrive Stevens [8]:

Wilson [9] suggerisce come alternative alla teoria cromosomica della determinazione del sesso in base alla Legge di Mendel: (i) che gli eterocromosomi possono semplicemente trasmettere caratteri sessuali, il sesso essendo determinato da condizioni protoplasmatiche esterne ai cromosomi; (ii) che gli eterocromosomi possono essere fattori determinanti il sesso solo in virtù della differenza di attività o quantità di cromatina, il cromosoma sessuale femminile nel maschio è meno attivo.

Citò prove contro entrambe queste alternative, concludendo [8]:

Nel complesso, la teoria, che conduce la questione della determinazione del sesso alla Legge di Mendel in una forma modificata, sembra più conforme ai fatti, e fa sperare che nel prossimo futuro possa essere possibile formulare una teoria generale della determinazione del sesso.[8]

Successivamente continuò l’analisi su una cinquantina di specie, compresa la Drosophila melanogaster, il moscerino della frutta, delizia di generazioni di genetisti fra i quali Thomas Morgan che proprio per le sue ricerche su questo insetto ottenne il Premio Nobel per la Medicina nel 1933, “per le scoperte sul ruolo dei cromosomi nell’ereditarietà”.

Thomas Morgan

Secondo Brush [1a], la mancata assegnazione del premio Nobel a Stevens può essere spiegata dal fatto che il significato dei cromosomi sessuali in genetica non fu generalmente accettato mentre essa era in vita; Morgan dovette aspettare fino al 1933 per ottenerlo, e a Wilson non fu mai assegnato.

Brush [1a] fa però osservare che è più grave il fatto che la maggior parte dei libri di testo moderni, anche quando menzionano Stevens, diano l’impressione che lei abbia lavorato soltanto seguendo le orme di Wilson. A causa dei contributi più sostanziali di Wilson in altre aree, egli tende a ricevere il maggior credito anche per la scoperta dei cromosomi del sesso[6].

Tuttavia Nettie Stevens ottenne il massimo rispetto dai principali biologi[7] del suo tempo, però non riuscì a ottenere una posizione universitaria regolare, senza dubbio in gran parte perché era una donna. Purtroppo non fece in tempo a beneficiare della cattedra di ricercatrice creata apposta per lei al Byrn Mawr poiché morì il 4 maggio 1912 per un tumore al seno.

Bibliografia

[1] a) S. G. Brush, Nettie M. Stevens and the Discovery of Sex Determination by Chromosomes, ISIS, 1978, 69, 163-172; b) J. Maineschein, Stevens, Nettie Maria, Encyclopedia.com

http://www.encyclopedia.com/people/history/historians-miscellaneous-biographies/nm-stevens

Per chi fosse interessato a info più dettagliate su famiglia, infanzia, prima giovinezza e percorsi scolastici di Stevens le può trovare in: M. B. Ogilvie, C. J. Choquette, Nettie Maria Stevens (1861–1912): Her Life and Contributions to Cytogenetics, in Proceedings of the American Philosophical Society1981, 125, 292–311.

[2] N. M. Stevens, A Study of the Germ Cells of Aphis Rosae and Aphis Oenotherae, Journal of Experimental Zoology, 1905, 2, 313-333.

[3] T. H. Morgan, Recent Theories in Regard to the Determination of Sex, Popular Science, 1903,

64, 97-116.

[4] C. E. McClung, The Accessory Chromosome-Sex Determinant?, Biological Bulletin, 1902, 3, 43-84.

[5] N.M. Stevens, Studies in Spermatogenesis. With especial reference to “Accessory chromosome”, Carnegie Institution of Washington, Washington D.C., September 1905

http://www.esp.org/foundations/genetics/classical/holdings/s/nms-05-spermatogenesis-1.pdf

[6] E. B. Wilson, “Studies on Chromosomes. I. The Behavior of the Idiochromosomes in Hemiptera, Journal of Experimental Zoology, 1905, 2, 371-405 (August 1905),

[7] E. B. Wilson, The Chromosomes in Relation to the Determination of Sex in Insects, Science, 1905, 22, 500-502 (October, 1905)

[8] N.M. Stevens, Studies in Spermetogenesis II. A Comparative Study of the Heterochromosomes in Certain Species of Coleoptera Hempitera and Lepidoptera, with especial reference to Sex Determination., Carnegie Institution of Washington, Washington D.C., October, 1906

http://www.esp.org/foundations/genetics/classical/holdings/s/nms-06-spermatogenesis-2.pdf

[9] E. B. Wilson, “Studies on Chromosomes. III. The Sexual Differences of the Chromosome-Groups in Hemiptera, with some Considerations on the Determination and Inheritance of Sex, Journal of Experimental Zoology, 1906, 3, 1-40. (January 1906, ricevuto December 1905).

[1] Edmund Beecher Wilson (1856-1939), zoologo americano e genetista è stato un pioniere della moderna biologia. Ha scritto uno dei più famosi trattati in questo settore, The Cell in Development and Inheritance, McMillan Ed., 1a ed. 1896. La 3a edizione 1932, di 1232 pagine è stata in uso fin dopo la 2a guerra mondiale. E’ stato accreditato insieme a Nettie Stevens della scoperta dei cromosomi del sesso, ma essi lavorarono indipendentemente e le prime conclusioni non furono le stesse.

[2] Thomas Hunt Morgan (1866-1945), biologo, genetista, embriologo americano, autore di 22 libri e 370 articoli scientifici, Premio Nobel 1933 per la Medicina e la Fisiologia per le sue scoperte sul ruolo dei cromosomi nell’ereditarietà.

[3] Theodor Heinrich Boveri (1862-1915) biologo tedesco noto per le sue ricerche sull’ovogenesi e la spermatogenesi (cioè la produzione di cellule uovo e spermatozoi), in particolare sul comportamento dei cromosomi durante il processo della divisione cellulare. Il suo lavoro ebbe un’influenza importante sulle ricerche successive di Stevens.

[4] Clarence Erwin McClung (1870-1946), biologo americano, interessato all’ereditarietà genetica, fece l’ipotesi di un “cromosoma accessorio” nella determinazione dl sesso, ipotesi poi scartata dai risultati della ricerca di Stevens.

[5] Questa lettera è riportata per esteso in appendice nel rif. [1a].

[6] Esempio di “Effetto Matilda” (termine coniato dalla storica Margaret W. Rossiter, negli anni ’90) per indicare la puntuale negazione o la minimizzazione dei risultati scientifici conseguiti dalle donne, i cui studi vengono spesso attribuiti ai loro colleghi uomini, non a causa della scarsa qualità scientifica del loro lavoro, ma per motivi di genere. Si accompagna al termine “Effetto Mattew” (termine coniato dal sociologo Robert Merton nel 1968) per indicare l’attribuzione a uomini di scoperte scientifiche fatte da donne semplicemente perché considerati più credibili (R. K. Merton, The Matthew Effect in Science, Science, 1968, 159, 56-63)

[7] Fa eccezione proprio T.H. Morgan che in un passaggio del suo ampio ma limitativo necrologio (Science, 1912, 36, 468-470) fa apparire Stevens più come un eccellente tecnico che una scienziata smentendo quanto scrisse nella sua lettera di accompagnamento alla richiesta di sovvenzione fatta da Stevens alla Carnegie Institution.

Beni culturali e inquinamento atmosferico.

In evidenza

Luigi Campanella, già Presidente SCI

La protezione e conservazione dei Beni Culturali dovrebbe essere priorità per un Paese che proprio nei Beni Culturali ha la sua principale ricchezza. L’accertamento dello stato di conservazione permette l’individuazione delle cause di degrado e di dissesto, dei meccanismi responsabili dei fenomeni alterativi riscontrati con la messa a punto di tecniche opportune per le procedure d’intervento. Tale attività deve essere applicata sia a livello di prescrizione normativa, sia a livello di diagnosi e di intervento sui manufatti.

La legislazione italiana riguardante le problematiche relative all’inquinamento atmosferico è mirata alla sola tutela della salute umana e degli ecosistemi naturali e non tocca minimamente la salvaguardia del patrimonio storico – artistico, l’unica eccezione è costituita dalle opere d’arte esposte all’interno dei musei, regolate dall’art. 150 del Decreto Legislativo n. 112 del 1998 per il problema della qualità dell’aria all’interno e le implicazioni dell’ambiente esterno sulle opere conservate. Per i riferimenti legislativi sulla salvaguardia del patrimonio storico – artistico occorre appellarsi alla normativa europea; in particolare alle Direttive 62 del 1996, 30 del 1999 e al V programma quadro del quadriennio 1998-2002 che definisce una prima disciplina sull’argomento, identificando anche dei valori soglia per i diversi inquinanti .

La conservazione di un’opera d’arte quale testimonianza artistica e storica è universalmente considerata un atto obbligatorio di cultura; di conseguenza lo studio preliminare dello stato di degradazione in cui l’opera si trova in seguito all’azione del tempo e dell’ambiente alterato da attività antropiche assume una importanza fondamentale. La materia e quindi l’aspetto di un’opera sono soggetti a continue inevitabili trasformazioni. Sotto il profilo artistico ciò corrisponde ad una variazione dei rapporti estetici rispetto a quelli originali; sotto il profilo chimico – fisico, ad una alterazione dei materiali, in particolare di quelli più a diretto contatto con l’ambiente. La conoscenza di tali trasformazioni e delle loro cause è alla base di qualsiasi intervento di manutenzione, restauro e conservazione.

Fra i materiali dei Beni Culturali la Carta ha di recente riassunto il ruolo primario che la storia le aveva assegnato e che sembrava messo in discussione dalle tecnologie informatiche. Il degrado della carta costituisce il problema principale per quanto riguarda la protezione del “bene” (libri antichi, documenti, etc.), dagli attacchi di agenti esterni di varia natura (ambientali, biologici, chimico-fisici, ecc.) e dall’aggressione di fattori interni al materiale stesso. L’invecchiamento dei materiali, la loro sensibilità ad agenti inquinanti, la loro vulnerabilità in seguito ad azioni di corrosione sono tra le cause più frequenti del degrado. Bisogna pertanto conoscere l’insieme del quadro storico, ambientale e diagnostico del manufatto per intervenire in modo responsabile e appropriato trattandosi di beni che hanno rilevanza per significato storico e valore documentario, anche riferendosi al dovuto rispetto per le generazioni future.

Le indagini per la valutazione dello stato di conservazione devono essere rivolte allo studio delle cause e dei meccanismi di alterazione con tecniche e metodi in grado di esprimere il degrado con uno o più parametri quantificabili attraverso la progettazione e la sperimentazione di protocolli di procedura. A tale proposito le tecniche di invecchiamento artificiale consentono di verificare il comportamento nel tempo e la stabilità della carta ai fini della salvaguardia del patrimonio artistico, ma anche della possibilità di poter costruire eventuali nuove scale archeometriche per la datazione di reperti cartacei di interesse archeologico.

La stabilità chimica o inerzia chimica (in effetti il primo termine si riferisce alla termodinamica,il secondo alla cinetica) è la caratteristica di un composto a non decomporsi facilmente o ad essere modificato chimicamente, è consigliata per i materiali utilizzati nei beni culturali poiché essa garantisce la capacità di resistere al degrado chimico (ad esempio la carta col tempo e all’esposizione variabili durante la consultazione o l’esposizione può diventare fragile). La permanenza della carta è definita nella norma UNI EN ISO 9706 come la proprietà di rimanere chimicamente e fisicamente stabile per lunghi periodi di tempo, cioè di mantenere le sue caratteristiche senza un deterioramento significativo nelle normali condizioni di conservazione e di uso. La valutazione della permanenza della carta consiste nell’esame della composizione e delle proprietà originali della carta (assenza di sostanze incrostanti, come lignina ed emicellulose, e caratteristiche di resistenza meccanica), nello studio del comportamento della carta rispetto a particolari condizioni di invecchiamento accelerato (le condizioni normalizzate più usate sono quelle previste dalla norma ISO 5630-3, cioè T=80 °C e U. R. 65 % per 24 giorni), nella combinazione di entrambi queste informazioni.

Il componente principale della carta è la cellulosa (Figura 1), polimero lineare naturale polidisperso, costituito da un numero variabile di molecole di anidro-D(+)-glucosio (unità monomerica), legate tra loro mediante legami 1-4-ß-glucosidici. L’unità strutturale è il cellobiosio. Il numero di volte in cui ciascuna unità monomerica è ripetuta nella macromolecola è il grado di polimerizzazione e rappresenta una media fra tutti i gradi di polimerizzazione delle singole catene costituenti la cellulosa.

Le molecole di cellulosa si legano fra loro fino a costituire delle fibre, al cui interno è possibile distinguere, anche se non esiste un confine netto, zone con struttura geometrica definita (zone cristalline) e zone in cui le macromolecole sono disposte in modo disordinato (zone amorfe). La regione cristallina conferisce resistenza alla struttura, mentre quella amorfa rappresenta la parte più fragile e facilmente aggredibile.

Figura1: Struttura della cellulosa

L’invecchiamento della carta è dovuto a variazioni della struttura della cellulosa come idrolisi, ossidazione, biodegradazione, fotodegradazione e rigonfiamento delle fibre che provocano rotture dei legami nelle catene polimeriche, e ossidazione con formazione di gruppi carbossilici e produzione di radicali con conseguenti ingiallimento, infragilimento, attacco da insetti (tarli, termiti) o, da batteri, funghi e muffe, umidità, polvere, danni fisici, strappi, usura, aggressione da parte di inquinanti aggressivi, come, a volte, gli stessi inchiostri chimicamente instabili ed anche da parte dei depositi lasciati dalle dita dei lettori. L’ingiallimento e l’infragilimento sono legati all’ossidazione della carta e quindi di per sè sono inevitabili, ma rallentabili. L’ossidazione della carta si verifica sia per degrado, legato all’esposizione alla luce (fotoossidazione) , sia per via acida causata da problemi interni legati ai nuovi metodi di produzione della carta e all’acidità dell’inchiostro. Ad esempio gli inchiostri ferrogallici impiegati sui manoscritti provocano sui supporti azioni di degrado di molteplice natura. L’acido in essi contenuto catalizza l’idrolisi della cellulosa che conduce a scissione delle catene polimeriche fino ad arrivare a forare il documento stesso. L’acidità non è tuttavia la sola causa dell’effetto “corrosivo” di questi inchiostri. Gli ioni ferro(II) sono sospettati catalizzare una degradazione di tipo ossidativo che, insieme all’idrolisi, opera un’azione sinergica nel degrado complessivo. Normalmente lo stato delle fibre è monitorato indirettamente con misure meccaniche macroscopiche, correlandole con analisi chimiche, volte a determinare il grado di acidità del foglio; infatti la progressiva acidificazione sembra essere la principale causa del processo di degradazione. Si deve potere intervenire anche preliminarmente, con trattamenti sulla carta, mediante azioni protettive ed inibitrici delle reazioni responsabili dell’invecchiamento ; devono inoltre essere effettuati studi dettagliati, basati su validi procedimenti di invecchiamento artificiale ed accelerato dei materiali cellulosici moderni.

Fra gli agenti responsabili dell’invecchiamento ci sono anche i radicali liberi , ad esempio i radicali idrossilici con facilità distaccano atomi di idrogeno dalla cellulosa dando perciò origine ad una catena di reazioni radicali che che portano a scissione e legami trasversali delle molecole di cellulosa. I legami trasversali dei radicali cellulosici risultano in una trama più densa delle catene di cellulosa con meno spazio per le molecole d’acqua a formare legami idrogeno. Perciò le aree della carta danneggiate dalla corrosione sono meno idrofile delle aree non danneggiate. Come conseguenza la carta diviene più fragile fino a rompersi.

 

La protezione della carta dai deterioramenti indotti da potenziali specie ossidanti, soprattutto dai radicali liberi a livello molecolare, si può effettuare con gli antiossidanti, categoria di sostanze eterogenee, come vitamine, minerali, aminoacidi essenziali, Gli antiossidanti agiscono in concentrazione bassa rispetto a quella del substrato cartaceo ossidabile e prevengono o ritardano in modo significativo l’ossidazione di questo substrato; reagiscono con i radicali liberi, ne riportano l’equilibrio chimico grazie alla possibilità di fornire loro gli elettroni dei quali sono privi e si trasformano in nuove specie radicaliche, stabilizzate per risonanza e poco reattive. Possono agire singolarmente o interagire, proteggendosi a vicenda nel momento in cui vengono ossidati. Ciascun antiossidante ha un campo di azione limitato ad uno o due specifici radicali liberi. Dal punto di vista chimico si suddividono in: naturali (es. tocoferolo, acido ascorbico) e sintetici (es. il propilgallato).

Da quanto detto sinora si comprende quanta chimica ci sia nella protezione di libri,collezioni di documenti,biblioteche,archivi. A suo tempo io credo che la Chimica avrebbe dovuto fare di più per mantenere il suo carattere prioritario in questo campo:non furono molte le sedi di Corso di Laurea in Chimica che istituirono curricula sui Beni Culturali. La riforma obbligata,in quanto imposta dall’Europa,ha indotto il MIUR ad istituire i Corsi di Laurea per gli addetti scientifici dei Beni Culturali. Forse anche in questi la presenza della Chimica è inferiore rispetto alla reale incidenza della nostra disciplina nei processi di conservazione e restauro dei Beni Culturali

 

L’acqua percepita.

In evidenza

Mauro Icardi

Pochi giorni fa mi è capitato un episodio che mi ha indotto a qualche riflessione.

Durante la pausa pranzo, nel locale mensa stavo riempiendo la borraccia della bicicletta, mezzo che uso per recarmi al lavoro, dal rubinetto della rete idrica. Un collega mi ha guardato e mi ha chiesto perché non la riempissi con acqua in bottiglia, dicendomi anche, in maniera piuttosto esplicita che a suo giudizio l’acqua del rubinetto non fosse buona, anzi che “facesse schifo”.

L’episodio è abbastanza singolare per alcuni motivi. Il primo è che entrambi lavoriamo in un’azienda che si occupa di gestione del ciclo idrico. Per la verità la gestione dell’acqua in provincia di Varese è (purtroppo) ancora frammentata in tre differenti gestori per quanto riguarda la fornitura di acqua potabile. L’azienda per la quale lavoro gestisce una parte significativa della fornitura idrica potabile a livello provinciale.

Il laboratorio dove lavoro è situato alla periferia di Varese, e la fornitura di acqua potabile è a carico di un’altra società. Esaurito il preambolo ho trovato piuttosto strano che il mio collega, che conosce il lavoro che faccio avesse un’idea così negativa dell’acqua del rubinetto.

Io gli ho risposto che per scelta, non solo uso la bicicletta per gli spostamenti quotidiani, ma anche che bevo quotidianamente acqua del rubinetto. Dopo la chiacchierata ognuno è poi tornato alle proprie occupazioni. Io in laboratorio, e lui all’attività di gestione e manutenzione del depuratore dove è inserito il laboratorio.

La vicenda in sé mi ha confermato una cosa: la prevalenza di una idea diffusa. Cioè che l’acqua del rubinetto sia troppo dura, che sappia di cloro, che le tubazioni siano vecchie, e quando non lo siano quelle dell’acquedotto, lo siano quelle del proprio condominio. Queste sono solo alcune delle obiezioni più diffuse di chi utilizza acqua potabile per usi diversi dal bere. In realtà per la mia esperienza personale non credo che le cose stiano esattamente così. Ho bevuto quasi da sempre acqua potabile. In strada dalle fontanelle, e a casa (quando ancora vivevo a Settimo Torinese) sempre dal rubinetto, magari con l’aggiunta delle polveri per acqua da tavola, che ormai sono quasi oggetti di modernariato.

Per quanto riguarda invece l’avversione di molte persone a bere acqua di rubinetto mi chiedo quanto possano influire le martellanti campagne pubblicitarie che negli anni ci hanno mostrato fantomatiche “particelle di sodio” solitarie e tristi, oppure che ci ricordano (in una recente pubblicità) che per una certa acqua con giuste percentuali di calcio e magnesio sia tutta “questione di chimica”.

Forse per questa ragione gli italiani sono così affezionati all’acqua in bottiglia, tanto da esserne i primi consumatori in Europa con 208 litri all’anno secondo i dati riferiti al 2015 da beverfood.com e terzi al mondo secondo Statista.com.

Col tempo poi si sta assistendo ad una tendenza particolare. Sembra che l’acqua si stia trasformando in qualcosa di diverso. L’acqua deve essere colesterol free, vitaminizzata. Si sta affermando la figura del water sommelier, l’assaggiatore di acqua nei ristoranti

Purtroppo tra molte persone si sta facendo strada l’idea che ci possano essere contaminazioni nella rete di acquedotto, mentre l’idea che l’acqua che viene imbottigliata a pochi metri dalla sorgente sia garanzia di miglior qualità. Poi per molti è del tutto secondario che quest’acqua possa viaggiare per chilometri da un capo all’altro dell’Italia, e che esista un problema legato ai rifiuti di plastica.

Viaggiando molto in bicicletta vedo moltissime bottiglie di plastica ancora buttate ai lati delle strade.

L’impegno che io ritengo debba essere prioritario da parte delle aziende di erogazione di acqua potabile credo sia quello di essere maggiormente impegnate in un opera di informazione seria e capillare, in un continuo filo diretto con gli utenti, per fugare timori che sono molto spesso infondati. Parallelamente deve (ed è fondamentale) partire una massiccia opera di ristrutturazione delle infrastrutture della rete acquedottistica. La percentuale di acqua ancora dispersa nelle reti di acquedotto continua ad aggirarsi intorno a valori del 50%.

Rimane la questione del gusto dell’acqua, ma sono convinto che una prova di assaggio di diverse acque in bottiglia non gasate, con l’inserimento di un’acqua di acquedotto lasciata riposare per essere liberata dal cloro volatile residuo, probabilmente non permetterebbe all’ipotetico assaggiatore di identificarla tra le altre, soprattutto quando non sono addizionate di anidride carbonica.

In un contesto generale di scarsità idrica dovuta ai cambiamenti climatici, credo che occorra tornare ad un approccio più naturale al normale gesto di bere un bicchier d’acqua.

Trovo paradossale che per anni si sia sostenuto che l’acqua non dovesse essere una merce, riferendosi a quella potabile, mentre si accetta senza nessuna obiezione di pagare un prezzo molto più alto per l’acqua in bottiglia. Per sincerarsene basta verificare il prezzo al supermercato. Alcune bottiglie possono costare 50 centesimi per un litro e mezzo. Con 50 centesimi io posso acquistare 746 litri di acqua potabile, comprese tasse e costi fissi.

Ecco, la riflessione che mi sento di fare è quella se questa non sia una situazione paradossale.

L’altra riflessione è quella solita: spesso un chimico si trova a predicare nel deserto, ed è riferita alla conversazione iniziale con il collega. Situazione non nuova, ma provata anche in altri contesti.

E questo purtroppo riguarda non solo l’acqua, ma ogni argomento nel quale non si discuta razionalmente, ma si ceda ai luoghi comuni ripetuti fino ad avere ottenuto la dignità di verità.

Il mercato del sapere

In evidenza

Claudio Della Volpe

In un articolo recentemente pubblicato su Internazionale (n.1228, p. 44) Joseph Stiglitz vincitore nel 2001 del premio della Banca di Svezia per le scienze economiche in memoria di Alfred Nobel (a volte indicato come Nobel per l’Economia, ma in realtà un premio Nobel per l’economia non esiste come tale*) commenta la situazione del mercato dei brevetti mondiali soprattutto nel settore farmaceutico ma non solo.

E’ un argomento che mi appassiona e a cui ho dedicato vari commenti in passato (https://ilblogdellasci.wordpress.com/2014/12/13/farmaci-essenziali-quanto-ci-costano/   http://www.soc.chim.it/sites/default/files/chimind/pdf/2012_9_179_ca.pdf

http://www.soc.chim.it/sites/default/files/chimind/pdf/2013_3_119_ca.pdf)

Stiglitz è noto per la sua posizione critica nei confronti della economia neoclassica, ossia della ideologia economica incapace di prevedere alcunchè ma usata a difesa della crescita infinita e del libero mercato come strumento di ripartizione delle risorse.

E in questo articolo fa notare la contraddizione fra le esigenze di gran parte della popolazione mondiale povera e i costi della gestione della salute e delle malattie importanti (i poveri non sono solo nel terzo mondo comunque); questi costi sono insostenibili perchè i farmaci sono considerati non come valori di uso ma come merci, come strumenti di profitto e dunque il loro uso dominato dal mercato inizia con una protezione legata al brevetto e prosegue con prezzi i più alti possibile, differenziati per mercato, indipendentemente dagli effettivi costi sostenuti nello sviluppo del farmaco, l’obiettivo non è dunque l’eradicazione delle malattie, ma la realizzazione di grandi profitti in breve tempo.

I paesi del terzo mondo più forti , gli ex paesi dell’ex terzo mondo oggi paesi in forte sviluppo come Brasile, Sud Africa, India, Cina, guidano una offensiva ai principi del mercato globale, approvano leggi che si oppongono ai monopoli istituiti nei paesi occidentali e soprattutto ai criteri che tali paesi cercano di imporre al resto del mondo: il brevetto, il copyright, gli accordi e le “regole” della organizzazione mondiale del commercio che garantiscono il profitto non l’uso equo, che strapagano il produttore o l’inventore non garantendo un uso razionale delle scoperte.

Stiglitz fa notare che “il sapere è un bene pubblico, sia perché usarlo non costa nulla sia perché un aumento del sapere può far crescere il benessere di tutti. Il timore è che il mercato non possa premiare a sufficienza l’innovazione e che la ricerca non sia adeguatamente incentivata.”

Una volta che una cosa sia scoperta, una molecola inventata, un testo scritto una canzone cantata, la preoccupazione principale non può essere difenderne la proprietà, ma usarla o sfruttarla o ascoltarla o leggerla nel modo migliore per tutta l’Umanità, remunerando correttamente chi ha contribuito alla sua produzione, MA senza fare di questo obiettivo l’unico scopo.

L’esempio degli antibiotici può essere utile: noi diamo gli antibiotici per scontati, ma come ha affrontato il mercato, il meccanismo della produzione privata basata sui brevetti e il profitto, la loro gestione?

Da una parte ha stimolato l’investimento e la scoperta di un certo numero di classi di molecole ma ne ha soprattutto spinto un uso smodato e veloce che garantissero la remunerazione delle spese sostenute nell’intervallo di tempo coperto dal brevetto; questo è il contrario di un uso razionale degli antibiotici, perchè favorisce lo sviluppo di resistenze; oggi le resistenze sono diventate una realtà importante e ci sono batteri resistenti a tutti gli antibiotici, mentre la percentuale di casi di infezioni resistenti è diventata una realtà importante in tutti i paesi avanzati con grave allarme per l’OMS.

« La prima regola degli antibiotici è cercare di non usarli, la seconda è cercare di non usarne troppi. »(Paul L. Marino, The ICU Book)

Questa regola razionale di uso dell’antibiotico è esattamente il contrario di quanto serve al mercato. C’è stato una specie di picco degli antibiotici in passato, sembrava di avere non una ma tante pallottole magiche che si moltiplicavano a profusione; ma esattamente quella ricchezza e quella profusione che avevano per obiettivo non guarire dalle infezioni ma fare soldi hanno prodotto la farmacoresistenza.

Pochi giorni fa un report del ISS ha confermato che anche in Italia i batteri resistenti sono presenti ormai quasi in maggioranza, viaggiando fra un terzo e il 45% dei casi; questo conferma quel che già si sa per l’intera Europa: https://ecdc.europa.eu/sites/portal/files/documents/AMR 2016_Final-with-cover-for-web-2017.pdf.

Oggi con la crescita delle resistenze batteriche servirebbero nuovi antibiotici (o casomai vaccini). Ma dato l’aumento dei costi per sviluppare nuove molecole (in gran parte costituiti dalle spese per difendere i brevetti nel mondo NON per sviluppare nuove molecole) non ci sono in campo ricerche a sufficienza per sviluppare i nuovi antibiotici che ci servono. Il motivo è che come abbiamo detto si tratta di un campo che richiede forti investimenti, che le case farmaceutiche si sono mostrate riluttanti a fare, perché prevedono che dei nuovi antibiotici sarà scoraggiata la prescrizione su vasta scala proprio al fine di ritardare lo sviluppo di farmacoresistenze, un’eventualità considerata quasi inevitabile.

Dunque il mercato e il brevetto non sono in grado di rispondere alla sfida dei nuovi antibiotici.

Stiglitz propone nel caso della sanità dei meccanismi alternativi al brevetto :

Esistono almeno tre alternative per finanziare l’innovazione. Uno è affidarsi a meccanismi centralizzati di sostegno diretto, come gli organismi nazionali di sanità. Un altro è decentralizzare il finanziamento diretto con la detrazione fiscale. Infine possono essere gli istituti governativi,le fondazioni o gli istituti di ricerca a dare premi alle innovazioni di successo.

Come è successo nel caso delle banche con la crisi del 2008 la mano pubblica deve intervenire per salvare capra e cavoli, in questo caso per stimolare la messa in campo di nuove ricerche per nuovi antibiotici, una cosa che il meccanismo del libero mercato e del brevetto è incapace di fare, dimostrando esattamente quel che dice Stiglitz: il mercato del sapere non è il modo migliore di gestire l’economia del XXI secolo.

* questa è una finezza, un modo per dire che l’economia è una scienza anch’essa con i baffi, dato che un premio Nobel per l’Economia vero e proprio non fu istituito da Nobel, la Banca di Svezia ne ha istituito uno che viene oggi presentato a fianco agli altri Nobel, ma personalmente mi appare una operazione ideologica; se andate sulla pagina del Nobel in coda agli altri premi c’è anche questo ma è scritto così, The Sverige Riksbank prize for economic sciences, con un comitato diverso dal comitato Nobel:

Scienziate che avrebbero dovuto vincere il Premio Nobel: Rosalind Franklin (1920-1958)

In evidenza

Rinaldo Cervellati.

La scienza e la vita di tutti i giorni non possono e non devono essere separati. La scienza, per me, fornisce una spiegazione parziale della vita, nella misura in cui si basa su fatti, esperienze e esperimenti. . . . Sono d’accordo che la fede è essenziale per il successo nella vita, ma io non accetto la vostra definizione di fede, cioè la fede nella vita dopo la morte. A mio avviso, tutto ciò che è necessario per la fede è la convinzione che, facendo del nostro meglio, ci avvicineremo al successo e che il successo nei nostri obiettivi (il miglioramento del destino dell’umanità, del presente e del futuro) meriti di essere raggiunto.

Rosalind Franklin, lettera al padre, 1940

Rosalind Elsie Franklin nasce a Londra nel 1920, seconda di cinque figli, da una famiglia benestante ebrea, di religiosa osservanza ma politicamente liberale.

Poiché a Rosalind non piacevano i giochi femminili fu considerata stravagante, i suoi ricordi di bambina sono di una lotta continua per farsi accettare. A sei anni iniziò a frequentare una scuola privata di Londra. Parlando di lei con il marito la zia disse: è paurosamente intelligente, passa tutto il suo tempo facendo aritmetica per svago e invariabilmente i suoi calcoli sono giusti [1]. Sviluppò anche un precoce interesse per lo sport, in particolare il cricket e l’hockey, in seguito si appassionò al trekking, passione che conservò per tutta la sua breve vita.

Rosalind Franklin

All’età di otto anni Rosalind si ammalò con frequenti problemi respiratori, e il medico di famiglia consigliò di mandarla in una scuola vicino al mare. Fu mandata quindi a frequentare la Lindores School per ragazze nel Sussex. La lezione che imparò là fu che era meglio ignorare dolore e malattia. A 11 anni tornò a Londra per frequentare la St. Paul Girl’s School, l’unica scuola femminile dove si insegnavano fisica e chimica. [2]

Con sei distinzioni, superò gli esami nel 1938, vincendo una borsa di studio per l’università. Suo padre le chiese di devolvere la borsa a un rifugiato meritevole di continuare gli studi. [2]

Nello stesso anno Franklin fu ammessa al Newnham College di Cambridge studiando chimica nell’ambito del Programma triennale di Scienze Naturali. Nel 1941 superò gli esami finali del Programma con onori, il che fece equiparare il suo diploma al B.A., qualificandola per un’occupazione[1].

Nell’ultimo anno di studi a Cambridge incontrò un rifugiato francese, Adrienne Weill, ex studente di Marie Curie, che ebbe una grande influenza sulla sua vita e la sua carriera e la aiutò a migliorare il suo francese parlato.

Franklin in gita trekking

Franklin ricevette anche una borsa di ricerca presso il Newnham College, iniziò quindi a lavorare nel laboratorio di chimica fisica dell’Università di Cambridge sotto la guida di Ronald Norrish. Nel suo anno di lavoro là non ebbe molto successo, soprattutto a causa dei caratteri dei due, entrambi ostinati e insofferenti delle critiche[2]. Quando, nel 1942 le fu offerto un posto di assistente ricercatore alla British Coal Utilization Research Association (BCURA), Franklin accettò rinunciando così alla borsa di ricerca.

BCURA era una recente organizzazione con meno formalità sul modo in cui condurre le ricerche. Franklin vi lavorò in modo abbastanza indipendente, una situazione adatta al suo carattere introverso. Rimase alla BCURA fino al 1947 pubblicando una serie di articoli sulla struttura fisica del carbone. Studiò la porosità del carbone utilizzando l’elio per determinare la sua densità. Scoprì il rapporto fra i restringimenti dei pori dei carboni e la permeabilità dello spazio poroso, concludendo che le sostanze vengono espulse secondo l’ordine delle dimensioni molecolari all’aumentare della temperatura. Contribuì a classificare i carboni e a prevedere accuratamente le loro prestazioni a scopo di combustibile e per la produzione di dispositivi come le maschere antigas [3, 4]. Nel 1945 l’Università di Cambridge le conferì il dottorato di ricerca in chimica. Durante la 2a Guerra mondiale, insieme alla cugina Irene, fece parte delle volontarie della Air Raid Precautions partecipando regolarmente alle pattuglie in soccorso della popolazione durante i bombardamenti aerei.

Terminata la guerra, Rosalind chiese all’amico Adrienne Weill di aiutarla a cercare un lavoro di ricerca a Parigi.

Rosalind Franklin in laboratorio

In una conferenza nell’autunno del 1946, Weill la presentò a Marcel Mathieu, direttore del Centro Nazionale per la Ricerca Scientifica (CNRS), rete di istituti comprendente la maggior parte dei laboratori di ricerca scientifica sostenuti dal governo francese. Ciò portò alla sua nomina al Laboratoire Central des Services Chimiques de l’Etat, a Parigi, con Jacques Mering[3]. Entrò a far parte del laboratorio di Mering il 14 febbraio 1947 come uno dei quindici ricercatori del gruppo. Mering era un cristallografo che decise di estendere la diffrazione a raggi X allo studio di fibre sintetiche (rayon) e di altre sostanze amorfe. Ciò presentava nuove sfide nella conduzione degli esperimenti e nell’interpretazione dei risultati. Franklin perfezionò questo metodo applicandolo anche al carbone, in particolare allo studio dei cambiamenti nella disposizione degli atomi quando viene convertito in grafite. Pubblicò molti altri lavori su questi aspetti che sono diventati dei classici della chimica fisica del carbone [4].

Sebbene fosse contenta del suo lavoro a Parigi e dello stile francese in generale, Franklin cominciò nel 1950 a cercare un posto da ricercatore in Inghilterra, ottenendo una borsa triennale come ricercatore associato al King’s College di Londra. Cominciò a lavorare nel gennaio 1951 nell’Unità di Biofisica del Medical Council al King’s, diretta da John Randall[4]. Inizialmente la borsa avrebbe dovuto essere utilizzata per ricerche sulla diffrazione a raggi X di proteine e lipidi ma Randall reindirizzò il lavoro alle fibre del DNA a causa di nuovi sviluppi in questo settore, e al fatto che Franklin era in quel momento l’unica esperta sperimentatrice in diffrattometria al King’s. Randall fece questa riassegnazione, prima dell’inizio del lavoro di Franklin al King’s, senza tener conto del lavoro pionieristico di Maurice Wilkins[5] e Raymond Gosling[6], rispettivamente ricercatore e studente di dottorato del King’s. Essi, pur utilizzando attrezzature grezze, avevano ottenuto nel maggio 1950 una chiara immagine di diffrazione del DNA che provocò ulteriore interesse per questa molecola. Randall tuttavia non li aveva informati della richiesta a Franklin di assumere sia il lavoro di diffrattometria del DNA che la guida della tesi di Gosling. La mancanza di comunicazione di Randall su questa decisione contribuì in modo significativo all’attrito che si sviluppò tra Wilkins e Franklin.

Franklin, in collaborazione con Gosling, iniziò ad applicare la sua esperienza nelle tecniche di diffrazione dei raggi X alla struttura del DNA. Usò un nuovo tubo a raggi X a regolazione fine del fuoco e microcamera ordinato da Wilkins, ma perfezionato da lei per migliorarne ulteriormente le prestazioni. Attraverso le sue conoscenze di chimica fisica, trattò opportunamente i suoi campioni di DNA. Quando Wilkins chiese di questa tecnica migliorata, lei rispose in termini che offesero Wilkins in quanto mostrò “un’aria di fredda superiorità”. Nonostante quest’atmosfera pesante, Franklin e Gosling scoprirono che esistevano due forme di DNA: ad alta umidità, le fibre di DNA se bagnate diventavano lunghe e sottili (struttura paracristallina); essiccate diventavano corte e spesse (struttura cristallina). Franklin chiamò forma B e A le due forme rispettivamente. I campioni potevano interconvertirsi da una forma all’altra variando il livello di umidità.

A causa del forte conflitto di personalità sviluppatosi tra Franklin e Wilkins, Randall suddivise il lavoro sul DNA in due ricerche. Franklin scelse la forma cristallina “A” mentre Wilkins scelse la forma “B” perché da alcune sue immagini preliminari sembrava avere una struttura a elica. Le immagini di diffrazione dei raggi X, tra cui la “foto 51”, scattata da Franklin, sono considerate una pietra miliare nella delucidazione della struttura del DNA.

La “foto 51” di Rosalind Franklin

Sulla struttura a elica Wilkins e Franklin ebbero animate discussioni. Nel gennaio 1953 Franklin, risolte alcune incongruenze fra i dati sperimentali, concluse che entrambe le forme del DNA avevano due eliche. Iniziò quindi a scrivere una serie di tre articoli, in due dei quali la struttura della forma A del DNA era descritta come una struttura a doppia elica dorsale. Questi due manoscritti sul DNA-A giunsero alla rivista Acta Crystallographica il 6 marzo 1953 e pubblicati nel fascicolo di settembre [6,7].

Sulla struttura del DNA stavano lavorando anche l’americano James Dewey Watson e il britannico Francis Henry Compton Crick al Cavendish Laboratory dell’Università di Cambridge, diretto da Lawrence Bragg[7]. Sembra accertato che durante una visita di Watson al King’s, Wilkins gli mostrò le foto di Franklin, (ovviamente a sua insaputa), foto sottratte dallo studio della scienziata da Gosling che riteneva corretto informare Wilkins in qualità di vice-direttore della ricerca. Watson capì immediatamente l’importanza di quelle immagini (in particolare la 51) e, tornato a Cambridge, si mise al lavoro insieme a Crick per elaborare un modello strutturale del DNA. Pubblicarono il loro modello a doppia elica sul fascicolo di Nature del 25 aprile 1953 [8].

Secondo B. Maddox [1] e a parere di altri biografi, Franklin scrisse i due articoli prima di essere a conoscenza del modello di Watson e Crick, questo perché, sostiene Maddox, quando ne venne a conoscenza aggiunse una nota alle bozze del suo secondo articolo per Acta Cristallographica:

Nota aggiunta alle bozze, 8 luglio 1953. Mentre questo articolo era in corso di stampa, Watson & Crick (1953) hanno proposto una struttura elicoidale a due catene per l’acido nucleico. Il loro modello potrebbe essere riferito alla nostra struttura B, in cui le molecole sono protette da una guaina d’acqua dall’influenza distorta delle molecole vicine, piuttosto che alla struttura A. Tuttavia, poiché la trasformazione AB è facilmente reversibile, se esiste una molecola a doppia catena elicoidale nella struttura B, essa deve persistere anche nella struttura A sebbene le dimensioni dell’elica possano essere alterate. Abbiamo mostrato (Franklin & Gosling 1953-2,3) che gli aspetti generali del modello di Watson & Crick paiono coerenti con i nostri risultati sebbene talune discrepanze fra le intensità equatoriali misurate e quelle calcolate per la struttura B, e fra i valori osservati e calcolati di densità, non ci permettano di accettarlo in tutti i dettagli. [7]

In realtà Franklin poteva anche non conoscere i dettagli del modello, ma sicuramente conosceva le intenzioni del gruppo di Cambridge, infatti si affrettò a spedire una comunicazione sulla struttura del DNA-B a Nature che la pubblicò nello stesso fascicolo del 25 aprile [9]. Questa nota viene posta in coda a quella di Watson e Crick e preceduta da una nota di Wilkins [10].

In un successivo fascicolo di Nature (25 luglio), comparve un secondo articolo riguardante l’evidenza di una struttura a doppia elica nel DNA-A [11]. I riferimenti [9] e [11] sono quelli citati nella nota aggiunta alle bozze dell’articolo poi pubblicato in settembre su Acta Cristallographica. Vale la pena notare che in questi articoli i protagonisti si ringraziano reciprocamente per gli scambi di idee e le discussioni, sebbene Watson e Crick si limitino ad affermare che erano stati stimolati dalla conoscenza… dei risultati sperimentali e dalle idee non pubblicate dei Dr. E.H.F. Wilkins, E.R. Franklin e dei loro collaboratori.[8] Non pubblicate? (N.d.R.)

Vale anche la pena ricordare che Nature è una rivista a cadenza più che settimanale (contando anche i supplementi) che in generale pubblica rapidamente brevi comunicazioni preliminari su ricerche originali riguardanti argomenti “di frontiera”, quindi molto ambita; Acta Cristallografica è una rivista mensile di un settore specifico di ricerca che pubblica articoli molto dettagliati sia nella parte sperimentale sia in quella interpretativa, ovviamente con tempi più lunghi. Se però si osservano bene tutte le date, si nota che gli articoli dettagliati di Franklin e Gosling sono stati ricevuti da Acta Cristallografica il 6 marzo 1953 mentre la nota di Watson e Crick fu spedita o ricevuta da Nature il 2 aprile 1953…

Maddox [1] afferma che l’ordine dei tre lavori pubblicati su Nature nell’aprile 1953 fu stabilito in seguito a un accordo fra i direttori dei due laboratori, Bragg e Randall rispettivamente, escludendo i dati sperimentali di Franklin, Gosling e Wilkins apparentemente solo a sostegno del modello teorico di Crick e Watson per la forma B del DNA.

Il terzo manoscritto di Franklin, datato 17 marzo 1953 riguardante la forma B del DNA, fu scoperto anni dopo nei documenti di Franklin, dal collega Aaron Klug del Birkbeck College, dove Franklin si era trasferita. Klug [12] pubblicò in seguito una valutazione sulla stretta correlazione fra i tre articoli comparsi su Nature nel 1953, al fine di evidenziare il significativo contributo di Franklin all’elucidazione della struttura del DNA. Scrisse quest’articolo come risposta all’immagine distorta del lavoro di Franklin descritta nel libro di Watson, The Double Helix, nel 1968 [13][8].

Franklin lasciò il King’s College di Londra a metà marzo 1953 per il Birkbeck College, Università di Londra, con una mossa che era stata pianificata da tempo e che descrisse (in una lettera ad Adrienne Weill a Parigi) come: trasferimento da un palazzo a una casa popolare … ma piacevole lo stesso. Fu chiamata dal Preside del Dipartimento di Fisica, J.D. Bernal[9], un brillante cristallografo irlandese politicamente comunista, noto per la promozione delle donne cristallografe. Franklin lavorò come scienziato senior con un suo gruppo di ricerca finanziato dal Consiglio per la Ricerca Agraria (ARC). Nonostante il suggerimento di Bernal di abbandonare l’interesse per gli acidi nucleici, Franklin aiutò Gosling a finire la sua tesi, sebbene non fosse più il suo supervisore ufficiale. Come già ricordato essi pubblicarono un lavoro su Nature nel numero di luglio 1953 [11]

Continuò inoltre a esplorare un altro importante acido nucleico, l’RNA, una molecola altrettanto centrale per la vita quanto il DNA. Al Birkbeck, Franklin usò la diffrattometria a raggi X per studiare la struttura a mosaico del virus del tabacco (TMV). Iniziò una lunga e fruttuosa collaborazione con Aaron Klug. Nel 1955 Franklin pubblicò i suoi primi importanti lavori sul TMV, in cui descriveva che le particelle del virus TMV avevano tutte la stessa lunghezza. Ciò era in contraddizione con le idee dell’eminente virologo Norman Pirie, anche se alla fine le osservazioni di Franklin si dimostrarono corrette.

Micrografia del TMV

Franklin assegnò lo studio della struttura completa del TMV al suo studente di dottorato Kenneth Holmes. Scoprirono presto che il mantello del TMV era costituito da molecole proteiche disposte a elica. Il suo collega Klug lavorò a virus sferici con il suo allievo John Finch, con Franklin come coordinatrice e supervisore di tutte le ricerche. Come squadra, dal 1956 iniziarono a pubblicare importanti articoli sul TMV, sul virus del cetriolo e sul virus del mosaico giallo della rapa.

Nel 1957 esaurì la sua borsa di ricerca, ma l’ARC la prorogò di un anno. Nel frattempo presentò un progetto di ricerca al National Institute of Health degli Stati Uniti, che lo approvò con un finanziamento di 10.000 sterline per tre anni, il più grande fondo mai ricevuto al Birkbeck College.

Nel 1957 Franklin fu invitata dall’Expo 1958 di Bruxelles, la prima esposizione internazionale dalla fine della 2a guerra mondiale, a presentare un modello del TMV alto più di 1,5 metri. Il modello fu realizzato con palline da tennis e manubri da bicicletta e presentato al Padiglione Internazionale delle Scienze il 17 aprile 1958, un giorno dopo la sua morte.

Già all’inizio del 1956 Franklin aveva problemi di salute, le fu infine diagnosticato un cancro all’addome. Alternò periodi di ospedalizzazione e di convalescenza continuando a lavorare fino alla fine. La continua esposizione ai raggi X con scarsa o nulla protezione fu ipotizzata come una delle cause della malattia.

Klug e gli altri membri del suo gruppo di ricerca le furono sempre accanto (Klug fu scelto come uno dei suoi esecutori testamentari), successivamente, nel 1962 si trasferirono al Laboratorio di Biologia Molecolare di Cambridge.

Franklin non fu mai nominata per un premio Nobel, sebbene il suo lavoro sia stato una parte cruciale nella scoperta del DNA. Durante la sua vita la struttura del DNA non era considerata pienamente provata. Wilkins e i suoi colleghi impiegarono circa sette anni per raccogliere dati sufficienti a dimostrare la realtà della struttura del DNA proposta. Inoltre, il suo ruolo biologico, come proposto da Watson e Crick, non era stato accettato. Il riconoscimento unanime della doppia elica del DNA e la sua funzione di replicazione avvenne solo alla fine degli anni 50. Nel 1962 il premio Nobel fu assegnato a Crick, Watson e Wilkins. La motivazione del premio non fu esclusivamente per la scoperta della struttura del DNA, ma per tutto l’insieme del loro lavoro sugli acidi nucleici. Al momento del premio, Wilkins aveva lavorato sulla struttura del DNA per più di 10 anni e aveva fatto molto per confermare il modello Watson-Crick. Crick aveva lavorato al codice genetico di Cambridge e Watson aveva lavorato sul RNA per alcuni anni. Franklin era deceduta e le regole del premio Nobel proibiscono le assegnazioni postume o la divisione del Premio fra più di tre persone.

Al collega e amico Aaron Klug fu assegnato il premio Nobel per la chimica nel 1982, “per il suo sviluppo della microscopia elettronica cristallografica e la sua elucidazione strutturale della proteina acido nucleica complessa”, che era esattamente quello che Franklin aveva iniziato e poi proseguito insieme a Klug. Secondo Maddox [1] è altamente plausibile che, se fosse stata viva, avrebbe condiviso il premio Nobel con Klug. Sono pienamente d’accordo con questa ipotesi ma ritengo comunque che Franklin fosse meritevole del Nobel per la chimica già nel 1956 o nel 1957 quando era ancora in vita.

Bibliografia

[1] B. Maddox, Rosalind Franklin. The dark lady of DNA, 1st Ed., Harper Collins, New York, 2002.

[2] D. Berger, A Biography of the Dark Lady of Notting Hill, United Sinagogue Women,

https://www.theus.org.uk/printpdf/article/biography-dark-lady-notting-hill

  1. anche: The Rosalind Franklin Papers. Biogaphical information

https://profiles.nlm.nih.gov/ps/retrieve/Narrative/KR/p-nid/183

[3] The Rosalind Franklin Papers. The Holes in coal: Research at BCURA and in Paris, 1942-1951

https://profiles.nlm.nih.gov/ps/retrieve/Narrative/KR/p-nid/186

[4] P.J.F. Harris, Rosalind Franklin’s work on coal, carbon, and graphite Interdisciplinary Science Reviews, 2001, 26, 204-209.

[5] The Rosalind Franklin Papers. The DNA Riddle: King’s College, London, 1951-1953

https://profiles.nlm.nih.gov/ps/retrieve/Narrative/KR/p-nid/187

[6] R.E. Franklin, R.G. Gosling, The Structure of Sodium Thymonucleate Fibres. I. The Influence of Water Content, Acta Cryst., 1953, 6, 673-677.

[7] R.E. Franklin, R.G. Gosling, The Structure of Sodium Thymonucleate Fibres. II. The Cylindrically Symmetrical Patterson Function, Acta Cryst., 1953, 6, 678-685.

[8] J.D. Watson, F.H.C. Crick, Molecular Structure of Nucleic Acids, Nature, 1953, 171, 737-738.

[9] R.E. Franklin, R.G. Gosling, Molecular configuration in Sodium Thymonucleate, Nature, 1953, 171, 740-741.

[10] M.H.F. Wilkins, A.R. Stokes, H.R. Wilson, Molecular Structure of Deoxypentose Nucleic Acids, Nature, 1953, 171, 738-740.

[11] R.E. Franklin, R.G. Gosling, Evidence for 2-Chain Helix in Cristalline Structure of Sodium Deoxyribonucleate, Nature, 1953, 172, 156-157.

[12] A. Klug, Rosalind Franklin and the Discovery of the Structure of DNA, Nature, 1968, 219, 808-810; A. Klug, Rosalind Franklin and the double helix, Nature, 1974, 248, 787-788.

[13] J.D. Watson, The Double Helix, Atheneum Press (Simon & Schuster, Inc.), New York, 1968

[14] The Rosalind Franklin Papers. Envisioning Viruses: Birkbeck College, London, 1953-1958

https://profiles.nlm.nih.gov/ps/retrieve/Narrative/KR/p-nid/188

[1] L’Università di Cambridge iniziò l’assegnazione dei titoli B.A. (Bachelor of Arts) e M.A. (Master of Arts) alle donne solo dal 1947.

[2] Ronald Norrish (1897-1978) chimico britannico noto per le sue importanti ricerche in cinetica e fotochimica, ottenne il Premio Nobel nel 1967 (insieme a Manfred Eigen e George Porter) per i loro studi sulla cinetica delle reazioni estremamente veloci. I sui biografi lo descrivono come “ostinato e quasi perverso in argomentazioni, prepotente e sensibile alla critica”.

[3] Jacques Mering (1904-1973) russo naturalizzato francese, ingegnere noto per i suoi studi di cristallografia e mineralogia, è ricordato soprattutto per avere indirizzato Rosalind Franklin alla diffrattometria a raggi X.

[4] Sir John Turton Randall (1905-1984) fisico e biofisico britannico apportò sostanziali miglioramenti al magnetron, componente essenziale del radar centimetrico, una delle chiavi di volta della vittoria britannica nella Battaglia d’Inghilterra nella seconda guerra mondiale. Direttore del Dipartimento di Fisica del King’s College passò poi a dirigere l’Unità di Ricerca Biofisica sempre al King’s. Durante la sua direzione il lavoro sperimentale portò alla scoperta della struttura del DNA.

[5] Maurice Hugh Friedrich Wilkins (1916-2004) fisico e biologo molecolare neozelandese naturalizzato britannico, ha dato importanti contributi nello studio della fosforescenza, separazione isotopica, microscopia ottica e diffrattometria X, è noto per le sue ricerche sulla struttura del DNA che gli valsero il Premio Nobel 1962 per la medicina, insieme a Watson e Crick.

[6] Raymond George Gosling (1926-2015) fisico britannico, intraprese i suoi studi di dottorato prima con Maurice Wilkins con il quale ottenne le prime immagini chiare di filamenti idratati di DNA. Proseguì poi il lavoro con Rosalind Franklin collaborando all’ottenimento della famosa “fotografia 51”, immagine di diffrazione ai raggi X della struttura del DNA-B. È stato coautore di uno dei tre articoli comparsi su Nature il 25 aprile 1953. Ottenne il dottorato nel 1954. Docente al Queen’s College dell’Università di St. Andrews.

[7] Sir William Lawrence Bragg (1890-1971) fisico australiano-britannico, enunciò nel 1912 la legge di Bragg sulla diffrazione dei raggi X, fondamentale per l’interpretazione della struttura dei cristalli. Insieme al padre, William Henry Bragg, ottenne il Premio Nobel per la Fisica nel 1915 per i loro importanti contributi nell’analisi della struttura cristallina per mezzo dei raggi X.

[8] Questa autobiografia di Watson fu aspramente criticata dai più importanti biografi di Franklin. Burton Feldman scrisse: “Il libro si basa pesantemente sulle personalità, alcune delle quali, come quella di Rosalind Franklin, sono trattate in modo fumettistico”.

[9] John Desmond Bernal (1901-1971) fisico di origine irlandese è stato un pioniere nell’impiego della cristallografia a raggi X in biologia molecolare, inoltre si è interessato attivamente di Storia della Scienza con all’attivo una serie di articoli e libri. Sostenitore del comunismo ha scritto diverse opere su scienza e società https://www.marxists.org/archive/bernal

L’ architetto dell’invisibile ovvero come pensa un chimico.

In evidenza

Mauro Icardi

Prendo spunto dall’intervista a Marco Malvaldi, che in questi giorni sta presentando il suo nuovo libro “L’architetto dell’invisibile, ovvero come pensa un chimico” per aggiungere qualche mia considerazione personale.

Marco Mavaldi, chimico e scrittore

  In una recente intervista, l’autore parla di alcuni argomenti e temi che ritengo fondamentali, e credo che rappresentino un patrimonio comune ad ogni chimico.

Per prima cosa ( e giustamente) alla domanda sul perché abbia scelto di studiare chimica, risponde con un comprensibile orgoglio, che la chimica è la disciplina scientifica che lo ha formato come persona, e respinge l’immagine stereotipata che dipinge la chimica e come la disciplina dei “brutti sporchi e cattivi che inquinano”.

Decisamente azzeccata la definizione della chimica come linguaggio, dove gli   atomi rappresentano le lettere, le molecole le parole, ed i processi chimici le frasi.

Qui mi sovviene l’analogia con Primo Levi che paragonava la tavola periodica come l’esempio più alto di poesia, con addirittura le rime. Questo nel capitolo “Ferro” de “Il sistema periodico”.

Altra analogia Malvaldi- Levi è relativa alla chimica come materia scientifica, ma che permette di usare le mani. Levi descrive l’imbarazzo di non saperle usare compiutamente nel capitolo “Idrogeno”. “Le nostre mani erano rozze e deboli ad un tempo, regredite, insensibili: la parte meno educata dei nostri corpi”, paragonandole invece a quelle delle donne, delle madri che sapevano cucinare, ricamare, intrecciare i capelli, e suonare il pianoforte.

Malvaldi dichiara che voleva studiare una materia scientifica che gli permettesse di usarle.

Chi ha praticato il Laboratorio credo ricordi con un senso di piacere il momento in cui si è reso conto di avere acquisito la manualità opportuna, di non essere più imbarazzato o pasticcione come agli inizi. Anche questo è parte di una “sensibilità chimica” che è, a mio parere, ampia e diversificata. La manualità in laboratorio ne è una parte, che sarebbe un peccato perdere, o mettere da parte dedicandosi solamente all’analisi tecnica. Curiosamente ne ho parlato solo due giorni fa, trovandomi in pausa pranzo con un chimico che si è seduto accanto a me, in un affollato self service. Chiacchierando ci siamo scoperti colleghi, e non essendo più giovanissimi abbiamo ricordato esperienze comuni. Sia nel percorso formativo, che in quello professionale. Ricordi condivisi, ed anche una stessa delusione nel sapere che parti importanti e fondamentali dell’istruzione superiore in chimica sono stati ormai abbandonati. L’analisi semimicroqualitativa tra le altre, ormai scomparsa dai programmi degli istituti di scuola superiore.

Ritornando a quanto dice Malvaldi nella sua intervista, vale la pena di riportare questo brano :

Un chimico non pensa mai in termini di naturale o artificiale: una molecola è una molecola. Quando sente la frase: Questo fa bene, è tutto naturale, il chimico si gratta: gli viene in mente che anche la cicuta o il veleno dello scorpione sono naturali

Il resto dell’intervista a Malvaldi spazia su molti temi. Il sempre attuale rapporto costi/benefici citando Fritz Haber chimico tedesco che sintetizzò gas per uso bellico, ma sviluppò anche il fondamentale processo di sintesi dell’ammoniaca.

Noto con piacere che continuano ad uscire libri di divulgazione chimica. La ritengo una cosa molto positiva. Per la chimica, ma in generale per una crescita di conoscenza di base di cui dovrebbero beneficiare i non chimici.

Fatta questa considerazione alcuni temi rimangono ovviamente aperti, e sono le sfide della chimica del futuro. La sintesi dell’ammoniaca è stata fondamentale, ma lo sbilanciamento del ciclo dell’azoto è uno dei problemi ambientali da affrontare. Così come quello degli inquinanti persistenti e biorefrattari. Ma quanto abbiamo ottenuto in termini di qualità della vita, e che dobbiamo alla chimica non può e non deve essere dimenticato. Come chimici sappiamo anche praticare l’arte di essere critici e selettivi. Qualità imparate studiando e praticando tecniche cromatografiche, per esempio.

Non credo che si possa e si debba prescindere da questo patrimonio di conoscenza. Adesso come obbiettivo abbiamo quello di custodire il pianeta, e di essere artefici di un cambiamento culturale e metodologico che ci impegnerà molto in futuro.

Ma abbiamo una importante carta da giocare. La consapevolezza che, come dice Marco Malvaldi, una volta che la si scopre, la chimica è una materia che da dipendenza. E io so che è proprio così, perché questa è una situazione che a livello mentale mi capita spesso di provare.

Qui l’intervista a Marco Malvaldi pubblicata sul sito del quotidiano “Il giornale”

http://www.ilgiornale.it/news/cultura/chimica-linguaggio-e-scrivere-usa-atomi-1464564.html

Note sull’Antropocene.3. Gli scenari.parte seconda.

In evidenza

Claudio Della Volpe.

In questa serie di post stiamo discutendo di Antropocene, l’argomento che da il sottotitolo al nostro blog e ne imposta i temi. Abbiamo via via analizzato nei 4 post precedenti (pubblicati qui, qui, qui e qui) le origini e le ipotesi sul momento iniziale che definisce l’Antropocene; poi ne abbiamo discusso alcuni scenari possibili.

Dedicheremo questo post a quello che ho definito scenario 3R o scenario Balzani.

Vincenzo Balzani e Nicola Armaroli col loro gruppo Energia per l’Italia esprimono compiutamente una posizione 3R, ossia basata sull’idea che l’uso esteso di energie rinnovabili, il riuso degli oggetti e il riciclo dei materiali, insieme con la riduzione delle diseguaglianze sociali ed economiche fortissime attualmente esistenti, (secondo il rapporto Oxfam dello scorso anno gli 8 uomini più ricchi del mondo posseggono quanto la metà più povera dell’umanità, 3.6 miliardi di persone, o se volete l’1% dell’umanità possiede quanto o più che il rimanente 99%) costituisca la base per una gestione economica sostenibile.

L’idea di base di questo punto di vista è che l’economia sia in effetti basata sul sistema della biosfera, e questo non solo perché una parte dei servizi importanti è fornita direttamente dalla Natura senza essere pagata (pensate al ricambio dell’ossigeno, al ciclo del carbonio, all’impollinazione dei fiori, alla degradazione dei residui (le nostre deiezioni) fornita dai batteri, etc etc) ma anche perchè le risorse anche non rinnovabili che usiamo sono parte di un patrimonio naturale formatosi in centinaia di milioni di anni, come per esempio i combustibili fossili o le concentrazioni di risorse minerarie come i fosfati del Marocco o di Nauru e che non c’è più il tempo di ricostituirli, sono un unicum , un regalo naturale che non si ripeterà e che stiamo dilapidando rapidamente. E’ la posizione definita ecological economics, fondata da scienziati che ho nominato a riguardo del primo scenario come Georgescu Roegen, ma anche da chimici come il compianto Enzo Tiezzi; da ecologisti come Barry Commoner.

Tutti questi scienziati italiani e di altri paesi si sono resi conto che occorre chiudere il cerchio della produzione e della economia umane.

Barry Commoner riassumeva le quattro leggi dell’ecologia, ma che anche l’economia umana dovrebbe soddisfare, perchè dopo tutto l’economia umana è una parte ormai integrante dell’ecologia del pianeta:

Ogni cosa è connessa con qualsiasi altra. “L’ambiente costituisce una macchina vivente, immensa ed estremamente complessa, che forma un sottile strato dinamico sulla superficie terrestre. Ogni specie vivente è collegata con molte altre. Questi legami stupiscono per la loro varietà e per le loro sottili interrelazioni.” Questa legge indica la interconnessione tra tutte le specie viventi, in natura non esistono rifiuti:es. ciò che l’uomo produce come rifiuto ossia l’anidride carbonica è utilizzata dalle piante come risorsa. L’uomo col suo inquinamento altera ogni giorno il ciclo naturale degli eventi. 

2) Ogni cosa deve finire da qualche parte. “In ogni sistema naturale, ciò che viene eliminato da un organismo, come rifiuto, viene utilizzato da un altro come cibo.” Niente scompare. Si ha semplicemente un trasferimento della sostanza da un luogo all’altro, una variazione di forma molecolare che agisce sui processi vitali dell’organismo del quale viene a fare parte per un certo tempo. 

3) La natura è l’unica a sapere il fatto suo. “Sono quasi sicuro che questo principio incontrerà notevole resistenza, poiché sembra contraddire la fede universale nella competenza assoluta del genere umano.” Questo indica esplicitamente l’uomo a non essere così pieno di se e a usare la natura come se potesse renderla a suo indiscriminato servizio. Se la natura si ribella l’uomo crolla. 

4) Non si distribuiscono pasti gratuiti.“In ecologia, come in economia, non c’è guadagno che possa essere ottenuto senza un certo costo. In pratica, questa quarta legge non fa che sintetizzare le tre precedenti. Non si può evitare il pagamento di questo prezzo, lo si può solo rimandare nel tempo. Ogni cosa che l’uomo sottrae a questo sistema deve essere restituita. L’attuale crisi ambientale ci ammonisce che abbiamo rimandato troppo a lungo.” Dal libro “Il cerchio da chiudere” – Barry Commoner

Analogamente un filosofo dell’ottocento che non nomino, ma cito spesso, diceva a proposito di un futuro scenario di antropocene sostenibile: «I produttori associati regolano razionalmente il loro ricambio organico con la natura, lo portano sotto il loro comune controllo invece di essere dominati da esso come una forza cieca».

Notate una cosa, che il concetto stesso di profitto dei fattori della produzione, su cui è basato il modello economico neoclassico è contrario alla quarta legge; l’economia è un gioco a somma nulla: se uno guadagna un altro perderà; non ci sono profitti per tutti creati dalla mera proprietà delle cose; le cose tendono a degradarsi senza un continuo afflusso di energia e di lavoro, certo non a crescere spontaneamente, per cui questa supposta proprietà del denaro e dell’economia è del tutto incompatibile con l’ecologia.

Finchè come uomni eravamo piccoli, finchè eravamo pochi potevamo fare orecchio da mercante, illuderci che quel che facevamo era una percentuale ridicola dell’ecologia planetaria, dire una cosa è l’ecologia e una l’economia; ma adesso le cose sono cambiate.

Adesso noi e i nostri animali rappresentiamo una quota enorme della biomassa planetaria, almeno di quella degli animali vertebrati, e usiamo una quota strabocchevole delle risorse totali di tutti i tipi, come già discusso nella prima parte.

Questo conduce ad effetti inattesi di cui vi presento un esempio recentissimo.

Gli insetti sono una vasta classe di esseri viventi che come numero e massa domina il pianeta, seconda solo ai batteri probabilmente, gli insetti compiono innumerevoli servizi, alcuni dei quali ci stanno antipatici e sono nocivi, come le zanzare anofele, ma in genere sono utilissimi (per esempio impollinano la gran parte delle piante che usiamo per la nostra alimentazione e aiutano a decomporre i rifiuti, servizi ecologici fondamentali per i quali non li paghiamo ma ci aspettiamo che li svolgano); ebbene una analisi recente sia pur limitata condotta in Germania e durata quasi 30 anni mostra che il loro numero è in forte e sconcertante diminuzione, una diminuzione molto forte che va sotto il nome di “sindrome del parabrezza pulito”, una osservazione che potete fare da soli la prossima volta che fate un viaggio in autostrada (http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0185809).

Lo studio ha usato un protocollo stantardizzato per misurare la massa totale di insetti in 27 anni e 63 aree di protezione naturale mostrando che il declino stagionale è del 76% con punte di oltre l’80 nella biomassa degli insetti volanti. Esso sembra indipendente dal tipo di habitat e non se ne conoscono le ragioni.

Non si tratta di una osservazione isolata, l’allarme era stato già lanciato da altro studiosi in altri paesi ed aveva trovato ospitalità ripetutamente nelle pagine di Nature (539, p.41, 2016).

Una riduzione generalizzata del numero di insetti volanti è un fenomeno estremamente preoccupante ma che si associa benissimo alla estinzione di specie causata dall’uomo direttamente (inquinamento) o indirettamente (cambiamento climatico e distruzione degli habitat). La chimica è sempre in prima fila in queste azioni perchè di fatto volente o nolente è strumento di controllo attivo e passivo degli insetti specie nell’agricoltura intensiva.

Quale è la soluzione almeno possibile?

Se questa è la situazione attuale come dalle pagine dello Stockholm Resilience Centerla soluzione sta nell’entrare nella cosidetta economia della ciambella, illustrata dalla eco-economista Kate Raworth.

Ce lo racconta Luca Pardi sul sito di Aspo Italia:

L’economia della ciambella include, oltre al tetto ecologico all’attività umana del grafico (il limite oltre il quale la Biosfera inizia a cedere), anche un pavimento sociale al di sotto del quale non si dovrebbe scendere per evitare il malessere e l’instabilità sociale. L’immagine è affascinante perché descrive in una singola figura un’economia di stato stazionario in cui il metabolismo sociale ed economico umano ha raggiunto un livello che garantisce un elevato grado di benessere, equità distributiva e salvaguardia della biosfera. Cioè qualcosa che è sideralmente lontano dall’attuale dinamica globale :

La ciambella indica gli stretti confini “stabili” entro i quali deve muoversi la nostra attività per rimanere nelle possibilità della biosfera.

La crescita continua della produzione, la crescita del PIL del 2-3% all’anno che corrisponde ad una crescita fisica della produzione di energia e di materia non è sostenibile da parte di una biosfera finita; occorrerebbe sganciare la crescita dell’economia dalla crescita fisica dei parametri energetici e dei materiali, ma abbiamo visto come i think thank economici anche i più “democratici” lo ritengano impossibile. In definitiva se pensate che il termine “sviluppo sostenibile” corrisponda ad una “crescita sostenibile” avete sbagliato.
L’ alternativa è dunque obbligata; smontare il meccanismo produttivo basato sulla crescita e che comunemente chiamiamo capitalismo; l’accumulazione continua non è possibile.

Questo concetto è stato espresso anche dal Papa, quando nella sua ultima encliclica, Laudato sì, rivolgendosi non solo ai cattolici, ma «a ogni persona che abita questo pianeta» invita a «eliminare le cause strutturali delle disfunzioni dell’economia mondiale» correggendo «i modelli di crescita» incapaci di garantire il rispetto dell’ambiente.

Ancora più recentemente, la Union of concerned scientists (UCS) ha riproposto una petizione firmata da oltre 15000 scienziati fra cui praticamente tutti i Nobel che rinnova una analoga petizione lanciata già nel 1992 e che denunciava questa situazione; io l’ho firmata dal principio; la petizione conclude:

To prevent widespread misery and catastrophic biodiversity loss, humanity must practice a more environmentally sustainable alternative to business as usual. This prescription was well articulated by the world’s leading scientists 25 years ago, but in most respects, we have not heeded their warning. Soon it will be too late to shift course away from our failing trajectory, and time is running out. We must recognize, in our day- to-day lives and in our governing institutions, that Earth with all its life is our only home.

that Earth with all its life is our only home: che la Terra con tutta la sua vita è la nostra sola casa; la stessa idea di Vincenzo Balzani nel libro “Energia per l’astronave Terra”, ricordate? “ci troviamo su una astronave con risorse limitate”.

Vincenzo Balzani e Nicola Armaroli hanno espresso il loro punto di vista sul futuro dell’Antropocene quando hanno scritto:

.Per vivere nel terzo millenio abbiamo bisogno di paradigmi sociali ed economici innovativi e di nuovi modi di guardare ai problemi del mondo. Scienza, ma anche coscienza, responsabilità, compassione ed attenzione, devono essere alla base di una nuova società basata sulla conoscenza, la cui energia sia basata sulle energie rinnovabili, e che siamo chiamati a costruire nei prossimi trent’anni. L’alternativa, forse è solo la barbarie.(Vincenzo Balzani e Nicola Armaroli, Energy for a sustainable world, Wiley CH, 2011)

Cosa dirvi? Occorre non solo condividere questi obiettivi ma orientare verso di essi la nostra attività di ricercatori e di cittadini.

Scienziate che avrebbero dovuto vincere il Premio Nobel: Lise Meitner (1878-1968)

In evidenza

Rinaldo Cervellati.

Lise Meitner: a physicist who never lost her humanity

Otto Robert Frisch

 

Elise (poi Lise) Meitner nasce a Vienna il 7 novembre 1878, terza di otto figli, da una famiglia ebraica di classe medio – alta. Tuttavia il padre, noto avvocato, era un libero pensatore e quindi la religione ebraico – giudaica non influenzò l’educazione dei figli. Fin dall’età di otto anni Elise mostrò uno spiccato interesse per le scienze, con una particolare predisposizione per la fisica e la matematica. Condusse propri esperimenti sui colori, su film sottili e sulla riflessione della luce. Purtroppo a quei tempi alle donne non era concesso frequentare istituti pubblici di educazione superiore, dovette quindi prendere un diploma di lingua francese e diventare insegnante di quella materia (l’unica professione per cui non era richiesta una preparazione universitaria). Nel frattempo si preparava privatamente per l’esame di maturità che era stato finalmente concesso anche alle donne. Nel 1901 superò l’esame, una delle quattro su 14 candidate a farcela. All’università di Vienna seguì i corsi di fisica, matematica, chimica e botanica, decidendo comunque che sarebbe diventata fisico. Anche il periodo da studentessa non fu facile, il suo biografo e nipote, Otto Robert Frisch[1], dice che dovette subire sgarbi da parte dei suoi colleghi uomini (a quei tempi una studentessa donna era considerata un fenomeno da circo) ma ricevette anche incoraggiamenti da parte dei professori [1]. Seguì le lezioni di Ludwig Boltzmann per il quale conservò sempre una grande ammirazione. Nel 1905 ottenne il dottorato in fisica, la seconda donna a raggiungere questo traguardo in Austria. A Vienna cominciò il suo interesse per la radioattività: nel 1905 non era ancora stato provato che le particelle α potessero essere deflesse passando attraverso la materia, Meitner progettò e realizzò uno dei primi esperimenti che dimostravano inequivocabilmente che alcune deflessioni avvenivano. Gli esperimenti mostravano che le deflessioni aumentavano all’aumentare del peso atomico dell’elemento attraverso cui le particelle venivano fatte passare [2]. Tuttavia non aveva ancora intenzione di specializzarsi in questo campo, che diventerà poi il suo principale interesse di ricerca. Da notare che esperimenti simili a questi e l’analisi statistica delle deflessioni condussero Ernest Rutherford alla scoperta del nucleo atomico (1911).

Lise Meitner nel 1906

Nel 1907 si reca a Berlino ma ha difficoltà a trovare lavoro come ricercatrice. Segue le lezioni di Max Planck all’università e incontra un giovane chimico, Otto Hahn, il quale stava cercando un fisico che lo aiutasse a interpretare i risultati dei suoi esperimenti sulla radioattività. Poiché Emil Fischer, direttore dell’Istituto di Chimica, non accettava donne nei laboratori dell’Istituto (era la legge), Otto e Lisa effettuarono i loro primi lavori in una carpenteria adattata a laboratorio per misure di radioattività. Fortunatamente, due anni dopo fu concesso e regolarizzato l’accesso delle donne all’università, Fischer tolse il divieto e i due poterono continuare le ricerche in un ambiente più favorevole e col sostegno dello stesso Fischer.

Per Hahn, chimico, la parte più avvincente della ricerca era la possibile scoperta di nuovi elementi e delle loro proprietà, Meitner, fisico, era più interessata alla caratterizzazione energetica delle particelle radioattive. Nel 1909 Meitner pubblica due lavori sull’energia della radiazione β.

Inoltre, insieme a Otto Hahn, ha scoperto e sviluppato un metodo fisico di separazione conosciuto come radioactive recoil, in cui i nuclei emettenti figli sono forzatamente espulsi dalla matrice nel momento del loro decadimento. In questo modo scoprirono la formazione di nuovi isotopi.

Nel 1912 il gruppo Hahn-Meitner si trasferì nella nuova sede del Kaiser Wilhelm Institute, dove Lise lavorò come ricercatore-visitatore nel dipartimento di Radiochimica diretto da Hahn, senza stipendio fino all’anno successivo quando ottenne un posto fisso all’Istituto dopo aver ricevuto l’offerta per professore associato all’Università di Praga.

Lise Meitner e Otto Hahn

Nella prima parte della Ia guerra mondiale, Meitner servì come infermiera addetta agli apparecchi a raggi X. Ritornò a Berlino e alla sua ricerca nel 1916, ma non senza lotta interiore. Sentiva una certa vergogna per voler continuare i suoi sforzi di ricerca quando pensava al dolore e alla sofferenza delle vittime della guerra e delle loro esigenze mediche ed emotive.

Nel 1917 Meitner e Hahn scoprirono il primo isotopo radioattivo a vita lunga dell’elemento protoattinio, per questo Meitner fu insignita della Medaglia Leibniz dall’Accademia Berlinese delle Scienze.

Nel 1926, Meitner divenne la prima donna in Germania a ottenere una cattedra di fisica all’Università di Berlino. Nel 1935, come direttore del dipartimento di fisica del Kaiser Wilhelm Institute di Berlino-Dahlem, insieme a Otto Hahn, divenuto direttore dell’Istituto, intraprese il cosiddetto “progetto transuranio” che portò alla scoperta inaspettata della fissione nucleare.

La scoperta del neutrone da parte di James Chadwick (1932) fu favorita anche dal fatto che Meitner gli fornì una piccola quantità di polonio (un emettitore α) più confacente del radio (emettitore α, β e γ) per gli esperimenti che aveva in mente. Con la scoperta del neutrone si aprirono nuove possibilità per l’esplorazione del nucleo atomico: come ho scritto nel precedente post, il gruppo di Fermi all’università di Roma, bombardando un composto di uranio con un fascio di neutroni suppose di aver prodotto i due elementi successivi, il 93 e il 94 (1934). Ignorando le critiche e le ipotesi di Ida Noddack, i fisici diedero credito alle conclusioni di Fermi, Meitner compresa [3].

Nel frattempo le leggi razziali naziste del 1934 costrinsero parecchi scienziati tedeschi di origine ebraica, fra cui Leo Szilard, Fritz Haber, Otto Frisch (nipote di Meitner) e molti altri ad abbandonare le loro cattedre e le loro ricerche cercando riparo all’estero.

Otto Frisch

Meitner, protetta dalla sua cittadinanza austriaca continuò le sue ricerche con Hahn a Berlino fino al 1938, quando con l’Anschluss l’Austria divenne parte della Germania. Meitner riuscì fortunosamente a raggiungere la Danimarca e infine la neutrale Svezia grazie anche all’aiuto di Niels Bohr e del nipote Otto Frisch. A Stoccolma si ricongiunse a Otto Frisch. Continuò comunque a corrispondere regolarmente con Hahn e altri scienziati tedeschi.

In occasione di una conferenza di Hahn nell’Istituto di Fisica di Copenhagen, Hahn, Bohr, Meitner e Frisch si incontrarono il 10 novembre 1938. Successivamente continuarono a scambiarsi una serie di lettere. Nel mese di dicembre Hahn e il suo assistente Fritz Strassmann[2] eseguirono nel loro laboratorio di Berlino i difficili esperimenti che provavano la realtà della “rottura” del nucleo di uranio bombardato da neutroni in bario (e krypton).

Apparecchiatura per lo studi della fissione (Museo di Monaco)

La corrispondenza con Meitner mostra che Hahn riconosceva che la “rottura” era l’unica spiegazione per la presenza del bario (in un primo momento chiamò il processo uno “scoppio” dell’uranio), ma era sconcertato da questa incredibile conclusione. Tuttavia i due inviarono, contemporaneamente alla lettera, una prima nota alla rivista Naturwissenschaften [4]. Di ciò non furono informati neppure i fisici del dipartimento dell’Istituto.

In questa nota essi sostengono, seppure fra molti dubbi e perplessità, di aver ottenuto prima del polonio e poi del radio e del bario dal bombardamento dell’uranio con neutroni, tuttavia le analisi chimiche li facevano propendere per la seconda ipotesi. Nel gennaio 1939, dopo aver ripetuto gli esperimenti, i due chimici inviarono un secondo e più dettagliato articolo alla stessa rivista confermando la presenza di metalli alcalini nei prodotti dell’uranio bombardato con neutroni lenti [5].

In febbraio 1939 in un successivo articolo Hahn e Strassman pubblicano la prova certa della formazione di frammenti di bario dalla rottura dell’uranio e introducono il termine “fissione nucleare” per il fenomeno [6].

Meitner e Frisch, che Hahn teneva costantemente informati dei progressi, furono dunque i primi a proporre un’interpretazione teorica, in base al “modello a goccia” di Bohr, su come il nucleo di uranio potesse essere diviso in parti più piccole: i nuclei dell’uranio si dividevano per formare bario e krypton, accompagnati dall’eliminazione di neutroni e da un’enorme quantità di energia. I neutroni emessi andavano quindi a colpire altri nuclei di uranio provocando così una reazione a catena. Pubblicarono questa interpretazione nello stesso febbraio 1939 [7]. Successivamente fu provato che questa enorme energia corrispondeva alla perdita di massa in base all’equazione di Einstein E = mc2.

Allo stesso modo essi interpretano le loro precedenti osservazioni sulle radiazioni emesse dal torio come la fissione dei nuclei di torio negli isotopi del bario e del krypton.

Questa interpretazione insieme a un metodo per “raccogliere” prodotti della fissione fu ripresa da Frisch in una successivamente nota su Nature [8].

Probabilmente il calcolo della corrispondenza difetto di massa-energia fu suggerito da Bohr il quale fece notare che la quantità di energia sviluppata era molto maggiore di quanto si calcolava per un fenomeno non fissile. Ma i fisici Meitner e Frisch erano convinti che la chimica fosse la sola responsabile del fenomeno e Hahn, chimico, era riluttante a spiegare la fissione in corretti termini fisici[3].

Nel 1945 il Premio Nobel per la Chimica 1944 fu assegnato al solo Otto Hahn con la motivazione: “per la sua scoperta della fissione di nuclei atomici pesanti”. Nella sua Nobel lecture Hahn non nominò i contributi di Strassman, Meitner e Frisch.

In realtà, sia lui sia Meitner erano stati candidati al Nobel per la chimica o per la fisica diverse volte prima della scoperta della fissione nucleare, ma nel 1945 il Comitato che scelse il Premio Nobel in Chimica decise di assegnare il premio 1944 esclusivamente a Hahn. Negli anni Novanta, i documenti a lungo secretati dei lavori del Comitato Nobel divennero pubblici e la storica Ruth Lewin Sime[4] ne approfittò per riconsiderare l’esclusione di Meitner. In un articolo del 1997 su Physics Today [9], Sime e i suoi colleghi Elisabeth Crawford e Mark Walker scrissero:

Sembra che Lise Meitner non abbia condiviso il premio del 1944 perché la struttura dei comitati Nobel non era adatta a valutare le competenze interdisciplinari, i membri del comitato svedese per la chimica non furono in grado o non vollero giudicare il suo contributo in modo equo, e anche a causa delle loro competenze limitate. L’esclusione di Meitner dal premio può essere riassunta come una miscela di pregiudizi disciplinari, ottusità politica, ignoranza e fretta. [9]

Meitner rimpianse di essere rimasta in Germania dal 1933 al 1938 e fu amaramente critica con gli scienziati che continuarono a lavorare per il terzo Reich. In una bozza di lettera del 1945 indirizzata a Hahn, scrive:

Avete lavorato per la Germania nazista. E vi siete limitati solo a una resistenza passiva. Certo, per essere in pace con la vostra coscienza avete aiutato qua e là una persona perseguitata, ma milioni di esseri umani innocenti sono stati assassinati senza che venisse fatta alcuna protesta … [si dice che] prima avete tradito i vostri amici, poi i vostri figli perché avete lasciato che la loro vita fosse trascinata in una guerra criminale – e infine che avete tradito la Germania stessa, perché quando la guerra era già senza speranza, non vi siete mai rivoltati contro la distruzione senza senso della Germania.[10]

Hahn non ricevette mai questa lettera.

Meitner non fece alcuna recriminazione per il mancato Nobel e rimase comunque affezionata a Hahn, nel 1959 tornò in Germania per partecipare alla celebrazione dell’80mo anniversario del compleanno di Hahn, insieme alla famiglia di lui.

In Svezia, Meitner continuò a essere attiva presso l’Istituto Nobel per la fisica, presso l’Istituto Nazionale di Ricerche Nazionali per la Difesa (FOA) e il Royal Institute of Technology di Stoccolma, dove ha avuto un laboratorio e ha partecipato alla ricerca su R1, il primo reattore nucleare svedese. Fino dal 1947, fu creata una cattedra personale per lei presso l’Università di Stoccolma con lo stipendio di professore e un finanziamento del Consiglio per la Ricerca Atomica.

Ebbe molti premi e onorificenze, sia in vita sia dopo. Nel 1966 le fu assegnata insieme a Otto Frisch, la medaglia Fermi dalla Commissione USA per l’Energia Atomica, ma la salute ormai compromessa dall’aterosclerosi le impedì di andare a Washington per ritirarlo personalmente. Dal 1960 si era trasferita in Inghilterra da alcuni parenti. Morì nel 1968 all’età di 89 anni.

Bibliografia

[1] O.R. Frisch, Lise Meitner, 1878-1968, Biogr. Mems Fell. R. Soc., 1970, 16, 405-420 http://rsbm.royalsocietypublishing.org/content/roybiogmem/16/405.full.pdf

[2] L. Meitner, Uber die Zerstreuung der α-Strahlen. (About the dispersion of the α-rays.) Phys. Zeit., 1907, 8(15), 489-491.

[3] O. Hahn, L. Meitner, Über die künstliche Umwandlung des Urans durch Neutronen (Sulla trasformazione artificiale dell’uranio da parte di neutroni), Naturwissenschaften, 1935, 23, 37-38.

[4] O. Hahn, F. Strassmann, Über die Entstehung von Radioisotopen aus Uran durch Bestrahlen mit schnellen und verlagsamten Neutronen, (About the formation of radioisotopes from uranium by irradiation with fast and verlagsamten neutrons) in German, Naturwissenschaften, 1938, 26, 755-756.

[5] O. Hahn, F. Strassman, Über den Nachweis und das Verhalten der bei der Bestrahlung des Urans mittels Neutronen entstehenden Erdalkalimetalle, Naturwissenschaften, 1939, 27, 11-15 (gennaio 1939), Trad. Ingl. Concerning the Existence of Alkaline Earth Metals Resulting from Neutron Irradiation of Uranium, in: American Journal of Physics, January 1964, p. 9-15. https://www.chemteam.info/Chem-History/Hahn-fission-1939b/Hahn-Fission-1939b.html

[6] O. Hahn, F. Strassman, Nachweis der Entstehung activer Bariumisotope aus Uran und Thorium durch Neutronenbestrahlung; Nachweis weiterer aktiver Bruchtucke bei der Uranspaltung, Naturwissenschsften, 1939, 27, 89-95 (febbraio 1939). Trad. Ingl. Proof of the Formation of Active Isotopes of Barium from Uranium and Thorium Irradiated with Neutrons; Proof of the Existence of More Active Fragments Produced by Uranium Fission, in: J. Chem. Educ., May 1989, p. 363-363 https://www.chemteam.info/Chem-History/Hahn-fission-1939b/Hahn-Fission-1939b.html

[7] L. Meitner, O. Frisch, Disintegration of Uranium by Neutrons: A New Type of Nuclear Reaction, Nature, 1939, 143(3615), 239-240.

[8] O. Frisch, Physical Evidence for the division of Heavy Nuclei under Neutrons Bombardment, Nature, Supplement, 18 Feb. 1939, 276.

[9] E. Crawford, R.L. Sime, M. Walker, A Nobel Tale of Postwar Injustice, Physics Today1997, 50, 26–32.

[10 ] cit in: John Cornwell, Hitler’s Scientists: science, war and the devil’s pact, Viking, New York,

2002, p.411.

[1] Otto Robert Frisch (1904-1979) fisico austriaco, dopo l’ascesa di Hitler al cancellierato nel 1933 decise di spostarsi in Inghilterra, a Londra, nello staff del Birbeck College lavorando sulla radioattività e sviluppando la tecnologia delle camere a nebbia. Per cinque anni fu all’Istituto di Fisica di Copenhagen con Niels Bohr, dove si specializzò in fisica nucleare e dei neutroni. Insieme alla zia, Lise Meitner, fornì l’interpretazione della fissione nucleare. Nel 1943, naturalizzato britannico, si recò negli USA, dove partecipò al Progetto Manhattan. Nel 1946 tornò in Inghilterra come professore di Filosofia Naturale a Cambridge.

[2] Fritz Strassmann (1902-1980), chimico tedesco, nel 1933 si dimise dalla Società Chimica Tedesca che stava diventando parte di una corporazione pubblica controllata dal partito nazista e fu inserito nella lista nera. Meitner e Hahn gli trovarono un posto di assistente a mezzo stipendio al Kaiser Wilhelm Institute. La sua esperienza in chimica analitica fu di fondamentale importanza nell’individuazione dei prodotti della fissione nucleare. Durante il periodo nazista, insieme alla moglie nascosero nella propria casa diversi amici ebrei, mettendo a rischio le proprie vite e quella del figlioletto di tre anni. Nel 1948 divenne direttore del Max Planck Institute per la Chimica. Nominato “Giusto fra le Nazioni” dallo stato ebraico nel 1985.

[3] In un’intervista rilasciata nel 1953 alla radio della RFT, Meitner affermò:

Otto Hahn e Fritz Strassmann erano in grado di farlo [fissione nucleare] con una chimica eccezionalmente buona, una chimica fantastica… . a quel tempo, Hahn e Strassmann erano davvero gli unici a poterlo fare. E questo era perché erano chimici molto bravi. In qualche modo sono veramente riusciti a usare la chimica per dimostrare un processo fisico.                                                                                                    

Nella stessa intervista Strassman però sostiene:

Meitner ha affermato che il successo potrebbe essere attribuito alla chimica. Devo fare una piccola correzione. La chimica semplicemente isolava le singole sostanze, non le identificava esattamente. Ciò è dovuto al metodo del professor Hahn. Questo è il suo successo.

Queste frasi sono riportate in wikipedia (english): https://en.wikipedia.org/wiki/Lise_Meitner

[4] Ruth Lewin Sime (1939), americana è professore emerito di chimica fisica dell’Università di Sacramento. Esperta in storia della scienza è autrice di una dettagliata biografia di Lise Meitner: “Lise Meitner: A life in Physics”, University of California Press, 1996. Il primo capitolo si può scaricare al link: http://www.washingtonpost.com/wp-srv/style/longterm/books/chap1/lisemeitner.htm

Vite parallele.

In evidenza

Claudio Della Volpe

Non preoccupatevi, non voglio parlarvi di Plutarco e della sua opera che casomai avete studiato al liceo; anche se tutto sommato l’idea di Plutarco che le vite degli uomini potessero a volte fortemente assomigliarsi è una cosa sensata. Le Vite Parallele di Plutarco consiste di ventidue coppie di biografie, ognuna narrante la vita di un uomo greco e di uno romano.

Oggi farò una cosa simile; vi parlerò di due vite parallele di due chimici-scrittori, uno italiano, uno americano di cultura tedesca, che vissero la parte cruciale della loro vita durante la 2° guerra mondiale; entrambi si schierarono contro il fascismo e il nazismo spontaneamente, avrebbero potuto farne a meno ma lo fecero, entrambi caddero prigionieri dei tedeschi e corsero il rischio di morire vivendo drammatici avvenimenti.

Tornati dalla guerra entrambi divennero scrittori e scrissero libri divenuti famosi sulla loro esperienza, ma non solo; ed entrambi ad un certo punto si occuparono di un tema, quello dell’acqua, immaginando un’acqua “polimerica” terribilmente pericolosa che di fatto nei loro racconti distrugge la vita e il pianeta Terra.

Le loro opere sono parte della letteratura che si studia a scuola; ma in Italia l’autore è conosciuto più per le sue opere “serie”, come Se questo è un uomo o La tregua, mentre nella scuola americana l’autore che vi dico è studiato più per le sue opere (apparentemente) di fantascienza come Ghiaccio 9 (Cat’s cradle in inglese, trad. letterale “Il ripiglino” gioco dell’elastico o culla del gatto, che è un gioco che avete sicuramente fatto) o Mattatoio n. 5 (o La crociata dei Bambini (Slaughterhouse-Five; or, The Children’s Crusade: A Duty-Dance With Death, 1969)

E’ da notare che entrambi erano dichiaratamente atei ed entrambi morirono a seguito di una caduta dalle scale.

Nei medesimi anni in cui scrissero quei racconti vi fu poi un enorme interesse nella ipotizzata scoperta di un’acqua “strana” diversa, da quella normale, definita poliacqua o acqua anomala, che si rivelò una falsa scoperta, un artefatto frutto della solubilizzazione di alcuni componenti dei contenitori usati, ma la cui storia rivela molto dei modi in cui la scienza moderna si sviluppa.

E infine accenneremo a cose strane sull’acqua immaginate o supposte, vere e false.

I due chimici scrittori sono Primo Levi (Torino 1919- Torino 1987) e Kurt Vonnegut Jr.(Indianapolis 1922-New York 2007).

Probabilmente non conoscerete il secondo a meno che non vi piaccia la fantascienza, una tematica di cui si occupò anche Levi, sia pure solo in alcuni racconti (la serie di Vizio di Forma pubblicata nel 1971) , ma che fu il tema principale delle opere di Vonnegut, che è stato uno dei maggiori scrittori americani moderni ed un indiscusso leader del settore SF (Science Fiction).

Primo Levi

Kurt Vonnegut Jr.

Quella di Primo Levi è una storia che conosciamo meglio; laureato in chimica, di famiglia ebraica, ma ateo, Levi inizia a lavorare prima dell’inizio della guerra, ma poi “sale in montagna” e viene catturato da partigiano; si dichiara ebreo, viene mandato nel campo di concentramento di Auschwitz III, dove viene reclutato per la produzione della gomma sintetica; questo coinvolgimento e altri aspetti apparentemente casuali e secondari gli consentono di salvarsi la vita quando i russi nella loro avanzata liberano il campo; proprio alcune di queste circostanze fortuite ragione di vita per lui e morte per altri a lui vicini (come Alberto Dalla Volta) si imprimeranno nella sua mente e fino alla fine gli rimaranno nell’anima come un enorme fardello.

Tornato fortunosamente in Italia, scrive subito il suo primo libro (anche se le sue prime esperienze di scrittore risalgono a prima della guerra) che viene prima rifiutato e poi accettato con una condivisione sempre più larga che diventerà corale solo alla fine degli anni 50, consacrandolo scrittore a tutto tondo, con una produzione complessiva di tutto rispetto.

Farà comunque il chimico per molti anni e trarrà da questa sua attività fonte di ispirazione. Morirà in circostanze mai chiarite del tutto per una caduta dalle scale nel 1987.

Meno conosciuta la storia di Kurt Vonnegut jr., nipote di un immmigrato tedesco in USA, nato a Minneapolis, studente di biochimica a Cornell, nel 1943 decide spontaneamente di arruolarsi e diviene fante esploratore; catturato sul fronte delle Ardenne e detenuto a Dresda assistette al bombardamento della città da parte degli alleati, nel febbraio 1945, un bombardamento in cui vennero usate migliaia di bombe incendiarie e che fece decine di migliaia di vittime, ma si salvò per mero caso nascondendosi sotto il mattatoio dellla città, una grotta che gli salvò la vita e che serviva di solito per conservare la carne. Questo episodio scioccante fu poi da lui ripreso nel suo primo grande romanzo, Mattatoio n. 5 o la crociata dei bambini, un duro atto di accusa contro la guerra, ma anche un esempio di scrittura diversa dal solito e con fortissime venature fantascientifiche e satiriche.

Kurt non arrivò alla scrittura facilmente; sposato con la sua compagna di infanzia Jane Cox, di cui era profondamente innamorato, fu da lei spinto a scrivere.

In un articolo del New Yorker si narra la storia di questo rapporto così importante per lo scrittore.

in November, 1945, he wrote Jane in a fever of excitement. He had been reading the foreign affairs section of Newsweek when he realized something: “Everything that was reported by ace newsmen from the heart of Europe I found to be old stuff to me. . . . By Jesus, I was there.” That was me; I was there. That astonishing moment in “Slaughterhouse-Five” was the impetus for the entire book, first felt in 1945. His war experience was crying out to be written. He told her he was trying to remember every little thing that had happened to him. He would write about that. But one thing was clear: “I’LL NOT BE ABLE TO DO IT WITHOUT YOUR HELP.”

The next week, in a calmer mood, he articulated his new conviction. “Rich man, poor man, beggar man, thief? Doctor, Lawyer, Merchant, Chief?” he wrote, reprising his old theme. “From your loving me I’ve drawn a measure of courage that never would have come to me otherwise. You’ve given me the courage to decide to be a writer. That much of my life has been decided. Regardless of my epitaph, to be a writer will have been my personal ultimate goal.”

In realtà il suo romanzo a metà fra il fantascientifico e l’autobiografico il più famoso ed importante Mattatoio n. 5 nel 1969, fu anche l’inizio della fine del loro rapporto matrimoniale, ma rimasero sempre una coppia legata da forti sentimenti.

Il rapporto fra Vonnegut e la fantascienza è oggetto di una celebre citazione tratta da un suo romanzo, con cui Vonnegut si rivolge agli scrittori di questo genere:

« Vi amo, figli di puttana. Voi siete i soli che leggo, ormai. Voi siete i soli che parlano dei cambiamenti veramente terribili che sono in corso, voi siete i soli abbastanza pazzi per capire che la vita è un viaggio spaziale, e neppure breve: un viaggio spaziale che durerà miliardi di anni. Voi siete i soli che hanno abbastanza fegato per interessarsi veramente del futuro, per notare veramente quello che ci fanno le macchine, quello che ci fanno le guerre, quello che ci fanno le città, quello che ci fanno le idee semplici e grandi, quello che cí fanno gli equivoci tremendi, gli errori, gli incidenti e le catastrofi. Voi siete i soli abbastanza stupidi per tormentarvi al pensiero del tempo e delle distanze senza limiti, dei misteri imperituri, del fatto che stiamo decidendo proprio in questa epoca se il viaggio spaziale del prossimo miliardo di anni o giù di lì sarà il Paradiso o l’Inferno. »
(Da Dio la benedica, signor Rosewater o Le perle ai porci (1965))

(da wikipedia)

Vonnegut vinse parecchi premi letterari, si laureò in antropologia con una tesi che di fatto fu il romanzo

di cui parleremo più avanti. Fu inoltre nominato “artista dello stato di New York” per l’anno 2001-2002. In quegli anni manifestò il suo ateismo, confermando le voci che erano circolate in tal senso. Insegnò letteratura ad Harvard fu a lungo pompiere volontario e presidente della American Humanist Association (Associazione degli Umanisti Americani).

Morì il 10 aprile 2007 a seguito dei traumi cerebrali conseguenti ad una caduta in ambito domestico.

 

Entrambi questi scrittori così simili ma così diversi si sono occupati dell’acqua anomala, una scoperta avvenuta nel 1962 ad opera del ricercatore russo N. N. Fedyakin, pubblicata su una rivista russa, che era tradotta in inglese, ma di cui non sono stato capace di trovare copia in letteratura. Il lavoro fu poi continuato insieme a Derjaguin, un chimico fisico russo molto più noto, che la pubblicizzò in occidente decisamente solo dopo il 1966 con un congresso in Gran Bretagna ed un lavoro su Discussions Faraday Soc. 42, 109 (1966) e su JCIS nel 1967 ; la cosa divenne di dominio pubblico solo dal 1969 con articoli sui giornali e con articoli su molte altre riviste anche divulgative, scatenando una corsa alla ricerca ed alla emulazione fra le due grandi potenze.

Si trattava di un’acqua che condensava in una situazione particolare, in tubi capillari di quarzo e che mostrava delle proprietà molto particolari; si temeva potesse alterare stabilmente le proprietà del resto dell’acqua con cui veniva in contatto, argomento questo che arriverà in letteratura. La cosa scatenò una incredibile corsa fra i vari paesi a causa dei potenziali effetti benefici o tragici del materiale, ma fu comunque chiaro entro pochi anni che i dati erano frutto di un errore sperimentale, dovuto alla dissoluzione dei componenti del contenitore.

Fu pure pubblicato un libro (Poliacqua, ed, Il Saggiatore) da parte di uno dei più famosi studiosi dell’acqua di quel periodo F. Franks, autore del monumentale tomo sull’acqua in 7 volumi su cui ho studiato durante la mia tesi. La critica feroce di Franks scatenò una risposta altrettanto dura di Derjaguin su Nature.

La cosa interessante è che mentre la breve novella di Levi è stata scritta o almeno pubblicata nel 1971, dunque parecchio dopo che il tema era divenuto di dominio pubblico, e dunque quasi certamente è stata influenzata dagli eventi già svoltisi, (anche se l’autore scrive nella lettera a Einaudi che l’articolo di Scientific American da cui lo ha appreso è successivo al suo testo, in realtà lo precede, è del 1969 Polywater, Sci. Amer. 221, 90 (Sept., 1969); col beneficio di inventario il testo di Levi fu scritto fra il 1968 e il 1970, ma comunque già allora la notizia era circolata sui giornali), il romanzo di Vonnegut , un romanzo ampio e di argomento molto più complesso è stato pubblicato solo nel 1963, dunque quando in occidente pochissimi conoscevano la cosa e non è verosimile che Vonnegut ne fosse a conoscenza. Secondo me è una idea originale di Vonnegut, anche se la pubblicazione del romanzo è avvenuta dopo la scoperta, almeno formalmente.

Nel romanzo in realtà si parla di varie cose:

La voce narrante è John o Jonah (in inglese, sinonimo di portasfiga) è uno scrittore che ha deciso di scrivere un libro dal titolo Il giorno in cui il mondo finì, che vuole essere un resoconto su come alcuni scienziati responsabili dell’invenzione della bomba atomica trascorsero la giornata del 6 agosto 1945, appunto «il giorno in cui il mondo finì».

Le sue ricerche si concentrano su Felix Hoenikker, uno dei “padri” della bomba atomica, nonché Premio Nobel. Inizia così a rintracciare e contattare coloro che hanno conosciuto direttamente lo scienziato a partire dai figli. Il quadro che ne viene fuori è quello di un uomo interamente votato alla scienza, completamente estraneo alla vita sociale, incapace di amare la moglie Emily e di piangere la sua morte, incapace di fare da padre ai suoi tre. Da questa ricerca lo scrittore scopre anche qualcosa sull’ultima invenzione nata in risposta alle pressanti richieste di un generale della Marina americana, che gli aveva chiesto di inventare qualcosa capace di solidificare il fango. L’idea, come si viene a sapere in seguito, gli era venuta proprio il giorno dello sgancio della bomba, “giocherellando” a ripiglino con uno spago (e più precisamente quando forma la figura chiamata “cesta del gatto”, da cui il significato del titolo originale “Cat’s Cradle”). Da lì l’invenzione del “ghiaccio-nove”: un «seme», ovvero una microparticella in grado di cristallizzare e congelare istantaneamente l’acqua (portandone il punto di fusione a 114 °F, ossia 45,556°C) e potenzialmente in grado, con una reazione a catena, di propagare questa proprietà a tutta l’acqua del pianeta, con conseguenze catastrofiche. Alla morte dello scienziato i tre figli si spartiscono l’invenzione, conservando ognuno una scheggia di “ghiaccio-nove”.

(da wikipedia)

Non vi dico come continua sperando siate stimolati a leggerlo.

I titoli delle due opere hanno origini del tutto diverse; infatti quello di Levi Ottima è l’acqua, prende il titolo in prestito dal famoso incipit della Prima Olimpica di Pindaro: Ἄριστον μὲν ὕδωρ”.

Mentre il titolo del romanzo di Vonnegut, Cat’s cradle, la culla del gatto si rifà ad un giochino da ragazzi, in italiano chiamato ripiglino, a cui avete certamente giocato anche voi da ragazzi e mostrato nelle figure accluse al testo.Concluderei come conclude Franks il suo libro; scoperte sull’acqua e sulle sue presunte caratteristiche rivoluzionarie sono continue. Acque magiche se ne sono scoperte varie volte, ma l’acqua in effetti si presta, ha proprietà incredibili; per chi volesse esplorarle tutte compiutamente e con dettaglio c’è la pagina ben nota di Martin Chaplin http://www1.lsbu.ac.uk/water/

La proprietà che mi intriga di più è il fatto che l’acqua (come molte altre molecole) è una miscela di isomeri di spin nucleare, NSIM, in sigla; il caso più famoso è l’idrogeno, ma l’acqua è l’altra molecola famosa e semplice di cui si è ottenuta la separazione dei due isomeri di spin; orto-acqua e para-acqua, l’acqua è insospettabilmente una miscela non solo di due quasi-fasi, strutturata/non strutturata come insegnava Franks decenni fa ma proprio di due diverse molecole, con reattività diversa, ma interconvertibili fra loro. L’argomento si presterebbe a scrivere un altro post e dato che sono stato già abbastanza lungo mi fermo qua e ne riparlerò appena possibile.

da Angew. Chem. Int. Ed. 2014, 53, 1 – 5

Riferimenti.

-An Annotated Bibliography for Anomalous Water

LELAND C. ALLEN Journal of Colloid and Interface Science, VoL 36, No. 4, August 197 p. 554

– F. Franks Poliacqua Il saggiatore 1983 tradotto da Polywater MIT press 1981

– B. Derjaguin Nature 1983 Polywater rewieved, v. 301 p.9-10

https://www.reuters.com/article/us-vonnegut/kurt-vonnegut-dead-at-84-idUSN1126991620070412

https://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&ved=0ahUKEwipndGsurnXAhXjHJoKHXeUAccQFggpMAA&url=http%3A%2F%2Fwww.physi.uni-heidelberg.de%2FForschung%2FANP%2FCascade%2FTeaching%2FFiles%2FPolywater.pptx&usg=AOvVaw0YPjui-hslUjnGrMZTkq7P

Ghiaccio 9 – Urania 1383 – K. Vonnegut trad da Cat’s cradle, 1963 in inglese, prima edizione italiana 1994   https://en.wikipedia.org/wiki/Cat’s_cradle

Mattatoio n. 5 – Kurt Vonnegut, Slaughterhouse-Five; – or, The Children’s Crusade: – A Duty-Dance With Death, Delacorte Press, 1969, pp. 186.

Oppure Kurt Vonnegut, Mattatoio n. 5, o la crociata dei bambini : danza obbligata con la morte, Scrittori italiani e stranieri, Mondadori, 1970, pp. 205,

Ottima è l’acqua – P. Levi in Opere complete vol. 2 pag. 733 – ed. Repubblica l’Espresso

  1. N. Fedyakin, Change in the Struc- ture of Water During Condensation in Capillaries, Kollo~d. Zh. 9.4, 497 (1962). Translation: Colloid J. USSR (English Transl.) 24, 425.
  2. B. V. Derjaguin and N. N. Fedyakin, Special Properties and Viscosity of Liquids Condensed in Capillaries, Dold. Akad. Nauk SSSR 47, 403 (1962). Translation: Dokl. Phys. Chem., Proe. Aead. Sd. USSR 147, 808.
  3. V. Derjaguin, Effect of Lyophile Surfaces on the Properties of Boundary Liquid Films, Discussions Faraday Soc. 42, 109 (1966).
  4. V. Derjaguin, N. N. Fedyakin, and M. V. Talayev, Concerning the Modified State and Structural PoIymorphism of Liquids Condensed from Their Under- saturated Vapors in Quartz Capillaries, J. Colloid. Interface Sei. 24, 132 (1967).

Poliacqua e altre storie.

In evidenza

Mauro Icardi.

Il racconto di Primo Levi intitolato “Ottima è l’acqua” è quello che chiude il volume di racconti fantascientifici “Vizio di forma”, la cui prima edizione risale al 1971.

Nel 1987 uscì la seconda edizione nella quale fu anteposta la “Lettera 1987” di Primo Levi all’editore Einaudi. In questa lettera l’autore esprime alcune considerazioni, ed il proprio punto di vista sui racconti scritti quindici anni prima. Il libro risente delle atmosfere dei primi anni 70, e Levi fa riferimento anche al “Medioevo prossimo venturo” di Roberto Vacca quale fonte di ispirazione. Nella parte conclusiva di questa lettera si sofferma proprio sul racconto “Ottima e l’acqua.” L’invenzione narrativa parte dalla scoperta fatta da un chimico, Boero, che si accorge dell’aumento della viscosità dell’acqua. Prima eseguendo misure sull’acqua distillata del laboratorio dove lavora, e notando lievi scostamenti. Poi accorgendosi durante una passeggiata in campagna che il torrente che sta osservando sembra scorrere più lentamente. Prelevato un campione di acqua verificherà che anche l’acqua di quel torrente, e in seguito di vari corsi d’acqua italiani ed europei è molto più viscosa del normale. Le conseguenze immaginate sono catastrofiche. Difficoltà di nutrimento per le piante, impaludamenti dei fiumi, ispessimento del sangue degli esseri umani, con conseguenti problemi di tipo cardiocircolatorio, e morti premature.

Levi ricorda come dopo la pubblicazione del suo libro la rivista “Scientific American” riportò la notizia della scoperta di un’ acqua simile a quella del racconto. Ecco la parte in cui ne parla.

Quanto a “Ottima è l’acqua”, poco dopo la sua pubblicazione lo “Scientific American ha riportato la notizia, di fonte sovietica, di una “poliacqua” viscosa e tossica simile per molti versi a quella da me anticipata: per fortuna di tutti le esperienze relative si sono dimostrate non riproducibili e tutto è finito in fumo. Mi lusinga il pensiero che questa mia lugubre invenzione abbia avuto un effetto retroattivo ed apotropaico. Si rassicuri quindi il lettore: l’acqua , magari inquinata non diverrà mai viscosa, e tutti i mari conserveranno le loro onde

In effetti la storia della poliacqua è estremamente singolare. Inizia nel 1962 quando su una rivista Sovietica, il Kolloid Zurnal pubblica un articolo nel quale il Fisico Nikolaj Fedjakin sostiene di aver scoperto un nuovo stato strutturale dell’acqua durante la condensazione in capillari. Successivamente il direttore dell’Istituto di Chimica-Fisica di mosca Boris Derjagin venuto a conoscenza di questi esperimenti li ripete con capillari in quarzo. Nel 1966 la notizia della scoperta di questo tipo di acqua esce dai confini dell’URSS per arrivare in Inghilterra in un convegno tenutosi a Nottingham. Nel 1970 però già si comincia a pensare che una struttura maggiormente viscosa dell’acqua sia dovuta a semplice contaminazione. L’articolo esce su “Science” nel 1970. Il titolo è “Poliwater: Polimer or artifact?”

Sarà un articolo che sarà molto contestato e criticato dalla comunità scientifica del tempo, che evidentemente era molto attratta da questa possibilità.

In altre parole si trattava di acqua sporca, o fortemente carica di sali. Niente di più di questo. La poliacqua non esisteva. E un articolo uscito su Nature nel 1971 mise del tutto fine alla vicenda in questione. Nature dovette ricredersi, visto che prima aveva considerato la chimerica poliacqua come “la sostanza più pericolosa esistente sulla terra, da trattare con la massima cautela

Ne da conto anche il quotidiano torinese “La Stampa” nel nella pagina delle cronache dall’estero del 10 Ottobre 1969.

Individuata la sostanza più micidiale del mondo E’ la « poliacqua » e porrebbe distruggere ogni forma di vita (Nostro servizio particolare)

Londra, 10 ottobre. Una sostanza artificiale, che esiste in minuscole quantità, potrebbe distruggere ogni forma di vita sulla Terra. Lo afferma il professore americano F. J. Donahoe, in una lettera pubblicata dalla rivista scientifica inglese Nature. La sostanza si chiama « poliacqua » (Polywater) ed è conservata in alcuni laboratori scientifici della Gran Bretagna, dell’Urss e degli Usa. Il professor Donahoe scrive che se questa sostanza, inventata dai sovietici nel 1962, fosse mescolata all’acqua normale e si auto-generasse in grandi quantità, la Terra si trasformerebbe in un pianeta morto e infuocato come Venere. « Sino a che non si saranno accertate le sue esatte caratteristiche », ha, aggiunto lo studioso americano, « la “poliacqua” dovrebbe essere attentamente conservata. E’ la sostanza più pericolosa che io conosca ». Un portavoce della rivista Nature ha dichiarato di ritenere estremamente improbabile che la « poliacqua » possa autogenerarsi, ma che «esiste una possibilità infinitesimamente piccola che ciò possa accadere».

(Brano tratto da Archivio Storico La Stampa)

L’abbaglio si potrebbe spiegare in molti modi. Prima di tutto l’importanza che l’acqua riveste per i fenomeni vitali. L’idea quindi che un’acqua per così dire aliena potesse in qualche modo contaminare la normale acqua liquida, probabilmente inquietò i ricercatori. Una delle ipotesi che vennero formulate fu quella che l’acqua comune fosse una forma metastabile dell’acqua, e che potesse quindi subire la trasformazione in poliacqua. E anche in questo caso si teorizzò quanto poi si è visto successivamente: cioè che l’acqua avesse una sorta di memoria ancestrale del suo stato di poliacqua, propagando tale stato alle molecole di acqua liquida adiacenti. In sostanza quanto appunto immaginato nel racconto di Primo Levi.

Una commemorazione.

In evidenza

Si commemorano in questi giorni i 70 anni della pubblicazione di Se questo è un uomo; il testo di Levi, scritto fra la metà del 1945 e il gennaio 1947 fu rifiutato due volte da Einaudi, a causa della valutazione negativa della Ginzburg e di Pavese, secondo i quali c’erano già troppe testimonianze sui campi di concentramento.

Il testo fu dunque pubblicato da de Silva, una piccola casa editrice, nell’autunno 1947 e fu solo oltre 10 anni dopo che Einaudi lo pubblicò negli Struzzi.

Anche noi facciamo una piccola commemorazione; par nostra.

Luigi Campanella, già Presidente SCI.

Sono fra coloro che hanno appreso con dolore la notizia del passaggio de La Chimica e l’Industria dall’edizione cartacea a quella solo on line. Ritengo che l’informatizzazione contribuisca moltissimo alla migliore organizzazione della nostra società, ma penso anche che un bel testo cartaceo da potere sfogliare fisicamente sia più godibile e più stimolante. Molti si chiederanno cosa c’entri questo discorso con Primo Levi a cui è dedicato questo mio breve articolo.

La ragione è questa: rileggendo i cartacei del giornale della SCI ho avuto la possibilità di imbattermi in una lettera di Primo Levi al Direttore della Chimica e l’Industria e così di conoscere  su una figura così maestosa ancora di più, cose che prima non conoscevo e che forse non avrei mai saputo se non avessi avuto disponibile proprio quella raccolta cartacea.

La lettera è del novembre 1947 ed è scritta da un Primo Levi ventisettenne. Il chimico, scrittore, scultore ci parla del complesso industriale che i tedeschi realizzarono  nell’area di Auschwitz, 40 Km ad ovest di Cracovia, con il fine di produrre gomma sintetica a partire dal carbone.attraverso la cokificazione, il carburo di calcio, l’acetilene, il butadiene ed il processo di polimerizzazione per emulsionamento. Nella lettera c’è il tentativo di correlare la capacità produttiva agli spazi occupati dalla fabbrica ed alla natura delle materie prime utilizzate nonchè all’organizzazione aziendale ai fini della soluzione del problema “sociale” della sistemazione della mano d’opera in campi di concentramento disposti a corona attigui al cantiere. I bombardamenti alleati sulla fabbrica ne preclusero qualsiasi produzione fino alla presa in carico da parte dei russi che vollero esaltare nel ciclo produttivo restaurato gli aspetti analitici di controllo delle materie prime e dei prodotti finiti. Eravamo nel 1945, ma in tutto ciò ritroviamo i cardini delle strategie industriali moderne a conferma che Primo Levi fu un chimico che pensava con le mani, forse una dote che oggi con la robotizzazione ed automazione di molte attività si è persa.

La stessa dote che consentì a Primo Levi di inventare e sperimentare vernici nuove e di riutilizzare gli scarti delle produzioni per realizzare sculture  di filo di rame intrecciato: Arte e Scienza pure dopo un dramma incommensurabile come quello delle stragi naziste,a conferma del ruolo rigenerante della cultura.

 

Voi che vivete sicuri
nelle vostre tiepide case,
voi che trovate tornando a sera
il cibo caldo e visi amici:
considerate se questo è un uomo,
che lavora nel fango,
che non conosce pace,
che lotta per mezzo pane,
che muore per un sì o per un no…

(Primo Levi, primi versi della poesia Shemà epigrafe in Se questo è un uomo)

 Riferimenti:

http://www.cid-torviscosa.it/attivita/news/il-lager-di-buna-monowitz-nella-descrizione-di-primo-levi-in-una-lettera-dimenticata-alla-rivista-la-chimica-e-lindustria-del-1947/

L’Arte nei Musei di Scienza.

In evidenza

Luigi Campanella, già Presidente SCI

Il concetto di arte non riguarda solo il campo delle arti applicate ma può essere riferito anche ad una poesia,ad uno spartito musicale o anche ad un oggetto utilizzato nel campo scientifico, oggetti didattici e artistici al tempo stesso che rappresentano un patrimonio storico-artistico e scientifico inestimabile; simboli dell’evoluzione scientifica legati ad un concetto di bellezza durevole nel tempo, punto di incontro fra Arte e Scienza, gli strumenti scientifici sono stati oggetto di interesse dei più grandi collezionisti a partire dal secolo XVI fino al XVIII, esposti all’interno delle Wunderkammer per la loro bellezza e raffinatezza di lavorazione, esprimevano il gusto e gli interessi scientifico-culturali dell’aristocrazia del tempo.

Inizialmente non venivano neanche utilizzati in campo scientifico perché considerati imperfetti e non in grado di rispondere alle teorie che avevano determinato la loro nascita, per cui era considerato maggiormente l’aspetto estetico che rappresentava il vanto e la grande maestria artigianale degli artisti a cui venivano commissionati tali oggetti.

Questi oggetti servivano alle misure relative alle scienze esatte: geometria, astronometria, geografia, cronometria ed alle varie branche della fisica;oggi gli stessi strumenti,a parte le dimensioni,sono costruiti con spirito puramente utilitario ed applicativo..

Ma una volta non era così. Molti scienziati al servizio di corti principesche ritenevano di dover fare costruire oggetti degni dello splendore dei loro mecenati e ne affidavano l’esecuzione ad artigiani di grande valore, essi stessi sovvenzionati dal signore del luogo.

Nascevano così quei compassi d’argento dorato, quegli astrolabi cesellati e incisi il cui lusso è ancora oggi apprezzato e fonte di grande sorpresa.

E’ evidente che la loro funzionalità doveva prevalere sull’ aspetto puramente decorativo che doveva invece essere inteso soltanto come abbellimento,comunque studiato in modo di non impacciare mai l’operatore.

La forma dell’oggetto così come ci si presenta non è mai casuale ma deve seguire una serie di regole imposte dalla funzionalità dell’oggetto stesso, che da principio sembra essere lontano da un concetto di bellezza; lo studio della strumentazione scientifica in realtà contiene in sé un forte fascino estetico ma è anche simbolo dell’evoluzione umana.

La storia della produzione scientifica, in particolar modo in Italia è sempre stata ostacolata dalla mancanza di cultura scientifica e tranne in rari casi, gli oggetti creati sono stati di scarso rilievo.

Gilberto Govi Fisico (1826 – 1889)

Un quadro più accurato ci è presentato dal Govi nel 1873 in una magistrale relazione sugli strumenti scientifici, in cui egli mostra la necessità di iniziare anche nell’Italia rinnovellata le industrie di precisione.

“..l’industria degli strumenti di precisione o scientifici non si mostra né si fa importante se non nei luoghi dove le scienze pure o applicate si coltivano con amore, sono apprezzate dal pubblico, onorate e favorite dal governo. Così a

Venezia e Genova dove il commercio alimentava gli studi della Nautica si cominciarono a costruire le migliori bussole, i buoni astrolabi e le carte da navigare ed ancora ai tempi di Galilei si imposero buoni lavoratori di lenti e cannocchiali.In Germania invece gli orologi, necessari a gente divenuta economa del tempo, si fecero squisitamente in Allemagna e furono perfezionati nell’Olanda navigatrice; poi in Inghilterra divenuta a sua volta la prima nazione navigatrice si imposero ottimi strumenti per l’astronomia, e,dietro la spinta dal genio e dalla reputazione del Newton, si lavorarono prismi, cannocchiali, telescopi a riflessione, termometri, barometri, macchine pneumatiche, microscopi, ecc. che per molti anni non ebbero rivali.

Il Colbert fondando l’Academie des Sciences fece sorgere in Francia l’ndustria di precisione, che toccò il suo apogeo nella prima metà del XX secolo nelle officine del Gambey, del Lenoir, del Fortin, del Cauchoix, del Soleil, ecc., quando in Parigi sedeva una pleiade di illustri scienziati, e alle intemperanze guerresche era succeduto un periodo di pace operosa e feconda.

Nell’Italia intanto, esauritisi quegli antichi conati di Genova e di Venezia, e l’eccitamento momentaneo destato in Roma dal Cesi coi Lincei, e in Firenze dal Granduca Ferdinando e dal principe Leopoldo con l’Accademia del Cimento non si stabilì mai una vera industria di precisione.

Si fecero sforzi individuali, talvolta meravigliosi, si ebbe ingegnosità somma e fecondità nell’ideare strumenti, ma, non essendo abbastanza diffusa, né sufficientemente incoraggiata a cultura delle scienze, le officine dei costruttori non trovarono capitali per fondarsi e non sorsero, o morirono sul nascere,purtroppo specialmente in Italia..

L’Amici fu nella prima metà di questo secolo il più insigne fra i costruttori di microscopi e di camere lucide, ma neppure esso instituì una vera industria, non avendo mai avuto più di tre o quattro operai in ristrettissimo laboratorio, così mal fornito degli arnesi necessari al lavoro, che le sue combinazioni di lenti, comprate avidamente dai Francesi, dagli Inglesi e dai Tedeschi, venivano rimontate da loro su nuovi strumenti, lavorati con quella finitezza che l’illustre micrografo non poteva conseguire nella sua modesta officina.

I termometri e le altre vetrerie soffiate dal canonico Bellani erano saliti in qualche reputazione fra noi, perché non avevano chi facesse meglio di lui, ma nessuno, se non forse qualche curioso, ne esportò mai, né se ne fece un ramo di commercio.

I compassi di fabbrica milanese o padovana, quantunque ben lavorati, per il peso eccessivo non poterono mai competere vittoriosamente con quelli di Francia o di Svizzera, altrettanto precisi ma più leggeri e quindi più comodi tanto che l’officina Galilei di Firenze, fondata e diretta per alcun tempo dal compianto prof. Donati, dopo alcuni tentativi di costruzione di qualche strumento ottico, finì per lavorare specialmente a contatori e apparecchi pei telegrafi.

In Italia non sono mai nate fabbriche d’orologi, malgrado la fama del Dondi autore di un antichissimo planetario, e se ne ebbe la Savoia, dove prosperano ancora, li perdemmo nel 1859 quando fu ceduta quella terra alla Francia.

“Per gli strumenti chirurgici invece, hanno anche gli italiani alcune officine nelle quali si lavorano industrialmente, e dalle quali si esportano con qualche profitto”.

Queste le parole del Gori che ci indicano la situazione in cui si trovavano ad operare i costruttori degli strumenti scientifici in Italia e all’estero.

I primi campioni-tipo di lunghezza furono creati rapportandosi alle membra umane: l’auna, che serve a misurare i tessuti, ripete il gesto del merciaio ed ha, secondo i paesi, o la lunghezza del braccio o quella delle due braccia distese; il gomito va dal gomito all’estremità del dito medio, e così via.

Tra tutte queste unità il piede fu il più universalmente usato, e lo è ancora: il sistema più rapido e semplice per misurare le brevi distanze è, difatti, quello di percorrerle mettendo un piede dopo l’altro proprio come suggeriva il sistema di campionatura descritto nel 1522 dal geometra tedesco Jacob Koebel.

La Cina, mille anni prima dell’era volgare, l’applicava anch’essa, fissando la lunghezza del piede a mille grani di miglio.

Nella maggior parte dei paesi, veniva fissata una sbarra-campione ufficiale di bronzo, incastrata nel muro di un monumento o deposta in un edificio pubblico.

In agrimensura ci si serviva dei multipli del piede: la tesa e la pertica.

Le aree ed il volume erano calcolati in rapporto a questi campioni-tipo.

Per le capacità, che riguardavano recipienti di forma imprecisa, ci si serviva di forme cilindriche di pietra.

Alcune di esse sono ancora visibili presso la porta di certe chiese; a volte invece, i campioni-tipo erano di bronzo, conservati negli archivi delle città.

Esistevano anche dei boccali per misurare il vino e la birra e della moggia per il grano.

Per il peso si facevano, infine, dei campioni-tipo di bronzo, di pietra e persino di vetro: campioni-tipo che hanno preceduto quelli di platino(es. le pile di Carlo Magno, scodellini di bronzo incastrati l’uno nell’altro, le cui somme successive costituiscono una scala che va da pochi grammi a parecchi chilogrammi).

Il Museo della Bilancia a Campogalliano (Mo).

Lo strumento analitico più popolare sia per la frequenza d’uso sia per avere legato la sua funzione a quella di un settore. la gravimetria,il primo cronologicamente dell’analisi chimica sia per la ricchezza di esemplari esposti nei Musei è certamente la bilancia. Per quanto riguarda le bilance commerciali, la cui capacità va da qualche grammo a parecchi quintali, esse venivano decorate con particolare cura nei casi in cui la loro destinazione avesse un carattere ufficiale. La perfezione della loro esecuzione è particolarmente apprezzabile in un’epoca in cui i materiali erano ancora abbastanza rustici: certe bilance da gioielliere, vecchie di più di tre secoli, sono ancora funzionanti.

Concludendo :quando si parla di Arte e Scienza si cerca di ricomporre un’unione che proprio i Musei con la loro molteplice caratterizzazione ufficiale avevano messo in discussione,senza rendersi conto forse che nei Musei Scientifici c’è Arte come in quelli Artistici c’è Scienza

Note sull’Antropocene.3. Gli scenari.parte prima.

In evidenza

Claudio Della Volpe

Nei tre precedenti post sul tema dell’Antropocene (pubblicati qui, qui e qui) abbiamo presentato la storia di questo concetto e le quattro ipotesi principali sull’origine temporale dell’Antropocene; in questo post invece (ed in altri successivi) presenteremo le ipotesi sui possibili scenari futuri, come li vede oggi la cultura umana nelle sue varie accezioni.

Parliamo di scenari ovviamente perchè nessuno ha la capacità di prevedere il futuro; il sistema Terra è una struttura complessa e lontana dall’equilibrio, ricca di retroazioni e il suo comportamento fortemente non lineare non prevede al momento “equazioni sintetiche”.

Alcuni degli scenari che descriveremo sono frutto della discussione fra scienziati, altri ancora della letteratura; l’Antropocene e il futuro dell’umanità e della biosfera sono di fatto stati già oggetto di analisi nei decenni passati e ancor più lo saranno prossimamente. Alcuni temi sono stati oggetto di modellazione matematica e numerica, come il clima, altri invece sono stati analizzati da quella sorta di modellazione analogica costituita dall’immaginazione umana e dalla letteratura, per esempio dalla parte più nobile della fantascienza.

E’ chiaro inoltre che l’argomento è talmente caldo e ci riguarda tanto da vicino che nessuna “freddezza” scientifica è possibile; l’Antropocene è la nostra interazione con il resto della biosfera dopotutto e la sua evoluzione dipende da noi e dai limiti della biosfera medesima.

Scenario Fermi. Cominciamo con l’opzione peggiore che potremmo chiamare scenario Fermi. Il paradosso di Fermi (https://en.wikipedia.org/wiki/Fermi_paradox and https://www.osti.gov/accomplishments/documents/fullText/ACC0055.pdf)

In sostanza durante una discussione informale tenuta con altri colleghi a Los Alamos nel 1951 Enrico Fermi si chiese “Dove sono tutti quanti?”, ponendo il problema, il paradosso fra la probabilità giudicata in genere elevata della vita su altri pianeti e il fatto che nessun visitatore alieno ci sia finora chiaramente apparso. Una possibile e radicale soluzione a questo paradosso è che l’intelligenza capace di sviluppare tecnologia corrisponda ad una elevata instabilità sociale e che dunque le società di questo genere si autodistruggano, per cui nella galassia ci siano o ci siano state ma siano destinate a scomparire, l’intelligenza potrebbe essere un vicolo cieco dell’evoluzione, almeno nelle forma in cui si manifesta con noi: un primate sociale dotato di strumenti exosomatici ed in grado di accumulare risorse ritardando l’effetto delle retroazioni ambientali sarebbe una specie instabile, destinata a scomparire.

Dopo tutto alla fine la seconda legge si esprimerà ed avrà come effetto inevitabile la distruzione del sistema sociale; è un pò anche il cosiddetto “pessimismo entropico” di Nicolau Georgescu Roegen nelle sue varie accezioni (l’idea di base è che materia ed energia entrano nel processo economico con un grado di entropia relativamente bassa e ne escono con un’entropia più alta): potrebbe essere semplicemente il risultato inevitabile del conflitto fra la visione temporale lineare e a breve termine dell’uomo ed il comportamento esponenziale di molte sue creazioni (se un’alga raddoppia ogni giorno e in 30 giorni riempirebbe lo stagno che la ospita, in quale giorno ne riempirà “solo” la metà? Nel 29esimo.), o ancora la legge dei ritorni decrescenti: se una struttura come la nostra società cresce di complessità inevitabilmente la sua efficienza diminuisce ed essa va incontro a crisi crescenti dovute al ritardo nei suoi tempi di reazione, all’inevitabile effetto della costante di retroazione, un criterio invocato per spiegare molti crolli storici, a partire dall’impero Romano.

Georgescu Roegen era stato allievo di Schumpeter, che pure attribuendo il costante sconvolgimento dell’economia capitalitica alla cosiddetta “creazione distruttiva” con molti aspetti positivi, riteneva il processo sostanzialmente instabile e insostenibile sul lungo periodo.

Scenario Dyson. La risposta al pessimismo entropico è la visione della sfera di Dyson.

Nel suo articolo Search for Artificial Stellar Sources of Infrared Radiation (“Ricerca di sorgenti stellari artificiali di radiazione infrarossa”), pubblicato sulla rivista Science (Science, vol. 131, pp. 1667–1668, 1959), Dyson teorizzò che delle società tecnologicamente avanzate avrebbero potuto circondare completamente la propria stella natia per poter massimizzare la cattura di energia proveniente dall’astro. Rinchiusa così la stella, sarebbe possibile intercettare tutte le lunghezze d’onda del visibile per inviarle verso l’interno, mentre tutta la radiazione non utilizzata verrebbe mandata all’esterno sotto forma di radiazione infrarossa. (Da ciò consegue che un possibile metodo per cercare civiltà extraterrestri potrebbe essere proprio la ricerca di grandi fonti di emissione infrarossa nello spettro elettromagnetico.)

Una sfera di Dyson è una sfera di origine artificiale e di raggio pari a quello di un’orbita planetaria. La sfera consisterebbe di un guscio continuo o di una serie di elementi posti attorno alla stella. Questo, oltre ad essere un modo per raccogliere un’enorme quantità di energia, permetterebbe di creare uno spazio vitale immenso.

Non entro nel merito dei problemi tecnici riguardanti la costruzione della sfera, mi tengo a livello generale di punto di vista: è il punto di vista di chi accetta la sfida del’Antropocene e pensa di poterla risolvere con i medesimi strumenti di gigantismo e di dominio tecnologico con i quali siamo arrivati fin qui.

Ci sono dei problemi. Per esempio la materia dell’intero sistema solare non basterebbe a costruire un guscio di questo tipo sufficientemente spesso e servirebbe usare materia da altri sistemi solari.

Un altro potrebbe essere quello dell’energia. Tom Murphy prof. associato di fisica alla University of California, San Diego che dirige un progetto sulla verifica della relatività usando gli specchi che l’Apollo lasciò sulla Luna, ipotizza sulla sua pagina web Dothemath che l’umanità continui ad crescere nel consumo energetico allo stesso ritmo usato negli USA fra il 1650 ed oggi (350 anni) che corrisponde a circa il 3% all’anno di incremento, dunque moltiplicare ogni volta per 1.03. Ebbene si arriva alla conclusione che in circa 2 millenni e mezzo la richiesta energetica sarebbe corrispondente a quella ottenibile per emissione radiativa dalle stelle dell’intera galassia conosciuta.( https://dothemath.ucsd.edu/tom-murphy-profile/), insomma la crescita continua non ha senso storico., è contraddittoria e impossibile.

Sono i problemi della crescita esponenziale, contrapposta ad una visione lineare del mondo.

Ma è chiaro che lo scenario Dyson non è interessante per se ma perchè esprime una logica che si può attuare certamente nel mondo moderno continuando a modificarlo potentemente e in ottica esclusivamente umana: in sostanza è la visione della geoingegneria che potrebbe essere una risposta alla crisi climatica innescata dal consumo dei combustibili fossili.

Cosa dicono infatti gli economisti o le grandi corporation del fossile?

Considerate che una certa coscienza del problema climatico si fa strada anche nei palazzi dei ricchi: chi ha votato Trump oggi si costruisce l’equivalente climatico del rifugio antiatomico, la fondazione Rockfeller abbandona i fossili, la Shell molla l’Iraq. Io speriamo che me la cavo, ma senza cambiare nulla di sostanziale.

Ufficialmente le grandi istituzioni politiche mondiali (UE in testa) hanno sposato la riduzione dei consumi fossili, ma l’accordo di Parigi non è vincolante e dato che di buone intenzioni è lastricata la via dell’inferno, le cose potrebbero mettersi male.

E’ interessante l’analisi di un lavoro(1) pubblicato da un famoso chimico fin dal 1970 membro del medesimo MIT che produsse Limits to growth, (tradotto erroneamente I limiti dello sviluppo invece che i limiti della crescita) e divenuto nel tempo parte dell’entourage presidenziale democratico. John Deutch analizza in dettaglio la posizione di Obama, espressione della parte del capitalismo americano favorevole all’accordo di Parigi. Usando la cosiddetta equazione di Kaya, una relazione semplice, considerata da alcuni una vera e propria tautologia, correla produzione economica e energia, con una sorta di funzione della produzione che contenga una variabile energetica e conclude che :

The Kaya decomposition shows that the extent of ‘‘decoupling’’ economic growth and emissions depends entirely on reductions in energy and carbon intensity. The downward trend in both these quantities is welcome and likely it is ‘‘irreversible.’’ But the decline is insufficient to avoid significant average global temperature increase in the second half of this century. It is misleading to suggest that, while this trend may create jobs and benefit the United States, it will successfully avoid the risks of climate change.

Dunque le energie rinnovabili non bastano secondo Deutch a salvare capra e cavoli ossia crescita e clima.

This nation and the world seek insurance against the catastrophic risks of climate change. It is difficult to be optimistic that mitigation on its own will protect the globe from the consequences of climate change. The United States and the world must urgently turn to learning how to adapt to climate change and to explore the more radical pathway of geoengineering.

In sostanza i migliori esperti tecno-economici del sistema attuale considerano poco credibile la soluzione 3R (ossia rinnovabili, riciclo, riuso) dei problemi del clima (e aggiungo io delle risorse), perchè non prendono nemmeno in considerazione l’idea della stabilizzazione dell’economia (d’altronde impossibile SENZA cambiare il modo di produrre attuale, per il quale l’accumulazione e dunque la crescita è l’unico modo di esistere). Essi introducono una variabile tecnologica tenuta finora in sordina: la geoingegneria o ingegneria climatica. Questa ipotesi è stata considerata dai grandi pensatoi tecnici(2-4), con la conclusione che non ci sono certezze sufficienti per attuarla: troppi rischi per entrambe le opzioni in campo: sia nel ridurre il flusso radiativo che nel riassorbire la CO2. Ma nonostante la mancanza di certezze il mondo economico ci vede una via d’uscita perché non crede al modello delle 3R, che bloccherebbe la crescita, e guarda alla geoingegneria nonostante i rischi.

Il terzo scenario potrei definirlo lo scenario Balzani. Alcuni intellettuali fra i quali alcuni membri della redazione di questo blog pensano che solo andando verso una produzione basata su energie rinnovabili, su riciclo dei materiali e riuso degli oggetti, ma anche sulla redistribuzione della ricchezza, sulla stabilità della popolazione e la riduzione della giornata lavorativa, si può forse uscire dall’impasse attuale.

Sviluppo senza crescita, che corrisponde ad abbandonare la via del capitalismo di accumulazione, che ha dominato gli ultimi secoli per una industria che in antinomia con i progetti attuali basati sulla sola robotizzazione definiremmo: 5.0 e ne parleremo nel prossimo post.

(continua)

(1) John Deutch, Decoupling Economic Growth and Carbon Emissions, Joule 1, 3–9, 2017

(2) Lenton, T.M.; Vaughan, N.E“The radiative forcing potential of different climate geoengineering options”. Atmospheric Chemistry and Physics. 9 (15): 5539–5561, . (2009).

(3)IPCC AR5 WG1, pp. 575, 632

(4) http://www8.nationalacademies.org/onpinews/newsitem.aspx?RecordID=02102015

Scienziate che avrebbero dovuto vincere il Premio Nobel: Ida Noddack (1896-1978)

In evidenza

Rinaldo Cervellati

È il titolo di un articolo insolitamente lungo per gli standard di Chemistry & Engineering News che sostanzialmente riporta l’intervento di Magdolna Hargittai alla riunione dell’American Chemical Society tenutasi a Washington lo scorso mese di agosto. Hargittai, autrice del libro Women Scientists (Oxford University Press, Oxford, 2015) osserva che dalla sua istituzione nel 1901 a oggi sono solo 17 le donne cui è stato assegnato il Nobel per fisica, chimica e medicina. In particolare, per quanto riguarda la chimica sono 4 su 175 le donne che l’hanno ricevuto: Maria Curie (l’unica persona a vincere anche quello per la fisica), Irène Joliot-Curie, Dorothy Crowfoot Hodgkin e Ada E. Yonath.

Questo fatto non è una novità, ricordo in particolare l’ottima esposizione “Nobel Negati alle Donne di Scienza”, tenutasi a Palazzo Alberti di Rovereto dal 24 novembre 2010 al 13 marzo 2011

http://www.museocivico.rovereto.tn.it/UploadDocs/3370_NOBEL_NEGATI.pdf

patrocinata anche dall’Università di Trento.

Anche se non tutti sono d’accordo sui nomi delle scienziate che avrebbero dovuto vincere il Nobel resta il fatto che solo il 3% delle persone cui è stato assegnato sono donne. Molti ritengono che nella scienza molte importanti scoperte siano state fatte da donne che avrebbero potuto vincere il Premio Nobel. Nel libro “European Women in Chemistry” (Wiley-WCH, 2011) sono riportate le biografie di più di 50 scienziate europee che avrebbero dovuto o potuto ricevere il Premio Nobel per la chimica. Mi sembra doveroso ricordare alcune di queste protagoniste.

In questo post inizierò con Ida Noddack anche perché criticò una “scoperta” di Fermi.

Ida Tacke Noddack nasce nel febbraio 1896, terza figlia di un fabbricante di vernici, a Wesel in Renania. A 16 anni è accettata al Ginnasio S. Orsola di Aquisgrana, dopo aver superato l’esame finale è ammessa alla facoltà di chimica del Politecnico di Berlino, dove consegue prima il diploma (1919), poi il dottorato (1921) discutendo una tesi sulle anidridi e gli acidi grassi ad alto peso molecolare. Continua questa ricerca nelle industrie AEG e Siemens&Halske, è la prima donna impegnata in ricerche industriali.

Ida Noddack

Durante questo lavoro si specializza in spettrografia a raggi X; la determinazione di elementi in tracce, della loro origine e abbondanza in natura, sono i suoi principali campi di interesse.

Ottiene ottimi risultati nell’analisi quantitativa di elementi in minerali e rocce definendo nuovi metodi di separazione e arricchimento.

Nel 1922 ottiene un posto di visiting scientist nel prestigioso Istituto Fisico-Tecnico di Berlino, dove il direttore del laboratorio di chimica è il Dr. Walter Noddack. Con lui inizia la sua ricerca sugli elementi nelle caselle che rimanevano ancora vuote nella Tavola Periodica. In particolare sugli elementi 43 e 75, sopra e sotto il manganese, dei quali forniscono previsioni precise di massa, punti di fusione, colori e forme cristalline nonché proprietà chimiche.

Dopo vari tentativi falliti, Ida utilizzando un nuovo spettrometro a raggi X della Siemens&Halsk riuscì, insieme a Otto Berg, a identificare le righe spettrali caratteristiche di due nuovi elementi nei minerali coulombite, gadolinite e molibdenite [1]. Essi chiamarono renio l’elemento 75 (dal nome della regione di provenienza di Ida) e masurio (dal nome masuria, regione di provenienza di Walter) l’elemento 43, la scoperta fu comunicata a diversi congressi e presto arrivò anche alla stampa. Il nome masurio fu criticato perché troppo patriottico (la Masuria è stata sempre contesa da tedeschi e polacchi), inoltre lo spettro del presunto masurio non risultò riproducibile e quindi non attribuito[1].

Il renio fu poi definitivamente confermato nel 1928 quando, partendo da 660 kg di molibdenite, i due scienziati ottennero 1 g di renio [2].

Campioni di renio

Durante questo periodo Ida Tacke e Walter Noddack si sposarono continuando la collaborazione professionale, pubblicando insieme più di 100 articoli scientifici. Ida e Walter Noddack studiarono le caratteristiche, le proprietà e le possibili applicazioni pratiche del renio, brevettandolo in diversi Paesi per il suo utilizzo come ricoprente dei filamenti di lampade, come catalizzatore in taluni processi di ossidazione, nei tubi a vuoto, nonché in nuovi processi di arricchimento e concentrazione. Per tutto ciò ai Noddack fu assegnata nel 1931 la prestigiosa Medaglia Liebig della Società Chimica Tedesca.

Dopo la scoperta del neutrone, Fermi e collaboratori iniziarono a usare una sorgente di queste particelle per bombardare i nuclei degli elementi e studiare gli effetti prodotti, in particolare la radioattività artificiale che già i coniugi Joliot-Curie avevano rilevato utilizzando però particelle α come proiettili. Fermi riteneva a ragione che particelle neutre fossero più efficaci di quelle cariche positivamente. Nel maggio1934, dopo aver bombardato tutti i precedenti, il gruppo di Fermi giunse all’ultimo elemento noto, l’uranio osservando una serie di successivi decadimenti radioattivi di lunga durata. Insieme ai suoi collaboratori presenta quindi una nota preliminare (25 maggio) che si conclude così:

Questo insieme di conclusioni che stiamo cercando di suffragare con ulteriori esperienze fa sorgere spontanea l’ipotesi che il principio attivo dell’U possa avere numero atomico 93 (omologo del renio); il processo in questa ipotesi potrebbe consistere in una cattura del neutrone da parte dell’U con una formazione di un U239 il quale subirebbe successivamente delle disintegrazioni β. [3]

Qui appare una cautela di Fermi e del suo gruppo di fisici che intendono suffragare l’ipotesi…

Ma nemmeno un mese dopo questa nota (3 giugno), Orso Mario Corbino[2], mèntore del gruppo, in un discorso sullo stato della fisica all’Accademia dei Lincei, dice:

Per quello che può valere la mia opinione sull’andamento di queste indagini, che ho quotidianamente seguito, credo di poter concludere che la produzione di questo nuovo elemento è già sicuramente accertata. Il risultato ottenuto, cioè la creazione dell’elemento 93, è di grande importanza… si tratta… della fabbricazione artificiale di un elemento nuovo, situato al di fuori della serie degli elementi conosciuti sulla Terra.[4]

Pochissimi giorni dopo (6 giugno), focalizzando l’attenzione sul più lungo decadimento β e avendo escluso che fosse dovuto a una serie di elementi fra cui il piombo, i soli Fermi, Rasetti e d’Agostino[3], scrivono una seconda nota:

Da questo complesso di prove negative sembra plausibile considerare la possibilità già enunciata che il numero atomico dell’elemento in questione sia maggiore di 92. Se fosse un elemento 93, esso sarebbe omologo del Manganese e del Renio. Questa ipotesi è confermata in qualche misura dal fatto osservato che l’attività di 13 minuti è trascinata da un precipitato di solfuro di Renio insolubile in HCl.[5]

Quel ”ipotesi è confermata” fa quasi trascurare la frase successiva: … poiché molti elementi pesanti precipiterebbero in questa forma, questa prova non può considerarsi molto dimostrativa. Certamente, come vedremo, Ida Noddack non la trascurerà.

Fermi comunque invia (16 giugno), questa volta solo a suo nome, una lettera alla prestigiosa rivista Nature [6]. Questa lettera, chiaramente indirizzata a una platea internazionale la più vasta possibile, è praticamente la traduzione inglese della nota [5]. I concetti espressi nel corsivo precedente sono identici in inglese: this negative evidence… suggests the possibility that the atomic number of the element may be greater than 92. [6, p. 899]

Venuta a conoscenza dell’articolo di Fermi su Nature e del rilievo dato alla “scoperta” dalla stampa italiana e internazionale, Ida Noddack pubblica un articolo fortemente critico sulla rivista di chimica Zeitschrift fur Angewandte Chemie [7].[4]

Dopo aver brevemente riassunto i metodi e i risultati di Fermi, Noddack scrive:

Questo metodo di prova non è valido. Fermi ha confrontato il suo nuovo emettitore β con diversi altri elementi verso il basso. Ciò indica che ha pensato che fosse possibile una serie di decadimenti consecutivi… che potessero produrre il radioelemento con emivita di 13 minuti. Non è chiaro …perché ha scelto di fermarsi al piombo. La vecchia visione che gli elementi radioattivi formano una serie continua che termina al piombo è proprio ciò che gli esperimenti precedentemente citati di Curie e Joliot avevano smentito. Perciò Fermi avrebbe dovuto confrontare il suo nuovo radioelemento con tutti gli elementi che emettono radiazioni. È noto dalla chimica analitica che numerosi elementi [e loro composti] precipitano con il biossido di manganese.

Per testare come i vari elementi si comportano con il metodo di precipitazione di Fermi, abbiamo eseguito i seguenti esperimenti… Il precipitato conteneva i seguenti elementi: Ti, Nb, Ta, W, Ir, Pt, An e Si con quasi la quantità totale di ciascun elemento in soluzione; Sb, Ph, Bi, Ni e Co con quantità parziali.

Pertanto, la prova che il nuovo radioelemento ha numero atomico 93 non è in alcun modo soddisfacente, poiché il metodo di eliminazione di altre possibilità non è stato portato a termine. [7]

Dice poi:

Si potrebbe assumere altrettanto bene che quando vengono utilizzati neutroni… si verificano alcune reazioni nucleari nuove che non sono state osservate in precedenza bombardando i nuclei atomici con protoni o particelle α. Nel passato si è scoperto che le trasmutazioni dei nuclei avvengono solo con l’emissione di elettroni, protoni o nuclei di elio, in modo che gli elementi pesanti cambiano la loro massa solo di poco producendo elementi vicini. Quando i nuclei pesanti vengono bombardati con neutroni, è possibile che il nucleo si rompa in diversi frammenti di grandi dimensioni, che sarebbero naturalmente isotopi di elementi noti ma non così vicini all’elemento irradiato.[7]

È spesso riportata solo l’ultima frase di questo paragrafo, per dire che Noddack ipotizzò la fissione nucleare senza alcuna base e, anche per questo, fu praticamente ignorata per cinque anni. In realtà, se la si legge interamente si osserva che l’ipotesi, anche se priva di fondamenti teorici, si basava su osservazioni di trasmutazioni osservate in precedenza con emissione di particelle diverse.

A proposito della presunta precipitazione insieme al solfuro di Renio, Noddack Scrive:

La constatazione che il nuovo radioelemento precipiterebbe insieme al solfuro di renio da una soluzione acida non è una prova a favore dell’elemento 93. In primo luogo, il solfuro di renio assorbe facilmente altri materiali. In secondo luogo, la previsione delle probabili proprietà del 93 renderebbe assolutamente certo che questo elemento forma un solfuro che è stabile in soluzione acida. [7]

Infine, un’ultima bacchettata:

Si dovrebbero aspettare ulteriori esperimenti, prima di sostenere che l’elemento 93 è stato veramente trovato. Fermi stesso è attento a questo proposito… ma in un articolo relativo ai suoi esperimenti e anche nelle relazioni che si trovano sui giornali si fa apparire come il risultato sia già certo[5]. [7]

Per completezza, l’articolo di Noddack è critico anche verso Odolen Koblic, un chimico cecoslovacco che pubblicò nello stesso anno una nota in cui affermava di aver scoperto e isolato il nuovo elemento 93 da un minerale di uranio chiamato pitchblenda[6] che avrebbe contenuto circa l’1% dell’elemento, che fu chiamato boemio [8]. Anche questa “scoperta” fece il giro di tutto il mondo. Ma Koblic inviò due campioni del materiale a Noddack per verificare la presenza del boemio, che giunse a queste conclusioni:

sia l’analisi chimica sia gli spettri a raggi X hanno mostrato che il materiale non contiene l’elemento 93; si tratta invece di una miscela di argento, tallio, vanadato e sali del tungsteno, con acido tungstico in eccesso. Dopo essere stato informato di questi risultati, Koblic … ha ritirato le sue rivendicazioni alla scoperta dell’elemento 93 (Chemiker Zeitung, 1934, 58, 683). [7]

La comunità dei fisici giudicò l’ipotesi di Noddack inaccettabile se non addirittura ridicola, persino Otto Hahn e Lise Meitner [9], che in seguito (1939) scoprirono la fissione nucleare si schierarono apertamente dalla parte di Fermi. Noddack inviò il suo articolo a Fermi, il quale lo rigettò senza replicare. Questo atteggiamento fu dovuto anche a quella che i fisici giudicarono una indebita ingerenza dei chimici in un loro campo di ricerca, lo studio del nucleo atomico.

Fermi ottenne il Premio Nobel per la fisica nel 1938 con la seguente motivazione:

“per la sua dimostrazione dell’esistenza di nuovi elementi radioattivi prodotti da irraggiamento neutronico, e per la relativa scoperta delle reazioni nucleari indotte da neutroni lenti”.

Cioè paradossalmente non per i suoi indubbi meriti in fisica teorica e sperimentale, ma per la misinterpretazione di un esperimento. Ancora nel 1938, in occasione del conferimento del Premio, nella Nobel lecture egli dice:

Concludemmo che i responsabili di tali attività fossero uno o più elementi di numero atomico maggiore di 92; a Roma eravamo soliti chiamare gli elementi 93 e 94 rispettivamente Ausonio ed Esperio.[10]

Dieci giorni dopo la Nobel lecture di Fermi, la scoperta di questi elementi «transuranici» fu confutata da Otto Hahn e Fritz Strassmann e interpretata in termini di un’avvenuta disintegrazione del nucleo di Uranio in due grossi frammenti (http://www.chemteam.info/Chem-History/Hahn-fission-1939a/Hahn-fission-1939a.html). Prima che la lecture fosse stampata Fermi aggiunse la nota: …la scoperta di Hahn e Strassmann “rende necessario riesaminare tutta la questione degli elementi transuranici, poiché molti di essi potrebbero essere dovuti alla disintegrazione dell’uranio” [10].

Né Hahn, né Strassmann né Fermi accennano che l’ipotesi fu fatta quasi cinque anni prima da Ida Noddack.

  1. Leone e N. Robotti [11], che hanno studiato in dettaglio appunti e quaderni di laboratorio del Gruppo dei “ragazzi di via Panisperna” ritengono che Fermi e collaboratori sin da subito [28 aprile] propendessero per l’ipotesi che l’attività da 13 minuti fosse attribuibile a un elemento avente Z = 93. Gli esperimenti decisivi iniziarono l’8 maggio 1934, e già il giorno stesso essi esplicitamente introdussero il neologismo «Ausonio» per l’ipotizzato nuovo elemento chimico.[11]

Gli stessi autori ci informano delle reazioni di Noddack alla scoperta di Hahn e Strassmann. In un articolo del 1939 scrive:

  1. Hahn e L. Meitner hanno continuato le ricerche di Fermi. […] nella loro prima pubblicazione essi dissero […] in accordo con Fermi, che molto probabilmente si trattava di elementi al di là dell’uranio. Essi assunsero, come Fermi in precedenza, che si potessero ottenere solo elementi vicini all’uranio. Essi non hanno citato la mia critica degli esperimenti di Fermi né nella loro prima pubblicazione, né in una delle loro numerose successive pubblicazioni sulla trasformazione artificiale dell’uranio mediante neutroni.[12, cit in 11].

Tuttavia il solo Otto Hahn fu insignito del Nobel per la Chimica nel 1944, e soltanto molto tempo dopo ammise in una trasmissione radiofonica che Ida Noddack aveva avuto ragione, queste parole furono riportate dalla stampa, ad es. da Rehinische Post nel 1971.[13]

Nel 1935, in seguito all’espulsione dei docenti ebrei dalle università tedesche, Walter Noddack fu chiamato a ricoprire la cattedra di Chimica Fisica all’Università di Friburgo, Ida pure si trasferì con tutto il laboratorio.

Ida Noddack nel suo laboratorio

Nel 1941 i Noddack passarono all’Università di Strasburgo che, dopo l’occupazione tedesca era in mano a professori membri del partito nazionalsocialista. Sebbene Noddack non fosse mai stato iscritto al partito nazista gli fu affidata la direzione degli Istituti di Chimica e di Fisica. Nel 1944, l’invasione degli alleati costrinse i Noddack a lasciare la città per un piccolo villaggio. L’anno successivo, finalmente assolti dall’accusa di nazismo, i Noddack si stabilirono a Bemberg, dove Walter fondò un Istituto di Geochimica[7] e Ida poté continuare le sue ricerche sulla relazione fra l’abbondanza degli elementi e le ipotetiche proprietà dei nuclei atomici.

Una dettagliata storia di queste ricerche si trova in un lungo e articolo di G.M. Santos [14].

Quindi, Ida Noddack incontrò molti ostacoli nella sua vita professionale a causa del suo genere e anticonformismo, del risentimento dei fisici per l’intrusione nel loro campo, di quello dei chimici per la presunta scoperta del masurio (peraltro ancora oggetto di controversia) e per l’oggettiva difficoltà di fare ricerca durante e dopo il regime nazista.

Infatti Noddack, seppure riconosciuta sia dal marito sia da tutti quelli che hanno collaborato con lei come principale responsabile delle scoperte del gruppo e nonostante candidata al Nobel per quattro volte (1932, 1933, 1935, 1937), non lo ottenne mai.[8] Muore nel 1978.

Bibliografia

[1] W. Noddack, I. Tacke, O. Berg, “Die Ekamangane”. Naturwissenschaften, 192513, 567–574.

[2] W. Noddack, I. Noddack, Die Herstellung von einem Gram Rhenium, Zeitschrift für anorganische und allgemeine Chemie (in German). 1929, 183, 353–375.

[3] E. Amaldi, O. D’Agostino, E. Fermi, F. Rasetti ed E. Segrè, Radioattività beta provocata da bombardamento di neutroni III, Ric. Scient., 1934, 5, 452-53.

[4] O. M. Corbino, Prospettive e risultati della fisica moderna, Ric. Scient., 1934, 5, 609-19.

[5] E. Fermi, F. Rasetti e O. D’Agostino, Sulla possibilità di produrre elementi di numero atomico maggiore di 92, Ric. Scient., 1934, 5, 536-37.

[6] E. Fermi, Possible production of elements of atomic number higher than 92, Nature, 1934,133, 898-99.

[7] I. Noddack, Uber das Element 93, Z. Angew. Chem., 1934, 47, 653-655. Engl. Transl. On Element 93, http://www.chemteam.info/Chem-History/Noddack-1934.html

[8] O. Koblic, Chemiker Zeitung, 1934, 58, 581; trad. Ingl: A. Stern,. The new element bohemium the origin of proto-actinium, Chemistry and Industry, 1934, 53, 678-679.

[9] O. Hahn, L. Meitner, Über die künstliche Umwandlung des Urans durch Neutronen (Sulla trasformazione artificiale dell’uranio da parte di neutroni), Naturwiss., 1935, 23, 37-38.  

[10] E. Fermi, Artificial radioactivity produced by neutron bombardment. Nobel Lecture, December 12, 1938, in Physics 1922-1941, Nobel Lectures, Elsevier, Amsterdam-London-New York 1965

[11] M. Leone, M. Robotti, Enrico Fermi e la presunta scoperta dei transuranici, in: Atti del XXIII Congresso di Storia della Fisica e dell’Astronomia, Bari, 5-7/6/2003, Progedit, Bari, 2004, pp. 231-244. http://www.brera.unimi.it/sisfa/atti/2003/231-244LeoneBari.pdf

[12] I. Noddack, Bemerkung zu den Untersuchungen von O. Hahn, L. Meitner und F. Strassman über die Produkte, die bei der Bestrahlung von Uran mit Neutronen entstehen, Angew. Chem., 1939 27, 212-13.

[13] G. Dragoni, Donne e Scienza, INFN Sezione di Bologna, 15/3/2008. http://www.scienzagiovane.unibo.it/nobelnegati/pdf/Noddack2.pdf

[14] G.M. Santos, A Tale of Oblivion: Ida Noddack and the ‘Universal Abundance?’ of Matter, Notes Rec., 2014, 68, 373–389.

[1] L’elemento 43 fu prodotto artificialmente nel 1937 da Carlo Perrier ed Emilio Segré nei laboratori di fisica dell’Università di Palermo e fu chiamato tecnezio dal greco τεχνητός che significa artificiale. È stato il primo elemento prodotto artificialmente, ritenuto a lungo non esistente in natura. In anni più recenti è stato individuato sia all’interno che all’esterno del sistema solare.

[2] Orso Maria Corbino (1876-1937) fisico e politico italiano fu tecnico e manager politico nel settore idroelettrico. Ministro dell’Istruzione nel Governo Bonomi e poi dell’Economia Nazionale nel 1923-24, fu Direttore dell’Istituto di Fisica di via Panisperna è stato il protettore e mentore di Fermi e del suo gruppo. Presidente della Società italiana delle scienze e di quella di Fisica.

[3] Rasetti, Amaldi, Segré sono noti a tutti, il meno noto è Oscar D’Agostino (1901-1975) chimico del gruppo. Inizia a collaborare con Fermi nel 1933, trascorre un periodo di studi all’Istituto del Radio di Parigi dove si specializza nell’analisi degli elementi radioattivi. Tornato in Italia nel 1934 collabora attivamente con Fermi fino al 1937. Prosegue le sue ricerche prima al CNR e poi all’Istituto Superiore di Sanità.

[5] Noddack si riferisce qui a un trafiletto apparso il 9 giugno 1934 su Nature (133, 863) che riporta parte di un articolo de Il Giornale d’Italia del 5 giugno in cui si afferma che “Fermi ha prodotto il nuovo elemento 93” Il trafiletto fa seguito all’articolo di Fermi su Nature [6].

[6] Lo stesso minerale dal quale Marie e Pierre Curie isolarono polonio e radio.

[7] L’Istituto di Geochimica fu riconosciuto e nazionalizzato entrando a far parte degli istituti di ricerca della Repubblica Federale Tedesca nel 1956.

[8] Durante la seconda guerra mondiale, i Noddack hanno prodotto solo una sola pubblicazione, un libro sullo sviluppo e la crescita della scienza chimica. Quel libro sembrava descriverli come tedeschi patriottici che non mostravano alcun entusiasmo per il governo nazista della Germania. Scrivevano che “… la maggioranza degli stati ha fatto grandi sforzi per portare la loro scienza e la chimica al livello dei tedeschi”. Ma dicono che la “lotta … è combattuta con le armi dell’intelletto” aggiungendo che il futuro sarà determinato dall’”istruzione”. Per implicazione, la vittoria militare nella guerra era meno importante della crescita dell’intelletto e dell’istruzione. http://www.encyclopedia.com/women/encyclopedias-almanacs-transcripts-and-maps/noddack-ida-1896-1978

Cambiamenti climatici e agricoltura: quale futuro?

In evidenza

Mauro Icardi

Sabato 28 Ottobre ho assistito all’incontro scientifico dedicato alla Meteorologia e Climatologia delle Alpi organizzato dall’Associazione Forte di Bard in collaborazione con la Società Meteorologica Italiana e Equipe Arc-en-Ciel, METEOLAB 2017. Il cui titolo chiarisce già molto bene l’attualità e l’importanza del tema : “Cambiamenti climatici e agricoltura: quale futuro?”

Questo articolo vuole farne un resoconto, ma soprattutto cogliere i molti spunti e riflessioni che ne ho colto. A cominciare da quello a me più familiare. Quello sulla gestione attenta, programmata e consapevole dell’uso dell’acqua. Acqua e agricoltura è intuitivo siano strettamente legate.

E sia Luca Mercalli, che Laurent Vierin presidente della regione Valle d’Aosta lo hanno sottolineato. Per l’agricoltura, come per la gestione della risorsa idrica le programmazioni richiedono quasi inevitabilmente una prospettiva di lungo periodo. La raccolta di dati sulle esigenze e sui consumi, la ricognizione e verifica dello stato dell’arte di condutture e sistemi di pompaggio, o nel caso dei sistemi irrigui la rete dei canali, la progettazione e il reperimento delle risorse finanziarie possono richiedere un’altra importante risorsa. Il tempo. Non solo anni, ma in qualche caso decenni.

Le cronache dell’ estate 2017 ci raccontano invece, oltre che di un’estate rovente, di un continuo ed affannoso tentativo di porre rimedio alle emergenze idriche con provvedimenti di emergenza, con una sensazione di affanno, e con il contorno di un’informazione che a mio parere troppo spesso ricerca un sensazionalismo che non è utile. Che non aiuta a capire.

La valle d’Aosta ha pensato ad un piano straordinario di tutela delle acque ed ha costituito pochi giorni prima di questa iniziativa un tavolo tecnico per l’utilizzo razionale delle acque. Un importante primo passo.

In effetti al mio arrivo nella località di Bard ho potuto notare come fontane e lavatoi, tipici dell’ambiente di montagna fossero chiusi. Così come lo sono state le fontanelle un po’ in tutta Italia, da Roma , Verona e Parma questa estate.

Il caldo è finito. La siccità non ancora.

La giornata di studio è proseguita fitta di molte interessanti relazioni. Quello che è emerso ascoltando tutti i relatori è, a mio parere, riassumibile in un solo concetto: non è più tempo di indecisioni e di staticità. I problemi causati dai cambiamenti climatici stanno già mostrando segnali chiari, che interferiscono con la nostra realtà quotidiana, rispetto a come l’abbiamo sempre vista e pensata in passato. Cogliendo diversi degli spunti e delle cose dette in questa giornata, alcune risaltano con una chiarezza disarmante. Il modificarsi del regime delle precipitazioni, le minori giornate con innevamento al suolo tendono a modificare la fertilità del terreno agricolo. La saggezza dei nostri nonni lo diceva che “Sotto la neve pane, sotto la pioggia fame”. L’agricoltura di montagna, la produzione di prodotti di qualità è una risorsa, ma che è minacciata dal nuovo tempo “impazzito”. Nell’aprile di quest’anno la Valle d’Aosta ha visto azzerata la propria produzione di vini pregiati a causa di una gelata tardiva. La gelata ha colpito vigneti che erano già in fioritura avanzata a causa di un inverno mite che ha anticipato il ciclo vegetativo e lo sviluppo dei germogli nelle vigne. Quindi se la gelata è un fenomeno che si può verificare, e si è spesso verificato in passato nella regione alpina, l’inverno insolitamente mite (ma mi chiedo se sia il caso di usare ancora questo avverbio) è invece il vero fenomeno anomalo.

Anche lo sviluppo ed il ciclo vitale dei parassiti si modifica e cambia. Ci sono più cicli di deposizione e schiusa di uova, e quindi danni maggiori, e necessità di più interventi di lotta antiparassitaria.

La Valle d’Aosta si sta scoprendo territorio adatto alla produzione di un prodotto agricolo come lo zafferano , e a questo proposito sono stati molto interessanti gli interventi di due titolari di aziende agricole, Diego Bovard e Stefano Carletto che raccontano come la passione e l’inizio della produzione sia nata quasi per caso. Una coltivazione quella dello zafferano che richiede di effettuare pratiche antiche, quale per esempio il diserbo manuale. Il cambiamento del clima ha effetto anche al di fuori del settore agricolo. Trasforma la vocazione turistica delle località di montagna. Che vedono maggiori afflussi turistici nella stagione estiva, che in quella invernale ormai sempre più povera di innevamento naturale. L’idea di persone che, come è capitato questa estate, fuggono da città rese invivibili da un caldo mai registratosi prima dovrebbe essere uno stimolo non solo a riflessioni, ma anche ad atti molto concreti.

La chiusura della giornata di studio e divulgazione si chiude con alcune domande di rito del pubblico (che ha risposto numeroso a questa ormai ottava edizione di Meteolab), e con alcune considerazioni finali che cercherò di riassumere ed esprimere.

La scienza ha ormai fatto e continua a fare la sua parte. Le evidenze ci sono. Dall’IPCC al WMO (World Meteorological Organization) al NOA, alla NASA, solo per citarne alcune, tutti hanno prodotto studi, hanno raccolto dati e pubblicato grafici. Il cambiamento climatico è realtà.

scuola-primaria-e-de-amicis-progetto-di-educazione-ambientale-

Appurata questa cosa è incomprensibile la stasi che di fatto vediamo con i nostri occhi. Accordi sul clima disattesi, e tempo che passa senza azioni concrete. E allora vale la pena ribadire che ognuno di noi può adottare la filosofia del colibrì dell’omonima favola peruviana.

E’ questo è stato detto e ripetuto da Luca Mercalli ( che ce lo ricorda ormai da decenni). Ci sono atti concreti che si possono fare. Isolare la casa, installare pannelli solari , esercitare un consumo critico quando si va al supermercato, coltivare un orto, bere acqua del rubinetto, razionalizzare gli spostamenti e l’uso dell’auto. E a completamento di questo, vorrei aggiungere che si impara con i piccoli passi ad essere resilienti. E che non ci si deve spaventare dell’eventuale fatica che si può inizialmente provare quando si cambiano le abitudini. Anche con il concetto di fatica, che non è negativo, si può tornare a familiarizzare.

Altro concetto importante che riguarda invece l’attività di divulgazione, e che l’ottava edizione di Meteolab ci lascia come idea, è quella dell’interdisciplinarità. La salvaguardia di pianeta e clima trova resistenze dovute a falsi miti, a superficialità e banalizzazioni. E quindi è necessaria non solo la collaborazione continua tra le diverse discipline scientifiche, tra ricercatori, scienziati e tecnici. Ma anche quella che trovi sinergie con le scienze umane. Che trovi la chiave di comunicazione, gli strumenti che ci aiutino ad avvicinare un problema, che non è quello del cambiamento climatico, ma della “grande cecità” che proviamo davanti ad esso. Oppure quello della fase collettiva di rifiuto della realtà da parte di sempre più ampi strati della società. Una ecologia della mente che ci liberi da questa assuefazione al consumo sfrenato, visto a volte come l’unico traguardo della propria realizzazione personale.

La chiusura di questo articolo non può che essere un doveroso ringraziamento agli organizzatori e tutti i relatori di un’iniziativa di ottimo livello. Di una bella giornata. Siamo stati ancora istruiti e avvisati. I semi sono stati gettati. Magari riusciranno a germogliare anche in condizioni estreme, come il solo fiore di zafferano che, come ci è stato raccontato, è riuscito a germogliare alle pendici del Monte Bianco.

Meteolab 2017: questi i relatori presenti: Luca Mercalli, presidente della Società Meteorologica Italiana; Corrado Adamo, dirigente della Struttura Produzioni vegetali e Servizi fitosanitari dell’assessorato regionale agricoltura e risorse naturali; il prof Michele Freppaz dell’Università degli Studi di Torino; Edoardo Cremonese, dell’Area Operativa Cambiamenti Climatici dell’Arpa Valle d’Aosta; Odoardo Zecca, coordinatore del settore Viticoltura, ricercatore e insegnante dell’Institut Agricole Régional; Diego Bovard e Stefano Carletto, titolari di aziende agricole; Federico Spanna, presidente dell’Associazione Italiana di Agrometeorologia, e Gabriele Dono, presidente del Corso di Laurea Triennale in Scienze Agrarie e Ambientali dell’Università degli Studi della Tuscia.

Grazie!

Strategie contro l’inquinamento “indoor”

In evidenza

Luigi Campanella, già Presidente SCI

Con inquinamento indoor si intende l’inquinamento che interessa l’aria degli ambienti confinati, cioè quella presente in quei luoghi all’interno dei quali si svolgono attività umane sia di lavoro che conviviali, di svago o di riposo.

E’ comunque opportuno sottolineare che nell’ambito della definizione “indoor” vengono esclusi gli ambienti industriali, che pur essendo spesso confinati, presentano un tipo di inquinamento ben specifico e relazionato alla tipologia di lavoro.

Invece, al contrario di quanto succede in ambito industriale, nel caso di abitazioni, scuole, uffici, edifici pubblici, mezzi di trasporto, ecc., l’inquinamento indoor viene frequentemente sottovalutato per fattori di natura squisitamente culturale, psicologica o storica.

In realtà, diverse ricerche hanno dimostrato che in questi luoghi l’esposizione ad inquinanti di varia natura può essere addirittura superiore a quella relativa agli inquinanti in ambiente esterno o industriale.

Si tenga presente che il tempo speso da ognuno in ambienti confinati è di gran lunga superiore a quello speso in ambiente outdoor.

Un caso poi di particolare importanza è rappresentato dall’ambiente ospedaliero (sul quale scrivemmo già un post). Qui la possibilità di contrarre varie malattie, anche di tipo professionale,obbliga ad attenzione ancora maggiore,rappresentando i frequentatori una fascia debole di utenza.

Il problema dell’inquinamento indoor è emerso nel corso di questi ultimi anni: parallelamente al crescente desiderio di migliorare la qualità della vita realizzando condizioni di benessere e di salubrità ottimali per la salute. Risulta da tutto ciò quanto preziosa possa risultare una tecnologia capace di rimuovere da un ambiente indoor gli inquinanti in esso presenti.

Oggi si lavora a pitture foto catalitiche capaci di farlo utilizzando un processo fotodegradativo degli inquinanti stessi affidato alla presenza, fra i suoi componenti, di un semiconduttore fotocatalizzatore che, stimolato dalla luce solare, produce radicali liberi dell’ossigeno molto reattivi e quindi capaci di degradare fino alla mineralizzazione molti dei comuni inquinanti indoor.

I limiti a tale tecnologia sono due: necessità di illuminazione solare della parete verniciata, stop al processo nelle ore notturne.

L’implementazione è quindi indirizzata verso una modulazione della lunghezza d’onda attiva, modificando il fotocatalizzatore o drogandolo ed integrando nell’attuale composizione un generatore radicalico che possa svolgere il ruolo coperto nell’attuale versione dal sistema costituito da TiO2, luce solare, molecole di acqua ed ossigeno,capace di produrre radicali dell’ossigeno molto attivi per degradare gli inquinanti da abbattere.

Chemistry » “Phthalocyanines and Some Current Applications”, book edited by Yusuf Yilmaz, ISBN 978-953-51-3256-1, Chapter 10 Phthalocyanines: Alternative Sensitizers of TiO2 to be Used in Photocatalysis By William A. Vallejo Lozada, Carlos Diaz-Uribe, Cesar Quiñones, Mileidy Lerma, Catalina Fajardo and Karen Navarro DOI: 10.5772/67880

Note sull’Antropocene.2.Le ipotesi. Parte seconda.

In evidenza

Claudio Della Volpe

Le prime due parti di questo post sono state pubblicate qui e qui.

Continuiamo ad esaminare le varie proposte sulla scansione temporale dell’Antropocene usando come falsariga l’articolo di Lewis e Maslin pubblicato su Nature nel 2015.

Dopo aver esaminato le ipotesi dell’origine delle attività agricole e dello scambio colombiano, la scoperta dell’America e delle sue conseguenze arriviamo alla

Ipotesi 3.

 terza ipotesi, ossia la rivoluzione industriale.

L’inizio della rivoluzione industriale è stata spesso suggerita come inizio dell’Antropocene, perchè certamente l’accelerazione nell’uso dei fossili e i rapidi cambiamenti sociali sono stati unici nella storia umana. Eppure occorre notare che l’umanità è stata a lungo impegnata in trasformazioni di tipo industriale come l’uso esteso di metalli negli ultimi 8000 anni e con un esteso inquinamento conseguente.

Per esempio un elevato inquinamento da mercurio è stato documentato fin dal 1400aC nelle Ande peruviane mentre le lavorazioni di rame nell’impero Romano sono tracciabili nei ghiacci della Groenlandia a partire da circa 2000 anni fa. Ciononostante questo tipo di inquinamento da metallli come altri esempi che si possono prendere dalla Rivoluzione industriale sono troppo locali ed estesi nel tempo per costituire un vero e proprio golden spike, un segnale certo ed univoco.

Le definizioni storiche della Rivoluzione industriale danno una data iniziale fra il 1760 e il 1880 a partire da eventi iniziali nel NordEuropa. Dato il lento aumento dell’uso di carbone le testimonianze fossili nel ghiaccio registrano un impatto limitato sul totale della CO2 atmosferica fino al 19esimo secolo e mostrano poi un incremento continuo ma non un brusco salto impedendo di usarlo come marcatore geologico vero e proprio.

In modo analogo i cambiamenti associati di metano e nitrati, dei prodotti fossili delle combustioni (come le particelle carbonacee sferiche e la frazione magnetica delle ceneri) e tutti gli altri cambiamenti prodotti nei sedimenti dei laghi si sono alterati solo lentamente e sono cresciuti durante molte decadi. Il piombo, una volta aggiunto routinariamente ai combustibili dei veicoli come piombo tetratile, è stato proposto come possibile marcatore proprio perchè il combustibile additivato di piombo è stato usato globalmente e poi proibito. Comunque il picco del rapporto isotopico del piombo da questa specifica sorgente nei sedimenti varia durante l’intervallo fra il 1940 e il 1980 limitandone l’utilità come marcatore.

La rivoluzione industriale in definitiva fornisce si un certo numero di marcatori dal Nord Europa al Nord America e nel resto del mondo sin dal 1800 ma nessuno di essi costituisce finora un marcatore primario chiaro e valido in tutti i contesti.

Ipotesi 4

La grande accelerazione.

Fin dal 1950 l’influenza dell’attività umana sul sistema terra si è accresciuta enormemente. Questa “grande accelerazione” è caratterizzata dalla crescita della popolazione, da cambiamenti nei processi naturali, dallo sviluppo di nuovi materiali sia minerali che della plastica e inquinanti organici ed inorganici persistenti.

Fra tutti questi cambiamenti la ricaduta globale di residui radioattivi dai test di bombe nucleari è stato proposto come marcatore globale dell’orizzonte degli eventi umano. La prima esplosione è stata nel 1945 con un picco atmosferico che si situa fra il 1950 e primi anni 60, seguito da un rapido declino successivo al Partial Test Ban Treaty nel 1963 e agli accordi posteriori, cosicchè al momento continuano ad essere presenti solo bassi livelli di inquinamento.

Un picco caratteristico è presente nelle carote glaciali ad alta risoluzione , nei laghi, nei sedimenti marini , nei coralli, negli anelli degli alberi dai primi anni 50 fino ai primi anni 60.

Il segnale maggiore proviene dal carbonio 14, visto in aria e manifesto negli anelli degli alberi e nei ghiacciai che raggiunge un massimo sia nelle medie latitudini che in quelle alte dell’emisfero Nord nel 1963-64 e un anno dopo nei tropici. Sebbene il carbonio 14 sia a emivita relativamente breve (5730 anni) il suo livello rimarrà abbastanza alto da costituire un segnale utile per le future generazioni.

Le emivite di altri prodotti essenzialmente sintetici, come alcuni gas fluorurati, che sono anche di alcune migliaia o perfino decine di migliaia di anni sarebbero sufficienti ma la loro utilità è ridotta al fatto che gli accordi internazionali ne hanno ridotto o impedito l’uso, come per esempiio il protocollo di Montreal.

Proprio per questo motivo dei vari potenziali marcatori della Grande Accelerazione il picco globale del 14C costituisce un segnale non ambiguo nella maggior parte dei depositi stratigrafici. In particolare il picco del 1964 potrebbe essere usato come marcatore nelle sequenze degli anelli annuali degli alberi. Altri marcatori secondari potrebbero essere il rapporto degli isotopi del Plutonio (240Pu/239Pu) il cesio 137 ed infine lo iodio 129 che ha una emivita di parecchi milioni di anni. E ovviamente molti altri segnali secondari dovuti all’attività umana, potrebbero essere usati come per esempio:

i pollini fossili di specie geneticamente modificate, i picchi di gas fluorurati, isotopi del piombo, microplastiche nei sedimenti marini, variazione nella presenza di diatomee dovuti all’eutroficazione delle acque.

In conclusione delle 4 ipotesi che abbiamo analizzato usando come falsariga il lavoro di Lewis la prima e la terza, l’inizio dell’agricoltura e la rivoluzione industriale non presentano almeno allo stato dell’arte la possibilità di essere usati come marcatore geologico, mentre la seconda e la quarta ossia lo scambio colombiano e le esplosioni atomiche dei primi anni 60 potrebbero essere usati senza grossi problemi.

E’ interessante notare che la scelta anche solo fra queste due ipotesi di delimitazione può avere un significato che va al di là della semplice scelta tecnica; infatti sono fenomeni che mettono l’accento su aspetti diversi della nostra società e della nostra storia.

Infine ci sarebbe da dire questo; la rivoluzione scientifica dal Rinascimento in poi ha sottolineato che l’uomo dopo tutto è un animale come gli altri, senza particolari origini divine e vive in un piccolo pianeta ai margini della Galassia; ma nonostante questo il semplice riconoscimento dell’esistenza e l’analisi degli effetti dell’Antropocene potrebbe cambiare un po’ la nostra visione: dopo tutto al momento questo è l’unico pianeta su cui sappiamo che esista la vita e non solo una vita che è cosciente di se stessa; dunque la nostra azione nei confronti della biosfera non è affatto trascurabile e potrà avere conseguenze non banali e specifiche; abbiamo una enorme responsabilità nei confronti della nostra specie ma anche del pianeta che abitiamo e, per quel che ne sappiamo adesso e finchè non scopriremo altri pianeti dotati di biosfera o perfino di vita autocosciente e di cultura, perfino nei confronti dell’intero Universo.

Dunque siamo partiti da una concezione antropomorfa dell’Universo e attraverso lo sviluppo della Scienza in un certo senso ci siamo tornati, ma ad un livello diverso, una cosa che avrebbe fatto contento Hegel.

Cronache dall’ “Ora della Chimica”

In evidenza

Mauro Icardi

Ho avuto modo di visitare la quinta edizione festival dell’innovazione e della ricerca scientifica ospitato nella biblioteca Archimede di Settimo Torinese. Edizione dedicata alla chimica. Più che giusto intitolarla quindi “L’ora di chimica”. E ho trovato interessante ed appropriata la mostra dedicata a Primo Levi scrittore di fantascienza, di cui mi ero già occupato nella recensione del libro di Francesco Cassata tratta dalla settima lezione Primo Levi tenutasi nell’ottobre del 2015.

Ho potuto nuovamente verificare di persona che questa parte dell’opera dello scrittore è sconosciuta a molti. Forse da altri considerata minore. Io credo che vada invece scoperta e apprezzata. E’ una parte integrante della “galassia Primo Levi”, e alcuni racconti sono acuti e profetici. Come ho già avuto modo di far notare, per esempio il “Mimete” di “Storie naturali” è una rappresentazione di un prodotto tecnologico odierno, non essendo altro che la descrizione con mezzo secolo di anticipo (il libro uscì nel 1966) delle odierne stampanti 3D.

La chimica viene vista spesso in maniera distorta e confusa. Ma alla chimica dobbiamo anche l’elevato livello di qualità della vita di cui (almeno nel mondo occidentale) abbiamo potuto godere negli anni successivi al secondo conflitto mondiale. Prima che la crisi ecologica e quella economica, cioè le due facce della stessa medaglia ci mettessero sotto gli occhi il fatto incontrovertibile che i limiti fisici di pianeta e biosfera non possono essere superati.

La chimica e particolarmente l’industria chimica dovrà in un futuro molto prossimo modificare i propri cicli produttivi, privilegiando l’utilizzo di materie prime rinnovabili, approfondendo ulteriormente la conoscenza dei meccanismi chimici e biochimici che sono alla base dei processi di degradazione ambientale. La chimica permea la nostra vita anche nei processi e nelle reazioni biochimiche che avvengono nel corpo umano. Tutto questo nella mostra di Settimo Torinese è stato ampiamente divulgato, grazie anche a laboratori per ragazzi delle scuole, dalle elementari fino alle superiori. Per mostrare la magia della chimica. Consapevolezza e conoscenza sono ottime chiavi di comprensione.

E di conoscenza e comprensione si è parlato anche nella conferenza sulle sostanze stupefacenti dal titolo “Nuove droghe. Istruzioni per il non uso”. Sappiamo che esiste una cultura parallela dello “sballo”. Sappiamo che il consumo di sostanze stupefacenti o psicotrope non è un fenomeno recente, ma accompagna l’uomo da secoli. Da quando i nostri antenati e progenitori scoprirono che da diverse sostanze di origine naturale si potevano estrarre sostanze che miglioravano il tono dell’umore. Che aiutavano a sopportare la fatica, o lo illudevano di stare meglio. Di aiutarlo a dimenticare la fatica della vita e della quotidianità.

Quello che il relatore il Professor Marco Vincenti, che è Direttore del dipartimento di chimica dell’Università di Torino ha voluto sottolineare, è che il suo intervento non aveva l’intenzione di formulare un giudizio etico o morale. Ma si proponeva di dare un quadro oggettivo della realtà attuale del consumo di sostanze stupefacenti. Sottolineando che molto spesso esiste un consumo inconsapevole. Non tanto per le cosiddette sostanze stupefacenti “storiche” come quelle derivate dagli oppiacei, come l’eroina, o quelle stimolanti come la cocaina. Ma soprattutto per le nuove droghe che possono essere sintetizzate con relativa semplicità. Per esempio l’ecstasy che può essere facilmente sintetizzata partendo dal safrolo (4-allil-1,2-metilendiossibenzene), sostanza di facile reperimento in commercio. La stessa pianta di cannabis che oggi viene coltivata in serre modernissime, sia pure illegali, e che irrorata costantemente con luce artificiale si arricchisce in principio attivo di THC a valori di molto alti (20-40%) rispetto a quelli consueti molto più bassi (0,5-1,5%). E’ intuitivo che un consumo inconsapevole di uno spinello che ne contenga in dosi così elevate provochi effetti collaterali di gran lunga maggiori e più pericolosi.

Estremamente interessanti anche le parti delle conferenza dedicate ai metodi analitici di determinazione di metaboliti di sostanze stupefacenti rilevabili su matrici quali sangue, urine o capelli, nonchè quelli di riconoscimento rapido di alcuni dei principali composti e principi attivi di narcotici o stupefacenti, effettuati tramite l’utilizzo della spettroscopia Raman utilizzando lo strumento portatile Tru Narc.

Il pubblico era formato per la maggior parte di ragazzi di scuole superiori, a cui in ultima analisi è giusto che sia diretto il maggior sforzo di divulgazione. Per esperienza so che la chimica parallela, praticata nei laboratori dove si sintetizzano sostanze stupefacenti si ammanta di un’aura di mito che non permette di discernere e di osservare la cose con il dovuto giudizio critico. Ed è pur vero che anche in questo campo si perpetra l’ennesima dicotomia falsa che recita naturale= buono, sintetico=cattivo.

Il grande successo della serie “Breaking Bad”, che è in ogni caso un prodotto di fiction di buonissimo livello dal punto di vista strettamente legato alla storia, alla sua narrazione, produzione e regia, credo debba a questo mito inossidabile una buona parte (ovviamente non tutta) della sua fortuna.

Qui il mito è rappresentato dal professor Walter White, che conoscendo perfettamente la chimica, utilizza questa sua preparazione professionale per la produzione clandestina di metanfetamina.

La divulgazione e la conoscenza della chimica, degli effetti collaterali del consumo di questo tipo di sostanze possono aiutare soprattutto i giovani a non lasciarsi influenzare da questi falsi miti. E a saper distinguere tra quello che viene raccontato in qualunque prodotto di intrattenimento, e la realtà della chimica e della tossicologia delle sostanze stupefacenti. Si potrebbe pensare che sia un concetto acquisito e che si possa sottintendere. Ma in un’epoca dove si tende ad una mitizzazione generalizzata credo sia corretto invece sottolineare il concetto.

In conclusione questo festival dedicato alla chimica merita un sincero elogio.

E questa immagine che mostra una platea di bambini intenti a seguire una lezione sulla chimica dei profumi è decisamente beneaugurante. Per la chimica e la sua divulgazione, ma più in generale per un giusto riavvicinamento all’amore per la conoscenza.

Note sull’antropocene. 2. Le ipotesi. prima parte

In evidenza

Claudio Della Volpe

Nella prima parte di questo post (https://ilblogdellasci.wordpress.com/2017/10/18/note-sullantropocene-1-le-origini/) abbiamo introdotto la storia del meme Antropocene. In questa seconda parte introdurremo invece le varie ipotesi avanzate per stabilirne i confini storici; diciamo subito che ci sono tante diverse ipotesi, ma le principali sono quattro e le enumero in ordine di datazione dell’origine dell’Antropocene.

Ipotesi 1: In un libro del 2013 (1) Timothy Morton introduce il concetto di iperoggetto. L’iperoggetto è un oggetto tale per cui non può essere intrinsecamente conosciuto da una posizione esterna, in altre parole il soggetto ne fa parte per definizione. Il soggetto che esplora e conosce non può guardare gli “iperoggetti” dall’esterno, ma piuttosto, ne fa parte, ne è ospitato , circondato, legato, ci interagisce così fortemente che non può che esserne considerato una parte “interna”. L’universo è un iperoggetto. La società umana come tale è un iperoggetto, ma poniamo anche il riscaldamento globale o i “giri”oceanici che producono isole plasticose con i nostri rifiuti, essi sono iperoggetti perchè noi ci interagiamo fortemente, in un certo senso ne siamo parte integrante, siamo contemporaneamente il soggetto che vuole conoscerli ma anche quello che li produce.

L’iperoggetto inoltre non è solo grande nello spazio e nel tempo, ma è anche “viscoso”.

tale viscosità è il prodotto diretto del proliferare di informazioni. Quanto più sappiamo a proposito degli iper-oggetti, tanto più ci rendiamo conto che non potremo mai veramente conoscerli. Eppure, per quanto ci sforziamo di allontanarli, non possiamo separarci da loro” (p. 180).

In definitiva l’uomo come specie crea una enorme quantità di iperoggetti a partire dall’uso del fuoco (circa un milione di anni fa, Homo erectus) che già ha avuto un enorme impatto sulla biosfera; ma il momento chiave secondo Morton è la invenzione dell’agricoltura circa 10.000 anni fa o meglio dell’agrilogistica, una organizzazione della vita sociale che è caratterizzata da un “certo numero di sotto-variabili: l’eliminazione di contraddizioni e anomalie, l’innalzamento di confini tra umano e non-umano, la massimizzazione dell’esistenza a scapito d’ogni altra considerazione, inclusa ogni qualità dell’esistenza stessa. Ora che l’agrilogistica copre quasi interamente la superficie terrestre possiamo vederne gli effetti come in una reazione di polimerizzazione: ebbene, sono catastrofici

Si tratta come vedete di una concezione un po’ filosofica; Morton propone una società contemplativa per uscire dai problemi dell’agrilogistica, una proposta difficilmente accettabile, un po’ elitaria diciamo così.

Se si cercano dati fisici, precedenti o successivi all’inizio dell’Olocene (11700 anni fa) si trovano varie date possibili, dagli effetti del fuoco a quelli dell’estinzione della megafauna a quelli dell’inizio vero e proprio dell’agricoltura fino all’introduzione del riso e dei ruminanti che potrebbero aver modificato la percentuale di metano in atmosfera, ma su tutti ci sono sufficienti dubbi da esludere una chiara individuazione come inequivoco confine dell’Antropocene al momento.

Ipotesi 2: in un articolo del 2015 (2) Simon Lewis e Mark Maslin propongono come limite temporale dell’Antropocene la scoperta del’America da parte di Colombo, anzi tutto il periodo che ne segue, definito come “Columbian exchange”, lo scambio colombiano. In realtà l’articolo di Lewis e Maslin è da leggere tutto intero e dà una descrizione completa e precisa dell’azione umana al di là della singola ipotesi che sostiene poi; lo consiglio caldamente a chi volesse farsi un’idea precisa e riccamente documentata della situazione (magistrale il paragrafo a pag. 172 intitolato The geological importance of human actions).

L’arrivo degli europei nei Caraibi nel 1492 e l’annessione delle Americhe causò il più grande scambio di popolazioni degli ultimi 13000 anni, con la formazione della prima grande rete globale di commerci fra Europa, Cina, Africa e le Americhe e la susseguente miscelazione di bioti prima separati, conosciuta come “lo scambio colombiano”.

Il più vistoso effetto fu certamente quella che si potrebbe definire la globalizzazione del cibo che è descritta nella figura precedente, che diede luogo a scambi di semi e pollini ma anche di scheletri di animali che si ritroveranno nei secoli in varie sedi.

Oltre a ciò ci fu l’effetto di ridurre drasticamente la popolazione umana sia in America, ma anche in Africa. Si stima che dei circa 60 milioni di persone che vivevano in America ne sia rimasto dopo oltre un secolo meno del 10%. a causa delle malattie importate dagli europei (contro le quali quelle popolazioni non avevano difesa), della schiavitù , della fame, etc.. Occorre anche considerare (questo è una mia considerazione) che l’apertura dei territori del Sud e centro America diede il via ad una tratta atlantica degli schiavi che riguardò oltre 10 milioni di persone che costituivano come ordine di grandezza qualcosa come la metà della popolazione africana di quel periodo.

Si stima che la sola decrescita della popolazione centro e sud americana comportasse l’abbandono di una enorme quantità di terreno coltivato a latitudini cui corrispondeva una enorme produttività biologica, con la conseguente rigenerazione di oltre 50 milioni di ettari di foresta, savana boscosa e prateria con un assorbimento di carbonio a causa di questo effetto di rivegetazione del suolo pari a 5-40 Pg, ossia miliardi di ton equivalenti, in 100 anni. Simile contributo dalla tratta degli schiavi, anche se la situazione sembra più complessa ((http://nrs.harvard.edu/urn-3:HUL.InstRepos:3710252 e https://econpapers.repec.org/paper/csawpaper/2014-02.htm).

Questo suggerisce che l’episodio ha contribuito in modo significativo ad un evento globale , ossia la riduzione della concentrazione di CO2 di 7–10 p.p.m. (1 p.p.m. CO2 = 2.1 Pg di carbonio equivalente) fra il 1570 e il 1620 documentato nelle registrazioni ad alta risoluzione delle carote di ghiaccio antartiche (si veda parte c di due figure più in alto). La riduzione della CO2, badate, il contrario di quel che sta succedendo adesso.

Si tratta dell’evento più importante nella storia della CO2 sia in velocità di variazione che in dimensione nella storia pre industriale degli ultimi 2000 anni.

Gli autori propongono di considerare i fenomeni globali dello scambio colombiano, ossia la riduzione di CO2 di 7-10 ppm nella carota di ghiaccio del Law Dome, la prima presenza di fossili al di quà e al di là del’oceano del mais e altri fenomeni simili come segnali inequivoci del fenomeno, elencandoli in dettaglio.

Essi concludono che questo “incontro” delle popolazioni dei continenti vecchio e nuovo e l’omogeinizzazione mai prima avvenuta dei loro bioti rappresenti un evento estremamente importante per la storia del pianeta; trovano anche un nome per questa ipotesi la ipotesi Orbis dalla parola latina per mondo e Orbis spike sarebbe il segnale della riduzione di CO2; il motivo di questa scelta starebbe nel fatto che solo dopo il 1492 i due emisferi del pianeta si sono “connessi” tanto che molti altri scienziati si riferiscono a questo periodo come all’inizio del “sistema mondo”.

Nel prossimo post discuteremo le altre due ipotesi principali prese in considerazione per l’nizio dell’Antropocene, la rivoluzione industriale e il periodo delle esplosioni atomiche in atmosfera..

(continua)

(1)Timothy Morton, Hyperobjects: Philosophy and Ecology after the End of the World, Minneapolis: U Minnesota P, 2013.

(2) Defining the Anthropocene doi:10.1038/nature14258

Simon L. Lewis & Mark A. Maslin 12 MARCH 2015, VOL 519 , NATURE, p.171

La denominazione K, L, M per i gusci elettronici e s, p, d, f per gli orbitali

In evidenza

Rinaldo Cervellati

Ancora oggi quando si studia l’atomo di Bohr, gli strati (o gusci) di orbite permesse per gli elettroni sono identificati con le lettere maiuscole K, L, M, ecc. Da dove proviene questa denominazione? W.B. Jensen [1] ci informa che non c’è traccia di essa nella famosa trilogia di Bohr del 1913. K e L provengono piuttosto dalle ricerche del fisico britannico Charles Glover Barkla[1] sulla fluorescenza emessa dagli elementi bombardati da raggi X ad alta energia.

Charles G. Barkla

La fluorescenza è il fenomeno per cui un materiale sottoposto a radiazioni emette a sua volta radiazioni, generalmente di più bassa energia. Barkla studiò approfonditamente il fenomeno dell’emissione di raggi X (radiazione secondaria) da parte di metalli sottoposti a bombardamento di radiazione X a più alta energia provenienti da una sorgente esterna (radiazione primaria). Durante anni di studi egli caratterizzò la radiazione secondaria in base alle caratteristiche di omogeneità e penetrabilità, cioè la capacità di attraversare un certo numero di fogli di alluminio interposti fra sorgente e bersaglio. Trovò che la radiazione secondaria era formata da due serie di radiazioni, una più penetrante dell’altra che chiamò appunto K e L rispettivamente. Questa denominazione appare chiaramente nella seguente nota a piede di pagina in un suo articolo del 1911 [2].

Scrive appunto e annota:

Si osserva che le radiazioni rientrano in due serie distinte, qui indicate con le lettere K e L.* [2]

* Precedentemente indicate con le lettere B e A. Le lettere K e L sono tuttavia preferibili, in quanto è altamente probabile che esista una serie di radiazioni più assorbibili e più penetranti. [2, p.406]

Barkla osservò anche che la produzione delle radiazioni secondarie sembrava correlata con il peso atomico degli elementi: fra Ca e Rh viene prodotta solo la K, fra W e Bi solo la radiazione L, e fra Ag e Ce vengono emesse entrambe. [1, Table, p.407].

Come abbiamo ricordato più volte queste ultime osservazioni furono interpretate dal fisico britannico Moseley[2] nel suo classico studio sul rapporto tra la frequenza dei raggi X secondari e i numeri atomici degli elementi [3].

Con riferimento alla figura:

I raggi X primari che possiedono abbastanza energia, possono espellere un elettrone strettamente trattenuto nei livelli energetici interni dell’atomo. La rimozione di un elettrone in questo modo rende la struttura elettronica dell’atomo instabile e l’elettrone nel livello più alto “cade” in quello inferiore per riempire la lacuna. Nel cadere, l’energia viene rilasciata sotto forma di un fotone, la cui energia è uguale alla differenza di energia fra i due livelli coinvolti. Così, il materiale emette una radiazione che ha caratteristiche energetiche degli atomi presenti.

La razionalizzazione della fluorescenza a raggi X di Barkla-Moseley in termini del modello di Bohr è di solito accreditata all’articolo del 1914 del fisico tedesco Walther Kossel[3] [4].

Walther Kossel

Egli sostenne che la radiazione K fosse dovuta ad un elettrone eccitato che cadeva in un posto vacante nel primo guscio di un atomo, e la radiazione L ad un elettrone eccitato che ricade in un posto vacante nel secondo guscio [4]. Di conseguenza, le lettere K e L si sono associate al primo e al secondo guscio dell’atomo di Bohr, soprattutto nella letteratura che si occupa di spettroscopia.

Già nel suo articolo del 1911, Barkla aveva ipotizzato la possibile esistenza di raggi secondari ancora meno energetici che sarebbero emessi da Au e Pt e corrispondenti a possibili serie M e N, queste denominazioni furono presto assegnate al terzo e al quarto guscio dell’atomo di Bohr. È interessante notare che Bohr raramente ha fatto uso di queste denominazioni alfabetiche per i gusci nei suoi lavori, preferendo invece utilizzare i numeri quantici [5].

Da notare che sono state fatte diverse altre congetture sulla scelta delle lettere K e L, fra esse piace ricordare quella che, facendo notare che queste lettere stanno in posizione centrale nell’alfabeto inglese, Barkla le avrebbe scelte perché parte del suo cognome. Congettura priva di fondamento storico, la scelta è quella motivata nella nota a p. 406 del lavoro di Barkla [2].

Riconosciuta quindi l’origine “spettroscopica” della denominazione K, L, M, anche l’uso delle lettere minuscole s, p, d e f per indicare gli orbitali atomici si può far risalire alle ricerche spettroscopiche dell’ultimo quarto del XIX secolo.

Secondo W.B. Jensen [6] questa storia inizia con le ricerche di due chimici britannici, l’inglese G. Liveing[4] e lo scozzese Sir James Dewar[5], che fra il 1872 e il 1880 pubblicarono una serie di articoli sugli spettri di emissione dei metalli alcalini [7]. Nel descrivere questi spettri, Liveing e Dewar caratterizzarono qualitativamente le varie righe in termini sia di intensità che di definizione chiamandole principali, strette o diffuse, osservarono inoltre che le righe di un determinato tipo comparivano in gruppi o serie.

Come ricordato in un precedente post, dopo la scoperta di Balmer di un’equazione empirica descrivente una delle serie di righe dell’idrogeno, la ricerca si concentrò su una formula più generale per tutte le righe di tutte le serie spettrali degli elementi. Per i metalli alcalini, lo svedese Johannes Rydberg[6] [8] e i tedeschi Heinrich Kayser[7] e Carl Runge [9] giunsero indipendentemente alla medesima conclusione. Il loro lavoro dimostrò che molte righe degli spettri dei metalli alcalini potevano essere modellizzate matematicamente come la somma di tre serie indipendenti, che Rydberg, seguendo la nomenclatura di Liveing e Dewar, definì principale, stretta e diffusa. Nel 1907 Arno Bergmann scoprì una quarta serie di righe negli spettri dei metalli alcalini che chiamò fondamentale [10].

Com’è noto gli anni successivi sono stati caratterizzati dai tentativi, a partire dalla famosa trilogia di Niels Bohr del 1913, di fornire un modello fisico dell’atomo coerente con le formule empiriche per le serie spettrali trovate in precedenza. L’estensione di questo modello dall’idrogeno ad altri elementi ha portato all’introduzione di una varietà di schemi di quantizzazione più complessi, nessuno dei quali si è rivelato del tutto soddisfacente fino all’opera di Stoner, Main Smith[8] e Pauli e l’introduzione della nuova meccanica quantistica di Heisemberg (1925) e Schrödinger (1926).

Tuttavia, il primo tentativo di introdurre configurazioni elettroniche degli atomi (atombau) e comprendere il loro rapporto con il sistema periodico è usualmente attribuito a Bohr [11]. In questo lavoro Bohr ragiona in termini di gusci e sottogusci di orbite, circolari ed ellittiche utilizzando i numeri quantici principale e azimultale, n e k (oggi l). In figura sono riportate le configurazioni dei gas nobili.

Configurazioni elettroniche di Bohr per i gas nobili dall’originale di Bohr [11], p. 113

Sicché la configurazione elettronica dello zolfo secondo Bohr sarebbe 2,4,4,6 invece di 2,8,6 pertanto dovevano esserci incongruenze nell’assegnazione dei sottolivelli. Incorporando il terzo numero quantico j (dovuto ad A. Sommerfeld[9], oggi ml) nella descrizione dei sottogusci, E.C. Stoner [12] riuscì a dare la configurazione elettronica corretta dello zolfo[10]. Tuttavia né il sistema di Bohr né quello di Stoner riuscivano a descrivere correttamente gli effetti di un campo magnetico sugli spettri atomici. Vi erano inoltre ragioni teoriche per le quali a Bohr sembrava inaccettabile la proposta di Stoner.

Lo storico E. Scerri [13] e altri scrivono che Bohr invitò allora l’amico Wolfgang Pauli a cercare di mettere ordine nella situazione sempre più complicata nella descrizione degli atomi polielettronici, che richiedeva, fra l’altro, l’introduzione di nuovi numeri quantici. Pauli [14] studiò a fondo il problema e lo risolse giungendo alla conclusione che i gusci elettronici completi attorno al nucleo di un atomo non contribuiscono affatto al suo momento magnetico. Suggerì che la separazione delle righe spettrali o i loro spostamenti in presenza di campi magnetici fossero dovute interamente alla presenza degli elettroni esterni. Suggerì inoltre l’assegnazione di un quarto numero quantico m (oggi ms) ad ogni elettrone relativo a una sua proprietà quantistica intrinseca non descrivibile in termini classici[11]. Trovò inoltre che si sarebbe potuto arrivare alle configurazioni di Stoner ammettendo che:

È vietato che più di un elettrone con lo stesso valore del numero quantico principale n abbiano lo stesso valore per gli altri tre numeri quantici k, j e m. [14]

Che è la forma con cui Pauli espresse per la prima volta il suo principio detto “di esclusione”.

Niels Bohr

Wolfgang Pauli

Lo storico W. B. Jensen [6] riporta che le nostre attuali configurazioni (aufbau), ad esempio quella dello zolfo (1s2 2s2 2p6 3s2 3p4), sono apparse per la prima volta in una monografia di Friedrich Hund[12] [15] nella quale il numero quantico azimutale o secondario, fino a allora utilizzato da Bohr e altri, viene sostituito con le lettere s (l = 0), p (l = 1), d (l = 2) e f (l = 3).

Friedrich Hund

Ovvero con le vecchie notazioni utilizzate da Sommerfeld e altri come abbreviazione per la costante delle serie stretta, principale, diffusa e fondamentale nell’equazione empirica originale di Rydberg.

Hund stabilì anche le regole per costruire la configurazione dello stato fondamentale (di minima energia) degli atomi degli elementi, regole dette della massima molteplicità o di Hund, esse hanno come conseguenza immediata il fatto che nel completamento di orbitali isoenergetici gli elettroni occupano il maggior numero possibile di orbitali vuoti.

A partire dagli anni Trenta, le configurazioni corrette di Hund e la notazione s, p, d, f cominciarono a penetrare lentamente nella letteratura chimica per indicare gli orbitali.

Bibliografia

[1] W.B. Jensen, The KLM Shell Labels, J. Chem. Educ., 2003, 80, 996-997.

[2] C. G. Barkla, The Spectra of the Fluorescent Röntgen Radiations, Phil. Mag., 1911, 22, 396-412.

[3] H. Moseley, The High Frequency Spectra of the Elements, Phil. Mag., 1913, 26, 1025-1034; ibid., 1914, 27, 703-713.

[4] W. Kossel, Bemerkung zur Absorption homogener Röntgenstrahlen, Verhand. deutschen physik. Gesell., 1914, 16, 898-909.

[5] L. Rosenfeld, Ed., Niels Bohr: Collected Works, 9 Voll., North-Holland Publishing: Amsterdam, 1972-1996.

[6] W.B. Jensen, The Origin of the s, p, d, f Orbital Labels, J. Chem. Educ., 2007, 84, 757-758.

[7] G. Liveing, J. Dewar, Collected Papers on Spectroscopy, Cambridge University Press: Cambridge, 1915. Cit. in [6]

[8] J. R. Rydberg, Sur la constitution des spectres linéaires des éléments chimiques, Comptes Rendus, 1890, 110, 394-399.

[9] H. Kayser, C. Runge, Über die Spectren der Alkalien, Ann Physik, 1890, 41, 302-320.

[10] A. Bergmann, Beiträge zur Kenntniss der ultrarothen Emissionsspectren der Alcalien, Doctoral Dissertation, Jena, 1907. Cit in [6]

[11] N. Bohr, The Theory of Spectra and Atomic Constitution, Three Essays, Essay III The Structure of the Atom and the Physical and Chemical Properties of the Elements, Cambridge University Press, 1922, pp. 85-117.

[12] E.C. Stoner, The distribution of electrons among atomic levels, Phil. Mag.,. 1924, 48, 719–36.

[13] E.R. Scerri. The Electronic Configuration Model, Quantum Mechanics and Reduction, Brit. J. Phil. Sci. 1991, 42, 309-325.

[14] W. Pauli, Uber den Einfluss der Geschwindi gkeitsabhangigkeit der elektronmasse auf den Zeemaneffek, Zeit. Phys., 1925, 31, 373-385; Uber den Zusammehang des Abschlusses der Elektrongruppen im Atom mit der Komplexstruktur der Spektren, Zeit. Phys., 1925, 31, 765-783.

[15] F. Hund, Linienspektren und periodisches System der Elemente, Springer, Berlin, 1927

 

[1] Charles Glover Barkla (1877-1944) fisico britannico, fu allievo di J. J. Thomson (lo scopritore dell’elettrone) fece significativi progressi nello sviluppo delle leggi che regolano lo scattering dei raggi X, per il quale ottenne il Premio Nobel per la Fisica nel 1917.

[2] Henry Moseley (1887-1915) fisico britannico morì prematuramente nella battaglia di Gallipoli nella Prima Gerra Mondiale. Oltre ad aver individuato il principio informatore della Tavola periodica, fornì la prima evidenza sperimentale in favore della quantizzazione di Bohr. http://www.scienzainrete.it/contenuto/articolo/marco-taddia/elemento-moseley/marzo-2016.

[3] Walther Kossel (1888-1956) fisico tedesco, professore e direttore dell’Istituto di Fisica dell’Università di Tubingen dal 1954 al 1953 si è distinto per le sue ricerche sugli spettri atomici e la caratterizzazione dell’emissione di raggi X. Indipendentemente da G.N. Lewis propose la teoria del legame ionico.

[4] George Downing Liveing (1827-1924) chimico inglese, professore di Chimica all’Università di Cambridge, Medaglia Davy 1901 per i suoi contributi alla spettroscopia

[5] James Dewar (1842-1923) fisico e chimico scozzese è noto soprattutto per i suoi studi sulla liquefazione dei gas e l’invenzione del vaso Dewar (thermos). Meno note ma notevoli le sue ricerche spettroscopiche. Medaglie Rumford (1894), Davy (1909), Copley (1916). Primo britannico a ottenere la Medaglia Lavoisier (1904) dall’Accademia Francese delle Scienze, Medaglia Matteucci (1906) dell’Accademia Italiana delle Scienze.

[6] V. post: https://ilblogdellasci.wordpress.com/2017/09/25/johannes-rydberg-e-la-tavola-periodica/

[7] Heinrich Gustav Joannes Kayser (1853-1940) fisico tedesco, scoperse la presenza di elio nell’atmosfera terrestre durante l’eclisse solare del 1868 rilevando una nuova riga nello spettro solare, a lui si deve il termine spettro di assorbimento. Insieme a Carl Runge (1856-1927) matematico e fisico tedesco, interpretò gli spettri di molti elementi.

[8] E. Scerri, Who was John David Main Smith?, https://blog.oup.com/2016/03/john-david-main-smith/

[9] Arnold Sommerfeld (1868-1951) fisico tedesco, è considerato co-fondatore della teoria quantistica dell’atomo di idrogeno, spesso chiamata teoria di Bohr-Sommerfeld.

[10] La configurazione elettronica dello zolfo di Stoner è: 2, 2, 2, 4, 2, 2, 2, cioè 2,8,6.

[11] È quello che oggi si chiama momento angolare di spin. Lo spin dell’elettrone era stato scoperto nel 1922 da Otto Stern e Walther Gerlach con l’ormai classico esperimento del passaggio di un fascio di atomi di argento attraverso un campo magnetico non omogeneo, alcuni anni prima della proposta di Pauli e del concetto di spin elettronico di George Uhlenbeck e Samuel Goudsmit.

[12] Friedrich Hund (1896-1997) fisico tedesco, professore di fisica teorica in diverse università europee, ha dato contributi essenziali in meccanica quantistica collaborando con i principali fisici dell’epoca. Oltre a quanto menzionato in questo testo, Hund è stato un precursore nell’interpretazione quantomeccanica degli spettri e della struttura molecolari. R.S. Mulliken che ha ottenuto il premio Nobel per la chimica 1966 per la teoria degli orbitali molecolare ha sempre proclamato la grande influenza che l’opera di Hund aveva esercitato su di lui e che avrebbe volentieri condiviso il premio Nobel con Hund.

Nobel 2017: perché il cryo-EM è così importante, con una intervista a Martino Bolognesi.

In evidenza

Claudio Della Volpe

Il premio Nobel 2017 per la Chimica è stato assegnato a Jacques Dubochet, Joachim Frank e Richard Henderson  “per aver sviluppato la microscopia crioelettronica per determinare in alta definizione le strutture delle biomolecole”.

L’origine della microscopia crioelettronica è stata il tentativo di trovare un metodo per ridurre il danno inflitto dalle radiazioni elettroniche ai campioni biologici. La quantità di radiazioni richiesta per raccogliere una immagine di un campione attaverso il microscopo elettronico è sufficientemente elevata da costituire una potenziale sorgente di danno per le strutture più delicate. Inoltre l’ambiente ad alto vuoto richiesto per il microscopio elettronico costituisce una situazione drastica per molti campioni. D’altronde il SEM offre la possibilità di una risoluzione molto elevata, dell’ordine di una frazione di nanometro, inferiore a quella ottenibile con i raggi X, ma pur sempre elevatissima, capace di risolvere la struttura macromolecolare.

Il problema del vuoto è stato parzialmente risolto con la introduzione del negative stains o macchia negativa (il campione è inserito in un ambiente, ghiaccio o soluzione di sali, che lo isola dall’ambiente, il fascio elettronico interagisce con entrambi ma in modo diverso e dalla differenza di interazione risalta il volume del campione), ma perfino con la macchia negativa i campioni biologici sono soggetti ad un collasso strutturale a seguito della disidratazione del campione. L’introdurre il campione nel ghiaccio sotto la temperatura di sublimazione è stata una possibilità contemplata fin dalle origini del metodo, ma l’acqua tende a strutturarsi in un reticolo cristallino di bassa densità durante il congelamento e questo può distruggere la struttura di qualunque macromolecola inserita in essa.

Nei primi anni 80 parecchi gruppi che studiavano fisica dello stato solido tentavano di usare ghiaccio vetroso e in un lavoro basilare del 1984 il gruppo diretto da Jacques Dubochet al European Molecular Biology Laboratory mostrò immagini di adenovirus incluse in ghiaccio vetrificato; questo lavoro viene considerato comunemente come il lavoro fondativo della cryo-EM o cryo 3D.

L’energia degli elettroni usati per costruire una immagine (poche centinaia di kV) è alta abbastanza da rompere i legami covalenti. Nel fare una immagine dunque è necessario limitare l’esposizione agli elettroni, specie per materiali molto delicati; questo si ottiene selezionando le immagini di migliaia o milioni di molecole identiche allineate e mediate per ottenere una immagine in alta risoluzione (un metodo analogo, stacking planetario, è usato per esempio dagli astrofili evoluti per le immagini planetarie ottenute da filmati telescopici). Ci vuole ovviamente un software specializzato.

Negli ultimi anni l’introduzione di sensori capaci di individuare singoli elettroni e di metodi di calcolo più efficienti in grado di passare da immagini 2D a immagini 3D è stata determinante. In particolare transistor CMOS ultrapiccoli (L = 20 nm, W = 20 nm) sono in grado di raggiungere il limite di un singolo elettrone quando operano a temperatura molto basse (–269 °C (4 K) a –258 °C (15 K)).

  • Nel 1975 Joachim Frank cominciò a lavorare sugli algoritmi che analizzano e mediano immagini 2D confuse per ricostruire strutture 3D ad elevata risoluzione.
  • Nei primi anni 80 Jacques Dubochet riuscì a vetrificare l’acqua un ambiente che permetteva alle biomolecole di conservare la loro forma nel vuoto.
  • Nel 1990, Richard Henderson fu il primo ad usare un microscopio elettronico per generare immagini 3D di una proteina a risoluzione atomica.

Abbiamo intervistato Martino Bolognesi*, un biochimico di UniMi che ad oggi è l’unico ricercatore italiano che abbia disponibile nel suo laboratorio uno di questi costosi strumenti.

D: Martino sei l’unico a “possedere” in questo momento l’apparecchio in Italia; come mai? è solo un problema di costi? cosa ti ha spinto in questo settore?

R: La rivoluzione cui stiamo assistendo nel campo della crio-microscopia elettronica (cryo EM) e’ in atto, a livello mondiale, da non piu’ di tre anni. La possibilita’ di analizzare la struttura tridimensionale (3D) di grossi complessi molecolari, dal ribosoma alle proteine di membrana, ad esempio, e raggiungere risoluzioni prossime a quelle della cristallografia, ha promosso la rapida diffusione di strumenti che lavorano sotto condizioni sperimentali compatibili con la natura ‘delicata’ delle molecole biologiche. I grossi centri di ricerca hanno colto il significato e l’opportunità di questo sviluppo, impegnandosi con tempi rapidi in installazioni importanti e distribuite nei paesi piu’ avanzati. Stiamo parlando di investimenti dell’ordine di alcuni milioni di euro per ogni strumento installato. In Italia il messaggio innovativo e’ stato colto dalla comunita’ dei biologi strutturali, che e’ di dimensioni ridotte rispetto ad altri paesi europei, e distribuita presso atenei e centri di ricerca, spesso in laboratori di dimensioni ridotte. L’Università di Milano, assieme alla Fondazione Romeo ed Enrica Invernizzi, ha saputo cogliere il messaggio innovativo presentato dalla comunità scientifica, dando il via ad un’operazione di acquisizione di un microscopio FEI Talos Arctica FEG, 200 kV, a partire dal 2016. Lo strumento e’ stato installato in locali dell’Ateneo a meta’ del 2017.

D: dal classico lavoro del 1984 sono passati 40 anni e più; cosa pensi abbia rallentato l’evoluzione della crio 3D?

R: Il potere risolutivo (capacita’ di distinguere/risolvere due ‘oggetti’ posti ad una certa distanza) di un pennello di elettroni accelerato a 200-300 kV e’ in linea di principio piu’ che sufficiente ad esempio per risolvere due atomi, e sfruttato in altri campi della micoscopia elettronica (es. studio di materiali) a risoluzione atomica. In ambito biologico, le macromolecole di interesse (proteine e acidi nucleici, prevalentemente) non sono in grado di tollerare l’intensita’ del fascio di elettroni che viene usato negli studi di microscopia elettronica applicata ai materiali; le molecole biologiche vengono letteralmente distrutte dalla radiazione. Per questo motivo da diversi anni si usano tecniche di congelamento alle temperature dell’azoto liquido per limitare il danno da radiazione; ma questo non basta. Lo sviluppo degli ultimi anni, chiave per le innovazioni che stiamo osservando, e’ stato quello di rendere disponibili dei detectors di elettroni estremamente sensibili, letteralmente in grado di contare gli elettroni uno per uno. Cio’ permette di esaminare i campioni biologici con dosi minime di elettroni, permettendo l’acqusizione delle immagini di cryo EM entro limiti di irraggiamento compatibili con la natura ‘fragile’ delle macromolecole biologiche. Il vero salto avanti, premiato dal recente Premio Nobel 2017 a Henderson, Frank e Dubochet, e’ stato possibile, quindi, tramite l’abbinamento delle tecniche criogeniche con i nuovi detectors particolarmente efficienti.

220px–Structure-of-Alcohol-Oxidase-from-Pichia-pastoris-by-Cryo-Electron-Microscopy

D: che differenza c’è stata e ci sarà  fra le classiche tecniche a Raggi X e le tecniche crio-3d? il futuro della strutturistica in biochimica passa per il 3d? cosa rimarrà alla strutturistica tradizionale?

R: In ambito biologico, il settore cui la cryo EM si rivolge principalmete, l’approccio alla struttura delle macromolecole associate a processi cellulari e non, va sotto il nome di Biologia Strutturale. Tecniche in uso da tempo in Biologia Strutturale sono la cristallografia a raggi-X, che ad oggi ha contribuito le strutture 3D di circa 130.000 proteine, la risonanza magnetica nucleare (NMR), i metodi di scattering di raggi X in soluzione, e altre tecniche biofisiche che richiedono installazioni meno impegnative. La cryo EM che fino a poco tempo fa contribuiva con strutture 3D a bassa risoluzione (10-20 Angstroem), oggi si affainca ai metodi a piu’ alta risoluzione e li integra in maniera sinergistica. La cristallografia a raggi X permette nei casi favorevoli di raggiungere risoluzioni veramente atomiche (meglio di 2 Angstroem), e presumbilmente rimarra’ la tecnica di elezione per proteine o complessi comunque cristallizabili. L’approccio single particle cryo EM mirera’ ai grossi complessi macromolecolari, spesso dificili da ricostruire in laboratorio o difficilmente cristallizzabili. L’NMR si focalizzera’ su informazioni di natura dinamica, applicate a macromolecole di dimensioni minori di 40-50 kDa. Le tecniche di scattering in soluzione permetteranno visioni dinamiche di macromolecole in soluzione e a bassa risoluzione, utili in una serie di contesti diversi. Pertanto, non si parla di rimpiazzare una delle tecniche maturate da tempo, quanto di affrontare le grandi domande della biologia in maniera integrata, mettendo in sinergia le informazioni complementari che le diverse tecniche ci forniscono. Non c’e’ dubbio che l’immediatezza delle indagini cryo EM, la potenza risolutiva raggiunta, e qualche ulteriore progresso nell’hardware, spianeranno la strada ad una loro ampia diffusione.

D: quali sono le tue attività di ricerca attuali e come pensi che la crio-3D possa in futuro contribuire alla biochimica e ad altre discipline, per esempio alla scienza dei materiali? vedi altri settori di uso?

R: Limitero’ la mia risposta al campo biologico, in quanto applicazioni in altri campi sono troppo numerose per poter essere discusse qui (es. scienza dei materiali, nelle sue innumerevoli sfaccettature). Per quanto detto sopra, vari campi della biologia cellulare beneficeranno degli approcci cryo EM. In primo luogo, poter accedere in maniera relativamente diretta alle strutture 3D di grossi complessi molecolari della cellula e alla struttura delle proteine di membrana fornira’ informazioni impagabili sui loro meccanismi di azione. Oltre al beneficio che questo comportera’ per la scienza di base, comprendere i meccanismi di azione di un sistema macromolecolare significa capire come regolarne l’attivita’ in vivo. In altre parole, significa disporre delle basi razionali per la progettazione di farmaci di nuova generazione, diretti verso bersagli molecolari che fino ad oggi potevano essere raggiunti solo per caso, o dopo lunghi processi di ‘trial and error’. Questo ritengo sia (e sara’) il principale campo di applicazione degli studi di cryo EM su macromolecole biologiche, non sottovalutando comunque il significato del valore scientifico di base da quello applicativo. Infine, tecniche di cryo EM troveranno sempre maggiore applicazione a studi di tomografia elettronica applicati alla cellula intera, consentendo quindi di osservare i componenti citoplasmatici e nucleari nel loro ambiente naturale, mentre sono in piena attivita’.

Per approfondire:

  1. Calloway 172 | NATURE | VOL 525 | 10 SEPTEMBER 2015

2. Adrian e Dubochet Nature vol. 308 p. 32 (1984)

********************************************

*Martino Bolognesi (Laurea in Chimica a Pavia) ha lavorato presso l’University of Oregon, Institute of Molecular Biology, e presso il Max Planck Institut fur Biochemie, Martinsried (Prof. R. Huber, premio Nobel nel 1988). Dal 1991 e’ Professore Ordinario di Chimica Biologica, presso l’Universita’ di Milano, dove a partire dal 2005 ha installato un nuovo gruppo di ricerca. Bolognesi ha studiato la struttura tridimensionale delle proteine tramite diffrazione di raggi ‐ X, con piu’di 460 pubblicazioni su riviste internazionali. Oggetti principali della ricerca sono le strutture ed i meccanismi di azione di proteine e di enzimi, i cui risultati sono presenti in piu’ di 240 deposizioni presso il Protein Data Bank. Il Prof. Bolognesi e’ stato uno dei fondatori della biologia strutturale a raggi ‐ X in Italia.

Note sull’Antropocene.1.Le origini.

In evidenza

Claudio Della Volpe

Il nostro blog ha un sottotitolo che contiene la parola Antropocene:

Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.

In realtà una definizione formale e condivisa dell’Antropocene non esiste ancora ma ci si sta lavorando e in questo post vorrei appunto raccontare a chi non la conosce una breve storia di questo concetto, di questo meme, che è destinato secondo me e secondo tutti noi del blog ad un ruolo culturale crescente.

Una occasione per approfondire potrebbe essere la lettura di un libro di recente tradotto in italiano e che tratta proprio di questi temi; mi riferisco a Jason W. Moore: Antropocene o Capitalocene? Scenari di ecologia-mondo nell’era della crisi planetaria, Ombre Corte, 2017

Il termine è stato inventato dal microbiologo Eugene Stoermer professore di microbiologia all’Università del Michigan; grande esperto di diatomee egli usò questo termine per indicare, fin dai primi anni Ottanta del XX secolo, l’impatto dell’uomo sul pianeta.

Fu solo nel 2000 che il premio Nobel per la chimica Paul Crutzen (lo aveva vinto con Molina e Rowland per la scoperta del buco dell’ozono e dei meccanismi connessi) popolarizzò il termine in un articolo scritto a quattro mani (1).

L’idea non era nuovissima; era stata intravista fra i primi dal geologo italiano abate Antonio Stoppani, una delle menti più fini della nostra cultura nazionale, patriota e rivoluzionario, zio di Maria Montessori; che inventò il termine di Era antropozoica. Stoppani è un personaggio di cui sicuramente avete visto il ritratto o usato un’espressione; eh si, perchè egli scrisse fra gli altri un testo dal titolo, pensate un pò, “Il bel paese”. Il titolo del libro era a sua volta preso in prestito da Petrarca:antropocene12

Questo titolo fu preso a prestito insieme con il ritratto di Stoppani nel 1906 dalla Galbani per il suo famoso prodotto; e dunque difficile che non lo conosciate. Come il vecchio dei formaggini.

Di meno come intellettuale. Ma per fortuna nostra lo conoscono all’estero; tanto è vero che Crutzen e Stoermer citano una sua frase che cade qui a fagiolo:

“[l’attività umana] è una nuova forza tellurica che in potenza e universalità può essere paragonata alle maggiori forze della terra”, scritta nel 1873 (3). Vorrei farla leggere a certi colleghi che so io e che la negano ancora oggi, dopo oltre 130 anni.

antropocene11

Lo riconoscete? Era su parecchi dei formaggini che ci siamo sbafati da fanciulli.

SE vi sembra incredibile che un comunistaccio come me debba citare come gloria nazionale un abatino, pensate che lo spessore delle persone non dipende dalle loro idee religiose. E questa citazione di Crutzen e Stoermer ne è la conferma. Perchè vedete Stoppani partecipò alle 5 giornate di Milano e costruì ad uso dei combattenti dei piccoli palloni aerostatici per mandare messaggi della rivolta che superassero le mura senza essere colpiti dagli austriaci, aiutato dal tipografo Vincenzo Guglielmini. Più tardi scrisse un testo “Gli intransigenti” contro la resistenza della chiesa cattolica ai nuovi fermenti politici e sociali. Un abate “rosso” si direbbe oggi (ma non per i capelli come si diceva di Vivaldi). Un teologo della liberazione. E anche uno scienziato a tutto tondo.

Ma dato che nemo propheta in patria il testo da cui è presa la frase, cioè il suo Corso di Geologia (scritto da professore universitario a Milano) è sostanzialmente introvabile sulla rete come pdf; fortunatamente viene citato sempre da una rivista straniera, in inglese (3).

Diffidate da chi scrive che la frase si trova ne “Il bel paese”, non si è guardato le carte e mi ha fatto perdere un pomeriggio per capirci qualcosa.

Torniamo al nostro argomento principale.

L’articolo seminale di Crutzen e Stoermer cita molti altri autori che hanno preparato il terreno al meme, per esempio Vernadskij e Teillard de Chardin che inventarono l’idea della noosfera, cioè della crescente importanza della scienza e della tecnologia nel forgiare il futuro della biosfera terrestre. (4)

In quell’articolo i due autori indicano i motivi per i quali considerano giustificato definire una nuova era geologica e che a distanza di soli 17 anni noi ritroviamo potenziati ed aggiornati (l’elenco che segue è stato aggiornato da me):

-durante gli ultimi 3 secoli la popolazione umana è cresciuta più di dieci volte ad oltre 7.5 miliardi di persone, con una crescita della popolazione di animali asserviti tale per cui la biomassa totale degli uomini e dei loro animali rappresenta il 97% della massa dei vertebrati terrestri (tutti i grandi animali selvatici sono solo il 3%!!)

– per effetto delle azioni umane la velocità di estinzione delle specie nelle foreste tropicali è cresciuta di un fattore stimato da 1000 a 10.000 volte;

– durante gli ultimi 100 anni la popolazione urbanizzata è cresciuta di più di 10 volte

-dal 30 al 50% della superficie terrestre è stata trasformata per opera dell’uomo (esaurimento del suolo) e l’uomo è il principale produttore di materiali in forma di polveri e granuli (più della erosione naturale);

– in poche generazioni l’umanità si avvia all’esaurimento dei combustibili fossili prodotti in quasi 400 milioni di anni.

– il rilascio di zolfo sotto forma di biossido a causa della combustione di tali combustibili è almeno due volte la somma annua di tutte le emissioni naturali di zolfo che avvengono principalmente come dimetilsolfuro oceanico;

– l’azoto fissato sinteticamente, principalmente dalla reazione di Born-Haber ed usato come fertilizzante agricolo (e come componente degli esplosivi) è maggiore della quota fissata da tutti gli ecosistemi terrestri; il rilascio di NO nell’atmosfera da combustioni è maggiore dell’output naturale dando origine alla formazione di ozono fotochimico (smog) in molte regioni del pianeta

– l’uomo estrae una quantità di fosforo multipla di quella estratta naturalmente per erosione (phosphate weathering); come conseguenza di questa situazione sia il ciclo delll’azoto che quello del fosforo sono totalmente alterati rispetto alla situazione naturale;

– l’uomo intercetta il 10% di tutta l’acqua che cade sul pianeta, questa quota rappresenta però più di metà dell’acqua potabile accessibile; la restituisce spesso spostandola da fonti geologiche esauribili e in molti casi profondamente inquinata;

– la combustione dei fossili e l’agricoltura basata sui fertilizzanti sintetici hanno accresciuto il flusso di alcuni gas serra verso l’atmosfera e l’oceano: come conseguenza la concentrazione di tali gas è aumentata negli ultimi 3 secoli di oltre il 30% per la CO2 e del 100% per il metano; il conseguente aumento di temperatura media superficiale oceano-terra è misurato al momento in poco meno di 1 grado centigrado; il pH oceanico si è ridotto di circa 0.2 unità e mette a rischio la sopravvivenza di alcune specie.

– la criosfera polare e continentale si sta riducendo a velocità enorme; si prevede che entro pochi decenni i ghiacci del Polo Nord scomparirano e quelli dell’Antartide e della Groenlandia scompariranno entro qualche secolo, con la conseguenza di innalzare il livello dei mari di alcuni metri.

– inoltre l’umanità ha immesso in circolo alcune sostanze inquinanti profondamente tossiche come mercurio e cadmio estraendole dai loro depositi geologici e altre sintetiche, apparentemente stabili chimicamente come i clorofluorocarburi o la “sporca dozzina”; ma in tutti i casi queste molecole alogenate sono in realtà instabili sul lungo periodo e hanno danneggiato significativamente lo strato di ozono stratosferico e si sono accumulate nei tessuti di parecchie specie viventi con danni ancora non precisamente valutabili; nonostante gli accordi internazionali in vigore per controllare tale inquinamento la situazione non è ancora sotto controllo; si sospettano azioni che simulano effetti ormonali in molte altre sostanze usate comunemente (bisfenolo-A e alcuni tensioattivi) e si ipotizza di attribuire a tale inquinamento la riduzione della fertilità maschile stimabile in alcuni casi ad oltre la metà dei valori naturali;

– le zone costiere sono state danneggiate sia dall’arricchimento in fosforo e azoto con la formazione di zone anossiche, dead zones, in varie parti dell’oceano e dei mari interni come il Mediterraneo, sia con la scomparsa del 50% delle mangrovie;

– la pesca industrializzata rimuove una percentuale crescente della produzione primaria dell’oceano valutabile in oltre un terzo;

– le attività nucleari umane (belliche e non) hanno inquinato irreversibilmente con isotopi radioattivi anche sintetici alcune zone del pianeta e tale presenza è comunque misurabile in ogni zona del mondo.

PB_FIG33_media_11jan2015_web2

Il lavoro di Crutzen e Stoermer conclude:

Considering these and many other major and still growing impacts of human activities on earth and atmosphere, and at all, including global, scales, it seems to us more than appropriate to emphasize the central role of mankind in geology and ecology by proposing to use the term “anthropocene” for the current geological epoch. The impacts of current human activities will continue over long periods. According to a study by Berger and Loutre, because of the anthropogenic emissions of CO2, climate may depart significantly from natural behaviour over the next 50,000 years.

“Si tratta di una proposta che è stata presa in seria considerazione. La reazione del mondo umanistico è stata entusiastica con la nascita di ben tre riviste internazionali dedicate al tema: Anthropocene, The Anthropocene Review ed Elementa.

Nel campo delle scienze naturali sia la International Commission on Stratigraphy che la International Union of Geological Sciences hanno finora rifiutato di riconoscere il termine come categoria valida per la suddivisione del tempo geologico. Dall’altro, nell’agosto 2016 il Working Group on the Anthropocene – dopo sette anni di lavori – ha ufficialmente raccomandato un tale riconoscimento ai suddetti organi burocratici (con voto ad ampia maggioranza ma senza unanimità). In buona sostanza gli scienziati del gruppo presieduto da Jan Zalasiewicz propongono di considerare l’Antropocene come una serie, l’equivalente stratigrafico di un’epoca, tanto quanto l’Olocene o il Pleistocene che l’hanno preceduto. Il golden spike [chiodo d’oro] individuato come punto originario sarebbe da collocarsi nella cosiddetta grande accelerazione, cioè a partire dagli ultimi sussulti della seconda guerra mondiale, quando le bombe atomiche vennero sganciate e la dipendenza da carbone e petrolio contagiò l’intero pianeta (sebbene con intensità molto variabili).”

(Il sintomo-Antropocene di Emanuele Leonardi e Alessandro Barbero, Effimera, 9 ottobre 2017)

Nella seconda parte del post racconteremo più in dettaglio quali sono i possibili confini temporali dell’Antropocene, una questione per la quale in realtà esistono almeno 4 differenti ipotesi e proposte.

(continua)

Riferimenti.

(1)Crutzen, P. J. & Stoermer, E. F. The Anthropocene. IGBP Global Change Newsl. 41, 17–18 (2000)

(2)Stoppani, Il bel paese, 1873 –http://www.sba.unifi.it/upload/scienze/img150anniuniti/doc150anniuniti/belpaese.pdf

https://ia600502.us.archive.org/6/items/ilbelpaeseconver00stopuoft/ilbelpaeseconver00stopuoft.pdf

(3)Stoppani Corso di geologia in 3 vol. 1873; la parte che ci interessa è tradotta in inglese qui http://www.geologicnow.com/2_Turpin+Federighi.php; MAKING THE GEOLOGIC NOW RESPONSES TO MATERIAL CONDITIONS OF CONTEMPORARY LIFE edited by Elizabeth Ellsworth e Jamie Kruse trad. di Valeria Federeghi

Riporto qui l’intera frase perchè sia chiaro che Stoppani non rinnega la sua fede, ma la fonde con i fermenti dell’era di rivoluzione economica, sociale e politica che vive (la lascio in inglese come scorno, per far risaltare l’abbandono che abbiamo della nostra storia migliore):

“…when, in the bosom of the aged fabric of ancient pagan societies, the Christian ferment was introduced, the new element par excellence, that substituted ancient slavery with freedom, darkness with light, fall and degeneration with rebirth and true progress of humanity.

It is in this sense, precisely, that I do not hesitate in proclaiming the Anthropozoic era. The creation of man constitutes the introduction into nature of a new element with a strength by no means known to ancient worlds. And, mind this, that I am talking about physical worlds, since geology is the history of the planet and not, indeed, of intellect and morality. But the new being installed on the old planet, the new being that not only, like the ancient inhabitants of the globe, unites the inorganic and the organic world, but with a new and quite mysterious marriage unites physical nature to intellectual principle; this creature, absolutely new in itself, is, to the physical world, a new element, a new telluric force that for its strength and universality does not pale in the face of the greatest forces of the globe.”

(4)Personalmente conosco almeno un filosofo dell’800 (fra il 1850 e il 1860) che scrisse a proposito di ciò nella critica alla società capitalistica che vedeva nascere; lascio a voi scoprire chi era costui, che pensava alla scienza applicata alla produzione e al lavoro sociale nella forma di divisione del lavoro come la base materiale della trasformazione della biosfera; egli vedeva già allora il puro tempo di lavoro che andava scomparendo mano a mano come fonte principale della ricchezza sostituito da questo nuovo e più potente paradigma sociale che avrebbe inglobato ogni sviluppo (anche legato ai robot, a lui sconosciuti ma inglobabili nel suo “sistema automatico di macchine”). Si tratta di una forza produttiva talmente potente che se non domata e sottoposta alla ragione e al controllo sociale può, con la sua esigenza di sviluppo infinito, distruggere ogni biosfera e giustificare il paradosso di Fermi.

 

Cromorama

In evidenza

Mauro Icardi

Il titolo di questo articolo è lo stesso di un libro uscito nella collana Einaudi “Stile libero extra” a Settembre. L’autore, Riccardo Falcinelli è designer e insegnante. In questi giorni è impegnato nella promozione del suo volume, la cui preparazione, a quanto lui stesso ha raccontato in una delle presentazioni radiofoniche, ha richiesto circa dieci anni. In questo periodo ha   raccolto molti appunti e molta documentazione storica, fino alla pubblicazione del libro. Libro che ci racconta di come la storia dei colori, ha finito per modificare il nostro sguardo. Questo articolo non è una recensione del libro, ma un aggancio ai temi che lo scrittore ha sviluppato nel suo libro tratto dalle presentazioni del libro in radio. ) E in queste presentazioni del libro, Falcinelli parla comunque di chimica e di rivoluzione industriale.

 

E lo spunto parte da una considerazione estremamente interessante.

Prima dello sviluppo dell’industria dei coloranti di sintesi non esisteva la tinta unita. Ma “la rivoluzione della chimica permette di avere qualunque oggetto di qualunque colore”.

L’autore intervistato per la rubrica di radio 3 Fahrenheit pronuncia queste parole riferendosi allo sviluppo dell’industria dei coloranti di sintesi.

Premesso che come lui stesso dichiara, il suo libro non vuole essere un saggio ma un racconto di come il colore abbia cambiato il nostro sguardo, ma anche il nostro immaginario, ecco che il legame con la chimica, o meglio con la storia dell’industria chimica è subito trovato.

Riportandoci alla storia dell’anilina , isolata nel XIX secolo e che August Wilhelm von Hofmann riconoscerà e cui darà il nome nel 1855. E solo un anno dopo, nel 1856 l’avvio dell’industria dei coloranti sintetici grazie all’entusiasmo di William Henry Perkin, che tentando ricavare dal catrame i precursori del chinino, fini per ossidare l’anilina ed ottenere il colore “mauve”. La polvere nera ricavata dall’ossidazione dell’anilina si scioglieva in metanolo dando origine ad un colore porpora molto persistente.

Questi episodi sono appunto uno spartiacque. L’industria dei coloranti avrà un enorme sviluppo. Tingere diventerà meno difficile e meno costoso. Non dimentichiamo che i coloranti naturali non sempre potevano essere utilizzati con facilità. Per esempio in Piemonte nel 1789, dati gli alti costi per la tintura delle divise dei soldati, il Governo si rivolse addirittura all’Accademia delle Scienze.

Fu creata una commissione che lavorò per trovare un sostituto dell’indaco che si otteneva dalle foglie di Indigofera Tintoria, pianta di origine Asiatica. Il sostituto venne trovato nella foglia del guado (Isatis tinctoria) che si poteva reperire anche in Piemonte, essendo molto diffusa nelle Alpi Occidentali e in quelle marittime.

Lo sviluppo dell’industria dei coloranti di sintesi modificherà non solo la tecnologia, ma anche il modo in cui noi oggi percepiamo i colori, secondo Falcinelli. Nel passato normalmente ogni colore o pigmento aveva un solo utilizzo. Ad esempio il colore blu ricavato dalla macinazione del lapislazzuli che è il blu degli affreschi della cappella sistina, e di quella degli Scrovegni, poteva essere utilizzato solo per gli affreschi, e non per esempio per tingere tessuti. La versatilità dei coloranti di sintesi che invece possono essere utilizzati per materiali diversi, hanno reso i colori, o meglio l’idea che ne abbiamo ,come svincolata dall’idea della provenienza da un determinato minerale o pianta. Secondo l’autore oggi abbiamo un’idea dei colori come svincolata dalla provenienza da sostanze reali.

A mio parere questo non credo sia del tutto vero per i chimici. Abituati come siamo a pensare in termini di strutture, di sostanze, a cercare di indagare la composizione della materia.

Le tesi di Falcinelli si possono ascoltare in questa conversazione nel programma Fahrenheit.

http://www.radio3.rai.it/dl/portaleRadio/media/ContentItem-97d47773-8f3a-4253-89a7-200f800be993.html

Ci sono moltissimi interessanti spunti. E si parla molto spesso di chimica. D’altronde il legame tra chimica e colori esiste praticamente da sempre. Ognuno di noi ne ha fatto pratica in Laboratorio per esempio nelle titolazioni con gli indicatori, nella colorimetria E quindi Cromorama può trovare posto accanto a libri di divulgazione chimica. Rappresentandone una visione diversa. E decisamente affascinante.

 

Tutto ciò che è bene sapere sul latte e derivati del latte

In evidenza

Marino Melissano

Il latte è un alimento bilanciato che contribuisce a soddisfare il fabbisogno giornaliero di proteine, zuccheri, grassi, oligoelementi e vitamine di ogni persona, in ogni età della vita.

È facile convincersi del fatto che il latte sia uno degli alimenti più completi, grazie alla sua composizione chimica. Infatti contiene tutti i principi alimentari indispensabili, quali sostanze proteiche, carboidrati, vitamine, enzimi e sali minerali, tra cui il calcio (126 mg/100 g di latte), il magnesio (13 mg/100 g) e il fosforo (100 mg/100 g). Da notare che il rapporto calcio/fosforo è superiore a uno: questa particolarità permette la calcificazione delle ossa anche in assenza di vitamina D.

    

Tra le vitamine spiccano le presenze dell’acido pantotenico, che favorisce la produzione ormonale; la vitamina B2 indispensabile all’accrescimento delle cellule; la A, importante per la pelle e per la vista; la K, antiemorragica; oltre alle note vitamine C, D, E e B6.

Le proteine del latte sono di alto valore biologico; la più importante di queste, il caseinogeno, è ricca di fosforo e ha la proprietà di coagulare, scindendosi in paracaseina, ad opera di speciali enzimi, quali la chimasi. Questa coagulazione è sfruttata nella preparazione dei formaggi.

L’unico zucchero del latte è il lattosio; essendo la sua molecola complessa, essa non viene digerita tal quale, ma viene prima degradata ad opera di un enzima specifico, la lattasi, che manca nelle persone disabituate al latte, la qual cosa spiega l’azione lassativa che il latte esplica in alcuni individui, in quanto il lattosio non scisso si comporta come un purgante salino. Però è sufficiente ricominciare a berne quantità gradualmente crescenti perché il proprio organismo riproduca la lattasi.

Per i sali di calcio e per la presenza di un amminoacido essenziale, il triptofano, il latte è un ottimo regolatore nervoso e, secondo recenti ricerche, anche un buon regolatore del sonno. Sembra, ancora, che prevenga la osteoporosi, cioè la decalcificazione delle ossa che spesso si verifica in età avanzata, e l’ulcera gastrica.

Un’assunzione dì mezzo litro di latte intero al giorno assicurerebbe: 17 g di lipidi; 19 g di glucidi; 16 g di protidi; 3,5 g di sali minerali, oltre una corretta quantità di vitamine; il tutto per un valore energetico di 289 kcal. Lo stesso mezzo litro di latte apporta, quindi, tante proteine quante sono contenute in 100 g di carne di manzo o in tre uova.

In commercio esistono diversi tipi di latte: pastorizzato intero, (contenente non meno del 3% di grasso); parzialmente scremato (contenente non meno dell’1,5% di grasso) e scremato (contenente meno dello 0,3 % di grasso); omogeneizzato; sterilizzato; in polvere e condensato.

La pastorizzazione (stassanizzazione) consiste in un trattamento a 75 °C per 15 secondi; si distruggono così tutti i germi patogeni, senza significative perdite neanche delle vitamine più termosensibili.

In base alla legge 3 maggio 1989, n. 169 e al decreto del Ministero della Attività produttive 27 giugno 2002, si può definire latte pastorizzato quel latte, sottoposto a pastorizzazione, che, al consumo, presenti:

–                 prova della fosfatasi alcalina negativa: è questo un enzima contenuto nel latte in misura quasi sempre costante; la sua attività è pressoché annullata quando il latte viene riscaldato a circa 70°C; il controllo è quindi inteso a stabilire se la pastorizzazione sia stata svolta regolarmente o se siano state aggiunte al latte pastorizzato piccole quantità di latte crudo;

  • un contenuto in sieroproteine solubili, non denaturate, non inferiori all’11% delle proteine totali. Il tenore di sieroproteine solubili decresce ogni qualvolta il latte subisce un trattamento termico. Non di rado il latte trattato dopo un certo tempo dalla mungitura viene pastorizzato più volte: in questo caso non sarà possibile denominarlo fresco. Infatti, il latte pastorizzato si può fregiare della denominazione di latte fresco pastorizzato se, pervenuto crudo allo stabilimento di confezionamento e qui sottoposto a un solo trattamento termico entro 48 ore dalla mungitura, presenti al consumo:
  • prova della fosfatasi alcalina negativa;
  • prova della perossidasi positiva: è questo un altro enzima sempre presente nel latte crudo, che è distrutto ad una temperatura di almeno 80 °C, anche per pochi secondi;
  • un contenuto di sieroproteine solubili non denaturate non inferiori al 14% delle proteine totali. Se questa percentuale sale almeno al 15,5% il latte fresco pastorizzato può essere definito latte fresco pastorizzato di alta qualità.

(Marino Melissano – Alimentologia – Youcanprint – www.youcanprint.it)

Un’altra tecnica di conservazione del latte è la microfiltrazione: prima di subire il trattamento termico, il latte viene fatto passare, alla temperatura di 50°C, attraverso una membrana che possiede fori microscopici, capace di trattenere la maggior parte dei batteri naturalmente presenti ed eventualmente particelle estranee. In questa fase si separa anche il grasso, poiché le sue particelle non passano attraverso i fori.
Il grasso e la parte rimanente del latte vengono poi pastorizzati separatamente: il grasso, insieme ai batteri, viene pastorizzato a 85°C, una temperatura superiore alla normale pastorizzazione, che elimina quindi una quantità superiore di microrganismi, mentre il filtrato viene pastorizzato a 72 °C;

il grasso viene poi miscelato nuovamente al latte, omogeneizzato, ed è così pronto per la commercializzazione.
In questo modo il latte possiede una carica batterica inferiore rispetto al latte pastorizzato e può quindi conservare più a lungo le sue caratteristiche naturali.

(www.salutarmente.it).

A livello qualitativo e nutritivo, ha le stesse caratteristiche del latte fresco.

Mentre per il latte pastorizzato la data di scadenza è determinata dal produttore, il decreto 24 luglio 2003 del Ministero delle Politiche Agricole e Forestali stabilisce che: la data di scadenza del “latte fresco pastorizzato” e del “latte fresco pastorizzato di alta qualità”, così come definiti dall’art. 4 della legge 3 maggio 1989, n. 169, è determinata nel sesto giorno successivo a quello del trattamento termico.
La data di scadenza del “latte microfiltrato fresco pastorizzato” è determinata nel decimo giorno successivo a quello del trattamento termico.

In base al decreto-legge 24 giugno 2004, n. 157, coordinato con la legge di conversione 3 agosto 2004, n. 204, il latte ottenuto con questo trattamento innovativo di conservazione può essere indicato in etichetta solo con la denominazione di latte microfiltrato: sparisce, perciò, il “fresco pastorizzato”.

Questo ha determinato un pasticcio sulla scadenza del microfiltrato, perché il decreto del 2003 prevedeva una scadenza di 10gg, ma riferita al “microfiltrato fresco”; caduto il termine “fresco” sembra che la scadenza sia stata liberalizzata, al pari di quella del latte UHT; quindi, si trovano in commercio latti microfiltrati con scadenza diverse. (www.issa-europe.eu).

Presso l’esercizio di vendita la temperatura di conservazione del latte, sottoposto a trattamento di pastorizzazione, deve essere compresa tra 1 e 6 °C.

Per una conservazione maggiore del latte si ricorre a metodi di conservazione più spinti, come la sterilizzazione, che può essere una sterilizzazione UHT semplice, consistente in un trattamento a 135-140 °C per 2-4 secondi. Un metodo recente di sterilizzazione UHT è quello della “uperizzazione”: esso consiste nella iniezione di vapore vivo al latte pre-riscaldato (si raggiunge così una temperatura di 135-145 °C) cui segue il passaggio in camera a decompressione (il vuoto che si applica fa abbassare la temperatura e fa allontanare il vapore che viene riceduto all’impianto).

Una sterilizzazione ancora più spinta si attua con un preriscaldamento a temperatura ultra-alta (Ultra High Temperature o UHT) per pochi secondi e successivo trattamento in bottiglia a 110-120 °C per 12-20 minuti.

Con la pastorizzazione le perdite sono in genere modeste: le proteine non subiscono praticamente deterioramento, la vitamina C si perde anche per azione della luce ed il processo è sensibilizzato dalla presenza di riboflavina; la vitamina B12, pur essendo termostabile, è influenzata tuttavia negativamente dalla vitamina C in presenza di ossigeno. La sterilizzazione in bottiglia arreca danni maggiori anche alle proteine, a differenza della sterilizzazione UHT.

Definiamo il latte sottoposto a trattamento di sterilizzazione:

latte sterilizzato a lunga conservazione”, quando ha subìto un trattamento termico finale di sterilizzazione in contenitore sigillato. Esso deve riportare sul contenitore il termine di conservazione, indicato con la menzione “da consumarsi preferibilmente entro”, seguito dalla data riferita al giorno, al mese e all’anno, con data di riferimento di 180 giorni dal confezionamento;

latte UHT a lunga conservazione”, trattato a temperatura molto alta, ha subìto un trattamento termico di sterilizzazione in flusso continuo, seguito dal confezionamento asettico che ne consente una conservazione prolungata nel tempo. Il termine di conservazione va indicato sul contenitore con la medesima menzione prevista alla lettera precedente, con data di riferimento di 90 giorni dal confezionamento.
(da “Marino Melissano”- Alimentologia – Ed. Youcanprint – www.youcanprint.it)

Grazie al DM 09.12.2016, entrato in vigore il 20.04.2017, oggi, in Italia, è obbligatoria in etichetta l’indicazione dell’origine della materia prima dei prodotti lattiero caseari, come ad esempio: il latte UHT, il burro, lo yogurt, la mozzarella, i formaggi e i latticini.
L’obbligo si applica al latte vaccino, ovicaprino, bufalino e di altra origine animale.

L’origine del latte e dei derivati dovrà essere indicata in etichetta in modo chiaro, visibile e facilmente leggibile.

Queste le diciture utilizzate:
a) “PAESE DI MUNGITURA: nome del Paese nel quale è stato munto il latte”;
b) “PAESE DI CONDIZIONAMENTO O TRASFORMAZIONE: nome del Paese in cui il prodotto è stato condizionato o trasformato il latte”.
Qualora il latte o il latte utilizzato come ingrediente nei prodotti lattiero-caseari sia stato munto, confezionato e trasformato nello stesso Paese, si può utilizzare una sola dicitura, ad esempio: “ORIGINE DEL LATTE: ITALIA“.
Se le fasi di confezionamento e trasformazione avvengono nel territorio di più Paesi, diversi dall’Italia, possono essere utilizzate, a seconda della provenienza, le seguenti diciture:
latte di Paesi UE: se la mungitura avviene in uno o più Paesi europei;
latte condizionato o trasformato in Paesi UE: se queste fasi avvengono in uno o più Paesi europei.
Se le operazioni avvengono al di fuori dell’Unione europea, verrà usata la dicitura “Paesi non UE”. 
Sono esclusi solo i prodotti Dop e Igp che hanno già disciplinari relativi anche all’origine e il latte fresco già tracciato.

Attenzione, però: le norme suddette non si applicano ai prodotti fabbricati o commercializzati in altri Stati membri UE o in Paesi extra-UE: per esempio, in Germania e in Austria non vige il medesimo obbligo italiano sull’origine; quindi, se compro in Italia latte o prodotti lattiero-caseari austriaci o tedeschi, posso anche non trovare in etichetta alcuna indicazione del Paese di mungitura e del Paese di condizionamento o trasformazione.

Un discorso a parte merita il latte crudo, che, secondo il Regolamento CE n. 853/2004, è il latte che non è stato riscaldato a più di 40°C e non è stato sottoposto a nessun trattamento avente un effetto equivalente, prima di essere consumato. Al controllo, il latte vaccino crudo non deve contenere, a 30°C, più di 300.000 germi/ml e 400.000 cellule somatiche/ml. Se è destinato alla produzione di derivati mediante processi che non comportano trattamenti termici, il numero di germi non può essere superiore a 500.000/ml.

Questo prodotto si è di fatto reso disponibile al consumatore che lo acquista al di fuori dell’azienda agricola, a partire dalla metà degli anni 2000, quando si sono diffuse sull’intero territorio nazionale apposite macchine erogatrici. L’obbligo di riportare nell’etichettatura del latte crudo la dicitura “da consumarsi previa bollitura”, introdotto a partire dal 2008 con una Ordinanza del Ministero della salute e previsto dal Decreto legge n. 158 del 13/09/2012, ha consentito di inserire un principio di garanzia a tutela della salute del consumatore. (http://www.salute.gov.it/portale/news/p3_2_3_1_1.jsp?menu=dossier&p=dadossier&id=10)

L’etichetta

L’etichettatura del latte crudo deve contenere le diciture:

  • “Latte crudo”, per il latte crudo destinato al consumo umano;
  • “Fabbricato con latte crudo”, per i prodotti lattiero caseari derivati da latte crudo.

Il latte crudo può essere venduto attraverso macchine erogatrici, che, però, devono contenere la dicitura, sul frontale della macchina, in rosso, “prodotto da consumarsi dopo bollitura”.

La data di scadenza non può superare i 3 gg da quella della messa a disposizione del consumatore. (ordinanza 10.12.2008)

E’ vietata la somministrazione di latte crudo nell’ambito della ristorazione collettiva.

E’ vietata la produzione di gelati prodotti con latte crudo. (ordinanza 2.12.2010).

La produzione di formaggi a latte crudo viene consentita, nel rispetto di alcuni requisiti minimi aziendali e igienici. Tra questi:

  • Il latte deve provenire da animali che non presentano sintomi di malattie infettive trasmissibili all’uomo attraverso il latte (in particolare provenire da allevamenti ufficialmente indenni da brucellosi e tubercolosi), in buono stato sanitario e ai quali non siano state somministrate sostanze o prodotti non autorizzati oppure senza il rispetto dei termini minimi di sospensione.
  • Se il latte non è lavorato entro due ore dalla mungitura, deve essere posto immediatamente in un luogo pulito e deve essere raffreddato a una temperatura non superiore a 8 °C (in caso di raccolta giornaliera) e non superiore a 6 °C (qualora la raccolta non sia effettuata giornalmente).
  • Le strutture devono essere pulite, sottoposte a manutenzione, e tenute in buone condizioni.

principali batteri patogeni che interessano il latte crudo sono:

Campylobacter jejuni 
Escherichia coli (E. coli O157:H7)
Listeria monocytogenes 
Salmonella spp.

L’Escherichia coli è naturalmente presente nell’intestino umano e in quello degli animali a sangue caldo. I fattori che aumentano il rischio per chi beve latte crudo stanno nel contatto tra il latte e la materia fecale di animali o persone portatori di questo batterio. L’impatto sull’uomo dell’Escherichia coli 0157:H7 è minimo, ma ha molta risonanza a causa dei potenziali effetti e malattie che provoca (come la sindrome emolitico-uremica o SEU, causata da una tossina, detta vero-citotossina o Shiga-tossina o Vtec, trasmessa per via alimentare o orofecale), talvolta molto serie e/o mortali. Si stima che dal 1999 al 2010 solo 5 su 63.153 ammalati all’anno a causa dell’Escherichia coli siano stati contaminati dopo aver bevuto latte, ma questa patologia sta, purtroppo, diventando attuale, visti i casi registrati negli ultimi mesi. Infatti, in Puglia, nella zona di Altamura, a giugno 2017, sono stati segnalati 3 casi di bambini affetti da SEU e la Regione, che ha allestito un tavolo tecnico per analizzare la situazione, ha esordito con una nota “la situazione non rappresenta un’emergenza e sarebbe da riferire ad una contaminazione derivata dall’uso non corretto di latte crudo, che non può essere assolutamente utilizzato per l’alimentazione umana se non previo trattamento termico”. (www.wired.it)

Altro batterio, forse il più temuto, la Listeria. È importante sapere che solo alcune sottoclassi di questo batterio causano effettivamente la Listeriosi, la quale può essere mortale solo se ingerita in grandi quantità e solo in casi particolarmente a rischio come neonati, donne incinte, anziani e persone con deficit immunitario in genere. Nella maggior parte dei casi si prende una gastroenterite.

La Listeria vive bene in ambienti freschi e umidi e si trova, in quantità variabili, letteralmente ovunque, nelle nostre case e nel nostro corpo. Ingeriamo piccole quantità di Listeria ogni giorno senza che ci capiti nulla, e lo stesso accade quando beviamo il latte crudo. Ci sono stati pochissimi casi di contaminazione da Listeria che hanno visto coinvolti latte e formaggi a latte crudo, specialmente se stagionati per lungo tempo.

Passando dal latte al formaggio, è necessario garantire, con analisi periodiche:
– l’assenza di Listeria monocytogenes
– l’assenza di Salmonella
– l’assenza di Enterotossina Stafilococcica
– il controllo della presenza di germi indicatori di carenze igieniche (Escherichia coli e Stafilococchi coagulasi positivi).

L’etichetta che accompagna i prodotti fabbricati con latte crudo deve indicare chiaramente i termini «fabbricato con latte crudo».

Latte art

In conclusione, l’uso di latte crudo da parte dei caseifici non è vietato (a differenza dei produttori di gelati), ma le prescrizioni a cui sono soggetti sono tante e, a volte, disattese. Anche l’EFSA, con un documento del 2015, ha comunicato un rischio per i consumatori.

Pertanto, consigliamo di non somministrare, soprattutto ai soggetti più deboli, alimenti prodotti a partire da latte crudo.

L’ora di chimica. 5° edizione del festival dell’innovazione e della scienza a Settimo Torinese.

In evidenza

Mauro Icardi

Con questo accattivante titolo, la città di Settimo Torinese si appresta a dare il via a questa manifestazione, che negli anni passati si è occupata di nuove tecnologie, di spazio ed esplorazione dell’universo, di luce e di robotica. Ma che per l’edizione 2017 ha deciso di dedicare una settimana alla chimica (dal 15 al 22 Ottobre) e a come essa entri giornalmente nella nostra vita quotidiana.

Il tema non è nuovo, ma è particolarmente stimolante che venga affrontato nella città dove ha lavorato Primo Levi per 23 anni. Settimo Torinese ha un legame piuttosto forte con la chimica. In passato nel territorio della città non vi è stata solo la Siva, la fabbrica di vernici di cui Levi fu direttore tecnico e dove lavorò per 23 anni, ma anche la Paramatti che produceva anch’essa vernici, le fabbriche di pneumatici della Ceat e della Pirelli. E poi i centodieci anni di storia storia della Schiapparelli Farmaceutici, fondata nel 1907 e che cambierà varie volte nome e ragione sociale (Farmitalia Carlo Erba, Antibioticos) fino ad essere oggi la Olon Spa.

Proprio in parte dell’area ex Paramatti è sorta la nuova biblioteca multimediale Archimede che è stata inaugurata nel 2010.

Ma i luoghi di questo festival sono diversi, e coinvolgeranno anche Torino ed altri luoghi del suo hinterland, come Moncalieri e Grugliasco.

Il programma di incontri e iniziative e ampio e diversificato. Si parlerà di chimica e del suo ruolo in vari settori. Alimentazione, produzione industriale, elettronica. Questo il programma del festival:

http://www.festivaldellinnovazione.settimo-torinese.it/wp-content/uploads/2017/09/INNOV-2017-Programma.pdf

Si possono soddisfare le più diverse curiosità. Dalla chimica degli alimenti e delle fermentazioni parlando di cioccolato, vermut e spumante e infine il caffè. Che abbiamo anche noi trattato su questo blog, parlando di vino e birra.

La chimica ancestrale che diventa la chimica di oggi, quella che molti non pensano sia così vicina a loro. Basta pensare ai nostri recettori dell’olfatto che percepiscono qualità e identità di molecole volatili e gas presenti nell’aria.

Non mancherà il tema dell’acqua, delle nuove tecnologie per preservarla. Poi la polvere cosmica, l’elettronica.

Degna di nota la mostra dedicata al Primo Levi scrittore di fantascienza. Interessante il collegamento dei temi della fantascienza di Levi con quelli della fantascienza del novecento. Lo scrittore poliedrico e centauro che immaginava le odierne stampanti 3d, quando parlava del duplicatore Mimete. Ingiustamente ritenuti minori i suoi due libri “Storie naturali” e “Vizio di forma”. Avevo auspicato che venisse riscoperto il Levi fantascientifico, e non posso che essere contento di questa scelta.

Molti i laboratori e gli esperimenti scientifici dedicati ai ragazzi della scuole. Non mancheranno gli esperimenti di chimica spettacolare, quella che in molti apprezzano e che riporta alla mente gli spettacoli scientifici che si tenevano nel 700.

Basta osservare questo programma per rendersi conto delle possibilità di didattiche e divulgative, che spazieranno dalla chimica fisica, alla leggi dei gas. Produrre CO2 decomponendo bicarbonato, o studiare i fluidi utilizzando succhi di frutta e di verdura.

Lo scorso anno furono circa 35.000 le presenze per il tema della robotica. Il mio augurio è che quest’anno siano altrettante se non di più. Le note di presentazione lo dicono chiaramente. Invitano a scoprire la bellezza, la magia della chimica. Io ovviamente non posso che essere d’accordo.

In quella città ho vissuto. Sono davvero contento che si sia trasformata in un polo culturale, da città dormitorio come veniva considerata fino a qualche anno fa.

E ovviamente ci tornerò. Sono tanti gli spunti che questo festival offre. E d è un invito che doverosamente estendo ai lettori di questo blog.

 

La plastica, un nuovo materiale per i Beni Culturali

In evidenza

Luigi Campanella, già pesidente SCI

Il Museo ha subito negli ultimi 50 anni una profonda trasformazione che lo ha reso da sede di informazione a sede di conoscenza,essendo i due termini ben distinti anche concettualmente.

Su questa base sono nati e si sono imposti all’attenzione culturale nuovi musei, dove la novità ha, a seconda dei casi, riguardato le innovazioni ICT, l’organizzazione della struttura, i contenuti esposti.

In questo ultimo senso un museo nuovo è di certo il PLART di Napoli. Il Plart Napoli è uno spazio polifunzionale, un museo della plastica e centro di ricerca e restauro dei polimeri. Il Plart ospita una delle più ricche collezioni di plastiche storiche, con una esposizione di millecinquecento opere d’arte e design, tra prototipi e pezzi di culto della storia del design.

Tutti gli oggetti esposti sono accomunati dalla doppia anima di oggetto di uso comune e opera d’arte. La collezione del Plart raccoglie accessori, apparecchi elettronici, utensili in celluloide, acrilico, bachelite, fino al più recente PVC. Gli oggetti della collezione del Museo Plart Napoli appartengono tutti all’arco di tempo in cui il design ha dato il meglio di sé, dalla metà dell’Ottocento fino agli anni Sessanta.

Colorata, bianca, nera, duttile o inflessibile. Nelle sue mille varianti, la plastica è senza dubbio il materiale che ha dominato gli artefatti prodotti dall’uomo nell’ultimo secolo. Con i suoi pregi e i suoi difetti, questo materiale si è imposto come supporto per gli oggetti più vari, fino a diventare protagonista di opere d’arte e pezzi unici nella storia della creatività. Dalle Barbie ai lettori mp3, dai telefoni agli utensili della cucina siamo quotidianamente circondati da materiali plastici. Se fino agli anni Settanta si pensava alla plastica come a qualcosa di indistruttibile, oggi il suo tallone d’Achille è ben noto agli esperti di conservazione: la plastica, infatti, non solo non è immortale, ma subisce un processo di decomposizione tra i più insidiosi e difficili da arginare. Proprio per questo – cercare di salvare i “tesori di plastica” e rendersi conto per tempo dei primi segni di cedimento – da un paio d’anni scienziati di tutta Europa sono al lavoro al cosiddetto Popart Project, progetto finanziato dall’Unione Europea per la preservazione degli artefatti in plastica esposti in musei e gallerie. Un tempo si pensava fosse eterna, oggi sono evidenti i primi segni del degrado. Oggetti d’uso quotidiano e capolavori del design, tutti rischiano di andare perduti.

“La degradazione della plastica è una bomba a orologeria”, spiega Yvonne Shashoua, ricercatrice di conservazione al National Museum of Denmark di Copenhagen. In termini molecolari, infatti, la plastica è costituita da polimeri, gruppi di molecole fatte di lunghe catene di carbonio. Nel tempo, i legami chimici che tengono insieme queste catene si rompono man mano che vengono attaccati dall’ossigeno o dai raggi ultravioletti, o semplicemente si indeboliscono per effetto del calore ambientale. La riduzione delle proprietà meccaniche può essere determinata dall’ossidazione e dall’idrolisi attraverso meccanismi che coinvolgono i radicali liberi provenienti dall’ambiente e dalla rottura di legami chimici. Particolarmente sensibile a questo tipo di degrado è il polipropilene.

La resistenza alle aggressioni chimiche delle materie plastiche è in genere buona; il cloruro di polivinile, il PTFE e la sua variante, l’ETFE, il polietilene e il polipropilene risultano particolarmente resistenti all’attacco di acidi e di basi. Tutte le materie plastiche sono però soggette ad invecchiamento, a un processo lento di degradazione per effetto della luce del sole, soprattutto delle radiazioni ultraviolette,

Le conseguenze di questi processi hanno lasciato un segno indelebile su oggetti risalenti al XIX secolo o all’inizio del XX, come le pellicole fatte di celluloide o gli artefatti realizzati in cellulosa acetata. Per questo e altri tipi di plastica la decomposizione è autocatalizzata: quando i legami iniziano a rompersi, rilasciano degli agenti chimici che attaccano le catene stesse dei polimeri. In sostanza, si tratta di un meccanismo autodistruttivo difficile da bloccare, una volta avviato.

Le Materie plastiche sono Materiali polimerici costituiti in genere da macromolecole organiche, caratterizzati dalla possibilità di essere modellati in qualsiasi forma, quando si trovano allo stato plastico; vengono lavorati mediante procedimenti vari, generalmente a caldo. Le unità di base della materie plastiche, cioè i polimeri, possono essere naturali (come la cellulosa, la cera e la gomma naturale), artificiali, cioè costituiti da polimeri naturali modificati (come l’acetato di cellulosa e il cloridrato di caucciù) o sintetici,cioè prodotti mediante reazioni chimiche di sintesi o di addizione (come il nylon, il politene ecc.). I materiali iniziali sono resine sotto forma di granulati, polveri o soluzioni, dai quali si formano le materie plastiche finite. Si basano sulla chimica del carbonio, il quale ha la capacità di formare catene legate in forme diverse. Quando induriscono, le molecole di cui sono costituite le materie plastiche – i monomeri – si uniscono in catene, formando i polimeri, Le materie plastiche sono caratterizzate da un alto rapporto resistenza-densità, un’eccellente proprietà di isolamento termico, elettrico e acustico, e una buona resistenza ad acidi, basi e solventi. Le macromolecole dalle quali sono costituite possono essere lineari, ramificate o reticolate; nei primi due casi esse sono termoplastiche, cioè rammolliscono quando vengono riscaldate, mentre nell’ultimo caso sono termoindurenti, cioè induriscono in seguito a innalzamenti della temperatura.

Le proprietà di un polimero dipendono dal tipo di monomero con cui è stato ottenuto, dalla lunghezza delle macromolecole, dallo loro struttura e dal modo con cui si dispongono nello spazio le diverse macromolecole. I materiali amorfi hanno macromolecole disposte in modo disordinato, quelli cristallini presentano configurazioni spaziali ordinate.

Una strategia per arginare il problema del degrado consiste nell’aggiungere composti anti-invecchiamento capaci di bloccare la degradazione fin dalle sue fasi iniziali. Alcune di queste sostanze agiscono come degli schermi solari che proteggono le catene da ossigeno, luce e raggi ultravioletti. Spesso, però, gli additivi sono costosi e vengono centellinati in fase di manifattura. Oppure possono perdere la loro efficacia, lasciando “scoperto” il polimero e aprendo così la strada alla degradazione.

Una delle difficoltà maggiori per la conservazione è la varietà dei modi in cui diversi tipi di plastica si degradano per cui ciò che funziona bene per preservare un materiale può rivelarsi completamente deleterio per un altro.

La maggior parte delle plastiche moderne, ad esempio, decade principalmente a causa delle reazioni con l’ossigeno, ed è quindi più protetta se sigillata in un’atmosfera priva di ossigeno. La cellulosa acetata, invece, necessita di un trattamento diametralmente opposto: senza una ventilazione adeguata, i vapori di acido acetico che originano dall’invecchiamento del materiale ne accelerano il processo di decadimento.

L’esigenza che si verifica è quella di predire questi meccanismi di degradazione.

Per ciò si cerca di ‘velocizzare’ questi meccanismi, simulando il più possibile le condizioni di esposizione del manufatto/materiale.

Partendo dal presupposto che una simulazione fedele è impossibile si sono sviluppate nel tempo alcune procedure standard per l’esposizione dei materiali in modo tale che, almeno tra loro, possa esserci una accettabile riproducibilità dei risultati.

Esistono delle strumentazioni e delle metodologie che vengono generalmente utilizzate per sottoporre i materiali a cicli di invecchiamento ‘accelerati‘ rispetto all’esposizione naturale. Queste tecniche sono utilissime per paragonare il comportamento di diversi materiali, ma tutte le variabili devono essere attentamente valutate se si vuole predire la degradazione nel tempo.

Partendo dal presupposto che non si possono riprodurre esattamente tutte le variabili esterne, anche perché è proprio lo stesso ‘invecchiamento naturale’ che non è riproducibile, sono state sviluppati degli apparecchi e delle metodologie che consentono il controllo delle variabili più importanti, quali lo spettro di emissione delle lampade, la potenza emessa, la temperatura, l’umidità, etc.

 

“Contaminazione da microplastiche nell’acqua corrente di tutto il mondo”: Houston, abbiamo un problema?

In evidenza

Claudia Campanale*

Il giorno 25 Agosto scorso mi trovavo in Germania presso l’Istituto Federale di Idrologia di Coblenza per svolgere parte del mio dottorato di ricerca sulle microplastiche nell’ambiente acquatico quando ricevo una telefonata da parte di uno dei giornalisti che stava seguendo il caso “Microplastiche nell’acqua potabile”. Il giornalista mi parla dell’inchiesta in corso preannunciandomi i risultati della ricerca condotta dall’Università statale di New York e del Minnesota e da Orb Media che sarebbero poi stati pubblicati il 05 settembre 2017 sul “the guardian” e secondo cui l’83% dei campioni di acqua potabile prelevati da tutto il mondo conterrebbero microscopiche fibre di plastica.

https://www.theguardian.com/environment/2017/sep/06/plastic-fibres-found-tap-water-around-world-study-reveals

Il giornalista inoltre, mi chiede di analizzare tre campioni di acqua prelevati dalle fontane pubbliche di Roma per avere un controllo su altri tre campioni prelevati dagli stessi punti e analizzati contemporaneamente dall’Università del Minnesota.

Al momento a livello globale non sono state mai eseguite azioni di intercalibrazione tra laboratori e non sono disponibili standards di qualità a cui far riferimento. A causa della mancanza di protocolli standardizzati per il campionamento, l’estrazione, la purificazione e la caratterizzazione delle microplastiche, la comparabilità dei dati disponibili rimane altamente limitata, soprattutto per quanto riguarda: la definizione delle diverse classi dimensionali, le procedure di campionamento, i metodi analitici e i valori di riferimento.

Generalmente l’analisi delle microplastiche in matrici ambientali consta di tre fasi: campionamento, estrazione, quantificazione e identificazione.

1° Step: CAMPIONAMENTO

Il primo aspetto da considerare riguarda proprio il significato insito nella definizione di campionamento che secondo i metodi analitici per le acque APAT-IRSA è la seguente:

“Il campionamento può definirsi come l’operazione di prelevamento della parte di una sostanza di dimensione tale che la proprietà misurata nel campione prelevato rappresenti, entro un limite accettabile noto, la stessa proprietà nella massa di origine. In altre parole, il fine ultimo del campionamento ambientale è sempre quello di consentire la raccolta di porzioni rappresentative della matrice che si vuole sottoporre ad analisi“.

La qualità dei risultati di un’analisi è quindi strettamente correlata a quella del campione prelevato; ne consegue che il campionamento risulta essere una fase estremamente complessa e delicata che incide in misura non trascurabile sull’incertezza totale del risultato dell’analisi.

Così come indicato nei Metodi analitici ufficiali per le acque destinate al consumo umano (D.Lgs. 31/2001), per individuare le caratteristiche di qualità di un’acqua e per seguire le sue variazioni temporali è innanzitutto necessario che i campioni da analizzare siano il più possibile rappresentativi delle reali condizioni qualitative e quantitative esistenti nella matrice. Al momento del campionamento è necessario dunque considerare con attenzione i volumi di acqua da prelevare. Essi vanno definiti in funzione dei parametri da determinare e comunque devono essere superiori al minimo necessario per procedere allo svolgimento degli esami richiesti.

Seguendo le metodiche di campionamento utilizzate dai ricercatori dell’Università del Minnesota i tre campioni da analizzare prelevati dalle fontane pubbliche di Roma sono stati campionati in bottiglie di HDPE per un volume totale di 500 ml a campione. In relazione a questa prima fase di campionamento ciò che desta maggiore perplessità è proprio la rappresentatività del campione relativamente all’esiguo volume di acqua campionato. Un volume di 500 ml è abbastanza rappresentativo per avere un valore che si discosti sufficientemente da quella che è la contaminazione ambientale di fondo e avere quindi un risultato superiore al valore del bianco? Basti pensare che, studi finalizzati a determinare la concentrazione di microplastiche a valle di impianti di trattamento delle acque reflue, utilizzano, per l’analisi delle microplastiche, un volume di campione che varia tra i 50 e i 100L (Mintening et al., 2016, Murphy et al., 2016, Carr et al., 2016).

Inoltre, diverse ricerche specifiche dimostrano che determinare la contaminazione ambientale derivante dalla deposizione atmosferica di microfibre sintetiche o dall’abbigliamento dei ricercatori risulta indispensabile per garantire che il contenuto di plastica nel campione analizzato non venga sovrastimato (Hanvey et al., 2017). Pertanto, valutare l’affidabilità della metodica utilizzata mediante test di validazione e bianchi ambientali risulta indispensabile per riportare i risultati di uno studio.

Un secondo aspetto da tener presente in questa prima fase riguarda il concetto di incertezza. Attualmente è accettato che, nel momento in cui tutte le componenti di errore siano state valutate e le relative correzioni apportate, rimanga tuttavia un’incertezza sulla correttezza del risultato. L’incertezza in generale può essere valutata dalla distribuzione statistica dei risultati di una serie di misurazioni e può essere caratterizzata mediante il calcolo delle deviazioni standard.

I tre campioni di controllo, prelevati dalla città di Roma, sono stati campionati in singola copia senza replicati, quindi non è stato possibile calcolare il livello di incertezza associato al risultato analitico.

Inoltre, secondo la guida EURACHEM/CITAC e la UNI CEI ENV 13005 “Guida all’espressione dell’incertezza di misura” , nel riportare il risultato di una misurazione è necessario:

– specificare il misurando;

– descrivere chiaramente i metodi usati per calcolare il risultato di una misurazione e la sua incertezza dalle osservazioni sperimentali e dai dati di ingresso;

– identificare le sorgenti di incertezza e documentare in modo esauriente come esse sono state valutate;

– quantificare le componenti dell’incertezza;

– calcolare l’incertezza combinata o composta;

– presentare l’analisi dei dati in modo tale che ogni passaggio possa essere agevolmente seguito e che il calcolo del risultato riportato possa essere ripetuto in modo autonomo, se necessario;

– fornire le correzioni e le costanti utilizzate nell’analisi e le loro fonti.

Nell’articolo pubblicato sul “the guardian” non viene descritta nessuna delle metodologie utilizzate per il campionamento, l’estrazione, la quantificazione e l’identificazione delle microplastiche trovate nei campioni analizzati. I risultati pubblicati fanno riferimento ad una concentrazione di microplastiche (espressa come numero di fibre/500mL) senza alcun valore di deviazione standard associato.

2° Step ESTRAZIONE

Al campionamento segue la fase di estrazione, che consiste in una serie di steps volti a separare le microplastiche dalla loro matrice per mezzo di una degradazione chimica e/o enzimatica della sostanza organica interferente, seguita da una separazione densimetrica e da una filtrazione finale del campione. Va detto che questa fase risulta essere la più complicata e, al momento, non esiste una metodica che permetta una rimozione del 100% della componente naturale con un recupero del 100% delle particelle sintetiche. Tuttavia, per campioni di acqua potabile, la degradazione chimica e/o enzimatica non è strettamente necessaria in quanto si presuppone un contenuto di matrice basso o pressoché inesistente, pertanto risulta fondamentale la caratterizzazione chimica.

3° Step QUANTIFICAZIONE e IDENTIFICAZIONE

Una volta che le particelle sono state separate dalla matrice, la quantificazione richiede la pesatura o il conteggio, compito assai difficile soprattutto per le particelle appena visibili ad occhio nudo. La caratterizzazione visiva del campione al microscopico (Visual Sorting) tuttavia presenta un elevato rischio di sovrastima a causa di grandi quantità di sostanze di origine naturale (parti di animali, minerali, fibre di origine naturale, ecc.) ancora presenti negli estratti (Dekiff et al., 2014). Da qui l’identificazione chimica delle particelle estratte risulta indispensabile a valle di una pre-caratterizzazione al microscopio allorquando diversi studi affermano che fino al 70% delle particelle visivamente identificate al microscopio vengono poi, in seguito ad una caratterizzazione chimica, identificate come falsi positivi (Hidalgo-Ruz et al., 2012, Hanvey et al., 2017).

Tra le tecniche consigliate per la corretta identificazione di materie plastiche vi sono spettroscopia Raman o FTIR, o pirolisi-GC / MS (Löder et al., 2015).

Come già accennato precedentemente, l’articolo pubblicato sul “the guardian”, manca dei riferimenti metodologici utilizzati dai ricercatori per eseguire l’analisi delle microplastiche seguendo un approccio scientifico rigoroso che, in questa fase ancora embrionale della ricerca, risulta indispensabile al fine di avere risultati attendibili. Inoltre ciò che desta maggiore scetticismo è che i risultati presentati dai colleghi siano stati divulgati, a livello mondiale, prima ancora della pubblicazione ufficiale di un articolo scientifico su una rivista accreditata.

 

Come ultimo aspetto da approfondire, prima di diffondere allarmismi su scala globale, particolarmente importante è ampliare la conoscenza di quelli che sono gli impatti delle microplastiche sull’ambiente e sulla salute.

Ad oggi non sono ancora state definite “concentrazioni prevedibili senza effetti (PNEC)” e “concentrazioni ambientali previste (PEC)” per le microplastiche presenti nell’ambiente e, non esistono nemmeno approcci alternativi per la valutazione del rischio delle materie plastiche.

Ciò che sappiamo al momento è che una serie di studi ha messo in luce la possibile ingestione di microplastiche da parte di pesci e molluschi in ​​condizioni naturali, sollevando diverse preoccupazioni; si pensa che le particelle possano provocare una risposta biologica attraverso meccanismi fisici e chimici. In primo luogo, sono stati riscontrati danni fisici come abrasioni interne e blocchi ed è stato dimostrato che le microplastiche possono causare lesioni che portano alla necrosi cellulare, all’infiammazione e a lacerazioni dei tessuti nei tratti gastrointestinali di alcuni organismi acquatici. In secondo luogo, l’elevata persistenza e galleggiabilità della plastica la rende un vettore ideale per il trasporto di specie aliene e per il potenziale rischio di dispersione di agenti patogeni per lunghe distanze. La colonizzazione da specie invasive è considerata come una delle più grandi minacce alla biodiversità globale. In terzo luogo, le microplastiche potrebbero essere considerate come possibili micro assorbitori di contaminanti organici (alteratori endocrini, POP) e metalli in tracce in grado di aumentarne la biodisponibilità negli organismi e di fungere da trasportatori in sistemi acquatici ed a lungo raggio in aree remote. Tuttavia, non è stato dimostrato in modo convincente che ciò avviene in condizioni naturali (Hermsen et al., 2017). In questa fase della ricerca quello di cui siamo certi è che le plastiche sono ubiquitarie, si frammentano in microplastiche e, probabilmente, la loro dispersione nell’ambiente è destinata ad aumentare; ciò di cui non siamo a conoscenza è la tossicità e le conseguenze a livello ecologico delle microplastiche in quanto non è ancora stata fatta una valutazione del rischio.

Houston, abbiamo un problema?

 

Bibliografia 

Carr S.A., Liu J., Tesoro A.G., 2016. Transport and fate of microplastic particles in wastewater treatment plants. Water Res. 91, 174 e 182.

Dekiff J.H., Remy D., Klasmeier J., Fries E., 2014. Occurrence and spatial distribution of microplastics in sediments from Norderney. Environmental Pollution 186 (2014) 248e256.

Löder, M. G. J. & Gerdts, G., 2015. Methodology used for the detection and identification of microplastics – A critical appraisal in Marine Anthropogenic Litter (eds Bergmann, M. et al.) Ch. 8, 201–227 (Springer, 2015).

Murphy, F., Ewins, C., Carbonnier, F., Quinn, B., 2016. Wastewater treatment works (WwTW) as a source of microplastics in the aquatic environment. Environ. Sci. Technol. 50, 5800e5808.

Hanvey J. S., Lewis P.J., Lavers J.L., Crosbie N.D., Pozo K., Clarke B.O. 2017. A review of analytical techniques for quantifying microplastics in sediments. Anal. Methods 9, 1369.

Hermsen E., Pompe R., Besseling E., Koelmans A.A. 2017. Detection of low numbers of microplastics in North Sea fish using strict quality assurance criteria. Marine Pollution Bullettin, http://dx.doi.org/10.1016/j.marpolbul.2017.06.051.

Hidalgo-Ruz V, Gutow L, Thompson RC, Thiel M. 2012. Microplastics in the marine environment: a review of the methods used for identification and quantification. Environ Sci Technol. 46:3060 − 3075.

Mintenig S.M., Int-Veen I., Löder M.G.J., Primpke S., Gerdts G., 2016. Identification of microplastic in effluents of waste water treatment plants using focal plane array-based micro-Fourier-transform infrared imaging. Water Research, http://dx.doi.org/10.1016/j.waters.2016.11.015

*Claudia Campanale è laureata in biologia presso UniBa con il massimo dei voti, sta svolgendo un dottorato in Chimica  con un tutor di eccezione, Angela Agostiano e proprio sul tema del campionamento, estrazione, quantificazione e caratterizzazione di microplastiche presenti in acque interne superficiali; ha  fatto esperienza in Italia e Germania sui temi dell’inquinamento ambientale, della sua caratterizzazione e della sua eliminazione.

Il tallio, i piccioni e i giornali.

In evidenza

Claudio Della Volpe

In questi giorni circola sui giornali una notizia su una famiglia di Desio che dopo una vacanza ha scoperto di essersi avvelenata col tallio; due dei componenti, padre e figlia, entrambi anziani sono deceduti e ce ne spiace, ovviamente.

Ma sono qui a scrivere di questo episodio di cronaca sia perchè ha a che fare con la chimica sia (soprattutto) per il modo in cui i giornali grandi e piccoli ne parlano stavolgendone il senso e inventandosi addirittura notizie inesistenti.

(da Wikipedia)

Il Tallio è un elemento del gruppo 13/III, elemento pesante, ma con lo stesso stato ionizzato principale +3 di Boro ed Alluminio; ma come anche gli elementi più pesanti di questo gruppo Gallio e Indio, il Tallio aggiunge uno stato +1. Le dimensioni dello ione +1 sono simili a quelle del Potassio e qua starebbe il busillo del Tallio. Il Tallio è considerato un potentissimo veleno, anche se l’esatto meccanismo rimane ancora sconosciuto; le ipotesi più significative sono le seguenti: alterazione del metabolismo del glutatione, stress ossidativo e alterazione della omeostasi del potassio.

Questi meccanismi sarebbero giustificati dicevo dalla somiglianza delle dimensioni ioniche dello ione Tl+ e dello ione K+.

Come sapete le dimensioni ioniche non sono banali da stimare e dipendono da una serie di fattori complessi, dovendo anzitutto chiarire se ci si riferisce alle dimensioni dello ione nel reticolo cristallino o in soluzione; ma ancora dipendono dal tipo di coordinazione. Evito dunque di prendere dati in giro da lavori sperimentali o programmi di calcolo per “provare”, come è scritto anche su wikipedia, che i raggi sono simili o perfino uguali.

Secondo me si tratta piuttosto di un “comportamento” analogo, che inganna almeno sul breve periodo alcuni dei meccanismi di discriminazione della cellula. Alla fine si tratta di reazioni specifiche che consentono di usare l’uno o l’altro ione; se la somiglianza è sufficiente il Tallio passa la reazione ma viene poi scambiato nei processi successivi dove però la somiglianza è inferiore e di qua parte l’effetto di avvelenamento.

Ci vogliono giorni o perfino settimane perchè le differenze si manifestino e portino a situazioni molto pericolose e mortali; per questo motivo il Tallio viene considerato un veleno perfetto, il veleno dell’avvelenatore, che consentirebbe di uccidere e fuggire senza destare sospetti.

Il sale più comune è il solfato di Tallio, che è anche insapore ed è stato usato come topicida per un certo periodo. Ma è un sale e dunque una sostanza ben poco volatile; perchè faccio notare questo?

Vediamo cosa hanno scritto i giornali:

Il Corriere della Sera del 30 settembre:
http://milano.corriere.it/notizie/cronaca/17_settembre_30/avvelenata-tallio-62enne-coma-colpa-escrementi-piccione-b83b0a50-a5e1-11e7-8477-789085dabc53.shtml

Da venerdì sera i carabinieri di Desio stanno indagando per capire come la famiglia possa aver inalato il tallio. Secondo una prima ipotesi, la sostanza potrebbe essere stata usata per una campagna di disinfestazione dei campi vicino all’abitazione. Ma forse è più probabile che l’avvelenamento sia stato provocato da un’esposizione prolungata a escrementi di piccione, che contengono sostanze altamente tossiche, tra cui il tallio, come confermato da ricerche dell’Oms. L’infestazione di piccioni sarebbe avvenuta nel fienile della casa-vacanza. Le esalazioni delle sostanze contenute negli escrementi, inalate per un tempo prolungato, potrebbero essere state la causa dell’avvelenamento.”

Pensate un pò! Esalazioni di un sale provenienti dagli escrementi di piccione? A parte che se gli escrementi fossero così velenosi i primi a risentirne sarebbero i piccioni, per i quali il Tallio è altrettanto velenoso che per noi. E’ una notizia che è stata poi destituita di ogni fondamento, ma non si sa come l’abbia avuto e da chi questo fondamento. L’OMS avrebbe detto che il tallio è contenuto negli escrementi di piccione?
Giuro che ho cercato come un pazzo ma ho solo trovato lavori vari in cui l’OMS ha usato il contenuto di tallio nel corpo o nelle feci degli animali (fra i quali anche i piccioni) per provare che certi impianti (per esempio i cementifici) inquinano l’ambiente in termini di metalli pesanti; per esempio qui: http://www.townsendletter.com/Jan2016/thallium0116_3.html oppure qui

https://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=3&ved=0ahUKEwiS0ZPl-9PWAhVnIsAKHe0vDygQFgg0MAI&url=http%3A%2F%2Fapps.who.int%2Firis%2Fbitstream%2F10665%2F37931%2F2%2F9241561734_eng.pdf&usg=AOvVaw2VwgH2Pp5qZS-V5DtYc7Bh

Oh la fantasia del Corrierone!

Il Secolo XIX addiritura titola:

http://www.ilsecoloxix.it/p/italia/2017/09/30/ASuGX4hJ-piccioni_escrementi_uccidere.shtml

I piccioni possono uccidere: donna in coma per aver inalato i loro escrementi

In un primo tempo i medici avevano pensato che la causa dell’avvelenamento delle due donne fosse un topicida, che le due donne tenevano evidentemente in casa a Nova Milanese. Il tallio, infatti, è una sostanza contenuta in alcuni topicidi. Analisi più approfondite da parte di carabinieri di Desio, su input della direzione sanitaria, hanno consentito di accertare, però, che le due donne erano state per un periodo prolungato in una casa-vacanze di famiglia, in campagna in provincia di Udine, nel cui fienile stazionano decine e decine di piccioni. I responsabili sanitari hanno riferito che il tallio si trova anche negli escrementi di piccione.”

Un metabolismo piccionesco contente tallio è una invenzione altamente creativa!

Anche perchè il Tallio non è un elemento comune in natura e dunque i poveri piccioni (che a me non stanno molto simpatici, topi con le ali) avrebbero avuto difficoltà a reperirne; ma certo poi avrebbero potuto anche avvelenare tutti i turisti di Piazza San Marco che da anni si respirano polvere di escremento di piccione!

Per uccidere ci vogliono alcuni mg pro chilo e dunque un mezzo grammo assorbito dalla polvere attraverso gli escrementi di piccione? Ma nemmeno se fossero fatti di tallio puro! Oh poveri noi!

Ragionevolmente il tallio può trovarsi in agenti topicidi, ma dovrebbero essere antiquati poichè l’UE lo ha escluso da questo uso proprio per la sua infida natura.

Potrebbe essere presente nell’acqua potabile o esserci stato erroneamente aggiunto attraverso l’uso di prodotti illegali, di cui casomai qualcuno si è liberato; potrebbe essersi trovato sparso su vegetali usati poi per l’alimentazione; le ipotesi ragionevoli non mancano; colpisce però che le prime ad esser fatte siano state quelle impossibili: esalazioni di sali e metabolismo del tallio nei piccioni.

Ancora più sicuro il Gazzettino:

http://www.ilgazzettino.it/nordest/udine/morto_padre_donna_intossicata_da_tallio_varmo_udine-3275907.html

I piccioni si sa sono veramente pericolosi spargitori di tallio!!!! Una scoperta da IGNobel!

Piano piano la verità si farà strada: i piccioni non c’entrano, ne sono sicuro: qualcuno avrà usato o scaricato un topicida o un insetticida in modo improprio avvelenando cibi o acqua; non vedo alternative. Anche la possibilità di una fonte naturale di Tallio appare alquanto difficile; nel mondo esiste una sola miniera di tallio, in Macedonia dove si scava la lorandite; in genere viene estratto come sottoprodotto di altre azioni minerarie oppure come sottoprodotto industriale (dall’arrostimento dellla pirite).

Conclusione: ma i giornali o chi li informa non potrebbero imparare un po’ di chimica prima di comunicare? O quanto meno rivolgersi a chi ne sa di più?

Fatemi chiudere con una quasi battuta; sembra che durante la guerra fredda l’FBI abbia considerato la possibilità (ma poi vi abbia rinunciato) di avvelenare Fidel Castro con il tallio, sparso nelle scarpe; pare che uno degli elementi del piano fosse che il tallio avrebbe potuto far cadere i peli della barba di Fidel, un effetto collaterale; ma dato che questo effetto arriva solo dopo un lungo avvelenamento il vantaggio mediatico non era poi così notevole per lottare contro i barbudos.

Ecco questa probabilmente è una bufala, ma date quelle di chimica che ci propinano i giornali, sono sicuro che nessuno me ne vorrà male.

Distretti tematici, chimica e beni culturali.

In evidenza

Luigi Campanella, già Presidente SCI.

Alcune Regioni Italiane al fine di organizzare la propria attività stanno istituendo Distretti tematici (DTC). Fra i temi più gettonati – e non deve sorprendere: siamo in Italia – quello dei Beni Culturali. La creazione di un DTC Regionale impegna le strutture scientifiche, formative, culturali a dare il proprio contributo, ciascuna ovviamente correlandosi alle proprie professionalità, competenze, conoscenze, capacità tecniche, acquisite in lunghi anni e trasferite di generazione in generazione insieme all’adeguamento che deriva dalla continua innovazione.

La Chimica in questa prospettiva deve assicurare il contributo della propria cultura che risponde all’esigenza, ma anche alla evidenza, della dimostrazione che la Chimica é da sempre considerata fra le discipline scientifiche la più vicina ai Beni Culturali, assumendo questa affermazione un significato ancor piu importante se si pensa che si riferisce in questo caso ad un’istanza territoriale per la quale le ricchezze culturali non possono non collegarsi a turismo, economia, prestigio internazionale.

Nel passato il legame stretto fra Chimica e Beni Culturali era sostanzialmente affidato al ruolo protettivo e conservativo della Chimica, anche però considerata in questa funzione causa della produzione di alterazioni negli originali, fino a parlare di falsi voluti e di reversibilità di restauro.

Oggi sembra quasi che i Beni Culturali vogliano ricompensare la disciplina aprendo ad essa nuovi campi di attività, di economia, di mercato anche in chiave europea.

La Chimica Europea schiacciata fra i bassi costi dell’energia del Medio Oriente ed i bassi costi della mano d’opera dell’Estremo Oriente si deve affidare per il suo sviluppo alla risorsa tecnologica che forse sola con il Nord America può mettere in campo con esclusività rispetto alle suddette zone geografiche favorite da gestione a risparmio.

La chimica in questo ultimo trentennio ha vissuto anche una propria trasformazione derivante dalla riscoperta di alcuni valori, espressione di un moderno Rinascimento chimico, quali la salute, la sicurezza, l’ambiente, la dignità umana. Questa trasformazione ha prodotto quella che oggi viene invocata come Chimica Sostenibile (Green Chemistry: i due termini vengono confusi, anche se in effetti la Green Chemistry è più finalizzata alle innovazioni che comportano maggiore protezione dell’ambiente, meno rifiuti, più circolarità economica piuttosto che alla esaltazione del rispetto fra le diverse generazioni e dell’equilibrio fra le diseguaglianze sociali  e civili dei Paesi ).

La Chimica Sostenibile (C.S.), proprio perchè correlata alla Green Chemistry ha trovato i suoi campi di intervento e sviluppo nell’ambiente, nella salute, anche nell’alimentazione in quanto ad essi collegata.

Oggi proprio per cercare di superare le due strette di cui si è detto la C.S.può divenire strategica a patto però di trovare nuove opportunità di applicazione. I Beni Culturali lo sono certamente: l’innovazione di prodotto e di processo della C.S. risponde a tale logica. Si tratta di trasferire tecnologie nate in ambito diverso (elettrochimica, reazioni in situ, materiali compositi) adattandole ai Beni Culturali, nel rispetto quindi della preziosità delle matrici studiate e si tratta di estendere ai Beni Culturali le applicazioni di nuovi prodotti, solventi, detergenti, consolidanti nati per altre finalità.

I Dipartimenti di Chimica delle nostre università da tempo sono impegnati in queste direzioni valorizzando il ruolo protettivo delle sostanze naturali, svilupppando strumentazioni di controllo ad elevato tasso di innovazione tecnologica, mettendo a punto tecnologie di restauro più efficaci, più stabili, più sicure contribuendo così quindi anche ad abbattere un ulteriore fenomeno che il DTC dovrà affrontare e che riguarda la salute degli operatori e lo svilupparsi fra di essi di malattie professionali sempre più frequenti. In molti casi innovazione di prodotto e di processo vuole anche dire economia e protezione della salute e dell’ambiente

 

Macchine molecolari attraversano membrane cellulari

In evidenza

Rinaldo Cervellati (con un commento di Vincenzo Balzani)

Opportuni dispositivi o “macchine” molecolari ruotando attraverso le membrane cellulari potrebbero veicolare farmaci e distruggere le cellule cancerose

Sono titolo e sottotitolo di una recente notizia riportata da Bethany Halford sul n. 35 di Chemistry & Engineering newsletter on line il 30 agosto scorso. Premesso che per macchina molecolare, o nanomacchina, si intende un insieme di molecole legate fra loro (supramolecola) in grado di eseguire movimenti simili a quelli meccanici in risposta a specifici stimoli luminosi o elettrici, Halford riporta i risultati di una recente ricerca compiuta da un gruppo coordinato dal prof. James M. Tour, direttore del Center for Nanoscale Science and Technology della Rice University a Houston. (V.Garcià-Lopez et al., Molecular machines open cell membranes, Nature, 2017, DOI: 10.1038/nature23657)

James M. Tour

Quando stimolato dalla luce ultravioletta, un opportuno motore molecolare può ruotare nel suo percorso entro le cellule causando aperture attraverso le quali potrebbero scivolare i terapeutici o potrebbero essere sufficienti per distruggere l’integrità della cellula tumorale, sostengono gli autori della ricerca.

La ricerca di Tour è da tempo focalizzata sulla creazione di macchine molecolari con queste caratteristiche. Quando illustro le nostre ricerche, spesso le persone mi chiedono se le macchine molecolari potranno un giorno essere usate per curare i tumori, dice Tour.

Tali domande si sono moltiplicate dopo l’assegnazione del Premio Nobel per la Chimica lo scorso anno [1].

Poiché le macchine molecolari sono molto più piccole delle strutture biologiche, come le cellule, Tour inizialmente non pensava che potessero avere un uso pratico in medicina. Ma poi, dice, mi sono reso conto che circondare una cellula con macchine molecolari con una parte potenzialmente rotante poteva dare risultati interessanti.

Così ho interessato Robert Pal della Durham University, Gufeng Wang della North Carolina State University e Jacob T. Robinson di Rice a esplorare questa idea (tutti coautori dell’articolo su Nature)

Il gruppo di Tour ha costruito diverse molecole con il seguente schema:

La luce UV isomerizza il doppio legame in questa supramolecola, rendendo il gruppo rotore libero di ruotare.

Alcune supramolecole costruite hanno catene peptidiche (R) che si associano a proteine ​​specifiche sulla superficie di alcune cellule. Nelle prove su cellule tumorali della prostata umana, il gruppo ha scoperto che queste macchine potrebbero saltare sulle cellule e, dopo l’esposizione a luce UV, distruggerle in meno di tre minuti.

Ma succede solo quando si espongono alla luce“, afferma Tour. Ciò significa che se le macchine saltano su cellule sane senza essere irradiate le aperture rimarranno inattive lasciandole inalterate.

La prossima sfida che i ricercatori affronteranno, continua Tour, sarà quella di ottenere la stessa azione nanomeccanica mediante irradiazione visibile o nel vicino infrarosso, raggi che penetrano più profondamente nel tessuto, in modo che le molecole del motore possano essere ampiamente utilizzate negli animali e nelle persone.

A tal fine, Tour dice che il gruppo sta già lavorando allo sviluppo di motori che ruotano in risposta alla luce visibile e alla radiazione a raggi infrarossi a due fotoni.

[1] P. Greco, http://www.scienzainrete.it/contenuto/articolo/pietro-greco/balzani-pioniere-delle-macchine-molecolari-premiate-stoccolma

Commento di Vincenzo Balzani

La rottura del doppio legame C=C in seguito ad eccitazione fotonica è una delle più conosciute reazioni fotochimiche. Usualmente viene utilizzata per convertire isomeri trans nei corrispondenti isomeri cis, che poi termicamente tornano alla più stabile forma trans. La foto isomerizzazione avviene perché lo stato eccitato ha un minimo di energia per angoli di rotazione attorno ai 90°, dove lo stato fondamentale ha un massimo. Ben Feringa, premio Nobel per la Chimica 2016, ha utilizzato da molto tempo composti di questo tipo per sviluppare una serie di motori rotanti unidirezionali (Figura 1) [1]:

Figura 1. Motore rotante molecolare azionato dalla luce [1].

James Tour aveva poi tentato di utilizzare con scarso successo fotoisomerizzazioni di questo tipo per costruire il prototipo di una nano macchina azionata dalla luce [2]:

Figura 2. Nanomacchina potenzialmente azionata dalla luce [2].

Un altro tipo di macchina molecolare potenzialmente utile in medicina è la nano valvola illustrata nella Figura 3, azionata da impulsi redox [3]:

Figura 3. Nano valvola azionata da una reazione redox

Tornando ai composti con doppio legame C=C, l’eccitazione fotonica in genere causa solo una rotazione di 180° attorno al doppio legame (non è che si crea un rotore libero). Quindi per avere un effetto distruttivo su una cellula credo si tratterebbe di provocare tante successive foto isomerizzazioni della “macchina”, che potrebbe “rompersi” a causa di reazioni secondarie. Bisogna anche tener conto che usando luce UV si possono direttamente distruggere cellule anche senza l’azione di “macchine” fotosensibili; penso che gli autori abbiano tenuto conto di questo. Utilizzare luce visibile o infrarossa credo sia complicato perché il doppio legame in tal caso dovrebbe essere molto delocalizzato sul resto della molecola e la barriera di isomerizzazione sarebbe allora molto bassa, accessibile termicamente. Poi c’è il problema tutt’altro che semplice, in vivo, di irradiare le “macchine” che sono vicine alle cellule malate e non a quelle sane.

In conclusione, le macchine molecolari artificiali [4] potranno certamente essere utili per applicazioni mediche, ma c’è ancora molta strada da fare.

  1. Koumura, N., Zijlstra, R.W.J., van Delden, R.A., Harada, N. and Feringa,B.L. (1999) Nature, 401, 152.
  2. Morin, J.-F., Shirai, Y. and Tour, J.M. (2006) Organic Letters, 8, 1713.
  3. Saha, S., Leug, K.C.-F., Nguyen, T.D., Stoddart, J.F. and Zink, J.I. (2007) Advanced Functional Materials, 17, 685.
  4. Balzani, V., Credi, A., Venturi, M. (2008) Molecular Devices and Machines, Concepts and Perspectives for the Nanoworld, Second Edition, Wiley-VCH, Weinheim.

 

Great Salt Lake, un grande laboratorio naturale.

In evidenza

Claudio Della Volpe

Pochi giorni fa AstroPaolo, ossia Paolo Nespoli, attualmente sulla Stazione Spaziale, ha fotografato il Grande Lago salato, nello Utah, NO degli Stati Uniti e si è chiesto da dove nascesse la strana differenza di colore che si nota dal satellite e che vedete riprodotta qui sotto. ”Il Great Salt Lake nello Utah, le cui acque sono più salate del mare! Qualcuno sa indovinare cosa sia la linea nel mezzo?” ha scritto AstroPaolo.

(Foto dall’ISS 2003, quando il lago a seguito di una serie di stagioni secche ha raggiunto le dimensioni minori in epoca storica, Nord in alto è più rosso, Sud in basso più verde)

Poi ha trovato la risposta che riporto qua da La Repubblica:
”Dagli anni ’50 le acque sono divise da una ferrovia! I due colori sono dovuti alle diverse alghe e batteri che abitano le due metà del lago”.

Ma è proprio così? Una foto ravicinata mostra meglio la situazione:

Questo lago è veramente speciale e costituisce a mio parere un grande laboratorio naturale sulla chimica fisica, la biologia e la meteorologia innescate dal comportamento delle soluzioni saline.Cominciamo col dire che la striscia al centro del lago non è semplicemente una ferrovia, ma una strada sopraelevata sulla quale corre una ferrovia, la Lucin Cutoff; una strada sopraelevata dunque fondamentalmente una barriera di terra che separa le parti nord e sud del lago. Essa divide il lago in tre parti, come si vede da questa mappa, anche se una delle tre divisioni è meno vistosa. E in certi momenti anche in quattro zone come apprezzate dalla mappa più avanti.Questa barriera di terra ha costituito una divisione semipermanente fra le due parti del lago anche se di recente (dicembre 2016) si è definitivamente accettato che ci fosse un punto di connessione fra le due metà, qui rappresentato (il Sud è in alto in questa foto):Il Grande Lago Salato (GLS) è il residuo di un lago glaciale, denominato Lago Bonneville, la cui area era 10 volte maggiore e che 16800 anni fa si scaricò in Idaho; al momento GLS è comunque un lago di notevoli dimensioni, poichè è lungo 120 km e largo 45; questo in media, poichè esso è un lago particolare, privo di emissari e dunque soggetto a forti variazioni di livello e di superficie; l’acqua arriva nella zona Sud da parte di tre affluenti e viene persa solo per evaporazione; data la separazione (separazione parziale poichè anche in passato c’erano due punti di giunzione) la parte Sud viene diluita da parte dell’acqua in arrivo e si presenta meno salata della parte Nord, la baia di Gunnison; questa diversa concentrazione salina comporta una differente crescita algale e questa componente biologica dà al lago la diversa colorazione visibile dall’alto. Al momento dell’apertura della connessione mostrata in figura (che al momento è l’unica fra le due zone) la differenza di altezza era di quasi un metro, ma si è ridotta in questi mesi del 2017. La profondità del lago è di qualche metro.

Il GLS presenta una salinità molto più alta di quella oceanica, il bacino principale quello Sud, la Gilbert Bay, varia dal 5 al 27% a seconda delle precipitazioni. In paragone la salinità media dell’oceano è del 3.5% mentre è del 33.7% quella del Mar Morto in Medio oriente. La composizione ionica è simile a quella oceanica ma arricchita di potassio e impoverita di calcio.Nella zona Nord dove la concentrazione salina è maggiore sono situati alcuni impianti per l’estrazione di sali che producono: cloruro di sodio, solfato di potassio e cloruro di magnesio; dal sale di magnesio si produce magnesio metallico in una quantità pari ad un settimo della produzione mondiale totale.

Le specie animali che possono tollerare una salinità così alta sono sostanzialmente tre: i crostacei come Artemia franciscana, le mosche del sale, e gli uccelli che se ne nutrono; su alcune delle isole sono stati reintrodotti i bisonti che una volta dominavano tutta la zona prima che stupidi uomini con il cappello e il fucile li distruggessero. Tutte queste alla fine basano la propria esistenza sulle alghe.

Le alghe rosse, Dunaliella salina, il cui colore rosso dipende dall’accumulo nei loro tilacoidi di β-carotene e la specie batterica Halobacterium dominano la parte Nord più salata, mentre quelle verdi come Dunaliella viridis dominano la parte Sud più diluita.

Dunaliella salina e il b-carotene.

Gli halobacteria presenti nel GLS possiedono la rodopsina nella loro membrana, una proteina capace di produrre ATP in assenza di ossigeno e in presenza di luce. La rodopsina o batteriorodopsina è una proteina che dà ai batteri un colore rossastro. Alla fine della loro stagione di crescita quando la concentrazione dei batteri è al massimo l’acqua assume una tinta fortemente rossastra. La rodopsina è anche una proteina di membrana con 7 domini transmembrana a α-elica, che si trova nelle cellule a bastoncello della retina umana che permettono la vista in bianco e nero. Del confronto fra le due rodopsine trovate trattazione in un articolo di qualche anno fa su Le Scienze.

Un altro aspetto che è legato alla chimica è il comportamento meteorologico molto particolare; la concentrazione salina influenza molto la tensione di vapore del lago e comunque impedisce ad esso di congelare, attraverso il meccanismo dell’abbassamento crioscopico. Una delle conseguenze di questa situazione è il cosiddetto effetto Grande lago salato che ha una certa specificità anche rispetto a comportamenti analoghi del mare o di altri laghi meno salati.

Le forti precipitazioni tipiche del Great Salt Lake si verificano quando un vento che proviene da NO soffia attraverso un lago relativamente più caldo. Questa situazione è comune dopo il passaggio di un fronte freddo, dove i venti siano prevalentemente da NO e l’aria parecchio più fredda del lago.

Quando il vento arriva sul lago si forma una zona di convergenza che si rafforza sul centro del lago ed incrementa la precipitazione.La salinità del GLS impedisce il congelamento, anche se riduce la tensione di vapore saturo e il flusso di calore latente nell’aria sul lago.

Come risultato l’aggiunta di umidità e di calore al flusso di aria è più basso, ma in assenza di congelamento e dunque l’azione è attiva anche a temperature più basse, durante quella parte dell’anno in cui altri laghi sono gelati. Infine i rilievi montagnosi delle Wasatch mountains rinforzano il fenomeno producendo enormi nevicate molto intense, specie nella vallate a sud-est.I colori della Terra sono i colori della vita, la reazione chimica meglio riuscita!

Per approfondire:

http://hydrology.usu.edu/dtarb/ibrahim_thesis.pdf

https://en.wikipedia.org/wiki/Lake-effect_snow

https://wildlife.utah.gov/gsl/index.php

http://journals.ametsoc.org/doi/pdf/10.1175/1520-0434%281993%29008<0181:TLEOTG>2.0.CO%3B2

https://ral.ucar.edu/projects/armyrange/references/forecastconf_06/11_lakeEffect.pdf

Post, F.J., 1977a, Microbiology of the Great Salt Lake north arm, Hydrobiologia 81, 59-69. Post, F.J., 1977b, The Microbial Ecology of the Great Salt Lake, Microbial Ecology 3, 143-165

Johannes Rydberg e la tavola periodica

In evidenza

Rinaldo Cervellati

Nel mio precedente post sulla tavola periodica dimenticata di W. Rodebush, ho fatto torto a Johannes Rydberg, fisico svedese, relegandone la figura in una breve nota. Il lavoro di Rydberg non si è limitato infatti alla proposta di una forma, anzi di due possibili forme della tavola, sulla base della sua più importante scoperta sulla regolarità delle sequenze di righe negli spettri atomici di emissione degli elementi, ma ha dato notevoli contributi allo sviluppo della tavola con geniali intuizioni, tanto da meritarsi un capitolo in una raccolta di scritti di Wolfgang Pauli [1]. Lo scritto di Pauli inizia infatti così:

Non è noto come dovrebbe esserlo, che le ricerche di Rydberg sulle righe spettrali abbia avuto origine nel suo interesse per il sistema periodico degli elementi, un interesse che lo accompagnò per tutta la sua vita.[1, p. 73]

Fig. 1 Johannes Robert Rydberg

Johannes (Janne in colloquiale svedese) Robert Rydberg, nato nel 1894 a Halmstad (sud della Svezia), ottenne il Ph.D. in matematica nel 1879 all’università di Lund. Nel 1880 conseguì la docenza in matematica e due anni dopo quella in fisica. In questi anni iniziò a studiare il problema dello standard per i pesi atomici perché si chiedeva quale fosse la ragione dell’aumento apparentemente casuale del peso degli atomi nel sistema periodico di Mendeleev. Cercava invano una formula che giustificasse questo andamento caotico.

Nel 1885, J.J Balmer[1] presentò una equazione che interpretava lo spettro nel visibile dell’atomo di idrogeno, Rydberg quindi passò a studiare gli spettri atomici degli elementi e fra il 1887 e il 1890 trovò che considerando il numero d’onda (cioè il numero di onde per unità di lunghezza che equivale alla lunghezza d’onda) si semplificavano notevolmente i calcoli e ottenne infine una equazione valida per tutte le serie di righe spettrali di tutti gli elementi [2].

Fig. 2 Parte della formula di Rydberg in originale

L’equazione di Balmer diventava quindi un caso particolare della formula di Rydberg[2].

Nella sua memoria del 1890 Rydberg scrive:

Con la scoperta di Mendeleev della tavola periodica degli elementi, è sorto un nuovo punto di partenza di grande importanza per tutto il lavoro che presento qui… ho concluso che la periodicità di un gran numero di coefficienti fisici deve dipendere dal fatto che la forza che agisce tra due atomi dello stesso o di elementi diversi è una funzione periodica del peso atomico. [2], cit in [3]

Poi egli afferma che:

… il problema della costituzione degli spettri luminosi è ancora irrisolto e la maggior parte dei tentativi che sono stati fatti per confrontare e calcolare gli spettri degli elementi lo sono sono stati in modo da gettare discredito su questo lavoro e per esagerare le difficoltà che i loro autori hanno trovato e non sono stati in grado di superare. [2], cit in [3]

Fornisce quindi una formula basata su vari costanti e osserva che:

… le lunghezze d’onda e i numeri d’onda delle linee corrispondenti, così come i valori delle tre costanti della corrispondente serie di elementi diversi, sono funzioni periodiche del peso atomico. Quindi, se sono noti gli spettri di due elementi [non contigui] nella tabella periodica, lo spettro dell’elemento tra di essi può essere calcolato per interpolazione. [2], cit in [3]

Ecco un risultato molto importante, attraverso la formula di Rydberg è possibile prevedere, con discreta approssimazione, lo spettro di emissione degli elementi lasciati vacanti in una casella noti gli spettri di due elementi vicini alla casella vuota. Un mezzo potente, tenendo presente che ai tempi di Mendeleev soltanto due terzi degli elementi erano noti.

Pauli annota:

Credo che bisogna ammettere che le congetture di Rydberg sembravano talvolta piuttosto stravaganti, ma d’altra parte si basavano sempre su osservazioni empiriche.[1, p.74]

Fig. 3 Wolfgang Pauli

A conferma di ciò Pauli cita un lavoro di Rydberg [4] del 1897 in cui l’autore afferma che:

Nelle indagini sul sistema periodico gli ordinali (Ordnungszahlen) degli elementi dovrebbero essere utilizzati come variabili indipendenti invece del peso atomico. [4] cit in [1]

A quel tempo l’idea era semplicemente inaccettabile. Ma Rydberg non basava la sua congettura solo sul fatto che il numero d’ordine nella tavola fosse un intero, egli nello stesso articolo riporta una regola semplice e interessante per la relazione fra il numero di massa A e il numero ordinale [numero atomico] Z. La regola è:

Se Z è dispari (valenza chimica dispari), A = 2Z + 1; se Z è pari, A = 2Z[3].[4] cit in [1]

Pauli scrive:

Rydberg era consapevole che l’azoto (Z = 7, M = 14) è un’eccezione, ma è vero che a parte ciò questa regola regge fino a circa il Calcio. Rydberg si è fidato di questa regola assumendo caselle vuote, spostando così i numeri atomici a valori più alti, fino a che la regola non si adattava. In questo modo egli ha la tendenza ad ammettere troppi buchi nel sistema periodico e valori troppo elevati per i numeri atomici. [1, p. 74]

Nel 1897 Rydberg assunse temporaneamente le funzioni di professore di fisica, rimanendo tuttavia un assistente docente. Nello stesso anno concorse alla cattedra di fisica, rimasta vacante, dell’università di Lund. Al concorso parteciparono sei persone. Alla fine fu deciso per Albert Victor Bäcklund, nonostante i membri della commissione giudicatrice lo avessero preliminarmente scartato[4]. Dopo la sua nomina, Bäcklund cercò di promuovere Rydberg a professore. Non è chiaro se Bäcklund stava tentando di correggere un torto o se avesse voluto un aiuto per rendere più leggero il suo carico di insegnamento [3]. Comunque, nel marzo 1901 Rydberg fu nominato professore straordinario, diventando ordinario solo nel gennaio 1909. Da quel momento fino al raggiungimento dell’età pensionabile, nel 1915, ha tenuto la cattedra di fisica a Lund.

Nel 1906 Rydberg fece un ulteriore passo in avanti nelle sue ricerche sul sistema periodico, riconoscendo per primo che i tre numeri 2, 8, 18 per gli elementi nei periodi sono rappresentati da 2×12, 2×22, 2×32 [5]. Vi era ancora qualche incertezza sul numero delle terre rare che Rydberg pensava fossero 36 mentre sono 32, alcuni numeri atomici erano ancora troppo alti ma non in così grande misura come nei lavori precedenti.

In una successiva ampia monografia del 1913 [6] Rydberg fa un altro passo avanti. Dopo aver riportato le scomposizioni del paragrafo prededente, scrive:

la continuazione sarebbe 2×42 = 32; 2×52 = 50 ecc.[6, §3]

Dice Pauli:

Questa è la famosa formula 2p2 (p intero) che Sommerfeld ha chiamato “cabbalistic” nel suo libro “Atombau und Spektrallinien” e che mi ha colpito molto quando ero studente. Certamente ora [Rydberg] è consapevole che il Gruppo G4 (p = 4, terre rare) consiste di 32, non di 36 elementi.[1]

Continua Pauli:

C’è un’importante differenza fra l’interpretazione di Rydberg del 1913 e quella odierna. Egli chiamò i numeri 2p2, che determinano la distanza tra due gas nobili, “un mezzo gruppo” e il suo doppio 4×12, 4×22 … 4×p2 “un intero gruppo”. È stato portato a questa interpretazione dal fatto che i periodi 8 e 18 si verificano due volte nel sistema periodico. E si convinse che lo stesso doveva valere per il primo gruppo che corrisponde a p = 1, che credeva consistere di quattro, non di due elementi. Il valore 4 per il numero atomico di He gli sembrava supportato da linee spettrali nelle nebulose e nella corona delle comete, che egli attribuì a due nuovi elementi ipotetici che lui chiamò nebulium e coronium[5].[1]

Tutto ciò si può vedere in Figura 4, tratta dall’articolo originale di Rydberg [6] del 1913, che mostra la sua rappresentazione “a spirale” della tavola periodica[6]: i gruppi “metà” e “intero” corrispondono qui al susseguirsi delle porzioni di 180° e 360° della spirale. I “buchi” nel sistema sono ora quasi completamente riempiti, in modo che i numeri atomici di Rydberg differiscono da quelli veri solo per la differenza costante di due, causata dall’assunzione dei due elementi nebulium e coronium tra H e He.

La tavola periodica a spirale di Rydberg [6]

Poco tempo dopo, grazie alle ricerche del chimico britannico Henry Moseley (1887-1915) fu chiaro che il principio della periodicità sta nella carica del nucleo e non nella massa degli atomi [7].

Rydberg, venuto a conoscenza dei lavori di Moseley, fu contento della conferma della sua idea del 1897 sull’importanza del numero atomico e sui dettagli della rappresentazione del sistema periodico. Tuttavia, in un articolo sui lavori di Moseley, egli ribadì l’ipotesi di due nuovi elementi tra H e He e di conseguenza la differenza costante di due fra i numeri atomici [8].

Dopo il 1914 Rydberg non pubblicò più nulla, causa il suo stato di salute. Infatti, due anni dopo la nomina alla cattedra di Fisica, venne colpito da ictus e sebbene si fosse ripreso abbastanza bene da tornare al lavoro, cominciò a soffrire di disturbi cardiovascolari. La sua salute continuò a deteriorarsi fino a che, nel 1914 decise di prendere un congedo per malattia. Lo sostituì il suo assistente Manne Siegbahn[7] (1886-1978) fino al 1919, anno in cui Rydberg fu congedato dall’università per raggiunti limiti di età (65 anni). Morì nel 1919 in seguito a un’emorragia cerebrale [3].

Sebbene sia stato candidato non gli fu assegnato il premio Nobel per la fisica del 1917 che quell’anno non fu aggiudicato. Fu candidato anche nel 1920, ma la sua prematura scomparsa lo rese inammissibile. Ancora più sorprendente è che egli non fu eletto alla Royal Swedish Academy of Sciences. Tuttavia, poco prima della sua morte, fu eletto membro della Royal Society of London. Certamente Rydberg ha ottenuto più fama dopo la morte che durante la vita. Nel 1954 l’Università di Lund organizzò una conferenza per celebrare il 100° anniversario della sua nascita, alla quale parteciparono anche Niels Bohr e Wofgang Pauli, con contributi originali [9, 1 rispettivamente] Anche a Rydberg sono stati dedicati un cratere della Luna e un asteroide.

Chi desiderasse saperne di più sulla persona e sulla costante di Rydberg può consultare il riferimento [10].

Infine, desidero ringraziare il nostro blogger, Claudio Della Volpe, che mi ha suggerito questo post fornendomi parte del materiale bibliografico sotto riportato.

Bibliografia

[1] W. Pauli, Rydberg and the Periodic System of the Elements, in: W. Pauli, Writings on Physics and Philosophy (C. P. Enz and K. von Meyenn Eds.) Translated by R. Schlapp, Springer-Verlag Berlin Heidelberg New York, 1994, Cap. 7, pp. 73-77. Il capitolo è scaricabile al link: http://cds.cern.ch/record/265825/files/CERN.pdf?version=1422

[2] J.R. Rydberg, Recherches sur la constitution des spectres d’emission des elements chimiques, Kungl. Svenska Vetenskapsakademiens Handlingar, VoI.23, Nr. 11, Stockholm 1890, pp 155.

[3] J.J. O’Connor, E.F. Roberts, Johannes Robert Rydberg, http://www-history.mcs.st-andrews.ac.uk/Biographies/Rydberg.html

[4] J.R. Rydberg, Studien über Atomgewichtszahlen, Z. Anorg. Chem., 1897, 14, 66-102.

[5] J.R. Rydberg: Elektron, der erste Grundstoff, Gleerupska; Lund, 1906, p.11 (cit in [1])

[6] J.R. Rydberg, Untersuchungen über das Systemder Grundstoffe, Lunds Univ. Arsskrift, Bd. 9, No. 18, (1913), cit in [1]. In francese: Recherches sur le systeme des elements, J. Chim. Phys., 1914, 12, 585-639.

[7] a)H.G.J. Moseley, XCCIII.The high-frequency spectra of the elements., Phil. Mag., 1913, 26, 1024-1034. b)H.G.J. Moseley, LXXX. The high-frequency spectra of the elements. Part II, Phil. Mag., 1914, 27, 703-713.

[8] J.R. Rydberg, The ordinals of the elements and the high frequency spectra, Phil. Mag., 1914, 28,144-149.

[9] N. Bohr, Rydberg’s discovery of the spectral laws, in: Proceedings of the Rydberg Centennial Conference on Atomic SpectroscopyActa Universitatis lundensis,  1954, 50, 15-21.

[10] Sister St John Nepomucene, Rydberg : The Man and the Constant, Chymia, 1960, 6, 127-145.

 

[1] Johann Jakob Balmer (1825 –1898), matematico e fisico-matematico svizzero è ricordato soprattutto per l’equazione empirica che rappresenta lo spettro di emissione dell’idrogeno nel visibile, che ottenne all’età di sessant’anni. La serie di righe nel visibile è nota come serie di Balmer, in suo onore è stato chiamato Balmer anche un cratere della Luna e un asteroide.

[2] J.J. O’Connor, E.F. Roberts, due fra i biografi di Rydberg scrivono che egli pubblicò una nota preliminare intitolata On the Structure of the Line Spectra of Chemical Elements. Preliminary Notice. poi pubblicata nel 1890, in cui l’autore afferma che la sua ricerca ha riguardato solo gli elementi dei gruppi I, II e III della tavola periodica. Questa nota si trova in: Phil. Mag., 1890, 29, 331-337.

[3] Oggi sappiamo che la regola riguarda la massa dell’isotopo più frequente dell’atomo di numero atomico Z.

[4] La storia di questo concorso, i giudizi dei commissari e il perché della quantomeno bizzarra decisione finale sono riportate da O’Connor e Roberts [3]. Vi si può accedere direttamente al link: http://www-groups.dcs.st-and.ac.uk/history/Extras/Rydberg_application.html

[5] Oggi sappiamo che queste righe spettrali sono dovute agli ioni di elementi noti, il nebulium a ioni di ossigeno e azoto, il coronium a ferro fortemente ionizzato [1].

[6] In Rcherches [6] è presentata anche una versione “rettangolare” della tavola che si può trovare anche in The INTERNET Database of Periodic Tables:

http://www.meta-synthesis.com/webbook//35_pt/pt_database.php

[7] Manne Siegbahn, fu successore di Rydberg alla cattedra di Fisica dell’Università di Lund. Premio Nobel per la Fisica 1924 per le sue scoperte nel campo della spettrometria a raggi X.

Nuove strade per le batterie al litio.

In evidenza

Claudio Della Volpe

(una parte del testo è tradotto “liberamente” dall’articolo citato)

Le batterie ricaricabili con anodi metallici (per esempio di Li, Al, Na) hanno richiamato di recente una grande attenzione perchè promettono di accrescere di 10 volte la capacità anodica rispetto alle odierne batterie al litio.

Il lettore non esperto potrebbe pensare che un limite sia costituito dal solvente: l’acqua reagisce violentemente con il litio o il sodio, ma in realtà questo problema è stato risolto già in passato usando solventi non acquosi come per esempio il CH3CN acetonitrile o il propilencarbonato CH3CHCH2CO3. Questi solventi resistono alla differenza di potenziale indotta dalla reazione principale e dunque possono essere usati con problemi ridotti, anche se la sicurezza ha portato ad una evoluzione che sta privilegiando solventi molto particolari, polimeri come il PEO per esempio.

Tuttavia nonostante questi enormi progressi una barriera importante è costituita dal fatto che durante le fasi di ricarica la elettrodeposizione del metallo è irregolare e porta alla formazione per diffusione di dendriti, strutture allungate, simili ai rami di un albero come dice la parola, che in condizioni opportune (ricariche complete e veloci per esempio) possono crescere da un lato all’altro, in modo da cortocircuitare la batteria.

Come si può evitare questo problema?

Non c’è ancora una soluzione vittoriosa, ma ci sono molti tentativi.

Un ruolo importante nel percorso per l’eliminazione della crescita dendritica è giocato dal calcolo teorico che permette di prevedere gli effetti delle varie strategie prima di fare dei complessi e costosi esperimenti.

Per esempio elettroliti con un modulo meccanico significativo, oppure elettroliti a stato solido, polimeri nanoporosi o materiali ceramici che ospitano il liquido nella porosità, polimeri cross-linkati o gelificati.

Però nonostante questo si è scoperto che si possono anche verificare reazioni indesiderate fra elettrolita in soluzione ed elettrodo metallico.

Teoricamente nelle batterie che usano elettrodi metallici l’eletrolita tende a formare uno strato passivato, ossia un film di materiale che ha reagito e che è anche compatto e limita la reazione ulteriore, la cosiddetta interfase dell’elettrolita solido (SEI).

Qui interviene un altro fenomeno “sottile” tipico delle batterie ricaricabili, che coinvolgano materiali solidi (anche delle vecchie batterie piombo acido): l’elettrodo viene distrutto e ricostruito durante le fasi di carica/scarica; l’elettrodo ha “una storia”, invecchia e questo lo porterà a fine vita dopo un certo nero di cicli (a differenza di ciò che accede nelle batterie in flusso per esempio che hanno elettrodi “liquidi”). Questo processo ciclico degrada il SEI esponendo il metallo nativo all’elettrolita e formando così ulteriori prodotti di reazione.

Anche in questo caso la creatività dei ricercatori si è sbizzarrita nel cercare una soluzione che protegga il film iniziale oppure che impedisca una deposizione irregolare.

Per esempio strati di nanosfere cave di carbonio che formino uno strato protettivo, fibre di polimero prodotte per elettrospinning o ancora strati molto sottili di allumina. Si è anche provato a generare dei film molto sottili di materiali provenienti dalla soluzione elettrolitica: come fluoroetilene carbonato (FEC) oppure sali come LiFSI, LiPF6, LiF, e CsF.

In questo lavoro si è tentata una nuova strada per certi aspetti più semplice.

Creare un rivestimento uniforme per prevenire il contatto con l’elettrolita ma senza eliminare uno scambio ionico veloce.

I colleghi americani hanno pensato di usare l’Indio come strato protettivo. Essi hanno dimostrato prima teoricamente e poi sperimentalmente che questo è possibile; si spera che quanto prima questa o altre strategie possano incrementare di almeno un ordine di grandezza le prestazioni delle batterie ricaricabili; uesto ci consentirebbe di superare una parte essenzizale del gap che rende ancora così indispensabili i combustibili fossili.

Worth H. Rodebush e l’elettronegatività

In evidenza

Rinaldo Cervellati

Per imparare la chimica, si procurarono il corso di Regnault ed appresero dapprima che “i corpi semplici sono forse composti”; si distinguono in metalli e metalloidi, differenza “che non ha nulla di assoluto”, dice l’autore; lo stesso vale per gli acidi e le basi “poiché un corpo può comportarsi come un acido o come una base secondo le circostanze”

  1. Flaubert, Bouvard et Pécuchet, Paris, 1881, Chap. 3

Il motivo per cui alcuni elementi mostrano una maggior tendenza a combinarsi fra loro rispetto ad altri è stato oggetto di primario interesse dei chimici fin dalle origini della scienza chimica. Per esempio Etienne Francois Geoffroy (1672-1731) presentò all’Accademia Francese delle Scienze nel 1718 e nel 1720 la Tabula affinitatum (in francese table des rapports).

Figura 1 Tabula affinitatum

Questa tabella era stata compilata sulla base di osservazioni sperimentali sulle mutue azioni delle sostanze l’una con l’altra, riportando i vari gradi di affinità mostrati da corpi analoghi per diversi reagenti (figura 1). La Tabula fu una guida per i chimici fino alla fine del XVIII inizio XIX secolo, quando fu superata dalle idee di C.L. Berthollet (1748-1822) e H. Davy (1778-1829), che misero in relazione l’affinità rispettivamente con le proprietà acido-base e con le proprietà elettriche rispettivamente.

Oggi si ragiona in termini di elettronegatività, che ci fa venire subito in mente Linus Pauling (1901-1994), colui che propose una scala basata sulle energie di legame nell’ambito della teoria quantomeccanica del legame di valenza [1a,b]. Lo storico della chimica Willam B. Jensen fa notare che in nessuna parte del lavoro di Pauling è riportata la definizione del concetto di elettronegatività. Egli ha proceduto come se esso fosse auto-evidente ai suoi lettori, e a buon diritto visto che di elettronegatività i chimici ne discutevano fin da prima della sua introduzione, dovuta a J.J. Berzelius (1779-1848), circa 125 anni prima di Pauling [2]. A proposito di questa lunga storia, scrive Jensen:

Yet this early pre-Pauling history seems to have almost completely dropped out of sight, at least as far as the modern textbook and electronegativity literature are concerned.

The intent of this paper is to try to recapture some of this lost history and, in so doing to remind to modern theorist that those to ignore history always run the risk of repeating it, a cliché no doubt, but unhappily one that embodies a sizable, albeit depressing amount of truth. [2, p. 11]

Non riassumeremo qui la preistoria, rimandando gli interessati al lungo lavoro di Jensen che avrebbe dovuto comprendere tre parti, ma ne risultano pubblicate solo due [2,3]. È importante tuttavia ricordare, come fa Jensen, il contributo di Amedeo Avogadro (1776-1856) allo sviluppo del concetto. Egli fu il primo a notare il parallelismo fra la neutralizzazione di un acido con una base e quella fra una carica negativa e una positiva. Avogadro non solo suggerì che carattere acido o basico erano concetti puramente relativi, ma anche che potevano essere generalizzati per poterli applicare a tutte le interazioni chimiche, sia fra sostanze semplici sia fra composti. Jensen dà ampio spazio al lavoro di Avogadro, con molte citazioni al suo lavoro del 1809. [4]

In un precedente post abbiamo ricordato le proposte di Worth H. Rodebush (1887-1959) riguardo una forma compatta di tavola periodica contenente le informazioni essenziali per comprendere la chimica degli elementi. Nei due articoli che Rodebush pubblicò a tale proposito è però contenuto anche un metodo per quantificare l’elettronegatività. Scrive Rodebush nel 1924:

In ogni caso, con nient’altro che la legge di Coulomb e il concetto di gusci elettronici successivi possiamo prevedere qualitativamente l’elettronegatività di ogni elemento. Avevo sperato che potessimo sostituire l’affinità elettronica e il potenziale di ionizzazione con una qualche valutazione dell’elettronegatività, perché queste quantità vengono misurate allo stato gassoso e le proprietà chimiche ordinarie riguardano prevalentemente fasi condensate. Ad esempio, l’affinità elettronica dell’atomo di cloro è minore del potenziale di ionizzazione del sodio, in modo che un atomo di cloro non potrebbe mai sottrarre l’elettrone all’atomo di sodio, eppure nulla è più sicuro che ciò avvenga formandosi cloruro di sodio. [5, p. 430]

Un anno dopo Rodebush espone la sua proposta per calcolare l’elettronegatività:

Se possibile vorrei introdurre una formula [qualitativa] in una scienza che sta rapidamente diventando esatta, possiamo rappresentare l’elettronegatività in funzione di V/S dove V è il numero di elettroni di valenza e S il numero di gusci nell’atomo. La base di questa formula è la legge di Coulomb e credo che in pochi anni calcoleremo i cambiamenti energetici nelle reazioni chimiche per mezzo di essa. [6, p. 383].

Anzitutto, secondo W.B. Jensen [7], a cui si deve la riscoperta e la rivalutazione del lavoro di Rodebush, nella parola qualitativa della citazione precedente potrebbe esserci stato un errore di stampa per quantitativa, visto che subito dopo è riportata l’equazione V/S che implica appunto una formulazione quantitativa.

Ma sono altri i motivi per cui questa proposta è stata praticamente ignorata dai suoi contemporanei, cercherò di presentare sia quelli dello storico sia alcuni miei personali.

Non c’è dubbio che questo interessante suggerimento sia il risultato di un tentativo esplicito da parte di Rodebush di rendere più rigoroso il concetto di elettronegatività, come aveva già espresso di voler fare un anno prima. Ci si può chiedere quindi perché, dopo aver suggerito questa formula, egli apparentemente non ha fatto nulla di più, anche se ci vogliono solo pochi minuti per calcolare i valori di elettronegatività per gli elementi del blocco principale usando il numero di elettroni di valenza e i gusci di Bohr disponibili nel 1925, come mostrato nella tavola periodica proposta nello stesso articolo [6, p. 382]. Jensen ha fatto questi semplici calcoli ottenendo la tabella riportata in figura:

Figura 2 Elettronegatività (Rodebush) degli elementi del blocco principale [7]

Jensen ha trovato un coefficiente di correlazione r = 0.92 fra i valori in tabella e quelli riportati da Pauling nel suo libro del 1959 [1b], perfettamente in linea con i valori delle correlazioni fra le circa 25 scale moderne proposte per l’elettronegatività.

Certamente vi è un problema nell’applicazione della formula ai metalli di transizione, perché gli elettroni di valenza per questi atomi risiedono in due gusci differenti. L’uso di un numero medio di elettroni per i due gusci fornisce probabilmente risultati coerenti. Un altro problema è che l’equazione di Rodebush fornisce valori troppo bassi per gli elementi post-transizione (Zn, Cd, Hg; Ga, In, Tl) poiché non tiene conto degli effetti degli inserimenti degli elettroni nei blocchi d e f sulle costanti di schermo dei nuclei di questi elementi.

Anche il fatto che Rodebush appaia ironico nella frase riportata in [6, p. 383] e anche un po’ supponente nell’insistere che concetto e formula si basino semplicemente sulla legge di Coulomb, senza ulteriore spiegazioni, come fosse un’ovvietà, potrebbero aver influenzato l’oblio in cui sono caduti i suoi articoli. Ebbene, guardando il blocco principale nella tabella si vede che andando dal basso in alto in una colonna verticale V resta costante mentre S aumenta schermando di più l’effetto attrattivo della carica positiva del nucleo sugli elettroni di valenza, di conseguenza il rapporto V/S diminuisce. Andamento opposto andando da sinistra a destra in una colonna orizzontale dove V cresce mentre S resta costante. È la legge di Coulomb, bambini…

Jensen sostiene che la storia del concetto di elettronegatività sarebbe stata molto diversa se Rodebush avesse adeguatamente sviluppato il suo suggerimento. Avere una scala completa nel 1925, anche solo per gli elementi del blocco principale, avrebbe significato un notevole anticipo rispetto a quanto effettivamente è accaduto. In realtà Pauling, nel suo articolo originale del 1932 forniva i valori di elettronegatività per soli dieci elementi non metallici [1a], quelli per cui erano noti i dati sperimentali delle necessarie entalpie di legame. Nell’edizione del 1939 della sua famosa monografia, La natura del legame chimico, estese la sua scala a 33 elementi, anche se non pubblicò mai i calcoli su cui si basava questa estensione. Nel 1959, con la pubblicazione della terza edizione del libro, apparve finalmente una scala completa [1b].

Pur condividendo le opinioni di Jensen penso che il concetto di elettronegatività e la formula di Rodebush siano stati ignorati perché l’autore non ha voluto presentarli in modo adeguato. Il termine elettronegatività non è esplicitato nei titoli dei due articoli, il primo dei quali è la trascrizione di una conferenza e il secondo viene pubblicato da una rivista nata da poco più di un anno, il Journal of Chemical Education, che inizia le pubblicazioni nel 1924. Inoltre, il brano che riporta l’equazione è al termine dell’articolo che per tutto il resto riguarda una sistemazione compatta della tavola periodica. Il perché di queste scelte non ci è dato sapere, Rodebush ha continuato l’attività di ricerca in termochimica e spettroscopia infrarossa fino alla sua scomparsa.

Lascio invece ai filosofi della scienza commentare questa citazione [8]:

…mentre la definizione di elettronegatività di Rodebush è un esempio di ciò che Ferreira chiama una definizione primaria, vale a dire basata su proprietà atomiche fondamentali e con una chiara giustificazione teorica, la definizione termochimica di Pauling è in realtà un esempio di una definizione secondaria, cioè basata su una correlazione empirica tra una proprietà macroscopica di qualche tipo (nello specifico energie di legame da misure termochimiche) e l’elettronegatività e che pertanto non presenta una chiara giustificazione teorica.

Bibliografia

[1] a) L. Pauling, The Nature of the Chemical Bond. IV. The Energy of Single Bonds and the Relative Electronegativity of Atoms”. J. Am. Chem. Soc.1932, 54, 3570–3582; b) L. Pauling, La natura del legame chimico, Edizioni Italiane, Roma, 1960, pp. 84-109 (trad. italiana sulla 3a ed. americana, 1959)

[2] W.B. Jensen, Electronegativity from Avogadro to Pauli. Part I: Origins of the Electronegativity Concept, J. Chem. Educ., 1996, 73, 11-20.

[3] W.B. Jensen, Electronegativity from Avogadro to Pauling: II. Late Nineteenth- and Early Twentieth-Century Developments, J. Chem. Educ., 2003, 80, 279-287.

[4] A. Avogadro, Idée sur l’acidité, Journal de Chimie, de Physique, d’Histoire Naturelle et des Arts, 1809, 69, 142-148, cit. in [2].

[5] W.H. Rodebush, The Subject Matter of a Course in Physical Chemistry, Science, 1924, 59, 430-433

[6] W.H. Rodebush, A Compact Arrangement of the Periodic Table, J. Chem. Educ., 1925, 2, 381-383

[7] W.B. Jensen, When Was Electronegativity First Quantified? I., J. Chem. Educ., 2012, 89, 94-96.

[8] R. Ferreira, “Electronegativity and Chemical Bonding,” Adv. Chem. Phys., 1967, 13, 55-84, cit in [7].

Colla Neanderthal: garantita 200.000 anni.

In evidenza

Claudio Della Volpe

(una parte del testo è tradotto liberamente dall’introduzione del lavoro citato appresso)

In altri articoli e post ho ricordato che la attività chimica dell’uomo è iniziata molto presto; a parte il fuoco, che risale a 1 milione di anni fa e che è addirittura precedente a Homo Sapiens Sapiens, essendo un ritrovato di Homo erectus, i ritrovamenti di Blombos dimostrano che 100.000 anni fa Homo Sapiens svolgeva in Sud Africa una attività chimica propriamente detta consistente nel preparare pigmenti e la svolgeva in un sito apposito, non usato per altre attività.

C’è un ulteriore prova di come la Chimica sia una attività “umana” in senso proprio, attinente ad altre specie di ominidi, diverse da noi ed è la produzione di adesivi da parte di Homo sapiens Neanderthalensis, una specie umana che ha preceduto la nostra nell’ambiente europeo che era all’epoca, attorno a 200.000 anni fa, seconda metà del Pleistocene, più difficile di quello africano da cui provenivano i nostri antenati propriamente detti (in pratica possiamo metterla così: mentre il clima europeo cambiava, i nostri antenati furono immigrati invasori che spodestarono i Neanderthal nell’ambiente europeo il cui clima andava lentamente riscaldandosi).

L’uomo di Neandertal che è diventato parte della nostra cultura, delle nostre storie, dei nostri modi di dire ci ha certamente lasciato anche eredità genetiche, ma soprattutto culturali; piano piano si evidenzia che le differenze fra noi e “loro” non erano poi così forti.

Oltre al fatto che aveva sensibilità artistica e che seppelliva i morti, ci sono parecchie evidenze sperimentali che Neanderthal gestiva il fuoco e produceva ed usava adesivi per bloccare le sue punte di freccia di pietra su un’asta di legno, una sofisticata attività da chimico e tecnologo.La produzione e l’impiego di adesivi per hafting (adesivi da traino, che consentono di attaccare un dispositivo ad un supporto, per esempio una punta ad una freccia o ad un giavellotto, un metodo sviluppato durante il Paleolitico che ha potenziato enormemente la capacità umana di procurarsi cibo) è diventato un punto focale nel dibattito sulle capacità cognitive e tecnologiche dei Neanderthaliani e degli esseri umani primitivi.

Journal of Archaeological Science 33 (2006) 1310e1318 A new Palaeolithic discovery: tar-hafted stone tools in a European Mid-Pleistocene bone-bearing bed, di Paul Peter Anthony Mazza et al.

Gli adesivi sono una delle più antiche tecnologie trasformative conosciute e la produzione di catrame è vecchia di almeno di 200 mila anni. Il catrame è sintetizzato dalla distillazione asciutta (distruttiva) di materiale organico, comunemente la corteccia di betulla (Betula sp.) o di pino (Pinus sp.). La distillazione della corteccia è considerata un processo complicato che richiede pianificazione, conoscenza dei materiali e l’astrazione. I più antichi strumenti di pietra a catrame conosciuti sono stati scoperti in un sito di Pleistocene medio in Italia, (Campitello, in Valdarno) durante un periodo in cui solo Neanderthaliani erano presenti in Europa. L’età di questi reperti è stimata in circa 200.000 anni, dunque ben più antichi di quelli di Blombos.

Sono stati trovati anche grumi e residui adesivi su utensili in pietra su due siti di Neanderthal in Germania, appartenenti a 40-80 ka e ~ 120 ka . L’evidenza diretta dell’uso di adesivi in Africa è più numerosa ma risale solo a ~ 70 Ka. Tali adesivi sono di composizione più complessa ma gli adesivi composti condividono molte analogie con la produzione di catrame di betulla e possono essere altrettanto sensibili agli additivi o post processi di produzione. La produzione di catrame nell’Europa paleolitica è a sua volta utilizzata per argomentare le somiglianze tra le capacità tecnologiche dei neanderthaliani e dei loro emulatori in Africa.

La corteccia di betulla è più adatta alla produzione di catrame rispetto ad altri materiali, ma l’assenza di betulle in Africa potrebbe essere una ragionevole spiegazione del diverso tipo di adesivo usato.

Nei periodi storici e moderni, il catrame è stato prodotto su una scala industriale utilizzando grossi tumuli di terra o in forni usando contenitori in ceramica o in metallo. Non è chiaro come è stato prodotto durante il Pleistocene quando i contenitori in ceramica sono rari o sconosciuti. I tentativi sperimentali precedenti alla produzione di catrame utilizzando la tecnologia aceramica o paleolitica spesso non forniscono dettagli. Inoltre, la resa in catrame risultante è sconosciuta o troppo piccola da misurare (ad esempio residui superficiali che rivestono una termocoppia) e quindi non sono sufficienti per bloccare in modo efficace uno strumento. Non possiamo comprendere appieno le complessità cognitive e ricostruire il grado richiesto di innovazione associato alla produzione di catrame se non sappiamo quali metodi di produzione erano disponibili.

Nel lavoro di cui parliamo qui, che è un lavoro di archeologia sperimentale si è cercato di riprodurre un metodo di produzione del catrame di betulla con metodi disponibili all’uomo di Neanderthal e in quantità sufficienti allo scopo.

SCIENTIFIC REPORTS 7-8033 Experimental methods for the Palaeolithic dry distillation of birch bark: implications for the origin and development of Neanderthal adhesive technology di P.R.B.Kozowyk et al. liberamente scaricabile qui. Un commento semplificato scaricabile qui.

Quindi se volete si è trattato di riprodurre i metodi di questi chimici-tecnologi primitivi che erano fondamentalmente dei costruttori di frecce e lance.

Gli autori hanno testato tre procedure diverse qui sotto rappresentate che danno produzioni crescenti con la complessità del metodo:

In tutti i casi l’elemento critico è riprodurre il contenimento “ceramico” che si è usato anche in tempi moderni; la metodologia richiama ampiamente la tradizione della produzione di carbone di legna che affonda anch’essa in una storia certamente millenaria; l’altro elemento chiave è il controllo della temperatura. La produzione di fuoco in modo ripetitivo da parte dei Neanderthal è stato spesso contestato ma test di questo tipo confermano che in effetti essi erano ragionevolmente capaci di un buon controllo del fuoco se sono stati in grado di produrre dispositivi come quelli ritrovati in Toscana e in Germania.

La cosa che ha più colpito me come scienziato che si occupa di adesione è che l’adesivo in questione è rimasto adeso al supporto all’aperto per 200.000 anni (il legno verosimilmente si è degradato e non conosco colle moderne in grado di assicurare una tenuta di questa durata); come chimico invece mi ha colpito il fatto che la chimica è in grado di svolgere qui un ruolo duplice: essa è contemporaneamente l’oggetto di studio ma è anche il metodo di indagine, è una specie di riscoperta delle proprie origini, del proprio punto di partenza, di quella enorme base sperimentale che si è poi elaborata in secoli e secoli per divenire solo di recente una teoria astratta.

Fra l’altro mi chiedo quanto invece potrebbe essere utile riproporre queste tecniche (quelle primitive o legate alla vita quotidiana) nell’insegnamento elementare della chimica a scuola.

La nostra avventura.2.

In evidenza

Luigi Campanella, già Presidente SCI.

Torno su un mio recente post indicavo “la natura come la stella polare” ( l’espressione é dell’amico Vincenzo Balzani) per la diffusione della chimica ed anche per le attività accademiche di insegnamento e ricerca.

Ci ritorno perchè in una biografia di Alexander Von Humboldt scritta da Andrea Wulf si parla di lui come di un poeta della natura,un eroe perduto della scienza,il creatore della Naturgemalde (descrizione della Natura).

Von Humboldt ha intuito per primo che la Natura non é solo una sommatoria di parti,ma piuttosto un integrale divenendo con tale impostazione un illuminista romantico.

Alexander Von Humboldt

Il ruolo delle foreste nell’ecosistema e per il clima,le basi della classificazione di animali e piante, la trasformazione antropica dell’ambiente in paesaggio sono alcune delle sue ricerche descritte in testi importanti come Cosmos o Quaderni della Natura. La Natura diviene così anche la ispiratrice capace di influenzare l’immaginazione delle persone e di conseguenza di produrre arte in chi ne ha la sensibilità. Guardando a quanti hanno cercato di mettersi in scia a Von Humboldt troviamo biologi, naturalisti, genetisti, perfino  politici a partire da Charles Darwin con la sua teoria dell’evoluzione,dall’inventore della biologia Lamark, dallo zoologo Ernest Haeckel con le sue ricerche sui protozoi, dal naturalista John Muir il primo ambientalista “arrabbiato”, dal politico Perkins Marsh, il primo ecologista americano.

Probabilmente però oltre ad avere avuto posteri Von Humboldt ha anche avuto antenati: si pensi per tutti a Tito Lucrezio Caro ed al suo De Rerum Natura o al botanico svedese Linneo ed alla sua prima teoria della selezione degli organismi viventi.

Mi chiedo come sia stato possibile che nessun chimico abbia colto la sfida e l’invito di Von Humboldt e me lo chiedo proprio per quanto ho scritto ed a cui mi riferivo all’inizio di questo post.

Forse si comprende proprio da questa assenza quanto oggi ci si debba impegnare per rivalutare la nostra disciplina agli occhi della società e per instillare la cultura chimica nei nostri giovani. Credo che questa oggi sia la sfida più grande da affrontare da  parte della nostra comunità e che per avere probabilità e speranze di vincerla dobbiamo guardare con più attenzione analitica e dialettica alla nostra stella polare.

Noterelle di economia circolare.7. Glover

In evidenza

Giorgio Nebbia

(i precedenti articoli della stessa serie si possono cercare con la funzione search (in alto a destra) inserendo la parola “circolare”)

Ogni generazione crede di essere la più furba di tutta la storia; la nostra generazione, per esempio, è orgogliosa di avere scoperto l’ecologia, il risparmio energetico, la lotta all’inquinamento, il recupero dei sottoprodotti, l’economia circolare, le merci verdi, convinta di essere la prima ad affrontare con successo i problemi della moderna società industriale. Eppure gli stessi problemi con cui ci confrontiamo oggi sono stati incontrati e risolti, talvolta in maniera ingegnosa, da molti nostri predecessori ai quali siamo debitori di quello che siamo oggi.

Casi di questo genere si trovano nella storia della chimica, per esempio nella storia della produzione dell’acido solforico. Questo acido corrosivo era noto agli alchimisti arabi; dalla traduzione delle loro opere i chimici medievali occidentali ne conobbero l’utilità nel trattamento dei metalli e nella fabbricazione di altre sostanze e impararono a fabbricarlo dapprima su piccola scala poi in vere e proprie industrie. I primi chimici producevano l’acido solforico scaldando lo zolfo con il nitrato di sodio o di potassio in presenza di acqua. In queste condizioni lo zolfo viene ossidato ad anidride solforosa e poi ad anidride solforica che, assorbita in acqua, si trasforma in acido solforico.

Dapprima la reazione veniva condotta in grossi recipienti di vetro, sostituiti, già nel 1746, da “camere di piombo”, uno dei pochi metalli resistenti alla corrosione da parte dell’acido solforico. Durante la reazione si liberano degli ossidi di azoto che si disperdevano nell’aria, che sono nocivi e che sono stati una delle prime fonti di inquinamento atmosferico industriale. I principali produttori, in Inghilterra, Francia e Germania, dovevano importare le costose materie prime: lo zolfo dalla Sicilia, le piriti dalla Spagna, i nitrati dal Cile; bisognava perciò produrre l’acido usando la minima quantità di materie prime.

Nel 1827 il famoso, professore universitario francese, Joseph Louis Gay-Lussac (1778-1859), suggerì di recuperare una parte dei nocivi e preziosi ossidi di azoto perduti, inserendo nel processo una torre nella quale i gas azotati incontravano una pioggia di acido solforico; il prodotto di reazione veniva rimesso in ciclo per produrre altro acido solforico con minori perdite di composti azotati e con minore inquinamento. Così si otteneva acido solforico diluito che era richiesto su larga scala per produrre la soda necessaria per i saponi e i concimi richiesti per ridare fertilità ai terreni; molte reazioni chimiche per la produzione di coloranti ed esplosivi richiedevano però acido solforico concentrato che, nella metà dell’Ottocento, era costoso perché prodotto soltanto a Nordhaus nell’attuale Germania.

Chemistry, Society and Environment: A New History of the British Chemical Industry
a cura di Colin Archibald Russell,Royal Society of Chemistry (Great Britain)

A questo punto intervenne un altro inglese, John Glover (1817-1896), che perfezionò ulteriormente il processo delle camere di piombo. Glover era figlio di un operaio di Newscastle e fin da ragazzo aveva cominciato a lavorare come apprendista, seguendo anche dei corsi nel locale Istituto tecnico e studiando chimica. Nel 1852 fu invitato negli Stati Uniti a dirigere una fabbrica chimica a Washington; nel 1861 tornò in Inghilterra e fondò una propria società che produceva acido solforico e altri composti chimici. L’idea della torre che porta il suo nome venne a Glover nel 1859 e la prima unità fu costruita nel dicembre 1868. In tale “torre”, costituita da un cilindro verticale contenente mattoni resistenti agli acidi, l’anidride solforosa proveniente dai forni a pirite incontra, in controcorrente, una “pioggia” costituita dalla soluzione di acido solforico diluito e ossidi di azoto, uscente dalla torre di Gay-Lussac; una parte dell’anidride solforosa viene ossidata ad acido solforico e il resto viene avviato alle camere di piombo; l’acido solforico si forma a concentrazione più elevata di quella dell’acido che si formava nelle camere di piombo. Con la torre di Glover si aveva un recupero quasi totale dell’ossido di azoto e quindi si aveva un limitato consumo dei costosi nitrat, col vantaggio di diminuire ulteriormente l’inquinamento atmosferico. In realtà la chimica dell’intero processo è più complicata ma abbastanza nota.

Così perfezionato il processo delle camere di piombo ha prodotto acido solforico in tutto il mondo fino alla prima guerra mondiale. Intanto altri studiosi avevano messo a punto un altro processo di produzione dell’acido solforico per ossidazione dell’anidride solforosa con ossigeno su un catalizzatore. Dapprima fu usato come catalizzatore il costoso platino, poi sostituito da un ossido di vanadio; il processo catalitico richiedeva come materia prima zolfo molto puro come quello prodotto, dall’inizio del Novecento, negli Stati Uniti, molto migliore di quello siciliano, Da allora l’industria siciliana dello zolfo è scomparsa, è scomparsa anche quella americana; oggi lo zolfo si recupera dai rifiuti della raffinazione del petrolio e del gas naturale e ormai l’acido solforico si ottiene dovunque col processo catalitico.

Il grande chimico Justus von Liebig (1803-1873) nella metà dell’Ottocento scrisse che lo sviluppo industriale di un paese si misura sulla base della quantità di acido solforico che produce; di sicuro l’acido solforico era ed è il prodotto chimico fabbricato in maggiore quantità nel mondo, circa 230 milioni di tonnellate all’anno; per il 40 percento, in rapido aumento, nella solita inarrestabile Cina. La torre di Glover è ormai un ricordo, al più citata in qualche libro, ma la sua invenzione ha fatto fare un passo avanti gigantesco all’industria chimica.

Questa breve storia ha una sua morale: il progresso di un paese è basato su continue innovazioni tecnico-scientifiche alle quali chiunque può contribuire, anche cominciando nel garage di casa propria come avvenne per i pionieri dell’elettronica. Nessuno è escluso purché abbia curiosità e voglia di guardarsi intorno e nessuna generazione ha avuto occasioni di conoscenza come quella attuale, nell’era di Internet, strumento di accesso a libri e testi e documenti e informazioni come mai era avvenuto prima.

per approfondire: https://todayinsci.com/G/Glover_John/GloverJohn-Obituary.htm

https://pubs.acs.org/subscribe/archive/tcaw/10/i09/html/09chemch.html

http://ml2rconsultancy.com/sulfuric-acid-history/

Lettera aperta al governo

In evidenza

Vincenzo Balzani

Al  Presidente  del  Consiglio  dei  Ministri,  Paolo  Gentiloni

e,  p.c.,
   al  Ministro  dello  Sviluppo  Economico,  Carlo  Calenda

al  Ministro  dell’Ambiente  e  della  Tutela  del  Territorio  e  del  Mare,  Gianluca  Galletti

al  Ministro  per  le  Politiche  Agricole,  Alimentari  e  Forestali  ,
Maurizio  Martina

al  Ministro  dell’Economia  e  Finanze,  Pietro  Carlo  Padoan

al  Ministro  della  Salute,  Beatrice  Lorenzin

al  Ministro  per  le  Infrastrutture  e  Trasporti,  
Graziano  Delrio


al  Ministro  dell’Istruzione,  Università  e  Ricerca,  Valeria  Fedeli

Lettera Aperta

Caro  Presidente,

Dopo   mesi   di   siccità,   temperature   ben   più   alte   della   media   stagionale,   ghiacciai   che   si   sciolgono,   foreste  che  vanno  in  fumo,  chi  può  dubitare  che  il  cambiamento  climatico  sia  già  oggi  un  problema   che   colpisce   duramente   l’Italia?   Il   nostro   Paese,   collocato   in   mezzo   al   Mediterraneo,   è   uno  dei   punti   più   critici   del   pianeta   in   termini   di   cambiamento   climatico,   fenomeno   globale   dovuto   principalmente  alle  emissioni  di  gas  serra  causate  dalle  attività  umane.


Tutti   i   settori   economici   e   sociali   sono   colpiti   (se   non   addirittura   sconvolti)   dal   cambiamento   climatico:   l’agricoltura,   fortemente   danneggiata   dalla   siccità;   la   sanità,   che   deve   far   fronte   agli   effetti   diretti   (canicola,   inquinamento   atmosferico)   e   indiretti   (nuovi   vettori   di   malattie)   che   mettono  in  pericolo  la  salute  della  popolazione;  il  turismo  invernale,  che  non  può  più  contare  sulla   neve  naturale,  e  quello  estivo,  danneggiato  dalla  erosione  delle  spiagge;  il  territorio,  degradato  da   disastri   idrogeologici   (frane,   alluvioni);   gli   ecosistemi,   devastati   dai   cambiamenti   climatici;   le   città   che,  come  Roma,  hanno  gravi  difficoltà  di  approvvigionamento  idrico.

I  cambiamenti  climatici  sono  principalmente  causati  dall’uso  dei  combustibili  fossili  che  producono   anidride   carbonica   e   altri   gas   serra,   come   è   stato   unanimemente   riconosciuto   nella   Conferenza   delle  Parti  di  Parigi  del  2015  (COP21).     In   Italia,   in   media   ogni   persona   ogni   anno   provoca   l’emissione   di   gas   serra   per   una   quantità   equivalente   a   sette   tonnellate   di   anidride   carbonica.   Gran   parte   di   queste   emissioni   non   possono   essere   addebitate   direttamente   ai   singoli   cittadini   poiché   sono   l’inevitabile   conseguenza   di   decisioni   politico-­‐amministrative   errate,   a   vari   livelli.

Ad   esempio:   le   scelte   urbanistiche   (uso   del   territorio  e  localizzazione  dei  servizi)  da  parte  dei  comuni  e  delle  regioni;  le  decisioni  prese  in  tema  di   mobilità   locale,   regionale   e   nazionale   che,   direttamente   o   indirettamente,   favoriscono   l’uso   dell’auto;   gli   incentivi,   diretti   ed   indiretti,   alla   ricerca,   estrazione,   trasporto   (spesso   da   regioni   molto   remote)   e   commercio   dei   combustibili   fossili;   la   costruzione   di   infrastrutture   superflue   o   addirittura  inutili  (autostrade,  gasdotti,  supermercati);  la  mancanza  di  una  politica  che  imponga  o   almeno   privilegi   il   trasporto   merci   su   rotaia;   le   limitazioni   e   gli   ostacoli   burocratici   che   frenano   lo   sviluppo  delle  energie  rinnovabili;  gli  incentivi  alla  produzione  e  consumo  di  carne;  la  mancanza  di   una  politica  culturale  che  incoraggi  la  riduzione  dei  consumi  e  l’eliminazione  degli  sprechi.
Nel  nostro  Paese  sembra  che  molti  settori  della  politica,  dell’economia  e  del’informazione  abbiano   gli   occhi   rivolti   al   passato   e   siano   quindi   incapaci   di   capire   che   oggi   siamo   di   fronte   a   problemi   ineludibili   con   cui   è   necessario   e   urgente   confrontarsi:   le   risorse   del   pianeta   sono   limitate   e   limitato   è   anche   lo   spazio   in   cui   collocare   i   rifiuti,   l’uso   dei   combustibili   fossili   va   rapidamente   abbandonato  e  altrettanto  rapidamente  è  necessario  sviluppare  le  energie  rinnovabili.     Si   continua   a   sviluppare   politiche   economiche   ed   industriali   “tradizionali”,   senza   considerare   le   mutate   condizioni   climatiche   e   ambientali.   Il   dogma:   strade-­‐cemento-­‐idrocarburi   appare,   pur   con   qualche  piccola  deviazione,  l’unico  obiettivo  delle  politiche  economiche.     Se   puntassimo   seriamente   alla   realizzazione   di   mitigazione   e   adattamento   climatico   avremmo   grandi  benefici:  aumento  dell’occupazione,  minori  costi  per  emergenze  e  calamità  naturali,  minori   spese  sanitarie  e  un  miglioramento  nella  bilancia  commerciale  (minori  importazioni  di  combustibili   fossili).     Quali   sono   i   principali   obiettivi   strategici   che   dovrebbero   sostituire   il   dogma   strade-­‐cemento-­‐ idrocarburi?

Risparmio-­‐riuso-­‐rinnovabili.     Infatti,   la   sola   conversione   alle   energie   rinnovabili,   pur   essendo   una   condizione   necessaria,   non   è   di   per   sé   sufficiente   per   mitigare   i   cambiamenti   climatici.   E’   indispensabile   anche   ridurre   il   consumo  di  energia  e  di  ogni  altra  risorsa,  particolarmente  nei  paesi  sviluppati  come  il  nostro  dove   regna   lo   spreco.   Attualmente,   un   cittadino   europeo   usa   in   media   6.000   watt   di   potenza,   mentre   negli   anni   ’60   la   potenza   pro   capite   usata   in   Europa   era   di   2000   watt   per   persona,   corrispondenti   ad  una  quantità  di  energia  sufficiente  per  soddisfare  tutte  le  necessità.     Naturalmente,  questo  cambiamento  di  strategia,  richiede,  innanzitutto  una  rivoluzione  culturale  e   una   forte   coesione   sociale.   Senza   la   consapevolezza   della   inevitabile   necessità   di   cambiare   direzione  e  l’analisi  di  un’adeguata  transizione,  rimane  solo  la  conservazione  dello  stato  di  fatto,  e   la  ragionevole  certezza  che  ci  saranno  catastrofi  naturali  e  sociali.     Per   questi   motivi,   chiediamo   ai   colleghi   delle   Università   e   Centri   di   ricerca   italiani   e   a   tutti   i   cittadini   che   condividono   quanto   sopra   riportato   di   firmare   il   nostro   appello   sul   sito   energiaperlitalia   per   stimolare   il   Governo   ad   organizzare   una   Conferenza   Nazionale   sui   cambiamenti  climatici  e  a  mettere  in  atto  i  provvedimenti  necessari.

La  versione  integrale  della  lettera-­‐appello  al  governo  è  sul  sito  energiaperlitalia

Vincenzo  Balzani   Coordinatore  del  gruppo  energiaperlitalia

La tavola periodica “dimenticata” di W. Rodebush

In evidenza

Rinaldo Cervellati

Fra poco più di un anno, ricorre il 150° anniversario della Tavola periodica che è considerata dai chimici la pietra miliare che contiene in forma sintetica la maggior parte di tutta la scienza chimica. Anche l’home page del nostro blog ha come sfondo la tavola periodica.

Nel 1869 il chimico russo Dimitri I. Mendeleev pubblicò una tabella in cui gli elementi fino allora conosciuti erano ordinati in base al peso atomico crescente in gruppi orizzontali e periodi verticali in modo che ad ogni periodo corrispondevano elementi con proprietà fisiche chimiche simili e in ogni gruppo queste proprietà variavano allo stesso modo in cui variano le valenze degli elementi stessi. La tabella fu chiamata Sistema Periodico dallo stesso Mendeleev ed è mostrata in figura 1, tratta dal lavoro originale dell’Autore.

Figura 1

Il lavoro, intitolato Sulla dipendenza tra le proprietà e i pesi atomici degli elementi, fu pubblicato in un’oscura rivista russa [1a] quindi ripubblicato in tedesco sullo Zeitschrift für Chemie [1b]. La genialità di Mendeleev sta non solo nell’aver lasciato caselle vuote dove non trovava elementi che dovevano appartenervi, ma nell’aver previsto i pesi e le proprietà chimiche di questi, che furono poi effettivamente scoperti (ad es. il germanio fra il silicio e lo stagno, ecc.).

Nel 1871, Mendeleev pubblicò la sua tavola periodica in una nuova forma, con i gruppi di elementi simili disposti in colonne piuttosto che in righe, numerate da I a VIII in corrispondenza delle valenze minima e massima dell’elemento (Figura 2) [2].

Figura 2 (le linee tratteggiate indicano elementi ancora sconosciuti)

La tavola non poteva prevedere i gas nobili, tuttavia Mendeleev lasciò uno spazio, e quando quest’intera famiglia di elementi è stata scoperta, William Ramsay (1852-1916) riuscì ad aggiungerli come Gruppo 0, senza che il concetto di base della tabella periodica fosse modificato.

Vale la pena ricordare che tutta la costruzione di Mendeleev è stata concepita come uno strumento empirico, un modo per organizzare gli elementi secondo le loro proprietà in assenza di qualsiasi teoria. La tavola periodica è stata costruita nel 1869, 30 anni prima della scoperta dell’elettrone, 40 anni prima che Ernest Rutherford scoprisse il nucleo atomico e 50 anni prima dell’interpretazione quantomeccanica della struttura atomica. Solo all’inizio del ventesimo secolo il chimico britannico Henry Moseley (1887-1915) scoprì che il ruolo fondamentale della periodicità sta nella carica del nucleo e non nella massa degli atomi. In questo modo, si sono posti limiti precisi su quanti elementi sono rimasti da scoprire.

Nel 1945, Glenn Seaborg, chimico americano, formulò l’ipotesi che il nuovo gruppo di elementi detti attinidi stessero occupando gli orbitali 4f così come i lantanidi avevano riempito il sotto-livello 3f. Propose quindi, una tabella molto simile a quella generalmente più usata oggi (figura 3)[1]. Questo tipo di tabella è usualmente chiamata “compatta”. Nelle tabelle “compatte” gli elementi dei blocchi f (lantanidi e attinidi) sono elencati nella parte inferiore della tavola con un richiamo a uno spazio lasciato vuoto o comprendente i simboli del primo e dell’ultimo elemento del gruppo nel corpo della tabella, v. figura 3.

Figura 3 – Tavola periodica di Seaborg [3][2]

Ma Seaborg non è stato il primo a proporre la tavola periodica in forma compatta. Uno dei primi, se non il primo[3] a fare una proposta simile è stato W. H. Rodebush, di cui abbiamo già parlato, insieme a W.M. Latimer a proposito del legame a idrogeno.

Worth H. Rodebush

Worth Huff Rodebush (1887-1959) è stato uno dei “ragazzi” di G.N. Lewis a Berkeley dal 1914/5 al 1920/1, prima di trasferirsi all’University of Illinois dove diventerà full professor e Direttore del Dipartimento di Chimica Fisica nel 1924. Appassionato alla ricerca e all’insegnamento anche a livello di scuola superiore, nel 1924 tenne una conferenza al Convegno dell’Association for the Advancement of Science Sec. C, pubblicata nella rivista Science [4]. In questa conferenza Rodebush ravvisa la necessità di migliorare la presentazione della tavola periodica, ne indica i punti principali e i principali vantaggi, ma la sua tavola non è riprodotta nel testo pubblicato da Science. Probabilmente una copia fu distribuita a parte ai partecipanti. L’autore pubblica poi un articolo per il Journal of Chemical Education, dove riprende il tema [5]. Scrive Rodebush:

La vecchia Tavola di Mendeleev ha avuto [queste] virtù ma sebbene i suoi difetti siano evidenti alla luce delle recenti conoscenze, essa è ancora generalmente in uso perché non è apparsa alcuna nuova sistemazione che sia semplice e compatta. Alcune tabelle pubblicate di recente hanno il difetto di tentare di mostrare troppi dettagli. Dal momento che il numero di relazioni che esistono tra gli elementi è molto grande… è necessario sacrificare alcune relazioni…   Una soddisfacente sistemazione della tavola periodica deve ottemperare almeno le seguenti condizioni: (1) disporre gli elementi secondo il numero atomico; (2) conservare i periodi di Rydberg[4]; (3) mostrare il raggruppamento degli elettroni intorno al nucleo; (4) mostrare il numero di elettroni di valenza; (5) mostrare le reali somiglianze chimiche; (6) indicare l’entità della proprietà comunemente detta elettronegatività posseduta da ciascun elemento. Tutte le altre relazioni appaiono subordinate a quelle elencate sopra [5, p. 382].

La seguente tabella è un tentativo di sistemazione [compatta].(Figura 4)

Figura 4. La proposta di Rodebush, tratta dal rif. [5], p. 382, redatta a penna

Siamo nel 1924, la meccanica quantistica di Schrödinger e Heisenberg deve ancora essere pubblicata. Rodebush scrive quindi:

Essa [tabella] è basata sulla concezione di Bohr del raggruppamento di elettroni in orbite senza necessariamente accettare il punto di vista di Bohr circa il moto degli elettroni. Tali raggruppamenti siano essi costituiti da elettroni stazionari o in movimento su orbite li chiameremo gusci [shell], secondo la terminologia di G.N. Lewis. [5, p. 382]

Rodebush passa poi a illustrare la sua tabella, costituita da 17 colonne e sette righe o periodi. Non entriamo ulteriormente nel merito, tutte le condizioni da lui indicate sono soddisfatte. In particolare dice:

L’idrogeno è stato posto insieme agli alogeni[5]… il numero di elettroni di valenza per idrogeno e elio è scritto tra parentesi sopra ai simboli degli elementi. La struttura del guscio completo per i gas inerti è mostrata sulla destra. Alcuni preferiscono designare i gusci in ordine alfabetico con le lettere K, L, ecc. Agli elementi i cui atomi sono in grado di assumere la stessa valenza e che mostrano proprietà chimiche molto simili viene assegnata una singola casella nella tavola periodica, ad esempio le terre rare.[5, p.383]

Dalla Figura 4 è chiara l’intenzione di Rodebush di elencare a parte gli elementi della famiglia dei lantanidi (terre rare) nella parte inferiore della tavola.

Sembra addirittura che egli fosse in dubbio se isolare anche le terne (Fe, Co, Ni), (Ru, Rh, Pd), (Os, Ir, Pt) con pesi atomici e caratteristiche chimico fisiche molto simili per rendere la tavola ancora più compatta.

Infine Rodebush così conclude:

Non ho alcuna pretesa di originalità per questa sistemazione, molte variazioni e aggiunte si proporranno al critico. [5, p. 383]

Non sembra che la proposta di Rodebush sia stata rilevante, la sua tabella non compare nell’INTERNET Database of Periodic Tables, il database più completo che raccoglie e aggiorna le centinaia di forme diverse di tavole periodiche da Mendeleev ai giorni nostri [3]. La sua attenzione al riguardo non è menzionata neppure dai suoi biografi C.S. Marvel e F.T. Wall (i due scritti citati qui sono comunque riportati nell’elenco delle pubblicazioni) [6]

Nemmeno Eric Scerri, docente di chimica e storia della chimica all’University of California Los Angeles (UCLA), una autorità mondiale in filosofia della scienza, specializzato in storia e filosofia della tavola periodica, cita i lavori di Rodebush nelle sue principali pubblicazioni [7].

Una brevissima citazione dell’articolo al rif. [5] si trova invece nella II Parte nel lavoro del 1934 di G.N. Quam e M.B. Quam [8], p. 219.

Tuttavia le raccomandazioni di Rodebush sono state accolte da molti estensori di tavole periodiche, in particolare la (6) sull’elettronegatività. Parleremo del contributo dato da Rodebush sull’elettronegatività (anche esso poco noto) in un prossimo post.

Vorrei terminare con una nota di costume. La Tavola Periodica degli Elementi non è un’icona dei soli chimici, in qualche modo è entrata nell’immaginario collettivo. Sono moltissimi i gadget, dalle magliette alle tazze, dai nomi propri costruiti con le sue caselle alle calamite per lo sportello del frigo, fino alle cover per i cellulari. Sono troppi per scegliere un’immagine, vi rimando quindi a:

https://www.google.it/search?q=gadget+tavola+periodica&tbm=isch&tbo=u&source=univ&sa=X&ved=0ahUKEwiV85L0wd7VAhVML1AKHSbjDXUQsAQILA&biw=1366&bih=613

Buon divertimento !

Bibliografia

[1a] D.I. Mendeleev, On the Correlation Between the Properties of Elements and Their Atomic Weight (in russo), Zurnal Russkogo Kimicheskogo Obshchestva 1, no. 2-3 1869 35, 60-77; [1b] D.I. Mendeleev, Über die Beziehungen der Eigenschaften zu den Atomgewichten der Elemente, Zeitschrift fur Chemie, 1869), XII, 405-406

[2] D.I. Mendeleev, Die periodische Gesetzmassigkeit der chemischen Elemente. Annalen der Chemie und Pharmacie, Supplementband, 1871, VIII, 133-229.

[3] The INTERNET Database of Periodic Tables

http://www.meta-synthesis.com/webbook//35_pt/pt_database.php

[4] W.H. Rodebush, The Subject Matter of a Course in Physical Chemistry, Science, 1924, 59, 430-433

[5] W.H. Rodebush, A Compact Arrangement of the Periodic Table, J. Chem. Educ., 1925, 2, 381-383

[6] C.S. Marvel, F.T. Wall, Worth Huff Rodebush 1887—1959, A Biographical Memoir, Biographical Memoir, National Academy of Sciences, Washington D.C., 1962

[7] a) E. Scerri, & McIntyre L, Philosophy of Chemistry: Growth of a New Discipline, Springer, Dordrecht, Berlin, 2015; b) E. Scerri, , The periodic table: Its story and its significance, Oxford University Press, New York, 2007

[8] G.N. Quam e M.B. Quam, Types of Graphic Classifications of the Elements. II. Long Charts, J. Chem. Educ., 1934, 11, 217-223, p. 219

[1] Glenn Seaborg (1912-1999) fu sconsigliato a pubblicare la sua ipotesi in quanto vi era la convinzione che gli attinidi formassero una quarta riga di blocco d. Seaborg non ascoltò il consiglio, il suo suggerimento si dimostrò corretto e nel 1951 gli fu assegnato il Premio Nobel per i suoi lavori sugli attinidi.

[2] La casella 43, lasciata vuota per molti anni, è oggi occupata dal Tecnezio (Tc), il primo elemento prodotto artificialmente, anche se successivamente la sua esistenza in natura è stata dimostrata sia all’interno, sia all’esterno del sistema solare. Anche la 61 è vuota, oggi è occupata dal Promezio (Pm), prodotto artificialmente e radioattivo.

[3] In effetti una forma “compatta”, nota come forma comune o standard, viene attribuita a Horace Groves Deming (1885-1970), un insegnante di chimica americano. Nel 1923, Deming, pubblicò il libro General chemistry: An elementary survey. New York: J. Wiley & Sons., contenente una tavola periodica di 18 colonne e 7 righe in cui le terre rare erano elencate separatamente in basso. La tavola di Deming, molto fitta, riporta numerosissimi dettagli, risultando di difficile lettura [3]. La Compagnia Merck nel 1928 e la Sargent-Welch nel 1930 ne presentarono una forma semplificata che ebbe una larga diffusione nelle scuole americane.

[4] Questo punto non è chiaro. Johannes Robert Rydberg (1854-1819), fisico austriaco è noto soprattutto per la formula che interpreta lo spettro di emissione dell’idrogeno come anche di altri elementi. E’ noto il suo interesse per i pesi atomici e la sua ricerca di un motivo per l’incremento casuale dei pesi atomici nella tavola di Mendeleev, ricerca inutile. Tuttavia ho trovato nell’INTERNET Database of Periodic Tables una tabella periodica del 1913 attribuita a Rydberg, molto sfocata che tuttavia richiama alla mente i periodi.

[5] La posizione dell’idrogeno è ancora oggi oggetto di controversia.

(v. https://en.wikipedia.org/wiki/Periodic_table), Rodebush ritiene che le caratteristiche chimico-fisiche dell’idrogeno siano meno lontane da quelle degli alogeni, in particolare il fluoro, piuttosto che dai metalli alcalini. Deming, per essere equidistante, lo pone in alto, al centro della sua tavola, con due frecce rispettivamente verso il Litio e verso il Fluoro (v. nota 3)

La nostra avventura.

In evidenza

Luigi Campanella, già Presidente SCI.

Scrivo questo post nella mia veste anche di direttore di CNS Chimica Nella Scuola il giornale della SCI edito da ARACNE dedicato all’insegnamento della Chimica nella Scuola primaria e secondaria,quindi di fatto all’inizializzazione della cultura chimica nei giovani.

La nostra è disciplina complessa, non facile da insegnare e anche da comprendere, tanto da richiedere una creatività didattica capace di superare queste difficoltà. Proprio in questa convinzione CNS cerca di mettere a comune esperienze,originalità, veri e propri prodotti del capitale umano al fine di accrescere la capacità creativa ed innovativa del sistema didattico. Su questa base mi avvicino sempre con interesse a testi che possono promuovere in me stimolazioni e provocazioni da raccogliere da parte di colleghi che appartengono alla stessa comunità, intendendo per essa quella della didattica, non necessariamente limitata alla Chimica.

Ho così letto le due ultime fatiche di Carlo Rovelli , SETTE BREVI LEZIONI DI FISICA e L’ORDINE DEL TEMPO (ADELPHI ED.).Mi ha subito colpito l’approccio: la disciplina da spiegare vista come un’avventura, quasi verso l’ignoto, cercando quindi in questa prospettiva di offrire a chi fruirà della descrizione, la soddisfazione di avere superato un ostacolo, di essere arrivato in porto dopo una procellosa navigazione. Da qui la convinzione che la conoscenza è figlia dell’ignoranza precedente. Pensare di sapere tutto frena l’interesse scientifico, ma limita anche la curiosità formativa e quindi l’apprendimento.

La creatività dell’insegnante si misura proprio in questa capacità.

Quando il primo ministro inglese chiese a Faraday a cosa servisse l’elettricità, lui rispose che un giorno sarebbe stata tassata. Quando la scoperta delle onde gravitazionali  ha confermato la teoria di Einstein non si pensava che poi i gps avrebbero funzionato anche grazie alla relatività generale.

Nella ricerca  di linee guida che l’esplorazione didattica richiede si misura il secondo aspetto della creatività didattica. Per la Fisica Rovelli crede molto al “tempo” per questa funzione. Sembra ovvio che scorra in avanti,ma perchè il futuro è diverso dal presente e questo diverso dal passato? Sappiamo che è l’entropia, l’aumento del disordine a differenziare i livelli temporali. Ma per spazio e tempo la gravità quantistica obbliga a ripensarne certi modelli. La materia oscura poi, di cui si intuisce  l’esistenza, ma che non sappiamo rappresentare potrebbe ai concetti di tempo e di spazio assegnare nuovi connotati.

Mi chiedo ora: se volessimo anche noi trovare una linea guida per l’insegnamento della Chimica,come la dovremmo scegliere? Qual’è il corrispondente del Tempo di Rovelli?

Se si leggono con attenzione le ultima annate di CNS, anche le precedenti più antiche, se disponibili, ci si rende conto come la nostra stella polare è la Natura, a partire dall’evoluzione chimica dell’universo, per proseguire con le leggi che regolano i processi chimici, anche quelli naturali, con la trasformazione dell’ambiente in paesaggio a seguito delle attività antropiche, con il passaggio dalla CHIMICA DELLA VITA (conoscenza ,esplorazione), ALLA CHIMICA PER LA VITA(sicurezza,salute,qualità della vita).

Credo che la Chimica abbia fatto molto per la Natura,ma questa ha fatto, fa e  farà molto per la Chimica, in quanto ne agevolerà sempre l’insegnamento e lo sviluppo di una cultura.

Chimica in fogna.

In evidenza

Mauro Icardi

La notizia è stata rilanciata dai quotidiani è mi ha ovviamente colpito, visto che lavoro in questo settore.

http://palermo.repubblica.it/cronaca/2017/08/28/news/ragusa_esalazioni_dalla_fognatura_gravi_due_coniugi_in_viaggio_di_nozze-174040427/?ref=search

Notizia che non è nuova se si fanno ricerche in rete, ma che colpisce per le modalità. I gas fognari sarebbero stati respirati nella stanza di un albergo e si sarebbero sprigionati dal condotto fognario sul quale erano stati eseguiti dei lavori.

La prima impressione, molto immediata e superficiale è quella che ovviamente episodi di questo genere non dovrebbero accadere. Ne ho scritto diverse volte, ed è un normale argomento di discussione per me.

Bisogna effettuare investimenti non prorogabili ulteriormente sulle reti fognarie e sul sistema depurativo.

Abbiamo già ricevuto due condanne da parte della corte di giustizia europea e una successiva procedura di infrazione è stata aperta per non aver raggiunto i livelli di qualità di depurazione delle acqua reflue.

http://www.acqua.gov.it/index.php?id=3

Dobbiamo anche ricordare che fognature efficienti servono a contrastare eventuali problemi di malattie ed epidemie. Le tubazioni che allontanano i nostri rifiuti stanno sotto i nostri piedi. Spesso le dimentichiamo, ma sono state un grande progresso, fin dai tempi degli insediamenti di Mohenjo Daro.

Le fognature dei romani, fino alle grandi costruzioni di Londra e Parigi. L’evoluzione e lo sviluppo delle corrette pratiche igieniche passano anche attraverso l’efficienza degli impianti fognari.

Su quanto accaduto a Ragusa è stata aperta un’inchiesta e non vi sono ulteriori notizie. Sembrerebbe che l’albergo sia stato scagionato da responsabilità per quanto accaduto. Io non mi occupo di progettazione e realizzazione di impianti di scarico. Ma so, come probabilmente molte altre persone, che per evitare il ritorno di cattivi odori dall’impianto di scarico delle acque si devono prevedere, oltre alla colonna di scarico delle acque, anche colonne di ventilazione e sifoni che non permettano appunto il ritorno di gas provenienti dalla fogna nei locali di abitazione.

I rischi attribuibili a chi viene in contatto con gas di fognatura, sono quelli di natura biologica che sono relativi all’aerosol batterico che può trascinare virus e batteri, ma che è meno probabile riscontrare se non vi sono situazioni di turbolenza che tipicamente si verificano nelle zone di trattamento, quali vasche di ossidazione o salti d’acqua, e tipicamente negli impianti di depurazione. Ma occorre tenere presente anche il fattore caldo estivo e la situazione di temperatura del condotto fognario

Il possibile sviluppo di idrogeno solforato nei condotti fognari invece è conosciuto e studiato. Soprattutto per gli effetti di corrosione che esercita sui condotti fognari. Studi iniziati fina dal 1895.

https://www.deepdyve.com/lp/elsevier/corrosion-of-concrete-sewers-the-kinetics-of-hydrogen-sulfide-7sO1HhYbz2

L’idrogeno solforato è presente nelle fognature in equilibrio tra la forma indissociata (H2S) e la forma ione idrogenosolfuro (HS-) I due composti sono presenti presenti al 50% a valori di pH prossimi alla neutralità (condizione che normalmente si verifica nell’acqua di fogna).

L’idrogeno solforato è un gas che presenta una moderata solubilità, la quale naturalmente diminuisce al crescere della temperatura. Se quindi viene a verificarsi un abbassamento del pH o un aumento della temperatura, il gas può facilmente sfuggire, dando luogo a vari inconvenienti, dovuti soprattutto al suo cattivo odore e alla sua elevata tossicità.

L’idrogeno solforato ha una soglia di riconoscimento molto bassa, pari a 0,0047 ppm. A questa concentrazione il 50% delle persone riconosce il suo caratteristico odore di uova marce.

Concentrazioni di 10-20 ppm provocano irritazione oculare. Concentrazioni di 320-530 ppm possono provocare edema polmonare con rischio di morte.

Le misure di prevenzione consistono in pulizia meccanica delle condutture, eventuale clorazione o dosaggio di altri battericidi. Secondo il Water Pollution Research Laboratory anche la velocità dell’acqua di fogna gioca un ruolo importante. Non deve possibilmente essere inferiore a 0,75 m/s valore minimo di auto pulitura di una fognatura.

Nella letteratura specifica si trovano anche studi che mettono in relazione la velocità di formazione dell’idrogeno solforato in un’acqua di fogna deossigenata. Lo sviluppo aumenta del 7% per ogni aumento di temperatura di 1° C.

2 Pomeroy, R., and Bowlus, F. D., … Sew. Works Jour., 18, 4, 597(1946)

Ovviamente poi all’interno di una fognatura sono altri i composti maleodoranti che si possono trovare, per esempio i mercaptani. Per quanto riguarda il metano, relativamente a quanto verificatosi a Ragusa, è un’ipotesi che ritengo poco plausibile. Negli articoli relativi alla vicenda si è parlato di lavori eseguiti sulla rete fognaria. Ma il metano si forma in condizioni anaerobiche e quindi si sarebbe eventualmente potuto sviluppare in una sacca riscaldata ed isolata dal resto del condotto. Possibilità che richiama alla mia mente un classico di fantascienza, da me letto e riletto.

Queste le note del retro di copertina: “Nelle fogne di una grande città, per l’incredibile varietà di sostanze che vi confluiscono e l’infinito numero di combinazioni chimiche che ne risultano, può nascere in ogni momento qualsiasi cosa. Qui le fogne sono quelle di Chicago; il momento è alle 0,51 di una notte di settembre; la “cosa” è un grumo gelatinoso non più grande di un granello di sabbia. Un’ora dopo il granello è diventato una massa di un piede quadrato, in un’altra ora, crescendo con progressione geometrica, si espande per i collettori laterali. Alle 7 del mattino, risalendo per le tubature, la sostanza occhieggia dal foro di scarico di innumerevoli lavandini. Alle 7,35 certa Maude Wendell, casalinga, cerca di sturare il suo lavandino col dito…”

Sto parlando, sia ben chiaro di un’opera di fantascienza, una breve digressione.

Tornando in tema, l’episodio di Ragusa merita gli approfondimenti del caso, da parte delle autorità preposte. Deve far riflettere in primo luogo chi come me è impegnato a lavorare in questo settore. Ma più in generale portare l’attenzione sull’importanza di avere reti fognarie e impianti di trattamento dei reflui di qualità adeguata. E di conseguenza effettuare manutenzioni e controlli capillari per garantirne il corretto funzionamento.

 

La chimica della stretta di mano ed altre storie di olfatto e gusto.

In evidenza

Claudio Della Volpe.

I sensi umani hanno tutti, quale più quale meno, a che fare con la chimica. Anzi forse ne costituiscono il substrato, la condizione biologica. Fra di essi il gusto e l’olfatto sono quelli in cui la chimica è più implicata (anche se qualcuno potrebbe dire che la vista è basata dopo tutto su una reazione chimica anch’essa).

Prima vorrei segnalarvi un articolo non recentissimo (2015) ma molto stimolante che parla del ruolo dell’olfatto nella stretta di mano.

Il fatto colpisce per la sua apparente stranezza, ma in effetti la cosa appare rigorosamente logica e stringentemente umana. Dopo tutto siamo mammiferi e usiamo i metodi che la natura ha dato a noi come appartenenti a questa classe dei vertebrati.

L’articolo è scaricabile liberamente in rete.

Frumin I, Perl O, Endevelt-Shapira Y, Eisen A, Eshel N, Heller I, Shemesh M, Ravia A, Sela L, Arzi A, Sobel N. 2015. A social chemosignaling function for human handshaking. eLife 4:e05154. doi: 10.7554/eLife.05154 insieme con il commento della rivista Semin and Farias. eLife 2015;4:e06758. DOI: 10.7554/eLife.06758.

Di che si tratta?

Segnali chimici ad uso sociale sono parte del comportamento umano, ma come si trasmettano da un individuo all’altro è un argomento non ben conosciuto. Inoltre gli umani si salutano reciprocamente stringendosi la mano, ma i motivi di questo comportamento non sono chiari né lo sono le sue origini.

La stretta di mano non è un prodotto della società moderna, e nemmeno esclusivo del mondo occidentale. La sua origine risale a più di 5000 anni fa, confermato da geroglifici egiziani che rappresentano patti ed accordi tra uomini e dei che, solamente stringevano la mano in segno di accordo.(wikipedia)

Hera and Athena handshaking, late 5th century BC, Acropolis Museum, Athens

 Dicono gli autori:

Sebbene ci sia controversia sulla statistica della sincronia mestruale e sull’uso del termine feromone applicato a situazioni di segnalazione chemiosociale negli umani, che gli umani emettano odori che possono influenzare il comportamento e la percezione negli altri umani è una cosa su cui c’è ampio accordo. Tuttavia diversamente da altri mammiferi gli umani non usano aperte investigazioni olfattorie sui loro cospecifici. Quindi si pone la domanda di come gli umani ottengano i segnali chimici che poi così chiaramente li influenzano. Sebbene alcune culture umane includano espliciti analisi olfattive in comportamenti di saluto sterotipati come abbracciarsi e baciarsi che di fatto costituiscono nascoste opportunità di analisi olfattiva l’analisi olfattiva di persone sconosciute è largamente considerata un tabù. In questo lavoro ci siamo chiesti se la stretta di mano umana possa servire come un meccanismo subliminale di campionamento dei segnali chimici umani. La stretta di mano è comune nelle culture e nella storia anche se i suoi antecedenti funzionali rimangono non chiari e la nozione comunemente citata di mostrare che non si hanno armi ha solo un supporto scientifico limitato.

Il lavoro è sperimentale ed è consistito nell’analizzare tramite video centinaia di strette di mano fra persone ed anche il loro comportamento successivo, inoltre gli autori hanno analizzato in un numero ristretto di casi le sostanze trasferite attraverso la stretta di mano usando il trucco di coprire una delle due mani con un guanto in modo da poter sottoporre ad analisi la superficie del guanto tramite le tradizionali tecniche dell’analisi chimica.

I risultati sono stati veramente interessanti:

Il primo è che si trasferiscono molecole ben precise che sono indicate nel grafico qui sotto.

Come si vede dal grafico alcune sostanze si trovano comunque sul guanto sia a causa della sua composizione che a causa dell’inquinamento ambientale (per esempio silossani che sono ahimè ubiquitari oggi), ma alcune sono specifiche della stretta di mano e fanno parte di classi di composti che svolgono un ruolo di segnale chimico fra altre specie di mammiferi e di altri animali (anche insetti!!).

“squalene, which is a putative social chemosignaling component in several species including dogs (Apps et al., 2012) and rats (Achiraman et al., 2011); hexadecanoic acid, which is a putative social chemosignaling component in both mammals (Briand et al., 2004) and insects (Tang et al., 1989); and geranyl acetone, which is present in human secretions (Gallagher et al., 2008), but to date was considered a social chemosignaling component in insects alone.”

La seconda scoperta è stata che nella maggior parte dei casi le persone dopo una stretta di mano avvicinano la mano alla faccia o al naso entro secondi o minuti e annusano o hanno la possibilità di annusare la mano con i segnali chimici che essa ha raccolto dalla stretta.

Inoltre questo comportamento si differenzia nei dettagli a seconda se la stretta di mano è avvenuta fra persone del medesimo genere o di genere diverso.

Ed infine se si introduce artatamente un profumo artificiale nel processo, ossia una delle persone che stringe la mano ha usato un profumo artificiale e dunque la sua mnao risente di questo trattamento il comportamento successivo dell’altra persona ne viene fortemente influenzato.

La conclusione degl autori è che:

This combination leads us to conclude that handshaking may subserve sampling of social chemosignals. In addition to providing a functional framework for a common human behavior, these results imply an extensive role for social chemosignaling, which persists mostly without awareness for the signaling process.

Affascinante certamente.

L’olfatto e il gusto interagiscono durante la masticazione ed è difficile spesso distinguere gli effetti di un cibo o di una sostanza sui due sensi. E’ uno degli argomenti trattati da Bob Holmes in un libro recentemente pubblicato.

Forse per questo il gusto è il senso più “negletto” come lo definisce Holmes, un redatore di New Scientist (https://books.google.it/books/about/Flavor_The_Science_of_Our_Most_Neglected.html?id=YUp8DAAAQBAJ&redir_esc=y) Flavor, the science of our most neglected sense, W.W. Norton & Company, 2017

Di questo libro potete caricare le prime 25 pagine da GoogleBooks.

Holmes scrive brillantemente e tocca molti argomenti sia pure in modo giornalistico e forse non così profondo come si potrebbe.

Un esempio dei temi trattati è la definizione dei supergustatori, delle persone che sono dotate di una spiccata sensibilità del gusto; la classificazione è fatta sulla base della reazione al composto denominato PROP;

si tratta in effetti di un farmaco, il 6-n-propiltiouracile) un farmaco antitiroideo derivato dal tiouracile che deprime la produzione degli ormoni tiroidei.

Tutte le persone del mondo si possono dividere in tre gruppi a seconda della loro sensibilità gustativa a questo prodotto: dice Holmes:

E infine vi segnalo un altro libro più professionale sul gusto

Flavour From Food to Perception EDITED BY

Elisabeth Guichard, Christian Salles, Martine Morzel, Anne-Marie Le Bon

Questo è un vero e proprio libro professionale sui temi del gusto; il capitolo che può più interessare il chimico medio è il 6 che è dedicato alla chimica del gusto:

Qui vengono analizzate tutte le classi di molecole che hanno effetti aromatici importanti e intendiamo con aroma proprio quel territorio di confine fra gusto e olfatto di cui dicevamo prima:

Over 10000 volatile compounds have been detected in foods. Among them, only a few hundred (5–10%) are aroma compounds. Moreover, in a recent meta-analysis of 5642 publications on food aroma from 1980 to 2013 and 949 other documents, Hofmann and co-workers (Dunkel et al. 2014) iden- tified 226 key food odorants from the analysis of a total of 119 publications dealing with 227 food samples, based on their odour activity value (OAV>1).

Qui sotto un esempio di come la struttura chimica possa influenzare l’aroma di una sostanza:

Come vedete la semplice lunghezza della catena laterale cambia l’aroma della sostanza.

Sono argomenti affascinanti e poco noti a cui forse si dedicano pochi, troppo pochi di noi; voi che ne dite?

PS chi è interessato ai testi ma ha difficoltà a procurarseli si può rivolgere a me.

La lunga strada verso i conservanti naturali negli hot dog. Parte II – Il pane

In evidenza

Rinaldo Cervellati.

(la prima parte di questo post è pubblicata qui; ripreso dal n. 31 di Chemistry & Engineering newsletter on line del 25 luglio scorso)

I cibi a breve scadenza come il pane possono richiedere interventi significativi” “se si vuole andare oltre un paio di giorni di conservazione, serve una soluzione per evitare le muffe“, dice Anieke Wierenga della Corbion.

Il pane commerciale ha un odore diverso dal pane da forno perché contiene propionato, un ingrediente poco pericoloso che però non è una sostanza naturale. Se deve essere conservato per pochi giorni, alcuni pani senza additivi sintetici eviteranno di ammuffirsi utilizzando come conservante zucchero fermentato.

Prima che il pane faccia la muffa, in genere diventa stantio o raffermo. Anche se i consumatori sono scoraggiati dall’ammorbidimento del pane raffermo con il latte, come accade in pasticceria, la morbidezza è generalmente associata alla freschezza. L’indurimento del pane è dovuto agli amidi, che ricristallizzano nel tempo. I panificatori a “marchio pulito” utilizzano enzimi per impedire la cristallizzazione degli amidi.

Figura 2. Chimici degli alimenti mentre controllano gli effetti dei conservanti sulla qualità del pane

Il controllo di un pane a base di pasta priva di conservanti deve tenere anche conto della manipolazione della pasta e della cottura. I panettieri commerciali accelerano il processo con ingredienti tipo esteri di mono- e di gliceridi dell’acido diacetiltartarico, noto come DATEM e oli vegetali parzialmente idrogenati che fanno lievitare una pagnotta in breve tempo.

Sul pane commerciale la lista di additivi è lunga ma si sta facendo strada da parte delle aziende nostre clienti, un movimento teso a ridurla”, dice Anieke Wierenga.

Anieke Wierenga

Consultare database di spezie è un modo con cui le aziende alimentari e i loro fornitori di ingredienti cercano conservanti con nomi “naturali”. Label Insight, azienda di database per gli ingredienti, elenca una serie di erbe e spezie comuni che “possono agire come conservanti”. L’analisi delle etichette degli ingredienti su prodotti da forno e salumi ha dimostrato che i produttori si stanno orientando su rosmarino, aglio, zenzero, cannella e chiodi di garofano.

Le aziende alimentari sono consapevoli fino dagli anni ’90 che più di mille piante sono potenziali fonti di composti antimicrobici, molti dei quali agiscono anche come antiossidanti.

Alla Kemin, un’industria di ingredienti alimentari dello Iowa, i ricercatori identificano conservanti naturali selezionando le piante riportate in letteratura anche in relazione alla medicina popolare, come quella a base di erbe cinesi, afferma William Schroeder, direttore del reparto R & S della Kemin. L’obiettivo è quello di trovare piante funzionali che i consumatori possano apprezzare e che siano facili da coltivare. “Abbiamo escluso una bacca che cresce solo in Groenlandia“, dice Schroeder.

Se il Gruppo trova una sostanza vegetale che funziona come antiossidante, cerca di determinare il tipo di azione. Schroeder afferma che gli antiossidanti possono funzionare in uno dei seguenti modi: la chelazione, il sequestro dei radicali liberi o delle specie reattive all’ossigeno.

Una volta che è stata individuata una pianta promettente, ci possono volere anche più di 10 anni per svilupparne un ingrediente alimentare commerciale, dice Schroeder. La Kemin cerca di identificare la molecola o le molecole responsabili dell’azione conservativa e produrre estratti che non siano dannosi alla salute e interferiscano poco o niente con gli aromi degli alimenti a cui verranno aggiunti. Se l’ingrediente non è conosciuto dalla Food and Drug Administration degli USA, la società può chiederne il riconoscimento ma la procedura è piuttosto lunga.

Il rosmarino, che contiene acido carnosico, potente antiossidante, è stato un primo successo della Kemin, secondo Schroeder. L’estratto di rosmarino e i tocoferoli, conosciuti dai consumatori come vitamina E, sostituiscono gli antiossidanti sintetici quali il butil idrossianisolo (BHA) e il terbutil idrochinone (TBHQ). Un esempio più recente è l’estratto di tè verde, che contiene polifenoli antiossidanti e catechine che possono inibire la crescita delle micotossine da funghi.

Poiché l’uso di estratti vegetali come conservanti incontra il favore dei consumatori, nuove aziende alimentari cercano di scavarsi delle nicchie. Per esempio, La Biosecur Lab, con sede a Montreal, è stata fondata nel 2000, ma è entrata nel mercato alimentare solo nel 2011. Sta commercializzando alternative naturali a base di estratti di agrumi, dice il presidente Yves Methot.

Yves Methot

L’anno scorso l’azienda ha introdotto FoodGard, un antimicrobico per frutta, succhi e dolci a base di frutta. “Il nostro momento era giunto: il prodotto era proprio quello che chiedeva il mercato”, continua Methot, “gli estratti esplicano il loro potere antimicrobico per l’alto contenuto di bioflavonoidi e polifenoli”. In combinazione con un carrier di glicerina, l’ingrediente può essere utilizzato in alimenti classificati organici2.

La nostra visione è quella di sostituire sostanze di sintesi, ma possiamo farlo solo se l’azienda alimentare desidera veramente avere una ”etichetta pulita“, sottolinea Methot, “se vogliono solo qualcosa che suoni naturale, non è difficile da realizzare ma i costi sono notevoli”.

La volontà delle aziende alimentari di spendere di più per avere ingredienti da etichette pulite varia a seconda del target. Se l’azienda sta lanciando un nuovo prodotto a marchio pulito, può accettare un costo maggiore per avere l’etichetta pulita“, dice Schroeder della Kemin. Al contrario, per un prodotto già sul mercato l’azienda può non essere incline a pagare di più per la sostituzione di qualche ingrediente nella nuova etichetta.

In alcuni casi, vantare etichette pulite vale il denaro e lo sforzo, afferma Lisa Y. Lefferts, scienziato senior del gruppo di difesa dei consumatori Center for Science in the Public Interest, CSPI. La ricercatrice raccomanda alle aziende alimentari di assegnare la priorità alla rimozione di BHA, nitriti, nitrati, propil gallato, e TBHQ, sostenendo che rappresentano un rischio per la salute, incluso il cancro.

Lisa Lefferts

Ci sono molti modi per garantire la sicurezza alimentare e la scadenza, senza utilizzare conservanti che aggiungono un possibile rischio alimentare.”, dice Lefferts. Suggerisce di sostituire gli antiossidanti sintetici con le vitamine C ed E. Il congelamento, il sottovuoto possono essere soluzioni alternative.

Kantha Shelke, scienziato dell’alimentazione, avverte che i consumatori potrebbero non essere pronti ad adattarsi a tutti i prodotti naturali a causa delle scadenze più corte. Inoltre, è preoccupato che i nuovi ingredienti che vengono immessi devono ancora dimostrare di essere innocui per la salute.

“Molte aziende hanno un additivo ‘speciale’, alcuni sono miscugli misteriosi, e mi interpellano per un parere”, continua Shelke: “Solo perché è naturale o ricavato da una pianta non significa che sia sicuro”.

Courtney Schwartz

Gli esperti concordano comunque che la domanda di ingredienti per etichette pulite sta crescendo. Courtney Schwartz, responsabile delle comunicazioni per le tecnologie alimentari della Kemin, afferma di attendersi che gli estratti vegetali rappresenteranno il 60% delle vendite dell’azienda in cinque anni, a partire da circa un terzo di oggi. “L’etichetta pulita è qualcosa che i consumatori esigono“, dice, Schwartz, “non solo dai marchi premium ma anche dai marchi famosi“.

Brevi considerazioni di RC all’intero post

L’articolo di Melody Bomgarner, prendendo lo spunto da un alimento ampiamente consumato negli USA, ci fornisce la tendenza odierna del consumatore americano medio nei confronti dei conservanti e degli additivi alimentari in generale. Ovviamente la grande produzione, sempre interessata al profitto, cerca di adeguarsi all’orientamento del consumatore e la preoccupazione di Kantha Shelke sulla necessità di indagini più approfondite su possibili effetti negativi dei “nuovi” conservanti “naturali” e sul loro dosaggio resta in secondo piano. Ma, a mio avviso, un altro aspetto della questione è stato trascurato. Mi riferisco alla percezione, a quanto pare sempre più estesa nel pubblico per cui “naturale” è buono e benefico mentre “chimico” è cattivo e maligno. Percezione che ovviamente le aziende si guardano bene da sfatare, il caso del succo di sedano vs. i cattivissimi nitriti è emblematico. Ricordo che anni fa, a un convegno di illustri pedagogisti feci presente che la vitamina C (acido ascorbico), estratta da agrumi (“naturale”) e quella di sintesi (“chimica”) allo stesso grado di purezza, hanno le stesse proprietà, sollevando più perplessità che curiosità…

Tre è meglio di due.

In evidenza

Claudio Della Volpe

Il termine trimolecolare o termolecolare, in chimica, si riferisce alla cosiddetta molecolarità, da non confondere con l’ordine di reazione.

L’ordine di reazione è la somma degli esponenti* delle concentrazioni che compaiono in una equazione cinetica, mentre la molecolarità si riferisce al numero di molecole che partecipano alla reazione elementare che ha luogo in ogni singolo step di un meccanismo di reazione. L’equazione cinetica, nella maggior parte dei casi si riferisce ad un meccanismo complesso e dunque perde ogni contatto con le molecolarità di un singolo step; le due quantità si ricollegano solo se si scrive l’equazione di una reazione elementare, cioè che si verifica così come la scriviamo; in quel caso la molecolarità e l’ordine di reazione (globale) coincidono.

Dice IUPAC:

The number of reactant molecular entities that are involved in the ‘microscopic chemical event‘ constituting an elementary reaction. (For reactions in solution this number is always taken to exclude molecular entities that form part of the medium and which are involved solely by virtue of their solvation of solutes.) A reaction with a molecularity of one is called ‘unimolecular’, one with a molecularity of two ‘bimolecular’ and of three ‘termolecular’.

Tuttavia le reazioni trimolecolari sono considerate così poco probabili da essere trascurabili nei loro effetti pratici e al di sopra di tre non ci si pensa neppure.

Ma un recente lavoro pubblicato su Nature Chemistry mette in discussione questa visione delle cose:

Si tratta di un lavoro teorico , non sperimentale, ma che applica modelli di calcolo comunemente condivisi (cinetiche a partire da calcoli ab initio, ossia ab initio master equations e simulazioni di cinetiche di trasporto) e che cerca di analizzare in maggiore dettaglio la situazione delle combustioni, dunque reazioni in fase gassosa; le conclusioni sono sorprendenti, in quanto mostrano che le reazioni trimolecolari sono molto importanti e potrebbero essere decisive in alcune circostanze. Ne segue che occorra riconsiderare il loro ruolo più in generale, specie nel contesto atmosferico.

Di cosa stiamo parlando?

Una reazione chimicamente termolecolare o trimolecolare è una reazione nella quale tre diverse molecole (e.g. H, O2, H) partecipano nella rottura e nella formazione di legami chimici. La reazione è mediata da un complesso di collisione effimero (HO2**) formato dalla collisione di due molecole (H, O2) che successivamente reagisce per collisione con una terza molecola (H).

‘Le reazioni “chimicamente trimolecolari” sono state ipotizzate per la prima volta nel 1920-30 da Sir Cyril Norman Hinshelwood e Nikolay Nikolaevich Semenov nei loro studi sulle reazioni a catena (chain reaction) (che comportarono la vittoria del Premio Nobel per la chimica 1956).

Per molto tempo i chimici hanno considerato queste reazioni poco importanti e non le hanno studiate.

Si veda per esempio la tabella di reazioni considerate in un lavoro classico:

La M corsiva indica un gas inerte.

Flame Structure and Flame Reaction Kinetics. I. Solution of Conservation Equations and Application to Rich Hydrogen-Oxygen Flames di G. Dixon-Lewis Proc. R. Soc. Lond. A 1967 298, 495-513 doi: 10.1098/rspa.1967.0117

In modo analogo l’elenco su questo quasi introvabile documento del JPL, citato anche su wikipedia ma in modo scorretto: https://jpldataeval.jpl.nasa.gov/pdf/JPL_02-25_3_termolec_rev01.pdf

Michael Burke della Columbia University, uno degli autori del lavoro ha dichiarato a SCI NEWSLe combustioni sono state spesso un punto di partenza per comprendere ogni tipo di altri meccanismi chimici.”

Finora sono state considerate solo tre classi di reazioni:

(i) unimolecolari, dove un solo reagente va incontro alla rottura o alla formazione di un legame chimico per dare diversi prodotti;

(ii) bimolecolari, dove due reagenti collidono e provocano rottura o formazione di legami per dare diversi prodotti;

(iii) reazioni di associazione termolecolari, dove due reagenti collidono per formare un complesso molecolare con un nuovo legame chimico fra i due reagenti e una terza molecola , conosciuta come gas inerte (bath gas) rimuove una parte dell’energia cinetica interna della molecola finale per stabilizzarla.

“Il gas inerte è in genere considerato appunto come inerte, non reattivo, che non partecipa nella formazione o nella rottura di alcun legame, ma serve invece a estrarre una parte dell’energia del complesso molecolare. Ma se invece il complesso molecolare collide con una molecola reattiva , allora la terza molecola può partecipare al processo di rottura-formazione, dando quello che viene chiamato un prodotto di una reazione chimicamente termolecolare

Il Dr. Burke ha aggiunto: “noi abbiamo mostrato l’importanza di reazioni che coinvolgono i complessi H + O2 con altre specie radicali come in. H + O2 + H, negli ambienti di combustione.

Dato che le molecole reattive, come i radicali liberi e l’ossigeno molecolare sono i costituenti principali nella combustione e in certi ambienti planetari, c’è una significativa posssibilità di accadimento di altre reazioni chimicamente trimolecolari e di giocare così un ruolo significativo in questi altri ambienti.”

Potenzialmente ci sono innumerevoli reazioni di questa nuova classe che hanno un ruolo in come modelliamo la chimica in fase gassosa, dalla progetazione di nuovi tipi di motori alla comprensione della chimica planetaria responsabile della formazione delle nuvole, del cambiamento climatico , dell’evoluzione degli inquinanti e perfino delle reazioni che possono portare alle condizioni di vita in ambienti extraterresteri. La nostra scoperta apre un intero nuovo mondo di possibilità

Da questa descrizione si capisce perché alcuni giornali hanno parlato di una “quarta” classe di reazioni implicata dal lavoro di Burke e Klippenstein.

L’articolo parte da un sistema analogo a quello considerato nello storico lavoro di Dixon e Lewis, una fiamma planare che si propaga in una miscela di aria e idrogeno a pressione e temperatura atmosferica

Per investigare il ruolo della reazione H + O2 + R in queste fiamme, gli autori hanno quantificato la distribuzione di energia dell’HO2 che reagisce con R all’interno della fiamma, si sono chiesti se le condizioni scelte da Dixon e Lewis erano necessarie all’accadimento del processo H + O2 + R cambiando alcuni dei parametri e infine se la reazione come tale poteva influenzare la reattività generale.

Le risposte ottenute modificano il quadro che avevamo di questi processi e indicano che il processo termolecolare in cui il terzo reagente NON è un gas inerte sono importanti in linea generale e che le reazioni termolecolari non servono solo a stabilizzare il complesso bimolecolare.

Si tratta di un lavoro che, se confermato, potrebbe avere effetti culturali molto ampi e al momento non prevedibili.

Come spieghiamo a Giavazzi ed Alesina e a tutti i riformatori che vogliono solo “più scienza applicata” che la scienza di base come il lavoro teorico di Burke e Klippenstein può cambiare non solo la teoria chimica, ma la pratica di milioni di reazioni utili? Voi che ne dite?

********************************************************

* non vorrei entrare tanto nel dettaglio, ma, come si sa, l’ordine di reazione così definito è detto anche globale, mentre il singolo esponente di una specie è l’ordine di reazione parziale, per quella specie; dato che la molecolarità è globale per la reazione elementare considerata si comprende come l’ordine di reazione globale e la molecolarità di una reazione elementare possano coincidere.

Inquinamento ospedaliero.

In evidenza

Luigi Campanella, ex Presidente SCI

Un aspetto interessante e sempre più discusso dell’inquinamento riguarda l’ambiente indoor, che poi in termini statistici di ore trascorse dall’uomo supera l’outdoor (più o meno  15 a 9 hr per giorno).

Un ambiente indoor molto specifico per il tipo di inquinanti che lo affliggono e per la gravità dei danni prodotti,in quanto esercitati su comunita di cittadini più deboli è quello degli ospedali. In un ospedale poi ci sono punte e nature di preoccupazione e di attenzione diverse rispetto ai locali interessati. Per alcuni, le sale operatorie ad esempio, le specificitá di inquinanti e di gravità dei danni prodotti giá ricordate assumono connotati ancor più drammatici in quanto gli esposti oltre ai  sanitari, sono i malati, per di più operati.

Ci sono poi i locali di minore rischio,se non altro potenziale, ma dove le frequenze di presenza sono più elevate,come sale di attesa o di pronto soccorso, uffici amministrativi, infermerie.

Tornando  alle sale operatorie l’uso di anestetici può comportare un potenziale inquinamento ambientale con conseguente esposizione sia dei lavoratori che dei malati che va attentamente considerata ai fini del rispetto dei limiti stabiliti da normative vigenti e/o consigliati dai competenti organismi nazionali e internazionali. Va adottato, come criterio di prevenzione, il principio di massima cautela affinché l’esposizione  a prodotti chimici volatili pericolosi sia ridotta al minimo possibile o eliminata attraverso pratiche preventive e/o correttive.

Le acquisizioni scientifiche hanno dimostrato che alcuni gas anestetici, come il protossido d’azoto (N2O), presentano tossicità maggiore dei liquidi volatili anestetici (sevoflurano, desflurano ecc.), e pertanto sarebbero da evitare  con la conseguenza di un aumento della presenza in atmosfera di residui di  altri agenti anestetici, in particolare degli alogenati , fra i più comuni. Riguardo all’esposizione ad essi l’unica “raccomandazione ” riguarda un limite di 2 ppm quale valore “ceiling” per l’insieme degli anestetici alogenati,intendendo per valore di ceiling la concentrazione che non deve essere superata in qualsiasi momento dell’esposizione lavorativa. Tale raccomandazione fa riferimento alle ben 102 altre pubblicate dal Niosh (National Institute for Occupational Safety and Health) statunitense (1976) in merito al valore di concentrazione di agenti anestetici clorurati che potrebbero essere considerato alla stregua di un protocollo di  ottimizzazione dei requisiti di qualità.

È opportuno precisare che le indicazioni del Niosh – in riferimento alla raccomandazione sul valore limite indicato per “l’insieme degli anestetici alogenati” – sono da intendersi riferite a prodotti impiegati nel periodo storico suddetto, ovvero alotano (fluotano) ed enflurano (etrano), attualmente non più usati. Tra gli anestetici inalatori più usati nella pratica clinica vi sono sevoflurano e desflurano per i quali, tuttavia, non è stato ancora delineato un completo profilo tossicologico e, di conseguenza, definiti i valori “limite di esposizione”. Poiché comunque nelle misure di prevenzione è opportuno adottare il principio per il quale l’esposizione professionale a prodotti chimici pericolosi sia mantenuta entro i livelli più bassi possibili, a fini cautelativi è opportuno, anche per quanto attiene ai liquidi volatili anestetici di nuova generazione (per esempio, sevoflurano e desflurano), contenerne i valori di concentrazione ambientale entro i livelli più bassi possibili.

https://www.slideshare.net/kathikkhan0484/indoor-air-quality-in-hospitals

I composti organici alogenati sono fra quelli più sensibili alla degradazione fotochimica in quanto aggredibili dai radicali liberi dell’ossigeno prodotti dall’azione della luce di opportuna lunghezza d”onda (radiazione ultravioletta) sulle molecole dell’ossigeno e dell’acqua assistita da un catalizzatore semiconduttore (ad esempio biossido di titanio). Ecco perchè possono trovare un ‘applicazione importante  le pitture fotocatalitiche delle pareti delle sale operatorie,analogamente per quanto è avvenuto perl’inquinamento outdoor con il cemento fotocatalitico brevettato proprio da italiani.

Un ultimo aspetto riguarda il monitoraggio di questi inquinanti negli ambienti ospedalieri. Si deve eseguire il prelievo/campionamento garantendosi che le condizioni sperimentali del campione analizzato non siano diverse significativamente da quelle originali comportando il possibile riavvio di reazioni che si erano arrestate o anche lo start di nuove reazioni,ad esempio-ed è proprio questo il caso in questione-attivate dalla luce capace di promuovere le reazioni radicaliche secondo un meccanismo  a catena. Il fatto poi che i radicali terziari,secondari e primari abbiano attività diverse ai fini della clorurazione porta ad ulteriori complicazioni analitiche.Per evitare quindi di analizzare un campione che potrebbe non essere rappresentativo della matrice campionata è necessario procedere ad una sua stabilizzazione.

Siccità e gestione del ciclo idrico.

In evidenza

Mauro Icardi

Non sono ancora noti e definitivi i dati meteorologici dell’estate 2017. Ma dal punto della percezione possiamo certamente dire che il 2017 è stato un anno decisamente deficitario dal punto di vista delle precipitazioni.

Anche nella zona di Varese, da molti ricordata come una zona particolarmente piovosa la siccità sta causando problemi.

Il sito del Centro Geofisico Prealpino di Varese mostra a fine Luglio 2017 un deficit pluviometrico pari a 161,5 mm di pioggia da inizio anno. Tutti i mesi mostrano un deficit di pioggia caduta rispetto alle medie del periodo 1965-2012 ad eccezione del mese di Giugno in cui il saldo diventa positivo, ma con fenomeni di piogge torrenziali che hanno creato non pochi danni e problemi. E risultando in ogni caso il più caldo della media del trentennio 1981-2010.

http://www.astrogeo.va.it/statistiche/statmet.php

La tendenza è quindi quella di siccità prolungate, interrotte da fenomeni di precipitazioni violente e concentrate nel giro di poche ore.

Questo provoca diversi problemi nella gestione di impianti sia di potabilizzazione che di depurazione.

Il primo e più evidente è quello di trasporto di quantità ingenti di sabbie e residui di dilavamento delle aree asfaltate che spesso mettono in sofferenza le sezioni di dissabbiatura. Repentine variazioni di portata portano situazioni di criticità dovute a variazione dei tempi di ritenzione delle varie sezioni, dilavamento per trascinamento e elevato carico idraulico sul comparto di sedimentazione finale.

Situazioni gestibili in maniera più agevole in impianti dotati di vasche di omogeneizzazione.

La situazione inversa si verifica in periodi prolungati di siccità, ed è ormai una situazione abbastanza comune. La portata dei fiumi si riduce notevolmente, e la concentrazione di inquinanti può aumentare sensibilmente. Il tema non è nuovo. Basta vedere questo articolo che risale al 2012.

http://www.ilgiorno.it/monza/cronaca/2012/08/23/761925-siccita_inquinamento_selvaggio.shtml

Questo tipo di situazione e a buon diritto da ascriversi a quella degli inquinanti emergenti.

Gli impianti di depurazione possono scaricare acque perfettamente a norma dal punto di vista delle normative di settore. Ma con un impatto molto elevato sulla qualità ecologica, perché viene a mancare quello che è l’effetto depurativo residuo effettuato dalle comunità ecologiche dei fiumi.

Questa è stata la filosofia costruttiva e progettuale fino ad oggi. Ma gli effetti del cambiamento del clima devono far ripensare la progettazione, ed eventualmente la modifica degli impianti esistenti.

Il progetto Carbosorb che si basa su nanotecnologie è in fase di studio e sviluppo. Occorrerà valutarne le potenzialità applicative reali. In ogni caso i depuratori del futuro dovranno avere una fase di trattamento terziario molto efficiente.

http://cordis.europa.eu/result/rcn/88683_it.html

Si tratterà di combinare trattamenti tradizionali basati sulla depurazione a fanghi attivi, con una fase di trattamento che sfrutterà il fenomeno dell’adsorbimento.

Il termine “siccità” se digitato in questi giorni su un motore di ricerca produce migliaia di risultati, che mostrano una specie di bollettino di guerra. Soprattutto le zone dell’Emilia Romagna ne sono state molto colpite. Ma se si pone attenzione si può notare come molti corsi d’acqua siano in sofferenza, e le immagini in qualche caso lasciano sgomenti. Questa foto è stata scattata da me sul Fiume Tresa, che è emissario del lago di Lugano e si getta poi nel Lago Maggiore. Fiume di lunghezza modesta, solo 13 km.

Ma si nota bene di quanto il livello si sia abbassato rispetto al consueto. Questa parte del fiume è una zona d’invaso della centrale centrale idroelettrica di Creva, che come molte altre è entrata in sofferenza.

Situazione descritta in questo articolo.

http://www.lastampa.it/2017/08/15/scienza/ambiente/inchiesta/lidroelettrico-ai-tempi-della-siccit-W7H8cHvppNPoRb8w2XHf5L/pagina.html

Ma lo stesso giorno della mia gita in bicicletta lungo il Tresa ho potuto scattare un’altra foto che da l’idea di cosa sia la siccità. Scattata a Luino, sponda Lombarda del Lago Maggiore.

Qui occorre guardare la parte più consumata del palo d’ormeggio dove di solito arrivava il livello dell’acqua, e vedere dove invece adesso è il livello del lago, guardando dove l’acqua lo lambisce. Bisogna immaginare questa situazione per tutti i 215,2 km2 del bacino. Qui vi è una situazione complicata anche da una sorta di piccola guerra dell’acqua tra Italia e Canton Ticino sulla regolazione della diga della Miorina a Sesto Calende.

http://www.lastampa.it/2017/08/07/edizioni/verbania/la-pianura-ha-sete-il-lago-maggiore-si-abbassa-di-centimetri-al-giorno-v0tqfVcqakGPIS3F3CNL5K/pagina.html

E credo che le immagini, come gli articoli a corredo non abbiano bisogno di ulteriori commenti. E’ una realtà che dobbiamo affrontare. Coinvolge molti soggetti. Politici, cittadini, gestori del ciclo idrico, agricoltori. Pone a me personalmente molte domande e riflessioni. E la voglia di aumentare il mio impegno quotidiano. Lavorativo e divulgativo.

Vorrei a questo proposito citare quanto scritto dal Professor Camillo Porlezza dell’università di Pisa nella prefazione di un libro sul trattamento delle acque, prefazione dal titolo “Il chimico idrologo e la difesa delle acque”:

Chiudendo questa prefazione introduttiva, ritengo possa riscontrarsi accanto all’interessamento per un problema importantissimo per il pubblico e per i privati, il riconoscimento delle responsabilità che il chimico si assume nel suo contributo di pensiero e di lavoro all’opera di prevenzione e di repressione delle cause di inquinamento, in ciò validamente aiutato dagli esperti negli altri rami della scienza, specialmente nel campo biologico”.

Ultimamente nelle analisi di acque di pozzi di emungimento destinate ad uso potabile mi capita di riscontrare la presenza, quantificabile strumentalmente, di parametri che in passato non riscontravo. Ammonio e manganese in particolare. Non a livelli elevati e molto al di sotto dei limiti di parametro, ma questo mi ha spinto a voler verificare i risultati con metodi diversi per validare e confermare il dato. La premessa non è fatta per vanità, ma per mettere in luce il fatto che sul tema acqua occorre porre molta attenzione anche alle acque di falda, alle loro eventuali vulnerabilità. E il tema si lega alla modifica del regime delle precipitazioni, ai diversi tempi di ricarica di acquiferi e falde freatiche.

Si usa per l’acqua il termine “oro blu” da almeno un ventennio. L’acqua è contesa, per l’acqua si fanno guerre, per l’acqua si può dover emigrare e diventare profughi climatici.

Nel 1976 un film di fantascienza, “L’uomo che cadde sulla terra” racconta l’arrivo sulla terra di un alieno, interpretato da David Bowie, che una volta che è stata scoperta la sua vera identità pronuncia queste parole a chi gli chiede il perché si trovi sulla terra:

Io vengo da un mondo spaventosamente arido. Abbiamo visto alla televisione le immagini del vostro pianeta. E abbiamo visto l’acqua. Infatti il vostro pianeta lo chiamiamo “il pianeta d’acqua”. »

Il nostro pianeta è ancora un pianeta d’acqua. L’acqua ha un suo ciclo. L’acqua si rinnova. Ma qualcosa sta cambiando e sappiamo che la disponibilità di acqua non è uguale per tutti i popoli della terra in ugual misura. Sappiamo che è minacciata da inquinamento diffuso. Non possiamo far finta di niente.

Mi ha molto colpito, e ancora mi ricordo questo episodio, una cosa successa solo un paio di mesi fa. Durante un raduno cicloturistico che si è svolto a Varese ho prestato servizio come volontario per l’accoglienza dei partecipanti. La partenza delle varie escursioni ciclistiche era fissata ai giardini estensi di Varese. Molti partecipanti chiedevano di riempire la borraccia prima della partenza. Per far questo avevano a disposizione i servizi del comune, ed in particolare il lavabo con l’acqua potabile. Quando li indirizzavo a quel lavandino, in molti rifiutavano e partivano con la borraccia vuota. Eppure da quel lavabo sgorga acqua potabile. La stessa che viene fornita a tutta la città di Varese. Incredibile come questa sorta di repulsione emozionale impedisse loro di rifornirsi di acqua.

Vorrei ricordare alcune cose:

2 milioni di bambini muoiono ogni anno per consumo di acqua insalubre e per le cattive condizioni sanitarie,

800 milioni di persone non hanno acqua potabile in casa,

2,3 milioni di persone vivono in paesi a rischio idrico, cioè con una disponibilità di acqua inferiore ai 1700 m3 all’anno.

Un italiano in media consuma 40 litri per fare una doccia, mentre per i 2/3 dell’umanità 40 litri rappresentano il consumo di intere settimane.

Pensiamoci.

La lunga strada verso i conservanti naturali negli hot dog. Parte I – La carne

In evidenza

Rinaldo Cervellati.

I consumatori vogliono etichette chiare, ma garantire sicurezza alimentare e lunga scadenza senza conservanti di sintesi è una vera sfida.

Così il sottotitolo del recente articolo a firma Melody M. Bomgarner, apparso sul n. 31 di Chemistry & Engineering newsletter on line il 25 luglio scorso.

Come noto a tutti, hot dog è un termine folkloristico, ormai entrato nell’uso comune, con cui negli Stati Uniti e in Gran Bretagna si indica un insaccato analogo al würstel, generalmente servito all’interno di un panino di forma oblunga, spesso condito con ketchup, maionese o senape,  e talvolta accompagnato da verdure. Meno persone sanno invece che mentre in USA e in Gran Bretagna il termine hot dog indica semplicemente la salsiccia, in molti Paesi Europei questa locuzione si usa esclusivamente per intendere la pietanza nel suo complesso, ossia il panino, l’insaccato e le eventuali salse di accompagnamento. Ciò nonostante l’ingrediente principale dell’hot dog, la salsiccia, è ampiamente commercializzata dalla grande distribuzione praticamente in tutto il pianeta così che un hot dog fatto in casa non si nega a nessuno…

Oscar Mayer, il marchio-icona degli hot dog negli Stati Uniti vanta ora salsicce prive di nitrati, nitriti o altri conservanti artificiali, e la casa madre Kraft Heinz afferma che la tendenza a pretendere etichette chiare e pulite è ormai un fatto assodato.

Greg Guidotti responsabile del marketing, illustrando il lavoro del marchio Oscar Mayer, ha affermato che si è trattato di un’impresa che ha richiesto più un anno di sperimentazioni di ricette per arrivare a un prodotto che, senza aggiunta di additivi sintetici, ha mantenuto lo stesso aroma e lo stesso prezzo delle precedenti versioni.

Greg Guidotti

Ma la ricetta potrebbe cambiare di nuovo. I lettori attenti delle etichette si accorgeranno che i nuovi hot dog (chiamati frankfurters) contengono succo di sedano, una fonte naturale di nitriti, in sostituzione del conservante nitrito di sodio aggiunto nel prodotto precedente. Negli Stati Uniti, le regole di etichettatura permettono che il succo di sedano sia elencato come un aroma naturale, ma è richiesta una dichiarazione di responsabilità in merito all’utilizzo di prodotti naturali contenenti nitriti. Per ora, il succo di sedano è un’alternativa attraente per i produttori di carne perché suona come un cibo piuttosto che un additivo chimico.

Oggi, sia le aziende che gli acquirenti vogliono vedere “nomi riconoscibili sulle etichette”, spiega Anieke Wierenga, direttore senior dell’innovazione alimentare presso la società olandese Corbion e confessa: “Come industria alimentare, non abbiamo la piena fiducia dei nostri consumatori. Vogliono controllarci e sapere cosa c’è dentro ciò che acquistano “.

In figura sono mostrati i principali additivi naturali e sintetici utilizzati nell’industria delle carni lavorate e del pane.

I giganti alimentari tra cui Kraft Heinz, General Mills e Nestlé stanno impegnando tempo e risorse nella rielaborazione delle loro ricette al fine rimuovere i coloranti e gli aromi artificiali per offrire un prodotto più naturale. La modifica dei conservanti richiede costi molto più alti perché nessuno vuole rischiare con la sicurezza alimentare. L’industria sta valutando ingredienti a base di piante, ma potrebbero volerci anni prima di ottenere una soluzione naturale per ogni problema di conservazione degli alimenti.

Gli esperti del settore sottolineano infatti che non è possibile produrre alimenti privi di qualsiasi microrganismo e, anche se non tutti sono dannosi, alcuni batteri o funghi possono produrre enterotossine, aflatossine e tossine botuliniche mortali.

Ecco perché l’industria ha utilizzato (e utilizza) antimicrobici sintetici – nitrato di sodio, benzoato di sodio, propionato e simili – per eliminare tutta una gamma di batteri, lieviti e funghi. Sono poco costosi, ne servono piccole quantità e sono sicuramente efficaci.

Ma l’universo della conservazione è andato oltre gli antimicrobici. Ci sono antiossidanti per evitare l’irrancidimento di grassi e oli, acidulanti che abbassano il pH degli alimenti per regolare l’acidità, e ingredienti che mantengono colore, sapore e umidità durante la conservazione del prodotto.

“La sfida di eliminare conservanti sintetici a favore di quelli naturali è enorme”, spiega Kantha Shelke, scienziato alimentare e consulente dell’istituzione privata Corvus Blue che si occupa di ricerca e sviluppo di additivi, “l’industria alimentare non è ancora ben consapevole, anche se sta impegnandosi su questa strada”.

Per soddisfare i requisiti del marchio pulito, la Corbion Food Ingredients ha accelerato i suoi sforzi di ricerca e sviluppo. Dice Anieke Wierenga, direttore senior della Corbion: “Prima di ‘etichetta pulita’ potevamo offrire solo uno o due prodotti per soddisfare questa necessità, ora l’offerta per i clienti è più di dieci prodotti all’anno”.

In alcuni casi, un ricercatore può sviluppare ingredienti naturali per vedere poi che le preferenze dei consumatori cambiano di nuovo. Ad esempio, la Corbion ha prodotto acido lattico di fermentazione naturale per controllare la Listeria[1] nei prodotti a base di carne. Ma di recente, le aziende del settore alimentare hanno scoperto che i lattati non soddisfano i criteri di “naturalità” di molti consumatori. Questi preferivano l’acido acetico, etichettato come aceto.

Il problema è che l’aceto ha un sapore aspro, a differenza dei lattati che sono quasi senza sapore, tuttavia le ricette di alcuni alimenti dovevano essere rinnovate per tener conto di entrambe le necessità.

“Ora i nostri clienti vengono da noi prima del processo di formulazione dei prodotti alimentari con la convinzione che possiamo aiutarli”, dice Anieka, affermando: “Il team R & D della Corbion ha sviluppato aceti personalizzati, alcuni con destrosio fermentato, per fornire il giusto profilo sensoriale e tenere sotto controllo la Listeria.”

Gli ingredienti che la Corbion utilizza insieme all’aceto per la conservazione dei prodotti a base di carne includono l’estratto di tè al gelsomino, un antiossidante, e agrumi in polvere che impediscono la fuoriuscita di umidità dal prodotto.

Se i consumatori dovessero individuare il succo di sedano come fonte di nitriti negli hot dog e in altri prodotti a base di carne macinata, i produttori vivranno un momento difficile. L’uso di nitriti in carni macinate è stato bandito perché possono formare nitrosammine che causano il cancro. L’effetto sanitario è lo stesso indipendentemente dalla provenienza dei nitriti.

“Sostituire i nitriti, è difficile”, ammette Wierenga, “dato che svolgono un ruolo importante nel prevenire la formazione della tossina botulinica. “L’industria è abbastanza lontana dalla soluzione di questo problema”.

Una strategia per avvicinarsi alle “etichette pulite” è sostituire alcuni conservanti sintetici con ingredienti naturali, mantenendo comunque uno o due dei vecchi conservanti, e questa strategia è nota come ‘approccio misto’.

“Forse si potrebbe prevedere un declino dell’uso di prodotti contenenti conservanti sintetici a favore di quelli formulati con conservanti naturali, ma non lo abbiamo notato con i nostri prodotti”, afferma Paul Hogan, vice presidente della Emerald Kalama Chemical, produttore di conservanti a base di benzoati. A sostegno dell’affermazione, Hogan riporta una ricerca di mercato secondo cui dal 2012 al 2016 il numero di nuovi prodotti alimentari contenenti benzoato di sodio è aumentato dell’86%, a fronte delle richieste di conservanti naturali aumentata del 69%. Poiché la dicitura “tutto naturale” su un’etichetta alimentare non è legale negli Stati Uniti, le decisioni relative alla “naturalità” degli ingredienti sono lasciate al marchio alimentare. Al contrario, l’uso di prodotti sintetici per la conservazione non è consentito negli alimenti certificati come organici[2].

I condimenti, che tendono a rimanere nelle cucine dei consumatori per mesi, se non anni, beneficiano dell’approccio misto, dice Hogan. La senape spesso contiene sia l’aceto che il benzoato di sodio perché “l’aceto da solo non fornisce il livello di controllo microbico necessario per prevenire il deterioramento causato da una lunga conservazione”.

[1] La Listeria è un batterio Gram-positivo che produce una tossina pericolosa per la salute.

[2] Lascio il termine inglese “organic” perché tutte le volte che sento dire o vedo scritto “biologico” o “bio” metterei mano a una pistola, come disse un tizio da cui peraltro sono lontano anni-luce…

Il problema non è il fipronil.

In evidenza

Claudio Della Volpe.

Il caso fipronil che si è scatenato in questi giorni fa intravedere, a chi lo legge fra le righe, alcuni dei meccanismi che si attivano attorno alla chimica e che condizionano la nostra esistenza come chimici e come cittadini.

Cosa è successo? Il fipronil è un insetticida   nome comune fluocianobenpirazolo è un insetticida ad ampio spettro che disturba l’attività del sistema nervoso centrale dell’insetto impedendo il passaggio degli ioni cloruro attraverso il recettore del GABA e il recettore del Glu-Cl. Ciò causa la ipereccitazione dei nervi e dei muscoli degli insetti contaminati.

La selettività d’azione del fipronil nei confronti degli insetti dipende da un’efficacia maggiore a livello dei recettori del GABA ma anche dal fatto che i recettori del Glu-Cl non esistono nei mammiferi.

Il fipronil è un veleno a lenta attività d’azione: una volta inserito in un’esca, l’insetto viene avvelenato ma non muore istantaneamente ma ha il tempo di ritornare alla colonia o nella tana.

Si lega al sito allosterico dei recettori del GABA e al recettore del Glu-Cl (quest’ultimo presente nell’insetto e non nei mammiferi), bloccando o alterando la trasmissione nervosa dell’insetto. Nei mammiferi e vertebrati può essere dannoso grazie ai metaboliti e al fatto che un uso scorretto ha recentemente provocato danni ai produttori di uova. Usato per la disinfestazione del pidocchio rosso (in realtà un acaro) nella produzione industriale di uova e allevamenti di ovaiole il Fipronil si è rinvenuto come residuo indicando così l’impiego illegale. Per la disinfestazione delle galline ovaiole, anche a livello industriale, è bene impiegare l’alternativa rappresentata dal calore

Tutto questo lo trovate su wikipedia.

E’ pericoloso per l’ambiente e ovviamente per tutti gli insetti impollinatori. Altre informazioni generali le trovate qui o qui.

Eppure si tratta di una sostanza che si usa negli animali da compagnia, come gatti e cani ma di cui è proibito l’uso per gli animali che entrano nel ciclo alimentare umano, come le galline.

La spiegazione è sempre la solita; usandolo opportunamente il fipronil eventualmente accoppiato con altre sostanza repellenti tiene lontani i parassiti dai nostri beniamini; se usato in modo massivo in animali da cortile però la dose che può raggiungere i tessuti degli animali e di seguito i nostri si avvicina pericolosamente a valori non tollerabili; inoltre in questo modo è più difficile evitarne la circolazione nel’ambiente; insomma il fipronil va bene se usato correttamente. Siamo sempre a quel concetto base che lega chimica e medicina: è la dose che fa il veleno. Semplice.

Cosa è successo?

La lotta al pidocchio rosso (e ai parassiti delle galline) diventa necessaria quando le condizioni di vita delle galline ovaiole non sono più quelle della nostra infanzia, l’orto di casa o l’orto del piccolo contadino, ma il grande capannone indstriale dove le galline sono ammucchiate letteralmente le une sulle altre; in questo caso l’uso dell’insetticida si rivela meno costoso del metodo fisico “termico”, ma è vietato dalla legge.

Si sa la concorrenza è dura e allora qualcuno si fa furbo.

The Public Prosecutor consider three Dutch persons suspects in the fipronil contamination scandal that resulted in millions of eggs being recalled from supermarkets. The suspects are two managers of pest control company ChickFriend and Nick H., whose company is suspected of delivering fipronil to the Barneveld company, NOS reports. ChickFriend is considered the source of the fipronil contamination in the Netherlands.

The authorities believe that H.’s company, called Pro-farma according to the Telegraaf, delivered fipronil to Chickfriend as well as a Belgian chicken farmer in feed form. Containers marked with the company’s name were found at ChickFriend. On Pro-farma’s website the feed delivered to the Belgian farmer is described as “positive for the immune system” of chickens.

H.’s home in Mill, Noord-Brabant was one of the addresses raided in the fipronil investigation on Thursday. H. was not home at the time. He told the Telegraaf from his vacation home that he is innocent. He blames Patrick R. – the owner of the Belgian company also believed to have delivered fipronil to ChickFriend – for everything. H. and R. used to own a company together, but had a falling out. According to H., his company’s name was found at ChickFriend because R. is illegally using it.

(http://nltimes.nl/2017/08/11/three-dutch-suspected-fiiponil-scandal)

Alcuni furbissimi venditori di insetticidi olandesi (Pro-farma e Chickfriend, a Barneveld un comune di 50.000 abitanti in Olanda, due dei cui dirigenti sono stati arrestati) ed altri ancor più furbi industriali delle uova Poultry Vision nel territorio fra Belgio e Olanda, hanno deciso di saltare il fosso.

Il sito web dell’azienda è al momento indisponibile (http://www.chickfriend.nl/).

Per capire da dove è partito tutto è necessario fare un passo indietro al 22 luglio, nelle sonnolente campagne del Gelderland, la zona rurale più ad est dei Paesi Bassi e della provincia di Anversa, in Belgio. All’alba, le autorità per la sicurezza alimentare dei due Paesi fanno contemporaneamente irruzione in diversi anonimi capannoni dell’industria agro-alimentare locale. Ma tanto gli olandesi quanto i belgi puntavano, rispettivamente, a due aziende del settore avicolo: Chickfriend e Poultry-Vision. La prima è la società olandese che ha prodotto il pesticida ottenendo all’ingrosso il prodotto mescolato con fipronil dalla seconda, che ha sede in Belgio e si occupa di pulire i pollai eliminando zecche e parassiti, che incidono negativamente sul volume della produzione.

Tanto la Federaal Agentschap voor de veiligheid van de voedselkete (FAVV), autorità per la sicurezza alimentare di Bruxelles, quanto la controparte olandese Voedsel-En Warenautoriteit (NVWA) cercavano conferme a un’informazione che il procuratore di Anversa aveva sul tavolo già da tempo: la presenza di uova contaminate da un pesticida vietato, l’ormai noto fipronil, un prodotto ampiamente utilizzato per animali domestici ma vietato nell’industria alimentare e classificato dall’Oms come “moderatamente tossico” per gli esseri umani. Quelle uova, avrebbero poi accertato nelle Fiandre, provenivano da allevamenti olandesi. Le due autorità non fanno un buco nell’acqua: nel giorno dell’ispezione, i belgi arrestano il proprietario di Poultry-Vision con l’accusa di frode e i colleghi nei Paesi Bassi mettono i sigilli a sei società che producono uova e alla Chickfriend. Il composto utilizzato dalla ditta di Anversa non sarebbe stato pesticida al 100%, ma una miscela di insetticidi consentiti e di fipronil.

Secondo gli inquirenti gli scenari possibili sono due: il primo è che la stessa Chickfriend non sapesse che stava utilizzando prodotti non consentiti, l’altro è che Poultry-Vision abbia offerto un prodotto economico a scapito della sicurezza dei consumatori con il beneplacito della società di Barnveld. Quest’ultima è la versione dell’autorità olandese NVWA, agenzia finita sotto il fuoco incrociato del Parlamento de l’Aja e della Commissione europea per non aver controllato a dovere la qualità delle uova immesse sul mercato unico europeo. D’altronde l’Olanda è il più grande esportatore di uova del continente e uno dei principali al mondo, con una fetta di mercato del 12%. Per questo motivo la gestione della crisi – fin dai primi focolai – a metà tra l’allarmismo e l’invito alla calma, è sembrata a tutti molto amatoriale. A partire dalla manciata di codici di uova da non mangiare pubblicati il 1° agosto sul sito di NVWA e dalle poche informazioni comunicate: sentita da IlFattoQuotidiano.it lo stesso giorno, l’autorità olandese aveva minimizzato tanto i rischi quanto la reale diffusione delle partite contaminate. Se il pericolo per la salute è rimasto comunque sotto la soglia di rischio, l’incidente con l’azienda di provincia è diventato un caso continentale.

(http://www.ilfattoquotidiano.it/2017/08/12/uova-al-fipronil-allarmi-negati-e-tagli-ai-controlli-la-gestione-amatoriale-della-crisi-di-olanda-e-belgio/3790221/)

Qualcuno mi dirà: ma Della Volpe non lo sai che dal 2012 le galline non si possono più allevare in batteria?

C’è infatti una disposizione europea, ma che sfortunatamente non è rispettata nella maggior parte dei paesi.

Dice la LAV (http://www.lav.it/download.php?t=files&id=4453)

Ogni anno sul territorio dell’Unione Europea vengono allevate oltre 400 milioni di galline ovaiole, circa il’68% delle quali sono rinchiuse nelle gabbie di batteria degli allevamenti intensivi. La natura sterile e altamente restrittiva di queste gabbie non consente alle galline di esprimere la maggior parte dei normali modelli di comportamento, quali la ricerca del foraggio, la cova delle uova nei nidi, beccare sul terreno, distendere le ali. La mancata soddisfazione di tali primari bisogni determina negli animali un alto grado di frustrazione e stress.

Ogni gallina dovrebbe avere a disposizione uno spazio di soli 550 cm2, ma molto spesso, in violazione delle leggi, tale spazio è addirittura di 450 cm2, di poco inferiore a quello di un foglio a A4, nel quale è impossibile per l’animale compiere movimenti naturali, stirarsi, aprire le ali o semplicemente girarsi nella gabbia senza difficoltà. L’impossibilità di soddisfare bisogni etologici primari, unita all’elevato livello di produzione di uova cui sono sottoposti questi animali, determina nelle galline di batteria fragilità delle ossa e molte di loro soffrono per la rottura delle stesse nell’arco della vita di circa un anno, prima di essere inviate al mattatoio.

La Direttiva Europea del 1999 sulla protezione delle galline ovaiole negli allevamenti ha introdotto il bando delle gabbie di batteria convenzionali a partire dal 1° gennaio 2012. La Direttiva rappresenta una storica vittoria per il movimento animalista, ma l’enorme miglioramento delle condizioni di vita degli animali che questa comporta è minacciato dall’industria avicola, che chiede di ritardare ulteriormente il bando delle gabbie di batteria. L’industria è preoccupata dalla crescita dei costi ma la Commissione Europea, con un apposito studio sull’impatto della Direttiva, ha dimostrato che tali preoccupazioni non hanno ragion d’essere. L’industria avicola ha avuto ben 11 anni di tempo per organizzare una riconversione ma quasi nulla è stato fatto anzi, sono state perseguite politiche volte a posticipare tale data e ad ostacolare in ogni modo tale cambiamento.

Mentre è facile capire se le uova come tali provengano da una zona o da un’altra (il codice di provenienza è stampato su tutte le uova) è praticamente impossibile capire da dove provengano i derivati delle uova; la legge non protegge il cittadino su questo aspetto se non indirettamente.

Dice un esperto di questi temi Rolando Manfredini di Coldiretti:

http://www.ilfattoquotidiano.it/2017/08/11/uova-contaminate-scandalo-detichetta-e-di-sostanza-coldiretti-lue-e-debole-e-incline-alle-ragioni-della-grande-industria/3789932/

E’ soprattutto una storia che si ripete col consumatore, che è il terminale ultimo di tutta la filiera produttiva, lasciato solo e senza possibilità di difesa. Nel caso specifico può cautelarsi dall’assumere le uova contaminate guardando il Paese d’origine sull’etichetta. Per tutti i prodotti derivati e lavorati però non c’è niente di simile: o prende le uova e si fa in casa la pasta e le merendine oppure deve fidarsi. Noi consigliamo sempre di rivolgersi a un produttore della filiera corta. Ma altri consigli non so darne, perché autorità e istituzioni non danno altre certezze”.

Perché in Europa la battaglia per avere una tracciabilità totale degli ingredienti non è mai passata. “Bruxelles l’ha vista come una sorta di attentato alla libera circolazione delle merci. Concetto che nasconde in realtà l’interesse degli industriali della trasformazione a potersi rifornire dove meglio credono e meno spendono, senza dover dare indicazioni. Tantomeno al consumatore finale”. Ed ecco servito il pasticcio perfetto: se l’uovo tossico è entrato nel circolo nei lavorati vai a sapere dove è finito.

“In realtà le autorità sanitarie europee hanno i mezzi per ricostruirlo e lo stanno facendo, come dimostrano i sequestri. Ma quello che non può farlo è chi se le deve mangiare, il cittadino” dice Manfredini che la sa lunga e con l’occhio addestrato unisce i puntini spazio-temporali. “Mi fa rabbia che queste cose succedano sempre negli stessi Paesi. Sarà un caso? Mi indigna come le autorità olandesi abbiano dichiarato in un primo momento che era stata rilevata una presenza ma che non c’erano problemi, in un secondo che il prodotto poteva essere moderatamente pericoloso e infine che quello stesso prodotto è molto pericoloso per i bambini. Insomma le informazioni centellinate, tardive, contraddittorie sembrano rese apposta per coprire delle responsabilità. Idem in Italia, dove il Ministero della Salute dice che non c’è alcuna partita alimentare contaminata e poi passa ai sequestri”

Sorvoliamo sulle sciocchezze tipo i titoli “uova infette” usato da RaiNews che dimostrano solo la confusione e l’ignoranza di chi li ha scritti ed usati. Contaminate al più, ma certo non infette.

La questione chiave non è la Chimica cattiva, le uova “infette” di fipronil come scrive beceramente Rai News, ma l’uso improprio di sostanze vietate a scopi di profitto. E’ il profitto non la chimica il responsabile di questa situazione, un profitto che condiziona anche le leggi europee e i controlli sulla loro applicazione; cosa aspettano i nostri politici ad OBBLIGARE al loro rispetto? noi chimici dobbiamo denunciare, denunciare, denunciare ogni violazione etica e legale senza aspettare che lo facciano altri.

Mentre tutti i giornali si affrettano a rassicurare che il fipronil non è poi così tossico, quasi nessuno denuncia PERCHE’ esso venga usato, in che condizioni e con che fini; sembra si possa dire, vabbè in fondo non è così tossico questo prodotto di sintesi e poi ce ne siamo accorti in tempo.

Ma scavando la verità è diversa: non è questione di chimica, questo prodotto si usa senza problemi in altri contesti, qua il problema è che chi produce uova e alleva galline non rispetta le regole perchè così fa più soldi e alcuni CRIMINALI non contenti risolvono i problemi prodotti da metodi di allevamento ILLEGALI usando prodotti chimici non permessi.

Il dito indica la Luna , non state a guardare il dito.

Siamo noi chimici PER PRIMI a dover denunciare queste pratiche criminali nell’uso del fipronil, ma, come cittadini, anche le pratiche scorrette di chi non si adegua alle leggi sull’allevamento delle galline.

Tra l’altro meno carne, meno gas serra; l’abbiamo scritto tante volte.

E qui al contrario vale la pena di considerare che milioni di uova mandate al macero sono una oscena distruzione di tonnellate e tonnellate di alimenti che avrebbero sfamato migliaia di persone, ma anche enormi problemi di smaltimento di rifiuti che sarebbe interessante capire se avviene recuperandone alcunchè; i tre furbetti dovrebbero pagare non solo il conto penale ma anche quello ambientale delle loro azioni. Voi che ne dite?