Una lingua artificiale.

In evidenza

Rinaldo Cervellati

“Una “lingua artificiale” a base di detergente può identificare le marche di acqua in bottiglia”

E’ il titolo principale di un articolo di Prachi Patel comparso sul fascicolo on-line di Chemistry & Engineering News dell’11 dicembre scorso. Nel sottotitolo, l’estensore specifica che si tratta di un assemblaggio contenente un singolo tipo di sensore fluorescente in grado di rilevare 13 ioni metallici diversi.

Questo assemblaggio (“lingua chimica”) è stata messa a punto da un gruppo di ricerca misto delle Scuole di Chimica e Ingegneria Chimica e di Fisica e Tecnologia dell’Informazione dell’Università di Shaanxi (Cina), coordinati dalla Dr Liping Ding (L. Zhang et al., A Fluorescent Binary Ensemble based on Pyrene Derivative and SDS Assemblies as a Chemical Tongue for Discriminating Metal Ions and Brand Water, ACS Sensors, 2017, DOI: 10.1021/acssensors.7b00634). Il sensore chimico realizzato dai ricercatori cinesi utilizza un singolo tipo di molecola fluorescente per rilevare e quantificare 13 ioni metallici diversi.

I sensori fluorescenti sono particolarmente adatti per la rilevazione in tempo reale di quantità minime (livello nanomolare) di composti o ioni bersaglio in soluzione. In queste applicazioni, le molecole includono tipicamente due parti: un recettore collegato a un colorante fluorescente. Quando il recettore si lega al suo bersaglio, innesca un cambiamento nel colore, nell’intensità o nella durata dell’emissione luminosa del colorante. Questa risposta viene usata per identificare e quantificare la concentrazione della molecola bersaglio (analita).

Per questo tipo di applicazione, i ricercatori hanno in genere utilizzato un insieme di sensori, ciascuno posto in pozzetti separati di una piastra, per misurare la quantità di più tipi di molecole in un campione. Utilizzando tali insiemi di sensori, i ricercatori hanno realizzato lingue artificiali in grado di identificare diverse bevande analcoliche, whisky e vini. Queste “lingue” possono inoltre consentire il monitoraggio della qualità dell’acqua e permettere ai consumatori di testare i prodotti alimentari per la contaminazione da metalli pesanti.

Ma questi insiemi di sensori sono tediosi da utilizzare, richiedono tempo e non poca quantità di campione, afferma Liping Ding, pertanto insieme ai miei colleghi abbiamo cercato di semplificare sia il metodo sia l’apparecchiatura.

Il nuovo sensore messo a punto dai ricercatori cinesi utilizza una singola sonda molecolare che può emettere fluorescenza a quattro diverse lunghezze d’onda, a seconda della lunghezza d’onda della luce applicata al campione. Quando diversi ioni metallici si legano, il pattern di fluorescenza cambia sensibilmente in modo tale da consentire di distinguerli in soluzione.

La parte fluorescente del sensore è un colorante a base di pirene contenente un gruppo funzionale amminico che lega gli ioni metallici. Quando vengono aggiunti all’acqua insieme al detergente più comune, il sodio dodecil solfato (SDS), le molecole del detergente si aggregano in micelle.

Formazione di una micella

Le micelle sono aggregati molecolari di forma sferica con superficie idrofila caricata negativamente, e interno idrorepellente. Gli aggregati incorporano le molecole del sensore: la parte pirenica idrofobica viene intrappolata all’interno delle micelle mentre l’estremità amminica idrofila punta verso l’esterno della soluzione e si lega agli ioni metallici, attratti dalla superficie negativa.

Questa interazione provoca un cambiamento nelle dimensioni e nella forma degli aggregati micellari. Questo cambiamento strutturale a sua volta fa variare l’intensità della fluorescenza in ciascuna delle quattro lunghezze d’onda, tipica per un dato ione metallico. La combinazione dei cambiamenti a diverse lunghezze d’onda costituisce quindi un modello di riconoscimento per un particolare ione metallico, afferma Ding.

Schema del metodo. Quando gli ioni metallici si legano ai fluorofori del sensore (mezzalune rosa) o interagiscono con la parte anionica delle micelle di detergente, la struttura delle sfere cambia, come pure l’intensità della luce dei fluorofori a quattro lunghezze d’onda.

I ricercatori cinesi sono stati in grado di registrare modelli di riconoscimento unici per 13 diversi ioni metallici: Cu2+, Co2+, Ni2+, Cr3+, Hg2+, Fe3+, Zn2+, Cd2+, Al3+, Pb2+, Ca2+, Mg2+ e Ba2+. Applicando un algoritmo di riconoscimento ai diversi pattern dei segnali fluorescenti, si potrebbero individuare più ioni metallici presenti nella soluzione in esame.

Le marche di acque minerali in bottiglia hanno diversa composizione e quantità di ioni metallici, ciò che le rende un test ideale del nuovo sensore. Quando i ricercatori hanno testato tali campioni con il loro sensore, hanno potuto discriminare fra acqua del rubinetto e acqua minerale e identificare otto diverse marche di acqua minerale. Il sensore potrebbe infine essere utilizzato per monitorare la qualità dell’acqua potabile o rilevare contraffazioni dell’acqua in bottiglia, conclude Ding.

Liping Ding

Scienziate che avrebbero potuto vincere il Premio Nobel: Marie Maynard Daly (1921-2003)

In evidenza

Rinaldo Cervellati

Marie Daly nacque il 6 aprile 1921 a Corona, un quartiere nel distretto di Queens, New York da Ivan. C. Daly e Helen Page. Il padre Ivan, immigrato dalle Indie Occidentali, giunto a New York iniziò gli studi di chimica alla Cornell University ma non potè continuarli per mancanza di denaro, trovò lavoro come impiegato postale. La madre Helen, originaria di Washington era un’accanita lettrice in particolare di libri incentrati sulle scienze e gli scienziati. Ispirata dalla vicenda del padre e dalle letture della madre, Marie dopo aver completato gli studi secondari all’Hunter High School, un istituto femminile dove fu ulteriormente incoraggiata a studiare chimica, s’iscrisse al Queens College, a Flushing, un altro quartiere del distretto di Queens. Ottenne il B.Sc. in chimica nel 1942 con lode e il titolo di Queens College Scholar, riservato al top 2,5% dei diplomati dell’anno.

Marie Maynard Daly

Questi risultati, insieme alle necessità di sostenere lo sforzo bellico permisero a Daly di ottenere borse di studio per proseguire la carriera alla New York University e poi alla Columbia University.

Mentre studiava alla New York University, Daly lavorò come assistente di laboratorio al Qeens College. Completò gli studi per il master in un anno, ottenendolo nel 1943. Continuò a lavorare al Queens come tutor di chimica e s’iscrisse al programma di dottorato alla Columbia University, dove ebbe come supervisore Mary L. Caldwell[1], che la aiutò a capire come alcune sostanze prodotte dal corpo umano intervengono nella digestione dei cibi. Daly completò la tesi “Studio dei prodotti formati dall’azione dell’amilasi pancreatica sull’amido di mais”, ottenendo il Ph.D. nel 1947, prima donna afroamericana a ottenere il dottorato in chimica.

Daly in toga e tòcco

Per un anno lavorò come insegnante istruttore di scienze fisiche all’Howard University facendo anche ricerca con Herman Branson[2]. Dopo aver ottenuto dall’American Cancer Society un finanziamento per proseguire gli studi post-dottorato si recò al Rockefeller Institute, dove insieme al Dr A.E. Mirsky[3] studiarono i nuclei dei tessuti cellulari. Lo scopo di queste ricerche era determinare le composizioni degli acidi nucleici deossipentosi presenti nel nucleo. Daly ha inoltre esplorato il ruolo della ribonucleoproteina citoplasmatica nella sintesi proteica. Usando l’amminoacido glicina radiomarcata, è stata in grado di misurare il modo di variazione del metabolismo delle proteine in condizioni di alimentazione e di digiuno nei topi. Ciò le permise di monitorare l’attività del citoplasma mentre la glicina radiomarcata era assorbita nel nucleo della cellula.

Marie Daly in laboratorio

Nel 1953, dopo la descrizione della struttura del DNA di Watson e Crick, la visuale di Daly cambiò in modo significativo: improvvisamente, il campo di ricerca sul nucleo cellulare ebbe molte opportunità di finanziamento.

Nel 1955 Daly ritornò alla Columbia University e lavorò nel College di Medicina e Chirurgia insieme al Dr Quentin B. Deming. In collaborazione con lui iniziò a studiare gli effetti che l’invecchiamento, l’ipertensione e l’aterosclerosi provocano sul metabolismo delle pareti arteriose. Continuò questo lavoro come assistente professore di biochimica e medicina presso l’Albert Einstein College of Medicine della Yeshiva University di New York, dove lei e Deming si trasferirono nel 1960. Le piaceva insegnare agli studenti di medicina e s’impegnò per favorire l’ingresso nelle scuole di medicina a studenti delle minoranze etniche. Nel 1971 è stata promossa a professore associato, per conto dell’ l’American Heart Association studiò l’effetto del fumo di sigaretta sui polmoni e le possibili cause dell’infarto cardiaco.

Daly è sempre stata molto riservata sulle sue esperienze di donna di colore in un ambiente prevalentemente maschile e non poco razzista, ma non c’è dubbio che abbia avuto affrontare una strada tutta in salita e molto irta per emergere.

È stata membro attivo e ha ricoperto incarichi in molte società scientifiche fra le quali l’American Cancer Society, l’American Association for the Advancement of Science, l’American Heart Association. Per due anni è stata membro del consiglio di amministrazione dell’Accademia delle scienze di New York per due anni. È stata designata come ricercatrice in carriera dal Health Research Council della città di New York.

Omaggio a Marie Maynard Daly

Daly andò in pensione dall’Albert Einstein College of Medicine nel 1986 e nel 1988 ha istituto una borsa di studio intitolata al padre, per studenti afroamericani che intendono specializzarsi in chimica e fisica al Queens Colllege. Sicchè Daly non solo si è spinta verso traguardi accademici e di carriera per sé, ma per quanto possibile ha lasciato più aperta la porta per l’ingresso di persone di colore nel mondo della ricerca scientifica.

Nel 1999, è stata riconosciuta dalla National Technical Association come una delle prime 50 migliori donne in Scienze, Ingegneria e Tecnologia.

È morta a New York il 28 ottobre 2003.

Bibliografia

Per il post

Dr. Marie Maynard Daly, a Trailblazer in Medical Research,

http://www.ebony.com/black-history/marie-maynard-daly-ebonywhm#axzz4MdFJbNYu

Marie M. Daly https://www.biography.com/people/marie-m-daly-604034

Marie Maynard Daly https://www.chemheritage.org/historical-profile/marie-maynard-daly

https://en.wikipedia.org/wiki/Marie_Maynard_Daly

Pubblicazioni di Marie M. Daly (periodo el Rockefeller Institute)

Marie M. Daly,* A. E. Mirsky, H. Ris, The Amino Acid Composition and Some Properties of Histones, J. Gen. Physiol., 1951, 34, 439-450.

Marie M. Daly, A. E. Mirsky, Formation of Protein in the Pancreas, J. Gen. Physiol., 1952, 36, 243-254.

Marie M. Daly, V. G. Allfrey, A. E. Mirsky, Uptake OF Glycine-N15 by Components of Cell Nuclei, J. Gen. Physiol., 1952, 36, 173-179.

  1. Allfrey, Marie M. Daly, A, E. Mirsky, Synthesis of Protein in the Pancreas. II. The Role of Ribonucleoprotein in Protein Synthesis, J. Gen. Physiol. 1953, 37, 157-175.

[1] Mary Letitia Caldwell (1890-1972) americana, chimico della nutrizione è nota per i suoi lunghi studi sulle amilasi, enzimi necessari per la demolizione degli amidi. Nota in particolare per aver trovato un metodo per purificare l’amilasi del pancreas suino in forma cristallina.

[2] Herman Russell Branson (1914-1995) fisico e chimico afroamericano, noto per i suoi studi sulla struttura alfa elica delle proteine.

[3] Alfred Ezra Mirsky (1900-1974) biologo americano, è considerato un pioniere in biologia molecolare. Internazionalmente riconosciuto per la scoperta della costanza del DNA che ne stabilì il concetto di “materiale” ereditario. Pubblicò con Linus Pauling un importante articolo sulla struttura generale delle proteine. Ha fornito contributi rivoluzionari nello studio della struttura dei nuclei cellulari nei roditori e nei bovini proponendo dirette analogie con quella dei nuclei delle cellule umane.

Glifosato. Dove siamo? Parte 2. Altri fatti e qualche opinione.

In evidenza

Claudio Della Volpe

Nella prima parte di questo post abbiamo presentato alcuni fatti sul glifosato, il più venduto e discusso erbicida del mondo.

In questo secondo post completerò la mia (sia pur personale) descrizione delle cose e commenterò alcune posizioni a riguardo.

Per comprendere le posizioni delle tre agenzie principali di sicurezza mondiali sul glifosato IARC, EFSA ed ECHA, ricordiamo prima di tutto cosa sono rischio e pericolo. Sono termini usati nel linguaggio comune come sinonimi, ma la legge e la tecnica o la scienza li usano in modo diverso e questo comporta una pesante ambiguità specie sui giornali o negli articoli scientifici quando le cose non sono scritte con attenzione. Perfino nella tecnica giuridica le due terminologie si sovrappongono con risultati non esaltanti; per esempio il pericolo concreto e astratto sono termini tecnici della giustizia che sono completamente lontani dal loro senso comune: per caratterizzare il pericolo, il danno potenziale, di lesione del bene giuridico tutelato, si usano tre elementi: i dati di fatto completi dell’evento, le leggi scientifiche che caratterizzano i fenomeni coinvolti e la probabilità che si verifichino. Il pericolo è astratto quando la norma contiene tutti gli elementi necessari alla caratterizzazione del pericolo ed astrae da fatti concreti, la sua applicazione è dunque automatica, mentre è concreto quando la norma rimanda al giudice la necessità di tener conto di tutta un’ulteriore serie di elementi di fatto, concreti appunto, su cui basarsi per formulare una valutazione definitiva. Dunque in un testo giuridico, una sentenza i due aggettivi riferiti a pericolo hanno un senso del tutto diverso dal loro senso comune. Come vedete insomma ce n’è a sufficienza per stare attenti nell’uso di questi termini.

Il pericolo è una qualità intrinseca di un determinato fattore avente il potenziale di causare danni mentre il rischio è la probabilità di raggiungere il livello potenziale di danno nelle effettive condizioni di impiego; in definitiva una cosa può essere pericolosa ma non rischiosa, ossia costituire un pericolo ma non un rischio, avere una valenza mortale ma non essere concentrata a sufficienza: è la dose che fa il veleno, come diceva il vecchio Paracelso. Per questo motivo la botulina che è un veleno potentissimo è anche contemporaneamente alla base di una tecnologia per ristabilire la freschezza dei lineamenti. E’ pericolosa ma il rischio è trascurabile a dosi molto basse, anzi il suo uso è benvenuto.

 

Gli effetti possono essere comunque “nefasti”, certi visi sono stati rovinati da un uso eccessivo o scorretto, ma questo è un altro problema, che non dipende dal botox in se, ma di cui occorre tener conto.

Cosa dicono allora IARC, EFSA ed ECHA?

Nel marzo 2015 lo IARC ha posto il glifosato in classe 2A in un elenco definito dalla immagine qua sotto.

Lo IARC si occupa di pericolo NON di rischio e dunque ci consiglia di stare attenti al Sole che è certamente un pericolo di cancro alla pelle, ma questo pericolo è gestibile attraverso l’uso di opportune metodologie (evitare le scottature, usare creme solari, stare attenti ai nei e alla loro evoluzione, etc) per ridurre il rischio; e così per ogni altra cosa. Lo IARC si occupa solo di valutazioni di pericolo ed usa una metodologia che è molto precisa: solo lavori scientifici pubblicati SENZA conflitto di interesse, dunque solo lavori non supportati in alcun modo dalle aziende produttrici, riunioni in presenza di rappresentanti delle controparti, relazioni finali pubbliche, tuttavia la discussione non è resa pubblica completamente, anche per tenere i singoli rappresentanti lontani dalla pubblicità e dal character assassination che potrebbe venir fuori, esattamente come è venuto fuori per il glifosato.

IARC è il braccio armato contro il cancro dell’OMS, l’organizzazione mondiale della sanità, mentre ECHA, l’altro ente che si occupa di valutazione SOLO di pericolo delle sostanze “chimiche” è una istituzione squisitamente europea; la terza istituzione che si è occupata del tema è l’EFSA che è una istituzione europea che si occupa di rischio per cibo e ambiente.

Capite allora bene che mentre un conflitto fra le conclusioni di EFSA e IARC è tutto sommato accettabile, la cosa è diversa per le conclusioni di IARC e ECHA.

Entrambi questi organismi si occupano solo di pericolo e dunque le loro differenti conclusioni sono da far risalire alle metodologie diverse di valutazione e al set di dati usati; a questo riguardo aggiungo per chiarezza che IARC non separa il glifosato dai costituenti nelle sue valutazioni, ossia valuta il prodotto come viene usato di fatto, mentre ECHA ed EFSA classificano separatamente le varie sostanze e indicano le proprietà solo per il glifosato lasciando agli stati membri di analizzare le conseguenze dell’aggiunta di altri additivi.

E’ interessante a questo proposito leggere cosa dice l’equivalente americano di Federchimica, l’associazione degli industriali della Chimica USA, American Chemistry Council (ACC).

Like IARC, ECHA performed the latter type of evaluation of glyphosate and found there is no evidence the herbicide qualifies as a cancer hazard. The conflicting conclusions between IARC and ECHA are all the more significant considering ECHA even evaluated the same studies that IARC did, in addition to industry data that IARC refused to use. As the ECHA press release notes:“The committee also had full access to the original reports of studies conducted by industry. RAC has assessed all the scientific data, including any scientifically relevant information received during the public consultation in summer 2016.” The comparison of ECHA and IARC’s findings underscores the need for the IARC Monographs Program to improve how it conducts its evaluations of substances. Until its Monographs are based on transparent evaluations of all available scientific evidence, IARC’s findings are of little value.

Ve li lascio in inglese; la conclusione di ACC è che dato che IARC si rifiuta di usare i dati dell’industria (come dicevo fa questo per evitare ogni tipo di conflitto di interesse) le sue conclusioni sarebbero di poco valore. Ma neanche loro attaccano, almeno in questo caso i metodi di IARC, nel merito.

Questo nei documenti ufficiali; sui giornali e nelle aule dei tribunali la cosa è stata diversa; si è scatenata una vera e propria guerra di religione che ha visto schierata da una parte la stampa filoglifosato, guidata da Reuters e dall’altra la stampa ambientalista guidata da Le Monde (ne ho parlato in parte qui). Il fatto che Reuters, che dal 2008 è parte del gruppo Thomson Reuters, sia uno dei maggiori gruppi a livello mondiale nell’informazione economico-finanziaria aggiunge dubbi e pensieri a questo fatto (fra l’altro Thomson detiene ISI e JCR, che sono cruciali nelle stime bibliometriche). Reuters ha accusato IARC di aver cambiato i risultati dei lavori usati; strano che il rappresentante dei produttori di glifosato, Thomas Sorahan, presente alle riunioni non abbia MAI detto nulla a riguardo. Accuse di conflitto di interesse sono state mosse ad uno degli “invited speakers” dello IARC, Portiers, per aver accettato DOPO la conclusione dei lavori (i lavori sono finiti il 20marzo) un contratto (firmato il 26 marzo) con uno studio legale americano che sta rappresentando alcuni dei 184 casi che hanno chiamato in giudizio la Monsanto per gli effetti del glifosato; sono cause miliardarie e come succede negli USA sono combattute senza esclusione di colpi.

Insomma è chiaro che in questo caso, come nel caso della carne rossa ci sono in gioco interessi miliardari e dunque non è strano che si scateni un conflitto sul giudizio di rischio accettabile contro un pericolo giudicato limitato nell’uomo e provato solo negli animali. La stessa cosa non è successa per sostanze come il benzene che è in classe 1 cancerogeno conclamato ed è usato comunemente come additivo nella benzina (1% in volume); lo si usa ancora ma si cerca di ridurlo, le pompe sono state dotate di aspiratore per ridurne l’evaporazione, ciononostante la concentrazione di benzene nelle aree adiacenti le pompe è più alta delle zone circostanti e può porre problemi almeno ai lavoratori coinvolti (Journal of Environmental Management 91 (2010) 2754e2762, Int. J. Environ. Res. Public Health 2014, 11, 6354-6374); ma non vedo guerre di religione; dipenderà dallo scarso valore del mercato del benzene nella benzina?

Comunque stiano le cose ECHA (ECHA/PR/17/06 Helsinky marzo 2017) ha concluso che il glifosato debba essere classificato come sostanza di sintesi con due rischi precisi:

The committee concluded that the scientific evidence available at the moment warrants the following classifications for glyphosate according to the CLP Regulation:

Eye Damage 1; H318 (Causes serious eye damage)

Aquatic Chronic 2; H411 (Toxic to aquatic life with long lasting effects)

Dunque ha riconosciuto un rischio che riguarda sostanzialmente i lavoratori professionali e l’ambiente, gli animali acquatici, tanto è vero che anche le regole di uso per esempio nel nostro paese escludono i terreni molto sabbiosi perché in questo modo si può raggiungere la falda e anche gli animali acquatici. Ricordo che la questione del rischio per gli invertebrati e i batteri e in genere le specie del terreno è più complesso e non ha ancora una risposta certa. Su questo sarebbero necessari nuovi studi.

Quello che mi colpisce è che su questi due aspetti, i diversi metodi di valutazione fra ECHA e IARC e gli aspetti mancanti di conoscenza sugli effetti ambientali del glifosato manchino articoli e divulgazione.

Aggiungo per chiarezza che su molti siti trovate scritto che l’OMS ha dato parere favorevole, come se lo IARC non fosse parte dell’OMS; in realtà questi siti scorrettamente si riferiscono al giudizio espresso da una commissione FAO-OMS, il JMPR; in questo caso il conflitto di interessi è stato palese come potete leggere qua.

Vengo ora ad un articolo che mi ha molto colpito, scritto da Elena Cattaneo, scienziata e senatrice a vita; l’articolo è stato pubblicato su Repubblica e lo riporto integralmente in figura, sperando che Repubblica non mi colpisca con i suoi strali.

Questo articolo contiene secondo me alcune importanti imprecisioni e dei veri e propri errori oltre ad esprimere una opinione molto specifica sul futuro dell’agricoltura. Vado per punti, seguendo l’articolo.

punto1 )Quello che lo IARC ha detto lo abbiamo visto, si tratta di una valutazione di pericolo fatta esclusivamente su lavori senza conflitto di interesse; la cosa non viene riportata dal testo della senatrice e dunque i successivi paragoni lasciano il tempo che trovano; il fatto che il glifosato si trovi nella stessa categoria del vino o delle carni rosse prodotte in Italia non vuol dire nulla; mangiare la carne rossa o bere vino nei limiti di livelli ragionevoli e controllati è un rischio che ciascun consumatore può assumere in piena coscienza ed autonomia sapendo quel che mangia, mentre la stessa cosa non si può dire del consumo di glifosato dato che le sue quantità effettive non sono riportate da nessuna parte; chi consuma un prodotto contenente glifosato non sa di farlo e non sa quanto ne consuma perchè non c’è nessuna norma che obblighi i produttori a indicarne la presenza o le quantità.

L’altra questione citata al punto 1 è indice di incompleta informazione della Cattaneo; il fatto che Portiers non avesse informato del suo contratto, fatto peraltro una settimana dopo la conclusione dei lavori dello IARC, è falso dato che Portiers è stato sentito come invited speaker e non come membro della commissione proprio per questo motivo! Quanto ai lavori non citati si tratta di una notizia non corretta già circolata precedentemente e smentita sia da IARC che da altri; a questo proposito potete leggere l’articolo di Le Monde (questa è una traduzione in italiano della seconda parte dove trovate anche il link alla prima, se no leggetelo su Internazionale) che avevo già citato in un precedente post. In realtà Iarc ha discusso e deciso di non usare quei dati in modo trasparente. Diciamo che la Cattaneo ha usato solo le notizie Reuters riprese a loro volta da quelle di un sito di uno sconosciuto lobbista, tale Zaruk.

punto 2) Sulla differenza fra le valutazioni di ECHA e IARC abbiamo già detto; c’è un motivo preciso che la Cattaneo non riporta. Non solo; i risultati che ho citato nella prima parte sulla presenza di glifosato nei tessuti umani dimostrano che il glifosato, a differenza di quanto si pensi, è abbastanza stabile nell’ambiente e circola di fatto attraverso il cibo che mangiamo, non solo la pasta, ma qualunque altro cibo in cui siano coinvolti prodotti nella cui filiera sia presente il glifosato e le sue formulazioni. Ripeto quel che ho dettto prima: sarebbe logico sapere se il glifosato c’è o no e non solo accettare che comunque ce n’è meno di quanto è considerato tossico. Fra l’altro non ho accennato e lo faccio adesso al fatto che il glifosato è usato in una formulazione complessa che potrebbe a sua volta contenere sostanze con problemi. E’ vero i valori trovati sono molto più bassi degli attuali limiti, che comunque non sono uguali dappertutto, ma questo facendo il paragone con altri casi simili non rassicura (ricordo ancora i limiti ad hoc che rendevano potabile l’acqua all’atrazina, con il magico intervento di Donat-Cattin), né me né credo il resto della popolazione. Anche le vicende del PFAS o dell’arsenico insegnano che i limiti sono sempre soggetti a cambiamenti, in genere in forte riduzione (per esempio i limiti per l’Arsenico nell’acqua potabile sono stati ridotti di 20 volte in 40 anni (da 200 a 10 μg/l )e quelli attuali hanno più a che fare con le difficoltà di determinazione che con l’effettivo limite dell’As).

Per il glifosato i limiti attuali accettati di assorbimento da cibo sono di 0.3mg/kg di peso al giorno in UE (e circa 6 volte maggiori in USA ; il limite di determinazione è di 0.05ppm e quello considerato per alcuni cibi è 0.1ppm; notate che ppm o mg/kg sono equivalenti in questo caso).

Questi valori sono stati estrapolati da lavori condotti su animali in tempi non recentissimi; esiste un lavoro molto recente in cui si sostiene che valori molto bassi, determinati per diluizione equivalente, possono comunque avere un ruolo biologico importante. Questo lavoro non è stato preso in considerazione anche perchè gli autori (fra i quali Seralini) sono stati coinvolti in una polemica su un precedente lavoro che fu ritirato e poi ripubblicato sugli effetti cancerogeni del glifosato (su tutto questo tema un articolo del gruppo DETOX di cui abbiamo parlato nel caso dei tessuti).

punto 3) Questa del brevetto scaduto per la produzione di glifosato è risaputo da anni. Ma a parte la questione citata nella prima parte di questo post dei LoA, la questione vera è che i brevetti importanti non sono quelli relativi alla produzione del glifosato, ma sono quelli relativi ai semi delle piante resistenti al glifosato per modifica genetica; quelli sono il cuore dei soldi di un monopolio mondiale e di una agricoltura controllata da poche grandi multinazionali. Questo voler mettere in conflitto di interessi noi italiani che produciamo vino e glifosato (in minima percentuale, il glifosato è vietato in Italia per molte applicazioni) è veramente una cosa senza senso: i profitti da glifosato come tale sono una parte minima dei profitti da agricoltura “attraverso” il glifosato, con semi modificati che occorre ricomprare ogni volta dai medesimi produttori.

Al punto 4 la Cattaneo dà per scontato che per controllare le infestanti esistano SOLO gli erbicidi e che siano necessari PER FORZA.

Questo non è vero. Potete leggere voi stessi quanti altri metodi non solo chimici, ma prima di tutto agronomici (di gestione delle colture) e fisici (calore, fuoco o specifiche coperture, la cosiddetta solarizzazione) siano possibili in questo studio commissionato da una associazione ambientalista e gentilmente segnalatomi dal deputato europeo Marco Affronte; nello studio sono indicate le sorgenti scientifiche dei dati. Certo i costi immediati sono maggiori, ma siamo sicuri che non ci siano costi nascosti dell’uso di agenti erbicidi? Per esempio la riduzione dell’80% degli insetti volanti di cui abbiamo parlato in un post precedente non potrebbe essere dovuto anche al fatto che facciamo un deserto monocolturale e lo chiamiamo agricoltura intensiva? Quanto ci costa questo uso così massivo della chimica di sintesi in agricoltura?

https://twitter.com/urtikan_net?lang=it

A questo punto la senatrice Cattaneo comincia a descrivere come vede l’agricoltura del domani.

Beh è una visione bau, diciamo così: fa una critica feroce del cosiddetto biologico, critica che di per se si può anche condividere nel senso che è un settore da considerare con attenzione, da non dare per scontato, con trucchi e imbrogli, ma non credo più di quanti ce ne siano nel non-bio; ma non c’è una parola di critica dell’agricoltura moderna e del sistema di consumi di cui essa é schiava, una che sia una. Secondo questa visione i produttori “biologici” sono imbroglioni e incapaci di produre quanto gli altri, dei cui problemi però non si fa menzione.

Non una parola sugli sprechi alimentari, sul tipo di agricoltura dedicata principalmente a supportare i nostri animali e dunque con un consumo eccessivo di carne, anzi si gira la frittata attribuendo gli animali all’agricoltura bio!

E’ l’agricoltura intensiva che è strutturata proprio per favorire un uso spropositato della carne, esattamente il contrario ! Riciclare le deiezioni umane ed animali per riciclare azoto e fosforo è una necessità, dato che allo scopo di accrescere la quota di carne e sostenere l’agricoltura intensiva l’umanità è diventata la principale dominatrice sia del ciclo dell’azoto che del fosforo mandandoli del tutto fuori equilibrio! Ne abbiamo parlato decine di volte sul blog. A paragone la quota di deiezioni animali riciclate dal bio è solo un esempio virtuoso.

Non una parola sulla distruzione sistematica dell’ecosistema operata da questo tipo di agricoltura che ha raggiunto il poco invidiabile primato di rendere la biomassa nostra e dei nostri animali il 98% di quella di tutti i vertebrati, come ho notato in altri articoli; non una parola sugli effetti climatici di una agricoltura esclusivamente intensiva, che sono stati notati di recente anche da studiosi italiani come Riccardo Valentini, che non è classificabile come un rivoluzionario, membro di IPCC. Nessuno nega che sia possibile usare chimica e biologia al servizio di una agricoltura più sostenibile, lo diciamo anche noi, ma dietro questo c’è un cambio del modello di consumi e degli sprechi, della crescita infinita.

Un quadro, quello della Cattaneo, che non esiterei ad assimilare a chi per risolvere il problema climatico pensa alla geoingegneria: come se l’umanità fosse padrona del pianeta, che invece condivide con tutta la biosfera! Le infestanti per esempio nutrono una quantità di insetti che poi servono a impollinare le nostre piante! L’agricoltura umana non può corrispondere ad una dichiarazione di guerra a tutte le altre specie, nè essere il motivo per modificare in modo industriale la genetica delle altre specie a nostro esclusivo vantaggio, oppure distruggerle; è questo che sta succedendo: dominio o distruzione e a volte entrambi.

(ringrazio Vincenzo Balzani per avermi segnalato la discussione sull’articolo della Cattaneo sviluppatasi su Scienza in rete e che trovate qua e qua)

Secondo me il glifosato rivela questo: una hubris che è tanto più forte quanto più la scienza, non supportata da una visione critica, accetta i punti di vista di un sistema produttivo orientato alla crescita infinita: occorre cambiare registro e ricerca, siamo i custodi non i padroni del pianeta Terra.

Personalmente sono in totale disaccordo con alcuni dei punti della Cattaneo; a parte usare di più la scienza e la biologia ci separa la logica che sta dietro:

  • ridurre il peso dell’azoto e del fosforo di sintesi per esempio attraverso l’ampliamento della coltivazione dei legumi
  • ridurre il consumo di carni rosse in particolare e di carni in genere ancora una volta accrescendo la quota di leguminose ed ELIMINARE la coltivazione di biocombustibili (Emily S Cassidy et al 2013 Res. Lett. 8 034015)
  • usare strumenti di lotta agli insetti e alle piante infestanti che usino metodi di coltura agronomica e a preferenza fisici invece che chimici favorendo il ripristino del numero di insetti volanti, specie di impollinatori
  • vietare la brevettazione privata delle nuove specie ed investire pubblicamente sulla ricerca genetica di tutti i tipi rendendo pubblici e disponibili i risultati più importanti ed utili (sto parlando anche di OGM, ovviamente).
  • rendere sempre più completi i test per l’introduzione di nuove molecole di sintesi usate in agricoltura non presenti in natura ed usate in ampia quantità (questo lo sta facendo REACH, ma ci vuole tempo).

A Napoli, la mia città natale, alla cui cultura non posso sottrarmi, c’è un proverbio che dice:“E’ gghjuta a pazziella ‘mmane e’ criature” è un modo di dire napoletano, dare i giocattoli in mano ai bambini, (versione edulcorata di un’altro a sfondo sessuale) ma che vuol dire “affidare le cose a chi non è capace di gestirle”, la moderna classe dirigente mondiale preoccupata prima di tutto del PIL, la religione della crescita infinita e non della conservazione dell’ambiente in cui viviamo e di cui siamo parte, non padroni, e che si sta degradando tanto da mettere in pericolo la nostra stessa sopravvivenza come specie.

http://blog.aeroportodinapoli.it/napoli-turismo/parco-dei-murales

*A riguardo delle resistenze vorrei precisare che su siti diversi si trovano dati diversi; per esempio sul sito Dupont (https://www.pioneer.com/home/site/us/agronomy/library/glyphosate-resistance-in-weeds/) il numero delle specie infestanti resistenti è indicato 35; altrove si riportano i numeri delle sottospecie che raggiunge quasi i 300; il fatto è che questo numero cresce di continuo soprattutto nei luoghi dove il glifosato è più usato come è ovvio che sia.

Altri files da leggere oltre quelli citati: The Glyphosate Files: Smoke & Mirrors in the Pesticide Approvals Process di Helmut Burtscher-Schaden K&S ed., 2017

https://corporateeurope.org/food-and-agriculture/2017/10/setting-record-straight-false-accusations-dr-c-portier-work-glyphosate

https://www.greens-efa.eu/files/doc/docs/ab61fee42c3217963d3a43bd1c4b1e09.pdf

https://www.sigmaaldrich.com/technical-documents/articles/reporter-us/method-for-determination-of-glyphosate.printerview.html#ref

https://www.efsa.europa.eu/sites/default/files/corporate_publications/files/efsaexplainsglyphosate151112en.pdf

La Chimica nelle cose. Recensione.

In evidenza

Margherita Venturi.

La Chimica nelle cose – Dal vissuto di un chimico, la materia al di là delle apparenze

Fabio Olmi, PM Edizioni, Collana scientifica Albatros

pag. 246 euro 20

 

Recensione

La collana scientifica Albatros della PM Edizioni consta di due tipologie di libri: una è rivolta a lettori “non addetti ai lavori”, ma curiosi di conoscere il mondo delle scienze, mentre l’altra è dedicata a docenti di discipline scientifiche della scuola secondaria, desiderosi di approfondire e aggiornare le proprie conoscenze.

Il libro di cui vi parlo oggi “La Chimica nelle cose – Dal vissuto di un chimico, la materia al di là delle apparenze” di Fabio Olmi fa parte della prima tipologia; infatti con il suo stile semplice e coinvolgente, senza però perdere mai la rigorosità scientifica, l’autore raggiunge pienamente l’obiettivo di incuriosire anche chi di scienza sa poco o nulla. Sicuramente questa bravura gli deriva dalla lunga esperienza acquisita come docente di scienze al liceo scientifico “Leonardo da Vinci” di Firenze, che l’ha messo di fronte alla necessità di coinvolgere e appassionare i giovani di varie generazioni: ha insegnato per oltre 38 anni!

Ma Olmi non è stato solo un bravo docente; da sempre si è dato da fare per migliorare il nostro sistema scolastico e soprattutto l’insegnamento delle discipline scientifiche, battendosi per introdurre attività laboratoriali e per aumentare le ore di scienze (sforzi che le ultime riforme scolastiche hanno purtroppo totalmente vanificato). Nel lontano 1980 sosteneva già l’importanza di inserire l’educazione ambientale nel curricolo di scienze della scuola secondaria di secondo grado; è stato un propugnatore dell’insegnamento inter- e trans-disciplinare e, forse, il primo docente di scuola superiore a parlare della necessità di affrontare con gli studenti i temi legati ai risvolti sociali della scienza. È stato socio fondatore della Divisione di Didattica della SCI e, in quest’ambito, ha svolto un’intensa attività di ricerca didattica e formazione docenti, fornendo contributi significativi per quanto riguarda le metodologie didattiche delle discipline scientifiche, in particolare della chimica, l’analisi storico-epistemologica dei concetti chimici essenziali, le metodologie e gli strumenti per una razionale verifica degli apprendimenti e per la valutazione delle competenze. Ho avuto il piacere di incontrare molte volte Olmi, soprattutto durante i lavori della Divisione di Didattica, ed ho sempre apprezzato il fatto che non facesse mai pesare “il suo sapere” conservando un atteggiamento riflessivo, quasi umile, ma al tempo stesso signorile, anche nelle discussioni più accese.

Durante il Convegno della SCI, che si è tenuto a Paestum nel settembre 2017, ha ricevuto la Medaglia Gabriello Illuminati per i suoi contributi alla didattica della chimica e, anche in quell’occasione in cui io ero presente, Olmi non si è smentito; ha ringraziato commosso, ma soprattutto si è scusato più volte per il fatto di non poter tenere la relazione richiesta ai premiati; il cardiologo gli aveva infatti assolutamente proibito di subire stess o eccessive emozioni e lui candidamente ha detto: ubbisco agli ordini, anche se la più grande emozione è quella di essere qui a ricevere il premio; certamente il tenere una relazione sarebbe stato il male minore. Come non sentire simpatia e affetto per una persona del genere! Allora, quando a Paestum mi ha regalato, quasi con pudore, il suo ultimo libro, mi sono ripromessa che, dopo averlo letto, ne avrei certamente fatto la recensione ed eccomi qui a mantenere la parola.

Il libro ha una bella prefazione di Giorgio Nebbia, un chimico noto internazionalmente, ormai ultra novantenne, che fa parte del nostro blog e che, per la sua vivacità intellettuale, di anni ne dimostra molti, ma molti meno. Anche per Giorgio provo una grande stima e un grande affetto, non smetto mai di imparare da lui e così è successo per queste due pagine di prefazione; con poche parole è riuscito a sintetizzare l’oggetto e lo scopo del libro: presentare la chimica come la scienza e la narrazione delle “cose” e accompagnare il lettore dalla natura, fonte di tutte le “cose utili” e di ogni “valore d’uso”, ai processi di produzione di materie organiche ed inorganiche, ai processi di uso dei beni materiali e all’effetto di tutte queste operazioni sulla natura e sull’ambiente.

Il libro, quindi, parla di “cose” e questo termine mi piace moltissimo perché rende gli oggetti di varia natura descritti da Olmi, anche estremamente complessi dal punto di vista scientifico, molto vicini alle persone comuni. Infatti come dice l’autore nell’introduzione: ho l’ambizione di rivolgermi ad un pubblico che vuole sconfinare per curiosità dal suo specifico campo … per assaporare e possibilmente gustare qualche semplice digressione chimica che affronta il perché le cose sono in un certo modo, il come e il perché si trasformano e perché sono importanti nella nostra vita.

Lo stile letterario, o meglio il felice artificio (per usare le parole di Nebbia) adottato da Olmi, è simile a quello usato da Primo Levi ne “Il Sistema Periodico”, da Oliver Sacks in “Zio Tungsteno” e da Hugh Aldersey-Williams in “Favole Periodiche” ed è così che il lettore scopre ciò che “sta dietro” alle cose che utilizza quotidianamente, imparando ad apprezzarle e, forse, anche a rispettarle, perchè capisce che nulla si ottiene gratis: c’è il grande lavoro della natura per creare tutte le cose utili e quello dell’uomo, altrettanto faticoso, per riuscire ad usare questo ben di Dio che la natura mette a disposizione.

La prima “cosa” utile di cui parla Olmi è il petrolio; si tratta della sua ossessione giovanile e questa attrazione appare chiaramente quando parla del fascino di poter carpire un segreto custodito dalla terra così bene che in superficie nulla fa trapelare la presenza in profondità dell’oro nero. Nonostante questa “attrazione fatale”, l’autore fa un’analisi oggettiva del petrolio sia come fonte energetica che come materia prima, affrontando vizi e virtù, speranze e delusioni, effetti positivi e negativi dal punto di vista dello sviluppo sociale e dell’ambiente.

Il discorso sulle fonti energetiche continua in altri capitoli. Per quanto riguarda il “Re carbone”, a cui si deve la Rivoluzione Industriale, l’autore si sofferma in dettaglio su come esso si è formato, sul suo uso come fonte energetica e sui problemi sanitari e ambientali connessi, concludendo il tema con una digressione sul grafene. Lo sguardo si sposta poi verso il futuro con il capitolo dedicato alle fonti rinnovabili, in particolare energia eolica e solare, sulle quali sono riposte le speranze per un mondo migliore, anche se ci sono molti problemi ancora da risolvere, come la necessità di disporre di sistemi di accumulo e/o di sistemi complessi di collegamento con le reti elettriche. Questo aspetto, dice giustamente l’autore, rappresenta un collo di bottiglia per l’utilizzo delle fonti rinnovabili; dimentica, però, di dire che c’è un altro collo di bottiglia da superare e che riguarda la disponibilità, purtroppo limitata, dei materiali necessari per convertire le fonti rinnovabili in energia utile.

Un corposo capitolo è dedicato a due risorse naturali che sono sicuramente “cose” indispensabili per la vita: aria e acqua. Qui, prendendo spunto da lavori realizzati con i suoi studenti, Olmi presenta in maniera semplice e accattivante le caratteristiche chimico-fisiche dell’acqua, con particolare riguardo ai suoi stati di aggregazione, chiamati in modo molto azzeccato i “diversi abiti” che l’acqua può assumere, soffermandosi sull’acqua “fossile” intrappolata da migliaia di anni nei ghiacci delle regioni polari da cui è possible ricavare informazioni su quella che era la situazione del nostro pianeta in epoche anche molto lontane; passando poi all’altra risorsa, l’autore analizza la composizione dell’aria e come essa varia allontanandosi sempre più dalla superficie terrestre, introducendo il concetto di atmosfera; parla del continuo movimento dell’aria e dell’importanza che esso ha nel determinare il clima del nostro pianeta; sottolinea, inoltre, come l’aria sia un grande serbatoio di risorse, a cui l’uomo sta attingendo sempre più pesantemente, tanto da aver addirittura intaccato la quantità del suo componente principale, l’azoto. Ovviamente viene anche affrontato il grande pericolo che incombe su queste due risorse: l’inquinamento che sta mettendo a dura prova la sopravvivenza dell’umanità e del pianeta.

Un altro capitolo tratta del vino, la grande passione di Olmi; la cosa si avverte molto chiaramente dal modo, appunto appassionato, con cui l’autore descrive la cura e la fatica che servono per trasformare l’uva in un buon vino. Leggendo queste pagine mi è sembrato di vedere l’autore aggirarsi fra i suoi filari di viti selezionate per seguire con trepido amore il colorarsi al Sole dei grappoli d’uva e, poi, scendere in cantina per attuare tutte le operazioni necessarie affinché il processo della fermentazione, ben noto ad un chimico provetto come lui e così ben descritto in queste pagine, avvenga in maniera appropriata.

Il libro comprende inoltre tre capitoli espressamente dedicati allo sviluppo tecnologico. Uno riguarda il vetro, la “cosa” più utile e comune per il lavoro del chimico, ma anche la “cosa” più bella e affascinante che è parte integrante della nostra vita; oltre a descrivere il processo che permette di ottenere il vetro, i vari tipi di vetro e le applicazioni più recenti, Olmi affronta l’aspetto artistico, ricordando le vetrate colorate di molte vecchie cattedrali e i moderni grattacieli che grazie a questo materiale possono svettare luminosi e brillanti sempre più in alto verso il cielo. Un altro capitolo è interamente dedicato al cemento: di cosa è fatto, come viene utilizzato, i vari tipi di cemento; come nel caso del vetro, anche per il cemento l’autore si sofferma sulle opere artistiche realizzate in epoche diverse usando questo materiale.

Infine, un capitolo, l’ultimo del libro, tratta dei metalli più importanti dal punto di vista tecnologico, ripercorrendo in un certo qual modo la storia dell’umanità; l’autore infatti parte dal rame e dal bronzo, l’uso dei quali va molto indietro nel tempo, per passare poi al ferro fino ad arrivare ai nostri giorni e alle applicazioni tecnologiche più nuove basate su metalli dai nomi esotici appartenenti alle Terre Rare; fino a qualche tempo fa neanche chi studiava chimica all’università conosceva questi elementi, mentre ora sono i dominatori della scena e i pochi paesi ricchi dei loro giacimenti stanno tenendo in pugno il mondo.

Fra le applicazioni tecnologiche dei metalli c’è anche, purtroppo, quella che riguarda la produzione di armi e l’autore, a questo proposito, ricorda la visita fatta all’ex stabilimento della Società Metallurgica Italiana, diventato ora museo, dove per molti decenni sono stati fabbricati bossoli e proiettili di ogni tipo. Olmi dice di essere stato fortemente colpito da una frase letta nella guida al museo che, con grande enfasi, sottilineava il fatto che, quando era in attività, lo stabilimento ha prodotto munizioni per tutte le forze armate in tutti i conflitti. Il secco “no comment” dell’autore è molto esplicativo, anche perché, se lo stabilimento in questione è stato chiuso, non abbiamo smesso di produrre armi. Infatti, in un articolo molto interessante, uscito il 5 dicembre 2017 e intitolato “È questo il nostro Natale di pace?”, Alex Zanotelli denuncia il fatto che l’Italia si stia sempre più militarizzando, con ben 10 miliardi di euro destinati al Ministero della Difesa, sia per modernizzare le nostre armi che per costruire un sorta di Pentagono Italiano. Forse, o meglio sicuramente, se il nostro paese investisse di più nell’istruzione e nelle fonti rinnovabili, le cose andrebbero molto meglio! Ma lasciando da parte questa questione spinosa e ritornando al capitolo sui metalli, Olmi, molto giustamente, affronta anche un altro aspetto e cioè l’importanza biologica di molti rappresentanti di questa numerosa famiglia, concentrandosi sul rame e sul ferro. Per quanto riguarda quest’ultimo, si parla ovviamente di emoglobina e di quanto lavoro è stato necessario per risalire alla sua struttura e, allora, mi è tornato alla mente un bell’articolo, che ho letto anni fa, sulla figura di Max Ferdinand Perutz, lo scienziato che ha dedicato praticamente tutta la sua vita a studiare la struttura e la funzione biochimica dell’emoglobina, ricevendo per questo suo lavoro il premio Nobel per la Chimica nel 1962.

Mi sono dilungata anche troppo ed è meglio che vi lasci leggere il libro. Cosa dire per concludere? Potrei ripensare a cosa mi e piaciuto di più e cosa mi è piaciuto di meno.

Forse il capitolo che mi ha creato più perplessità è quello dedicato al carbone: è troppo tecnico e anche un po’ distaccato, non a caso Olmi dice di non aver mai avuto un incontro ravvicinato con questa “cosa”; inoltre io non avrei concluso il capitolo parlando del grafene e delle forme allotropiche del carbonio, perché c’è il rischio che chi non è addetto ai lavori confonda il carbone con l’elemento chimico carbonio.

Mi è, invece, piaciuto molto il capitolo sulle fonti rinnovabili, in particolare per i brani di Tiezzi che l’autore ha selezionato e riportato per introdurre il tema; ricordo solo alcune frasi che a mio avviso non dovremmo mai dimenticare: la Terra non va vista come una nostra proprietà da sfruttare, ma come un capitale naturale avuto in prestito dai nostri genitori per i nostri figli, e ancora, la sfida culturale del terzo millennio è una sfida per mantenere per i figli che verranno questa meravigliosa eredità; una sfida scientifica ed etica ad un tempo; una sfida che non ci possiamo permettere il lusso di perdere.

Mi è anche piaciuto molto lo stile colloquiale e coinvolgente che Olmi ha usato, stemperando le nozioni scientifiche, spesso complesse, con aneddoti, curiosità e cenni storici; ma, soprattutto, mi è piaciuto il fatto che in tutto il libro aleggia una grande passione per la chimica. Per Olmi si è trattato di un amore tardivo, nato solo all’università perché, come lui stesso dice: fu una scoperta per me rivoluzionaria di una disciplina che al liceo mi avevano fatto odiare; la ricordo come una materia arida, fatta solo di formule e reazioni “gesso e lavagna”, mai un esperimento in laboratorio, tanti nomi per me privi di significato. Nonostante Olmi abbia dedicato tutta la sua vita a far sì che la chimica venga amata anche fra i banchi di scuola, purtroppo le cose non sono cambiate molto e c’è ancora un tanto lavoro da fare.

Scienziate che avrebbero potuto vincere il Premio Nobel. Agnes Pockels (1862-1935).

In evidenza

Elisabetta Venuti*

Ascoltando a un congresso un seminario in cui si rendeva omaggio a una grande donna scienziato, Rachel Carson, autrice del mitico, importantissimo e criticatissimo “Primavera Silenziosa”, ho pensato che il discorso in occasione delle proclamazioni dei laureati magistrali della sessione autunnale dovesse anch’esso essere dedicato a una donna. Le ragioni c’erano ed erano ottime: entrambe le commissioni di laurea avrebbero avuto presidenti donna e una di esse sarebbe stata formata interamente da donne, evento mai verificatosi nella storia del nostro Dipartimento/Facoltà. Come se non bastasse, il numero delle future laureate uguagliava quello dei laureati. La prima donna che mi è venuta in mente è stata Agnes. Ovvero: Agnes Wilhemine Louise Pockels.

Di lei avevo letto in un libro che nella fretta dei giorni precedenti le lauree non son riuscita a trovare, perso su scaffali sovraccarichi, ma che adesso ho finalmente davanti : – The Art of Science, A Natural History of Ideas – di Richard Hamblyn, nel capitolo intitolato “Surface Tension”. Poche pagine che ne riassumono la vita e i dati del primo, importantissimo lavoro pubblicato in forma di lettera su Nature. A partire da quello, ho poi trovato le altre preziose, poche notizie su Agnes.

Se nel parlare di una donna di scienza la mia scelta è caduta su Agnes i motivi sono diversi: i suoi studi son di chimica fisica – e di chimica fisica delle interfacce in particolare – una disciplina che mi sta molto simpatica e di cui si occupava l’unica donna ordinario che abbia mai incontrato nel mio percorso di studi, la Prof. Gabriella Gabrielli. Inoltre il mondo di Agnes era quello in cui a molte ragazze capitava di essere relegate (o può ancora capitare, in altre mondi, in altre società, oppure?), ma proprio in quel mondo lei trovò l’ispirazione per le sue ricerche, e ciò probabilmente fa della sua storia la storia di molte donne, almeno nelle aspirazioni, se non nella genialità che la contraddistingue.

Agnes nasce nel 1862 da genitori tedeschi a Venezia, quando il padre è ufficiale dell’esercito austro-ungarico in stanza nel Triveneto. In Italia entrambi i genitori si ammalano di malaria e pertanto il padre viene congedato e si ritira in pensione a Braunschweig, nella bassa Sassonia, quando Agnes è ancora piccola. Qui lei frequenta una scuola femminile, in cui non si insegnano molto le scienze, o comunque non ci si preoccupa di impartire alle allieve un approccio razionale ai problemi. Peccato, perché come dirà lei settantenne :- Avevo un interesse appassionato nella scienza, soprattutto nella fisica, e mi sarebbe piaciuto studiare…”(W. Ostwald, Kolloid Zeitschrift, 58,1 (1932)). Quando la scuola finisce, il ruolo di Agnes diventa quello di curare i genitori, sempre più anziani, sempre più cagionevoli di salute e difficili da trattare. Il legame con la scienza, anzi con la fisica, si forma e si mantiene attraverso il rapporto con il fratello minore Fritz, che la studia all’Università. Dalla cucina in cui passa molto del suo tempo per i lavori domestici, Agnes ha accesso a libri e riviste, che Fritz le procura. Nella cucina trova anche che il complesso comportamento dell’acqua sporca della lavatura dei piatti è affascinante. Con l’acqua comincia quindi a fare esperimenti, tanto da progettare e costruire un semplice strumento – noto adesso come l’apparato di Pockel – che le permette di verificare l’effetto della presenza di impurezze organiche sulla tensione superficiale dei liquidi.

Ma leggiamone la descrizione che lei stessa ne da, tratta dalla lettera di cui fra poco diremo, e vediamo quanto sia simile a uno strumento successivo, quello di Langmuir: “… descriverò un semplice metodo per aumentare o diminuire la superficie di un liquido in ogni proporzione, così che la sua purezza possa essere modificata a piacere. Una vasca rettangolare di stagno, lunga 70 cm, larga 5cm e profonda 2cm, si riempie con acqua fino all’orlo. Una striscia, anch’essa di stagno e larga 1.5 cm, vi viene collocata di traverso, perpendicolarmente alla lunghezza, in modo che la sua faccia inferiore sia in contatto con la superficie dell’acqua e la divida in due porzioni. Muovendo la partizione verso destra o sinistra, la superficie di ciascuna delle porzioni può essere allungata o accorciata, e la quantità dello spostamento può essere letta su una scala posta lungo il lato della vasca. Indubbiamente il sistema presenta un certo grado di imperfezione….Misuro la tensione superficiale del liquido mediante il peso necessario per separare dalla superficie un piccolo disco piatto del diametro di 6 mm, e per misurarlo uso una stadera leggera”.

Agnes non riesce a trovare nella letteratura scientifica del fratello informazioni su quello che lei sta misurando e cioè che all’aumentare della concentrazione delle impurezze organiche presenti diminuisce la tensione superficiale dell’acqua, né riesce a interessare all’argomento nessuno che lavori all’università della sua città. Tuttavia nel 1888 viene a sapere che il fisico inglese Lord Rayleigh, professore di Filosofia Naturale a Cambridge, sta conducendo studi simili. E allora prende il coraggio e gli scrive quella lettera appena menzionata. L’inizio della sua lettera mi commuove ogni volta che lo rileggo : “My Lord, scuserà gentilmente il mio ardire di disturbarla con una lettera in tedesco su un soggetto scientifico? Avendo sentito delle fruttuose ricerche da Lei condotte nell’anno passato sulle proprietà, finora poco capite, delle superfici di acqua, ho pensato che potessero interessarla alcune mie osservazioni sull’argomento. Per varie ragioni io non mi trovo in una posizione che mi permetta di pubblicare in giornali scientifici, e quindi userò questo mezzo per descrivere ciò che mi sembra un risultato interessante.” La lettera continua con la minuziosa e dettagliata descrizione di una serie di evidenze sperimentali, suffragate da moltissime osservazioni. Le conclusioni di Agnes, riguardanti le variazioni della tensione superficiale dell’acqua e gli effetti del contatto fra solidi e superfici, sono così interessanti che Rayleigh la inoltra a Nature, perché ne pubblichino la traduzione, in considerazione del fatto che “una signora tedesca, con mezzi molto casalinghi, è giunta a risultati di valore concernenti le superfici d’acqua contaminate…. muovendosi su argomenti molto simili a quelli di un mio recente lavoro, e in accordo con esso.” (Surface Tension (1891) Nature 46, 437).

Agnes, incoraggiata dall’appoggio di Rayleigh e in grado di mantenere i contatti con il mondo accademico anche grazie al fratello, che vi lavora come fisico teorico, prende confidenza e pubblicherà numerosi lavori negli anni successivi alla prima pubblicazione su Nature del 1891. La sua produzione non è continua e dipende dall’assiduità e dalla gravosità delle cure per i genitori, che si ammalano sempre di più e che non trascurerà mai :” Come un soldato, mi son schierata al mio posto, dove il dovere mi voleva…” (e quante donne non si riconoscono in questa frase?), ma ancora nel 1914 pubblica, per esempio, risultati sull’angolo di contatto ”(W. Ostwald, Kolloid Zeitschrift, 58,1 (1932)). La morte prematura del fratello nel 1913 rende molto più difficili i rapporti con il mondo accademico e poi le condizioni della Germania post-bellica della repubblica di Weimar la fanno scivolare verso la condizione di signora borghese, dedita a pochi, intelligenti passatempi e all’aiuto del prossimo, con il supporto di parenti emigrati negli Stati Uniti.

Il suo notevole lavoro viene riconosciuto quando viene insignita, prima donna, del premio Laura R. Leonard della Kolloid Gesellschaft (ed è interessante una nota trovata su testi che ho consultato: il premio era intitolato a Laura Leonard, moglie di M. Fischer, un fisiologo tedesco, che si occupava di fisiologia dei colloidi, emigrato in USA e rimasto in contatto con i suoi colleghi tedeschi; nella lista dei premiati, ciascuno compare con un titolo accademico o professionale, ma per Agnes l’appellativo è “Hausfrau”, casalinga). Ormai settantenne, prima e unica donna nella storia di TU- Braunschweig, le viene assegnato il dottorato in Ingegneria.

Nell’apprendere che il campo delle sue ricerche si allargava, il suo commento sarà: “Ho saputo con mia grande gioia che il mio lavoro viene usato da altri per i loro stessi studi”.

Elenco dei lavori di Agnes Pockel

(1) Surface Tension, Nature, 46, 437 (1891).

(2) On the relative contamination of the water surface by equal quantities of different substances, Nature 47, 418 (1892).

(3) Relations between the surface tension and relative contamination of water surfaces, Nature, 48, 152 (1893).

(4) On the spreading of oil upon water, Nature 50, 223 (1894).

(5) Beobachtungen über die Adhäsion verschiedener Flüssigkeiten an Glas, Naturwissenschaftliche Rundschau, 14, 190 (1898).

(6) Randwinkel gesättigter Lösungen an Kristallen, Naturwissenschaftliche Rundschau, 14, 383 (1899).

(7) Untersuchungen von Grenzflächenspannungen mit der Cohäsionswaage, (1899) Annalen der Physik, 67, 668 (1899).

(8) Über das spontane Sinken der Oberflächenspannung von Wasser, wässerigen Lösungen und Emulsionen, Annalen der Physik, 8, 854 (1902).

(9) Über Randwinkel und Ausbreitung von Flüssigkeiten auf festen Körpern, Physikalische Zeitschrift, 15, 39 (1914).

(10) Zur Frage der zeitlichen Veränderung der Oberflächenspannung, Physikalische Zeitschrift, 17, 141 (1916).

(11) Über die Ausbreitung reiner und gemischter Flüssigkeiten auf Wasser, Physikalische Zeitschrift, 17, 142 (1916).

(12) Die Anomalie der Wasseroberfläche Die Naturwissenschaften, 5, 137 u. 149 (1917).

(13) Zur Frage der Ölflecke auf Seen Die Naturwissenschaften, 6, 118 (1918).

(14) The measurement of surface tension with the balance Science 64, 304 (1926).

Riferimenti Bibliografici

Agnes Pockels: Life, Letters and Papers by Christiane A. Helm https://www.aps.org/programs/women/workshops/upload/helm.pdf

The Art of Science: a Natural History of Ideas , Picador, Macmillan Publisher Ltd (London), 2011.

Agnes Pockel di Katharina Al-Shamery in European Women in Chemistry, a cura di Jan Apotheker and Livia Simon Sarkadi, WILEY-VCH Verlag GmbH & Co. KGaA, Weinheim, 2011.

*Elisabetta Venuti è professore associato in Chimica Fisica presso il dipartimento di Chimica Industriale “Toso Montanari” dell’Università di Bologna. La sua attività di ricerca recentemente si è focalizzata sull’indagine delle proprietà strutturali, dinamiche e di trasporto di solidi molecolari e in particolare di materiali per l’elettronica organica, mediante l’impiego di tecniche di spettroscopia ottica quali la microscopia Raman confocale su cristalli singoli e in film sottile. L’approccio spettroscopico  viene completato con il supporto di metodi DFT-d per la descrizione dello stato solido, unitamente a metodi di dinamica reticolare e di dinamica molecolare.

Prodotti di ieri e di oggi. 1. La Vegetallumina.

In evidenza

Claudio Della Volpe

Alcuni di noi hanno un’età tale da aver vissuto rivoluzioni epocali in molti campi; il mondo non è stato sempre come appare adesso. Migliore o peggiore non so, ma certamente diverso.

Uno degli aspetti che è cambiato di più è l’attenzione all’uso delle sostanze in farmacologia (ma anche in altri settori); per questo mi ha colpito molto il ritorno di vecchi marchi, di nomi di prodotti che parecchi anni fa erano non solo campioni di incasso, ma soprattutto delle costanti, delle certezze, dei punti fermi della terapia casalinga e in generale della vita quotidiana.

Mi piacerebbe perciò andare ad esaminare come sono cambiati farmaci e altri prodotti che hanno caratterizzato la nostra vita in passato; alcuni pur mantenendo lo stesso nome o marchio hanno però cambiato completamente di composizione, altri invece sono scomparsi del tutto; perchè?

Preciso altresì che non essendo farmacologo o specialista di miscele non sarò …..preciso; me ne scuso con i lettori e li invito a correggermi (e anche a partecipare con i loro post).

Cominciamo con un prodotto che quando ero ragazzino ho consumato a fiumi: la Vegetallumina, una pomata contro i dolori da piccoli traumi, ma anche da reumatismi e soprattutto da geloni, che si vedeva comunemente nell’armadio casalingo delle medicine, gestito nel mio caso da mia nonna e in cui non potevo mettere le mani, uno perchè era messo bello alto e fuori portata e due perchè mi sarei beccato una bella sgridata.

Saggia decisione ancora oggi e comunque mettere i farmaci lontano dalle mani dei bambini.

I geloni oggi sono una cosa rara, ma una volta quando non esisteva il riscaldamento, condominiale o meno, erano comunissimi; (a casa l’unico riscaldamento era un braciere con il carbone, che serviva ad asciugare i panni nelle giornate umide ed anche a riscaldarsi); inoltre il mio banco a scuola era freddissimo e mi beccavo i geloni ad ogni inverno. La Vegetallumina era una soluzione, che dava una mano.

Allora la vecchia Vegetallumina era fatta così:

Canfora 2,0 g,

Metile salicilato 0,3 g,

Alluminio acetato basico 1,7 g,

Essenza di timo 1,0 g,

Trietanolammina 0,3 g,

Biossido di titanio 16,5 g

Il biossido di titanio dava alla pomata quel colore bianchissimo così caratteristico, ma non credo molto di più; oggi è rimasto colorante alimentare (E171) ma comune anche nelle vernici bianche; ricordo ancora a lezione Paolo Corradini che il primo giorno di Chimica generale 1 diceva: sapete quale è il prodotto chimico più importante nell’industria? Il Biossido di titanio che fa tutti i “bianchi” che vedete in giro attorno a voi. Mentre l’azione antinfiammatoria era garantita dal salicilato di metile, un rimedio classico uno dei primissimi FANS, e uno degli antiinfiammatori più diffusi fino a 50 anni fa.

La canfora che è assorbita velocemente attraverso la pelle, produce una sensazione di raffreddamento e funge da leggero anestetico locale e da sostanza antimicrobica. Era coadiuvata dall’essenza di timo un estratto naturale, contenente l’olio essenziale di timo con una  serie di composti come cymene, mircene, borneolo e linalolo anch’essi dotati di proprietà antisettiche.

Anche l’acetato di alluminio svolgeva una attività antisettica e si usa ancora come farmaco galenico in combinazione sostanzialmente uguale alla vecchia vegetallumina, cioè con canfora e metilsalicilato.

La trietanolammina immagino svolgesse un ruolo di regolatore del pH della miscela.

La nuova Vegetallumina è abbastanza diversa come composizione ma ha indicazioni analoghe: un gel al 10% di un derivato di un infiammatorio non steroideo, un inibitore degli enzimi che scatenano la cascata infiammatoria, l’Ibuprofene.

Come il salicilato, ma in modo più potente, l’ibuprofene inibisce la cicloossigenasi piastrinica che sintetizza le prostaglandine dall’acido arachidonico ed inizia la cosiddetta cascata infiammatoria, una serie di reazioni tipiche della reazione infiammatoria nelle cellule e nei tessuti umani.

I suoi effetti collaterali che condivide con gli altri FANS sono ovviamente molto ridotti dall’uso esterno.
Gli altri componenti sono Isopropanolo, idrossietilcellulosa, sodio para-ossibenzoato di metile, sodio para-ossibenzoato di etile, glicerolo, lavanda essenza, acqua depurata.

Come vedete il ruolo di disperdente è stato preso da un derivato della cellulosa, mentre i due parabeni, ossia i due paraossibenzoati di etile e metile sono usati da molti decenni come conservanti e antimicotici nei prodotti per uso personale; i parabeni sono spesso citati come potenti interferenti endocrini, ma parliamo di quelli a catena più lunga, mentre questi due hanno tale attività in grado molto minore, anche se le frasi H412 (H412 – Nocivo per gli organismi acquatici con effetti di lunga durata) e P273 (P273 – Non disperdere nell’ambiente.) ECHA gliele ha appioppate comunque e indicano che il rischio c’è per certe specie animali ma non per noi. Sono da escludere al momento nocività di altro genere specie per l’uomo se ci si tiene nelle soglie di concentrazione indicate dalla legge.

Voi che ne pensate : era meglio la vecchia o la nuova Vegetallumina?

Al prossimo post per un altro esempio di prodotti vecchi e nuovi.

Dalton, chimico daltonico.

In evidenza

Claudio Della Volpe.

John Dalton è uno dei nomi più conosciuti della Chimica perchè a lui si deve la teoria moderna dell’atomo. Ma oggi non vi parlerò di questo.

E’ facile trovare biografie di Dalton anche in giornali di medicina; ne ho trovata una per esempio in Journal of Medical Genetics 1988, 25, 422-426 John Dalton (1766-1844) di Alan E H Emery; il motivo di questa cosa è che Dalton, come molti dei suoi contempoanei si occupò di varie discipline; inizialmente di meteorologia, poi di medicina e solo infine di chimica.

Il suo primo lavoro, publicato nel 1794 era dedicato al fenomeno del daltonismo ed il suo soggetto di studio era se stesso, in quanto Dalton era…… daltonico.

Nonostante fosse chiaro già a Platone che non tutte le persone hanno la medesima percezione dei colori (e dunque forse non tutti gli animali hanno le medesime sensazioni pur condividendo medesimi sensi) bisogna arrivare ai tempi moderni per avere una descrizione del fenomeno; sembra che un altro famoso chimico Boyle, abbia pubblicato un testo sul tema nel 1688 (ma non ne ho il testo); certamente quello di Dalton è il primo testo autorevole a riguardo.

Egli era nato nel villaggio di Eaglesfield, nel Cumberland nel 1766 da famiglia quacchera. Questa sua austera religione fu anche l’occasione per accorgersi del suo problema.

Quando era poco più di un ragazzo regalò a sua madre un paio di calze di seta rosse; e la madre accogliendo il regalo gli disse che erano belle ma non avrebbe mai potuto metterle in pubblico. L’episodio è riportato in Lonsdale H. The worthies of Cumberland-John Dalton. London: George Routledge, 1874. Dalton ci rimase male perchè a lui sembravano grigio scuro; l’episodio si ripetè qualche anno dopo quando, dovendosi recare a Parigi decise di comprare un vestito nuovo e comprò della stoffa in negozio, ma si sentì dire dal negoziante che quella stoffa non aveva il colore adatto ad un quacchero, essendo scarlatta (ibidem).

In effetti in giro sulla rete si trovano racconti vari a questo riguardo e tutti del medesimo contenuto, ma senza la citazione originale per cui non so se sono veri, come per esempio che sia andato con calze rosse ad una riunione quacchera e così via.

Sarà per timidezza o per sussiego, ma nell’articolo citato all’inizio in realtà Dalton non racconta in questo modo l’origine delle cose; egli invece dice che si è accorto del suo problema studiando le piante, cosa che risale al più al 1790.

L’articolo originale è scaricabile da GoogleBooks. Fu letto davanti alla Manchester Literary and Philosophical Society il 31 October 1794 ed infine pubblicato nel 1798.

Egli scrive:

I was never convinced of a peculiarity in my vision til I accidentally observed the colour of the flower of the Geranium zonale by candle-light in the autumn of 1792. The flower was pink, but it appeared to me almost an exact sky-blue by day; in candle-light, however, it was astonishingly changed, not having then any blue init, but being what I called red, a colour which forms a striking contrast to blue.”

Più avanti scrive:

I take my standard idea from grass. This appears to me very litle different from red. The face of a laurel-leaf (Prunus Lauro-cerasus) is a good match to a stick of red sealing-wax; and the back of the leaf answers to the lighter red of wafers. Hence it will be immediately concluded that I see either red or green or both, different from other people

Dalton condusse uno studio dettagliato su come gli apparivano i colori delle cose sia alla luce del sole che di altre sorgenti come la Luna o una candela cercando di costruire una ragionevole teoria del fenomeno.

I see only two or at most three distinctions- these I should cal yellow and blue; or yellow, blue and purple. My yellow comprehends the red, orange,yellow and green of others;and my blue and purple coincides with theirs. That part of the image which others cal red appears to me litle more than a shade or defect of light; after that the orange, yellow and green seem one colour which descends pretty uniformly from an intense to a rare yellow, making what I should call different shades of yellow. The difference between the green part and the blue part is very striking to my eye: they seem to be strongly contrasted. That between the blue and purple is much less so. The purple appears to be blue much darkened and condensed.

Inoltre si confrontò con parenti e amici e altre persone concludendo che ci fosse una familiarità, dato che il fenomeno si riscontrava nelle medesime famiglie in numero significativo (suo fratello aveva il suo medesimo problema); inoltre concluse anche che le donne erano molto meno prone a questo disturbo.

Tutte osservazioni giustissime e convalidate da ciò che sappiamo ora.

Egli concluse dunque che:

“… one of the humours of my eye must be a transparent, but coloured medium so constituted as to absorb red and green rays principally because I obtain no proper ideas of these in the solar spectrum; and to transmit blue and other colours more perfectly.

E diede disposizione che dopo la sua morte venissero esaminati i suoi occhi per confermare questa ipotesi.

Cosa che fu fatta da un suo amico e discepolo

Dr. J. A. Ransome, former pupil and later friend and medical attendant, who found nothing to account for the defect and that colours appeared as usual through it.

Dunque l’ipotesi di Dalton non fu riscontrata, ma portò a numerosi studi che cercarono di comprendere il meccanismo della visione ed oggi sappiamo che la deuteranopia, che affliggeva Dalton è un fenomeno che non dipende da una peculiarità fisica del cristallino, ma comunemente da una componente genetica diversa che implica una ridotta o assente funzionalità dei coni, elementi fotosensibili della retina, sensibili ad uno o più dei tre colori fondamentali; questa classe di mutazioni, presente in elevata percentuale nella popolazione mondiale, può dare origine a parecchi diversi tipi di anomalia nella visione dei colori, non solo la deuteranopia e si verifica sul cromosoma X che è il cromosoma posseduto dai maschi in copia singola, mentre dalle donne in doppia copia (noi abbiamo lo Y); ne segue che questo spiega anche la minore probabilità nelle donne di questa situazione genetica.

La cosa può essere causata anche da danni nervosi o dall’effetto di sostanze chimiche somministrate per altri scopi; per esempio dal farmaco antitubercolotico etanbutolo.

Non è considerata una minorazione, ma semplicemente un modo diverso di vedere le cose e può dare problemi ma risolvibili in certe comuni operazioni (come leggere il semaforo) anche se impedisce di svolgere certe professioni, pur dando opportunità maggiori in certi casi (per esempio scoprire una forma su uno sfondo vario).

Mi chiedo a volte, se le persone come Dalton, nato da una povera famiglia, che non ricevè mai una istruzione sistematica come oggi è comune, erano dei geni totali o semplicemente persone dotate di una intelligenza media ma in un mondo ancora pieno di opportunità di scoperta alla portata dell’uomo medio. Come è cambiata la scienza negli ultimi due secoli e mezzo? Questo mi riporta alle questioni di recente analizzate in un altro post.

Nota:Per vedere il mondo come lo vedeva Dalton: http://www.color-blindness.com/coblis-color-blindness-simulator/

Le molecole più interessanti del 2017

In evidenza

Rinaldo Cervellati

Chemistry & Engineering news ha promosso una indagine fra i lettori su quali molecole sintetizzate e pubblicate nel 2017 sono risultate di maggior interesse. Nel fascicolo on-line del 4 dicembre scorso Stephen K. Ritter ha presentato i risultati di questa consultazione.

Qui riporto le prime tre classificate nella mia traduzione adattata dello scritto di Ritter.

Al primo posto, diremmo “medaglia d’oro”, si è classificata la molecola di arabinogalattano, il polisaccaride quasi due volte più grande e più complesso di qualsiasi altro ottenuto in precedenza:

La sintesi è stata effettuata dal gruppo di ricerca coordinato da Xin-Shan Ye (Yong Wu et al., Total synthesis of mycobacterial arabinogalactan containing 92 monosaccharide units, Nat. Commun, 2017, DOI: 10.1038 / ncomms14851) nel Laboratorio di Sostanze Naturali e Biomimetiche, School of Pharmaceutical Sciences, Università di Pechino.

Si tratta di un componente essenziale della parete cellulare del Mycobacterium tuberculosis, il batterio che causa la tubercolosi. Il farmaco antitubercolare etanbutolo blocca la biosintesi del polisaccaride. La tendenza dei glicani naturali ad assumere forme strutturali diverse e la loro scarsa abbondanza li rende difficili da isolare e studiare come bersagli farmacologici o per lo sviluppo di vaccini. La loro sintesi è altrettanto difficile. Xin-Shan Ye e collaboratori sono riusciti nell’impresa combinando gruppi di glicani corti in un galattano di 30 zuccheri (in blu) e due identici arabinani di 31 zuccheri (in nero), quindi hanno unito i tre frammenti ottenendo l’arabinogalattano contenente 92 zuccheri.

Xin-Shan Ye

L’arabinogalattano, tossina indubbiamente “biologica” mostra ancora una volta quanto sia fuorviante questo aggettivo per indicare prodotti sani perché “naturali”, in contrapposizione a sostanze chimiche, cattive perchè “artificiali”.

La “medaglia d’argento” è stata assegnata a molecole che contengono tre atomi di azoto legati fra loro. Le molecole centrate sull’azoto ricche di elettroni funzionano normalmente come basi di Lewis, donando una coppia di elettroni per creare un legame con un partner accettante. Il gruppo di ricerca coordinato da Mark Gandelman del Technion-Israel Institute of Technology ha riportato il primo esempio di acidi di Lewis stabili centrati sull’atomo di azoto, che forniscono addotti stabili e ben caratterizzati con varie basi di Lewis (A. Pogoreltsev et al., Nitrogen Lewis Acids, J. Am. Chem. Soc.2017139, pp 4062–4067).

Mark Gandelman

Si tratta di triazani ciclici in grado di funzionare come mostrato in figura:Questi composti presentano diverse proprietà e si potrebbero prestare a diverse applicazioni, in particolare come catalizzatori.

Su un altro versante, i radicali triazenilici contenenti azoto, già rilevati spettroscopicamente in precedenza, noti come leganti in complessi di metalli di transizione, risultano difficili da isolare e stabilizzare.

Radicali triazenilico

I ricercatori guidati da Eunsung Lee dell’Institute for Basic Science e l’Univesità di Scienze e Tecnologia di Pohang (Repubblica di Corea), hanno trovato un modo per sintetizzarli usando carbeni N-eterociclici come sostituenti stabilizzanti (Jisu Back et al. Triazenyl Radicals Stabilized by N‑Heterocyclic Carbenes, J. Am. Chem. Soc., 2017, 139, 15300-15303).

I ricercatori hanno poi utilizzato con successo il radicale triazenilico come materiale catodico in una batteria al litio.

Al terzo posto si è classificato questo complesso del palladio a forma pentagrammo-troncata:È una struttura unica non solo perché ha una forma particolare – un pentagono circondato da trapezi isosceli – ma anche perché è la prima molecola pentanucleare multicompartimentale autoassemblante contenente due diversi leganti nonchelanti. I complessi di coordinazione autoassemblati sono in genere costruiti da metalli collegati da un solo tipo di legante. Oltre a ciò, i leganti sono spesso chelanti, il che significa che ogni legante è collegato al metallo attraverso due o più atomi. I chimici indiani e giapponesi, guidati da Dilip Kumar Chand dell’Indian Institute of Technology aMadras, che hanno sintetizzato la molecola l’hanno battezzata “stella molecolare” (S. Prusty et al., A Truncated Molecular Star, Chem. Eur. J., 2017, 23, 12456–12461).

Dilip Kumar Chand

Essi sperano che la loro stella molecolare possa ispirare la sintesi di gabbie simili a cellule per applicazioni biomediche.

Altre tre molecole sono state candidate, in particolare un “nodo molecolare”a tre catene intrecciate, derivati complessi del norborano, una molecola a forma di girasole. Esse hanno però ottenuto percentuali di voti a una cifra. Le prime tre hanno ottenuto invece il 34, 32 e 17% rispettivamente di gradimento.

L’annus horribilis idrico.

In evidenza

Mauro Icardi

Il 2017 che si sta per concludere è stato un anno decisamente critico per l’ambiente. Le ondate di caldo estive, il mai risolto problema degli incendi boschivi, gli straripamenti ed allagamenti alle prime precipitazioni che si verificano dopo mesi di siccità. Sono tutti segnali di un problema ambientale complesso. Ho ascoltato in radio o letto sui giornali molti autorevoli commentatori, ultimo fra tutti il direttore responsabile dell’agenzia Ansa Luigi Conti, che in un programma radiofonico, presentando il libro fotografico dei principali avvenimenti del 2017, relativamente ai problemi ambientali suggerisce di “fermarsi a riflettere”.

No, non è più tempo di riflessioni. Sarebbe tempo di programmare ed agire. Con una prospettiva di lungo periodo. Altrimenti si ripetono scontati refrain. Di fatto ormai inutili.

Dal mio personale punto di osservazione di tecnico del ciclo idrico posso notare alcune cose: la prima che mi riguarda non indirettamente è quella del regime delle precipitazioni, qui in provincia di Varese. Tra i dati annuali degli impianti di depurazione, che poi devono essere trasmessi a regione e provincia ci sono anche quelli relativi alle condizioni meteo (tempo asciutto o pioggia) che devono essere registrati giornalmente.

Questo perché la variazione di precipitazioni può provocare scompensi nel flusso idraulico degli impianti di depurazione, se questi non sono dotati di vasche di accumulo delle acque di pioggia. Le variazioni repentine e violente di precipitazioni piovose provocano intasamenti delle apparecchiature idrauliche, e dei pozzetti in cui esse sono alloggiate.

Osservando le statistiche meteo relative al 2017 e pubblicate sul sito del Centro Geofisico Prealpino si può notare come, nella regione padano alpina vi sia un deficit di precipitazioni che per il periodo Gennaio 2017 – Novembre 2017 è pari a – 326,1 mm di pioggia.

Molti corsi d’acqua minori rimangono privi di acqua per molti giorni, e la diminuzione di piovosità è più evidente nella stagione invernale. Inverni asciutti sono stati quelli del 2010/2011, 2011/2012, 2012/2013, 2015/2016 e 2016/2017.

Molti corsi d’acqua quindi, con sempre maggior frequenza finiscono per essere alimentati soltanto dall’acqua scaricata dai depuratori. Situazione di oggettiva emergenza per quanto riguarda la compromissione dello stato ecologico del fiume, anche se lo scarico rispetta tutti i parametri di normativa. Situazione che però a volte si raggiunge con maggior difficoltà. Perché un altro fenomeno a cui si assiste è l’aumento di concentrazione di alcuni parametri che sono usuali.

Per esempio quello dell’azoto ammoniacale, che non rientra tra i parametri emergenti. In alcuni casi ho riscontrato incrementi percentuali di concentrazione di questo parametro pari a circa il 40%. Sono incrementi puntuali, e analizzando l’intero anno 2017 l’incremento annuale risulta più modesto (10%) ma è un fenomeno da monitorare. Viene a mancare poi l’effetto di depurazione naturale dello scarico trattato in uscita dall’impianto consortile.

Facendo ricerche in rete e digitando la parola “siccità” si vedono inviti a risparmiare acqua, e generici incoraggiamenti all’utilizzo o al recupero delle acqua depurate. Nulla di tutto questo si può ottenere, lo ripeto senza adeguata programmazione e adeguati investimenti.

Ma il cambiamento climatico provoca anche effetti diametralmente opposti. Cioè l’aumento di precipitazioni piovose di intensità elevata. In questo caso l’effetto sugli impianti di trattamento acque è anch’esso opposto. La variazione repentina di portata affluente all’impianto provoca intasamenti, diluizione eccessiva e quindi variazione troppo marcata del carico inquinante. Nel 2009 l’effetto di una forte precipitazione piovosa (si raggiunsero i 150 mm di pioggia caduta in circa tre ore nella zona Induno Olona- Varese, ma con picchi in altre zone della provincia che arrivarono anche a 175mm come nella zona di Porto Ceresio), dovuti ad un temporale autorigenerante. L’impianto dove lavoro venne completamente allagato, a causa della rapida esondazione del fiume Olona, dove sono recapitate le acque depurate. Un nubifragio di sole tre ore, che allagò anche la storica birreria di Induno Olona.

Questa era la condizione della strada che percorro per recarmi al lavoro quel 15 Luglio 2009.

Oltre all’esondazione del fiume si verificò il rigurgito del flusso di acqua depurata che rientrò in impianto attraverso la condotta di scarico, che era ostruita da rami e sedimenti. La precipitazione durò in tutto circa tre ore. Ci vollero circa cinque giorni per pulire l’area di impianto, verificare il funzionamento delle apparecchiature e ripristinare il funzionamento a pieno regime dell’impianto.

Ho voluto scrivere di eventi legati al cambiamento climatico, che mi hanno coinvolto personalmente. Vuole essere una riflessione in più. Un appello alla classe politica, sia nazionale che locale, e alla pubblica opinione.

Siamo chiamati a gestire l’acqua, il ciclo idrico in maniera consapevole.

Dopo le dovute riflessioni ci si deve muovere verso azioni concrete. Improrogabili.

Il nuovo scanner chimico, il naso elettronico

In evidenza

Luigi Campanella, già Presidente SCI

Con sempre maggiore frequenza capita di leggere sulla stampa scientifica, ma anche su quella di informazione, circa le applicazioni di nasi e lingue elettronici a problemi di varia importante natura:dalla diagnosi di patologie in atto alla verifica di caratterizzazioni DOC e DOP di alimenti, dal monitoraggio di matrici ambientali al controllo di autenticità di materiali vari. Già in passato mi sono occupato in questo blog dello stesso argomento, collegandolo al contributo ad esso che deriva proprio dai sensi dell’uomo, in particolare in questo caso olfatto e gusto. Vorrei tornare su aspetti storici e tecnici di questi preziosi strumenti analitici. I due punti di partenza per comprendere sono lo sviluppo della sensoristica ed il valore diagnostico di un’impronta sensoriale piuttosto che la risposta di un singolo sensore. Rispetto alle tecniche più largamente usate, come le tecniche cromatografiche che fornivano a livello qualitativo e quantitativo i differenti componenti presenti in una miscela incognita, rappresentano una valida alternativa i sensori elettronici che conducono ad una più ampia caratterizzazione del campione in esame fornendo una cosiddetta “impronta digitale” correlata alla composizione della matrice stessa.

I tipi di sensori sfruttati in tal senso devono necessariamente soddisfare determinati requisiti come la capacità di analizzare un ben preciso composto, la capacità di determinare analiti in concentrazioni ampiamente variabili, un tempo di analisi relativamente breve, un’elevata affidabilità, non influenzata drasticamente da variazioni nelle condizioni di misura, la capacità di fornire dati e misure accurate e ripetibili. In questa logica diverse tipologie di sensori sono stati sviluppati negli ultimi anni classificate in sensori “freddi” e in sensori “caldi”.

Tra i sensori “freddi” si possono annoverare:

  • i sensori CP (conducting organic polymers) formati da un substrato di silicio, una coppia di elettrodi placcati d’oro e un polimero organico conduttore (come polipirrolo, polianilina o politiofene) oppure drogati con carbone per ottenere un segnale analitico. Quando viene imposto un potenziale all’elettrodo una corrente passa attraverso il polimero conduttore. Il passaggio di un composto volatile altera la superficie e modifica il flusso di corrente e quindi la resistenza del sensore. E’ un sensore molto influenzato dall’umidità del campione e perciò inutilizzabili in camioni liquidi (polari) e in aria.
  • i sensori BAW (bulk acoustic wave) costituiti da cristalli piezoelettrici basati sul cambiamento di massa che può essere misurato dal cambiamento della frequenza di risonanza. Quando viene applicato un potenziale elettrico alternato, il cristallo vibra con una frequenza molto stabile definita dalle sue proprietà meccaniche. Quando lo stato che lo ricopre viene esposto ad un vapore, assorbe certe molecole che aumentano la massa e quindi diminuiscono la frequenza di risonanza del cristallo. Questa modifica può essere monitorata e costituisce il segnale del sensore. Questi sensori necessitano di un’elevata concentrazione di composti volatili per fornire risposte significative. Inoltre sono molto sensibili alle variazioni di temperatura e di umidità. Richiedono infine una certa delicatezza nell’uso.

 

Sensors 2009, 9, 6058-6083; doi:10.3390/s90806058

Tra i sensori “caldi” soprattutto per l’applicazione in campo ambientale e sui campioni contenenti acqua, si considerano:

  • i sensori MOSFET Metal Oxide FET (transistor a effetto di campo ad ossido di metallo), i quali si basano sul cambiamento di potenziale elettrostatico. Sono costituiti da tre strati: silicio semiconduttore, un isolante a ossido di silicio ed un metallo catalitico (platino, palladio). Operano come un transistor a cui viene applicato un potenziale che influisce sulla conduttività del transistor stesso. Quando una molecola polare interagisce con il metallo, il campo elettrico viene modificato e di conseguenza anche la corrente che fluisce attraverso il sensore. Si registra la variazione di tensione necessaria per riportare la corrente al valore iniziale. Sono delicati nel trasporto per cui non sono adatti a strumenti portatili.
  • i sensori MOS (metal oxide semiconductor-semiconduttori ad ossidi di metallo), che si basano su variazioni di conducibilità indotti da reazioni superficiali dovute all’adsorbimento del gas da analizzare. Il meccanismo della reazione si basa su uno scambio di ossigeno tra le molecole volatili ed il film metallico; questo causa una variazione di resistenza che viene registrata e confrontata alla quantità di composti adsorbiti. Inoltre la possibilità si poterli riscaldare a diverse temperature permette di sfruttare le diverse caratteristiche del layer (metallo) alle diverse temperature per ottenere segnali analitici cosiddetti “dedicati”. La matrice di sensori costituisce il cuore degli analizzatori sensoriali. Ciascun polimero della matrice, costituita da un numero di sensori variabili, presenta selettività verso diverse e numerose specie chimiche, così che i moderni nasi elettronici sono in grado di rispondere a migliaia di composti.

In tutti i casi il modello elettrico ottenuto viene successivamente elaborato e memorizzato da un software. L’enorme numero di valori ricavati dalle matrici dei sensori necessita infatti di un metodo interpretativo che associ le misure dei sensori alle proprietà di interesse del campione. Il cosiddetto “MODELLO DI RICONOSCIMENTO” è il sistema informativo che correla le misure dei sensori con le proprietà dei campioni permettendone il riconoscimento e la classificazione. Il modello di riconoscimento consta concettualmente di due passaggi fondamentali:

  • Esplorazione: fase in cui per ogni set di campioni, una volta memorizzate le impronte olfattive di ogni campione, si procede alla scelta di quei sensori e parametri che meglio descrivono, discriminano e caratterizzano le impronte olfattive di ogni analita, riducendo quindi la dimensionalità dei dati. E’ una fase in cui non si impone alcuna assunzione circa le caratteristiche dei campioni. La PCA (analisi delle componenti principali) permette questa importante fase di elaborazione. Infatti la PCA correla tra loro i dati ottenuti, descrivendo completamente il sistema. Un’ulteriore distinzione andrebbe eseguita in campo di esplorazione. Di fatti l’esplorazione non richiede conoscenze aggiuntive circa la natura dei dati ma, del resto, alcune conoscenze sono necessarie per l’interpretazione dei risultati.
  • Predizione: fase in cui si ha per obiettivo la costruzione del modello matematico che rappresenti “il più fedelmente possibile” le caratteristiche dei campioni. Le applicazioni della fase di predizioni sono tre: la supervisione (il modello deve distinguere tra campioni accettabili o non accettabili, nel senso di appartenenza o meno ad una data classe), la classificazione (consiste nell’associazione ad ogni campione di una classe di appartenenza tra le diverse identificate) e la quantificazione (il modello deve fornire indicazioni oltre che qualitative anche quantitative, relative cioè all’intensità di odore). Sono tutti passi controllati poiché devono essere formulate e verificate ipotesi circa le caratteristiche dei campioni analizzati, in modo da poter verificare la validità del modello di riconoscimento elaborato. La PLS (regressione che usa i minimi quadrati “parziali”) permette di eseguire la predizione ed è un metodo lineare. Oppure si può procedere con la messa a punto di una rete neurale. Una rete neurale* è un paradigma di elaborazione delle informazioni ispirato dal sistema nervoso-cerebrale umano, in grado di apprendere con l’esperienza.

Esistono già in commercio moltissimi dispositivi preposti alla individuazione di un’impronta olfattiva. Ad esempio la TECHNOBIOCHIP S.c.a r.l. propone un naso elettronico “LIBRA NOSE” in continua evoluzione che rappresenta il frutto di una ricerca avanzata sviluppata dal dipartimento di Ingegneria Elettronica dell’Università di Tor Vergata. Si tratta di uno strumento multi sensoriale che mostra analogie con la struttura olfattiva dei mammiferi. Lo strumento è fornito di una matrice di otto sensori risonanti di quarzo su cui vengono deposte otto diverse metallo porfirine (una diversa porfirina e un diverso metallo ad essa coordinato per ogni sensore), in modo tale da renderle sensibili alle sostanze volatili responsabili dell’odore. La scelta delle metallo porfirine è stata fatta sulla base del loro particolare ruolo in natura, dove presentano diverse funzionalità fondamentali, come il trasporto di ossigeno nel sangue; per questa ragione si suppone che siano dotati di grande affidabilità. D’altro canto le porfirine mostrano proprietà coordinanti marcate rendendole adatte per moltissime applicazioni del naso elettronico. Infatti, sebbene sia noto ben poco circa le strutture proteiche dei recettori olfattivi umani, si può argomentare che molti dei recettori contengano ioni metallici nei loro siti attivi.

Il naso fornisce una differente frequenza di oscillazione dei sensori a seconda della traccia olfattiva lasciata dal campione in esame, che deve essere necessariamente volatile affinché possa essere rilevabile una impronta odorosa. La scelta dei sensori è ricaduta su sistemi specifici che interagissero con le molecole volatili sviluppatesi dal campione. Quando una sostanza viene immessa nello strumento (grazie ad una pompa di gas opportuno collegata con il naso elettronico) potrà dare delle interazioni più o meno deboli (tipo interazioni di Van der Waals) con la porfirina. Questa serie di interazioni fa variare la frequenza di oscillazione dei quarzi e si registra una variazione di frequenza. Sono quindi possibili anche studi di cinetica di reazione, e di termodinamica di reazione basandosi sulla differente interazione che una sostanza ha con le diverse porfirine. Comprensibilmente in base alle diverse interazioni si distinguono le sostanze che appunto mostrano diverse differenze di frequenza. Le uniche problematiche dello strumento sono rappresentate dall’eventuale solubilizzazione delle porfirine con determinati campioni o il loro avvelenamento. Gli studi di ricerca si orientano nella sintesi di porfirine adeguate alle diverse problematiche. Il passo successivo alla determinazione delle diverse frequenze di vibrazione dei cristalli di quarzo è costituito dalla analisi statistica delle diverse variabili che individuano una traccia olfattiva. L’analisi dei dati è un compito importante per un naso elettronico. Nell’olfatto naturale, come precedentemente asserito, avviene un processo di discernimento tra i diversi odori per assegnarli ad una ben definita classe. Tra le numerose tecniche disponibili correntemente per il riconoscimento hanno maggiore rilievo le reti neurali (neural networks). Tra questi la Technobiochip e l’università di Tor Vergata ha posto attenzione su una classe particolare chiamata “organizing maps”. Queste reti hanno manifeste somiglianze biologiche, e sono designate per “mimare” il comportamento della corteccia cerebrale nel trattamento dei dati sensoriali. L’applicazione di queste reti permette di completare l’analisi dei dati e di definire il ruolo giocato da ogni sensore del dispositivo per descrivere l’analita in esame. Scopo ultimo dello strumento è quello di riuscire a realizzare tramite la rete neurale tra i diversi dipartimenti dotati dello strumento un link diretto per il continuo confronto dei dati acquisiti con lo stesso tipo di sensore. Una sorta di banca dati, paragonabile alla lunga con le note librerie di spettrometria di massa.

Le prove eseguite inizialmente prevedevano sostanze organiche elementari, i solventi più comuni, gli odori più semplici sia liberi che in miscela tra loro. Le applicazioni principali riguardano l’analisi ambientale e il controllo di qualità degli alimenti. Non ultima l’applicazione sanitaria nell’individuazione di differenti patologie sulla base della determinazione di diverse impronte olfattive su liquidi biologici di differenti individui.

Anche la Cyrano Sciences ha proposto un suo naso elettronico, chiamandolo opportunamente “CYRANO 320 electronic nose” cercando una via adeguata per digitalizzare ogni odore. Il sensore usato in questo tipo di apparecchiatura è un polimero di carbonio composto da chemiresistori che costituiscono un diodo. L’output complessivo di questo diodo è usato per identificare un analita incognito. Ogni rivelatore del diodo è costituito da un polimero di carbonio conduttivo disperso omogeneamente in un polimero non conduttivo. Quando il rivelatore è esposto ad un analita in fase vapore la matrice polimerica agisce come una spugna e “si rigonfia” mentre lo assorbe. L’aumento in volume è simultaneo ad un aumento di resistenza. Quando l’analita viene rimosso, la spugna polimerica si secca. La relazione tra variazione di volume e resistenza può essere descritta con la teoria della percolazione. La teoria prevede l’interazione tra siti attivi vicinali. Le reti di resistori interagiscono in modo continuo fin tanto che sono connesse, successivamente l’ultimo sistema conduttivo si rompe temporaneamente e il sistema diventa discontinuo. Questo punto di rottura dipende da numerose variabili collegate con l’adsorbimento della sostanza volatile che il sensore sta individuando. La determinazione viene seguita monitorando la variazione della resistenza in funzione del tempo. Assorbendo l’analita con diversi matrici polimeriche si ottengono delle mappe di assorbimento del composto. La determinazione analitica viene completata da un’elaborazione dati.

Un sito** internet elenca le diverse aziende e gruppi di ricerca che lavorano per realizzare o implementare le proprietà di dispositivi sensoriali: la differenza riguarda essenzialmente la scelta dei sensori che attualmente sono quasi sempre trasduttori (come QMB*** o SAW) oppure chemiresistori (basati su ossidi metallici o polimeri conduttori).

Caratteristica comune dei cosiddetti “nasi elettronici” è la discriminazione (risposta aspecifica) fornita da un insieme di sensori esposti contemporaneamente alla miscela in esame.

Elaborando successivamente i dati acquisiti con un algoritmo statistico si può associare un nuovo odore, e quindi un’impronta di segnale, ad un insieme di odori e ad impronte già note.

La sensoristica sempre più all’avanguardia ha continuato a studiare nuovi possibili sensori per ampliare il range delle determinazioni e il campo di applicabilità. La comunità europea dinanzi ad una vera e propria fioritura di brevetti si è trovata costretta a stilare un regolamento con le normative necessarie per un confronto tra i diversi dispositivi per stabilire infine le condizioni e i limiti d’impiego. Lo scopo ultimo è anche quello di realizzare una vera e propria “rete neurale” simile ad internet o che ci si affianchi per connettere i diversi dispositivi e creare una crescente banca dati di risultati confrontabili tra i diversi laboratori che utilizzano questi strumenti. La difficoltà principale è l’uniformazione dei dati che essendo il prodotto di strumenti che non agiscono sulle stesse grandezze non sono confrontabili direttamente senza trovare un sistema di riferimento a cui tutti convertono i propri risultati.

Tuttavia, in Europa esiste la rete NOSE (network on artificial olfactory sensing) il cui scopo è collegare tra i diversi enti, istituti, laboratori e gruppi scientifici sia nel campo universitario che in quello industriale, che sono interessati a queste tematiche. Quindi la rete NOSE cerca anche di promuovere la normazione di queste tecniche.

Il sito www.europa.eu.int rappresenta uno dei sistemi di unione di progetti di ricerca e contatto di reti neurali di diversi interlaboratori dispersi sul territorio europeo. Nell’area progetti si possono già individuare le prime applicazioni di queste tecniche sensoriali, soprattutto per l’analisi degli alimenti e dell’ambiente.

Il sito www.nose.uia.ac.be è un sito in cui si possono seguire le attività eseguite con questi sensori, i progetti, le applicazioni e le ultime tecnologie proposte per il loro utilizzo. Si presenta anche una sessione disposta per la realizzazione delle reti neurali con scopi e obiettivi della rete stessa.

* NOTA:Una rete neurale è costituita da un gran numero di elementi di elaborazione interconnessi in grado di cooperare nella risoluzione dei problemi specifici di complessità troppo elevata per le tecnologie informatiche tradizionali. La problematica specifica dell’applicazione della rete neurale si presenta in particolare per quelle determinate situazioni in cui non esiste un algoritmo risolvente oppure è troppo complesso da determinare. L’ “apprendimento” di una rete neurale è basato sui processi simili a quelli dei sistemi biologici, quali le modifiche delle connessioni sinaptiche tra i neuroni. Una simile elaborazione del segnale consente il riconoscimento dell’odore per confronto con altri dati in memoria.

** http://sch-www.uia.ac.be/struct/review/research@sales.html

*** I trasduttori QMB sono quarzi con legate delle metalloporfirine, il cui funzionamento è basato sulla variazione di frequenza rispetto alla frequenza di oscillazione fondamentale in seguito all’adsorbimento di molecole dalla fase gassosa. L’assorbimento o desorbimento di molecole corrisponde alla variazione di frequenza caratteristica della sostanza adsorbita, descritta dalla relazione di Sauerbrey: Df = – Cf f02 Dm A-1, dove A è la superficie ricoperta dalla porfirina, Cf è la sensibilità di massa costante e f0 è la frequenza fondamentale. La sensibilità chimica è assicurata ricoprendo la superficie del quarzo con la sostanza chimica adeguata.

Mendeleev – La Tavola Periodica degli Elementi

In evidenza

Margherita Venturi

Recensione.

Mendeleev – La Tavola Periodica degli Elementi

Giovanni Villani

Edizioni Grandangolo Scienza (Corriere delle Sera)

Il libro di cui vi parlo oggi “Mendeleev. La Tavola periodica degli elementi” di Giovanni Villani è uscito il 24 maggio 2017; fa parte della Collana Grandangolo Scienze ed era possible acquistarlo assieme al quotidiano Corriere della Sera. Avevo saputo della sua imminente pubblicazione dall’autore, ma devo dire che ho penato non poco ad averlo: in molte edicole non era disponibile e occorreva richiederlo espressamente; conclusione dei fatti è che ne sono venuta in possesso solo alla fine dell’estate. Quindi, ho il sospetto che sia sfuggito a molti e ciò è un vero peccato, dal momento che, a mio parere, è un volumetto che tutti dovrebbero avere nella biblioteca “di casa”.Si tratta di un’edizione tascabile e, pertanto, il libro è comodo da leggere ovunque, anche perché è scritto in maniera agile e con un linguaggio accessibile a chiunque; è la pubblicazione più “leggera” (l’autore non me ne voglia, è un complimento!) di Giovanni Villani, chimico ed epistemologo, ricercatore del CNR di Pisa e presidente della Divisione di Didattica della Società Chimica Italiana.

Nel libro l’autore ha cercato di inquadrare in un contesto storico/epistemologico la figura di Mendeleev e lo sviluppo della Tavola Periodica; proprio in questo sta la fruibilità del libro: anche chi sa poco o nulla di chimica ha sentito parlare di Mendeleev e della Tavola degli Elementi e qui può trovare argomenti di tipo storico, sociale e, ovviamente, scientifico che lo possono interessare, indipendentemente dalla sua estrazione culturale. Ma non mettiamo in carro davanti ai buoi e andiamo per ordine.

Il libro è diviso in tre parti fondamentali: il panorama storico (a cura di Giorgio Rivieccio), il focus scientifico e alcune letture di approfondimento. Benché si tratti di tre parti separate, sono tutte perfettamente consequenziali, compenetranti l’una nell’altra e indispensabili per capire la figura del chimico russo e l’importanza della sua opera scientifica.

Mendeleev è sicuramente uno degli scienziati più imponenti: imponente fisicamente, almeno così ci appare dalle immagini che lo riportano; un uomo grande, con una gran barba e un’espressione sempre molto seria e scrutatrice; imponente scientificamente, perché la sua figura ha dominato la scienza della fine dell’ottocento.

Nel libro, però, emergono anche altri aspetti di Mendeleev, quelli che riguardano l’uomo e che lo avvicinano “ai miseri mortali”: l’amore struggente per la giovanissima Anna Ivanova Popova, osteggiato da tutti, in particolare dalla moglie che non gli voleva concedere il divorzio, il suo difficile rapporto con le istituzioni, prima fra tutte l’Accademia delle Scienze di Pietroburgo di cui non riuscì mai a diventare membro effettivo, il suo atteggiamento critico nei confronti del sistema scolastico, della situazione sociale ed economica del paese, tanto da essere considerato un elemento poco desiderabile.

Il Mendeleev che ci appare è un uomo solo e, quindi, ci ispira un grande affetto, così come ci ispira un grande affetto anche lo scienziato, che cerca di scoprire l’armonia generale della natura avendo a disposizione ben pochi dati oggettivi e che è certo dell’esistenza di questa armonia, tanto da lasciare “buchi vuoti” nella tabella unificatrice che tentava faticosamente di costruire.

Ovviamente questa è la parte più “impegnativa” del libro, in cui si affrontano concetti epistemologici ed altri specificatamente chimici, ma, come ho detto all’inizio, l’autore riesce anche in questo caso ad essere chiaro e piacevole. È molto interessante il confronto fra le idee del chimico russo e quelle degli altri scienziati che si sono posti il problema di ordinare e organizzare gli elementi; da questo confronto appare evidente la superiorità di Mendeleev, l’unico che sia riuscito a tenere assieme l’individualità degli elementi e il loro stare in “gruppo”, ad individuare quello che specifica e quello che unisce; infatti come lui stesso dice: negli atomi vediamo, simultaneamente, le loro peculiarità individuali, la loro molteplicità infinita e la sottomissione della loro apparente libertà all’armonia generale della Natura.

La prima versione della Tavola Periodica

Ho apprezzato moltissimo anche la parte che riguarda l’evoluzione storica del concetto di elemento, dai quattro elementi di Empedocle e di Aristotele agli oltre cento attuali, passando dalla fisica classica alla fisica quantistica, dal Congresso di Karlsruhe del 1860 alla scoperta della radioattività naturale ed artificiale. A proposito del congresso di Karlsruhe, Mendeleev, che vi partecipò, scrisse al suo ritorno: il meeting ebbe un notevolissimo impatto sulla storia della nostra scienza. Ciò si dovette soprattutto all’intervento di Cannizzaro, che aprì la strada allo sviluppo della Tavola Periodica [1]. A tutto ciò fanno da coronamento sei pagine alla fine della sezione iniziale sul panorama storico che descrivono sinteticamente i fatti storici, le idee filosofiche, i movimenti letterari e artistici e le scoperte scientifiche e tecnologiche degli ultimi 50 anni dell’ottocento.

Ho detto prima che Mendeleev ci appare solo, sia come uomo, in costante conflitto con la società dell’epoca, che come scienziato, ripiegato su se stesso alla ricerca di quel filo conduttore fra gli elementi della cui esistenza era certo, ma che faticava a palesarsi. Questo però è il destino “crudele” di che è troppo avanti per i suoi tempi e quanto il nostro sia moderno e attuale è molto evidente nella parte delle letture di approfondimento, in particolare quella che riguarda la sua partecipazione alla Commissione sullo spiritismo. Presiedendo la commissione egli tenta in tutti i modi di far capire agli “spiritisti” che per credere ci vogliono prove concrete e scientifiche, senza però ottenere grandi risultati come si evince dalla sua conclusione sconsolata: quando uno vuole credere, non c’è prova scientifica che tenga; ancora oggi spesso e volentieri ci troviamo a dover combattere questo atteggiamento e, ancora oggi, il più delle volte, è fatica sprecata! Mi ha colpito molto anche quanto Mendeleev dice sempre agli spiritisti: rivolgete piuttosto la vostra attenzione a questioni di ben altra importanza, date il vostro appoggio alla causa di chi, oppresso, lotta e soffre, di chi insorge contro il proprio tiranno. Anche in questi combattimenti si è manifestato uno spirito, e quanto vigile e vigoroso! La sua attenzione per i problemi sociali e per la sofferenza dei più deboli è un’altra dimostrazione di quanto sia stato grande questo scienziato.

Le 166 pagine del libro si completano con un breve glossario, una bibliografia molto snella e una sezione sui luoghi di interesse. Mi è allora tornato alla mente il viaggio in Russia che ho fatto tanti anni fa e il rispetto reverenziale con cui ho visitato l’appartamento di Mendeleev; quasi senza fiato ho girato in quella stanza piena di scaffali traboccanti di libri, pensando che proprio lì era nata la Tavola Periodica, considerata da molti scienziati l’idea più grandiosa degli ultimi dieci secoli.

Sinistra: Monumento a Mendeleev a San Pietroburgo e la versione in cirillico della Tavola Periodica riprodotta sul muro accanto alla statua; destra: una foto dello studio di Mendeleev a San Pietroburgo

Ci sarebbe ancora tantissimo da dire su questo libro, ma mi fermo qui, volutamente, per stuzzicare la curiosità dei potenziali lettori.

Per concludere non posso però evitare di ricordare Primo Levi e il suo libro Il Sistema Periodico; Levi dice giustamente: il Sistema Periodico di Mendeleev, che proprio in quelle settimane imparavamo laboriosamente a dipanare, era una poesia, più alta e più solenne di tutte le poesie digerite in liceo: a pensarci bene aveva perfino le rime! In effetti si tratta proprio di una meravigliosa poesia che racchiude in sé, in maniera concisa e unitaria, buona parte della Chimica e nessun’altra disciplina scientifica può vantare una simile tavola iconografica. Si tratta, però di una poesia senza fine, a cui giorno dopo giorno si aggiungono nuovi versi (nuovi elementi) che andranno a creare nuove rime; questo è forse il motivo per cui la Tavola Periodica conserva ancora oggi quell’alone quasi mistico che ha accompagnato la sua nascita: nonostante sia ormai stato razionalizzato il motivo delle similitudine fra gli elementi, la magia di questo documento sta nel fatto che l’ordine palese degli elementi ci svela un ordine molto più profondo, quello intrinseco della Natura.

[1] Se qualcuno fosse interessato a saperne di più sul convegno di Karlsruhe consiglio l’articolo “When science went International” di Sara Evert pubblicato su Chemical & Engeneering News (2010, 88(36), 60), in occasione del 150° anniversario del congresso.

“Ho sempre fatto vernici.”

In evidenza

Oscar Chiantore*

Non ho avuto la fortuna di conoscere Primo Levi di persona. Mi capitò tuttavia di avere con lui un contatto epistolare qualche tempo dopo che il Sistema Periodico fu pubblicato negli Stati Uniti, cosa che avvenne nel 1984. Ricevevo ogni mese la rivista Chemical & Engineering News, e nel numero di maggio 1985 trovai pubblicata la recensione al libro, The Periodic Table, che qui riporto.

Era una recensione molto bella, che in modo succinto secondo me metteva bene in evidenza gli aspetti essenziali del libro di Levi. Fin dal titolo: ‘Un chimico medita sulla sua vita e sul suo mestiere’, dove vita e mestiere traggono sostentamento ed ispirazione l’uno dall’altra. Il recensore, entusiasta, scriveva: ‘E’ un libro bellissimo, scritto in una prosa sobria e meravigliosa, che spesso rasenta la poesia……”.

Immaginando che recensioni come questa, provenienti da pubblicazioni non letterarie non pervenissero a Levi tramite la casa editrice, gliela mandai con una breve lettera di accompagnamento. Levi rispose esprimendo riconoscenza perché la recensione gli era parsa “molto bella e intelligente”, e non ne avrebbe avuto notizia dal servizio stampa dell’editore. Dichiarava inoltre che leggerla gli aveva “dato una gradevole nostalgia”.

Il Sistema Periodico è riconosciuto essere un libro di interesse universale per le tematiche trattate, e per il modo con cui sono illustrate dato che – parafrasando Levi – ogni elemento è in grado di dire qualcosa a qualcuno e a ciascuno una cosa diversa. Certamente noi chimici vi troviamo una ricchezza superiore, potendo riconoscerci più o meno parzialmente nel mestiere così come viene descritto ‘….un caso particolare, una versione più strenua, del mestiere di vivere’ [Argento], dove si susseguono le “due esperienze della vita adulta…il successo e l’insuccesso.” [Nichel]

Oltre a questo episodio vorrei ricordare un paio di altre situazioni in cui mi è capitato di occuparmi del Levi chimico.

Venti anni fa, con l’amico e collega Edoardo Garrone, organizzammo la mostra Primo Levi e il Sistema Periodico, nella zona antistante quella Biblioteca Chimica così vividamente descritta nel capitolo Azoto, e rimasta simile a quella frequentata da Levi solo più nei tavoli e nelle scaffalature di buon legno di noce. L’evento era programmato nell’ambito delle manifestazioni per il decennale della scomparsa di Levi e, proprio perché fatto ‘a Chimica’, era imperniato sul Sistema Periodico con testimonianze di alcuni suoi compagni di studi, e con documenti e testi relativi al suo percorso universitario.

Esponemmo anche una quindicina di copie di edizioni straniere del Sistema Periodico, tutte quelle che potemmo ottenere semplicemente chiedendo ad amici e colleghi stranieri di procurarci una copia del libro nella lingua del loro Paese.In quell’ occasione la SIVA, dove come è noto Levi svolse la maggior parte della sua attività di chimico, offrì una nuova Tavola Periodica per l’Aula Magna di Chimica, per sostituire quella allora esistente, risalente agli anni ’50 ed offerta a quel tempo dalla Cinzano. Nelle due immagini qui sotto si possono vedere le due Tavole, quella vecchia e quella nuova.

La nuova Tavola Periodica fu inaugurata il 15 Maggio 1997, nella giornata iniziale della manifestazione. La Tavola si trova ancora lì, nell’Aula Magna del Dipartimento di Chimica che qualche anno dopo è stata poi intitolata a Primo Levi. La visibilità della Tavola è oggi diventata più difficile, da quando l’uso diffuso delle proiezioni con power point ha imposto la collocazione di un ampio schermo che, quando srotolato, copre tutta la Tavola Periodica.

La giornata del 15 Maggio 1997 e tutto l’evento sono stati poi documentati da un numero monografico del notiziario dell’Università di cui mostro la pagina iniziale con l’indice del fascicolo contenente testi e immagini sia della giornata che della mostra.

Avigliana – Dinamite Nobel S.A. – Veduta – 1930 – 1940 (foto: Centro per la cultura d’impresa, fondo Edison, Milano)

E’ noto che Levi ha svolto praticamente tutta la sua vita di chimico nell’industria delle vernici. In una intervista così si espresse: “Ho fatto sempre vernici, sono abituato ad una vita concreta, in cui un problema si risolve o si butta.” Il mestiere comincia dopo il ritorno dal lager, nello stabilimento di Avigliana, paese vicino a Torino, di proprietà della Montecatini, che si può vedere nella fotografia dell’epoca.

Questa parte della vita di chimico di Levi emerge magistralmente nel capitolo Cromo del Sistema Periodico con un racconto dove in pagine di prosa squisita, tra molte altre cose Levi cattura l’essenza di come un chimico affronta un problema, e come la scoperta intellettuale procuri una inimitabile felicità. Ma ci racconta anche molto efficacemente come nell’industria chimica possano esserci a volte operazioni o processi che si perpetuano per tradizione, senza reali motivazioni tecniche, e che permangono per anni se non sono causa di inconvenienti. Levi ci parla infatti di come nella fabbrica di Avigliana ha dovuto affrontare e risolvere il problema riguardante una grossa partita di vernice antiruggine ‘impolmonita’ cioè diventata viscosa / gelatinosa e quindi non utilizzabile. Levi affronta il caso esaminando la documentazione di produzione, studia le relazioni tecniche finchè trova l’anomalia ( ‘un chimico deve interessarsi dei particolari. Se non sta attento ai dettagli, rischia di sciupare il lavoro’), correggendo la formulazione che creava problemi. Propone il rimedio per le partite andate a male, consistendo questo nell’aggiunta di un composto in grado di restituire fluidità alla vernice e quindi renderla utilizzabile. Ma quando poi il chimico Levi lascia lo stabilimento per andare a lavorare in un’altra azienda, l’additivo anti-impolmonimento era entrato stabilmente a far parte delle formulazioni per quel tipo di vernici, che nel frattempo avevano subito altre evoluzioni e non avevano più bisogno del “correttivo”!

Quando tempo dopo qualcuno aveva sollevato dei dubbi, in produzione avevano risposto, ‘sorpresi e un po’ scandalizzati’ che quella formulazione ‘esisteva da almeno dieci anni’, l’additivo ‘c’era sempre stato…..a cosa servisse, nessuno sapeva più ma che si guardasse bene dal toglierlo, perché “non si sa mai”.’

Allo stesso modo, leggiamo da Levi, in un’altra fabbrica dove si produceva olio di lino cotto modificato con resine coppali, quando queste ultime dovettero essere sostituite con resine sintetiche meno costose e più disponibili, si continuò ad usare lo stesso trattamento a caldo usato per le coppali, dove era necessario eliminare le frazioni più leggere arrivando fino ad una perdita di peso del 14%. Con le nuove resine sintetiche questo trattamento non sarebbe più stato necessario, e invece continuò ad essere fatto, con perdita di materiale utile e con inutile produzione di “esalazioni pestifere”.

Casi come questo non sono per nulla rari, e nell’industria delle vernici e degli adesivi ancora oggi riscontrabili, come può testimoniare chi si sia occupato dello studio e caratterizzazione di resine e prodotti vernicianti. Molte formulazioni contengono, oltre ai componenti base cioè un legante e i pigmenti, un numero imprecisato di additivi diversi, immessi in quantità opinabili e con giustificazioni nebulose, che derivano nella maggior parte dei casi da storie di chimica empirica dove un’aggiunta dopo l’altra non induce a fare le verifiche su cosa veramente serve, salvo poi il verificarsi di disastri.

La lezione che Levi trae è esemplare anche nella ironia della sua espressione:

Le formulazioni sono come le preghiere, i decreti-legge e le lingue morte e non un iota in esse può essere mutato.’ [Cromo]

Le vernici ad Avigliana erano prodotte nello stabilimento Duco, contiguo al dinamitificio Nobel, e anch’esso di proprietà della Montecatini. In questa immagine di archivio si osserva una fase della fabbricazione delle vernici denominate Dulox. Possiamo cercare di capire se questo marchio ha qualche attinenza con quanto Levi descrive nel Sistema Periodico.

Avigliana – Stabilimento Duco – Produzione resine – Vernice Dulox – Operaio al lavoro (1925 – 1940) (Ufficio fotografico Montecatini / Montecatini Edison / Montedison (1957/ 1985))

DUCO è un marchio che deriva dalla crasi di Dupont Coatings. La DuPont de Nemours è stata una delle principali industrie chimiche degli Stati Uniti, che iniziò la sua attività nel 1802 con la produzione di polvere da sparo e si sviluppò in seguito su altri settori della chimica diventando rapidamente la nota industria di rilevanza mondiale. Esiste tuttora, e in questo anno (2017) ha concluso una fusione con Dow Chemical, oggi la seconda più grande produttrice chimica al mondo.

Nella prima metà del secolo scorso la DuPont è stata fortemente impegnata nello sviluppo delle nuove pitture e vernici, sintetiche o semi-sintetiche, che venivano man mano rese possibili dallo sviluppo delle conoscenza nel campo della chimica delle macromolecole.

L’evoluzione di smalti e pitture da parte di DuPont in quel periodo è delineato nello schema seguente, da cui si capisce anche come le fortune dell’azienda siano dipese anche dallo stretto intreccio di interessi e alla collaborazione con General Motors, allora il principale produttore di automobili.

Ad Avigliana la Montecatini produceva le vernici Duco su licenza della DuPont de Nemours.

In particolare Levi parla di vernici alchidiche, come quelle prodotte negli anni della guerra e come quelle abbandonate perché impolmonite; son per l’appunto alchidiche le vernici di cui tratta la foto d’epoca dove leggiamo il nome Dulox. Nell’appendice alle pagine sparse delle Opere Complete di Primo Levi (a cura di M. Belpoliti, Einaudi Ed.) è riportata una relazione tecnica di Levi risalente agli anni di Avigliana, che reca il titolo “La puntinatura degli smalti Dulox”, dove si citano anche manuali di uso della Du Pont de Nemours.

Le pitture alchidiche continueranno ad essere prodotte per molti anni ancora dalla Montecatini, e per le più svariate applicazioni mentre il marchio Dulox esiste ancora oggi per una ampia gamma di prodotti vernicianti che hanno comunque formulazioni diverse da quelle con cui Levi ebbe a che fare.

E’ il mondo della chimica organica quello in cui comincia a muoversi Levi quando inizia la sua attività di chimico dopo la guerra; egli si trova a doversi occupare di resine e di composti polimerici, con la presenza di prodotti naturali e la fabbricazione di prodotti di sintesi. Un mondo dove, Levi confessa, ci vuole una certa cautela e non ci sono molte certezze quando non ci si può ancorare ‘….alla buona chimica inorganica……paradiso perduto per noi pasticcioni organisti e macromolecolisti.’ [Cromo]

Tanto che, quando è possibile, è ‘meglio ritornare fra gli schemi scoloriti ma sicuri della chimica inorganica’. [Azoto]

Dovendo lavorare con la materia organica Levi capisce presto quanto sia complessa, versatile, e importante. Ne La Chiave a Stella scrive: «…..una vernice è una roba più complicata di quanto uno si immagini». E inoltre:

«Mi sono accorto abbastanza presto che fare vernici è un mestiere strano: in sostanza vuol dire fabbricare pellicole, cioè delle pelli artificiali, che però devono avere molte delle qualità della nostra pelle naturale…….(che è) un prodotto pregiato. Anche le nostre pelli chimiche devono avere qualità che fanno contrasto: devono essere flessibili e insieme resistere alle ferite,………..devono avere dei bei colori delicati e insieme resistere alla luce; devono essere allo stesso tempo permeabili all’acqua e impermeabili, e questo appunto è talmente contradditorio che……»

Si tratta, pertanto, di competere con la natura, che ‘….ha risolto brillantemente (il problema)…con le membrane cellulari, il guscio delle uova, la buccia multipla degli aranci, e la nostra pelle.’ [Cerio]

Noi potremmo oggi aggiungere all’elenco gli altri sistemi oggi diventati di estremo interesse per chimici e scienziati dei materiali: le ali delle farfalle, le zampe del geco, il filo del ragno, l’adesivo della cozza……

Pensando a quanto sono utili i prodotti di questa chimica, Levi scrive in un capitolo del Sistema Periodico quanto gli avrebbe fatto comodo nella sua difficile situazione del Lager il polietilene: ‘………perché è flessibile, leggero e splendidamente impermeabile…..’   [Cerio]. Tuttavia: ‘….a quel tempo non esisteva…

Levi qui intende il polietilene come materiale assoluto per l’imballaggio, quale effettivamente è poi diventato. Può essere interessante ricordare che nel tempo della prigionia di Levi il polietilene, inventato pochi anni prima, era un materiale strategico – protetto da segreto militare – perché si era rivelato fondamentale per lo sviluppo delle apparecchiature radar, contribuendo nella seconda guerra mondiale in modo decisivo alla supremazia anglo-americana in campo aeronautico e navale.

Conclusa l’esperienza di Avigliana, è possibile che nel resto della sua attività di chimico delle vernici Levi non abbia mai più avuto a che fare con la DuPont e i suoi prodotti. Un contatto tuttavia con l’opera e la vita di Levi in area DuPont c’è stato, in anni più recenti, grazie ad una fortuita combinazione di eventi e di miei rapporti personali, che qui riporto.

Nella organizzazione di convegni sulla caratterizzazione dei polimeri per molti anni ho interagito con un ‘chimico macromolecolista’, responsabile di questo settore presso i laboratori centrali della DuPont, a Wilmington, nel Delaware. Quando nel 1997 mi stavo occupando della mostra sul Sistema Periodico a Chimica, mi capitò di parlargliene e questo collega fu subito talmente interessato da prospettare la ipotesi di portare la mostra negli Stati Uniti, coinvolgendo la ACS, Società Chimica Americana, o la Fondazione sulla Storia della Chimica di Filadelfia, o il Museo Nazionale dell’Olocausto a Washington. Questo progetto, ambizioso, non potè andare avanti allora, ma un paio di anni dopo Howard Barth (questo il nome del collega ricercatore) riprese l’iniziativa chiedendomi tutta la documentazione che potevo fornirgli sulla mostra e i documenti riguardanti Levi (tesi di laurea, diploma, immagini della Biblioteca, ecc.) per una presentazione che intendeva portare al convegno nazionale della Società Chimica Americana. Per alcuni mesi Howard si immerse nella vita e nelle opere, di Levi e il 27 Marzo 2000, a San Francisco, alla Divisione Storia della Chimica dell’ACS fece una relazione di cui riporto qui l’Abstract, con la copertina del convegno.

Per qualche tempo, dopo questa occasione, Howard Barth continuò ad essere coinvolto sull’argomento Levi e soprattutto sul ruolo di IG Farben nel campo di Auschwitz Monowitz, leggendo, raccogliendo documentazione e facendo diffusione. Per cercare di cogliere meglio ogni significato si mise anche a studiare l’italiano. Tenne ancora una conferenza su Primo Levi in una riunione della sezione del Delaware della ACS, citando espressamente la mostra sul Sistema Periodico della Università di Torino, e facendo poi proiettare l’importante documentario- intervista della BBC di cui gli avevo fatto avere una copia.

In uno dei resoconti che mi inviava scriveva anche di avere scoperto che Otto Ambrose, il chimico della IG Farben che aveva scelto Auschwitz come luogo dove impiantare la fabbrica della gomma Buna in modo da sfruttare il lavoro dei prigionieri, dopo aver scontato alcuni anni di reclusione a seguito della condanna da parte del tribunale di Norimberga, negli anni ’50 era stato nominato nel consiglio direttivo della W.R. Grace, un importante gruppo chimico americano.

Concludo sottolineando come nella vita e in tutta l’opera di Primo Levi, chimico e scrittore, il rapporto tra uomo e materia emerge come elemento fondamentale di crescita e di scoperte:

Vincere la materia è comprenderla, e comprendere la materia è necessario per comprendere sé stessi e l’universo’ scrive Levi [SP, Ferro]. Si tratta di un rapporto ambiguo, che Levi stesso ha così descritto all’epoca della pubblicazione del Sistema Periodico :

Anche il rapporto tra uomo e materia in questo libro è ambivalente. La materia è madre anche etimologicamente, ma insieme è nemica. Lo stesso si può dire della natura. D’altronde l’uomo stesso è materia ed è in conflitto con se stesso…… La materia è anche una scuola, la vera scuola. Combattendo contro di lei si matura e si cresce. In questo combattimento si vince o si perde……

(Intervista a Giorgio De Rienzo e Ernesto Gagliano, Stampa Sera 1975)

*Oscar Chiantore è  professore ordinario di Chimica e Tecnologia dei Polimeri presso la Facoltà di Scienze MFN della Università degli Studi di Torino. Svolge attività didattica sui materiali polimerici e sulla conservazione dei beni culturali , la sua ricerca riguarda la caratterizzazione e le applicazioni dei materiali polimerici.

“Scienza, quo vadis?”. Recensione.

In evidenza

Claudio Della Volpe

Scienza, quo vadis? Tra passione intellettuale e mercato.

Gianfranco Pacchioni, 11 euro Ed. Il Mulino

Recensione

La collana de Il Mulino Farsi un’idea è forse una delle più azzeccate scelte editoriali degli ultimi anni; libri brevi, compatti, ma densi, che svelano ed approfondiscono, attraverso esperti/protagonisti, aspetti critici della società moderna.

Anche il libro di cui vi parlo oggi fa parte di questa classe; 140 pagine per raccontare, anche attraverso le proprie esperienze personali, ma anche con tanti dati ben fondati e riassunti, il cambiamento che la Scienza ha vissuto e sta ancora vivendo negli ultimi 100 anni.

L’autore, Gianfranco Pacchioni, chimico teorico, è Prorettore all’Università di Milano Bicocca dove è stato direttore del Dipartimento di Scienza dei materiali. Per le sue ricerche ha ricevuto numerosi premi internazionali di prestigio, ha anche pubblicato altri libri su temi divulgativi.

Il titolo fa riferimento ad una famosa locuzione di origine apocrifa (che da il titolo anche ad un romanzo di fine ottocento che procurò al suo autore il premio Nobel per la letteratura nel 1905); la frase sarebbe stata pronunciata da Pietro che fuggiva da Roma incontrando il simulacro di Gesù; la risposta di Gesù avrebbe convinto Pietro a tornare sui suoi passi lasciandosi crocifiggere.

Dopo aver letto il libro ci si convince proprio di questo: che l’autore voglia indurre ad un ripensamento (o almeno ad una riflessione critica) chi fa scienza. Ma certo non per farsi crocifiggere!

La struttura del libro è agile e ben impostata; lo stile amichevole, ho trovato poche parole difficili e quelle poche usate senza boria. Insomma grande leggibilità.

L’argomento è diviso in 8 parti e ciascuna di esse è trattata con riferimento ad un esempio concreto il più delle volte tratto dall’esperienza personale dell’autore.

I temi dei primi capitoli, almeno apparentemente, sono quelli che potremo definire meno controversi; ma non è vero. Probabilmente lo sono per chi nella scienza ci lavora, ma non ho dubbi che ci siano molte persone e anche parecchi politici che non sarebbero d’accordo; per esempio sull’importanza della scienza di base, delle ricerche dettate essenzialmente dalla curiosità e non dall’interesse applicativo; purtroppo l’idea che certi tipi di ricerche non servano se non a chi li fa è molto comune e la ignoranza della storia della ricerca aiuta questa misconcezione, che di fatto è anche alla base di parecchi grandi finanziamenti; se non ci sono aziende interessate pare che i grandi progetti europei non abbiano senso; mi permetto di dissentire.

L’autore secondo me giustamente fa notare che praticamente tutte le grandi scoperte degli ultimi anni sono frutto di questo tipo di ricerca curiosity driven, spinta dalla curiosità, ed hanno avuto effetti enormi sulla nostra società.

L’altro argomento che pure pare scontato ma non lo è, almeno per il grande pubblico, mentre appare evidente a quelli della mia generazione (che è poi quella di Pacchioni) che lo hanno vissuto e che potrebbero portare esempi simili a quelli del libro è il grandissimo cambiamento della ricerca negli ultimi 50 anni (la cosa potrebbe non essere così evidente per i giovani ricercatori). Chi è abituato a fare un plot in pochi secondi con Excel o Kaleida potrebbe non capire che i due lavori all’anno di una volta implicavano tanto impegno quanto i venti lavori annui di alcuni di oggi. Siamo passati da una attività di nicchia, quasi artigianale ad attività di fatto industriale cambiando molti dei modi concreti di operare e coinvolgendo meccanismi complessi e difficilmente gestibili.

E’ cambiata non solo la dimensione delle cose, ma anche la velocità della produzione e (a volte) la sua qualità, e di più alcuni dei metodi di controllo della qualità (come si potrebbero chiamare in gergo industriale i processi di peer review) si dimostrano inadeguati, difficili da adattare alle nuove dimensioni. Questo ha favorito lo svilupparsi di una serie di meccanismi fraudolenti, la cui dimensione e la cui importanza sono spesso correlati con le dimensioni e l’importanza applicativa della scienza. Abbiamo ricordato di recente il caso poliacqua, che però attenzione non fu una frode, fu una incomprensione, un errore; ben diverso dal caso recente di Hendrik Schön, una vera truffa, raccontato da Pacchioni. In entrambi il metodo scientifico e il confronto fra pari sono stati si capaci di rivelare il problema, ma in entrambi si sono dimostrati lenti, probabilmente troppo. E questo della lentezza è dopo tutto uno dei temi del testo.

Ho apprezzato la illustrazione ben fatta dei vari termini che si usano in ambito scientifico che spesso né il grande publico né i giornalisti comprendono appieno: dalla valutazione della ricerca ai meccanismi specifici come il peer review, l’impact factor, etc. con una analisi critica del loro significato.

Qui val la pena di una citazione per la quale ringrazio Rinaldo Cervellati:

Richard R. Ernst (Premio Nobel per la Chimica, 1991) ha scritto:

And as an ultimate plea, the personal wish of the author remains to send all bibliometrics and its diligent servants to the darkest omnivoric black hole that is known in the entire universe, in order to liberate academia forever from this pestilence. And there is indeed an alternative: Very simply, start reading papers instead of merely rating them by counting citations. (Chimia, 2010, 64, 90)*

*rivista ufficiale della Swiss Chemical Society

Pacchioni appare combattuto fra le due visioni diverse della Scienza che emergono dall’analisi storica che egli stesso compie; ne vede aspetti negativi e a volte positivi; e non è il solo. La parte interessante di questa analisi è anche nel denunciare il legame di queste contraddizioni con le altre maggiori contraddizioni della nostra società: riferendosi ad esse Pacchioni scrive:

in un mondo che evolve in queste direzioni, non si può pretendere che la scienza resti un’isola felice e incontaminata, una sorta di porto franco totalmente immune da processi involutivi

Però ecco, se posso dare un contributo critico, qui mi sarei aspettato un passo avanti, un saltino che altri colleghi come Balzani o Armaroli, egualmente bravi sembrano aver fatto: la Scienza può indicare un cammino proprio sulla base dei contenuti che scopre nell’evoluzione tecnica, naturale, sociale ed economica dell’Umanità; per esempio la insostenibilità dei meccanismi di mercato e di crescita infinita è palese, la necessità di un mondo organizzato su basi diverse, più umane e non economicistiche è dimostrabile a partire dalla distruzione dell’ecosistema che la chimica e le altre scienze rivelano.

Dunque una riforma, chiamiamola così, della scienza è possibile insieme ad una riforma del meccanismo economico iperproduttivistico e di crescita continua che l’economia, come è misconcepita ora, tenta di imporci. Non più ricambio organico fra uomo e natura, ma un fondamento autoreferenziale di crescita quantitativa a tutti i costi che si vuole applicare anche alla scienza.

Il libro pone essenzialmente delle domande a cui suggerisce una parziale risposta; e porre domande giuste è dopo tutto il compito dello scienziato, porre domande prima che fornire risposte. Quella che mi ha colpito di più è : Siamo troppi? Che da il titolo al capitolo 6; domanda a cui l’autore non fornisce una risposta ma per la quale fornisce molto materiale, anche non comunemente disponibile sui numeri dei ricercatori nel mondo. Pone anche il problema della definizione dell’attività di ricerca e dello scienziato; ci sarebbe da approfondire di più il senso di questa crescita.

Una chiave di risposta per esempio la suggerisce il collega Luca Pardi del CNR (si veda il recente Picco per capre, ed. Lu.Ce di L. Pardi e J. Simonetta); man mano che ogni iniziativa umana si sviluppa diventa sempre più difficile farla funzionare bene: crescono la complessità ma anche le resistenze interne, la dissipazione; o se volete il costo entropico del sistema aumenta; teoricamente potete organizzare sempre più, ma avete bisogno di dissipare sempre più energia per tenere in piedi l’organizzazione; ma questa è una ipotesi che fanno altri.

Del tutto condivisibile la rivendicazione della slow science che è ormai diventata movimento e che conclude la parte creativa del volume, di una scienza non preoccupata della velocità e della quantità, ma solo dei contenuti e della correttezza etica, e che proprio per questo si dà i tempi che le servono. Anche se qui ci avrei aggiunto la necessità di facilitare le interazioni fra settori; rivendicare solo la specializzazione può far travisare le cose; in Italia abbiamo addirittura la follia di avere una tumulazione dei contenuti scientifici in circa 400 tombette chiamate settori disciplinari, che esistono solo da noi e che, quelli si, sono da eliminare quanto prima.

Anche perchè è anche lo scambio e il contatto fra settori diversi che crea nuove idee e concezioni e modelli.

In coda al testo una ampia bibliografia molto utile per coloro che volessero approfondire i temi discussi dall’autore. Anche solo per questo il libro dovrebbe entrare nella bibiliotechina di ogni scienziato critico.

Scienziate che avrebbero dovuto vincere il Premio Nobel: Maud Leonora Menten (1879-1960)

In evidenza

Rinaldo Cervellati

Tutti i chimici e i biochimici hanno incontrato, nel loro percorso di studi l’equazione di Michaelis-Menten, che interpreta la velocità delle reazioni catalizzate da enzimi attraverso i due parametri Vmax e Km e definisce l’efficienza di un enzima come il rapporto kcat/Km.

Non tutti sanno però che Menten era una donna, precisamente Maud Leonora Menten.

Nata il 26 luglio 1860 a Port Lambton, Ontario (Canada), poco si sa della sua famiglia e della sua infanzia, è certo comunque che si spostarono da Port Lambton a Harrison Mills, nella British Columbia dove la madre lavorò come impiegata postale.

Maud Menten a 7 anni

Dopo aver completato gli studi secondari, Menten frequentò gli studi di medicina all’università di Toronto, ottenendo il B.A. nel 1904 e il M.A. in fisiologia nel 1907. Durante gli studi lavorò come esercitatore nel laboratorio di fisiologia dell’università.

Come studentessa di talento, in grado di applicarsi per molte ore al giorno, Menten ottenne una borsa di ricerca al Rockefeller Institute for Medical Research di New York nel 1907. Qui studiò l’effetto del bromuro di radio sui tumori cancerosi nei ratti, insieme a altri due ricercatori pubblicarono i risultati nella prima monografia dell’istituto [1]. Dopo l’Istituto Rockefeller, Menten fece un breve stage presso l’Infermeria di New York per donne e bambini, quindi tornò a Toronto per concludere gli studi di medicina. Nel 1911 divenne una delle prime donne canadesi a ricevere il Medicine Doctor (MD)[1].

Menten in laboratorio

L’anno seguente Menten si recò a Berlino per studiare il meccanismo di azione degli enzimi con il biochimico tedesco, Leonor Michaelis[2], in un ospedale municipale di Berlino, dove Michaelis aveva accettato un posto di batteriologo ma si occupava anche, insieme all’amico chimico Peter Rona, di problemi chimico-fisici. Secondo A. Cornish- Bowden [2]: “ci sono pochi dubbi che il suo interesse [di Menten] nel lavorare con Michaelis e nell’ottenere un dottorato in biochimica fosse motivato dalla convinzione che un’approfondita conoscenza della biochimica sarebbe stata fondamentale per il progresso nella ricerca medica che costituiva il suo obiettivo a lungo termine.”

Michaelis e Menten studiarono in dettaglio la reazione di inversione del saccarosio (substrato) in glucosio e fruttosio (prodotti) catalizzata dall’enzima[3] invertina (poi chiamato invertasi). Lavorarono in ambiente tamponato a pH e temperatura costante, seguendo l’andamento della reazione per via polarimetrica. In base all’ipotesi che il saccarosio e l’enzima formino un composto (intermedio) molto labile che rapidamente evolve nei prodotti[4], formularono un modello che sviluppato matematicamente forniva curve velocità di reazione vs. concentrazione del substrato in ottimo accordo con i dati sperimentali. L’equazione che svilupparono, formalmente proposta nel 1912 e pubblicata nel febbraio 1913 [3], è ora chiamata in tutti i testi di cinetica e biochimica come equazione di Michaelis-Menten.

Menten e Michaelis

Essi determinarono il valore della costante k (Ks), senza quello di Vmax in base all’andamento della velocità della reazione (in termini di unità di gradi di rotazione ottica al minuto) a diverse concentrazioni iniziali di saccarosio con un procedimento matematico lungo e abbastanza complicato. Michaelis e Menten andarono poi oltre l’analisi limitata al saccarosio, rendendosi conto che il legame substrato-enzima poteva estendersi anche ai prodotti della reazione, fruttosio (F) e glucosio (G), quindi si rendeva necessario estendere il modello per testarne la validità. Cosa che infatti fecero con successo anche su miscele saccarosio/mannitolo e saccarosio/lattosio [3c].

Per il loro trattamento matematico, Michaelis e Menten considerarono il legame saccarosio-invertasi all’equilibrio durante il corso della reazione. L’equazione originale è leggermente diversa da quella che conosciamo [4]. Viene generalmente applicata l’approssimazione dello stato stazionario all’intermedio substrato-enzima, metodo introdotto per l’analisi dei modelli cinetici solo dopo la pubblicazione del lavoro dei due scienziati, più precisamente da David Chapman e Max Bodenstein che la sviluppò nello stesso 1913 applicandola al meccanismo a catena nei casi di particolari reazioni consecutive [5].

L’applicazione dell’approssimazione dello stato stazionario al modello di Michaelis-Menten, così come lo presentiamo oggi ai nostri studenti, è dovuta a G. Briggs e J. Haldane [6].

  1. Johnson [4], autore di una interessante rivisitazione dell’ articolo originale Di Michaelis e Menten si dice sorpreso che i due ricercatori, così abili in matematica, non abbiano pensato a linea rizzare la loro equazione facendone il reciproco. Essi avevano già raggiunto il risultato eccezionale della caratterizzazione delle cinetiche enzimatiche attraverso la Ks. Fatto sta che ci vollero più di venti anni prima che l’idea venisse sviluppata da H. Lineweaver e D. Burk [7] con il loro famoso diagramma chiamato del doppio reciproco. Graficando 1/v contro 1/[S], i punti sperimentali sono ben interpolati da una retta che, estrapolata fino a incontrare gli assi fornisce i valori 1/Vmax e –1/Ks, intercette con x e y rispettivamente, con coefficiente angolare Ks/Vmax. Un metodo davvero molto semplice per ottenere i due parametri caratteristici di una cinetica enzimatica, curioso è il fatto che il loro articolo è ancora il più citato (più di 11000 citazioni) fra quelli apparsi sul Journal of the American Chemical Society.

Tuttavia l’equazione di Michaelis-Menten resta la base dell’enzimologia moderna, ed è stato (e è ancora) il punto di riferimento per la maggior parte degli studi cinetici sulle reazioni enzimatiche. Inoltre, lo sviluppo di molti farmaci e forme farmaceutiche nel XX secolo a oggi non sarebbe stato possibile senza lo studio pionieristico di Michaelis e Menten. Si deve anche considerare che nel 1913 si sapeva poco sull’azione degli enzimi, inclusa la loro natura chimica.

Sebbene il merito della ricerca sia da attribuire in egual misura a entrambi i ricercatori, per molto tempo Maud Menten fu considerata semplicemente come “assistente” di Micaelis e la costante Ks, indicata con Km viene in generale chiamata costante di Michaelis. Ciò, secondo R. Skloot [8] è dovuto in gran parte al fatto che nell’articolo pubblicato, al nome Maud L. Menten viene premesso il titolo “Miss”. Ma, più plausibilmente io ritengo che la sottovalutazione del contributo di Menten sia dovuto all’”effetto Matilda” di cui ho parlato in un precedente post. Quel “Miss” potrebbe anche significare che Menten non aveva ancora ottenuto il Ph.D. il che casomai ne valorizzava il contributo (v. nota 1).

Dopo il periodo berlinese, Menten si recò negli Stati Uniti a Cleveland, dal 1915 al 1916 studiò fenomeni collegati all’insorgenza di tumori alla Western Reserve University nel laboratorio di George W. Crile, il primo chirurgo a effettuare con successo una trasfusione diretta di sangue. Durante lo stesso periodo si iscrisse all’Università di Chicago, dove nel 1916 conseguì il dottorato in biochimica discutendo una tesi sull’alcalinità del sangue nei tumori e in altre patologie.

Successivamente, dal 1918 al 1950 ha lavorato all’Università di Pittsburgh nella School of Medicine diventando prima professore assistente, poi professore associato e direttore del Reparto di Patologia dell’Ospedale Pediatrico di Pittsburgh, fu infine nominata full professor nel 1948. In questo lungo periodo Menten ha effettuato numerose ricerche applicando le sue conoscenze chimico fisiche in campo medico (ematologia, patologia, chemioterapia), pubblicando circa un centinaio di articoli, realizzando così il progetto che si era prefissa con il periodo berlinese. Fra le altre, ha studiato la reazione dei coloranti azoici per la fosfatasi alcalina, ancora utilizzata in istochimica [9], ha caratterizzato le tossine batteriche da B. paratyphosus, Streptococcus scarlatina e Salmonella ssp., utilizzate con successo in un programma di immunizzazione contro la scarlattina. Ha anche condotto la prima separazione elettroforetica delle proteine emoglobiniche, ha lavorato sulle proprietà dell’emoglobina, sulla regolazione del livello di zucchero nel sangue e sulla funzione renale [10]. Altre ricerche hanno riguardato le ossidasi [11], la vitamina C [12], l’istochimica del glicogeno e gli acidi nucleici nel midollo osseo.

Dopo il pensionamento continuò per alcuni anni a lavorare in Canada, all’Istituto di Ricerche Mediche della British Columbia. Muore nel 1960 all’età di 81 anni.

Menten aveva una capacità di lavoro non comune, in certe occasioni era in grado di lavorare per 18 ore consecutive al giorno. Come se non le bastassero gli impegni di lavoro, essa aveva anche una varietà di interessi al di fuori della scienza. Amava la musica, era una brava clarinettista, pittrice e linguista (parlava russo, francese, tedesco, italiano e almeno una lingua dei nativi americani).

Omaggio a Maud Menten

Nel necrologio per Nature, A. Stock e A-M Carpenter [13] scrivono di lei:

Menten era instancabile nei suoi sforzi a favore dei bambini malati, era un’insegnante eccellente che sapeva come stimolare studenti, medici e colleghi di ricerca, sarà da questi a lungo ricordata per la mente acuta e l’ingegno, per la dignità dei modi, per la modestia discreta, e soprattutto per il suo entusiasmo nella ricerca.

Bibliografia

[1] Jobling, J W; Flexner, Simon; Menten, Maud L (1910). Tumors of animalsRockefeller Institute for Medical Research.

[2 ] A. Cornish-Bowden, Part 2: Maud Leonora Menten (1879–1960): her career as an experimental pathologist., in: Ute Deichmann et. Al. Commemorating the 1913 Michaelis–Menten paper Die Kinetik der Invertinwirkung: three perspectives. FEBS Journal, 2014, 281, 435–463.

[3] a) L. Michaelis, Miss M.L. Menten, Die Kinetik der Invertinwirkung, Biochemische Zeitschrift, 191349, 335–369. Trad. Ingl. T.R.C. Boyde in FEBS Letters, 2013, 587, 2712–2720; b) R.S. Goody, K.A. Johnson (translated by), The Kinetics of Invertase Action (Die Kinetik der Invertinwirkung, Von L. Michaelis and Miss Maud L. Menten,

http://sbrg.ucsd.edu/sites/default/files/The%20Kinetics%20of%20Invertase%20Action-1.%20Translation%20of%20Michaelis%20Menten..pdf

[4] K.A. Johnson, R.S. Goody, The Original Michaelis Constant: Translation of the 1913 Michaelis− Menten Paper, Biochemistry, 2011, 50, 8264-8269.

http://dsec.pku.edu.cn/~tieli/notes/stoch_topics2015/MMHist.pdf

[5]  M. Bodenstein, Eine Theorie der photochemischen Reaktionsgeschwindigkeiten, Z. Phys. Chem., 1913, 85, 390–421.

[6] G.E. Briggs, J.B.S. Haldane, A note on the kinetics of enzyme action. Biochem. J., 1925 19, 338−339.

[7] H. Lineweaver, H., D. Burk, The determination of enzyme dissociation constants. J. Am. Chem. Soc. 1934, 56, 658−666.

[8] R. Skloot, Some called her Miss Menten,

http://smilesandvials.tumblr.com/post/105938755686/some-called-her-miss-menten-rebecca-skloot

  1. anche: K. Rogers, Maud Leonora Menten, https://www.britannica.com/biography/Maud-Leonora-Menten

[9] a) M.L. Menten, J. Junge, M.H. Green, Distribution of alkaline phosphatase in kidney following the use of histochemical azo dye test, Proceedings of the Society for Experimental Biology and Medicine1944, 57, 82–86; b) M.L. Menten, J. Junge, J., M.H. Green, A coupling histochemical azo dye test for alkaline phosphatase in the kidney, Journal of Biological Chemistry, 1944, 153, 471–477.

[10] M.A. Andersch, D.A. Wilson, M.L. Menten, (1944). Sedimentation constants and electrophoretic mobilities of adult and fetal carbonylhemoglobin. Journal of Biological Chemistry, 1944, 153, 301–305.

[11] M.L. Menten, A study of the oxidase reaction with a-naphthol and paraphenylenediamine,  Journal of Medical Research, 1919, 40, 433 – 457.

[12] C.G. King, M.L. Menten, The influence of vitamin C level upon resistance to diphtheria toxin I. Changes in body weight and duration of life, Journal of Nutrition, 1953, 10: 129–140.

[13] A. Stock, A.-M. Carpenter, Prof. Maud Menten. Nature,1961, 189 (4769), 965.

[1] In Canada, il M.D. è il diploma in medicina richiesto per praticare la professione. Anche se il M.D. è un diploma professionale e non un dottorato di ricerca, molti M.D. conducono ricerche scientifico cliniche, pubblicano su riviste specializzate e sono generalmente chiamati medici-ricercatori.

[2] Leonor Michaelis (1874-1949) biochimico, chimico-fisico e medico fisiologo iniziò a occuparsi di enzimologia nel 1904 pubblicando il primo lavoro sul meccanismo degli enzimi nel 1907 (E. Abderhalden, L. Michaelis, Der Verlauf der fermentativen Polypeptidspaltung. Hoppe-Seyler’s Z Physiol Chem 1907, 52, 326–337). E’ considerato uno dei fondatori della biochimica moderna (chiamata allora chimica fisiologica) per le sue ricerche che spaziano dalle proteine alle membrane cellulari fino alla biochimica dei mitocondri. Ebreo, amico di Einstein, fu poco riconosciuto in Germania dove gli fu negata la posizione di professore universitario. Fu professore di biochimica prima in Giappone e poi negli USA, alla Johns Hopkins University of Baltimora e infine a New York al Rockefeller Institute for Medical Research. (v. [2])

[3] Nell’articolo originale in tedesco Micaelis e Menten si riferisco al’enzima con il termine “ferment”. Tuttavia la parola “enzima”, fu introdotta nel 1878 dal fisiologo tedesco Wilhelm Kühne (1837-1900) e largamente usata in lingua inglese.

[4] Questa ipotesi fu fatta da Victor Henri (1872-1940) chimico fisico francese di origine russa che in base a essa cercò di ricavare un’equazione fra velocità di reazione e concentrazione del substrato. Egli però, come fecero notare Michaelis e Menten, trascurò l’influenza di H+ e la lenta mutarotazione dei prodotti. A causa di ciò non riuscì a confermare la sua equazione. Henri fu autore di numerose ricerche in campo biochimico e fisiologico e è considerato comunque un pioniere della cinetica enzimatica.

Glifosato: dove siamo? Parte prima: alcuni fatti.

In evidenza

Claudio Della Volpe

Continuo a parlarvi di glifosato dato che nelle ultime settimane la Commissione europea ha deciso di rinnovarne il permesso d’uso per 5 anni. Lo ha fatto a maggioranza dopo un voltafaccia della Germania. L’Italia e la Francia han votato contro. Ovviamente questa situazione ha scatenato le proteste da entrambe le parti in causa ed ha anche scatenato un attacco contro lo IARC, che è un organismo dell’OMS che da sempre si occupa del pericolo delle sostanze cancerogene e che qualche tempo fa aveva classificato il glifosato come potenzialmente cancerogeno. C’è stato anche un intervento su Repubblica della senatrice Elena Cattaneo che commenterò nella 2 parte del post. Dedico questa prima parte ad alcune informazioni sulla molecola che vi riporto qua nella forma in cui le uso per farmi un’idea, raggruppandole per settore e sottolineando le cose che comunemente non si dicono.

Vorrei con voi guardare al glifosato da un punto di vista più generale; ne abbiamo già parlato in precedenti post (https://ilblogdellasci.wordpress.com/2017/07/31/ma-insomma-il-glifosato-e-o-non-e-cancerogeno/); ma proviamo ad allargare il punto di vista.

Cosa è il glifosato.

Il glifosato è un fosfonato sintetico, un derivato dell’acido fosfonico. Dunque una molecola del tipo:

Estere  e derivato dell’acido fosfonico

Acido fosfonico

2-amminoetilfosfonato, fosfonato naturale presente in molte membrane di piante e animali

fosfomicina, antibiotico vie urinarie

Come vedete in tutti i casi il ruolo del fosfonato viene deciso dalla sostituzione in R3; nel caso del glifosato abbiamo:

Glifosato, acido fosfonometilamminoacetico

Si può vedere anche come un derivato fosforilato dell’aminoacido glicina, N-fosfono metilglicina; la glicina, il più semplice amminoacido che costituisce la parte a destra della molecola; il gruppo fosfonico è attaccato sull’azoto dell’aminoacido.

Perchè faccio questa introduzione? Perchè è utile sottolineare come tutte le molecole che usiamo hanno un senso e una struttura ben precisi; e sono spesso analoghe di altre buone o cattive, velenose o utili; i fosfonati sono usati come agenti addolcenti dell’acqua, essendo chelanti; abbiamo parlato di questo meccanismo nel post sui prodotti anticalcare.

Sono impiegati come additivi con vari ruoli, come chelanti ed inibitori della corrosione, disperdenti, flocculanti, etc. nella formulazione degli anticalcare e nei detersivi c’è un ruolo crescente dei fosfonati dopo la decisione UE di ridurre i fosfati nei detersivi, che è del 2012; oggi i fosfonati hanno un mercato mondiale di oltre 500.000 ton, di cui in Europa oltre 130.000; per paragone il derivato fosfonico glifosato è prodotto in oltre 800.000 ton di cui in USA circa 125.000.( https://enveurope.springeropen.com/articles/10.1186/s12302-016-0070-0)

Aggiungo che c’è una seconda molecola di questa classe che viene usata come erbicida ma è presente in natura e che si chiama glufosinato; come vedete il glufosinato ha un atomo di carbonio in più nella catena R3 e il legame fra amminoacido e fosfonato non è sull’azoto amminico ma sul carbonio. Il glufosinato a differenza del glifosato è parecchio più persistente in ambiente.

Il glufosinato (o fosfinotricina) è un erbicida sistemico naturale ad ampio spettro prodotto da parecchie specie del batterio del suolo Streptomyces. Le piante trasformano un altro erbicida il bialaphos, anch’esso naturale in glufosinato. Esso funziona inibendo l’enzima glutaminasintetasi necessario alla sintesi della glutamina e alla eliminazione dell’ammoniaca. Per questo motivo esso ha anche proprietà antibatteriche, antifungine.

Diciamo che stiamo ancora una volta facendo un esperimento di massa spargendo ampiamente derivati fosfonati sintetici e naturali nelle acque superficiali. Vedremo come va a finire; vi racconterò come apparentemente siano molecole molto maneggevoli, ma anche altre volte in passato ci siamo sbagliati in queste valutazioni e maggiore è l’uso di una tipologia di molecole maggiori sono i rischi.

Meccanismo di azione.

(Glyphosate Resistance in Crops and Weeds: History, Development, and Management Vijay K. Nandula (Editor) July 2010)Il glifosato uccide le piante interferendo nella sintesi degli amminoacidi aromatici (fenilalanina, tirosina, triptofano) nella cosiddetta via dello shikimato; ottiene lo scopo inibendo un enzima il 5-enolpiruvilshikimato-3-fosfato sintetasi (sigla: EPSPS), che catalizza la reazione dello shikimato-3-fosfato e del fosfoenolpiruvato per formare il 5-enolpiruvil-shikimato-3-fosfato (EPSP), come mostrato nello schema precedente.

Esso viene assorbito attraverso le foglie e pochissimo dalle radici; ne segue che sia attivo sulla pianta in crescita e non possa impedire ai semi delle infestanti di germinare. Una volta entrato in circolo nella pianta in crescita lo shikimato si accumula nei tessuti costringendo la pianta a concentrarsi sulla sua eliminazione. La crescita della pianta si ferma entro poche ore dall’applicazione mentre ci vogliono alcuni giorni per l’ingiallimento delle foglie. I raggi X hanno mostrato che il glifosato occupa il sito di legame del fosfoenolpiruvato; esso è in grado di inibire l’enzima di diverse specie di piante e di microbi.

Fosfoenolpiruvato vs glifosato

Questa via metabolica non esiste negli animali. Questa è la base, la condizione per la maneggevolezza del glifosato. Attenzione però ciò non esclude altri meccanismi di azione, il fatto che il glifosato non possa espletare la sua azione principale sulle cellule animali non esclude che possa espletarne altre, tanto è vero che come vedremo nella seconda parte ci sono delle indicazioni di rischio ben precise da parte di ECHA (H318 e H411), che implicano azioni tossiche sia sull’uomo che sugli animali. Ne riparleremo nella seconda parte (ne abbiamo accennato in passato).

E’ interessante notare che il glifosato sia uno zwitterione; infatti dato che l’acqua è normalmente esposta all’atmosfera ed è quindi in equilibrio con CO2 a circa 5.5 di pH avremo che il gruppo più acido si dissocierà mentre quello più basico si associerà:(da una presentazione di Arpat, Michele Mazzetti)

Questo spiega la significativa solubilità del glifosato in acqua, 12g/litro circa 0.07M e la relativa insolubilità in solventi organici.

Che fine fa?

Si adsorbe fortemente sul suolo e in genere si stima sia immobilizzato, ma badate è immobilizzato sulle particelle del suolo, ma può circolare in questa forma adsorbita. I microbi del suolo lo degradano ad acido amminometilfosfonico (AMPA) che anch’esso teoricamente si adsorbe sul suolo. Di fatto entrambi, glifosato ed AMPA si ritrovano nel suolo; c’è da notare che esiste una via potenziale di inquinamento da AMPA alternativa ed è quella dei detersivi contenenti derivati fosfonici. Tuttavia il peso relativo delle due forme di inquinamento da AMPA è in discussione. (non confondete AMPA con un’altra molecola che pure usa questa sigla ed è completamente diversa, l’ acido α-ammino-3-idrossi-5-metil-4-isoxazolpropionico ) (Chemosphere 77 (2009) 133–139 e Chemosphere 47 (2002) 655–665).

AMPA da glifosato

anche questa molecola usa l’acronimo AMPA, ma ha tutt’altra origine.

La semivita del glifosato nel suolo è di circa 50 giorni. E’ stato suggerito che la emivita sia più breve in acqua dolce, ma anche più lunga in acqua di mare con effetti possibili sulle barriere coralline (Marine Pollution Bulletin>

Volume 85, Issue 2, 2014, Pages 385-390).

 

I ricercatori dell’Università della California presso la San Diego School of Medicine hanno confrontato i livelli di glifosato nell’urina di 100 persone in un arco di tempo di 23 anni. Hanno cominciato dal 1993, l’anno prima dell’introduzione, da parte della Monsanto, di coltivazioni geneticamente modificate resistenti al Roundup, nome commerciale dell’erbicida. Da quando queste colture si sono diffuse, l’uso del diserbante nel mondo è aumentato di circa 15 volte.

Nelle urine dei partecipanti le quantità di glifosato sono passate da una media di 0,20 microgrammi per litro del periodo 1993-1996 a una media di 0,44 microgrammi per litro del 2014-2016. Le dosi sono ben al di sotto degli 1,75 milligrammi per chilo di peso corporeo fissati come soglia limite di esposizione dall’Agenzia per la protezione ambientale degli Stati Uniti, e dei 0,3 milligrammi per chilo stabiliti dall’Efsa, l’Autorità europea per la sicurezza alimentare. È comunque un aumento importante, che passa in gran parte inosservato, che dipende dall’ampia diffusione, negli USA, di coltivazioni Ogm resistenti al diserbante (prima soia e mais, ora anche grano e avena)”

Il glifosato si ritrova in giro nei cibi e in acqua e dunque si ritrova poi nei nostri tessuti; questo avviene in quantità molto basse, ma è spiacevole sapere che senza che lo vogliamo atomi o molecole sintetiche di questo tipo ci entrino dentro; succede per molte altre specie: il mercurio, il DDT e oggi anche per il glifosato; certo i limiti di tossicità stabiliti ufficialmente sono parecchio più alti delle quote che si ritrovano nei tessuti umani ma il fatto stesso che non ci sia certezza del livello di sicurezza (1750mg pro kilo pro die in USA, 300 mg pro kilo pro die in UE) lascia perplessi.

Brevetti e interessi.

I brevetti relativi alla produzione di glifosato sono scaduti, in questo senso potrebbe sembrare che la sua produzione sia “libera”; ma di fatto ne sono subentrati altri molto più interessanti quando il glifosato è stato scelto come sostanza di elezione con cui correlare la genetica di semi di varie specie modificata con metodi OGM (ma la cosa in se non è particolarmente importante, non credo nei danni da OGM, non è questo lo sottolineo l’oggetto del contendere) in modo da essere resistente al glifosato stesso; in questo modo l’idea è che uno può avere su un campo in cui si usino tale tipo di semi solo la specie resistente, mentre tutte le altre non lo sarebbero. Questa idea è alla base di una crescente importanza dell’uso del glifosato il cui uso è dunque cresciuto soprattutto per questo motivo. I brevetti importanti sono quelli su questi semi non sul glifosato.

Tuttavia rimane un’altra cosa che pochi sanno; che pur essendo “fuori brevetto”, a causa del meccanismo delle cosiddette lettere di accesso (Letter of Access, LoA), un portato del REACH, la Monsanto continua a detenere diritti diretti sul suo uso. In pratica gli altri pagano per avere diritto ad usare i dati in suo possesso che servono alla registrazione REACH.

Sviluppo di resistenza al glifosato.

L’uso di erbicidi o di pesticidi come di antibiotici, cioè di sostanze che interagiscono con la vita di alcune specie colpendo alcuni dei loro processi vitali attraverso il blocco o la competizione con i loro enzimi ha come effetto una risposta di tipo adattativo; la selezione naturale selezionerà quei mutanti che possono usare enzimi diversi mutati e che resistano all’attacco subito. Tenete presente che questo tipo di risposta adattativa è tipica delle specie viventi a qualunque livello e dipende fondamentalmente dalla velocità riproduttiva; nel caso dei batteri che si riproducono in un tempo inferiore all’ora il numero di generazioni è talmente grande che l’adattamento può svilupparsi con grande velocità; prova ne sia che buona parte degli antibiotici che abbiamo sviluppato nel tempo sono diventati oggi inutili; è un argomento di cui abbiamo parlato in altri post a proposito del crescente problema delle resistenze batteriche (https://ilblogdellasci.wordpress.com/2017/11/29/il-mercato-del-sapere/).

Nel caso delle piante o degli insetti la velocità riproduttiva è minore ma comunque la risposta adattativa si sviluppa lo stesso; si sviluppa anche negli umani in risposta alle pressioni ambientali e di altre specie, dunque nulla di strano. Ci si deve aspettare perciò che la strategia dell’erbicida o del pesticida possa entrare in crisi; il DDT per esempio oggi non viene più usato se non i casi molto specifici non solo perchè è un POPs, ma anche a causa di questo tipo di risposta da parte delle zanzare. La medesima risposta avviene anche nel caso degli erbicidi.

Nature ha trattato il tema varie volte introducendo il tema dei cosiddetti “supersemi”, che resistono ai vari tipi di erbicidi (24|NATURE|VOL497|2MAY2013); la Union of concerned Scientists ci ha scritto un documento; al momento la situazione glifosato è che nelle zone di maggiore impiego come gli USA una percentuale significativa di varie piante è resistente al glifosato; in Illinois l’Università segue regolarmente la cosa con una relazione annuale. In quel caso si possono avere infestanti resistenti al glifosato nell’80% dei casi. A livello mondiale 24 specie invasive finora hanno sviluppato resistenza al glifosato.

Contemporaneamente come nel caso degli antibiotici è anche diminuito l’interesse delle grandi compagnie ad investire nella scoperta di nuovi erbicidi:

Esattamente come nel caso degli antibiotici ci avviamo verso un’era in cui i vecchi erbicidi (o pesticidi) diventano meno efficienti mentre diminuisce l’interesse ed aumenta il costo di investimento per svilupparne di nuovi.

(continua).

Gli odori degli oggetti di una volta

In evidenza

Rinaldo Cervellati

Nella Chemistry & Engineering newsletter on-line del 21 novembre scorso è contenuto un articolo dal titolo “How science may help us smell the past”, letteralmente “Come la scienza ci può aiutare ad annusare il passato”, di Carrie Arnold, che ritengo particolarmente interessante per coloro che si occupano di protezione e conservazione dei Beni Culturali oltre che curioso per tutti.

L’autore parte da un’osservazione che più o meno è stata sperimentata da molti. Racconta Arnold: Quando la scrivania in legno di pino di Henry David Thoreau[1] arrivò alla Morgan Library & Museum di Manhattan per una mostra speciale sulla vita dello scrittore, la curatrice Christine Nelson non poté resistere e aprì uno dei cassetti ricevendo una zaffata di odori particolari, un sentore di legno che le fecero venire in mente i profumi del bosco e l’immagine di Thoreau seduto alla scrivania mentre scrive il suo famoso libro Walden, ovvero la vita nei boschi. Dice letteralmente Nelson: “Quando ho messo la testa sulla scrivania e ho sentito l’odore di questo vecchio pino, sono stata sopraffatta dall’emozione e dal senso di connessione con il passato e con questo personaggio”.

Attualmente Christine Nelson fa parte di un gruppo di ricercatori che cercano di identificare gli odori della storica Morgan Library.

Un numero crescente di scienziati e storici è impegnato in ricerche simili per decostruire e ricreare gli odori del passato. I risultati di queste ricerche potrebbero influenzare il modo in cui consideriamo il passato e quello con cui gli scienziati lavorano per preservarlo. Ad esempio, alcuni odori sono segni di decadimento degli artefatti storici che i restauratori potrebbero quindi provare a fermare o rallentare. È accertata la relazione simbiotica tra l’olfatto e l’emozione, quindi la decodifica di ciò che le persone avrebbero potuto odorare può contribuire alle idee che gli storici si fanno su come si sentivano e cosa pensavano.

“L’olfatto è il santo graal della scienza della conservazione”, dice Lorraine Gibson, docente di chimica pura e applicata presso l’Università di Strathclyde. È un modo più profondo ma più sfumato di pensare al passato.

A differenza della vista e del suono infatti, che possono essere misurati quantitativamente, l’odore spesso è percepito in modo soggettivo. Ad esempio le persone descrivono l’odore di uno scantinato allagato come quello di indumenti bagnati, o come l’aroma di una nuova varietà di caffè tostato.

Il problema, dice Michelle Francl, un chimico computazionale del Bryn Mawr College, è che ciò che odora di ribes e cioccolato per una persona può essere quello di una tazza di caffè per altre. Parte della nostra difficoltà nel descrivere gli odori è la mancanza di un vocabolario comune con cui farlo. La classificazione degli odori richiede una connessione standard fra un singolo odore e una parola, in modo tale che chiunque identifichi un odore specifico userà la stessa parola per descriverlo. Sebbene non preciso come uno spettrofotometro per misurare il colore di un oggetto, un vocabolario degli odori standardizzato può fornire ai ricercatori un punto di partenza.

I profumieri e i viticoltori, il cui lavoro dipende in larga misura dalla produzione e descrizione di profumi precisi, furono i primi a costruire un fondamento linguistico di questo tipo.

Negli anni ’80, Ann C. Noble, un chimico sensoriale dell’Università della California a Davis, sviluppò uno strumento chiamato “la ruota aromatica del vino” per standardizzare le descrizioni degli aromi nei vini, introducendo aggettivi precisi per fasce aromatiche facili da identificare, ad esempio fruttato per albicocche e pesche o floreale per rosa e geranio o ancora terroso per funghi e polvere, ecc. Le ruote aromatiche per birra e caffè spuntarono subito dopo, diventando un punto fermo dell’industria alimentare e degli aromi.

Cecilia Bembibre, dottoranda in Scienze della Conservazione all’University College di Londra (UCL), ha centrato il suo progetto di ricerca sulla costruzione di una ruota aromatica per gli odori dei libri allo scopo di standardizzarne le descrizioni che hanno ispirato generazioni di bibliofili e amanti della letteratura.

Cecilia Bembibre annusa un libro antico nella biblioteca della Saint’s Paul Cathedral

Per Bembibre, tuttavia, l’obiettivo non era commerciale; piuttosto quello di mettere a punto uno strumento per migliorare la scienza della conservazione di questi artefatti, partendo dalla considerazione che “molti curatori possono annusare la carta invecchiata e ricavare informazioni su un libro solo attraverso l’esperienza sensoriale, ma è necessario un programma sistematico per identificare, studiare e catalogare questi odori”, dice Bembibre.

Bembibre e il suo supervisore, Matija Strlič dell’Istituto per il Patrimonio Sostenibile (Institute for Sustainable Heritage) dell’UCL, hanno dapprima intervistato i visitatori della biblioteca Dean & Chapter alla St. Paul’s Cathedral di Londra, chiedendo loro di descrivere con parole gli odori che permeavano la stanza. Tutti i partecipanti hanno definito l’odore come “legnoso”, l’86% come “fumoso”, il 71% come “terroso” e il 41% come “vaniglia”. Riguardo all’odore di un singolo libro antico, “cioccolato” è stato il termine più scelto dai 79 intervistati, seguito da “caffè” quindi da “vecchio”, “legno” e ”bruciato”. Per costruire un’accurata ruota storica degli odori del libro, tuttavia, Bembibre e Strlič avevano anche bisogno di identificare i singoli componenti chimici degli odori caratteristici.

Christine Morgan, negli U.S.A., aveva utilizzato la microestrazione in fase solida (SPME)[2], una tecnica in grado di intrappolare e prelevare i composti organici volatili (VOC) emessi da qualsiasi oggetto. In pratica si pone sull’oggetto in esame una campana di vetro nella quale è inserita una siringa che termina con un ago di metallo lungo e sottile rivestito di paraffina che funziona da adsorbente (v. Figura). Dopo diverse ore l’ago rivestito di paraffina è inserito in un gascromatografo / spettrometro di massa, la paraffina si riscalda rilasciando i VOC che sono analizzati dal GC/MS.

Tecnica di intrappolamento dei VOC

Bembibre e Strlič hanno catturato le molecole responsabili degli odori dei vecchi libri nella biblioteca di St. Paul, usando una variante della SPME. La coppia ha intrappolato i VOC emessi da un singolo libro mettendolo in una busta di plastica da alimenti contenente una spugna di carbonio per assorbirli. Per campionare un grande spazio, Bembibre ha semplicemente posto la spugna di carbone nella stanza per farle assorbire gli odori che la permeano. Successivamente le spugne di carbonio sono state analizzate via GC / MS.

È stato anche messo a punto un olfattogramma, cioè una versione di gas cromatogramma standard in cui i picchi sono annotati con l’odore di ogni sostanza chimica che esce dalla colonna, come riportato da un esperto “annusatore” (sniffer). Gli annusatori hanno gli occhi bendati per favorire la concentrazione sui profumi che descriveranno come “vaniglia” o “legnoso”, ecc. secondo una “ruota degli odori” precedentemente stabilita. “È un procedimento molto intenso”, afferma Bembibre, ogni sessione ha una durata di soli 15 minuti per ridurre al minimo l’affaticamento dell’annusatore.

Una sniffer al lavoro

Sebbene il GC / MS possa identificare una sostanza chimica e correlarla con il suo odore caratteristico nel modo descritto, la tecnologia non ha ancora superato la sensibilità del naso umano. Nell’esperienza fatta in U.S.A, gli esseri umani possono rilevare gli odori a concentrazioni che non si registrano nemmeno su un GC / MS. Per alcune molecole, in particolare tioli come la putrescina (tetrametilendiammina) e la cadaverina (1,5-pentanidiamina), il cui odore sgradevole è quello della decomposizione delle carni, la sensibilità del naso umano è di diversi ordini di grandezza superiore a quella delle macchine più sensibili.

15 composti identificati nell’odore dei libri antichi

Usando il metodo dell’olfattogramma, Bembibre e Strlič hanno creato la ruota degli odori dei vecchi libri (C. Brembibre, M. Strlič, Smell of heritage: a framework for the identification, analysis and archival of historic odours, Heritage Science, 2017, DOI: 10.1186 / s40494-016-0114-1). L’odore “legnoso” è dovuto al furfurale nella carta in deperimento. Il D-Limonene dà ai vecchi libri l’aroma di arancia, e la benzaldeide fornisce odori ricchi e simili a cibo. I lattoni aggiungono più note fruttate.

Ruota degli odori di Bembibre e Strlič

Per quanto piacevole possa essere per gli amanti dei libri, Nelson afferma che l’odore dei libri antichi è in definitiva un segno del lento degradamento di un libro.

Tuttavia, analisi chimiche come quelle eseguite da Bembibre e Strlič (e da Nelson negli USA) potrebbero fornire l’opportunità di intervenire e preservare un libro prima che la sua degradazione arrivi al punto di non ritorno. La pasta di legno usata per fare la carta in molti libri del XIX secolo contiene lignina, che lentamente si decompone in una serie di composti acidi. Questi acidi degradano ulteriormente la carta già divenuta fragile. L’analisi dei VOC rilasciati durante questo processo con SPME può suggerire ai restauratori che è necessario un ulteriore intervento.

Infine, questi ricercatori non si limitano a studiare gli odori dei libri antichi. I vecchi negativi dei film realizzati in cellulosa, i dischi in vinile e persino i primi modelli di tute spaziali realizzati dalla National Aeronautics & Space Administration si degradano e si deteriorano nel tempo. Strlič ha utilizzato metodi analoghi di analisi degli odori per caratterizzare questi processi e identificare i modi migliori per conservare artefatti preziosi.

Dice Strlič: “I VOC di plastica e carta storica seguono percorsi di degradazione simili alle molecole organiche. Gli scienziati della conservazione sono sempre stati alla ricerca di modi meno distruttivi di campionamento di oggetti storici per controllarne lo stato, e cosa è meno distruttivo del semplice annusarlo e intrappolarne l’odore?”.

Tradotto e adattato da c&en news on-line November 21, 2017

Nota. La ricerca di Bembibre e Strlič, insieme a una breve intervista ai due autori, è stata oggetto di un articolo pubblicato dal quotidiano La Repubblica del 17 aprile 2017 nella rubrica Scienze.

http://www.repubblica.it/scienze/2017/04/17/news/cioccolato_e_caffe_e_il_profumo_dei_libri_antichi-163216398/?ref=search

[1] Henry David Thoreau (1817-1862), scrittore, filosofo e poeta americano, noto principalmente per il libro autobiografico: Walden; or, Life in the Woods, 1854 (trad. ital. Walden, ovvero Vita nei boschi, a cura di Franco Venturi, La Vita Felice, 2016) e per il saggio Disobbedienza civile in cui sostiene che è ammissibile non rispettare le leggi quando esse vanno contro la coscienza e i diritti dell’uomo, ispirando in tal modo i primi movimenti di protesta e resistenza non violenta.

[2] Sviluppata negli anni ’90 dal chimico Janusz Pawliszyn all’università di Waterloo (Canada).

Terrawash, la nuova “palla” magica.

In evidenza

Mauro Icardi

Ad inizio dicembre un noto quotidiano italiano ha pubblicato un articolo nel quale si decantavano le “miracolose” proprietà di un prodotto denominato “Terrawash”. Prodotto che prometteva e promette di essere un detergente biologico, non inquinante. Mentre leggevo l’articolo qualcosa mi ha fatto pensare di voler approfondire i termini della questione. Prima osservazione, che occorre ripetere è come gli articoli pubblicati sui quotidiani e che trattano temi tecnici, e specificatamente chimici abbiano sempre titoli fuorvianti. Ormai è una situazione alla quale credo ci stiamo purtroppo abituando. Sappiamo che se qualcuno viene ustionato con soda caustica probabilmente il titolo potrà essere “Sfigura il rivale in amore con l’acido”.

Tornando al prodotto miracoloso una ricerca in rete mostra una pagina nelle quali sono elencati i motivi per i quali si dovrebbe utilizzare questo prodotto. Contenuto in un piccolo sacchettino riutilizzabile per più lavaggi. Si parla di magnesio purificato, si decantano le proprietà e poi si dice che il prodotto detergente è privo di sostanze chimiche.

Qui la riflessione è ovviamente doverosa. Posso immaginare che chi ha redatto il foglio illustrativo usi ogni strategia per venderlo. E per far breccia utilizzi la mai sopita chemofobia. Ma qui c’è una confusione ed una leggerezza che sfiorano l’umorismo. Il magnesio viene prodotto industrialmente per elettrolisi di cloruro di magnesio. Una tecnica consolidata di chimica industriale.

Se si va a leggere sul sito dell’azienda https://www.terrawashmg.com/how-it-works-1 viene spiegato il meccanismo per cui il prodotto sarebbe un ottimo detergente.

Magnesio che liberando idrogeno in acqua calda (in realtà all’ebollizione) “forma acqua alcalina ionizzata che facilità l’eliminazione dello sporco dai tessuti”. Il termine acqua ionizzata è molto di moda, basta fare ricerche in rete per rendersene conto.

Mgs) + 2 H2O(l)  Mg++(aq) + 2 OH(aq) + H2(g)

Il meglio però deve ancora venire. Il prodotto non agirebbe come un normale tensioattivo in commercio, cioè diminuendo la tensione superficiale dell’acqua per aumentare la bagnabilità dei tessuti. In realtà la sua caratteristica sarebbe quella “di ridurre le dimensioni delle molecole d’ acqua” o dei loro “clusters” i loro gruppi, che diverrebbero più penetranti. Il motivo sarebbe aver “incontrato” la più piccola molecola di idrogeno!

In realtà tutto si riduce appunto a produrre idrogeno gassoso, un poco di idrossido di magnesio che è poco solubile (il vecchio latte di magnesia) ed ha certamente meno efficacia sgrassante della soda caustica che è uno dei componenti dei normali saponi.Continuando a indagare sul prodotto si scopre che nelle indicazioni di uso però, non si esclude la possibilità di utilizzare normale detersivo insieme al prodotto.

Tutta la cosa una volta vista con un poco di attenzione si rivela per quello che è.

Una assurdità. Una “palla”, una bufala.

Il tutto probabilmente dovuto al fatto che, oltre ad essere chemofobici, stiamo diventando un po’ tutti maniaci della pulizia. E’ pur vero che sono state proprio le schiume dei tensioattivi a dimostrare palesemente negli anni 70 che lo stato dei fiumi era pessimo. Ed in quel periodo eravamo bombardati da pubblicità di ogni tipo che ci invitavano ad avere il bianco più bianco. Sono passati decenni, e lo sviluppo impetuoso di catene di supermercati che vendono esclusivamente prodotti per la detergenza e che si sono moltiplicate e tornano a bombardarci con pubblicità continue.

Probabilmente questo prodotto avrà forse un minimo effetto igienizzante, nulla di più. Ma sfrutta ancor una volta alcune delle idee preconcette che tutti abbiamo. E mi ricorda una vicenda simile per certi versi: quella delle “Biowashball”, “Palla Linda” ed altre con nomi simili che promettevano la stessa cosa. Ridurre l’uso di detersivi, ma che in realtà non avevano alcuna efficacia pulente.

Converrà ritrovare il senso critico perduto, per non credere a chiunque proponga soluzioni miracolose, oppure semplici quando i problemi sono complessi. Ultima annotazione su questa vicenda. L’azienda produttrice sembra essere giapponese, mentre il quotidiano riportava la notizia che il Terrawash fosse invenzione di un imprenditore risicolo italiano. Serve dire altro?

Questione PFAS ovvero l’arte di spostare il problema

In evidenza

Francesca Hinegk*

Nei primissimi anni ’50 i composti poli- e perfluorurati (PFC) conquistarono il mercato grazie alle loro potenzialità d’uso e d’applicazione nei più svariati ambiti: dalle schiume filmogene antincendio a vernici e inchiostri, dall’abbigliamento sportivo idrorepellente all’equipaggiamento medico, dal rivestimento di utensili da cucina all’attrezzatura per il trattamento del cibo, fino ad utilizzi per il trattamento della carta ed a pesticidi. L’elevata resistenza all’idrolisi, alla fotolisi ed alla degradazione microbica di queste sostanze le rende altamente persistenti e dotate di un elevato potenziale di bioaccumulazione e biomagnificazione, comportando un serio problema di natura ambientale e sanitaria.

Figura 1 Esempi di applicazione dei PFC (ntp.niehs.nih.gov)

Sono numerose le misure adottate dai primi anni 2000 nel tentativo di limitare i danni comportati da cinquant’anni di produzione e diffusione delle PFAS (sostanze perfluoro alchiliche), avvenute senza le dovute conoscenze sulle problematiche legate a questa famiglia di composti. Nessuno dei provvedimenti presi può tuttavia dirsi risolutivo: la questione rimane infatti aperta su diversi fronti e per certi versi si è giunti solamente ad un trasferimento del problema, sia in termini di scelta del composto chimico che in senso geografico.

Tra i provvedimenti adottati per la regolamentazione di queste sostanze si possono riconoscere tre tipologie di intervento: la limitazione della produzione, l’apposizione di restrizioni alle vendite e la definizione di valori limite di riferimento per le concentrazioni nelle acque. Le azioni intraprese dalle istituzioni nazionali e sovranazionali sono state mirate principalmente ai due composti all’epoca più diffusi nell’ambiente: l’acido perfluoroottanoico (PFOA) e l’acido perfluoroottansolfonico (PFOS).

Figura 2 Struttura chimica di PFOA e PFOS
( charlestonwaterkeeper.org)

La produzione di PFOS e PFOA subì una prima battuta d’arresto nel maggio del 2000, quando la 3M, la maggiore azienda statunitense produttrice di PFOS, in accordo con la US-EPA iniziò una progressiva riduzione della produzione di questo composto, fino ad una completa cessazione nel 2002. Pochi anni più tardi, nel 2006, l’EPA diede l’avvio al 2010/2015 PFOA Stewardship Program, un programma di gestione mirato ad una riduzione del 95% della produzione di PFOA entro il 2010 fino ad una totale eliminazione delle emissioni di questo composto entro il 2015. Le otto maggiori aziende del settore vi presero parte volontariamente.

Nel dicembre dello stesso 2006 gli PFOS furono inclusi nella lista degli inquinanti organici persistenti (POPs) della Convenzione di Stoccolma, quindi assoggettati alle restrizioni imposte dal Programma delle Nazioni Unite per l’ambiente (UNEP). Il Parlamento Europeo stabilì di conseguenza il divieto di vendita per questo composto su tutto il territorio dell’UE applicabile a partire dal 2008 (2006/122/EC).

La presenza di numerosi casi di forte contaminazione in diversi Paesi degli Stati Uniti e dell’Europa, in Giappone ed in altri Stati, insieme ai risultati di importanti studi di settore dimostrarono la necessità di definire valori di soglia per la presenza di PFAS nelle acque potabili. In particolare fu determinante il C8 Health Project, che mise in luce l’esistenza di una probabile correlazione tra l’esposizione a PFOA ed alcune gravi patologie, come malattie tiroidee, tumori del testicolo e del rene.

Nella tabella sottostante sono raccolti alcuni esempi di valori di riferimento health based adottati in diverse nazioni.

Le restrizioni imposte hanno condotto all’introduzione di sostituti a catena più corta all’interno dei processi industriali che lo permettevano. La scelta di questi composti è giustificata dal minore potenziale di bioaccumulazione e dai minori livelli di tossicità acuta e cronica rispetto ai loro predecessori. Nel paper Helsingør Statement un team di esperti internazionali del settore ha espresso la propria preoccupazione relativa alla sostituzione in atto, argomentando come le PFAS a catena corta non siano un’alternativa priva di rischi. Esse mantengono infatti l’elevata persistenza in ambiente tipica di questo gruppo di sostanze e continuano di conseguenza a rappresentare una minaccia per gli ecosistemi e per la salute umana. In alcuni casi, inoltre, i perfluorurati a catena corta sono meno performanti dei corrispondenti composti a catena lunga, rendendo probabilmente necessario l’impiego di un maggior quantitativo di sostanza e/o di utilizzare più composti per ottenere le stesse prestazioni. Un’ulteriore causa di preoccupazione sono le limitate conoscenze che si hanno riguardo a proprietà, uso e profili tossicologici di queste sostanze, informazioni estremamente costose da ottenere sia in termini economici che in termini di tempo. Tempo durante il quale le crescenti e sempre più disperse emissioni potrebbero avere effetti irreversibili.

Un secondo effetto della regolamentazione della produzione di PFOA e PFOS è stata la delocalizzazione della produzione in Paesi in via di sviluppo come la Cina, che è diventata il maggior produttore ed utilizzatore di queste sostanze. Le stime affermano che l’attuale produzione annuale e l’utilizzo di PFAS a catena lunga in Cina eguagliano o addirittura superano i valori che si avevano in Europa e Nord America prima dello Stewardship Program. Di recente il Ministero cinese per la Protezione dell’Ambiente ha incluso gli PFOS nella lista preliminare di sostanze pericolose prioritarie per la gestione ambientale, ma non sono ancora stati stabiliti valori limite per questa o per altre PFAS.

L’assenza di una legislazione che regoli le emissioni di perfluorurati in Paesi come la Cina rappresenta una minaccia anche per le nazioni che hanno provveduto a porre limitazioni sul proprio territorio. Non va infatti dimenticato che le PFAS sono soggette a global transport, come hanno attestato le numerose ricerche che hanno rilevato la presenza ubiqua di PFOA e PFOS nelle acque degli oceani, nelle precipitazioni, nel biota e nel sangue umano in ogni parte del globo. Il problema, quindi, rimane mondiale.

Figura 3 Schematizzazione del global transport ( worldoceanreview.com)

* Francesca si è laureata nel 2017 in Ingegneria ambientale a Trento discutendo una tesina sul tema dell’inquinamento da PFAS, ed è attualmente iscritta alla laurea quinquennale.

Approfondimenti:

Emerging contaminants – Perfluorooctane Sulfonate (PFOS) and Perfluorooctanoic Acid (PFOA); EPA, 2014.

Madrid Statement; 2015.

Alcune ricerche sulla presenza globale di PFAS:

Scott et al. 2005: Trifluoroacetate profiles in the Arctic, Atlantic and Pacific Oceans.

Yamashita et al. 2005: A global survey of perfluorinated acids in oceans.

Scott et al. 2006: Poly and perfluorinated carboxylates in North American precipitation.

Kannan et al. 2004: Perfluorooctanesulfonate and related fluorochemicals in human blood from several countries. Environ Sci Technol 38:4489–4495

Houde et al. 2006: Biological monitoring of polyfluoroalkyl substances: a review.

Scienziate che avrebbero dovuto vincere il Premio Nobel: Nettie Stevens (1861-1912)

In evidenza

Rinaldo Cervellati.

Nettie Maria Stevens nacque il 7 luglio 1861 a Cavendish (una città del Vermont), terza di quattro figli. I due fratelli maggiori morirono prima che lei nascesse, la sorella minore, Emma, nacque nel 1863. Le informazioni sulla sua infanzia e giovinezza sono piuttosto scarse almeno nelle biografie che ho consultato [1].

Completato il percorso scolastico, dove si fece presto notare per la sua eccezionale abilità negli studi, frequentò la Westford Academy, Massachusetts. Diplomatasi nel 1880, insegnò fisiologia e zoologia ma anche matematica, latino e inglese in diverse high school, per qualche tempo fu anche bibliotecaria a Westford. Maturò il suo interesse per la ricerca in fisiologia durante un corso estivo di formazione cui partecipò nel 1890 e 1891 sull’isola di Vineyard (Massachusetts). Con il denaro risparmiato dal lavoro di insegnante entrò all’Università di Stanford (California) nel 1896, ottenendo il B.A. nel 1899 e poi il M.A. in fisiologia l’anno successivo. A Stanford restò un altro anno iniziando il lavoro di dottorato, perfezionando gli studi in fisiologia, citologia e istologia [1].

Nettie Maria Stevens nel 1904

Continuò studi e ricerche per il dottorato al Bryn Mawr College in Pennsylvania, un’istituzione facente parte delle “Seven Sister Colleges”, cioè i pochi istituti di educazione superiore che concedevano anche alle donne tutti i livelli di studio fino al dottorato, ma Stevens fu attratta dal Bryn soprattutto perché vi insegnarono due dei maggiori biologi americani, E.B. Wilson[1] e T.H. Morgan[2]. Essi facevano parte anche del Comitato Editoriale della rivista Journal of Experimental Zoology. Come studente e in seguito collega di Morgan, Stevens fu in grado di tenersi in contatto con le ricerche nei campi in rapida evoluzione della genetica, della citologia e dell’embriologia [1]. Come promettente scienziata che aveva già pubblicato nove articoli durate il periodo di dottorato, ottenuto nel 1903, Stevens aveva diritto a borse e premi speciali. Il Presidente del Comitato per le Borse di studio per l’Europa del Bryn Mawr le assegnò una borsa di ricerca con la quale si recò alla Stazione Zoologica di Napoli per studiare organismi marini e all’Università di Wurzburg, per lavorare con il biologo tedesco Theodor Boveri[3]. Successivamente ricevette un premio di 1000 dollari dall’”Associazione per la promozione della ricerca scientifica tra le donne”, offerta per il miglior articolo scritto da una donna su un argomento scientifico [2].

Una borsa postdottorato per assistente ricercatore alla Carnegie Institution di Washington, permise a Stevens di continuare le ricerche al Bryn Mawr College durante gli anni cruciali 1904-1905, quando intraprese le sue ricerche sui cromosomi del sesso.

Microscopio Zeiss usato da Stevens (Bryn Mawr College)

Durante il decennio precedente Boveri, Wilson e altri avevano trovato forti prove a sostegno dell’individualità dei cromosomi come parti identificabili delle cellule (reidentificabili dopo la divisione cellulare) e suggerivano che ciascun cromosoma potesse essere responsabile di una parte definita della dotazione ereditaria di un organismo. Nella prima edizione (1896) del suo fondamentale libro The Cell in Development and Inheritance, Wilson enumerò le prove secondo cui la sede dell’ereditarietà sta nei cromosomi nel nucleo della cellula. Ma Wilson, Morgan e la maggior parte degli altri biologi non erano ancora pronti ad accettare l’idea che il sesso fosse completamente determinato dai cromosomi al momento della fecondazione. Invece, molti credevano che fattori ambientali, come ad esempio la nutrizione, giocassero un ruolo importante nel determinare il sesso dell’embrione in via di sviluppo. Nel 1903 Morgan [3] concluse una sua dettagliata review sulla determinazione del sesso con la seguente frase:

La nostra conclusione generale è che mentre le teorie recenti sono state molto utili nell’indirizzare l’attenzione sulla determinazione precoce del sesso nell’ovulo, quelle che hanno tentato di collegare questa conclusione con l’assunzione della separazione del maschio dalla femmina nella cellula germinata non sono riuscite a stabilire il loro punto di vista. L’ovulo, per quanto riguarda il sesso, sembra essere in una sorta di stato di equilibrio, e le condizioni a cui è esposto, anche quando non è completamente formato, possono determinare quale sesso produrrà. Può essere un tentativo futile cercare di scoprire qualsiasi influenza che sia decisiva per tutti i tipi di ovuli. Qui, come altrove nella natura organica, diversi stimoli possono determinare in specie diverse quali delle possibilità esistenti si realizzeranno.[3]

Morgan si riferisce qui a un articolo di C.E. Mc Clung[4] [4] che chiamava in causa un “cromosoma accessorio” (scoperto in precedenza da H. Henking) facendo l’ipotesi che fosse esso il portatore delle qualità che appartengono all’organismo maschile.

Stevens invece fu rapida nel vedere le possibilità offerte dall’ipotesi di McClung in concomitanza con la teoria mendeliana dell’ereditarietà. Nella lettera di Morgan alla Carnegie Institution, il 19 novembre 1903, a sostegno della richiesta di fondi di Stevens, chiarisce che era lei quella che voleva investigare la determinazione del sesso tramite cromosomi, mentre egli, partner senior (sebbene più giovane di età) del gruppo di ricerca, era ancora sotto l’influenza delle teorie ambientali[5]. Tuttavia questa differenza di opinioni non impedì loro di collaborare. Secondo S. Brush [1a], data la situazione di rispetto reciproco, il disaccordo è stato vantaggioso per Stevens nel lungo periodo, poiché significava che avrebbe pubblicato i suoi risultati solo con il suo nome. Se il nome di Morgan fosse stato sulla sua pubblicazione del 1905, il mondo scientifico avrebbe indubbiamente dato la maggior parte del merito a lui.

Sia Morgan che Wilson furono comunque entusiasti nel raccomandare Stevens alla Carnegie Institution. Morgan scrisse: fra gli studenti laureati degli ultimi dodici anni non ho avuto nessuno che fosse capace e indipendente nel lavoro di ricerca come Miss Stevens…[1a]

. Wilson dichiarò: Conosco bene il lavoro di Miss Stevens, un personaggio molto indipendente e ammirevole sotto tutti i punti di vista, la considero non solo la migliore dei ricercatori donne, ma una che farà il proprio lavoro come quello di un qualsiasi uomo dello stesso livello. cit. in [1a]

La sovvenzione fu concessa e Stevens proseguì la sua ricerca, che comportava un esame dettagliato dei cromosomi di diversi insetti e il confronto con il sesso della progenie.

Dopo un tentativo fallito, Stevens fu più fortunata con Tenebrio molitor, il comune verme della farina; trovò che i maschi sono prodotti da spermatozoi contenenti un cromosoma chiaramente molto più piccolo del corrispondente cromosoma negli spermatozoi che producono femmine. Il 23 maggio 1905 sottopose alla Carnegie Institution un manoscritto intitolato “Studies in Spermatogenesis” per la pubblicazione nella serie di monografie della Carnegie. Il manoscritto fu inviato il 29 maggio a Wilson per un parere come membro del comitato consultivo dell’istituzione. Lo restituì il 13 giugno con questo breve commento: È in ogni modo un lavoro ammirevole che è degno di essere pubblicato da qualsiasi società istruita, e non esito a raccomandarlo per la pubblicazione da parte dell’Istituzione (Cit. in [1a]). Fu pubblicato nel settembre 1905 [5].

Dopo aver descritto gli esperimenti e le osservazioni Stevens scrive:

Poiché le cellule somatiche della femmina contengono 20 cromosomi grandi, mentre quelli del maschio ne contengono 19 grandi e 1 piccolo, ciò sembra essere un chiaro caso di determinazione del sesso, non da un cromosoma accessorio, ma da una netta differenza nel carattere degli elementi di una coppia di cromosomi degli spermatociti… gli spermatozoi che contengono il piccolo cromosoma determinano il sesso maschile, mentre quelli che contengono 10 cromosomi di uguale dimensione determinano il sesso femminile. Questo risultato suggerisce che ci possono essere in molti casi alcune differenze intrinseche che influenzano il sesso, nel carattere della cromatina di una metà degli spermatozoi, anche se di solito non possono essere individuate dalla differenza esterna nella forma o dimensione dei cromosomi come nel Tenebrio. [5]

Nettie Stevens e i cromosomi del sesso

In generale viene affermato che E.B. Wilson ottenne gli stessi risultati di Stevens, indipendentemente e nello stesso tempo [6]. Quest’affermazione è vera solo in via approssimativa, infatti come fa rilevare Brush [1a], in primo luogo Wilson scelse una specie (Anasa tristis) in cui il maschio ha un cromosoma in meno rispetto alla femmina, mentre Stevens studiò il caso molto più comune in cui il maschio ha un piccolo cromosoma (Y) corrispondente al grande cromosoma (X) nella femmina. In secondo luogo, Wilson probabilmente sarebbe arrivato alle sue conclusioni sulla determinazione del sesso solo dopo aver visto i risultati di Stevens. Questo è forse il punto più importante, confermato dai documenti conservati alla Carnegie Institution. Inoltre Wilson pubblicò l’articolo che è usualmente considerato il primo in cui parla esplicitamente della scoperta sulla determinazione del sesso [7], affermando all’inizio:

Non c’è dubbio che in questi animali esiste una precisa connessione di qualche tipo tra i cromosomi e la determinazione del sesso. [7]

Conclude però tornando a una teoria semi-ambientale:

… grandiose, se non insuperabili, difficoltà si incontrano con qualsiasi forma di assunzione che questi cromosomi siano specificamente determinanti del sesso maschile o femminile. [7]

Edmund B. Wilson

Nel 1906 Stevens verificò la sua teoria su altre specie di insetti, in particolare coleotteri, emitteri e lepidotteri pubblicando la seconda parte degli Studies on Spermatogenesis [8].

Tuttavia, non c’è dubbio che nel 1906 Stevens era più avanti di Wilson nel realizzare il significato della loro scoperta. Scrive Stevens [8]:

Wilson [9] suggerisce come alternative alla teoria cromosomica della determinazione del sesso in base alla Legge di Mendel: (i) che gli eterocromosomi possono semplicemente trasmettere caratteri sessuali, il sesso essendo determinato da condizioni protoplasmatiche esterne ai cromosomi; (ii) che gli eterocromosomi possono essere fattori determinanti il sesso solo in virtù della differenza di attività o quantità di cromatina, il cromosoma sessuale femminile nel maschio è meno attivo.

Citò prove contro entrambe queste alternative, concludendo [8]:

Nel complesso, la teoria, che conduce la questione della determinazione del sesso alla Legge di Mendel in una forma modificata, sembra più conforme ai fatti, e fa sperare che nel prossimo futuro possa essere possibile formulare una teoria generale della determinazione del sesso.[8]

Successivamente continuò l’analisi su una cinquantina di specie, compresa la Drosophila melanogaster, il moscerino della frutta, delizia di generazioni di genetisti fra i quali Thomas Morgan che proprio per le sue ricerche su questo insetto ottenne il Premio Nobel per la Medicina nel 1933, “per le scoperte sul ruolo dei cromosomi nell’ereditarietà”.

Thomas Morgan

Secondo Brush [1a], la mancata assegnazione del premio Nobel a Stevens può essere spiegata dal fatto che il significato dei cromosomi sessuali in genetica non fu generalmente accettato mentre essa era in vita; Morgan dovette aspettare fino al 1933 per ottenerlo, e a Wilson non fu mai assegnato.

Brush [1a] fa però osservare che è più grave il fatto che la maggior parte dei libri di testo moderni, anche quando menzionano Stevens, diano l’impressione che lei abbia lavorato soltanto seguendo le orme di Wilson. A causa dei contributi più sostanziali di Wilson in altre aree, egli tende a ricevere il maggior credito anche per la scoperta dei cromosomi del sesso[6].

Tuttavia Nettie Stevens ottenne il massimo rispetto dai principali biologi[7] del suo tempo, però non riuscì a ottenere una posizione universitaria regolare, senza dubbio in gran parte perché era una donna. Purtroppo non fece in tempo a beneficiare della cattedra di ricercatrice creata apposta per lei al Byrn Mawr poiché morì il 4 maggio 1912 per un tumore al seno.

Bibliografia

[1] a) S. G. Brush, Nettie M. Stevens and the Discovery of Sex Determination by Chromosomes, ISIS, 1978, 69, 163-172; b) J. Maineschein, Stevens, Nettie Maria, Encyclopedia.com

http://www.encyclopedia.com/people/history/historians-miscellaneous-biographies/nm-stevens

Per chi fosse interessato a info più dettagliate su famiglia, infanzia, prima giovinezza e percorsi scolastici di Stevens le può trovare in: M. B. Ogilvie, C. J. Choquette, Nettie Maria Stevens (1861–1912): Her Life and Contributions to Cytogenetics, in Proceedings of the American Philosophical Society1981, 125, 292–311.

[2] N. M. Stevens, A Study of the Germ Cells of Aphis Rosae and Aphis Oenotherae, Journal of Experimental Zoology, 1905, 2, 313-333.

[3] T. H. Morgan, Recent Theories in Regard to the Determination of Sex, Popular Science, 1903,

64, 97-116.

[4] C. E. McClung, The Accessory Chromosome-Sex Determinant?, Biological Bulletin, 1902, 3, 43-84.

[5] N.M. Stevens, Studies in Spermatogenesis. With especial reference to “Accessory chromosome”, Carnegie Institution of Washington, Washington D.C., September 1905

http://www.esp.org/foundations/genetics/classical/holdings/s/nms-05-spermatogenesis-1.pdf

[6] E. B. Wilson, “Studies on Chromosomes. I. The Behavior of the Idiochromosomes in Hemiptera, Journal of Experimental Zoology, 1905, 2, 371-405 (August 1905),

[7] E. B. Wilson, The Chromosomes in Relation to the Determination of Sex in Insects, Science, 1905, 22, 500-502 (October, 1905)

[8] N.M. Stevens, Studies in Spermetogenesis II. A Comparative Study of the Heterochromosomes in Certain Species of Coleoptera Hempitera and Lepidoptera, with especial reference to Sex Determination., Carnegie Institution of Washington, Washington D.C., October, 1906

http://www.esp.org/foundations/genetics/classical/holdings/s/nms-06-spermatogenesis-2.pdf

[9] E. B. Wilson, “Studies on Chromosomes. III. The Sexual Differences of the Chromosome-Groups in Hemiptera, with some Considerations on the Determination and Inheritance of Sex, Journal of Experimental Zoology, 1906, 3, 1-40. (January 1906, ricevuto December 1905).

[1] Edmund Beecher Wilson (1856-1939), zoologo americano e genetista è stato un pioniere della moderna biologia. Ha scritto uno dei più famosi trattati in questo settore, The Cell in Development and Inheritance, McMillan Ed., 1a ed. 1896. La 3a edizione 1932, di 1232 pagine è stata in uso fin dopo la 2a guerra mondiale. E’ stato accreditato insieme a Nettie Stevens della scoperta dei cromosomi del sesso, ma essi lavorarono indipendentemente e le prime conclusioni non furono le stesse.

[2] Thomas Hunt Morgan (1866-1945), biologo, genetista, embriologo americano, autore di 22 libri e 370 articoli scientifici, Premio Nobel 1933 per la Medicina e la Fisiologia per le sue scoperte sul ruolo dei cromosomi nell’ereditarietà.

[3] Theodor Heinrich Boveri (1862-1915) biologo tedesco noto per le sue ricerche sull’ovogenesi e la spermatogenesi (cioè la produzione di cellule uovo e spermatozoi), in particolare sul comportamento dei cromosomi durante il processo della divisione cellulare. Il suo lavoro ebbe un’influenza importante sulle ricerche successive di Stevens.

[4] Clarence Erwin McClung (1870-1946), biologo americano, interessato all’ereditarietà genetica, fece l’ipotesi di un “cromosoma accessorio” nella determinazione dl sesso, ipotesi poi scartata dai risultati della ricerca di Stevens.

[5] Questa lettera è riportata per esteso in appendice nel rif. [1a].

[6] Esempio di “Effetto Matilda” (termine coniato dalla storica Margaret W. Rossiter, negli anni ’90) per indicare la puntuale negazione o la minimizzazione dei risultati scientifici conseguiti dalle donne, i cui studi vengono spesso attribuiti ai loro colleghi uomini, non a causa della scarsa qualità scientifica del loro lavoro, ma per motivi di genere. Si accompagna al termine “Effetto Mattew” (termine coniato dal sociologo Robert Merton nel 1968) per indicare l’attribuzione a uomini di scoperte scientifiche fatte da donne semplicemente perché considerati più credibili (R. K. Merton, The Matthew Effect in Science, Science, 1968, 159, 56-63)

[7] Fa eccezione proprio T.H. Morgan che in un passaggio del suo ampio ma limitativo necrologio (Science, 1912, 36, 468-470) fa apparire Stevens più come un eccellente tecnico che una scienziata smentendo quanto scrisse nella sua lettera di accompagnamento alla richiesta di sovvenzione fatta da Stevens alla Carnegie Institution.

Beni culturali e inquinamento atmosferico.

In evidenza

Luigi Campanella, già Presidente SCI

La protezione e conservazione dei Beni Culturali dovrebbe essere priorità per un Paese che proprio nei Beni Culturali ha la sua principale ricchezza. L’accertamento dello stato di conservazione permette l’individuazione delle cause di degrado e di dissesto, dei meccanismi responsabili dei fenomeni alterativi riscontrati con la messa a punto di tecniche opportune per le procedure d’intervento. Tale attività deve essere applicata sia a livello di prescrizione normativa, sia a livello di diagnosi e di intervento sui manufatti.

La legislazione italiana riguardante le problematiche relative all’inquinamento atmosferico è mirata alla sola tutela della salute umana e degli ecosistemi naturali e non tocca minimamente la salvaguardia del patrimonio storico – artistico, l’unica eccezione è costituita dalle opere d’arte esposte all’interno dei musei, regolate dall’art. 150 del Decreto Legislativo n. 112 del 1998 per il problema della qualità dell’aria all’interno e le implicazioni dell’ambiente esterno sulle opere conservate. Per i riferimenti legislativi sulla salvaguardia del patrimonio storico – artistico occorre appellarsi alla normativa europea; in particolare alle Direttive 62 del 1996, 30 del 1999 e al V programma quadro del quadriennio 1998-2002 che definisce una prima disciplina sull’argomento, identificando anche dei valori soglia per i diversi inquinanti .

La conservazione di un’opera d’arte quale testimonianza artistica e storica è universalmente considerata un atto obbligatorio di cultura; di conseguenza lo studio preliminare dello stato di degradazione in cui l’opera si trova in seguito all’azione del tempo e dell’ambiente alterato da attività antropiche assume una importanza fondamentale. La materia e quindi l’aspetto di un’opera sono soggetti a continue inevitabili trasformazioni. Sotto il profilo artistico ciò corrisponde ad una variazione dei rapporti estetici rispetto a quelli originali; sotto il profilo chimico – fisico, ad una alterazione dei materiali, in particolare di quelli più a diretto contatto con l’ambiente. La conoscenza di tali trasformazioni e delle loro cause è alla base di qualsiasi intervento di manutenzione, restauro e conservazione.

Fra i materiali dei Beni Culturali la Carta ha di recente riassunto il ruolo primario che la storia le aveva assegnato e che sembrava messo in discussione dalle tecnologie informatiche. Il degrado della carta costituisce il problema principale per quanto riguarda la protezione del “bene” (libri antichi, documenti, etc.), dagli attacchi di agenti esterni di varia natura (ambientali, biologici, chimico-fisici, ecc.) e dall’aggressione di fattori interni al materiale stesso. L’invecchiamento dei materiali, la loro sensibilità ad agenti inquinanti, la loro vulnerabilità in seguito ad azioni di corrosione sono tra le cause più frequenti del degrado. Bisogna pertanto conoscere l’insieme del quadro storico, ambientale e diagnostico del manufatto per intervenire in modo responsabile e appropriato trattandosi di beni che hanno rilevanza per significato storico e valore documentario, anche riferendosi al dovuto rispetto per le generazioni future.

Le indagini per la valutazione dello stato di conservazione devono essere rivolte allo studio delle cause e dei meccanismi di alterazione con tecniche e metodi in grado di esprimere il degrado con uno o più parametri quantificabili attraverso la progettazione e la sperimentazione di protocolli di procedura. A tale proposito le tecniche di invecchiamento artificiale consentono di verificare il comportamento nel tempo e la stabilità della carta ai fini della salvaguardia del patrimonio artistico, ma anche della possibilità di poter costruire eventuali nuove scale archeometriche per la datazione di reperti cartacei di interesse archeologico.

La stabilità chimica o inerzia chimica (in effetti il primo termine si riferisce alla termodinamica,il secondo alla cinetica) è la caratteristica di un composto a non decomporsi facilmente o ad essere modificato chimicamente, è consigliata per i materiali utilizzati nei beni culturali poiché essa garantisce la capacità di resistere al degrado chimico (ad esempio la carta col tempo e all’esposizione variabili durante la consultazione o l’esposizione può diventare fragile). La permanenza della carta è definita nella norma UNI EN ISO 9706 come la proprietà di rimanere chimicamente e fisicamente stabile per lunghi periodi di tempo, cioè di mantenere le sue caratteristiche senza un deterioramento significativo nelle normali condizioni di conservazione e di uso. La valutazione della permanenza della carta consiste nell’esame della composizione e delle proprietà originali della carta (assenza di sostanze incrostanti, come lignina ed emicellulose, e caratteristiche di resistenza meccanica), nello studio del comportamento della carta rispetto a particolari condizioni di invecchiamento accelerato (le condizioni normalizzate più usate sono quelle previste dalla norma ISO 5630-3, cioè T=80 °C e U. R. 65 % per 24 giorni), nella combinazione di entrambi queste informazioni.

Il componente principale della carta è la cellulosa (Figura 1), polimero lineare naturale polidisperso, costituito da un numero variabile di molecole di anidro-D(+)-glucosio (unità monomerica), legate tra loro mediante legami 1-4-ß-glucosidici. L’unità strutturale è il cellobiosio. Il numero di volte in cui ciascuna unità monomerica è ripetuta nella macromolecola è il grado di polimerizzazione e rappresenta una media fra tutti i gradi di polimerizzazione delle singole catene costituenti la cellulosa.

Le molecole di cellulosa si legano fra loro fino a costituire delle fibre, al cui interno è possibile distinguere, anche se non esiste un confine netto, zone con struttura geometrica definita (zone cristalline) e zone in cui le macromolecole sono disposte in modo disordinato (zone amorfe). La regione cristallina conferisce resistenza alla struttura, mentre quella amorfa rappresenta la parte più fragile e facilmente aggredibile.

Figura1: Struttura della cellulosa

L’invecchiamento della carta è dovuto a variazioni della struttura della cellulosa come idrolisi, ossidazione, biodegradazione, fotodegradazione e rigonfiamento delle fibre che provocano rotture dei legami nelle catene polimeriche, e ossidazione con formazione di gruppi carbossilici e produzione di radicali con conseguenti ingiallimento, infragilimento, attacco da insetti (tarli, termiti) o, da batteri, funghi e muffe, umidità, polvere, danni fisici, strappi, usura, aggressione da parte di inquinanti aggressivi, come, a volte, gli stessi inchiostri chimicamente instabili ed anche da parte dei depositi lasciati dalle dita dei lettori. L’ingiallimento e l’infragilimento sono legati all’ossidazione della carta e quindi di per sè sono inevitabili, ma rallentabili. L’ossidazione della carta si verifica sia per degrado, legato all’esposizione alla luce (fotoossidazione) , sia per via acida causata da problemi interni legati ai nuovi metodi di produzione della carta e all’acidità dell’inchiostro. Ad esempio gli inchiostri ferrogallici impiegati sui manoscritti provocano sui supporti azioni di degrado di molteplice natura. L’acido in essi contenuto catalizza l’idrolisi della cellulosa che conduce a scissione delle catene polimeriche fino ad arrivare a forare il documento stesso. L’acidità non è tuttavia la sola causa dell’effetto “corrosivo” di questi inchiostri. Gli ioni ferro(II) sono sospettati catalizzare una degradazione di tipo ossidativo che, insieme all’idrolisi, opera un’azione sinergica nel degrado complessivo. Normalmente lo stato delle fibre è monitorato indirettamente con misure meccaniche macroscopiche, correlandole con analisi chimiche, volte a determinare il grado di acidità del foglio; infatti la progressiva acidificazione sembra essere la principale causa del processo di degradazione. Si deve potere intervenire anche preliminarmente, con trattamenti sulla carta, mediante azioni protettive ed inibitrici delle reazioni responsabili dell’invecchiamento ; devono inoltre essere effettuati studi dettagliati, basati su validi procedimenti di invecchiamento artificiale ed accelerato dei materiali cellulosici moderni.

Fra gli agenti responsabili dell’invecchiamento ci sono anche i radicali liberi , ad esempio i radicali idrossilici con facilità distaccano atomi di idrogeno dalla cellulosa dando perciò origine ad una catena di reazioni radicali che che portano a scissione e legami trasversali delle molecole di cellulosa. I legami trasversali dei radicali cellulosici risultano in una trama più densa delle catene di cellulosa con meno spazio per le molecole d’acqua a formare legami idrogeno. Perciò le aree della carta danneggiate dalla corrosione sono meno idrofile delle aree non danneggiate. Come conseguenza la carta diviene più fragile fino a rompersi.

 

La protezione della carta dai deterioramenti indotti da potenziali specie ossidanti, soprattutto dai radicali liberi a livello molecolare, si può effettuare con gli antiossidanti, categoria di sostanze eterogenee, come vitamine, minerali, aminoacidi essenziali, Gli antiossidanti agiscono in concentrazione bassa rispetto a quella del substrato cartaceo ossidabile e prevengono o ritardano in modo significativo l’ossidazione di questo substrato; reagiscono con i radicali liberi, ne riportano l’equilibrio chimico grazie alla possibilità di fornire loro gli elettroni dei quali sono privi e si trasformano in nuove specie radicaliche, stabilizzate per risonanza e poco reattive. Possono agire singolarmente o interagire, proteggendosi a vicenda nel momento in cui vengono ossidati. Ciascun antiossidante ha un campo di azione limitato ad uno o due specifici radicali liberi. Dal punto di vista chimico si suddividono in: naturali (es. tocoferolo, acido ascorbico) e sintetici (es. il propilgallato).

Da quanto detto sinora si comprende quanta chimica ci sia nella protezione di libri,collezioni di documenti,biblioteche,archivi. A suo tempo io credo che la Chimica avrebbe dovuto fare di più per mantenere il suo carattere prioritario in questo campo:non furono molte le sedi di Corso di Laurea in Chimica che istituirono curricula sui Beni Culturali. La riforma obbligata,in quanto imposta dall’Europa,ha indotto il MIUR ad istituire i Corsi di Laurea per gli addetti scientifici dei Beni Culturali. Forse anche in questi la presenza della Chimica è inferiore rispetto alla reale incidenza della nostra disciplina nei processi di conservazione e restauro dei Beni Culturali

 

L’acqua percepita.

In evidenza

Mauro Icardi

Pochi giorni fa mi è capitato un episodio che mi ha indotto a qualche riflessione.

Durante la pausa pranzo, nel locale mensa stavo riempiendo la borraccia della bicicletta, mezzo che uso per recarmi al lavoro, dal rubinetto della rete idrica. Un collega mi ha guardato e mi ha chiesto perché non la riempissi con acqua in bottiglia, dicendomi anche, in maniera piuttosto esplicita che a suo giudizio l’acqua del rubinetto non fosse buona, anzi che “facesse schifo”.

L’episodio è abbastanza singolare per alcuni motivi. Il primo è che entrambi lavoriamo in un’azienda che si occupa di gestione del ciclo idrico. Per la verità la gestione dell’acqua in provincia di Varese è (purtroppo) ancora frammentata in tre differenti gestori per quanto riguarda la fornitura di acqua potabile. L’azienda per la quale lavoro gestisce una parte significativa della fornitura idrica potabile a livello provinciale.

Il laboratorio dove lavoro è situato alla periferia di Varese, e la fornitura di acqua potabile è a carico di un’altra società. Esaurito il preambolo ho trovato piuttosto strano che il mio collega, che conosce il lavoro che faccio avesse un’idea così negativa dell’acqua del rubinetto.

Io gli ho risposto che per scelta, non solo uso la bicicletta per gli spostamenti quotidiani, ma anche che bevo quotidianamente acqua del rubinetto. Dopo la chiacchierata ognuno è poi tornato alle proprie occupazioni. Io in laboratorio, e lui all’attività di gestione e manutenzione del depuratore dove è inserito il laboratorio.

La vicenda in sé mi ha confermato una cosa: la prevalenza di una idea diffusa. Cioè che l’acqua del rubinetto sia troppo dura, che sappia di cloro, che le tubazioni siano vecchie, e quando non lo siano quelle dell’acquedotto, lo siano quelle del proprio condominio. Queste sono solo alcune delle obiezioni più diffuse di chi utilizza acqua potabile per usi diversi dal bere. In realtà per la mia esperienza personale non credo che le cose stiano esattamente così. Ho bevuto quasi da sempre acqua potabile. In strada dalle fontanelle, e a casa (quando ancora vivevo a Settimo Torinese) sempre dal rubinetto, magari con l’aggiunta delle polveri per acqua da tavola, che ormai sono quasi oggetti di modernariato.

Per quanto riguarda invece l’avversione di molte persone a bere acqua di rubinetto mi chiedo quanto possano influire le martellanti campagne pubblicitarie che negli anni ci hanno mostrato fantomatiche “particelle di sodio” solitarie e tristi, oppure che ci ricordano (in una recente pubblicità) che per una certa acqua con giuste percentuali di calcio e magnesio sia tutta “questione di chimica”.

Forse per questa ragione gli italiani sono così affezionati all’acqua in bottiglia, tanto da esserne i primi consumatori in Europa con 208 litri all’anno secondo i dati riferiti al 2015 da beverfood.com e terzi al mondo secondo Statista.com.

Col tempo poi si sta assistendo ad una tendenza particolare. Sembra che l’acqua si stia trasformando in qualcosa di diverso. L’acqua deve essere colesterol free, vitaminizzata. Si sta affermando la figura del water sommelier, l’assaggiatore di acqua nei ristoranti

Purtroppo tra molte persone si sta facendo strada l’idea che ci possano essere contaminazioni nella rete di acquedotto, mentre l’idea che l’acqua che viene imbottigliata a pochi metri dalla sorgente sia garanzia di miglior qualità. Poi per molti è del tutto secondario che quest’acqua possa viaggiare per chilometri da un capo all’altro dell’Italia, e che esista un problema legato ai rifiuti di plastica.

Viaggiando molto in bicicletta vedo moltissime bottiglie di plastica ancora buttate ai lati delle strade.

L’impegno che io ritengo debba essere prioritario da parte delle aziende di erogazione di acqua potabile credo sia quello di essere maggiormente impegnate in un opera di informazione seria e capillare, in un continuo filo diretto con gli utenti, per fugare timori che sono molto spesso infondati. Parallelamente deve (ed è fondamentale) partire una massiccia opera di ristrutturazione delle infrastrutture della rete acquedottistica. La percentuale di acqua ancora dispersa nelle reti di acquedotto continua ad aggirarsi intorno a valori del 50%.

Rimane la questione del gusto dell’acqua, ma sono convinto che una prova di assaggio di diverse acque in bottiglia non gasate, con l’inserimento di un’acqua di acquedotto lasciata riposare per essere liberata dal cloro volatile residuo, probabilmente non permetterebbe all’ipotetico assaggiatore di identificarla tra le altre, soprattutto quando non sono addizionate di anidride carbonica.

In un contesto generale di scarsità idrica dovuta ai cambiamenti climatici, credo che occorra tornare ad un approccio più naturale al normale gesto di bere un bicchier d’acqua.

Trovo paradossale che per anni si sia sostenuto che l’acqua non dovesse essere una merce, riferendosi a quella potabile, mentre si accetta senza nessuna obiezione di pagare un prezzo molto più alto per l’acqua in bottiglia. Per sincerarsene basta verificare il prezzo al supermercato. Alcune bottiglie possono costare 50 centesimi per un litro e mezzo. Con 50 centesimi io posso acquistare 746 litri di acqua potabile, comprese tasse e costi fissi.

Ecco, la riflessione che mi sento di fare è quella se questa non sia una situazione paradossale.

L’altra riflessione è quella solita: spesso un chimico si trova a predicare nel deserto, ed è riferita alla conversazione iniziale con il collega. Situazione non nuova, ma provata anche in altri contesti.

E questo purtroppo riguarda non solo l’acqua, ma ogni argomento nel quale non si discuta razionalmente, ma si ceda ai luoghi comuni ripetuti fino ad avere ottenuto la dignità di verità.

Il mercato del sapere

In evidenza

Claudio Della Volpe

In un articolo recentemente pubblicato su Internazionale (n.1228, p. 44) Joseph Stiglitz vincitore nel 2001 del premio della Banca di Svezia per le scienze economiche in memoria di Alfred Nobel (a volte indicato come Nobel per l’Economia, ma in realtà un premio Nobel per l’economia non esiste come tale*) commenta la situazione del mercato dei brevetti mondiali soprattutto nel settore farmaceutico ma non solo.

E’ un argomento che mi appassiona e a cui ho dedicato vari commenti in passato (https://ilblogdellasci.wordpress.com/2014/12/13/farmaci-essenziali-quanto-ci-costano/   http://www.soc.chim.it/sites/default/files/chimind/pdf/2012_9_179_ca.pdf

http://www.soc.chim.it/sites/default/files/chimind/pdf/2013_3_119_ca.pdf)

Stiglitz è noto per la sua posizione critica nei confronti della economia neoclassica, ossia della ideologia economica incapace di prevedere alcunchè ma usata a difesa della crescita infinita e del libero mercato come strumento di ripartizione delle risorse.

E in questo articolo fa notare la contraddizione fra le esigenze di gran parte della popolazione mondiale povera e i costi della gestione della salute e delle malattie importanti (i poveri non sono solo nel terzo mondo comunque); questi costi sono insostenibili perchè i farmaci sono considerati non come valori di uso ma come merci, come strumenti di profitto e dunque il loro uso dominato dal mercato inizia con una protezione legata al brevetto e prosegue con prezzi i più alti possibile, differenziati per mercato, indipendentemente dagli effettivi costi sostenuti nello sviluppo del farmaco, l’obiettivo non è dunque l’eradicazione delle malattie, ma la realizzazione di grandi profitti in breve tempo.

I paesi del terzo mondo più forti , gli ex paesi dell’ex terzo mondo oggi paesi in forte sviluppo come Brasile, Sud Africa, India, Cina, guidano una offensiva ai principi del mercato globale, approvano leggi che si oppongono ai monopoli istituiti nei paesi occidentali e soprattutto ai criteri che tali paesi cercano di imporre al resto del mondo: il brevetto, il copyright, gli accordi e le “regole” della organizzazione mondiale del commercio che garantiscono il profitto non l’uso equo, che strapagano il produttore o l’inventore non garantendo un uso razionale delle scoperte.

Stiglitz fa notare che “il sapere è un bene pubblico, sia perché usarlo non costa nulla sia perché un aumento del sapere può far crescere il benessere di tutti. Il timore è che il mercato non possa premiare a sufficienza l’innovazione e che la ricerca non sia adeguatamente incentivata.”

Una volta che una cosa sia scoperta, una molecola inventata, un testo scritto una canzone cantata, la preoccupazione principale non può essere difenderne la proprietà, ma usarla o sfruttarla o ascoltarla o leggerla nel modo migliore per tutta l’Umanità, remunerando correttamente chi ha contribuito alla sua produzione, MA senza fare di questo obiettivo l’unico scopo.

L’esempio degli antibiotici può essere utile: noi diamo gli antibiotici per scontati, ma come ha affrontato il mercato, il meccanismo della produzione privata basata sui brevetti e il profitto, la loro gestione?

Da una parte ha stimolato l’investimento e la scoperta di un certo numero di classi di molecole ma ne ha soprattutto spinto un uso smodato e veloce che garantissero la remunerazione delle spese sostenute nell’intervallo di tempo coperto dal brevetto; questo è il contrario di un uso razionale degli antibiotici, perchè favorisce lo sviluppo di resistenze; oggi le resistenze sono diventate una realtà importante e ci sono batteri resistenti a tutti gli antibiotici, mentre la percentuale di casi di infezioni resistenti è diventata una realtà importante in tutti i paesi avanzati con grave allarme per l’OMS.

« La prima regola degli antibiotici è cercare di non usarli, la seconda è cercare di non usarne troppi. »(Paul L. Marino, The ICU Book)

Questa regola razionale di uso dell’antibiotico è esattamente il contrario di quanto serve al mercato. C’è stato una specie di picco degli antibiotici in passato, sembrava di avere non una ma tante pallottole magiche che si moltiplicavano a profusione; ma esattamente quella ricchezza e quella profusione che avevano per obiettivo non guarire dalle infezioni ma fare soldi hanno prodotto la farmacoresistenza.

Pochi giorni fa un report del ISS ha confermato che anche in Italia i batteri resistenti sono presenti ormai quasi in maggioranza, viaggiando fra un terzo e il 45% dei casi; questo conferma quel che già si sa per l’intera Europa: https://ecdc.europa.eu/sites/portal/files/documents/AMR 2016_Final-with-cover-for-web-2017.pdf.

Oggi con la crescita delle resistenze batteriche servirebbero nuovi antibiotici (o casomai vaccini). Ma dato l’aumento dei costi per sviluppare nuove molecole (in gran parte costituiti dalle spese per difendere i brevetti nel mondo NON per sviluppare nuove molecole) non ci sono in campo ricerche a sufficienza per sviluppare i nuovi antibiotici che ci servono. Il motivo è che come abbiamo detto si tratta di un campo che richiede forti investimenti, che le case farmaceutiche si sono mostrate riluttanti a fare, perché prevedono che dei nuovi antibiotici sarà scoraggiata la prescrizione su vasta scala proprio al fine di ritardare lo sviluppo di farmacoresistenze, un’eventualità considerata quasi inevitabile.

Dunque il mercato e il brevetto non sono in grado di rispondere alla sfida dei nuovi antibiotici.

Stiglitz propone nel caso della sanità dei meccanismi alternativi al brevetto :

Esistono almeno tre alternative per finanziare l’innovazione. Uno è affidarsi a meccanismi centralizzati di sostegno diretto, come gli organismi nazionali di sanità. Un altro è decentralizzare il finanziamento diretto con la detrazione fiscale. Infine possono essere gli istituti governativi,le fondazioni o gli istituti di ricerca a dare premi alle innovazioni di successo.

Come è successo nel caso delle banche con la crisi del 2008 la mano pubblica deve intervenire per salvare capra e cavoli, in questo caso per stimolare la messa in campo di nuove ricerche per nuovi antibiotici, una cosa che il meccanismo del libero mercato e del brevetto è incapace di fare, dimostrando esattamente quel che dice Stiglitz: il mercato del sapere non è il modo migliore di gestire l’economia del XXI secolo.

* questa è una finezza, un modo per dire che l’economia è una scienza anch’essa con i baffi, dato che un premio Nobel per l’Economia vero e proprio non fu istituito da Nobel, la Banca di Svezia ne ha istituito uno che viene oggi presentato a fianco agli altri Nobel, ma personalmente mi appare una operazione ideologica; se andate sulla pagina del Nobel in coda agli altri premi c’è anche questo ma è scritto così, The Sverige Riksbank prize for economic sciences, con un comitato diverso dal comitato Nobel:

Scienziate che avrebbero dovuto vincere il Premio Nobel: Rosalind Franklin (1920-1958)

In evidenza

Rinaldo Cervellati.

La scienza e la vita di tutti i giorni non possono e non devono essere separati. La scienza, per me, fornisce una spiegazione parziale della vita, nella misura in cui si basa su fatti, esperienze e esperimenti. . . . Sono d’accordo che la fede è essenziale per il successo nella vita, ma io non accetto la vostra definizione di fede, cioè la fede nella vita dopo la morte. A mio avviso, tutto ciò che è necessario per la fede è la convinzione che, facendo del nostro meglio, ci avvicineremo al successo e che il successo nei nostri obiettivi (il miglioramento del destino dell’umanità, del presente e del futuro) meriti di essere raggiunto.

Rosalind Franklin, lettera al padre, 1940

Rosalind Elsie Franklin nasce a Londra nel 1920, seconda di cinque figli, da una famiglia benestante ebrea, di religiosa osservanza ma politicamente liberale.

Poiché a Rosalind non piacevano i giochi femminili fu considerata stravagante, i suoi ricordi di bambina sono di una lotta continua per farsi accettare. A sei anni iniziò a frequentare una scuola privata di Londra. Parlando di lei con il marito la zia disse: è paurosamente intelligente, passa tutto il suo tempo facendo aritmetica per svago e invariabilmente i suoi calcoli sono giusti [1]. Sviluppò anche un precoce interesse per lo sport, in particolare il cricket e l’hockey, in seguito si appassionò al trekking, passione che conservò per tutta la sua breve vita.

Rosalind Franklin

All’età di otto anni Rosalind si ammalò con frequenti problemi respiratori, e il medico di famiglia consigliò di mandarla in una scuola vicino al mare. Fu mandata quindi a frequentare la Lindores School per ragazze nel Sussex. La lezione che imparò là fu che era meglio ignorare dolore e malattia. A 11 anni tornò a Londra per frequentare la St. Paul Girl’s School, l’unica scuola femminile dove si insegnavano fisica e chimica. [2]

Con sei distinzioni, superò gli esami nel 1938, vincendo una borsa di studio per l’università. Suo padre le chiese di devolvere la borsa a un rifugiato meritevole di continuare gli studi. [2]

Nello stesso anno Franklin fu ammessa al Newnham College di Cambridge studiando chimica nell’ambito del Programma triennale di Scienze Naturali. Nel 1941 superò gli esami finali del Programma con onori, il che fece equiparare il suo diploma al B.A., qualificandola per un’occupazione[1].

Nell’ultimo anno di studi a Cambridge incontrò un rifugiato francese, Adrienne Weill, ex studente di Marie Curie, che ebbe una grande influenza sulla sua vita e la sua carriera e la aiutò a migliorare il suo francese parlato.

Franklin in gita trekking

Franklin ricevette anche una borsa di ricerca presso il Newnham College, iniziò quindi a lavorare nel laboratorio di chimica fisica dell’Università di Cambridge sotto la guida di Ronald Norrish. Nel suo anno di lavoro là non ebbe molto successo, soprattutto a causa dei caratteri dei due, entrambi ostinati e insofferenti delle critiche[2]. Quando, nel 1942 le fu offerto un posto di assistente ricercatore alla British Coal Utilization Research Association (BCURA), Franklin accettò rinunciando così alla borsa di ricerca.

BCURA era una recente organizzazione con meno formalità sul modo in cui condurre le ricerche. Franklin vi lavorò in modo abbastanza indipendente, una situazione adatta al suo carattere introverso. Rimase alla BCURA fino al 1947 pubblicando una serie di articoli sulla struttura fisica del carbone. Studiò la porosità del carbone utilizzando l’elio per determinare la sua densità. Scoprì il rapporto fra i restringimenti dei pori dei carboni e la permeabilità dello spazio poroso, concludendo che le sostanze vengono espulse secondo l’ordine delle dimensioni molecolari all’aumentare della temperatura. Contribuì a classificare i carboni e a prevedere accuratamente le loro prestazioni a scopo di combustibile e per la produzione di dispositivi come le maschere antigas [3, 4]. Nel 1945 l’Università di Cambridge le conferì il dottorato di ricerca in chimica. Durante la 2a Guerra mondiale, insieme alla cugina Irene, fece parte delle volontarie della Air Raid Precautions partecipando regolarmente alle pattuglie in soccorso della popolazione durante i bombardamenti aerei.

Terminata la guerra, Rosalind chiese all’amico Adrienne Weill di aiutarla a cercare un lavoro di ricerca a Parigi.

Rosalind Franklin in laboratorio

In una conferenza nell’autunno del 1946, Weill la presentò a Marcel Mathieu, direttore del Centro Nazionale per la Ricerca Scientifica (CNRS), rete di istituti comprendente la maggior parte dei laboratori di ricerca scientifica sostenuti dal governo francese. Ciò portò alla sua nomina al Laboratoire Central des Services Chimiques de l’Etat, a Parigi, con Jacques Mering[3]. Entrò a far parte del laboratorio di Mering il 14 febbraio 1947 come uno dei quindici ricercatori del gruppo. Mering era un cristallografo che decise di estendere la diffrazione a raggi X allo studio di fibre sintetiche (rayon) e di altre sostanze amorfe. Ciò presentava nuove sfide nella conduzione degli esperimenti e nell’interpretazione dei risultati. Franklin perfezionò questo metodo applicandolo anche al carbone, in particolare allo studio dei cambiamenti nella disposizione degli atomi quando viene convertito in grafite. Pubblicò molti altri lavori su questi aspetti che sono diventati dei classici della chimica fisica del carbone [4].

Sebbene fosse contenta del suo lavoro a Parigi e dello stile francese in generale, Franklin cominciò nel 1950 a cercare un posto da ricercatore in Inghilterra, ottenendo una borsa triennale come ricercatore associato al King’s College di Londra. Cominciò a lavorare nel gennaio 1951 nell’Unità di Biofisica del Medical Council al King’s, diretta da John Randall[4]. Inizialmente la borsa avrebbe dovuto essere utilizzata per ricerche sulla diffrazione a raggi X di proteine e lipidi ma Randall reindirizzò il lavoro alle fibre del DNA a causa di nuovi sviluppi in questo settore, e al fatto che Franklin era in quel momento l’unica esperta sperimentatrice in diffrattometria al King’s. Randall fece questa riassegnazione, prima dell’inizio del lavoro di Franklin al King’s, senza tener conto del lavoro pionieristico di Maurice Wilkins[5] e Raymond Gosling[6], rispettivamente ricercatore e studente di dottorato del King’s. Essi, pur utilizzando attrezzature grezze, avevano ottenuto nel maggio 1950 una chiara immagine di diffrazione del DNA che provocò ulteriore interesse per questa molecola. Randall tuttavia non li aveva informati della richiesta a Franklin di assumere sia il lavoro di diffrattometria del DNA che la guida della tesi di Gosling. La mancanza di comunicazione di Randall su questa decisione contribuì in modo significativo all’attrito che si sviluppò tra Wilkins e Franklin.

Franklin, in collaborazione con Gosling, iniziò ad applicare la sua esperienza nelle tecniche di diffrazione dei raggi X alla struttura del DNA. Usò un nuovo tubo a raggi X a regolazione fine del fuoco e microcamera ordinato da Wilkins, ma perfezionato da lei per migliorarne ulteriormente le prestazioni. Attraverso le sue conoscenze di chimica fisica, trattò opportunamente i suoi campioni di DNA. Quando Wilkins chiese di questa tecnica migliorata, lei rispose in termini che offesero Wilkins in quanto mostrò “un’aria di fredda superiorità”. Nonostante quest’atmosfera pesante, Franklin e Gosling scoprirono che esistevano due forme di DNA: ad alta umidità, le fibre di DNA se bagnate diventavano lunghe e sottili (struttura paracristallina); essiccate diventavano corte e spesse (struttura cristallina). Franklin chiamò forma B e A le due forme rispettivamente. I campioni potevano interconvertirsi da una forma all’altra variando il livello di umidità.

A causa del forte conflitto di personalità sviluppatosi tra Franklin e Wilkins, Randall suddivise il lavoro sul DNA in due ricerche. Franklin scelse la forma cristallina “A” mentre Wilkins scelse la forma “B” perché da alcune sue immagini preliminari sembrava avere una struttura a elica. Le immagini di diffrazione dei raggi X, tra cui la “foto 51”, scattata da Franklin, sono considerate una pietra miliare nella delucidazione della struttura del DNA.

La “foto 51” di Rosalind Franklin

Sulla struttura a elica Wilkins e Franklin ebbero animate discussioni. Nel gennaio 1953 Franklin, risolte alcune incongruenze fra i dati sperimentali, concluse che entrambe le forme del DNA avevano due eliche. Iniziò quindi a scrivere una serie di tre articoli, in due dei quali la struttura della forma A del DNA era descritta come una struttura a doppia elica dorsale. Questi due manoscritti sul DNA-A giunsero alla rivista Acta Crystallographica il 6 marzo 1953 e pubblicati nel fascicolo di settembre [6,7].

Sulla struttura del DNA stavano lavorando anche l’americano James Dewey Watson e il britannico Francis Henry Compton Crick al Cavendish Laboratory dell’Università di Cambridge, diretto da Lawrence Bragg[7]. Sembra accertato che durante una visita di Watson al King’s, Wilkins gli mostrò le foto di Franklin, (ovviamente a sua insaputa), foto sottratte dallo studio della scienziata da Gosling che riteneva corretto informare Wilkins in qualità di vice-direttore della ricerca. Watson capì immediatamente l’importanza di quelle immagini (in particolare la 51) e, tornato a Cambridge, si mise al lavoro insieme a Crick per elaborare un modello strutturale del DNA. Pubblicarono il loro modello a doppia elica sul fascicolo di Nature del 25 aprile 1953 [8].

Secondo B. Maddox [1] e a parere di altri biografi, Franklin scrisse i due articoli prima di essere a conoscenza del modello di Watson e Crick, questo perché, sostiene Maddox, quando ne venne a conoscenza aggiunse una nota alle bozze del suo secondo articolo per Acta Cristallographica:

Nota aggiunta alle bozze, 8 luglio 1953. Mentre questo articolo era in corso di stampa, Watson & Crick (1953) hanno proposto una struttura elicoidale a due catene per l’acido nucleico. Il loro modello potrebbe essere riferito alla nostra struttura B, in cui le molecole sono protette da una guaina d’acqua dall’influenza distorta delle molecole vicine, piuttosto che alla struttura A. Tuttavia, poiché la trasformazione AB è facilmente reversibile, se esiste una molecola a doppia catena elicoidale nella struttura B, essa deve persistere anche nella struttura A sebbene le dimensioni dell’elica possano essere alterate. Abbiamo mostrato (Franklin & Gosling 1953-2,3) che gli aspetti generali del modello di Watson & Crick paiono coerenti con i nostri risultati sebbene talune discrepanze fra le intensità equatoriali misurate e quelle calcolate per la struttura B, e fra i valori osservati e calcolati di densità, non ci permettano di accettarlo in tutti i dettagli. [7]

In realtà Franklin poteva anche non conoscere i dettagli del modello, ma sicuramente conosceva le intenzioni del gruppo di Cambridge, infatti si affrettò a spedire una comunicazione sulla struttura del DNA-B a Nature che la pubblicò nello stesso fascicolo del 25 aprile [9]. Questa nota viene posta in coda a quella di Watson e Crick e preceduta da una nota di Wilkins [10].

In un successivo fascicolo di Nature (25 luglio), comparve un secondo articolo riguardante l’evidenza di una struttura a doppia elica nel DNA-A [11]. I riferimenti [9] e [11] sono quelli citati nella nota aggiunta alle bozze dell’articolo poi pubblicato in settembre su Acta Cristallographica. Vale la pena notare che in questi articoli i protagonisti si ringraziano reciprocamente per gli scambi di idee e le discussioni, sebbene Watson e Crick si limitino ad affermare che erano stati stimolati dalla conoscenza… dei risultati sperimentali e dalle idee non pubblicate dei Dr. E.H.F. Wilkins, E.R. Franklin e dei loro collaboratori.[8] Non pubblicate? (N.d.R.)

Vale anche la pena ricordare che Nature è una rivista a cadenza più che settimanale (contando anche i supplementi) che in generale pubblica rapidamente brevi comunicazioni preliminari su ricerche originali riguardanti argomenti “di frontiera”, quindi molto ambita; Acta Cristallografica è una rivista mensile di un settore specifico di ricerca che pubblica articoli molto dettagliati sia nella parte sperimentale sia in quella interpretativa, ovviamente con tempi più lunghi. Se però si osservano bene tutte le date, si nota che gli articoli dettagliati di Franklin e Gosling sono stati ricevuti da Acta Cristallografica il 6 marzo 1953 mentre la nota di Watson e Crick fu spedita o ricevuta da Nature il 2 aprile 1953…

Maddox [1] afferma che l’ordine dei tre lavori pubblicati su Nature nell’aprile 1953 fu stabilito in seguito a un accordo fra i direttori dei due laboratori, Bragg e Randall rispettivamente, escludendo i dati sperimentali di Franklin, Gosling e Wilkins apparentemente solo a sostegno del modello teorico di Crick e Watson per la forma B del DNA.

Il terzo manoscritto di Franklin, datato 17 marzo 1953 riguardante la forma B del DNA, fu scoperto anni dopo nei documenti di Franklin, dal collega Aaron Klug del Birkbeck College, dove Franklin si era trasferita. Klug [12] pubblicò in seguito una valutazione sulla stretta correlazione fra i tre articoli comparsi su Nature nel 1953, al fine di evidenziare il significativo contributo di Franklin all’elucidazione della struttura del DNA. Scrisse quest’articolo come risposta all’immagine distorta del lavoro di Franklin descritta nel libro di Watson, The Double Helix, nel 1968 [13][8].

Franklin lasciò il King’s College di Londra a metà marzo 1953 per il Birkbeck College, Università di Londra, con una mossa che era stata pianificata da tempo e che descrisse (in una lettera ad Adrienne Weill a Parigi) come: trasferimento da un palazzo a una casa popolare … ma piacevole lo stesso. Fu chiamata dal Preside del Dipartimento di Fisica, J.D. Bernal[9], un brillante cristallografo irlandese politicamente comunista, noto per la promozione delle donne cristallografe. Franklin lavorò come scienziato senior con un suo gruppo di ricerca finanziato dal Consiglio per la Ricerca Agraria (ARC). Nonostante il suggerimento di Bernal di abbandonare l’interesse per gli acidi nucleici, Franklin aiutò Gosling a finire la sua tesi, sebbene non fosse più il suo supervisore ufficiale. Come già ricordato essi pubblicarono un lavoro su Nature nel numero di luglio 1953 [11]

Continuò inoltre a esplorare un altro importante acido nucleico, l’RNA, una molecola altrettanto centrale per la vita quanto il DNA. Al Birkbeck, Franklin usò la diffrattometria a raggi X per studiare la struttura a mosaico del virus del tabacco (TMV). Iniziò una lunga e fruttuosa collaborazione con Aaron Klug. Nel 1955 Franklin pubblicò i suoi primi importanti lavori sul TMV, in cui descriveva che le particelle del virus TMV avevano tutte la stessa lunghezza. Ciò era in contraddizione con le idee dell’eminente virologo Norman Pirie, anche se alla fine le osservazioni di Franklin si dimostrarono corrette.

Micrografia del TMV

Franklin assegnò lo studio della struttura completa del TMV al suo studente di dottorato Kenneth Holmes. Scoprirono presto che il mantello del TMV era costituito da molecole proteiche disposte a elica. Il suo collega Klug lavorò a virus sferici con il suo allievo John Finch, con Franklin come coordinatrice e supervisore di tutte le ricerche. Come squadra, dal 1956 iniziarono a pubblicare importanti articoli sul TMV, sul virus del cetriolo e sul virus del mosaico giallo della rapa.

Nel 1957 esaurì la sua borsa di ricerca, ma l’ARC la prorogò di un anno. Nel frattempo presentò un progetto di ricerca al National Institute of Health degli Stati Uniti, che lo approvò con un finanziamento di 10.000 sterline per tre anni, il più grande fondo mai ricevuto al Birkbeck College.

Nel 1957 Franklin fu invitata dall’Expo 1958 di Bruxelles, la prima esposizione internazionale dalla fine della 2a guerra mondiale, a presentare un modello del TMV alto più di 1,5 metri. Il modello fu realizzato con palline da tennis e manubri da bicicletta e presentato al Padiglione Internazionale delle Scienze il 17 aprile 1958, un giorno dopo la sua morte.

Già all’inizio del 1956 Franklin aveva problemi di salute, le fu infine diagnosticato un cancro all’addome. Alternò periodi di ospedalizzazione e di convalescenza continuando a lavorare fino alla fine. La continua esposizione ai raggi X con scarsa o nulla protezione fu ipotizzata come una delle cause della malattia.

Klug e gli altri membri del suo gruppo di ricerca le furono sempre accanto (Klug fu scelto come uno dei suoi esecutori testamentari), successivamente, nel 1962 si trasferirono al Laboratorio di Biologia Molecolare di Cambridge.

Franklin non fu mai nominata per un premio Nobel, sebbene il suo lavoro sia stato una parte cruciale nella scoperta del DNA. Durante la sua vita la struttura del DNA non era considerata pienamente provata. Wilkins e i suoi colleghi impiegarono circa sette anni per raccogliere dati sufficienti a dimostrare la realtà della struttura del DNA proposta. Inoltre, il suo ruolo biologico, come proposto da Watson e Crick, non era stato accettato. Il riconoscimento unanime della doppia elica del DNA e la sua funzione di replicazione avvenne solo alla fine degli anni 50. Nel 1962 il premio Nobel fu assegnato a Crick, Watson e Wilkins. La motivazione del premio non fu esclusivamente per la scoperta della struttura del DNA, ma per tutto l’insieme del loro lavoro sugli acidi nucleici. Al momento del premio, Wilkins aveva lavorato sulla struttura del DNA per più di 10 anni e aveva fatto molto per confermare il modello Watson-Crick. Crick aveva lavorato al codice genetico di Cambridge e Watson aveva lavorato sul RNA per alcuni anni. Franklin era deceduta e le regole del premio Nobel proibiscono le assegnazioni postume o la divisione del Premio fra più di tre persone.

Al collega e amico Aaron Klug fu assegnato il premio Nobel per la chimica nel 1982, “per il suo sviluppo della microscopia elettronica cristallografica e la sua elucidazione strutturale della proteina acido nucleica complessa”, che era esattamente quello che Franklin aveva iniziato e poi proseguito insieme a Klug. Secondo Maddox [1] è altamente plausibile che, se fosse stata viva, avrebbe condiviso il premio Nobel con Klug. Sono pienamente d’accordo con questa ipotesi ma ritengo comunque che Franklin fosse meritevole del Nobel per la chimica già nel 1956 o nel 1957 quando era ancora in vita.

Bibliografia

[1] B. Maddox, Rosalind Franklin. The dark lady of DNA, 1st Ed., Harper Collins, New York, 2002.

[2] D. Berger, A Biography of the Dark Lady of Notting Hill, United Sinagogue Women,

https://www.theus.org.uk/printpdf/article/biography-dark-lady-notting-hill

  1. anche: The Rosalind Franklin Papers. Biogaphical information

https://profiles.nlm.nih.gov/ps/retrieve/Narrative/KR/p-nid/183

[3] The Rosalind Franklin Papers. The Holes in coal: Research at BCURA and in Paris, 1942-1951

https://profiles.nlm.nih.gov/ps/retrieve/Narrative/KR/p-nid/186

[4] P.J.F. Harris, Rosalind Franklin’s work on coal, carbon, and graphite Interdisciplinary Science Reviews, 2001, 26, 204-209.

[5] The Rosalind Franklin Papers. The DNA Riddle: King’s College, London, 1951-1953

https://profiles.nlm.nih.gov/ps/retrieve/Narrative/KR/p-nid/187

[6] R.E. Franklin, R.G. Gosling, The Structure of Sodium Thymonucleate Fibres. I. The Influence of Water Content, Acta Cryst., 1953, 6, 673-677.

[7] R.E. Franklin, R.G. Gosling, The Structure of Sodium Thymonucleate Fibres. II. The Cylindrically Symmetrical Patterson Function, Acta Cryst., 1953, 6, 678-685.

[8] J.D. Watson, F.H.C. Crick, Molecular Structure of Nucleic Acids, Nature, 1953, 171, 737-738.

[9] R.E. Franklin, R.G. Gosling, Molecular configuration in Sodium Thymonucleate, Nature, 1953, 171, 740-741.

[10] M.H.F. Wilkins, A.R. Stokes, H.R. Wilson, Molecular Structure of Deoxypentose Nucleic Acids, Nature, 1953, 171, 738-740.

[11] R.E. Franklin, R.G. Gosling, Evidence for 2-Chain Helix in Cristalline Structure of Sodium Deoxyribonucleate, Nature, 1953, 172, 156-157.

[12] A. Klug, Rosalind Franklin and the Discovery of the Structure of DNA, Nature, 1968, 219, 808-810; A. Klug, Rosalind Franklin and the double helix, Nature, 1974, 248, 787-788.

[13] J.D. Watson, The Double Helix, Atheneum Press (Simon & Schuster, Inc.), New York, 1968

[14] The Rosalind Franklin Papers. Envisioning Viruses: Birkbeck College, London, 1953-1958

https://profiles.nlm.nih.gov/ps/retrieve/Narrative/KR/p-nid/188

[1] L’Università di Cambridge iniziò l’assegnazione dei titoli B.A. (Bachelor of Arts) e M.A. (Master of Arts) alle donne solo dal 1947.

[2] Ronald Norrish (1897-1978) chimico britannico noto per le sue importanti ricerche in cinetica e fotochimica, ottenne il Premio Nobel nel 1967 (insieme a Manfred Eigen e George Porter) per i loro studi sulla cinetica delle reazioni estremamente veloci. I sui biografi lo descrivono come “ostinato e quasi perverso in argomentazioni, prepotente e sensibile alla critica”.

[3] Jacques Mering (1904-1973) russo naturalizzato francese, ingegnere noto per i suoi studi di cristallografia e mineralogia, è ricordato soprattutto per avere indirizzato Rosalind Franklin alla diffrattometria a raggi X.

[4] Sir John Turton Randall (1905-1984) fisico e biofisico britannico apportò sostanziali miglioramenti al magnetron, componente essenziale del radar centimetrico, una delle chiavi di volta della vittoria britannica nella Battaglia d’Inghilterra nella seconda guerra mondiale. Direttore del Dipartimento di Fisica del King’s College passò poi a dirigere l’Unità di Ricerca Biofisica sempre al King’s. Durante la sua direzione il lavoro sperimentale portò alla scoperta della struttura del DNA.

[5] Maurice Hugh Friedrich Wilkins (1916-2004) fisico e biologo molecolare neozelandese naturalizzato britannico, ha dato importanti contributi nello studio della fosforescenza, separazione isotopica, microscopia ottica e diffrattometria X, è noto per le sue ricerche sulla struttura del DNA che gli valsero il Premio Nobel 1962 per la medicina, insieme a Watson e Crick.

[6] Raymond George Gosling (1926-2015) fisico britannico, intraprese i suoi studi di dottorato prima con Maurice Wilkins con il quale ottenne le prime immagini chiare di filamenti idratati di DNA. Proseguì poi il lavoro con Rosalind Franklin collaborando all’ottenimento della famosa “fotografia 51”, immagine di diffrazione ai raggi X della struttura del DNA-B. È stato coautore di uno dei tre articoli comparsi su Nature il 25 aprile 1953. Ottenne il dottorato nel 1954. Docente al Queen’s College dell’Università di St. Andrews.

[7] Sir William Lawrence Bragg (1890-1971) fisico australiano-britannico, enunciò nel 1912 la legge di Bragg sulla diffrazione dei raggi X, fondamentale per l’interpretazione della struttura dei cristalli. Insieme al padre, William Henry Bragg, ottenne il Premio Nobel per la Fisica nel 1915 per i loro importanti contributi nell’analisi della struttura cristallina per mezzo dei raggi X.

[8] Questa autobiografia di Watson fu aspramente criticata dai più importanti biografi di Franklin. Burton Feldman scrisse: “Il libro si basa pesantemente sulle personalità, alcune delle quali, come quella di Rosalind Franklin, sono trattate in modo fumettistico”.

[9] John Desmond Bernal (1901-1971) fisico di origine irlandese è stato un pioniere nell’impiego della cristallografia a raggi X in biologia molecolare, inoltre si è interessato attivamente di Storia della Scienza con all’attivo una serie di articoli e libri. Sostenitore del comunismo ha scritto diverse opere su scienza e società https://www.marxists.org/archive/bernal

L’ architetto dell’invisibile ovvero come pensa un chimico.

In evidenza

Mauro Icardi

Prendo spunto dall’intervista a Marco Malvaldi, che in questi giorni sta presentando il suo nuovo libro “L’architetto dell’invisibile, ovvero come pensa un chimico” per aggiungere qualche mia considerazione personale.

Marco Mavaldi, chimico e scrittore

  In una recente intervista, l’autore parla di alcuni argomenti e temi che ritengo fondamentali, e credo che rappresentino un patrimonio comune ad ogni chimico.

Per prima cosa ( e giustamente) alla domanda sul perché abbia scelto di studiare chimica, risponde con un comprensibile orgoglio, che la chimica è la disciplina scientifica che lo ha formato come persona, e respinge l’immagine stereotipata che dipinge la chimica e come la disciplina dei “brutti sporchi e cattivi che inquinano”.

Decisamente azzeccata la definizione della chimica come linguaggio, dove gli   atomi rappresentano le lettere, le molecole le parole, ed i processi chimici le frasi.

Qui mi sovviene l’analogia con Primo Levi che paragonava la tavola periodica come l’esempio più alto di poesia, con addirittura le rime. Questo nel capitolo “Ferro” de “Il sistema periodico”.

Altra analogia Malvaldi- Levi è relativa alla chimica come materia scientifica, ma che permette di usare le mani. Levi descrive l’imbarazzo di non saperle usare compiutamente nel capitolo “Idrogeno”. “Le nostre mani erano rozze e deboli ad un tempo, regredite, insensibili: la parte meno educata dei nostri corpi”, paragonandole invece a quelle delle donne, delle madri che sapevano cucinare, ricamare, intrecciare i capelli, e suonare il pianoforte.

Malvaldi dichiara che voleva studiare una materia scientifica che gli permettesse di usarle.

Chi ha praticato il Laboratorio credo ricordi con un senso di piacere il momento in cui si è reso conto di avere acquisito la manualità opportuna, di non essere più imbarazzato o pasticcione come agli inizi. Anche questo è parte di una “sensibilità chimica” che è, a mio parere, ampia e diversificata. La manualità in laboratorio ne è una parte, che sarebbe un peccato perdere, o mettere da parte dedicandosi solamente all’analisi tecnica. Curiosamente ne ho parlato solo due giorni fa, trovandomi in pausa pranzo con un chimico che si è seduto accanto a me, in un affollato self service. Chiacchierando ci siamo scoperti colleghi, e non essendo più giovanissimi abbiamo ricordato esperienze comuni. Sia nel percorso formativo, che in quello professionale. Ricordi condivisi, ed anche una stessa delusione nel sapere che parti importanti e fondamentali dell’istruzione superiore in chimica sono stati ormai abbandonati. L’analisi semimicroqualitativa tra le altre, ormai scomparsa dai programmi degli istituti di scuola superiore.

Ritornando a quanto dice Malvaldi nella sua intervista, vale la pena di riportare questo brano :

Un chimico non pensa mai in termini di naturale o artificiale: una molecola è una molecola. Quando sente la frase: Questo fa bene, è tutto naturale, il chimico si gratta: gli viene in mente che anche la cicuta o il veleno dello scorpione sono naturali

Il resto dell’intervista a Malvaldi spazia su molti temi. Il sempre attuale rapporto costi/benefici citando Fritz Haber chimico tedesco che sintetizzò gas per uso bellico, ma sviluppò anche il fondamentale processo di sintesi dell’ammoniaca.

Noto con piacere che continuano ad uscire libri di divulgazione chimica. La ritengo una cosa molto positiva. Per la chimica, ma in generale per una crescita di conoscenza di base di cui dovrebbero beneficiare i non chimici.

Fatta questa considerazione alcuni temi rimangono ovviamente aperti, e sono le sfide della chimica del futuro. La sintesi dell’ammoniaca è stata fondamentale, ma lo sbilanciamento del ciclo dell’azoto è uno dei problemi ambientali da affrontare. Così come quello degli inquinanti persistenti e biorefrattari. Ma quanto abbiamo ottenuto in termini di qualità della vita, e che dobbiamo alla chimica non può e non deve essere dimenticato. Come chimici sappiamo anche praticare l’arte di essere critici e selettivi. Qualità imparate studiando e praticando tecniche cromatografiche, per esempio.

Non credo che si possa e si debba prescindere da questo patrimonio di conoscenza. Adesso come obbiettivo abbiamo quello di custodire il pianeta, e di essere artefici di un cambiamento culturale e metodologico che ci impegnerà molto in futuro.

Ma abbiamo una importante carta da giocare. La consapevolezza che, come dice Marco Malvaldi, una volta che la si scopre, la chimica è una materia che da dipendenza. E io so che è proprio così, perché questa è una situazione che a livello mentale mi capita spesso di provare.

Qui l’intervista a Marco Malvaldi pubblicata sul sito del quotidiano “Il giornale”

http://www.ilgiornale.it/news/cultura/chimica-linguaggio-e-scrivere-usa-atomi-1464564.html

Note sull’Antropocene.3. Gli scenari.parte seconda.

In evidenza

Claudio Della Volpe.

In questa serie di post stiamo discutendo di Antropocene, l’argomento che da il sottotitolo al nostro blog e ne imposta i temi. Abbiamo via via analizzato nei 4 post precedenti (pubblicati qui, qui, qui e qui) le origini e le ipotesi sul momento iniziale che definisce l’Antropocene; poi ne abbiamo discusso alcuni scenari possibili.

Dedicheremo questo post a quello che ho definito scenario 3R o scenario Balzani.

Vincenzo Balzani e Nicola Armaroli col loro gruppo Energia per l’Italia esprimono compiutamente una posizione 3R, ossia basata sull’idea che l’uso esteso di energie rinnovabili, il riuso degli oggetti e il riciclo dei materiali, insieme con la riduzione delle diseguaglianze sociali ed economiche fortissime attualmente esistenti, (secondo il rapporto Oxfam dello scorso anno gli 8 uomini più ricchi del mondo posseggono quanto la metà più povera dell’umanità, 3.6 miliardi di persone, o se volete l’1% dell’umanità possiede quanto o più che il rimanente 99%) costituisca la base per una gestione economica sostenibile.

L’idea di base di questo punto di vista è che l’economia sia in effetti basata sul sistema della biosfera, e questo non solo perché una parte dei servizi importanti è fornita direttamente dalla Natura senza essere pagata (pensate al ricambio dell’ossigeno, al ciclo del carbonio, all’impollinazione dei fiori, alla degradazione dei residui (le nostre deiezioni) fornita dai batteri, etc etc) ma anche perchè le risorse anche non rinnovabili che usiamo sono parte di un patrimonio naturale formatosi in centinaia di milioni di anni, come per esempio i combustibili fossili o le concentrazioni di risorse minerarie come i fosfati del Marocco o di Nauru e che non c’è più il tempo di ricostituirli, sono un unicum , un regalo naturale che non si ripeterà e che stiamo dilapidando rapidamente. E’ la posizione definita ecological economics, fondata da scienziati che ho nominato a riguardo del primo scenario come Georgescu Roegen, ma anche da chimici come il compianto Enzo Tiezzi; da ecologisti come Barry Commoner.

Tutti questi scienziati italiani e di altri paesi si sono resi conto che occorre chiudere il cerchio della produzione e della economia umane.

Barry Commoner riassumeva le quattro leggi dell’ecologia, ma che anche l’economia umana dovrebbe soddisfare, perchè dopo tutto l’economia umana è una parte ormai integrante dell’ecologia del pianeta:

Ogni cosa è connessa con qualsiasi altra. “L’ambiente costituisce una macchina vivente, immensa ed estremamente complessa, che forma un sottile strato dinamico sulla superficie terrestre. Ogni specie vivente è collegata con molte altre. Questi legami stupiscono per la loro varietà e per le loro sottili interrelazioni.” Questa legge indica la interconnessione tra tutte le specie viventi, in natura non esistono rifiuti:es. ciò che l’uomo produce come rifiuto ossia l’anidride carbonica è utilizzata dalle piante come risorsa. L’uomo col suo inquinamento altera ogni giorno il ciclo naturale degli eventi. 

2) Ogni cosa deve finire da qualche parte. “In ogni sistema naturale, ciò che viene eliminato da un organismo, come rifiuto, viene utilizzato da un altro come cibo.” Niente scompare. Si ha semplicemente un trasferimento della sostanza da un luogo all’altro, una variazione di forma molecolare che agisce sui processi vitali dell’organismo del quale viene a fare parte per un certo tempo. 

3) La natura è l’unica a sapere il fatto suo. “Sono quasi sicuro che questo principio incontrerà notevole resistenza, poiché sembra contraddire la fede universale nella competenza assoluta del genere umano.” Questo indica esplicitamente l’uomo a non essere così pieno di se e a usare la natura come se potesse renderla a suo indiscriminato servizio. Se la natura si ribella l’uomo crolla. 

4) Non si distribuiscono pasti gratuiti.“In ecologia, come in economia, non c’è guadagno che possa essere ottenuto senza un certo costo. In pratica, questa quarta legge non fa che sintetizzare le tre precedenti. Non si può evitare il pagamento di questo prezzo, lo si può solo rimandare nel tempo. Ogni cosa che l’uomo sottrae a questo sistema deve essere restituita. L’attuale crisi ambientale ci ammonisce che abbiamo rimandato troppo a lungo.” Dal libro “Il cerchio da chiudere” – Barry Commoner

Analogamente un filosofo dell’ottocento che non nomino, ma cito spesso, diceva a proposito di un futuro scenario di antropocene sostenibile: «I produttori associati regolano razionalmente il loro ricambio organico con la natura, lo portano sotto il loro comune controllo invece di essere dominati da esso come una forza cieca».

Notate una cosa, che il concetto stesso di profitto dei fattori della produzione, su cui è basato il modello economico neoclassico è contrario alla quarta legge; l’economia è un gioco a somma nulla: se uno guadagna un altro perderà; non ci sono profitti per tutti creati dalla mera proprietà delle cose; le cose tendono a degradarsi senza un continuo afflusso di energia e di lavoro, certo non a crescere spontaneamente, per cui questa supposta proprietà del denaro e dell’economia è del tutto incompatibile con l’ecologia.

Finchè come uomni eravamo piccoli, finchè eravamo pochi potevamo fare orecchio da mercante, illuderci che quel che facevamo era una percentuale ridicola dell’ecologia planetaria, dire una cosa è l’ecologia e una l’economia; ma adesso le cose sono cambiate.

Adesso noi e i nostri animali rappresentiamo una quota enorme della biomassa planetaria, almeno di quella degli animali vertebrati, e usiamo una quota strabocchevole delle risorse totali di tutti i tipi, come già discusso nella prima parte.

Questo conduce ad effetti inattesi di cui vi presento un esempio recentissimo.

Gli insetti sono una vasta classe di esseri viventi che come numero e massa domina il pianeta, seconda solo ai batteri probabilmente, gli insetti compiono innumerevoli servizi, alcuni dei quali ci stanno antipatici e sono nocivi, come le zanzare anofele, ma in genere sono utilissimi (per esempio impollinano la gran parte delle piante che usiamo per la nostra alimentazione e aiutano a decomporre i rifiuti, servizi ecologici fondamentali per i quali non li paghiamo ma ci aspettiamo che li svolgano); ebbene una analisi recente sia pur limitata condotta in Germania e durata quasi 30 anni mostra che il loro numero è in forte e sconcertante diminuzione, una diminuzione molto forte che va sotto il nome di “sindrome del parabrezza pulito”, una osservazione che potete fare da soli la prossima volta che fate un viaggio in autostrada (http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0185809).

Lo studio ha usato un protocollo stantardizzato per misurare la massa totale di insetti in 27 anni e 63 aree di protezione naturale mostrando che il declino stagionale è del 76% con punte di oltre l’80 nella biomassa degli insetti volanti. Esso sembra indipendente dal tipo di habitat e non se ne conoscono le ragioni.

Non si tratta di una osservazione isolata, l’allarme era stato già lanciato da altro studiosi in altri paesi ed aveva trovato ospitalità ripetutamente nelle pagine di Nature (539, p.41, 2016).

Una riduzione generalizzata del numero di insetti volanti è un fenomeno estremamente preoccupante ma che si associa benissimo alla estinzione di specie causata dall’uomo direttamente (inquinamento) o indirettamente (cambiamento climatico e distruzione degli habitat). La chimica è sempre in prima fila in queste azioni perchè di fatto volente o nolente è strumento di controllo attivo e passivo degli insetti specie nell’agricoltura intensiva.

Quale è la soluzione almeno possibile?

Se questa è la situazione attuale come dalle pagine dello Stockholm Resilience Centerla soluzione sta nell’entrare nella cosidetta economia della ciambella, illustrata dalla eco-economista Kate Raworth.

Ce lo racconta Luca Pardi sul sito di Aspo Italia:

L’economia della ciambella include, oltre al tetto ecologico all’attività umana del grafico (il limite oltre il quale la Biosfera inizia a cedere), anche un pavimento sociale al di sotto del quale non si dovrebbe scendere per evitare il malessere e l’instabilità sociale. L’immagine è affascinante perché descrive in una singola figura un’economia di stato stazionario in cui il metabolismo sociale ed economico umano ha raggiunto un livello che garantisce un elevato grado di benessere, equità distributiva e salvaguardia della biosfera. Cioè qualcosa che è sideralmente lontano dall’attuale dinamica globale :

La ciambella indica gli stretti confini “stabili” entro i quali deve muoversi la nostra attività per rimanere nelle possibilità della biosfera.

La crescita continua della produzione, la crescita del PIL del 2-3% all’anno che corrisponde ad una crescita fisica della produzione di energia e di materia non è sostenibile da parte di una biosfera finita; occorrerebbe sganciare la crescita dell’economia dalla crescita fisica dei parametri energetici e dei materiali, ma abbiamo visto come i think thank economici anche i più “democratici” lo ritengano impossibile. In definitiva se pensate che il termine “sviluppo sostenibile” corrisponda ad una “crescita sostenibile” avete sbagliato.
L’ alternativa è dunque obbligata; smontare il meccanismo produttivo basato sulla crescita e che comunemente chiamiamo capitalismo; l’accumulazione continua non è possibile.

Questo concetto è stato espresso anche dal Papa, quando nella sua ultima encliclica, Laudato sì, rivolgendosi non solo ai cattolici, ma «a ogni persona che abita questo pianeta» invita a «eliminare le cause strutturali delle disfunzioni dell’economia mondiale» correggendo «i modelli di crescita» incapaci di garantire il rispetto dell’ambiente.

Ancora più recentemente, la Union of concerned scientists (UCS) ha riproposto una petizione firmata da oltre 15000 scienziati fra cui praticamente tutti i Nobel che rinnova una analoga petizione lanciata già nel 1992 e che denunciava questa situazione; io l’ho firmata dal principio; la petizione conclude:

To prevent widespread misery and catastrophic biodiversity loss, humanity must practice a more environmentally sustainable alternative to business as usual. This prescription was well articulated by the world’s leading scientists 25 years ago, but in most respects, we have not heeded their warning. Soon it will be too late to shift course away from our failing trajectory, and time is running out. We must recognize, in our day- to-day lives and in our governing institutions, that Earth with all its life is our only home.

that Earth with all its life is our only home: che la Terra con tutta la sua vita è la nostra sola casa; la stessa idea di Vincenzo Balzani nel libro “Energia per l’astronave Terra”, ricordate? “ci troviamo su una astronave con risorse limitate”.

Vincenzo Balzani e Nicola Armaroli hanno espresso il loro punto di vista sul futuro dell’Antropocene quando hanno scritto:

.Per vivere nel terzo millenio abbiamo bisogno di paradigmi sociali ed economici innovativi e di nuovi modi di guardare ai problemi del mondo. Scienza, ma anche coscienza, responsabilità, compassione ed attenzione, devono essere alla base di una nuova società basata sulla conoscenza, la cui energia sia basata sulle energie rinnovabili, e che siamo chiamati a costruire nei prossimi trent’anni. L’alternativa, forse è solo la barbarie.(Vincenzo Balzani e Nicola Armaroli, Energy for a sustainable world, Wiley CH, 2011)

Cosa dirvi? Occorre non solo condividere questi obiettivi ma orientare verso di essi la nostra attività di ricercatori e di cittadini.

Scienziate che avrebbero dovuto vincere il Premio Nobel: Lise Meitner (1878-1968)

In evidenza

Rinaldo Cervellati.

Lise Meitner: a physicist who never lost her humanity

Otto Robert Frisch

 

Elise (poi Lise) Meitner nasce a Vienna il 7 novembre 1878, terza di otto figli, da una famiglia ebraica di classe medio – alta. Tuttavia il padre, noto avvocato, era un libero pensatore e quindi la religione ebraico – giudaica non influenzò l’educazione dei figli. Fin dall’età di otto anni Elise mostrò uno spiccato interesse per le scienze, con una particolare predisposizione per la fisica e la matematica. Condusse propri esperimenti sui colori, su film sottili e sulla riflessione della luce. Purtroppo a quei tempi alle donne non era concesso frequentare istituti pubblici di educazione superiore, dovette quindi prendere un diploma di lingua francese e diventare insegnante di quella materia (l’unica professione per cui non era richiesta una preparazione universitaria). Nel frattempo si preparava privatamente per l’esame di maturità che era stato finalmente concesso anche alle donne. Nel 1901 superò l’esame, una delle quattro su 14 candidate a farcela. All’università di Vienna seguì i corsi di fisica, matematica, chimica e botanica, decidendo comunque che sarebbe diventata fisico. Anche il periodo da studentessa non fu facile, il suo biografo e nipote, Otto Robert Frisch[1], dice che dovette subire sgarbi da parte dei suoi colleghi uomini (a quei tempi una studentessa donna era considerata un fenomeno da circo) ma ricevette anche incoraggiamenti da parte dei professori [1]. Seguì le lezioni di Ludwig Boltzmann per il quale conservò sempre una grande ammirazione. Nel 1905 ottenne il dottorato in fisica, la seconda donna a raggiungere questo traguardo in Austria. A Vienna cominciò il suo interesse per la radioattività: nel 1905 non era ancora stato provato che le particelle α potessero essere deflesse passando attraverso la materia, Meitner progettò e realizzò uno dei primi esperimenti che dimostravano inequivocabilmente che alcune deflessioni avvenivano. Gli esperimenti mostravano che le deflessioni aumentavano all’aumentare del peso atomico dell’elemento attraverso cui le particelle venivano fatte passare [2]. Tuttavia non aveva ancora intenzione di specializzarsi in questo campo, che diventerà poi il suo principale interesse di ricerca. Da notare che esperimenti simili a questi e l’analisi statistica delle deflessioni condussero Ernest Rutherford alla scoperta del nucleo atomico (1911).

Lise Meitner nel 1906

Nel 1907 si reca a Berlino ma ha difficoltà a trovare lavoro come ricercatrice. Segue le lezioni di Max Planck all’università e incontra un giovane chimico, Otto Hahn, il quale stava cercando un fisico che lo aiutasse a interpretare i risultati dei suoi esperimenti sulla radioattività. Poiché Emil Fischer, direttore dell’Istituto di Chimica, non accettava donne nei laboratori dell’Istituto (era la legge), Otto e Lisa effettuarono i loro primi lavori in una carpenteria adattata a laboratorio per misure di radioattività. Fortunatamente, due anni dopo fu concesso e regolarizzato l’accesso delle donne all’università, Fischer tolse il divieto e i due poterono continuare le ricerche in un ambiente più favorevole e col sostegno dello stesso Fischer.

Per Hahn, chimico, la parte più avvincente della ricerca era la possibile scoperta di nuovi elementi e delle loro proprietà, Meitner, fisico, era più interessata alla caratterizzazione energetica delle particelle radioattive. Nel 1909 Meitner pubblica due lavori sull’energia della radiazione β.

Inoltre, insieme a Otto Hahn, ha scoperto e sviluppato un metodo fisico di separazione conosciuto come radioactive recoil, in cui i nuclei emettenti figli sono forzatamente espulsi dalla matrice nel momento del loro decadimento. In questo modo scoprirono la formazione di nuovi isotopi.

Nel 1912 il gruppo Hahn-Meitner si trasferì nella nuova sede del Kaiser Wilhelm Institute, dove Lise lavorò come ricercatore-visitatore nel dipartimento di Radiochimica diretto da Hahn, senza stipendio fino all’anno successivo quando ottenne un posto fisso all’Istituto dopo aver ricevuto l’offerta per professore associato all’Università di Praga.

Lise Meitner e Otto Hahn

Nella prima parte della Ia guerra mondiale, Meitner servì come infermiera addetta agli apparecchi a raggi X. Ritornò a Berlino e alla sua ricerca nel 1916, ma non senza lotta interiore. Sentiva una certa vergogna per voler continuare i suoi sforzi di ricerca quando pensava al dolore e alla sofferenza delle vittime della guerra e delle loro esigenze mediche ed emotive.

Nel 1917 Meitner e Hahn scoprirono il primo isotopo radioattivo a vita lunga dell’elemento protoattinio, per questo Meitner fu insignita della Medaglia Leibniz dall’Accademia Berlinese delle Scienze.

Nel 1926, Meitner divenne la prima donna in Germania a ottenere una cattedra di fisica all’Università di Berlino. Nel 1935, come direttore del dipartimento di fisica del Kaiser Wilhelm Institute di Berlino-Dahlem, insieme a Otto Hahn, divenuto direttore dell’Istituto, intraprese il cosiddetto “progetto transuranio” che portò alla scoperta inaspettata della fissione nucleare.

La scoperta del neutrone da parte di James Chadwick (1932) fu favorita anche dal fatto che Meitner gli fornì una piccola quantità di polonio (un emettitore α) più confacente del radio (emettitore α, β e γ) per gli esperimenti che aveva in mente. Con la scoperta del neutrone si aprirono nuove possibilità per l’esplorazione del nucleo atomico: come ho scritto nel precedente post, il gruppo di Fermi all’università di Roma, bombardando un composto di uranio con un fascio di neutroni suppose di aver prodotto i due elementi successivi, il 93 e il 94 (1934). Ignorando le critiche e le ipotesi di Ida Noddack, i fisici diedero credito alle conclusioni di Fermi, Meitner compresa [3].

Nel frattempo le leggi razziali naziste del 1934 costrinsero parecchi scienziati tedeschi di origine ebraica, fra cui Leo Szilard, Fritz Haber, Otto Frisch (nipote di Meitner) e molti altri ad abbandonare le loro cattedre e le loro ricerche cercando riparo all’estero.

Otto Frisch

Meitner, protetta dalla sua cittadinanza austriaca continuò le sue ricerche con Hahn a Berlino fino al 1938, quando con l’Anschluss l’Austria divenne parte della Germania. Meitner riuscì fortunosamente a raggiungere la Danimarca e infine la neutrale Svezia grazie anche all’aiuto di Niels Bohr e del nipote Otto Frisch. A Stoccolma si ricongiunse a Otto Frisch. Continuò comunque a corrispondere regolarmente con Hahn e altri scienziati tedeschi.

In occasione di una conferenza di Hahn nell’Istituto di Fisica di Copenhagen, Hahn, Bohr, Meitner e Frisch si incontrarono il 10 novembre 1938. Successivamente continuarono a scambiarsi una serie di lettere. Nel mese di dicembre Hahn e il suo assistente Fritz Strassmann[2] eseguirono nel loro laboratorio di Berlino i difficili esperimenti che provavano la realtà della “rottura” del nucleo di uranio bombardato da neutroni in bario (e krypton).

Apparecchiatura per lo studi della fissione (Museo di Monaco)

La corrispondenza con Meitner mostra che Hahn riconosceva che la “rottura” era l’unica spiegazione per la presenza del bario (in un primo momento chiamò il processo uno “scoppio” dell’uranio), ma era sconcertato da questa incredibile conclusione. Tuttavia i due inviarono, contemporaneamente alla lettera, una prima nota alla rivista Naturwissenschaften [4]. Di ciò non furono informati neppure i fisici del dipartimento dell’Istituto.

In questa nota essi sostengono, seppure fra molti dubbi e perplessità, di aver ottenuto prima del polonio e poi del radio e del bario dal bombardamento dell’uranio con neutroni, tuttavia le analisi chimiche li facevano propendere per la seconda ipotesi. Nel gennaio 1939, dopo aver ripetuto gli esperimenti, i due chimici inviarono un secondo e più dettagliato articolo alla stessa rivista confermando la presenza di metalli alcalini nei prodotti dell’uranio bombardato con neutroni lenti [5].

In febbraio 1939 in un successivo articolo Hahn e Strassman pubblicano la prova certa della formazione di frammenti di bario dalla rottura dell’uranio e introducono il termine “fissione nucleare” per il fenomeno [6].

Meitner e Frisch, che Hahn teneva costantemente informati dei progressi, furono dunque i primi a proporre un’interpretazione teorica, in base al “modello a goccia” di Bohr, su come il nucleo di uranio potesse essere diviso in parti più piccole: i nuclei dell’uranio si dividevano per formare bario e krypton, accompagnati dall’eliminazione di neutroni e da un’enorme quantità di energia. I neutroni emessi andavano quindi a colpire altri nuclei di uranio provocando così una reazione a catena. Pubblicarono questa interpretazione nello stesso febbraio 1939 [7]. Successivamente fu provato che questa enorme energia corrispondeva alla perdita di massa in base all’equazione di Einstein E = mc2.

Allo stesso modo essi interpretano le loro precedenti osservazioni sulle radiazioni emesse dal torio come la fissione dei nuclei di torio negli isotopi del bario e del krypton.

Questa interpretazione insieme a un metodo per “raccogliere” prodotti della fissione fu ripresa da Frisch in una successivamente nota su Nature [8].

Probabilmente il calcolo della corrispondenza difetto di massa-energia fu suggerito da Bohr il quale fece notare che la quantità di energia sviluppata era molto maggiore di quanto si calcolava per un fenomeno non fissile. Ma i fisici Meitner e Frisch erano convinti che la chimica fosse la sola responsabile del fenomeno e Hahn, chimico, era riluttante a spiegare la fissione in corretti termini fisici[3].

Nel 1945 il Premio Nobel per la Chimica 1944 fu assegnato al solo Otto Hahn con la motivazione: “per la sua scoperta della fissione di nuclei atomici pesanti”. Nella sua Nobel lecture Hahn non nominò i contributi di Strassman, Meitner e Frisch.

In realtà, sia lui sia Meitner erano stati candidati al Nobel per la chimica o per la fisica diverse volte prima della scoperta della fissione nucleare, ma nel 1945 il Comitato che scelse il Premio Nobel in Chimica decise di assegnare il premio 1944 esclusivamente a Hahn. Negli anni Novanta, i documenti a lungo secretati dei lavori del Comitato Nobel divennero pubblici e la storica Ruth Lewin Sime[4] ne approfittò per riconsiderare l’esclusione di Meitner. In un articolo del 1997 su Physics Today [9], Sime e i suoi colleghi Elisabeth Crawford e Mark Walker scrissero:

Sembra che Lise Meitner non abbia condiviso il premio del 1944 perché la struttura dei comitati Nobel non era adatta a valutare le competenze interdisciplinari, i membri del comitato svedese per la chimica non furono in grado o non vollero giudicare il suo contributo in modo equo, e anche a causa delle loro competenze limitate. L’esclusione di Meitner dal premio può essere riassunta come una miscela di pregiudizi disciplinari, ottusità politica, ignoranza e fretta. [9]

Meitner rimpianse di essere rimasta in Germania dal 1933 al 1938 e fu amaramente critica con gli scienziati che continuarono a lavorare per il terzo Reich. In una bozza di lettera del 1945 indirizzata a Hahn, scrive:

Avete lavorato per la Germania nazista. E vi siete limitati solo a una resistenza passiva. Certo, per essere in pace con la vostra coscienza avete aiutato qua e là una persona perseguitata, ma milioni di esseri umani innocenti sono stati assassinati senza che venisse fatta alcuna protesta … [si dice che] prima avete tradito i vostri amici, poi i vostri figli perché avete lasciato che la loro vita fosse trascinata in una guerra criminale – e infine che avete tradito la Germania stessa, perché quando la guerra era già senza speranza, non vi siete mai rivoltati contro la distruzione senza senso della Germania.[10]

Hahn non ricevette mai questa lettera.

Meitner non fece alcuna recriminazione per il mancato Nobel e rimase comunque affezionata a Hahn, nel 1959 tornò in Germania per partecipare alla celebrazione dell’80mo anniversario del compleanno di Hahn, insieme alla famiglia di lui.

In Svezia, Meitner continuò a essere attiva presso l’Istituto Nobel per la fisica, presso l’Istituto Nazionale di Ricerche Nazionali per la Difesa (FOA) e il Royal Institute of Technology di Stoccolma, dove ha avuto un laboratorio e ha partecipato alla ricerca su R1, il primo reattore nucleare svedese. Fino dal 1947, fu creata una cattedra personale per lei presso l’Università di Stoccolma con lo stipendio di professore e un finanziamento del Consiglio per la Ricerca Atomica.

Ebbe molti premi e onorificenze, sia in vita sia dopo. Nel 1966 le fu assegnata insieme a Otto Frisch, la medaglia Fermi dalla Commissione USA per l’Energia Atomica, ma la salute ormai compromessa dall’aterosclerosi le impedì di andare a Washington per ritirarlo personalmente. Dal 1960 si era trasferita in Inghilterra da alcuni parenti. Morì nel 1968 all’età di 89 anni.

Bibliografia

[1] O.R. Frisch, Lise Meitner, 1878-1968, Biogr. Mems Fell. R. Soc., 1970, 16, 405-420 http://rsbm.royalsocietypublishing.org/content/roybiogmem/16/405.full.pdf

[2] L. Meitner, Uber die Zerstreuung der α-Strahlen. (About the dispersion of the α-rays.) Phys. Zeit., 1907, 8(15), 489-491.

[3] O. Hahn, L. Meitner, Über die künstliche Umwandlung des Urans durch Neutronen (Sulla trasformazione artificiale dell’uranio da parte di neutroni), Naturwissenschaften, 1935, 23, 37-38.

[4] O. Hahn, F. Strassmann, Über die Entstehung von Radioisotopen aus Uran durch Bestrahlen mit schnellen und verlagsamten Neutronen, (About the formation of radioisotopes from uranium by irradiation with fast and verlagsamten neutrons) in German, Naturwissenschaften, 1938, 26, 755-756.

[5] O. Hahn, F. Strassman, Über den Nachweis und das Verhalten der bei der Bestrahlung des Urans mittels Neutronen entstehenden Erdalkalimetalle, Naturwissenschaften, 1939, 27, 11-15 (gennaio 1939), Trad. Ingl. Concerning the Existence of Alkaline Earth Metals Resulting from Neutron Irradiation of Uranium, in: American Journal of Physics, January 1964, p. 9-15. https://www.chemteam.info/Chem-History/Hahn-fission-1939b/Hahn-Fission-1939b.html

[6] O. Hahn, F. Strassman, Nachweis der Entstehung activer Bariumisotope aus Uran und Thorium durch Neutronenbestrahlung; Nachweis weiterer aktiver Bruchtucke bei der Uranspaltung, Naturwissenschsften, 1939, 27, 89-95 (febbraio 1939). Trad. Ingl. Proof of the Formation of Active Isotopes of Barium from Uranium and Thorium Irradiated with Neutrons; Proof of the Existence of More Active Fragments Produced by Uranium Fission, in: J. Chem. Educ., May 1989, p. 363-363 https://www.chemteam.info/Chem-History/Hahn-fission-1939b/Hahn-Fission-1939b.html

[7] L. Meitner, O. Frisch, Disintegration of Uranium by Neutrons: A New Type of Nuclear Reaction, Nature, 1939, 143(3615), 239-240.

[8] O. Frisch, Physical Evidence for the division of Heavy Nuclei under Neutrons Bombardment, Nature, Supplement, 18 Feb. 1939, 276.

[9] E. Crawford, R.L. Sime, M. Walker, A Nobel Tale of Postwar Injustice, Physics Today1997, 50, 26–32.

[10 ] cit in: John Cornwell, Hitler’s Scientists: science, war and the devil’s pact, Viking, New York,

2002, p.411.

[1] Otto Robert Frisch (1904-1979) fisico austriaco, dopo l’ascesa di Hitler al cancellierato nel 1933 decise di spostarsi in Inghilterra, a Londra, nello staff del Birbeck College lavorando sulla radioattività e sviluppando la tecnologia delle camere a nebbia. Per cinque anni fu all’Istituto di Fisica di Copenhagen con Niels Bohr, dove si specializzò in fisica nucleare e dei neutroni. Insieme alla zia, Lise Meitner, fornì l’interpretazione della fissione nucleare. Nel 1943, naturalizzato britannico, si recò negli USA, dove partecipò al Progetto Manhattan. Nel 1946 tornò in Inghilterra come professore di Filosofia Naturale a Cambridge.

[2] Fritz Strassmann (1902-1980), chimico tedesco, nel 1933 si dimise dalla Società Chimica Tedesca che stava diventando parte di una corporazione pubblica controllata dal partito nazista e fu inserito nella lista nera. Meitner e Hahn gli trovarono un posto di assistente a mezzo stipendio al Kaiser Wilhelm Institute. La sua esperienza in chimica analitica fu di fondamentale importanza nell’individuazione dei prodotti della fissione nucleare. Durante il periodo nazista, insieme alla moglie nascosero nella propria casa diversi amici ebrei, mettendo a rischio le proprie vite e quella del figlioletto di tre anni. Nel 1948 divenne direttore del Max Planck Institute per la Chimica. Nominato “Giusto fra le Nazioni” dallo stato ebraico nel 1985.

[3] In un’intervista rilasciata nel 1953 alla radio della RFT, Meitner affermò:

Otto Hahn e Fritz Strassmann erano in grado di farlo [fissione nucleare] con una chimica eccezionalmente buona, una chimica fantastica… . a quel tempo, Hahn e Strassmann erano davvero gli unici a poterlo fare. E questo era perché erano chimici molto bravi. In qualche modo sono veramente riusciti a usare la chimica per dimostrare un processo fisico.                                                                                                    

Nella stessa intervista Strassman però sostiene:

Meitner ha affermato che il successo potrebbe essere attribuito alla chimica. Devo fare una piccola correzione. La chimica semplicemente isolava le singole sostanze, non le identificava esattamente. Ciò è dovuto al metodo del professor Hahn. Questo è il suo successo.

Queste frasi sono riportate in wikipedia (english): https://en.wikipedia.org/wiki/Lise_Meitner

[4] Ruth Lewin Sime (1939), americana è professore emerito di chimica fisica dell’Università di Sacramento. Esperta in storia della scienza è autrice di una dettagliata biografia di Lise Meitner: “Lise Meitner: A life in Physics”, University of California Press, 1996. Il primo capitolo si può scaricare al link: http://www.washingtonpost.com/wp-srv/style/longterm/books/chap1/lisemeitner.htm

Vite parallele.

In evidenza

Claudio Della Volpe

Non preoccupatevi, non voglio parlarvi di Plutarco e della sua opera che casomai avete studiato al liceo; anche se tutto sommato l’idea di Plutarco che le vite degli uomini potessero a volte fortemente assomigliarsi è una cosa sensata. Le Vite Parallele di Plutarco consiste di ventidue coppie di biografie, ognuna narrante la vita di un uomo greco e di uno romano.

Oggi farò una cosa simile; vi parlerò di due vite parallele di due chimici-scrittori, uno italiano, uno americano di cultura tedesca, che vissero la parte cruciale della loro vita durante la 2° guerra mondiale; entrambi si schierarono contro il fascismo e il nazismo spontaneamente, avrebbero potuto farne a meno ma lo fecero, entrambi caddero prigionieri dei tedeschi e corsero il rischio di morire vivendo drammatici avvenimenti.

Tornati dalla guerra entrambi divennero scrittori e scrissero libri divenuti famosi sulla loro esperienza, ma non solo; ed entrambi ad un certo punto si occuparono di un tema, quello dell’acqua, immaginando un’acqua “polimerica” terribilmente pericolosa che di fatto nei loro racconti distrugge la vita e il pianeta Terra.

Le loro opere sono parte della letteratura che si studia a scuola; ma in Italia l’autore è conosciuto più per le sue opere “serie”, come Se questo è un uomo o La tregua, mentre nella scuola americana l’autore che vi dico è studiato più per le sue opere (apparentemente) di fantascienza come Ghiaccio 9 (Cat’s cradle in inglese, trad. letterale “Il ripiglino” gioco dell’elastico o culla del gatto, che è un gioco che avete sicuramente fatto) o Mattatoio n. 5 (o La crociata dei Bambini (Slaughterhouse-Five; or, The Children’s Crusade: A Duty-Dance With Death, 1969)

E’ da notare che entrambi erano dichiaratamente atei ed entrambi morirono a seguito di una caduta dalle scale.

Nei medesimi anni in cui scrissero quei racconti vi fu poi un enorme interesse nella ipotizzata scoperta di un’acqua “strana” diversa, da quella normale, definita poliacqua o acqua anomala, che si rivelò una falsa scoperta, un artefatto frutto della solubilizzazione di alcuni componenti dei contenitori usati, ma la cui storia rivela molto dei modi in cui la scienza moderna si sviluppa.

E infine accenneremo a cose strane sull’acqua immaginate o supposte, vere e false.

I due chimici scrittori sono Primo Levi (Torino 1919- Torino 1987) e Kurt Vonnegut Jr.(Indianapolis 1922-New York 2007).

Probabilmente non conoscerete il secondo a meno che non vi piaccia la fantascienza, una tematica di cui si occupò anche Levi, sia pure solo in alcuni racconti (la serie di Vizio di Forma pubblicata nel 1971) , ma che fu il tema principale delle opere di Vonnegut, che è stato uno dei maggiori scrittori americani moderni ed un indiscusso leader del settore SF (Science Fiction).

Primo Levi

Kurt Vonnegut Jr.

Quella di Primo Levi è una storia che conosciamo meglio; laureato in chimica, di famiglia ebraica, ma ateo, Levi inizia a lavorare prima dell’inizio della guerra, ma poi “sale in montagna” e viene catturato da partigiano; si dichiara ebreo, viene mandato nel campo di concentramento di Auschwitz III, dove viene reclutato per la produzione della gomma sintetica; questo coinvolgimento e altri aspetti apparentemente casuali e secondari gli consentono di salvarsi la vita quando i russi nella loro avanzata liberano il campo; proprio alcune di queste circostanze fortuite ragione di vita per lui e morte per altri a lui vicini (come Alberto Dalla Volta) si imprimeranno nella sua mente e fino alla fine gli rimaranno nell’anima come un enorme fardello.

Tornato fortunosamente in Italia, scrive subito il suo primo libro (anche se le sue prime esperienze di scrittore risalgono a prima della guerra) che viene prima rifiutato e poi accettato con una condivisione sempre più larga che diventerà corale solo alla fine degli anni 50, consacrandolo scrittore a tutto tondo, con una produzione complessiva di tutto rispetto.

Farà comunque il chimico per molti anni e trarrà da questa sua attività fonte di ispirazione. Morirà in circostanze mai chiarite del tutto per una caduta dalle scale nel 1987.

Meno conosciuta la storia di Kurt Vonnegut jr., nipote di un immmigrato tedesco in USA, nato a Minneapolis, studente di biochimica a Cornell, nel 1943 decide spontaneamente di arruolarsi e diviene fante esploratore; catturato sul fronte delle Ardenne e detenuto a Dresda assistette al bombardamento della città da parte degli alleati, nel febbraio 1945, un bombardamento in cui vennero usate migliaia di bombe incendiarie e che fece decine di migliaia di vittime, ma si salvò per mero caso nascondendosi sotto il mattatoio dellla città, una grotta che gli salvò la vita e che serviva di solito per conservare la carne. Questo episodio scioccante fu poi da lui ripreso nel suo primo grande romanzo, Mattatoio n. 5 o la crociata dei bambini, un duro atto di accusa contro la guerra, ma anche un esempio di scrittura diversa dal solito e con fortissime venature fantascientifiche e satiriche.

Kurt non arrivò alla scrittura facilmente; sposato con la sua compagna di infanzia Jane Cox, di cui era profondamente innamorato, fu da lei spinto a scrivere.

In un articolo del New Yorker si narra la storia di questo rapporto così importante per lo scrittore.

in November, 1945, he wrote Jane in a fever of excitement. He had been reading the foreign affairs section of Newsweek when he realized something: “Everything that was reported by ace newsmen from the heart of Europe I found to be old stuff to me. . . . By Jesus, I was there.” That was me; I was there. That astonishing moment in “Slaughterhouse-Five” was the impetus for the entire book, first felt in 1945. His war experience was crying out to be written. He told her he was trying to remember every little thing that had happened to him. He would write about that. But one thing was clear: “I’LL NOT BE ABLE TO DO IT WITHOUT YOUR HELP.”

The next week, in a calmer mood, he articulated his new conviction. “Rich man, poor man, beggar man, thief? Doctor, Lawyer, Merchant, Chief?” he wrote, reprising his old theme. “From your loving me I’ve drawn a measure of courage that never would have come to me otherwise. You’ve given me the courage to decide to be a writer. That much of my life has been decided. Regardless of my epitaph, to be a writer will have been my personal ultimate goal.”

In realtà il suo romanzo a metà fra il fantascientifico e l’autobiografico il più famoso ed importante Mattatoio n. 5 nel 1969, fu anche l’inizio della fine del loro rapporto matrimoniale, ma rimasero sempre una coppia legata da forti sentimenti.

Il rapporto fra Vonnegut e la fantascienza è oggetto di una celebre citazione tratta da un suo romanzo, con cui Vonnegut si rivolge agli scrittori di questo genere:

« Vi amo, figli di puttana. Voi siete i soli che leggo, ormai. Voi siete i soli che parlano dei cambiamenti veramente terribili che sono in corso, voi siete i soli abbastanza pazzi per capire che la vita è un viaggio spaziale, e neppure breve: un viaggio spaziale che durerà miliardi di anni. Voi siete i soli che hanno abbastanza fegato per interessarsi veramente del futuro, per notare veramente quello che ci fanno le macchine, quello che ci fanno le guerre, quello che ci fanno le città, quello che ci fanno le idee semplici e grandi, quello che cí fanno gli equivoci tremendi, gli errori, gli incidenti e le catastrofi. Voi siete i soli abbastanza stupidi per tormentarvi al pensiero del tempo e delle distanze senza limiti, dei misteri imperituri, del fatto che stiamo decidendo proprio in questa epoca se il viaggio spaziale del prossimo miliardo di anni o giù di lì sarà il Paradiso o l’Inferno. »
(Da Dio la benedica, signor Rosewater o Le perle ai porci (1965))

(da wikipedia)

Vonnegut vinse parecchi premi letterari, si laureò in antropologia con una tesi che di fatto fu il romanzo

di cui parleremo più avanti. Fu inoltre nominato “artista dello stato di New York” per l’anno 2001-2002. In quegli anni manifestò il suo ateismo, confermando le voci che erano circolate in tal senso. Insegnò letteratura ad Harvard fu a lungo pompiere volontario e presidente della American Humanist Association (Associazione degli Umanisti Americani).

Morì il 10 aprile 2007 a seguito dei traumi cerebrali conseguenti ad una caduta in ambito domestico.

 

Entrambi questi scrittori così simili ma così diversi si sono occupati dell’acqua anomala, una scoperta avvenuta nel 1962 ad opera del ricercatore russo N. N. Fedyakin, pubblicata su una rivista russa, che era tradotta in inglese, ma di cui non sono stato capace di trovare copia in letteratura. Il lavoro fu poi continuato insieme a Derjaguin, un chimico fisico russo molto più noto, che la pubblicizzò in occidente decisamente solo dopo il 1966 con un congresso in Gran Bretagna ed un lavoro su Discussions Faraday Soc. 42, 109 (1966) e su JCIS nel 1967 ; la cosa divenne di dominio pubblico solo dal 1969 con articoli sui giornali e con articoli su molte altre riviste anche divulgative, scatenando una corsa alla ricerca ed alla emulazione fra le due grandi potenze.

Si trattava di un’acqua che condensava in una situazione particolare, in tubi capillari di quarzo e che mostrava delle proprietà molto particolari; si temeva potesse alterare stabilmente le proprietà del resto dell’acqua con cui veniva in contatto, argomento questo che arriverà in letteratura. La cosa scatenò una incredibile corsa fra i vari paesi a causa dei potenziali effetti benefici o tragici del materiale, ma fu comunque chiaro entro pochi anni che i dati erano frutto di un errore sperimentale, dovuto alla dissoluzione dei componenti del contenitore.

Fu pure pubblicato un libro (Poliacqua, ed, Il Saggiatore) da parte di uno dei più famosi studiosi dell’acqua di quel periodo F. Franks, autore del monumentale tomo sull’acqua in 7 volumi su cui ho studiato durante la mia tesi. La critica feroce di Franks scatenò una risposta altrettanto dura di Derjaguin su Nature.

La cosa interessante è che mentre la breve novella di Levi è stata scritta o almeno pubblicata nel 1971, dunque parecchio dopo che il tema era divenuto di dominio pubblico, e dunque quasi certamente è stata influenzata dagli eventi già svoltisi, (anche se l’autore scrive nella lettera a Einaudi che l’articolo di Scientific American da cui lo ha appreso è successivo al suo testo, in realtà lo precede, è del 1969 Polywater, Sci. Amer. 221, 90 (Sept., 1969); col beneficio di inventario il testo di Levi fu scritto fra il 1968 e il 1970, ma comunque già allora la notizia era circolata sui giornali), il romanzo di Vonnegut , un romanzo ampio e di argomento molto più complesso è stato pubblicato solo nel 1963, dunque quando in occidente pochissimi conoscevano la cosa e non è verosimile che Vonnegut ne fosse a conoscenza. Secondo me è una idea originale di Vonnegut, anche se la pubblicazione del romanzo è avvenuta dopo la scoperta, almeno formalmente.

Nel romanzo in realtà si parla di varie cose:

La voce narrante è John o Jonah (in inglese, sinonimo di portasfiga) è uno scrittore che ha deciso di scrivere un libro dal titolo Il giorno in cui il mondo finì, che vuole essere un resoconto su come alcuni scienziati responsabili dell’invenzione della bomba atomica trascorsero la giornata del 6 agosto 1945, appunto «il giorno in cui il mondo finì».

Le sue ricerche si concentrano su Felix Hoenikker, uno dei “padri” della bomba atomica, nonché Premio Nobel. Inizia così a rintracciare e contattare coloro che hanno conosciuto direttamente lo scienziato a partire dai figli. Il quadro che ne viene fuori è quello di un uomo interamente votato alla scienza, completamente estraneo alla vita sociale, incapace di amare la moglie Emily e di piangere la sua morte, incapace di fare da padre ai suoi tre. Da questa ricerca lo scrittore scopre anche qualcosa sull’ultima invenzione nata in risposta alle pressanti richieste di un generale della Marina americana, che gli aveva chiesto di inventare qualcosa capace di solidificare il fango. L’idea, come si viene a sapere in seguito, gli era venuta proprio il giorno dello sgancio della bomba, “giocherellando” a ripiglino con uno spago (e più precisamente quando forma la figura chiamata “cesta del gatto”, da cui il significato del titolo originale “Cat’s Cradle”). Da lì l’invenzione del “ghiaccio-nove”: un «seme», ovvero una microparticella in grado di cristallizzare e congelare istantaneamente l’acqua (portandone il punto di fusione a 114 °F, ossia 45,556°C) e potenzialmente in grado, con una reazione a catena, di propagare questa proprietà a tutta l’acqua del pianeta, con conseguenze catastrofiche. Alla morte dello scienziato i tre figli si spartiscono l’invenzione, conservando ognuno una scheggia di “ghiaccio-nove”.

(da wikipedia)

Non vi dico come continua sperando siate stimolati a leggerlo.

I titoli delle due opere hanno origini del tutto diverse; infatti quello di Levi Ottima è l’acqua, prende il titolo in prestito dal famoso incipit della Prima Olimpica di Pindaro: Ἄριστον μὲν ὕδωρ”.

Mentre il titolo del romanzo di Vonnegut, Cat’s cradle, la culla del gatto si rifà ad un giochino da ragazzi, in italiano chiamato ripiglino, a cui avete certamente giocato anche voi da ragazzi e mostrato nelle figure accluse al testo.Concluderei come conclude Franks il suo libro; scoperte sull’acqua e sulle sue presunte caratteristiche rivoluzionarie sono continue. Acque magiche se ne sono scoperte varie volte, ma l’acqua in effetti si presta, ha proprietà incredibili; per chi volesse esplorarle tutte compiutamente e con dettaglio c’è la pagina ben nota di Martin Chaplin http://www1.lsbu.ac.uk/water/

La proprietà che mi intriga di più è il fatto che l’acqua (come molte altre molecole) è una miscela di isomeri di spin nucleare, NSIM, in sigla; il caso più famoso è l’idrogeno, ma l’acqua è l’altra molecola famosa e semplice di cui si è ottenuta la separazione dei due isomeri di spin; orto-acqua e para-acqua, l’acqua è insospettabilmente una miscela non solo di due quasi-fasi, strutturata/non strutturata come insegnava Franks decenni fa ma proprio di due diverse molecole, con reattività diversa, ma interconvertibili fra loro. L’argomento si presterebbe a scrivere un altro post e dato che sono stato già abbastanza lungo mi fermo qua e ne riparlerò appena possibile.

da Angew. Chem. Int. Ed. 2014, 53, 1 – 5

Riferimenti.

-An Annotated Bibliography for Anomalous Water

LELAND C. ALLEN Journal of Colloid and Interface Science, VoL 36, No. 4, August 197 p. 554

– F. Franks Poliacqua Il saggiatore 1983 tradotto da Polywater MIT press 1981

– B. Derjaguin Nature 1983 Polywater rewieved, v. 301 p.9-10

https://www.reuters.com/article/us-vonnegut/kurt-vonnegut-dead-at-84-idUSN1126991620070412

https://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&ved=0ahUKEwipndGsurnXAhXjHJoKHXeUAccQFggpMAA&url=http%3A%2F%2Fwww.physi.uni-heidelberg.de%2FForschung%2FANP%2FCascade%2FTeaching%2FFiles%2FPolywater.pptx&usg=AOvVaw0YPjui-hslUjnGrMZTkq7P

Ghiaccio 9 – Urania 1383 – K. Vonnegut trad da Cat’s cradle, 1963 in inglese, prima edizione italiana 1994   https://en.wikipedia.org/wiki/Cat’s_cradle

Mattatoio n. 5 – Kurt Vonnegut, Slaughterhouse-Five; – or, The Children’s Crusade: – A Duty-Dance With Death, Delacorte Press, 1969, pp. 186.

Oppure Kurt Vonnegut, Mattatoio n. 5, o la crociata dei bambini : danza obbligata con la morte, Scrittori italiani e stranieri, Mondadori, 1970, pp. 205,

Ottima è l’acqua – P. Levi in Opere complete vol. 2 pag. 733 – ed. Repubblica l’Espresso

  1. N. Fedyakin, Change in the Struc- ture of Water During Condensation in Capillaries, Kollo~d. Zh. 9.4, 497 (1962). Translation: Colloid J. USSR (English Transl.) 24, 425.
  2. B. V. Derjaguin and N. N. Fedyakin, Special Properties and Viscosity of Liquids Condensed in Capillaries, Dold. Akad. Nauk SSSR 47, 403 (1962). Translation: Dokl. Phys. Chem., Proe. Aead. Sd. USSR 147, 808.
  3. V. Derjaguin, Effect of Lyophile Surfaces on the Properties of Boundary Liquid Films, Discussions Faraday Soc. 42, 109 (1966).
  4. V. Derjaguin, N. N. Fedyakin, and M. V. Talayev, Concerning the Modified State and Structural PoIymorphism of Liquids Condensed from Their Under- saturated Vapors in Quartz Capillaries, J. Colloid. Interface Sei. 24, 132 (1967).

Poliacqua e altre storie.

In evidenza

Mauro Icardi.

Il racconto di Primo Levi intitolato “Ottima è l’acqua” è quello che chiude il volume di racconti fantascientifici “Vizio di forma”, la cui prima edizione risale al 1971.

Nel 1987 uscì la seconda edizione nella quale fu anteposta la “Lettera 1987” di Primo Levi all’editore Einaudi. In questa lettera l’autore esprime alcune considerazioni, ed il proprio punto di vista sui racconti scritti quindici anni prima. Il libro risente delle atmosfere dei primi anni 70, e Levi fa riferimento anche al “Medioevo prossimo venturo” di Roberto Vacca quale fonte di ispirazione. Nella parte conclusiva di questa lettera si sofferma proprio sul racconto “Ottima e l’acqua.” L’invenzione narrativa parte dalla scoperta fatta da un chimico, Boero, che si accorge dell’aumento della viscosità dell’acqua. Prima eseguendo misure sull’acqua distillata del laboratorio dove lavora, e notando lievi scostamenti. Poi accorgendosi durante una passeggiata in campagna che il torrente che sta osservando sembra scorrere più lentamente. Prelevato un campione di acqua verificherà che anche l’acqua di quel torrente, e in seguito di vari corsi d’acqua italiani ed europei è molto più viscosa del normale. Le conseguenze immaginate sono catastrofiche. Difficoltà di nutrimento per le piante, impaludamenti dei fiumi, ispessimento del sangue degli esseri umani, con conseguenti problemi di tipo cardiocircolatorio, e morti premature.

Levi ricorda come dopo la pubblicazione del suo libro la rivista “Scientific American” riportò la notizia della scoperta di un’ acqua simile a quella del racconto. Ecco la parte in cui ne parla.

Quanto a “Ottima è l’acqua”, poco dopo la sua pubblicazione lo “Scientific American ha riportato la notizia, di fonte sovietica, di una “poliacqua” viscosa e tossica simile per molti versi a quella da me anticipata: per fortuna di tutti le esperienze relative si sono dimostrate non riproducibili e tutto è finito in fumo. Mi lusinga il pensiero che questa mia lugubre invenzione abbia avuto un effetto retroattivo ed apotropaico. Si rassicuri quindi il lettore: l’acqua , magari inquinata non diverrà mai viscosa, e tutti i mari conserveranno le loro onde

In effetti la storia della poliacqua è estremamente singolare. Inizia nel 1962 quando su una rivista Sovietica, il Kolloid Zurnal pubblica un articolo nel quale il Fisico Nikolaj Fedjakin sostiene di aver scoperto un nuovo stato strutturale dell’acqua durante la condensazione in capillari. Successivamente il direttore dell’Istituto di Chimica-Fisica di mosca Boris Derjagin venuto a conoscenza di questi esperimenti li ripete con capillari in quarzo. Nel 1966 la notizia della scoperta di questo tipo di acqua esce dai confini dell’URSS per arrivare in Inghilterra in un convegno tenutosi a Nottingham. Nel 1970 però già si comincia a pensare che una struttura maggiormente viscosa dell’acqua sia dovuta a semplice contaminazione. L’articolo esce su “Science” nel 1970. Il titolo è “Poliwater: Polimer or artifact?”

Sarà un articolo che sarà molto contestato e criticato dalla comunità scientifica del tempo, che evidentemente era molto attratta da questa possibilità.

In altre parole si trattava di acqua sporca, o fortemente carica di sali. Niente di più di questo. La poliacqua non esisteva. E un articolo uscito su Nature nel 1971 mise del tutto fine alla vicenda in questione. Nature dovette ricredersi, visto che prima aveva considerato la chimerica poliacqua come “la sostanza più pericolosa esistente sulla terra, da trattare con la massima cautela

Ne da conto anche il quotidiano torinese “La Stampa” nel nella pagina delle cronache dall’estero del 10 Ottobre 1969.

Individuata la sostanza più micidiale del mondo E’ la « poliacqua » e porrebbe distruggere ogni forma di vita (Nostro servizio particolare)

Londra, 10 ottobre. Una sostanza artificiale, che esiste in minuscole quantità, potrebbe distruggere ogni forma di vita sulla Terra. Lo afferma il professore americano F. J. Donahoe, in una lettera pubblicata dalla rivista scientifica inglese Nature. La sostanza si chiama « poliacqua » (Polywater) ed è conservata in alcuni laboratori scientifici della Gran Bretagna, dell’Urss e degli Usa. Il professor Donahoe scrive che se questa sostanza, inventata dai sovietici nel 1962, fosse mescolata all’acqua normale e si auto-generasse in grandi quantità, la Terra si trasformerebbe in un pianeta morto e infuocato come Venere. « Sino a che non si saranno accertate le sue esatte caratteristiche », ha, aggiunto lo studioso americano, « la “poliacqua” dovrebbe essere attentamente conservata. E’ la sostanza più pericolosa che io conosca ». Un portavoce della rivista Nature ha dichiarato di ritenere estremamente improbabile che la « poliacqua » possa autogenerarsi, ma che «esiste una possibilità infinitesimamente piccola che ciò possa accadere».

(Brano tratto da Archivio Storico La Stampa)

L’abbaglio si potrebbe spiegare in molti modi. Prima di tutto l’importanza che l’acqua riveste per i fenomeni vitali. L’idea quindi che un’acqua per così dire aliena potesse in qualche modo contaminare la normale acqua liquida, probabilmente inquietò i ricercatori. Una delle ipotesi che vennero formulate fu quella che l’acqua comune fosse una forma metastabile dell’acqua, e che potesse quindi subire la trasformazione in poliacqua. E anche in questo caso si teorizzò quanto poi si è visto successivamente: cioè che l’acqua avesse una sorta di memoria ancestrale del suo stato di poliacqua, propagando tale stato alle molecole di acqua liquida adiacenti. In sostanza quanto appunto immaginato nel racconto di Primo Levi.

Una commemorazione.

In evidenza

Si commemorano in questi giorni i 70 anni della pubblicazione di Se questo è un uomo; il testo di Levi, scritto fra la metà del 1945 e il gennaio 1947 fu rifiutato due volte da Einaudi, a causa della valutazione negativa della Ginzburg e di Pavese, secondo i quali c’erano già troppe testimonianze sui campi di concentramento.

Il testo fu dunque pubblicato da de Silva, una piccola casa editrice, nell’autunno 1947 e fu solo oltre 10 anni dopo che Einaudi lo pubblicò negli Struzzi.

Anche noi facciamo una piccola commemorazione; par nostra.

Luigi Campanella, già Presidente SCI.

Sono fra coloro che hanno appreso con dolore la notizia del passaggio de La Chimica e l’Industria dall’edizione cartacea a quella solo on line. Ritengo che l’informatizzazione contribuisca moltissimo alla migliore organizzazione della nostra società, ma penso anche che un bel testo cartaceo da potere sfogliare fisicamente sia più godibile e più stimolante. Molti si chiederanno cosa c’entri questo discorso con Primo Levi a cui è dedicato questo mio breve articolo.

La ragione è questa: rileggendo i cartacei del giornale della SCI ho avuto la possibilità di imbattermi in una lettera di Primo Levi al Direttore della Chimica e l’Industria e così di conoscere  su una figura così maestosa ancora di più, cose che prima non conoscevo e che forse non avrei mai saputo se non avessi avuto disponibile proprio quella raccolta cartacea.

La lettera è del novembre 1947 ed è scritta da un Primo Levi ventisettenne. Il chimico, scrittore, scultore ci parla del complesso industriale che i tedeschi realizzarono  nell’area di Auschwitz, 40 Km ad ovest di Cracovia, con il fine di produrre gomma sintetica a partire dal carbone.attraverso la cokificazione, il carburo di calcio, l’acetilene, il butadiene ed il processo di polimerizzazione per emulsionamento. Nella lettera c’è il tentativo di correlare la capacità produttiva agli spazi occupati dalla fabbrica ed alla natura delle materie prime utilizzate nonchè all’organizzazione aziendale ai fini della soluzione del problema “sociale” della sistemazione della mano d’opera in campi di concentramento disposti a corona attigui al cantiere. I bombardamenti alleati sulla fabbrica ne preclusero qualsiasi produzione fino alla presa in carico da parte dei russi che vollero esaltare nel ciclo produttivo restaurato gli aspetti analitici di controllo delle materie prime e dei prodotti finiti. Eravamo nel 1945, ma in tutto ciò ritroviamo i cardini delle strategie industriali moderne a conferma che Primo Levi fu un chimico che pensava con le mani, forse una dote che oggi con la robotizzazione ed automazione di molte attività si è persa.

La stessa dote che consentì a Primo Levi di inventare e sperimentare vernici nuove e di riutilizzare gli scarti delle produzioni per realizzare sculture  di filo di rame intrecciato: Arte e Scienza pure dopo un dramma incommensurabile come quello delle stragi naziste,a conferma del ruolo rigenerante della cultura.

 

Voi che vivete sicuri
nelle vostre tiepide case,
voi che trovate tornando a sera
il cibo caldo e visi amici:
considerate se questo è un uomo,
che lavora nel fango,
che non conosce pace,
che lotta per mezzo pane,
che muore per un sì o per un no…

(Primo Levi, primi versi della poesia Shemà epigrafe in Se questo è un uomo)

 Riferimenti:

http://www.cid-torviscosa.it/attivita/news/il-lager-di-buna-monowitz-nella-descrizione-di-primo-levi-in-una-lettera-dimenticata-alla-rivista-la-chimica-e-lindustria-del-1947/

L’Arte nei Musei di Scienza.

In evidenza

Luigi Campanella, già Presidente SCI

Il concetto di arte non riguarda solo il campo delle arti applicate ma può essere riferito anche ad una poesia,ad uno spartito musicale o anche ad un oggetto utilizzato nel campo scientifico, oggetti didattici e artistici al tempo stesso che rappresentano un patrimonio storico-artistico e scientifico inestimabile; simboli dell’evoluzione scientifica legati ad un concetto di bellezza durevole nel tempo, punto di incontro fra Arte e Scienza, gli strumenti scientifici sono stati oggetto di interesse dei più grandi collezionisti a partire dal secolo XVI fino al XVIII, esposti all’interno delle Wunderkammer per la loro bellezza e raffinatezza di lavorazione, esprimevano il gusto e gli interessi scientifico-culturali dell’aristocrazia del tempo.

Inizialmente non venivano neanche utilizzati in campo scientifico perché considerati imperfetti e non in grado di rispondere alle teorie che avevano determinato la loro nascita, per cui era considerato maggiormente l’aspetto estetico che rappresentava il vanto e la grande maestria artigianale degli artisti a cui venivano commissionati tali oggetti.

Questi oggetti servivano alle misure relative alle scienze esatte: geometria, astronometria, geografia, cronometria ed alle varie branche della fisica;oggi gli stessi strumenti,a parte le dimensioni,sono costruiti con spirito puramente utilitario ed applicativo..

Ma una volta non era così. Molti scienziati al servizio di corti principesche ritenevano di dover fare costruire oggetti degni dello splendore dei loro mecenati e ne affidavano l’esecuzione ad artigiani di grande valore, essi stessi sovvenzionati dal signore del luogo.

Nascevano così quei compassi d’argento dorato, quegli astrolabi cesellati e incisi il cui lusso è ancora oggi apprezzato e fonte di grande sorpresa.

E’ evidente che la loro funzionalità doveva prevalere sull’ aspetto puramente decorativo che doveva invece essere inteso soltanto come abbellimento,comunque studiato in modo di non impacciare mai l’operatore.

La forma dell’oggetto così come ci si presenta non è mai casuale ma deve seguire una serie di regole imposte dalla funzionalità dell’oggetto stesso, che da principio sembra essere lontano da un concetto di bellezza; lo studio della strumentazione scientifica in realtà contiene in sé un forte fascino estetico ma è anche simbolo dell’evoluzione umana.

La storia della produzione scientifica, in particolar modo in Italia è sempre stata ostacolata dalla mancanza di cultura scientifica e tranne in rari casi, gli oggetti creati sono stati di scarso rilievo.

Gilberto Govi Fisico (1826 – 1889)

Un quadro più accurato ci è presentato dal Govi nel 1873 in una magistrale relazione sugli strumenti scientifici, in cui egli mostra la necessità di iniziare anche nell’Italia rinnovellata le industrie di precisione.

“..l’industria degli strumenti di precisione o scientifici non si mostra né si fa importante se non nei luoghi dove le scienze pure o applicate si coltivano con amore, sono apprezzate dal pubblico, onorate e favorite dal governo. Così a

Venezia e Genova dove il commercio alimentava gli studi della Nautica si cominciarono a costruire le migliori bussole, i buoni astrolabi e le carte da navigare ed ancora ai tempi di Galilei si imposero buoni lavoratori di lenti e cannocchiali.In Germania invece gli orologi, necessari a gente divenuta economa del tempo, si fecero squisitamente in Allemagna e furono perfezionati nell’Olanda navigatrice; poi in Inghilterra divenuta a sua volta la prima nazione navigatrice si imposero ottimi strumenti per l’astronomia, e,dietro la spinta dal genio e dalla reputazione del Newton, si lavorarono prismi, cannocchiali, telescopi a riflessione, termometri, barometri, macchine pneumatiche, microscopi, ecc. che per molti anni non ebbero rivali.

Il Colbert fondando l’Academie des Sciences fece sorgere in Francia l’ndustria di precisione, che toccò il suo apogeo nella prima metà del XX secolo nelle officine del Gambey, del Lenoir, del Fortin, del Cauchoix, del Soleil, ecc., quando in Parigi sedeva una pleiade di illustri scienziati, e alle intemperanze guerresche era succeduto un periodo di pace operosa e feconda.

Nell’Italia intanto, esauritisi quegli antichi conati di Genova e di Venezia, e l’eccitamento momentaneo destato in Roma dal Cesi coi Lincei, e in Firenze dal Granduca Ferdinando e dal principe Leopoldo con l’Accademia del Cimento non si stabilì mai una vera industria di precisione.

Si fecero sforzi individuali, talvolta meravigliosi, si ebbe ingegnosità somma e fecondità nell’ideare strumenti, ma, non essendo abbastanza diffusa, né sufficientemente incoraggiata a cultura delle scienze, le officine dei costruttori non trovarono capitali per fondarsi e non sorsero, o morirono sul nascere,purtroppo specialmente in Italia..

L’Amici fu nella prima metà di questo secolo il più insigne fra i costruttori di microscopi e di camere lucide, ma neppure esso instituì una vera industria, non avendo mai avuto più di tre o quattro operai in ristrettissimo laboratorio, così mal fornito degli arnesi necessari al lavoro, che le sue combinazioni di lenti, comprate avidamente dai Francesi, dagli Inglesi e dai Tedeschi, venivano rimontate da loro su nuovi strumenti, lavorati con quella finitezza che l’illustre micrografo non poteva conseguire nella sua modesta officina.

I termometri e le altre vetrerie soffiate dal canonico Bellani erano saliti in qualche reputazione fra noi, perché non avevano chi facesse meglio di lui, ma nessuno, se non forse qualche curioso, ne esportò mai, né se ne fece un ramo di commercio.

I compassi di fabbrica milanese o padovana, quantunque ben lavorati, per il peso eccessivo non poterono mai competere vittoriosamente con quelli di Francia o di Svizzera, altrettanto precisi ma più leggeri e quindi più comodi tanto che l’officina Galilei di Firenze, fondata e diretta per alcun tempo dal compianto prof. Donati, dopo alcuni tentativi di costruzione di qualche strumento ottico, finì per lavorare specialmente a contatori e apparecchi pei telegrafi.

In Italia non sono mai nate fabbriche d’orologi, malgrado la fama del Dondi autore di un antichissimo planetario, e se ne ebbe la Savoia, dove prosperano ancora, li perdemmo nel 1859 quando fu ceduta quella terra alla Francia.

“Per gli strumenti chirurgici invece, hanno anche gli italiani alcune officine nelle quali si lavorano industrialmente, e dalle quali si esportano con qualche profitto”.

Queste le parole del Gori che ci indicano la situazione in cui si trovavano ad operare i costruttori degli strumenti scientifici in Italia e all’estero.

I primi campioni-tipo di lunghezza furono creati rapportandosi alle membra umane: l’auna, che serve a misurare i tessuti, ripete il gesto del merciaio ed ha, secondo i paesi, o la lunghezza del braccio o quella delle due braccia distese; il gomito va dal gomito all’estremità del dito medio, e così via.

Tra tutte queste unità il piede fu il più universalmente usato, e lo è ancora: il sistema più rapido e semplice per misurare le brevi distanze è, difatti, quello di percorrerle mettendo un piede dopo l’altro proprio come suggeriva il sistema di campionatura descritto nel 1522 dal geometra tedesco Jacob Koebel.

La Cina, mille anni prima dell’era volgare, l’applicava anch’essa, fissando la lunghezza del piede a mille grani di miglio.

Nella maggior parte dei paesi, veniva fissata una sbarra-campione ufficiale di bronzo, incastrata nel muro di un monumento o deposta in un edificio pubblico.

In agrimensura ci si serviva dei multipli del piede: la tesa e la pertica.

Le aree ed il volume erano calcolati in rapporto a questi campioni-tipo.

Per le capacità, che riguardavano recipienti di forma imprecisa, ci si serviva di forme cilindriche di pietra.

Alcune di esse sono ancora visibili presso la porta di certe chiese; a volte invece, i campioni-tipo erano di bronzo, conservati negli archivi delle città.

Esistevano anche dei boccali per misurare il vino e la birra e della moggia per il grano.

Per il peso si facevano, infine, dei campioni-tipo di bronzo, di pietra e persino di vetro: campioni-tipo che hanno preceduto quelli di platino(es. le pile di Carlo Magno, scodellini di bronzo incastrati l’uno nell’altro, le cui somme successive costituiscono una scala che va da pochi grammi a parecchi chilogrammi).

Il Museo della Bilancia a Campogalliano (Mo).

Lo strumento analitico più popolare sia per la frequenza d’uso sia per avere legato la sua funzione a quella di un settore. la gravimetria,il primo cronologicamente dell’analisi chimica sia per la ricchezza di esemplari esposti nei Musei è certamente la bilancia. Per quanto riguarda le bilance commerciali, la cui capacità va da qualche grammo a parecchi quintali, esse venivano decorate con particolare cura nei casi in cui la loro destinazione avesse un carattere ufficiale. La perfezione della loro esecuzione è particolarmente apprezzabile in un’epoca in cui i materiali erano ancora abbastanza rustici: certe bilance da gioielliere, vecchie di più di tre secoli, sono ancora funzionanti.

Concludendo :quando si parla di Arte e Scienza si cerca di ricomporre un’unione che proprio i Musei con la loro molteplice caratterizzazione ufficiale avevano messo in discussione,senza rendersi conto forse che nei Musei Scientifici c’è Arte come in quelli Artistici c’è Scienza

Note sull’Antropocene.3. Gli scenari.parte prima.

In evidenza

Claudio Della Volpe

Nei tre precedenti post sul tema dell’Antropocene (pubblicati qui, qui e qui) abbiamo presentato la storia di questo concetto e le quattro ipotesi principali sull’origine temporale dell’Antropocene; in questo post invece (ed in altri successivi) presenteremo le ipotesi sui possibili scenari futuri, come li vede oggi la cultura umana nelle sue varie accezioni.

Parliamo di scenari ovviamente perchè nessuno ha la capacità di prevedere il futuro; il sistema Terra è una struttura complessa e lontana dall’equilibrio, ricca di retroazioni e il suo comportamento fortemente non lineare non prevede al momento “equazioni sintetiche”.

Alcuni degli scenari che descriveremo sono frutto della discussione fra scienziati, altri ancora della letteratura; l’Antropocene e il futuro dell’umanità e della biosfera sono di fatto stati già oggetto di analisi nei decenni passati e ancor più lo saranno prossimamente. Alcuni temi sono stati oggetto di modellazione matematica e numerica, come il clima, altri invece sono stati analizzati da quella sorta di modellazione analogica costituita dall’immaginazione umana e dalla letteratura, per esempio dalla parte più nobile della fantascienza.

E’ chiaro inoltre che l’argomento è talmente caldo e ci riguarda tanto da vicino che nessuna “freddezza” scientifica è possibile; l’Antropocene è la nostra interazione con il resto della biosfera dopotutto e la sua evoluzione dipende da noi e dai limiti della biosfera medesima.

Scenario Fermi. Cominciamo con l’opzione peggiore che potremmo chiamare scenario Fermi. Il paradosso di Fermi (https://en.wikipedia.org/wiki/Fermi_paradox and https://www.osti.gov/accomplishments/documents/fullText/ACC0055.pdf)

In sostanza durante una discussione informale tenuta con altri colleghi a Los Alamos nel 1951 Enrico Fermi si chiese “Dove sono tutti quanti?”, ponendo il problema, il paradosso fra la probabilità giudicata in genere elevata della vita su altri pianeti e il fatto che nessun visitatore alieno ci sia finora chiaramente apparso. Una possibile e radicale soluzione a questo paradosso è che l’intelligenza capace di sviluppare tecnologia corrisponda ad una elevata instabilità sociale e che dunque le società di questo genere si autodistruggano, per cui nella galassia ci siano o ci siano state ma siano destinate a scomparire, l’intelligenza potrebbe essere un vicolo cieco dell’evoluzione, almeno nelle forma in cui si manifesta con noi: un primate sociale dotato di strumenti exosomatici ed in grado di accumulare risorse ritardando l’effetto delle retroazioni ambientali sarebbe una specie instabile, destinata a scomparire.

Dopo tutto alla fine la seconda legge si esprimerà ed avrà come effetto inevitabile la distruzione del sistema sociale; è un pò anche il cosiddetto “pessimismo entropico” di Nicolau Georgescu Roegen nelle sue varie accezioni (l’idea di base è che materia ed energia entrano nel processo economico con un grado di entropia relativamente bassa e ne escono con un’entropia più alta): potrebbe essere semplicemente il risultato inevitabile del conflitto fra la visione temporale lineare e a breve termine dell’uomo ed il comportamento esponenziale di molte sue creazioni (se un’alga raddoppia ogni giorno e in 30 giorni riempirebbe lo stagno che la ospita, in quale giorno ne riempirà “solo” la metà? Nel 29esimo.), o ancora la legge dei ritorni decrescenti: se una struttura come la nostra società cresce di complessità inevitabilmente la sua efficienza diminuisce ed essa va incontro a crisi crescenti dovute al ritardo nei suoi tempi di reazione, all’inevitabile effetto della costante di retroazione, un criterio invocato per spiegare molti crolli storici, a partire dall’impero Romano.

Georgescu Roegen era stato allievo di Schumpeter, che pure attribuendo il costante sconvolgimento dell’economia capitalitica alla cosiddetta “creazione distruttiva” con molti aspetti positivi, riteneva il processo sostanzialmente instabile e insostenibile sul lungo periodo.

Scenario Dyson. La risposta al pessimismo entropico è la visione della sfera di Dyson.

Nel suo articolo Search for Artificial Stellar Sources of Infrared Radiation (“Ricerca di sorgenti stellari artificiali di radiazione infrarossa”), pubblicato sulla rivista Science (Science, vol. 131, pp. 1667–1668, 1959), Dyson teorizzò che delle società tecnologicamente avanzate avrebbero potuto circondare completamente la propria stella natia per poter massimizzare la cattura di energia proveniente dall’astro. Rinchiusa così la stella, sarebbe possibile intercettare tutte le lunghezze d’onda del visibile per inviarle verso l’interno, mentre tutta la radiazione non utilizzata verrebbe mandata all’esterno sotto forma di radiazione infrarossa. (Da ciò consegue che un possibile metodo per cercare civiltà extraterrestri potrebbe essere proprio la ricerca di grandi fonti di emissione infrarossa nello spettro elettromagnetico.)

Una sfera di Dyson è una sfera di origine artificiale e di raggio pari a quello di un’orbita planetaria. La sfera consisterebbe di un guscio continuo o di una serie di elementi posti attorno alla stella. Questo, oltre ad essere un modo per raccogliere un’enorme quantità di energia, permetterebbe di creare uno spazio vitale immenso.

Non entro nel merito dei problemi tecnici riguardanti la costruzione della sfera, mi tengo a livello generale di punto di vista: è il punto di vista di chi accetta la sfida del’Antropocene e pensa di poterla risolvere con i medesimi strumenti di gigantismo e di dominio tecnologico con i quali siamo arrivati fin qui.

Ci sono dei problemi. Per esempio la materia dell’intero sistema solare non basterebbe a costruire un guscio di questo tipo sufficientemente spesso e servirebbe usare materia da altri sistemi solari.

Un altro potrebbe essere quello dell’energia. Tom Murphy prof. associato di fisica alla University of California, San Diego che dirige un progetto sulla verifica della relatività usando gli specchi che l’Apollo lasciò sulla Luna, ipotizza sulla sua pagina web Dothemath che l’umanità continui ad crescere nel consumo energetico allo stesso ritmo usato negli USA fra il 1650 ed oggi (350 anni) che corrisponde a circa il 3% all’anno di incremento, dunque moltiplicare ogni volta per 1.03. Ebbene si arriva alla conclusione che in circa 2 millenni e mezzo la richiesta energetica sarebbe corrispondente a quella ottenibile per emissione radiativa dalle stelle dell’intera galassia conosciuta.( https://dothemath.ucsd.edu/tom-murphy-profile/), insomma la crescita continua non ha senso storico., è contraddittoria e impossibile.

Sono i problemi della crescita esponenziale, contrapposta ad una visione lineare del mondo.

Ma è chiaro che lo scenario Dyson non è interessante per se ma perchè esprime una logica che si può attuare certamente nel mondo moderno continuando a modificarlo potentemente e in ottica esclusivamente umana: in sostanza è la visione della geoingegneria che potrebbe essere una risposta alla crisi climatica innescata dal consumo dei combustibili fossili.

Cosa dicono infatti gli economisti o le grandi corporation del fossile?

Considerate che una certa coscienza del problema climatico si fa strada anche nei palazzi dei ricchi: chi ha votato Trump oggi si costruisce l’equivalente climatico del rifugio antiatomico, la fondazione Rockfeller abbandona i fossili, la Shell molla l’Iraq. Io speriamo che me la cavo, ma senza cambiare nulla di sostanziale.

Ufficialmente le grandi istituzioni politiche mondiali (UE in testa) hanno sposato la riduzione dei consumi fossili, ma l’accordo di Parigi non è vincolante e dato che di buone intenzioni è lastricata la via dell’inferno, le cose potrebbero mettersi male.

E’ interessante l’analisi di un lavoro(1) pubblicato da un famoso chimico fin dal 1970 membro del medesimo MIT che produsse Limits to growth, (tradotto erroneamente I limiti dello sviluppo invece che i limiti della crescita) e divenuto nel tempo parte dell’entourage presidenziale democratico. John Deutch analizza in dettaglio la posizione di Obama, espressione della parte del capitalismo americano favorevole all’accordo di Parigi. Usando la cosiddetta equazione di Kaya, una relazione semplice, considerata da alcuni una vera e propria tautologia, correla produzione economica e energia, con una sorta di funzione della produzione che contenga una variabile energetica e conclude che :

The Kaya decomposition shows that the extent of ‘‘decoupling’’ economic growth and emissions depends entirely on reductions in energy and carbon intensity. The downward trend in both these quantities is welcome and likely it is ‘‘irreversible.’’ But the decline is insufficient to avoid significant average global temperature increase in the second half of this century. It is misleading to suggest that, while this trend may create jobs and benefit the United States, it will successfully avoid the risks of climate change.

Dunque le energie rinnovabili non bastano secondo Deutch a salvare capra e cavoli ossia crescita e clima.

This nation and the world seek insurance against the catastrophic risks of climate change. It is difficult to be optimistic that mitigation on its own will protect the globe from the consequences of climate change. The United States and the world must urgently turn to learning how to adapt to climate change and to explore the more radical pathway of geoengineering.

In sostanza i migliori esperti tecno-economici del sistema attuale considerano poco credibile la soluzione 3R (ossia rinnovabili, riciclo, riuso) dei problemi del clima (e aggiungo io delle risorse), perchè non prendono nemmeno in considerazione l’idea della stabilizzazione dell’economia (d’altronde impossibile SENZA cambiare il modo di produrre attuale, per il quale l’accumulazione e dunque la crescita è l’unico modo di esistere). Essi introducono una variabile tecnologica tenuta finora in sordina: la geoingegneria o ingegneria climatica. Questa ipotesi è stata considerata dai grandi pensatoi tecnici(2-4), con la conclusione che non ci sono certezze sufficienti per attuarla: troppi rischi per entrambe le opzioni in campo: sia nel ridurre il flusso radiativo che nel riassorbire la CO2. Ma nonostante la mancanza di certezze il mondo economico ci vede una via d’uscita perché non crede al modello delle 3R, che bloccherebbe la crescita, e guarda alla geoingegneria nonostante i rischi.

Il terzo scenario potrei definirlo lo scenario Balzani. Alcuni intellettuali fra i quali alcuni membri della redazione di questo blog pensano che solo andando verso una produzione basata su energie rinnovabili, su riciclo dei materiali e riuso degli oggetti, ma anche sulla redistribuzione della ricchezza, sulla stabilità della popolazione e la riduzione della giornata lavorativa, si può forse uscire dall’impasse attuale.

Sviluppo senza crescita, che corrisponde ad abbandonare la via del capitalismo di accumulazione, che ha dominato gli ultimi secoli per una industria che in antinomia con i progetti attuali basati sulla sola robotizzazione definiremmo: 5.0 e ne parleremo nel prossimo post.

(continua)

(1) John Deutch, Decoupling Economic Growth and Carbon Emissions, Joule 1, 3–9, 2017

(2) Lenton, T.M.; Vaughan, N.E“The radiative forcing potential of different climate geoengineering options”. Atmospheric Chemistry and Physics. 9 (15): 5539–5561, . (2009).

(3)IPCC AR5 WG1, pp. 575, 632

(4) http://www8.nationalacademies.org/onpinews/newsitem.aspx?RecordID=02102015

Scienziate che avrebbero dovuto vincere il Premio Nobel: Ida Noddack (1896-1978)

In evidenza

Rinaldo Cervellati

È il titolo di un articolo insolitamente lungo per gli standard di Chemistry & Engineering News che sostanzialmente riporta l’intervento di Magdolna Hargittai alla riunione dell’American Chemical Society tenutasi a Washington lo scorso mese di agosto. Hargittai, autrice del libro Women Scientists (Oxford University Press, Oxford, 2015) osserva che dalla sua istituzione nel 1901 a oggi sono solo 17 le donne cui è stato assegnato il Nobel per fisica, chimica e medicina. In particolare, per quanto riguarda la chimica sono 4 su 175 le donne che l’hanno ricevuto: Maria Curie (l’unica persona a vincere anche quello per la fisica), Irène Joliot-Curie, Dorothy Crowfoot Hodgkin e Ada E. Yonath.

Questo fatto non è una novità, ricordo in particolare l’ottima esposizione “Nobel Negati alle Donne di Scienza”, tenutasi a Palazzo Alberti di Rovereto dal 24 novembre 2010 al 13 marzo 2011

http://www.museocivico.rovereto.tn.it/UploadDocs/3370_NOBEL_NEGATI.pdf

patrocinata anche dall’Università di Trento.

Anche se non tutti sono d’accordo sui nomi delle scienziate che avrebbero dovuto vincere il Nobel resta il fatto che solo il 3% delle persone cui è stato assegnato sono donne. Molti ritengono che nella scienza molte importanti scoperte siano state fatte da donne che avrebbero potuto vincere il Premio Nobel. Nel libro “European Women in Chemistry” (Wiley-WCH, 2011) sono riportate le biografie di più di 50 scienziate europee che avrebbero dovuto o potuto ricevere il Premio Nobel per la chimica. Mi sembra doveroso ricordare alcune di queste protagoniste.

In questo post inizierò con Ida Noddack anche perché criticò una “scoperta” di Fermi.

Ida Tacke Noddack nasce nel febbraio 1896, terza figlia di un fabbricante di vernici, a Wesel in Renania. A 16 anni è accettata al Ginnasio S. Orsola di Aquisgrana, dopo aver superato l’esame finale è ammessa alla facoltà di chimica del Politecnico di Berlino, dove consegue prima il diploma (1919), poi il dottorato (1921) discutendo una tesi sulle anidridi e gli acidi grassi ad alto peso molecolare. Continua questa ricerca nelle industrie AEG e Siemens&Halske, è la prima donna impegnata in ricerche industriali.

Ida Noddack

Durante questo lavoro si specializza in spettrografia a raggi X; la determinazione di elementi in tracce, della loro origine e abbondanza in natura, sono i suoi principali campi di interesse.

Ottiene ottimi risultati nell’analisi quantitativa di elementi in minerali e rocce definendo nuovi metodi di separazione e arricchimento.

Nel 1922 ottiene un posto di visiting scientist nel prestigioso Istituto Fisico-Tecnico di Berlino, dove il direttore del laboratorio di chimica è il Dr. Walter Noddack. Con lui inizia la sua ricerca sugli elementi nelle caselle che rimanevano ancora vuote nella Tavola Periodica. In particolare sugli elementi 43 e 75, sopra e sotto il manganese, dei quali forniscono previsioni precise di massa, punti di fusione, colori e forme cristalline nonché proprietà chimiche.

Dopo vari tentativi falliti, Ida utilizzando un nuovo spettrometro a raggi X della Siemens&Halsk riuscì, insieme a Otto Berg, a identificare le righe spettrali caratteristiche di due nuovi elementi nei minerali coulombite, gadolinite e molibdenite [1]. Essi chiamarono renio l’elemento 75 (dal nome della regione di provenienza di Ida) e masurio (dal nome masuria, regione di provenienza di Walter) l’elemento 43, la scoperta fu comunicata a diversi congressi e presto arrivò anche alla stampa. Il nome masurio fu criticato perché troppo patriottico (la Masuria è stata sempre contesa da tedeschi e polacchi), inoltre lo spettro del presunto masurio non risultò riproducibile e quindi non attribuito[1].

Il renio fu poi definitivamente confermato nel 1928 quando, partendo da 660 kg di molibdenite, i due scienziati ottennero 1 g di renio [2].

Campioni di renio

Durante questo periodo Ida Tacke e Walter Noddack si sposarono continuando la collaborazione professionale, pubblicando insieme più di 100 articoli scientifici. Ida e Walter Noddack studiarono le caratteristiche, le proprietà e le possibili applicazioni pratiche del renio, brevettandolo in diversi Paesi per il suo utilizzo come ricoprente dei filamenti di lampade, come catalizzatore in taluni processi di ossidazione, nei tubi a vuoto, nonché in nuovi processi di arricchimento e concentrazione. Per tutto ciò ai Noddack fu assegnata nel 1931 la prestigiosa Medaglia Liebig della Società Chimica Tedesca.

Dopo la scoperta del neutrone, Fermi e collaboratori iniziarono a usare una sorgente di queste particelle per bombardare i nuclei degli elementi e studiare gli effetti prodotti, in particolare la radioattività artificiale che già i coniugi Joliot-Curie avevano rilevato utilizzando però particelle α come proiettili. Fermi riteneva a ragione che particelle neutre fossero più efficaci di quelle cariche positivamente. Nel maggio1934, dopo aver bombardato tutti i precedenti, il gruppo di Fermi giunse all’ultimo elemento noto, l’uranio osservando una serie di successivi decadimenti radioattivi di lunga durata. Insieme ai suoi collaboratori presenta quindi una nota preliminare (25 maggio) che si conclude così:

Questo insieme di conclusioni che stiamo cercando di suffragare con ulteriori esperienze fa sorgere spontanea l’ipotesi che il principio attivo dell’U possa avere numero atomico 93 (omologo del renio); il processo in questa ipotesi potrebbe consistere in una cattura del neutrone da parte dell’U con una formazione di un U239 il quale subirebbe successivamente delle disintegrazioni β. [3]

Qui appare una cautela di Fermi e del suo gruppo di fisici che intendono suffragare l’ipotesi…

Ma nemmeno un mese dopo questa nota (3 giugno), Orso Mario Corbino[2], mèntore del gruppo, in un discorso sullo stato della fisica all’Accademia dei Lincei, dice:

Per quello che può valere la mia opinione sull’andamento di queste indagini, che ho quotidianamente seguito, credo di poter concludere che la produzione di questo nuovo elemento è già sicuramente accertata. Il risultato ottenuto, cioè la creazione dell’elemento 93, è di grande importanza… si tratta… della fabbricazione artificiale di un elemento nuovo, situato al di fuori della serie degli elementi conosciuti sulla Terra.[4]

Pochissimi giorni dopo (6 giugno), focalizzando l’attenzione sul più lungo decadimento β e avendo escluso che fosse dovuto a una serie di elementi fra cui il piombo, i soli Fermi, Rasetti e d’Agostino[3], scrivono una seconda nota:

Da questo complesso di prove negative sembra plausibile considerare la possibilità già enunciata che il numero atomico dell’elemento in questione sia maggiore di 92. Se fosse un elemento 93, esso sarebbe omologo del Manganese e del Renio. Questa ipotesi è confermata in qualche misura dal fatto osservato che l’attività di 13 minuti è trascinata da un precipitato di solfuro di Renio insolubile in HCl.[5]

Quel ”ipotesi è confermata” fa quasi trascurare la frase successiva: … poiché molti elementi pesanti precipiterebbero in questa forma, questa prova non può considerarsi molto dimostrativa. Certamente, come vedremo, Ida Noddack non la trascurerà.

Fermi comunque invia (16 giugno), questa volta solo a suo nome, una lettera alla prestigiosa rivista Nature [6]. Questa lettera, chiaramente indirizzata a una platea internazionale la più vasta possibile, è praticamente la traduzione inglese della nota [5]. I concetti espressi nel corsivo precedente sono identici in inglese: this negative evidence… suggests the possibility that the atomic number of the element may be greater than 92. [6, p. 899]

Venuta a conoscenza dell’articolo di Fermi su Nature e del rilievo dato alla “scoperta” dalla stampa italiana e internazionale, Ida Noddack pubblica un articolo fortemente critico sulla rivista di chimica Zeitschrift fur Angewandte Chemie [7].[4]

Dopo aver brevemente riassunto i metodi e i risultati di Fermi, Noddack scrive:

Questo metodo di prova non è valido. Fermi ha confrontato il suo nuovo emettitore β con diversi altri elementi verso il basso. Ciò indica che ha pensato che fosse possibile una serie di decadimenti consecutivi… che potessero produrre il radioelemento con emivita di 13 minuti. Non è chiaro …perché ha scelto di fermarsi al piombo. La vecchia visione che gli elementi radioattivi formano una serie continua che termina al piombo è proprio ciò che gli esperimenti precedentemente citati di Curie e Joliot avevano smentito. Perciò Fermi avrebbe dovuto confrontare il suo nuovo radioelemento con tutti gli elementi che emettono radiazioni. È noto dalla chimica analitica che numerosi elementi [e loro composti] precipitano con il biossido di manganese.

Per testare come i vari elementi si comportano con il metodo di precipitazione di Fermi, abbiamo eseguito i seguenti esperimenti… Il precipitato conteneva i seguenti elementi: Ti, Nb, Ta, W, Ir, Pt, An e Si con quasi la quantità totale di ciascun elemento in soluzione; Sb, Ph, Bi, Ni e Co con quantità parziali.

Pertanto, la prova che il nuovo radioelemento ha numero atomico 93 non è in alcun modo soddisfacente, poiché il metodo di eliminazione di altre possibilità non è stato portato a termine. [7]

Dice poi:

Si potrebbe assumere altrettanto bene che quando vengono utilizzati neutroni… si verificano alcune reazioni nucleari nuove che non sono state osservate in precedenza bombardando i nuclei atomici con protoni o particelle α. Nel passato si è scoperto che le trasmutazioni dei nuclei avvengono solo con l’emissione di elettroni, protoni o nuclei di elio, in modo che gli elementi pesanti cambiano la loro massa solo di poco producendo elementi vicini. Quando i nuclei pesanti vengono bombardati con neutroni, è possibile che il nucleo si rompa in diversi frammenti di grandi dimensioni, che sarebbero naturalmente isotopi di elementi noti ma non così vicini all’elemento irradiato.[7]

È spesso riportata solo l’ultima frase di questo paragrafo, per dire che Noddack ipotizzò la fissione nucleare senza alcuna base e, anche per questo, fu praticamente ignorata per cinque anni. In realtà, se la si legge interamente si osserva che l’ipotesi, anche se priva di fondamenti teorici, si basava su osservazioni di trasmutazioni osservate in precedenza con emissione di particelle diverse.

A proposito della presunta precipitazione insieme al solfuro di Renio, Noddack Scrive:

La constatazione che il nuovo radioelemento precipiterebbe insieme al solfuro di renio da una soluzione acida non è una prova a favore dell’elemento 93. In primo luogo, il solfuro di renio assorbe facilmente altri materiali. In secondo luogo, la previsione delle probabili proprietà del 93 renderebbe assolutamente certo che questo elemento forma un solfuro che è stabile in soluzione acida. [7]

Infine, un’ultima bacchettata:

Si dovrebbero aspettare ulteriori esperimenti, prima di sostenere che l’elemento 93 è stato veramente trovato. Fermi stesso è attento a questo proposito… ma in un articolo relativo ai suoi esperimenti e anche nelle relazioni che si trovano sui giornali si fa apparire come il risultato sia già certo[5]. [7]

Per completezza, l’articolo di Noddack è critico anche verso Odolen Koblic, un chimico cecoslovacco che pubblicò nello stesso anno una nota in cui affermava di aver scoperto e isolato il nuovo elemento 93 da un minerale di uranio chiamato pitchblenda[6] che avrebbe contenuto circa l’1% dell’elemento, che fu chiamato boemio [8]. Anche questa “scoperta” fece il giro di tutto il mondo. Ma Koblic inviò due campioni del materiale a Noddack per verificare la presenza del boemio, che giunse a queste conclusioni:

sia l’analisi chimica sia gli spettri a raggi X hanno mostrato che il materiale non contiene l’elemento 93; si tratta invece di una miscela di argento, tallio, vanadato e sali del tungsteno, con acido tungstico in eccesso. Dopo essere stato informato di questi risultati, Koblic … ha ritirato le sue rivendicazioni alla scoperta dell’elemento 93 (Chemiker Zeitung, 1934, 58, 683). [7]

La comunità dei fisici giudicò l’ipotesi di Noddack inaccettabile se non addirittura ridicola, persino Otto Hahn e Lise Meitner [9], che in seguito (1939) scoprirono la fissione nucleare si schierarono apertamente dalla parte di Fermi. Noddack inviò il suo articolo a Fermi, il quale lo rigettò senza replicare. Questo atteggiamento fu dovuto anche a quella che i fisici giudicarono una indebita ingerenza dei chimici in un loro campo di ricerca, lo studio del nucleo atomico.

Fermi ottenne il Premio Nobel per la fisica nel 1938 con la seguente motivazione:

“per la sua dimostrazione dell’esistenza di nuovi elementi radioattivi prodotti da irraggiamento neutronico, e per la relativa scoperta delle reazioni nucleari indotte da neutroni lenti”.

Cioè paradossalmente non per i suoi indubbi meriti in fisica teorica e sperimentale, ma per la misinterpretazione di un esperimento. Ancora nel 1938, in occasione del conferimento del Premio, nella Nobel lecture egli dice:

Concludemmo che i responsabili di tali attività fossero uno o più elementi di numero atomico maggiore di 92; a Roma eravamo soliti chiamare gli elementi 93 e 94 rispettivamente Ausonio ed Esperio.[10]

Dieci giorni dopo la Nobel lecture di Fermi, la scoperta di questi elementi «transuranici» fu confutata da Otto Hahn e Fritz Strassmann e interpretata in termini di un’avvenuta disintegrazione del nucleo di Uranio in due grossi frammenti (http://www.chemteam.info/Chem-History/Hahn-fission-1939a/Hahn-fission-1939a.html). Prima che la lecture fosse stampata Fermi aggiunse la nota: …la scoperta di Hahn e Strassmann “rende necessario riesaminare tutta la questione degli elementi transuranici, poiché molti di essi potrebbero essere dovuti alla disintegrazione dell’uranio” [10].

Né Hahn, né Strassmann né Fermi accennano che l’ipotesi fu fatta quasi cinque anni prima da Ida Noddack.

  1. Leone e N. Robotti [11], che hanno studiato in dettaglio appunti e quaderni di laboratorio del Gruppo dei “ragazzi di via Panisperna” ritengono che Fermi e collaboratori sin da subito [28 aprile] propendessero per l’ipotesi che l’attività da 13 minuti fosse attribuibile a un elemento avente Z = 93. Gli esperimenti decisivi iniziarono l’8 maggio 1934, e già il giorno stesso essi esplicitamente introdussero il neologismo «Ausonio» per l’ipotizzato nuovo elemento chimico.[11]

Gli stessi autori ci informano delle reazioni di Noddack alla scoperta di Hahn e Strassmann. In un articolo del 1939 scrive:

  1. Hahn e L. Meitner hanno continuato le ricerche di Fermi. […] nella loro prima pubblicazione essi dissero […] in accordo con Fermi, che molto probabilmente si trattava di elementi al di là dell’uranio. Essi assunsero, come Fermi in precedenza, che si potessero ottenere solo elementi vicini all’uranio. Essi non hanno citato la mia critica degli esperimenti di Fermi né nella loro prima pubblicazione, né in una delle loro numerose successive pubblicazioni sulla trasformazione artificiale dell’uranio mediante neutroni.[12, cit in 11].

Tuttavia il solo Otto Hahn fu insignito del Nobel per la Chimica nel 1944, e soltanto molto tempo dopo ammise in una trasmissione radiofonica che Ida Noddack aveva avuto ragione, queste parole furono riportate dalla stampa, ad es. da Rehinische Post nel 1971.[13]

Nel 1935, in seguito all’espulsione dei docenti ebrei dalle università tedesche, Walter Noddack fu chiamato a ricoprire la cattedra di Chimica Fisica all’Università di Friburgo, Ida pure si trasferì con tutto il laboratorio.

Ida Noddack nel suo laboratorio

Nel 1941 i Noddack passarono all’Università di Strasburgo che, dopo l’occupazione tedesca era in mano a professori membri del partito nazionalsocialista. Sebbene Noddack non fosse mai stato iscritto al partito nazista gli fu affidata la direzione degli Istituti di Chimica e di Fisica. Nel 1944, l’invasione degli alleati costrinse i Noddack a lasciare la città per un piccolo villaggio. L’anno successivo, finalmente assolti dall’accusa di nazismo, i Noddack si stabilirono a Bemberg, dove Walter fondò un Istituto di Geochimica[7] e Ida poté continuare le sue ricerche sulla relazione fra l’abbondanza degli elementi e le ipotetiche proprietà dei nuclei atomici.

Una dettagliata storia di queste ricerche si trova in un lungo e articolo di G.M. Santos [14].

Quindi, Ida Noddack incontrò molti ostacoli nella sua vita professionale a causa del suo genere e anticonformismo, del risentimento dei fisici per l’intrusione nel loro campo, di quello dei chimici per la presunta scoperta del masurio (peraltro ancora oggetto di controversia) e per l’oggettiva difficoltà di fare ricerca durante e dopo il regime nazista.

Infatti Noddack, seppure riconosciuta sia dal marito sia da tutti quelli che hanno collaborato con lei come principale responsabile delle scoperte del gruppo e nonostante candidata al Nobel per quattro volte (1932, 1933, 1935, 1937), non lo ottenne mai.[8] Muore nel 1978.

Bibliografia

[1] W. Noddack, I. Tacke, O. Berg, “Die Ekamangane”. Naturwissenschaften, 192513, 567–574.

[2] W. Noddack, I. Noddack, Die Herstellung von einem Gram Rhenium, Zeitschrift für anorganische und allgemeine Chemie (in German). 1929, 183, 353–375.

[3] E. Amaldi, O. D’Agostino, E. Fermi, F. Rasetti ed E. Segrè, Radioattività beta provocata da bombardamento di neutroni III, Ric. Scient., 1934, 5, 452-53.

[4] O. M. Corbino, Prospettive e risultati della fisica moderna, Ric. Scient., 1934, 5, 609-19.

[5] E. Fermi, F. Rasetti e O. D’Agostino, Sulla possibilità di produrre elementi di numero atomico maggiore di 92, Ric. Scient., 1934, 5, 536-37.

[6] E. Fermi, Possible production of elements of atomic number higher than 92, Nature, 1934,133, 898-99.

[7] I. Noddack, Uber das Element 93, Z. Angew. Chem., 1934, 47, 653-655. Engl. Transl. On Element 93, http://www.chemteam.info/Chem-History/Noddack-1934.html

[8] O. Koblic, Chemiker Zeitung, 1934, 58, 581; trad. Ingl: A. Stern,. The new element bohemium the origin of proto-actinium, Chemistry and Industry, 1934, 53, 678-679.

[9] O. Hahn, L. Meitner, Über die künstliche Umwandlung des Urans durch Neutronen (Sulla trasformazione artificiale dell’uranio da parte di neutroni), Naturwiss., 1935, 23, 37-38.  

[10] E. Fermi, Artificial radioactivity produced by neutron bombardment. Nobel Lecture, December 12, 1938, in Physics 1922-1941, Nobel Lectures, Elsevier, Amsterdam-London-New York 1965

[11] M. Leone, M. Robotti, Enrico Fermi e la presunta scoperta dei transuranici, in: Atti del XXIII Congresso di Storia della Fisica e dell’Astronomia, Bari, 5-7/6/2003, Progedit, Bari, 2004, pp. 231-244. http://www.brera.unimi.it/sisfa/atti/2003/231-244LeoneBari.pdf

[12] I. Noddack, Bemerkung zu den Untersuchungen von O. Hahn, L. Meitner und F. Strassman über die Produkte, die bei der Bestrahlung von Uran mit Neutronen entstehen, Angew. Chem., 1939 27, 212-13.

[13] G. Dragoni, Donne e Scienza, INFN Sezione di Bologna, 15/3/2008. http://www.scienzagiovane.unibo.it/nobelnegati/pdf/Noddack2.pdf

[14] G.M. Santos, A Tale of Oblivion: Ida Noddack and the ‘Universal Abundance?’ of Matter, Notes Rec., 2014, 68, 373–389.

[1] L’elemento 43 fu prodotto artificialmente nel 1937 da Carlo Perrier ed Emilio Segré nei laboratori di fisica dell’Università di Palermo e fu chiamato tecnezio dal greco τεχνητός che significa artificiale. È stato il primo elemento prodotto artificialmente, ritenuto a lungo non esistente in natura. In anni più recenti è stato individuato sia all’interno che all’esterno del sistema solare.

[2] Orso Maria Corbino (1876-1937) fisico e politico italiano fu tecnico e manager politico nel settore idroelettrico. Ministro dell’Istruzione nel Governo Bonomi e poi dell’Economia Nazionale nel 1923-24, fu Direttore dell’Istituto di Fisica di via Panisperna è stato il protettore e mentore di Fermi e del suo gruppo. Presidente della Società italiana delle scienze e di quella di Fisica.

[3] Rasetti, Amaldi, Segré sono noti a tutti, il meno noto è Oscar D’Agostino (1901-1975) chimico del gruppo. Inizia a collaborare con Fermi nel 1933, trascorre un periodo di studi all’Istituto del Radio di Parigi dove si specializza nell’analisi degli elementi radioattivi. Tornato in Italia nel 1934 collabora attivamente con Fermi fino al 1937. Prosegue le sue ricerche prima al CNR e poi all’Istituto Superiore di Sanità.

[5] Noddack si riferisce qui a un trafiletto apparso il 9 giugno 1934 su Nature (133, 863) che riporta parte di un articolo de Il Giornale d’Italia del 5 giugno in cui si afferma che “Fermi ha prodotto il nuovo elemento 93” Il trafiletto fa seguito all’articolo di Fermi su Nature [6].

[6] Lo stesso minerale dal quale Marie e Pierre Curie isolarono polonio e radio.

[7] L’Istituto di Geochimica fu riconosciuto e nazionalizzato entrando a far parte degli istituti di ricerca della Repubblica Federale Tedesca nel 1956.

[8] Durante la seconda guerra mondiale, i Noddack hanno prodotto solo una sola pubblicazione, un libro sullo sviluppo e la crescita della scienza chimica. Quel libro sembrava descriverli come tedeschi patriottici che non mostravano alcun entusiasmo per il governo nazista della Germania. Scrivevano che “… la maggioranza degli stati ha fatto grandi sforzi per portare la loro scienza e la chimica al livello dei tedeschi”. Ma dicono che la “lotta … è combattuta con le armi dell’intelletto” aggiungendo che il futuro sarà determinato dall’”istruzione”. Per implicazione, la vittoria militare nella guerra era meno importante della crescita dell’intelletto e dell’istruzione. http://www.encyclopedia.com/women/encyclopedias-almanacs-transcripts-and-maps/noddack-ida-1896-1978

Cambiamenti climatici e agricoltura: quale futuro?

In evidenza

Mauro Icardi

Sabato 28 Ottobre ho assistito all’incontro scientifico dedicato alla Meteorologia e Climatologia delle Alpi organizzato dall’Associazione Forte di Bard in collaborazione con la Società Meteorologica Italiana e Equipe Arc-en-Ciel, METEOLAB 2017. Il cui titolo chiarisce già molto bene l’attualità e l’importanza del tema : “Cambiamenti climatici e agricoltura: quale futuro?”

Questo articolo vuole farne un resoconto, ma soprattutto cogliere i molti spunti e riflessioni che ne ho colto. A cominciare da quello a me più familiare. Quello sulla gestione attenta, programmata e consapevole dell’uso dell’acqua. Acqua e agricoltura è intuitivo siano strettamente legate.

E sia Luca Mercalli, che Laurent Vierin presidente della regione Valle d’Aosta lo hanno sottolineato. Per l’agricoltura, come per la gestione della risorsa idrica le programmazioni richiedono quasi inevitabilmente una prospettiva di lungo periodo. La raccolta di dati sulle esigenze e sui consumi, la ricognizione e verifica dello stato dell’arte di condutture e sistemi di pompaggio, o nel caso dei sistemi irrigui la rete dei canali, la progettazione e il reperimento delle risorse finanziarie possono richiedere un’altra importante risorsa. Il tempo. Non solo anni, ma in qualche caso decenni.

Le cronache dell’ estate 2017 ci raccontano invece, oltre che di un’estate rovente, di un continuo ed affannoso tentativo di porre rimedio alle emergenze idriche con provvedimenti di emergenza, con una sensazione di affanno, e con il contorno di un’informazione che a mio parere troppo spesso ricerca un sensazionalismo che non è utile. Che non aiuta a capire.

La valle d’Aosta ha pensato ad un piano straordinario di tutela delle acque ed ha costituito pochi giorni prima di questa iniziativa un tavolo tecnico per l’utilizzo razionale delle acque. Un importante primo passo.

In effetti al mio arrivo nella località di Bard ho potuto notare come fontane e lavatoi, tipici dell’ambiente di montagna fossero chiusi. Così come lo sono state le fontanelle un po’ in tutta Italia, da Roma , Verona e Parma questa estate.

Il caldo è finito. La siccità non ancora.

La giornata di studio è proseguita fitta di molte interessanti relazioni. Quello che è emerso ascoltando tutti i relatori è, a mio parere, riassumibile in un solo concetto: non è più tempo di indecisioni e di staticità. I problemi causati dai cambiamenti climatici stanno già mostrando segnali chiari, che interferiscono con la nostra realtà quotidiana, rispetto a come l’abbiamo sempre vista e pensata in passato. Cogliendo diversi degli spunti e delle cose dette in questa giornata, alcune risaltano con una chiarezza disarmante. Il modificarsi del regime delle precipitazioni, le minori giornate con innevamento al suolo tendono a modificare la fertilità del terreno agricolo. La saggezza dei nostri nonni lo diceva che “Sotto la neve pane, sotto la pioggia fame”. L’agricoltura di montagna, la produzione di prodotti di qualità è una risorsa, ma che è minacciata dal nuovo tempo “impazzito”. Nell’aprile di quest’anno la Valle d’Aosta ha visto azzerata la propria produzione di vini pregiati a causa di una gelata tardiva. La gelata ha colpito vigneti che erano già in fioritura avanzata a causa di un inverno mite che ha anticipato il ciclo vegetativo e lo sviluppo dei germogli nelle vigne. Quindi se la gelata è un fenomeno che si può verificare, e si è spesso verificato in passato nella regione alpina, l’inverno insolitamente mite (ma mi chiedo se sia il caso di usare ancora questo avverbio) è invece il vero fenomeno anomalo.

Anche lo sviluppo ed il ciclo vitale dei parassiti si modifica e cambia. Ci sono più cicli di deposizione e schiusa di uova, e quindi danni maggiori, e necessità di più interventi di lotta antiparassitaria.

La Valle d’Aosta si sta scoprendo territorio adatto alla produzione di un prodotto agricolo come lo zafferano , e a questo proposito sono stati molto interessanti gli interventi di due titolari di aziende agricole, Diego Bovard e Stefano Carletto che raccontano come la passione e l’inizio della produzione sia nata quasi per caso. Una coltivazione quella dello zafferano che richiede di effettuare pratiche antiche, quale per esempio il diserbo manuale. Il cambiamento del clima ha effetto anche al di fuori del settore agricolo. Trasforma la vocazione turistica delle località di montagna. Che vedono maggiori afflussi turistici nella stagione estiva, che in quella invernale ormai sempre più povera di innevamento naturale. L’idea di persone che, come è capitato questa estate, fuggono da città rese invivibili da un caldo mai registratosi prima dovrebbe essere uno stimolo non solo a riflessioni, ma anche ad atti molto concreti.

La chiusura della giornata di studio e divulgazione si chiude con alcune domande di rito del pubblico (che ha risposto numeroso a questa ormai ottava edizione di Meteolab), e con alcune considerazioni finali che cercherò di riassumere ed esprimere.

La scienza ha ormai fatto e continua a fare la sua parte. Le evidenze ci sono. Dall’IPCC al WMO (World Meteorological Organization) al NOA, alla NASA, solo per citarne alcune, tutti hanno prodotto studi, hanno raccolto dati e pubblicato grafici. Il cambiamento climatico è realtà.

scuola-primaria-e-de-amicis-progetto-di-educazione-ambientale-

Appurata questa cosa è incomprensibile la stasi che di fatto vediamo con i nostri occhi. Accordi sul clima disattesi, e tempo che passa senza azioni concrete. E allora vale la pena ribadire che ognuno di noi può adottare la filosofia del colibrì dell’omonima favola peruviana.

E’ questo è stato detto e ripetuto da Luca Mercalli ( che ce lo ricorda ormai da decenni). Ci sono atti concreti che si possono fare. Isolare la casa, installare pannelli solari , esercitare un consumo critico quando si va al supermercato, coltivare un orto, bere acqua del rubinetto, razionalizzare gli spostamenti e l’uso dell’auto. E a completamento di questo, vorrei aggiungere che si impara con i piccoli passi ad essere resilienti. E che non ci si deve spaventare dell’eventuale fatica che si può inizialmente provare quando si cambiano le abitudini. Anche con il concetto di fatica, che non è negativo, si può tornare a familiarizzare.

Altro concetto importante che riguarda invece l’attività di divulgazione, e che l’ottava edizione di Meteolab ci lascia come idea, è quella dell’interdisciplinarità. La salvaguardia di pianeta e clima trova resistenze dovute a falsi miti, a superficialità e banalizzazioni. E quindi è necessaria non solo la collaborazione continua tra le diverse discipline scientifiche, tra ricercatori, scienziati e tecnici. Ma anche quella che trovi sinergie con le scienze umane. Che trovi la chiave di comunicazione, gli strumenti che ci aiutino ad avvicinare un problema, che non è quello del cambiamento climatico, ma della “grande cecità” che proviamo davanti ad esso. Oppure quello della fase collettiva di rifiuto della realtà da parte di sempre più ampi strati della società. Una ecologia della mente che ci liberi da questa assuefazione al consumo sfrenato, visto a volte come l’unico traguardo della propria realizzazione personale.

La chiusura di questo articolo non può che essere un doveroso ringraziamento agli organizzatori e tutti i relatori di un’iniziativa di ottimo livello. Di una bella giornata. Siamo stati ancora istruiti e avvisati. I semi sono stati gettati. Magari riusciranno a germogliare anche in condizioni estreme, come il solo fiore di zafferano che, come ci è stato raccontato, è riuscito a germogliare alle pendici del Monte Bianco.

Meteolab 2017: questi i relatori presenti: Luca Mercalli, presidente della Società Meteorologica Italiana; Corrado Adamo, dirigente della Struttura Produzioni vegetali e Servizi fitosanitari dell’assessorato regionale agricoltura e risorse naturali; il prof Michele Freppaz dell’Università degli Studi di Torino; Edoardo Cremonese, dell’Area Operativa Cambiamenti Climatici dell’Arpa Valle d’Aosta; Odoardo Zecca, coordinatore del settore Viticoltura, ricercatore e insegnante dell’Institut Agricole Régional; Diego Bovard e Stefano Carletto, titolari di aziende agricole; Federico Spanna, presidente dell’Associazione Italiana di Agrometeorologia, e Gabriele Dono, presidente del Corso di Laurea Triennale in Scienze Agrarie e Ambientali dell’Università degli Studi della Tuscia.

Grazie!

Strategie contro l’inquinamento “indoor”

In evidenza

Luigi Campanella, già Presidente SCI

Con inquinamento indoor si intende l’inquinamento che interessa l’aria degli ambienti confinati, cioè quella presente in quei luoghi all’interno dei quali si svolgono attività umane sia di lavoro che conviviali, di svago o di riposo.

E’ comunque opportuno sottolineare che nell’ambito della definizione “indoor” vengono esclusi gli ambienti industriali, che pur essendo spesso confinati, presentano un tipo di inquinamento ben specifico e relazionato alla tipologia di lavoro.

Invece, al contrario di quanto succede in ambito industriale, nel caso di abitazioni, scuole, uffici, edifici pubblici, mezzi di trasporto, ecc., l’inquinamento indoor viene frequentemente sottovalutato per fattori di natura squisitamente culturale, psicologica o storica.

In realtà, diverse ricerche hanno dimostrato che in questi luoghi l’esposizione ad inquinanti di varia natura può essere addirittura superiore a quella relativa agli inquinanti in ambiente esterno o industriale.

Si tenga presente che il tempo speso da ognuno in ambienti confinati è di gran lunga superiore a quello speso in ambiente outdoor.

Un caso poi di particolare importanza è rappresentato dall’ambiente ospedaliero (sul quale scrivemmo già un post). Qui la possibilità di contrarre varie malattie, anche di tipo professionale,obbliga ad attenzione ancora maggiore,rappresentando i frequentatori una fascia debole di utenza.

Il problema dell’inquinamento indoor è emerso nel corso di questi ultimi anni: parallelamente al crescente desiderio di migliorare la qualità della vita realizzando condizioni di benessere e di salubrità ottimali per la salute. Risulta da tutto ciò quanto preziosa possa risultare una tecnologia capace di rimuovere da un ambiente indoor gli inquinanti in esso presenti.

Oggi si lavora a pitture foto catalitiche capaci di farlo utilizzando un processo fotodegradativo degli inquinanti stessi affidato alla presenza, fra i suoi componenti, di un semiconduttore fotocatalizzatore che, stimolato dalla luce solare, produce radicali liberi dell’ossigeno molto reattivi e quindi capaci di degradare fino alla mineralizzazione molti dei comuni inquinanti indoor.

I limiti a tale tecnologia sono due: necessità di illuminazione solare della parete verniciata, stop al processo nelle ore notturne.

L’implementazione è quindi indirizzata verso una modulazione della lunghezza d’onda attiva, modificando il fotocatalizzatore o drogandolo ed integrando nell’attuale composizione un generatore radicalico che possa svolgere il ruolo coperto nell’attuale versione dal sistema costituito da TiO2, luce solare, molecole di acqua ed ossigeno,capace di produrre radicali dell’ossigeno molto attivi per degradare gli inquinanti da abbattere.

Chemistry » “Phthalocyanines and Some Current Applications”, book edited by Yusuf Yilmaz, ISBN 978-953-51-3256-1, Chapter 10 Phthalocyanines: Alternative Sensitizers of TiO2 to be Used in Photocatalysis By William A. Vallejo Lozada, Carlos Diaz-Uribe, Cesar Quiñones, Mileidy Lerma, Catalina Fajardo and Karen Navarro DOI: 10.5772/67880

Note sull’Antropocene.2.Le ipotesi. Parte seconda.

In evidenza

Claudio Della Volpe

Le prime due parti di questo post sono state pubblicate qui e qui.

Continuiamo ad esaminare le varie proposte sulla scansione temporale dell’Antropocene usando come falsariga l’articolo di Lewis e Maslin pubblicato su Nature nel 2015.

Dopo aver esaminato le ipotesi dell’origine delle attività agricole e dello scambio colombiano, la scoperta dell’America e delle sue conseguenze arriviamo alla

Ipotesi 3.

 terza ipotesi, ossia la rivoluzione industriale.

L’inizio della rivoluzione industriale è stata spesso suggerita come inizio dell’Antropocene, perchè certamente l’accelerazione nell’uso dei fossili e i rapidi cambiamenti sociali sono stati unici nella storia umana. Eppure occorre notare che l’umanità è stata a lungo impegnata in trasformazioni di tipo industriale come l’uso esteso di metalli negli ultimi 8000 anni e con un esteso inquinamento conseguente.

Per esempio un elevato inquinamento da mercurio è stato documentato fin dal 1400aC nelle Ande peruviane mentre le lavorazioni di rame nell’impero Romano sono tracciabili nei ghiacci della Groenlandia a partire da circa 2000 anni fa. Ciononostante questo tipo di inquinamento da metallli come altri esempi che si possono prendere dalla Rivoluzione industriale sono troppo locali ed estesi nel tempo per costituire un vero e proprio golden spike, un segnale certo ed univoco.

Le definizioni storiche della Rivoluzione industriale danno una data iniziale fra il 1760 e il 1880 a partire da eventi iniziali nel NordEuropa. Dato il lento aumento dell’uso di carbone le testimonianze fossili nel ghiaccio registrano un impatto limitato sul totale della CO2 atmosferica fino al 19esimo secolo e mostrano poi un incremento continuo ma non un brusco salto impedendo di usarlo come marcatore geologico vero e proprio.

In modo analogo i cambiamenti associati di metano e nitrati, dei prodotti fossili delle combustioni (come le particelle carbonacee sferiche e la frazione magnetica delle ceneri) e tutti gli altri cambiamenti prodotti nei sedimenti dei laghi si sono alterati solo lentamente e sono cresciuti durante molte decadi. Il piombo, una volta aggiunto routinariamente ai combustibili dei veicoli come piombo tetratile, è stato proposto come possibile marcatore proprio perchè il combustibile additivato di piombo è stato usato globalmente e poi proibito. Comunque il picco del rapporto isotopico del piombo da questa specifica sorgente nei sedimenti varia durante l’intervallo fra il 1940 e il 1980 limitandone l’utilità come marcatore.

La rivoluzione industriale in definitiva fornisce si un certo numero di marcatori dal Nord Europa al Nord America e nel resto del mondo sin dal 1800 ma nessuno di essi costituisce finora un marcatore primario chiaro e valido in tutti i contesti.

Ipotesi 4

La grande accelerazione.

Fin dal 1950 l’influenza dell’attività umana sul sistema terra si è accresciuta enormemente. Questa “grande accelerazione” è caratterizzata dalla crescita della popolazione, da cambiamenti nei processi naturali, dallo sviluppo di nuovi materiali sia minerali che della plastica e inquinanti organici ed inorganici persistenti.

Fra tutti questi cambiamenti la ricaduta globale di residui radioattivi dai test di bombe nucleari è stato proposto come marcatore globale dell’orizzonte degli eventi umano. La prima esplosione è stata nel 1945 con un picco atmosferico che si situa fra il 1950 e primi anni 60, seguito da un rapido declino successivo al Partial Test Ban Treaty nel 1963 e agli accordi posteriori, cosicchè al momento continuano ad essere presenti solo bassi livelli di inquinamento.

Un picco caratteristico è presente nelle carote glaciali ad alta risoluzione , nei laghi, nei sedimenti marini , nei coralli, negli anelli degli alberi dai primi anni 50 fino ai primi anni 60.

Il segnale maggiore proviene dal carbonio 14, visto in aria e manifesto negli anelli degli alberi e nei ghiacciai che raggiunge un massimo sia nelle medie latitudini che in quelle alte dell’emisfero Nord nel 1963-64 e un anno dopo nei tropici. Sebbene il carbonio 14 sia a emivita relativamente breve (5730 anni) il suo livello rimarrà abbastanza alto da costituire un segnale utile per le future generazioni.

Le emivite di altri prodotti essenzialmente sintetici, come alcuni gas fluorurati, che sono anche di alcune migliaia o perfino decine di migliaia di anni sarebbero sufficienti ma la loro utilità è ridotta al fatto che gli accordi internazionali ne hanno ridotto o impedito l’uso, come per esempiio il protocollo di Montreal.

Proprio per questo motivo dei vari potenziali marcatori della Grande Accelerazione il picco globale del 14C costituisce un segnale non ambiguo nella maggior parte dei depositi stratigrafici. In particolare il picco del 1964 potrebbe essere usato come marcatore nelle sequenze degli anelli annuali degli alberi. Altri marcatori secondari potrebbero essere il rapporto degli isotopi del Plutonio (240Pu/239Pu) il cesio 137 ed infine lo iodio 129 che ha una emivita di parecchi milioni di anni. E ovviamente molti altri segnali secondari dovuti all’attività umana, potrebbero essere usati come per esempio:

i pollini fossili di specie geneticamente modificate, i picchi di gas fluorurati, isotopi del piombo, microplastiche nei sedimenti marini, variazione nella presenza di diatomee dovuti all’eutroficazione delle acque.

In conclusione delle 4 ipotesi che abbiamo analizzato usando come falsariga il lavoro di Lewis la prima e la terza, l’inizio dell’agricoltura e la rivoluzione industriale non presentano almeno allo stato dell’arte la possibilità di essere usati come marcatore geologico, mentre la seconda e la quarta ossia lo scambio colombiano e le esplosioni atomiche dei primi anni 60 potrebbero essere usati senza grossi problemi.

E’ interessante notare che la scelta anche solo fra queste due ipotesi di delimitazione può avere un significato che va al di là della semplice scelta tecnica; infatti sono fenomeni che mettono l’accento su aspetti diversi della nostra società e della nostra storia.

Infine ci sarebbe da dire questo; la rivoluzione scientifica dal Rinascimento in poi ha sottolineato che l’uomo dopo tutto è un animale come gli altri, senza particolari origini divine e vive in un piccolo pianeta ai margini della Galassia; ma nonostante questo il semplice riconoscimento dell’esistenza e l’analisi degli effetti dell’Antropocene potrebbe cambiare un po’ la nostra visione: dopo tutto al momento questo è l’unico pianeta su cui sappiamo che esista la vita e non solo una vita che è cosciente di se stessa; dunque la nostra azione nei confronti della biosfera non è affatto trascurabile e potrà avere conseguenze non banali e specifiche; abbiamo una enorme responsabilità nei confronti della nostra specie ma anche del pianeta che abitiamo e, per quel che ne sappiamo adesso e finchè non scopriremo altri pianeti dotati di biosfera o perfino di vita autocosciente e di cultura, perfino nei confronti dell’intero Universo.

Dunque siamo partiti da una concezione antropomorfa dell’Universo e attraverso lo sviluppo della Scienza in un certo senso ci siamo tornati, ma ad un livello diverso, una cosa che avrebbe fatto contento Hegel.

Cronache dall’ “Ora della Chimica”

In evidenza

Mauro Icardi

Ho avuto modo di visitare la quinta edizione festival dell’innovazione e della ricerca scientifica ospitato nella biblioteca Archimede di Settimo Torinese. Edizione dedicata alla chimica. Più che giusto intitolarla quindi “L’ora di chimica”. E ho trovato interessante ed appropriata la mostra dedicata a Primo Levi scrittore di fantascienza, di cui mi ero già occupato nella recensione del libro di Francesco Cassata tratta dalla settima lezione Primo Levi tenutasi nell’ottobre del 2015.

Ho potuto nuovamente verificare di persona che questa parte dell’opera dello scrittore è sconosciuta a molti. Forse da altri considerata minore. Io credo che vada invece scoperta e apprezzata. E’ una parte integrante della “galassia Primo Levi”, e alcuni racconti sono acuti e profetici. Come ho già avuto modo di far notare, per esempio il “Mimete” di “Storie naturali” è una rappresentazione di un prodotto tecnologico odierno, non essendo altro che la descrizione con mezzo secolo di anticipo (il libro uscì nel 1966) delle odierne stampanti 3D.

La chimica viene vista spesso in maniera distorta e confusa. Ma alla chimica dobbiamo anche l’elevato livello di qualità della vita di cui (almeno nel mondo occidentale) abbiamo potuto godere negli anni successivi al secondo conflitto mondiale. Prima che la crisi ecologica e quella economica, cioè le due facce della stessa medaglia ci mettessero sotto gli occhi il fatto incontrovertibile che i limiti fisici di pianeta e biosfera non possono essere superati.

La chimica e particolarmente l’industria chimica dovrà in un futuro molto prossimo modificare i propri cicli produttivi, privilegiando l’utilizzo di materie prime rinnovabili, approfondendo ulteriormente la conoscenza dei meccanismi chimici e biochimici che sono alla base dei processi di degradazione ambientale. La chimica permea la nostra vita anche nei processi e nelle reazioni biochimiche che avvengono nel corpo umano. Tutto questo nella mostra di Settimo Torinese è stato ampiamente divulgato, grazie anche a laboratori per ragazzi delle scuole, dalle elementari fino alle superiori. Per mostrare la magia della chimica. Consapevolezza e conoscenza sono ottime chiavi di comprensione.

E di conoscenza e comprensione si è parlato anche nella conferenza sulle sostanze stupefacenti dal titolo “Nuove droghe. Istruzioni per il non uso”. Sappiamo che esiste una cultura parallela dello “sballo”. Sappiamo che il consumo di sostanze stupefacenti o psicotrope non è un fenomeno recente, ma accompagna l’uomo da secoli. Da quando i nostri antenati e progenitori scoprirono che da diverse sostanze di origine naturale si potevano estrarre sostanze che miglioravano il tono dell’umore. Che aiutavano a sopportare la fatica, o lo illudevano di stare meglio. Di aiutarlo a dimenticare la fatica della vita e della quotidianità.

Quello che il relatore il Professor Marco Vincenti, che è Direttore del dipartimento di chimica dell’Università di Torino ha voluto sottolineare, è che il suo intervento non aveva l’intenzione di formulare un giudizio etico o morale. Ma si proponeva di dare un quadro oggettivo della realtà attuale del consumo di sostanze stupefacenti. Sottolineando che molto spesso esiste un consumo inconsapevole. Non tanto per le cosiddette sostanze stupefacenti “storiche” come quelle derivate dagli oppiacei, come l’eroina, o quelle stimolanti come la cocaina. Ma soprattutto per le nuove droghe che possono essere sintetizzate con relativa semplicità. Per esempio l’ecstasy che può essere facilmente sintetizzata partendo dal safrolo (4-allil-1,2-metilendiossibenzene), sostanza di facile reperimento in commercio. La stessa pianta di cannabis che oggi viene coltivata in serre modernissime, sia pure illegali, e che irrorata costantemente con luce artificiale si arricchisce in principio attivo di THC a valori di molto alti (20-40%) rispetto a quelli consueti molto più bassi (0,5-1,5%). E’ intuitivo che un consumo inconsapevole di uno spinello che ne contenga in dosi così elevate provochi effetti collaterali di gran lunga maggiori e più pericolosi.

Estremamente interessanti anche le parti delle conferenza dedicate ai metodi analitici di determinazione di metaboliti di sostanze stupefacenti rilevabili su matrici quali sangue, urine o capelli, nonchè quelli di riconoscimento rapido di alcuni dei principali composti e principi attivi di narcotici o stupefacenti, effettuati tramite l’utilizzo della spettroscopia Raman utilizzando lo strumento portatile Tru Narc.

Il pubblico era formato per la maggior parte di ragazzi di scuole superiori, a cui in ultima analisi è giusto che sia diretto il maggior sforzo di divulgazione. Per esperienza so che la chimica parallela, praticata nei laboratori dove si sintetizzano sostanze stupefacenti si ammanta di un’aura di mito che non permette di discernere e di osservare la cose con il dovuto giudizio critico. Ed è pur vero che anche in questo campo si perpetra l’ennesima dicotomia falsa che recita naturale= buono, sintetico=cattivo.

Il grande successo della serie “Breaking Bad”, che è in ogni caso un prodotto di fiction di buonissimo livello dal punto di vista strettamente legato alla storia, alla sua narrazione, produzione e regia, credo debba a questo mito inossidabile una buona parte (ovviamente non tutta) della sua fortuna.

Qui il mito è rappresentato dal professor Walter White, che conoscendo perfettamente la chimica, utilizza questa sua preparazione professionale per la produzione clandestina di metanfetamina.

La divulgazione e la conoscenza della chimica, degli effetti collaterali del consumo di questo tipo di sostanze possono aiutare soprattutto i giovani a non lasciarsi influenzare da questi falsi miti. E a saper distinguere tra quello che viene raccontato in qualunque prodotto di intrattenimento, e la realtà della chimica e della tossicologia delle sostanze stupefacenti. Si potrebbe pensare che sia un concetto acquisito e che si possa sottintendere. Ma in un’epoca dove si tende ad una mitizzazione generalizzata credo sia corretto invece sottolineare il concetto.

In conclusione questo festival dedicato alla chimica merita un sincero elogio.

E questa immagine che mostra una platea di bambini intenti a seguire una lezione sulla chimica dei profumi è decisamente beneaugurante. Per la chimica e la sua divulgazione, ma più in generale per un giusto riavvicinamento all’amore per la conoscenza.

Note sull’antropocene. 2. Le ipotesi. prima parte

In evidenza

Claudio Della Volpe

Nella prima parte di questo post (https://ilblogdellasci.wordpress.com/2017/10/18/note-sullantropocene-1-le-origini/) abbiamo introdotto la storia del meme Antropocene. In questa seconda parte introdurremo invece le varie ipotesi avanzate per stabilirne i confini storici; diciamo subito che ci sono tante diverse ipotesi, ma le principali sono quattro e le enumero in ordine di datazione dell’origine dell’Antropocene.

Ipotesi 1: In un libro del 2013 (1) Timothy Morton introduce il concetto di iperoggetto. L’iperoggetto è un oggetto tale per cui non può essere intrinsecamente conosciuto da una posizione esterna, in altre parole il soggetto ne fa parte per definizione. Il soggetto che esplora e conosce non può guardare gli “iperoggetti” dall’esterno, ma piuttosto, ne fa parte, ne è ospitato , circondato, legato, ci interagisce così fortemente che non può che esserne considerato una parte “interna”. L’universo è un iperoggetto. La società umana come tale è un iperoggetto, ma poniamo anche il riscaldamento globale o i “giri”oceanici che producono isole plasticose con i nostri rifiuti, essi sono iperoggetti perchè noi ci interagiamo fortemente, in un certo senso ne siamo parte integrante, siamo contemporaneamente il soggetto che vuole conoscerli ma anche quello che li produce.

L’iperoggetto inoltre non è solo grande nello spazio e nel tempo, ma è anche “viscoso”.

tale viscosità è il prodotto diretto del proliferare di informazioni. Quanto più sappiamo a proposito degli iper-oggetti, tanto più ci rendiamo conto che non potremo mai veramente conoscerli. Eppure, per quanto ci sforziamo di allontanarli, non possiamo separarci da loro” (p. 180).

In definitiva l’uomo come specie crea una enorme quantità di iperoggetti a partire dall’uso del fuoco (circa un milione di anni fa, Homo erectus) che già ha avuto un enorme impatto sulla biosfera; ma il momento chiave secondo Morton è la invenzione dell’agricoltura circa 10.000 anni fa o meglio dell’agrilogistica, una organizzazione della vita sociale che è caratterizzata da un “certo numero di sotto-variabili: l’eliminazione di contraddizioni e anomalie, l’innalzamento di confini tra umano e non-umano, la massimizzazione dell’esistenza a scapito d’ogni altra considerazione, inclusa ogni qualità dell’esistenza stessa. Ora che l’agrilogistica copre quasi interamente la superficie terrestre possiamo vederne gli effetti come in una reazione di polimerizzazione: ebbene, sono catastrofici

Si tratta come vedete di una concezione un po’ filosofica; Morton propone una società contemplativa per uscire dai problemi dell’agrilogistica, una proposta difficilmente accettabile, un po’ elitaria diciamo così.

Se si cercano dati fisici, precedenti o successivi all’inizio dell’Olocene (11700 anni fa) si trovano varie date possibili, dagli effetti del fuoco a quelli dell’estinzione della megafauna a quelli dell’inizio vero e proprio dell’agricoltura fino all’introduzione del riso e dei ruminanti che potrebbero aver modificato la percentuale di metano in atmosfera, ma su tutti ci sono sufficienti dubbi da esludere una chiara individuazione come inequivoco confine dell’Antropocene al momento.

Ipotesi 2: in un articolo del 2015 (2) Simon Lewis e Mark Maslin propongono come limite temporale dell’Antropocene la scoperta del’America da parte di Colombo, anzi tutto il periodo che ne segue, definito come “Columbian exchange”, lo scambio colombiano. In realtà l’articolo di Lewis e Maslin è da leggere tutto intero e dà una descrizione completa e precisa dell’azione umana al di là della singola ipotesi che sostiene poi; lo consiglio caldamente a chi volesse farsi un’idea precisa e riccamente documentata della situazione (magistrale il paragrafo a pag. 172 intitolato The geological importance of human actions).

L’arrivo degli europei nei Caraibi nel 1492 e l’annessione delle Americhe causò il più grande scambio di popolazioni degli ultimi 13000 anni, con la formazione della prima grande rete globale di commerci fra Europa, Cina, Africa e le Americhe e la susseguente miscelazione di bioti prima separati, conosciuta come “lo scambio colombiano”.

Il più vistoso effetto fu certamente quella che si potrebbe definire la globalizzazione del cibo che è descritta nella figura precedente, che diede luogo a scambi di semi e pollini ma anche di scheletri di animali che si ritroveranno nei secoli in varie sedi.

Oltre a ciò ci fu l’effetto di ridurre drasticamente la popolazione umana sia in America, ma anche in Africa. Si stima che dei circa 60 milioni di persone che vivevano in America ne sia rimasto dopo oltre un secolo meno del 10%. a causa delle malattie importate dagli europei (contro le quali quelle popolazioni non avevano difesa), della schiavitù , della fame, etc.. Occorre anche considerare (questo è una mia considerazione) che l’apertura dei territori del Sud e centro America diede il via ad una tratta atlantica degli schiavi che riguardò oltre 10 milioni di persone che costituivano come ordine di grandezza qualcosa come la metà della popolazione africana di quel periodo.

Si stima che la sola decrescita della popolazione centro e sud americana comportasse l’abbandono di una enorme quantità di terreno coltivato a latitudini cui corrispondeva una enorme produttività biologica, con la conseguente rigenerazione di oltre 50 milioni di ettari di foresta, savana boscosa e prateria con un assorbimento di carbonio a causa di questo effetto di rivegetazione del suolo pari a 5-40 Pg, ossia miliardi di ton equivalenti, in 100 anni. Simile contributo dalla tratta degli schiavi, anche se la situazione sembra più complessa ((http://nrs.harvard.edu/urn-3:HUL.InstRepos:3710252 e https://econpapers.repec.org/paper/csawpaper/2014-02.htm).

Questo suggerisce che l’episodio ha contribuito in modo significativo ad un evento globale , ossia la riduzione della concentrazione di CO2 di 7–10 p.p.m. (1 p.p.m. CO2 = 2.1 Pg di carbonio equivalente) fra il 1570 e il 1620 documentato nelle registrazioni ad alta risoluzione delle carote di ghiaccio antartiche (si veda parte c di due figure più in alto). La riduzione della CO2, badate, il contrario di quel che sta succedendo adesso.

Si tratta dell’evento più importante nella storia della CO2 sia in velocità di variazione che in dimensione nella storia pre industriale degli ultimi 2000 anni.

Gli autori propongono di considerare i fenomeni globali dello scambio colombiano, ossia la riduzione di CO2 di 7-10 ppm nella carota di ghiaccio del Law Dome, la prima presenza di fossili al di quà e al di là del’oceano del mais e altri fenomeni simili come segnali inequivoci del fenomeno, elencandoli in dettaglio.

Essi concludono che questo “incontro” delle popolazioni dei continenti vecchio e nuovo e l’omogeinizzazione mai prima avvenuta dei loro bioti rappresenti un evento estremamente importante per la storia del pianeta; trovano anche un nome per questa ipotesi la ipotesi Orbis dalla parola latina per mondo e Orbis spike sarebbe il segnale della riduzione di CO2; il motivo di questa scelta starebbe nel fatto che solo dopo il 1492 i due emisferi del pianeta si sono “connessi” tanto che molti altri scienziati si riferiscono a questo periodo come all’inizio del “sistema mondo”.

Nel prossimo post discuteremo le altre due ipotesi principali prese in considerazione per l’nizio dell’Antropocene, la rivoluzione industriale e il periodo delle esplosioni atomiche in atmosfera..

(continua)

(1)Timothy Morton, Hyperobjects: Philosophy and Ecology after the End of the World, Minneapolis: U Minnesota P, 2013.

(2) Defining the Anthropocene doi:10.1038/nature14258

Simon L. Lewis & Mark A. Maslin 12 MARCH 2015, VOL 519 , NATURE, p.171

La denominazione K, L, M per i gusci elettronici e s, p, d, f per gli orbitali

In evidenza

Rinaldo Cervellati

Ancora oggi quando si studia l’atomo di Bohr, gli strati (o gusci) di orbite permesse per gli elettroni sono identificati con le lettere maiuscole K, L, M, ecc. Da dove proviene questa denominazione? W.B. Jensen [1] ci informa che non c’è traccia di essa nella famosa trilogia di Bohr del 1913. K e L provengono piuttosto dalle ricerche del fisico britannico Charles Glover Barkla[1] sulla fluorescenza emessa dagli elementi bombardati da raggi X ad alta energia.

Charles G. Barkla

La fluorescenza è il fenomeno per cui un materiale sottoposto a radiazioni emette a sua volta radiazioni, generalmente di più bassa energia. Barkla studiò approfonditamente il fenomeno dell’emissione di raggi X (radiazione secondaria) da parte di metalli sottoposti a bombardamento di radiazione X a più alta energia provenienti da una sorgente esterna (radiazione primaria). Durante anni di studi egli caratterizzò la radiazione secondaria in base alle caratteristiche di omogeneità e penetrabilità, cioè la capacità di attraversare un certo numero di fogli di alluminio interposti fra sorgente e bersaglio. Trovò che la radiazione secondaria era formata da due serie di radiazioni, una più penetrante dell’altra che chiamò appunto K e L rispettivamente. Questa denominazione appare chiaramente nella seguente nota a piede di pagina in un suo articolo del 1911 [2].

Scrive appunto e annota:

Si osserva che le radiazioni rientrano in due serie distinte, qui indicate con le lettere K e L.* [2]

* Precedentemente indicate con le lettere B e A. Le lettere K e L sono tuttavia preferibili, in quanto è altamente probabile che esista una serie di radiazioni più assorbibili e più penetranti. [2, p.406]

Barkla osservò anche che la produzione delle radiazioni secondarie sembrava correlata con il peso atomico degli elementi: fra Ca e Rh viene prodotta solo la K, fra W e Bi solo la radiazione L, e fra Ag e Ce vengono emesse entrambe. [1, Table, p.407].

Come abbiamo ricordato più volte queste ultime osservazioni furono interpretate dal fisico britannico Moseley[2] nel suo classico studio sul rapporto tra la frequenza dei raggi X secondari e i numeri atomici degli elementi [3].

Con riferimento alla figura:

I raggi X primari che possiedono abbastanza energia, possono espellere un elettrone strettamente trattenuto nei livelli energetici interni dell’atomo. La rimozione di un elettrone in questo modo rende la struttura elettronica dell’atomo instabile e l’elettrone nel livello più alto “cade” in quello inferiore per riempire la lacuna. Nel cadere, l’energia viene rilasciata sotto forma di un fotone, la cui energia è uguale alla differenza di energia fra i due livelli coinvolti. Così, il materiale emette una radiazione che ha caratteristiche energetiche degli atomi presenti.

La razionalizzazione della fluorescenza a raggi X di Barkla-Moseley in termini del modello di Bohr è di solito accreditata all’articolo del 1914 del fisico tedesco Walther Kossel[3] [4].

Walther Kossel

Egli sostenne che la radiazione K fosse dovuta ad un elettrone eccitato che cadeva in un posto vacante nel primo guscio di un atomo, e la radiazione L ad un elettrone eccitato che ricade in un posto vacante nel secondo guscio [4]. Di conseguenza, le lettere K e L si sono associate al primo e al secondo guscio dell’atomo di Bohr, soprattutto nella letteratura che si occupa di spettroscopia.

Già nel suo articolo del 1911, Barkla aveva ipotizzato la possibile esistenza di raggi secondari ancora meno energetici che sarebbero emessi da Au e Pt e corrispondenti a possibili serie M e N, queste denominazioni furono presto assegnate al terzo e al quarto guscio dell’atomo di Bohr. È interessante notare che Bohr raramente ha fatto uso di queste denominazioni alfabetiche per i gusci nei suoi lavori, preferendo invece utilizzare i numeri quantici [5].

Da notare che sono state fatte diverse altre congetture sulla scelta delle lettere K e L, fra esse piace ricordare quella che, facendo notare che queste lettere stanno in posizione centrale nell’alfabeto inglese, Barkla le avrebbe scelte perché parte del suo cognome. Congettura priva di fondamento storico, la scelta è quella motivata nella nota a p. 406 del lavoro di Barkla [2].

Riconosciuta quindi l’origine “spettroscopica” della denominazione K, L, M, anche l’uso delle lettere minuscole s, p, d e f per indicare gli orbitali atomici si può far risalire alle ricerche spettroscopiche dell’ultimo quarto del XIX secolo.

Secondo W.B. Jensen [6] questa storia inizia con le ricerche di due chimici britannici, l’inglese G. Liveing[4] e lo scozzese Sir James Dewar[5], che fra il 1872 e il 1880 pubblicarono una serie di articoli sugli spettri di emissione dei metalli alcalini [7]. Nel descrivere questi spettri, Liveing e Dewar caratterizzarono qualitativamente le varie righe in termini sia di intensità che di definizione chiamandole principali, strette o diffuse, osservarono inoltre che le righe di un determinato tipo comparivano in gruppi o serie.

Come ricordato in un precedente post, dopo la scoperta di Balmer di un’equazione empirica descrivente una delle serie di righe dell’idrogeno, la ricerca si concentrò su una formula più generale per tutte le righe di tutte le serie spettrali degli elementi. Per i metalli alcalini, lo svedese Johannes Rydberg[6] [8] e i tedeschi Heinrich Kayser[7] e Carl Runge [9] giunsero indipendentemente alla medesima conclusione. Il loro lavoro dimostrò che molte righe degli spettri dei metalli alcalini potevano essere modellizzate matematicamente come la somma di tre serie indipendenti, che Rydberg, seguendo la nomenclatura di Liveing e Dewar, definì principale, stretta e diffusa. Nel 1907 Arno Bergmann scoprì una quarta serie di righe negli spettri dei metalli alcalini che chiamò fondamentale [10].

Com’è noto gli anni successivi sono stati caratterizzati dai tentativi, a partire dalla famosa trilogia di Niels Bohr del 1913, di fornire un modello fisico dell’atomo coerente con le formule empiriche per le serie spettrali trovate in precedenza. L’estensione di questo modello dall’idrogeno ad altri elementi ha portato all’introduzione di una varietà di schemi di quantizzazione più complessi, nessuno dei quali si è rivelato del tutto soddisfacente fino all’opera di Stoner, Main Smith[8] e Pauli e l’introduzione della nuova meccanica quantistica di Heisemberg (1925) e Schrödinger (1926).

Tuttavia, il primo tentativo di introdurre configurazioni elettroniche degli atomi (atombau) e comprendere il loro rapporto con il sistema periodico è usualmente attribuito a Bohr [11]. In questo lavoro Bohr ragiona in termini di gusci e sottogusci di orbite, circolari ed ellittiche utilizzando i numeri quantici principale e azimultale, n e k (oggi l). In figura sono riportate le configurazioni dei gas nobili.

Configurazioni elettroniche di Bohr per i gas nobili dall’originale di Bohr [11], p. 113

Sicché la configurazione elettronica dello zolfo secondo Bohr sarebbe 2,4,4,6 invece di 2,8,6 pertanto dovevano esserci incongruenze nell’assegnazione dei sottolivelli. Incorporando il terzo numero quantico j (dovuto ad A. Sommerfeld[9], oggi ml) nella descrizione dei sottogusci, E.C. Stoner [12] riuscì a dare la configurazione elettronica corretta dello zolfo[10]. Tuttavia né il sistema di Bohr né quello di Stoner riuscivano a descrivere correttamente gli effetti di un campo magnetico sugli spettri atomici. Vi erano inoltre ragioni teoriche per le quali a Bohr sembrava inaccettabile la proposta di Stoner.

Lo storico E. Scerri [13] e altri scrivono che Bohr invitò allora l’amico Wolfgang Pauli a cercare di mettere ordine nella situazione sempre più complicata nella descrizione degli atomi polielettronici, che richiedeva, fra l’altro, l’introduzione di nuovi numeri quantici. Pauli [14] studiò a fondo il problema e lo risolse giungendo alla conclusione che i gusci elettronici completi attorno al nucleo di un atomo non contribuiscono affatto al suo momento magnetico. Suggerì che la separazione delle righe spettrali o i loro spostamenti in presenza di campi magnetici fossero dovute interamente alla presenza degli elettroni esterni. Suggerì inoltre l’assegnazione di un quarto numero quantico m (oggi ms) ad ogni elettrone relativo a una sua proprietà quantistica intrinseca non descrivibile in termini classici[11]. Trovò inoltre che si sarebbe potuto arrivare alle configurazioni di Stoner ammettendo che:

È vietato che più di un elettrone con lo stesso valore del numero quantico principale n abbiano lo stesso valore per gli altri tre numeri quantici k, j e m. [14]

Che è la forma con cui Pauli espresse per la prima volta il suo principio detto “di esclusione”.

Niels Bohr

Wolfgang Pauli

Lo storico W. B. Jensen [6] riporta che le nostre attuali configurazioni (aufbau), ad esempio quella dello zolfo (1s2 2s2 2p6 3s2 3p4), sono apparse per la prima volta in una monografia di Friedrich Hund[12] [15] nella quale il numero quantico azimutale o secondario, fino a allora utilizzato da Bohr e altri, viene sostituito con le lettere s (l = 0), p (l = 1), d (l = 2) e f (l = 3).

Friedrich Hund

Ovvero con le vecchie notazioni utilizzate da Sommerfeld e altri come abbreviazione per la costante delle serie stretta, principale, diffusa e fondamentale nell’equazione empirica originale di Rydberg.

Hund stabilì anche le regole per costruire la configurazione dello stato fondamentale (di minima energia) degli atomi degli elementi, regole dette della massima molteplicità o di Hund, esse hanno come conseguenza immediata il fatto che nel completamento di orbitali isoenergetici gli elettroni occupano il maggior numero possibile di orbitali vuoti.

A partire dagli anni Trenta, le configurazioni corrette di Hund e la notazione s, p, d, f cominciarono a penetrare lentamente nella letteratura chimica per indicare gli orbitali.

Bibliografia

[1] W.B. Jensen, The KLM Shell Labels, J. Chem. Educ., 2003, 80, 996-997.

[2] C. G. Barkla, The Spectra of the Fluorescent Röntgen Radiations, Phil. Mag., 1911, 22, 396-412.

[3] H. Moseley, The High Frequency Spectra of the Elements, Phil. Mag., 1913, 26, 1025-1034; ibid., 1914, 27, 703-713.

[4] W. Kossel, Bemerkung zur Absorption homogener Röntgenstrahlen, Verhand. deutschen physik. Gesell., 1914, 16, 898-909.

[5] L. Rosenfeld, Ed., Niels Bohr: Collected Works, 9 Voll., North-Holland Publishing: Amsterdam, 1972-1996.

[6] W.B. Jensen, The Origin of the s, p, d, f Orbital Labels, J. Chem. Educ., 2007, 84, 757-758.

[7] G. Liveing, J. Dewar, Collected Papers on Spectroscopy, Cambridge University Press: Cambridge, 1915. Cit. in [6]

[8] J. R. Rydberg, Sur la constitution des spectres linéaires des éléments chimiques, Comptes Rendus, 1890, 110, 394-399.

[9] H. Kayser, C. Runge, Über die Spectren der Alkalien, Ann Physik, 1890, 41, 302-320.

[10] A. Bergmann, Beiträge zur Kenntniss der ultrarothen Emissionsspectren der Alcalien, Doctoral Dissertation, Jena, 1907. Cit in [6]

[11] N. Bohr, The Theory of Spectra and Atomic Constitution, Three Essays, Essay III The Structure of the Atom and the Physical and Chemical Properties of the Elements, Cambridge University Press, 1922, pp. 85-117.

[12] E.C. Stoner, The distribution of electrons among atomic levels, Phil. Mag.,. 1924, 48, 719–36.

[13] E.R. Scerri. The Electronic Configuration Model, Quantum Mechanics and Reduction, Brit. J. Phil. Sci. 1991, 42, 309-325.

[14] W. Pauli, Uber den Einfluss der Geschwindi gkeitsabhangigkeit der elektronmasse auf den Zeemaneffek, Zeit. Phys., 1925, 31, 373-385; Uber den Zusammehang des Abschlusses der Elektrongruppen im Atom mit der Komplexstruktur der Spektren, Zeit. Phys., 1925, 31, 765-783.

[15] F. Hund, Linienspektren und periodisches System der Elemente, Springer, Berlin, 1927

 

[1] Charles Glover Barkla (1877-1944) fisico britannico, fu allievo di J. J. Thomson (lo scopritore dell’elettrone) fece significativi progressi nello sviluppo delle leggi che regolano lo scattering dei raggi X, per il quale ottenne il Premio Nobel per la Fisica nel 1917.

[2] Henry Moseley (1887-1915) fisico britannico morì prematuramente nella battaglia di Gallipoli nella Prima Gerra Mondiale. Oltre ad aver individuato il principio informatore della Tavola periodica, fornì la prima evidenza sperimentale in favore della quantizzazione di Bohr. http://www.scienzainrete.it/contenuto/articolo/marco-taddia/elemento-moseley/marzo-2016.

[3] Walther Kossel (1888-1956) fisico tedesco, professore e direttore dell’Istituto di Fisica dell’Università di Tubingen dal 1954 al 1953 si è distinto per le sue ricerche sugli spettri atomici e la caratterizzazione dell’emissione di raggi X. Indipendentemente da G.N. Lewis propose la teoria del legame ionico.

[4] George Downing Liveing (1827-1924) chimico inglese, professore di Chimica all’Università di Cambridge, Medaglia Davy 1901 per i suoi contributi alla spettroscopia

[5] James Dewar (1842-1923) fisico e chimico scozzese è noto soprattutto per i suoi studi sulla liquefazione dei gas e l’invenzione del vaso Dewar (thermos). Meno note ma notevoli le sue ricerche spettroscopiche. Medaglie Rumford (1894), Davy (1909), Copley (1916). Primo britannico a ottenere la Medaglia Lavoisier (1904) dall’Accademia Francese delle Scienze, Medaglia Matteucci (1906) dell’Accademia Italiana delle Scienze.

[6] V. post: https://ilblogdellasci.wordpress.com/2017/09/25/johannes-rydberg-e-la-tavola-periodica/

[7] Heinrich Gustav Joannes Kayser (1853-1940) fisico tedesco, scoperse la presenza di elio nell’atmosfera terrestre durante l’eclisse solare del 1868 rilevando una nuova riga nello spettro solare, a lui si deve il termine spettro di assorbimento. Insieme a Carl Runge (1856-1927) matematico e fisico tedesco, interpretò gli spettri di molti elementi.

[8] E. Scerri, Who was John David Main Smith?, https://blog.oup.com/2016/03/john-david-main-smith/

[9] Arnold Sommerfeld (1868-1951) fisico tedesco, è considerato co-fondatore della teoria quantistica dell’atomo di idrogeno, spesso chiamata teoria di Bohr-Sommerfeld.

[10] La configurazione elettronica dello zolfo di Stoner è: 2, 2, 2, 4, 2, 2, 2, cioè 2,8,6.

[11] È quello che oggi si chiama momento angolare di spin. Lo spin dell’elettrone era stato scoperto nel 1922 da Otto Stern e Walther Gerlach con l’ormai classico esperimento del passaggio di un fascio di atomi di argento attraverso un campo magnetico non omogeneo, alcuni anni prima della proposta di Pauli e del concetto di spin elettronico di George Uhlenbeck e Samuel Goudsmit.

[12] Friedrich Hund (1896-1997) fisico tedesco, professore di fisica teorica in diverse università europee, ha dato contributi essenziali in meccanica quantistica collaborando con i principali fisici dell’epoca. Oltre a quanto menzionato in questo testo, Hund è stato un precursore nell’interpretazione quantomeccanica degli spettri e della struttura molecolari. R.S. Mulliken che ha ottenuto il premio Nobel per la chimica 1966 per la teoria degli orbitali molecolare ha sempre proclamato la grande influenza che l’opera di Hund aveva esercitato su di lui e che avrebbe volentieri condiviso il premio Nobel con Hund.

Nobel 2017: perché il cryo-EM è così importante, con una intervista a Martino Bolognesi.

In evidenza

Claudio Della Volpe

Il premio Nobel 2017 per la Chimica è stato assegnato a Jacques Dubochet, Joachim Frank e Richard Henderson  “per aver sviluppato la microscopia crioelettronica per determinare in alta definizione le strutture delle biomolecole”.

L’origine della microscopia crioelettronica è stata il tentativo di trovare un metodo per ridurre il danno inflitto dalle radiazioni elettroniche ai campioni biologici. La quantità di radiazioni richiesta per raccogliere una immagine di un campione attaverso il microscopo elettronico è sufficientemente elevata da costituire una potenziale sorgente di danno per le strutture più delicate. Inoltre l’ambiente ad alto vuoto richiesto per il microscopio elettronico costituisce una situazione drastica per molti campioni. D’altronde il SEM offre la possibilità di una risoluzione molto elevata, dell’ordine di una frazione di nanometro, inferiore a quella ottenibile con i raggi X, ma pur sempre elevatissima, capace di risolvere la struttura macromolecolare.

Il problema del vuoto è stato parzialmente risolto con la introduzione del negative stains o macchia negativa (il campione è inserito in un ambiente, ghiaccio o soluzione di sali, che lo isola dall’ambiente, il fascio elettronico interagisce con entrambi ma in modo diverso e dalla differenza di interazione risalta il volume del campione), ma perfino con la macchia negativa i campioni biologici sono soggetti ad un collasso strutturale a seguito della disidratazione del campione. L’introdurre il campione nel ghiaccio sotto la temperatura di sublimazione è stata una possibilità contemplata fin dalle origini del metodo, ma l’acqua tende a strutturarsi in un reticolo cristallino di bassa densità durante il congelamento e questo può distruggere la struttura di qualunque macromolecola inserita in essa.

Nei primi anni 80 parecchi gruppi che studiavano fisica dello stato solido tentavano di usare ghiaccio vetroso e in un lavoro basilare del 1984 il gruppo diretto da Jacques Dubochet al European Molecular Biology Laboratory mostrò immagini di adenovirus incluse in ghiaccio vetrificato; questo lavoro viene considerato comunemente come il lavoro fondativo della cryo-EM o cryo 3D.

L’energia degli elettroni usati per costruire una immagine (poche centinaia di kV) è alta abbastanza da rompere i legami covalenti. Nel fare una immagine dunque è necessario limitare l’esposizione agli elettroni, specie per materiali molto delicati; questo si ottiene selezionando le immagini di migliaia o milioni di molecole identiche allineate e mediate per ottenere una immagine in alta risoluzione (un metodo analogo, stacking planetario, è usato per esempio dagli astrofili evoluti per le immagini planetarie ottenute da filmati telescopici). Ci vuole ovviamente un software specializzato.

Negli ultimi anni l’introduzione di sensori capaci di individuare singoli elettroni e di metodi di calcolo più efficienti in grado di passare da immagini 2D a immagini 3D è stata determinante. In particolare transistor CMOS ultrapiccoli (L = 20 nm, W = 20 nm) sono in grado di raggiungere il limite di un singolo elettrone quando operano a temperatura molto basse (–269 °C (4 K) a –258 °C (15 K)).

  • Nel 1975 Joachim Frank cominciò a lavorare sugli algoritmi che analizzano e mediano immagini 2D confuse per ricostruire strutture 3D ad elevata risoluzione.
  • Nei primi anni 80 Jacques Dubochet riuscì a vetrificare l’acqua un ambiente che permetteva alle biomolecole di conservare la loro forma nel vuoto.
  • Nel 1990, Richard Henderson fu il primo ad usare un microscopio elettronico per generare immagini 3D di una proteina a risoluzione atomica.

Abbiamo intervistato Martino Bolognesi*, un biochimico di UniMi che ad oggi è l’unico ricercatore italiano che abbia disponibile nel suo laboratorio uno di questi costosi strumenti.

D: Martino sei l’unico a “possedere” in questo momento l’apparecchio in Italia; come mai? è solo un problema di costi? cosa ti ha spinto in questo settore?

R: La rivoluzione cui stiamo assistendo nel campo della crio-microscopia elettronica (cryo EM) e’ in atto, a livello mondiale, da non piu’ di tre anni. La possibilita’ di analizzare la struttura tridimensionale (3D) di grossi complessi molecolari, dal ribosoma alle proteine di membrana, ad esempio, e raggiungere risoluzioni prossime a quelle della cristallografia, ha promosso la rapida diffusione di strumenti che lavorano sotto condizioni sperimentali compatibili con la natura ‘delicata’ delle molecole biologiche. I grossi centri di ricerca hanno colto il significato e l’opportunità di questo sviluppo, impegnandosi con tempi rapidi in installazioni importanti e distribuite nei paesi piu’ avanzati. Stiamo parlando di investimenti dell’ordine di alcuni milioni di euro per ogni strumento installato. In Italia il messaggio innovativo e’ stato colto dalla comunita’ dei biologi strutturali, che e’ di dimensioni ridotte rispetto ad altri paesi europei, e distribuita presso atenei e centri di ricerca, spesso in laboratori di dimensioni ridotte. L’Università di Milano, assieme alla Fondazione Romeo ed Enrica Invernizzi, ha saputo cogliere il messaggio innovativo presentato dalla comunità scientifica, dando il via ad un’operazione di acquisizione di un microscopio FEI Talos Arctica FEG, 200 kV, a partire dal 2016. Lo strumento e’ stato installato in locali dell’Ateneo a meta’ del 2017.

D: dal classico lavoro del 1984 sono passati 40 anni e più; cosa pensi abbia rallentato l’evoluzione della crio 3D?

R: Il potere risolutivo (capacita’ di distinguere/risolvere due ‘oggetti’ posti ad una certa distanza) di un pennello di elettroni accelerato a 200-300 kV e’ in linea di principio piu’ che sufficiente ad esempio per risolvere due atomi, e sfruttato in altri campi della micoscopia elettronica (es. studio di materiali) a risoluzione atomica. In ambito biologico, le macromolecole di interesse (proteine e acidi nucleici, prevalentemente) non sono in grado di tollerare l’intensita’ del fascio di elettroni che viene usato negli studi di microscopia elettronica applicata ai materiali; le molecole biologiche vengono letteralmente distrutte dalla radiazione. Per questo motivo da diversi anni si usano tecniche di congelamento alle temperature dell’azoto liquido per limitare il danno da radiazione; ma questo non basta. Lo sviluppo degli ultimi anni, chiave per le innovazioni che stiamo osservando, e’ stato quello di rendere disponibili dei detectors di elettroni estremamente sensibili, letteralmente in grado di contare gli elettroni uno per uno. Cio’ permette di esaminare i campioni biologici con dosi minime di elettroni, permettendo l’acqusizione delle immagini di cryo EM entro limiti di irraggiamento compatibili con la natura ‘fragile’ delle macromolecole biologiche. Il vero salto avanti, premiato dal recente Premio Nobel 2017 a Henderson, Frank e Dubochet, e’ stato possibile, quindi, tramite l’abbinamento delle tecniche criogeniche con i nuovi detectors particolarmente efficienti.

220px–Structure-of-Alcohol-Oxidase-from-Pichia-pastoris-by-Cryo-Electron-Microscopy

D: che differenza c’è stata e ci sarà  fra le classiche tecniche a Raggi X e le tecniche crio-3d? il futuro della strutturistica in biochimica passa per il 3d? cosa rimarrà alla strutturistica tradizionale?

R: In ambito biologico, il settore cui la cryo EM si rivolge principalmete, l’approccio alla struttura delle macromolecole associate a processi cellulari e non, va sotto il nome di Biologia Strutturale. Tecniche in uso da tempo in Biologia Strutturale sono la cristallografia a raggi-X, che ad oggi ha contribuito le strutture 3D di circa 130.000 proteine, la risonanza magnetica nucleare (NMR), i metodi di scattering di raggi X in soluzione, e altre tecniche biofisiche che richiedono installazioni meno impegnative. La cryo EM che fino a poco tempo fa contribuiva con strutture 3D a bassa risoluzione (10-20 Angstroem), oggi si affainca ai metodi a piu’ alta risoluzione e li integra in maniera sinergistica. La cristallografia a raggi X permette nei casi favorevoli di raggiungere risoluzioni veramente atomiche (meglio di 2 Angstroem), e presumbilmente rimarra’ la tecnica di elezione per proteine o complessi comunque cristallizabili. L’approccio single particle cryo EM mirera’ ai grossi complessi macromolecolari, spesso dificili da ricostruire in laboratorio o difficilmente cristallizzabili. L’NMR si focalizzera’ su informazioni di natura dinamica, applicate a macromolecole di dimensioni minori di 40-50 kDa. Le tecniche di scattering in soluzione permetteranno visioni dinamiche di macromolecole in soluzione e a bassa risoluzione, utili in una serie di contesti diversi. Pertanto, non si parla di rimpiazzare una delle tecniche maturate da tempo, quanto di affrontare le grandi domande della biologia in maniera integrata, mettendo in sinergia le informazioni complementari che le diverse tecniche ci forniscono. Non c’e’ dubbio che l’immediatezza delle indagini cryo EM, la potenza risolutiva raggiunta, e qualche ulteriore progresso nell’hardware, spianeranno la strada ad una loro ampia diffusione.

D: quali sono le tue attività di ricerca attuali e come pensi che la crio-3D possa in futuro contribuire alla biochimica e ad altre discipline, per esempio alla scienza dei materiali? vedi altri settori di uso?

R: Limitero’ la mia risposta al campo biologico, in quanto applicazioni in altri campi sono troppo numerose per poter essere discusse qui (es. scienza dei materiali, nelle sue innumerevoli sfaccettature). Per quanto detto sopra, vari campi della biologia cellulare beneficeranno degli approcci cryo EM. In primo luogo, poter accedere in maniera relativamente diretta alle strutture 3D di grossi complessi molecolari della cellula e alla struttura delle proteine di membrana fornira’ informazioni impagabili sui loro meccanismi di azione. Oltre al beneficio che questo comportera’ per la scienza di base, comprendere i meccanismi di azione di un sistema macromolecolare significa capire come regolarne l’attivita’ in vivo. In altre parole, significa disporre delle basi razionali per la progettazione di farmaci di nuova generazione, diretti verso bersagli molecolari che fino ad oggi potevano essere raggiunti solo per caso, o dopo lunghi processi di ‘trial and error’. Questo ritengo sia (e sara’) il principale campo di applicazione degli studi di cryo EM su macromolecole biologiche, non sottovalutando comunque il significato del valore scientifico di base da quello applicativo. Infine, tecniche di cryo EM troveranno sempre maggiore applicazione a studi di tomografia elettronica applicati alla cellula intera, consentendo quindi di osservare i componenti citoplasmatici e nucleari nel loro ambiente naturale, mentre sono in piena attivita’.

Per approfondire:

  1. Calloway 172 | NATURE | VOL 525 | 10 SEPTEMBER 2015

2. Adrian e Dubochet Nature vol. 308 p. 32 (1984)

********************************************

*Martino Bolognesi (Laurea in Chimica a Pavia) ha lavorato presso l’University of Oregon, Institute of Molecular Biology, e presso il Max Planck Institut fur Biochemie, Martinsried (Prof. R. Huber, premio Nobel nel 1988). Dal 1991 e’ Professore Ordinario di Chimica Biologica, presso l’Universita’ di Milano, dove a partire dal 2005 ha installato un nuovo gruppo di ricerca. Bolognesi ha studiato la struttura tridimensionale delle proteine tramite diffrazione di raggi ‐ X, con piu’di 460 pubblicazioni su riviste internazionali. Oggetti principali della ricerca sono le strutture ed i meccanismi di azione di proteine e di enzimi, i cui risultati sono presenti in piu’ di 240 deposizioni presso il Protein Data Bank. Il Prof. Bolognesi e’ stato uno dei fondatori della biologia strutturale a raggi ‐ X in Italia.

Note sull’Antropocene.1.Le origini.

In evidenza

Claudio Della Volpe

Il nostro blog ha un sottotitolo che contiene la parola Antropocene:

Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.

In realtà una definizione formale e condivisa dell’Antropocene non esiste ancora ma ci si sta lavorando e in questo post vorrei appunto raccontare a chi non la conosce una breve storia di questo concetto, di questo meme, che è destinato secondo me e secondo tutti noi del blog ad un ruolo culturale crescente.

Una occasione per approfondire potrebbe essere la lettura di un libro di recente tradotto in italiano e che tratta proprio di questi temi; mi riferisco a Jason W. Moore: Antropocene o Capitalocene? Scenari di ecologia-mondo nell’era della crisi planetaria, Ombre Corte, 2017

Il termine è stato inventato dal microbiologo Eugene Stoermer professore di microbiologia all’Università del Michigan; grande esperto di diatomee egli usò questo termine per indicare, fin dai primi anni Ottanta del XX secolo, l’impatto dell’uomo sul pianeta.

Fu solo nel 2000 che il premio Nobel per la chimica Paul Crutzen (lo aveva vinto con Molina e Rowland per la scoperta del buco dell’ozono e dei meccanismi connessi) popolarizzò il termine in un articolo scritto a quattro mani (1).

L’idea non era nuovissima; era stata intravista fra i primi dal geologo italiano abate Antonio Stoppani, una delle menti più fini della nostra cultura nazionale, patriota e rivoluzionario, zio di Maria Montessori; che inventò il termine di Era antropozoica. Stoppani è un personaggio di cui sicuramente avete visto il ritratto o usato un’espressione; eh si, perchè egli scrisse fra gli altri un testo dal titolo, pensate un pò, “Il bel paese”. Il titolo del libro era a sua volta preso in prestito da Petrarca:antropocene12

Questo titolo fu preso a prestito insieme con il ritratto di Stoppani nel 1906 dalla Galbani per il suo famoso prodotto; e dunque difficile che non lo conosciate. Come il vecchio dei formaggini.

Di meno come intellettuale. Ma per fortuna nostra lo conoscono all’estero; tanto è vero che Crutzen e Stoermer citano una sua frase che cade qui a fagiolo:

“[l’attività umana] è una nuova forza tellurica che in potenza e universalità può essere paragonata alle maggiori forze della terra”, scritta nel 1873 (3). Vorrei farla leggere a certi colleghi che so io e che la negano ancora oggi, dopo oltre 130 anni.

antropocene11

Lo riconoscete? Era su parecchi dei formaggini che ci siamo sbafati da fanciulli.

SE vi sembra incredibile che un comunistaccio come me debba citare come gloria nazionale un abatino, pensate che lo spessore delle persone non dipende dalle loro idee religiose. E questa citazione di Crutzen e Stoermer ne è la conferma. Perchè vedete Stoppani partecipò alle 5 giornate di Milano e costruì ad uso dei combattenti dei piccoli palloni aerostatici per mandare messaggi della rivolta che superassero le mura senza essere colpiti dagli austriaci, aiutato dal tipografo Vincenzo Guglielmini. Più tardi scrisse un testo “Gli intransigenti” contro la resistenza della chiesa cattolica ai nuovi fermenti politici e sociali. Un abate “rosso” si direbbe oggi (ma non per i capelli come si diceva di Vivaldi). Un teologo della liberazione. E anche uno scienziato a tutto tondo.

Ma dato che nemo propheta in patria il testo da cui è presa la frase, cioè il suo Corso di Geologia (scritto da professore universitario a Milano) è sostanzialmente introvabile sulla rete come pdf; fortunatamente viene citato sempre da una rivista straniera, in inglese (3).

Diffidate da chi scrive che la frase si trova ne “Il bel paese”, non si è guardato le carte e mi ha fatto perdere un pomeriggio per capirci qualcosa.

Torniamo al nostro argomento principale.

L’articolo seminale di Crutzen e Stoermer cita molti altri autori che hanno preparato il terreno al meme, per esempio Vernadskij e Teillard de Chardin che inventarono l’idea della noosfera, cioè della crescente importanza della scienza e della tecnologia nel forgiare il futuro della biosfera terrestre. (4)

In quell’articolo i due autori indicano i motivi per i quali considerano giustificato definire una nuova era geologica e che a distanza di soli 17 anni noi ritroviamo potenziati ed aggiornati (l’elenco che segue è stato aggiornato da me):

-durante gli ultimi 3 secoli la popolazione umana è cresciuta più di dieci volte ad oltre 7.5 miliardi di persone, con una crescita della popolazione di animali asserviti tale per cui la biomassa totale degli uomini e dei loro animali rappresenta il 97% della massa dei vertebrati terrestri (tutti i grandi animali selvatici sono solo il 3%!!)

– per effetto delle azioni umane la velocità di estinzione delle specie nelle foreste tropicali è cresciuta di un fattore stimato da 1000 a 10.000 volte;

– durante gli ultimi 100 anni la popolazione urbanizzata è cresciuta di più di 10 volte

-dal 30 al 50% della superficie terrestre è stata trasformata per opera dell’uomo (esaurimento del suolo) e l’uomo è il principale produttore di materiali in forma di polveri e granuli (più della erosione naturale);

– in poche generazioni l’umanità si avvia all’esaurimento dei combustibili fossili prodotti in quasi 400 milioni di anni.

– il rilascio di zolfo sotto forma di biossido a causa della combustione di tali combustibili è almeno due volte la somma annua di tutte le emissioni naturali di zolfo che avvengono principalmente come dimetilsolfuro oceanico;

– l’azoto fissato sinteticamente, principalmente dalla reazione di Born-Haber ed usato come fertilizzante agricolo (e come componente degli esplosivi) è maggiore della quota fissata da tutti gli ecosistemi terrestri; il rilascio di NO nell’atmosfera da combustioni è maggiore dell’output naturale dando origine alla formazione di ozono fotochimico (smog) in molte regioni del pianeta

– l’uomo estrae una quantità di fosforo multipla di quella estratta naturalmente per erosione (phosphate weathering); come conseguenza di questa situazione sia il ciclo delll’azoto che quello del fosforo sono totalmente alterati rispetto alla situazione naturale;

– l’uomo intercetta il 10% di tutta l’acqua che cade sul pianeta, questa quota rappresenta però più di metà dell’acqua potabile accessibile; la restituisce spesso spostandola da fonti geologiche esauribili e in molti casi profondamente inquinata;

– la combustione dei fossili e l’agricoltura basata sui fertilizzanti sintetici hanno accresciuto il flusso di alcuni gas serra verso l’atmosfera e l’oceano: come conseguenza la concentrazione di tali gas è aumentata negli ultimi 3 secoli di oltre il 30% per la CO2 e del 100% per il metano; il conseguente aumento di temperatura media superficiale oceano-terra è misurato al momento in poco meno di 1 grado centigrado; il pH oceanico si è ridotto di circa 0.2 unità e mette a rischio la sopravvivenza di alcune specie.

– la criosfera polare e continentale si sta riducendo a velocità enorme; si prevede che entro pochi decenni i ghiacci del Polo Nord scomparirano e quelli dell’Antartide e della Groenlandia scompariranno entro qualche secolo, con la conseguenza di innalzare il livello dei mari di alcuni metri.

– inoltre l’umanità ha immesso in circolo alcune sostanze inquinanti profondamente tossiche come mercurio e cadmio estraendole dai loro depositi geologici e altre sintetiche, apparentemente stabili chimicamente come i clorofluorocarburi o la “sporca dozzina”; ma in tutti i casi queste molecole alogenate sono in realtà instabili sul lungo periodo e hanno danneggiato significativamente lo strato di ozono stratosferico e si sono accumulate nei tessuti di parecchie specie viventi con danni ancora non precisamente valutabili; nonostante gli accordi internazionali in vigore per controllare tale inquinamento la situazione non è ancora sotto controllo; si sospettano azioni che simulano effetti ormonali in molte altre sostanze usate comunemente (bisfenolo-A e alcuni tensioattivi) e si ipotizza di attribuire a tale inquinamento la riduzione della fertilità maschile stimabile in alcuni casi ad oltre la metà dei valori naturali;

– le zone costiere sono state danneggiate sia dall’arricchimento in fosforo e azoto con la formazione di zone anossiche, dead zones, in varie parti dell’oceano e dei mari interni come il Mediterraneo, sia con la scomparsa del 50% delle mangrovie;

– la pesca industrializzata rimuove una percentuale crescente della produzione primaria dell’oceano valutabile in oltre un terzo;

– le attività nucleari umane (belliche e non) hanno inquinato irreversibilmente con isotopi radioattivi anche sintetici alcune zone del pianeta e tale presenza è comunque misurabile in ogni zona del mondo.

PB_FIG33_media_11jan2015_web2

Il lavoro di Crutzen e Stoermer conclude:

Considering these and many other major and still growing impacts of human activities on earth and atmosphere, and at all, including global, scales, it seems to us more than appropriate to emphasize the central role of mankind in geology and ecology by proposing to use the term “anthropocene” for the current geological epoch. The impacts of current human activities will continue over long periods. According to a study by Berger and Loutre, because of the anthropogenic emissions of CO2, climate may depart significantly from natural behaviour over the next 50,000 years.

“Si tratta di una proposta che è stata presa in seria considerazione. La reazione del mondo umanistico è stata entusiastica con la nascita di ben tre riviste internazionali dedicate al tema: Anthropocene, The Anthropocene Review ed Elementa.

Nel campo delle scienze naturali sia la International Commission on Stratigraphy che la International Union of Geological Sciences hanno finora rifiutato di riconoscere il termine come categoria valida per la suddivisione del tempo geologico. Dall’altro, nell’agosto 2016 il Working Group on the Anthropocene – dopo sette anni di lavori – ha ufficialmente raccomandato un tale riconoscimento ai suddetti organi burocratici (con voto ad ampia maggioranza ma senza unanimità). In buona sostanza gli scienziati del gruppo presieduto da Jan Zalasiewicz propongono di considerare l’Antropocene come una serie, l’equivalente stratigrafico di un’epoca, tanto quanto l’Olocene o il Pleistocene che l’hanno preceduto. Il golden spike [chiodo d’oro] individuato come punto originario sarebbe da collocarsi nella cosiddetta grande accelerazione, cioè a partire dagli ultimi sussulti della seconda guerra mondiale, quando le bombe atomiche vennero sganciate e la dipendenza da carbone e petrolio contagiò l’intero pianeta (sebbene con intensità molto variabili).”

(Il sintomo-Antropocene di Emanuele Leonardi e Alessandro Barbero, Effimera, 9 ottobre 2017)

Nella seconda parte del post racconteremo più in dettaglio quali sono i possibili confini temporali dell’Antropocene, una questione per la quale in realtà esistono almeno 4 differenti ipotesi e proposte.

(continua)

Riferimenti.

(1)Crutzen, P. J. & Stoermer, E. F. The Anthropocene. IGBP Global Change Newsl. 41, 17–18 (2000)

(2)Stoppani, Il bel paese, 1873 –http://www.sba.unifi.it/upload/scienze/img150anniuniti/doc150anniuniti/belpaese.pdf

https://ia600502.us.archive.org/6/items/ilbelpaeseconver00stopuoft/ilbelpaeseconver00stopuoft.pdf

(3)Stoppani Corso di geologia in 3 vol. 1873; la parte che ci interessa è tradotta in inglese qui http://www.geologicnow.com/2_Turpin+Federighi.php; MAKING THE GEOLOGIC NOW RESPONSES TO MATERIAL CONDITIONS OF CONTEMPORARY LIFE edited by Elizabeth Ellsworth e Jamie Kruse trad. di Valeria Federeghi

Riporto qui l’intera frase perchè sia chiaro che Stoppani non rinnega la sua fede, ma la fonde con i fermenti dell’era di rivoluzione economica, sociale e politica che vive (la lascio in inglese come scorno, per far risaltare l’abbandono che abbiamo della nostra storia migliore):

“…when, in the bosom of the aged fabric of ancient pagan societies, the Christian ferment was introduced, the new element par excellence, that substituted ancient slavery with freedom, darkness with light, fall and degeneration with rebirth and true progress of humanity.

It is in this sense, precisely, that I do not hesitate in proclaiming the Anthropozoic era. The creation of man constitutes the introduction into nature of a new element with a strength by no means known to ancient worlds. And, mind this, that I am talking about physical worlds, since geology is the history of the planet and not, indeed, of intellect and morality. But the new being installed on the old planet, the new being that not only, like the ancient inhabitants of the globe, unites the inorganic and the organic world, but with a new and quite mysterious marriage unites physical nature to intellectual principle; this creature, absolutely new in itself, is, to the physical world, a new element, a new telluric force that for its strength and universality does not pale in the face of the greatest forces of the globe.”

(4)Personalmente conosco almeno un filosofo dell’800 (fra il 1850 e il 1860) che scrisse a proposito di ciò nella critica alla società capitalistica che vedeva nascere; lascio a voi scoprire chi era costui, che pensava alla scienza applicata alla produzione e al lavoro sociale nella forma di divisione del lavoro come la base materiale della trasformazione della biosfera; egli vedeva già allora il puro tempo di lavoro che andava scomparendo mano a mano come fonte principale della ricchezza sostituito da questo nuovo e più potente paradigma sociale che avrebbe inglobato ogni sviluppo (anche legato ai robot, a lui sconosciuti ma inglobabili nel suo “sistema automatico di macchine”). Si tratta di una forza produttiva talmente potente che se non domata e sottoposta alla ragione e al controllo sociale può, con la sua esigenza di sviluppo infinito, distruggere ogni biosfera e giustificare il paradosso di Fermi.

 

Cromorama

In evidenza

Mauro Icardi

Il titolo di questo articolo è lo stesso di un libro uscito nella collana Einaudi “Stile libero extra” a Settembre. L’autore, Riccardo Falcinelli è designer e insegnante. In questi giorni è impegnato nella promozione del suo volume, la cui preparazione, a quanto lui stesso ha raccontato in una delle presentazioni radiofoniche, ha richiesto circa dieci anni. In questo periodo ha   raccolto molti appunti e molta documentazione storica, fino alla pubblicazione del libro. Libro che ci racconta di come la storia dei colori, ha finito per modificare il nostro sguardo. Questo articolo non è una recensione del libro, ma un aggancio ai temi che lo scrittore ha sviluppato nel suo libro tratto dalle presentazioni del libro in radio. ) E in queste presentazioni del libro, Falcinelli parla comunque di chimica e di rivoluzione industriale.

 

E lo spunto parte da una considerazione estremamente interessante.

Prima dello sviluppo dell’industria dei coloranti di sintesi non esisteva la tinta unita. Ma “la rivoluzione della chimica permette di avere qualunque oggetto di qualunque colore”.

L’autore intervistato per la rubrica di radio 3 Fahrenheit pronuncia queste parole riferendosi allo sviluppo dell’industria dei coloranti di sintesi.

Premesso che come lui stesso dichiara, il suo libro non vuole essere un saggio ma un racconto di come il colore abbia cambiato il nostro sguardo, ma anche il nostro immaginario, ecco che il legame con la chimica, o meglio con la storia dell’industria chimica è subito trovato.

Riportandoci alla storia dell’anilina , isolata nel XIX secolo e che August Wilhelm von Hofmann riconoscerà e cui darà il nome nel 1855. E solo un anno dopo, nel 1856 l’avvio dell’industria dei coloranti sintetici grazie all’entusiasmo di William Henry Perkin, che tentando ricavare dal catrame i precursori del chinino, fini per ossidare l’anilina ed ottenere il colore “mauve”. La polvere nera ricavata dall’ossidazione dell’anilina si scioglieva in metanolo dando origine ad un colore porpora molto persistente.

Questi episodi sono appunto uno spartiacque. L’industria dei coloranti avrà un enorme sviluppo. Tingere diventerà meno difficile e meno costoso. Non dimentichiamo che i coloranti naturali non sempre potevano essere utilizzati con facilità. Per esempio in Piemonte nel 1789, dati gli alti costi per la tintura delle divise dei soldati, il Governo si rivolse addirittura all’Accademia delle Scienze.

Fu creata una commissione che lavorò per trovare un sostituto dell’indaco che si otteneva dalle foglie di Indigofera Tintoria, pianta di origine Asiatica. Il sostituto venne trovato nella foglia del guado (Isatis tinctoria) che si poteva reperire anche in Piemonte, essendo molto diffusa nelle Alpi Occidentali e in quelle marittime.

Lo sviluppo dell’industria dei coloranti di sintesi modificherà non solo la tecnologia, ma anche il modo in cui noi oggi percepiamo i colori, secondo Falcinelli. Nel passato normalmente ogni colore o pigmento aveva un solo utilizzo. Ad esempio il colore blu ricavato dalla macinazione del lapislazzuli che è il blu degli affreschi della cappella sistina, e di quella degli Scrovegni, poteva essere utilizzato solo per gli affreschi, e non per esempio per tingere tessuti. La versatilità dei coloranti di sintesi che invece possono essere utilizzati per materiali diversi, hanno reso i colori, o meglio l’idea che ne abbiamo ,come svincolata dall’idea della provenienza da un determinato minerale o pianta. Secondo l’autore oggi abbiamo un’idea dei colori come svincolata dalla provenienza da sostanze reali.

A mio parere questo non credo sia del tutto vero per i chimici. Abituati come siamo a pensare in termini di strutture, di sostanze, a cercare di indagare la composizione della materia.

Le tesi di Falcinelli si possono ascoltare in questa conversazione nel programma Fahrenheit.

http://www.radio3.rai.it/dl/portaleRadio/media/ContentItem-97d47773-8f3a-4253-89a7-200f800be993.html

Ci sono moltissimi interessanti spunti. E si parla molto spesso di chimica. D’altronde il legame tra chimica e colori esiste praticamente da sempre. Ognuno di noi ne ha fatto pratica in Laboratorio per esempio nelle titolazioni con gli indicatori, nella colorimetria E quindi Cromorama può trovare posto accanto a libri di divulgazione chimica. Rappresentandone una visione diversa. E decisamente affascinante.

 

Tutto ciò che è bene sapere sul latte e derivati del latte

In evidenza

Marino Melissano

Il latte è un alimento bilanciato che contribuisce a soddisfare il fabbisogno giornaliero di proteine, zuccheri, grassi, oligoelementi e vitamine di ogni persona, in ogni età della vita.

È facile convincersi del fatto che il latte sia uno degli alimenti più completi, grazie alla sua composizione chimica. Infatti contiene tutti i principi alimentari indispensabili, quali sostanze proteiche, carboidrati, vitamine, enzimi e sali minerali, tra cui il calcio (126 mg/100 g di latte), il magnesio (13 mg/100 g) e il fosforo (100 mg/100 g). Da notare che il rapporto calcio/fosforo è superiore a uno: questa particolarità permette la calcificazione delle ossa anche in assenza di vitamina D.

    

Tra le vitamine spiccano le presenze dell’acido pantotenico, che favorisce la produzione ormonale; la vitamina B2 indispensabile all’accrescimento delle cellule; la A, importante per la pelle e per la vista; la K, antiemorragica; oltre alle note vitamine C, D, E e B6.

Le proteine del latte sono di alto valore biologico; la più importante di queste, il caseinogeno, è ricca di fosforo e ha la proprietà di coagulare, scindendosi in paracaseina, ad opera di speciali enzimi, quali la chimasi. Questa coagulazione è sfruttata nella preparazione dei formaggi.

L’unico zucchero del latte è il lattosio; essendo la sua molecola complessa, essa non viene digerita tal quale, ma viene prima degradata ad opera di un enzima specifico, la lattasi, che manca nelle persone disabituate al latte, la qual cosa spiega l’azione lassativa che il latte esplica in alcuni individui, in quanto il lattosio non scisso si comporta come un purgante salino. Però è sufficiente ricominciare a berne quantità gradualmente crescenti perché il proprio organismo riproduca la lattasi.

Per i sali di calcio e per la presenza di un amminoacido essenziale, il triptofano, il latte è un ottimo regolatore nervoso e, secondo recenti ricerche, anche un buon regolatore del sonno. Sembra, ancora, che prevenga la osteoporosi, cioè la decalcificazione delle ossa che spesso si verifica in età avanzata, e l’ulcera gastrica.

Un’assunzione dì mezzo litro di latte intero al giorno assicurerebbe: 17 g di lipidi; 19 g di glucidi; 16 g di protidi; 3,5 g di sali minerali, oltre una corretta quantità di vitamine; il tutto per un valore energetico di 289 kcal. Lo stesso mezzo litro di latte apporta, quindi, tante proteine quante sono contenute in 100 g di carne di manzo o in tre uova.

In commercio esistono diversi tipi di latte: pastorizzato intero, (contenente non meno del 3% di grasso); parzialmente scremato (contenente non meno dell’1,5% di grasso) e scremato (contenente meno dello 0,3 % di grasso); omogeneizzato; sterilizzato; in polvere e condensato.

La pastorizzazione (stassanizzazione) consiste in un trattamento a 75 °C per 15 secondi; si distruggono così tutti i germi patogeni, senza significative perdite neanche delle vitamine più termosensibili.

In base alla legge 3 maggio 1989, n. 169 e al decreto del Ministero della Attività produttive 27 giugno 2002, si può definire latte pastorizzato quel latte, sottoposto a pastorizzazione, che, al consumo, presenti:

–                 prova della fosfatasi alcalina negativa: è questo un enzima contenuto nel latte in misura quasi sempre costante; la sua attività è pressoché annullata quando il latte viene riscaldato a circa 70°C; il controllo è quindi inteso a stabilire se la pastorizzazione sia stata svolta regolarmente o se siano state aggiunte al latte pastorizzato piccole quantità di latte crudo;

  • un contenuto in sieroproteine solubili, non denaturate, non inferiori all’11% delle proteine totali. Il tenore di sieroproteine solubili decresce ogni qualvolta il latte subisce un trattamento termico. Non di rado il latte trattato dopo un certo tempo dalla mungitura viene pastorizzato più volte: in questo caso non sarà possibile denominarlo fresco. Infatti, il latte pastorizzato si può fregiare della denominazione di latte fresco pastorizzato se, pervenuto crudo allo stabilimento di confezionamento e qui sottoposto a un solo trattamento termico entro 48 ore dalla mungitura, presenti al consumo:
  • prova della fosfatasi alcalina negativa;
  • prova della perossidasi positiva: è questo un altro enzima sempre presente nel latte crudo, che è distrutto ad una temperatura di almeno 80 °C, anche per pochi secondi;
  • un contenuto di sieroproteine solubili non denaturate non inferiori al 14% delle proteine totali. Se questa percentuale sale almeno al 15,5% il latte fresco pastorizzato può essere definito latte fresco pastorizzato di alta qualità.

(Marino Melissano – Alimentologia – Youcanprint – www.youcanprint.it)

Un’altra tecnica di conservazione del latte è la microfiltrazione: prima di subire il trattamento termico, il latte viene fatto passare, alla temperatura di 50°C, attraverso una membrana che possiede fori microscopici, capace di trattenere la maggior parte dei batteri naturalmente presenti ed eventualmente particelle estranee. In questa fase si separa anche il grasso, poiché le sue particelle non passano attraverso i fori.
Il grasso e la parte rimanente del latte vengono poi pastorizzati separatamente: il grasso, insieme ai batteri, viene pastorizzato a 85°C, una temperatura superiore alla normale pastorizzazione, che elimina quindi una quantità superiore di microrganismi, mentre il filtrato viene pastorizzato a 72 °C;

il grasso viene poi miscelato nuovamente al latte, omogeneizzato, ed è così pronto per la commercializzazione.
In questo modo il latte possiede una carica batterica inferiore rispetto al latte pastorizzato e può quindi conservare più a lungo le sue caratteristiche naturali.

(www.salutarmente.it).

A livello qualitativo e nutritivo, ha le stesse caratteristiche del latte fresco.

Mentre per il latte pastorizzato la data di scadenza è determinata dal produttore, il decreto 24 luglio 2003 del Ministero delle Politiche Agricole e Forestali stabilisce che: la data di scadenza del “latte fresco pastorizzato” e del “latte fresco pastorizzato di alta qualità”, così come definiti dall’art. 4 della legge 3 maggio 1989, n. 169, è determinata nel sesto giorno successivo a quello del trattamento termico.
La data di scadenza del “latte microfiltrato fresco pastorizzato” è determinata nel decimo giorno successivo a quello del trattamento termico.

In base al decreto-legge 24 giugno 2004, n. 157, coordinato con la legge di conversione 3 agosto 2004, n. 204, il latte ottenuto con questo trattamento innovativo di conservazione può essere indicato in etichetta solo con la denominazione di latte microfiltrato: sparisce, perciò, il “fresco pastorizzato”.

Questo ha determinato un pasticcio sulla scadenza del microfiltrato, perché il decreto del 2003 prevedeva una scadenza di 10gg, ma riferita al “microfiltrato fresco”; caduto il termine “fresco” sembra che la scadenza sia stata liberalizzata, al pari di quella del latte UHT; quindi, si trovano in commercio latti microfiltrati con scadenza diverse. (www.issa-europe.eu).

Presso l’esercizio di vendita la temperatura di conservazione del latte, sottoposto a trattamento di pastorizzazione, deve essere compresa tra 1 e 6 °C.

Per una conservazione maggiore del latte si ricorre a metodi di conservazione più spinti, come la sterilizzazione, che può essere una sterilizzazione UHT semplice, consistente in un trattamento a 135-140 °C per 2-4 secondi. Un metodo recente di sterilizzazione UHT è quello della “uperizzazione”: esso consiste nella iniezione di vapore vivo al latte pre-riscaldato (si raggiunge così una temperatura di 135-145 °C) cui segue il passaggio in camera a decompressione (il vuoto che si applica fa abbassare la temperatura e fa allontanare il vapore che viene riceduto all’impianto).

Una sterilizzazione ancora più spinta si attua con un preriscaldamento a temperatura ultra-alta (Ultra High Temperature o UHT) per pochi secondi e successivo trattamento in bottiglia a 110-120 °C per 12-20 minuti.

Con la pastorizzazione le perdite sono in genere modeste: le proteine non subiscono praticamente deterioramento, la vitamina C si perde anche per azione della luce ed il processo è sensibilizzato dalla presenza di riboflavina; la vitamina B12, pur essendo termostabile, è influenzata tuttavia negativamente dalla vitamina C in presenza di ossigeno. La sterilizzazione in bottiglia arreca danni maggiori anche alle proteine, a differenza della sterilizzazione UHT.

Definiamo il latte sottoposto a trattamento di sterilizzazione:

latte sterilizzato a lunga conservazione”, quando ha subìto un trattamento termico finale di sterilizzazione in contenitore sigillato. Esso deve riportare sul contenitore il termine di conservazione, indicato con la menzione “da consumarsi preferibilmente entro”, seguito dalla data riferita al giorno, al mese e all’anno, con data di riferimento di 180 giorni dal confezionamento;

latte UHT a lunga conservazione”, trattato a temperatura molto alta, ha subìto un trattamento termico di sterilizzazione in flusso continuo, seguito dal confezionamento asettico che ne consente una conservazione prolungata nel tempo. Il termine di conservazione va indicato sul contenitore con la medesima menzione prevista alla lettera precedente, con data di riferimento di 90 giorni dal confezionamento.
(da “Marino Melissano”- Alimentologia – Ed. Youcanprint – www.youcanprint.it)

Grazie al DM 09.12.2016, entrato in vigore il 20.04.2017, oggi, in Italia, è obbligatoria in etichetta l’indicazione dell’origine della materia prima dei prodotti lattiero caseari, come ad esempio: il latte UHT, il burro, lo yogurt, la mozzarella, i formaggi e i latticini.
L’obbligo si applica al latte vaccino, ovicaprino, bufalino e di altra origine animale.

L’origine del latte e dei derivati dovrà essere indicata in etichetta in modo chiaro, visibile e facilmente leggibile.

Queste le diciture utilizzate:
a) “PAESE DI MUNGITURA: nome del Paese nel quale è stato munto il latte”;
b) “PAESE DI CONDIZIONAMENTO O TRASFORMAZIONE: nome del Paese in cui il prodotto è stato condizionato o trasformato il latte”.
Qualora il latte o il latte utilizzato come ingrediente nei prodotti lattiero-caseari sia stato munto, confezionato e trasformato nello stesso Paese, si può utilizzare una sola dicitura, ad esempio: “ORIGINE DEL LATTE: ITALIA“.
Se le fasi di confezionamento e trasformazione avvengono nel territorio di più Paesi, diversi dall’Italia, possono essere utilizzate, a seconda della provenienza, le seguenti diciture:
latte di Paesi UE: se la mungitura avviene in uno o più Paesi europei;
latte condizionato o trasformato in Paesi UE: se queste fasi avvengono in uno o più Paesi europei.
Se le operazioni avvengono al di fuori dell’Unione europea, verrà usata la dicitura “Paesi non UE”. 
Sono esclusi solo i prodotti Dop e Igp che hanno già disciplinari relativi anche all’origine e il latte fresco già tracciato.

Attenzione, però: le norme suddette non si applicano ai prodotti fabbricati o commercializzati in altri Stati membri UE o in Paesi extra-UE: per esempio, in Germania e in Austria non vige il medesimo obbligo italiano sull’origine; quindi, se compro in Italia latte o prodotti lattiero-caseari austriaci o tedeschi, posso anche non trovare in etichetta alcuna indicazione del Paese di mungitura e del Paese di condizionamento o trasformazione.

Un discorso a parte merita il latte crudo, che, secondo il Regolamento CE n. 853/2004, è il latte che non è stato riscaldato a più di 40°C e non è stato sottoposto a nessun trattamento avente un effetto equivalente, prima di essere consumato. Al controllo, il latte vaccino crudo non deve contenere, a 30°C, più di 300.000 germi/ml e 400.000 cellule somatiche/ml. Se è destinato alla produzione di derivati mediante processi che non comportano trattamenti termici, il numero di germi non può essere superiore a 500.000/ml.

Questo prodotto si è di fatto reso disponibile al consumatore che lo acquista al di fuori dell’azienda agricola, a partire dalla metà degli anni 2000, quando si sono diffuse sull’intero territorio nazionale apposite macchine erogatrici. L’obbligo di riportare nell’etichettatura del latte crudo la dicitura “da consumarsi previa bollitura”, introdotto a partire dal 2008 con una Ordinanza del Ministero della salute e previsto dal Decreto legge n. 158 del 13/09/2012, ha consentito di inserire un principio di garanzia a tutela della salute del consumatore. (http://www.salute.gov.it/portale/news/p3_2_3_1_1.jsp?menu=dossier&p=dadossier&id=10)

L’etichetta

L’etichettatura del latte crudo deve contenere le diciture:

  • “Latte crudo”, per il latte crudo destinato al consumo umano;
  • “Fabbricato con latte crudo”, per i prodotti lattiero caseari derivati da latte crudo.

Il latte crudo può essere venduto attraverso macchine erogatrici, che, però, devono contenere la dicitura, sul frontale della macchina, in rosso, “prodotto da consumarsi dopo bollitura”.

La data di scadenza non può superare i 3 gg da quella della messa a disposizione del consumatore. (ordinanza 10.12.2008)

E’ vietata la somministrazione di latte crudo nell’ambito della ristorazione collettiva.

E’ vietata la produzione di gelati prodotti con latte crudo. (ordinanza 2.12.2010).

La produzione di formaggi a latte crudo viene consentita, nel rispetto di alcuni requisiti minimi aziendali e igienici. Tra questi:

  • Il latte deve provenire da animali che non presentano sintomi di malattie infettive trasmissibili all’uomo attraverso il latte (in particolare provenire da allevamenti ufficialmente indenni da brucellosi e tubercolosi), in buono stato sanitario e ai quali non siano state somministrate sostanze o prodotti non autorizzati oppure senza il rispetto dei termini minimi di sospensione.
  • Se il latte non è lavorato entro due ore dalla mungitura, deve essere posto immediatamente in un luogo pulito e deve essere raffreddato a una temperatura non superiore a 8 °C (in caso di raccolta giornaliera) e non superiore a 6 °C (qualora la raccolta non sia effettuata giornalmente).
  • Le strutture devono essere pulite, sottoposte a manutenzione, e tenute in buone condizioni.

principali batteri patogeni che interessano il latte crudo sono:

Campylobacter jejuni 
Escherichia coli (E. coli O157:H7)
Listeria monocytogenes 
Salmonella spp.

L’Escherichia coli è naturalmente presente nell’intestino umano e in quello degli animali a sangue caldo. I fattori che aumentano il rischio per chi beve latte crudo stanno nel contatto tra il latte e la materia fecale di animali o persone portatori di questo batterio. L’impatto sull’uomo dell’Escherichia coli 0157:H7 è minimo, ma ha molta risonanza a causa dei potenziali effetti e malattie che provoca (come la sindrome emolitico-uremica o SEU, causata da una tossina, detta vero-citotossina o Shiga-tossina o Vtec, trasmessa per via alimentare o orofecale), talvolta molto serie e/o mortali. Si stima che dal 1999 al 2010 solo 5 su 63.153 ammalati all’anno a causa dell’Escherichia coli siano stati contaminati dopo aver bevuto latte, ma questa patologia sta, purtroppo, diventando attuale, visti i casi registrati negli ultimi mesi. Infatti, in Puglia, nella zona di Altamura, a giugno 2017, sono stati segnalati 3 casi di bambini affetti da SEU e la Regione, che ha allestito un tavolo tecnico per analizzare la situazione, ha esordito con una nota “la situazione non rappresenta un’emergenza e sarebbe da riferire ad una contaminazione derivata dall’uso non corretto di latte crudo, che non può essere assolutamente utilizzato per l’alimentazione umana se non previo trattamento termico”. (www.wired.it)

Altro batterio, forse il più temuto, la Listeria. È importante sapere che solo alcune sottoclassi di questo batterio causano effettivamente la Listeriosi, la quale può essere mortale solo se ingerita in grandi quantità e solo in casi particolarmente a rischio come neonati, donne incinte, anziani e persone con deficit immunitario in genere. Nella maggior parte dei casi si prende una gastroenterite.

La Listeria vive bene in ambienti freschi e umidi e si trova, in quantità variabili, letteralmente ovunque, nelle nostre case e nel nostro corpo. Ingeriamo piccole quantità di Listeria ogni giorno senza che ci capiti nulla, e lo stesso accade quando beviamo il latte crudo. Ci sono stati pochissimi casi di contaminazione da Listeria che hanno visto coinvolti latte e formaggi a latte crudo, specialmente se stagionati per lungo tempo.

Passando dal latte al formaggio, è necessario garantire, con analisi periodiche:
– l’assenza di Listeria monocytogenes
– l’assenza di Salmonella
– l’assenza di Enterotossina Stafilococcica
– il controllo della presenza di germi indicatori di carenze igieniche (Escherichia coli e Stafilococchi coagulasi positivi).

L’etichetta che accompagna i prodotti fabbricati con latte crudo deve indicare chiaramente i termini «fabbricato con latte crudo».

Latte art

In conclusione, l’uso di latte crudo da parte dei caseifici non è vietato (a differenza dei produttori di gelati), ma le prescrizioni a cui sono soggetti sono tante e, a volte, disattese. Anche l’EFSA, con un documento del 2015, ha comunicato un rischio per i consumatori.

Pertanto, consigliamo di non somministrare, soprattutto ai soggetti più deboli, alimenti prodotti a partire da latte crudo.

L’ora di chimica. 5° edizione del festival dell’innovazione e della scienza a Settimo Torinese.

In evidenza

Mauro Icardi

Con questo accattivante titolo, la città di Settimo Torinese si appresta a dare il via a questa manifestazione, che negli anni passati si è occupata di nuove tecnologie, di spazio ed esplorazione dell’universo, di luce e di robotica. Ma che per l’edizione 2017 ha deciso di dedicare una settimana alla chimica (dal 15 al 22 Ottobre) e a come essa entri giornalmente nella nostra vita quotidiana.

Il tema non è nuovo, ma è particolarmente stimolante che venga affrontato nella città dove ha lavorato Primo Levi per 23 anni. Settimo Torinese ha un legame piuttosto forte con la chimica. In passato nel territorio della città non vi è stata solo la Siva, la fabbrica di vernici di cui Levi fu direttore tecnico e dove lavorò per 23 anni, ma anche la Paramatti che produceva anch’essa vernici, le fabbriche di pneumatici della Ceat e della Pirelli. E poi i centodieci anni di storia storia della Schiapparelli Farmaceutici, fondata nel 1907 e che cambierà varie volte nome e ragione sociale (Farmitalia Carlo Erba, Antibioticos) fino ad essere oggi la Olon Spa.

Proprio in parte dell’area ex Paramatti è sorta la nuova biblioteca multimediale Archimede che è stata inaugurata nel 2010.

Ma i luoghi di questo festival sono diversi, e coinvolgeranno anche Torino ed altri luoghi del suo hinterland, come Moncalieri e Grugliasco.

Il programma di incontri e iniziative e ampio e diversificato. Si parlerà di chimica e del suo ruolo in vari settori. Alimentazione, produzione industriale, elettronica. Questo il programma del festival:

http://www.festivaldellinnovazione.settimo-torinese.it/wp-content/uploads/2017/09/INNOV-2017-Programma.pdf

Si possono soddisfare le più diverse curiosità. Dalla chimica degli alimenti e delle fermentazioni parlando di cioccolato, vermut e spumante e infine il caffè. Che abbiamo anche noi trattato su questo blog, parlando di vino e birra.

La chimica ancestrale che diventa la chimica di oggi, quella che molti non pensano sia così vicina a loro. Basta pensare ai nostri recettori dell’olfatto che percepiscono qualità e identità di molecole volatili e gas presenti nell’aria.

Non mancherà il tema dell’acqua, delle nuove tecnologie per preservarla. Poi la polvere cosmica, l’elettronica.

Degna di nota la mostra dedicata al Primo Levi scrittore di fantascienza. Interessante il collegamento dei temi della fantascienza di Levi con quelli della fantascienza del novecento. Lo scrittore poliedrico e centauro che immaginava le odierne stampanti 3d, quando parlava del duplicatore Mimete. Ingiustamente ritenuti minori i suoi due libri “Storie naturali” e “Vizio di forma”. Avevo auspicato che venisse riscoperto il Levi fantascientifico, e non posso che essere contento di questa scelta.

Molti i laboratori e gli esperimenti scientifici dedicati ai ragazzi della scuole. Non mancheranno gli esperimenti di chimica spettacolare, quella che in molti apprezzano e che riporta alla mente gli spettacoli scientifici che si tenevano nel 700.

Basta osservare questo programma per rendersi conto delle possibilità di didattiche e divulgative, che spazieranno dalla chimica fisica, alla leggi dei gas. Produrre CO2 decomponendo bicarbonato, o studiare i fluidi utilizzando succhi di frutta e di verdura.

Lo scorso anno furono circa 35.000 le presenze per il tema della robotica. Il mio augurio è che quest’anno siano altrettante se non di più. Le note di presentazione lo dicono chiaramente. Invitano a scoprire la bellezza, la magia della chimica. Io ovviamente non posso che essere d’accordo.

In quella città ho vissuto. Sono davvero contento che si sia trasformata in un polo culturale, da città dormitorio come veniva considerata fino a qualche anno fa.

E ovviamente ci tornerò. Sono tanti gli spunti che questo festival offre. E d è un invito che doverosamente estendo ai lettori di questo blog.

 

La plastica, un nuovo materiale per i Beni Culturali

In evidenza

Luigi Campanella, già pesidente SCI

Il Museo ha subito negli ultimi 50 anni una profonda trasformazione che lo ha reso da sede di informazione a sede di conoscenza,essendo i due termini ben distinti anche concettualmente.

Su questa base sono nati e si sono imposti all’attenzione culturale nuovi musei, dove la novità ha, a seconda dei casi, riguardato le innovazioni ICT, l’organizzazione della struttura, i contenuti esposti.

In questo ultimo senso un museo nuovo è di certo il PLART di Napoli. Il Plart Napoli è uno spazio polifunzionale, un museo della plastica e centro di ricerca e restauro dei polimeri. Il Plart ospita una delle più ricche collezioni di plastiche storiche, con una esposizione di millecinquecento opere d’arte e design, tra prototipi e pezzi di culto della storia del design.

Tutti gli oggetti esposti sono accomunati dalla doppia anima di oggetto di uso comune e opera d’arte. La collezione del Plart raccoglie accessori, apparecchi elettronici, utensili in celluloide, acrilico, bachelite, fino al più recente PVC. Gli oggetti della collezione del Museo Plart Napoli appartengono tutti all’arco di tempo in cui il design ha dato il meglio di sé, dalla metà dell’Ottocento fino agli anni Sessanta.

Colorata, bianca, nera, duttile o inflessibile. Nelle sue mille varianti, la plastica è senza dubbio il materiale che ha dominato gli artefatti prodotti dall’uomo nell’ultimo secolo. Con i suoi pregi e i suoi difetti, questo materiale si è imposto come supporto per gli oggetti più vari, fino a diventare protagonista di opere d’arte e pezzi unici nella storia della creatività. Dalle Barbie ai lettori mp3, dai telefoni agli utensili della cucina siamo quotidianamente circondati da materiali plastici. Se fino agli anni Settanta si pensava alla plastica come a qualcosa di indistruttibile, oggi il suo tallone d’Achille è ben noto agli esperti di conservazione: la plastica, infatti, non solo non è immortale, ma subisce un processo di decomposizione tra i più insidiosi e difficili da arginare. Proprio per questo – cercare di salvare i “tesori di plastica” e rendersi conto per tempo dei primi segni di cedimento – da un paio d’anni scienziati di tutta Europa sono al lavoro al cosiddetto Popart Project, progetto finanziato dall’Unione Europea per la preservazione degli artefatti in plastica esposti in musei e gallerie. Un tempo si pensava fosse eterna, oggi sono evidenti i primi segni del degrado. Oggetti d’uso quotidiano e capolavori del design, tutti rischiano di andare perduti.

“La degradazione della plastica è una bomba a orologeria”, spiega Yvonne Shashoua, ricercatrice di conservazione al National Museum of Denmark di Copenhagen. In termini molecolari, infatti, la plastica è costituita da polimeri, gruppi di molecole fatte di lunghe catene di carbonio. Nel tempo, i legami chimici che tengono insieme queste catene si rompono man mano che vengono attaccati dall’ossigeno o dai raggi ultravioletti, o semplicemente si indeboliscono per effetto del calore ambientale. La riduzione delle proprietà meccaniche può essere determinata dall’ossidazione e dall’idrolisi attraverso meccanismi che coinvolgono i radicali liberi provenienti dall’ambiente e dalla rottura di legami chimici. Particolarmente sensibile a questo tipo di degrado è il polipropilene.

La resistenza alle aggressioni chimiche delle materie plastiche è in genere buona; il cloruro di polivinile, il PTFE e la sua variante, l’ETFE, il polietilene e il polipropilene risultano particolarmente resistenti all’attacco di acidi e di basi. Tutte le materie plastiche sono però soggette ad invecchiamento, a un processo lento di degradazione per effetto della luce del sole, soprattutto delle radiazioni ultraviolette,

Le conseguenze di questi processi hanno lasciato un segno indelebile su oggetti risalenti al XIX secolo o all’inizio del XX, come le pellicole fatte di celluloide o gli artefatti realizzati in cellulosa acetata. Per questo e altri tipi di plastica la decomposizione è autocatalizzata: quando i legami iniziano a rompersi, rilasciano degli agenti chimici che attaccano le catene stesse dei polimeri. In sostanza, si tratta di un meccanismo autodistruttivo difficile da bloccare, una volta avviato.

Le Materie plastiche sono Materiali polimerici costituiti in genere da macromolecole organiche, caratterizzati dalla possibilità di essere modellati in qualsiasi forma, quando si trovano allo stato plastico; vengono lavorati mediante procedimenti vari, generalmente a caldo. Le unità di base della materie plastiche, cioè i polimeri, possono essere naturali (come la cellulosa, la cera e la gomma naturale), artificiali, cioè costituiti da polimeri naturali modificati (come l’acetato di cellulosa e il cloridrato di caucciù) o sintetici,cioè prodotti mediante reazioni chimiche di sintesi o di addizione (come il nylon, il politene ecc.). I materiali iniziali sono resine sotto forma di granulati, polveri o soluzioni, dai quali si formano le materie plastiche finite. Si basano sulla chimica del carbonio, il quale ha la capacità di formare catene legate in forme diverse. Quando induriscono, le molecole di cui sono costituite le materie plastiche – i monomeri – si uniscono in catene, formando i polimeri, Le materie plastiche sono caratterizzate da un alto rapporto resistenza-densità, un’eccellente proprietà di isolamento termico, elettrico e acustico, e una buona resistenza ad acidi, basi e solventi. Le macromolecole dalle quali sono costituite possono essere lineari, ramificate o reticolate; nei primi due casi esse sono termoplastiche, cioè rammolliscono quando vengono riscaldate, mentre nell’ultimo caso sono termoindurenti, cioè induriscono in seguito a innalzamenti della temperatura.

Le proprietà di un polimero dipendono dal tipo di monomero con cui è stato ottenuto, dalla lunghezza delle macromolecole, dallo loro struttura e dal modo con cui si dispongono nello spazio le diverse macromolecole. I materiali amorfi hanno macromolecole disposte in modo disordinato, quelli cristallini presentano configurazioni spaziali ordinate.

Una strategia per arginare il problema del degrado consiste nell’aggiungere composti anti-invecchiamento capaci di bloccare la degradazione fin dalle sue fasi iniziali. Alcune di queste sostanze agiscono come degli schermi solari che proteggono le catene da ossigeno, luce e raggi ultravioletti. Spesso, però, gli additivi sono costosi e vengono centellinati in fase di manifattura. Oppure possono perdere la loro efficacia, lasciando “scoperto” il polimero e aprendo così la strada alla degradazione.

Una delle difficoltà maggiori per la conservazione è la varietà dei modi in cui diversi tipi di plastica si degradano per cui ciò che funziona bene per preservare un materiale può rivelarsi completamente deleterio per un altro.

La maggior parte delle plastiche moderne, ad esempio, decade principalmente a causa delle reazioni con l’ossigeno, ed è quindi più protetta se sigillata in un’atmosfera priva di ossigeno. La cellulosa acetata, invece, necessita di un trattamento diametralmente opposto: senza una ventilazione adeguata, i vapori di acido acetico che originano dall’invecchiamento del materiale ne accelerano il processo di decadimento.

L’esigenza che si verifica è quella di predire questi meccanismi di degradazione.

Per ciò si cerca di ‘velocizzare’ questi meccanismi, simulando il più possibile le condizioni di esposizione del manufatto/materiale.

Partendo dal presupposto che una simulazione fedele è impossibile si sono sviluppate nel tempo alcune procedure standard per l’esposizione dei materiali in modo tale che, almeno tra loro, possa esserci una accettabile riproducibilità dei risultati.

Esistono delle strumentazioni e delle metodologie che vengono generalmente utilizzate per sottoporre i materiali a cicli di invecchiamento ‘accelerati‘ rispetto all’esposizione naturale. Queste tecniche sono utilissime per paragonare il comportamento di diversi materiali, ma tutte le variabili devono essere attentamente valutate se si vuole predire la degradazione nel tempo.

Partendo dal presupposto che non si possono riprodurre esattamente tutte le variabili esterne, anche perché è proprio lo stesso ‘invecchiamento naturale’ che non è riproducibile, sono state sviluppati degli apparecchi e delle metodologie che consentono il controllo delle variabili più importanti, quali lo spettro di emissione delle lampade, la potenza emessa, la temperatura, l’umidità, etc.

 

“Contaminazione da microplastiche nell’acqua corrente di tutto il mondo”: Houston, abbiamo un problema?

In evidenza

Claudia Campanale*

Il giorno 25 Agosto scorso mi trovavo in Germania presso l’Istituto Federale di Idrologia di Coblenza per svolgere parte del mio dottorato di ricerca sulle microplastiche nell’ambiente acquatico quando ricevo una telefonata da parte di uno dei giornalisti che stava seguendo il caso “Microplastiche nell’acqua potabile”. Il giornalista mi parla dell’inchiesta in corso preannunciandomi i risultati della ricerca condotta dall’Università statale di New York e del Minnesota e da Orb Media che sarebbero poi stati pubblicati il 05 settembre 2017 sul “the guardian” e secondo cui l’83% dei campioni di acqua potabile prelevati da tutto il mondo conterrebbero microscopiche fibre di plastica.

https://www.theguardian.com/environment/2017/sep/06/plastic-fibres-found-tap-water-around-world-study-reveals

Il giornalista inoltre, mi chiede di analizzare tre campioni di acqua prelevati dalle fontane pubbliche di Roma per avere un controllo su altri tre campioni prelevati dagli stessi punti e analizzati contemporaneamente dall’Università del Minnesota.

Al momento a livello globale non sono state mai eseguite azioni di intercalibrazione tra laboratori e non sono disponibili standards di qualità a cui far riferimento. A causa della mancanza di protocolli standardizzati per il campionamento, l’estrazione, la purificazione e la caratterizzazione delle microplastiche, la comparabilità dei dati disponibili rimane altamente limitata, soprattutto per quanto riguarda: la definizione delle diverse classi dimensionali, le procedure di campionamento, i metodi analitici e i valori di riferimento.

Generalmente l’analisi delle microplastiche in matrici ambientali consta di tre fasi: campionamento, estrazione, quantificazione e identificazione.

1° Step: CAMPIONAMENTO

Il primo aspetto da considerare riguarda proprio il significato insito nella definizione di campionamento che secondo i metodi analitici per le acque APAT-IRSA è la seguente:

“Il campionamento può definirsi come l’operazione di prelevamento della parte di una sostanza di dimensione tale che la proprietà misurata nel campione prelevato rappresenti, entro un limite accettabile noto, la stessa proprietà nella massa di origine. In altre parole, il fine ultimo del campionamento ambientale è sempre quello di consentire la raccolta di porzioni rappresentative della matrice che si vuole sottoporre ad analisi“.

La qualità dei risultati di un’analisi è quindi strettamente correlata a quella del campione prelevato; ne consegue che il campionamento risulta essere una fase estremamente complessa e delicata che incide in misura non trascurabile sull’incertezza totale del risultato dell’analisi.

Così come indicato nei Metodi analitici ufficiali per le acque destinate al consumo umano (D.Lgs. 31/2001), per individuare le caratteristiche di qualità di un’acqua e per seguire le sue variazioni temporali è innanzitutto necessario che i campioni da analizzare siano il più possibile rappresentativi delle reali condizioni qualitative e quantitative esistenti nella matrice. Al momento del campionamento è necessario dunque considerare con attenzione i volumi di acqua da prelevare. Essi vanno definiti in funzione dei parametri da determinare e comunque devono essere superiori al minimo necessario per procedere allo svolgimento degli esami richiesti.

Seguendo le metodiche di campionamento utilizzate dai ricercatori dell’Università del Minnesota i tre campioni da analizzare prelevati dalle fontane pubbliche di Roma sono stati campionati in bottiglie di HDPE per un volume totale di 500 ml a campione. In relazione a questa prima fase di campionamento ciò che desta maggiore perplessità è proprio la rappresentatività del campione relativamente all’esiguo volume di acqua campionato. Un volume di 500 ml è abbastanza rappresentativo per avere un valore che si discosti sufficientemente da quella che è la contaminazione ambientale di fondo e avere quindi un risultato superiore al valore del bianco? Basti pensare che, studi finalizzati a determinare la concentrazione di microplastiche a valle di impianti di trattamento delle acque reflue, utilizzano, per l’analisi delle microplastiche, un volume di campione che varia tra i 50 e i 100L (Mintening et al., 2016, Murphy et al., 2016, Carr et al., 2016).

Inoltre, diverse ricerche specifiche dimostrano che determinare la contaminazione ambientale derivante dalla deposizione atmosferica di microfibre sintetiche o dall’abbigliamento dei ricercatori risulta indispensabile per garantire che il contenuto di plastica nel campione analizzato non venga sovrastimato (Hanvey et al., 2017). Pertanto, valutare l’affidabilità della metodica utilizzata mediante test di validazione e bianchi ambientali risulta indispensabile per riportare i risultati di uno studio.

Un secondo aspetto da tener presente in questa prima fase riguarda il concetto di incertezza. Attualmente è accettato che, nel momento in cui tutte le componenti di errore siano state valutate e le relative correzioni apportate, rimanga tuttavia un’incertezza sulla correttezza del risultato. L’incertezza in generale può essere valutata dalla distribuzione statistica dei risultati di una serie di misurazioni e può essere caratterizzata mediante il calcolo delle deviazioni standard.

I tre campioni di controllo, prelevati dalla città di Roma, sono stati campionati in singola copia senza replicati, quindi non è stato possibile calcolare il livello di incertezza associato al risultato analitico.

Inoltre, secondo la guida EURACHEM/CITAC e la UNI CEI ENV 13005 “Guida all’espressione dell’incertezza di misura” , nel riportare il risultato di una misurazione è necessario:

– specificare il misurando;

– descrivere chiaramente i metodi usati per calcolare il risultato di una misurazione e la sua incertezza dalle osservazioni sperimentali e dai dati di ingresso;

– identificare le sorgenti di incertezza e documentare in modo esauriente come esse sono state valutate;

– quantificare le componenti dell’incertezza;

– calcolare l’incertezza combinata o composta;

– presentare l’analisi dei dati in modo tale che ogni passaggio possa essere agevolmente seguito e che il calcolo del risultato riportato possa essere ripetuto in modo autonomo, se necessario;

– fornire le correzioni e le costanti utilizzate nell’analisi e le loro fonti.

Nell’articolo pubblicato sul “the guardian” non viene descritta nessuna delle metodologie utilizzate per il campionamento, l’estrazione, la quantificazione e l’identificazione delle microplastiche trovate nei campioni analizzati. I risultati pubblicati fanno riferimento ad una concentrazione di microplastiche (espressa come numero di fibre/500mL) senza alcun valore di deviazione standard associato.

2° Step ESTRAZIONE

Al campionamento segue la fase di estrazione, che consiste in una serie di steps volti a separare le microplastiche dalla loro matrice per mezzo di una degradazione chimica e/o enzimatica della sostanza organica interferente, seguita da una separazione densimetrica e da una filtrazione finale del campione. Va detto che questa fase risulta essere la più complicata e, al momento, non esiste una metodica che permetta una rimozione del 100% della componente naturale con un recupero del 100% delle particelle sintetiche. Tuttavia, per campioni di acqua potabile, la degradazione chimica e/o enzimatica non è strettamente necessaria in quanto si presuppone un contenuto di matrice basso o pressoché inesistente, pertanto risulta fondamentale la caratterizzazione chimica.

3° Step QUANTIFICAZIONE e IDENTIFICAZIONE

Una volta che le particelle sono state separate dalla matrice, la quantificazione richiede la pesatura o il conteggio, compito assai difficile soprattutto per le particelle appena visibili ad occhio nudo. La caratterizzazione visiva del campione al microscopico (Visual Sorting) tuttavia presenta un elevato rischio di sovrastima a causa di grandi quantità di sostanze di origine naturale (parti di animali, minerali, fibre di origine naturale, ecc.) ancora presenti negli estratti (Dekiff et al., 2014). Da qui l’identificazione chimica delle particelle estratte risulta indispensabile a valle di una pre-caratterizzazione al microscopio allorquando diversi studi affermano che fino al 70% delle particelle visivamente identificate al microscopio vengono poi, in seguito ad una caratterizzazione chimica, identificate come falsi positivi (Hidalgo-Ruz et al., 2012, Hanvey et al., 2017).

Tra le tecniche consigliate per la corretta identificazione di materie plastiche vi sono spettroscopia Raman o FTIR, o pirolisi-GC / MS (Löder et al., 2015).

Come già accennato precedentemente, l’articolo pubblicato sul “the guardian”, manca dei riferimenti metodologici utilizzati dai ricercatori per eseguire l’analisi delle microplastiche seguendo un approccio scientifico rigoroso che, in questa fase ancora embrionale della ricerca, risulta indispensabile al fine di avere risultati attendibili. Inoltre ciò che desta maggiore scetticismo è che i risultati presentati dai colleghi siano stati divulgati, a livello mondiale, prima ancora della pubblicazione ufficiale di un articolo scientifico su una rivista accreditata.

 

Come ultimo aspetto da approfondire, prima di diffondere allarmismi su scala globale, particolarmente importante è ampliare la conoscenza di quelli che sono gli impatti delle microplastiche sull’ambiente e sulla salute.

Ad oggi non sono ancora state definite “concentrazioni prevedibili senza effetti (PNEC)” e “concentrazioni ambientali previste (PEC)” per le microplastiche presenti nell’ambiente e, non esistono nemmeno approcci alternativi per la valutazione del rischio delle materie plastiche.

Ciò che sappiamo al momento è che una serie di studi ha messo in luce la possibile ingestione di microplastiche da parte di pesci e molluschi in ​​condizioni naturali, sollevando diverse preoccupazioni; si pensa che le particelle possano provocare una risposta biologica attraverso meccanismi fisici e chimici. In primo luogo, sono stati riscontrati danni fisici come abrasioni interne e blocchi ed è stato dimostrato che le microplastiche possono causare lesioni che portano alla necrosi cellulare, all’infiammazione e a lacerazioni dei tessuti nei tratti gastrointestinali di alcuni organismi acquatici. In secondo luogo, l’elevata persistenza e galleggiabilità della plastica la rende un vettore ideale per il trasporto di specie aliene e per il potenziale rischio di dispersione di agenti patogeni per lunghe distanze. La colonizzazione da specie invasive è considerata come una delle più grandi minacce alla biodiversità globale. In terzo luogo, le microplastiche potrebbero essere considerate come possibili micro assorbitori di contaminanti organici (alteratori endocrini, POP) e metalli in tracce in grado di aumentarne la biodisponibilità negli organismi e di fungere da trasportatori in sistemi acquatici ed a lungo raggio in aree remote. Tuttavia, non è stato dimostrato in modo convincente che ciò avviene in condizioni naturali (Hermsen et al., 2017). In questa fase della ricerca quello di cui siamo certi è che le plastiche sono ubiquitarie, si frammentano in microplastiche e, probabilmente, la loro dispersione nell’ambiente è destinata ad aumentare; ciò di cui non siamo a conoscenza è la tossicità e le conseguenze a livello ecologico delle microplastiche in quanto non è ancora stata fatta una valutazione del rischio.

Houston, abbiamo un problema?

 

Bibliografia 

Carr S.A., Liu J., Tesoro A.G., 2016. Transport and fate of microplastic particles in wastewater treatment plants. Water Res. 91, 174 e 182.

Dekiff J.H., Remy D., Klasmeier J., Fries E., 2014. Occurrence and spatial distribution of microplastics in sediments from Norderney. Environmental Pollution 186 (2014) 248e256.

Löder, M. G. J. & Gerdts, G., 2015. Methodology used for the detection and identification of microplastics – A critical appraisal in Marine Anthropogenic Litter (eds Bergmann, M. et al.) Ch. 8, 201–227 (Springer, 2015).

Murphy, F., Ewins, C., Carbonnier, F., Quinn, B., 2016. Wastewater treatment works (WwTW) as a source of microplastics in the aquatic environment. Environ. Sci. Technol. 50, 5800e5808.

Hanvey J. S., Lewis P.J., Lavers J.L., Crosbie N.D., Pozo K., Clarke B.O. 2017. A review of analytical techniques for quantifying microplastics in sediments. Anal. Methods 9, 1369.

Hermsen E., Pompe R., Besseling E., Koelmans A.A. 2017. Detection of low numbers of microplastics in North Sea fish using strict quality assurance criteria. Marine Pollution Bullettin, http://dx.doi.org/10.1016/j.marpolbul.2017.06.051.

Hidalgo-Ruz V, Gutow L, Thompson RC, Thiel M. 2012. Microplastics in the marine environment: a review of the methods used for identification and quantification. Environ Sci Technol. 46:3060 − 3075.

Mintenig S.M., Int-Veen I., Löder M.G.J., Primpke S., Gerdts G., 2016. Identification of microplastic in effluents of waste water treatment plants using focal plane array-based micro-Fourier-transform infrared imaging. Water Research, http://dx.doi.org/10.1016/j.waters.2016.11.015

*Claudia Campanale è laureata in biologia presso UniBa con il massimo dei voti, sta svolgendo un dottorato in Chimica  con un tutor di eccezione, Angela Agostiano e proprio sul tema del campionamento, estrazione, quantificazione e caratterizzazione di microplastiche presenti in acque interne superficiali; ha  fatto esperienza in Italia e Germania sui temi dell’inquinamento ambientale, della sua caratterizzazione e della sua eliminazione.

Il tallio, i piccioni e i giornali.

In evidenza

Claudio Della Volpe

In questi giorni circola sui giornali una notizia su una famiglia di Desio che dopo una vacanza ha scoperto di essersi avvelenata col tallio; due dei componenti, padre e figlia, entrambi anziani sono deceduti e ce ne spiace, ovviamente.

Ma sono qui a scrivere di questo episodio di cronaca sia perchè ha a che fare con la chimica sia (soprattutto) per il modo in cui i giornali grandi e piccoli ne parlano stavolgendone il senso e inventandosi addirittura notizie inesistenti.

(da Wikipedia)

Il Tallio è un elemento del gruppo 13/III, elemento pesante, ma con lo stesso stato ionizzato principale +3 di Boro ed Alluminio; ma come anche gli elementi più pesanti di questo gruppo Gallio e Indio, il Tallio aggiunge uno stato +1. Le dimensioni dello ione +1 sono simili a quelle del Potassio e qua starebbe il busillo del Tallio. Il Tallio è considerato un potentissimo veleno, anche se l’esatto meccanismo rimane ancora sconosciuto; le ipotesi più significative sono le seguenti: alterazione del metabolismo del glutatione, stress ossidativo e alterazione della omeostasi del potassio.

Questi meccanismi sarebbero giustificati dicevo dalla somiglianza delle dimensioni ioniche dello ione Tl+ e dello ione K+.

Come sapete le dimensioni ioniche non sono banali da stimare e dipendono da una serie di fattori complessi, dovendo anzitutto chiarire se ci si riferisce alle dimensioni dello ione nel reticolo cristallino o in soluzione; ma ancora dipendono dal tipo di coordinazione. Evito dunque di prendere dati in giro da lavori sperimentali o programmi di calcolo per “provare”, come è scritto anche su wikipedia, che i raggi sono simili o perfino uguali.

Secondo me si tratta piuttosto di un “comportamento” analogo, che inganna almeno sul breve periodo alcuni dei meccanismi di discriminazione della cellula. Alla fine si tratta di reazioni specifiche che consentono di usare l’uno o l’altro ione; se la somiglianza è sufficiente il Tallio passa la reazione ma viene poi scambiato nei processi successivi dove però la somiglianza è inferiore e di qua parte l’effetto di avvelenamento.

Ci vogliono giorni o perfino settimane perchè le differenze si manifestino e portino a situazioni molto pericolose e mortali; per questo motivo il Tallio viene considerato un veleno perfetto, il veleno dell’avvelenatore, che consentirebbe di uccidere e fuggire senza destare sospetti.

Il sale più comune è il solfato di Tallio, che è anche insapore ed è stato usato come topicida per un certo periodo. Ma è un sale e dunque una sostanza ben poco volatile; perchè faccio notare questo?

Vediamo cosa hanno scritto i giornali:

Il Corriere della Sera del 30 settembre:
http://milano.corriere.it/notizie/cronaca/17_settembre_30/avvelenata-tallio-62enne-coma-colpa-escrementi-piccione-b83b0a50-a5e1-11e7-8477-789085dabc53.shtml

Da venerdì sera i carabinieri di Desio stanno indagando per capire come la famiglia possa aver inalato il tallio. Secondo una prima ipotesi, la sostanza potrebbe essere stata usata per una campagna di disinfestazione dei campi vicino all’abitazione. Ma forse è più probabile che l’avvelenamento sia stato provocato da un’esposizione prolungata a escrementi di piccione, che contengono sostanze altamente tossiche, tra cui il tallio, come confermato da ricerche dell’Oms. L’infestazione di piccioni sarebbe avvenuta nel fienile della casa-vacanza. Le esalazioni delle sostanze contenute negli escrementi, inalate per un tempo prolungato, potrebbero essere state la causa dell’avvelenamento.”

Pensate un pò! Esalazioni di un sale provenienti dagli escrementi di piccione? A parte che se gli escrementi fossero così velenosi i primi a risentirne sarebbero i piccioni, per i quali il Tallio è altrettanto velenoso che per noi. E’ una notizia che è stata poi destituita di ogni fondamento, ma non si sa come l’abbia avuto e da chi questo fondamento. L’OMS avrebbe detto che il tallio è contenuto negli escrementi di piccione?
Giuro che ho cercato come un pazzo ma ho solo trovato lavori vari in cui l’OMS ha usato il contenuto di tallio nel corpo o nelle feci degli animali (fra i quali anche i piccioni) per provare che certi impianti (per esempio i cementifici) inquinano l’ambiente in termini di metalli pesanti; per esempio qui: http://www.townsendletter.com/Jan2016/thallium0116_3.html oppure qui

https://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=3&ved=0ahUKEwiS0ZPl-9PWAhVnIsAKHe0vDygQFgg0MAI&url=http%3A%2F%2Fapps.who.int%2Firis%2Fbitstream%2F10665%2F37931%2F2%2F9241561734_eng.pdf&usg=AOvVaw2VwgH2Pp5qZS-V5DtYc7Bh

Oh la fantasia del Corrierone!

Il Secolo XIX addiritura titola:

http://www.ilsecoloxix.it/p/italia/2017/09/30/ASuGX4hJ-piccioni_escrementi_uccidere.shtml

I piccioni possono uccidere: donna in coma per aver inalato i loro escrementi

In un primo tempo i medici avevano pensato che la causa dell’avvelenamento delle due donne fosse un topicida, che le due donne tenevano evidentemente in casa a Nova Milanese. Il tallio, infatti, è una sostanza contenuta in alcuni topicidi. Analisi più approfondite da parte di carabinieri di Desio, su input della direzione sanitaria, hanno consentito di accertare, però, che le due donne erano state per un periodo prolungato in una casa-vacanze di famiglia, in campagna in provincia di Udine, nel cui fienile stazionano decine e decine di piccioni. I responsabili sanitari hanno riferito che il tallio si trova anche negli escrementi di piccione.”

Un metabolismo piccionesco contente tallio è una invenzione altamente creativa!

Anche perchè il Tallio non è un elemento comune in natura e dunque i poveri piccioni (che a me non stanno molto simpatici, topi con le ali) avrebbero avuto difficoltà a reperirne; ma certo poi avrebbero potuto anche avvelenare tutti i turisti di Piazza San Marco che da anni si respirano polvere di escremento di piccione!

Per uccidere ci vogliono alcuni mg pro chilo e dunque un mezzo grammo assorbito dalla polvere attraverso gli escrementi di piccione? Ma nemmeno se fossero fatti di tallio puro! Oh poveri noi!

Ragionevolmente il tallio può trovarsi in agenti topicidi, ma dovrebbero essere antiquati poichè l’UE lo ha escluso da questo uso proprio per la sua infida natura.

Potrebbe essere presente nell’acqua potabile o esserci stato erroneamente aggiunto attraverso l’uso di prodotti illegali, di cui casomai qualcuno si è liberato; potrebbe essersi trovato sparso su vegetali usati poi per l’alimentazione; le ipotesi ragionevoli non mancano; colpisce però che le prime ad esser fatte siano state quelle impossibili: esalazioni di sali e metabolismo del tallio nei piccioni.

Ancora più sicuro il Gazzettino:

http://www.ilgazzettino.it/nordest/udine/morto_padre_donna_intossicata_da_tallio_varmo_udine-3275907.html

I piccioni si sa sono veramente pericolosi spargitori di tallio!!!! Una scoperta da IGNobel!

Piano piano la verità si farà strada: i piccioni non c’entrano, ne sono sicuro: qualcuno avrà usato o scaricato un topicida o un insetticida in modo improprio avvelenando cibi o acqua; non vedo alternative. Anche la possibilità di una fonte naturale di Tallio appare alquanto difficile; nel mondo esiste una sola miniera di tallio, in Macedonia dove si scava la lorandite; in genere viene estratto come sottoprodotto di altre azioni minerarie oppure come sottoprodotto industriale (dall’arrostimento dellla pirite).

Conclusione: ma i giornali o chi li informa non potrebbero imparare un po’ di chimica prima di comunicare? O quanto meno rivolgersi a chi ne sa di più?

Fatemi chiudere con una quasi battuta; sembra che durante la guerra fredda l’FBI abbia considerato la possibilità (ma poi vi abbia rinunciato) di avvelenare Fidel Castro con il tallio, sparso nelle scarpe; pare che uno degli elementi del piano fosse che il tallio avrebbe potuto far cadere i peli della barba di Fidel, un effetto collaterale; ma dato che questo effetto arriva solo dopo un lungo avvelenamento il vantaggio mediatico non era poi così notevole per lottare contro i barbudos.

Ecco questa probabilmente è una bufala, ma date quelle di chimica che ci propinano i giornali, sono sicuro che nessuno me ne vorrà male.

Distretti tematici, chimica e beni culturali.

In evidenza

Luigi Campanella, già Presidente SCI.

Alcune Regioni Italiane al fine di organizzare la propria attività stanno istituendo Distretti tematici (DTC). Fra i temi più gettonati – e non deve sorprendere: siamo in Italia – quello dei Beni Culturali. La creazione di un DTC Regionale impegna le strutture scientifiche, formative, culturali a dare il proprio contributo, ciascuna ovviamente correlandosi alle proprie professionalità, competenze, conoscenze, capacità tecniche, acquisite in lunghi anni e trasferite di generazione in generazione insieme all’adeguamento che deriva dalla continua innovazione.

La Chimica in questa prospettiva deve assicurare il contributo della propria cultura che risponde all’esigenza, ma anche alla evidenza, della dimostrazione che la Chimica é da sempre considerata fra le discipline scientifiche la più vicina ai Beni Culturali, assumendo questa affermazione un significato ancor piu importante se si pensa che si riferisce in questo caso ad un’istanza territoriale per la quale le ricchezze culturali non possono non collegarsi a turismo, economia, prestigio internazionale.

Nel passato il legame stretto fra Chimica e Beni Culturali era sostanzialmente affidato al ruolo protettivo e conservativo della Chimica, anche però considerata in questa funzione causa della produzione di alterazioni negli originali, fino a parlare di falsi voluti e di reversibilità di restauro.

Oggi sembra quasi che i Beni Culturali vogliano ricompensare la disciplina aprendo ad essa nuovi campi di attività, di economia, di mercato anche in chiave europea.

La Chimica Europea schiacciata fra i bassi costi dell’energia del Medio Oriente ed i bassi costi della mano d’opera dell’Estremo Oriente si deve affidare per il suo sviluppo alla risorsa tecnologica che forse sola con il Nord America può mettere in campo con esclusività rispetto alle suddette zone geografiche favorite da gestione a risparmio.

La chimica in questo ultimo trentennio ha vissuto anche una propria trasformazione derivante dalla riscoperta di alcuni valori, espressione di un moderno Rinascimento chimico, quali la salute, la sicurezza, l’ambiente, la dignità umana. Questa trasformazione ha prodotto quella che oggi viene invocata come Chimica Sostenibile (Green Chemistry: i due termini vengono confusi, anche se in effetti la Green Chemistry è più finalizzata alle innovazioni che comportano maggiore protezione dell’ambiente, meno rifiuti, più circolarità economica piuttosto che alla esaltazione del rispetto fra le diverse generazioni e dell