Note sull’Antropocene.1.Le origini.

In evidenza

Claudio Della Volpe

Il nostro blog ha un sottotitolo che contiene la parola Antropocene:

Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.

In realtà una definizione formale e condivisa dell’Antropocene non esiste ancora ma ci si sta lavorando e in questo post vorrei appunto raccontare a chi non la conosce una breve storia di questo concetto, di questo meme, che è destinato secondo me e secondo tutti noi del blog ad un ruolo culturale crescente.

Una occasione per approfondire potrebbe essere la lettura di un libro di recente tradotto in italiano e che tratta proprio di questi temi; mi riferisco a Jason W. Moore: Antropocene o Capitalocene? Scenari di ecologia-mondo nell’era della crisi planetaria, Ombre Corte, 2017

Il termine è stato inventato dal microbiologo Eugene Stoermer professore di microbiologia all’Università del Michigan; grande esperto di diatomee egli usò questo termine per indicare, fin dai primi anni Ottanta del XX secolo, l’impatto dell’uomo sul pianeta.

Fu solo nel 2000 che il premio Nobel per la chimica Paul Crutzen (lo aveva vinto con Molina e Rowland per la scoperta del buco dell’ozono e dei meccanismi connessi) popolarizzò il termine in un articolo scritto a quattro mani (1).

L’idea non era nuovissima; era stata intravista fra i primi dal geologo italiano abate Antonio Stoppani, una delle menti più fini della nostra cultura nazionale, patriota e rivoluzionario, zio di Maria Montessori; che inventò il termine di Era antropozoica. Stoppani è un personaggio di cui sicuramente avete visto il ritratto o usato un’espressione; eh si, perchè egli scrisse fra gli altri un testo dal titolo, pensate un pò, “Il bel paese”. Il titolo del libro era a sua volta preso in prestito da Petrarca:antropocene12

Questo titolo fu preso a prestito insieme con il ritratto di Stoppani nel 1906 dalla Galbani per il suo famoso prodotto; e dunque difficile che non lo conosciate. Come il vecchio dei formaggini.

Di meno come intellettuale. Ma per fortuna nostra lo conoscono all’estero; tanto è vero che Crutzen e Stoermer citano una sua frase che cade qui a fagiolo:

“[l’attività umana] è una nuova forza tellurica che in potenza e universalità può essere paragonata alle maggiori forze della terra”, scritta nel 1873 (3). Vorrei farla leggere a certi colleghi che so io e che la negano ancora oggi, dopo oltre 130 anni.

antropocene11

Lo riconoscete? Era su parecchi dei formaggini che ci siamo sbafati da fanciulli.

SE vi sembra incredibile che un comunistaccio come me debba citare come gloria nazionale un abatino, pensate che lo spessore delle persone non dipende dalle loro idee religiose. E questa citazione di Crutzen e Stoermer ne è la conferma. Perchè vedete Stoppani partecipò alle 5 giornate di Milano e costruì ad uso dei combattenti dei piccoli palloni aerostatici per mandare messaggi della rivolta che superassero le mura senza essere colpiti dagli austriaci, aiutato dal tipografo Vincenzo Guglielmini. Più tardi scrisse un testo “Gli intransigenti” contro la resistenza della chiesa cattolica ai nuovi fermenti politici e sociali. Un abate “rosso” si direbbe oggi (ma non per i capelli come si diceva di Vivaldi). Un teologo della liberazione. E anche uno scienziato a tutto tondo.

Ma dato che nemo propheta in patria il testo da cui è presa la frase, cioè il suo Corso di Geologia (scritto da professore universitario a Milano) è sostanzialmente introvabile sulla rete come pdf; fortunatamente viene citato sempre da una rivista straniera, in inglese (3).

Diffidate da chi scrive che la frase si trova ne “Il bel paese”, non si è guardato le carte e mi ha fatto perdere un pomeriggio per capirci qualcosa.

Torniamo al nostro argomento principale.

L’articolo seminale di Crutzen e Stoermer cita molti altri autori che hanno preparato il terreno al meme, per esempio Vernadskij e Teillard de Chardin che inventarono l’idea della noosfera, cioè della crescente importanza della scienza e della tecnologia nel forgiare il futuro della biosfera terrestre. (4)

In quell’articolo i due autori indicano i motivi per i quali considerano giustificato definire una nuova era geologica e che a distanza di soli 17 anni noi ritroviamo potenziati ed aggiornati (l’elenco che segue è stato aggiornato da me):

-durante gli ultimi 3 secoli la popolazione umana è cresciuta più di dieci volte ad oltre 7.5 miliardi di persone, con una crescita della popolazione di animali asserviti tale per cui la biomassa totale degli uomini e dei loro animali rappresenta il 97% della massa dei vertebrati terrestri (tutti i grandi animali selvatici sono solo il 3%!!)

– per effetto delle azioni umane la velocità di estinzione delle specie nelle foreste tropicali è cresciuta di un fattore stimato da 1000 a 10.000 volte;

– durante gli ultimi 100 anni la popolazione urbanizzata è cresciuta di più di 10 volte

-dal 30 al 50% della superficie terrestre è stata trasformata per opera dell’uomo (esaurimento del suolo) e l’uomo è il principale produttore di materiali in forma di polveri e granuli (più della erosione naturale);

– in poche generazioni l’umanità si avvia all’esaurimento dei combustibili fossili prodotti in quasi 400 milioni di anni.

– il rilascio di zolfo sotto forma di biossido a causa della combustione di tali combustibili è almeno due volte la somma annua di tutte le emissioni naturali di zolfo che avvengono principalmente come dimetilsolfuro oceanico;

– l’azoto fissato sinteticamente, principalmente dalla reazione di Born-Haber ed usato come fertilizzante agricolo (e come componente degli esplosivi) è maggiore della quota fissata da tutti gli ecosistemi terrestri; il rilascio di NO nell’atmosfera da combustioni è maggiore dell’output naturale dando origine alla formazione di ozono fotochimico (smog) in molte regioni del pianeta

– l’uomo estrae una quantità di fosforo multipla di quella estratta naturalmente per erosione (phosphate weathering); come conseguenza di questa situazione sia il ciclo delll’azoto che quello del fosforo sono totalmente alterati rispetto alla situazione naturale;

– l’uomo intercetta il 10% di tutta l’acqua che cade sul pianeta, questa quota rappresenta però più di metà dell’acqua potabile accessibile; la restituisce spesso spostandola da fonti geologiche esauribili e in molti casi profondamente inquinata;

– la combustione dei fossili e l’agricoltura basata sui fertilizzanti sintetici hanno accresciuto il flusso di alcuni gas serra verso l’atmosfera e l’oceano: come conseguenza la concentrazione di tali gas è aumentata negli ultimi 3 secoli di oltre il 30% per la CO2 e del 100% per il metano; il conseguente aumento di temperatura media superficiale oceano-terra è misurato al momento in poco meno di 1 grado centigrado; il pH oceanico si è ridotto di circa 0.2 unità e mette a rischio la sopravvivenza di alcune specie.

– la criosfera polare e continentale si sta riducendo a velocità enorme; si prevede che entro pochi decenni i ghiacci del Polo Nord scomparirano e quelli dell’Antartide e della Groenlandia scompariranno entro qualche secolo, con la conseguenza di innalzare il livello dei mari di alcuni metri.

– inoltre l’umanità ha immesso in circolo alcune sostanze inquinanti profondamente tossiche come mercurio e cadmio estraendole dai loro depositi geologici e altre sintetiche, apparentemente stabili chimicamente come i clorofluorocarburi o la “sporca dozzina”; ma in tutti i casi queste molecole alogenate sono in realtà instabili sul lungo periodo e hanno danneggiato significativamente lo strato di ozono stratosferico e si sono accumulate nei tessuti di parecchie specie viventi con danni ancora non precisamente valutabili; nonostante gli accordi internazionali in vigore per controllare tale inquinamento la situazione non è ancora sotto controllo; si sospettano azioni che simulano effetti ormonali in molte altre sostanze usate comunemente (bisfenolo-A e alcuni tensioattivi) e si ipotizza di attribuire a tale inquinamento la riduzione della fertilità maschile stimabile in alcuni casi ad oltre la metà dei valori naturali;

– le zone costiere sono state danneggiate sia dall’arricchimento in fosforo e azoto con la formazione di zone anossiche, dead zones, in varie parti dell’oceano e dei mari interni come il Mediterraneo, sia con la scomparsa del 50% delle mangrovie;

– la pesca industrializzata rimuove una percentuale crescente della produzione primaria dell’oceano valutabile in oltre un terzo;

– le attività nucleari umane (belliche e non) hanno inquinato irreversibilmente con isotopi radioattivi anche sintetici alcune zone del pianeta e tale presenza è comunque misurabile in ogni zona del mondo.

PB_FIG33_media_11jan2015_web2

Il lavoro di Crutzen e Stoermer conclude:

Considering these and many other major and still growing impacts of human activities on earth and atmosphere, and at all, including global, scales, it seems to us more than appropriate to emphasize the central role of mankind in geology and ecology by proposing to use the term “anthropocene” for the current geological epoch. The impacts of current human activities will continue over long periods. According to a study by Berger and Loutre, because of the anthropogenic emissions of CO2, climate may depart significantly from natural behaviour over the next 50,000 years.

“Si tratta di una proposta che è stata presa in seria considerazione. La reazione del mondo umanistico è stata entusiastica con la nascita di ben tre riviste internazionali dedicate al tema: Anthropocene, The Anthropocene Review ed Elementa.

Nel campo delle scienze naturali sia la International Commission on Stratigraphy che la International Union of Geological Sciences hanno finora rifiutato di riconoscere il termine come categoria valida per la suddivisione del tempo geologico. Dall’altro, nell’agosto 2016 il Working Group on the Anthropocene – dopo sette anni di lavori – ha ufficialmente raccomandato un tale riconoscimento ai suddetti organi burocratici (con voto ad ampia maggioranza ma senza unanimità). In buona sostanza gli scienziati del gruppo presieduto da Jan Zalasiewicz propongono di considerare l’Antropocene come una serie, l’equivalente stratigrafico di un’epoca, tanto quanto l’Olocene o il Pleistocene che l’hanno preceduto. Il golden spike [chiodo d’oro] individuato come punto originario sarebbe da collocarsi nella cosiddetta grande accelerazione, cioè a partire dagli ultimi sussulti della seconda guerra mondiale, quando le bombe atomiche vennero sganciate e la dipendenza da carbone e petrolio contagiò l’intero pianeta (sebbene con intensità molto variabili).”

(Il sintomo-Antropocene di Emanuele Leonardi e Alessandro Barbero, Effimera, 9 ottobre 2017)

Nella seconda parte del post racconteremo più in dettaglio quali sono i possibili confini temporali dell’Antropocene, una questione per la quale in realtà esistono almeno 4 differenti ipotesi e proposte.

(continua)

Riferimenti.

(1)Crutzen, P. J. & Stoermer, E. F. The Anthropocene. IGBP Global Change Newsl. 41, 17–18 (2000)

(2)Stoppani, Il bel paese, 1873 –http://www.sba.unifi.it/upload/scienze/img150anniuniti/doc150anniuniti/belpaese.pdf

https://ia600502.us.archive.org/6/items/ilbelpaeseconver00stopuoft/ilbelpaeseconver00stopuoft.pdf

(3)Stoppani Corso di geologia in 3 vol. 1873; la parte che ci interessa è tradotta in inglese qui http://www.geologicnow.com/2_Turpin+Federighi.php; MAKING THE GEOLOGIC NOW RESPONSES TO MATERIAL CONDITIONS OF CONTEMPORARY LIFE edited by Elizabeth Ellsworth e Jamie Kruse trad. di Valeria Federeghi

Riporto qui l’intera frase perchè sia chiaro che Stoppani non rinnega la sua fede, ma la fonde con i fermenti dell’era di rivoluzione economica, sociale e politica che vive (la lascio in inglese come scorno, per far risaltare l’abbandono che abbiamo della nostra storia migliore):

“…when, in the bosom of the aged fabric of ancient pagan societies, the Christian ferment was introduced, the new element par excellence, that substituted ancient slavery with freedom, darkness with light, fall and degeneration with rebirth and true progress of humanity.

It is in this sense, precisely, that I do not hesitate in proclaiming the Anthropozoic era. The creation of man constitutes the introduction into nature of a new element with a strength by no means known to ancient worlds. And, mind this, that I am talking about physical worlds, since geology is the history of the planet and not, indeed, of intellect and morality. But the new being installed on the old planet, the new being that not only, like the ancient inhabitants of the globe, unites the inorganic and the organic world, but with a new and quite mysterious marriage unites physical nature to intellectual principle; this creature, absolutely new in itself, is, to the physical world, a new element, a new telluric force that for its strength and universality does not pale in the face of the greatest forces of the globe.”

(4)Personalmente conosco almeno un filosofo dell’800 (fra il 1850 e il 1860) che scrisse a proposito di ciò nella critica alla società capitalistica che vedeva nascere; lascio a voi scoprire chi era costui, che pensava alla scienza applicata alla produzione e al lavoro sociale nella forma di divisione del lavoro come la base materiale della trasformazione della biosfera; egli vedeva già allora il puro tempo di lavoro che andava scomparendo mano a mano come fonte principale della ricchezza sostituito da questo nuovo e più potente paradigma sociale che avrebbe inglobato ogni sviluppo (anche legato ai robot, a lui sconosciuti ma inglobabili nel suo “sistema automatico di macchine”). Si tratta di una forza produttiva talmente potente che se non domata e sottoposta alla ragione e al controllo sociale può, con la sua esigenza di sviluppo infinito, distruggere ogni biosfera e giustificare il paradosso di Fermi.

 

Cromorama

In evidenza

Mauro Icardi

Il titolo di questo articolo è lo stesso di un libro uscito nella collana Einaudi “Stile libero extra” a Settembre. L’autore, Riccardo Falcinelli è designer e insegnante. In questi giorni è impegnato nella promozione del suo volume, la cui preparazione, a quanto lui stesso ha raccontato in una delle presentazioni radiofoniche, ha richiesto circa dieci anni. In questo periodo ha   raccolto molti appunti e molta documentazione storica, fino alla pubblicazione del libro. Libro che ci racconta di come la storia dei colori, ha finito per modificare il nostro sguardo. Questo articolo non è una recensione del libro, ma un aggancio ai temi che lo scrittore ha sviluppato nel suo libro tratto dalle presentazioni del libro in radio. ) E in queste presentazioni del libro, Falcinelli parla comunque di chimica e di rivoluzione industriale.

 

E lo spunto parte da una considerazione estremamente interessante.

Prima dello sviluppo dell’industria dei coloranti di sintesi non esisteva la tinta unita. Ma “la rivoluzione della chimica permette di avere qualunque oggetto di qualunque colore”.

L’autore intervistato per la rubrica di radio 3 Fahrenheit pronuncia queste parole riferendosi allo sviluppo dell’industria dei coloranti di sintesi.

Premesso che come lui stesso dichiara, il suo libro non vuole essere un saggio ma un racconto di come il colore abbia cambiato il nostro sguardo, ma anche il nostro immaginario, ecco che il legame con la chimica, o meglio con la storia dell’industria chimica è subito trovato.

Riportandoci alla storia dell’anilina , isolata nel XIX secolo e che August Wilhelm von Hofmann riconoscerà e cui darà il nome nel 1855. E solo un anno dopo, nel 1856 l’avvio dell’industria dei coloranti sintetici grazie all’entusiasmo di William Henry Perkin, che tentando ricavare dal catrame i precursori del chinino, fini per ossidare l’anilina ed ottenere il colore “mauve”. La polvere nera ricavata dall’ossidazione dell’anilina si scioglieva in metanolo dando origine ad un colore porpora molto persistente.

Questi episodi sono appunto uno spartiacque. L’industria dei coloranti avrà un enorme sviluppo. Tingere diventerà meno difficile e meno costoso. Non dimentichiamo che i coloranti naturali non sempre potevano essere utilizzati con facilità. Per esempio in Piemonte nel 1789, dati gli alti costi per la tintura delle divise dei soldati, il Governo si rivolse addirittura all’Accademia delle Scienze.

Fu creata una commissione che lavorò per trovare un sostituto dell’indaco che si otteneva dalle foglie di Indigofera Tintoria, pianta di origine Asiatica. Il sostituto venne trovato nella foglia del guado (Isatis tinctoria) che si poteva reperire anche in Piemonte, essendo molto diffusa nelle Alpi Occidentali e in quelle marittime.

Lo sviluppo dell’industria dei coloranti di sintesi modificherà non solo la tecnologia, ma anche il modo in cui noi oggi percepiamo i colori, secondo Falcinelli. Nel passato normalmente ogni colore o pigmento aveva un solo utilizzo. Ad esempio il colore blu ricavato dalla macinazione del lapislazzuli che è il blu degli affreschi della cappella sistina, e di quella degli Scrovegni, poteva essere utilizzato solo per gli affreschi, e non per esempio per tingere tessuti. La versatilità dei coloranti di sintesi che invece possono essere utilizzati per materiali diversi, hanno reso i colori, o meglio l’idea che ne abbiamo ,come svincolata dall’idea della provenienza da un determinato minerale o pianta. Secondo l’autore oggi abbiamo un’idea dei colori come svincolata dalla provenienza da sostanze reali.

A mio parere questo non credo sia del tutto vero per i chimici. Abituati come siamo a pensare in termini di strutture, di sostanze, a cercare di indagare la composizione della materia.

Le tesi di Falcinelli si possono ascoltare in questa conversazione nel programma Fahrenheit.

http://www.radio3.rai.it/dl/portaleRadio/media/ContentItem-97d47773-8f3a-4253-89a7-200f800be993.html

Ci sono moltissimi interessanti spunti. E si parla molto spesso di chimica. D’altronde il legame tra chimica e colori esiste praticamente da sempre. Ognuno di noi ne ha fatto pratica in Laboratorio per esempio nelle titolazioni con gli indicatori, nella colorimetria E quindi Cromorama può trovare posto accanto a libri di divulgazione chimica. Rappresentandone una visione diversa. E decisamente affascinante.

 

Tutto ciò che è bene sapere sul latte e derivati del latte

In evidenza

Marino Melissano

Il latte è un alimento bilanciato che contribuisce a soddisfare il fabbisogno giornaliero di proteine, zuccheri, grassi, oligoelementi e vitamine di ogni persona, in ogni età della vita.

È facile convincersi del fatto che il latte sia uno degli alimenti più completi, grazie alla sua composizione chimica. Infatti contiene tutti i principi alimentari indispensabili, quali sostanze proteiche, carboidrati, vitamine, enzimi e sali minerali, tra cui il calcio (126 mg/100 g di latte), il magnesio (13 mg/100 g) e il fosforo (100 mg/100 g). Da notare che il rapporto calcio/fosforo è superiore a uno: questa particolarità permette la calcificazione delle ossa anche in assenza di vitamina D.

    

Tra le vitamine spiccano le presenze dell’acido pantotenico, che favorisce la produzione ormonale; la vitamina B2 indispensabile all’accrescimento delle cellule; la A, importante per la pelle e per la vista; la K, antiemorragica; oltre alle note vitamine C, D, E e B6.

Le proteine del latte sono di alto valore biologico; la più importante di queste, il caseinogeno, è ricca di fosforo e ha la proprietà di coagulare, scindendosi in paracaseina, ad opera di speciali enzimi, quali la chimasi. Questa coagulazione è sfruttata nella preparazione dei formaggi.

L’unico zucchero del latte è il lattosio; essendo la sua molecola complessa, essa non viene digerita tal quale, ma viene prima degradata ad opera di un enzima specifico, la lattasi, che manca nelle persone disabituate al latte, la qual cosa spiega l’azione lassativa che il latte esplica in alcuni individui, in quanto il lattosio non scisso si comporta come un purgante salino. Però è sufficiente ricominciare a berne quantità gradualmente crescenti perché il proprio organismo riproduca la lattasi.

Per i sali di calcio e per la presenza di un amminoacido essenziale, il triptofano, il latte è un ottimo regolatore nervoso e, secondo recenti ricerche, anche un buon regolatore del sonno. Sembra, ancora, che prevenga la osteoporosi, cioè la decalcificazione delle ossa che spesso si verifica in età avanzata, e l’ulcera gastrica.

Un’assunzione dì mezzo litro di latte intero al giorno assicurerebbe: 17 g di lipidi; 19 g di glucidi; 16 g di protidi; 3,5 g di sali minerali, oltre una corretta quantità di vitamine; il tutto per un valore energetico di 289 kcal. Lo stesso mezzo litro di latte apporta, quindi, tante proteine quante sono contenute in 100 g di carne di manzo o in tre uova.

In commercio esistono diversi tipi di latte: pastorizzato intero, (contenente non meno del 3% di grasso); parzialmente scremato (contenente non meno dell’1,5% di grasso) e scremato (contenente meno dello 0,3 % di grasso); omogeneizzato; sterilizzato; in polvere e condensato.

La pastorizzazione (stassanizzazione) consiste in un trattamento a 75 °C per 15 secondi; si distruggono così tutti i germi patogeni, senza significative perdite neanche delle vitamine più termosensibili.

In base alla legge 3 maggio 1989, n. 169 e al decreto del Ministero della Attività produttive 27 giugno 2002, si può definire latte pastorizzato quel latte, sottoposto a pastorizzazione, che, al consumo, presenti:

–                 prova della fosfatasi alcalina negativa: è questo un enzima contenuto nel latte in misura quasi sempre costante; la sua attività è pressoché annullata quando il latte viene riscaldato a circa 70°C; il controllo è quindi inteso a stabilire se la pastorizzazione sia stata svolta regolarmente o se siano state aggiunte al latte pastorizzato piccole quantità di latte crudo;

  • un contenuto in sieroproteine solubili, non denaturate, non inferiori all’11% delle proteine totali. Il tenore di sieroproteine solubili decresce ogni qualvolta il latte subisce un trattamento termico. Non di rado il latte trattato dopo un certo tempo dalla mungitura viene pastorizzato più volte: in questo caso non sarà possibile denominarlo fresco. Infatti, il latte pastorizzato si può fregiare della denominazione di latte fresco pastorizzato se, pervenuto crudo allo stabilimento di confezionamento e qui sottoposto a un solo trattamento termico entro 48 ore dalla mungitura, presenti al consumo:
  • prova della fosfatasi alcalina negativa;
  • prova della perossidasi positiva: è questo un altro enzima sempre presente nel latte crudo, che è distrutto ad una temperatura di almeno 80 °C, anche per pochi secondi;
  • un contenuto di sieroproteine solubili non denaturate non inferiori al 14% delle proteine totali. Se questa percentuale sale almeno al 15,5% il latte fresco pastorizzato può essere definito latte fresco pastorizzato di alta qualità.

(Marino Melissano – Alimentologia – Youcanprint – www.youcanprint.it)

Un’altra tecnica di conservazione del latte è la microfiltrazione: prima di subire il trattamento termico, il latte viene fatto passare, alla temperatura di 50°C, attraverso una membrana che possiede fori microscopici, capace di trattenere la maggior parte dei batteri naturalmente presenti ed eventualmente particelle estranee. In questa fase si separa anche il grasso, poiché le sue particelle non passano attraverso i fori.
Il grasso e la parte rimanente del latte vengono poi pastorizzati separatamente: il grasso, insieme ai batteri, viene pastorizzato a 85°C, una temperatura superiore alla normale pastorizzazione, che elimina quindi una quantità superiore di microrganismi, mentre il filtrato viene pastorizzato a 72 °C;

il grasso viene poi miscelato nuovamente al latte, omogeneizzato, ed è così pronto per la commercializzazione.
In questo modo il latte possiede una carica batterica inferiore rispetto al latte pastorizzato e può quindi conservare più a lungo le sue caratteristiche naturali.

(www.salutarmente.it).

A livello qualitativo e nutritivo, ha le stesse caratteristiche del latte fresco.

Mentre per il latte pastorizzato la data di scadenza è determinata dal produttore, il decreto 24 luglio 2003 del Ministero delle Politiche Agricole e Forestali stabilisce che: la data di scadenza del “latte fresco pastorizzato” e del “latte fresco pastorizzato di alta qualità”, così come definiti dall’art. 4 della legge 3 maggio 1989, n. 169, è determinata nel sesto giorno successivo a quello del trattamento termico.
La data di scadenza del “latte microfiltrato fresco pastorizzato” è determinata nel decimo giorno successivo a quello del trattamento termico.

In base al decreto-legge 24 giugno 2004, n. 157, coordinato con la legge di conversione 3 agosto 2004, n. 204, il latte ottenuto con questo trattamento innovativo di conservazione può essere indicato in etichetta solo con la denominazione di latte microfiltrato: sparisce, perciò, il “fresco pastorizzato”.

Questo ha determinato un pasticcio sulla scadenza del microfiltrato, perché il decreto del 2003 prevedeva una scadenza di 10gg, ma riferita al “microfiltrato fresco”; caduto il termine “fresco” sembra che la scadenza sia stata liberalizzata, al pari di quella del latte UHT; quindi, si trovano in commercio latti microfiltrati con scadenza diverse. (www.issa-europe.eu).

Presso l’esercizio di vendita la temperatura di conservazione del latte, sottoposto a trattamento di pastorizzazione, deve essere compresa tra 1 e 6 °C.

Per una conservazione maggiore del latte si ricorre a metodi di conservazione più spinti, come la sterilizzazione, che può essere una sterilizzazione UHT semplice, consistente in un trattamento a 135-140 °C per 2-4 secondi. Un metodo recente di sterilizzazione UHT è quello della “uperizzazione”: esso consiste nella iniezione di vapore vivo al latte pre-riscaldato (si raggiunge così una temperatura di 135-145 °C) cui segue il passaggio in camera a decompressione (il vuoto che si applica fa abbassare la temperatura e fa allontanare il vapore che viene riceduto all’impianto).

Una sterilizzazione ancora più spinta si attua con un preriscaldamento a temperatura ultra-alta (Ultra High Temperature o UHT) per pochi secondi e successivo trattamento in bottiglia a 110-120 °C per 12-20 minuti.

Con la pastorizzazione le perdite sono in genere modeste: le proteine non subiscono praticamente deterioramento, la vitamina C si perde anche per azione della luce ed il processo è sensibilizzato dalla presenza di riboflavina; la vitamina B12, pur essendo termostabile, è influenzata tuttavia negativamente dalla vitamina C in presenza di ossigeno. La sterilizzazione in bottiglia arreca danni maggiori anche alle proteine, a differenza della sterilizzazione UHT.

Definiamo il latte sottoposto a trattamento di sterilizzazione:

latte sterilizzato a lunga conservazione”, quando ha subìto un trattamento termico finale di sterilizzazione in contenitore sigillato. Esso deve riportare sul contenitore il termine di conservazione, indicato con la menzione “da consumarsi preferibilmente entro”, seguito dalla data riferita al giorno, al mese e all’anno, con data di riferimento di 180 giorni dal confezionamento;

latte UHT a lunga conservazione”, trattato a temperatura molto alta, ha subìto un trattamento termico di sterilizzazione in flusso continuo, seguito dal confezionamento asettico che ne consente una conservazione prolungata nel tempo. Il termine di conservazione va indicato sul contenitore con la medesima menzione prevista alla lettera precedente, con data di riferimento di 90 giorni dal confezionamento.
(da “Marino Melissano”- Alimentologia – Ed. Youcanprint – www.youcanprint.it)

Grazie al DM 09.12.2016, entrato in vigore il 20.04.2017, oggi, in Italia, è obbligatoria in etichetta l’indicazione dell’origine della materia prima dei prodotti lattiero caseari, come ad esempio: il latte UHT, il burro, lo yogurt, la mozzarella, i formaggi e i latticini.
L’obbligo si applica al latte vaccino, ovicaprino, bufalino e di altra origine animale.

L’origine del latte e dei derivati dovrà essere indicata in etichetta in modo chiaro, visibile e facilmente leggibile.

Queste le diciture utilizzate:
a) “PAESE DI MUNGITURA: nome del Paese nel quale è stato munto il latte”;
b) “PAESE DI CONDIZIONAMENTO O TRASFORMAZIONE: nome del Paese in cui il prodotto è stato condizionato o trasformato il latte”.
Qualora il latte o il latte utilizzato come ingrediente nei prodotti lattiero-caseari sia stato munto, confezionato e trasformato nello stesso Paese, si può utilizzare una sola dicitura, ad esempio: “ORIGINE DEL LATTE: ITALIA“.
Se le fasi di confezionamento e trasformazione avvengono nel territorio di più Paesi, diversi dall’Italia, possono essere utilizzate, a seconda della provenienza, le seguenti diciture:
latte di Paesi UE: se la mungitura avviene in uno o più Paesi europei;
latte condizionato o trasformato in Paesi UE: se queste fasi avvengono in uno o più Paesi europei.
Se le operazioni avvengono al di fuori dell’Unione europea, verrà usata la dicitura “Paesi non UE”. 
Sono esclusi solo i prodotti Dop e Igp che hanno già disciplinari relativi anche all’origine e il latte fresco già tracciato.

Attenzione, però: le norme suddette non si applicano ai prodotti fabbricati o commercializzati in altri Stati membri UE o in Paesi extra-UE: per esempio, in Germania e in Austria non vige il medesimo obbligo italiano sull’origine; quindi, se compro in Italia latte o prodotti lattiero-caseari austriaci o tedeschi, posso anche non trovare in etichetta alcuna indicazione del Paese di mungitura e del Paese di condizionamento o trasformazione.

Un discorso a parte merita il latte crudo, che, secondo il Regolamento CE n. 853/2004, è il latte che non è stato riscaldato a più di 40°C e non è stato sottoposto a nessun trattamento avente un effetto equivalente, prima di essere consumato. Al controllo, il latte vaccino crudo non deve contenere, a 30°C, più di 300.000 germi/ml e 400.000 cellule somatiche/ml. Se è destinato alla produzione di derivati mediante processi che non comportano trattamenti termici, il numero di germi non può essere superiore a 500.000/ml.

Questo prodotto si è di fatto reso disponibile al consumatore che lo acquista al di fuori dell’azienda agricola, a partire dalla metà degli anni 2000, quando si sono diffuse sull’intero territorio nazionale apposite macchine erogatrici. L’obbligo di riportare nell’etichettatura del latte crudo la dicitura “da consumarsi previa bollitura”, introdotto a partire dal 2008 con una Ordinanza del Ministero della salute e previsto dal Decreto legge n. 158 del 13/09/2012, ha consentito di inserire un principio di garanzia a tutela della salute del consumatore. (http://www.salute.gov.it/portale/news/p3_2_3_1_1.jsp?menu=dossier&p=dadossier&id=10)

L’etichetta

L’etichettatura del latte crudo deve contenere le diciture:

  • “Latte crudo”, per il latte crudo destinato al consumo umano;
  • “Fabbricato con latte crudo”, per i prodotti lattiero caseari derivati da latte crudo.

Il latte crudo può essere venduto attraverso macchine erogatrici, che, però, devono contenere la dicitura, sul frontale della macchina, in rosso, “prodotto da consumarsi dopo bollitura”.

La data di scadenza non può superare i 3 gg da quella della messa a disposizione del consumatore. (ordinanza 10.12.2008)

E’ vietata la somministrazione di latte crudo nell’ambito della ristorazione collettiva.

E’ vietata la produzione di gelati prodotti con latte crudo. (ordinanza 2.12.2010).

La produzione di formaggi a latte crudo viene consentita, nel rispetto di alcuni requisiti minimi aziendali e igienici. Tra questi:

  • Il latte deve provenire da animali che non presentano sintomi di malattie infettive trasmissibili all’uomo attraverso il latte (in particolare provenire da allevamenti ufficialmente indenni da brucellosi e tubercolosi), in buono stato sanitario e ai quali non siano state somministrate sostanze o prodotti non autorizzati oppure senza il rispetto dei termini minimi di sospensione.
  • Se il latte non è lavorato entro due ore dalla mungitura, deve essere posto immediatamente in un luogo pulito e deve essere raffreddato a una temperatura non superiore a 8 °C (in caso di raccolta giornaliera) e non superiore a 6 °C (qualora la raccolta non sia effettuata giornalmente).
  • Le strutture devono essere pulite, sottoposte a manutenzione, e tenute in buone condizioni.

principali batteri patogeni che interessano il latte crudo sono:

Campylobacter jejuni 
Escherichia coli (E. coli O157:H7)
Listeria monocytogenes 
Salmonella spp.

L’Escherichia coli è naturalmente presente nell’intestino umano e in quello degli animali a sangue caldo. I fattori che aumentano il rischio per chi beve latte crudo stanno nel contatto tra il latte e la materia fecale di animali o persone portatori di questo batterio. L’impatto sull’uomo dell’Escherichia coli 0157:H7 è minimo, ma ha molta risonanza a causa dei potenziali effetti e malattie che provoca (come la sindrome emolitico-uremica o SEU, causata da una tossina, detta vero-citotossina o Shiga-tossina o Vtec, trasmessa per via alimentare o orofecale), talvolta molto serie e/o mortali. Si stima che dal 1999 al 2010 solo 5 su 63.153 ammalati all’anno a causa dell’Escherichia coli siano stati contaminati dopo aver bevuto latte, ma questa patologia sta, purtroppo, diventando attuale, visti i casi registrati negli ultimi mesi. Infatti, in Puglia, nella zona di Altamura, a giugno 2017, sono stati segnalati 3 casi di bambini affetti da SEU e la Regione, che ha allestito un tavolo tecnico per analizzare la situazione, ha esordito con una nota “la situazione non rappresenta un’emergenza e sarebbe da riferire ad una contaminazione derivata dall’uso non corretto di latte crudo, che non può essere assolutamente utilizzato per l’alimentazione umana se non previo trattamento termico”. (www.wired.it)

Altro batterio, forse il più temuto, la Listeria. È importante sapere che solo alcune sottoclassi di questo batterio causano effettivamente la Listeriosi, la quale può essere mortale solo se ingerita in grandi quantità e solo in casi particolarmente a rischio come neonati, donne incinte, anziani e persone con deficit immunitario in genere. Nella maggior parte dei casi si prende una gastroenterite.

La Listeria vive bene in ambienti freschi e umidi e si trova, in quantità variabili, letteralmente ovunque, nelle nostre case e nel nostro corpo. Ingeriamo piccole quantità di Listeria ogni giorno senza che ci capiti nulla, e lo stesso accade quando beviamo il latte crudo. Ci sono stati pochissimi casi di contaminazione da Listeria che hanno visto coinvolti latte e formaggi a latte crudo, specialmente se stagionati per lungo tempo.

Passando dal latte al formaggio, è necessario garantire, con analisi periodiche:
– l’assenza di Listeria monocytogenes
– l’assenza di Salmonella
– l’assenza di Enterotossina Stafilococcica
– il controllo della presenza di germi indicatori di carenze igieniche (Escherichia coli e Stafilococchi coagulasi positivi).

L’etichetta che accompagna i prodotti fabbricati con latte crudo deve indicare chiaramente i termini «fabbricato con latte crudo».

Latte art

In conclusione, l’uso di latte crudo da parte dei caseifici non è vietato (a differenza dei produttori di gelati), ma le prescrizioni a cui sono soggetti sono tante e, a volte, disattese. Anche l’EFSA, con un documento del 2015, ha comunicato un rischio per i consumatori.

Pertanto, consigliamo di non somministrare, soprattutto ai soggetti più deboli, alimenti prodotti a partire da latte crudo.

L’ora di chimica. 5° edizione del festival dell’innovazione e della scienza a Settimo Torinese.

In evidenza

Mauro Icardi

Con questo accattivante titolo, la città di Settimo Torinese si appresta a dare il via a questa manifestazione, che negli anni passati si è occupata di nuove tecnologie, di spazio ed esplorazione dell’universo, di luce e di robotica. Ma che per l’edizione 2017 ha deciso di dedicare una settimana alla chimica (dal 15 al 22 Ottobre) e a come essa entri giornalmente nella nostra vita quotidiana.

Il tema non è nuovo, ma è particolarmente stimolante che venga affrontato nella città dove ha lavorato Primo Levi per 23 anni. Settimo Torinese ha un legame piuttosto forte con la chimica. In passato nel territorio della città non vi è stata solo la Siva, la fabbrica di vernici di cui Levi fu direttore tecnico e dove lavorò per 23 anni, ma anche la Paramatti che produceva anch’essa vernici, le fabbriche di pneumatici della Ceat e della Pirelli. E poi i centodieci anni di storia storia della Schiapparelli Farmaceutici, fondata nel 1907 e che cambierà varie volte nome e ragione sociale (Farmitalia Carlo Erba, Antibioticos) fino ad essere oggi la Olon Spa.

Proprio in parte dell’area ex Paramatti è sorta la nuova biblioteca multimediale Archimede che è stata inaugurata nel 2010.

Ma i luoghi di questo festival sono diversi, e coinvolgeranno anche Torino ed altri luoghi del suo hinterland, come Moncalieri e Grugliasco.

Il programma di incontri e iniziative e ampio e diversificato. Si parlerà di chimica e del suo ruolo in vari settori. Alimentazione, produzione industriale, elettronica. Questo il programma del festival:

http://www.festivaldellinnovazione.settimo-torinese.it/wp-content/uploads/2017/09/INNOV-2017-Programma.pdf

Si possono soddisfare le più diverse curiosità. Dalla chimica degli alimenti e delle fermentazioni parlando di cioccolato, vermut e spumante e infine il caffè. Che abbiamo anche noi trattato su questo blog, parlando di vino e birra.

La chimica ancestrale che diventa la chimica di oggi, quella che molti non pensano sia così vicina a loro. Basta pensare ai nostri recettori dell’olfatto che percepiscono qualità e identità di molecole volatili e gas presenti nell’aria.

Non mancherà il tema dell’acqua, delle nuove tecnologie per preservarla. Poi la polvere cosmica, l’elettronica.

Degna di nota la mostra dedicata al Primo Levi scrittore di fantascienza. Interessante il collegamento dei temi della fantascienza di Levi con quelli della fantascienza del novecento. Lo scrittore poliedrico e centauro che immaginava le odierne stampanti 3d, quando parlava del duplicatore Mimete. Ingiustamente ritenuti minori i suoi due libri “Storie naturali” e “Vizio di forma”. Avevo auspicato che venisse riscoperto il Levi fantascientifico, e non posso che essere contento di questa scelta.

Molti i laboratori e gli esperimenti scientifici dedicati ai ragazzi della scuole. Non mancheranno gli esperimenti di chimica spettacolare, quella che in molti apprezzano e che riporta alla mente gli spettacoli scientifici che si tenevano nel 700.

Basta osservare questo programma per rendersi conto delle possibilità di didattiche e divulgative, che spazieranno dalla chimica fisica, alla leggi dei gas. Produrre CO2 decomponendo bicarbonato, o studiare i fluidi utilizzando succhi di frutta e di verdura.

Lo scorso anno furono circa 35.000 le presenze per il tema della robotica. Il mio augurio è che quest’anno siano altrettante se non di più. Le note di presentazione lo dicono chiaramente. Invitano a scoprire la bellezza, la magia della chimica. Io ovviamente non posso che essere d’accordo.

In quella città ho vissuto. Sono davvero contento che si sia trasformata in un polo culturale, da città dormitorio come veniva considerata fino a qualche anno fa.

E ovviamente ci tornerò. Sono tanti gli spunti che questo festival offre. E d è un invito che doverosamente estendo ai lettori di questo blog.

 

La plastica, un nuovo materiale per i Beni Culturali

In evidenza

Luigi Campanella, già pesidente SCI

Il Museo ha subito negli ultimi 50 anni una profonda trasformazione che lo ha reso da sede di informazione a sede di conoscenza,essendo i due termini ben distinti anche concettualmente.

Su questa base sono nati e si sono imposti all’attenzione culturale nuovi musei, dove la novità ha, a seconda dei casi, riguardato le innovazioni ICT, l’organizzazione della struttura, i contenuti esposti.

In questo ultimo senso un museo nuovo è di certo il PLART di Napoli. Il Plart Napoli è uno spazio polifunzionale, un museo della plastica e centro di ricerca e restauro dei polimeri. Il Plart ospita una delle più ricche collezioni di plastiche storiche, con una esposizione di millecinquecento opere d’arte e design, tra prototipi e pezzi di culto della storia del design.

Tutti gli oggetti esposti sono accomunati dalla doppia anima di oggetto di uso comune e opera d’arte. La collezione del Plart raccoglie accessori, apparecchi elettronici, utensili in celluloide, acrilico, bachelite, fino al più recente PVC. Gli oggetti della collezione del Museo Plart Napoli appartengono tutti all’arco di tempo in cui il design ha dato il meglio di sé, dalla metà dell’Ottocento fino agli anni Sessanta.

Colorata, bianca, nera, duttile o inflessibile. Nelle sue mille varianti, la plastica è senza dubbio il materiale che ha dominato gli artefatti prodotti dall’uomo nell’ultimo secolo. Con i suoi pregi e i suoi difetti, questo materiale si è imposto come supporto per gli oggetti più vari, fino a diventare protagonista di opere d’arte e pezzi unici nella storia della creatività. Dalle Barbie ai lettori mp3, dai telefoni agli utensili della cucina siamo quotidianamente circondati da materiali plastici. Se fino agli anni Settanta si pensava alla plastica come a qualcosa di indistruttibile, oggi il suo tallone d’Achille è ben noto agli esperti di conservazione: la plastica, infatti, non solo non è immortale, ma subisce un processo di decomposizione tra i più insidiosi e difficili da arginare. Proprio per questo – cercare di salvare i “tesori di plastica” e rendersi conto per tempo dei primi segni di cedimento – da un paio d’anni scienziati di tutta Europa sono al lavoro al cosiddetto Popart Project, progetto finanziato dall’Unione Europea per la preservazione degli artefatti in plastica esposti in musei e gallerie. Un tempo si pensava fosse eterna, oggi sono evidenti i primi segni del degrado. Oggetti d’uso quotidiano e capolavori del design, tutti rischiano di andare perduti.

“La degradazione della plastica è una bomba a orologeria”, spiega Yvonne Shashoua, ricercatrice di conservazione al National Museum of Denmark di Copenhagen. In termini molecolari, infatti, la plastica è costituita da polimeri, gruppi di molecole fatte di lunghe catene di carbonio. Nel tempo, i legami chimici che tengono insieme queste catene si rompono man mano che vengono attaccati dall’ossigeno o dai raggi ultravioletti, o semplicemente si indeboliscono per effetto del calore ambientale. La riduzione delle proprietà meccaniche può essere determinata dall’ossidazione e dall’idrolisi attraverso meccanismi che coinvolgono i radicali liberi provenienti dall’ambiente e dalla rottura di legami chimici. Particolarmente sensibile a questo tipo di degrado è il polipropilene.

La resistenza alle aggressioni chimiche delle materie plastiche è in genere buona; il cloruro di polivinile, il PTFE e la sua variante, l’ETFE, il polietilene e il polipropilene risultano particolarmente resistenti all’attacco di acidi e di basi. Tutte le materie plastiche sono però soggette ad invecchiamento, a un processo lento di degradazione per effetto della luce del sole, soprattutto delle radiazioni ultraviolette,

Le conseguenze di questi processi hanno lasciato un segno indelebile su oggetti risalenti al XIX secolo o all’inizio del XX, come le pellicole fatte di celluloide o gli artefatti realizzati in cellulosa acetata. Per questo e altri tipi di plastica la decomposizione è autocatalizzata: quando i legami iniziano a rompersi, rilasciano degli agenti chimici che attaccano le catene stesse dei polimeri. In sostanza, si tratta di un meccanismo autodistruttivo difficile da bloccare, una volta avviato.

Le Materie plastiche sono Materiali polimerici costituiti in genere da macromolecole organiche, caratterizzati dalla possibilità di essere modellati in qualsiasi forma, quando si trovano allo stato plastico; vengono lavorati mediante procedimenti vari, generalmente a caldo. Le unità di base della materie plastiche, cioè i polimeri, possono essere naturali (come la cellulosa, la cera e la gomma naturale), artificiali, cioè costituiti da polimeri naturali modificati (come l’acetato di cellulosa e il cloridrato di caucciù) o sintetici,cioè prodotti mediante reazioni chimiche di sintesi o di addizione (come il nylon, il politene ecc.). I materiali iniziali sono resine sotto forma di granulati, polveri o soluzioni, dai quali si formano le materie plastiche finite. Si basano sulla chimica del carbonio, il quale ha la capacità di formare catene legate in forme diverse. Quando induriscono, le molecole di cui sono costituite le materie plastiche – i monomeri – si uniscono in catene, formando i polimeri, Le materie plastiche sono caratterizzate da un alto rapporto resistenza-densità, un’eccellente proprietà di isolamento termico, elettrico e acustico, e una buona resistenza ad acidi, basi e solventi. Le macromolecole dalle quali sono costituite possono essere lineari, ramificate o reticolate; nei primi due casi esse sono termoplastiche, cioè rammolliscono quando vengono riscaldate, mentre nell’ultimo caso sono termoindurenti, cioè induriscono in seguito a innalzamenti della temperatura.

Le proprietà di un polimero dipendono dal tipo di monomero con cui è stato ottenuto, dalla lunghezza delle macromolecole, dallo loro struttura e dal modo con cui si dispongono nello spazio le diverse macromolecole. I materiali amorfi hanno macromolecole disposte in modo disordinato, quelli cristallini presentano configurazioni spaziali ordinate.

Una strategia per arginare il problema del degrado consiste nell’aggiungere composti anti-invecchiamento capaci di bloccare la degradazione fin dalle sue fasi iniziali. Alcune di queste sostanze agiscono come degli schermi solari che proteggono le catene da ossigeno, luce e raggi ultravioletti. Spesso, però, gli additivi sono costosi e vengono centellinati in fase di manifattura. Oppure possono perdere la loro efficacia, lasciando “scoperto” il polimero e aprendo così la strada alla degradazione.

Una delle difficoltà maggiori per la conservazione è la varietà dei modi in cui diversi tipi di plastica si degradano per cui ciò che funziona bene per preservare un materiale può rivelarsi completamente deleterio per un altro.

La maggior parte delle plastiche moderne, ad esempio, decade principalmente a causa delle reazioni con l’ossigeno, ed è quindi più protetta se sigillata in un’atmosfera priva di ossigeno. La cellulosa acetata, invece, necessita di un trattamento diametralmente opposto: senza una ventilazione adeguata, i vapori di acido acetico che originano dall’invecchiamento del materiale ne accelerano il processo di decadimento.

L’esigenza che si verifica è quella di predire questi meccanismi di degradazione.

Per ciò si cerca di ‘velocizzare’ questi meccanismi, simulando il più possibile le condizioni di esposizione del manufatto/materiale.

Partendo dal presupposto che una simulazione fedele è impossibile si sono sviluppate nel tempo alcune procedure standard per l’esposizione dei materiali in modo tale che, almeno tra loro, possa esserci una accettabile riproducibilità dei risultati.

Esistono delle strumentazioni e delle metodologie che vengono generalmente utilizzate per sottoporre i materiali a cicli di invecchiamento ‘accelerati‘ rispetto all’esposizione naturale. Queste tecniche sono utilissime per paragonare il comportamento di diversi materiali, ma tutte le variabili devono essere attentamente valutate se si vuole predire la degradazione nel tempo.

Partendo dal presupposto che non si possono riprodurre esattamente tutte le variabili esterne, anche perché è proprio lo stesso ‘invecchiamento naturale’ che non è riproducibile, sono state sviluppati degli apparecchi e delle metodologie che consentono il controllo delle variabili più importanti, quali lo spettro di emissione delle lampade, la potenza emessa, la temperatura, l’umidità, etc.

 

“Contaminazione da microplastiche nell’acqua corrente di tutto il mondo”: Houston, abbiamo un problema?

In evidenza

Claudia Campanale*

Il giorno 25 Agosto scorso mi trovavo in Germania presso l’Istituto Federale di Idrologia di Coblenza per svolgere parte del mio dottorato di ricerca sulle microplastiche nell’ambiente acquatico quando ricevo una telefonata da parte di uno dei giornalisti che stava seguendo il caso “Microplastiche nell’acqua potabile”. Il giornalista mi parla dell’inchiesta in corso preannunciandomi i risultati della ricerca condotta dall’Università statale di New York e del Minnesota e da Orb Media che sarebbero poi stati pubblicati il 05 settembre 2017 sul “the guardian” e secondo cui l’83% dei campioni di acqua potabile prelevati da tutto il mondo conterrebbero microscopiche fibre di plastica.

https://www.theguardian.com/environment/2017/sep/06/plastic-fibres-found-tap-water-around-world-study-reveals

Il giornalista inoltre, mi chiede di analizzare tre campioni di acqua prelevati dalle fontane pubbliche di Roma per avere un controllo su altri tre campioni prelevati dagli stessi punti e analizzati contemporaneamente dall’Università del Minnesota.

Al momento a livello globale non sono state mai eseguite azioni di intercalibrazione tra laboratori e non sono disponibili standards di qualità a cui far riferimento. A causa della mancanza di protocolli standardizzati per il campionamento, l’estrazione, la purificazione e la caratterizzazione delle microplastiche, la comparabilità dei dati disponibili rimane altamente limitata, soprattutto per quanto riguarda: la definizione delle diverse classi dimensionali, le procedure di campionamento, i metodi analitici e i valori di riferimento.

Generalmente l’analisi delle microplastiche in matrici ambientali consta di tre fasi: campionamento, estrazione, quantificazione e identificazione.

1° Step: CAMPIONAMENTO

Il primo aspetto da considerare riguarda proprio il significato insito nella definizione di campionamento che secondo i metodi analitici per le acque APAT-IRSA è la seguente:

“Il campionamento può definirsi come l’operazione di prelevamento della parte di una sostanza di dimensione tale che la proprietà misurata nel campione prelevato rappresenti, entro un limite accettabile noto, la stessa proprietà nella massa di origine. In altre parole, il fine ultimo del campionamento ambientale è sempre quello di consentire la raccolta di porzioni rappresentative della matrice che si vuole sottoporre ad analisi“.

La qualità dei risultati di un’analisi è quindi strettamente correlata a quella del campione prelevato; ne consegue che il campionamento risulta essere una fase estremamente complessa e delicata che incide in misura non trascurabile sull’incertezza totale del risultato dell’analisi.

Così come indicato nei Metodi analitici ufficiali per le acque destinate al consumo umano (D.Lgs. 31/2001), per individuare le caratteristiche di qualità di un’acqua e per seguire le sue variazioni temporali è innanzitutto necessario che i campioni da analizzare siano il più possibile rappresentativi delle reali condizioni qualitative e quantitative esistenti nella matrice. Al momento del campionamento è necessario dunque considerare con attenzione i volumi di acqua da prelevare. Essi vanno definiti in funzione dei parametri da determinare e comunque devono essere superiori al minimo necessario per procedere allo svolgimento degli esami richiesti.

Seguendo le metodiche di campionamento utilizzate dai ricercatori dell’Università del Minnesota i tre campioni da analizzare prelevati dalle fontane pubbliche di Roma sono stati campionati in bottiglie di HDPE per un volume totale di 500 ml a campione. In relazione a questa prima fase di campionamento ciò che desta maggiore perplessità è proprio la rappresentatività del campione relativamente all’esiguo volume di acqua campionato. Un volume di 500 ml è abbastanza rappresentativo per avere un valore che si discosti sufficientemente da quella che è la contaminazione ambientale di fondo e avere quindi un risultato superiore al valore del bianco? Basti pensare che, studi finalizzati a determinare la concentrazione di microplastiche a valle di impianti di trattamento delle acque reflue, utilizzano, per l’analisi delle microplastiche, un volume di campione che varia tra i 50 e i 100L (Mintening et al., 2016, Murphy et al., 2016, Carr et al., 2016).

Inoltre, diverse ricerche specifiche dimostrano che determinare la contaminazione ambientale derivante dalla deposizione atmosferica di microfibre sintetiche o dall’abbigliamento dei ricercatori risulta indispensabile per garantire che il contenuto di plastica nel campione analizzato non venga sovrastimato (Hanvey et al., 2017). Pertanto, valutare l’affidabilità della metodica utilizzata mediante test di validazione e bianchi ambientali risulta indispensabile per riportare i risultati di uno studio.

Un secondo aspetto da tener presente in questa prima fase riguarda il concetto di incertezza. Attualmente è accettato che, nel momento in cui tutte le componenti di errore siano state valutate e le relative correzioni apportate, rimanga tuttavia un’incertezza sulla correttezza del risultato. L’incertezza in generale può essere valutata dalla distribuzione statistica dei risultati di una serie di misurazioni e può essere caratterizzata mediante il calcolo delle deviazioni standard.

I tre campioni di controllo, prelevati dalla città di Roma, sono stati campionati in singola copia senza replicati, quindi non è stato possibile calcolare il livello di incertezza associato al risultato analitico.

Inoltre, secondo la guida EURACHEM/CITAC e la UNI CEI ENV 13005 “Guida all’espressione dell’incertezza di misura” , nel riportare il risultato di una misurazione è necessario:

– specificare il misurando;

– descrivere chiaramente i metodi usati per calcolare il risultato di una misurazione e la sua incertezza dalle osservazioni sperimentali e dai dati di ingresso;

– identificare le sorgenti di incertezza e documentare in modo esauriente come esse sono state valutate;

– quantificare le componenti dell’incertezza;

– calcolare l’incertezza combinata o composta;

– presentare l’analisi dei dati in modo tale che ogni passaggio possa essere agevolmente seguito e che il calcolo del risultato riportato possa essere ripetuto in modo autonomo, se necessario;

– fornire le correzioni e le costanti utilizzate nell’analisi e le loro fonti.

Nell’articolo pubblicato sul “the guardian” non viene descritta nessuna delle metodologie utilizzate per il campionamento, l’estrazione, la quantificazione e l’identificazione delle microplastiche trovate nei campioni analizzati. I risultati pubblicati fanno riferimento ad una concentrazione di microplastiche (espressa come numero di fibre/500mL) senza alcun valore di deviazione standard associato.

2° Step ESTRAZIONE

Al campionamento segue la fase di estrazione, che consiste in una serie di steps volti a separare le microplastiche dalla loro matrice per mezzo di una degradazione chimica e/o enzimatica della sostanza organica interferente, seguita da una separazione densimetrica e da una filtrazione finale del campione. Va detto che questa fase risulta essere la più complicata e, al momento, non esiste una metodica che permetta una rimozione del 100% della componente naturale con un recupero del 100% delle particelle sintetiche. Tuttavia, per campioni di acqua potabile, la degradazione chimica e/o enzimatica non è strettamente necessaria in quanto si presuppone un contenuto di matrice basso o pressoché inesistente, pertanto risulta fondamentale la caratterizzazione chimica.

3° Step QUANTIFICAZIONE e IDENTIFICAZIONE

Una volta che le particelle sono state separate dalla matrice, la quantificazione richiede la pesatura o il conteggio, compito assai difficile soprattutto per le particelle appena visibili ad occhio nudo. La caratterizzazione visiva del campione al microscopico (Visual Sorting) tuttavia presenta un elevato rischio di sovrastima a causa di grandi quantità di sostanze di origine naturale (parti di animali, minerali, fibre di origine naturale, ecc.) ancora presenti negli estratti (Dekiff et al., 2014). Da qui l’identificazione chimica delle particelle estratte risulta indispensabile a valle di una pre-caratterizzazione al microscopio allorquando diversi studi affermano che fino al 70% delle particelle visivamente identificate al microscopio vengono poi, in seguito ad una caratterizzazione chimica, identificate come falsi positivi (Hidalgo-Ruz et al., 2012, Hanvey et al., 2017).

Tra le tecniche consigliate per la corretta identificazione di materie plastiche vi sono spettroscopia Raman o FTIR, o pirolisi-GC / MS (Löder et al., 2015).

Come già accennato precedentemente, l’articolo pubblicato sul “the guardian”, manca dei riferimenti metodologici utilizzati dai ricercatori per eseguire l’analisi delle microplastiche seguendo un approccio scientifico rigoroso che, in questa fase ancora embrionale della ricerca, risulta indispensabile al fine di avere risultati attendibili. Inoltre ciò che desta maggiore scetticismo è che i risultati presentati dai colleghi siano stati divulgati, a livello mondiale, prima ancora della pubblicazione ufficiale di un articolo scientifico su una rivista accreditata.

 

Come ultimo aspetto da approfondire, prima di diffondere allarmismi su scala globale, particolarmente importante è ampliare la conoscenza di quelli che sono gli impatti delle microplastiche sull’ambiente e sulla salute.

Ad oggi non sono ancora state definite “concentrazioni prevedibili senza effetti (PNEC)” e “concentrazioni ambientali previste (PEC)” per le microplastiche presenti nell’ambiente e, non esistono nemmeno approcci alternativi per la valutazione del rischio delle materie plastiche.

Ciò che sappiamo al momento è che una serie di studi ha messo in luce la possibile ingestione di microplastiche da parte di pesci e molluschi in ​​condizioni naturali, sollevando diverse preoccupazioni; si pensa che le particelle possano provocare una risposta biologica attraverso meccanismi fisici e chimici. In primo luogo, sono stati riscontrati danni fisici come abrasioni interne e blocchi ed è stato dimostrato che le microplastiche possono causare lesioni che portano alla necrosi cellulare, all’infiammazione e a lacerazioni dei tessuti nei tratti gastrointestinali di alcuni organismi acquatici. In secondo luogo, l’elevata persistenza e galleggiabilità della plastica la rende un vettore ideale per il trasporto di specie aliene e per il potenziale rischio di dispersione di agenti patogeni per lunghe distanze. La colonizzazione da specie invasive è considerata come una delle più grandi minacce alla biodiversità globale. In terzo luogo, le microplastiche potrebbero essere considerate come possibili micro assorbitori di contaminanti organici (alteratori endocrini, POP) e metalli in tracce in grado di aumentarne la biodisponibilità negli organismi e di fungere da trasportatori in sistemi acquatici ed a lungo raggio in aree remote. Tuttavia, non è stato dimostrato in modo convincente che ciò avviene in condizioni naturali (Hermsen et al., 2017). In questa fase della ricerca quello di cui siamo certi è che le plastiche sono ubiquitarie, si frammentano in microplastiche e, probabilmente, la loro dispersione nell’ambiente è destinata ad aumentare; ciò di cui non siamo a conoscenza è la tossicità e le conseguenze a livello ecologico delle microplastiche in quanto non è ancora stata fatta una valutazione del rischio.

Houston, abbiamo un problema?

 

Bibliografia 

Carr S.A., Liu J., Tesoro A.G., 2016. Transport and fate of microplastic particles in wastewater treatment plants. Water Res. 91, 174 e 182.

Dekiff J.H., Remy D., Klasmeier J., Fries E., 2014. Occurrence and spatial distribution of microplastics in sediments from Norderney. Environmental Pollution 186 (2014) 248e256.

Löder, M. G. J. & Gerdts, G., 2015. Methodology used for the detection and identification of microplastics – A critical appraisal in Marine Anthropogenic Litter (eds Bergmann, M. et al.) Ch. 8, 201–227 (Springer, 2015).

Murphy, F., Ewins, C., Carbonnier, F., Quinn, B., 2016. Wastewater treatment works (WwTW) as a source of microplastics in the aquatic environment. Environ. Sci. Technol. 50, 5800e5808.

Hanvey J. S., Lewis P.J., Lavers J.L., Crosbie N.D., Pozo K., Clarke B.O. 2017. A review of analytical techniques for quantifying microplastics in sediments. Anal. Methods 9, 1369.

Hermsen E., Pompe R., Besseling E., Koelmans A.A. 2017. Detection of low numbers of microplastics in North Sea fish using strict quality assurance criteria. Marine Pollution Bullettin, http://dx.doi.org/10.1016/j.marpolbul.2017.06.051.

Hidalgo-Ruz V, Gutow L, Thompson RC, Thiel M. 2012. Microplastics in the marine environment: a review of the methods used for identification and quantification. Environ Sci Technol. 46:3060 − 3075.

Mintenig S.M., Int-Veen I., Löder M.G.J., Primpke S., Gerdts G., 2016. Identification of microplastic in effluents of waste water treatment plants using focal plane array-based micro-Fourier-transform infrared imaging. Water Research, http://dx.doi.org/10.1016/j.waters.2016.11.015

*Claudia Campanale è laureata in biologia presso UniBa con il massimo dei voti, sta svolgendo un dottorato in Chimica  con un tutor di eccezione, Angela Agostiano e proprio sul tema del campionamento, estrazione, quantificazione e caratterizzazione di microplastiche presenti in acque interne superficiali; ha  fatto esperienza in Italia e Germania sui temi dell’inquinamento ambientale, della sua caratterizzazione e della sua eliminazione.

Il tallio, i piccioni e i giornali.

In evidenza

Claudio Della Volpe

In questi giorni circola sui giornali una notizia su una famiglia di Desio che dopo una vacanza ha scoperto di essersi avvelenata col tallio; due dei componenti, padre e figlia, entrambi anziani sono deceduti e ce ne spiace, ovviamente.

Ma sono qui a scrivere di questo episodio di cronaca sia perchè ha a che fare con la chimica sia (soprattutto) per il modo in cui i giornali grandi e piccoli ne parlano stavolgendone il senso e inventandosi addirittura notizie inesistenti.

(da Wikipedia)

Il Tallio è un elemento del gruppo 13/III, elemento pesante, ma con lo stesso stato ionizzato principale +3 di Boro ed Alluminio; ma come anche gli elementi più pesanti di questo gruppo Gallio e Indio, il Tallio aggiunge uno stato +1. Le dimensioni dello ione +1 sono simili a quelle del Potassio e qua starebbe il busillo del Tallio. Il Tallio è considerato un potentissimo veleno, anche se l’esatto meccanismo rimane ancora sconosciuto; le ipotesi più significative sono le seguenti: alterazione del metabolismo del glutatione, stress ossidativo e alterazione della omeostasi del potassio.

Questi meccanismi sarebbero giustificati dicevo dalla somiglianza delle dimensioni ioniche dello ione Tl+ e dello ione K+.

Come sapete le dimensioni ioniche non sono banali da stimare e dipendono da una serie di fattori complessi, dovendo anzitutto chiarire se ci si riferisce alle dimensioni dello ione nel reticolo cristallino o in soluzione; ma ancora dipendono dal tipo di coordinazione. Evito dunque di prendere dati in giro da lavori sperimentali o programmi di calcolo per “provare”, come è scritto anche su wikipedia, che i raggi sono simili o perfino uguali.

Secondo me si tratta piuttosto di un “comportamento” analogo, che inganna almeno sul breve periodo alcuni dei meccanismi di discriminazione della cellula. Alla fine si tratta di reazioni specifiche che consentono di usare l’uno o l’altro ione; se la somiglianza è sufficiente il Tallio passa la reazione ma viene poi scambiato nei processi successivi dove però la somiglianza è inferiore e di qua parte l’effetto di avvelenamento.

Ci vogliono giorni o perfino settimane perchè le differenze si manifestino e portino a situazioni molto pericolose e mortali; per questo motivo il Tallio viene considerato un veleno perfetto, il veleno dell’avvelenatore, che consentirebbe di uccidere e fuggire senza destare sospetti.

Il sale più comune è il solfato di Tallio, che è anche insapore ed è stato usato come topicida per un certo periodo. Ma è un sale e dunque una sostanza ben poco volatile; perchè faccio notare questo?

Vediamo cosa hanno scritto i giornali:

Il Corriere della Sera del 30 settembre:
http://milano.corriere.it/notizie/cronaca/17_settembre_30/avvelenata-tallio-62enne-coma-colpa-escrementi-piccione-b83b0a50-a5e1-11e7-8477-789085dabc53.shtml

Da venerdì sera i carabinieri di Desio stanno indagando per capire come la famiglia possa aver inalato il tallio. Secondo una prima ipotesi, la sostanza potrebbe essere stata usata per una campagna di disinfestazione dei campi vicino all’abitazione. Ma forse è più probabile che l’avvelenamento sia stato provocato da un’esposizione prolungata a escrementi di piccione, che contengono sostanze altamente tossiche, tra cui il tallio, come confermato da ricerche dell’Oms. L’infestazione di piccioni sarebbe avvenuta nel fienile della casa-vacanza. Le esalazioni delle sostanze contenute negli escrementi, inalate per un tempo prolungato, potrebbero essere state la causa dell’avvelenamento.”

Pensate un pò! Esalazioni di un sale provenienti dagli escrementi di piccione? A parte che se gli escrementi fossero così velenosi i primi a risentirne sarebbero i piccioni, per i quali il Tallio è altrettanto velenoso che per noi. E’ una notizia che è stata poi destituita di ogni fondamento, ma non si sa come l’abbia avuto e da chi questo fondamento. L’OMS avrebbe detto che il tallio è contenuto negli escrementi di piccione?
Giuro che ho cercato come un pazzo ma ho solo trovato lavori vari in cui l’OMS ha usato il contenuto di tallio nel corpo o nelle feci degli animali (fra i quali anche i piccioni) per provare che certi impianti (per esempio i cementifici) inquinano l’ambiente in termini di metalli pesanti; per esempio qui: http://www.townsendletter.com/Jan2016/thallium0116_3.html oppure qui

https://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=3&ved=0ahUKEwiS0ZPl-9PWAhVnIsAKHe0vDygQFgg0MAI&url=http%3A%2F%2Fapps.who.int%2Firis%2Fbitstream%2F10665%2F37931%2F2%2F9241561734_eng.pdf&usg=AOvVaw2VwgH2Pp5qZS-V5DtYc7Bh

Oh la fantasia del Corrierone!

Il Secolo XIX addiritura titola:

http://www.ilsecoloxix.it/p/italia/2017/09/30/ASuGX4hJ-piccioni_escrementi_uccidere.shtml

I piccioni possono uccidere: donna in coma per aver inalato i loro escrementi

In un primo tempo i medici avevano pensato che la causa dell’avvelenamento delle due donne fosse un topicida, che le due donne tenevano evidentemente in casa a Nova Milanese. Il tallio, infatti, è una sostanza contenuta in alcuni topicidi. Analisi più approfondite da parte di carabinieri di Desio, su input della direzione sanitaria, hanno consentito di accertare, però, che le due donne erano state per un periodo prolungato in una casa-vacanze di famiglia, in campagna in provincia di Udine, nel cui fienile stazionano decine e decine di piccioni. I responsabili sanitari hanno riferito che il tallio si trova anche negli escrementi di piccione.”

Un metabolismo piccionesco contente tallio è una invenzione altamente creativa!

Anche perchè il Tallio non è un elemento comune in natura e dunque i poveri piccioni (che a me non stanno molto simpatici, topi con le ali) avrebbero avuto difficoltà a reperirne; ma certo poi avrebbero potuto anche avvelenare tutti i turisti di Piazza San Marco che da anni si respirano polvere di escremento di piccione!

Per uccidere ci vogliono alcuni mg pro chilo e dunque un mezzo grammo assorbito dalla polvere attraverso gli escrementi di piccione? Ma nemmeno se fossero fatti di tallio puro! Oh poveri noi!

Ragionevolmente il tallio può trovarsi in agenti topicidi, ma dovrebbero essere antiquati poichè l’UE lo ha escluso da questo uso proprio per la sua infida natura.

Potrebbe essere presente nell’acqua potabile o esserci stato erroneamente aggiunto attraverso l’uso di prodotti illegali, di cui casomai qualcuno si è liberato; potrebbe essersi trovato sparso su vegetali usati poi per l’alimentazione; le ipotesi ragionevoli non mancano; colpisce però che le prime ad esser fatte siano state quelle impossibili: esalazioni di sali e metabolismo del tallio nei piccioni.

Ancora più sicuro il Gazzettino:

http://www.ilgazzettino.it/nordest/udine/morto_padre_donna_intossicata_da_tallio_varmo_udine-3275907.html

I piccioni si sa sono veramente pericolosi spargitori di tallio!!!! Una scoperta da IGNobel!

Piano piano la verità si farà strada: i piccioni non c’entrano, ne sono sicuro: qualcuno avrà usato o scaricato un topicida o un insetticida in modo improprio avvelenando cibi o acqua; non vedo alternative. Anche la possibilità di una fonte naturale di Tallio appare alquanto difficile; nel mondo esiste una sola miniera di tallio, in Macedonia dove si scava la lorandite; in genere viene estratto come sottoprodotto di altre azioni minerarie oppure come sottoprodotto industriale (dall’arrostimento dellla pirite).

Conclusione: ma i giornali o chi li informa non potrebbero imparare un po’ di chimica prima di comunicare? O quanto meno rivolgersi a chi ne sa di più?

Fatemi chiudere con una quasi battuta; sembra che durante la guerra fredda l’FBI abbia considerato la possibilità (ma poi vi abbia rinunciato) di avvelenare Fidel Castro con il tallio, sparso nelle scarpe; pare che uno degli elementi del piano fosse che il tallio avrebbe potuto far cadere i peli della barba di Fidel, un effetto collaterale; ma dato che questo effetto arriva solo dopo un lungo avvelenamento il vantaggio mediatico non era poi così notevole per lottare contro i barbudos.

Ecco questa probabilmente è una bufala, ma date quelle di chimica che ci propinano i giornali, sono sicuro che nessuno me ne vorrà male.

Distretti tematici, chimica e beni culturali.

In evidenza

Luigi Campanella, già Presidente SCI.

Alcune Regioni Italiane al fine di organizzare la propria attività stanno istituendo Distretti tematici (DTC). Fra i temi più gettonati – e non deve sorprendere: siamo in Italia – quello dei Beni Culturali. La creazione di un DTC Regionale impegna le strutture scientifiche, formative, culturali a dare il proprio contributo, ciascuna ovviamente correlandosi alle proprie professionalità, competenze, conoscenze, capacità tecniche, acquisite in lunghi anni e trasferite di generazione in generazione insieme all’adeguamento che deriva dalla continua innovazione.

La Chimica in questa prospettiva deve assicurare il contributo della propria cultura che risponde all’esigenza, ma anche alla evidenza, della dimostrazione che la Chimica é da sempre considerata fra le discipline scientifiche la più vicina ai Beni Culturali, assumendo questa affermazione un significato ancor piu importante se si pensa che si riferisce in questo caso ad un’istanza territoriale per la quale le ricchezze culturali non possono non collegarsi a turismo, economia, prestigio internazionale.

Nel passato il legame stretto fra Chimica e Beni Culturali era sostanzialmente affidato al ruolo protettivo e conservativo della Chimica, anche però considerata in questa funzione causa della produzione di alterazioni negli originali, fino a parlare di falsi voluti e di reversibilità di restauro.

Oggi sembra quasi che i Beni Culturali vogliano ricompensare la disciplina aprendo ad essa nuovi campi di attività, di economia, di mercato anche in chiave europea.

La Chimica Europea schiacciata fra i bassi costi dell’energia del Medio Oriente ed i bassi costi della mano d’opera dell’Estremo Oriente si deve affidare per il suo sviluppo alla risorsa tecnologica che forse sola con il Nord America può mettere in campo con esclusività rispetto alle suddette zone geografiche favorite da gestione a risparmio.

La chimica in questo ultimo trentennio ha vissuto anche una propria trasformazione derivante dalla riscoperta di alcuni valori, espressione di un moderno Rinascimento chimico, quali la salute, la sicurezza, l’ambiente, la dignità umana. Questa trasformazione ha prodotto quella che oggi viene invocata come Chimica Sostenibile (Green Chemistry: i due termini vengono confusi, anche se in effetti la Green Chemistry è più finalizzata alle innovazioni che comportano maggiore protezione dell’ambiente, meno rifiuti, più circolarità economica piuttosto che alla esaltazione del rispetto fra le diverse generazioni e dell’equilibrio fra le diseguaglianze sociali  e civili dei Paesi ).

La Chimica Sostenibile (C.S.), proprio perchè correlata alla Green Chemistry ha trovato i suoi campi di intervento e sviluppo nell’ambiente, nella salute, anche nell’alimentazione in quanto ad essi collegata.

Oggi proprio per cercare di superare le due strette di cui si è detto la C.S.può divenire strategica a patto però di trovare nuove opportunità di applicazione. I Beni Culturali lo sono certamente: l’innovazione di prodotto e di processo della C.S. risponde a tale logica. Si tratta di trasferire tecnologie nate in ambito diverso (elettrochimica, reazioni in situ, materiali compositi) adattandole ai Beni Culturali, nel rispetto quindi della preziosità delle matrici studiate e si tratta di estendere ai Beni Culturali le applicazioni di nuovi prodotti, solventi, detergenti, consolidanti nati per altre finalità.

I Dipartimenti di Chimica delle nostre università da tempo sono impegnati in queste direzioni valorizzando il ruolo protettivo delle sostanze naturali, svilupppando strumentazioni di controllo ad elevato tasso di innovazione tecnologica, mettendo a punto tecnologie di restauro più efficaci, più stabili, più sicure contribuendo così quindi anche ad abbattere un ulteriore fenomeno che il DTC dovrà affrontare e che riguarda la salute degli operatori e lo svilupparsi fra di essi di malattie professionali sempre più frequenti. In molti casi innovazione di prodotto e di processo vuole anche dire economia e protezione della salute e dell’ambiente

 

Macchine molecolari attraversano membrane cellulari

In evidenza

Rinaldo Cervellati (con un commento di Vincenzo Balzani)

Opportuni dispositivi o “macchine” molecolari ruotando attraverso le membrane cellulari potrebbero veicolare farmaci e distruggere le cellule cancerose

Sono titolo e sottotitolo di una recente notizia riportata da Bethany Halford sul n. 35 di Chemistry & Engineering newsletter on line il 30 agosto scorso. Premesso che per macchina molecolare, o nanomacchina, si intende un insieme di molecole legate fra loro (supramolecola) in grado di eseguire movimenti simili a quelli meccanici in risposta a specifici stimoli luminosi o elettrici, Halford riporta i risultati di una recente ricerca compiuta da un gruppo coordinato dal prof. James M. Tour, direttore del Center for Nanoscale Science and Technology della Rice University a Houston. (V.Garcià-Lopez et al., Molecular machines open cell membranes, Nature, 2017, DOI: 10.1038/nature23657)

James M. Tour

Quando stimolato dalla luce ultravioletta, un opportuno motore molecolare può ruotare nel suo percorso entro le cellule causando aperture attraverso le quali potrebbero scivolare i terapeutici o potrebbero essere sufficienti per distruggere l’integrità della cellula tumorale, sostengono gli autori della ricerca.

La ricerca di Tour è da tempo focalizzata sulla creazione di macchine molecolari con queste caratteristiche. Quando illustro le nostre ricerche, spesso le persone mi chiedono se le macchine molecolari potranno un giorno essere usate per curare i tumori, dice Tour.

Tali domande si sono moltiplicate dopo l’assegnazione del Premio Nobel per la Chimica lo scorso anno [1].

Poiché le macchine molecolari sono molto più piccole delle strutture biologiche, come le cellule, Tour inizialmente non pensava che potessero avere un uso pratico in medicina. Ma poi, dice, mi sono reso conto che circondare una cellula con macchine molecolari con una parte potenzialmente rotante poteva dare risultati interessanti.

Così ho interessato Robert Pal della Durham University, Gufeng Wang della North Carolina State University e Jacob T. Robinson di Rice a esplorare questa idea (tutti coautori dell’articolo su Nature)

Il gruppo di Tour ha costruito diverse molecole con il seguente schema:

La luce UV isomerizza il doppio legame in questa supramolecola, rendendo il gruppo rotore libero di ruotare.

Alcune supramolecole costruite hanno catene peptidiche (R) che si associano a proteine ​​specifiche sulla superficie di alcune cellule. Nelle prove su cellule tumorali della prostata umana, il gruppo ha scoperto che queste macchine potrebbero saltare sulle cellule e, dopo l’esposizione a luce UV, distruggerle in meno di tre minuti.

Ma succede solo quando si espongono alla luce“, afferma Tour. Ciò significa che se le macchine saltano su cellule sane senza essere irradiate le aperture rimarranno inattive lasciandole inalterate.

La prossima sfida che i ricercatori affronteranno, continua Tour, sarà quella di ottenere la stessa azione nanomeccanica mediante irradiazione visibile o nel vicino infrarosso, raggi che penetrano più profondamente nel tessuto, in modo che le molecole del motore possano essere ampiamente utilizzate negli animali e nelle persone.

A tal fine, Tour dice che il gruppo sta già lavorando allo sviluppo di motori che ruotano in risposta alla luce visibile e alla radiazione a raggi infrarossi a due fotoni.

[1] P. Greco, http://www.scienzainrete.it/contenuto/articolo/pietro-greco/balzani-pioniere-delle-macchine-molecolari-premiate-stoccolma

Commento di Vincenzo Balzani

La rottura del doppio legame C=C in seguito ad eccitazione fotonica è una delle più conosciute reazioni fotochimiche. Usualmente viene utilizzata per convertire isomeri trans nei corrispondenti isomeri cis, che poi termicamente tornano alla più stabile forma trans. La foto isomerizzazione avviene perché lo stato eccitato ha un minimo di energia per angoli di rotazione attorno ai 90°, dove lo stato fondamentale ha un massimo. Ben Feringa, premio Nobel per la Chimica 2016, ha utilizzato da molto tempo composti di questo tipo per sviluppare una serie di motori rotanti unidirezionali (Figura 1) [1]:

Figura 1. Motore rotante molecolare azionato dalla luce [1].

James Tour aveva poi tentato di utilizzare con scarso successo fotoisomerizzazioni di questo tipo per costruire il prototipo di una nano macchina azionata dalla luce [2]:

Figura 2. Nanomacchina potenzialmente azionata dalla luce [2].

Un altro tipo di macchina molecolare potenzialmente utile in medicina è la nano valvola illustrata nella Figura 3, azionata da impulsi redox [3]:

Figura 3. Nano valvola azionata da una reazione redox

Tornando ai composti con doppio legame C=C, l’eccitazione fotonica in genere causa solo una rotazione di 180° attorno al doppio legame (non è che si crea un rotore libero). Quindi per avere un effetto distruttivo su una cellula credo si tratterebbe di provocare tante successive foto isomerizzazioni della “macchina”, che potrebbe “rompersi” a causa di reazioni secondarie. Bisogna anche tener conto che usando luce UV si possono direttamente distruggere cellule anche senza l’azione di “macchine” fotosensibili; penso che gli autori abbiano tenuto conto di questo. Utilizzare luce visibile o infrarossa credo sia complicato perché il doppio legame in tal caso dovrebbe essere molto delocalizzato sul resto della molecola e la barriera di isomerizzazione sarebbe allora molto bassa, accessibile termicamente. Poi c’è il problema tutt’altro che semplice, in vivo, di irradiare le “macchine” che sono vicine alle cellule malate e non a quelle sane.

In conclusione, le macchine molecolari artificiali [4] potranno certamente essere utili per applicazioni mediche, ma c’è ancora molta strada da fare.

  1. Koumura, N., Zijlstra, R.W.J., van Delden, R.A., Harada, N. and Feringa,B.L. (1999) Nature, 401, 152.
  2. Morin, J.-F., Shirai, Y. and Tour, J.M. (2006) Organic Letters, 8, 1713.
  3. Saha, S., Leug, K.C.-F., Nguyen, T.D., Stoddart, J.F. and Zink, J.I. (2007) Advanced Functional Materials, 17, 685.
  4. Balzani, V., Credi, A., Venturi, M. (2008) Molecular Devices and Machines, Concepts and Perspectives for the Nanoworld, Second Edition, Wiley-VCH, Weinheim.

 

Great Salt Lake, un grande laboratorio naturale.

In evidenza

Claudio Della Volpe

Pochi giorni fa AstroPaolo, ossia Paolo Nespoli, attualmente sulla Stazione Spaziale, ha fotografato il Grande Lago salato, nello Utah, NO degli Stati Uniti e si è chiesto da dove nascesse la strana differenza di colore che si nota dal satellite e che vedete riprodotta qui sotto. ”Il Great Salt Lake nello Utah, le cui acque sono più salate del mare! Qualcuno sa indovinare cosa sia la linea nel mezzo?” ha scritto AstroPaolo.

(Foto dall’ISS 2003, quando il lago a seguito di una serie di stagioni secche ha raggiunto le dimensioni minori in epoca storica, Nord in alto è più rosso, Sud in basso più verde)

Poi ha trovato la risposta che riporto qua da La Repubblica:
”Dagli anni ’50 le acque sono divise da una ferrovia! I due colori sono dovuti alle diverse alghe e batteri che abitano le due metà del lago”.

Ma è proprio così? Una foto ravicinata mostra meglio la situazione:

Questo lago è veramente speciale e costituisce a mio parere un grande laboratorio naturale sulla chimica fisica, la biologia e la meteorologia innescate dal comportamento delle soluzioni saline.Cominciamo col dire che la striscia al centro del lago non è semplicemente una ferrovia, ma una strada sopraelevata sulla quale corre una ferrovia, la Lucin Cutoff; una strada sopraelevata dunque fondamentalmente una barriera di terra che separa le parti nord e sud del lago. Essa divide il lago in tre parti, come si vede da questa mappa, anche se una delle tre divisioni è meno vistosa. E in certi momenti anche in quattro zone come apprezzate dalla mappa più avanti.Questa barriera di terra ha costituito una divisione semipermanente fra le due parti del lago anche se di recente (dicembre 2016) si è definitivamente accettato che ci fosse un punto di connessione fra le due metà, qui rappresentato (il Sud è in alto in questa foto):Il Grande Lago Salato (GLS) è il residuo di un lago glaciale, denominato Lago Bonneville, la cui area era 10 volte maggiore e che 16800 anni fa si scaricò in Idaho; al momento GLS è comunque un lago di notevoli dimensioni, poichè è lungo 120 km e largo 45; questo in media, poichè esso è un lago particolare, privo di emissari e dunque soggetto a forti variazioni di livello e di superficie; l’acqua arriva nella zona Sud da parte di tre affluenti e viene persa solo per evaporazione; data la separazione (separazione parziale poichè anche in passato c’erano due punti di giunzione) la parte Sud viene diluita da parte dell’acqua in arrivo e si presenta meno salata della parte Nord, la baia di Gunnison; questa diversa concentrazione salina comporta una differente crescita algale e questa componente biologica dà al lago la diversa colorazione visibile dall’alto. Al momento dell’apertura della connessione mostrata in figura (che al momento è l’unica fra le due zone) la differenza di altezza era di quasi un metro, ma si è ridotta in questi mesi del 2017. La profondità del lago è di qualche metro.

Il GLS presenta una salinità molto più alta di quella oceanica, il bacino principale quello Sud, la Gilbert Bay, varia dal 5 al 27% a seconda delle precipitazioni. In paragone la salinità media dell’oceano è del 3.5% mentre è del 33.7% quella del Mar Morto in Medio oriente. La composizione ionica è simile a quella oceanica ma arricchita di potassio e impoverita di calcio.Nella zona Nord dove la concentrazione salina è maggiore sono situati alcuni impianti per l’estrazione di sali che producono: cloruro di sodio, solfato di potassio e cloruro di magnesio; dal sale di magnesio si produce magnesio metallico in una quantità pari ad un settimo della produzione mondiale totale.

Le specie animali che possono tollerare una salinità così alta sono sostanzialmente tre: i crostacei come Artemia franciscana, le mosche del sale, e gli uccelli che se ne nutrono; su alcune delle isole sono stati reintrodotti i bisonti che una volta dominavano tutta la zona prima che stupidi uomini con il cappello e il fucile li distruggessero. Tutte queste alla fine basano la propria esistenza sulle alghe.

Le alghe rosse, Dunaliella salina, il cui colore rosso dipende dall’accumulo nei loro tilacoidi di β-carotene e la specie batterica Halobacterium dominano la parte Nord più salata, mentre quelle verdi come Dunaliella viridis dominano la parte Sud più diluita.

Dunaliella salina e il b-carotene.

Gli halobacteria presenti nel GLS possiedono la rodopsina nella loro membrana, una proteina capace di produrre ATP in assenza di ossigeno e in presenza di luce. La rodopsina o batteriorodopsina è una proteina che dà ai batteri un colore rossastro. Alla fine della loro stagione di crescita quando la concentrazione dei batteri è al massimo l’acqua assume una tinta fortemente rossastra. La rodopsina è anche una proteina di membrana con 7 domini transmembrana a α-elica, che si trova nelle cellule a bastoncello della retina umana che permettono la vista in bianco e nero. Del confronto fra le due rodopsine trovate trattazione in un articolo di qualche anno fa su Le Scienze.

Un altro aspetto che è legato alla chimica è il comportamento meteorologico molto particolare; la concentrazione salina influenza molto la tensione di vapore del lago e comunque impedisce ad esso di congelare, attraverso il meccanismo dell’abbassamento crioscopico. Una delle conseguenze di questa situazione è il cosiddetto effetto Grande lago salato che ha una certa specificità anche rispetto a comportamenti analoghi del mare o di altri laghi meno salati.

Le forti precipitazioni tipiche del Great Salt Lake si verificano quando un vento che proviene da NO soffia attraverso un lago relativamente più caldo. Questa situazione è comune dopo il passaggio di un fronte freddo, dove i venti siano prevalentemente da NO e l’aria parecchio più fredda del lago.

Quando il vento arriva sul lago si forma una zona di convergenza che si rafforza sul centro del lago ed incrementa la precipitazione.La salinità del GLS impedisce il congelamento, anche se riduce la tensione di vapore saturo e il flusso di calore latente nell’aria sul lago.

Come risultato l’aggiunta di umidità e di calore al flusso di aria è più basso, ma in assenza di congelamento e dunque l’azione è attiva anche a temperature più basse, durante quella parte dell’anno in cui altri laghi sono gelati. Infine i rilievi montagnosi delle Wasatch mountains rinforzano il fenomeno producendo enormi nevicate molto intense, specie nella vallate a sud-est.I colori della Terra sono i colori della vita, la reazione chimica meglio riuscita!

Per approfondire:

http://hydrology.usu.edu/dtarb/ibrahim_thesis.pdf

https://en.wikipedia.org/wiki/Lake-effect_snow

https://wildlife.utah.gov/gsl/index.php

http://journals.ametsoc.org/doi/pdf/10.1175/1520-0434%281993%29008<0181:TLEOTG>2.0.CO%3B2

https://ral.ucar.edu/projects/armyrange/references/forecastconf_06/11_lakeEffect.pdf

Post, F.J., 1977a, Microbiology of the Great Salt Lake north arm, Hydrobiologia 81, 59-69. Post, F.J., 1977b, The Microbial Ecology of the Great Salt Lake, Microbial Ecology 3, 143-165

Johannes Rydberg e la tavola periodica

In evidenza

Rinaldo Cervellati

Nel mio precedente post sulla tavola periodica dimenticata di W. Rodebush, ho fatto torto a Johannes Rydberg, fisico svedese, relegandone la figura in una breve nota. Il lavoro di Rydberg non si è limitato infatti alla proposta di una forma, anzi di due possibili forme della tavola, sulla base della sua più importante scoperta sulla regolarità delle sequenze di righe negli spettri atomici di emissione degli elementi, ma ha dato notevoli contributi allo sviluppo della tavola con geniali intuizioni, tanto da meritarsi un capitolo in una raccolta di scritti di Wolfgang Pauli [1]. Lo scritto di Pauli inizia infatti così:

Non è noto come dovrebbe esserlo, che le ricerche di Rydberg sulle righe spettrali abbia avuto origine nel suo interesse per il sistema periodico degli elementi, un interesse che lo accompagnò per tutta la sua vita.[1, p. 73]

Fig. 1 Johannes Robert Rydberg

Johannes (Janne in colloquiale svedese) Robert Rydberg, nato nel 1894 a Halmstad (sud della Svezia), ottenne il Ph.D. in matematica nel 1879 all’università di Lund. Nel 1880 conseguì la docenza in matematica e due anni dopo quella in fisica. In questi anni iniziò a studiare il problema dello standard per i pesi atomici perché si chiedeva quale fosse la ragione dell’aumento apparentemente casuale del peso degli atomi nel sistema periodico di Mendeleev. Cercava invano una formula che giustificasse questo andamento caotico.

Nel 1885, J.J Balmer[1] presentò una equazione che interpretava lo spettro nel visibile dell’atomo di idrogeno, Rydberg quindi passò a studiare gli spettri atomici degli elementi e fra il 1887 e il 1890 trovò che considerando il numero d’onda (cioè il numero di onde per unità di lunghezza che equivale alla lunghezza d’onda) si semplificavano notevolmente i calcoli e ottenne infine una equazione valida per tutte le serie di righe spettrali di tutti gli elementi [2].

Fig. 2 Parte della formula di Rydberg in originale

L’equazione di Balmer diventava quindi un caso particolare della formula di Rydberg[2].

Nella sua memoria del 1890 Rydberg scrive:

Con la scoperta di Mendeleev della tavola periodica degli elementi, è sorto un nuovo punto di partenza di grande importanza per tutto il lavoro che presento qui… ho concluso che la periodicità di un gran numero di coefficienti fisici deve dipendere dal fatto che la forza che agisce tra due atomi dello stesso o di elementi diversi è una funzione periodica del peso atomico. [2], cit in [3]

Poi egli afferma che:

… il problema della costituzione degli spettri luminosi è ancora irrisolto e la maggior parte dei tentativi che sono stati fatti per confrontare e calcolare gli spettri degli elementi lo sono sono stati in modo da gettare discredito su questo lavoro e per esagerare le difficoltà che i loro autori hanno trovato e non sono stati in grado di superare. [2], cit in [3]

Fornisce quindi una formula basata su vari costanti e osserva che:

… le lunghezze d’onda e i numeri d’onda delle linee corrispondenti, così come i valori delle tre costanti della corrispondente serie di elementi diversi, sono funzioni periodiche del peso atomico. Quindi, se sono noti gli spettri di due elementi [non contigui] nella tabella periodica, lo spettro dell’elemento tra di essi può essere calcolato per interpolazione. [2], cit in [3]

Ecco un risultato molto importante, attraverso la formula di Rydberg è possibile prevedere, con discreta approssimazione, lo spettro di emissione degli elementi lasciati vacanti in una casella noti gli spettri di due elementi vicini alla casella vuota. Un mezzo potente, tenendo presente che ai tempi di Mendeleev soltanto due terzi degli elementi erano noti.

Pauli annota:

Credo che bisogna ammettere che le congetture di Rydberg sembravano talvolta piuttosto stravaganti, ma d’altra parte si basavano sempre su osservazioni empiriche.[1, p.74]

Fig. 3 Wolfgang Pauli

A conferma di ciò Pauli cita un lavoro di Rydberg [4] del 1897 in cui l’autore afferma che:

Nelle indagini sul sistema periodico gli ordinali (Ordnungszahlen) degli elementi dovrebbero essere utilizzati come variabili indipendenti invece del peso atomico. [4] cit in [1]

A quel tempo l’idea era semplicemente inaccettabile. Ma Rydberg non basava la sua congettura solo sul fatto che il numero d’ordine nella tavola fosse un intero, egli nello stesso articolo riporta una regola semplice e interessante per la relazione fra il numero di massa A e il numero ordinale [numero atomico] Z. La regola è:

Se Z è dispari (valenza chimica dispari), A = 2Z + 1; se Z è pari, A = 2Z[3].[4] cit in [1]

Pauli scrive:

Rydberg era consapevole che l’azoto (Z = 7, M = 14) è un’eccezione, ma è vero che a parte ciò questa regola regge fino a circa il Calcio. Rydberg si è fidato di questa regola assumendo caselle vuote, spostando così i numeri atomici a valori più alti, fino a che la regola non si adattava. In questo modo egli ha la tendenza ad ammettere troppi buchi nel sistema periodico e valori troppo elevati per i numeri atomici. [1, p. 74]

Nel 1897 Rydberg assunse temporaneamente le funzioni di professore di fisica, rimanendo tuttavia un assistente docente. Nello stesso anno concorse alla cattedra di fisica, rimasta vacante, dell’università di Lund. Al concorso parteciparono sei persone. Alla fine fu deciso per Albert Victor Bäcklund, nonostante i membri della commissione giudicatrice lo avessero preliminarmente scartato[4]. Dopo la sua nomina, Bäcklund cercò di promuovere Rydberg a professore. Non è chiaro se Bäcklund stava tentando di correggere un torto o se avesse voluto un aiuto per rendere più leggero il suo carico di insegnamento [3]. Comunque, nel marzo 1901 Rydberg fu nominato professore straordinario, diventando ordinario solo nel gennaio 1909. Da quel momento fino al raggiungimento dell’età pensionabile, nel 1915, ha tenuto la cattedra di fisica a Lund.

Nel 1906 Rydberg fece un ulteriore passo in avanti nelle sue ricerche sul sistema periodico, riconoscendo per primo che i tre numeri 2, 8, 18 per gli elementi nei periodi sono rappresentati da 2×12, 2×22, 2×32 [5]. Vi era ancora qualche incertezza sul numero delle terre rare che Rydberg pensava fossero 36 mentre sono 32, alcuni numeri atomici erano ancora troppo alti ma non in così grande misura come nei lavori precedenti.

In una successiva ampia monografia del 1913 [6] Rydberg fa un altro passo avanti. Dopo aver riportato le scomposizioni del paragrafo prededente, scrive:

la continuazione sarebbe 2×42 = 32; 2×52 = 50 ecc.[6, §3]

Dice Pauli:

Questa è la famosa formula 2p2 (p intero) che Sommerfeld ha chiamato “cabbalistic” nel suo libro “Atombau und Spektrallinien” e che mi ha colpito molto quando ero studente. Certamente ora [Rydberg] è consapevole che il Gruppo G4 (p = 4, terre rare) consiste di 32, non di 36 elementi.[1]

Continua Pauli:

C’è un’importante differenza fra l’interpretazione di Rydberg del 1913 e quella odierna. Egli chiamò i numeri 2p2, che determinano la distanza tra due gas nobili, “un mezzo gruppo” e il suo doppio 4×12, 4×22 … 4×p2 “un intero gruppo”. È stato portato a questa interpretazione dal fatto che i periodi 8 e 18 si verificano due volte nel sistema periodico. E si convinse che lo stesso doveva valere per il primo gruppo che corrisponde a p = 1, che credeva consistere di quattro, non di due elementi. Il valore 4 per il numero atomico di He gli sembrava supportato da linee spettrali nelle nebulose e nella corona delle comete, che egli attribuì a due nuovi elementi ipotetici che lui chiamò nebulium e coronium[5].[1]

Tutto ciò si può vedere in Figura 4, tratta dall’articolo originale di Rydberg [6] del 1913, che mostra la sua rappresentazione “a spirale” della tavola periodica[6]: i gruppi “metà” e “intero” corrispondono qui al susseguirsi delle porzioni di 180° e 360° della spirale. I “buchi” nel sistema sono ora quasi completamente riempiti, in modo che i numeri atomici di Rydberg differiscono da quelli veri solo per la differenza costante di due, causata dall’assunzione dei due elementi nebulium e coronium tra H e He.

La tavola periodica a spirale di Rydberg [6]

Poco tempo dopo, grazie alle ricerche del chimico britannico Henry Moseley (1887-1915) fu chiaro che il principio della periodicità sta nella carica del nucleo e non nella massa degli atomi [7].

Rydberg, venuto a conoscenza dei lavori di Moseley, fu contento della conferma della sua idea del 1897 sull’importanza del numero atomico e sui dettagli della rappresentazione del sistema periodico. Tuttavia, in un articolo sui lavori di Moseley, egli ribadì l’ipotesi di due nuovi elementi tra H e He e di conseguenza la differenza costante di due fra i numeri atomici [8].

Dopo il 1914 Rydberg non pubblicò più nulla, causa il suo stato di salute. Infatti, due anni dopo la nomina alla cattedra di Fisica, venne colpito da ictus e sebbene si fosse ripreso abbastanza bene da tornare al lavoro, cominciò a soffrire di disturbi cardiovascolari. La sua salute continuò a deteriorarsi fino a che, nel 1914 decise di prendere un congedo per malattia. Lo sostituì il suo assistente Manne Siegbahn[7] (1886-1978) fino al 1919, anno in cui Rydberg fu congedato dall’università per raggiunti limiti di età (65 anni). Morì nel 1919 in seguito a un’emorragia cerebrale [3].

Sebbene sia stato candidato non gli fu assegnato il premio Nobel per la fisica del 1917 che quell’anno non fu aggiudicato. Fu candidato anche nel 1920, ma la sua prematura scomparsa lo rese inammissibile. Ancora più sorprendente è che egli non fu eletto alla Royal Swedish Academy of Sciences. Tuttavia, poco prima della sua morte, fu eletto membro della Royal Society of London. Certamente Rydberg ha ottenuto più fama dopo la morte che durante la vita. Nel 1954 l’Università di Lund organizzò una conferenza per celebrare il 100° anniversario della sua nascita, alla quale parteciparono anche Niels Bohr e Wofgang Pauli, con contributi originali [9, 1 rispettivamente] Anche a Rydberg sono stati dedicati un cratere della Luna e un asteroide.

Chi desiderasse saperne di più sulla persona e sulla costante di Rydberg può consultare il riferimento [10].

Infine, desidero ringraziare il nostro blogger, Claudio Della Volpe, che mi ha suggerito questo post fornendomi parte del materiale bibliografico sotto riportato.

Bibliografia

[1] W. Pauli, Rydberg and the Periodic System of the Elements, in: W. Pauli, Writings on Physics and Philosophy (C. P. Enz and K. von Meyenn Eds.) Translated by R. Schlapp, Springer-Verlag Berlin Heidelberg New York, 1994, Cap. 7, pp. 73-77. Il capitolo è scaricabile al link: http://cds.cern.ch/record/265825/files/CERN.pdf?version=1422

[2] J.R. Rydberg, Recherches sur la constitution des spectres d’emission des elements chimiques, Kungl. Svenska Vetenskapsakademiens Handlingar, VoI.23, Nr. 11, Stockholm 1890, pp 155.

[3] J.J. O’Connor, E.F. Roberts, Johannes Robert Rydberg, http://www-history.mcs.st-andrews.ac.uk/Biographies/Rydberg.html

[4] J.R. Rydberg, Studien über Atomgewichtszahlen, Z. Anorg. Chem., 1897, 14, 66-102.

[5] J.R. Rydberg: Elektron, der erste Grundstoff, Gleerupska; Lund, 1906, p.11 (cit in [1])

[6] J.R. Rydberg, Untersuchungen über das Systemder Grundstoffe, Lunds Univ. Arsskrift, Bd. 9, No. 18, (1913), cit in [1]. In francese: Recherches sur le systeme des elements, J. Chim. Phys., 1914, 12, 585-639.

[7] a)H.G.J. Moseley, XCCIII.The high-frequency spectra of the elements., Phil. Mag., 1913, 26, 1024-1034. b)H.G.J. Moseley, LXXX. The high-frequency spectra of the elements. Part II, Phil. Mag., 1914, 27, 703-713.

[8] J.R. Rydberg, The ordinals of the elements and the high frequency spectra, Phil. Mag., 1914, 28,144-149.

[9] N. Bohr, Rydberg’s discovery of the spectral laws, in: Proceedings of the Rydberg Centennial Conference on Atomic SpectroscopyActa Universitatis lundensis,  1954, 50, 15-21.

[10] Sister St John Nepomucene, Rydberg : The Man and the Constant, Chymia, 1960, 6, 127-145.

 

[1] Johann Jakob Balmer (1825 –1898), matematico e fisico-matematico svizzero è ricordato soprattutto per l’equazione empirica che rappresenta lo spettro di emissione dell’idrogeno nel visibile, che ottenne all’età di sessant’anni. La serie di righe nel visibile è nota come serie di Balmer, in suo onore è stato chiamato Balmer anche un cratere della Luna e un asteroide.

[2] J.J. O’Connor, E.F. Roberts, due fra i biografi di Rydberg scrivono che egli pubblicò una nota preliminare intitolata On the Structure of the Line Spectra of Chemical Elements. Preliminary Notice. poi pubblicata nel 1890, in cui l’autore afferma che la sua ricerca ha riguardato solo gli elementi dei gruppi I, II e III della tavola periodica. Questa nota si trova in: Phil. Mag., 1890, 29, 331-337.

[3] Oggi sappiamo che la regola riguarda la massa dell’isotopo più frequente dell’atomo di numero atomico Z.

[4] La storia di questo concorso, i giudizi dei commissari e il perché della quantomeno bizzarra decisione finale sono riportate da O’Connor e Roberts [3]. Vi si può accedere direttamente al link: http://www-groups.dcs.st-and.ac.uk/history/Extras/Rydberg_application.html

[5] Oggi sappiamo che queste righe spettrali sono dovute agli ioni di elementi noti, il nebulium a ioni di ossigeno e azoto, il coronium a ferro fortemente ionizzato [1].

[6] In Rcherches [6] è presentata anche una versione “rettangolare” della tavola che si può trovare anche in The INTERNET Database of Periodic Tables:

http://www.meta-synthesis.com/webbook//35_pt/pt_database.php

[7] Manne Siegbahn, fu successore di Rydberg alla cattedra di Fisica dell’Università di Lund. Premio Nobel per la Fisica 1924 per le sue scoperte nel campo della spettrometria a raggi X.

Nuove strade per le batterie al litio.

In evidenza

Claudio Della Volpe

(una parte del testo è tradotto “liberamente” dall’articolo citato)

Le batterie ricaricabili con anodi metallici (per esempio di Li, Al, Na) hanno richiamato di recente una grande attenzione perchè promettono di accrescere di 10 volte la capacità anodica rispetto alle odierne batterie al litio.

Il lettore non esperto potrebbe pensare che un limite sia costituito dal solvente: l’acqua reagisce violentemente con il litio o il sodio, ma in realtà questo problema è stato risolto già in passato usando solventi non acquosi come per esempio il CH3CN acetonitrile o il propilencarbonato CH3CHCH2CO3. Questi solventi resistono alla differenza di potenziale indotta dalla reazione principale e dunque possono essere usati con problemi ridotti, anche se la sicurezza ha portato ad una evoluzione che sta privilegiando solventi molto particolari, polimeri come il PEO per esempio.

Tuttavia nonostante questi enormi progressi una barriera importante è costituita dal fatto che durante le fasi di ricarica la elettrodeposizione del metallo è irregolare e porta alla formazione per diffusione di dendriti, strutture allungate, simili ai rami di un albero come dice la parola, che in condizioni opportune (ricariche complete e veloci per esempio) possono crescere da un lato all’altro, in modo da cortocircuitare la batteria.

Come si può evitare questo problema?

Non c’è ancora una soluzione vittoriosa, ma ci sono molti tentativi.

Un ruolo importante nel percorso per l’eliminazione della crescita dendritica è giocato dal calcolo teorico che permette di prevedere gli effetti delle varie strategie prima di fare dei complessi e costosi esperimenti.

Per esempio elettroliti con un modulo meccanico significativo, oppure elettroliti a stato solido, polimeri nanoporosi o materiali ceramici che ospitano il liquido nella porosità, polimeri cross-linkati o gelificati.

Però nonostante questo si è scoperto che si possono anche verificare reazioni indesiderate fra elettrolita in soluzione ed elettrodo metallico.

Teoricamente nelle batterie che usano elettrodi metallici l’eletrolita tende a formare uno strato passivato, ossia un film di materiale che ha reagito e che è anche compatto e limita la reazione ulteriore, la cosiddetta interfase dell’elettrolita solido (SEI).

Qui interviene un altro fenomeno “sottile” tipico delle batterie ricaricabili, che coinvolgano materiali solidi (anche delle vecchie batterie piombo acido): l’elettrodo viene distrutto e ricostruito durante le fasi di carica/scarica; l’elettrodo ha “una storia”, invecchia e questo lo porterà a fine vita dopo un certo nero di cicli (a differenza di ciò che accede nelle batterie in flusso per esempio che hanno elettrodi “liquidi”). Questo processo ciclico degrada il SEI esponendo il metallo nativo all’elettrolita e formando così ulteriori prodotti di reazione.

Anche in questo caso la creatività dei ricercatori si è sbizzarrita nel cercare una soluzione che protegga il film iniziale oppure che impedisca una deposizione irregolare.

Per esempio strati di nanosfere cave di carbonio che formino uno strato protettivo, fibre di polimero prodotte per elettrospinning o ancora strati molto sottili di allumina. Si è anche provato a generare dei film molto sottili di materiali provenienti dalla soluzione elettrolitica: come fluoroetilene carbonato (FEC) oppure sali come LiFSI, LiPF6, LiF, e CsF.

In questo lavoro si è tentata una nuova strada per certi aspetti più semplice.

Creare un rivestimento uniforme per prevenire il contatto con l’elettrolita ma senza eliminare uno scambio ionico veloce.

I colleghi americani hanno pensato di usare l’Indio come strato protettivo. Essi hanno dimostrato prima teoricamente e poi sperimentalmente che questo è possibile; si spera che quanto prima questa o altre strategie possano incrementare di almeno un ordine di grandezza le prestazioni delle batterie ricaricabili; uesto ci consentirebbe di superare una parte essenzizale del gap che rende ancora così indispensabili i combustibili fossili.

Worth H. Rodebush e l’elettronegatività

In evidenza

Rinaldo Cervellati

Per imparare la chimica, si procurarono il corso di Regnault ed appresero dapprima che “i corpi semplici sono forse composti”; si distinguono in metalli e metalloidi, differenza “che non ha nulla di assoluto”, dice l’autore; lo stesso vale per gli acidi e le basi “poiché un corpo può comportarsi come un acido o come una base secondo le circostanze”

  1. Flaubert, Bouvard et Pécuchet, Paris, 1881, Chap. 3

Il motivo per cui alcuni elementi mostrano una maggior tendenza a combinarsi fra loro rispetto ad altri è stato oggetto di primario interesse dei chimici fin dalle origini della scienza chimica. Per esempio Etienne Francois Geoffroy (1672-1731) presentò all’Accademia Francese delle Scienze nel 1718 e nel 1720 la Tabula affinitatum (in francese table des rapports).

Figura 1 Tabula affinitatum

Questa tabella era stata compilata sulla base di osservazioni sperimentali sulle mutue azioni delle sostanze l’una con l’altra, riportando i vari gradi di affinità mostrati da corpi analoghi per diversi reagenti (figura 1). La Tabula fu una guida per i chimici fino alla fine del XVIII inizio XIX secolo, quando fu superata dalle idee di C.L. Berthollet (1748-1822) e H. Davy (1778-1829), che misero in relazione l’affinità rispettivamente con le proprietà acido-base e con le proprietà elettriche rispettivamente.

Oggi si ragiona in termini di elettronegatività, che ci fa venire subito in mente Linus Pauling (1901-1994), colui che propose una scala basata sulle energie di legame nell’ambito della teoria quantomeccanica del legame di valenza [1a,b]. Lo storico della chimica Willam B. Jensen fa notare che in nessuna parte del lavoro di Pauling è riportata la definizione del concetto di elettronegatività. Egli ha proceduto come se esso fosse auto-evidente ai suoi lettori, e a buon diritto visto che di elettronegatività i chimici ne discutevano fin da prima della sua introduzione, dovuta a J.J. Berzelius (1779-1848), circa 125 anni prima di Pauling [2]. A proposito di questa lunga storia, scrive Jensen:

Yet this early pre-Pauling history seems to have almost completely dropped out of sight, at least as far as the modern textbook and electronegativity literature are concerned.

The intent of this paper is to try to recapture some of this lost history and, in so doing to remind to modern theorist that those to ignore history always run the risk of repeating it, a cliché no doubt, but unhappily one that embodies a sizable, albeit depressing amount of truth. [2, p. 11]

Non riassumeremo qui la preistoria, rimandando gli interessati al lungo lavoro di Jensen che avrebbe dovuto comprendere tre parti, ma ne risultano pubblicate solo due [2,3]. È importante tuttavia ricordare, come fa Jensen, il contributo di Amedeo Avogadro (1776-1856) allo sviluppo del concetto. Egli fu il primo a notare il parallelismo fra la neutralizzazione di un acido con una base e quella fra una carica negativa e una positiva. Avogadro non solo suggerì che carattere acido o basico erano concetti puramente relativi, ma anche che potevano essere generalizzati per poterli applicare a tutte le interazioni chimiche, sia fra sostanze semplici sia fra composti. Jensen dà ampio spazio al lavoro di Avogadro, con molte citazioni al suo lavoro del 1809. [4]

In un precedente post abbiamo ricordato le proposte di Worth H. Rodebush (1887-1959) riguardo una forma compatta di tavola periodica contenente le informazioni essenziali per comprendere la chimica degli elementi. Nei due articoli che Rodebush pubblicò a tale proposito è però contenuto anche un metodo per quantificare l’elettronegatività. Scrive Rodebush nel 1924:

In ogni caso, con nient’altro che la legge di Coulomb e il concetto di gusci elettronici successivi possiamo prevedere qualitativamente l’elettronegatività di ogni elemento. Avevo sperato che potessimo sostituire l’affinità elettronica e il potenziale di ionizzazione con una qualche valutazione dell’elettronegatività, perché queste quantità vengono misurate allo stato gassoso e le proprietà chimiche ordinarie riguardano prevalentemente fasi condensate. Ad esempio, l’affinità elettronica dell’atomo di cloro è minore del potenziale di ionizzazione del sodio, in modo che un atomo di cloro non potrebbe mai sottrarre l’elettrone all’atomo di sodio, eppure nulla è più sicuro che ciò avvenga formandosi cloruro di sodio. [5, p. 430]

Un anno dopo Rodebush espone la sua proposta per calcolare l’elettronegatività:

Se possibile vorrei introdurre una formula [qualitativa] in una scienza che sta rapidamente diventando esatta, possiamo rappresentare l’elettronegatività in funzione di V/S dove V è il numero di elettroni di valenza e S il numero di gusci nell’atomo. La base di questa formula è la legge di Coulomb e credo che in pochi anni calcoleremo i cambiamenti energetici nelle reazioni chimiche per mezzo di essa. [6, p. 383].

Anzitutto, secondo W.B. Jensen [7], a cui si deve la riscoperta e la rivalutazione del lavoro di Rodebush, nella parola qualitativa della citazione precedente potrebbe esserci stato un errore di stampa per quantitativa, visto che subito dopo è riportata l’equazione V/S che implica appunto una formulazione quantitativa.

Ma sono altri i motivi per cui questa proposta è stata praticamente ignorata dai suoi contemporanei, cercherò di presentare sia quelli dello storico sia alcuni miei personali.

Non c’è dubbio che questo interessante suggerimento sia il risultato di un tentativo esplicito da parte di Rodebush di rendere più rigoroso il concetto di elettronegatività, come aveva già espresso di voler fare un anno prima. Ci si può chiedere quindi perché, dopo aver suggerito questa formula, egli apparentemente non ha fatto nulla di più, anche se ci vogliono solo pochi minuti per calcolare i valori di elettronegatività per gli elementi del blocco principale usando il numero di elettroni di valenza e i gusci di Bohr disponibili nel 1925, come mostrato nella tavola periodica proposta nello stesso articolo [6, p. 382]. Jensen ha fatto questi semplici calcoli ottenendo la tabella riportata in figura:

Figura 2 Elettronegatività (Rodebush) degli elementi del blocco principale [7]

Jensen ha trovato un coefficiente di correlazione r = 0.92 fra i valori in tabella e quelli riportati da Pauling nel suo libro del 1959 [1b], perfettamente in linea con i valori delle correlazioni fra le circa 25 scale moderne proposte per l’elettronegatività.

Certamente vi è un problema nell’applicazione della formula ai metalli di transizione, perché gli elettroni di valenza per questi atomi risiedono in due gusci differenti. L’uso di un numero medio di elettroni per i due gusci fornisce probabilmente risultati coerenti. Un altro problema è che l’equazione di Rodebush fornisce valori troppo bassi per gli elementi post-transizione (Zn, Cd, Hg; Ga, In, Tl) poiché non tiene conto degli effetti degli inserimenti degli elettroni nei blocchi d e f sulle costanti di schermo dei nuclei di questi elementi.

Anche il fatto che Rodebush appaia ironico nella frase riportata in [6, p. 383] e anche un po’ supponente nell’insistere che concetto e formula si basino semplicemente sulla legge di Coulomb, senza ulteriore spiegazioni, come fosse un’ovvietà, potrebbero aver influenzato l’oblio in cui sono caduti i suoi articoli. Ebbene, guardando il blocco principale nella tabella si vede che andando dal basso in alto in una colonna verticale V resta costante mentre S aumenta schermando di più l’effetto attrattivo della carica positiva del nucleo sugli elettroni di valenza, di conseguenza il rapporto V/S diminuisce. Andamento opposto andando da sinistra a destra in una colonna orizzontale dove V cresce mentre S resta costante. È la legge di Coulomb, bambini…

Jensen sostiene che la storia del concetto di elettronegatività sarebbe stata molto diversa se Rodebush avesse adeguatamente sviluppato il suo suggerimento. Avere una scala completa nel 1925, anche solo per gli elementi del blocco principale, avrebbe significato un notevole anticipo rispetto a quanto effettivamente è accaduto. In realtà Pauling, nel suo articolo originale del 1932 forniva i valori di elettronegatività per soli dieci elementi non metallici [1a], quelli per cui erano noti i dati sperimentali delle necessarie entalpie di legame. Nell’edizione del 1939 della sua famosa monografia, La natura del legame chimico, estese la sua scala a 33 elementi, anche se non pubblicò mai i calcoli su cui si basava questa estensione. Nel 1959, con la pubblicazione della terza edizione del libro, apparve finalmente una scala completa [1b].

Pur condividendo le opinioni di Jensen penso che il concetto di elettronegatività e la formula di Rodebush siano stati ignorati perché l’autore non ha voluto presentarli in modo adeguato. Il termine elettronegatività non è esplicitato nei titoli dei due articoli, il primo dei quali è la trascrizione di una conferenza e il secondo viene pubblicato da una rivista nata da poco più di un anno, il Journal of Chemical Education, che inizia le pubblicazioni nel 1924. Inoltre, il brano che riporta l’equazione è al termine dell’articolo che per tutto il resto riguarda una sistemazione compatta della tavola periodica. Il perché di queste scelte non ci è dato sapere, Rodebush ha continuato l’attività di ricerca in termochimica e spettroscopia infrarossa fino alla sua scomparsa.

Lascio invece ai filosofi della scienza commentare questa citazione [8]:

…mentre la definizione di elettronegatività di Rodebush è un esempio di ciò che Ferreira chiama una definizione primaria, vale a dire basata su proprietà atomiche fondamentali e con una chiara giustificazione teorica, la definizione termochimica di Pauling è in realtà un esempio di una definizione secondaria, cioè basata su una correlazione empirica tra una proprietà macroscopica di qualche tipo (nello specifico energie di legame da misure termochimiche) e l’elettronegatività e che pertanto non presenta una chiara giustificazione teorica.

Bibliografia

[1] a) L. Pauling, The Nature of the Chemical Bond. IV. The Energy of Single Bonds and the Relative Electronegativity of Atoms”. J. Am. Chem. Soc.1932, 54, 3570–3582; b) L. Pauling, La natura del legame chimico, Edizioni Italiane, Roma, 1960, pp. 84-109 (trad. italiana sulla 3a ed. americana, 1959)

[2] W.B. Jensen, Electronegativity from Avogadro to Pauli. Part I: Origins of the Electronegativity Concept, J. Chem. Educ., 1996, 73, 11-20.

[3] W.B. Jensen, Electronegativity from Avogadro to Pauling: II. Late Nineteenth- and Early Twentieth-Century Developments, J. Chem. Educ., 2003, 80, 279-287.

[4] A. Avogadro, Idée sur l’acidité, Journal de Chimie, de Physique, d’Histoire Naturelle et des Arts, 1809, 69, 142-148, cit. in [2].

[5] W.H. Rodebush, The Subject Matter of a Course in Physical Chemistry, Science, 1924, 59, 430-433

[6] W.H. Rodebush, A Compact Arrangement of the Periodic Table, J. Chem. Educ., 1925, 2, 381-383

[7] W.B. Jensen, When Was Electronegativity First Quantified? I., J. Chem. Educ., 2012, 89, 94-96.

[8] R. Ferreira, “Electronegativity and Chemical Bonding,” Adv. Chem. Phys., 1967, 13, 55-84, cit in [7].

Colla Neanderthal: garantita 200.000 anni.

In evidenza

Claudio Della Volpe

(una parte del testo è tradotto liberamente dall’introduzione del lavoro citato appresso)

In altri articoli e post ho ricordato che la attività chimica dell’uomo è iniziata molto presto; a parte il fuoco, che risale a 1 milione di anni fa e che è addirittura precedente a Homo Sapiens Sapiens, essendo un ritrovato di Homo erectus, i ritrovamenti di Blombos dimostrano che 100.000 anni fa Homo Sapiens svolgeva in Sud Africa una attività chimica propriamente detta consistente nel preparare pigmenti e la svolgeva in un sito apposito, non usato per altre attività.

C’è un ulteriore prova di come la Chimica sia una attività “umana” in senso proprio, attinente ad altre specie di ominidi, diverse da noi ed è la produzione di adesivi da parte di Homo sapiens Neanderthalensis, una specie umana che ha preceduto la nostra nell’ambiente europeo che era all’epoca, attorno a 200.000 anni fa, seconda metà del Pleistocene, più difficile di quello africano da cui provenivano i nostri antenati propriamente detti (in pratica possiamo metterla così: mentre il clima europeo cambiava, i nostri antenati furono immigrati invasori che spodestarono i Neanderthal nell’ambiente europeo il cui clima andava lentamente riscaldandosi).

L’uomo di Neandertal che è diventato parte della nostra cultura, delle nostre storie, dei nostri modi di dire ci ha certamente lasciato anche eredità genetiche, ma soprattutto culturali; piano piano si evidenzia che le differenze fra noi e “loro” non erano poi così forti.

Oltre al fatto che aveva sensibilità artistica e che seppelliva i morti, ci sono parecchie evidenze sperimentali che Neanderthal gestiva il fuoco e produceva ed usava adesivi per bloccare le sue punte di freccia di pietra su un’asta di legno, una sofisticata attività da chimico e tecnologo.La produzione e l’impiego di adesivi per hafting (adesivi da traino, che consentono di attaccare un dispositivo ad un supporto, per esempio una punta ad una freccia o ad un giavellotto, un metodo sviluppato durante il Paleolitico che ha potenziato enormemente la capacità umana di procurarsi cibo) è diventato un punto focale nel dibattito sulle capacità cognitive e tecnologiche dei Neanderthaliani e degli esseri umani primitivi.

Journal of Archaeological Science 33 (2006) 1310e1318 A new Palaeolithic discovery: tar-hafted stone tools in a European Mid-Pleistocene bone-bearing bed, di Paul Peter Anthony Mazza et al.

Gli adesivi sono una delle più antiche tecnologie trasformative conosciute e la produzione di catrame è vecchia di almeno di 200 mila anni. Il catrame è sintetizzato dalla distillazione asciutta (distruttiva) di materiale organico, comunemente la corteccia di betulla (Betula sp.) o di pino (Pinus sp.). La distillazione della corteccia è considerata un processo complicato che richiede pianificazione, conoscenza dei materiali e l’astrazione. I più antichi strumenti di pietra a catrame conosciuti sono stati scoperti in un sito di Pleistocene medio in Italia, (Campitello, in Valdarno) durante un periodo in cui solo Neanderthaliani erano presenti in Europa. L’età di questi reperti è stimata in circa 200.000 anni, dunque ben più antichi di quelli di Blombos.

Sono stati trovati anche grumi e residui adesivi su utensili in pietra su due siti di Neanderthal in Germania, appartenenti a 40-80 ka e ~ 120 ka . L’evidenza diretta dell’uso di adesivi in Africa è più numerosa ma risale solo a ~ 70 Ka. Tali adesivi sono di composizione più complessa ma gli adesivi composti condividono molte analogie con la produzione di catrame di betulla e possono essere altrettanto sensibili agli additivi o post processi di produzione. La produzione di catrame nell’Europa paleolitica è a sua volta utilizzata per argomentare le somiglianze tra le capacità tecnologiche dei neanderthaliani e dei loro emulatori in Africa.

La corteccia di betulla è più adatta alla produzione di catrame rispetto ad altri materiali, ma l’assenza di betulle in Africa potrebbe essere una ragionevole spiegazione del diverso tipo di adesivo usato.

Nei periodi storici e moderni, il catrame è stato prodotto su una scala industriale utilizzando grossi tumuli di terra o in forni usando contenitori in ceramica o in metallo. Non è chiaro come è stato prodotto durante il Pleistocene quando i contenitori in ceramica sono rari o sconosciuti. I tentativi sperimentali precedenti alla produzione di catrame utilizzando la tecnologia aceramica o paleolitica spesso non forniscono dettagli. Inoltre, la resa in catrame risultante è sconosciuta o troppo piccola da misurare (ad esempio residui superficiali che rivestono una termocoppia) e quindi non sono sufficienti per bloccare in modo efficace uno strumento. Non possiamo comprendere appieno le complessità cognitive e ricostruire il grado richiesto di innovazione associato alla produzione di catrame se non sappiamo quali metodi di produzione erano disponibili.

Nel lavoro di cui parliamo qui, che è un lavoro di archeologia sperimentale si è cercato di riprodurre un metodo di produzione del catrame di betulla con metodi disponibili all’uomo di Neanderthal e in quantità sufficienti allo scopo.

SCIENTIFIC REPORTS 7-8033 Experimental methods for the Palaeolithic dry distillation of birch bark: implications for the origin and development of Neanderthal adhesive technology di P.R.B.Kozowyk et al. liberamente scaricabile qui. Un commento semplificato scaricabile qui.

Quindi se volete si è trattato di riprodurre i metodi di questi chimici-tecnologi primitivi che erano fondamentalmente dei costruttori di frecce e lance.

Gli autori hanno testato tre procedure diverse qui sotto rappresentate che danno produzioni crescenti con la complessità del metodo:

In tutti i casi l’elemento critico è riprodurre il contenimento “ceramico” che si è usato anche in tempi moderni; la metodologia richiama ampiamente la tradizione della produzione di carbone di legna che affonda anch’essa in una storia certamente millenaria; l’altro elemento chiave è il controllo della temperatura. La produzione di fuoco in modo ripetitivo da parte dei Neanderthal è stato spesso contestato ma test di questo tipo confermano che in effetti essi erano ragionevolmente capaci di un buon controllo del fuoco se sono stati in grado di produrre dispositivi come quelli ritrovati in Toscana e in Germania.

La cosa che ha più colpito me come scienziato che si occupa di adesione è che l’adesivo in questione è rimasto adeso al supporto all’aperto per 200.000 anni (il legno verosimilmente si è degradato e non conosco colle moderne in grado di assicurare una tenuta di questa durata); come chimico invece mi ha colpito il fatto che la chimica è in grado di svolgere qui un ruolo duplice: essa è contemporaneamente l’oggetto di studio ma è anche il metodo di indagine, è una specie di riscoperta delle proprie origini, del proprio punto di partenza, di quella enorme base sperimentale che si è poi elaborata in secoli e secoli per divenire solo di recente una teoria astratta.

Fra l’altro mi chiedo quanto invece potrebbe essere utile riproporre queste tecniche (quelle primitive o legate alla vita quotidiana) nell’insegnamento elementare della chimica a scuola.

La nostra avventura.2.

In evidenza

Luigi Campanella, già Presidente SCI.

Torno su un mio recente post indicavo “la natura come la stella polare” ( l’espressione é dell’amico Vincenzo Balzani) per la diffusione della chimica ed anche per le attività accademiche di insegnamento e ricerca.

Ci ritorno perchè in una biografia di Alexander Von Humboldt scritta da Andrea Wulf si parla di lui come di un poeta della natura,un eroe perduto della scienza,il creatore della Naturgemalde (descrizione della Natura).

Von Humboldt ha intuito per primo che la Natura non é solo una sommatoria di parti,ma piuttosto un integrale divenendo con tale impostazione un illuminista romantico.

Alexander Von Humboldt

Il ruolo delle foreste nell’ecosistema e per il clima,le basi della classificazione di animali e piante, la trasformazione antropica dell’ambiente in paesaggio sono alcune delle sue ricerche descritte in testi importanti come Cosmos o Quaderni della Natura. La Natura diviene così anche la ispiratrice capace di influenzare l’immaginazione delle persone e di conseguenza di produrre arte in chi ne ha la sensibilità. Guardando a quanti hanno cercato di mettersi in scia a Von Humboldt troviamo biologi, naturalisti, genetisti, perfino  politici a partire da Charles Darwin con la sua teoria dell’evoluzione,dall’inventore della biologia Lamark, dallo zoologo Ernest Haeckel con le sue ricerche sui protozoi, dal naturalista John Muir il primo ambientalista “arrabbiato”, dal politico Perkins Marsh, il primo ecologista americano.

Probabilmente però oltre ad avere avuto posteri Von Humboldt ha anche avuto antenati: si pensi per tutti a Tito Lucrezio Caro ed al suo De Rerum Natura o al botanico svedese Linneo ed alla sua prima teoria della selezione degli organismi viventi.

Mi chiedo come sia stato possibile che nessun chimico abbia colto la sfida e l’invito di Von Humboldt e me lo chiedo proprio per quanto ho scritto ed a cui mi riferivo all’inizio di questo post.

Forse si comprende proprio da questa assenza quanto oggi ci si debba impegnare per rivalutare la nostra disciplina agli occhi della società e per instillare la cultura chimica nei nostri giovani. Credo che questa oggi sia la sfida più grande da affrontare da  parte della nostra comunità e che per avere probabilità e speranze di vincerla dobbiamo guardare con più attenzione analitica e dialettica alla nostra stella polare.

Noterelle di economia circolare.7. Glover

In evidenza

Giorgio Nebbia

(i precedenti articoli della stessa serie si possono cercare con la funzione search (in alto a destra) inserendo la parola “circolare”)

Ogni generazione crede di essere la più furba di tutta la storia; la nostra generazione, per esempio, è orgogliosa di avere scoperto l’ecologia, il risparmio energetico, la lotta all’inquinamento, il recupero dei sottoprodotti, l’economia circolare, le merci verdi, convinta di essere la prima ad affrontare con successo i problemi della moderna società industriale. Eppure gli stessi problemi con cui ci confrontiamo oggi sono stati incontrati e risolti, talvolta in maniera ingegnosa, da molti nostri predecessori ai quali siamo debitori di quello che siamo oggi.

Casi di questo genere si trovano nella storia della chimica, per esempio nella storia della produzione dell’acido solforico. Questo acido corrosivo era noto agli alchimisti arabi; dalla traduzione delle loro opere i chimici medievali occidentali ne conobbero l’utilità nel trattamento dei metalli e nella fabbricazione di altre sostanze e impararono a fabbricarlo dapprima su piccola scala poi in vere e proprie industrie. I primi chimici producevano l’acido solforico scaldando lo zolfo con il nitrato di sodio o di potassio in presenza di acqua. In queste condizioni lo zolfo viene ossidato ad anidride solforosa e poi ad anidride solforica che, assorbita in acqua, si trasforma in acido solforico.

Dapprima la reazione veniva condotta in grossi recipienti di vetro, sostituiti, già nel 1746, da “camere di piombo”, uno dei pochi metalli resistenti alla corrosione da parte dell’acido solforico. Durante la reazione si liberano degli ossidi di azoto che si disperdevano nell’aria, che sono nocivi e che sono stati una delle prime fonti di inquinamento atmosferico industriale. I principali produttori, in Inghilterra, Francia e Germania, dovevano importare le costose materie prime: lo zolfo dalla Sicilia, le piriti dalla Spagna, i nitrati dal Cile; bisognava perciò produrre l’acido usando la minima quantità di materie prime.

Nel 1827 il famoso, professore universitario francese, Joseph Louis Gay-Lussac (1778-1859), suggerì di recuperare una parte dei nocivi e preziosi ossidi di azoto perduti, inserendo nel processo una torre nella quale i gas azotati incontravano una pioggia di acido solforico; il prodotto di reazione veniva rimesso in ciclo per produrre altro acido solforico con minori perdite di composti azotati e con minore inquinamento. Così si otteneva acido solforico diluito che era richiesto su larga scala per produrre la soda necessaria per i saponi e i concimi richiesti per ridare fertilità ai terreni; molte reazioni chimiche per la produzione di coloranti ed esplosivi richiedevano però acido solforico concentrato che, nella metà dell’Ottocento, era costoso perché prodotto soltanto a Nordhaus nell’attuale Germania.

Chemistry, Society and Environment: A New History of the British Chemical Industry
a cura di Colin Archibald Russell,Royal Society of Chemistry (Great Britain)

A questo punto intervenne un altro inglese, John Glover (1817-1896), che perfezionò ulteriormente il processo delle camere di piombo. Glover era figlio di un operaio di Newscastle e fin da ragazzo aveva cominciato a lavorare come apprendista, seguendo anche dei corsi nel locale Istituto tecnico e studiando chimica. Nel 1852 fu invitato negli Stati Uniti a dirigere una fabbrica chimica a Washington; nel 1861 tornò in Inghilterra e fondò una propria società che produceva acido solforico e altri composti chimici. L’idea della torre che porta il suo nome venne a Glover nel 1859 e la prima unità fu costruita nel dicembre 1868. In tale “torre”, costituita da un cilindro verticale contenente mattoni resistenti agli acidi, l’anidride solforosa proveniente dai forni a pirite incontra, in controcorrente, una “pioggia” costituita dalla soluzione di acido solforico diluito e ossidi di azoto, uscente dalla torre di Gay-Lussac; una parte dell’anidride solforosa viene ossidata ad acido solforico e il resto viene avviato alle camere di piombo; l’acido solforico si forma a concentrazione più elevata di quella dell’acido che si formava nelle camere di piombo. Con la torre di Glover si aveva un recupero quasi totale dell’ossido di azoto e quindi si aveva un limitato consumo dei costosi nitrat, col vantaggio di diminuire ulteriormente l’inquinamento atmosferico. In realtà la chimica dell’intero processo è più complicata ma abbastanza nota.

Così perfezionato il processo delle camere di piombo ha prodotto acido solforico in tutto il mondo fino alla prima guerra mondiale. Intanto altri studiosi avevano messo a punto un altro processo di produzione dell’acido solforico per ossidazione dell’anidride solforosa con ossigeno su un catalizzatore. Dapprima fu usato come catalizzatore il costoso platino, poi sostituito da un ossido di vanadio; il processo catalitico richiedeva come materia prima zolfo molto puro come quello prodotto, dall’inizio del Novecento, negli Stati Uniti, molto migliore di quello siciliano, Da allora l’industria siciliana dello zolfo è scomparsa, è scomparsa anche quella americana; oggi lo zolfo si recupera dai rifiuti della raffinazione del petrolio e del gas naturale e ormai l’acido solforico si ottiene dovunque col processo catalitico.

Il grande chimico Justus von Liebig (1803-1873) nella metà dell’Ottocento scrisse che lo sviluppo industriale di un paese si misura sulla base della quantità di acido solforico che produce; di sicuro l’acido solforico era ed è il prodotto chimico fabbricato in maggiore quantità nel mondo, circa 230 milioni di tonnellate all’anno; per il 40 percento, in rapido aumento, nella solita inarrestabile Cina. La torre di Glover è ormai un ricordo, al più citata in qualche libro, ma la sua invenzione ha fatto fare un passo avanti gigantesco all’industria chimica.

Questa breve storia ha una sua morale: il progresso di un paese è basato su continue innovazioni tecnico-scientifiche alle quali chiunque può contribuire, anche cominciando nel garage di casa propria come avvenne per i pionieri dell’elettronica. Nessuno è escluso purché abbia curiosità e voglia di guardarsi intorno e nessuna generazione ha avuto occasioni di conoscenza come quella attuale, nell’era di Internet, strumento di accesso a libri e testi e documenti e informazioni come mai era avvenuto prima.

per approfondire: https://todayinsci.com/G/Glover_John/GloverJohn-Obituary.htm

https://pubs.acs.org/subscribe/archive/tcaw/10/i09/html/09chemch.html

http://ml2rconsultancy.com/sulfuric-acid-history/

Lettera aperta al governo

In evidenza

Vincenzo Balzani

Al  Presidente  del  Consiglio  dei  Ministri,  Paolo  Gentiloni

e,  p.c.,
   al  Ministro  dello  Sviluppo  Economico,  Carlo  Calenda

al  Ministro  dell’Ambiente  e  della  Tutela  del  Territorio  e  del  Mare,  Gianluca  Galletti

al  Ministro  per  le  Politiche  Agricole,  Alimentari  e  Forestali  ,
Maurizio  Martina

al  Ministro  dell’Economia  e  Finanze,  Pietro  Carlo  Padoan

al  Ministro  della  Salute,  Beatrice  Lorenzin

al  Ministro  per  le  Infrastrutture  e  Trasporti,  
Graziano  Delrio


al  Ministro  dell’Istruzione,  Università  e  Ricerca,  Valeria  Fedeli

Lettera Aperta

Caro  Presidente,

Dopo   mesi   di   siccità,   temperature   ben   più   alte   della   media   stagionale,   ghiacciai   che   si   sciolgono,   foreste  che  vanno  in  fumo,  chi  può  dubitare  che  il  cambiamento  climatico  sia  già  oggi  un  problema   che   colpisce   duramente   l’Italia?   Il   nostro   Paese,   collocato   in   mezzo   al   Mediterraneo,   è   uno  dei   punti   più   critici   del   pianeta   in   termini   di   cambiamento   climatico,   fenomeno   globale   dovuto   principalmente  alle  emissioni  di  gas  serra  causate  dalle  attività  umane.


Tutti   i   settori   economici   e   sociali   sono   colpiti   (se   non   addirittura   sconvolti)   dal   cambiamento   climatico:   l’agricoltura,   fortemente   danneggiata   dalla   siccità;   la   sanità,   che   deve   far   fronte   agli   effetti   diretti   (canicola,   inquinamento   atmosferico)   e   indiretti   (nuovi   vettori   di   malattie)   che   mettono  in  pericolo  la  salute  della  popolazione;  il  turismo  invernale,  che  non  può  più  contare  sulla   neve  naturale,  e  quello  estivo,  danneggiato  dalla  erosione  delle  spiagge;  il  territorio,  degradato  da   disastri   idrogeologici   (frane,   alluvioni);   gli   ecosistemi,   devastati   dai   cambiamenti   climatici;   le   città   che,  come  Roma,  hanno  gravi  difficoltà  di  approvvigionamento  idrico.

I  cambiamenti  climatici  sono  principalmente  causati  dall’uso  dei  combustibili  fossili  che  producono   anidride   carbonica   e   altri   gas   serra,   come   è   stato   unanimemente   riconosciuto   nella   Conferenza   delle  Parti  di  Parigi  del  2015  (COP21).     In   Italia,   in   media   ogni   persona   ogni   anno   provoca   l’emissione   di   gas   serra   per   una   quantità   equivalente   a   sette   tonnellate   di   anidride   carbonica.   Gran   parte   di   queste   emissioni   non   possono   essere   addebitate   direttamente   ai   singoli   cittadini   poiché   sono   l’inevitabile   conseguenza   di   decisioni   politico-­‐amministrative   errate,   a   vari   livelli.

Ad   esempio:   le   scelte   urbanistiche   (uso   del   territorio  e  localizzazione  dei  servizi)  da  parte  dei  comuni  e  delle  regioni;  le  decisioni  prese  in  tema  di   mobilità   locale,   regionale   e   nazionale   che,   direttamente   o   indirettamente,   favoriscono   l’uso   dell’auto;   gli   incentivi,   diretti   ed   indiretti,   alla   ricerca,   estrazione,   trasporto   (spesso   da   regioni   molto   remote)   e   commercio   dei   combustibili   fossili;   la   costruzione   di   infrastrutture   superflue   o   addirittura  inutili  (autostrade,  gasdotti,  supermercati);  la  mancanza  di  una  politica  che  imponga  o   almeno   privilegi   il   trasporto   merci   su   rotaia;   le   limitazioni   e   gli   ostacoli   burocratici   che   frenano   lo   sviluppo  delle  energie  rinnovabili;  gli  incentivi  alla  produzione  e  consumo  di  carne;  la  mancanza  di   una  politica  culturale  che  incoraggi  la  riduzione  dei  consumi  e  l’eliminazione  degli  sprechi.
Nel  nostro  Paese  sembra  che  molti  settori  della  politica,  dell’economia  e  del’informazione  abbiano   gli   occhi   rivolti   al   passato   e   siano   quindi   incapaci   di   capire   che   oggi   siamo   di   fronte   a   problemi   ineludibili   con   cui   è   necessario   e   urgente   confrontarsi:   le   risorse   del   pianeta   sono   limitate   e   limitato   è   anche   lo   spazio   in   cui   collocare   i   rifiuti,   l’uso   dei   combustibili   fossili   va   rapidamente   abbandonato  e  altrettanto  rapidamente  è  necessario  sviluppare  le  energie  rinnovabili.     Si   continua   a   sviluppare   politiche   economiche   ed   industriali   “tradizionali”,   senza   considerare   le   mutate   condizioni   climatiche   e   ambientali.   Il   dogma:   strade-­‐cemento-­‐idrocarburi   appare,   pur   con   qualche  piccola  deviazione,  l’unico  obiettivo  delle  politiche  economiche.     Se   puntassimo   seriamente   alla   realizzazione   di   mitigazione   e   adattamento   climatico   avremmo   grandi  benefici:  aumento  dell’occupazione,  minori  costi  per  emergenze  e  calamità  naturali,  minori   spese  sanitarie  e  un  miglioramento  nella  bilancia  commerciale  (minori  importazioni  di  combustibili   fossili).     Quali   sono   i   principali   obiettivi   strategici   che   dovrebbero   sostituire   il   dogma   strade-­‐cemento-­‐ idrocarburi?

Risparmio-­‐riuso-­‐rinnovabili.     Infatti,   la   sola   conversione   alle   energie   rinnovabili,   pur   essendo   una   condizione   necessaria,   non   è   di   per   sé   sufficiente   per   mitigare   i   cambiamenti   climatici.   E’   indispensabile   anche   ridurre   il   consumo  di  energia  e  di  ogni  altra  risorsa,  particolarmente  nei  paesi  sviluppati  come  il  nostro  dove   regna   lo   spreco.   Attualmente,   un   cittadino   europeo   usa   in   media   6.000   watt   di   potenza,   mentre   negli   anni   ’60   la   potenza   pro   capite   usata   in   Europa   era   di   2000   watt   per   persona,   corrispondenti   ad  una  quantità  di  energia  sufficiente  per  soddisfare  tutte  le  necessità.     Naturalmente,  questo  cambiamento  di  strategia,  richiede,  innanzitutto  una  rivoluzione  culturale  e   una   forte   coesione   sociale.   Senza   la   consapevolezza   della   inevitabile   necessità   di   cambiare   direzione  e  l’analisi  di  un’adeguata  transizione,  rimane  solo  la  conservazione  dello  stato  di  fatto,  e   la  ragionevole  certezza  che  ci  saranno  catastrofi  naturali  e  sociali.     Per   questi   motivi,   chiediamo   ai   colleghi   delle   Università   e   Centri   di   ricerca   italiani   e   a   tutti   i   cittadini   che   condividono   quanto   sopra   riportato   di   firmare   il   nostro   appello   sul   sito   energiaperlitalia   per   stimolare   il   Governo   ad   organizzare   una   Conferenza   Nazionale   sui   cambiamenti  climatici  e  a  mettere  in  atto  i  provvedimenti  necessari.

La  versione  integrale  della  lettera-­‐appello  al  governo  è  sul  sito  energiaperlitalia

Vincenzo  Balzani   Coordinatore  del  gruppo  energiaperlitalia

La tavola periodica “dimenticata” di W. Rodebush

In evidenza

Rinaldo Cervellati

Fra poco più di un anno, ricorre il 150° anniversario della Tavola periodica che è considerata dai chimici la pietra miliare che contiene in forma sintetica la maggior parte di tutta la scienza chimica. Anche l’home page del nostro blog ha come sfondo la tavola periodica.

Nel 1869 il chimico russo Dimitri I. Mendeleev pubblicò una tabella in cui gli elementi fino allora conosciuti erano ordinati in base al peso atomico crescente in gruppi orizzontali e periodi verticali in modo che ad ogni periodo corrispondevano elementi con proprietà fisiche chimiche simili e in ogni gruppo queste proprietà variavano allo stesso modo in cui variano le valenze degli elementi stessi. La tabella fu chiamata Sistema Periodico dallo stesso Mendeleev ed è mostrata in figura 1, tratta dal lavoro originale dell’Autore.

Figura 1

Il lavoro, intitolato Sulla dipendenza tra le proprietà e i pesi atomici degli elementi, fu pubblicato in un’oscura rivista russa [1a] quindi ripubblicato in tedesco sullo Zeitschrift für Chemie [1b]. La genialità di Mendeleev sta non solo nell’aver lasciato caselle vuote dove non trovava elementi che dovevano appartenervi, ma nell’aver previsto i pesi e le proprietà chimiche di questi, che furono poi effettivamente scoperti (ad es. il germanio fra il silicio e lo stagno, ecc.).

Nel 1871, Mendeleev pubblicò la sua tavola periodica in una nuova forma, con i gruppi di elementi simili disposti in colonne piuttosto che in righe, numerate da I a VIII in corrispondenza delle valenze minima e massima dell’elemento (Figura 2) [2].

Figura 2 (le linee tratteggiate indicano elementi ancora sconosciuti)

La tavola non poteva prevedere i gas nobili, tuttavia Mendeleev lasciò uno spazio, e quando quest’intera famiglia di elementi è stata scoperta, William Ramsay (1852-1916) riuscì ad aggiungerli come Gruppo 0, senza che il concetto di base della tabella periodica fosse modificato.

Vale la pena ricordare che tutta la costruzione di Mendeleev è stata concepita come uno strumento empirico, un modo per organizzare gli elementi secondo le loro proprietà in assenza di qualsiasi teoria. La tavola periodica è stata costruita nel 1869, 30 anni prima della scoperta dell’elettrone, 40 anni prima che Ernest Rutherford scoprisse il nucleo atomico e 50 anni prima dell’interpretazione quantomeccanica della struttura atomica. Solo all’inizio del ventesimo secolo il chimico britannico Henry Moseley (1887-1915) scoprì che il ruolo fondamentale della periodicità sta nella carica del nucleo e non nella massa degli atomi. In questo modo, si sono posti limiti precisi su quanti elementi sono rimasti da scoprire.

Nel 1945, Glenn Seaborg, chimico americano, formulò l’ipotesi che il nuovo gruppo di elementi detti attinidi stessero occupando gli orbitali 4f così come i lantanidi avevano riempito il sotto-livello 3f. Propose quindi, una tabella molto simile a quella generalmente più usata oggi (figura 3)[1]. Questo tipo di tabella è usualmente chiamata “compatta”. Nelle tabelle “compatte” gli elementi dei blocchi f (lantanidi e attinidi) sono elencati nella parte inferiore della tavola con un richiamo a uno spazio lasciato vuoto o comprendente i simboli del primo e dell’ultimo elemento del gruppo nel corpo della tabella, v. figura 3.

Figura 3 – Tavola periodica di Seaborg [3][2]

Ma Seaborg non è stato il primo a proporre la tavola periodica in forma compatta. Uno dei primi, se non il primo[3] a fare una proposta simile è stato W. H. Rodebush, di cui abbiamo già parlato, insieme a W.M. Latimer a proposito del legame a idrogeno.

Worth H. Rodebush

Worth Huff Rodebush (1887-1959) è stato uno dei “ragazzi” di G.N. Lewis a Berkeley dal 1914/5 al 1920/1, prima di trasferirsi all’University of Illinois dove diventerà full professor e Direttore del Dipartimento di Chimica Fisica nel 1924. Appassionato alla ricerca e all’insegnamento anche a livello di scuola superiore, nel 1924 tenne una conferenza al Convegno dell’Association for the Advancement of Science Sec. C, pubblicata nella rivista Science [4]. In questa conferenza Rodebush ravvisa la necessità di migliorare la presentazione della tavola periodica, ne indica i punti principali e i principali vantaggi, ma la sua tavola non è riprodotta nel testo pubblicato da Science. Probabilmente una copia fu distribuita a parte ai partecipanti. L’autore pubblica poi un articolo per il Journal of Chemical Education, dove riprende il tema [5]. Scrive Rodebush:

La vecchia Tavola di Mendeleev ha avuto [queste] virtù ma sebbene i suoi difetti siano evidenti alla luce delle recenti conoscenze, essa è ancora generalmente in uso perché non è apparsa alcuna nuova sistemazione che sia semplice e compatta. Alcune tabelle pubblicate di recente hanno il difetto di tentare di mostrare troppi dettagli. Dal momento che il numero di relazioni che esistono tra gli elementi è molto grande… è necessario sacrificare alcune relazioni…   Una soddisfacente sistemazione della tavola periodica deve ottemperare almeno le seguenti condizioni: (1) disporre gli elementi secondo il numero atomico; (2) conservare i periodi di Rydberg[4]; (3) mostrare il raggruppamento degli elettroni intorno al nucleo; (4) mostrare il numero di elettroni di valenza; (5) mostrare le reali somiglianze chimiche; (6) indicare l’entità della proprietà comunemente detta elettronegatività posseduta da ciascun elemento. Tutte le altre relazioni appaiono subordinate a quelle elencate sopra [5, p. 382].

La seguente tabella è un tentativo di sistemazione [compatta].(Figura 4)

Figura 4. La proposta di Rodebush, tratta dal rif. [5], p. 382, redatta a penna

Siamo nel 1924, la meccanica quantistica di Schrödinger e Heisenberg deve ancora essere pubblicata. Rodebush scrive quindi:

Essa [tabella] è basata sulla concezione di Bohr del raggruppamento di elettroni in orbite senza necessariamente accettare il punto di vista di Bohr circa il moto degli elettroni. Tali raggruppamenti siano essi costituiti da elettroni stazionari o in movimento su orbite li chiameremo gusci [shell], secondo la terminologia di G.N. Lewis. [5, p. 382]

Rodebush passa poi a illustrare la sua tabella, costituita da 17 colonne e sette righe o periodi. Non entriamo ulteriormente nel merito, tutte le condizioni da lui indicate sono soddisfatte. In particolare dice:

L’idrogeno è stato posto insieme agli alogeni[5]… il numero di elettroni di valenza per idrogeno e elio è scritto tra parentesi sopra ai simboli degli elementi. La struttura del guscio completo per i gas inerti è mostrata sulla destra. Alcuni preferiscono designare i gusci in ordine alfabetico con le lettere K, L, ecc. Agli elementi i cui atomi sono in grado di assumere la stessa valenza e che mostrano proprietà chimiche molto simili viene assegnata una singola casella nella tavola periodica, ad esempio le terre rare.[5, p.383]

Dalla Figura 4 è chiara l’intenzione di Rodebush di elencare a parte gli elementi della famiglia dei lantanidi (terre rare) nella parte inferiore della tavola.

Sembra addirittura che egli fosse in dubbio se isolare anche le terne (Fe, Co, Ni), (Ru, Rh, Pd), (Os, Ir, Pt) con pesi atomici e caratteristiche chimico fisiche molto simili per rendere la tavola ancora più compatta.

Infine Rodebush così conclude:

Non ho alcuna pretesa di originalità per questa sistemazione, molte variazioni e aggiunte si proporranno al critico. [5, p. 383]

Non sembra che la proposta di Rodebush sia stata rilevante, la sua tabella non compare nell’INTERNET Database of Periodic Tables, il database più completo che raccoglie e aggiorna le centinaia di forme diverse di tavole periodiche da Mendeleev ai giorni nostri [3]. La sua attenzione al riguardo non è menzionata neppure dai suoi biografi C.S. Marvel e F.T. Wall (i due scritti citati qui sono comunque riportati nell’elenco delle pubblicazioni) [6]

Nemmeno Eric Scerri, docente di chimica e storia della chimica all’University of California Los Angeles (UCLA), una autorità mondiale in filosofia della scienza, specializzato in storia e filosofia della tavola periodica, cita i lavori di Rodebush nelle sue principali pubblicazioni [7].

Una brevissima citazione dell’articolo al rif. [5] si trova invece nella II Parte nel lavoro del 1934 di G.N. Quam e M.B. Quam [8], p. 219.

Tuttavia le raccomandazioni di Rodebush sono state accolte da molti estensori di tavole periodiche, in particolare la (6) sull’elettronegatività. Parleremo del contributo dato da Rodebush sull’elettronegatività (anche esso poco noto) in un prossimo post.

Vorrei terminare con una nota di costume. La Tavola Periodica degli Elementi non è un’icona dei soli chimici, in qualche modo è entrata nell’immaginario collettivo. Sono moltissimi i gadget, dalle magliette alle tazze, dai nomi propri costruiti con le sue caselle alle calamite per lo sportello del frigo, fino alle cover per i cellulari. Sono troppi per scegliere un’immagine, vi rimando quindi a:

https://www.google.it/search?q=gadget+tavola+periodica&tbm=isch&tbo=u&source=univ&sa=X&ved=0ahUKEwiV85L0wd7VAhVML1AKHSbjDXUQsAQILA&biw=1366&bih=613

Buon divertimento !

Bibliografia

[1a] D.I. Mendeleev, On the Correlation Between the Properties of Elements and Their Atomic Weight (in russo), Zurnal Russkogo Kimicheskogo Obshchestva 1, no. 2-3 1869 35, 60-77; [1b] D.I. Mendeleev, Über die Beziehungen der Eigenschaften zu den Atomgewichten der Elemente, Zeitschrift fur Chemie, 1869), XII, 405-406

[2] D.I. Mendeleev, Die periodische Gesetzmassigkeit der chemischen Elemente. Annalen der Chemie und Pharmacie, Supplementband, 1871, VIII, 133-229.

[3] The INTERNET Database of Periodic Tables

http://www.meta-synthesis.com/webbook//35_pt/pt_database.php

[4] W.H. Rodebush, The Subject Matter of a Course in Physical Chemistry, Science, 1924, 59, 430-433

[5] W.H. Rodebush, A Compact Arrangement of the Periodic Table, J. Chem. Educ., 1925, 2, 381-383

[6] C.S. Marvel, F.T. Wall, Worth Huff Rodebush 1887—1959, A Biographical Memoir, Biographical Memoir, National Academy of Sciences, Washington D.C., 1962

[7] a) E. Scerri, & McIntyre L, Philosophy of Chemistry: Growth of a New Discipline, Springer, Dordrecht, Berlin, 2015; b) E. Scerri, , The periodic table: Its story and its significance, Oxford University Press, New York, 2007

[8] G.N. Quam e M.B. Quam, Types of Graphic Classifications of the Elements. II. Long Charts, J. Chem. Educ., 1934, 11, 217-223, p. 219

[1] Glenn Seaborg (1912-1999) fu sconsigliato a pubblicare la sua ipotesi in quanto vi era la convinzione che gli attinidi formassero una quarta riga di blocco d. Seaborg non ascoltò il consiglio, il suo suggerimento si dimostrò corretto e nel 1951 gli fu assegnato il Premio Nobel per i suoi lavori sugli attinidi.

[2] La casella 43, lasciata vuota per molti anni, è oggi occupata dal Tecnezio (Tc), il primo elemento prodotto artificialmente, anche se successivamente la sua esistenza in natura è stata dimostrata sia all’interno, sia all’esterno del sistema solare. Anche la 61 è vuota, oggi è occupata dal Promezio (Pm), prodotto artificialmente e radioattivo.

[3] In effetti una forma “compatta”, nota come forma comune o standard, viene attribuita a Horace Groves Deming (1885-1970), un insegnante di chimica americano. Nel 1923, Deming, pubblicò il libro General chemistry: An elementary survey. New York: J. Wiley & Sons., contenente una tavola periodica di 18 colonne e 7 righe in cui le terre rare erano elencate separatamente in basso. La tavola di Deming, molto fitta, riporta numerosissimi dettagli, risultando di difficile lettura [3]. La Compagnia Merck nel 1928 e la Sargent-Welch nel 1930 ne presentarono una forma semplificata che ebbe una larga diffusione nelle scuole americane.

[4] Questo punto non è chiaro. Johannes Robert Rydberg (1854-1819), fisico austriaco è noto soprattutto per la formula che interpreta lo spettro di emissione dell’idrogeno come anche di altri elementi. E’ noto il suo interesse per i pesi atomici e la sua ricerca di un motivo per l’incremento casuale dei pesi atomici nella tavola di Mendeleev, ricerca inutile. Tuttavia ho trovato nell’INTERNET Database of Periodic Tables una tabella periodica del 1913 attribuita a Rydberg, molto sfocata che tuttavia richiama alla mente i periodi.

[5] La posizione dell’idrogeno è ancora oggi oggetto di controversia.

(v. https://en.wikipedia.org/wiki/Periodic_table), Rodebush ritiene che le caratteristiche chimico-fisiche dell’idrogeno siano meno lontane da quelle degli alogeni, in particolare il fluoro, piuttosto che dai metalli alcalini. Deming, per essere equidistante, lo pone in alto, al centro della sua tavola, con due frecce rispettivamente verso il Litio e verso il Fluoro (v. nota 3)

La nostra avventura.

In evidenza

Luigi Campanella, già Presidente SCI.

Scrivo questo post nella mia veste anche di direttore di CNS Chimica Nella Scuola il giornale della SCI edito da ARACNE dedicato all’insegnamento della Chimica nella Scuola primaria e secondaria,quindi di fatto all’inizializzazione della cultura chimica nei giovani.

La nostra è disciplina complessa, non facile da insegnare e anche da comprendere, tanto da richiedere una creatività didattica capace di superare queste difficoltà. Proprio in questa convinzione CNS cerca di mettere a comune esperienze,originalità, veri e propri prodotti del capitale umano al fine di accrescere la capacità creativa ed innovativa del sistema didattico. Su questa base mi avvicino sempre con interesse a testi che possono promuovere in me stimolazioni e provocazioni da raccogliere da parte di colleghi che appartengono alla stessa comunità, intendendo per essa quella della didattica, non necessariamente limitata alla Chimica.

Ho così letto le due ultime fatiche di Carlo Rovelli , SETTE BREVI LEZIONI DI FISICA e L’ORDINE DEL TEMPO (ADELPHI ED.).Mi ha subito colpito l’approccio: la disciplina da spiegare vista come un’avventura, quasi verso l’ignoto, cercando quindi in questa prospettiva di offrire a chi fruirà della descrizione, la soddisfazione di avere superato un ostacolo, di essere arrivato in porto dopo una procellosa navigazione. Da qui la convinzione che la conoscenza è figlia dell’ignoranza precedente. Pensare di sapere tutto frena l’interesse scientifico, ma limita anche la curiosità formativa e quindi l’apprendimento.

La creatività dell’insegnante si misura proprio in questa capacità.

Quando il primo ministro inglese chiese a Faraday a cosa servisse l’elettricità, lui rispose che un giorno sarebbe stata tassata. Quando la scoperta delle onde gravitazionali  ha confermato la teoria di Einstein non si pensava che poi i gps avrebbero funzionato anche grazie alla relatività generale.

Nella ricerca  di linee guida che l’esplorazione didattica richiede si misura il secondo aspetto della creatività didattica. Per la Fisica Rovelli crede molto al “tempo” per questa funzione. Sembra ovvio che scorra in avanti,ma perchè il futuro è diverso dal presente e questo diverso dal passato? Sappiamo che è l’entropia, l’aumento del disordine a differenziare i livelli temporali. Ma per spazio e tempo la gravità quantistica obbliga a ripensarne certi modelli. La materia oscura poi, di cui si intuisce  l’esistenza, ma che non sappiamo rappresentare potrebbe ai concetti di tempo e di spazio assegnare nuovi connotati.

Mi chiedo ora: se volessimo anche noi trovare una linea guida per l’insegnamento della Chimica,come la dovremmo scegliere? Qual’è il corrispondente del Tempo di Rovelli?

Se si leggono con attenzione le ultima annate di CNS, anche le precedenti più antiche, se disponibili, ci si rende conto come la nostra stella polare è la Natura, a partire dall’evoluzione chimica dell’universo, per proseguire con le leggi che regolano i processi chimici, anche quelli naturali, con la trasformazione dell’ambiente in paesaggio a seguito delle attività antropiche, con il passaggio dalla CHIMICA DELLA VITA (conoscenza ,esplorazione), ALLA CHIMICA PER LA VITA(sicurezza,salute,qualità della vita).

Credo che la Chimica abbia fatto molto per la Natura,ma questa ha fatto, fa e  farà molto per la Chimica, in quanto ne agevolerà sempre l’insegnamento e lo sviluppo di una cultura.

Chimica in fogna.

In evidenza

Mauro Icardi

La notizia è stata rilanciata dai quotidiani è mi ha ovviamente colpito, visto che lavoro in questo settore.

http://palermo.repubblica.it/cronaca/2017/08/28/news/ragusa_esalazioni_dalla_fognatura_gravi_due_coniugi_in_viaggio_di_nozze-174040427/?ref=search

Notizia che non è nuova se si fanno ricerche in rete, ma che colpisce per le modalità. I gas fognari sarebbero stati respirati nella stanza di un albergo e si sarebbero sprigionati dal condotto fognario sul quale erano stati eseguiti dei lavori.

La prima impressione, molto immediata e superficiale è quella che ovviamente episodi di questo genere non dovrebbero accadere. Ne ho scritto diverse volte, ed è un normale argomento di discussione per me.

Bisogna effettuare investimenti non prorogabili ulteriormente sulle reti fognarie e sul sistema depurativo.

Abbiamo già ricevuto due condanne da parte della corte di giustizia europea e una successiva procedura di infrazione è stata aperta per non aver raggiunto i livelli di qualità di depurazione delle acqua reflue.

http://www.acqua.gov.it/index.php?id=3

Dobbiamo anche ricordare che fognature efficienti servono a contrastare eventuali problemi di malattie ed epidemie. Le tubazioni che allontanano i nostri rifiuti stanno sotto i nostri piedi. Spesso le dimentichiamo, ma sono state un grande progresso, fin dai tempi degli insediamenti di Mohenjo Daro.

Le fognature dei romani, fino alle grandi costruzioni di Londra e Parigi. L’evoluzione e lo sviluppo delle corrette pratiche igieniche passano anche attraverso l’efficienza degli impianti fognari.

Su quanto accaduto a Ragusa è stata aperta un’inchiesta e non vi sono ulteriori notizie. Sembrerebbe che l’albergo sia stato scagionato da responsabilità per quanto accaduto. Io non mi occupo di progettazione e realizzazione di impianti di scarico. Ma so, come probabilmente molte altre persone, che per evitare il ritorno di cattivi odori dall’impianto di scarico delle acque si devono prevedere, oltre alla colonna di scarico delle acque, anche colonne di ventilazione e sifoni che non permettano appunto il ritorno di gas provenienti dalla fogna nei locali di abitazione.

I rischi attribuibili a chi viene in contatto con gas di fognatura, sono quelli di natura biologica che sono relativi all’aerosol batterico che può trascinare virus e batteri, ma che è meno probabile riscontrare se non vi sono situazioni di turbolenza che tipicamente si verificano nelle zone di trattamento, quali vasche di ossidazione o salti d’acqua, e tipicamente negli impianti di depurazione. Ma occorre tenere presente anche il fattore caldo estivo e la situazione di temperatura del condotto fognario

Il possibile sviluppo di idrogeno solforato nei condotti fognari invece è conosciuto e studiato. Soprattutto per gli effetti di corrosione che esercita sui condotti fognari. Studi iniziati fina dal 1895.

https://www.deepdyve.com/lp/elsevier/corrosion-of-concrete-sewers-the-kinetics-of-hydrogen-sulfide-7sO1HhYbz2

L’idrogeno solforato è presente nelle fognature in equilibrio tra la forma indissociata (H2S) e la forma ione idrogenosolfuro (HS-) I due composti sono presenti presenti al 50% a valori di pH prossimi alla neutralità (condizione che normalmente si verifica nell’acqua di fogna).

L’idrogeno solforato è un gas che presenta una moderata solubilità, la quale naturalmente diminuisce al crescere della temperatura. Se quindi viene a verificarsi un abbassamento del pH o un aumento della temperatura, il gas può facilmente sfuggire, dando luogo a vari inconvenienti, dovuti soprattutto al suo cattivo odore e alla sua elevata tossicità.

L’idrogeno solforato ha una soglia di riconoscimento molto bassa, pari a 0,0047 ppm. A questa concentrazione il 50% delle persone riconosce il suo caratteristico odore di uova marce.

Concentrazioni di 10-20 ppm provocano irritazione oculare. Concentrazioni di 320-530 ppm possono provocare edema polmonare con rischio di morte.

Le misure di prevenzione consistono in pulizia meccanica delle condutture, eventuale clorazione o dosaggio di altri battericidi. Secondo il Water Pollution Research Laboratory anche la velocità dell’acqua di fogna gioca un ruolo importante. Non deve possibilmente essere inferiore a 0,75 m/s valore minimo di auto pulitura di una fognatura.

Nella letteratura specifica si trovano anche studi che mettono in relazione la velocità di formazione dell’idrogeno solforato in un’acqua di fogna deossigenata. Lo sviluppo aumenta del 7% per ogni aumento di temperatura di 1° C.

2 Pomeroy, R., and Bowlus, F. D., … Sew. Works Jour., 18, 4, 597(1946)

Ovviamente poi all’interno di una fognatura sono altri i composti maleodoranti che si possono trovare, per esempio i mercaptani. Per quanto riguarda il metano, relativamente a quanto verificatosi a Ragusa, è un’ipotesi che ritengo poco plausibile. Negli articoli relativi alla vicenda si è parlato di lavori eseguiti sulla rete fognaria. Ma il metano si forma in condizioni anaerobiche e quindi si sarebbe eventualmente potuto sviluppare in una sacca riscaldata ed isolata dal resto del condotto. Possibilità che richiama alla mia mente un classico di fantascienza, da me letto e riletto.

Queste le note del retro di copertina: “Nelle fogne di una grande città, per l’incredibile varietà di sostanze che vi confluiscono e l’infinito numero di combinazioni chimiche che ne risultano, può nascere in ogni momento qualsiasi cosa. Qui le fogne sono quelle di Chicago; il momento è alle 0,51 di una notte di settembre; la “cosa” è un grumo gelatinoso non più grande di un granello di sabbia. Un’ora dopo il granello è diventato una massa di un piede quadrato, in un’altra ora, crescendo con progressione geometrica, si espande per i collettori laterali. Alle 7 del mattino, risalendo per le tubature, la sostanza occhieggia dal foro di scarico di innumerevoli lavandini. Alle 7,35 certa Maude Wendell, casalinga, cerca di sturare il suo lavandino col dito…”

Sto parlando, sia ben chiaro di un’opera di fantascienza, una breve digressione.

Tornando in tema, l’episodio di Ragusa merita gli approfondimenti del caso, da parte delle autorità preposte. Deve far riflettere in primo luogo chi come me è impegnato a lavorare in questo settore. Ma più in generale portare l’attenzione sull’importanza di avere reti fognarie e impianti di trattamento dei reflui di qualità adeguata. E di conseguenza effettuare manutenzioni e controlli capillari per garantirne il corretto funzionamento.

 

La chimica della stretta di mano ed altre storie di olfatto e gusto.

In evidenza

Claudio Della Volpe.

I sensi umani hanno tutti, quale più quale meno, a che fare con la chimica. Anzi forse ne costituiscono il substrato, la condizione biologica. Fra di essi il gusto e l’olfatto sono quelli in cui la chimica è più implicata (anche se qualcuno potrebbe dire che la vista è basata dopo tutto su una reazione chimica anch’essa).

Prima vorrei segnalarvi un articolo non recentissimo (2015) ma molto stimolante che parla del ruolo dell’olfatto nella stretta di mano.

Il fatto colpisce per la sua apparente stranezza, ma in effetti la cosa appare rigorosamente logica e stringentemente umana. Dopo tutto siamo mammiferi e usiamo i metodi che la natura ha dato a noi come appartenenti a questa classe dei vertebrati.

L’articolo è scaricabile liberamente in rete.

Frumin I, Perl O, Endevelt-Shapira Y, Eisen A, Eshel N, Heller I, Shemesh M, Ravia A, Sela L, Arzi A, Sobel N. 2015. A social chemosignaling function for human handshaking. eLife 4:e05154. doi: 10.7554/eLife.05154 insieme con il commento della rivista Semin and Farias. eLife 2015;4:e06758. DOI: 10.7554/eLife.06758.

Di che si tratta?

Segnali chimici ad uso sociale sono parte del comportamento umano, ma come si trasmettano da un individuo all’altro è un argomento non ben conosciuto. Inoltre gli umani si salutano reciprocamente stringendosi la mano, ma i motivi di questo comportamento non sono chiari né lo sono le sue origini.

La stretta di mano non è un prodotto della società moderna, e nemmeno esclusivo del mondo occidentale. La sua origine risale a più di 5000 anni fa, confermato da geroglifici egiziani che rappresentano patti ed accordi tra uomini e dei che, solamente stringevano la mano in segno di accordo.(wikipedia)

Hera and Athena handshaking, late 5th century BC, Acropolis Museum, Athens

 Dicono gli autori:

Sebbene ci sia controversia sulla statistica della sincronia mestruale e sull’uso del termine feromone applicato a situazioni di segnalazione chemiosociale negli umani, che gli umani emettano odori che possono influenzare il comportamento e la percezione negli altri umani è una cosa su cui c’è ampio accordo. Tuttavia diversamente da altri mammiferi gli umani non usano aperte investigazioni olfattorie sui loro cospecifici. Quindi si pone la domanda di come gli umani ottengano i segnali chimici che poi così chiaramente li influenzano. Sebbene alcune culture umane includano espliciti analisi olfattive in comportamenti di saluto sterotipati come abbracciarsi e baciarsi che di fatto costituiscono nascoste opportunità di analisi olfattiva l’analisi olfattiva di persone sconosciute è largamente considerata un tabù. In questo lavoro ci siamo chiesti se la stretta di mano umana possa servire come un meccanismo subliminale di campionamento dei segnali chimici umani. La stretta di mano è comune nelle culture e nella storia anche se i suoi antecedenti funzionali rimangono non chiari e la nozione comunemente citata di mostrare che non si hanno armi ha solo un supporto scientifico limitato.

Il lavoro è sperimentale ed è consistito nell’analizzare tramite video centinaia di strette di mano fra persone ed anche il loro comportamento successivo, inoltre gli autori hanno analizzato in un numero ristretto di casi le sostanze trasferite attraverso la stretta di mano usando il trucco di coprire una delle due mani con un guanto in modo da poter sottoporre ad analisi la superficie del guanto tramite le tradizionali tecniche dell’analisi chimica.

I risultati sono stati veramente interessanti:

Il primo è che si trasferiscono molecole ben precise che sono indicate nel grafico qui sotto.

Come si vede dal grafico alcune sostanze si trovano comunque sul guanto sia a causa della sua composizione che a causa dell’inquinamento ambientale (per esempio silossani che sono ahimè ubiquitari oggi), ma alcune sono specifiche della stretta di mano e fanno parte di classi di composti che svolgono un ruolo di segnale chimico fra altre specie di mammiferi e di altri animali (anche insetti!!).

“squalene, which is a putative social chemosignaling component in several species including dogs (Apps et al., 2012) and rats (Achiraman et al., 2011); hexadecanoic acid, which is a putative social chemosignaling component in both mammals (Briand et al., 2004) and insects (Tang et al., 1989); and geranyl acetone, which is present in human secretions (Gallagher et al., 2008), but to date was considered a social chemosignaling component in insects alone.”

La seconda scoperta è stata che nella maggior parte dei casi le persone dopo una stretta di mano avvicinano la mano alla faccia o al naso entro secondi o minuti e annusano o hanno la possibilità di annusare la mano con i segnali chimici che essa ha raccolto dalla stretta.

Inoltre questo comportamento si differenzia nei dettagli a seconda se la stretta di mano è avvenuta fra persone del medesimo genere o di genere diverso.

Ed infine se si introduce artatamente un profumo artificiale nel processo, ossia una delle persone che stringe la mano ha usato un profumo artificiale e dunque la sua mnao risente di questo trattamento il comportamento successivo dell’altra persona ne viene fortemente influenzato.

La conclusione degl autori è che:

This combination leads us to conclude that handshaking may subserve sampling of social chemosignals. In addition to providing a functional framework for a common human behavior, these results imply an extensive role for social chemosignaling, which persists mostly without awareness for the signaling process.

Affascinante certamente.

L’olfatto e il gusto interagiscono durante la masticazione ed è difficile spesso distinguere gli effetti di un cibo o di una sostanza sui due sensi. E’ uno degli argomenti trattati da Bob Holmes in un libro recentemente pubblicato.

Forse per questo il gusto è il senso più “negletto” come lo definisce Holmes, un redatore di New Scientist (https://books.google.it/books/about/Flavor_The_Science_of_Our_Most_Neglected.html?id=YUp8DAAAQBAJ&redir_esc=y) Flavor, the science of our most neglected sense, W.W. Norton & Company, 2017

Di questo libro potete caricare le prime 25 pagine da GoogleBooks.

Holmes scrive brillantemente e tocca molti argomenti sia pure in modo giornalistico e forse non così profondo come si potrebbe.

Un esempio dei temi trattati è la definizione dei supergustatori, delle persone che sono dotate di una spiccata sensibilità del gusto; la classificazione è fatta sulla base della reazione al composto denominato PROP;

si tratta in effetti di un farmaco, il 6-n-propiltiouracile) un farmaco antitiroideo derivato dal tiouracile che deprime la produzione degli ormoni tiroidei.

Tutte le persone del mondo si possono dividere in tre gruppi a seconda della loro sensibilità gustativa a questo prodotto: dice Holmes:

E infine vi segnalo un altro libro più professionale sul gusto

Flavour From Food to Perception EDITED BY

Elisabeth Guichard, Christian Salles, Martine Morzel, Anne-Marie Le Bon

Questo è un vero e proprio libro professionale sui temi del gusto; il capitolo che può più interessare il chimico medio è il 6 che è dedicato alla chimica del gusto:

Qui vengono analizzate tutte le classi di molecole che hanno effetti aromatici importanti e intendiamo con aroma proprio quel territorio di confine fra gusto e olfatto di cui dicevamo prima:

Over 10000 volatile compounds have been detected in foods. Among them, only a few hundred (5–10%) are aroma compounds. Moreover, in a recent meta-analysis of 5642 publications on food aroma from 1980 to 2013 and 949 other documents, Hofmann and co-workers (Dunkel et al. 2014) iden- tified 226 key food odorants from the analysis of a total of 119 publications dealing with 227 food samples, based on their odour activity value (OAV>1).

Qui sotto un esempio di come la struttura chimica possa influenzare l’aroma di una sostanza:

Come vedete la semplice lunghezza della catena laterale cambia l’aroma della sostanza.

Sono argomenti affascinanti e poco noti a cui forse si dedicano pochi, troppo pochi di noi; voi che ne dite?

PS chi è interessato ai testi ma ha difficoltà a procurarseli si può rivolgere a me.

La lunga strada verso i conservanti naturali negli hot dog. Parte II – Il pane

In evidenza

Rinaldo Cervellati.

(la prima parte di questo post è pubblicata qui; ripreso dal n. 31 di Chemistry & Engineering newsletter on line del 25 luglio scorso)

I cibi a breve scadenza come il pane possono richiedere interventi significativi” “se si vuole andare oltre un paio di giorni di conservazione, serve una soluzione per evitare le muffe“, dice Anieke Wierenga della Corbion.

Il pane commerciale ha un odore diverso dal pane da forno perché contiene propionato, un ingrediente poco pericoloso che però non è una sostanza naturale. Se deve essere conservato per pochi giorni, alcuni pani senza additivi sintetici eviteranno di ammuffirsi utilizzando come conservante zucchero fermentato.

Prima che il pane faccia la muffa, in genere diventa stantio o raffermo. Anche se i consumatori sono scoraggiati dall’ammorbidimento del pane raffermo con il latte, come accade in pasticceria, la morbidezza è generalmente associata alla freschezza. L’indurimento del pane è dovuto agli amidi, che ricristallizzano nel tempo. I panificatori a “marchio pulito” utilizzano enzimi per impedire la cristallizzazione degli amidi.

Figura 2. Chimici degli alimenti mentre controllano gli effetti dei conservanti sulla qualità del pane

Il controllo di un pane a base di pasta priva di conservanti deve tenere anche conto della manipolazione della pasta e della cottura. I panettieri commerciali accelerano il processo con ingredienti tipo esteri di mono- e di gliceridi dell’acido diacetiltartarico, noto come DATEM e oli vegetali parzialmente idrogenati che fanno lievitare una pagnotta in breve tempo.

Sul pane commerciale la lista di additivi è lunga ma si sta facendo strada da parte delle aziende nostre clienti, un movimento teso a ridurla”, dice Anieke Wierenga.

Anieke Wierenga

Consultare database di spezie è un modo con cui le aziende alimentari e i loro fornitori di ingredienti cercano conservanti con nomi “naturali”. Label Insight, azienda di database per gli ingredienti, elenca una serie di erbe e spezie comuni che “possono agire come conservanti”. L’analisi delle etichette degli ingredienti su prodotti da forno e salumi ha dimostrato che i produttori si stanno orientando su rosmarino, aglio, zenzero, cannella e chiodi di garofano.

Le aziende alimentari sono consapevoli fino dagli anni ’90 che più di mille piante sono potenziali fonti di composti antimicrobici, molti dei quali agiscono anche come antiossidanti.

Alla Kemin, un’industria di ingredienti alimentari dello Iowa, i ricercatori identificano conservanti naturali selezionando le piante riportate in letteratura anche in relazione alla medicina popolare, come quella a base di erbe cinesi, afferma William Schroeder, direttore del reparto R & S della Kemin. L’obiettivo è quello di trovare piante funzionali che i consumatori possano apprezzare e che siano facili da coltivare. “Abbiamo escluso una bacca che cresce solo in Groenlandia“, dice Schroeder.

Se il Gruppo trova una sostanza vegetale che funziona come antiossidante, cerca di determinare il tipo di azione. Schroeder afferma che gli antiossidanti possono funzionare in uno dei seguenti modi: la chelazione, il sequestro dei radicali liberi o delle specie reattive all’ossigeno.

Una volta che è stata individuata una pianta promettente, ci possono volere anche più di 10 anni per svilupparne un ingrediente alimentare commerciale, dice Schroeder. La Kemin cerca di identificare la molecola o le molecole responsabili dell’azione conservativa e produrre estratti che non siano dannosi alla salute e interferiscano poco o niente con gli aromi degli alimenti a cui verranno aggiunti. Se l’ingrediente non è conosciuto dalla Food and Drug Administration degli USA, la società può chiederne il riconoscimento ma la procedura è piuttosto lunga.

Il rosmarino, che contiene acido carnosico, potente antiossidante, è stato un primo successo della Kemin, secondo Schroeder. L’estratto di rosmarino e i tocoferoli, conosciuti dai consumatori come vitamina E, sostituiscono gli antiossidanti sintetici quali il butil idrossianisolo (BHA) e il terbutil idrochinone (TBHQ). Un esempio più recente è l’estratto di tè verde, che contiene polifenoli antiossidanti e catechine che possono inibire la crescita delle micotossine da funghi.

Poiché l’uso di estratti vegetali come conservanti incontra il favore dei consumatori, nuove aziende alimentari cercano di scavarsi delle nicchie. Per esempio, La Biosecur Lab, con sede a Montreal, è stata fondata nel 2000, ma è entrata nel mercato alimentare solo nel 2011. Sta commercializzando alternative naturali a base di estratti di agrumi, dice il presidente Yves Methot.

Yves Methot

L’anno scorso l’azienda ha introdotto FoodGard, un antimicrobico per frutta, succhi e dolci a base di frutta. “Il nostro momento era giunto: il prodotto era proprio quello che chiedeva il mercato”, continua Methot, “gli estratti esplicano il loro potere antimicrobico per l’alto contenuto di bioflavonoidi e polifenoli”. In combinazione con un carrier di glicerina, l’ingrediente può essere utilizzato in alimenti classificati organici2.

La nostra visione è quella di sostituire sostanze di sintesi, ma possiamo farlo solo se l’azienda alimentare desidera veramente avere una ”etichetta pulita“, sottolinea Methot, “se vogliono solo qualcosa che suoni naturale, non è difficile da realizzare ma i costi sono notevoli”.

La volontà delle aziende alimentari di spendere di più per avere ingredienti da etichette pulite varia a seconda del target. Se l’azienda sta lanciando un nuovo prodotto a marchio pulito, può accettare un costo maggiore per avere l’etichetta pulita“, dice Schroeder della Kemin. Al contrario, per un prodotto già sul mercato l’azienda può non essere incline a pagare di più per la sostituzione di qualche ingrediente nella nuova etichetta.

In alcuni casi, vantare etichette pulite vale il denaro e lo sforzo, afferma Lisa Y. Lefferts, scienziato senior del gruppo di difesa dei consumatori Center for Science in the Public Interest, CSPI. La ricercatrice raccomanda alle aziende alimentari di assegnare la priorità alla rimozione di BHA, nitriti, nitrati, propil gallato, e TBHQ, sostenendo che rappresentano un rischio per la salute, incluso il cancro.

Lisa Lefferts

Ci sono molti modi per garantire la sicurezza alimentare e la scadenza, senza utilizzare conservanti che aggiungono un possibile rischio alimentare.”, dice Lefferts. Suggerisce di sostituire gli antiossidanti sintetici con le vitamine C ed E. Il congelamento, il sottovuoto possono essere soluzioni alternative.

Kantha Shelke, scienziato dell’alimentazione, avverte che i consumatori potrebbero non essere pronti ad adattarsi a tutti i prodotti naturali a causa delle scadenze più corte. Inoltre, è preoccupato che i nuovi ingredienti che vengono immessi devono ancora dimostrare di essere innocui per la salute.

“Molte aziende hanno un additivo ‘speciale’, alcuni sono miscugli misteriosi, e mi interpellano per un parere”, continua Shelke: “Solo perché è naturale o ricavato da una pianta non significa che sia sicuro”.

Courtney Schwartz

Gli esperti concordano comunque che la domanda di ingredienti per etichette pulite sta crescendo. Courtney Schwartz, responsabile delle comunicazioni per le tecnologie alimentari della Kemin, afferma di attendersi che gli estratti vegetali rappresenteranno il 60% delle vendite dell’azienda in cinque anni, a partire da circa un terzo di oggi. “L’etichetta pulita è qualcosa che i consumatori esigono“, dice, Schwartz, “non solo dai marchi premium ma anche dai marchi famosi“.

Brevi considerazioni di RC all’intero post

L’articolo di Melody Bomgarner, prendendo lo spunto da un alimento ampiamente consumato negli USA, ci fornisce la tendenza odierna del consumatore americano medio nei confronti dei conservanti e degli additivi alimentari in generale. Ovviamente la grande produzione, sempre interessata al profitto, cerca di adeguarsi all’orientamento del consumatore e la preoccupazione di Kantha Shelke sulla necessità di indagini più approfondite su possibili effetti negativi dei “nuovi” conservanti “naturali” e sul loro dosaggio resta in secondo piano. Ma, a mio avviso, un altro aspetto della questione è stato trascurato. Mi riferisco alla percezione, a quanto pare sempre più estesa nel pubblico per cui “naturale” è buono e benefico mentre “chimico” è cattivo e maligno. Percezione che ovviamente le aziende si guardano bene da sfatare, il caso del succo di sedano vs. i cattivissimi nitriti è emblematico. Ricordo che anni fa, a un convegno di illustri pedagogisti feci presente che la vitamina C (acido ascorbico), estratta da agrumi (“naturale”) e quella di sintesi (“chimica”) allo stesso grado di purezza, hanno le stesse proprietà, sollevando più perplessità che curiosità…

Tre è meglio di due.

In evidenza

Claudio Della Volpe

Il termine trimolecolare o termolecolare, in chimica, si riferisce alla cosiddetta molecolarità, da non confondere con l’ordine di reazione.

L’ordine di reazione è la somma degli esponenti* delle concentrazioni che compaiono in una equazione cinetica, mentre la molecolarità si riferisce al numero di molecole che partecipano alla reazione elementare che ha luogo in ogni singolo step di un meccanismo di reazione. L’equazione cinetica, nella maggior parte dei casi si riferisce ad un meccanismo complesso e dunque perde ogni contatto con le molecolarità di un singolo step; le due quantità si ricollegano solo se si scrive l’equazione di una reazione elementare, cioè che si verifica così come la scriviamo; in quel caso la molecolarità e l’ordine di reazione (globale) coincidono.

Dice IUPAC:

The number of reactant molecular entities that are involved in the ‘microscopic chemical event‘ constituting an elementary reaction. (For reactions in solution this number is always taken to exclude molecular entities that form part of the medium and which are involved solely by virtue of their solvation of solutes.) A reaction with a molecularity of one is called ‘unimolecular’, one with a molecularity of two ‘bimolecular’ and of three ‘termolecular’.

Tuttavia le reazioni trimolecolari sono considerate così poco probabili da essere trascurabili nei loro effetti pratici e al di sopra di tre non ci si pensa neppure.

Ma un recente lavoro pubblicato su Nature Chemistry mette in discussione questa visione delle cose:

Si tratta di un lavoro teorico , non sperimentale, ma che applica modelli di calcolo comunemente condivisi (cinetiche a partire da calcoli ab initio, ossia ab initio master equations e simulazioni di cinetiche di trasporto) e che cerca di analizzare in maggiore dettaglio la situazione delle combustioni, dunque reazioni in fase gassosa; le conclusioni sono sorprendenti, in quanto mostrano che le reazioni trimolecolari sono molto importanti e potrebbero essere decisive in alcune circostanze. Ne segue che occorra riconsiderare il loro ruolo più in generale, specie nel contesto atmosferico.

Di cosa stiamo parlando?

Una reazione chimicamente termolecolare o trimolecolare è una reazione nella quale tre diverse molecole (e.g. H, O2, H) partecipano nella rottura e nella formazione di legami chimici. La reazione è mediata da un complesso di collisione effimero (HO2**) formato dalla collisione di due molecole (H, O2) che successivamente reagisce per collisione con una terza molecola (H).

‘Le reazioni “chimicamente trimolecolari” sono state ipotizzate per la prima volta nel 1920-30 da Sir Cyril Norman Hinshelwood e Nikolay Nikolaevich Semenov nei loro studi sulle reazioni a catena (chain reaction) (che comportarono la vittoria del Premio Nobel per la chimica 1956).

Per molto tempo i chimici hanno considerato queste reazioni poco importanti e non le hanno studiate.

Si veda per esempio la tabella di reazioni considerate in un lavoro classico:

La M corsiva indica un gas inerte.

Flame Structure and Flame Reaction Kinetics. I. Solution of Conservation Equations and Application to Rich Hydrogen-Oxygen Flames di G. Dixon-Lewis Proc. R. Soc. Lond. A 1967 298, 495-513 doi: 10.1098/rspa.1967.0117

In modo analogo l’elenco su questo quasi introvabile documento del JPL, citato anche su wikipedia ma in modo scorretto: https://jpldataeval.jpl.nasa.gov/pdf/JPL_02-25_3_termolec_rev01.pdf

Michael Burke della Columbia University, uno degli autori del lavoro ha dichiarato a SCI NEWSLe combustioni sono state spesso un punto di partenza per comprendere ogni tipo di altri meccanismi chimici.”

Finora sono state considerate solo tre classi di reazioni:

(i) unimolecolari, dove un solo reagente va incontro alla rottura o alla formazione di un legame chimico per dare diversi prodotti;

(ii) bimolecolari, dove due reagenti collidono e provocano rottura o formazione di legami per dare diversi prodotti;

(iii) reazioni di associazione termolecolari, dove due reagenti collidono per formare un complesso molecolare con un nuovo legame chimico fra i due reagenti e una terza molecola , conosciuta come gas inerte (bath gas) rimuove una parte dell’energia cinetica interna della molecola finale per stabilizzarla.

“Il gas inerte è in genere considerato appunto come inerte, non reattivo, che non partecipa nella formazione o nella rottura di alcun legame, ma serve invece a estrarre una parte dell’energia del complesso molecolare. Ma se invece il complesso molecolare collide con una molecola reattiva , allora la terza molecola può partecipare al processo di rottura-formazione, dando quello che viene chiamato un prodotto di una reazione chimicamente termolecolare

Il Dr. Burke ha aggiunto: “noi abbiamo mostrato l’importanza di reazioni che coinvolgono i complessi H + O2 con altre specie radicali come in. H + O2 + H, negli ambienti di combustione.

Dato che le molecole reattive, come i radicali liberi e l’ossigeno molecolare sono i costituenti principali nella combustione e in certi ambienti planetari, c’è una significativa posssibilità di accadimento di altre reazioni chimicamente trimolecolari e di giocare così un ruolo significativo in questi altri ambienti.”

Potenzialmente ci sono innumerevoli reazioni di questa nuova classe che hanno un ruolo in come modelliamo la chimica in fase gassosa, dalla progetazione di nuovi tipi di motori alla comprensione della chimica planetaria responsabile della formazione delle nuvole, del cambiamento climatico , dell’evoluzione degli inquinanti e perfino delle reazioni che possono portare alle condizioni di vita in ambienti extraterresteri. La nostra scoperta apre un intero nuovo mondo di possibilità

Da questa descrizione si capisce perché alcuni giornali hanno parlato di una “quarta” classe di reazioni implicata dal lavoro di Burke e Klippenstein.

L’articolo parte da un sistema analogo a quello considerato nello storico lavoro di Dixon e Lewis, una fiamma planare che si propaga in una miscela di aria e idrogeno a pressione e temperatura atmosferica

Per investigare il ruolo della reazione H + O2 + R in queste fiamme, gli autori hanno quantificato la distribuzione di energia dell’HO2 che reagisce con R all’interno della fiamma, si sono chiesti se le condizioni scelte da Dixon e Lewis erano necessarie all’accadimento del processo H + O2 + R cambiando alcuni dei parametri e infine se la reazione come tale poteva influenzare la reattività generale.

Le risposte ottenute modificano il quadro che avevamo di questi processi e indicano che il processo termolecolare in cui il terzo reagente NON è un gas inerte sono importanti in linea generale e che le reazioni termolecolari non servono solo a stabilizzare il complesso bimolecolare.

Si tratta di un lavoro che, se confermato, potrebbe avere effetti culturali molto ampi e al momento non prevedibili.

Come spieghiamo a Giavazzi ed Alesina e a tutti i riformatori che vogliono solo “più scienza applicata” che la scienza di base come il lavoro teorico di Burke e Klippenstein può cambiare non solo la teoria chimica, ma la pratica di milioni di reazioni utili? Voi che ne dite?

********************************************************

* non vorrei entrare tanto nel dettaglio, ma, come si sa, l’ordine di reazione così definito è detto anche globale, mentre il singolo esponente di una specie è l’ordine di reazione parziale, per quella specie; dato che la molecolarità è globale per la reazione elementare considerata si comprende come l’ordine di reazione globale e la molecolarità di una reazione elementare possano coincidere.

Inquinamento ospedaliero.

In evidenza

Luigi Campanella, ex Presidente SCI

Un aspetto interessante e sempre più discusso dell’inquinamento riguarda l’ambiente indoor, che poi in termini statistici di ore trascorse dall’uomo supera l’outdoor (più o meno  15 a 9 hr per giorno).

Un ambiente indoor molto specifico per il tipo di inquinanti che lo affliggono e per la gravità dei danni prodotti,in quanto esercitati su comunita di cittadini più deboli è quello degli ospedali. In un ospedale poi ci sono punte e nature di preoccupazione e di attenzione diverse rispetto ai locali interessati. Per alcuni, le sale operatorie ad esempio, le specificitá di inquinanti e di gravità dei danni prodotti giá ricordate assumono connotati ancor più drammatici in quanto gli esposti oltre ai  sanitari, sono i malati, per di più operati.

Ci sono poi i locali di minore rischio,se non altro potenziale, ma dove le frequenze di presenza sono più elevate,come sale di attesa o di pronto soccorso, uffici amministrativi, infermerie.

Tornando  alle sale operatorie l’uso di anestetici può comportare un potenziale inquinamento ambientale con conseguente esposizione sia dei lavoratori che dei malati che va attentamente considerata ai fini del rispetto dei limiti stabiliti da normative vigenti e/o consigliati dai competenti organismi nazionali e internazionali. Va adottato, come criterio di prevenzione, il principio di massima cautela affinché l’esposizione  a prodotti chimici volatili pericolosi sia ridotta al minimo possibile o eliminata attraverso pratiche preventive e/o correttive.

Le acquisizioni scientifiche hanno dimostrato che alcuni gas anestetici, come il protossido d’azoto (N2O), presentano tossicità maggiore dei liquidi volatili anestetici (sevoflurano, desflurano ecc.), e pertanto sarebbero da evitare  con la conseguenza di un aumento della presenza in atmosfera di residui di  altri agenti anestetici, in particolare degli alogenati , fra i più comuni. Riguardo all’esposizione ad essi l’unica “raccomandazione ” riguarda un limite di 2 ppm quale valore “ceiling” per l’insieme degli anestetici alogenati,intendendo per valore di ceiling la concentrazione che non deve essere superata in qualsiasi momento dell’esposizione lavorativa. Tale raccomandazione fa riferimento alle ben 102 altre pubblicate dal Niosh (National Institute for Occupational Safety and Health) statunitense (1976) in merito al valore di concentrazione di agenti anestetici clorurati che potrebbero essere considerato alla stregua di un protocollo di  ottimizzazione dei requisiti di qualità.

È opportuno precisare che le indicazioni del Niosh – in riferimento alla raccomandazione sul valore limite indicato per “l’insieme degli anestetici alogenati” – sono da intendersi riferite a prodotti impiegati nel periodo storico suddetto, ovvero alotano (fluotano) ed enflurano (etrano), attualmente non più usati. Tra gli anestetici inalatori più usati nella pratica clinica vi sono sevoflurano e desflurano per i quali, tuttavia, non è stato ancora delineato un completo profilo tossicologico e, di conseguenza, definiti i valori “limite di esposizione”. Poiché comunque nelle misure di prevenzione è opportuno adottare il principio per il quale l’esposizione professionale a prodotti chimici pericolosi sia mantenuta entro i livelli più bassi possibili, a fini cautelativi è opportuno, anche per quanto attiene ai liquidi volatili anestetici di nuova generazione (per esempio, sevoflurano e desflurano), contenerne i valori di concentrazione ambientale entro i livelli più bassi possibili.

https://www.slideshare.net/kathikkhan0484/indoor-air-quality-in-hospitals

I composti organici alogenati sono fra quelli più sensibili alla degradazione fotochimica in quanto aggredibili dai radicali liberi dell’ossigeno prodotti dall’azione della luce di opportuna lunghezza d”onda (radiazione ultravioletta) sulle molecole dell’ossigeno e dell’acqua assistita da un catalizzatore semiconduttore (ad esempio biossido di titanio). Ecco perchè possono trovare un ‘applicazione importante  le pitture fotocatalitiche delle pareti delle sale operatorie,analogamente per quanto è avvenuto perl’inquinamento outdoor con il cemento fotocatalitico brevettato proprio da italiani.

Un ultimo aspetto riguarda il monitoraggio di questi inquinanti negli ambienti ospedalieri. Si deve eseguire il prelievo/campionamento garantendosi che le condizioni sperimentali del campione analizzato non siano diverse significativamente da quelle originali comportando il possibile riavvio di reazioni che si erano arrestate o anche lo start di nuove reazioni,ad esempio-ed è proprio questo il caso in questione-attivate dalla luce capace di promuovere le reazioni radicaliche secondo un meccanismo  a catena. Il fatto poi che i radicali terziari,secondari e primari abbiano attività diverse ai fini della clorurazione porta ad ulteriori complicazioni analitiche.Per evitare quindi di analizzare un campione che potrebbe non essere rappresentativo della matrice campionata è necessario procedere ad una sua stabilizzazione.

Siccità e gestione del ciclo idrico.

In evidenza

Mauro Icardi

Non sono ancora noti e definitivi i dati meteorologici dell’estate 2017. Ma dal punto della percezione possiamo certamente dire che il 2017 è stato un anno decisamente deficitario dal punto di vista delle precipitazioni.

Anche nella zona di Varese, da molti ricordata come una zona particolarmente piovosa la siccità sta causando problemi.

Il sito del Centro Geofisico Prealpino di Varese mostra a fine Luglio 2017 un deficit pluviometrico pari a 161,5 mm di pioggia da inizio anno. Tutti i mesi mostrano un deficit di pioggia caduta rispetto alle medie del periodo 1965-2012 ad eccezione del mese di Giugno in cui il saldo diventa positivo, ma con fenomeni di piogge torrenziali che hanno creato non pochi danni e problemi. E risultando in ogni caso il più caldo della media del trentennio 1981-2010.

http://www.astrogeo.va.it/statistiche/statmet.php

La tendenza è quindi quella di siccità prolungate, interrotte da fenomeni di precipitazioni violente e concentrate nel giro di poche ore.

Questo provoca diversi problemi nella gestione di impianti sia di potabilizzazione che di depurazione.

Il primo e più evidente è quello di trasporto di quantità ingenti di sabbie e residui di dilavamento delle aree asfaltate che spesso mettono in sofferenza le sezioni di dissabbiatura. Repentine variazioni di portata portano situazioni di criticità dovute a variazione dei tempi di ritenzione delle varie sezioni, dilavamento per trascinamento e elevato carico idraulico sul comparto di sedimentazione finale.

Situazioni gestibili in maniera più agevole in impianti dotati di vasche di omogeneizzazione.

La situazione inversa si verifica in periodi prolungati di siccità, ed è ormai una situazione abbastanza comune. La portata dei fiumi si riduce notevolmente, e la concentrazione di inquinanti può aumentare sensibilmente. Il tema non è nuovo. Basta vedere questo articolo che risale al 2012.

http://www.ilgiorno.it/monza/cronaca/2012/08/23/761925-siccita_inquinamento_selvaggio.shtml

Questo tipo di situazione e a buon diritto da ascriversi a quella degli inquinanti emergenti.

Gli impianti di depurazione possono scaricare acque perfettamente a norma dal punto di vista delle normative di settore. Ma con un impatto molto elevato sulla qualità ecologica, perché viene a mancare quello che è l’effetto depurativo residuo effettuato dalle comunità ecologiche dei fiumi.

Questa è stata la filosofia costruttiva e progettuale fino ad oggi. Ma gli effetti del cambiamento del clima devono far ripensare la progettazione, ed eventualmente la modifica degli impianti esistenti.

Il progetto Carbosorb che si basa su nanotecnologie è in fase di studio e sviluppo. Occorrerà valutarne le potenzialità applicative reali. In ogni caso i depuratori del futuro dovranno avere una fase di trattamento terziario molto efficiente.

http://cordis.europa.eu/result/rcn/88683_it.html

Si tratterà di combinare trattamenti tradizionali basati sulla depurazione a fanghi attivi, con una fase di trattamento che sfrutterà il fenomeno dell’adsorbimento.

Il termine “siccità” se digitato in questi giorni su un motore di ricerca produce migliaia di risultati, che mostrano una specie di bollettino di guerra. Soprattutto le zone dell’Emilia Romagna ne sono state molto colpite. Ma se si pone attenzione si può notare come molti corsi d’acqua siano in sofferenza, e le immagini in qualche caso lasciano sgomenti. Questa foto è stata scattata da me sul Fiume Tresa, che è emissario del lago di Lugano e si getta poi nel Lago Maggiore. Fiume di lunghezza modesta, solo 13 km.

Ma si nota bene di quanto il livello si sia abbassato rispetto al consueto. Questa parte del fiume è una zona d’invaso della centrale centrale idroelettrica di Creva, che come molte altre è entrata in sofferenza.

Situazione descritta in questo articolo.

http://www.lastampa.it/2017/08/15/scienza/ambiente/inchiesta/lidroelettrico-ai-tempi-della-siccit-W7H8cHvppNPoRb8w2XHf5L/pagina.html

Ma lo stesso giorno della mia gita in bicicletta lungo il Tresa ho potuto scattare un’altra foto che da l’idea di cosa sia la siccità. Scattata a Luino, sponda Lombarda del Lago Maggiore.

Qui occorre guardare la parte più consumata del palo d’ormeggio dove di solito arrivava il livello dell’acqua, e vedere dove invece adesso è il livello del lago, guardando dove l’acqua lo lambisce. Bisogna immaginare questa situazione per tutti i 215,2 km2 del bacino. Qui vi è una situazione complicata anche da una sorta di piccola guerra dell’acqua tra Italia e Canton Ticino sulla regolazione della diga della Miorina a Sesto Calende.

http://www.lastampa.it/2017/08/07/edizioni/verbania/la-pianura-ha-sete-il-lago-maggiore-si-abbassa-di-centimetri-al-giorno-v0tqfVcqakGPIS3F3CNL5K/pagina.html

E credo che le immagini, come gli articoli a corredo non abbiano bisogno di ulteriori commenti. E’ una realtà che dobbiamo affrontare. Coinvolge molti soggetti. Politici, cittadini, gestori del ciclo idrico, agricoltori. Pone a me personalmente molte domande e riflessioni. E la voglia di aumentare il mio impegno quotidiano. Lavorativo e divulgativo.

Vorrei a questo proposito citare quanto scritto dal Professor Camillo Porlezza dell’università di Pisa nella prefazione di un libro sul trattamento delle acque, prefazione dal titolo “Il chimico idrologo e la difesa delle acque”:

Chiudendo questa prefazione introduttiva, ritengo possa riscontrarsi accanto all’interessamento per un problema importantissimo per il pubblico e per i privati, il riconoscimento delle responsabilità che il chimico si assume nel suo contributo di pensiero e di lavoro all’opera di prevenzione e di repressione delle cause di inquinamento, in ciò validamente aiutato dagli esperti negli altri rami della scienza, specialmente nel campo biologico”.

Ultimamente nelle analisi di acque di pozzi di emungimento destinate ad uso potabile mi capita di riscontrare la presenza, quantificabile strumentalmente, di parametri che in passato non riscontravo. Ammonio e manganese in particolare. Non a livelli elevati e molto al di sotto dei limiti di parametro, ma questo mi ha spinto a voler verificare i risultati con metodi diversi per validare e confermare il dato. La premessa non è fatta per vanità, ma per mettere in luce il fatto che sul tema acqua occorre porre molta attenzione anche alle acque di falda, alle loro eventuali vulnerabilità. E il tema si lega alla modifica del regime delle precipitazioni, ai diversi tempi di ricarica di acquiferi e falde freatiche.

Si usa per l’acqua il termine “oro blu” da almeno un ventennio. L’acqua è contesa, per l’acqua si fanno guerre, per l’acqua si può dover emigrare e diventare profughi climatici.

Nel 1976 un film di fantascienza, “L’uomo che cadde sulla terra” racconta l’arrivo sulla terra di un alieno, interpretato da David Bowie, che una volta che è stata scoperta la sua vera identità pronuncia queste parole a chi gli chiede il perché si trovi sulla terra:

Io vengo da un mondo spaventosamente arido. Abbiamo visto alla televisione le immagini del vostro pianeta. E abbiamo visto l’acqua. Infatti il vostro pianeta lo chiamiamo “il pianeta d’acqua”. »

Il nostro pianeta è ancora un pianeta d’acqua. L’acqua ha un suo ciclo. L’acqua si rinnova. Ma qualcosa sta cambiando e sappiamo che la disponibilità di acqua non è uguale per tutti i popoli della terra in ugual misura. Sappiamo che è minacciata da inquinamento diffuso. Non possiamo far finta di niente.

Mi ha molto colpito, e ancora mi ricordo questo episodio, una cosa successa solo un paio di mesi fa. Durante un raduno cicloturistico che si è svolto a Varese ho prestato servizio come volontario per l’accoglienza dei partecipanti. La partenza delle varie escursioni ciclistiche era fissata ai giardini estensi di Varese. Molti partecipanti chiedevano di riempire la borraccia prima della partenza. Per far questo avevano a disposizione i servizi del comune, ed in particolare il lavabo con l’acqua potabile. Quando li indirizzavo a quel lavandino, in molti rifiutavano e partivano con la borraccia vuota. Eppure da quel lavabo sgorga acqua potabile. La stessa che viene fornita a tutta la città di Varese. Incredibile come questa sorta di repulsione emozionale impedisse loro di rifornirsi di acqua.

Vorrei ricordare alcune cose:

2 milioni di bambini muoiono ogni anno per consumo di acqua insalubre e per le cattive condizioni sanitarie,

800 milioni di persone non hanno acqua potabile in casa,

2,3 milioni di persone vivono in paesi a rischio idrico, cioè con una disponibilità di acqua inferiore ai 1700 m3 all’anno.

Un italiano in media consuma 40 litri per fare una doccia, mentre per i 2/3 dell’umanità 40 litri rappresentano il consumo di intere settimane.

Pensiamoci.

La lunga strada verso i conservanti naturali negli hot dog. Parte I – La carne

In evidenza

Rinaldo Cervellati.

I consumatori vogliono etichette chiare, ma garantire sicurezza alimentare e lunga scadenza senza conservanti di sintesi è una vera sfida.

Così il sottotitolo del recente articolo a firma Melody M. Bomgarner, apparso sul n. 31 di Chemistry & Engineering newsletter on line il 25 luglio scorso.

Come noto a tutti, hot dog è un termine folkloristico, ormai entrato nell’uso comune, con cui negli Stati Uniti e in Gran Bretagna si indica un insaccato analogo al würstel, generalmente servito all’interno di un panino di forma oblunga, spesso condito con ketchup, maionese o senape,  e talvolta accompagnato da verdure. Meno persone sanno invece che mentre in USA e in Gran Bretagna il termine hot dog indica semplicemente la salsiccia, in molti Paesi Europei questa locuzione si usa esclusivamente per intendere la pietanza nel suo complesso, ossia il panino, l’insaccato e le eventuali salse di accompagnamento. Ciò nonostante l’ingrediente principale dell’hot dog, la salsiccia, è ampiamente commercializzata dalla grande distribuzione praticamente in tutto il pianeta così che un hot dog fatto in casa non si nega a nessuno…

Oscar Mayer, il marchio-icona degli hot dog negli Stati Uniti vanta ora salsicce prive di nitrati, nitriti o altri conservanti artificiali, e la casa madre Kraft Heinz afferma che la tendenza a pretendere etichette chiare e pulite è ormai un fatto assodato.

Greg Guidotti responsabile del marketing, illustrando il lavoro del marchio Oscar Mayer, ha affermato che si è trattato di un’impresa che ha richiesto più un anno di sperimentazioni di ricette per arrivare a un prodotto che, senza aggiunta di additivi sintetici, ha mantenuto lo stesso aroma e lo stesso prezzo delle precedenti versioni.

Greg Guidotti

Ma la ricetta potrebbe cambiare di nuovo. I lettori attenti delle etichette si accorgeranno che i nuovi hot dog (chiamati frankfurters) contengono succo di sedano, una fonte naturale di nitriti, in sostituzione del conservante nitrito di sodio aggiunto nel prodotto precedente. Negli Stati Uniti, le regole di etichettatura permettono che il succo di sedano sia elencato come un aroma naturale, ma è richiesta una dichiarazione di responsabilità in merito all’utilizzo di prodotti naturali contenenti nitriti. Per ora, il succo di sedano è un’alternativa attraente per i produttori di carne perché suona come un cibo piuttosto che un additivo chimico.

Oggi, sia le aziende che gli acquirenti vogliono vedere “nomi riconoscibili sulle etichette”, spiega Anieke Wierenga, direttore senior dell’innovazione alimentare presso la società olandese Corbion e confessa: “Come industria alimentare, non abbiamo la piena fiducia dei nostri consumatori. Vogliono controllarci e sapere cosa c’è dentro ciò che acquistano “.

In figura sono mostrati i principali additivi naturali e sintetici utilizzati nell’industria delle carni lavorate e del pane.

I giganti alimentari tra cui Kraft Heinz, General Mills e Nestlé stanno impegnando tempo e risorse nella rielaborazione delle loro ricette al fine rimuovere i coloranti e gli aromi artificiali per offrire un prodotto più naturale. La modifica dei conservanti richiede costi molto più alti perché nessuno vuole rischiare con la sicurezza alimentare. L’industria sta valutando ingredienti a base di piante, ma potrebbero volerci anni prima di ottenere una soluzione naturale per ogni problema di conservazione degli alimenti.

Gli esperti del settore sottolineano infatti che non è possibile produrre alimenti privi di qualsiasi microrganismo e, anche se non tutti sono dannosi, alcuni batteri o funghi possono produrre enterotossine, aflatossine e tossine botuliniche mortali.

Ecco perché l’industria ha utilizzato (e utilizza) antimicrobici sintetici – nitrato di sodio, benzoato di sodio, propionato e simili – per eliminare tutta una gamma di batteri, lieviti e funghi. Sono poco costosi, ne servono piccole quantità e sono sicuramente efficaci.

Ma l’universo della conservazione è andato oltre gli antimicrobici. Ci sono antiossidanti per evitare l’irrancidimento di grassi e oli, acidulanti che abbassano il pH degli alimenti per regolare l’acidità, e ingredienti che mantengono colore, sapore e umidità durante la conservazione del prodotto.

“La sfida di eliminare conservanti sintetici a favore di quelli naturali è enorme”, spiega Kantha Shelke, scienziato alimentare e consulente dell’istituzione privata Corvus Blue che si occupa di ricerca e sviluppo di additivi, “l’industria alimentare non è ancora ben consapevole, anche se sta impegnandosi su questa strada”.

Per soddisfare i requisiti del marchio pulito, la Corbion Food Ingredients ha accelerato i suoi sforzi di ricerca e sviluppo. Dice Anieke Wierenga, direttore senior della Corbion: “Prima di ‘etichetta pulita’ potevamo offrire solo uno o due prodotti per soddisfare questa necessità, ora l’offerta per i clienti è più di dieci prodotti all’anno”.

In alcuni casi, un ricercatore può sviluppare ingredienti naturali per vedere poi che le preferenze dei consumatori cambiano di nuovo. Ad esempio, la Corbion ha prodotto acido lattico di fermentazione naturale per controllare la Listeria[1] nei prodotti a base di carne. Ma di recente, le aziende del settore alimentare hanno scoperto che i lattati non soddisfano i criteri di “naturalità” di molti consumatori. Questi preferivano l’acido acetico, etichettato come aceto.

Il problema è che l’aceto ha un sapore aspro, a differenza dei lattati che sono quasi senza sapore, tuttavia le ricette di alcuni alimenti dovevano essere rinnovate per tener conto di entrambe le necessità.

“Ora i nostri clienti vengono da noi prima del processo di formulazione dei prodotti alimentari con la convinzione che possiamo aiutarli”, dice Anieka, affermando: “Il team R & D della Corbion ha sviluppato aceti personalizzati, alcuni con destrosio fermentato, per fornire il giusto profilo sensoriale e tenere sotto controllo la Listeria.”

Gli ingredienti che la Corbion utilizza insieme all’aceto per la conservazione dei prodotti a base di carne includono l’estratto di tè al gelsomino, un antiossidante, e agrumi in polvere che impediscono la fuoriuscita di umidità dal prodotto.

Se i consumatori dovessero individuare il succo di sedano come fonte di nitriti negli hot dog e in altri prodotti a base di carne macinata, i produttori vivranno un momento difficile. L’uso di nitriti in carni macinate è stato bandito perché possono formare nitrosammine che causano il cancro. L’effetto sanitario è lo stesso indipendentemente dalla provenienza dei nitriti.

“Sostituire i nitriti, è difficile”, ammette Wierenga, “dato che svolgono un ruolo importante nel prevenire la formazione della tossina botulinica. “L’industria è abbastanza lontana dalla soluzione di questo problema”.

Una strategia per avvicinarsi alle “etichette pulite” è sostituire alcuni conservanti sintetici con ingredienti naturali, mantenendo comunque uno o due dei vecchi conservanti, e questa strategia è nota come ‘approccio misto’.

“Forse si potrebbe prevedere un declino dell’uso di prodotti contenenti conservanti sintetici a favore di quelli formulati con conservanti naturali, ma non lo abbiamo notato con i nostri prodotti”, afferma Paul Hogan, vice presidente della Emerald Kalama Chemical, produttore di conservanti a base di benzoati. A sostegno dell’affermazione, Hogan riporta una ricerca di mercato secondo cui dal 2012 al 2016 il numero di nuovi prodotti alimentari contenenti benzoato di sodio è aumentato dell’86%, a fronte delle richieste di conservanti naturali aumentata del 69%. Poiché la dicitura “tutto naturale” su un’etichetta alimentare non è legale negli Stati Uniti, le decisioni relative alla “naturalità” degli ingredienti sono lasciate al marchio alimentare. Al contrario, l’uso di prodotti sintetici per la conservazione non è consentito negli alimenti certificati come organici[2].

I condimenti, che tendono a rimanere nelle cucine dei consumatori per mesi, se non anni, beneficiano dell’approccio misto, dice Hogan. La senape spesso contiene sia l’aceto che il benzoato di sodio perché “l’aceto da solo non fornisce il livello di controllo microbico necessario per prevenire il deterioramento causato da una lunga conservazione”.

[1] La Listeria è un batterio Gram-positivo che produce una tossina pericolosa per la salute.

[2] Lascio il termine inglese “organic” perché tutte le volte che sento dire o vedo scritto “biologico” o “bio” metterei mano a una pistola, come disse un tizio da cui peraltro sono lontano anni-luce…

Il problema non è il fipronil.

In evidenza

Claudio Della Volpe.

Il caso fipronil che si è scatenato in questi giorni fa intravedere, a chi lo legge fra le righe, alcuni dei meccanismi che si attivano attorno alla chimica e che condizionano la nostra esistenza come chimici e come cittadini.

Cosa è successo? Il fipronil è un insetticida   nome comune fluocianobenpirazolo è un insetticida ad ampio spettro che disturba l’attività del sistema nervoso centrale dell’insetto impedendo il passaggio degli ioni cloruro attraverso il recettore del GABA e il recettore del Glu-Cl. Ciò causa la ipereccitazione dei nervi e dei muscoli degli insetti contaminati.

La selettività d’azione del fipronil nei confronti degli insetti dipende da un’efficacia maggiore a livello dei recettori del GABA ma anche dal fatto che i recettori del Glu-Cl non esistono nei mammiferi.

Il fipronil è un veleno a lenta attività d’azione: una volta inserito in un’esca, l’insetto viene avvelenato ma non muore istantaneamente ma ha il tempo di ritornare alla colonia o nella tana.

Si lega al sito allosterico dei recettori del GABA e al recettore del Glu-Cl (quest’ultimo presente nell’insetto e non nei mammiferi), bloccando o alterando la trasmissione nervosa dell’insetto. Nei mammiferi e vertebrati può essere dannoso grazie ai metaboliti e al fatto che un uso scorretto ha recentemente provocato danni ai produttori di uova. Usato per la disinfestazione del pidocchio rosso (in realtà un acaro) nella produzione industriale di uova e allevamenti di ovaiole il Fipronil si è rinvenuto come residuo indicando così l’impiego illegale. Per la disinfestazione delle galline ovaiole, anche a livello industriale, è bene impiegare l’alternativa rappresentata dal calore

Tutto questo lo trovate su wikipedia.

E’ pericoloso per l’ambiente e ovviamente per tutti gli insetti impollinatori. Altre informazioni generali le trovate qui o qui.

Eppure si tratta di una sostanza che si usa negli animali da compagnia, come gatti e cani ma di cui è proibito l’uso per gli animali che entrano nel ciclo alimentare umano, come le galline.

La spiegazione è sempre la solita; usandolo opportunamente il fipronil eventualmente accoppiato con altre sostanza repellenti tiene lontani i parassiti dai nostri beniamini; se usato in modo massivo in animali da cortile però la dose che può raggiungere i tessuti degli animali e di seguito i nostri si avvicina pericolosamente a valori non tollerabili; inoltre in questo modo è più difficile evitarne la circolazione nel’ambiente; insomma il fipronil va bene se usato correttamente. Siamo sempre a quel concetto base che lega chimica e medicina: è la dose che fa il veleno. Semplice.

Cosa è successo?

La lotta al pidocchio rosso (e ai parassiti delle galline) diventa necessaria quando le condizioni di vita delle galline ovaiole non sono più quelle della nostra infanzia, l’orto di casa o l’orto del piccolo contadino, ma il grande capannone indstriale dove le galline sono ammucchiate letteralmente le une sulle altre; in questo caso l’uso dell’insetticida si rivela meno costoso del metodo fisico “termico”, ma è vietato dalla legge.

Si sa la concorrenza è dura e allora qualcuno si fa furbo.

The Public Prosecutor consider three Dutch persons suspects in the fipronil contamination scandal that resulted in millions of eggs being recalled from supermarkets. The suspects are two managers of pest control company ChickFriend and Nick H., whose company is suspected of delivering fipronil to the Barneveld company, NOS reports. ChickFriend is considered the source of the fipronil contamination in the Netherlands.

The authorities believe that H.’s company, called Pro-farma according to the Telegraaf, delivered fipronil to Chickfriend as well as a Belgian chicken farmer in feed form. Containers marked with the company’s name were found at ChickFriend. On Pro-farma’s website the feed delivered to the Belgian farmer is described as “positive for the immune system” of chickens.

H.’s home in Mill, Noord-Brabant was one of the addresses raided in the fipronil investigation on Thursday. H. was not home at the time. He told the Telegraaf from his vacation home that he is innocent. He blames Patrick R. – the owner of the Belgian company also believed to have delivered fipronil to ChickFriend – for everything. H. and R. used to own a company together, but had a falling out. According to H., his company’s name was found at ChickFriend because R. is illegally using it.

(http://nltimes.nl/2017/08/11/three-dutch-suspected-fiiponil-scandal)

Alcuni furbissimi venditori di insetticidi olandesi (Pro-farma e Chickfriend, a Barneveld un comune di 50.000 abitanti in Olanda, due dei cui dirigenti sono stati arrestati) ed altri ancor più furbi industriali delle uova Poultry Vision nel territorio fra Belgio e Olanda, hanno deciso di saltare il fosso.

Il sito web dell’azienda è al momento indisponibile (http://www.chickfriend.nl/).

Per capire da dove è partito tutto è necessario fare un passo indietro al 22 luglio, nelle sonnolente campagne del Gelderland, la zona rurale più ad est dei Paesi Bassi e della provincia di Anversa, in Belgio. All’alba, le autorità per la sicurezza alimentare dei due Paesi fanno contemporaneamente irruzione in diversi anonimi capannoni dell’industria agro-alimentare locale. Ma tanto gli olandesi quanto i belgi puntavano, rispettivamente, a due aziende del settore avicolo: Chickfriend e Poultry-Vision. La prima è la società olandese che ha prodotto il pesticida ottenendo all’ingrosso il prodotto mescolato con fipronil dalla seconda, che ha sede in Belgio e si occupa di pulire i pollai eliminando zecche e parassiti, che incidono negativamente sul volume della produzione.

Tanto la Federaal Agentschap voor de veiligheid van de voedselkete (FAVV), autorità per la sicurezza alimentare di Bruxelles, quanto la controparte olandese Voedsel-En Warenautoriteit (NVWA) cercavano conferme a un’informazione che il procuratore di Anversa aveva sul tavolo già da tempo: la presenza di uova contaminate da un pesticida vietato, l’ormai noto fipronil, un prodotto ampiamente utilizzato per animali domestici ma vietato nell’industria alimentare e classificato dall’Oms come “moderatamente tossico” per gli esseri umani. Quelle uova, avrebbero poi accertato nelle Fiandre, provenivano da allevamenti olandesi. Le due autorità non fanno un buco nell’acqua: nel giorno dell’ispezione, i belgi arrestano il proprietario di Poultry-Vision con l’accusa di frode e i colleghi nei Paesi Bassi mettono i sigilli a sei società che producono uova e alla Chickfriend. Il composto utilizzato dalla ditta di Anversa non sarebbe stato pesticida al 100%, ma una miscela di insetticidi consentiti e di fipronil.

Secondo gli inquirenti gli scenari possibili sono due: il primo è che la stessa Chickfriend non sapesse che stava utilizzando prodotti non consentiti, l’altro è che Poultry-Vision abbia offerto un prodotto economico a scapito della sicurezza dei consumatori con il beneplacito della società di Barnveld. Quest’ultima è la versione dell’autorità olandese NVWA, agenzia finita sotto il fuoco incrociato del Parlamento de l’Aja e della Commissione europea per non aver controllato a dovere la qualità delle uova immesse sul mercato unico europeo. D’altronde l’Olanda è il più grande esportatore di uova del continente e uno dei principali al mondo, con una fetta di mercato del 12%. Per questo motivo la gestione della crisi – fin dai primi focolai – a metà tra l’allarmismo e l’invito alla calma, è sembrata a tutti molto amatoriale. A partire dalla manciata di codici di uova da non mangiare pubblicati il 1° agosto sul sito di NVWA e dalle poche informazioni comunicate: sentita da IlFattoQuotidiano.it lo stesso giorno, l’autorità olandese aveva minimizzato tanto i rischi quanto la reale diffusione delle partite contaminate. Se il pericolo per la salute è rimasto comunque sotto la soglia di rischio, l’incidente con l’azienda di provincia è diventato un caso continentale.

(http://www.ilfattoquotidiano.it/2017/08/12/uova-al-fipronil-allarmi-negati-e-tagli-ai-controlli-la-gestione-amatoriale-della-crisi-di-olanda-e-belgio/3790221/)

Qualcuno mi dirà: ma Della Volpe non lo sai che dal 2012 le galline non si possono più allevare in batteria?

C’è infatti una disposizione europea, ma che sfortunatamente non è rispettata nella maggior parte dei paesi.

Dice la LAV (http://www.lav.it/download.php?t=files&id=4453)

Ogni anno sul territorio dell’Unione Europea vengono allevate oltre 400 milioni di galline ovaiole, circa il’68% delle quali sono rinchiuse nelle gabbie di batteria degli allevamenti intensivi. La natura sterile e altamente restrittiva di queste gabbie non consente alle galline di esprimere la maggior parte dei normali modelli di comportamento, quali la ricerca del foraggio, la cova delle uova nei nidi, beccare sul terreno, distendere le ali. La mancata soddisfazione di tali primari bisogni determina negli animali un alto grado di frustrazione e stress.

Ogni gallina dovrebbe avere a disposizione uno spazio di soli 550 cm2, ma molto spesso, in violazione delle leggi, tale spazio è addirittura di 450 cm2, di poco inferiore a quello di un foglio a A4, nel quale è impossibile per l’animale compiere movimenti naturali, stirarsi, aprire le ali o semplicemente girarsi nella gabbia senza difficoltà. L’impossibilità di soddisfare bisogni etologici primari, unita all’elevato livello di produzione di uova cui sono sottoposti questi animali, determina nelle galline di batteria fragilità delle ossa e molte di loro soffrono per la rottura delle stesse nell’arco della vita di circa un anno, prima di essere inviate al mattatoio.

La Direttiva Europea del 1999 sulla protezione delle galline ovaiole negli allevamenti ha introdotto il bando delle gabbie di batteria convenzionali a partire dal 1° gennaio 2012. La Direttiva rappresenta una storica vittoria per il movimento animalista, ma l’enorme miglioramento delle condizioni di vita degli animali che questa comporta è minacciato dall’industria avicola, che chiede di ritardare ulteriormente il bando delle gabbie di batteria. L’industria è preoccupata dalla crescita dei costi ma la Commissione Europea, con un apposito studio sull’impatto della Direttiva, ha dimostrato che tali preoccupazioni non hanno ragion d’essere. L’industria avicola ha avuto ben 11 anni di tempo per organizzare una riconversione ma quasi nulla è stato fatto anzi, sono state perseguite politiche volte a posticipare tale data e ad ostacolare in ogni modo tale cambiamento.

Mentre è facile capire se le uova come tali provengano da una zona o da un’altra (il codice di provenienza è stampato su tutte le uova) è praticamente impossibile capire da dove provengano i derivati delle uova; la legge non protegge il cittadino su questo aspetto se non indirettamente.

Dice un esperto di questi temi Rolando Manfredini di Coldiretti:

http://www.ilfattoquotidiano.it/2017/08/11/uova-contaminate-scandalo-detichetta-e-di-sostanza-coldiretti-lue-e-debole-e-incline-alle-ragioni-della-grande-industria/3789932/

E’ soprattutto una storia che si ripete col consumatore, che è il terminale ultimo di tutta la filiera produttiva, lasciato solo e senza possibilità di difesa. Nel caso specifico può cautelarsi dall’assumere le uova contaminate guardando il Paese d’origine sull’etichetta. Per tutti i prodotti derivati e lavorati però non c’è niente di simile: o prende le uova e si fa in casa la pasta e le merendine oppure deve fidarsi. Noi consigliamo sempre di rivolgersi a un produttore della filiera corta. Ma altri consigli non so darne, perché autorità e istituzioni non danno altre certezze”.

Perché in Europa la battaglia per avere una tracciabilità totale degli ingredienti non è mai passata. “Bruxelles l’ha vista come una sorta di attentato alla libera circolazione delle merci. Concetto che nasconde in realtà l’interesse degli industriali della trasformazione a potersi rifornire dove meglio credono e meno spendono, senza dover dare indicazioni. Tantomeno al consumatore finale”. Ed ecco servito il pasticcio perfetto: se l’uovo tossico è entrato nel circolo nei lavorati vai a sapere dove è finito.

“In realtà le autorità sanitarie europee hanno i mezzi per ricostruirlo e lo stanno facendo, come dimostrano i sequestri. Ma quello che non può farlo è chi se le deve mangiare, il cittadino” dice Manfredini che la sa lunga e con l’occhio addestrato unisce i puntini spazio-temporali. “Mi fa rabbia che queste cose succedano sempre negli stessi Paesi. Sarà un caso? Mi indigna come le autorità olandesi abbiano dichiarato in un primo momento che era stata rilevata una presenza ma che non c’erano problemi, in un secondo che il prodotto poteva essere moderatamente pericoloso e infine che quello stesso prodotto è molto pericoloso per i bambini. Insomma le informazioni centellinate, tardive, contraddittorie sembrano rese apposta per coprire delle responsabilità. Idem in Italia, dove il Ministero della Salute dice che non c’è alcuna partita alimentare contaminata e poi passa ai sequestri”

Sorvoliamo sulle sciocchezze tipo i titoli “uova infette” usato da RaiNews che dimostrano solo la confusione e l’ignoranza di chi li ha scritti ed usati. Contaminate al più, ma certo non infette.

La questione chiave non è la Chimica cattiva, le uova “infette” di fipronil come scrive beceramente Rai News, ma l’uso improprio di sostanze vietate a scopi di profitto. E’ il profitto non la chimica il responsabile di questa situazione, un profitto che condiziona anche le leggi europee e i controlli sulla loro applicazione; cosa aspettano i nostri politici ad OBBLIGARE al loro rispetto? noi chimici dobbiamo denunciare, denunciare, denunciare ogni violazione etica e legale senza aspettare che lo facciano altri.

Mentre tutti i giornali si affrettano a rassicurare che il fipronil non è poi così tossico, quasi nessuno denuncia PERCHE’ esso venga usato, in che condizioni e con che fini; sembra si possa dire, vabbè in fondo non è così tossico questo prodotto di sintesi e poi ce ne siamo accorti in tempo.

Ma scavando la verità è diversa: non è questione di chimica, questo prodotto si usa senza problemi in altri contesti, qua il problema è che chi produce uova e alleva galline non rispetta le regole perchè così fa più soldi e alcuni CRIMINALI non contenti risolvono i problemi prodotti da metodi di allevamento ILLEGALI usando prodotti chimici non permessi.

Il dito indica la Luna , non state a guardare il dito.

Siamo noi chimici PER PRIMI a dover denunciare queste pratiche criminali nell’uso del fipronil, ma, come cittadini, anche le pratiche scorrette di chi non si adegua alle leggi sull’allevamento delle galline.

Tra l’altro meno carne, meno gas serra; l’abbiamo scritto tante volte.

E qui al contrario vale la pena di considerare che milioni di uova mandate al macero sono una oscena distruzione di tonnellate e tonnellate di alimenti che avrebbero sfamato migliaia di persone, ma anche enormi problemi di smaltimento di rifiuti che sarebbe interessante capire se avviene recuperandone alcunchè; i tre furbetti dovrebbero pagare non solo il conto penale ma anche quello ambientale delle loro azioni. Voi che ne dite?

 

Il museo del sapone e la saponificazione.

In evidenza

Luigi Campanella

Il Museo é una delle realtà del nostro tempo che più rappresenta in modo chiaro e comprensibile la trasformazione della nostra società.

Da raccolta e collezione per il prestigio di chi potesse rivendicarne la proprietà a prima espressione dell’attenzione dello Stato per la Cultura ed i suoi Beni,da Camera delle Meraviglie a strumento della rappresentazione razionale della Scienza, da testimone della Storia e dell’avanzamento della Società a-e siamo ai giorni nostri- sede di informazione,educazione e conoscenza.

Proprio in questa logica a Sciacca in provincia di Agrigento è  nato un nuovo Museo dedicato all’Arte Saponaria,uno spazio nuovo creato per merito dei chimici di Saponi&Saponi, un’azienda impegnata nel campo della produzione di Saponi e Cosmetici, i cui responsabili hanno voluto creare un Museo proprio per fare conoscere lo sviluppo di una tecnologia che ha quasi 5000 anni di storia. Si tratta del sesto Museo su questo tema nel mondo-gli altri 5 in Grecia,Corfù, Francia,Marsiglia, Libano,Aleppo, Polonia,Bydgoszcz, Algeria,Saida-e come gli altri nasce in una zona geografica legata alla storia dell’arte saponaria.

Il nuovo Museo presenta la storia dell’igiene personale a partire dall’antica Roma per proseguire nel Medioevo quando usare il sapone era considerato un segno di debolezza con le conseguenti epidemie che hanno flagellato le società del tempo e poi nei secoli 17 esimo e 18 esimo quando il benessere di uno stato era correlato al consumo di sapone. L’itinerario nel Museo  spiega come a questa storia abbiano contribuito i differenti tipi di sapone da quelli australiani fatti con olio di macadamia o avocado a quelli svedesi preparati con albume d’uovo, acqua di rose, lanolina e grassi animali  da quelli del Burkina Faso a base di burro di Karitè fino ai più semplici  a base di olio extravergine.

Il punto focale sviluppato dall’itinerario guidato nel Museo è la differenza fra sapone naturale  e detergente: il primo è un antibatterico ed antisettico naturale che non richiede conservanti e non deve soltanto detergere ma anche idratare e conservare lo strato idrolipidico che protegge dagli aggressivi esterni.

Come si è già detto i saponi si differenziano a seconda dell’olio che viene saponificato. Questa informazione è fondamentale ai fini della valutazione della qualità e può essere rintracciata nell’etichetta: per esempio nel caso di sapone proveniente da olio di oliva, quindi di qualità elevata, è possibile rintracciare fra i componenti indicati “olivato di sodio”. I saponi solidi sono caratterizzati da un più elevato contenuto di glicerina e da alcuni addittivi aggiunti durante il processo che viene condotto a temperatura non superiore ai 40°C.

Oggi i saponi sono considerati anche dei cosmetici: infatti durante la loro fabbricazione sono soggetti ad aggiunte di sostanze diverse proprio con il fine di promuoverli (o retrocederli??!!) da sapone a cosmetico: miele, lecitina, amminoacidi, vitamine, profumi vari ( menta, lavanda, gelsomino, orchidea, violetta rosa).

La chimica è il grande motore di questo importante settore industriale perchè la trasformazione delle materie prime in prodotto finito è compito del chimico e della chimica. Nel tempo così il chimico ha elaborato metodi diversi di saponificazione: basica, a vapore, enzimatica, catalitizzata.

La saponificazione è un processo che ha trovato applicazioni anche diverse da quella di produrre saponi. Uno dei più recenti è quello dell’estinzione degli incendi, purtroppo di grande attualità: l’agente estinguente converte rapidamente  la sostanza che sta bruciando in un sapone non combustibile. Questo processo è endotermico ed, assorbendo l’energia termica dall’ambiente circostante inibisce ulteriormente il diffondersi del fuoco. La cottura attraverso la saponificazione.

La saponificazione e la conservazione dei beni culturali. Ma con la saponificazione non sono tutte rose e fiori per dirla con un termine popolare.Infatti essa può essere responsabile di danni nel campo dei Beni Culturali.

John Singer Sargent, Ritratto a Madame X (1884) versione non censurata; i neri sono interessati alla saponificazione; la versione esposta al Metropolitan è quella modificata con la spallina su.

 

Nel corso del tempo possono verificarsi fenomeni di saponificazione descritti solo di recente su Pittura a olio e dipinti a olio causando danni visibili e deformazioni. Il substrato o gli strati di pittura dei quadri a olio contengono spesso metalli pesanti usati come pigmenti: il bianco di piombo, il minio e l’ossido di zinco sono fra i più diffusi. Se tali metalli reagiscono con gli acidi grassi liberi nella matrice oleosa che lega insieme i pigmenti, possono formarsi dei saponi nello strato di vernice che migrano verso la superficie del dipinto producendo grumi e sporgenze che diffondono la luce alterando la visibili tà del quadro. Si tratta di  un fenomeno diffuso, essendo stato osservato in molte opere databili fra il quindicesimo e il ventesimo secolo di diversa origine geografica e su vari supporti, come ad esempio tela, carta, legno e rame. Ancora una volta ci aiuta la chimica: infatti l’analisi chimica può rivelare principi di saponificazione che si verificano negli strati più profondi di un dipinto prima ancora che ne appaiano i segni in superficie, anche in dipinti antichi di secoli contribuendo al restauro preventivo, il primo intervento di conservazione di cui disponiamo ed a cui purtroppo nella pratica comune poco si ricorre concentrando le risorse disponibili su urgenze ed emergenze. Le aree saponificate possono deformare la superficie del dipinto attraverso la formazione di grumi visibili o sporgenze che diffondono la luce. Questi grumi di sapone possono interessare solo  alcune parti della tela piuttosto che l’intera opera, in genere le aree più scure dove l’artista ricorre a pennellate più grasse per compensare la tendenza all’essiccazione dei pigmenti neri.

Ferroelettrico o non ferroelettrico, questo è il problema!

In evidenza

Claudio Della Volpe

Il premio Nobel per la Chimica del 2016 è stato assegnato ex-aequo a Jean-Pierre Sauvage, Bernard L. Feringa e James Fraser Stoddart per le loro ricerche nel campo della chimica supramolecolare.Stoddart si è trovato al centro di un caso molto interessante a proposito di una delle sue scoperte non coivolte nell’assegnazione del premio.

Durante il 2012 il suo gruppo di ricerca aveva publicato su Nature un articolo in cui avevano trovato ferroelettricità elettronica a temperatura ambiente in tre composti organici. (Tayi, A. S. et al. Room-temperature ferroelectricity in supramolecular networks of charge-transfer complexes. Nature 488, 485–489 (2012)).

Cosa è la ferroelettricità? Si tratta di un termine inventato sulla falsariga del ferromagnetismo; ossia un materiale che possiede un proprio intrinseco campo magnetico; qua abbiamo un materiale che ne possiede uno elettrico; dunque in soldoni possiamo immaginare un sistema cristallino in cui i baricentri elettrici delle cariche positive e negative non coincidano.

In generale possiamo avere tre casi, espressi dai tre seguenti grafici, che correlano la polarizzazione e il campo elettrico; entrambe grandezze vettoriali, ma la polarizzazione è null’altro che l’effetto prodotto dal campo elettrico esterno sul materiale; E è correlato all’effetto di tutte le cariche, mentre P solo a quelle di polarizzazione. In un materiale comune P è proporzionale ad E o in modo lineare, come nei comuni dielettrici; in questi materiali i dipoli si allineano in direzione opposta al campo elettrico indebolendolo.

oppure è piùcheproporzionale come nei materiali paraelettrici, in cui il comportamento è non lineare.Tuttavia in entrambi i casi quel che avviene è un allineamento forte; chiaramente la differenza fra i due fa comprendere che ci sono vari meccanismi attraverso i quali un materiale non conduttore può opporsi al campo elettrico esterno.

I materiali paraelettrici generano polarizzazione dielettrica quando un campo elettrico viene applicato al materiale e la perdono alla rimozione del campo. Ci sono tre tipi di polarizzazione:

  • (1)elettronica, (2) ionica e (3) orientazionale.

Nel primo caso gli elettroni si spostano rispetto ai nuclei atomici. In quella ionica si spostano rispetto agli ioni di segno opposto. Nel caso orientazionale le molecole che hanno momenti dipolari permanenti cambiano la loro direzione rispetto al campo elettrico.

Ed infine un terzo tipo di comportamento espresso dal grafico qui sotto, dove si vede che c’è una isteresi, ossia che anche in assenza di un campo esterno ci sono materiali che rimangono elettricamente polarizzati. Questi materiali sono i materiali ferroelettrici; il ferro non c’entra nulla, come si diceva prima “ferro” dipende solo dal fatto che ferromagnetici sono i materiali che rmangono magnetici anche in assenza di un campo esterno.

A volte questi materiali sono dotati di una costante dielettrica altissima e la loro struttura è peculiare; il più conosciuto è il titanato di bario o altri titanati.( http://www.chimicamo.org/chimica-generale/titanato-di-bario.html)

Un materiale denominato paraelettrico quantistico non diventa ferroelettrico ma rimane paraelettrico perfino vicino allo zero assoluto a causa delle oscillazioni di puntozero dei fononi.

Per completare la descrizione della proprietà occorre dire che essa scompare trasformandosi in paraelettricità ad una certa temperatura denominata temperatura di Curie. Ed infine, ma non riusciamo a parlare di tutto, che legate a questa proprietà ce ne sono altre come la piezoelettricità, la piroelettricità, ma ne parleremo in un altro post.

Non sto qui ad approfondire le possibili applicazioni di una cosa del genere: basti pensare che i dielettrici normali sono alla base dell’industria dei condensatori; i materiali ferroelettrici, per giunta a T ambiente potrebbero trasformare tutta l’industria dell’energia e dell’accumulo, ma anche di molti altri settori.

Il gruppo di Stoddart aveva sintetizzato una nuova struttura LASO (vedi oltre) dotata di proprietà ferroelettriche:

Il lavoro concludeva:

In conclusione abbiamo sviluppato una struttura molecolare che consente a moecole elettrondonatrici ed elettronaccettrici di autoassemblarsi in un reticolo ferroelettrico per trasferimento di carica a temperatura ambiente.

Le nuove strutture sfidano la vecchia idea che materali misti accettori-donatori non possano esibire una temperatura di Curie al di sopra della temperatura ambiente.

La dimostrazione di proprietà ferroelettriche in un reticolo organico ci da l’opportunità di produrre questi sistemi in forme nuove – come hydrogel comandabili elettricamente, catalizzatori ferroelettrici e antenne fotovoltaiche basate sul trasferimento di carica. La combinazione di interazioni donatore-accettore con reticoli basati du legami idrogeno offre una promettente piattaforma sopramolecolare per progettare nuove strutture elettroniche di natura organica.

Cosa significa LASO= lock arm supramolecular ordering, A Molecular Construction Set for Cocrystallizing Organic Charge Transfer Complexes

Un metodo di costruzione molecolare per cocristallizzare complessi organici a trasferimento di carica. Potete leggerne una descrizione in un libro recente sulle applicazioni.

CTC= Crystal Transfer Complex

da Non-volatile Memories Di Pierre-Camille Lacaze,Jean-Claude Lacroix ISTE -Wiley&sons- 2014

Un ricercatore italiano G. D’Avino ha pubblicato una critica sia alle misure sperimentali che alla loro interpretazione.

I ricercatori italiani hanno cercato di ripetere le misure di Stoddart, ma scrivono: i nostri risultati mettono in questione la pretesa di aver trovato ferroelettricità in sistemi LASO a temperatura ambiente.

Le nostre misure a 300K su un cristallo (nda della medesima composizione) mostrano una risposta paraelettrica invece del loop ferroelettrico vantato da Tayi et al. . Ulteriore lavoro è necessario per riconciliare le evidenze conflittuali attraverso un protocollo rigoroso di preparazione del campione e di misure di ferroelettricità, per stabilire la riproducibilità ed escludere tutte le possibili cause di artefatti sperimentali.

Ad ogni modo la nostra analisi esclude la possibilità che la ferroelettricità dei sistemi LASO, se esiste, sia di natura elettronica.

La risposta dei ricercatori britannici ha cercato di individuare l’origine delle differenze.

Essi indicano due “serious concerns” riguardanti la qualità del cristallo e il protocollo di misura del gruppo D’Avino, che erano invece risolti nel loro lavoro: D’Avino ha usato un solo cristallo non bellissimo e per giunta dell’adesivo di qualità non ottimale.

“D’Avino et al. present room-temperature measurements for only one crystal; the crystal exhibits considerable leakage current and the low-temperature measurements reveal linear capacitive behaviour as opposed to ferroelectricity.      “

Using the resistivities from our original paper , we modelled the resistive contribution to our original polarization measurements; the resistive contribution in our measurements is an order of magnitude smaller than that reported by D’Avino et al.4. We believe that this discrepancy is likely to be related to poor crystal quality, as indicated by splintering of the crystal (as observed in figure S4 of their supplementary information of ref. 4), which is an indication of crystal defects. In addition, the authors use conductive adhesives that differ from those we recommended in ref. 3. In our experience, such adhesives contain sol- vents that may have deleterious effects on supramolecular co-crystals.

We are confident of our electronic measurements, and our future work will elucidate the mechanistic details behind ferroelectricity in these charge-transfer complexes. We recognize that the theoretical calculations carried out by some of the authors of the accompanying Comment do not support the connection between charge transfer and ferroelectricity, but we believe experimental work proves otherwise.

Dunque una difesa e un contrattacco su tutta la linea da parte di Stoddart.

Cosa succederà adesso? Quello che differenzia il processo scientifico da ogni altro; i ricercatori confronteranno i loro risultati con quelli di altri, si scambieranno campioni e dati, modelli e calcoli e continueranno testardamente a cercare una risposta coerente; questa è la scienza. La scienza non è democratica perchè è basata non sul numero di voti ma sui fatti; e basta un fatto incoerente per mettere in crisi ogni teoria; tuttavia i fatti sono democratici, nel senso che chiunque può riprodurli; dunque a patto di basarsi sinceramente su di essi e di essere trasparenti sui dettagli il confronto è sempre possibile.

I due abiti del chimico.

In evidenza

Mauro Icardi

Il titolo del post potrebbe far pensare a una novella oppure a un racconto. Invece è una riflessione, una delle tante che faccio, molto spesso quando sono in bicicletta. Perché la bicicletta permette di inseguire i propri pensieri.

Riflettevo su quello che è l’abito mentale di un chimico. Il tratto distintivo che ci contraddistingue come categoria. Certamente siamo curiosi. Pratichiamo la curiosità giusta, quella che ci porta a voler indagare la materia e il mondo che ci circonda. Credo che molti di noi, qualunque sia il settore in cui svolgono il proprio lavoro siano uniti da una specie di filo rosso di esperienze comuni. La prima fra tutte è il laboratorio. Quando mi capita di parlare con colleghi che svolgono lavori molto diversi, dalla ricerca , fino a al lavoro di controllo di qualità che potrebbe sembrare di intollerabilmente routinario (ma posso assicurare che non è vero), provo immediatamente una sorta di familiarità professionale che si percepisce nettamente. E’ molto spesso è legata alle operazioni della chimica del passato. Le tecniche antiche, la gravimetria, la volumetria, l’utilizzo della vetreria che tramanda un fascino antico. Quasi fosse la porta d’ingresso indispensabile per esperienze lavorative e professionali più sofisticate. E molte persone confessano di avere preservato vecchi strumenti di lavoro. Centrifughe manuali e pHmetri analogici, chissà se qualcuno se li ricorda ancora.

Molti di noi non sono stati profeti in patria. Ho scoperto di non essere stato il solo che veniva ignorato, anche in famiglia quando invitava all’uso parsimonioso dei detersivi in casa.

Abbiamo sviluppato negli anni una particolare sensibilità. In particolare alle inesattezze che spesso sentiamo relativamente a semplici concetti di chimica di base. Per radio ho sentito due, presumo giovani conduttrici radiofoniche, meravigliarsi della spiegazione di un’insegnante di chimica che spiegava cos’era in realtà il magico effetto della “miscela pulente” ottenuta mescolando bicarbonato e aceto.

NaHCO3 + CH3COOH → CH3COONa + H2O + CO2(g).

Se provate a digitare sul web la frase “mescolare bicarbonato e aceto” vi assicuro che si aprirà un mondo di cui non si sospetta l’esistenza.

Le conduttrici hanno tirato in ballo anche la serie “Breaking Bad” che ha come protagonista un insegnante di chimica che si trasforma in un produttore di metanfetamina.

Su questa serie tv vorrei tornare con un articolo ad hoc, per fare delle riflessioni. E’ una delle serie tv più innovative e premiate. La chimica è presente, ha un ruolo fondamentale nell’intreccio narrativo ma è una chimica del male. E questo si presta ad interpretazioni errate e fuorvianti. Dimenticando che si tratta di una serie televisiva.

Serie che è stata ed è in qualche modo lo stimolo per approfondire la chimica, o per approcciarvisi.

Questa foto dei due protagonisti, il professor Walter White a sinistra, ed il suo poco brillante ex allievo del liceo Jessie Pinkman rappresenta invece l’abito che molti attribuiscono al chimico tout court.

Non solo al chimico, ma alla chimica stessa. Abbiamo scritto su queste pagine decine di articoli che si ripromettevano di fare chiarezza, e di ristabilire e riabilitare noi ed il nostro mestiere. Uso il termine mestiere che di professione è sinonimo. Ma il vocabolo si è originato dai termini latini “ministerium” e “mysterium”.

Perché penso che mestiere ci rappresenti meglio. Anche se può riferirsi ad attività prevalentemente manuali, ma tutti noi abbiamo dovuto apprendere la giusta manualità in laboratorio. E in fin dei conti la conserviamo come esperienza fondante. Perché questa manualità ci distingue, la portiamo dentro di noi come valore. E sono convinto che sia una cosa che, come molte altre, una volta appresa non si dimentichi più. Anche se non si pratica più il laboratorio. Se ci si ritorna dopo qualche tempo , dopo qualche normale imbarazzo iniziale, si ritrova la capacità di lavorarci senza troppe difficoltà.

Forse l’abito mentale che ci attribuiscono gli altri deriva da un semplice meccanismo. Quello che istintivamente porta a preferire il mito alla realtà. Ma il segreto che non tutti conoscono è un altro. La chimica è quanto di più razionale ci sia. E questo lo si capisce studiandola. O semplicemente apprezzando le capacità che da, magari non subito, ma come ogni altra disciplina con tempo e passione, di sapere osservare e discriminare. Di stabilire per quanto possibile un metodo. Di lavoro o di ricerca. E questo è il suo vero segreto. L’abito migliore da indossare.

 

Perle e ossa.

In evidenza

Rinaldo Cervellati.

Nell’ultimo numero di C&EN newsletter (on line, 2/8/2017), Melissae Fellet informa che un team di ricercatori scozzesi ha chiarito il meccanismo attraverso cui la madreperla favorisce la crescita delle ossa. L’articolo, fra gli accettati per la pubblicazione su ACS Nano (DOI: 10.1021/acsnano.7b01044), si intitola Nacre Topography Produces Higher Crystallinity in Bone than Chemically Induced Osteogenesis, è firmato da un gruppo di ricercatori dell’Università di Glasgow, coordinati dai Prof. Matthew John Dalby (UG) & Maggie Cusack (University of Stirling).

 

Mattew John Dalby                               Maggie Cusack

La scoperta di impianti dentali interamente integrati a base di conchiglie nei crani di antichi Maya ha avviato una serie di ricerche che hanno mostrato come piccoli pezzi di madreperla, il rivestimento iridescente delle conchiglie delle ostriche[1] e di altri molluschi, inducono la formazione di ossa in sia in colture cellulari sia in modelli animali come pure nella ricostruzione della mascella umana. Restava però oscuro il meccanismo di azione della madreperla. Infatti la madreperla è un minerale a base di carbonato di calcio con una struttura diversa rispetto al minerale principale delle ossa, ossia il fosfato di calcio. Studi hanno dimostrato che polvere di madreperla induce le cellule staminali a produrre fosfato di calcio. Tuttavia, le cellule staminali rispondono anche a segnali fisici come urti nanoscopici e nanocreste sulle superfici del materiale. Per separare l’effetto della composizione chimica della madreperla dalla sua struttura superficiale, il Gruppo guidato da Cusack e Dalby ha deciso di riprodurre il modello nanoscopico di madreperla su un materiale diverso. Innanzitutto, i ricercatori hanno ricoperto l’interno di una conchiglia di ostrica con un polimero di silicone, spalmandolo uniformemente, quindi lo hanno rimosso.

Stampo siliconico in conchiglia d’ostrica

Lo stampo polimerico risultante è stato poi ricoperto con policaprolattone fuso, un polimero biocompatibile. Dopo la solidificazione e rimozione dello stampo siliconico, la squadra ha utilizzato la microscopia elettronica tridimensionale a scansione per controllare di aver ricostruito la struttura a superficie nano scabrosa della madreperla sulla superficie del polimero.

Quindi, i ricercatori hanno coltivato le cellule staminali mesenchimali umane sulla replica polimerica. Dopo cinque settimane, le cellule hanno aumentato l’espressione di geni legati allo sviluppo osseo rispetto alle cellule coltivate su una superficie liscia dello stesso polimero, indicando che la stimolazione della crescita ossea è dovuta alla sola struttura della madreperla.

Per studiare l’effetto di diversi stimoli fisici e chimici sull’osso in crescita, la squadra ha stimolato la coltura delle cellule staminali sulla madreperla naturale di un’ostrica, sulla replica polimerica, e su una matrice strutturata in polimetilmetacrilato noto per aiutare la crescita ossea. Inoltre, sono stati effettuati esperimenti con cellule utilizzando due diversi metodi di coltura delle cellule stesse. L’osso si forma in tutte le condizioni, ma risposte metaboliche diverse hanno indicato che l’osso prodotto potrebbe avere proprietà diverse nei diversi casi.

La spettroscopia Raman ha rivelato che le cellule coltivate sulla replica polimerica della madreperla hanno dato luogo all’osso più cristallino fra tutte le condizioni sperimentate.

La cristallinità è solo una proprietà che può influenzare la resistenza ossea, dice Cusack, e fra di esse non vi è purtroppo una relazione semplice. Sapendo che la struttura fisica della madreperla influenza la cristallinità, i ricercatori potrebbero variare le asperità del modello polimerico e studiare i cambiamenti delle proprietà ossee, insiste Cusack. Essere in grado di modificare questa proprietà in vitro potrebbe permettere ai ricercatori di ottimizzare le caratteristiche complessive dell’osso da impiantare ai fini di specifiche applicazioni.

Un problema nell’interpretazione di questi primi esperimenti potrebbe provenire dalla struttura mutevole della madreperla, osserva critico Daniel Chappard, un ricercatore in rigenerazione ossea e biomateriali all’Università di Angers (Francia). Una sua ricerca dimostra che la madreperla naturale altera la sua struttura cristallina in colture cellulari cresciute in media diversi. Quindi, il modello di superficie polimerica potrebbe non essere lo stesso che le cellule sperimentano quando vengono coltivate sulla superficie del materiale naturale.

Tradotto e adattato da C&EN newsletter, 2017, 95(32), 7.

 

 

 

[1] Per esattezza ostrica Pinctada maxima.

I due volti dell’innovazione scientifica

In evidenza

Luigi Campanella

In passato alcune discipline scientifiche, prima fra tutte la chimica, hanno esaltato il proprio doppio volto: da un lato la protezione dell’ambiente e della salute dall’altro il superamento delle barriere etiche e l’asservimento alle logiche economiche e d’interesse. Oggi in pochi giorni due importanti scoperte ripropongono questo ambiguo dilemma e lo fanno in una nuova prospettiva, quella multidisciplinare ed interdisciplinare.

La prima notizia riguarda la moda sostenibile: finora se n’era parlato per i materiali tradizionali utilizzati ed i conseguenti scarti delle lavorazioni e per l’adozione di integratori tessili capaci di attribuire al tessuto integrato proprietà nuove di grande interesse della clientela, ad esempio la capacità del tessuto di abbattere la flora microbica. Lega ambiente ha anche prodotto un testo risultato di incontri e di relazioni scientifiche dal titolo molto in linea con il ns tempo :”Moda Sostenibile”. Oggi si parla di eco-chic cioè di tessuti eleganti ottenuti riciclando rifiuti di plastica ripescati dai fondali marini e dai quali nascono materiali per vestiti, borse, scarpe. Tutta l’Europa occidentale è impegnata in questa direzione dall’Inghilterra alla Spagna, dalla Francia all’Italia. Anzi questa volta con una punta di orgoglio possiamo dire che  la Camera della Moda Nazionale con il supporto del MISE ha dedicato un evento alla celebrazione del MADE IN ITALY attraverso il fil rouge dei valori etici e sostenibili, chiamando i grandi stilisti italiani insieme ai brand giovani emergenti a realizzare modelli in grado di esaltare la creatività della scienza nella capacità di riciclare e del design nell’abilità a conferire ai prodotti ottenuti un significato anche artistico, in fondo Arte e Scienza che camminano insieme dimostrando l’inutilità ed il danno della disarticolazione culturale.

Anche in questo caso la chimica ha fornito il suo grande contributo con metodi innovativi e green di recupero e riciclo e con modulazioni intelligenti dei materiali finalizzandoli alle loro specifiche applicazioni. Con il progetto “upcycling the oceans” sono stati riciclate 70 tonn di materiale plastico dimostrando risparmi fino al 60% di acqua ed energia rispetto alla produzione di sintesi. (https://ecoalf.com/us_en/upcycling-the-oceans).In un discorso di croce e delizia dal quale siamo partiti si può dire che l’utilità ed i vantaggi del riciclo, se non adeguatamente integrati con una formazione ed educazione ambientale, che tenga anche conto e sappia valutare i costi energetici aggiuntivi che comporta il riciclo, possono indurre ad una sorta di autoassolvimento rispetto a smaltimenti impropri ed irrispettosi.

La seconda notizia, senz’altro di maggiore impatto , anche etico , capace quindi di focalizzare il contrasto fra quei 2 volti della Scienza a cui prima accennavo, riguarda la correzione genetica apportata ad un embrione umano di poco più di 2 gg, così rendendolo immune al danno che ad esso sarebbe derivato dal difetto, se non corretto.

In passato la stessa esperienza era stata tentata, ma con il risultato che non era stato possibile limitarne gli effetti alla correzione voluta: si  erano registrati effetti secondari con mutazioni genetiche aggiuntive non volute. I nuovi risultati pubblicati su NATURE. I due volti hanno così preso forma in posizioni diverse assunte in sedi diverse, talvolta anche autorevoli. Così alla eliminazione delle malattie genetiche da una parte si è risposto dall’altra con bambini su misura, alla medicina genetica si è risposto con la manipolazione genetica, fino a temere strumenti  che possano divenire armi di distruzione di massa. In effetti il problema era nato alcuni anni fa,quando questa ricerca era stata divulgata:la NAS (National Academy of Sciences  US) sulla base di queste nascenti polemiche aveva dato il via libera alla tecnica purchè utilizzata unicamente per eliminare malattie gravi. Il successo è stato essere riusciti a modificare il Dna di un gran numero  di embrooni fecondati con liquido seminale di uomini portatori del danno genetico specifico che si vuole contrastare. Il gene colpevole è stato colpito e corrette di conseguenza le mutazioni in tutte le cellule dell’embrione, evitando che solo alcune vengano curate, mentre altre restano danneggiate. Per l’esperimento è stata scelta una malattia ereditaria fra oltre 10000 per la quale basta che una sola delle due copie del gene sia mutata perchè la patologia si manifesti. Ogni portatore di questo danno può trasmetterlo ai figli con una probabilità del 50%. Proprio per interrompere questa catena  i ricercatori dell’Oregon Health and Science University, gli autori questa ricerca, hanno utilizzato ovuli sani e spermatozoi portatori della mutazione. La tecnica sembra ancora lontana dall’essere applicata nella pratica clinica, ma sarebbe bene in questa fase di approfondimento di chiarirne gli aspetti etici – si pensi ai riflessi su un tema così discusso come quello del diritto del malato e della salvaguardia della sua libera scelta – possibilmente con disponibilità al confronto ed alla discussione delle correlazioni fra questa tecnica e le ipotesi in sedi diverse formulate di percorso di fecondazione artificiale.

(Correction of a pathogenic gene mutation in human embryos Hong Ma et al. Nature (2017) doi:10.1038/nature23305))

I gas intestinali vi creano problemi? Non preoccupatevi, potrebbe essere un segno di salute.

In evidenza

Rinaldo Cervellati

Con questo titolo, imbarazzante in tutti i sensi, Tim Cutcliffe sintetizza, su NUTRAingredients newsletter-USA del 26 giugno u.s., i risultati di un dettagliato studio pubblicato da ricercatori giapponesi sulla rivista Journal of Functional Foods (M. Matsumoto et al., Effects of functional milk containing galactooligosaccharide, maltitol and glucomannan on the production of hydrogen gas in the human intestine, J. Funct. Food, 2017, 35, 13-23).

Secondo questo studio, una bevanda contenente fibre può favorire la produzione di idrogeno nell’intestino, un gas con effetti antiinfiammatori come affermano i ricercatori giapponesi in base anche a ricerche precedenti.

Kazuo Subota

Abbiamo sviluppato una bevanda composta da latte vaccino con galattooligosaccaridi (GOS), maltitolo e glucomannano e abbiamo esaminato la capacità di questo latte funzionale di incrementare la quantità di idrogeno prodotta nell’intestino umano.

I risultati dei test clinici effettuati per verificare gli effetti di questa bevanda confermano che il consumo del nostro latte induce concentrazioni più elevate di idrogeno nel respiro, inclusi picchi di concentrazione più alti e persistenza più lunga nel tempo rispetto al consumo del normale latte o di acqua saturata con idrogeno, dice il team di scienziati giapponesi provenienti da un’industria privata (Kyodo Milk Industry Co. Ltd., Tokio) e dalla Keyo University School of Medicine, Tokyo.

Il gruppo fa riferimento a studi risalenti a dieci anni fa che hanno evidenziato gli effetti fisiologici di H2 gas dopo la scoperta delle sue elevate proprietà antiossidanti e il suo uso potenziale nel ridurre i sintomi patologici di infarto cerebrovascolare in modelli animali (ratto). Inoltre studi precedenti hanno mostrato che H2 possiede effetti benefici come agente antiinfiammatorio nei casi di ischemia, nella prevenzione di sindrome metabolica, nel proteggere il sistema nervoso centrale e nel contrastare l’eccesso di radicali liberi in tutti i casi di stress ossidativo cellulare. Il 75% di questi studi è stato effettuato su modelli animali ma recentemente i test clinici sono in aumento.

I ricercatori affermano poi che tutti gli studi menzionati hanno utilizzato l’inalazione del gas o l’ingestione di acqua idrogenata come sorgenti rilascianti idrogeno. La prima modalità richiede apparecchiature specifiche, la seconda limita il tempo di permanenza del gas a un massimo di 30 minuti.

Poiché studi su modelli animali hanno evidenziato che l’idrogeno prodotto da battèri intestinali viene trasportato a organi come il fegato, Mastumoto e collaboratori hanno deciso di provare se l’ingestione di fibre alimentari potesse far aumentare produzione e durata nel tempo di idrogeno da parte dei battèri.

Maltitolo

Glucomannano

Essi hanno analizzato l’effetto di diversi prodotti indigeribili per la loro potenzialità di rilasciare idrogeno per effetto batterico, come pure quello di diverse combinazioni di fibre alimentari. La capacità di un solo tipo di fibra dipende dal microbioma del singolo individuo e quindi può risultare inefficace.

Matsumoto e il suo gruppo hanno trovato che opportune combinazioni di galattooligosaccaridi, maltitolo e glucomannano sono induttori efficaci per la produzione di idrogeno.

Negli studi clinici la concentrazione di idrogeno nel respiro è risultata significativamente maggiore nel gruppo di volontari cui è stato somministrato il latte contenente le fibre rispetto al gruppo controllo e strettamente correlata con quella prodotta nell’intestino.

Oltre a lievi sintomi di flatulenza (comunque noiosi nota di RC), nessun altro effetto collaterale è stato rilevato dai volontari dell’esperimento, un solo soggetto si è lamentato di avere “lo stomaco gorgogliante”.

Infine, dicono Matsumoto e collaboratori:

I test clinici sono stati del tipo open-label, cioè senza ospedalizzazione, quindi saranno necessari ulteriori studi più approfonditi e controllati per verificare l’efficacia di bevande contenenti fibre per incrementare la produzione di idrogeno intestinale.

Nota di R.C. Confesso che nonostante le mie ricerche sulla determinazione dell’attività antiossidante di estratti e sostanze isolate da piante officinali e alimenti funzionali con metodi chimico fisici questa faccenda dell’idrogeno mi è giunta nuova. Così sono andato a cercare nella recente bibliografia e ho trovato due interessanti riferimenti:

  1. Ohta, Molecular hydrogen as a novel antioxidant: overview of the advantages of hydrogen for medical applications. Methods Enzymol., 2015, 555, 289-317.

J.M. Lee et al., Headspace –solid phase microextraction (HS_SPME) analysis of oxidized volatiles from free fatty acids (FFA) and application for measuring hydrogen donating antioxidant activity, Food Chem., 2007, 105, 414-420.

 

Overshoot day 2017

In evidenza

Mauro Icardi

Le agenzie di stampa, a partire dall’ANSA stanno rilanciando la notizia: quest’anno l’Overshoot day, cioè il giorno in cui la popolazione mondiale ha consumato tutte le risorse naturali disponibili per il 2017 cadrà il 2 Agosto. Basta fare una ricerca su Internet per accorgersi che lo scorso anno questa data era spostata in avanti di quasi una settimana. Infatti l’Overshoot day del 2016 era l’8 di Agosto. Abbiamo consumato le nostre risorse rinnovabili ancora più velocemente. Questi sono i fatti. La realtà con cui fare i conti.

Questo raffronto di date direi che è più che esauriente. Il calcolo viene fatto e pubblicato annualmente dal Global Footprint Network. Questa associazione sviluppa e promuove strumenti per far progredire la sostenibilità e misurare l’impronta ecologica.

Il Global Footprint Network nonostante tutto è fiducioso. Dobbiamo invertire la rotta e lo stesso presidente del Global Footprint Network Mathis Wackernagel ci invita a farlo. Riducendo per esempio i nostri sprechi alimentari, e le nostre emissioni di CO2.

Io vorrei con questo mio articolo tentare di dare una chiave di lettura meno usuale del solito. Cioè raccontare la mia esperienza personale negli anni. Per far capire che tutto sommato essere attenti, parsimoniosi e accontentarsi, non è poi quella tragedia che molti immaginano. Voglio precisare che la mia esperienza non si basa solo su esperienze dirette, ma negli anni si è nutrita di molte letture. Alcune più rigorose, altre di buona letteratura, altre di letteratura considerata minore. Ma tutto questo ha contribuito a formare la mia base per affrontare questi temi. E per cercare di spiegare come si possa essere sereni, se qualcuno ritiene esagerato parlare di felicità. Essere equilibrati e consapevoli. Forse parto avvantaggiato, ma proviamo a vedere come stanno le cose. Il 1962 il mio anno di nascita, è quello migliore per l’economia italiana nei 150 anni di storia. Quello in cui l’incremento del PIL rispetto all’anno precedente assume un valore stratosferico: 8,6%. Ma solo dieci anni dopo le cose sono già cambiate, il boom economico è un ricordo, si è già parlato di congiuntura. E io ascolto mio padre, che alla mia stessa età età viveva in pieno gli anni della guerra e mi racconta quello che tutti hanno raccontato. Guerra, fame ,privazioni. Due fratelli che ritorneranno dalla guerra dopo aver provato cosa sia la prigionia in Germania.

Io alla sua età posso definirmi nato nella bambagia come spesso scherzosamente mi diceva. E un giorno prima del mio decimo compleanno, già accanito divoratore di pagine stampate leggo sul giornale questa notizia.

http://www.archiviolastampa.it/component/option,com_lastampa/task,search/mod,libera/action,viewer/Itemid,3/page,13/articleid,0142_01_1972_0053_0013_4919192/

A nove anni certamente capisco poco. Forse leggo senza capire troppo bene. Eppure solo un anno dopo è il periodo dell’austerity e delle auto ferme nei garage o per strada. A undici anni nella memoria quel periodo rimane impresso. Forse soltanto perché mi permette di girare libero in strada senza rischi, in bicicletta.

Forse a questi due episodi io devo la mia formazione personale, una sorta di capacità di adattamento innata. Forse una specie di caso o di fortuna.

Io non ho la pretesa di scrivere una recensione su “I limiti dello sviluppo”. Ho avuto la fortuna di conoscere nel tempo persone che lo hanno fatto in maniera rigorosa, e molto meglio di quanto potrei mai fare io.

Ma quanto visto allora è ovvio abbia lasciato un ricordo molto vivo.

L’austerity non durò molto. Iniziò il 2 Dicembre del 1973 e già nell’Aprile del 1974 le misure si allentarono. E tutti dimenticarono presto. Come sempre succede. Eppure in quel periodo vennero tirate fuori le biciclette dalle cantine, si tornarono a seguire i vecchi consigli delle nonne. Si rammendarono le calze. Mi sentii spesso dire di non sciupare il cibo, perché secondo i miei genitori e alcuni amici “nemmeno in casa Agnelli il cibo si spreca”. Forse tutto questo può apparire ingenuo. O banale. Io invece ho un’opinione diversa. Mi rendo conto che per portare indietro la data dell’overshoot day ci vorrebbero molte cose concomitanti. Il ritorno della politica vera, della polis greca. La liberazione non facile dalle lusinghe del consumismo esasperato. Il ritrovare il senso della condivisione. Scoprire che (e quante volte lo abbiamo sentito dire) che non sempre di più sia sinonimo di meglio. A volte non è facile ma le riflessioni che ho fatto in libertà valgono anche oggi, anche adesso. E’ come vincere una sorta di inerzia. Fare il primo passo, poi ci si accorge che non è poi una cosa così impossibile. La premessa è stata lunga. Forse noiosa. Ma se davvero ci riflettiamo ci dovremmo accorgere che non possiamo pensare di saccheggiare la dispensa planetaria e avere la pancia piena. E’ saggezza popolare tutto sommato. Mentre sto scrivendo ho sottomano un libro di testo del biennio delle superiori.  Titolo “Piante animali e microbi” edizione Minerva Italica. E’ un testo di scienze naturali. Utilizzato alla fine degli anni 70. L’edizione che ho è una ristampa del 1976.

Al capitolo 25 (Proteggere la natura prima che sia troppo tardi) si trovano tredici regole di comportamento.

E’ interessante riportare almeno alcuni punti

1 Rifiutate quando è possibile i sacchetti di plastica dei negozi e dei supermercati. Se c’è possibilità di scelta preferite i sacchetti di carta.

2 Massima parsimonia nell’uso dei detersivi anche se sulla scatola c’è scritto biodegradabile.

3 Non usate apparecchi elettrici inutili (per esempio apriscatole o lucidascarpe) per lavori che potete benissimo fare a mano).

5 Usate il portacenere della vostra macchina anziché buttare i mozziconi fuori dal finestrino. Non fumate nei boschi.

6 Non circolate in auto nel centro della vostra città. Usate i mezzi pubblici o meglio ancora i vostri piedi.

Pensiamoci un poco. Un libro scolastico che già riportava queste elementari regole di comportamento e di educazione ambientale. Nel 1976. E se vado a cercare nella mia libreria, a parte i testi fondamentali quali le tre versioni dei limiti dello sviluppo (“I limiti dello sviluppo” “Oltre i limiti dello sviluppo”, “I nuovi limiti dello sviluppo”) trovo continuamente libri diversissimi che mettevano in guardia su questi problemi. Da un vecchi libro di cosmologia “Alba cosmica” fino ad una antologia di fantascienza sociologica curata da Fruttero & Lucentini “Il dio del 36° piano”. O ad uno dei meno conosciuti libri di Primo Levi “Vizio di forma”.

Siamo nel 2017, le cronache ci mostrano l’Italia piegata da incendi e siccità. Io credo che sia ora di fare lo sforzo che abbiamo sempre rifiutato di fare. Qualcuno leggendo questo articolo potrà forse trovarlo patetico. Ma sono qui a scrivere. Mia figlia è vicino a me. La guardo e sento che questo impegno mio personale, piccolo e forse insignificante, l’uso della bici, fare l’orto, avere isolato la casa in attesa dei pannelli solari mentre ho scelto un fornitore che usa il più possibile energia rinnovabile, il bere acqua di rubinetto (sarebbe il colmo non lo facessi…) sono una cosa che le devo. Il mio cammino continua. E voglio farlo coinvolgendola nei miei piccoli passi.. Perché anche io, come tanti è come se avessi acceso un debito che sarà lei a dover pagare al posto mio. E so che non è giusto. Il cammino cerchiamo di farlo insieme.

Mi sono chiesto molte volte, e ancora mi chiedo cosa possa ancora fare. Seguire questa strada. Non vedo altre soluzioni. Non ho voluto, come ho premesso dare all’articolo un taglio tecnico. Mi sarebbe sembrato di scrivere qualcosa che non esprimeva il pathos che sento e provo per questi temi.

L’augurio è che il prossimo anno l’overshoot day si sposti. Anche impercettibilmente. Anche solo di mezza giornata. Ma in avanti.

http://www.overshootday.org/

Una ultima osservazione: non siamo tutti uguali in questo sovraconsumo, in questa violazione dei limiti fisici del pianeta. Mi riferisco alla disomogenea  partecipazione a questo furto da parte delle varie società e dei vari Paesi: arriverei a dire, qualcuno storcerà la bocca, che se il furto avvenisse alla Robin Hood lo accetterei di più perchè finalizzato a promuovere le economie deboli rendendole più autonome e dignitose.L’impronta ecologica cosi diversa dall’8 degli USA al 4-6 europeo fino ai decimali di molti paesi africani ci fa comprendere in termini quantitativi queste differenti situazioni. Allora credo che accanto all’impegno a spostare in avanti nell’anno l’overshoot day ce ne vorrebbe un altro verso una società internazionale più equilibrata.

Ma insomma il glifosato è o non è cancerogeno?

In evidenza

Claudio Della Volpe

Confesso subito ai lettori che non sono ovviamente in grado di rispondere in modo assoluto e definitivo a questa domanda che sta appassionando milioni di persone nel mondo. Quello che posso fare è cercare di chiarire i termini della questione. Cosa che ho cercato di fare prima di tutto a me stesso.

Abbiamo parlato di glifosato in alcune occasioni quando è uscita la famosa monografia 112 dello IARC (in francese CRIC) che lo qualificava potenzialmente cancerogeno(https://ilblogdellasci.wordpress.com/2015/04/13/glifosato-e-altre-storie/), quando ho avuto una polemica con una senatrice dei grillini che sembrava accusasse il glifosato di procurare l’autismo (https://ilblogdellasci.wordpress.com/2015/08/24/non-ce-due-senza-tre-ancora-glifosato/) e quando è uscita la notizia delle alterazioni che il glifosato procurava all’ambiente del suolo(https://ilblogdellasci.wordpress.com/2015/08/16/ancora-sul-glifosato/); tuttavia come redazione finora abbiamo evitato di occuparci ancora del problema. In parte è colpa mia che me ne sono interessato finora e che ho avuto qualche dubbio in merito, lo confesso; tuttavia l’argomento preme, e un recente articolo di Le Monde, ripreso in italiano da Internazionale, che considero la più bella rivista italiana, ha riportato l’argomento all’attualità (Internazionale è una raccolta di articoli tradotti dalla stampa internazionale e anche, più raramente di articoli scritti dalla redazione stessa ma sempre con il medesimo stile asciutto e rigoroso, da giornalisti indipendenti, per quanto si può essere indipendenti).

Non starò qui a ripetere la storia e gli aspetti chimici ed conomici del glifosato che ho già trattato ampiamente negli altri post; vi ricordo solo che il glifosato è il più comune erbicida del mondo prodotto in ragione di più di 800.000 ton/anno, non è più coperto da brevetto, che la sua importanza è cresciuta con l’associazione con specie vegetali utili modificate geneticamente per resistere alla sua azione in modo da poter sopravvivere senza problemi al suo uso a scapito delle specie spontanee ed infestanti. Questa invenzione è oggi di fatto appannaggio della Monsanto, una delle grandi aziende agrochimiche mondiali. Stiamo parlando dunque di un cash-cow, una mucca da mungere ossia di un prodotto che è la base del profitto, del “burro” come si dice in gergo, di chi lo produce.

Proprio per questo l’uscita del rapporto 112 da parte dello IARC, il 29 luglio del 2015, che definiva il glifosato “probable human carcinogen” produsse una reazione immediata e violenta da parte di Monsanto, che è illustrata molto bene nell’articolo di Le Monde; ma non fu l’unica reazione, in quanto nell’ottobre quell’anno EFSA rese ufficiale una valutazione, Renewal Assessment Report (RAR) per il glifosato. In esso EFSA concludeva che “glyphosate is unlikely to pose a carcinogenic hazard to humans and the evidence does not support classification with regard to its carcinogenic potential”, un giudizio sostanzialmente diverso da quello di IARC. L’ Addendum 1 (the BfR Addendum) del RAR conteneva un tentativo di spiegazione razionale delle differenza fra le due valutazioni.

Il 27 novembre 2015 un gruppo di 97 scienziati del settore, capitanati da C.J. Portier ha scritto una lettera a Mr. Vytenis Andriukaitis capo della Commissione Health & Food Safety della UE in cui si criticavano aspramente i criteri e i metodi del BfR e dell’EFSA (https://www.efsa.europa.eu/sites/default/files/Prof_Portier_letter.pdf).

A questa lettera l’EFSA ha risposto nel gennaio 2016 con un’altra lettera dettagliata (https://www.efsa.europa.eu/sites/default/files/EFSA_response_Prof_Portier.pdf).

A questo ha comunque fatto seguito una campagna molto forte diretta da Monsanto contro lo IARC (ed altri istituti scientifici indipendenti come il Ramazzini) nel tentativo di ridurne l’immagine, il ruolo e il peso scientifico, e anche i fondi, anche questo descritto molto ampiamente nell’articolo di Le Monde e su Internazionale.

Cerco di essere più preciso.

International Agency for Research on Cancer (IARC) Monographs Programme identifica le cause ambientali del cancro nell’uomo e ha valutato finora dal 1971 più di 950 diversi agenti. Le monografie sono scritte da un gruppo di lavoro (WG) ad hoc che lavora per 12 mesi che terminano con una riunione di 8 giorni. Il gruppo valuta tutta la letteratura scientifica disponibile pubblicamente su una certa sostanza e, attraverso un rigoroso e trasparente processo raggiunge una decisione sul grado al quale l’evidenza scientifica supporta la capacità di quella sostanza di produrre o meno il cancro.

Nel caso specifico, come sempre la decisione dello IARC GW si è basata su una procedura condotta da scienziati indipendenti , privi di conflitto di interesse non affiliati nè supportati in alcun modo dalle aziende produttrici. La decisione è basata su lavori sempre citati e pubblicati nella letteratura biomedica referenziata.

Nonostante la Monsanto si sia lamentata della procedura come dice l’articolo di Le Monde:

In realtà la Monsanto sa bene che questa valutazione del glifosato è stata fatta da un gruppo di esperti dopo un anno di lavoro e dopo una riunione durata diversi giorni a Lione. Le procedure del Circ prevedono inoltre che le aziende legate al prodotto esaminato abbiano il diritto di assistere alla riunione finale. Per la valutazione del glifosato, infatti, la Monsanto ha inviato un “osservatore”: l’epidemiologo Tom Sorahan, professore dell’università di Birmingham, nel Regno Unito. Il rapporto che lo scienziato stila il 14 marzo 2015 per i suoi committenti conferma che tutto si è svolto nei modi previsti. “Il presidente del gruppo di lavoro, i copresidenti e gli esperti invitati alla riunione sono stati molto cordiali e disposti a rispondere a tutte le mie richieste di chiari- mento”, scrive Sorahan in una lettera inviata a un dirigente della Monsanto. La lettera figura nei cosiddetti Monsanto papers, un insieme di documenti interni dell’azienda che la giustizia statunitense ha cominciato a rendere pubblici all’inizio del 2017 nell’ambito di un procedimento giudiziario in corso. “La riunione si è svolta rispettando le procedure del Circ”, aggiunge l’osservatore dell’azienda statunitense. “Il dottor Kurt Straif, il direttore delle monografie, ha una grande conoscenza delle regole in vigore e ha insistito perché fossero rispettate”.

Del resto Sorahan – che non ha risposto alle domande di Le Monde – sembra molto

imbarazzato all’idea che il suo nome sia associato alla risposta della Monsanto: “Non vorrei apparire in alcun documento dell’azienda”, scrive, ma allo stesso tempo offre il suo “aiuto per formulare” l’inevita- bile contrattacco che il gruppo organizzerà.

Per la Monografia 112, 17 scienziati hanno valutato il rischio carcinogenico di 4 insetticidi e del glifosato concludendo per il glifosato : probable human carcinogen.

La review dello IARC collega il glifosato all’aumento dose dipendente di tumori maligni in molti siti anatomici negli animali da esperimento e all’aumento di incidenza del linfoma non- Hodgkin negli umani esposti.

La risposta dell’EFSA è molto articolata (è lunga 18 pagine e non banale da riassumere): ne riporto alcuni punti chiave.

1)

2)

3)

4) differenza fra i due sistemi di valutazione:

differenze specifiche:

Per non annoiarvi vi riassumo che sui punti specifici si vede che le valutazioni divergono anche per aver usato metodi statistici diversi nei due casi e dunque sembra che la valutazione finale che in fondo si distingue per limitata evidenza di cancerogenicità (IARC) o molto limitata evidenza di cancerogenicità (EFSA) dipende anche dal metodo statistico usato per la valutazione.

Ma c’è anche da considerare che mentre IARC non usa lavori se non scritti da autori indipendenti EFSA li usa tutti assegnandogli un peso statistico diverso.

Infine i membri del panel IARC sono essi stessi scelti solo fra persone prive di conflitti di interesse mentre nel caso di EFSA la cosa è più complessa e discutibile.

A proposito di questo tema è da notare che anche altri enti ufficiali che sono intervenuti nella questione con la loro autorevolezza scientifica come Joint FAO/WHO meeting on pesticide residue, in effetti sono stati accusati di non avere panels effettivamente indipendenti o comunque in condizione tale da escludere il conflitto di interessi.

Dice l’articolo di Le Monde:

Tre dei suoi ricercatori, infatti, collaborano con l’International life science institute (Ilsi), una lobby scientifica finanziata dalle grandi industrie del settore agroalimentare, delle biotecnologie e della chimica: dalla Mars alla Bayern, dalla Kellogg alla Monsanto. Si trattava del tossicologo Alan Boobis, dell’Imperial College, Regno Unito, presidente del consiglio d’amministrazione dell’Ilsi e uno dei presi- denti del Jmpr; di Angelo Moretto, dell’università di Milano, relatore del Jmpr, consulente e consigliere d’amministrazione di una struttura creata dall’Ilsi; e infine di Vicki Dellarco, consulente in diversi gruppi di lavoro dell’Ilsi e componente del Jmpr.

In teoria gli esperti del Jmpr sono sottoposti alle stesse regole d’indipendenza del Circ, cioè quelle dell’Oms, tra le più severe al mondo. Di fatto un conflitto d’interessi apparente, proprio perché può alterare la credibilità dell’istituzione e delle sue decisioni, è grave quanto un conflitto d’interessi accertato. Tuttavia, interpellata da Le Monde, l’Oms ha assicurato che “nessun esperto era in una situazione di conflitto d’interessi tale da impe- dirgli di partecipare al Jmpr”.

Questa risposta lascia insoddisfatti Hilal Elver e Baskut Tuncak, rispettivamente relatrice speciale sul diritto all’alimentazione e relatore speciale sui prodotti e i rifiuti pericolosi delle Nazioni Unite. “Chiediamo rispettosamente all’Oms di spiegare come, in base alle sue regole, è arrivata alla conclusione che i rapporti degli esperti con l’industria non rappresentassero alcun conflitto d’interessi, apparente o potenzia- le”, hanno detto i due esperti a Le Monde. “Processi di verifica adeguati, chiari e tra- sparenti sui conflitti d’interessi sono fon- damentali per l’integrità del sistema”, pre- cisano prima di “incoraggiare” le organizzazioni delle Nazioni Unite a “rivederli”.

“Gravi sospetti” esistono sul “fatto che le aziende ‘comprerebbero’ degli scienziati per spingerli a confermare le loro posizioni”, hanno scritto i due esperti nel loro rapporto sul diritto all’alimentazione.

“Gli sforzi fatti dall’industria dei pesticidi”, si legge in questo testo consegnato al consiglio dei diritti umani delle Nazioni Unite lo scorso marzo, “hanno ostacolato le riforme e bloccato le iniziative dirette a ridurre l’uso dei pesticidi su scala mondiale”.

Ma a quali sforzi si riferiscono i due funzionari?

La risposta è nei cosiddetti “Monsanto papers“ che sono i documenti che l’azienda è stata costretta a trasmettere finora alla giustizia. Negli Stati Uniti la cosiddetta procedura di discovery (scoperta) autorizza queste operazioni.

Negli USA sono in corso 800 processi per danni da glifosato che potrebbero portare al pagamento di somme ingenti; la magistratura americana ha imoosto la pubblicazioni di decine di milioni di pagine di documeti interni Monanto che svelano secondo Le Monde una strategia di risposta della Monsanto che ha coinvolto molti scienziati apparentemnete “indipendenti” con articoli pubblicati su blog o su riviste a pagamentoo su giornali pubblicati da enti finanziati da alcune aziende agrochimiche. Per maggiori dettagli leggete l’articolo di Le Monde e se non riuscite chiedetemelo (sono abbonato a Internazionale).

Aggiungo due cose: se si guardano le cose da un punto di vista tecnico le due posizioni potrebbero non essere in contrasto; per capirci faccio riferimento ad un argomento diverso.

Voi sapete che a norma della legge sulla sicurezza del lavoro 81/08 pericolo e rischio sono due distinti concetti;

la definizione di Pericolo è compresa nell’art. 2, lettera r, D.Lgs. 81/08

Proprietà o qualità intrinseca di un determinato fattore avente il potenziale di causare danni. Il pericolo è una proprietà intrinseca (della situazione, oggetto, sostanza, ecc.) non legata a fattori esterni; è una situazione, oggetto, sostanza, etc. che per le sue proprietà o caratteristiche ha la capacità di causare un danno alle persone

Ma che una cosa sia pericolosa non vuol dire che sia rischiosa.

Il rischio è definito nell’ art. 2, lettera s, D.Lgs. 81/08

Probabilità di raggiungimento del livello potenziale di danno nelle condizioni di impiego o di esposizione ad un determinato fattore o agente oppure alla loro combinazione

In definitiva una cosa che è pericolosa potrebbe non essere rischiosa; in questo senso non vedo un contrasto insanabile fra le due posizioni: la questione potrebbe essere vista così: IARC ha ragione il glifosato è pericoloso potenzialmente, ma nelle condizioni pratiche di impiego l’esposizione del grande pubblico alla sostanza non supera mai il livello di rischio accettabile; esistono casi analoghi; per esempio il benzene è cancerogeno conclamato ma è permesso il suo uso nella benzina a certe condizioni (percentuale in volume inferiore all’1% ed uso degli aspiratori nelle centraline di distribuzione).

D’altra parte noi chimici sappiamo bene che tutto può essere tossico, anche l’acqua, in relazione alla concentrazione: è la dose che fa il veleno. Se i pesticidi fossero stati usati con ragione e raziocinio, lo stesso discorso vale per il cromo delle concerie, certo le proprietà dei composti sotto accusa non sarebbero diverse da quelle che sono, ma i danni a salute ed ambiente sarebbero stati e sarebbero minori con le conseguenze relative sulla valutazione dell’uso

E’chiaro che qua è in gioco molto di più del glifosato che comunque vale miliardi di dollari di profitto; è in gioco una agricoltura interamente meccanizzata e basata su un uso intensivo di combustibili fossili e di concimi sintetici, di erbicidi e pesticidi; ne abbiamo parlato molte volte: l’agricoltura moderna, successiva alla “rivoluzione verde” è sostenibile? Ha alterato il ciclo del fosforo e dell’azoto e certamente ha contribuito alla crescita dei gas serra (metano, NOx); ha alterato la biodiversità e messo a rischio i principali impollinatori (api, bombi); possiamo continuare ad usarla senza problemi? Non credo.

Non voglio apparire formale, ma cercare di capire; ogni commento anche critico è ben accetto; è altrettanto certo che il conflitto deve essere risolto e al più presto; ne va della nostra immagine ancora una volta.

 

Invito all’educazione idrica.

In evidenza

Mauro Icardi

L’approssimarsi dell’estate si può ormai riconoscere da due fenomeni ricorrenti. Il primo sono gli incendi boschivi. Piaga che sembra quasi da considerarsi come una maledizione, ma dipende invece da un disinteresse per il rispetto ambientale. E anche da disturbi comportamentali. Il piromane è attirato dagli effetti del fuoco, e può appiccarli per vandalismo, profitto personale o vendetta. Non sono né psicologo ne psicoterapeuta. Tocca a loro studiare il problema.

Il secondo fenomeno che si sta invece verificando negli ultimi anni, e con un peggioramento significativo è quello dei fenomeni ricorrenti di siccità. Il modificarsi del regime delle piogge, i sempre più evidenti fenomeni estremi sia di siccità prolungate che di scarso innevamento invernale si ripercuotono in maniera evidente nel comparto delle gestione del ciclo idrico integrato.

Già nel 2011 l’organizzazione mondiale della sanità si è preoccupata di emanare linee guida per la fornitura idrica ed il trattamento di potabilizzazione durante il verificarsi di eventi meteorologici estremi.

(WHO Guidance in water supply and sanitation in extreme weather events).

Eventi di questo genere mettono sotto pressione le strutture di distribuzione e di depurazione. Quindi occorre dotare le aziende di efficaci piani di intervento. Allo stesso tempo, ad eventi violenti e concentrati di precipitazioni piovose fanno spesso seguito periodi piuttosto lunghi di assenza di precipitazioni. Quindi occorre predisporre usi razionali dell’acqua. E questo non deve essere impegno solo delle aziende fornitrici, ma dovrebbe esserlo di ogni singolo utente. Per quanto attiene al settore depurativo che patisce maggiormente le repentine variazioni dei flussi idraulici vale comunque l’invito a non gettare nei wc materiali estranei e non biodegradabili. Questa è una regola ancora troppo spesso sottovalutata. Interventi straordinari di manutenzione e di pulizia sono necessari per liberare le sezioni di trattamento da materiali estranei che oltrepassano la sezione di grigliatura. Spesso il trattamento di depurazione è conosciuto da non molte persone. Questo è un invito a non buttare tutto giù nl wc alla rinfusa.

Per quanto riguarda invece l’acqua potabile l’invito è sempre quello di risparmiarla e di non sprecarla. Destinandola agli usi principali, cioè per bere e cucinare, e per l’igiene personale.

In questo grafico viene suggerito come l’acqua piovana possa sostituire quella potabile per utilizzi diversi. Ma non solo l’acqua potabile, anche l’acqua depurata potrebbe avere utilizzi diversi, primo fra tutti quello irriguo. Non sono pochi gli ostacoli di carattere più burocratico che tecnico. Ma occorre essere molto attenti, e rendersi conto che dovremmo inserire tra le materie di studio anche quella dell’educazione idrica. Educarci a risparmiare e rispettare l’acqua. Da subito. Da ora. Vincendo inutili resistenze, rinunciando alla piscina gonfiabile in giardino, e del rito settimanale di lavaggio dell’auto.

Non è a mio parere una regressione, bensì il primo passo dell’educazione idrica . Fondamentale e indispensabile.

(Cogliamo l’occasione per ricordare il nostro collega di Unife Francesco Dondi che anche su questi temi ha speso la sua vita accademica; Francesco continuiamo la tua attività).

 

La falsa petizione “contro le eco-bufale” del Prof. Zichichi e Il Giornale

In evidenza

Ospitiamo volentieri questo post degli amici di Climalteranti sul tema del clima e di come certi scienziati e giornali ne parlano in modo del tutto improprio e soprattutto costruendo un inesistente consenso alle loro posizioni; il testo del post è opera collettiva e compare oggi su vari siti e blog; è interessante notare che su Il Giornale è stata pubblicata una risposta alle “zichicche” da parte del Comitato Scientifico del WWF Italia.

Il 5 luglio è apparso su “Il Giornale” un articolo in cui il Prof. Antonino Zichichi ha ribadito le sue posizioni estreme sulla questione climatica, parlando di “eco-bufale”, di “terrorismo” e criticando in modo radicale la modellistica climatica; l’articolo è stato presentato da un titolo (si presume della redazione) in cui si definivano “ciarlatani” gli scienziati che ritengono che le attività umane stiano modificando il clima del pianeta.

Climalteranti ha già spiegato in un precedente post lo scarso spessore scientifico di questa ulteriore raffica di “zichicche”, nonché la stranezza della sezione intitolata “Appello della Scienza contro le eco-bufale” dove “La Scienza” sembrava rappresentata, oltre che dal prof. Zichichi in persona, dalle firme di venti scienziati.

Ora, questa cosa è parecchio strana per vari motivi. Il primo è che dei venti firmatari non ce n’è uno, che sia uno, che si occupi di clima. Sono quasi tutti fisici delle particelle o fisici teorici. La seconda stranezza è che non si capisce bene dall’articolo de “Il Giornale” che cosa queste persone abbiano firmato. Di quali “eco-bufale” si tratta, esattamente?

Così, abbiamo pensato di contattare direttamente i firmatari, chiedendo loro gentilmente se potevano darci qualche delucidazione su cosa avessero firmato e se fossero d’accordo con le idee di Zichichi. La lettera è stata firmata da 37 studiosi che in diverso modo lavorano nel settore dei cambiamenti climatici.

I risultati sono stati interessanti. Dei venti firmatari, cinque ci hanno risposto esplicitamente che non hanno firmato niente del genere e che NON sono assolutamente d’accordo con le opinioni di Zichichi e nemmeno con l’idea di chiamare “ciarlatani” e “terroristi” quelli che si occupano di clima. Degli altri 15, nessuno ha confermato che ha firmato sapendo cosa firmava e che è d’accordo con Zichichi.

Ad esempio:

– Isabell Melzer-Pellmann ci ha scritto: “sono molto dispiaciuta che il mio nome sia stato citato nel giornale con l’articolo del Prof. Zichichi, di cui non condivido le opinioni”;

– Michael Duff ci ha scritto: “potrei aver firmato una richiesta di sanzioni più dure contro l’inquinamento, ma è un peccato se la mia firma e l’articolo del professor Zichichi hanno creato l’impressione che io sia uno scettico sul clima, perché non lo sono”;

– Peter Jenni ci ha scritto: “è vero che ho firmato un testo in inglese con quattro punti, pensando (forse non abbastanza) che fossero ragionevoli. In nessun modo ho pensato che avrebbero implicato il contenuto o lo stile / le accuse riportato nell’articolo de Il Giornale firmato dal Prof. Zichichi”.

In sostanza, dalle risposte ricevute, ci sembra di capire che in una recente scuola di fisica tenuta a Erice sia circolata una breve petizione (“cinque righe in inglese”) in cui si parlava di agire con più forza contro l’inquinamento atmosferico, ma non si diceva niente delle particolari opinioni del Prof. Zichichi sulla scienza e sugli scienziati del clima.

Alla fine dei conti, sembra chiaro che qualcuno abbia sfruttato la buona fede di perlomeno alcuni (e forse molti) dei firmatari della “petizione” per una delle solite operazioni politiche dove si cerca di screditare la scienza del clima.

In conclusione, l’appello dei 20 scienziati contro le eco-bufale semplicemente non esiste: ci sono solo le tesi senza fondamento di un fisico delle particelle, a cui – e questa è la cosa più grave –, un quotidiano nazionale continua a dare credito. In spregio non tanto alle regole basilari della deontologia professionale che imporrebbero di controllare le fonti (su questo ci siamo abituati, non chiediamo tanto a Il Giornale), ma al buon senso.

Ecco il testo della lettera ai 20 scienziati presunti firmatari dell’appello pubblicato da “Il Giornale”:

Dear colleague,

You may be aware that your name and academic affiliation have been included in a list of signatories of an appeal related to climate change recently published in a National Italian newspaper (Il Giornale, 05-07-2017).

From the article as it has been published, it is difficult to understand what is exactly the text of the “appeal.” However, the title says that the signatories are against unspecified “climate hoaxes” and against “environmental terrorism.” The appeal seems to consist of (or at least to be in agreement with) a series of statements by Professor Antonino Zichichi which appear in the same pages. As scientists directly and indirectly involved in climate science, we find hard to follow the logic of Prof. Zichichi’s arguments and surely we don’t agree with his interpretation of climate science. We note also that the text includes branding as “charlatans” those who maintain that greenhouse gases can modify the earth’s climate.

We are, of course, open to discuss different interpretations of climate than the currently accepted ones. But we find hard to believe that a group of scientists who don’t seem to have qualifications and/or experience in climate science agreed to sign a document in which their colleagues engaged in climate science research are defined as charlatans and terrorists.

We therefore wonder whether you are aware of what exactly you signed and of how your signature has been presented and used in Italian media. On this point, we hope that you can provide us with a clarification.

For your information, we include a scan of the article that was published on “Il Giornale.” We also thought you might be interested in a list of the scientific organizations – which include many thousands of working scientists – which agree on the fact that climate change is the result of human activities. https://www.opr.ca.gov/s_listoforganizations.php.

Signed by the following scientists

Vincenzo Artale, ENEA, Roma

Carlo Barbante, Università di Venezia

Ugo Bardi, Università di Firenze

Alessio Bellucci, Centro EuroMediterraneo sui Cambiamenti Climatici, Bologna

Daniele Bocchiola, Politecnico di Milano

Giorgio Budillon, Università Parthenope, Naples

Carlo Cacciamani, Arpae-Simc, Bologna

Simone Casadei, Fuels Department, Innovhub-SSI

Stefano Caserini, Politecnico Milano

Claudio Cassardo, Università di Torino

Sergio Castellari, Istituto Nazionale di Geofisica e Vulcanologia

Claudio Della Volpe, Università di Trento

Sara Falsini, Università di Firenze

Davide Faranda, LSCE-IPSL, Université Paris-Saclay

Paolo Gabrielli, The Ohio State University

Antonio Garcia-Olivares, Institute of Marine Sciences, Barcelona

Emilio García-Ladona, Institute of Marine Sciences, Barcelona

Mario Grosso, Politecnico di Milano

Klaus Hubacek, University of Maryland

Christian Kerschner, Masaryk University, Brno, Czech Republiic

Piero Lionello , Università del Salento

Luca Lombroso, Università di Modena

Vittorio Marletto, ARPAE Emilia-Romagna

Simona Masina, Centro Euro-Mediterraneo sui Cambiamenti Climatici, CMCC

Maurizio Maugeri, Università di Milano

Luca Mercalli, The Italian Meteorological Society

Gabriele Messori, Stockholms Universitet

Daveide Natalini, Global Sustainability Institute, Anglia Ruskin University, Cambridge

Elisa Palazzi, Istituto di Scienze dell’Atmosfera e del Clima (ISAC-CNR)

Antonello Pasini, CNR, and Università di Roma 3.

Ilaria Perissi, INSTM, University of Florence

Lulin Radulov, BSERC, Technical University of Sofia

Jordi Sole Olle, Institute of Marine Science, Barcelona

Stefano Tibaldi, Centro Euro-Mediterraneo sui Cambiamenti Climatici

Antonio Turiel, Institute of Marine Sciences, Barcelona

Marina Vitullo. National Institute for Environmental Protection and Research, ISPRA

Dino Zardi, Università di Trento

Testo del Comitato Scientifico di Climalteranti e di Antonello Pasini

Eni è prima. Ma anche ultima.

In evidenza

Claudio Della Volpe

Come promesso, Trump ha riaperto alle trivellazioni petrolifere i territori artici dell’Alaska. Si tratta di una tragica scelta che contribuirà alla distruzione di uno degli ambienti ancora relativamente inviolati del pianeta Terra per prolungare la vita dei colossi petroliferi di qualche anno; la cosa dovrebbe preoccuparci ed indignarci.

Ma ancor più come italiano mi fa indignare che la prima azienda che ha battuto tutte le altre sul filo dei lana nel chiedere permessi sia la nostra ENI , quella che si fa pubblicità sostenendo di essere verde e di difendere l’ambiente. Ne abbiamo parlato altrove (https://ilblogdellasci.wordpress.com/2017/06/16/la-pubblicita-di-eni-2-quanto-e-verde-la-chimica-verde/).

Allora vediamo cosa ha ottenuto e cosa reclama di poter fare il cane a 6 zampe.

La filiale americana dell’azienda (l’Eni Us Operating Co. Inc.) ha ottenuto il via libera dal Boem (Bureau of Ocean Energy Management) per la trivellazione di quattro pozzi in Alaska, nel mare di Beaufort, ma solo a scopo di esplorazione. I lavori dovrebbero iniziare a dicembre di quest’anno, per andare avanti fino al 2019, esclusivamente in inverno quando in zona ci sono meno balene e orsi polari. (La Repubblica del 17 luglio)

Bontà loro.

In effetti nel dicembre del 2016, alla fine del suo mandato Obama con un atto che aveva vigore di legge (che si rifaceva ad una legge del 1953 che consente di bloccare anche le future estrazioni, quindi più difficile da ribaltare e da sospendere) aveva bloccato le estrazioni e le esplorazioni in una parte del Mare dei Ciukci, che mette in comunicazione il mare di Bering con l’Oceano Artico, e la maggior parte del mare di Beaufort :”off limits a tempo indeterminato per future concessioni per le trivellazioni petrolifere e del gas”. “Queste azioni, e quelle parallele del Canada, vogliono proteggere un ecosistema unico e fragile“, aveva dichiarato Obama, sottolineando che anche con massimi standard di sicurezza i rischi di fuoriuscita di petrolio in un ambiente così remoto sarebbero troppo alti.

Tuttavia teniamo presente che (sempre Repubblica 21 dicembre 2016):

La mossa, comunque, non avrà effetti sulle licenze già concesse ed esclude un’area vicino alla costa del mare di Beaufort. Si ritiene che avrà un effetto minimo sull’industria petrolifera americana che ha un’attività molto limitata nella regione dove gli investimenti infrastrutturali sono molto costosi. Appena lo 0,1% della produzione offshore del greggio Usa è arrivata dalla regione lo scorso anno.

Proprio nel mare di Beaufort ENI ha dal 2007 un suo giacimento operativo: Nikaitchuq; questo non è stato toccato dall’ordine del Presidente Obama.

Il giacimento in questione posto a bassa profondità (3m) (http://www.offshore-technology.com/projects/nikaitchuqoilfieldal/) con un contenuto stimato di 220 Mboe, ha cominciato a produrre nel 2011. La spesa per farlo partire assommava già allora a oltre 1.5Geuro. Il giacimento produce circa 28000 bd e ne ha prodotti fino al 2016 22 Mboe.

Il permesso accordato ad ENI da Trump per il momento riguarda non nuovi pozzi estrattivi, ma nuovi pozzi esplorativi. Con questi nuovi pozzi ENI probabilmente pensa di estendere la portata del giacimento. Altre notizie sul giacimento e il suo futuro si trovano qui e risalgono a qualche mese fa, dove si vede che il rapporto con il nuovo governo era già attivo (http://www.petroleumnews.com/pntruncate/385547015.shtml).

Le nuove esplorazioni saranno condotte da pontoni appositamente attrezzati per questo ambiente estremo, probabilmente uno di questo tipo, Doyon rig 15.

Per capire il ruolo di questi giacimenti e valutarne la portata economica tenete presente che quando i prezzi sono scesi nel 2015 sotto i 40-45 dollari ENI ha sospeso le estrazioni volontariamente; possiamo quindi capire che quel tipo di estrazioni ha un costo più alto della media degli altri pozzi, come è logico, date le difficoltà.

ENI sostiene che ha l’esperienza per condurre in porto la ricerca dato che è sua un’altra base di estrazione posta nel mare Artico, la gigantesca Goliat; si tratta di una base estrattiva, una FPSO (Floating Production Storage and Offsloading) costruita in Corea e trasportata nel Nord della Norvegia dove è in funzione da più di un anno (sia pure con due anni di ritardo sul previsto). Il giacimento in questione in territorio norvegese non è sfruttato dalla Norvegia, ma la Norvegia lo concede ad altri controllando le modalità di estrazione attraverso un apposito ente e da questo nascono, come vedremo, parecchie polemiche.

Viene dunque naturale informarsi su cosa faccia Goliat al largo della Norvegia, nel mare di Barents 65km dalla costa; eccovi serviti.

Goliat è una nave cilindrica da 64000 ton di stazza e un diametro di oltre 100 metri, ben alta sul pelo dell’acqua; è stata trasportata dal luogo di costruzione in Sud Corea fino al mare di Barents.

Il giacimento norvegese è in produzione dal marzo 2016 ma con vari problemi, che possono darci un’idea di cosa potrebbe succedere nelle analoghe condizioni del Mare di Beaufort.

La Stampa del 6 settembre 2016 scriveva:

L’avviamento del campo Goliat nel Mare di Barents , a 65 km di distanza dalle coste settentrionali della Norvegia, è stato salutato come un grande successo tecnologico. Tuttavia, la suggestiva pagina del sito Eni che ci racconta di questo mirabile bidone in mezzo ai ghiacci omette qualche recente novità che pare interessante.

Lo scorso 1 settembre il Ministro del Lavoro e dell’Inclusione Sociale Anniken Hauglie ha infatti convocato la potentissima e indipendente Autorità norvegese per la sicurezza delle attività petrolifere, la Petroleum Safety Autority (PSA) “dopo oltre una dozzina di incidenti che hanno coinvolto quest’anno il campo Goliat”.

Eni è da tempo ai ferri corti con i sindacati norvegesi per questioni legate alla sicurezza a bordo di Goliat. Critiche che, tra l’altro, non risparmiano nemmeno SAIPEM, che opera nel campo Goliat con la piattaforma da trivellazione Scarabeo 8. L’incidente più grave di cui abbiamo notizia è accaduto lo scorso 25 giugno quando un operatore della Apply Sorco (una ditta subcontraente di Eni) è stato ferito alla testa durante la consegna di macchinari a bordo della piattaforma. Le condizioni dell’operatore sono state definite gravi, ma per fortuna non è mai stato in pericolo di vita.

Dai media norvegesi si apprende inoltre che a luglio alcuni Rappresentanti per la Sicurezza avrebbero scritto una lettera al management di Eni chiedendo di fermare l’impianto per le opportune verifiche: fino ad allora la PSA aveva già ricevuto in cinque mesi di attività dell’impianto “non meno di sei notifiche di perdite di gas o di rilevamenti di gas sulla piattaforma”. Oltre a questi: fumo in un generatore, dispersione di un fluido idraulico e altro ancora, compreso l’incidente al subcontractor di cui sopra. Le stesse fonti ci informano che sono ancora in corso indagini su emissioni di sostanze chimiche da Goliat e sulla caduta in mare di un lavoratore, lo scorso febbraio, dalla piattaforma di trivellazione Scarabeo 8.

Insomma, ai sindacati che chiedevano lo stop di una o due settimane di Goliat per le necessarie verifiche/migliorie, Eni avrebbe risposto che “Eni Norvegia ha preparato piani per aumentare l’efficienza operativa e la manutenzione senza alcun bisogno di fermare a lungo l’impianto”. Una risposta che non ha di certo soddisfatto i sindacati, che hanno lamentato la presenza di alcuni manager Eni “senza alcuna competenza della cultura e del regime lavorativo” norvegese.

Ma anche la PSA non deve aver dormito sonni tranquilli e così, dopo che lo scorso 27 agosto si è verificato un black out al sistema elettrico di Goliat, l’Autorità – il 29 agosto – ha chiesto a Eni di interrompere le operazioni fino al 5 settembre, ordinandogli nel frattempo “di identificare e applicare misure necessarie, dopo l’incidente del 27 agosto 2016, per giungere a conformità rispetto alla legislazione sulla salute, la sicurezza e l’ambiente”. Un piano che Eni è chiamata a presentare in queste ore, con le scadenze vincolanti per la sua applicazione.

Ma se il Ministro del Lavoro convoca la PSA, evidentemente ci dev’essere dell’altro. L’impressione è che ci sia una latente sfiducia (tra i sindacati e i politici) verso Eni o, per essere esatti, verso gli standard applicati nella costruzione di piattaforme petrolifere che, si sostiene per risparmiare, invece che in Norvegia sono costruite altrove. Ad esempio in Corea del Sud, dove (a Ulsan) è stata costruita Goliat.

Per avere notizie più aggiornate occorre però rivolgersi ai giornali stranieri o perfino a quelli norvegesi:

Sul The independent Barents observer del febbraio 2017 in un articolo intitolato efficacemente Goliat oil: On-off-on-off-on-off si scrive (https://thebarentsobserver.com/en/industry-and-energy/2017/02/goliat-oil):

Since production at Goliat, the world’s northernmost offshore oil platform, officially started in March last year, oil pumping has been on-off-on-off several times.

Head of Communication with ENI Norge, Andreas Wulff, says to Teknisk Ukeblad the reason is a failure in a valve. Wulff estimates production to be online again within some few days. In August last year, the Goliat platform lost all power and personnel was brought to land.

Quindi l’incidente di agosto è stato così grave da dover riportare tutto il personale a terra, cosa non menzionata da La Stampa.

After the shut-down in Christmas, Norway’s Petroleum watchdog wrote a notice of order expressing concern about the Italian oil company. «Eni has revealed a limited ability to implement existing plans,» the Petroleum Safety Authority stated.

Questa l’opinione dei norvegesi sulle capacità dell’ENI; non sappiamo se gli americani ne siano a conoscenza.

Dovremmo però noi italiani farci portavoce della situazione verso la nostra opinione pubblica; la ricerca e l’estrazione del petrolio diventano sempre più costose, ha senso spendere tanti soldi per cercare tutto sommato limitate quantità di nuovi idrocarburi in zone del pianeta così difficili da esplorare e così delicate dal punto di vista ambientale invece di investire sulle nuove energie rinnovabili? Noi non abbiamo una filiera italiana del FV, non abbiamo una filiera italiana dell’accumulo elettrochimico, l’ENI non è coinvolta seriamente in nessuno dei tentativi di costruirle come le piccole startup che si occupano di celle al litio (come la Lithops S.r.l. di Torino), di riciclo delle terre rare, di produzione di silicio per FV (ex MEMC di Merano); in compenso ammantandosi di immeritata verginità ambientale per l’uso del metano e per altre ragioni che potete trovare nella diffusa pubblicità, ENI si rifiuta di cambiare la sua politica che tanti guasti ha prodotto in Nigeria (https://ilblogdellasci.wordpress.com/2017/06/09/la-pubblicita-di-eni-il-metano-ci-da-una-mano-o-no/) e adesso nell’Artico.

ENI è prima a reclamare nuove trivellazioni nell’Artico, ma ultima sulla strada di una nuova e necessaria politica energetica. La nuova SEN in discussione adesso dovrebbe sancirlo.( https://ilblogdellasci.wordpress.com/2017/06/12/alcune-considerazioni-sulla-strategia-energetica-nazionale-2017/)

Henry A. Bent (1926-2015): un chimico poco noto− Parte II

In evidenza

Rinaldo Cervellati

Henry A. Bent, “il professore che ha provato come la chimica può essere divertente” [1], nella sua lunga carriera di docente e ricercatore ha pubblicato più di 60 articoli a carattere prevalentemente didattico sul Journal of Chemical Education, dal 1960 al 2007. Gli argomenti sono fra i più disparati: dall’analisi dei concetti e alla loro proponibilità nell’insegnamento scolastico, dalla convinzione che la chimica è un linguaggio alle sue proposte di esperimenti dimostrativi per studenti e un pubblico più vasto, alle recensioni di libri di testo. Illustrare in poco spazio questa incredibile mole (è il caso di usare questo termine) di lavoro è praticamente una “mission impossible”. Ci proverò scegliendo due contributi, il primo riguardante le fiamme, il secondo sul concetto di orbitale.

Bent e le fiamme

Bent e le fiamme

Nel primo dei due, intitolato Flames: A Demonstration Lecture for Young Students and General Audiences[1], l’autore si propone di mostrare come con materiali di uso comune (zucchero, acqua, bicarbonato, aceto, candela, più una striscia di magnesio) si può capire di cosa si occupa la chimica e anche iniziare a comprenderne il linguaggio [2].

Bent dice:

Bent e le fiamme

Lasciatemi però spiegare dapprima la differenza fra fisica e chimica.

La fisica è la scienza delle proprietà generali della materia – la gravitazione universale, per esempio. Lascio cadere questo fiammifero. Questa è fisica. La distanza di caduta s è proporzionale al quadrato del tempo di caduta t. La distanza e il tempo sono concetti familiari. Ora sfrego il fiammifero. Una fiamma! Calore e luce. È illuminante! Questa è chimica. La chimica, vorrei dire, è più spettacolare della fisica. La chimica è la scienza delle proprietà particolari della materia, l’infiammabilità per esempio. C’è molto di completamente nuovo nelle trasformazioni chimiche della materia. [2, p. 151]

Bent invita quindi il pubblico a guardare la fiamma di una candela[2].

L’incandescenza della candela proviene dalla presenza nelle parti luminose della fiamma di particelle calde e solide. Possiamo raccoglierle con una spatola. A temperatura ambiente sono nere. Le chiamiamo fuliggine. È carbonio quasi puro, uno degli elementi chimici. Sopra la parte incandescente della fiamma, la fuliggine calda viene ossidata dall’ossigeno dell’aria formando un gas invisibile, il biossido di carbonio. I chimici scrivono:

C(s) + O2(g) → CO2(g) p

Possiamo dimostrare la presenza di biossido di carbonio nei prodotti finali della combustione della candela raccogliendoli in un pallone rovesciato. Poi aggiungiamo una soluzione di idrossido di calcio, comunemente chiamata calce, e scuotiamo. L’acqua di calce diventa presto color bianco latteo. Il precipitato bianco è carbonato di calcio, CaCO3. Il carbonato di calcio è il componente principale del calcare. Il calcare costituisce la maggior parte di molte delle nostre montagne.

La cera di candela è costituita da sostanze che sono principalmente composti del carbonio e dell’idrogeno. Il calore della fiamma della candela fonde la cera. Ulteriore calore vaporizza la cera dalla sporgenza. Infine, il calore trasforma le molecole del vapore di cera in carbonio e piccole molecole contenenti carbonio e idrogeno. Tali intermedi sono infine ossidati dall’ossigeno dell’aria sovrastante in anidride carbonica e acqua. [2, p. 152]

Bent continua a usare la candela in questo modo: un pezzo di cera viene posto in un becher che viene riscaldato con una fiamma esterna:

La cera fonde rapidamente in un liquido incolore. Il liquido comincia a fumare. Nelle pareti superiori fredde del becher parte del vapore si condensa in piccole particelle di cera liquida e solida. Continuando il riscaldamento, il vapore della cera, il fumo e l’aria formano una miscela combustibile, sviluppando una fiamma nel becher, che allontana momentaneamente il fumo. Ora abbiamo una fiamma continua: una fiamma di candela senza candela. Ma, a differenza della fiamma di candela, questa fiamma non è autosufficiente. Rimuovendo il calore ausiliario, la fiamma si spegne. [2, p. 152]

La dimostrazione prosegue:

Guardiamo ora cosa succede se spruzziamo un poco di acqua liquida con uno spruzzatore sulla cera nel becher. Il fuoco non si spegne ma si disperde in tanti fuocherelli appena l’acqua ha toccato il grasso. Le gocce d’acqua si sono messe a bollire trasformandosi in vapore spruzzando intorno goccioline di grasso infiammabili ravvivando il fuoco. Si tratta di “iniezione di carburante per generazione di vapore”. Un processo largamente sfruttato nell’industria. Non è certo il modo per allontanare l’ossigeno molecolare dal grasso caldo. Un panno umido sopra il becher avrebbe funzionato meglio.[2, p. 152].

A questo punto Bent spiega, con esempi pratici come l’aumento di contatto fra due o più corpi favorisce il verificarsi di trasformazioni chimiche:

Gran parte della moderna civiltà-scientifica, industriale, e tecnologica, deriva dal riconoscimento chimico che le molecole per reagire devono prima collidere, urtarsi.

Si passa quindi alle fiamme degli idrocarburi della serie del metano ma Bent inizia spiegando che le singole molecole della cera di candela contengono circa 18 atomi di carbonio, legati fra loro in catene a zig-zag.

Le molecole del polietilene dello spruzzatore contengono migliaia di atomi di carbonio, ciascuno legato ad atomi di idrogeno. È anche combustibile, vedete… Andando a pesi molecolari inferiori, otteniamo liquidi come il kerosene. Il cherosene, come la candela, non è molto volatile. Ha un valore relativamente alto di punto di infiammabilità. Possiamo costruire un fiammifero con il kerosene, ma non provate con la benzina!

L’idrocarburo più semplice è CH4, chiamato metano o gas naturale. È il gas per cui è stato costruito il bruciatore Bunsen nel quale entra un flusso del gas. Premesso che dalla base del bruciatore si può regolare la quantità d’aria che si mescola col gas, se si lascia che tutta l’aria entri, il metano brucia con una fiamma molto calda e relativamente poco luminosa, come quella che abbiamo visto con l’accendino a propano (a destra in figura). Bloccando l’ingresso dell’aria, il metano brucia con fiamma meno calda e luminosa, simile a quella della candela. Evidentemente, in queste condizioni si forma una certa quantità di fuliggine (a sinistra in figura) [2, p.152-153].

Fiamme bunsen

Bent mostra ora le fiamme prodotte dalla combustione di acetilene, alcol isopropilico e zucchero, facendo notare che tutte le sostanze usate contengono carbonio e idrogeno e le fiamme sono causate dalla reazione chimica con l’ossigeno dell’aria.

La combustione dello zucchero ha portato a una massa nera di carbonio in fondo alla provetta e a goccioline di acqua di condensa nella parte superiore. Introduce il termine carboidrati.

A questo punto proverà a bruciare separatamente carbonio e idrogeno.

Il semplice riscaldamento della provetta contenente il carbonio mostra che la sua ossidazione è molto lenta. Dobbiamo fornire più ossigeno al carbonio. Facciamo scorrere l’ossigeno nella provetta attraverso un tubo di vetro collegato a una bombola di ossigeno. È spettacolare! È la reazione di C + O2, solo con ossigeno puro, piuttosto che in miscela con aria. Il carbonio sta ora bruciando con un colore rosso fuoco. La provetta si è deformata ma non si è rotta. Alla fine è pulitissima, tutto il carbonio ha reagito. [2, p. 153]

Lampadine Edison a filamenti di carbonio

L’idrogeno si ottiene facilmente, basta avere un opportuno metallo e una soluzione acquosa di un acido forte, per esempio zinco e acido cloridrico. Mescoliamoli:

Si ottiene una massa frizzante, il metallo si scioglie e si sviluppano bollicine di un gas incolore e inodore, il gas più leggero conosciuto, l’idrogeno. Possiamo raccoglierne un poco in un bicchiere capovolto. Nel frattempo, riempiamo un piccolo palloncino con idrogeno proveniente da una bombola, e poi avviciniamo un fiammifero. Boom! Piccola esplosione e luce. Chiaramente anche l’idrogeno ha un’alta affinità per l’ossigeno! I chimici scrivono

H2(g) + 1/2O2(g) ® H2O(g)

La luminosità che abbiamo notato è probabilmente dovuta in gran parte alla polvere che impregna i palloncini per impedire di attaccarsi a se stessi o ad altri. La polvere riscaldata dall’esplosione della miscela idrogeno-ossigeno diventa luminosa. L’idrogeno puro brucia in ossigeno con una fiamma quasi incolore, come si vede se accendiamo la miscela idrogeno-aria nel becher dove avevamo raccolto un po’ di idrogeno. E che cosa si è depositato nelle pareti più fredde del becher? Sembra una rugiada fine. È acqua liquida. Come indicato dalla nostra ultima equazione, l’acqua è l’unico prodotto della combustione dell’idrogeno nell’ossigeno.[2, p. 153].

Bent passa poi a mostrare la reazione fra un pezzettino di potassio metallico e acqua tracciata con poche gocce di fenolftaleina. Fa avvenire la reazione sia in un becher sia in una capsula Petri posta su una lavagna luminosa:

In entrambi i casi si nota una reazione violenta, il pezzetto di potassio si incendia girando vorticosamente sulla superficie dell’acqua che si colora in viola, segno che è diventata basica. I chimici scrivono:

2K(s) + H2O(l) ® H2(g) + 2KOH(aq)

Infine il potassio sparisce del tutto.

Il potassio brucia in acqua

Nella capsula Petri il calore della lavagna luminosa fa rapidamente evaporare l’acqua lasciando un residuo bianco di idrossido di potassio.[2, p. 154].

Scaldiamo un sottile nastro di magnesio, esso brucia in aria rapidissimamente e con una straordinaria brillantezza formando una polvere bianca chiamata ossido di magnesio. I chimici scrivono:

2Mg(s) + O2(g) ® 2MgO(s)

Questo fenomeno è stato ampiamente sfruttato nei flash delle macchine fotografiche.

Lampo di magnesio

Dagli effetti provocati dalla combustione del magnesio si potrebbe pensare che esso abbia un’affinità per l’ossigeno maggiore rispetto al carbonio e all’idrogeno.[2, p. 154].

Per verificare l’ipotesi, Bent fa un ulteriore esperimento.

Mettiamo un po’ acqua a bollire in un becher. Il vapore eliminerà tutta l’aria quindi ora sarà pieno di molecole di H2O. Un fiammifero acceso immerso in questo vapore si spegne immediatamente. Guardiamo cosa fa il magnesio. Sorpresa! Il magnesio brucia ancora più vigorosamente nel vapore acqueo che nell’aria! In aria solo un quinto delle molecole contiene ossigeno. Nel vapore tutte le molecole contengono ossigeno. I chimici scrivono:

Mg(s) + H2O(g) ® H2(g) + MgO(s)

L’ossido di magnesio non è molto solubile in acqua. Però con l’aggiunta di qualche goccia di fenolftaleina diventa rosa. Questo è caratteristico delle soluzioni di ossidi metallici, essi formano idrossidi che neutralizzano gli acidi. Una sospensione di idrossido di magnesio in acqua si chiama latte di magnesia e viene usato per combattere l’acidità di stomaco. [2, p. 154]

Per controllare se il magnesio è in grado di sottrarre ossigeno al carbonio serve una sorgente di biossido di carbonio. Si può facilmente ottenere facendo reagire il carbonato di calcio con acido cloridrico oppure, più semplicemente bicarbonato di sodio con aceto.

L’aceto è una soluzione di acido acetico, mettiamone un poco in un becher e aggiungiamo il bicarbonato, l’anidride carbonica che si forma è più densa dell’aria e tende a concentrarsi nel fondo del becher. Un fiammifero acceso immerso in CO2 si spegne subito. E il magnesio? Il magnesio brucia nel biossido di carbonio. Si forma lo stesso ossido bianco insieme a chiazze nere. Come la fuliggine queste sono formate da carbonio. I chimici scrivono:

2Mg(s) + CO2(g) ® 2MgO(s) + C(s)

Ecco il motivo per cui non si possono spegnere gli incendi da magnesio con acqua o anidride carbonica. Se ne sono accorti i britannici durante la battaglia delle Isole Falkland. Alcune navi britanniche avevano sovrastrutture in leghe leggere contenenti magnesio e altri metalli che hanno affinità per l’ossigeno. Quando una delle navi è stata colpita da un missile, le sovrastrutture si sono incendiate bruciando sul ponte producendo più danni del missile stesso. [2, p. 154]

Il secondo contributo, del 1984, è intitolato Should Orbitals be X-Rated in Beginning Chemistry Courses? [3]

Bent affida inizialmente la risposta a Linus Pauling, definendolo, a ragione, “the father of the mathematical theory of orbitals for molecules”:

Non vedo alcun motivo per menzionare gli orbitali molecolari in un corso iniziale in chimica, scrive Linus Pauling in un recente numero di The Science Teacher [4]. Gli orbitali molecolari hanno un valore speciale nella discussione degli stati eccitati delle molecole, continua il padre della teoria matematica degli orbitali molecolari, ma sono piuttosto fuori luogo in un testo elementare di chimica.

Scrive Bent:

È vero tuttavia che l’apprendimento passivo e la ripetizione delle proprietà geometriche degli orbitali ibridi danno agli studenti la sicurezza di partecipare ad un’attività sofisticata con regole definite e facilmente memorizzabili. Dà agli insegnanti la sicurezza di fare domande con risposte definite e facilmente classificabili. Inoltre, permette a studenti e insegnanti di non insistere per avere un insegnamento pratico in laboratorio evitando le difficoltà di preparare da un lato e valutare dall’altro esercitazioni di laboratorio. Sicuramente, taglia i costi della scuola. Ma a quale prezzo? A costo di non sapere come funziona la scienza. E continua:

È stato detto che l’educazione è ciò che si ricorda dopo che tutto ciò che si è imparato è stato dimenticato. Quindi, come sono educati i nostri studenti di chimica? Che cosa ricordano dopo che tutto quello che gli è stato detto sugli orbitali è stato dimenticato? Che la chimica è un mistero, da memorizzare? Il problema non è lì. Gli orbitali sono il paradigma attuale. Il problema è come ci si arriva. Il gioco degli orbitali, per parafrasare Pauli, non è nemmeno sbagliato. È un gioco, tutto lì. Ma non è il gioco della scienza. La regola suprema, la regola generale, la regola del gioco, è assente.[4, p. 421].

Questa regola o Regola della Restrizione e stata enunciata da Lavoisier[3]:

Nel cominciare lo studio [o la presentazione] di una scienza fisica, ha scritto Lavoisier, non dobbiamo formulare [o anticipare] nessuna idea, ma quali sono le conseguenze e gli effetti immediati di un esperimento o una osservazione [5].

La regola di restrizione di Lavoisier è il regno sovrano della scienza. È la regola del buon senso di non saltare a conclusioni prima di conoscere i fatti. È stato solo attenendosi a questa regola che sono state formulate la teoria della termodinamica, della relatività di Einstein, della meccanica quantistica di Heisenberg, dell’operativismo di Bridgman.

Ma, prosegue Bent, la regola di Lavoisier è una regola difficile da giocare. La scienza (e l’insegnamento scientifico) non sono affatto facili.

Purtroppo la popolarità della volgarizzazione degli orbitali nel corso di chimica nei licei dipende anche dai contenuti del syllabus e dei test previsti dagli Advanced Placement Exams il cui superamento è richiesto da molti College e Università. Scrive Bent:

Il gioco di raccontare e ripetere piace tanto a insegnanti e studenti perché permette di ottenere voti alti agli esami. Il punteggio di quattro o cinque negli esami AP può essere dovuto all’esposizione delle regole per la formazione di orbitali, purtroppo nella mente di molti studenti questo può essere il loro uso principale. Insiste Bent:

L’adesione rigorosa alla Regola di Lavoisier richiede che i fatti siano esposti in modo induttivo, per catturare le idee, non di formulare ipotesi in modo meramente deduttivo.

Per esempio, c’è un solo isomero con formula molecolare CH2C12, da questo fatto i chimici hanno supposto che l’atomo di carbonio ha una struttura tetraedrica. Questa supposizione, basata sui fatti, ha dato luogo alla branca della stereochimica.

Solo molto più tardi fu riportato da Pauling e Slater, che la più semplice descrizione delle valenze tetraedricamente dirette dell’atomo di carbonio in termini di armoniche sferiche centrate su esso potevano essere interpretate da orbitali ibridi sp3. L’ibridazione è conseguente ai fatti, non i fatti dall’ibridazione.[4, p. 422]

Dopo altri esempi, Bent conclude:

È un fatto che gli studenti arrivano al college con una scarsa conoscenza della chimica descrittiva. Con riluttanza, il Comitato per la Formazione Professionale (CPT) dell’American Chemical Society ha raccomandato una maggior flessibilità nei programmi dei corsi di chimica di base valorizzando gli argomenti di chimica descrittiva, istituendo eventualmente corsi avanzati per approfondimenti.

Se la raccomandazione fosse accolta, dice Bent, ci sarebbero meno ripetizioni. Infatti, tutto il discorso sui moderni “orbitali molecolari” (e anche sulla termodinamica formale), viene generalmente ripetuto all’università. [4, 422]

Non mi sembra che la raccomandazione del CPT e le considerazioni di Bent siano state recepite, voi che ne dite?

 

Bibliografia

[1]”Pitt professor proved chemistry can be fun”, nel titolo del necrologio sulla scomparsa di Bent pubblicato dalla Pittsburg Post-Gazette l’11 gennaio 2015 a firma Jill Harkins.

http://www.post-gazette.com/news/obituaries/2015/01/11/Pitt-professor-proved-that-science-can-be-fun/stories/201501080119

[2] H.A. Bent, Flames: A Demonstration Lecture for Young Students and General Audiences, J. Chem. Educ., 1986, 63, 151-155

[3] H.A. Bent, Should Orbitals be X-Rated in Beginning Chemistry Courses?, J. Chem. Educ., 1984, 61, 421-423

[4] L. Pauling, Throwing the Book at Elementary Chemistry, The Science Teacher, 1983, 50, 25-29

[5] A.L. Lavoisier, Traité Elémentaire de Chimie, Couchet, Paris, 1789, pp.vi e viii, scaricabile da

http://www.labirintoermetico.com/01Alchimia/Lavoisier_A_L_de_Traite_elementaire_de_chimie(1789).pdf

 

 

 

 

 

 

[1] L’articolo è basato su una conferenza dimostrativa tenuta alla Gonzaga University Spokane, Washington, 7 marzo 1985.

[2] L’osservazione e la descrizione della fiamma di candela è un fenomeno molto utilizzato nelle dimostrazioni. Per molti anni Faraday ha tenuto una serie di Christmas Lectures per un pubblico giovane su “La storia chimica di una candela” [2, p.151].

[3] In realtà Lavoisier non ha mai chiamato Regola il suo pensiero espresso nella citazione [5] che invece, più argomentato, si trova precisamente dove l’ha trovato Bent nella traduzione inglese del famoso Traité Elémentaire de Chimie (Elements of Chemistry, Dover, 1965).

Sensoristica e lenti a contatto

In evidenza

Luigi Campanella, ex Presidente SCI

La sempre maggiore diffusione nell´acquisto di lenti a contatto (lc) in sostituzione degli occhiali, ha fatto si che l´industria del settore impiegasse maggiore attenzione alla ricerca di nuovi polimeri con particolari caratteristiche chimico fisiche, tali da risultare più funzionali ed efficaci per la visione e per la prevenzione di possibili danni all´occhio procurati dall´uso delle lc.

L´ossigeno è essenziale per la sopravvivenza e il buon funzionamento delle cellule aerobiche come quelle che costituiscono l´occhio. Il consumo corneale di O2 può essere stimato in 3 microlitri/ora/cm2. Dal film lacrimale l´ossigeno passa all´interno delle cellule corneali attraverso tre differenti meccanismi:

-sciolto nella fase acquosa che attraversa le membrane cellulari;

-per trasporto attivo;

-a causa del gradiente di pressione.

L´entrata di ossigeno fa sì che le normali reazioni metaboliche possano assicurare alle cellule la fonte energetica necessaria al trasporto attivo degli ioni; questa operazione è d´importanza fondamentale per la trasparenza corneale verso l´esterno. Una carenza d´ossigeno fa rallentare l´attività metabolica, e quindi diminuisce la riserva d´energia disponibile per il funzionamento della pompa ionica e la quantità di H2O che può venire trasportata; di conseguenza la cornea va rapidamente incontro ad accumulo di acqua ed al pericolo di edema. Visto il ruolo ricoperto dall´ossigeno nella dinamica delle cellule corneali diventa subito evidente l´importanza della presenza in quantità sufficiente di questo elemento.

Ne consegue che fra le caratteristiche di una buona lente a contatto c´è il grado di permeabilità della stessa all´ossigeno che è importante per l´integrità delle cellule aerobiche come quelle che costituiscono l´occhio; quindi più la permeabilità è elevata e migliore è la lente. In questo tipo di valutazione, però, si trascura di verificare se, all’aumentare della permeabilità all’ossigeno, non aumenti anche quella a sostanze potenzialmente dannose.

La chimica ed in particolare la sensoristica è venuta incontro anche alla soluzione di questo problema.E’stato messo a punto un metodo per misurare la permeabilità di varie tipologie di lc sia all´ossigeno e sia ad alcuni comuni inquinanti presenti nell´aria (benzene, anidride solforosa). Il metodo per determinare le permeabilità consiste nell’utilizzare il materiale costituente le lc come membrana di un elettrodo di Clark.

Sensore di Clark: elettrodi di Pt (A) e Ag/AgCl (B) soluzione di KCl (C) membrana (D) anello di gomma (E) potenziostato (F) galvanometro (G)

E’ questo un sensore dell’ossigeno che, passando attraverso la membrana posta alla sua base, produce una corrente riducendosi al catodo di Pt, mentre all’anodo di Ag /AgCl si ossida l’Ag. La corrente diviene quindi l’indicatore della permeabilità all’ossigeno del materiale studiato. Introducendo poi fra membrana permeabile ed elettrodo una seconda membrana che immobilizza cellule di lievito aerobiche queste attraverso la loro attività respiratoria inibita o meno individuano possibili permeabilità a sostanze nocive testate. Sostanzialmente ripetendo l’esperienza in presenza ed in assenza della specie di cui si vuole essere certi non ci sia passaggio dall’esterno verso l’interno dell’occhio a causa della permeabilità ad essa del materiale testato si rileva se ci sia differenza nella corrente misurata: ove non ci sia permeabilità alla sostanza testata, come si auspica i lieviti consumano l’ossigeno che passa e la corrente si abbassa;in presenza di un tossico che permea insieme all’ossigeno la capacità respiratoria si riduce e l’intensità della corrente aumenta.

 

Il calorico è solo un inutile idea del passato. O no?

In evidenza

Claudio Della Volpe

Forse vi scandalizzerò, ma il mio primo approccio con la termodinamica è stato di delusione. Delusione per non tener fede al suo nome: termodinamica; dinamica del calore; ma dove è la dinamica in una situazione in cui l’oggetto dello studio sono gli equilibri, anzi l’equilibrio, una situazione fisica del tutto ipotetica e che si realizza solo parzialmente in particolari condizioni. E la dinamica che fine ha fatto? Questo mi sono chiesto per un po’.

E badate non sono il solo ad essersi posto questo problema apparentemente metafisico; me ne sono reso conto mentre studiavo per l’esame di Chimica Fisica. Nella Napoli del 1971, studente del terzo anno, avevo come insegnante il mitico Vincenzo Vitagliano (con cui ho poi collaborato per qualche anno da ricercatore); Vincenzo è un ricercatore in gamba, ma consentitemi di confessare che come insegnante era difficile da seguire. Io preferivo leggere i libri da solo e spulciando spulciando mi ero guardato il testo consigliato da lui “Lewis e Randall”(Lewis and Randall, Thermodynamics, nella revisione di Pitzer e Brewer ed. Wiley 1970), un testo ormai datato, ampio, classico, discorsivo che spesso sui punti chiave mi sembrava nicchiasse. Bello ampio, pieno di informazioni, ma dispersivo, e a volte anche vago, non mi era piaciuto. C’erano molti esercizi, questo si, ma mi sembrava fosse sfuggente in certe cose; so che non tutti saranno d’accordo.

Ho già trattato il tema dell’insegnamento della termodinamica. In particolare in un precedente gruppo di post (cercate nel blog “quanto è chimico il potenziale chimico” *) ho affrontato il tema di come presentare il potenziale chimico. Il potenziale chimico insieme con l’entropia si presenta come il concetto più astratto e difficile da presentare a tutti i livelli.

L’entropia è un classico dell’astrazione e della difficoltà formale; allo studente universitario che ha da poco superato l’apprendimento del calcolo differenziale ed integrale si apre uno scenario ancora più complesso con l’introduzione dei differenziali incompleti o non esatti, le famigerate (ma come vedremo non troppo) grandezze di processo, calore e lavoro; nella maggior parte dei casi questo concetto rimarrà un punto oscuro.

Ma è necessario un così astratto trattamento dell’entropia?

Ci sono varie soluzioni al problema:

1) l’approccio di Callen; è un approccio ancora molto formale, ma nel quale almeno la parte matematica viene chiarita e formalmente strutturata; le proprietà matematiche delle funzioni vengono introdotte usando essenzialmente il calcolo differenziale tradizionale; alcuni aspetti, come l’importanza della proprietà di omogeneità del primo ordine** (in pratica il modo matematico di introdurre le grandezze estensive (omogenee del primo ordine) e di differenziarle da quelle intensive (omogenee di ordine zero)) che non sono assolutamente presenti nel trattamento storico vengono introdotti e ben fondati, così come la relazione formale fra le varie funzioni (le funzioni tradizionali, entalpia, energia libera, etc. introdotte come trasformate di Legendre dell’energia o dell’entropia, dunque sostituendo ad una o più variabili estensive alcune variabili intensive, come hamiltoniano e laplaciano in meccanica). Il libro è molto ben scritto, anche se denso e compatto, analizza le questioni della stabilità dei sistemi e nella sua seconda edizione si estende alle proprietà di simmetria, al teorema di Noether perfino, ma anche per esempio ad argomenti tabù in certi settori di ricerca come il criterio endoreversibile per le macchine termiche, un approccio che tenta di superare ancora una volta l’astrattezza del teorema di Carnot sull’efficienza usando una geniale idea: la irreversibilità nei processi termomeccanici è essenzialmente concentrata nei salti termici, non nel dispositivo meccanico che, specie quando usato alla massima potenza, può essere assimilato ad un dispositivo ideale. In questo modo ed applicando un semplice criterio di linearità nello scambio di calore fra sorgente e macchina termica, i valori effettivi di efficienza delle macchine termiche diventano calcolabili senza modellazioni sofisticate e complesse. In fisica tecnica la cosa non ha avuto successo, ma non me ne meraviglio, gli ingegneri sono (in genere) sostanzialmente conservatori, più attenti alle applicazioni che ai principi. Herbert Callen, Termodinamica, pubblicato negli anni 60 è diventato con lenta sicurezza un classico.

Il libro aveva un sottotitolo: “an introduction to the physical theories of equilibrium thermostatics and irreversible thermodynamics”.

Questa cosa mi predispose bene; era un libro scritto da uno che si era posto il mio stesso problema!

(un breve riassunto del Callen lo trovate in J. Non-Newtonian Fluid Mech. 96 (2001) 5–17 Equilibrium thermodynamics — Callen’s postulational approach Robert J.J. Jongschaap, Hans Christian Öttinger)

2) l’approccio di Prigogine; qua si va verso lo scandalo; Prigogine introduce il tempo fin dall’inizio, non ci sono grandezze di stato e di processo, i differenziali sono tutti esatti; il calore o il lavoro corrispondono semplicemente all’energia termica o meccanica trasferita nell’unità di tempo; e dunque la legge del trasferimento termico o la potenza meccanica vengono usate per esprimere queste grandezze; la differenza fra reversibilità ed irreversibilità è chiarita secondo me in modo trasparente; il libro originale di Prigogine e Kondepudi (MODERN THERMODYNAMICS From Heat Engines to Dissipative Structures, Wiley 1988)e anche la seconda edizione (INTRODUCTION TO MODERN THERMODYNAMICS, Kondepudi, 2008 ed Wiley) scritta dal solo Kondepudi (che è l’autore fra l’altro di un bel lavoro sulla rottura di simmetria nei sistemi chimici, con l’esempio di come la semplice agitazione in un sistema sovrasaturo di clorato di sodio può catalizzare la formazione di cristalli di un solo tipo chirale, Kondepudi, D. K., Kaufman, R. J. & Singh, N. (1990). “Chiral Symmetry Breaking in Sodium Chlorate Crystallization”. Science 250: 975-976), tuttavia presentano un elevato numero di errori di stampa che ne indeboliscono e rendono difficoltoso l’uso (i segni sbagliati possono essere micidiali) ; ma se corretti (e spero lo siano stati nelle ristampe successive) comunque questi libri sono molto utili nel superare la assurda dicotomia fra processi di equilibrio e di non equilibrio.

3)La terza soluzione è la più recente e per me anche la più stimolante; si tratta della scuola tedesca, Hermann e Fuchs in particolare; teniamo presente che i tedeschi hanno conservato una tradizione incredibile nella quale la didattica della fisica è non solo studiata come disciplina a parte, ma è basata su centri di eccellenza e gruppi di ricerca che ne fanno una disciplina viva; i fisici hanno questa tradizione in tutto il mondo, ma in certi paesi più che in altri; noi chimici dovremmo imparare da loro e non considerare chi studia la didattica uno studioso di serie b: al contrario insegnare bene le cose necessita non solo di averle ben capite ma anche di riuscire a comprendere come insegnarle: scienza e pedagogia. Nel caso della termodinamica stiamo parlando di libri come quello recente di Hans U. Fuchs. The dynamics of heat (sottotitolo: A unified approach to thermodynamics and heat transfer) ed. Springer, 2010.

Qua si parte dall’idea di dare una visione unificata della meccanica, dell’elettricità e della termodinamica basata sulle “grandezze che fluiscono”, la quantità di moto, la carica, il calore; si dimostra che da questo punto di vista le varie discipline fisiche usano il medesimo approccio concettuale e arrivano perfino a scrivere le stesse relazioni matematiche.

La scuola tedesca in questo caso arriva ad una conclusione importante: la entropia di oggi non è altro che il calorico di due secoli fa.

Mentre il libro di Fuchs è massiccio, quasi 700 pagine, vi consiglio, se volete entrare in questo punto di vista un articoletto tutto sommato datato (G. Falk, Entropy, a resurrection of caloric, Eur. J. Phys (1985)108-115).

L’idea che il vecchio calorico fosse in realtà una concezione sbagliata del calore ma una molto precisa dell’entropia non è nuova.

Nel 1911 H.L. Callendar (padre del Guy Callendar che per primo rese quantitativa l’dea del ruolo serra del diossido di carbonio antropogenico e di altri gas) nella cerimonia con cui accettava la prestigiosa carica di presidente della società inglese di Fisica (Proc. Phys. Soc London, 23, 153-189) arrivò essenzialmente alla medesima conclusione, che Carnot cioè avesse sviluppato in realtà sulla base del calorico una visione moderna ed aggiornata, solo che stava chiamando calorico l’entropia. Analogamente K. Schreber, che tradusse in tedesco nel 1926 il lavoro di Clapeyron del 1834 con cui illustrava per la prima volta i risultati del defunto Carnot (Clapeyron E. 1834, J. de l’Ecole polytechnique 14) scriveva (Ostwalds Klassiker 216, 41) che gli sarebbe sembrato meglio usare il termine entropia invece che calorico nella presentazione del lavoro di Carnot e che questo avrebbe ridotto le differenze fra le idee di Carnot e quelle moderne nell’analisi dei processi termici.

Occorre sostituire il calore non con un differenziale inesatto, ma con il corrispondente flusso entropico.

Carnot non aveva l’idea dell’energia; non a caso il suo libro più famoso si chiama: Riflessioni sulla potenza motrice del fuoco, il termine energia non compare nelle sue riflessioni. Fu solo dopo il 1840 che la scoperta di Mayers e Joule della conservazione dell’energia cambiò le cose. Il calorico non si conservava se non a metà, poteva essere prodotto ma non poteva essere distrutto, solo scambiato. Lavorando in condizioni adiabatiche si può dimostrare che esso viene prodotto, ma non può essere distrutto. Gli esperimenti a riguardo sono suggestivi e quella linea di ricerca è stata poi completamente cambiata dall’uso del concetto di energia. Chi ricorda più oggi il tentativo di Davy (On Heat, Light and Combinations of Light,” 1799) di dimostrare che strisciando due pezzi di ghiaccio fra di loro a zero gradi si ottiene fusione del ghiaccio? Chi ricorda più la lampada pneumatica? Ossia la accensione di un pezzo di stoffa ottenuto in un cilindro trasparente di vetro tramite la compressione dell’aria contenuta con un pistone scorrevole? Si tenga infine presente che il calorico era a sua volta diviso in due tipologie: libero, legato alla temperatura e legato, connesso ad altre transizioni.

La questione fondamentale può esser posta così: nell’approccio di Carnot il calorico è una forma di energia?

Noi oggi diciamo che la variazione di energia interna di un corpo è data dalla somma di calore più lavoro; e dunque anche se lo consideriamo una grandezza di processo diamo al calore le stesse unità di misura dell’energia.

Ma ragioniamo con un approccio da calorico, consideriamo questo fluido immaginario, ma non più della carica elettrica o della quantità di moto.

Paragoniamo tre processi: accelerare una pietra, caricarla elettricamente e riscaldarla; nel primo cediamo quantità di moto alla pietra ed essa viene accelerata; nel secondo ancora più chiaramente se carichiamo elettricamente la pietra, la sua energia aumenta ma noi le abbiamo introdotto della carica elettrica che ovviamente non è energia.

Se cediamo calorico alla pietra essa si riscalda; in tutti i casi la sua energia aumenta, ma nel primo abbiamo ceduto momento e nel secondo carica, nel terzo calorico e come il momento o la carica elettrica non sono energia così non lo è il calorico.

Un altro modo di comprendere la cosa è paragonare il flusso di massa in un salto di potenziale e quello di calorico nel produrre energia; nel primo caso l’energia è proporzionale al potenziale gravitazionale gh secondo la massa, W= m(gh1-gh2); nel caso del calorico il fluido o la grandezza estensiva è il calorico stesso e il potenziale la differenza di temperatura: W=q*(T1-T2); ma questa equazione equivale a considerare che le dimensioni del calorico q* siano q/T, ossia un’entropia (si veda anche Eur. J. Phys. 30 (2009) 713–728 -Carnot to Clausius: caloric to entropy, Ronald Newburgh).

Il fluido che Carnot avrebbe immaginato di cedere alla pietra è nient’altro che l’odierna entropia.

Insomma una unica intuizione, una unica descrizione concettuale per proprietà meccaniche, termiche od elettriche aiuta a meglio comprendere il comportamento dei sistemi e chiarisce che il vecchio calorico non era un modello sbagliato di calore ma un modello, sia pur primitivo, e certamente originale ed avanzato per i suoi tempi, di entropia.

Qualcuno oggi tenta di riutilizzare a scopo didattico questo modello concettuale. Pensiamoci.

********************************************************************

* https://ilblogdellasci.wordpress.com/2013/10/10/quanto-e-chimico-il-potenziale-chimico-1-parte/

https://ilblogdellasci.wordpress.com/2013/10/17/quanto-e-chimico-il-potenziale-chimico-2-parte/

https://ilblogdellasci.wordpress.com/2013/10/25/quanto-e-chimico-il-potenziale-chimico-3-parte/

https://ilblogdellasci.wordpress.com/2014/04/28/quanto-e-chimico-il-potenziale-chimico-iv/

https://ilblogdellasci.wordpress.com/2014/06/17/quanto-e-chimico-il-potenziale-chimico-v/

**omogeneità del primo ordine equivale a dire che se in una funzione U(S,V,N) moltiplico per una costante a ciascuna variabile indipendente allora tutta la funzione U viene moltiplicata per la medesima variabile, a1; aU= U(aS,aV,aN), U è estensiva; il primo ordine è l’esponente della a; ordine zero vuol dire che se faccio lo stesso per una funzione poniamo T(S,V,N), allora la funzione rimane moltiplicata per a0 e dunque non cambia valore, T è intensiva. T=T(aS,aV,aN).

 

Smontare i mattoncini.

In evidenza

Mauro Icardi

L’idea del titolo mi è venuta facendo una riflessione sulla vicenda della diffusione ambientale dei PFAS.

Il problema della diffusione nell’ambiente e della concentrazione nell’organismo umano, e particolarmente nel sangue dei composti perfluoroalchilici è attualmente uno dei problemi ambientali più gravi. Grave perché ,sia in Italia e particolarmente in Veneto, ma anche in vaste zone degli Stati Uniti questo tipo di composti , massicciamente e capillarmente diffusi nell’ambiente hanno contaminato le falde acquifere da cui si prelevano acque destinate all’uso idropotabile.

Nella zona di Vicenza si è ipotizzato che la responsabilità sia da attribuire ad una azienda che utilizza questo tipo di composti organici, e che non ha gestito correttamente il ciclo di depurazione dei propri reflui.

Per quanto riguarda gli Stati Uniti, ed in particolare nella zona di Portsmouth nel New Hampshire la concentrazione di questi composti nell’acqua potabile sembra sia invece dovuta alle esercitazioni antincendio che venivano effettuate in una base dell’aeronautica militare degli Stati Uniti. Nell’area di questa base venivano dati alle fiamme vecchi aerei per esercitazione. Gli addetti della base provvedevano a spegnere gli incendi così provocati con estintori nei quali questo tipo di composti erano presenti. Le schiume percolavano nel terreno, e da qui hanno raggiunto le falde acquifere. Nessuno si è mai preoccupato delle conseguenze di questo tipo di attività, francamente piuttosto discutibile e gestita con una incredibile superficialità.

Se si può pensare che non fossero ancora note le caratteristiche di tossicità di questi composti, e anche vero che negli Stati Uniti venne pubblicato fin dal 1962 un bestseller dell’ambientalismo : “Primavera silenziosa” di Rachel Carson. In questo libro si parlava dell’uso indiscriminato di DDT e pesticidi.Ma in ogni caso si metteva già in luce il meccanismo di accumulo di composti tossici principalmente nelle zone adipose del corpo umano, e anche nel latte materno. Questo avrebbe dovuto essere uno spunto per l’adozione di un principio di precauzione. La capacità dell’essere umano di ragionare in prospettiva e di andare oltre ai presunti benefici immediati, e di pensare a limitare il proprio impatto sull’ambiente, sembra essere un insormontabile limite ancestrale. Quasi che molte nostre azioni siano legate al cervello arcaico, quello che ci impedisce ogni attività pensata, pianificata e guidata dalla razionalità.

Tornando ai PFAS si stanno cominciando a prendere le contromisure del caso, si stanno cercando di identificare dei limiti adeguati. Gli studi sono condotti dall’EPA (Enviromental Protection Agency) e dall’OMS. Si sa che nel caso di questi composti l’accumulo avviene principalmente a livello del sangue. Così come si è riusciti a capire che i composti a lunga catena di carbonio (in generale da otto atomi di carbonio e oltre) sono quelli che tramite il meccanismo di riassorbimento nei tubuli renali transitano nei reni e sono eliminati solo parzialmente attraverso l’eliminazione urinaria.

I composti a catena di carbonio più corta invece riescono ad essere espulsi dal corpo umano nel giro di pochi giorni. Per questa ragione i principali produttori di PFAS negli Staiti Uniti, Europa e Giappone hanno aderito ad un accordo volontario per eliminare i composti a lunga catena di carbonio quali l’acido perfluoroottanoico (PFOA) e il perfluoroottanosulfonato (PFOS). Ma le aziende che non hanno aderito a questo accordo volontario continuano a produrre, importare o usare questo tipo di composti a lunga catena di carbonio. Circa 500 tonnellate/anno sono ancora prodotte dalle industrie cinesi.

I dati sulla tossicità di questi composti sono ancora oggetto di studio, ma l’accordo ha permesso di conseguire qualche risultato che da qualche speranza. Se all’inizio dei controlli sistematici la concentrazione di PFAS nel sangue dei cittadini americani era pari a circa 5 ng/lt, nel 2012 questa concentrazione è risultata all’incirca dimezzata. Composti di questo tipo, usati per realizzare tessuti impermeabili all’acqua, in particolare per uso sportivo, nella schiuma per estintori, e nei rivestimenti d i cartoni per alimenti sono come si può intuire inquinanti persistenti ed ubiqui. Oltre all’ingestione di acqua contaminata vengono molto spesso assorbiti attraverso il consumo di pesce contaminato.

La produzione di composti a catena corta che non subiscono accumulo persistente nell’organismo è una vittoria solo parziale. Perché sposta il problema a livello ambientale. Nel corso degli anni sono stati prodotti ed immessi sul mercato almeno 3000 tipologie di molecole di questo tipo. Molecole costruite sulla base del legame carbonio-fluoro, dalla grande stabilità strutturale ma praticamente impossibili a degradarsi per via naturale dalle comunità di microrganismi. L’unica possibilità attuale è la diluizione e la dispersione, che come si può ben intuire è la peggiore delle soluzioni.

A questo punto la sfida che l’industria chimica dovrebbe affrontare è quella di un nuovo modo di costruire le molecole. Pensando a renderle meno stabili, meno indistruttibili alla fine del ciclo di vita. Questa è a mio parere forse la sfida più grande che la chimica industriale deve affrontare. Ma che non può più essere rimandata per molto tempo ancora. Affrontare questo impegno avrebbe il duplice effetto di diminuire una tendenza alla cronicizzazione di effetti tossici ancora non provati, ma che potrebbero essere responsabili di gravi patologie, quali tumori, problemi ormonali e diabete. La seconda quella di cambiare l’immagine della chimica, che sconta comunque sempre in maniera non corretta una specie di peccato originale. La chimica industriale negli anni ha raccolto ed esaudito le istanze che venivano anche dai consumatori. Le belle catene di molecole che sembravano i mattoncini delle costruzioni devono essere smontate e ricomposte in altro modo. Qualcosa di simile a quanto avvenuto con la linearizzazione delle molecole dei tensioattivi. Ora che ci siamo resi conto che i rischi sono superiori, o non proporzionali ai benefici, anche i semplici cittadini possono e devono orientare le scelte delle aziende. Con le loro scelte personali. In fin dei conti nel passato ci si riparava dalle piogge con la tela cerata.

Gli ultimi attori di questo cambiamento devono essere gli esponenti della classe politica. Ritrovando l’essenza del concetto di polis, di arte del governo devono destinare fondi alla ricerca. Perché non ci sono solo i PFAS che si concentrano nell’ambiente. Anzi potrebbero essere solo la punta dell’iceberg.

 

Henry A. Bent (1926-2015): un chimico poco noto− Parte I

In evidenza

Rinaldo Cervellati

Conoscevo il nome di Bent per alcuni suoi scritti provocatori sul Journal of Chemical Education, ad es. Should the Mole Concept be X-Rated? (1985, 62, 59) o Should Atomic Orbital Be X-Rated in Beginning Chemistry Courses ? (1984, 61, 421-423) in cui la domanda è: dovrebbe il tale concetto (mole, orbitali…) essere vietato ai minori? La curiosità di saperne di più mi è venuta quando, lavorando al post sulla teoria del legame di valenza, mi sono imbattuto nella “regola di Bent” riguardante l’ibridizzazione degli orbitali. Anzitutto un poco di biografia.

Henry Albert Bent (Cambridge, MA 1926 – Pittsburgh, PA 2015), figlio di Henry E. Bent professore di chimica all’Università di Pittsburgh, ereditò dal padre la passione per la chimica. Completò il B.Sc in chimica fisica all’Oberlin College (contea di Lorain, Ohio). Nella seconda Guerra Mondiale Bent ha servito in Marina come tecnico radar.

Henry A. Bent

Ottenne il Ph.D. in Chimica nel 1952 all’Università di Berkeley, in un ambiente vivace e stimolante, dove si proseguivano le ricerche sviluppate dal Gruppo del professor G.N. Lewis, scomparso nel 1949. La dissertazione di dottorato ebbe come argomento la decomposizione del nitrato d’ammonio fuso.

Prima del suo arrivo in Minnesota nel 1958, era stato professore di chimica fisica all’università del Connecticut.

All’Università del Minnesota, è stato professore di chimica inorganica fino al 1969, per poi passare alla North Carolina State University a Raleigh e, infine nel 1990 all’Università di Pittsburgh (PA). Ritiratosi nel 1992, ha continuato a interessarsi attivamente di temi e problemi di didattica e promozione della chimica; come direttore del programma Van Outreach effettuò una serie di esperimenti dimostrativi per gli studenti di tutta la zona di Pittsburgh.

I suoi principali interessi di ricerca sono stati la termodinamica, la teoria del legame chimico e la didattica della chimica, tutti argomenti molto sentiti dal gruppo di Berkeley, come ricordato più volte in altri post.

Vignetta satirica (1868) su G. Hirn1

Per quanto riguarda la termodinamica, nel 1962, Bent propose un approccio di analisi globale dell’entropia concepito per valutare la spontaneità dei processi chimico-fisici-chimici[1]. Nel 1977, nel contesto della termodinamica filosofica[1], Bent ha coniato la frase “etica dell’entropia personale”.

In un articolo, suggerisce che per superare le crisi energetiche bisogna anzitutto essere etici negli aspetti energetici della vita basati sulla conoscenza della seconda legge della termodinamica. In particolare, al posto di una politica energetica nazionale, Bent afferma:

“What we need is a personal entropy ethic.” (“Quello di cui abbiamo bisogno è un’etica personale di entropia”) [2].

Nello stesso 1977, Bent condusse i “Workshops su termodinamica, arte, poesia e ambiente” per la National Science Foundation, discutendo con gli studenti, fra l’altro, una critica dell’asserzione “non creare inutilmente Entropia”.

Nella teoria del legame chimico il suo principale contributo è stato l’aver dimostrato empiricamente che per interpretare la struttura e le proprietà delle molecole degli elementi della prima riga della Tavola Periodica si doveva ammettere l’ineguaglianza degli orbitali ibridi dell’atomo centrale legato ad atomi o gruppi diversi fra loro e aver correlato questa disuguaglianza all’elettronegatività dei legandi (“regola” di Bent). Di ciò ci occuperemo con qualche dettaglio in questo post.

Riguardo all’insegnamento e alla didattica, il suo entusiasmo per la chimica lo ha condotto a pubblicare decine di articoli e note sul J. Chem. Educ. E’ stato un insegnante molto popolare trattando argomenti che vanno dalle fiamme e dalle esplosioni ai fondamenti della scienza e all’arte astratta. Particolare insistenza ha posto su insegnare chimica attraverso esperimenti e dimostrazioni pratiche. Per questo è stato insignito di numerosi premi per l’educazione e la formazione chimica.

L’entusiasmo e l’amore per gli atomi e le molecole furono una forza trainante nel lavoro e nella vita di Bent. La sua lunga carriera di chimico e insegnante è culminata in idee non convenzionali, come quella di collocare l’elio sul berillio nella tavola periodica, l’utilizzo di modelli di sfera di valenza per simulare i profili di densità elettronica nelle molecole, la rivalutazione degli esperimenti dimostrativi nell’insegnamento.

La “regola” di Bent

Nella versione originale della teoria del legame di valenza [3], si ipotizza che gli elettroni di valenza degli elementi del blocco p siano ibridizzati spn, con n = 1, 2 o 3. Inoltre, si assume che gli orbitali ibridi sono tutti equivalenti (cioè gli n+1orbitali spn hanno lo stesso carattere p). I risultati di quest’approccio sono in generale soddisfacenti, ma possono essere migliorati ammettendo che gli orbitali ibridizzati possono avere carattere ineguale, cioè non essere equivalenti.

Nel fascicolo di giugno 1961, la rivista Chemical Reviews pubblicò un lungo lavoro intitolato: “An Appraisal of Valence-Bond Structures and Hybridization in Compounds of the First-Row Elements” [4], in cui Bent illustrava in dettaglio la sua teoria, peraltro già conosciuta come “regola di Bent”, come si vedrà più avanti[2].

La regola di Bent fornisce un’indicazione precisa su come questi orbitali non equivalenti dovrebbero essere costruiti [4].

Secondo Bent:

Atomic s character concentrates in orbitals directed toward electropositive substituents. Or, atomic p character concentrates in orbitals directed toward electronegative substituents.

([4], p. 291), ovvero:

L’atomo centrale legato a più gruppi esterni in una molecola, si ibridizzerà in modo che orbitali con un maggior carattere s siano diretti verso gruppi elettropositivi, mentre orbitali con maggior carattere p saranno diretti verso i gruppi più elettronegativi.

Rimuovendo l’ipotesi che tutti gli orbitali ibridi spn siano equivalenti, Bent ottenne migliori interpretazioni di proprietà come la geometria molecolare (angoli e lunghezze di legame), l’energia di legame, l’effetto induttivo e le costanti di accoppiamento J 1H−13C in spettrometria NMR.

Come esempio prendiamo gli angoli di legame:

Consideriamo dapprima gli angoli di legame nelle tre molecole metano, etene ed etino:

e tenendo conto che il carbonio ibridizza sp3 nella prima, sp2 nella seconda e sp nella terza appare chiaro che all’aumentare del carattere p degli orbitali ibridi diminuisce l’angolo di legame.

Nel suo lavoro, Bent propone, per gli angoli, il seguente esempio:

In queste quattro molecole (etere dimetilico, alcol metilico, acqua, difluoruro di ossigeno), l’atomo di ossigeno centrale, tenendo conto dei doppietti elettronici non condivisi è ibridizzato sp3, l’elettronegatività dei sostituenti aumenta nell’ordine F > H > CH3[3] sicché in base all’ipotesi di Bent ci si deve aspettare che FOF < HOH < HOCH3 < H3COCH3, infatti all’aumentare dell’elettronegatività del sostituente deve corrispondere un aumento del carattere p dell’ibrido verso il sostituente stesso e di conseguenza diminuire l’angolo di legame come riscontrato sperimentalmente (FOF(103,8)<HOH(104,5°)<HOCH3(107-109°)< H3COCH3(111°)) [4, p.288].

Scrive Bent:

Spesso è suggestivo considerare gli elettroni non condivisi come elettroni in un legame con un atomo di elettronegatività molto bassa (zero). Questa visione porta a supporre che i gruppi elettronegativi influenzino l’ibridazione atomica e, per inferenza… proprietà molecolari come angoli di legame, lunghezze di legame, costanti di accoppiamento C13 e costanti induttive. (1961, p. 287)

Nel prevedere l’angolo di legame dell’acqua, la regola di Bent suggerisce che gli orbitali ibridi con maggior carattere s dovrebbero essere diretti verso le coppie solitarie, meno elettronegative, lasciando così orbitali con un maggior carattere p orientati verso gli idrogeni.

Questo aumentato carattere p in quegli orbitali diminuisce l’angolo di legame tra di essi rispetto al valore tetraedrico (109,5). La stessa logica può essere applicata all’ammoniaca, l’altro esempio canonico di questo fenomeno.

La “regola” può essere generalizzata anche agli elementi del blocco d.

Di orbitali ibridi non equivalenti si trova un primo cenno nel libro di Charles A. Coulson [6, p. 206-7] che in seguito svilupperà gli aspetti formali della regola di Bent (v. Formal Theory section at: https://en.wikipedia.org/wiki/Bent%27s_rule).

In una breve nota, comparsa nel 1982, Bent racconta la storia della sua regola [5]:

Nel 1955, in qualità di assistente ricercatore presso l’Università del Minnesota, lavoravo ad un progetto sugli spettri infrarossi delle fiamme dei propellenti per razzi, e un forte assorbimento non identificato mi portò a scoprire e a identificare la struttura di un nuovo dimero di N2O4. Ne nacque una crescente curiosità sulle relazioni fra struttura e proprietà molecolari.

Già dopo la Prima Guerra, le implicazioni delle informazioni provenienti dalla diffrazione dei raggi X e degli elettroni sulla teoria strutturale erano state interpretate da Pauling nel suo classico libro La Natura del Legame Chimico… Dopo la Seconda Guerra Mondiale, gli impieghi in tempo di pace della tecnologia a microonde del radar [spettroscopia rotazionale a microonde] hanno reso possibile la determinazione delle strutture molecolari con maggiore precisione. Nel 1956 mi sembrava che i risultati sperimentali non si accordassero con la teoria degli orbitali ibridi convenzionale. Ho quindi trovato la prova per la tesi che l’ibridazione orbitale ha effetto non solo sugli angoli di legame, ma anche sui momenti dipolari, sulle costanti induttive e quelle di accoppiamento, sulle costanti del campo di forza, sulle energie di dissociazione e le lunghezze di legame. Gli effetti sono stati riassunti in una “regola”, talvolta citata come “regola di Bent”. Ho costruito la teoria in base alle ben note idee di G.N. Lewis e di Pauling, estendendo il concetto di elettronegatività…

Per diversi anni i miei lavori sulla “regola” sono stati rifiutati dal Journal of the American Chemical Society… Una serie di brevi articoli e note sono state pubblicate…. nel Journal of Chemical Physics*, prima che comparisse una review completa… sostenuta da un ampio numero di dati e da una linea di ragionamenti ben condivisa… Forse ho trovato una spiegazione fisica semplice, non mistica per il carattere s, tuttavia ancora prima di ciò che la regola può spiegare, sta il fatto che non è mai stata proposta da altri autori.[5, p. 22]

*Ho trovato alcune di queste note, si tratta di Letters to the Editor, le riporto nelle citazioni bibliografiche [7-9]

Infine, è il caso di ricordare che recentemente è stata provata la validità della teoria (io preferisco chiamarla così) di Bent su 75 tipi diversi di legami con atomi dei gruppi principali della Tavola Periodica [10].

Per le note biografiche mi sono servito delle seguenti fonti:

http://www.eoht.info/page/Henry+Bent

https://cse.umn.edu/news-feature/in-memoriam-henry-albert-bent/

http://www.post-gazette.com/news/obituaries/2015/01/11/Pitt-professor-proved-that-science-can-be-fun/stories/201501080119

http://garfield.library.upenn.edu/classics1982/A1982PE54500001.pdf

Bibliografia

[1] (a) H.A. Bent, The Second Law: an Introduction to Classical and Statistical Thermodynamics. Oxford University Press, 1965; (b) H. A. Bent, Haste Makes Waste: Pollution and Entropy, Chemistry, 1971, 44, 6-15.

[2] H. A. Bent, Entropy and the Energy Crisis, The Science Teacher, 1977, May, 25-30.

[3] (a) L. Pauling, The Nature of the Chemical Bond. Application of Results Obtained from the Quantum Mechanics and from a Theory of Paramagnetic Susceptibility to the Structure of Molecules, J. Am. Chem. Soc., 1931, 53, 1367-1400. (b) L. Pauling, The Nature of the Chemical Bond and the Structure of Molecules and Crystals: An Introduction to Modern Structural Chemistry, Oxford University Press, London, 1939. Trad ital.: La natura del legame chimico, Franco Angeli, Milano, 2011 (ripubblicato, tradotto in italiano la prima volta dopo la Liberazione).

[4] H.A. Bent, An Appraisal of Valence-Bond Structures and Hybridization in Compounds of the First-Row Elements, Chem. Rev., 1961, 61, 275-311.

[5] Current Contents/Physical Chemical & Earth Sciences, n.37, September, 13, 1982, p. 22

[6] C.A. Coulson, La Valenza, Zanichelli, Bologna, 1964 (Trad. it. Sulla II Ed.Amer., 1961)

[7] H.A. Bent, Electronegativities from Comparison of Bond Lengths in AH and AH +, J. Chem. Phys., 1960, 33, 1258-1259

[8] H.A. Bent, Correlation of Bond Shortening by Electronegative Substituents with Orbital Hybridization, J. Chem. Phys., 1960, 33, 1259-1260.

[9] H.A. Bent, Bond Shortening by Electronegative Substituents, J. Chem. Phys., 1960, 33, 1260-

[10] I.V.Alabugin, S. Bresch, M. Manoharan, Hybridization Trends for Main Group Elements and Expanding the Bent’s Rule Beyond Carbon: More than Electronegativity, J. Phys. Chem. A 2014, 118, 3663– 3677.

[1]La termodinamica filosofica studia le implicazioni termodinamiche sul modo di vivere (etica), quali tipi di oggetti esistono e quali sono le loro essenze naturali (metafisica); ricerca del significato della conoscenza (epistemologia). Ricerca i corretti principi di ragionamento (logica). Può essere datata dal 1869 anno di pubblicazione del libro Philosophical Implications of Thermodynamics, del fisico francese Gustave Hirn (1815-1890), http://www.eoht.info/page/Philosophical+thermodynamics

[2] Vale la pena notare che nel numero di dicembre 1960 del J. Chem. Educ. era stato pubblicato un articolo di Bent molto simile a quello comparso su Chem. Rev. (H.A. Bent, Distribution of Atomic s-Character in Molecules and Its Chemical Implications, J. Chem. Educ., 1960, 37, 616-624.)

[3] Nel suo lavoro originale, Bent, considera che l’elettronegatività del gruppo metile sia inferiore a quella dell’atomo di idrogeno perché la sostituzione del metile riduce le costanti di dissociazione dell’acido formico e dell’acido acetico.

Cronache dell’ISPRA.

In evidenza

 

All’ISPRA si sta sviluppando una dura lotta sindacale che non può non coinvolgere tutti coloro che abbiano a cuore sia la situazione della ricerca che dell’ambiente in Italia; abbiamo chiesto al collega Nicola Lugeri, fisico, di raccontarcene la storia.

Nicola Lugeri

 

Ogni programma elettorale di una forza politica o di una coalizione che punti al governo del Paese non trascura di promettere di investire sull’ambiente e sulla ricerca. Salvo poi dimenticarsi delle promesse o al massimo concentrare i finanziamenti alla sola componente privata della ricerca e sviluppo.

La vertenza attuale dell’ISPRA si innesta in entrambe queste tematiche, in quanto Ente Pubblico di Ricerca ambientale. L’ISPRA, Istituto per la Protezione e Ricerca Ambientale, nasce nel 2008 dalla fusione di due istituti di ricerca (l’ICRAM sul mare e l’INFS sulla fauna selvatica) e dell’Agenzia per la Protezione dell’Ambiente e per i Servizi Tecnici (APAT, a sua volta già derivante dall’accorpamento dell’ANPA e dei Servizi Geologico e Idrografico del Dipartimento per i Servizi Tecnici Nazionali). L’ISPRA è un Ente Pubblico di Ricerca “vigilato” dal MATTM, in pratica il suo “braccio tecnico”. È il principale ente pubblico di riferimento per le tematiche ambientali nel nostro Paese e svolge anche attività di ricerca funzionale all’implementazione dei numerosi compiti attribuitigli per legge , garantendo il supporto tecnico-scientifico alle istituzioni. Un Ente cosiddetto “strumentale” alle azioni del Ministero in tema di politiche ambientali. Ci sarebbe da aspettarsi, pertanto, un’attenzione particolare del Ministro di riferimento Galletti e del governo; invece, i fatti dicono altro: dal 2008 ad oggi, meno 13 milioni di euro (da 93 a 80, dati non rivalutati) al contributo ordinario per l’Ente da parte dello Stato; meno 43% registrato per i fondi esterni (da circa 23 a circa 13 M€) principalmente causato da una governance che ha emarginato le attività di ricerca; un disavanzo di bilancio, ormai strutturale di 6,3 milioni di euro, ed una contrazione delle unità di personale scese dalle 1650 del 2008 alle attuali 1200, compresi i precari, a fronte di sempre più numerosi e gravosi compiti attribuiti per legge, ultima delle quali quella istitutiva del Sistema Nazionale a rete per la Protezione dell’ambiente (SNPA, L.132/2016). Tutto ciò mentre il Ministero finanzia lautamente una società in-house, la SoGeSid, le cui procedure assunzionali e manageriali non seguono le rigide regole della Pubblica Amministrazione.

Le conseguenze immediate saranno il blocco di numerose attività, già ora asfittiche per mancanza di fondi e il licenziamento di circa 90 precari storici. Infatti, tutte le attività in capo all’Ente subiscono da anni forti ripercussioni, ora acuite dalla fine dei risparmi degli esercizi precedenti e dalla vacanza degli organi di vertice dell’Istituto (dal primo giugno l’ISPRA è senza Presidente e CdA e con l’attuale DG in attesa di ratifica della propria nomina a Presidente).

Oltre alle enormi difficoltà di portare avanti -fra l’altro- la realizzazione della Carta Geologica e della Carta degli Habitat (entrambe alla scala 1:50.000, su tutto il territorio nazionale), visto il risibile budget per i rilievi in campo, vogliamo focalizzare questo intervento in particolare sulle strutture laboratoristiche, che dovrebbero essere il fiore all’occhiello dell’Istituto e costituire riferimento a livello nazionale per le analisi e le misure in campo ambientale.

I laboratori del Servizio di Metrologia Ambientale assicurano la confrontabilità e l’accuratezza dei dati analitici derivanti dalle attività di monitoraggio/controllo ambientale attraverso la produzione di Materiali di Riferimento, l’organizzazione di Confronti Interlaboratorio e la predisposizione di manuali, linee guida e metodi validati. Per quanto riguarda la qualità dell’aria, l’ISPRA elabora, a livello nazionale, i principali indicatori e pubblica rapporti tecnici ed è anche National Reference Centre per la qualità dell’aria nell’ambito della rete Eionet dell’Agenzia Europea per l’Ambiente. L’Istituto approfondisce a livello tecnico scientifico il tema dell’inquinamento generato dalle sorgenti naturali (es. materiale particolato di origine sahariana). L’Istituto sviluppa modelli empirici e conduce ricerche relative alla valutazione della variabilità spaziale e temporale delle particelle ultrafini in ambito urbano. Per le polveri sottili, il laboratorio di riferimento dell’ISPRA è risultato il miglior laboratorio sulle misure di PM10 e PM2,5 al confronto interlaboratorio europeo.

Eccellenza mondiale per il monitoraggio della radioattività in aria, le attrezzature e le procedure adottate dal Laboratorio ISPRA per le rilevazioni radiometriche rappresentano lo stato più avanzato della tecnologia attualmente disponibile a livello internazionale. Il Laboratorio è una delle 16 strutture mondiali operanti nel Sistema Internazionale di Monitoraggio (IMS).

Tra le attività svolte da ISPRA a tutela della salute pubblica e della qualità ambientale vanno poi segnalate quelle relative all’impatto dei fitosanitari di sintesi sulla qualità delle acque, gli habitat naturali e le aree e specie protette. Sullo Stato delle acque periodicamente viene pubblicato il Rapporto Nazionale Pesticidi nelle Acque, che indica regolarmente una notevole diffusione di sostanze tossiche negli ambiti acquatici.

Il laboratorio di Genetica della conservazione di Ozzano è il riferimento nazionale per la fauna sulle analisi CITES (Convention on International Trade in Endangered Species of Wild Fauna and Flora) e si occupa inoltre di genetica forense e dei monitoraggi su scala nazionale delle principali specie di interesse conservazionistico in particolare di carnivori e non solo.

Esperienza pluridecennale vantano anche i laboratori che si occupano dell’ambiente marino e che monitorano la qualità dell’acqua, dei sedimenti, la biodiversità e gli impatti delle attività antropiche e le emergenze in mare. Proprio in ambito marino, recentemente l’Istituto ha promosso e coordinato attività di formazione su scala nazionale relativamente ai monitoraggi previsti dalla Direttiva Europea 2008/56 “Marine Strategy”. Centinaia di operatori delle ARPA e non solo hanno avuto la possibilità sia di effettuare training on-line su decine di differenti tematiche che attività pratiche,nel polo laboratoristico di Castel Romano e sul vascello oceanografico di proprietà dell’Ente.

Anche il Servizio Geologico d’Italia si avvale di laboratori ubicati nella sede di Castel Romano, dove vengono realizzate prove geotecniche, analisi sedimentologiche e preparati per lo studio degli aspetti paleontologici, mineralogici e petrografici delle rocce.

A quasi dieci anni di distanza dall’istituzione dell’ISPRA, non è stato ancora perfezionato il coordinamento dei laboratori ed è capitato che, pur essendo dotati di sofisticati macchinari per analisi chimiche, si è dovuto ricorrere a forniture esterne di servizi. La crisi attuale, con la scadenza dei contratti di numerosi addetti che l’Amministrazione non intende stabilizzare ed i limiti di budget già espressi, che non permetteranno l’acquisto dei consumabili e dei servizi di manutenzione e di certificazione, rischia di rappresentare il colpo di grazia ad una situazione già critica, fatta di difficoltà nell’effettuare acquisti, procedure di gara ed affidamenti interminabili per via della normativa eccessivamente restrittiva e degli ostacoli burocratici che invece di semplificare e snellire, appesantiscono e dilatano le tempistiche anche per la più semplice procedura.

Per questi (e non solo questi) problemi, ricercatori, tecnologi, tecnici e personale amministrativo dell’ISPRA, organizzati dall’Unione Sindacale di Base, sono al quarantaseiesimo giorno di occupazione. La base dell’occupazione è nella sala conferenze dell’ISPRA nella sede di Via Brancati 48, dalla quale il personale si organizza per una serie di iniziative “lampo”. L’ultima in ordine temporale è stata quella organizzata sul tetto del polo laboratoristico dell’ISPRA a Castel Romano venerdì 30 giugno (vedi tg3 h.19 del 1/7). Essa voleva rappresentare ciò che potrebbe accadere ai laboratori se non matureranno le condizioni per garantire la continuità lavorativa di quei colleghi precari che in essa operano e che scadranno alla spicciolata da qui a dicembre.

I primi 35 contratti sono scaduti il 30 giugno scorso e nonostante si tratti di personale specializzato che opera da decenni nell’Ente, con tutti i requisiti per rientrare nei processi di stabilizzazione previsti dal “Nuovo Testo Unico” del pubblico impiego (DLgs 75/2017) ed essere pertanto mantenuto in servizio, solo 14 hanno visto il proprio contratto prorogato. Tutti gli altri sono fuori per diversi cavilli, e partecipano attivamente alla lotta, per forzare lo sviluppo degli eventi verso una soluzione favorevole per sé e per l’Istituto.

È necessario che la Politica capisca che non si può abbandonare il comparto degli Enti Pubblici di Ricerca, di cui l’ISPRA è parte, ad una “sopravvivenza” senza prospettive. Devono essere assolutamente inseriti nuovi finanziamenti stabili da parte della finanza pubblica (basterebbe l’1% di quanto stanziato per “salvare” le banche delle recenti crisi) per stabilizzare i 10.000 precari storici e rilanciare gli Enti con una governance superiore a quella dei singoli ministeri vigilanti. Questa è la piattaforma che l’USB sta portando avanti in tutte le sedi competenti, rafforzata dalla lotta del personale.

Il mare, le schiume, le alghe e gli zucchini S.Pasquale

In evidenza

Raffaele Attardi*

Secondo il mito, Venere sarebbe nata dalla schiuma del mare, è quindi è noto da tantissimi anni che nel mare si formano delle schiume , ovvero un aggregato instabile di bolle d’aria in acqua .

Nel Golfo di Napoli , e non solo lì , da alcuni anni le schiume si formano sempre più frequentemente , vagano spinte dalla corrente  ed è facilissimo incontrale . Le foto seguenti, disponibili su internet,   documentano, la formazione di schiume di eccezionali dimensione , che talvolta si formano.

Figura 1 Sorrento Località Capo di Sorrento

 

Figura 2 Sorrento località Marina Grande

Purtroppo nessuno più crede nel mito di Venere anzi le schiume destano preoccupazione, perché molti ipotizzano che siano dovute a scarichi abusivi di varia natura e viene attribuito alternativamente a carenze nel sistema fognario, o a sversamenti dovuti alle navi da crociera e\o allo sversamento di scarichi abusivi provenienti da abitazioni e alberghi che affacciano sul mare. E c’è anche chi ritiene che la presenza di schiume sia dovuta al fatto che in taluni periodi la popolazione residente aumenta in maniera esponenziale e quindi si scaricano a mare tonnellate di detersivi provenienti da strutture ricettive e ristoranti.

Per smentire queste ipotesi allarmanti sono venute più volte rassicurazioni dalle Autorità, che hanno precisato che queste schiume sono dovute a fenomeni naturali, e che non costituiscono un pericolo, ma ci sono pochi riferimenti a studi fatti per approfondire lo studio delle cause di questo fenomeno, e ancor meno le ipotesi di lavoro per determinare le misure più idonee per contrastarlo .

Eppure questo aspetto è di grande rilevanza perchè , fare il bagno nella schiuma , consente forse di uscire più puliti dall’acqua, ma non è cero gratificante .

Sorrento con le sue terrazze affacciate sul mare, offre un osservatorio privilegiato per studiare questo fenomeno, perché talvolta , invece di chiudersi in laboratorio e mettersi al microscopio, le cose si vedono meglio guardandole dall’alto.

La prima evidenza che si può trarre studiando l’evoluzione del fenomeno è che si tratta di un fenomeno stagionale : inizia pressappoco con la prima luna di primavera, aumenta durante tutta la primavera, raggiunge il breack even point in estate e finisce poi con lo ridursi in autunno , per poi scomparire durante l’inverno.

La seconda evidenza è che la comparsa delle schiume non è casuale: le schiume si generano durante le giornate con elevato modo ondoso, quando le onde sbattono contro gli scogli , o nella scia degli aliscafi Gli aliscafi infatti sono spinti nella quasi totalità dei casi da idrogetti , ovvero da turbine che producono forti getti d’aria e determinano la formazione di bolle d’aria: le schiume cioè si formano a mare né più ne meno come quando si sbatte una saponata in una vaschetta o si avvia la vasca idromassaggio . Le foto che seguono danno evidenza in modo chiaro come si forma la schiuma .

Figura 3 schiume formate dal moto ondoso

Figura 4 schiume formate dagli idrogetti

Ma dove derivano le sostanze tensioattive che si trovano a mare e determinano l’abbassano della tensione superficiale, consentendo la formazione della schiuma?

Il fatto che la presenza di schiume sia stagionale e non direttamente legata al variare delle presenze turistiche sembra contraddire che possano derivare dai detersivi scaricati direttamente a mare. E c’è anche anche una considerazione stechiometrica che mi porta a questa conclusione : per produrre cambiamenti significativi nella formazione di schiume, tali da giustificare la variabilità delle fenomeno delle schiume, in un recettore così grande, come è il mare profondo della penisola sorrentina occorrerebbero variazioni consistenti e repentine della concentrazione dei detersivi nel mare , cosa che comporterebbe variazioni altrettanti consistenti e repentine nella quantità di detersivi scaricati a mare, incompatibili con la pur elevata variazione dovuta ai flussi turistici

Si deve perciò presumere che le sostanze tensioattive che si trovano in mare siano di origine naturale, prodotte cioè dal microalghe costituenti il fitoplancton .

Questa ipotesi trova conferma nel fatto che non solo la presenza di schiume è variabile con le stagioni, ma anche con le fasi lunari. In più occasioni si verifica infatti che la scia lasciata dallo stesso aliscafo, sia più o meno consistente a seconda della fase lunare . Il fitoplancton sembra cioè comportarsi come una specie vegetale diffusamente coltivata in penisola sorrentina, lo zucchino S. Pasquale , che ha un periodo di produzione che inizia in primavera e finisce ad estate in inoltrata, e che cresce vista d’occhio durante la luna crescente. Le immagini seguenti evidenziano la diversa formazione di schiume, a parità di condizioni, a seconda della fase lunare. E l’ipotesi che i tensioattivi siano prodotti dalle alghe spiegherebbe anche perché si verificano nella stessa stagione variazioni così significative – Le microalghe del microplancton non crescono in maniera lineare, ma seguono una legge esponenziale , si raddoppiano di volte in volta : impiegano un certo tempo per occupare la metà di un bacino idrico , poi però, raddoppiandosi ancora una volta , solo un attimo per colonizzarlo completamente.

E si verifica repentinamente anche il fenomeno inverso: una volta terminato il loro periodo di crescita, muoiono tutte insieme e cadono sul fondo, come le foglie degli alberi in autunno . Finiscono così con il soffocare tutte le specie che vivono sul fondo, causando l’impoverimento dei fondali. E quando questq gelatina viene gonfiata dai gas di putrefazione , sale a galla , dando origine alla mucillagine. Questo fenomeno non si evidenzia molto nel Golfo di Sorrento, a causa della tipologia dei fondali, ma basta andare in giro con una maschera per notare come in certi periodi, una specie di lanugine copra il fondale e le poseidonie .

Nelle immagini sottostanti si evidenzia come lo stesso in periodi diversi la scia lasciata dallo stesso aliscafo sia completamente diversa, fenomeno che dimostra come sia repentina la variazione di concentrazione dei tensioattivi contenuti nelle acque

Conclusioni

Le considerazioni semiempiriche esposte in precedenza devono trovare conferma in studi sulla natura chimica delle schiume e sulla natura delle microalghe che producono i tensioattivi naturali e sui fenomeni che ne regolamentano la crescita.

Ma nel frattempo che il Chimico ed i tanti professionisti coinvolti in questa tematica studiano, bisogna evitare che il malato muoia .

Quando si parla del mare l’attenzione dell’opinione pubblica e quella dei media è largamente concentrata su di un solo indicatore: la balneabilità o meno dello specchio d’acqua. Ma la balneabilità dipende prevalentemente solo dalla presenza o meno di batteri patogeni nelle acque. E per di ottenere la balneabilità si fa largamente ricorso alle condotte sottomarine, che consentono di allontanare i liquami dalla costa .

Ma questa soluzione equivale a scopare e mettere i rifiuti sotto il tappeto: si ottiene il risultato di diluire e distruggere i batteri , ma tutto il carico chimico e biologico presente nei liquami viene scaricato a mare ed alimenta il fitoplancton. E’ del tutto evidente che questo fatto sta contribuendo, insieme alle mutate condizioni climatiche ad un grave rottura degli equilibri naturali .

Pochi pongono attenzione alla formazione sempre delle schiume e un numero ancora minore di persone cerca di risalire alle cause di questo fenomeno e a spingere per fare in modo che vengano attuate le azioni correttive necessarie per rimuoverle .

In penisola sorrentina è nato un movimento Facebook ‘La Grande Onda’ che sta cercando di fare proprio questo . E pur rimanendo aperto il dibattito sulle cause di questo fenomeno e più in generale , sulle cause dell’inquinamento del mare, continuamente sposta l’attenzione sulle azioni che bisogna fare per ridurre l’impatto dell’inquinamento .

E ha ottenuto, senza marce, senza flash mobing, senza manifestazioni eclatanti, ma stimolando attraverso una lunga e continua ‘ chiacchierata ‘ via internet , che ha coinvolto più di 10.000 persone , che si mantenesse concentrata l’attenzione sul completamento di un’opera l’impianto di depurazione di Punta Gradelle, che oggi dopo 40 anni di attesa è stato finalmente avviato. Questo impianto separa oltre 1000kg al giorno di solidi sospesi che prima finivano a mare ( e guardano la tipologia dei rifiuti separati , nella foto sottostante, ci sarebbe tanto da dire su quanto contribuiscono le fogne a far crescere le isole di plastica e la concetrazione di microplastiche nel mare ) e che tratta tutti i liquami dei comuni della penisola, abbattendo drasticamente il carico chimico biologico scaricato a mare .

Si tratta solo il primo del primo passo a cui devono far seguito, parlando solo dei fatti nostri, analoghi interventi nel Golfo di Napoli, e nell’area Sarnese Vesuviana .

La ‘chiacchierata’ sta continuando e sta mettendo in evidenza come in altre zone non solo ci siano impianti di depurazione non ancora completati, ma che ci siano situazioni ancor più gravi, conosciute da anni, ma non sufficientemente portate all’attenzione dell’opinione pubblica e che accanto a poche situazioni di eccellenza ci sia un vero e propri museo degli orrori in cui è possibile trovare Città di decine di migliaia di abitanti senza fogne, e dove i liquami vengono scaricati in canali che scorrono fra le case a cielo aperto , opere idrauliche realizzate dai Borboni per risanare paludi e favorire lo sviluppo agricolo e industriale, trasformate in collettori fognari largamente fuori controllo, taluni senza sbocco, luoghi in cui si utilizzano invasi naturali per scaricarvi le fogne, e perfino Città, che pur avendo sul proprio territori impianti di depurazione non lo utilizzano per mancanza di collettori di collegamento e scaricano le acque fognarie direttamente nel fiume .

Bisogna rimuovere le cause di questo disastro e ognuno può collaborare a questo risultato ,il mondo scientifico che non può limitarsi a sollecitare nuovi studi, ma che deve contribuire ad una corretta divulgazione scientifica,   gli organi di informazione che devono porre costantemente all’attenzione questo problema e diffondere corrette informazioni sui procedimenti in corso per risolverli . Bisogna far crescere il coinvolgimento dei Cittadini e sono i Cittadini che devono impegnarsi in prima persona e costantemente sollecitare Città per città i loro Amministratori provvedimenti da adottare. L’inquinamento è un mostro dai mille tentacoli , ci vogliono mille braccia per combatterlo. Ognuno deve mettere a disposizione le sue.

Bisogna smetterla di sollecitare grandi progetti e pensare che tutto si risolva costruendo impianti di depurazione : non si può disinquinare un fiume in cui ci finisce di tutto alla foce .

Per risolvere questo problema bisogna costruire una visione comune : neanche una goccia di liquame non trattato deve finire in invasi naturali , canali , fiume o a mare .

Unitevi a noi nel gruppo Facebook ‘ La grande Onda ‘ per portare un vostro contributo e continuare questa chiacchierata.

*Raffaele Attardi, chimico, iscritto all’Ordine dei Chimici di Napoli, fondatore del gruppo FaceBook La Grande Onda

Il segreto di un grande vino? Chimica organica

In evidenza

Rinaldo Cervellati

Come noto, il vino negli USA è principalmente prodotto in California, probabilmente però non tutti sanno che con circa i tre quarti della superficie della Francia, la California rappresenta quasi il 90% della produzione americana di vino. Se la California fosse un paese separato, sarebbe il quarto produttore di vino del pianeta [1]. Nel 2016, infatti, gli USA hanno raggiunto il quarto posto nella produzione mondiale di vino con il 9% (California circa 8%), preceduti da Italia (19%), Francia (16%) e Spagna (15%). Anche le esportazioni verso paesi diversi da Canada e Giappone sono andate notevolmente aumentando dal 2010 al 2016 [2]. A parte la diatriba fra Zinfaldel californiano e Primitivo pugliese, in California, oltre alle varietà classiche (Chardonnay, Sauvignon blanc, Cabernet, Merlot, Pinot noir) si coltivano vitigni che vanno dal Barbera al Sangiovese, dal Riseling al Pinot blanc.

Vini californiani


La crescita del successo dei vini californiani è largamente dovuta al Wine Executive Program, sviluppato dall’University of California a Davis, appositamente progettato per insegnare i fondamenti della produzione del vino e fare acquisire le competenze di vinificazione e di gestione necessarie per un’odierna redditizia e dinamica industria vitivinicola.
Protagonista di questo programma è senza dubbio Andrew L. Waterhouse, professore di enologia e viticoltura alla UC di Davis, recentemente intervistato da B. Halford per C&EN newsletter [3].

AndrewJ. Waterhouse

Quando a Waterhouse viene chiesto di scegliere un vino per un pranzo in famiglia o una cena con amici, si può scommettere che sceglierà il migliore, poiché gode di larga fama come educatore di una generazione di viticoltori durante i suoi 26 anni di insegnamento alla Davis, dice Halford.
Ma Waterhouse non è sempre stato un enologo. Nato a Redding, in California, ha dovuto spostarsi spesso per motivi di famiglia. Nel 1977 ottenne il bachelor in chimica con lode all’Università di Notre Dame, conseguì il dottorato in chimica organica all’Università di Berkeley nel 1983. Con l’esperienza in sintesi di prodotti naturali ha iniziato la carriera insegnando chimica organica nei corsi preparatori alla Facoltà di Medicina in diverse istituzioni fra cui l’Università di Tulane in Lousiana, compiendo ricerche sull’analisi conformazionale di polisaccaridi. Dice all’intervistatore che un giorno, mentre era in volo, sfogliando proprio una copia di Chemistry & Engineering News, notò che l’Università di Davis bandiva un posto per assistente professore di enologia e viticoltura. Poiché desiderava tornare in California sottopose la sua candidatura e ottenne il posto.
Appena ho saputo che avevo ottenuto il lavoro, ho iniziato a leggere, ricorda. Professionalmente, non sapevo niente. Ero un amante del vino, ma non avevo idea di cosa fosse veramente il vino, se non che conteneva alcool .
Waterhouse dice che quando ha iniziato la sua attività presso l’Università a Davis, ha cercato di insegnare la chimica organica ai futuri viticoltori allo stesso modo in cui la insegnava nei corsi propedeutici per medicina.

Non funzionava, dice, per esempio quando spiegavo che i terpeni, importanti composti che influenzano il sapore in alcuni vini come i Riesling, discutevo come questi subiscono un riarrangiamento durante l’invecchiamento, catalizzato dall’ambiente acido. Stavo mostrando agli studenti la formazione, il riarrangiamento dei cationi allilici e la loro eliminazione, ma ciò era completamente inutile per loro.

Prosegue poi:

Certamente questi studenti devono sapere qualcosa sui terpeni, ma non è necessario che conoscano il meccanismo dettagliato delle loro trasformazioni.

Queste considerazioni indussero Waterhouse a ripensare completamente il suo insegnamento per i futuri viticoltori.

Era necessario mettere più in risalto la chimica che sarebbe stata utile per la loro professione, la produzione di vino. Ecco perché seguono questo corso: vogliono imparare cosa accade durante le fasi della vinificazione in modo che possano gestire al meglio il proprio lavoro. Una chimica molto pratica, dunque.

Waterhouse trovò inoltre un atteggiamento molto diverso fra gli studenti del corso di enologia e quelli del corso di chimica organica propedeutico a medicina. I primi, sia che intendano fermarsi al bachelor o proseguire per un master o un dottorato, affrontano gli argomenti con grande passione. I secondi, invece, considerano il corso di chimica organica quasi come un ostacolo al loro ingresso in Facoltà di Medicina e per questo il loro studio era finalizzato solo all’ottenimento del voto massimo. Al contrario gli studenti della Davis volevano acquisire informazioni e sapere quanto esse potessero essere utili nella loro professione.

Accanto all’insegnamento Waterhouse intraprese ricerche sull’ossidazione dei vini e sull’assorbimento e il metabolismo delle antocianine e altri polifenoli contenuti nel vino che si suppone diano benefici nella prevenzione di disturbi legati allo stress ossidativo cellulare. Queste ricerche si concretizzeranno in più di 160 pubblicazioni [4]

Nel 1997 diviene professore associato di enologia e nel 2000 full professor di questa disciplina, sempre alla Davis University.

Nel 2016, dopo 25 anni come “chimico del vino”, Waterhouse ha deciso di scrivere un libro che fosse una risorsa anche per altri potenzialmente interessati a insegnare l’argomento o per i chimici interessati a conoscere di più la chimica del vino. Insieme a Gavin L. Sacks dell’Università di Cornell e a David W. Jeffery, dell’Università di Adelaide, è coautore del volume “Understanding Wine Chemistry“.

Questo libro, secondo Waterhouse, è diverso da altri testi sulla chimica del vino, perché si concentra sulla chimica organica del vino.

La maggior parte dei chimici del settore sono chimici analitici e sono molto bravi in questo, ma quando ne scrivono, si concentrano troppo su questioni analitiche, come il confronto dei risultati analitici con il gusto e i risultati sensoriali.

Anche se ciò è importante, Waterhouse sostiene che lui e i suoi coautori intendevano scrivere un libro sulle reazioni chimiche che avvengono nel vino.

Solo capendo la chimica puoi intervenire in modi molto semplici. Ad esempio, i vini Sauvignon blanc della Nuova Zelanda sono noti per un aroma fruttato del guava, ma questa nota fruttata spesso si perde dopo l’immagazzinamento. Un chimico organico ha capito che l’aroma proviene da un estere che può idrolizzarsi perdendo l’odore. Ora, i vignaioli della Nuova Zelanda mantengono il sauvignon blanc freddo fino a quando non viene imbottigliato e spedito conservando così l’aroma. Quindi la comprensione della chimica è molto importante nella produzione di vino, sottolinea Waterhouse.

Tuttavia, termina l’intervista Waterhouse:

Quello che ho scoperto è che non è unicamente la chimica che rende il vino interessante o prezioso. C’è molto di più dietro la storia del vino che la chimica….la realtà è che la gente ama il vino. E la gente ama il vino non solo per l’aroma o il gusto. Ama il vino per molte ragioni. Quando sei un viticoltore una delle cose chiave che devi fare è trasmettere un messaggio sul tuo prodotto: una storia su di te o sulla terra o sulla storia della proprietà. Queste cose sono, in qualche modo, più importanti per un bevitore di vino che il suo buon sapore.

C’è qualche lezione che dobbiamo apprendere dall’intervista del professor Waterhouse? Certamente ben poco riguardo la produzione del vino, la tradizione italiana con i suoi e numerosissimi vitigni è data da centinaia d’anni rispetto alla giovane tradizione californiana (che, fra l’altro non ha vitigni autoctoni, ha importato diverse specie europee). Probabilmente qualcosa da imparare è sul marketing, in questo campo gli americani potrebbero in futuro darci dei punti, che già ci danno i francesi che i loro prodotti (a volte ‘tagliati’ con i nostri vini del sud), li sanno “vendere” meglio di noi. Anche sulla chimica del vino abbiamo poco da imparare, in questo settore abbiamo centri di ricerca di eccellenza come ad es. quello di San Michele all’Adige.

Una cosa possiamo apprendere dal breve excursus sulla carriera del prof. Waterhouse: quando si ottiene un insegnamento non direttamente collegato a esperienze precedenti ci vuole molto studio e molto tempo per costruire un percorso didattico adeguato alla situazione. Non ci si può improvvisare chimici del vino anche se si possiede un dottorato in chimica organica, ci dice in sostanza Waterhouse. Invece è proprio quello che accade in Italia con i raggruppamenti disciplinari che contengono di tutto e di più, inoltre versare acqua da un vaso o accendere un fuoco è assolutamente irrilevante ai fini dell’avanzamento di carriera…

Bibliografia

[1] T. Stevenson, Sotheby’s Wine Encyclopedia (4 ed.)., 2007 Dorling Kindersley. p. 462

[2] http://www.inumeridelvino.it/tag/usa

[3] B. Halford, The secret to great wine? Organic chemistry, c&en, web date: June 6, 2017

[4] [https://scholar.google.com/citations?user=yY-df4UAAAAJ&hl=en]

 

Ancora qualcosa sulla birra.

In evidenza

Mauro Icardi

la prima parte di questo post è pubblicata qui.

Dopo la cronaca di una giornata particolarmente interessante, credo che valga la pena di aggiungere ancora qualcosa sulla birra. Per prima cosa partire dal cereale che ne ha dato origine. L’orzo, facile da coltivare che trasforma l’uomo da nomade a stanziale, 13000 circa anni fa Il perfezionamento delle tecniche agricole che portano alla produzione di un surplus di cereali che occorreva immagazzinare. La necessità di proteggere l’orzo da parassiti e roditori porta una donna ad inventare una tecnica di conservazione che prevede di conservare i chicchi di orzo in vasi colmi di acqua. A quel punto la germinazione ed i lieviti naturalmente presenti produssero   la fermentazione. Altre tesi parlano di un pane lasciato inumidito per errore da una donna sumera che la fermentazione trasformò in una pasta inebriante. L’uomo che si nutriva dell’acqua o del pane fermentato si rinvigoriva e si sentiva più felice, finendo per attribuire questa sensazione di benessere all’intervento divino. I sumeri producevano fino ad una ventina di tipi di birra dimostrando di saper gestire in maniera pratica processi di tipo catalitico-enzimatico che sarebbero stati compresi solo nel XIX secolo. La birra di malto, la più pregiata era chiamata sikaru (pane liquido). Nel codice di Hammurabi si trovano regolamentazioni molto precise per la fabbricazione della birra che arrivano fino alla condanna a morte per chi non rispettava i codici di qualità e le regole di fabbricazione della birra, o apriva locali di vendita non autorizzati.

Gli Egizi attribuirono ad Osiride protettore dei morti l’invenzione della birra ed ipotizzarono il legame tra birra ed immortalità. Da questo probabilmente discende lo slogan pubblicitario “chi beve birra campa cent’anni” che a partire dagli anni trenta e fino alle soglie dei sessanta inviterà a consumare la millenaria bevanda,

Il papiro Ebers offre seicento prescrizioni mediche per alleviare le sofferenze dell’umanità a base di birra.

Successivamente i Galli miglioreranno le tecniche di produzione di birra utilizzando pietre riscaldate per la cottura, e le botti per la sua conservazione.

Per concludere questo piccolo excursus storico sulla birra vale la pena di menzionare che le donne (a partire da quella sumera) hanno un ruolo importante nelle storia della bevanda. Scoprono che masticando i grani di cereali la birra fermenta meglio (grazie alla ptialina della saliva) che trasforma gli amidi in zuccheri adatti alla fermentazione. Questo rituale di birrificazione è praticato ancora oggi in America Latina.

In Europa almeno fino al medio evo si mantiene questa forte impronta femminile sul commercio e la fabbricazione della birra.

E l’uso di luppolare il mosto di birra si deve all’opera e alle ricerche di una religiosa e celebre botanica Suor Hilgedard von Bingen. E l’olio essenziale di luppolina utilizzato per l’amaricazione e la conservazione della birra si ottiene dall’infiorescenza femminile della pianta del luppolo.

Reso il giusto omaggio storico all’altra metà del cielo nella storia della produzione birraria vorrei parlare di un ingrediente spesso sottovalutato, o dato per scontato ma importantissimo nella fabbricazione della birra. Cioè l’acqua. Partendo proprio dalla fontana degli ammalati di Valganna che venne acquistata dal lungimirante Angelo Poretti. Un interessante articolo di Giorgio Rodolfo Marini dell’Università dell’Insubria di Varese intitolato “Acque salutari nel Varesotto” ci dà qualche indicazione in più. Nell’Aprile del 1868 il professor Luigi Sironi di Varese analizzava l’acqua confermando la presenza di Calcio, Magnesio, Ferro, Cloruro, Solfato, Bicarbonato e Silice. L’analisi dell’acqua è riportata nell’opera di    G.C. BIZZOZZERO, Varese e il Suo Territorio. Guida descrittiva, Tipografia Ubicini, Varese 1874.

L’acqua… risulta contenere per ogni chilogrammo: Bicarbonato di magnesia Gr. 0.20 Bicarbonato di calce   Gr. 0.16 Bicarbonato di ferro   Gr. 0.06 Cloruro di calcio   Gr. 0.08 Solfato di calce e magnesia Gr. 0.06 Silice e materie organiche Gr. 0.07   Totale materie fisse   Gr. 0.63

La prima birra di Poretti non sarà prodotta fino al Dicembre del 1877, ma già dall’analisi di Sironi vergata in puro stile ottocentesco si riesce a capire che l’acqua ha un giusto equilibrio di sali ed è adatta alla produzione di diverse tipologie di birra.In generale la birra è composta al 90-95% di acqua. E se è facile produrre una birra discreta, diverso è produrre una ottima. Generalmente alcuni sali che possono essere presenti come solfati, cloruri e magnesio possono interagire con la sensazione al palato dell’amaro dato dal luppolo.

Una buona acqua potabile, magari dopo l’eliminazione del cloro residuo può essere una buona base per la produzione di una birra.

Ma gli stili birrari variano nel mondo anche in funzione delle caratteristiche dell’acqua. La regola empirica è quella di partire da un’acqua possibilmente poco carica di sali e con bassa durezza, ed eventualmente addizionarla dei Sali necessari quando carente. Relativamente allo ione calcio, mentre per una birra Pilsen la sua concentrazione è di 7mg/lt, quella per una birra tipo dortmund può arrivare fino a 250.

Il D. Lgs. 31 del 2 febbraio 2001 che regola la fornitura di acque per il consumo umano trova applicazione anche per le acque destinate alla produzione alimentare, e oltre ai parametri chimico fisici prevedono anche dei parametri microbiologici, analizzati per mezzo dei terreni di coltura imposti dal D. Lgs. 31 del 2 febbraio 2001, precisamente la conta della carica batterica totale e la determinazione degli Enterococchi e dei Coliformi.

Non rimane che brindare con ovvia moderazione con la birra. E magari dedicare il brindisi ai mastri birrai ed alla chimica. Perché come si può vedere anche nella birra la chimica c’entra. E sulla birra si potrebbero scrivere non solamente due articoli, ma interi trattati. La birra che partita dai sumeri arriva fino ai giorni nostri. Per fortuna oserei dire…

 

O.T. Cosa è l’immunità di gregge: un punto di vista algebrico.

In evidenza

Claudio Della Volpe

Può sembrare strano che il nostro blog si occupi di questo argomento; ma se ci pensate la vita è la reazione chimica meglio riuscita e il diffondersi di una epidemia è semplicemente una reazione indesiderata da controllare; dunque OT ma fino ad un certo punto. Visto che l’argomento è caldo discuterne non fa male.

Cosa è l’immunità di gregge: un punto di vista algebrico. Perchè è importante vaccinarsi.

La parola immune viene dal latino immunis formato da in- e munus ; in ha qui senso negativo e munus cioè “obbligo, servizio, imposta“; significa quindi “esente da obblighi”. Si riferiva allora all’esenzione dal servire qualcuno contro qualcun altro.

Al momento immune si riferisce al fatto di essere libero dalla possibilità di ammalarsi di una certa infezione; si può divenire immuni o perchè si è avuta la malattia o perchè si è stati vaccinati.

Supponete di avere un gregge di n pecore e di volerlo rendere immune ad una delle numerose malattie di cui le pecore soffrono. Vaccinare gli animali non è semplice; supponete di averle vaccinate tutte meno una e di chiedervi a che prò dobbiate fare questo ultimo sforzo. Dopo tutto anche se quest’ultima pecora si ammalasse dato che le altre n-1 sono state tutte vaccinate la malattia non si potrebbe diffondere oltre. In fondo ragionando così il gregge che avete vaccinato tutto meno una pecora (n-1) sarebbe immune a parte quella pecora particolare.

Se avete un gregge abbastanza grande potreste fare il medesimo ragionamento anche fermandovi ad n-2. Dovreste essere proprio sfortunati se giusto di quelle due pecore non vaccinate una si ammalasse e venissero in contatto proprio loro in quella massa enorme.

In effetti questo ragionamento se avete un gregge grandissimo potreste estenderlo anche ad un 10% di pecore lasciandole senza protezione e così via.

Ora supponete che parta una epidemia; supponete che voi abbiate un gregge totalmente non protetto; ogni pecora ne infetterebbe un certo numero; se l’epidemia parte questo vuol dire che il numero R0 di pecore che si infettano dopo che la prima si è ammalata deve essere >1; se R0 >1 allora l’epidemia si estende

Ma cosa succederebbe nel caso del vostro gregge parzialmente protetto? Quanti casi secondari ci sarebbero?

Possiamo chiamare questo numero Rp, dove p sta per protetto. Questo nuovo numero è uguale ad R0 moltiplicato la probabilità di incontro con una pecora suscettibile all’infezione. Supponiamo di avere un vaccino perfetto che funziona bene e di avere un mescolamento casuale perfetto del gregge: il nuovo numero sarà uguale ad

Rp = R0 × (1-Vc)

dove Vc è semplicemente la frazione di pecore vaccinate.


La domanda che viene naturale è: quale percentuale del gregge dovete vaccinare per prevenire una epidemia? Dato che l’epidemia parte se il numero di casi secondari è maggiore di 1, allora il limite sarà: Rp < 1. Ossia 
 
1 > R0 × (1- Vc) 
 
o usando ancora l’algebra:

Vc > 1-1/ R0

Così il gregge è protetto a condizione che voi abbiate vaccinato almeno la proporzione

Vc > 1-1/R0. Come vedete Rp è scomparso ma R0 è rimasto.

Per esempio se R0 per una certa malattia in una data comunità è 2 allora la copertura sufficiente a bloccare il contagio epidemico è il 50%.

Se invece R0 è 10, allora è necessario il 90% e se è 20 è il 95%.

Conclusione: potete eradicare una malattia vaccinando anche meno della intera popolazione; tuttavia questo è vero a condizione che voi abbiate vaccini perfetti, che convertono sierologicamente tutti i vaccinati e che i contatti siano ben controllati (ossia che il vostro sistema non preveda immissioni dall’esterno).

Qui sotto trovate le percentuali di copertura necessarie secondo questo semplice modello (abbastanza limitato) a tenere sotto controllo l’infezione; prendiamo un caso semplice; la rosolia, e pensiamo di vaccinare solo le ragazze sulla base del fatto che tanto il problema è solo per le donne in gravidanza; questo, a parte che tecnicamente non è vero perchè le complicanze della rosolia colpiscono anche gli uomini, sarebbe in conflitto con l’esigenza di coprire una fetta di popolazione superiore all’80% dato un R0 di 6. Dunque anche questo semplice modello ha un uso pratico.

Il modello è basato su due ipotesi: (1) vaccino perfetto (ipotesi non realistica, la sieroconversione avviene in un numero di casi ridotto (poniamo 90%)) e inoltre (2) sistema in studio non chiuso, capace di scambi con le altre popolazioni. Dato che le due condizioni non sono banali da controllare o modificare, l’unico modo di ottenere una efficace immunità di gregge è di avere una percentuale di vaccinazione molto alta, la più alta possibile, vicina al 100%. Per le malattie ad alta infettività come il morbillo, per il quale R0 è prossimo a 20, il 90-95% sarebbe comunque necessario. In altri casi potrebbe bastare di meno, ma averne la sicurezza non è banale; è più facile aumentare la percentuale di vaccinati.

Esiste tuttavia anche un altro aspetto che occorre considerare: cosa succede se la percentuale di sieroconversione è inferiore a quella teorica? Per esempio, alcuni vaccini vengono ripetuti perché la efficacia di sieroconversione è E=90%; dunque la prima volta avremo un successo del 90%; poi ripeteremo la vaccinazione e verosimilmente adesso raggiungeremo un valore maggiore perché anche chi la prima volta non aveva reagito reagirà; e dunque arriveremo poniamo al 99%. Ha senso ripetere la vaccinazione?

Rimaniamo al caso del 90%; la equazione di Vc diventerà Vc > (1-1/R0) /E; adesso se E è troppo bassa potremmo avere l’impossibilità di rispettare la condizione; Vc non può superare 1 mentre se supponiamo R0 =20 e E=0.9, cioè una malattia molto infettiva ed un vaccino efficace solo al 90%, avremo che Vc dovrebbe superare il 100%, il che è impossibile! In questo caso, con una malattia che produce 20 casi secondari, occorre un vaccino efficace almeno al 95%. Con il morbillo che sembra dia fra 12 e 18 casi secondari l’efficacia E dovrebbe essere molto simile nel caso peggiore mentre potrebbe scendere al 92% nel caso migliore.

Per comprendere bene l’importanza di questo parametro E considerate che anche se R0 è solo 2 il vaccino non può essere meno efficace del 50% altrimenti anche tutta la popolazione vaccinata non servirà a nulla.

Dunque per affrontare l’epidemia ci vogliono vaccini efficaci oppure nel caso ciò non sia possibile nemmeno ripetendo il vaccino occorre disporre l’isolamento dei malati per ridurre Rp. Questo dipende dall’organizzazione sanitaria o da un controllo poliziesco o alternativamente e meglio dalla cosciente collaborazione della popolazione, che a sua volta si può ottenere o sotto la spinta della paura nell’immediatezza dei fatti (pensate all’epidemia di Ebola per esempio dove un vaccino non c’era e che è stata fermata abbassando Rp), o della conoscenza e della trasparenza in qualunque momento. A voi la scelta.

PS Noto di passaggio che degli oltre 3000 casi di morbillo avvenuti in Italia nei primi 6 mesi dell’anno il 96% si è avuto fra persone non vaccinate o vaccinate una volta sola; questo conferma l’efficacia della strategia della doppia vaccinazione; ma ben 237 fra operatori sanitari. A quando l’obbligo di vaccino EFFETTIVO per gli operatori sanitari?

Ringrazio per gli utili commenti Marco Pagani e Paolo Marani.

Libera traduzione ed adattamento di Claudio Della Volpe dal sito: http://www.mathepi.com/maindir/herd.html.

Per approfondire:

https://en.wikipedia.org/wiki/Herd_immunity

https://en.wikipedia.org/wiki/Mathematical_modelling_of_infectious_disease

http://www.maa.org/press/periodicals/loci/joma/the-sir-model-for-spread-of-disease-introduction

VACCINES d CID 2011:52 (1 April) d 911 https://academic.oup.com/cid/article/52/7/911/299077

 

Dai lavori scientifici ai testi didattici: il caso del Numero di Avogadro.2.

In evidenza

Rinaldo Cervellati

La prima parte di questo post è pubblicata qui.

Un tempo ancora maggiore dovrà comunque passare affinché la costante o numero di Avogadro entri a far parte dei contenuti dei libri di testo di chimica a livello di liceo. Secondo Jensen [1] occorre aspettare gli anni ’50 del secolo scorso. Quali e quante modifiche sono intervenute in questo lasso di tempo nei libri per il liceo?

Esamineremo anzitutto l’edizione 1918 del libro Essentials of Modern Chemistry, di Charles E. Dull[1] [2], professore di chimica nella South Side High School di Newark, N.J.

Sebbene gli argomenti oggetto del nostro studio siano presentati solo nei Capitoli XII (Teoria atomica-Pesi atomici) e XIII (Leggi dei Gas-Pesi molecolari) analogamente al testo di Cooley (destinato al college), l’esposizione è diversa. Dull si dilunga sul concetto di peso equivalente o di combinazione per introdurre la teoria atomica di Dalton e interpretare le leggi ponderali delle combinazioni chimiche. Il passaggio ai pesi atomici è sintetizzato come segue:

I pesi atomici relativi sono stati determinati per via indiretta. L’atomo più leggero è l’idrogeno. Il suo peso viene posto uguale a 1. Poiché l’atomo di ossigeno è 16 volte più pesante di quello di idrogeno, il peso atomico dell’ossigeno è 16. Il peso atomico di qualsiasi elemento è il rapporto fra il peso del suo atomo e il peso dell’atomo di idrogeno. [2, p. 113]

Chiarisce poi che i pesi atomici usati nel libro sono approssimati e basati su una scala più conveniente in cui lo standard è la sedicesima parte del peso atomico dell’ossigeno posto uguale a 16. Tratta poi la composizione centesimale, le formule dei composti e come ottenere la formula più semplice.

Nel capitolo successivo, partendo dalle leggi di Gay-Lussac sui rapporti fra i volumi delle combinazioni in fase gas ne deriva l’ipotesi di Avogadro chiamandola volta a volta legge o teoria. Da questa ipotesi fa derivare il fatto che le molecole degli elementi gassosi contengono due atomi, poi scrive:

Dalla teoria di Avogadro i rapporti fra i volumi non cambiano se si sostituisce il termine molecola al termine volume. [2, p. 120-121]

Il contributo fondamentale di Cannizzaro e il lungo periodo trascorso per arrivare a questo risultato sono completamente ignorati da Dull.

In compenso viene definita la mole come:

Una mole può essere definita come il peso grammo-molecolare di una sostanza. Una mole di ogni sostanza è il suo peso molecolare in grammi. Ad esempio una mole di idrogeno è 2 grammi. Una mole di ossigeno è 32 g…una mole di acqua è 18 grammi.[2, p. 121]

Introduce poi il concetto di volume molare di un gas stabilendo che:

…una mole di qualsiasi gas occupa un volume di 22.4 litri in condizioni standard di pressione e temperatura. [2, p. 122]

Si serve poi di questo fatto per la determinazione del peso molecolare delle sostanze gassose. Per i composti non volatili ricorre quindi alle proprietà colligative abbassamento del punto di congelamento e innalzamento del punto di ebollizione. Segue la determinazione delle formule molecolari dei composti. Due curiosità:

Nella prefazione, Dull suggerisce che se il libro viene usato per studenti che non si stiano preparando per il College, i capitoli sulla teoria della ionizzazione e sull’equilibrio possono essere omessi. Il libro termina con brevi biografie di importanti chimici.

Il libro di Dull vide diverse edizioni successive. In quella del 1936 [3], i capitoli relativi a quanto ci interessa non sono sostanzialmente cambiati rispetto alla prima edizione. Accanto alle leggi dei gas viene presentata, nella forma PV/T = P’V’/T’ la “Legge del Gas” (Gas Law). Come nell’edizione precedente l’enfasi viene posta sul concetto di mole e volume molare dei gas e sulle proprietà colligative per la determinazione della formula dei composti.

La novità sta nel capitolo sulla valenza. Dopo la definizione “classica”, cioè capacità di un dato atomo di legarsi o sostituirsi con uno o più atomi di idrogeno [3, p. 177], Dull introduce la teoria elettronica della valenza. Il modello atomico è quello planetario. L’autore è comunque ancora lontano da concetti come legame ionico e legame covalente.

Per trovare la definizione di numero di Avogadro e il suo valore numerico si deve aspettare l’edizione di Modern Chemistry del 1958 [4].

Dopo aver definito il peso grammo atomico come il peso di un elemento in grammi uguale al suo peso atomico, comunemente riferito come grammo-atomo, si afferma che il fatto più significativo riguardante i pesi grammo-atomici è che grammo atomi di tutti gli elementi contengono lo stesso numero di atomi. Questo numero viene chiamato numero di Avogadro, il cui valore moderno accettato è 6.0238×1023atomi per grammo atomo di qualsiasi elemento. Allo stesso modo definisce la grammo-molecola, affermando che…Grammo-molecole di tutte le sostanze contengono lo stesso numero di molecole. Questo numero è il numero di Avogadro, 6.0238×1023molecole per grammo-molecola.[4, p. 176]. Prosegue poi:

Il peso grammo-molecolare è un’unità così utile per i chimici che a esso è stato dato un nome corto: mole. Il concetto di mole è stato esteso per includere quelle sostanze che non hanno molecole. Così il peso della grammo-formula (il peso della formula in grammi) del cloruro di sodio è… [4, p. 177]

La valenza è presentata dal punto di vista elettronico in termini di legame ionico e covalente e di strutture di Lewis e, in precedenza, la struttura atomica è presentata in base alla teoria di Bohr. Questa edizione del libro riporta ancora il nome di Dull, sebbene egli fosse deceduto nel 1947. Successivamente Harold Clark Metcalfe[2] curò insieme a J.E. Williams e J.F. Castka ben 12 edizioni di Modern Chemistry, sempre per la Holt, Rinehart & Winston Inc. con grande successo.

In particolare la traduzione italiana dell’edizione 1974, tradotta e adattata da F. Cotta Ramusino e A. Pepe per Edizioni Cremonese, Roma, 1975, conobbe un enorme boom di adozioni negli anni fra l’uscita e il decennio successivo.

Nota. Se il corso introduttivo di chimica per il biennio della media superiore (15-16 anni di età, compimento dell’obbligo) è quindi un insegnamento destinato a tutti per una formazione culturale completa ci si può chiedere, come già è stato fatto in questo blog,

(https://ilblogdellasci.wordpress.com/2015/12/02/la-mole-nascosta/), se questi argomenti sono proprio necessari.

Bibliografia

[1] W. B. Jensen, Avogadro’s Number How and When Did It Become Associated with Avogadro’s Name?, J. Chem. Educ., 2007, 87, 223.

[2] Charles E. Dull, Essentials of Modern Chemistry, Henry Holt & Co., New York, 1918

https://archive.org/details/essentialsmoder01dullgoog

[3] Charles E. Dull, Modern Chemistry, Henry Holt & Co., New York, 1936

https://archive.org/details/in.ernet.dli.2015.260885

[4] H.C. Metcalfe, John E Williams, Charles E. Dull, Modern Chemistry, Henry Holt & Co., New York, 1958

https://archive.org/details/modernchemistry00dull_0

 

 

[1] Charles Elwood Dull (1878-1947) è stato Direttore del Dipartimento di Scienze della West Side High Scool e Supervisore di Scienze per le Junior e Senior High Schools, Newark, NJ.

[2] Harold Clark Metcalfe (1919-2001) è stato Direttore del Dipartimento di Scienze nella Wilkinsburg Senior High School, Wilkinsburg, PA.

Analisi chimica in archeologia

In evidenza

Luigi Campanella, ex Presidente SCI.

Da un punto di vista chimico i sistemi archeologici sono molto complessi, per lo più risultando costituiti da molte specie chimiche in miscela disomogenee. Poiché è impossibile descrivere completamente un sistema complesso, l’interesse si appunta usualmente su uno o più analiti, mentre l’insieme dei componenti viene chiamato matrice; è da sottolineare che i risultati delle determinazioni di ogni singolo analita sono grandemente influenzati da quest’ultima .

La chimica analitica in un passato anche abbastanza recente richiedeva campioni di dimensioni eccessive, i suoi metodi non erano sufficientemente sensibili e le sue conoscenze sulle matrici archeologiche scarse; oggi e in prospettiva, è in grado di analizzare campioni sempre più piccoli e analiti a concentrazione sempre più bassa, e ha sviluppato una maggiore sensibilità sul problema delle matrici e sui criteri generali per tener conto dei loro effetti.

Questo si riflette in una maggiore rispondenza alle esigenze dell’archeologia, sia perché i campioni richiesti sono di dimensioni talmente ridotte da rendere il loro prelievo praticamente non-distruttivo, sia perché gli analiti in tracce vanno assumendo un preponderante significato diagnostico.

Tre sono i tipi di intervento dell’analisi chimica in archeologia:

  • analisi di poco o nessun peso sulla diagnosi;
  • analisi con metodi analitici acriticamente mutuati da altri campi applicativi;
  • analisi con metodi appropriati, appositamente sviluppati.

Con riferimento ai campi 2 e 3 le nuove tecnologie applicate ai beni culturali sono in parte mutuate dalla medicina, dalla biologia molecolare, dalla chimica e dalla fisica. Per esempio le indagini di medical imaging e morfometria geometrica si applicano ai reperti fossili per lo studio dell’evoluzione umana; l’analisi degli isotopi stabili fornisce chiarimenti sul rapporto tra alimentazione e mobilità nelle popolazioni umane del passato; tecniche microanalitiche sono utilizzate per le gemme; l’illuminazione applicata ai beni culturali è impiegata a individuare i sistemi di illuminazione più adatti e meno dannosi a cui i sistemi biologici sono sottoposti nel tempo.

L’invecchiamento delle proteine è un processo non ancora ben compreso tuttavia è noto che le proteine invecchiate sono soggette a modificazioni della catena polipeptidica che producono ad esempio diminuzione di solubilità, aumento del calore di denaturazione; inoltre variazioni di umidità ambientale e pH possono causare l’idrolisi del legame peptidico, causando variazioni del peso molecolare e reazioni di disidratazione. Lo studio sistematico di queste modificazioni, attraverso una sperimentazione in laboratorio, e quindi sottoponendo i campioni di composizione nota ad un invecchiamento accelerato, apre ampie prospettive sulla possibilità di datare i reperti archeologici a partire dall’interazione della matrice proteica con l’ambiente.

La Proteomica

Le strategie proteomiche sono procedure ormai consolidate in ambiti scientifici, soprattutto in biochimica e biologia, prevedono come processo di estrazione, quello della digestione enzimatica che riduce le proteine a polipeptidi più piccoli o singoli amminacidi idrolizzando i legami peptidici; questo comporta che da ogni singola proteina ottenuta viene liberato un set specifico di peptidi che ne costituisce l’impronta digitale. La mistura proteica ottenuta, viene poi identificata con una tecnica cromatografica accopiata alla spettrometria di massa, evidenziando i cambiamenti della sequenza amminoacidica e le eventuali modifiche delle catene laterali.

Nel settore della diagnostica applicata ai beni culturali la caratterizzazione delle sostanze organiche è estremamente importante ed è di particolare interesse per diversi settori che vanno dall’archeologia alle indagini pittoriche.

Dietro, anzi dentro i dipinti e gli affreschi dei più grandi maestri della pittura sono presenti i più svariati derivati vegetali e animali, molto spesso custoditi nel segreto di quei meravigliosi colori che non smettono mai di incantare: l’accecante giallo di Van Gogh, le ombre di Michelangelo, l’indefinibile blu di Picasso, lo sforzo oro di Klimt, in ogni cromia si nasconde una insondabile miscela chimica di natura organica. Senza considerare che il più delle volte, indipendentemente dalle miscele adoperate per creare i colori, sono di natura organica i leganti, collanti e siccativi utilizzati per fissare i colori sulle superfici da dipingere.

I componenti pittorici di tipo organico sono caratterizzati da un’enorme variabilità chimica, sono presenti in quantità esigue e sono fortemente affetti da problemi di alterazione. Infatti, in generale, la caratterizzazione e lo studio del sistema proteico sono piuttosto complessi, poiché a differenza del genoma, che può essere considerato virtualmente statico, il proteoma cambia continuamente introducendo drastiche modificazioni nella composizione di diversa natura; ad esempio la formazione di radicali liberi per azione della radiazione UV può indurre reazioni con le funzionalità libere degli amminoacidi nei peptidi formando complessi metallici con i pigmenti e siccativi inorganici.

Da sottolineare che l’individuazione della componente proteica in un’opera pittorica, conduce anche alla conoscenza delle tecniche di esecuzione, alla comprensione dell’evoluzione degli stili pittorici, alla determinazione dei parametri che ne permettono un’autenticazione; inoltre identificare eventuali alterazioni relative al contenuto vitale, ovvero organico e proteico, presenti nei materiali pittorici diventa un compito sempre più importante per valutare e progettare delle strategie di intervento.

L’approccio proteomico può inoltre condurre ad importanti scoperte nell’ambito delle ricostruzioni ecologiche, delle paleopatologie, delle paleodiete e l’organizzazione civile della popolazione d’interesse, sottoponendo all’indagine sia manufatti archeologici di uso quotidiano, che reperti di ossa e/o denti umani e di origine animale.

Esistono alcuni studi condotti sulle ceramiche in contesti archeologici che dimostrano la forte tendenza delle proteine di legarsi alle matrici ceramiche e di rimanere nelle stesse per lunghi periodi di tempo. Le procedure proteomiche vantano la possibilità di individuare le proteine anche se la disponibilità del campione è ridotta (dell’ordine dei nanometri) e forniscono un’identificazione precisa della sequenza peptidica, definendone l’impronta digitale.

La presenza nelle matrici ceramiche di alcune proteine piuttosto che altre, può indurre al riconoscimento non solo del tipo di nutrimento, individuando la paleodieta dell’individuo o del gruppo di individui a cui appartiene il manufatto, ma anche la tipologia di animale, ad esempio, e la sua specie, portando ad affinare le conoscenze relative alla fauna che occupava il territorio in un certo periodo archeologico.

Aldilà delle analisi condotte sui manufatti di uso quotidiano (es. ceramiche per la cottura di cibi, utensili utilizzati per la caccia, ecc…), l’indagine proteomica può essere condotta direttamente sui reperti.

Un’altra rilevante applicazione della proteomica riguarda l’identificazione quando il riconoscimento non è possibile su base morfologica: un ritrovamento di enormi quantità di ossa, ad esempio ossa animali, deposte in maniera casuale, non può essere ricostruito se non con un approccio scientifico che permetta di discriminare inequivocabilmente ogni reperto osseo e di attribuirlo ad una specie ben definita.

Un ultimo aspetto da non trascurare è la possibilità di datare i reperti archeologici, con metodi del tutto innovativi e che possono fornire interessanti scoperte. Esistono già dei metodi che si basano sull’identificazione degli amminoacidi come il metodo della racemizzazione. Esso si basa sul fatto che negli organismi viventi è presente soltanto la forma levogira degli amminacidi che inizia a diventare destrogira dopo la morte, fino a raggiungere uno stato di equilibrio tra i due isomeri ottici, nel quale la luce non sarà più deviata. Il metodo della racemizzazione mette in relazione il rapporto tra la concentrazione dei due enantiomeri con il tempo.

Oltre a questo metodo si può pensare di applicare le strategie proteomiche procedendo con uno studio approfondito sulle modificazioni che subiscono le proteine con l’avanzare del tempo servendosi di invecchiamenti simulati accelerati, verificati e confrontati a fini di calibrazione. con quelli naturali