Informazioni su devoldev

chemist, university researcher, marxian, peakoiler,climate worried, bridge player, Mozart/Vivaldi loving, pedal biker

Note sull’Antropocene.1.Le origini.

In evidenza

Claudio Della Volpe

Il nostro blog ha un sottotitolo che contiene la parola Antropocene:

Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.

In realtà una definizione formale e condivisa dell’Antropocene non esiste ancora ma ci si sta lavorando e in questo post vorrei appunto raccontare a chi non la conosce una breve storia di questo concetto, di questo meme, che è destinato secondo me e secondo tutti noi del blog ad un ruolo culturale crescente.

Una occasione per approfondire potrebbe essere la lettura di un libro di recente tradotto in italiano e che tratta proprio di questi temi; mi riferisco a Jason W. Moore: Antropocene o Capitalocene? Scenari di ecologia-mondo nell’era della crisi planetaria, Ombre Corte, 2017

Il termine è stato inventato dal microbiologo Eugene Stoermer professore di microbiologia all’Università del Michigan; grande esperto di diatomee egli usò questo termine per indicare, fin dai primi anni Ottanta del XX secolo, l’impatto dell’uomo sul pianeta.

Fu solo nel 2000 che il premio Nobel per la chimica Paul Crutzen (lo aveva vinto con Molina e Rowland per la scoperta del buco dell’ozono e dei meccanismi connessi) popolarizzò il termine in un articolo scritto a quattro mani (1).

L’idea non era nuovissima; era stata intravista fra i primi dal geologo italiano abate Antonio Stoppani, una delle menti più fini della nostra cultura nazionale, patriota e rivoluzionario, zio di Maria Montessori; che inventò il termine di Era antropozoica. Stoppani è un personaggio di cui sicuramente avete visto il ritratto o usato un’espressione; eh si, perchè egli scrisse fra gli altri un testo dal titolo, pensate un pò, “Il bel paese”. Il titolo del libro era a sua volta preso in prestito da Petrarca:antropocene12

Questo titolo fu preso a prestito insieme con il ritratto di Stoppani nel 1906 dalla Galbani per il suo famoso prodotto; e dunque difficile che non lo conosciate. Come il vecchio dei formaggini.

Di meno come intellettuale. Ma per fortuna nostra lo conoscono all’estero; tanto è vero che Crutzen e Stoermer citano una sua frase che cade qui a fagiolo:

“[l’attività umana] è una nuova forza tellurica che in potenza e universalità può essere paragonata alle maggiori forze della terra”, scritta nel 1873 (3). Vorrei farla leggere a certi colleghi che so io e che la negano ancora oggi, dopo oltre 130 anni.

antropocene11

Lo riconoscete? Era su parecchi dei formaggini che ci siamo sbafati da fanciulli.

SE vi sembra incredibile che un comunistaccio come me debba citare come gloria nazionale un abatino, pensate che lo spessore delle persone non dipende dalle loro idee religiose. E questa citazione di Crutzen e Stoermer ne è la conferma. Perchè vedete Stoppani partecipò alle 5 giornate di Milano e costruì ad uso dei combattenti dei piccoli palloni aerostatici per mandare messaggi della rivolta che superassero le mura senza essere colpiti dagli austriaci, aiutato dal tipografo Vincenzo Guglielmini. Più tardi scrisse un testo “Gli intransigenti” contro la resistenza della chiesa cattolica ai nuovi fermenti politici e sociali. Un abate “rosso” si direbbe oggi (ma non per i capelli come si diceva di Vivaldi). Un teologo della liberazione. E anche uno scienziato a tutto tondo.

Ma dato che nemo propheta in patria il testo da cui è presa la frase, cioè il suo Corso di Geologia (scritto da professore universitario a Milano) è sostanzialmente introvabile sulla rete come pdf; fortunatamente viene citato sempre da una rivista straniera, in inglese (3).

Diffidate da chi scrive che la frase si trova ne “Il bel paese”, non si è guardato le carte e mi ha fatto perdere un pomeriggio per capirci qualcosa.

Torniamo al nostro argomento principale.

L’articolo seminale di Crutzen e Stoermer cita molti altri autori che hanno preparato il terreno al meme, per esempio Vernadskij e Teillard de Chardin che inventarono l’idea della noosfera, cioè della crescente importanza della scienza e della tecnologia nel forgiare il futuro della biosfera terrestre. (4)

In quell’articolo i due autori indicano i motivi per i quali considerano giustificato definire una nuova era geologica e che a distanza di soli 17 anni noi ritroviamo potenziati ed aggiornati (l’elenco che segue è stato aggiornato da me):

-durante gli ultimi 3 secoli la popolazione umana è cresciuta più di dieci volte ad oltre 7.5 miliardi di persone, con una crescita della popolazione di animali asserviti tale per cui la biomassa totale degli uomini e dei loro animali rappresenta il 97% della massa dei vertebrati terrestri (tutti i grandi animali selvatici sono solo il 3%!!)

– per effetto delle azioni umane la velocità di estinzione delle specie nelle foreste tropicali è cresciuta di un fattore stimato da 1000 a 10.000 volte;

– durante gli ultimi 100 anni la popolazione urbanizzata è cresciuta di più di 10 volte

-dal 30 al 50% della superficie terrestre è stata trasformata per opera dell’uomo (esaurimento del suolo) e l’uomo è il principale produttore di materiali in forma di polveri e granuli (più della erosione naturale);

– in poche generazioni l’umanità si avvia all’esaurimento dei combustibili fossili prodotti in quasi 400 milioni di anni.

– il rilascio di zolfo sotto forma di biossido a causa della combustione di tali combustibili è almeno due volte la somma annua di tutte le emissioni naturali di zolfo che avvengono principalmente come dimetilsolfuro oceanico;

– l’azoto fissato sinteticamente, principalmente dalla reazione di Born-Haber ed usato come fertilizzante agricolo (e come componente degli esplosivi) è maggiore della quota fissata da tutti gli ecosistemi terrestri; il rilascio di NO nell’atmosfera da combustioni è maggiore dell’output naturale dando origine alla formazione di ozono fotochimico (smog) in molte regioni del pianeta

– l’uomo estrae una quantità di fosforo multipla di quella estratta naturalmente per erosione (phosphate weathering); come conseguenza di questa situazione sia il ciclo delll’azoto che quello del fosforo sono totalmente alterati rispetto alla situazione naturale;

– l’uomo intercetta il 10% di tutta l’acqua che cade sul pianeta, questa quota rappresenta però più di metà dell’acqua potabile accessibile; la restituisce spesso spostandola da fonti geologiche esauribili e in molti casi profondamente inquinata;

– la combustione dei fossili e l’agricoltura basata sui fertilizzanti sintetici hanno accresciuto il flusso di alcuni gas serra verso l’atmosfera e l’oceano: come conseguenza la concentrazione di tali gas è aumentata negli ultimi 3 secoli di oltre il 30% per la CO2 e del 100% per il metano; il conseguente aumento di temperatura media superficiale oceano-terra è misurato al momento in poco meno di 1 grado centigrado; il pH oceanico si è ridotto di circa 0.2 unità e mette a rischio la sopravvivenza di alcune specie.

– la criosfera polare e continentale si sta riducendo a velocità enorme; si prevede che entro pochi decenni i ghiacci del Polo Nord scomparirano e quelli dell’Antartide e della Groenlandia scompariranno entro qualche secolo, con la conseguenza di innalzare il livello dei mari di alcuni metri.

– inoltre l’umanità ha immesso in circolo alcune sostanze inquinanti profondamente tossiche come mercurio e cadmio estraendole dai loro depositi geologici e altre sintetiche, apparentemente stabili chimicamente come i clorofluorocarburi o la “sporca dozzina”; ma in tutti i casi queste molecole alogenate sono in realtà instabili sul lungo periodo e hanno danneggiato significativamente lo strato di ozono stratosferico e si sono accumulate nei tessuti di parecchie specie viventi con danni ancora non precisamente valutabili; nonostante gli accordi internazionali in vigore per controllare tale inquinamento la situazione non è ancora sotto controllo; si sospettano azioni che simulano effetti ormonali in molte altre sostanze usate comunemente (bisfenolo-A e alcuni tensioattivi) e si ipotizza di attribuire a tale inquinamento la riduzione della fertilità maschile stimabile in alcuni casi ad oltre la metà dei valori naturali;

– le zone costiere sono state danneggiate sia dall’arricchimento in fosforo e azoto con la formazione di zone anossiche, dead zones, in varie parti dell’oceano e dei mari interni come il Mediterraneo, sia con la scomparsa del 50% delle mangrovie;

– la pesca industrializzata rimuove una percentuale crescente della produzione primaria dell’oceano valutabile in oltre un terzo;

– le attività nucleari umane (belliche e non) hanno inquinato irreversibilmente con isotopi radioattivi anche sintetici alcune zone del pianeta e tale presenza è comunque misurabile in ogni zona del mondo.

PB_FIG33_media_11jan2015_web2

Il lavoro di Crutzen e Stoermer conclude:

Considering these and many other major and still growing impacts of human activities on earth and atmosphere, and at all, including global, scales, it seems to us more than appropriate to emphasize the central role of mankind in geology and ecology by proposing to use the term “anthropocene” for the current geological epoch. The impacts of current human activities will continue over long periods. According to a study by Berger and Loutre, because of the anthropogenic emissions of CO2, climate may depart significantly from natural behaviour over the next 50,000 years.

“Si tratta di una proposta che è stata presa in seria considerazione. La reazione del mondo umanistico è stata entusiastica con la nascita di ben tre riviste internazionali dedicate al tema: Anthropocene, The Anthropocene Review ed Elementa.

Nel campo delle scienze naturali sia la International Commission on Stratigraphy che la International Union of Geological Sciences hanno finora rifiutato di riconoscere il termine come categoria valida per la suddivisione del tempo geologico. Dall’altro, nell’agosto 2016 il Working Group on the Anthropocene – dopo sette anni di lavori – ha ufficialmente raccomandato un tale riconoscimento ai suddetti organi burocratici (con voto ad ampia maggioranza ma senza unanimità). In buona sostanza gli scienziati del gruppo presieduto da Jan Zalasiewicz propongono di considerare l’Antropocene come una serie, l’equivalente stratigrafico di un’epoca, tanto quanto l’Olocene o il Pleistocene che l’hanno preceduto. Il golden spike [chiodo d’oro] individuato come punto originario sarebbe da collocarsi nella cosiddetta grande accelerazione, cioè a partire dagli ultimi sussulti della seconda guerra mondiale, quando le bombe atomiche vennero sganciate e la dipendenza da carbone e petrolio contagiò l’intero pianeta (sebbene con intensità molto variabili).”

(Il sintomo-Antropocene di Emanuele Leonardi e Alessandro Barbero, Effimera, 9 ottobre 2017)

Nella seconda parte del post racconteremo più in dettaglio quali sono i possibili confini temporali dell’Antropocene, una questione per la quale in realtà esistono almeno 4 differenti ipotesi e proposte.

(continua)

Riferimenti.

(1)Crutzen, P. J. & Stoermer, E. F. The Anthropocene. IGBP Global Change Newsl. 41, 17–18 (2000)

(2)Stoppani, Il bel paese, 1873 –http://www.sba.unifi.it/upload/scienze/img150anniuniti/doc150anniuniti/belpaese.pdf

https://ia600502.us.archive.org/6/items/ilbelpaeseconver00stopuoft/ilbelpaeseconver00stopuoft.pdf

(3)Stoppani Corso di geologia in 3 vol. 1873; la parte che ci interessa è tradotta in inglese qui http://www.geologicnow.com/2_Turpin+Federighi.php; MAKING THE GEOLOGIC NOW RESPONSES TO MATERIAL CONDITIONS OF CONTEMPORARY LIFE edited by Elizabeth Ellsworth e Jamie Kruse trad. di Valeria Federeghi

Riporto qui l’intera frase perchè sia chiaro che Stoppani non rinnega la sua fede, ma la fonde con i fermenti dell’era di rivoluzione economica, sociale e politica che vive (la lascio in inglese come scorno, per far risaltare l’abbandono che abbiamo della nostra storia migliore):

“…when, in the bosom of the aged fabric of ancient pagan societies, the Christian ferment was introduced, the new element par excellence, that substituted ancient slavery with freedom, darkness with light, fall and degeneration with rebirth and true progress of humanity.

It is in this sense, precisely, that I do not hesitate in proclaiming the Anthropozoic era. The creation of man constitutes the introduction into nature of a new element with a strength by no means known to ancient worlds. And, mind this, that I am talking about physical worlds, since geology is the history of the planet and not, indeed, of intellect and morality. But the new being installed on the old planet, the new being that not only, like the ancient inhabitants of the globe, unites the inorganic and the organic world, but with a new and quite mysterious marriage unites physical nature to intellectual principle; this creature, absolutely new in itself, is, to the physical world, a new element, a new telluric force that for its strength and universality does not pale in the face of the greatest forces of the globe.”

(4)Personalmente conosco almeno un filosofo dell’800 (fra il 1850 e il 1860) che scrisse a proposito di ciò nella critica alla società capitalistica che vedeva nascere; lascio a voi scoprire chi era costui, che pensava alla scienza applicata alla produzione e al lavoro sociale nella forma di divisione del lavoro come la base materiale della trasformazione della biosfera; egli vedeva già allora il puro tempo di lavoro che andava scomparendo mano a mano come fonte principale della ricchezza sostituito da questo nuovo e più potente paradigma sociale che avrebbe inglobato ogni sviluppo (anche legato ai robot, a lui sconosciuti ma inglobabili nel suo “sistema automatico di macchine”). Si tratta di una forza produttiva talmente potente che se non domata e sottoposta alla ragione e al controllo sociale può, con la sua esigenza di sviluppo infinito, distruggere ogni biosfera e giustificare il paradosso di Fermi.

 

Tutto ciò che è bene sapere sul latte e derivati del latte

In evidenza

Marino Melissano

Il latte è un alimento bilanciato che contribuisce a soddisfare il fabbisogno giornaliero di proteine, zuccheri, grassi, oligoelementi e vitamine di ogni persona, in ogni età della vita.

È facile convincersi del fatto che il latte sia uno degli alimenti più completi, grazie alla sua composizione chimica. Infatti contiene tutti i principi alimentari indispensabili, quali sostanze proteiche, carboidrati, vitamine, enzimi e sali minerali, tra cui il calcio (126 mg/100 g di latte), il magnesio (13 mg/100 g) e il fosforo (100 mg/100 g). Da notare che il rapporto calcio/fosforo è superiore a uno: questa particolarità permette la calcificazione delle ossa anche in assenza di vitamina D.

    

Tra le vitamine spiccano le presenze dell’acido pantotenico, che favorisce la produzione ormonale; la vitamina B2 indispensabile all’accrescimento delle cellule; la A, importante per la pelle e per la vista; la K, antiemorragica; oltre alle note vitamine C, D, E e B6.

Le proteine del latte sono di alto valore biologico; la più importante di queste, il caseinogeno, è ricca di fosforo e ha la proprietà di coagulare, scindendosi in paracaseina, ad opera di speciali enzimi, quali la chimasi. Questa coagulazione è sfruttata nella preparazione dei formaggi.

L’unico zucchero del latte è il lattosio; essendo la sua molecola complessa, essa non viene digerita tal quale, ma viene prima degradata ad opera di un enzima specifico, la lattasi, che manca nelle persone disabituate al latte, la qual cosa spiega l’azione lassativa che il latte esplica in alcuni individui, in quanto il lattosio non scisso si comporta come un purgante salino. Però è sufficiente ricominciare a berne quantità gradualmente crescenti perché il proprio organismo riproduca la lattasi.

Per i sali di calcio e per la presenza di un amminoacido essenziale, il triptofano, il latte è un ottimo regolatore nervoso e, secondo recenti ricerche, anche un buon regolatore del sonno. Sembra, ancora, che prevenga la osteoporosi, cioè la decalcificazione delle ossa che spesso si verifica in età avanzata, e l’ulcera gastrica.

Un’assunzione dì mezzo litro di latte intero al giorno assicurerebbe: 17 g di lipidi; 19 g di glucidi; 16 g di protidi; 3,5 g di sali minerali, oltre una corretta quantità di vitamine; il tutto per un valore energetico di 289 kcal. Lo stesso mezzo litro di latte apporta, quindi, tante proteine quante sono contenute in 100 g di carne di manzo o in tre uova.

In commercio esistono diversi tipi di latte: pastorizzato intero, (contenente non meno del 3% di grasso); parzialmente scremato (contenente non meno dell’1,5% di grasso) e scremato (contenente meno dello 0,3 % di grasso); omogeneizzato; sterilizzato; in polvere e condensato.

La pastorizzazione (stassanizzazione) consiste in un trattamento a 75 °C per 15 secondi; si distruggono così tutti i germi patogeni, senza significative perdite neanche delle vitamine più termosensibili.

In base alla legge 3 maggio 1989, n. 169 e al decreto del Ministero della Attività produttive 27 giugno 2002, si può definire latte pastorizzato quel latte, sottoposto a pastorizzazione, che, al consumo, presenti:

–                 prova della fosfatasi alcalina negativa: è questo un enzima contenuto nel latte in misura quasi sempre costante; la sua attività è pressoché annullata quando il latte viene riscaldato a circa 70°C; il controllo è quindi inteso a stabilire se la pastorizzazione sia stata svolta regolarmente o se siano state aggiunte al latte pastorizzato piccole quantità di latte crudo;

  • un contenuto in sieroproteine solubili, non denaturate, non inferiori all’11% delle proteine totali. Il tenore di sieroproteine solubili decresce ogni qualvolta il latte subisce un trattamento termico. Non di rado il latte trattato dopo un certo tempo dalla mungitura viene pastorizzato più volte: in questo caso non sarà possibile denominarlo fresco. Infatti, il latte pastorizzato si può fregiare della denominazione di latte fresco pastorizzato se, pervenuto crudo allo stabilimento di confezionamento e qui sottoposto a un solo trattamento termico entro 48 ore dalla mungitura, presenti al consumo:
  • prova della fosfatasi alcalina negativa;
  • prova della perossidasi positiva: è questo un altro enzima sempre presente nel latte crudo, che è distrutto ad una temperatura di almeno 80 °C, anche per pochi secondi;
  • un contenuto di sieroproteine solubili non denaturate non inferiori al 14% delle proteine totali. Se questa percentuale sale almeno al 15,5% il latte fresco pastorizzato può essere definito latte fresco pastorizzato di alta qualità.

(Marino Melissano – Alimentologia – Youcanprint – www.youcanprint.it)

Un’altra tecnica di conservazione del latte è la microfiltrazione: prima di subire il trattamento termico, il latte viene fatto passare, alla temperatura di 50°C, attraverso una membrana che possiede fori microscopici, capace di trattenere la maggior parte dei batteri naturalmente presenti ed eventualmente particelle estranee. In questa fase si separa anche il grasso, poiché le sue particelle non passano attraverso i fori.
Il grasso e la parte rimanente del latte vengono poi pastorizzati separatamente: il grasso, insieme ai batteri, viene pastorizzato a 85°C, una temperatura superiore alla normale pastorizzazione, che elimina quindi una quantità superiore di microrganismi, mentre il filtrato viene pastorizzato a 72 °C;

il grasso viene poi miscelato nuovamente al latte, omogeneizzato, ed è così pronto per la commercializzazione.
In questo modo il latte possiede una carica batterica inferiore rispetto al latte pastorizzato e può quindi conservare più a lungo le sue caratteristiche naturali.

(www.salutarmente.it).

A livello qualitativo e nutritivo, ha le stesse caratteristiche del latte fresco.

Mentre per il latte pastorizzato la data di scadenza è determinata dal produttore, il decreto 24 luglio 2003 del Ministero delle Politiche Agricole e Forestali stabilisce che: la data di scadenza del “latte fresco pastorizzato” e del “latte fresco pastorizzato di alta qualità”, così come definiti dall’art. 4 della legge 3 maggio 1989, n. 169, è determinata nel sesto giorno successivo a quello del trattamento termico.
La data di scadenza del “latte microfiltrato fresco pastorizzato” è determinata nel decimo giorno successivo a quello del trattamento termico.

In base al decreto-legge 24 giugno 2004, n. 157, coordinato con la legge di conversione 3 agosto 2004, n. 204, il latte ottenuto con questo trattamento innovativo di conservazione può essere indicato in etichetta solo con la denominazione di latte microfiltrato: sparisce, perciò, il “fresco pastorizzato”.

Questo ha determinato un pasticcio sulla scadenza del microfiltrato, perché il decreto del 2003 prevedeva una scadenza di 10gg, ma riferita al “microfiltrato fresco”; caduto il termine “fresco” sembra che la scadenza sia stata liberalizzata, al pari di quella del latte UHT; quindi, si trovano in commercio latti microfiltrati con scadenza diverse. (www.issa-europe.eu).

Presso l’esercizio di vendita la temperatura di conservazione del latte, sottoposto a trattamento di pastorizzazione, deve essere compresa tra 1 e 6 °C.

Per una conservazione maggiore del latte si ricorre a metodi di conservazione più spinti, come la sterilizzazione, che può essere una sterilizzazione UHT semplice, consistente in un trattamento a 135-140 °C per 2-4 secondi. Un metodo recente di sterilizzazione UHT è quello della “uperizzazione”: esso consiste nella iniezione di vapore vivo al latte pre-riscaldato (si raggiunge così una temperatura di 135-145 °C) cui segue il passaggio in camera a decompressione (il vuoto che si applica fa abbassare la temperatura e fa allontanare il vapore che viene riceduto all’impianto).

Una sterilizzazione ancora più spinta si attua con un preriscaldamento a temperatura ultra-alta (Ultra High Temperature o UHT) per pochi secondi e successivo trattamento in bottiglia a 110-120 °C per 12-20 minuti.

Con la pastorizzazione le perdite sono in genere modeste: le proteine non subiscono praticamente deterioramento, la vitamina C si perde anche per azione della luce ed il processo è sensibilizzato dalla presenza di riboflavina; la vitamina B12, pur essendo termostabile, è influenzata tuttavia negativamente dalla vitamina C in presenza di ossigeno. La sterilizzazione in bottiglia arreca danni maggiori anche alle proteine, a differenza della sterilizzazione UHT.

Definiamo il latte sottoposto a trattamento di sterilizzazione:

latte sterilizzato a lunga conservazione”, quando ha subìto un trattamento termico finale di sterilizzazione in contenitore sigillato. Esso deve riportare sul contenitore il termine di conservazione, indicato con la menzione “da consumarsi preferibilmente entro”, seguito dalla data riferita al giorno, al mese e all’anno, con data di riferimento di 180 giorni dal confezionamento;

latte UHT a lunga conservazione”, trattato a temperatura molto alta, ha subìto un trattamento termico di sterilizzazione in flusso continuo, seguito dal confezionamento asettico che ne consente una conservazione prolungata nel tempo. Il termine di conservazione va indicato sul contenitore con la medesima menzione prevista alla lettera precedente, con data di riferimento di 90 giorni dal confezionamento.
(da “Marino Melissano”- Alimentologia – Ed. Youcanprint – www.youcanprint.it)

Grazie al DM 09.12.2016, entrato in vigore il 20.04.2017, oggi, in Italia, è obbligatoria in etichetta l’indicazione dell’origine della materia prima dei prodotti lattiero caseari, come ad esempio: il latte UHT, il burro, lo yogurt, la mozzarella, i formaggi e i latticini.
L’obbligo si applica al latte vaccino, ovicaprino, bufalino e di altra origine animale.

L’origine del latte e dei derivati dovrà essere indicata in etichetta in modo chiaro, visibile e facilmente leggibile.

Queste le diciture utilizzate:
a) “PAESE DI MUNGITURA: nome del Paese nel quale è stato munto il latte”;
b) “PAESE DI CONDIZIONAMENTO O TRASFORMAZIONE: nome del Paese in cui il prodotto è stato condizionato o trasformato il latte”.
Qualora il latte o il latte utilizzato come ingrediente nei prodotti lattiero-caseari sia stato munto, confezionato e trasformato nello stesso Paese, si può utilizzare una sola dicitura, ad esempio: “ORIGINE DEL LATTE: ITALIA“.
Se le fasi di confezionamento e trasformazione avvengono nel territorio di più Paesi, diversi dall’Italia, possono essere utilizzate, a seconda della provenienza, le seguenti diciture:
latte di Paesi UE: se la mungitura avviene in uno o più Paesi europei;
latte condizionato o trasformato in Paesi UE: se queste fasi avvengono in uno o più Paesi europei.
Se le operazioni avvengono al di fuori dell’Unione europea, verrà usata la dicitura “Paesi non UE”. 
Sono esclusi solo i prodotti Dop e Igp che hanno già disciplinari relativi anche all’origine e il latte fresco già tracciato.

Attenzione, però: le norme suddette non si applicano ai prodotti fabbricati o commercializzati in altri Stati membri UE o in Paesi extra-UE: per esempio, in Germania e in Austria non vige il medesimo obbligo italiano sull’origine; quindi, se compro in Italia latte o prodotti lattiero-caseari austriaci o tedeschi, posso anche non trovare in etichetta alcuna indicazione del Paese di mungitura e del Paese di condizionamento o trasformazione.

Un discorso a parte merita il latte crudo, che, secondo il Regolamento CE n. 853/2004, è il latte che non è stato riscaldato a più di 40°C e non è stato sottoposto a nessun trattamento avente un effetto equivalente, prima di essere consumato. Al controllo, il latte vaccino crudo non deve contenere, a 30°C, più di 300.000 germi/ml e 400.000 cellule somatiche/ml. Se è destinato alla produzione di derivati mediante processi che non comportano trattamenti termici, il numero di germi non può essere superiore a 500.000/ml.

Questo prodotto si è di fatto reso disponibile al consumatore che lo acquista al di fuori dell’azienda agricola, a partire dalla metà degli anni 2000, quando si sono diffuse sull’intero territorio nazionale apposite macchine erogatrici. L’obbligo di riportare nell’etichettatura del latte crudo la dicitura “da consumarsi previa bollitura”, introdotto a partire dal 2008 con una Ordinanza del Ministero della salute e previsto dal Decreto legge n. 158 del 13/09/2012, ha consentito di inserire un principio di garanzia a tutela della salute del consumatore. (http://www.salute.gov.it/portale/news/p3_2_3_1_1.jsp?menu=dossier&p=dadossier&id=10)

L’etichetta

L’etichettatura del latte crudo deve contenere le diciture:

  • “Latte crudo”, per il latte crudo destinato al consumo umano;
  • “Fabbricato con latte crudo”, per i prodotti lattiero caseari derivati da latte crudo.

Il latte crudo può essere venduto attraverso macchine erogatrici, che, però, devono contenere la dicitura, sul frontale della macchina, in rosso, “prodotto da consumarsi dopo bollitura”.

La data di scadenza non può superare i 3 gg da quella della messa a disposizione del consumatore. (ordinanza 10.12.2008)

E’ vietata la somministrazione di latte crudo nell’ambito della ristorazione collettiva.

E’ vietata la produzione di gelati prodotti con latte crudo. (ordinanza 2.12.2010).

La produzione di formaggi a latte crudo viene consentita, nel rispetto di alcuni requisiti minimi aziendali e igienici. Tra questi:

  • Il latte deve provenire da animali che non presentano sintomi di malattie infettive trasmissibili all’uomo attraverso il latte (in particolare provenire da allevamenti ufficialmente indenni da brucellosi e tubercolosi), in buono stato sanitario e ai quali non siano state somministrate sostanze o prodotti non autorizzati oppure senza il rispetto dei termini minimi di sospensione.
  • Se il latte non è lavorato entro due ore dalla mungitura, deve essere posto immediatamente in un luogo pulito e deve essere raffreddato a una temperatura non superiore a 8 °C (in caso di raccolta giornaliera) e non superiore a 6 °C (qualora la raccolta non sia effettuata giornalmente).
  • Le strutture devono essere pulite, sottoposte a manutenzione, e tenute in buone condizioni.

principali batteri patogeni che interessano il latte crudo sono:

Campylobacter jejuni 
Escherichia coli (E. coli O157:H7)
Listeria monocytogenes 
Salmonella spp.

L’Escherichia coli è naturalmente presente nell’intestino umano e in quello degli animali a sangue caldo. I fattori che aumentano il rischio per chi beve latte crudo stanno nel contatto tra il latte e la materia fecale di animali o persone portatori di questo batterio. L’impatto sull’uomo dell’Escherichia coli 0157:H7 è minimo, ma ha molta risonanza a causa dei potenziali effetti e malattie che provoca (come la sindrome emolitico-uremica o SEU, causata da una tossina, detta vero-citotossina o Shiga-tossina o Vtec, trasmessa per via alimentare o orofecale), talvolta molto serie e/o mortali. Si stima che dal 1999 al 2010 solo 5 su 63.153 ammalati all’anno a causa dell’Escherichia coli siano stati contaminati dopo aver bevuto latte, ma questa patologia sta, purtroppo, diventando attuale, visti i casi registrati negli ultimi mesi. Infatti, in Puglia, nella zona di Altamura, a giugno 2017, sono stati segnalati 3 casi di bambini affetti da SEU e la Regione, che ha allestito un tavolo tecnico per analizzare la situazione, ha esordito con una nota “la situazione non rappresenta un’emergenza e sarebbe da riferire ad una contaminazione derivata dall’uso non corretto di latte crudo, che non può essere assolutamente utilizzato per l’alimentazione umana se non previo trattamento termico”. (www.wired.it)

Altro batterio, forse il più temuto, la Listeria. È importante sapere che solo alcune sottoclassi di questo batterio causano effettivamente la Listeriosi, la quale può essere mortale solo se ingerita in grandi quantità e solo in casi particolarmente a rischio come neonati, donne incinte, anziani e persone con deficit immunitario in genere. Nella maggior parte dei casi si prende una gastroenterite.

La Listeria vive bene in ambienti freschi e umidi e si trova, in quantità variabili, letteralmente ovunque, nelle nostre case e nel nostro corpo. Ingeriamo piccole quantità di Listeria ogni giorno senza che ci capiti nulla, e lo stesso accade quando beviamo il latte crudo. Ci sono stati pochissimi casi di contaminazione da Listeria che hanno visto coinvolti latte e formaggi a latte crudo, specialmente se stagionati per lungo tempo.

Passando dal latte al formaggio, è necessario garantire, con analisi periodiche:
– l’assenza di Listeria monocytogenes
– l’assenza di Salmonella
– l’assenza di Enterotossina Stafilococcica
– il controllo della presenza di germi indicatori di carenze igieniche (Escherichia coli e Stafilococchi coagulasi positivi).

L’etichetta che accompagna i prodotti fabbricati con latte crudo deve indicare chiaramente i termini «fabbricato con latte crudo».

Latte art

In conclusione, l’uso di latte crudo da parte dei caseifici non è vietato (a differenza dei produttori di gelati), ma le prescrizioni a cui sono soggetti sono tante e, a volte, disattese. Anche l’EFSA, con un documento del 2015, ha comunicato un rischio per i consumatori.

Pertanto, consigliamo di non somministrare, soprattutto ai soggetti più deboli, alimenti prodotti a partire da latte crudo.

“Contaminazione da microplastiche nell’acqua corrente di tutto il mondo”: Houston, abbiamo un problema?

In evidenza

Claudia Campanale*

Il giorno 25 Agosto scorso mi trovavo in Germania presso l’Istituto Federale di Idrologia di Coblenza per svolgere parte del mio dottorato di ricerca sulle microplastiche nell’ambiente acquatico quando ricevo una telefonata da parte di uno dei giornalisti che stava seguendo il caso “Microplastiche nell’acqua potabile”. Il giornalista mi parla dell’inchiesta in corso preannunciandomi i risultati della ricerca condotta dall’Università statale di New York e del Minnesota e da Orb Media che sarebbero poi stati pubblicati il 05 settembre 2017 sul “the guardian” e secondo cui l’83% dei campioni di acqua potabile prelevati da tutto il mondo conterrebbero microscopiche fibre di plastica.

https://www.theguardian.com/environment/2017/sep/06/plastic-fibres-found-tap-water-around-world-study-reveals

Il giornalista inoltre, mi chiede di analizzare tre campioni di acqua prelevati dalle fontane pubbliche di Roma per avere un controllo su altri tre campioni prelevati dagli stessi punti e analizzati contemporaneamente dall’Università del Minnesota.

Al momento a livello globale non sono state mai eseguite azioni di intercalibrazione tra laboratori e non sono disponibili standards di qualità a cui far riferimento. A causa della mancanza di protocolli standardizzati per il campionamento, l’estrazione, la purificazione e la caratterizzazione delle microplastiche, la comparabilità dei dati disponibili rimane altamente limitata, soprattutto per quanto riguarda: la definizione delle diverse classi dimensionali, le procedure di campionamento, i metodi analitici e i valori di riferimento.

Generalmente l’analisi delle microplastiche in matrici ambientali consta di tre fasi: campionamento, estrazione, quantificazione e identificazione.

1° Step: CAMPIONAMENTO

Il primo aspetto da considerare riguarda proprio il significato insito nella definizione di campionamento che secondo i metodi analitici per le acque APAT-IRSA è la seguente:

“Il campionamento può definirsi come l’operazione di prelevamento della parte di una sostanza di dimensione tale che la proprietà misurata nel campione prelevato rappresenti, entro un limite accettabile noto, la stessa proprietà nella massa di origine. In altre parole, il fine ultimo del campionamento ambientale è sempre quello di consentire la raccolta di porzioni rappresentative della matrice che si vuole sottoporre ad analisi“.

La qualità dei risultati di un’analisi è quindi strettamente correlata a quella del campione prelevato; ne consegue che il campionamento risulta essere una fase estremamente complessa e delicata che incide in misura non trascurabile sull’incertezza totale del risultato dell’analisi.

Così come indicato nei Metodi analitici ufficiali per le acque destinate al consumo umano (D.Lgs. 31/2001), per individuare le caratteristiche di qualità di un’acqua e per seguire le sue variazioni temporali è innanzitutto necessario che i campioni da analizzare siano il più possibile rappresentativi delle reali condizioni qualitative e quantitative esistenti nella matrice. Al momento del campionamento è necessario dunque considerare con attenzione i volumi di acqua da prelevare. Essi vanno definiti in funzione dei parametri da determinare e comunque devono essere superiori al minimo necessario per procedere allo svolgimento degli esami richiesti.

Seguendo le metodiche di campionamento utilizzate dai ricercatori dell’Università del Minnesota i tre campioni da analizzare prelevati dalle fontane pubbliche di Roma sono stati campionati in bottiglie di HDPE per un volume totale di 500 ml a campione. In relazione a questa prima fase di campionamento ciò che desta maggiore perplessità è proprio la rappresentatività del campione relativamente all’esiguo volume di acqua campionato. Un volume di 500 ml è abbastanza rappresentativo per avere un valore che si discosti sufficientemente da quella che è la contaminazione ambientale di fondo e avere quindi un risultato superiore al valore del bianco? Basti pensare che, studi finalizzati a determinare la concentrazione di microplastiche a valle di impianti di trattamento delle acque reflue, utilizzano, per l’analisi delle microplastiche, un volume di campione che varia tra i 50 e i 100L (Mintening et al., 2016, Murphy et al., 2016, Carr et al., 2016).

Inoltre, diverse ricerche specifiche dimostrano che determinare la contaminazione ambientale derivante dalla deposizione atmosferica di microfibre sintetiche o dall’abbigliamento dei ricercatori risulta indispensabile per garantire che il contenuto di plastica nel campione analizzato non venga sovrastimato (Hanvey et al., 2017). Pertanto, valutare l’affidabilità della metodica utilizzata mediante test di validazione e bianchi ambientali risulta indispensabile per riportare i risultati di uno studio.

Un secondo aspetto da tener presente in questa prima fase riguarda il concetto di incertezza. Attualmente è accettato che, nel momento in cui tutte le componenti di errore siano state valutate e le relative correzioni apportate, rimanga tuttavia un’incertezza sulla correttezza del risultato. L’incertezza in generale può essere valutata dalla distribuzione statistica dei risultati di una serie di misurazioni e può essere caratterizzata mediante il calcolo delle deviazioni standard.

I tre campioni di controllo, prelevati dalla città di Roma, sono stati campionati in singola copia senza replicati, quindi non è stato possibile calcolare il livello di incertezza associato al risultato analitico.

Inoltre, secondo la guida EURACHEM/CITAC e la UNI CEI ENV 13005 “Guida all’espressione dell’incertezza di misura” , nel riportare il risultato di una misurazione è necessario:

– specificare il misurando;

– descrivere chiaramente i metodi usati per calcolare il risultato di una misurazione e la sua incertezza dalle osservazioni sperimentali e dai dati di ingresso;

– identificare le sorgenti di incertezza e documentare in modo esauriente come esse sono state valutate;

– quantificare le componenti dell’incertezza;

– calcolare l’incertezza combinata o composta;

– presentare l’analisi dei dati in modo tale che ogni passaggio possa essere agevolmente seguito e che il calcolo del risultato riportato possa essere ripetuto in modo autonomo, se necessario;

– fornire le correzioni e le costanti utilizzate nell’analisi e le loro fonti.

Nell’articolo pubblicato sul “the guardian” non viene descritta nessuna delle metodologie utilizzate per il campionamento, l’estrazione, la quantificazione e l’identificazione delle microplastiche trovate nei campioni analizzati. I risultati pubblicati fanno riferimento ad una concentrazione di microplastiche (espressa come numero di fibre/500mL) senza alcun valore di deviazione standard associato.

2° Step ESTRAZIONE

Al campionamento segue la fase di estrazione, che consiste in una serie di steps volti a separare le microplastiche dalla loro matrice per mezzo di una degradazione chimica e/o enzimatica della sostanza organica interferente, seguita da una separazione densimetrica e da una filtrazione finale del campione. Va detto che questa fase risulta essere la più complicata e, al momento, non esiste una metodica che permetta una rimozione del 100% della componente naturale con un recupero del 100% delle particelle sintetiche. Tuttavia, per campioni di acqua potabile, la degradazione chimica e/o enzimatica non è strettamente necessaria in quanto si presuppone un contenuto di matrice basso o pressoché inesistente, pertanto risulta fondamentale la caratterizzazione chimica.

3° Step QUANTIFICAZIONE e IDENTIFICAZIONE

Una volta che le particelle sono state separate dalla matrice, la quantificazione richiede la pesatura o il conteggio, compito assai difficile soprattutto per le particelle appena visibili ad occhio nudo. La caratterizzazione visiva del campione al microscopico (Visual Sorting) tuttavia presenta un elevato rischio di sovrastima a causa di grandi quantità di sostanze di origine naturale (parti di animali, minerali, fibre di origine naturale, ecc.) ancora presenti negli estratti (Dekiff et al., 2014). Da qui l’identificazione chimica delle particelle estratte risulta indispensabile a valle di una pre-caratterizzazione al microscopio allorquando diversi studi affermano che fino al 70% delle particelle visivamente identificate al microscopio vengono poi, in seguito ad una caratterizzazione chimica, identificate come falsi positivi (Hidalgo-Ruz et al., 2012, Hanvey et al., 2017).

Tra le tecniche consigliate per la corretta identificazione di materie plastiche vi sono spettroscopia Raman o FTIR, o pirolisi-GC / MS (Löder et al., 2015).

Come già accennato precedentemente, l’articolo pubblicato sul “the guardian”, manca dei riferimenti metodologici utilizzati dai ricercatori per eseguire l’analisi delle microplastiche seguendo un approccio scientifico rigoroso che, in questa fase ancora embrionale della ricerca, risulta indispensabile al fine di avere risultati attendibili. Inoltre ciò che desta maggiore scetticismo è che i risultati presentati dai colleghi siano stati divulgati, a livello mondiale, prima ancora della pubblicazione ufficiale di un articolo scientifico su una rivista accreditata.

 

Come ultimo aspetto da approfondire, prima di diffondere allarmismi su scala globale, particolarmente importante è ampliare la conoscenza di quelli che sono gli impatti delle microplastiche sull’ambiente e sulla salute.

Ad oggi non sono ancora state definite “concentrazioni prevedibili senza effetti (PNEC)” e “concentrazioni ambientali previste (PEC)” per le microplastiche presenti nell’ambiente e, non esistono nemmeno approcci alternativi per la valutazione del rischio delle materie plastiche.

Ciò che sappiamo al momento è che una serie di studi ha messo in luce la possibile ingestione di microplastiche da parte di pesci e molluschi in ​​condizioni naturali, sollevando diverse preoccupazioni; si pensa che le particelle possano provocare una risposta biologica attraverso meccanismi fisici e chimici. In primo luogo, sono stati riscontrati danni fisici come abrasioni interne e blocchi ed è stato dimostrato che le microplastiche possono causare lesioni che portano alla necrosi cellulare, all’infiammazione e a lacerazioni dei tessuti nei tratti gastrointestinali di alcuni organismi acquatici. In secondo luogo, l’elevata persistenza e galleggiabilità della plastica la rende un vettore ideale per il trasporto di specie aliene e per il potenziale rischio di dispersione di agenti patogeni per lunghe distanze. La colonizzazione da specie invasive è considerata come una delle più grandi minacce alla biodiversità globale. In terzo luogo, le microplastiche potrebbero essere considerate come possibili micro assorbitori di contaminanti organici (alteratori endocrini, POP) e metalli in tracce in grado di aumentarne la biodisponibilità negli organismi e di fungere da trasportatori in sistemi acquatici ed a lungo raggio in aree remote. Tuttavia, non è stato dimostrato in modo convincente che ciò avviene in condizioni naturali (Hermsen et al., 2017). In questa fase della ricerca quello di cui siamo certi è che le plastiche sono ubiquitarie, si frammentano in microplastiche e, probabilmente, la loro dispersione nell’ambiente è destinata ad aumentare; ciò di cui non siamo a conoscenza è la tossicità e le conseguenze a livello ecologico delle microplastiche in quanto non è ancora stata fatta una valutazione del rischio.

Houston, abbiamo un problema?

 

Bibliografia 

Carr S.A., Liu J., Tesoro A.G., 2016. Transport and fate of microplastic particles in wastewater treatment plants. Water Res. 91, 174 e 182.

Dekiff J.H., Remy D., Klasmeier J., Fries E., 2014. Occurrence and spatial distribution of microplastics in sediments from Norderney. Environmental Pollution 186 (2014) 248e256.

Löder, M. G. J. & Gerdts, G., 2015. Methodology used for the detection and identification of microplastics – A critical appraisal in Marine Anthropogenic Litter (eds Bergmann, M. et al.) Ch. 8, 201–227 (Springer, 2015).

Murphy, F., Ewins, C., Carbonnier, F., Quinn, B., 2016. Wastewater treatment works (WwTW) as a source of microplastics in the aquatic environment. Environ. Sci. Technol. 50, 5800e5808.

Hanvey J. S., Lewis P.J., Lavers J.L., Crosbie N.D., Pozo K., Clarke B.O. 2017. A review of analytical techniques for quantifying microplastics in sediments. Anal. Methods 9, 1369.

Hermsen E., Pompe R., Besseling E., Koelmans A.A. 2017. Detection of low numbers of microplastics in North Sea fish using strict quality assurance criteria. Marine Pollution Bullettin, http://dx.doi.org/10.1016/j.marpolbul.2017.06.051.

Hidalgo-Ruz V, Gutow L, Thompson RC, Thiel M. 2012. Microplastics in the marine environment: a review of the methods used for identification and quantification. Environ Sci Technol. 46:3060 − 3075.

Mintenig S.M., Int-Veen I., Löder M.G.J., Primpke S., Gerdts G., 2016. Identification of microplastic in effluents of waste water treatment plants using focal plane array-based micro-Fourier-transform infrared imaging. Water Research, http://dx.doi.org/10.1016/j.waters.2016.11.015

*Claudia Campanale è laureata in biologia presso UniBa con il massimo dei voti, sta svolgendo un dottorato in Chimica  con un tutor di eccezione, Angela Agostiano e proprio sul tema del campionamento, estrazione, quantificazione e caratterizzazione di microplastiche presenti in acque interne superficiali; ha  fatto esperienza in Italia e Germania sui temi dell’inquinamento ambientale, della sua caratterizzazione e della sua eliminazione.

Il tallio, i piccioni e i giornali.

In evidenza

Claudio Della Volpe

In questi giorni circola sui giornali una notizia su una famiglia di Desio che dopo una vacanza ha scoperto di essersi avvelenata col tallio; due dei componenti, padre e figlia, entrambi anziani sono deceduti e ce ne spiace, ovviamente.

Ma sono qui a scrivere di questo episodio di cronaca sia perchè ha a che fare con la chimica sia (soprattutto) per il modo in cui i giornali grandi e piccoli ne parlano stavolgendone il senso e inventandosi addirittura notizie inesistenti.

(da Wikipedia)

Il Tallio è un elemento del gruppo 13/III, elemento pesante, ma con lo stesso stato ionizzato principale +3 di Boro ed Alluminio; ma come anche gli elementi più pesanti di questo gruppo Gallio e Indio, il Tallio aggiunge uno stato +1. Le dimensioni dello ione +1 sono simili a quelle del Potassio e qua starebbe il busillo del Tallio. Il Tallio è considerato un potentissimo veleno, anche se l’esatto meccanismo rimane ancora sconosciuto; le ipotesi più significative sono le seguenti: alterazione del metabolismo del glutatione, stress ossidativo e alterazione della omeostasi del potassio.

Questi meccanismi sarebbero giustificati dicevo dalla somiglianza delle dimensioni ioniche dello ione Tl+ e dello ione K+.

Come sapete le dimensioni ioniche non sono banali da stimare e dipendono da una serie di fattori complessi, dovendo anzitutto chiarire se ci si riferisce alle dimensioni dello ione nel reticolo cristallino o in soluzione; ma ancora dipendono dal tipo di coordinazione. Evito dunque di prendere dati in giro da lavori sperimentali o programmi di calcolo per “provare”, come è scritto anche su wikipedia, che i raggi sono simili o perfino uguali.

Secondo me si tratta piuttosto di un “comportamento” analogo, che inganna almeno sul breve periodo alcuni dei meccanismi di discriminazione della cellula. Alla fine si tratta di reazioni specifiche che consentono di usare l’uno o l’altro ione; se la somiglianza è sufficiente il Tallio passa la reazione ma viene poi scambiato nei processi successivi dove però la somiglianza è inferiore e di qua parte l’effetto di avvelenamento.

Ci vogliono giorni o perfino settimane perchè le differenze si manifestino e portino a situazioni molto pericolose e mortali; per questo motivo il Tallio viene considerato un veleno perfetto, il veleno dell’avvelenatore, che consentirebbe di uccidere e fuggire senza destare sospetti.

Il sale più comune è il solfato di Tallio, che è anche insapore ed è stato usato come topicida per un certo periodo. Ma è un sale e dunque una sostanza ben poco volatile; perchè faccio notare questo?

Vediamo cosa hanno scritto i giornali:

Il Corriere della Sera del 30 settembre:
http://milano.corriere.it/notizie/cronaca/17_settembre_30/avvelenata-tallio-62enne-coma-colpa-escrementi-piccione-b83b0a50-a5e1-11e7-8477-789085dabc53.shtml

Da venerdì sera i carabinieri di Desio stanno indagando per capire come la famiglia possa aver inalato il tallio. Secondo una prima ipotesi, la sostanza potrebbe essere stata usata per una campagna di disinfestazione dei campi vicino all’abitazione. Ma forse è più probabile che l’avvelenamento sia stato provocato da un’esposizione prolungata a escrementi di piccione, che contengono sostanze altamente tossiche, tra cui il tallio, come confermato da ricerche dell’Oms. L’infestazione di piccioni sarebbe avvenuta nel fienile della casa-vacanza. Le esalazioni delle sostanze contenute negli escrementi, inalate per un tempo prolungato, potrebbero essere state la causa dell’avvelenamento.”

Pensate un pò! Esalazioni di un sale provenienti dagli escrementi di piccione? A parte che se gli escrementi fossero così velenosi i primi a risentirne sarebbero i piccioni, per i quali il Tallio è altrettanto velenoso che per noi. E’ una notizia che è stata poi destituita di ogni fondamento, ma non si sa come l’abbia avuto e da chi questo fondamento. L’OMS avrebbe detto che il tallio è contenuto negli escrementi di piccione?
Giuro che ho cercato come un pazzo ma ho solo trovato lavori vari in cui l’OMS ha usato il contenuto di tallio nel corpo o nelle feci degli animali (fra i quali anche i piccioni) per provare che certi impianti (per esempio i cementifici) inquinano l’ambiente in termini di metalli pesanti; per esempio qui: http://www.townsendletter.com/Jan2016/thallium0116_3.html oppure qui

https://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=3&ved=0ahUKEwiS0ZPl-9PWAhVnIsAKHe0vDygQFgg0MAI&url=http%3A%2F%2Fapps.who.int%2Firis%2Fbitstream%2F10665%2F37931%2F2%2F9241561734_eng.pdf&usg=AOvVaw2VwgH2Pp5qZS-V5DtYc7Bh

Oh la fantasia del Corrierone!

Il Secolo XIX addiritura titola:

http://www.ilsecoloxix.it/p/italia/2017/09/30/ASuGX4hJ-piccioni_escrementi_uccidere.shtml

I piccioni possono uccidere: donna in coma per aver inalato i loro escrementi

In un primo tempo i medici avevano pensato che la causa dell’avvelenamento delle due donne fosse un topicida, che le due donne tenevano evidentemente in casa a Nova Milanese. Il tallio, infatti, è una sostanza contenuta in alcuni topicidi. Analisi più approfondite da parte di carabinieri di Desio, su input della direzione sanitaria, hanno consentito di accertare, però, che le due donne erano state per un periodo prolungato in una casa-vacanze di famiglia, in campagna in provincia di Udine, nel cui fienile stazionano decine e decine di piccioni. I responsabili sanitari hanno riferito che il tallio si trova anche negli escrementi di piccione.”

Un metabolismo piccionesco contente tallio è una invenzione altamente creativa!

Anche perchè il Tallio non è un elemento comune in natura e dunque i poveri piccioni (che a me non stanno molto simpatici, topi con le ali) avrebbero avuto difficoltà a reperirne; ma certo poi avrebbero potuto anche avvelenare tutti i turisti di Piazza San Marco che da anni si respirano polvere di escremento di piccione!

Per uccidere ci vogliono alcuni mg pro chilo e dunque un mezzo grammo assorbito dalla polvere attraverso gli escrementi di piccione? Ma nemmeno se fossero fatti di tallio puro! Oh poveri noi!

Ragionevolmente il tallio può trovarsi in agenti topicidi, ma dovrebbero essere antiquati poichè l’UE lo ha escluso da questo uso proprio per la sua infida natura.

Potrebbe essere presente nell’acqua potabile o esserci stato erroneamente aggiunto attraverso l’uso di prodotti illegali, di cui casomai qualcuno si è liberato; potrebbe essersi trovato sparso su vegetali usati poi per l’alimentazione; le ipotesi ragionevoli non mancano; colpisce però che le prime ad esser fatte siano state quelle impossibili: esalazioni di sali e metabolismo del tallio nei piccioni.

Ancora più sicuro il Gazzettino:

http://www.ilgazzettino.it/nordest/udine/morto_padre_donna_intossicata_da_tallio_varmo_udine-3275907.html

I piccioni si sa sono veramente pericolosi spargitori di tallio!!!! Una scoperta da IGNobel!

Piano piano la verità si farà strada: i piccioni non c’entrano, ne sono sicuro: qualcuno avrà usato o scaricato un topicida o un insetticida in modo improprio avvelenando cibi o acqua; non vedo alternative. Anche la possibilità di una fonte naturale di Tallio appare alquanto difficile; nel mondo esiste una sola miniera di tallio, in Macedonia dove si scava la lorandite; in genere viene estratto come sottoprodotto di altre azioni minerarie oppure come sottoprodotto industriale (dall’arrostimento dellla pirite).

Conclusione: ma i giornali o chi li informa non potrebbero imparare un po’ di chimica prima di comunicare? O quanto meno rivolgersi a chi ne sa di più?

Fatemi chiudere con una quasi battuta; sembra che durante la guerra fredda l’FBI abbia considerato la possibilità (ma poi vi abbia rinunciato) di avvelenare Fidel Castro con il tallio, sparso nelle scarpe; pare che uno degli elementi del piano fosse che il tallio avrebbe potuto far cadere i peli della barba di Fidel, un effetto collaterale; ma dato che questo effetto arriva solo dopo un lungo avvelenamento il vantaggio mediatico non era poi così notevole per lottare contro i barbudos.

Ecco questa probabilmente è una bufala, ma date quelle di chimica che ci propinano i giornali, sono sicuro che nessuno me ne vorrà male.

Great Salt Lake, un grande laboratorio naturale.

In evidenza

Claudio Della Volpe

Pochi giorni fa AstroPaolo, ossia Paolo Nespoli, attualmente sulla Stazione Spaziale, ha fotografato il Grande Lago salato, nello Utah, NO degli Stati Uniti e si è chiesto da dove nascesse la strana differenza di colore che si nota dal satellite e che vedete riprodotta qui sotto. ”Il Great Salt Lake nello Utah, le cui acque sono più salate del mare! Qualcuno sa indovinare cosa sia la linea nel mezzo?” ha scritto AstroPaolo.

(Foto dall’ISS 2003, quando il lago a seguito di una serie di stagioni secche ha raggiunto le dimensioni minori in epoca storica, Nord in alto è più rosso, Sud in basso più verde)

Poi ha trovato la risposta che riporto qua da La Repubblica:
”Dagli anni ’50 le acque sono divise da una ferrovia! I due colori sono dovuti alle diverse alghe e batteri che abitano le due metà del lago”.

Ma è proprio così? Una foto ravicinata mostra meglio la situazione:

Questo lago è veramente speciale e costituisce a mio parere un grande laboratorio naturale sulla chimica fisica, la biologia e la meteorologia innescate dal comportamento delle soluzioni saline.Cominciamo col dire che la striscia al centro del lago non è semplicemente una ferrovia, ma una strada sopraelevata sulla quale corre una ferrovia, la Lucin Cutoff; una strada sopraelevata dunque fondamentalmente una barriera di terra che separa le parti nord e sud del lago. Essa divide il lago in tre parti, come si vede da questa mappa, anche se una delle tre divisioni è meno vistosa. E in certi momenti anche in quattro zone come apprezzate dalla mappa più avanti.Questa barriera di terra ha costituito una divisione semipermanente fra le due parti del lago anche se di recente (dicembre 2016) si è definitivamente accettato che ci fosse un punto di connessione fra le due metà, qui rappresentato (il Sud è in alto in questa foto):Il Grande Lago Salato (GLS) è il residuo di un lago glaciale, denominato Lago Bonneville, la cui area era 10 volte maggiore e che 16800 anni fa si scaricò in Idaho; al momento GLS è comunque un lago di notevoli dimensioni, poichè è lungo 120 km e largo 45; questo in media, poichè esso è un lago particolare, privo di emissari e dunque soggetto a forti variazioni di livello e di superficie; l’acqua arriva nella zona Sud da parte di tre affluenti e viene persa solo per evaporazione; data la separazione (separazione parziale poichè anche in passato c’erano due punti di giunzione) la parte Sud viene diluita da parte dell’acqua in arrivo e si presenta meno salata della parte Nord, la baia di Gunnison; questa diversa concentrazione salina comporta una differente crescita algale e questa componente biologica dà al lago la diversa colorazione visibile dall’alto. Al momento dell’apertura della connessione mostrata in figura (che al momento è l’unica fra le due zone) la differenza di altezza era di quasi un metro, ma si è ridotta in questi mesi del 2017. La profondità del lago è di qualche metro.

Il GLS presenta una salinità molto più alta di quella oceanica, il bacino principale quello Sud, la Gilbert Bay, varia dal 5 al 27% a seconda delle precipitazioni. In paragone la salinità media dell’oceano è del 3.5% mentre è del 33.7% quella del Mar Morto in Medio oriente. La composizione ionica è simile a quella oceanica ma arricchita di potassio e impoverita di calcio.Nella zona Nord dove la concentrazione salina è maggiore sono situati alcuni impianti per l’estrazione di sali che producono: cloruro di sodio, solfato di potassio e cloruro di magnesio; dal sale di magnesio si produce magnesio metallico in una quantità pari ad un settimo della produzione mondiale totale.

Le specie animali che possono tollerare una salinità così alta sono sostanzialmente tre: i crostacei come Artemia franciscana, le mosche del sale, e gli uccelli che se ne nutrono; su alcune delle isole sono stati reintrodotti i bisonti che una volta dominavano tutta la zona prima che stupidi uomini con il cappello e il fucile li distruggessero. Tutte queste alla fine basano la propria esistenza sulle alghe.

Le alghe rosse, Dunaliella salina, il cui colore rosso dipende dall’accumulo nei loro tilacoidi di β-carotene e la specie batterica Halobacterium dominano la parte Nord più salata, mentre quelle verdi come Dunaliella viridis dominano la parte Sud più diluita.

Dunaliella salina e il b-carotene.

Gli halobacteria presenti nel GLS possiedono la rodopsina nella loro membrana, una proteina capace di produrre ATP in assenza di ossigeno e in presenza di luce. La rodopsina o batteriorodopsina è una proteina che dà ai batteri un colore rossastro. Alla fine della loro stagione di crescita quando la concentrazione dei batteri è al massimo l’acqua assume una tinta fortemente rossastra. La rodopsina è anche una proteina di membrana con 7 domini transmembrana a α-elica, che si trova nelle cellule a bastoncello della retina umana che permettono la vista in bianco e nero. Del confronto fra le due rodopsine trovate trattazione in un articolo di qualche anno fa su Le Scienze.

Un altro aspetto che è legato alla chimica è il comportamento meteorologico molto particolare; la concentrazione salina influenza molto la tensione di vapore del lago e comunque impedisce ad esso di congelare, attraverso il meccanismo dell’abbassamento crioscopico. Una delle conseguenze di questa situazione è il cosiddetto effetto Grande lago salato che ha una certa specificità anche rispetto a comportamenti analoghi del mare o di altri laghi meno salati.

Le forti precipitazioni tipiche del Great Salt Lake si verificano quando un vento che proviene da NO soffia attraverso un lago relativamente più caldo. Questa situazione è comune dopo il passaggio di un fronte freddo, dove i venti siano prevalentemente da NO e l’aria parecchio più fredda del lago.

Quando il vento arriva sul lago si forma una zona di convergenza che si rafforza sul centro del lago ed incrementa la precipitazione.La salinità del GLS impedisce il congelamento, anche se riduce la tensione di vapore saturo e il flusso di calore latente nell’aria sul lago.

Come risultato l’aggiunta di umidità e di calore al flusso di aria è più basso, ma in assenza di congelamento e dunque l’azione è attiva anche a temperature più basse, durante quella parte dell’anno in cui altri laghi sono gelati. Infine i rilievi montagnosi delle Wasatch mountains rinforzano il fenomeno producendo enormi nevicate molto intense, specie nella vallate a sud-est.I colori della Terra sono i colori della vita, la reazione chimica meglio riuscita!

Per approfondire:

http://hydrology.usu.edu/dtarb/ibrahim_thesis.pdf

https://en.wikipedia.org/wiki/Lake-effect_snow

https://wildlife.utah.gov/gsl/index.php

http://journals.ametsoc.org/doi/pdf/10.1175/1520-0434%281993%29008<0181:TLEOTG>2.0.CO%3B2

https://ral.ucar.edu/projects/armyrange/references/forecastconf_06/11_lakeEffect.pdf

Post, F.J., 1977a, Microbiology of the Great Salt Lake north arm, Hydrobiologia 81, 59-69. Post, F.J., 1977b, The Microbial Ecology of the Great Salt Lake, Microbial Ecology 3, 143-165

Nuove strade per le batterie al litio.

In evidenza

Claudio Della Volpe

(una parte del testo è tradotto “liberamente” dall’articolo citato)

Le batterie ricaricabili con anodi metallici (per esempio di Li, Al, Na) hanno richiamato di recente una grande attenzione perchè promettono di accrescere di 10 volte la capacità anodica rispetto alle odierne batterie al litio.

Il lettore non esperto potrebbe pensare che un limite sia costituito dal solvente: l’acqua reagisce violentemente con il litio o il sodio, ma in realtà questo problema è stato risolto già in passato usando solventi non acquosi come per esempio il CH3CN acetonitrile o il propilencarbonato CH3CHCH2CO3. Questi solventi resistono alla differenza di potenziale indotta dalla reazione principale e dunque possono essere usati con problemi ridotti, anche se la sicurezza ha portato ad una evoluzione che sta privilegiando solventi molto particolari, polimeri come il PEO per esempio.

Tuttavia nonostante questi enormi progressi una barriera importante è costituita dal fatto che durante le fasi di ricarica la elettrodeposizione del metallo è irregolare e porta alla formazione per diffusione di dendriti, strutture allungate, simili ai rami di un albero come dice la parola, che in condizioni opportune (ricariche complete e veloci per esempio) possono crescere da un lato all’altro, in modo da cortocircuitare la batteria.

Come si può evitare questo problema?

Non c’è ancora una soluzione vittoriosa, ma ci sono molti tentativi.

Un ruolo importante nel percorso per l’eliminazione della crescita dendritica è giocato dal calcolo teorico che permette di prevedere gli effetti delle varie strategie prima di fare dei complessi e costosi esperimenti.

Per esempio elettroliti con un modulo meccanico significativo, oppure elettroliti a stato solido, polimeri nanoporosi o materiali ceramici che ospitano il liquido nella porosità, polimeri cross-linkati o gelificati.

Però nonostante questo si è scoperto che si possono anche verificare reazioni indesiderate fra elettrolita in soluzione ed elettrodo metallico.

Teoricamente nelle batterie che usano elettrodi metallici l’eletrolita tende a formare uno strato passivato, ossia un film di materiale che ha reagito e che è anche compatto e limita la reazione ulteriore, la cosiddetta interfase dell’elettrolita solido (SEI).

Qui interviene un altro fenomeno “sottile” tipico delle batterie ricaricabili, che coinvolgano materiali solidi (anche delle vecchie batterie piombo acido): l’elettrodo viene distrutto e ricostruito durante le fasi di carica/scarica; l’elettrodo ha “una storia”, invecchia e questo lo porterà a fine vita dopo un certo nero di cicli (a differenza di ciò che accede nelle batterie in flusso per esempio che hanno elettrodi “liquidi”). Questo processo ciclico degrada il SEI esponendo il metallo nativo all’elettrolita e formando così ulteriori prodotti di reazione.

Anche in questo caso la creatività dei ricercatori si è sbizzarrita nel cercare una soluzione che protegga il film iniziale oppure che impedisca una deposizione irregolare.

Per esempio strati di nanosfere cave di carbonio che formino uno strato protettivo, fibre di polimero prodotte per elettrospinning o ancora strati molto sottili di allumina. Si è anche provato a generare dei film molto sottili di materiali provenienti dalla soluzione elettrolitica: come fluoroetilene carbonato (FEC) oppure sali come LiFSI, LiPF6, LiF, e CsF.

In questo lavoro si è tentata una nuova strada per certi aspetti più semplice.

Creare un rivestimento uniforme per prevenire il contatto con l’elettrolita ma senza eliminare uno scambio ionico veloce.

I colleghi americani hanno pensato di usare l’Indio come strato protettivo. Essi hanno dimostrato prima teoricamente e poi sperimentalmente che questo è possibile; si spera che quanto prima questa o altre strategie possano incrementare di almeno un ordine di grandezza le prestazioni delle batterie ricaricabili; uesto ci consentirebbe di superare una parte essenzizale del gap che rende ancora così indispensabili i combustibili fossili.

Colla Neanderthal: garantita 200.000 anni.

In evidenza

Claudio Della Volpe

(una parte del testo è tradotto liberamente dall’introduzione del lavoro citato appresso)

In altri articoli e post ho ricordato che la attività chimica dell’uomo è iniziata molto presto; a parte il fuoco, che risale a 1 milione di anni fa e che è addirittura precedente a Homo Sapiens Sapiens, essendo un ritrovato di Homo erectus, i ritrovamenti di Blombos dimostrano che 100.000 anni fa Homo Sapiens svolgeva in Sud Africa una attività chimica propriamente detta consistente nel preparare pigmenti e la svolgeva in un sito apposito, non usato per altre attività.

C’è un ulteriore prova di come la Chimica sia una attività “umana” in senso proprio, attinente ad altre specie di ominidi, diverse da noi ed è la produzione di adesivi da parte di Homo sapiens Neanderthalensis, una specie umana che ha preceduto la nostra nell’ambiente europeo che era all’epoca, attorno a 200.000 anni fa, seconda metà del Pleistocene, più difficile di quello africano da cui provenivano i nostri antenati propriamente detti (in pratica possiamo metterla così: mentre il clima europeo cambiava, i nostri antenati furono immigrati invasori che spodestarono i Neanderthal nell’ambiente europeo il cui clima andava lentamente riscaldandosi).

L’uomo di Neandertal che è diventato parte della nostra cultura, delle nostre storie, dei nostri modi di dire ci ha certamente lasciato anche eredità genetiche, ma soprattutto culturali; piano piano si evidenzia che le differenze fra noi e “loro” non erano poi così forti.

Oltre al fatto che aveva sensibilità artistica e che seppelliva i morti, ci sono parecchie evidenze sperimentali che Neanderthal gestiva il fuoco e produceva ed usava adesivi per bloccare le sue punte di freccia di pietra su un’asta di legno, una sofisticata attività da chimico e tecnologo.La produzione e l’impiego di adesivi per hafting (adesivi da traino, che consentono di attaccare un dispositivo ad un supporto, per esempio una punta ad una freccia o ad un giavellotto, un metodo sviluppato durante il Paleolitico che ha potenziato enormemente la capacità umana di procurarsi cibo) è diventato un punto focale nel dibattito sulle capacità cognitive e tecnologiche dei Neanderthaliani e degli esseri umani primitivi.

Journal of Archaeological Science 33 (2006) 1310e1318 A new Palaeolithic discovery: tar-hafted stone tools in a European Mid-Pleistocene bone-bearing bed, di Paul Peter Anthony Mazza et al.

Gli adesivi sono una delle più antiche tecnologie trasformative conosciute e la produzione di catrame è vecchia di almeno di 200 mila anni. Il catrame è sintetizzato dalla distillazione asciutta (distruttiva) di materiale organico, comunemente la corteccia di betulla (Betula sp.) o di pino (Pinus sp.). La distillazione della corteccia è considerata un processo complicato che richiede pianificazione, conoscenza dei materiali e l’astrazione. I più antichi strumenti di pietra a catrame conosciuti sono stati scoperti in un sito di Pleistocene medio in Italia, (Campitello, in Valdarno) durante un periodo in cui solo Neanderthaliani erano presenti in Europa. L’età di questi reperti è stimata in circa 200.000 anni, dunque ben più antichi di quelli di Blombos.

Sono stati trovati anche grumi e residui adesivi su utensili in pietra su due siti di Neanderthal in Germania, appartenenti a 40-80 ka e ~ 120 ka . L’evidenza diretta dell’uso di adesivi in Africa è più numerosa ma risale solo a ~ 70 Ka. Tali adesivi sono di composizione più complessa ma gli adesivi composti condividono molte analogie con la produzione di catrame di betulla e possono essere altrettanto sensibili agli additivi o post processi di produzione. La produzione di catrame nell’Europa paleolitica è a sua volta utilizzata per argomentare le somiglianze tra le capacità tecnologiche dei neanderthaliani e dei loro emulatori in Africa.

La corteccia di betulla è più adatta alla produzione di catrame rispetto ad altri materiali, ma l’assenza di betulle in Africa potrebbe essere una ragionevole spiegazione del diverso tipo di adesivo usato.

Nei periodi storici e moderni, il catrame è stato prodotto su una scala industriale utilizzando grossi tumuli di terra o in forni usando contenitori in ceramica o in metallo. Non è chiaro come è stato prodotto durante il Pleistocene quando i contenitori in ceramica sono rari o sconosciuti. I tentativi sperimentali precedenti alla produzione di catrame utilizzando la tecnologia aceramica o paleolitica spesso non forniscono dettagli. Inoltre, la resa in catrame risultante è sconosciuta o troppo piccola da misurare (ad esempio residui superficiali che rivestono una termocoppia) e quindi non sono sufficienti per bloccare in modo efficace uno strumento. Non possiamo comprendere appieno le complessità cognitive e ricostruire il grado richiesto di innovazione associato alla produzione di catrame se non sappiamo quali metodi di produzione erano disponibili.

Nel lavoro di cui parliamo qui, che è un lavoro di archeologia sperimentale si è cercato di riprodurre un metodo di produzione del catrame di betulla con metodi disponibili all’uomo di Neanderthal e in quantità sufficienti allo scopo.

SCIENTIFIC REPORTS 7-8033 Experimental methods for the Palaeolithic dry distillation of birch bark: implications for the origin and development of Neanderthal adhesive technology di P.R.B.Kozowyk et al. liberamente scaricabile qui. Un commento semplificato scaricabile qui.

Quindi se volete si è trattato di riprodurre i metodi di questi chimici-tecnologi primitivi che erano fondamentalmente dei costruttori di frecce e lance.

Gli autori hanno testato tre procedure diverse qui sotto rappresentate che danno produzioni crescenti con la complessità del metodo:

In tutti i casi l’elemento critico è riprodurre il contenimento “ceramico” che si è usato anche in tempi moderni; la metodologia richiama ampiamente la tradizione della produzione di carbone di legna che affonda anch’essa in una storia certamente millenaria; l’altro elemento chiave è il controllo della temperatura. La produzione di fuoco in modo ripetitivo da parte dei Neanderthal è stato spesso contestato ma test di questo tipo confermano che in effetti essi erano ragionevolmente capaci di un buon controllo del fuoco se sono stati in grado di produrre dispositivi come quelli ritrovati in Toscana e in Germania.

La cosa che ha più colpito me come scienziato che si occupa di adesione è che l’adesivo in questione è rimasto adeso al supporto all’aperto per 200.000 anni (il legno verosimilmente si è degradato e non conosco colle moderne in grado di assicurare una tenuta di questa durata); come chimico invece mi ha colpito il fatto che la chimica è in grado di svolgere qui un ruolo duplice: essa è contemporaneamente l’oggetto di studio ma è anche il metodo di indagine, è una specie di riscoperta delle proprie origini, del proprio punto di partenza, di quella enorme base sperimentale che si è poi elaborata in secoli e secoli per divenire solo di recente una teoria astratta.

Fra l’altro mi chiedo quanto invece potrebbe essere utile riproporre queste tecniche (quelle primitive o legate alla vita quotidiana) nell’insegnamento elementare della chimica a scuola.