Stabilità e stato di conservazione di prodotti cosmetici

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella

L’Unione europea (UE) ha istituito un sistema di allarme rapido per i prodotti non alimentari, tra cui anche i cosmetici, che presentano un rischio grave per la salute pubblica (RAPEX), nonché disposizioni che consentono di ritirare dal mercato i prodotti che possono minacciare la salute e la sicurezza dei consumatori. La normativa dei cosmetici in Italia è disciplinata dalla L. 11 ottobre 1986, n. 713 e successive modificazioni (DLgs 10.9.1991, n. 300; DLgs 24.4.1997, n.126 e Dlgs 15.2.2005, n.87).

141222025838_loghi_flyer

All’inizio del 1970 gli Stati membri della Comunità Europea hanno deciso di armonizzare la legislazione riguardante i prodotti cosmetici per evitare, all’interno della Comunità, la circolazione di prodotti non controllati. Come risultato di un’ampia discussione tra esperti di tutti gli Stati Membri, è stata adottata, il 27 luglio 1976, una Direttiva (76/768/EEC).

I principi alla base di tale Direttiva riguardano sia i diritti del consumatore, sia l’incoraggiamento degli scambi commerciali e l’eliminazione delle barriere commerciali. Ad esempio un prodotto che debba circolare liberamente in Europa deve avere lo stesso tipo di confezione e di etichetta e deve altresì ottemperare alle stesse regole di sicurezza. Lo scopo fondamentale della Direttiva è infatti di garantire la sicurezza del prodotto cosmetico. Tale Direttiva è stata successivamente integrata e modificata, in base alle nuove acquisizioni scientifiche in materia di sicurezza, il 27 febbraio 2003 (2003/15/CE). Come prima conseguenza di questa Direttiva, il 5 settembre 2003 la Commissione della Comunità Europea ha emanato delle importanti decisioni in materia di sicurezza (Direttiva 2003/80/CE della Commissione) riguardo alla durata di utilizzo dei prodotti cosmetici allo scopo di migliorare le informazioni fornite ai consumatori.

La Direttiva 2003/15/CE del 27 febbraio 2003, recepita in Italia con DLgs n.50 del 15 febbraio 2005 [1], ha stabilito l’introduzione di due nuove disposizioni di etichettatura e prevede che a partire dall’11 marzo 2005 nessun fabbricante o importatore stabilito nella Comunità immetta sul mercato prodotti cosmetici non conformi alle nuove norme; tuttavia, non prevede restrizioni nella cessione al consumatore finale al quale potranno legittimamente essere esitati cosmetici conformi alle norme previgenti a condizione che siano stati immessi in commercio entro il 10 marzo 2005:

  1. l’indicazione, per i prodotti che hanno una durata minima superiore a 30 mesi, del periodo post-apertura, meglio noto come PaO (Period after Opening), rappresentato da un vasetto di crema aperto, completato dall’intervallo di tempo (indicato con un numero ed espresso in mesi), seguito dalla lettera “M” posizionato all’interno o vicino al simbolo del vasetto aperto che, comune a tutta l’Unione Europea, è stato adottato con la Direttiva 2003/80/CE del 5 settembre 2003:cosmet1

Figura 1: Simbolo del barattolo aperto, stabilito dalla Commissione Europea, che riporta il PaO espresso in mesi (M)

Il simbolo è particolarmente importante per i prodotti che, una volta aperti, venendo a contatto con l’ambiente potrebbero essere soggetti a degradazione e diventare pericolosi (ad esempio per contaminazione microbiologica). Il PaO deve essere indicato sull’imballaggio primario e secondario del cosmetico (per imballaggio primario si intende il contenitore a diretto contatto con il prodotto, mentre l’imballaggio secondario può essere, ad esempio, l’astuccio che lo contiene). Su alcuni prodotti, come ad esempio i monouso o quelli per i quali, in funzione della composizione e del confezionamento, il rischio di alterazioni è pressoché nullo (es. prodotti che non consentono un diretto contatto fra contenuto ed ambiente esterno, come i prodotti spray sotto pressione), il simbolo non comparirà in quanto non necessario.

  1. l’indicazione, all’interno dell’elenco degli ingredienti, della presenza di una o più delle 26 molecole individuate dal Comitato Scientifico per i Prodotti destinati al Consumatore (SCCP) come causa importante di reazioni allergiche da contatto tra i consumatori allergici ai profumi.

L’indicazione in etichetta del Periodo Post-Apertura ha lo scopo di fornire al consumatore informazioni sulla stabilità del cosmetico perché indica il periodo di tempo in cui il prodotto, una volta aperto, può essere utilizzato senza effetti nocivi. Il simbolo del PaO deve essere presente sull’etichetta di tutti i prodotti cosmetici, ad eccezione di:

  • prodotti con un periodo di validità inferiore a 30 mesi, che presentano l’indicazione “Da consumarsi preferibilmente entro… “;
  • prodotti monodose (es. campioni gratuiti);
  • prodotti confezionati in modo tale da evitare il contatto tra il cosmetico e l’ambiente circostante (es. aerosol);
  • prodotti per i quali il produttore certifichi che la formula è tale da impedire qualsiasi rischio di deterioramento che influisca negativamente sulla sicurezza del prodotto stesso nel corso del tempo.

Il nuovo simbolo del PaO verrà introdotto progressivamente: tutti i prodotti interessati dal provvedimento verranno etichettati con questo simbolo al momento dell’ immissione sul mercato a partire dall’ 11 marzo 2005. I prodotti senza PaO, già commercializzati prima di questa data, possono continuare ad essere venduti.

Per chiarire il significato e l’interpretazione del periodo post-apertura, è necessario precisare che:

  • il PaO è un periodo di tempo indicativo stabilito sulla base delle conoscenze acquisite dai produttori sui loro stessi prodotti;
  • un cosmetico è considerato “aperto” quando viene utilizzato per la prima volta. Il periodo di durata post-apertura deve, quindi, essere computato a partire da questo primo uso;
  • le informazioni che giustificano la presenza o l’assenza del PaO sono accessibili alle Autorità di Controllo competenti.

 

Tossicità

L’art. 3 della Direttiva 92/32/CEE del 30 aprile 1992, che disciplina la classificazione, l’imballaggio e l’etichettatura delle sostanze pericolose commercializzate negli Stati dell’Unione Europea, regola la “determinazione e valutazione delle proprietà delle sostanze” attraverso test tossicologici che prevedono esperimenti su animali. In funzione del risultato degli esperimenti, una sostanza verrà classificata in una delle seguenti categorie:

  • molto tossica
  • tossica
  • nociva
  • non pericolosa.

SICC_societa_italiana_di_chimica_e_scienze_cosmetologiche

Un protocollo-tipo prevede lo studio di:

  • Tossicità a breve termine, che si articola nello studio di:
  • Tossicità acuta effettuata normalmente sul ratto o il topo, attraverso la LD50.
  • Studi di irritabilità degli occhi, della pelle e delle mucose solitamente effettuati sui conigli albini in ambito cosmetologico, attraverso i “Draize test” e miranti alla valutazione della tollerabilità della sostanza in esame a contatto con la cute o con le mucose.
  • Studi di sensibilizzazione normalmente eseguiti sul porcellino d’India per valutare la capacità della sostanza chimica di indurre risposte allergiche o immuni in seguito a somministrazioni multiple.
  • Tossicità ripetuta la cui valutazione avviene attraverso lo studio di:
    • tossicità sub-acuta, sub-cronica, cronica, solitamente effettuata su due specie di cui una roditrice (normalmente si usano il topo e la scimmia o il cane). La durata degli studi varia dai due ai quattro anni; la via di somministrazione è quella di esposizione.
  • Studi di tossicità riproduttiva e di teratologia per evidenziare le eventuali interferenze della nuova sostanza sulla sfera riproduttiva e sulla prole, suddivisi in tre gruppi:
    • Studio di fertilità e riproduzione.
    • Studi di teratologia.
    • Studi di tossicità peri-post natale.

Per quanto riguarda la tossicità a breve termine (effetto acuto) il livello di tossicità è definito a partire da test basati sulla quantità di composto chimico letale in funzione della via di esposizione; i limiti della Dose Letale 50 e Concentrazione Letale 50 utilizzate per classificare un prodotto come molto tossico, tossico o nocivo sono riportati nella tabella seguente [2]:

Categoria LD50 orale

mg/kg

LD50 cutanea

mg/kg

LC50 inalatoria

mg/litro/4 ore

Molto tossiche <25 <50 <0,5
Tossiche 25-200 50-400 0,5-2
Nocive 200-2000 400-2000 2-20

LD50: è la dose di una sostanza che, somministrata in una volta sola, provoca la morte nel 50% degli animali da esperimento; indica la tossicità di una sostanza solo a breve termine (tossicità acuta); non a lungo termine (cioè dovuta a contatto con modiche quantità di una certa sostanza per lunghi periodi); viene espressa di solito come quantità di sostanza somministrata rispetto al peso dell’animale usato come campione (es.: milligrammi (mg) di sostanza per 100 grammi (g) per piccoli animali o per chilogrammi (kg) per animali più grandi); va definita anche la via (orale, cutanea, etc.). Una LD50 maggiore di 2000 mg/kg permette di considerare non particolarmente pericolosa la sostanza testata.

Per la LD50 orale la normativa UE prevede come animale da esperimento l’uso del ratto, mentre per la LD50 cutanea è previsto anche l’impiego del coniglio.

LC50: è la concentrazione in aria che provoca la morte nel 50% degli animali da esperimento, se inalata per un determinato periodo di tempo.

Per la LC50 la normativa UE prevede l’uso del ratto come animale da esperimento con una esposizione di 4 ore.

I metodi o le procedure che conducono alla sostituzione di un esperimento sull’animale o alla riduzione del numero di animali richiesti, nonché all’ottimizzazione delle procedure sperimentali, allo scopo di limitare la sofferenza animale sono i metodi alternativi alla sperimentazione in vivo. Questo concetto corrisponde alla definizione delle “3R” di Russel e Burch [3], dall’inglese replace, reduce, refine laddove:

  • replacement identifica la sostituzione, ove possibile, degli animali superiori con materiali biologici di minore complessità (batteri, colture cellulari, organi isolati, colture in vitro), modelli computerizzati, video, film;
  • reduction implica la maggiore riduzione possibile del numero di animali usati per un particolare esperimento pur conseguendo risultati di studio altrettanto precisi. Ciò può essere ottenuto standardizzando la popolazione animale, fattore principe della variabilità dei risultati;
  • refinement si riferisce alla ricerca di procedure sperimentali sempre più specifiche in grado di ridurre al minimo la sofferenza e lo stress causato agli animali, comunque impiegati.

I metodi del primo tipo consentono di ottenere una determinata informazione sperimentale senza ricorrere all’utilizzazione di animali; i metodi del secondo tipo sono idonei ad ottenere livelli comparabili di informazione utilizzando un minor numero di animali e consentono di ricavare il massimo numero di informazioni con un solo saggio su animali; i metodi del terzo tipo sono tutte le metodologie idonee ad alleviare sofferenze e danni imputabili alle pratiche sperimentali. Tra i metodi del primo tipo si distinguono i “metodi sostitutivi biologici” e i “metodi sostitutivi non biologici”, i primi sono i “metodi in vitro”, ed utilizzano materiale biologico di diverso tipo (di origine animale o umana); mentre i secondi si avvalgono dei contributi di scienze quali la matematica, l’informatica, la statistica, eccetera.

Un nuovo approccio sperimentale, per essere considerato alternativo alla sperimentazione animale tradizionale, deve essere riproducibile, affidabile, rapido e non più costoso di quello che si vuole sostituire. Il centro europeo preposto alla verifica del rispetto dei suddetti parametri da parte del nuovo metodo (cosiddetta “validazione”) è l’ECVAM (European Centre for Validation of Alternative Methods), istituito dalla Commissione Europea nel 1991 su proposta del Parlamento dell’Unione, nell’ambito del “Joint Research Centre” di Ispra in provincia di Varese. L’ECVAM coordina la validazione dei metodi alternativi a livello comunitario, e costituisce un punto di riferimento per lo scambio di informazioni sullo sviluppo di questi metodi, attraverso una banca dati dei metodi disponibili (già validati o in corso di validazione) impostata e gestita dal centro medesimo.

Attraverso il processo di validazione viene stabilita l’affidabilità e la rilevanza di un metodo. L’affidabilità descrive la riproducibilità dei risultati nel tempo e nello spazio, cioè, nello stesso laboratorio e tra laboratori diversi (cosiddetta “standardizzazione”); la rilevanza descrive la misura dell’utilità e della significatività del metodo per un determinato scopo. I test di validazione sono molto lunghi (possono durare anche anni) ed hanno lo scopo di verificare se un nuovo metodo fornisce, per determinate sostanze, risultati simili a quelli in precedenza ottenuti attraverso la sperimentazione sugli animali. L’approdo finale di un nuovo metodo è il suo accoglimento entro la regolamentazione internazionale, con l’introduzione dei test alternativi nelle linee guida dell’OECD (Organization for Economic Cooperation and Development). L’OECD raccoglie non solo i paesi membri dell’Unione Europea ma anche Stati Uniti, Giappone ed altri; ha il compito di armonizzare i differenti protocolli sperimentali, recependoli sotto forma di linee guida. Le linee guida dell’OECD vengono periodicamente modificate per adeguarle alle nuove conoscenze scientifiche nonché alle modifiche legislative eventualmente intervenute.

Un Libro Bianco [4] della Comunità Europea invita la comunità scientifica a fare il più possibile allo scopo di mettere a punto dei test chimici, che non ricorrano alla sperimentazione animale, in grado di dare informazioni – specialmente avvisi di pericolosità – in tempo reale o quasi reale riguardo la tossicità di un composto.

Recentemente al Congresso Internazionale di Cosmetica  tenutosi in giugno a Milano ed organizzato dalla SICC ho presentato una proposta per determinare il PAO nei prodotti cosmetici.logobigc-797

Per tale determinazione non esistono metodi scientifici specifici e validati, né protocolli standardizzati (che individuino la tipologia di analisi più idonea per i diversi prodotti), né riferimenti bibliografici che documentino con precisione protocolli di questo genere (mancano riferimenti bibliografici riconosciuti riguardo l’effettiva corrispondenza tra il tempo di permanenza in camera termostatata e l’effettivo invecchiamento del prodotto). La valutazione deve tener conto delle caratteristiche fisico-chimiche dei prodotti e delle normali o ragionevolmente prevedibili condizioni d’uso. Il metodo proposto alternativo alla sperimentazione animale è un test non biologico e si basa sulla misura della persistenza ambientale correlata attraverso esperienze di invecchiamento artificiale al valore del PAO.[5]

Bibliografia

  • Direttiva 2003/15/CE del 27 febbraio 2003, recepita in Italia con DLgs n.50 del 15 febbraio 2005, Gazzetta ufficiale dell’Unione europea 11/03/2003.
  • Curini, A. Bacaloni, U. Pentolini, S. Curini. Università Degli Studi Di Roma “La Sapienza” – “Laboratorio chimico per la sicurezza. Valutazione del Rischio Chimico
  • M.S. Russel-R.L. Burch, The Principle of Human Experimental Technique, Meuthen, London, 1959
  • Commissione delle Comunità europee, LIBRO BIANCO Strategia per un politica futura in materia di sostanze chimiche, Bruxelles, 27 febbraio 2001 COM(2001) 88 definitivo.
  • Campanella L.; Costanza C.; Environ. Saf. Vol. 72, pp. 261 – 272.

Un carburante dal Sole

 Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Giorgio Nebbia

L’uso degli oli vegetali come carburanti per i motori può sembrare insignificante oggi, ma tali oli, col passare del tempo, possono diventare altrettanto importanti quanto il petrolio e il carbone; la forza motrice potrà essere ottenuta col calore del Sole anche quando le riserve dei combustibili liquidi e solidi saranno esaurite”. Queste parole non vengono da qualche esponente ecologista fautore dei biocarburanti, ma sono state pronunciate nel 1912 da “un certo” Rudolf Diesel.

330px-Rudolf_Diesel2

Rudolph Diesel (1858-1913)

Nella seconda metà dell’Ottocento l’energia per tutte le società industriali era fornita dal carbone, di cui esistevano grandi giacimenti in Inghilterra, in Francia, in Germania, in Russia (che allora includeva la Polonia), negli Stati Uniti. Col carbone si otteneva calore e venivano alimentate le centrali elettriche; dalla distillazione del carbone si ottenevano le materie prime per l’industria chimica, il gas illuminante e dei liquidi adatti come carburanti.

Peraltro la quantità del carbone estratto dalle miniere aumentava così rapidamente che un economista inglese, Stanley Jevons (1835-1882), aveva scritto un libro intitolato “Il problema del carbone”, in cui prevedeva che un giorno le miniere di carbone avrebbero potuto esaurirsi. Davanti allo spettro di una possibile scarsità di energia, inventori e scienziati si diedero da fare per vedere come utilizzare l’enorme energia che il Sole rende disponibile ogni anno, dovunque, sempre nella stessa quantità, una fonte di energia, come si dice oggi, rinnovabile e inesauribile.

360px-Dieselmotor_vs

un antico motore diesel

Negli stessi anni della fine dell’Ottocento si ebbe, oltre a molte altre invenzioni, anche la nascita di veicoli capaci di muoversi da soli, “auto-mobili”, appunto, le cui ruote potevano essere tenute in movimento dal motore a scoppio che era stato inventato dai toscani Eugenio Barsanti (1821-1864) e Felice Matteucci (1808-1887); per alimentare il loro motore a combustione interna Barsanti utilizzò il gas illuminante che veniva introdotto in un cilindro, insieme all’aria; la miscela era poi compressa con un pistone, bruciata mediante una scintilla elettrica e la massa di gas caldi che si formava spingeva in basso il pistone e faceva girare le ruote. I progressi nella raffinazione del petrolio misero a disposizione la benzina con cui era possibile migliorare il rendimento dei motori a scoppio che comunque avevano dimensioni e potenza limitate.

360px-Landini_L25_25PS_1954

un trattore diesel che ha rivoluzionato il lavoro agricolo

Arriva a questo punto il giovane ingegnere franco-tedesco Rudolph Diesel (1858-1913), che pensò di costruire dei motori a scoppio che non avessero bisogno di accensione con una scintilla, che potessero essere di maggiori dimensioni e potenza e che non avessero bisogno di benzina. Rudolph Diesel fu un personaggio straordinario, un teorico nel campo della termodinamica e un inventore geniale, fu un attento imprenditore e diventò ricchissimo, girò il mondo diffondendo nei congressi e fra gli industriali la conoscenza e i vantaggi del suo motore.

Diesel era nato 150 anni fa (in molti paesi viene celebrata questa ricorrenza che ha cambiato il mondo), a Parigi da genitori bavaresi emigrati in Francia dove il padre era un artigiano del cuoio. Durante la guerra franco-prussiana del 1870/71 i tedeschi erano malvisti in Francia e Diesel emigrò a Londra e poi in Germania ad Augsburg dove si laureò in ingegneria. Ottenne una borsa di studio per il Politecnico di Monaco dove entrò nel laboratorio dal grande Carl von Linde (1842-1934), l’inventore del frigorifero ad ammoniaca e del primo processo per la produzione dell’aria liquida. Diesel cominciò a pensare alla progettazione di un motore termico; intanto Linde gli aveva procurato un lavoro presso la fabbrica del ghiaccio di Parigi di cui divenne in poco tempo il direttore. Ancora Linde gli affidò l’incarico della distribuzione dei suoi frigoriferi Linde in tutta Europa, con ufficio a Berlino.

Diesel continuò a rincorrere l’idea di un nuovo motore nel quale il combustibile, compresso in un cilindro insieme all’aria, potesse bruciare, non per accensione con una scintilla, ma spontaneamente per l’alta temperatura determinata dalla stessa compressione dei gas. Tale motore fu oggetto del brevetto “Imperiale” tedesco numero 67207 del 1892 e fu descritto in una monografia del 1893 intitolata: “Teoria e costruzione di un motore termico razionale che sostituisca le macchine a vapore e gli attuali motori a combustione interna”. Dopo anni di lavoro e continui perfezionamenti, dopo esser sopravvissuto all’esplosione di uno dei suoi motori, dopo aver provato come combustibili la benzina, il cherosene, il gas illuminante, Diesel finalmente poté presentare il suo motore perfettamente funzionante nel dicembre 1896.

300px-Lumbar_patent_dieselengine

Il motore diesel fu un successo, poteva essere costruito di grandi dimensioni, adatto ad azionare treni, macchinari industriali, navi; l’inventore cominciò a vendere il suo brevetto in tutto il mondo; negli Stati Uniti Adolphus Busch, il grande industriale della birra, lo acquistò per un milione di marchi; nel 1898 Diesel ottenne un altro brevetto tedesco numero 608845 per un “motore a combustione interna”, aveva una propria società e aveva già guadagnato tre milioni e mezzo di marchi, una cifra allora enorme. Il suo motore fu esposto alla Esposizione universale di Parigi del 1900, vinse il gran premio e riscosse grande attenzione perché era silenzioso, aveva un elevato rendimento e anche perché funzionava con olio di arachide. A dire la verità il motore poteva funzionare anche con olio minerale, ma l’uso dell’olio di arachide fu sollecitato dal governo francese che pensava che le sue colonie africane avrebbero potuto rendersi indipendenti dalle importazioni di prodotti petroliferi usando un carburante indigeno.

Diesel comunque sostenne con energia l’uso di carburanti vegetali; la frase citata all’inizio fu pronunciata da Diesel in molte conferenze che tenne in tutto il mondo, alla Società degli architetti navali negli Stati Uniti, all’Istituto degli ingegneri meccanici in Inghilterra, negli anni 1911 e 1912. Suoi articoli furono ospitati nelle riviste scientifiche del tempo: “The diesel oil engine” fu pubblicato nella rivista Engineering, vol. 95, p. 395-406 (1912); “The diesel oil-engine and its industrial importance particularly for Great Britain”, apparve nei Proceedings of the Institute of Mechanical Engineers, del 1912, a pagina 280.

Diesel condusse anche esperimenti con l’energia solare.

Diesel, che guardava al futuro, come dimostra la frase citata, era di idee progressiste e pacifiste e pensava che i suoi motori avrebbero potuto generare forza motrice per azionare centrali termoelettriche, per far viaggiare grandi treni, camion e navi, capaci di trasportare merci e persone facendo progredire i commerci e l’umanità, ma anche che avrebbero potuto consentire a artigiani e piccoli imprenditori di operare in concorrenza con le grandi industrie. L’uso di carburanti di origine vegetale avrebbe contribuito, inoltre, allo sviluppo dell’agricoltura, soprattutto nei paesi in cui si coltivano piante oleaginose. Diesel scrisse articoli su problemi di solidarietà e di carattere umanitario; nel 1912 pubblicò la storia della sua invenzione e della sua avventura umana nel libro: ”Die Enstehung des Dieselmotors”.

Tanto grande fu il successo finanziario personale di Diesel, tanto sventati furono i suoi investimenti al punto che fu ridotto in miseria. Viaggiava continuamente per parlare dei suoi motori ma era anche afflitto da crisi di depressione, un male che lo ha accompagnato tutta la vita. Una vita finita tragicamente e misteriosamente. Il 29 settembre 1913 Diesel si imbarcò sulla nave Dresda per andare dal Belgio all’Inghilterra con due collaboratori ma durante la notte scomparve in mare e il suo corpo fu trovato sulle coste olandesi il 10 ottobre successivo. L’evento ebbe grande rilievo nella stampa del tempo (chi sa se ne hanno parlato i giornali italiani di quegli anni) e furono avanzate varie ipotesi, anche romanzesche, da quella del suicidio a quella di un incidente, all’ipotesi che Diesel sia stato assassinato per conto degli industriali del petrolio, del servizio segreto inglese, dei tedeschi, dei francesi, ciascuno interessato che il brevetto non fosse acquistato da un futuro potenziale nemico (si era alle soglie della prima guerra mondiale, durante la quale i motori diesel furono usati nei sottomarini !). Il figlio Eugen ha scritto una commossa biografia del padre e la storia di Diesel e del suo motore ha affascinato molti altri autori.

I motori diesel muovono oggi centinaia di milioni di automobili, treni e navi nel mondo e, in questo periodo di crisi energetica, viene riscoperta la ricetta di Diesel e stanno ricevendo crescente attenzione le possibilità di ottenere carburanti per motori diesel dagli oli vegetali come tali o trasformati in esteri degli acidi grassi, il “biodiesel”. La flessibilità dei motori diesel è tale che possono essere alimentati con carburanti molto diversi; addirittura è possibile ottenere carburanti per motori diesel depurando gli oli usati per frittura. Un certo Joshua Tickel ha scritto un libro intitolato “From the fryer to the fuel tank”, che sarebbe come: dalla padella al serbatoio dell’auto.

Il 10 agosto di ogni anno è celebrato come giornata internazionale del biodiesel. Un piccolo “grazie”, quindi a Diesel (con la D maiuscola), quando si deve rispondere alla frequente domanda: “benzina o diesel (con la d minuscola) ?”.

125129140-4a182272-f72b-42fa-a5cf-d25a1e9bc576

un diesel hi-tech da 125 kW/170 CV in grado di erogare una coppia di 400 Nme che rispetta la norma Euro 6 sulle emissioni

Creme solari: a che servono e da dove vengono?

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Siamo d’estate e il Sole grazie ad una differente inclinazione dei suoi raggi ci garantisce una insolazione molto più marcata che nelle altre stagioni; siamo quindi esposti ad un flusso più elevato di radiazioni benefiche; tuttavia una piccola quota di quelle radiazioni, la parte a più bassa lunghezza d’onda e quindi più energetica può provocare dei problemi ai nostri tessuti: la pelle e il cristallino dell’occhio sono particolarmente sensibili alla quota UV, ultravioletta, ossia al di sotto di 400 nm di lunghezza d’onda; per tale motivo d’estate è consigliato per prolungate esposizioni al sole di usare sia occhiali da sole che una protezione della pelle sotto forma di creme solari.

Nella formulazione delle creme solari c’è una enorme quantità di chimica e forse le creme solari (da non confondere con le creme autoabbronzanti di cui abbiamo gà parlato in passato https://ilblogdellasci.wordpress.com/2013/06/24/tempo-destate-voglia-di-sole-la-chimica-delle-creme-autoabbronzanti/) sono fra i prodotti “chimici” più usati dal grande pubblico.

Già ma come sono fatte, chi le ha inventate? E cosa significano quei simboli che le accompagnano? Per esempio conviene usare una crema con fattore di protezione 100 o 60 rispetto ad una con fattore di protezione 30 o 60? Cosa vuol dire esattamente?

Una review disponibile in letteratura ce ne racconta la storia e la situazione attuale (http://www.scielo.br/pdf/abd/v86n3/en_v86n3a13.pdf).

Per secoli la carnagione chiara o biancolatte è stata l’emblema della bellezza, a partire dalle statue greche, anche se di fatto non tutte le statue era solo bianche; molte di esse hanno semplicemente perso i colori che le adornavano; ma comunque sia fino alla fine dell’800 la bellezza, femminile soprattutto, aveva come emblema il quadro di Monet, La passeggiata: coperti all’inverosimile contro i raggi del sole che abbronzavano.

La Promenade di G. Monet

La Promenade di G. Monet

Per passare alle modelle abbronzatissime del nostro inizio XXI secolo con le lampade UVA ci sono voluti oltre 100 anni di evoluzione (e di esagerazione) della nostra conoscenza della luce, della pelle e degli effetti che il Sole può avere su di essa; tutto sommato nell’approccio a la promenade c’era parecchia saggezza anche se tutto si può perfezionare e probabilmente come in molti altri casi una buona dose di equilibrio e buonsenso è la base di tutto.

Nel 1801 Johann Wilhelm Ritter (1776-1810) scoprì i raggi ultravioletti. Ritter era convinto che la natura bipolare dell’elettricità pervadesse tutta la natura e che quindi una radiazione invisibile oltre la luce visibile rossa (scoperta da Herschel nel 1800) , dovesse avere un equivalente dal lato opposto dello spettro visibile cioè oltre la luce viola.

  creme1

Egli potè verificare la sua teoria grazie ad un esperimento analogo a quello di Herschel (che però aveva usato un termometro, che nel caso della radiazione UV non dava risposte utili) ma usando in alternativa una procedura sviluppata da Scheele (scopritore dell’ossigeno). Scheele aveva scoperto già nel 1777 che una strisciolina di carta immersa in una soluzione di nitrato di argento diventava scura se esposta al Sole (a causa della riduzione dell’argento ad opera della luce).

Usando un prisma di vetro, Ritter divise un raggio di luce solare nei diversi colori dello spettro sotto i quali pose del cloruro d’argento. Ritter notò che il rosso causava dei piccoli cambiamenti mentre nella zona oltre il viola diventava scuro molto più velocemente. Questa fu la prova dell’esistenza di una radiazione invisibile che venne chiamata, appunto,”infravioletta” e poi ultravioletta.

Comunque per molti anni dopo la morte di Ritter fu idea comune che il danno della luce solare alla pelle potesse venire dall’effetto del calore e non da quello della luce; già Ebermaier (1799) aveva scoperto che il danno da eritema solare veniva dal tempo di esposizione e dal tipo di pelle esposta, ma fu solo nel 1820 che Everard Home, inglese, condusse un semplice ma potente esperimento che dimostrava senza ombra di dubbio l’effetto della luce solare nell’eritema. L’esperimento di Home nasceva dalla semplice riflessione che le persone di pelle scura nonostante fossero nella condizione di assorbire più calore dal Sole a causa della pelle scura avevano meno problemi di eritema; quindi egli espose al Sole una delle sue mani coprendo l’altra con un guanto nero; e concluse che dato che la mano guantata era diventata più calda ma non aveva subito l’effetto eritematoso allora la causa era la luce e non il calore.

La cosa fu definitivamente confermata da Charcot nel 1858 usando come sorgente UV una sorgente artificiale (lampada ad arco); ciononostante data anche la difficoltà di diffusione dei ragionamenti scientifici in mancanza di una robusta struttura editoriale come quella moderna fino a fine del XIX secolo molti continuarono a ritenere che fosse il calore l’origine del problema.

Una storia completa della questione si può trovare in libri come Photodermatology, Lym et. al editors- Taylor e Francis 2007 (parzialmente scaricabile da Googlebooks – si veda nelle note per il link; i riferimenti relativi alle scoperte che sto elencando adesso sono tutti rintracciabili nella parte di libro scaricabile da Googlebooks)

In conclusione fu solo nel 1889 che Widmark provò oltre ogni dubbio che le scottature e l’annerimento della pelle erano causate dai raggi UV, che il tumore della pelle era provocato dai raggi UV (Dubreuihl, 1907) e nel 1917 che Bloch pubblicò i suoi risultati sul meccanismo di formazione della melanina**, mentre solo nel 1928 Seidman pubblicò le sue osservazioni sul concetto di Minima Dose Eritematosa (MED) su cui sono basati i moderni sistemi di valutazione dell’SPF (Sun Protection Factor) che introdurremo fra un momento.

Mentre la medicina faceva questi passi avanti la Chimica non era stata ferma affatto e aveva vissuto la rivoluzione prima quantitativa, poi la scoperta dell’atomo, poi la teoria cinetica e infine quella quantistica.

I tempi erano maturi per passare al contrattacco dei raggi UV.

Karl Hausser, responsabile per la Siemens AG del settore radiazioni, durante la 1 guerra mondiale si ammalò di tubercolosi e passò del tempo in convalescenza a Davos, in Svizzera; lì notò che le scottature erano più frequenti la mattina che il pomeriggio; questo lo portò poi a studiare insieme con Vahle e a pubblicare nel 1922 uno studio sull’effetto delle radiazioni più corte di 320nm sulla pelle umana usando come sorgente una lampada a vapori di mercurio.

Durante il II congresso sulla Luce , in Danimarca nel 1932 si propose di dividere lo spettro UV in tre parti:UVA da 400 a 315nm, UVB, da 315 a 280 ed infine i più pericolosi UVC < 280 nm. La misura esatta delle intensità degli UV tardò perchè i primi sensori efficaci arrivarono solo nel 1950 sebbene ce ne fossero al cadmio già nel 1910.

il primo prodotto per la protezione solare contro le scottature venne (ovviamente) prodotta e venduta in USA nel 1928; era a base di benzilsalicilato e benzilcinnamato, composti e funzioni che ritroviamo anche oggi come si può vedere nella tabella seguente; tuttavia è da dire che nonostante prodotti analoghi uscissero anche in Francia e Germania, solo la 2 guerra mondiale vide un uso di massa di oli e creme solari, da parte dei soldati che combattevano in zone tropicali e infine con il lancio famoso di Coppertone nel 1953, questo tipo di prodotti vide la luce sul mercato mondiale (nota: Coppertone è propriamente un abbronzante non una crema solare). E solo negli ultimi 50 anni ha acquisito la sua forma moderna qui sotto descritta.

 Come si può vedere le creme solari sono fatte di componenti organiche ed inorganiche; quelle inorganiche sono soprattutto assorbitori/riflettitori della radiazione UV ad ampio spettro, ossido di zinco ed ossido di titanio (che hanno lo svantaggio di renderci maschere bianche, ma anche il vantaggio di essere particolarmente stabili alla luce e nel tempo); mentre quelle organiche sono molecole che assorbono parti specifiche dello spettro UV; tutte queste molecole naturali o di sintesi posseggono un ampio sistema di doppi legami coniugati, che come sappiamo sono tipici di tutti i sistemi che assorbono intensamente anche le radiazioni visibili, come la clorofilla o i caroteni di cui abbiamo parlato altrove(https://ilblogdellasci.wordpress.com/una-alla-volta/astaxantine/). Questi composti assorbono gli UV e li trasformano essenzialmente in calore o li riflettono. In parte possono essere degradati.

Teniamo presente che il principale difensore antiUV è l’ozono che nella stratosfera assorbe la parte più pericolosa dei raggi UV, gli UVC e quindi assicura la difesa ad ampio spettro della vita sulla Terra; prima dell’avvento dell’ossigeno nell’atmosfera qualche miliardo di anni fa la Terra era bersagliata dai raggi UVC e la vita in superficie era impossibile; abbiamo rischiato di distruggere questo scudo naturale usando dei prodotti alogenati inadeguati come abbiamo raccontato altrove (https://ilblogdellasci.wordpress.com/2013/09/20/ozono-facciamo-il-punto/).

I raggi UVA e UVB invece passano il filtro dell’ozono stratosferico e fanno in qualche modo parte dell’ambiente in cui viviamo, anche se la questione è che da una parte abbiamo modificato attivamente la composizione della stratosfera indebolendo la difesa dell’ozono e dall’altra il mescolamento genetico ha prodotto vari tipi di pelle che reagiscono molto diversamente con l’irradiazione UVA e UVB; infine ancor più semplicemente le migrazioni o il turismo di massa fanno si che una quota significativa di persone abbia necessità di controllare l’interazione con la radiazione solare quando ha intensità e durate a cui il suo organismo non è abituata. Certo occorre anche dire che UVA e UVB hanno effetti complessi, per esempio gli UVB aiutano a produrre la vitamina D dai suoi pro-composti e la vitamina D serve al nostro sviluppo osseo, mentre gli UVA sembrano maggiormente responsabili dell’invecchiamento della pelle; più in generale i raggi UV hanno effetti sulla risposta immunitaria del corpo umano. I raggi UVA penetrano profondamente nella pelle e nel lungo periodo possono danneggiare la struttura dell’epidermide. I raggi UVB, invece, stimolano la produzione di melanina , ma possono causare rossori, scottature ed eritemi. La melanina è la barriera naturale contro i raggi UV, quella che rende le persone di pelle scura più resistenti  a questa sollecitazione e che ci fa apparire abbronzati e la cui produzione è diminuita nel tempo negli uomini che sono migrati dalla patria africana in tutti gli altri continenti e la cui mancanza, infine, viene usata come strumento di razzismo da qualche stupido.

I raggi UV in genere aiutano a trovare sollievo nel caso di certe malattie della pelle, come la psoriasi.

In sostanza, anche se non è stata trovata una correlazione positiva fra uso delle creme solari e riduzione del numero di casi di melanoma, le creme solari (o gli occhiali da sole) sono un necessario compromesso per molti componenti della specie umana. Non li si può liquidare come additivi di sintesi inutili, ma occorre farsi una idea.

Ma come si valuta la protezione offerta dalle creme solari? La loro capacità di protezione è misurata da un numeretto che prende il nome di SPF.

L’ SPF è stato definito in vario modo, in USA dall’FDA e in Europa e Giappone e una definizione completa potete trovarla nell’articolo già citato (http://www.scielo.br/pdf/abd/v86n3/en_v86n3a13.pdf); tuttavia l’idea di base a parte i dettagli è simile.

Dato il danno minimo quantificabile sulla pelle MED (ad un certo tipo di pelle si badi, perchè esistono vari tipi di pelle a seconda del colore naturale) da una certa esposizione ad una certa sorgente il fattore di protezione discende dal fatto che con un certo protettivo occorre esporre la medesima pelle ad un flusso di energia radiante n volte maggiore per avere lo stesso danno; quindi questo rapporto n esprime il fattore di protezione; se una crema ha fattore di protezione 15 diciamo allora usando correttamente quella crema ad un certa concentrazione sulla pelle (2mg/cm2) la quantità di energia incidente da parte della radiazione UV prima di un danno minimo (MED) cresce di 15 volte o di 30 o di 60 a seconda del fattore di protezione 15, 30 o 60. Comunemente questo fattore energia viene trasformato in un fattore tempo; dato che l’irradiazione è grossomodo costante, più energia vorrebbe dire maggior tempo di esposizione, ma le cose non sono esattamente così perchè ci sono altri fattori da considerare.

Il fatto che esistano molte norme diverse a livello internazionale per il computo dell’SPF è indizio che c’è anche un pesante scontro commerciale dato che le creme solari costituiscono un mercato enorme; i prodotti “solari” coprono all’incirca 9 miliardi di dollari, di cui circa 6 per le creme solari, meno di 2 per il post-solare e solo 1.5 per i prodotti abbronzanti.

In corrispondenza di questi enormi interessi occorre anche notare che spesso nella letteratura si trova che gli autori sono anche dipendenti delle maggiori ditte che producono creme solari e quindi c’è in effetti un più o meno palese conflitto di interesse.

Ciò detto occorre chiarire due o tre cose che non saranno risposte semplici o soluzioni banali, ma solo un tentativo di informazione:

  • il parametro SPF correla bene con la quantità di energia radiante UV che attraversa la barriera; più è alto SPF più è bassa la quantità di energia radiante UV che la attraversa; in pratica una crema solare con fattore 50 consente il passaggio di una quantità di UV complessivi circa un terzo rispetto ad una crema con SPF 15; una crema con SPF 30 invece è intermedia, fa passare la metà degli UV che fa passare la 15;

il seguente grafico dà un’idea delle percentuali di luce UV assorbita dal filtro e lasciata passare:

creme2

Osterwalder and B. Herzog British Journal of Dermatology 2009 161 (Suppl. 3), pp13–24

tuttavia questo tipo di filtro agisce diversamente sui vari tipi di UV e dato che si ritiene che una quota di UVA sia comunque necessaria alcune legislazioni obbligano comunque a far passare una certa quota di UVA qualunque sia il grado di protezione; è stato anche provato che un filtro non ben calibrato può effettivamente bloccare completamente gli UVB e quindi ridurre quasi a zero la componente che favorisce la sintesi di vitamina D e questo è ragionevole viste le percentuali basse di luce che attraversa un filtro efficace. Tenete presente una cosa, in alcuni lavori che ho esaminato il termine assorbanza viene usato non per la grandezza che noi chimici usiamo di solito, ossia A=-logT, il termine che compare ad esponente nella legge di Lambert e Beer, ma per 1-T dove T=I/Io.

creme3

  • il Sole come tutte le risorse della Natura dovrebbe essere usato con criterio e questo è vero anche nei confronti del nostro corpo; esporsi al Sole ma evitare le ore ed i periodi più caldi; se si sceglie di usare una crema qualunque sia il valore di SPF o la tipologia della crema l’uso corretto della crema medesima è fondamentale per il risultato; le creme tendono a degradarsi in parte con l’uso e anche a essere portate via per esempio dall’acqua; per cui occorre spargerle in modo uniforme e rinnovarne l’uso dopo una doccia o una immersione, altrimenti la protezione va a farsi friggere. L’uso corretto della crema qualunque sia il suo valore di SPF (ma comunque superiore a 15, altrimenti la protezione è bassa) è più importante del valore dell’SPF.
  • Queste considerazioni sono ancora più importanti per i bambini e per le persone il cui fototipo, ossia il cui tipo di pelle, reagisce male alle esposizioni al sole; le scottature possono essere pericolose anche a distanza di anni e sembrano correlate positivamente allo sviluppo delle malattie della pelle, anche dei tumori. Ovviamente le sostanze usate nelle creme hanno un potenziale impatto sia sulla nostra salute che sull’ambiente in quanto alcune molecole usate sembrano interagire sia col nostro apparato ormonale (interferenti endocrini) che con l’ambiente; in questo senso le due molecole più discusse in questo momento sono l’octilmetossicinnamato che è uno dei filtri UVB (indicato anche nella tabella e a volte chiamato etil-esil-metossicinnamato) e i propilparabeni che sono usati come eccipienti di conservazione in alcune creme. Prove conclusive a questo riguardo non esistono per il primo composto, solo indizi, mentre per i secondi c’è un limite di uso per giorno; “Il CSSC (Comitato Scientifico per la Sicurezza dei consumatori) ha esaminato i dati disponibili sull’esposizione dell’uomo alle creme solari per i neonati di 3 mesi, per i bambini fino all’età di 10 anni e per gli adulti. Il CSSC è del parere che l’utilizzo giornaliero di 18 g per persona di creme solari durante i periodi dell’anno in cui vi è esposizione solare, rappresenti una reale quantità che garantisce protezione per neonati, bambini ed adulti. Il CSSC sottolinea la necessità di non esporre alla luce diretta del sole i bambini fino a 6 mesi di età, ma di esporli solo se protetti dalla luce solare mediante l’uso di mezzi appropriati come l’abbigliamento adeguato, l’ombra ecc. Se sono seguite queste misure, i filtri solari verranno applicati solo in zone della pelle che non sono protette dai vestiti.
  • In commercio si trovano anche creme con SPF a tre cifre, superiori a 100, la corsa a valori di SPF superiori a 50-60 sembra abbia poco senso anche perchè come si vede dai grafici la quantità di UV che riescono a passare se la crema è usata correttamente è bassa già a SPF=30: meglio usare bene la crema che comprarne una potentissima e costosissima ma usarla male. Ed inoltre a quel punto si rischia di bloccare anche quella parte di UV che può farci bene.

Note per approfondire.

** sarebbe più corretto dire melanine, una classe di polimeri naturali complessi che fungono da pigmenti nelle cellule preposte alla pigmentazione e che provengono dal metabolismo della tirosina, un amminoacido; su questo tema ci tengo a ricordare un articoletto scritto anni fa da un collega di Napoli, Rodolfo Nicolaus, “La natura del nero negli animali“, che potete trovare qui.

1) Sun protection factors: world wide confusion Osterwalder and B. Herzog   British Journal of Dermatology 2009 161 (Suppl. 3), pp13–24

 2) http://www.farmacovigilanza.org/cosmetovigilanza/news/1309-01.asp

3) Sun protection factor: meaning and controversies Sergio Schalka, Vitor Manoel Silva dos Reis   An Bras Dermatol. 2011;86(3):507-15  http://www.scielo.br/pdf/abd/v86n3/en_v86n3a13.pdf)

4) Photodermatology, Lym et. al editors- Taylor e Francis 2007

https://books.google.it/books?id=g-YCKEPYMpYC&pg=PR2&lpg=PR2&dq=photodermatology+taylor+francis&source=bl&ots=fUOBDF8dz7&sig=9TZJA25KuQjI-oKc_SbfSfYrqnU&hl=it&sa=X&ved=0CD0Q6AEwA2oVChMIjMjg9Lr4xgIVilwUCh0oZgea#v=onepage&q=photodermatology%20taylor%20francis&f=false

NdA. Ricordo a tutti che i libri di Googlebooks sono scaricabili parzialmente con programmi come Google Book downloader nel pieno rispetto delle norme del (maledetto) copyright)

5) http://www.compoundchem.com/2014/06/05/sunscreenchemicals/

6) Groves GA, Agin PP, Sayre PM. In vitro and In vivo methods to define sunscreen protection. Australas J Dermatol. 1979;20:112-9.

Dalle bolle alle…… balle

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

I grandi giornali nazionali rapppresentano una sorgente inesauribile dello sciocchezzaio scientifico, stampi e riflessi contemporaneamente della incultura scientifica (ahimè ben comune nel paese con meno laureati d’Europa) che da una parte spettacolarizza e dall’altra mortifica ogni scoperta.

Su queste pagine ho più volte citato articoli degni dell’avanspettacolo e nemmeno stavolta verremo meno al massimo livello di divertimento.

Sentite qua.

Il giornale è LaStampa del 20 luglio 2015, l’autore il vice direttore, Vittorio Sabadin; mica un povero free-lance imberbe.

(http://www.lastampa.it/2015/04/17/societa/mistero-risolto-le-dita-scrocchiano-grazie-alle-bolle-nelle-nocche-nNdMWO9Hhj30rbW0YSnLIJ/pagina.html)

Il tono dell’articolo è tra il serio e il faceto, ma il lavoro originale è di fatto ottima ricerca.

Kawchuk GN, Fryer J, Jaremko JL, Zeng H, Rowe L, Thompson R (2015) Real-Time Visualization of Joint Cavitation.

PLoS ONE 10(4): e0119470. doi:10.1371/journal.pone.0119470

scaricamento gratuito (http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0119470).

balle1

Vi siete mai scrocchiati le dita? Da dove viene quel rumore così tipico?

L’autore dell’articolo su PLOSOne ha risolto usando la risonanza magnetica una querelle su questo fenomeno in auge da decenni. che si crede possa dare risposta anche ad altri interrogativi sulle articolazioni umane e le loro malattie; il rumore viene dalla distruzione di bolle di gas o dalla loro formazione? Sembra una domanda da IgNobel, ma non lo è; capire questa cosa può aiutare a capire come funzionano le articolazioni; secondo l’articolo il rumore viene dalla espansione veloce di microbolle di gas sciolte nel liquido sinoviale; dall’immagine potete vedere che le articolazioni si estendono e creano una zona di depressione in modo molto veloce; questa espansione veloce genera una trazione sul liquido, come avviene nella cavitazione sulla faccia “posteriore” delle eliche per esempio, (che spiega perchè l’ossidazione sia maggiore su di essa che sulla faccia opposta). In questo caso l’espansione si trasforma in uno schiocco sonoro.

Questo tipo di fenomeno è stato studiato nel passato e c’è un bel libro dedicato editato da Attila Imre, un collega magiaro che ho avuto il piacere di conoscere anni fa (Liquids under negative pressure, Nato Science Series 84, 2002)); la trazione genera un campo di pressioni negative IN ASSOLUTO; le pressioni negative, come le temperature negative, ed altre grandezze intensive negative in modo assoluto (tensione superficiale, potenziale elettrico, potenziale chimico, etc) sono un argomento molto stimolante (prometto che ci farò un post serio nel futuro). balle2

Fra l’altro uno schiocco analogo ha dato filo da torcere all’esercito americano perchè è prodotto, a scopo di caccia, da alcuni invertebrati marini (gamberi pistolero, Alpheus heterochaelis) che disturbano in questo modo la ricerca dei sommergibili nemici. Ma nulla di tutto ciò entra nel racconto della Stampa.

balle3

Nella prima parte del breve articoletto Sabadin, dopo aver fatto la storia della ricerca, si attiene ai risultati del lavoro originale:

balle4

Ma come potete leggere nella seconda si lancia in un volo pindarico eccezionale: le bolle sarebbero formate da idrogeno e ossigeno che si combinano e tornano nel loro stato precedente dopo che il dito è stato scrocchiato, una interpretazione elettrochimica del tutto campata in aria e di cui ovviamente non vi è alcuna traccia nel lavoro originale. Il fenomeno sarebbe forse dovuto alla elettrolisi dell’acqua? e alla sua riformazione? E come si genererebbe idrogeno e scomparirebbe nel volgere di un secondo? Una cosa mai udita da orecchie chimiche, perlomeno umane. Ovviamente il lavoro originale non parla affatto di ossigeno o idrogeno ma di vapori e aria e la frazione gassosa che si può formare dal liquido sinoviale non può che contenere o i gas dell’aria o vapor d’acqua. Fenomeni elettrochimici nelle articolazioni scrocchianti non rientrano nel novero del plausibile e idrogeno gassoso non ce n’è AFFATTO nella bolla.

Ma non basta; il tocco di classe del vicedirettore Sabadin, che non a caso ha vinto il premio Igor Man assegnato dal suo giornale ai migliori giornalisti, è alla fine, come un colpo di coda: la tribonucleazione dei piatti di vetro nel lavello.

balle5

Ora cosa intende Sabadin con questa frase? Ci ho perso parecchio tempo.

Prima di tutto c’è una questione di linguaggio: la tribonucleazione è il fenomeno per cui in un liquido o in una fase sovrassatura l’attrito fra superfici o fra superfici e liquido può generare dei microcambiamenti di fase, cioè la formazione di microbolle, un pò come il perlage dello champagne, ma su una scala e con un meccanismo diversi; come può riferirsi la tribonucleazione non al liquido mai ai piatti di vetro? E’ la fase gassosa che tribonuclea, non il vetro.

E cosa questo c’entri con l’adesione fra due superfici bagnabili come il vetro dovuta ad un film liquido, uno dei classici fenomeni che si tirano in ballo per introdurre il concetto di adesione sfruttando la elevata curvatura del film lungo la direzione perpendicolare alle lastre, dio solo lo sa; o Sabadin forse. La tribonucleazione qui non c’entra. Una confusione non banale di concetti e di fenomeni.

La domanda seria è: ma come ci si può fidare di un giornale dopo aver letto una cosa del genere scritta peraltro da uno dei più brillanti giornalisti della testata?

Noi conosciamo la chimica e capiamo la “vongola”, ma quante altre “vongole” di politica od economia ci saranno di cui non siamo capaci di accorgerci? Consigliamo a La Stampa di assumere un team di giovani laureati che diano una mano al settore scientifico, che di fatto non è nuovo a cadute di stile di questo tipo; per esempio per lunga pezza La Stampa ha lanciato l’allarme glaciazione (http://www.climalteranti.it/tag/la-stampa/); riconosciamo che probabilmente il miglior contributo attuale viene da Luca Mercalli che ogni tanto interviene(http://www.lastampa.it/cultura/opinioni/secondo-me), ma è ancora troppo poco; che dire?

Dalle bolle alle…balle.

Il presente commento è stato spedito al giornale e all’autore e qualunque risposta sarà qui ospitata.

Egregio Direttore,
le scrivo  per informare lei e il vicedirettore Sabadin che nel commento a firma di Sabadin stesso comparso su La stampa del 20 luglio sulle bolle che si formano nelle articolazioni umane e sui risultati pubblicati a riguardo su PlosOne sono scritte molte cose del tutto inesatte; sul blog della Società Chimica Italiana è comparso un mio contro commento fortemente critico sulle …..inesattezze scritte a riguardo dal Sabadin che si è ahimè inventato di sana pianta una interpretazione chimica del fenomeno mai pensata da mente umana e tantomeno dall’autore dell’articolo originale; il testo compare qui:
https://ilblogdellasci.wordpress.com/2015/07/23/dalle-bolle-alle-balle/
Come si può credere ad un giornale che consente di scrivere delle cose simili non so; dato che stimo lei ed altri che scrivono sulla Stampa come Luca Mercalli mi sento in dovere di renderle nota la cosa;
forse qualcosa si potrebbe fare per evitare figuracce ad una delle più antiche e famose testate nazionali.
Distinti saluti

************************************************************************

Claudio Della Volpe- Università of Trento

Ricordi dell’analisi semimicroqualitativa

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Per generazioni di studenti degli istituti tecnici, dei licei e delle Università in passato il primo approccio pratico con il laboratorio di chimica consisteva nell’esercitarsi ad eseguire l’analisi semimicroqualitativa

img7

Ognuno aveva il suo banco di lavoro il proprio reagentario personale e la vetreria assegnata dall’istituto scolastico. Il filo di platino che veniva usato per i saggi alla fiamma o alla perla di borace doveva invece essere acquistato dallo studente, restando di sua proprietà. Sono passati trentacinque anni da quando lo acquistai a Torino in un negozio storico di forniture scientifiche, ormai non più esistente.

643px-Flame_test

I reattivi di uso meno comune o di più difficile conservazione erano invece custoditi in armadi e venivano forniti, quando necessari, per le esercitazioni di laboratorio.

L’analisi consisteva nel riconoscere in un miscuglio di sali inorganici i componenti principali, cioè cationi (quasi totalmente dei metalli pesanti), anioni e residuo insolubile, cioè l’analisi per via umida. Prima però si effettuavano i saggi preliminari per via secca che consistevano principalmente nel riconoscere la colorazione dei componenti tramite saggio alla fiamma o perla di borace. Ma appartenevano alla categoria dei saggi preliminari anche il riscaldamento in tubicino aperto o chiuso, ed il comportamento della sostanza su carbone al cannello ferruminatorio.

Il termine semimicro si riferiva alla quantità di sostanza analizzata che era di circa 0,3 grammi. La prima operazione che si imparava ad eseguire era la perfetta pulizia del filo di platino che non doveva colorare la fiamma. Per la pulizia si poteva utilizzare il borace che veniva fatto fondere sul filo, o la pulizia con acido cloridrico. Con lo stesso acido cloridrico si bagnava la punta del filo pulito e si faceva aderire il sale per verificare la colorazione alla fiamma. I sali trasformati in cloruri assumevano colorazioni caratteristiche che permettevano per lo più di riconoscerli. Ma si doveva allenare l’occhio. Basti pensare che le differenze tra il rosso carminio del litio e quello scarlatto dello stronzio non erano evidentissime. Molto più caratteristici il colore rosso arancio del calcio e il giallo intenso del sodio. Molto bello il verde smeraldo del rame e molto persistente quello del bario. Le colorazioni dei sali allo stato puro erano nette. Nel miscuglio le cose si complicavano per formazione di colori reciproci o mascheramenti. Si potevano sfruttare le diverse persistenze della fiamma (come nel caso della presenza contemporanea di litio e bario) , oppure osservando la fiamma tramite vetrini colorati. Per esempio se presenti sodio e potassio, il primo si osservava ad occhio nudo, il secondo tramite vetrino di cobalto.

img14

Museo Didattico Ettore Molinari

saggio

I saggi in tubicino erano interessanti quando mostravano il fenomeno della carbonizzazione di sostanze organiche, o i vapori rossastri di ipoazotide riscaldando nitriti e nitrati.

La ricerca sistematica dei cationi per via umida era la fase successiva. I cationi erano ripartiti in sei gruppi analitici. Per ogni gruppo analitico venivano studiate le reazioni principali. Poi iniziava l’analisi sistematica che prevedeva l’attacco solfonitrico. Il miscuglio di sali veniva solubilizzato con acido solforico ed acido nitrico concentrati, si riscaldava in crogiolo di porcellana sotto cappa fino a quando si sviluppavano fumi bianchi di anidride solforica. Si raffreddava e successivamente si aggiungeva una seconda aliquota di acido nitrico, si riscaldava ancora prima blandamente e poi fortemente per l’ultima volta. Alla fine del trattamento sul fondo del crogiolo rimaneva una morchia costituita dalla sostanza e dall’acido solforico residuo. Una volta raffreddata la morchia, veniva ripresa con acido solforico 2 N e rimossa dal fondo del crogiolo. La sospensione veniva pipettata, posta in una provetta da centrifuga e poi in bagnomaria. La sospensione separava così le due fasi. Il liquido surnatante veniva pipettato per sciacquare il crogiolo, rimesso nella provetta da centrifuga dove veniva agitato e, dopo raffreddamento centrifugato. Al termine di tutte queste operazioni si otteneva un residuo insolubile ed il precipitato del primo gruppo. La soluzione surnatante conteneva i cationi dei gruppi successivi che venivano poi separati e determinati successivamente.

img9

Museo Didattico Ettore Molinari

Il precipitato del primo gruppo veniva lavato con acqua calda e si potevano così effettuare la ricerca del piombo che si effettuava sulla soluzione ottenuta dal lavaggio. Il Piombo poteva essere fatto precipitare con aggiunta di acido solforico diluito ottenendo il precipitato bianco di PbSO4, oppure con dicromato di potassio e in questo caso si otteneva il precipitato giallo di PbCrO4.

Il residuo rimanente veniva trattato ancora con acqua calda fino a quando non dava le reazioni tipiche del piombo, poi con una soluzione di ammoniaca diluita. Il cloruro d’argento passava in soluzione e veniva riconosciuto riprecipitandolo con una soluzione di acido nitrico. Il precipitato di colore bianco anneriva poi alla luce.

E così via, per i sei gruppi analitici dei cationi, i cinque degli anioni. Solubilizzazioni, precipitazioni, lavaggio dei precipitati, filtrazioni. Indubbiamente una procedura certosina e laboriosa. Ma che dava a mio parere una preparazione di base importante.

Oggi il lavoro in laboratorio di analisi consiste principalmente nell’utilizzo di metodi strumentali.

L’analisi chimica strumentale persegue gli stessi obiettivi ma utilizza delle tecniche strumentali, cioè degli apparecchi opportunamente progettati che, sfruttando fenomeni ottici, elettrochimici e cromatografici consentono di realizzare in modo di solito rapido e riproducibile moltissimi tipi di analisi sia qualitativa che quantitativa.

Tuttavia l’uso corretto uno strumento (di solito la parte finale dell’analisi!) richiede tutte quelle conoscenze di base relative alla chimica analitica classica (pesata, stechiometria, diluizioni, titolazione, preparazione e standardizzazione di una soluzione, ecc.). Infatti nella maggior parte dei casi le difficoltà che insorgono in una analisi non sono di natura strumentale ma nascono dalle operazioni più opportune necessarie per mettere il campione nelle condizioni adatte per la misura strumentale.

E’ per questa ragione che ho voluto scrivere questi ricordi dell’analisi semimicroqualitativa, perché non ero a conoscenza del fatto che non viene più insegnata negli istituti tecnici ad indirizzo chimico. E quando ho scoperto questa cosa ho provato un senso di delusione che fatico a spiegare. Non si tratta di rifugiarmi nel passato. La sensazione che provo è quella che agli studenti di oggi venga negata una preparazione che ritengo necessaria ed indispensabile. E che alla fine si istruiscano degli operatori di laboratorio, più che dei chimici. E rivolgo un invito agli studenti di chimica, o agli appassionati.

qualitativaProvate a reperire qualche testo magari ormai fuori catalogo, magari reperibile sulle bancarelle di libri usati che parli di questa tecnica di analisi. Se avrete tempo e pazienza di leggervelo ritroverete il senso autentico del lavoro di laboratorio. La preparazione di base del laboratorio di un tempo è a mio parere un valore aggiunto per il chimico analista di oggi, che può disporre giustamente di sofisticate tecniche analitiche.

tumblr_mixo8vFmUk1r9tdybo1_1280

19 luglio 1985: fluorite mortale.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Ovviamente il titolo è provocatorio, la fluorite è innocente e vedremo chi è il colpevole; mi riferisco all’episodio della val di Stava, nel Trentino dove vivo ormai da oltre 25 anni.

stava1

Alle ore 12 22’ 55’’ del 19 luglio 1985 cedette l’arginatura del bacino superiore che crollò sul bacino inferiore che a sua volta crollò.

La massa fangosa composta da sabbia, limi e acqua scese a valle ad una velocità di quasi 90 chilometri orari e spazzò via persone, alberi, abitazioni e tutto quanto incontrò fino a raggiungere la confluenza con il torrente Avisio.

Lungo il suo percorso la colata di fango provocò la morte di 268 persone e il ferimento di altre 20, la distruzione completa di 3 alberghi, di 53 case d’abitazione e di 6 capannoni; 8 ponti furono demoliti e 9 edifici gravemente danneggiati. Uno strato di fango tra 20 e 40 centimetri ricopriva un’area di 435 mila metri quadri circa per una lunghezza di 4,2 chilometri. Dalle discariche fuoriuscirono circa 180 mila metri cubi di materiale ai quali si aggiunsero altri 40-50 mila metri cubi provenienti da processi erosivi, dalla distruzione degli edifici e dallo sradicamento di centinaia di alberi. La catastrofe della Val di Stava è uno fra i più gravi disastri avvenuti al mondo per il crollo di bacini di decantazione a servizio di miniere.

(Stava | Tesero: la ricostruzione e la memoria (1985-2010) – Capitolo “L’attività mineraria in Val di Stava” curato da Graziano Lucchi)

stava2

Come può essere accaduta una cosa del genere nella moderna Italia di appena trent’anni fa?

Non voglio rivangare casi noti in Italia: il Vajont (9 ottobre 1963, 1910 morti), Molare (13 agosto 1935, 100 morti), Gleno (1 dicembre 1923 350 morti), non solo perché parliamo di molti più anni fa, ma anche perché stiamo parlando di dighe idroelettriche; mi basterà ricordare che DOPO Stava si sono verificati nel mondo 45 incidenti legati al crollo di dighe costruite per attività mineraria.

Come i nani della Terra di mezzo di Tolkien, gli uomini (e per loro alcune grandi aziende ed i loro dirigenti e tecnici) estraggono le enormi ricchezze della Terra, ma pagano un prezzo sempre maggiore e l’avidità verso quelle ricchezze ha un costo crescente.

In una bellissima presentazione (da cui sono tratte alcune immagini http://www.culturaevita.unimore.it/site/home/corsi-2012-2013/documento21024267.html) il collega Francesco Ronchetti di UniMoRE ricorda alcuni dei più famosi incidenti recenti:

– Sgorigrad e Vratsa, Bulgaria , (1 maggio 1966, 488 morti) Zn, Pb, U

– Aberfan (Galles, Inghilterra), (21 ottobre 1966, 144 morti, di cui 116 bambini) carbone

– Buffalo Creek (USA), (26 febbraio 1972) 125 morti, carbone

– Taoshi, (Cina) (8 settembre 2008), 300 morti, carbone

Il monte Toc era conosciuto per la sua instabilità, toc vuol dire marcio nel dialetto della zona; esattamente come taoshi in cinese vuol dire tarlato.

Capite? Le persone che abitavano nei luoghi devastati da una improvvida azione umana sapevano che la terra si sarebbe ribellata.

Ma vediamo meglio cosa c’entra la chimica, perché un poco c’entra anche la chimica, intesa come il settore di attività di chi operava a Stava e Prestavel, come di chimica industriale furono le operazioni mal condotte che portarono al disastro.

Il giacimento di Prestavel si trova al confine sud del blocco dolomitico, quindi della zona di calda laguna preistorica che le ha viste crescere, a pochi chilometri da Cavalese e dal passo di Lavazè, sulle montagne della sinistra Adige; se si guarda questa zona dalle montagne che corrono lungo la destra Adige, per esempio dalla terrazza naturale che si trova sopra il lago di Caldaro, si nota subito il magnifico contrasto fra il Corno Bianco, più a Nord, e il Corno Nero, più a Sud che si guardano a traverso del passo di Oclini; la miniera di Prestavel si trova proprio nella zona alle spalle del Corno Nero (il Palone nella mappa). Stava è una frazione del comune di Tesero.

stava3

La composizione così eterogenea delle vicine montagne è dovuta alla cosiddetta “linea di Trodena”, una faglia nella crosta terrestre, lungo la quale il Corno Nero (Cima Palone) si è innalzato mille metri più del Corno Bianco. Gli strati depositati sopra il porfido, sono stati lentamente erosi, perciò oggi esso raggiunge la stessa altezza della dolomia del Serla, che è molto più recente.

In quella zona centinaia di milioni di anni fa, si sono depositate centinaia di metri di strati mineralizzati e poi metamorfosati e spostati a volte di moltissimi chilometri dalla spinta della zolla africana che ha curvato e accumulato quei depositi ricchi di carbonati, silicati e come nel nostro caso fluoriti.

stava4 Dolomiti_corretta

La freccia rossa col cerchio indica nella mappa a scala maggiore la zona del disastro meglio rappresentata dal cerchio rosso nella mappa precedente.

La fluorite, come matrice di giacimenti metalliferi, è associata a minerali di Pb, Ag, Zn in rocce ricche di silice. Il deposito di Prestavel, fra i 1500 e i 1900 metri, contiene un minerale di fluorite, CaF2, molto concentrato, ma non è stato questo il primo minerale estratto in zona; fu invece l’argento, già nel 1528; per la fluorite si dovette aspettare il 1935 e poi il 1941, quando subentrò la Montecatini, uno dei nomi prestigiosi della Chimica italiana. Il nome della fluorite, che è poi diventato quello dell’elemento viene probabilmente proprio dal suo uso come fondente (dal latino fluere).

290px-9104_-_Milano_-_Museo_storia_naturale_-_Fluorite_-_Foto_Giovanni_Dall'Orto_22-Apr-2007

290px-9104_-_Milano_-_Museo_storia_naturale_-_Fluorite_-_Foto_Giovanni_Dall’Orto_22-Apr-2007

Fino agli anni 50 il minerale veniva estratto nella valle del rio Gambis, gravimetricamente in ragione di 30 ton al giorno; questo metodo, che necessita di poca acqua, permetteva di produrre un minerale finale ricco al 60%, usato essenzialmente come fluidificante delle scorie fuse nell’industria siderurgica.

Per separazione o arricchimento gravimetrico dei minerali, si intende quel processo di separazione di materiali solidi basata sui loro diversi pesi specifici; il processo viene generalmente effettuato riducendo granulometricamente i solidi da separare alle dimensioni utili per consentire una sufficiente liberazione delle singole particelle, sotto forma di sospensioni liquide o mediante immersione delle particelle solide in liquidi densi o in ‘mezzi densi’ costituiti da acqua e da materiali fini ad alto peso specifico (magnetite, ferro silicio, galena, ecc.) in proporzioni controllate in funzione della densità di separazione richiesta. E’ un metodo in genere a bassa efficienza e che usa poca acqua.

Dopo quella data, mentre il mercato del fluoro cambiava natura, la Montecatini decise di modificare la strategia estrattiva per ottenere un minerale molto più ricco (fino ad oltre il 95%); il fluoro stava diventando un materiale strategico e i suoi usi aumentavano di conseguenza; circa la metà della fluorite estratta viene utilizzata nella produzione di acido fluoridrico e come conservante, fissativo e propellente nelle confezioni spray. L’altra metà viene utilizzata direttamente come fondente nell’industria siderurgica; una restante piccola percentuale è utilizzata nel campo della ceramica e della porcellana, del vetro, del cemento, come smalto e come componente di strumenti ottici di precisione.

Per fare questo introdusse il metodo per flottazione.

La flottazione come la separazione gravimetrica è una operazione unitaria della chimica industriale; è un metodo che separa i materiali rispetto alla loro capacità di galleggiare.

stava6

Dalla Enciclopedia Treccani

Essa consiste nell’insufflare un gas (in genere aria) all’interno di una vasca agitata (detta “cella di flottazione”) dove è presente un liquido (in genere acqua) e uno o più componenti solidi in sospensione.

In tal modo i componenti che hanno maggiore affinità con il gas (aerofili) sono trascinati verso il pelo libero della vasca dalle bolle di gas (dando formazione ad una schiuma avente densità minore rispetto al liquido), mentre i componenti che hanno maggiore affinità con il liquido (idrofili) precipitano sul fondo (dando formazione ad una miscela detta “torbida”, avente densità maggiore rispetto al liquido).

Durante la flottazione è inoltre possibile aggiungere una particolare sostanza chimica, detta “agente flottante” (o “flocculante”), che si combina selettivamente con alcuni componenti solidi o liquidi per dare origine alla schiuma.

Questo metodo, mentre aumenta di gran lunga l’efficienza di separazione incrementando la purezza del prodotto, richiede enormi quantità di acqua ed anche una fase successiva di deposito della “torbida”, che si effettua in grandi vasche di decantazione. L’argine della discarica viene innalzato con la sabbia, separata dal fango residuato della lavorazione mediante centrifugazione in un apparecchio detto «ciclone». I limi più fini vengono depositati nel bacino di decantazione

Le nuove realizzazioni obbligarono a spostare la base di estrazione dalla valle del rio Gambis alla Val di Stava e al disboscamento di notevoli superfici necessarie alle nuove costruzioni.

Il primo bacino di decantazione a servizio dell’impianto di flottazione della miniera di Prestavèl fu costruito nel 1961 in località Pozzole, sul versante del monte Prestavèl che sovrasta la Val di Stava, su un terreno acquitrinoso con pendenza media del 25 per cento. Il fango residuato della lavorazione veniva portato al bacino di decantazione mediante una conduttura lunga circa 400 metri. Il bacino di decantazione entrò in esercizio nel 1962.

Per costruire il primo bacino di decantazione Montecatini acquistò nei prati di Pozzole diverse particelle di terreno di proprietà privata ed una particella di proprietà comunale.

L’argine di valle del secondo bacino fu costruito su terreno di proprietà di Montedison che era subentrata a Montecatini nella concessione mineraria e nella proprietà dei terreni. I successivi ampliamenti del secondo bacino furono realizzati con occupazione di suolo pubblico di proprietà del Comune di Tesero e con l’esbosco del terreno che veniva man mano occupato con il deposito dei fanghi residuati della lavorazione.

Nel 1969 il primo bacino aveva raggiunto un’altezza di oltre 25 metri.

Il secondo bacino di decantazione fu costruito nel 1969. L’argine di base fu impostato a monte del primo bacino, senza ancoraggio e senza alcun elemento drenante. L’argine fu innalzato inizialmente con il sistema centrale: man mano che il rilevato cresceva l’argine si allargava anche verso valle e venne a poggiare sui fanghi del bacino inferiore. Successivamente l’argine fu edificato con il sistema a monte.

Le condutture di sfioro erano state poste all’interno dei bacini e fuoriuscivano attraverso gli argini. L’acqua veniva restituita al torrente Stava.

Dal 1978 al 1982 le discariche non vennero alimentate. Al momento del crollo i bacini erano alti complessivamente oltre 50 metri e contenevano circa 300 mila metri cubi di materiale. Gli argini avevano una pendenza di 39 gradi.

(Stava | Tesero: la ricostruzione e la memoria (1985-2010) – Capitolo “L’attività mineraria in Val di Stava” curato da Graziano Lucchi)

Sono interessanti una serie di osservazioni:

i depositi di decantazione crescono per deposito della parte più massiva del sospeso nella “torbida”; tale accrescimento si può avere in tre modalità, come qui mostrato; di esse la più insicura è quella a monte, che fu proprio quella scelta nella parte finale della vita dei bacini; la stabilità peggiora man mano che aumenta la sua altezza, perché, crescendo, l’argine viene a poggiare sui limi all’interno del bacino in gran parte non ancora consolidati.

stava7

Nel 1974, ossia oltre dieci anni prima del crollo, il Comune di Tesero chiese conferme sulla sicurezza della discarica al Distretto Minerario della Provincia Autonoma di Trento, responsabile per la sicurezza delle lavorazioni minerarie.

Il Distretto Minerario incaricò della verifica di stabilità la stessa società mineraria, la Fluormine appartenente all’epoca al gruppo Montedison/Egam, che la effettuò nel 1975.

Pur trascurando una serie di indagini indispensabili, la verifica permise di accertare che la pendenza dell’argine del bacino superiore era “eccezionale” e la stabilità era “al limite”. La risposta della società mineraria al Distretto Minerario e di questo al Comune fu tuttavia positiva e portò all’ulteriore ampliamento del bacino di monte. L’accrescimento dell’argine avvenne con una minore pendenza grazie alla realizzazione di un gradone o berma.

stava8

Come e chi abbia potuto scegliere di costruire una struttura così potenzialmente pericolosa a monte di una zona ampiamente abitata e mantenerla con così scarsa attenzione e grande trascuratezza è la domanda a cui rispondere.

Dopo il processo che seguì il disastro si appurò che la causa del crollo fu la cronica instabilità delle due discariche e in particolare del bacino superiore, già modificato dopo la richiesta del 1974; tale instabilità discendeva da errori di progettazione, costruzione e gestione che si susseguirono durante tutta la vita delle discariche, che non furono MAI analizzate in modo tecnicamente corretto dagli uffici preposti.

Qualche anno prima di crollare i bacini apparivano così:

stava9

 Dalle slides di Francesco Ronchetti.

I bacini erano stati costruiti su terreno inadeguato (25% di pendenza, acquitrinoso); erano stati costruiti con pendenze eccessive delle pareti di contenimento (80%, 40°), quello superiore poggiava in parte sulla base del bacino sottostante, il bacino sottostante era accresciuto nel modo meno stabile, le tubazioni erano posizionate in modo inadeguato; chi le aveva costruite non usò della “ordinaria perizia e diligenza”; in 20 anni le discariche non furono mai controllate seriamente.

Due bacini già stracolmi, che avrebbero dovuto servire solo per gli scarti di Prestavel, e invece arrivarono a raccogliere scarti dalle cave di Bergamo, di Corvara, di Sarentino, tutti stipati assieme.

stava10

L’argine dunque è collassato perché la troppa acqua ha provocato la perdita di ogni resistenza nei terreni, sia pur in presenza soltanto di sollecitazioni statiche. Si è verificata la liquefazione per filtrazione causa la saturazione progressiva degli argini a seguito della risalita di acqua dai depositi fluvioglaciali sottostanti: il terreno praticamente si è fluidificato, comportandosi come una massa viscosa. La forza di gravità ha fatto il resto, costringendo l’ammasso fangoso a scivolare verso valle.

Come un castello di sabbia quando ci mettete troppa acqua, le forze di tensione superficiale hanno ceduto e il fango è andato giù: 180.000 metri cubi, un cubo di quasi 60 metri di lato.

Slide1

Per la tragedia di Stava ben 12 furono le condanne penali, ma tra benefici di legge, condoni ed annullamenti per nessuno si aprirono veramente le porte del carcere”. Lo afferma Daria Dovera, perito di parte civile.

Con il processo del 2004 i danni sono stati liquidati nel modo seguente:

133 milioni di euro a favore dei 743 danneggiati (268 morti quindi se volete circa mezzo milione di euro a defunto); di questi i due terzi (79) sono stati pagati dalle strutture pubbliche (PAT e Stato) e solo i rimanenti 54 dai privati coinvolti (Edison, ENI e Finimeg, Prealpi Mineraria è fallita e non ha pagato); inoltre i tre privati hanno pagato anche alla PAT 42 milioni per soccorsi, ripristino e ricostruzione; in definitiva il disastro è costato almeno 175 milioni di euro, di cui i privati (privati per modo di dire dato che Montedison ed ENI hanno o hanno avuto consistenti partecipazioni pubbliche) hanno sborsato 96 milioni.

Ma cosa ha portato a questa serie di errori e di omissioni?

Il Trentino di oggi appare una terra benedetta, attrattiva ed efficiente, blindata da una autonomia perfino troppo favorevole; ma cosa è stato il Trentino per secoli?

Terra di confine e di emigrazione, terra di montagna dura e matrigna, zona di confine con scontri e guerre; terra di vita difficile e grama.

Nel giugno 86 una commissione nominata dal Consiglio dei Ministri scriveva:

Un errore di localizzazione così macroscopico può trovare giustificazione soltanto nella scarsa considerazione generale che all’epoca il mondo della produzione e quello preposto alla gestione del territorio mostravano verso i problemi della salvaguardia dell’ambiente e della sicurezza civile”.

stava11

E’ un autogol perchè una scelta simile non ha giustificazione;

certo ha delle cause.

Al momento della localizzazione, negli anni 50 e 60 l’attenzione era concentrata sullo “sviluppo industriale del paese”, sulla crescita dell’apparato produttivo; l’ambiente e la sicurezza non avevano voce in capitolo; anche nel Trentino di allora, che come molte regioni italiane soffriva storicamente di sottosviluppo, era terra di emigrazione, il Trentino che non aveva nemmeno una Università, che sarà fondata poi solo nel 1962, aveva un trascorso industriale in via di dismissione dove prevalevano iniziative “distruttive” del territorio come la SLOI e la Carbochimica (http://wp.me/p2TDDv-aQ) che hanno lasciato una sequenza di morte e distruzione di persone e territorio.

Non diversamente dalla Calabria di Belvedere di Spinello (http://wp.me/p2TDDv-gw) era una terra dove la grande industria la faceva da padrona delle risorse naturali ed umane e qualunque iniziativa produttiva era benvenuta. Le istituzioni pubbliche, esprimendo il comune sentire dei cittadini che le avevano elette, erano succubi di quella politica e vendettero con piacere sottocosto un pezzo di territorio pregiato per fare le vasche di decantazione, senza curarsi delle conseguenze potenziali di vasche costruite oltre cento metri di dislivello a monte di centri abitati.

Recita la decisione finale del tribunale: Se a suo tempo fosse stata spesa una somma di denaro e una fatica pari anche soltanto a un decimo di quanto si è profuso negli accertamenti peritali successivi al fatto, probabilmente il crollo di quasi 170 mila metri cubi di fanghi semifluidi non si sarebbe mai avverato

I morti di Stava da un abisso di trent’anni ci urlano: state attenti!

Noi, gli “scienziati” abbiamo il dovere di raccogliere quel grido ed applicare la giusta attenzione alle innumerevoli Stava che ancora ci sono; e ce ne sono; a partire dai problemi che vengono dal riscaldamento globale e della sempre più affannosa ricerca di risorse minerali (gas, petrolio in primis); la crescita infinita non è possibile e dobbiamo avere come prospettiva la stabilità NON la crescita quantitativa, lo sviluppo sociale e dell’uguaglianza, non l’accumulazione della ricchezza individuale.

« […] i nani non sono eroi, bensì una razza calcolatrice con un gran concetto del valore del denaro; alcuni sono una massa infida, scaltra, e pessima da cui tenersi alla larga; altri non lo sono, anzi sono tipi abbastanza per bene come Thorin e compagnia, sempre però che non vi aspettiate troppo da loro. » (Lo Hobbit, cap.1, JRR Tolkien)

documentazione:

Stava | Tesero: la ricostruzione e la memoria (1985-2010) – Capitolo “L’attività mineraria in Val di Stava” curato da Graziano Lucchi

http://sottosopra.g2k.it/clientfiles/Associazione_113/files/Stava/Miniere/Industria%20mineraria%20nel%20TAA%20_%20Miniera%20di%20Prestavel.pdf

https://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&ved=0CCgQFjABahUKEwiRtbGD9ufGAhVL3SwKHSs1Dgc&url=http%3A%2F%2Fwww.culturaevita.unimore.it%2Fsite%2Fhome%2Fcorsi-2012-2013%2Fdocumento21024267.html&ei=ivmrVZHICcu6swGr6rg4&usg=AFQjCNFlga1otTAKMyBr97CcQobgc8wdog&bvm=bv.98197061,d.bGg

Quel pasticciaccio dell’arsenico nell’energy drink.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Sta avendo un certo risalto la notizia pubblicata dal “Fatto quotidiano” ma anche da altre testate giornalistiche sia on line che cartacee, che riferiscono che in una bevanda “energizzante” sia stato rinvenuto arsenico inorganico contenuto nell’additivo E 331 (trisodio citrato) proveniente dalla Cina

La notizia merita un commento sul blog per diversi motivi.

Lata_de_Monster_Energy

Il primo motivo è il notevole ritardo con cui si è scoperta la contaminazione. Leggendo in rete sembra che sia il Belgio il primo paese che effettuando controlli abbia scoperto la contaminazione un anno fa, l’11 Luglio 2014. L’additivo era entrato nel mercato europeo attraverso l’Olanda

Dopo questa segnalazione passano 6 mesi e solo il 27 febbraio 2015  scatta l’allerta in tutto il mondo.  In Italia la prima segnalazione risale al 3 marzo 2015,  e poi ci sono stati 5 aggiornamenti di notifica.

Cercando in rete risulterebbe che l’additivo avesse una contaminazione di 5,5 mg/Kg di arsenico inorganico rispetto ad un limite massimo di 3 mg/kg. (Il limite per l’Arsenico negli additivi alimentari è normato dal regolamento UE 231/2012 che stabilisce le specifiche degli additivi alimentari.) Non è chiaro chi sia stato ad effettuare le determinazioni.

Il ministro della salute Lorenzin dichiara che secondo le autorità Olandesi “la possibilità di un rischio per alcune categorie di consumatori non può essere esclusa

Nello stesso tempo però lo stesso ministero cerca di rassicurare dicendo che l’additivo subisce una diluizione nella bevanda, e che in ogni caso occorre tenere conto delle quantità bevute giornalmente.

L’azienda produttrice della bevanda sollecitata dal “Fatto quotidiano” risponde con una breve nota che le bevande appartenenti ai lotti che sono stati ritirati dal mercato erano sicuri per il consumo.

Sembra di capire che i controlli di qualità in Cina siano stati carenti. E mentre in Italia sono previsti controlli sanitari a campione negli uffici di sanità di porti ed aeroporti, questi non sono previsti negli altri paesi dell’Unione Europea. E se pensiamo per esempio alle quantità di merci che entrano in Europa attraverso il porto di Rotterdam la cosa è ancor meno comprensibile. E singolare anche che l’Unione Europea abbia stabilito limiti per l’arsenico negli additivi alimentari, nelle acque destinate al consumo umano stabilendo il valore limite di 10 microgrammi/litro recepito in Italia con il D.Lgs 31 del 2 Febbraio 2011,mentre il regolamento CE 18881 del 2006 non contempla l’Arsenico tra le specie chimiche normate.

E’ auspicabile che la commissione europea introduca limiti per l’Arsenico inorganico per quegli alimenti che ne contengono di più. L’Efsa (Autorità Europea per la sicurezza alimentare) ha pubblicato nel 2014 uno studio (Dietary exposure to inorganic arsenic in the European population) .  Dopo i cereali e suoi derivati, sono stati individuati dall’EFSA, in ordine decrescente, i prodotti alimentari per usi dietetici speciali (alcune alghe sono ricchissime in arsenico inorganico), l’acqua in bottiglia, il caffè e la birra, il pesce e le verdure.

I limiti non sono ancora stati inseriti anche per le difficoltà analitiche connesse alla speciazione dell’Arsenico. Una sfida ulteriore per la chimica analitica.

L’arsenico è stato classificato dalla IARC (Agenzia Internazionale per la ricerca sul Cancro) come elemento cancerogeno certo per l’uomo. Il comitato di esperti di Fao ed OMS ha proposto una dose di riferimento per l’assunzione di Arsenico fissando un valore pari a 3 microgrammi/kg per chilo di peso corporeo che può provocare un rischio supplementare rispetto al rischio standard dello 0,5% in più di contrarre tumore al polmone.

L’Efsa ha evidenziato un rischio supplementare per i bambini rispetto agli adulti perché rispetto al loro peso corporeo consumano una quantità maggiore di cibo.

Ultima considerazione: si parla della quantità di arsenico rinvenuta nell’additivo E 331 prodotto in Cina. La quantità di 5,5 mg/kg. Dagli articoli non si evince niente altro. Non è chiaro né come né in che modo questa quantità così elevata sia finita nel prodotto. Si possono fare solo supposizioni che possono far pensare a procedure di lavorazione con scarsi controlli o pulizia, fino a suppore che in Cina la contaminazione ambientale sia arrivata a livelli impensabili per la stessa sopravvivenza degli abitanti.

Non ho reperito notizie più approfondite in rete o sui giornali. Ma tutta questa vicenda in primo luogo mi riporta alla mente altri tempi ed altri problemi (penso per esempio alla vicenda scoperta della cancerogenicità del colorante E 123 negli anni 70),e non può non farmi pensare alle dimensioni ormai fuori controllo delle criticità ambientali e degli inquinanti che abbiamo disperso ubiquamente nell’ambiente.

Sfide importanti per i chimici, ma in generale per ogni essere umano. Ed è necessario un lavoro continuo e capillare di informazione. Oltre ad una profonda riflessione sul nostro rapporto con questo pianeta e al suo sovrasfruttamento. I pozzi che devono assorbire i nostri scarti sembrano ormai saturi. E il nostro convivere con quantità sempre maggiori di inquinanti sembra essere un esperimento mal condotto. Un tentativo maldestro di mitridatizzazione planetaria.

 si veda anche: http://www.frodialimentari.it/index.php?option=com_content&view=article&id=9360:arsenico-nellenergy-drink-monster&catid=1333:consumatori&Itemid=45

Accumulo di cancerogeni in organi bersaglio (2)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex Presidente SCI

la prima parte di questo post è pubblicata qui.

Metalli in organi bersaglio neoplastici

Nel ventennio 1985-2005 presso il Dipartimento di Urologia “U. Bracci” dell’Università degli Studi “LA Sapienza” di Roma, il numero di ricoveri per neoplasie dell’apparato urinario ed in particolare per tumori renali, è andato progressivamente aumentando. Per confermare questo fenomeno è stata condotta una rilevazione della morbilità ospedaliera e della moralità per tumori urologici nel periodo 1955-1994 sulla scorta dei dati elaborati dall’Istituto Nazionale di Statistica (ISTAT) riguardanti tutta l popolazione italiana.

E’ stato così evidenziato un impressionante aumento del numero annuo di ricoveri e decessi per neoplasie dell’apparato urinario tra le quali i tumori del rene hanno mostrato l’incremento percentuale più alto.

In tale periodo l’uso esteso ed indiscriminato di pesticidi, diserbanti, concimi, conservanti, solventi, etc., ha immesso nell’ambiente enormi quantità di sostanze chimiche che possono essere assorbite dall’organismo umano o direttamente od attraverso la catena alimentare: suolo, piante, animali, uomo. La concomitanza temporale tra l’aumento delle neoplasie renali ed il massiccio inquinamento ambientale ha indotto il sospetto di un rapporto tra i due fenomeni come da tempo riportato in letteratura per le neoplasie in genere.

Infatti è ormai ampiamente accettato che :

1) le neoplasie sono affezioni di natura genetica sostenute da mutazioni verificatesi nel genoma per errori nei processi di replicazione e riparazione conseguenti a modificazioni delle attività degli enzimi ad essi preposte;

2) i fattori ambientali sono ritenuti responsabili per almeno l’80% della incidenza delle neoplasie, essendo in grado di provocare una serie di alterazioni genetiche, cause principali dell’insorgenza e della progressione del processo neoplastico;

3) tra le cause di inquinamento ambientale, un ruolo importante è attribuito ai metalli “inquinanti” Cd, Pb, Va, Hg etc., sia per la loro progressiva diffusione nell’ambiente, sia per l’azione competitiva “forte” che alcuni di essi esercitano nei confronti di metalli essenziali, in particolare il Cd (inserito da alcuni anno nella 1° classe di sostanze cancerogene indiziato nelle genesi dei tumori renali) e il Pb con lo Zn che costituisce una componente indispensabile nell’attività dei numerosi enzimi coinvolti nei processi di replicazione quali DNA e RNA polimerasi, RNA sintetasi, superossidodismutasi, etc..

metalli2

4) il rene è tipico organo bersaglio dei molti inquinanti ambientali in particolare del Cd; infatti contiene 1/3 in peso del Cd totale corporeo e presenta la concentrazione più alta rispetto agli altri organi e tessuti con una emivita di 20-30 anni

E’ sembrato pertanto interessante valutare le concentrazioni del Cd e del Pb nei reni asportati per tumore, sia nel tessuto neoplastico sia nel tessuto sano e raffrontarle con quelle di tessuto renale prelevato da soggetti deceduti per malattie non neoplastiche e con quelle di feti e neonati non sottoposti ad inquinamento ambientale. Negli stessi soggetti sono state determinate le concentrazioni di Zn e Cu.

Analisi statistica

  1. Le osservazioni

Le informazioni, oggetto della presente ricerca, sono state rilevate su un collettivo di 110 individui che sono stati oggetto di studio nel nostro reparto.

Per ciascun individuo è stato prelevato uno o più campioni di tessuto renale. Tali campioni, prelevati e trattati con tecniche descritte in altri paragrafi, sono stati saggiati con riferimento ai seguenti cinque metalli : cadmio, manganese, piombo, rame e zinco.

Il collettivo è stato suddiviso in quattro gruppi : feti, neonati, cadaveri, pazienti neoplastici. Per quest’ultimo gruppo sono stati prelevati due campioni di tessuto renale, uno sano ed uno tumorale.

Le osservazioni sono da considerarsi omogenee, sia dal punto di vista clinico che da quello strumentale analitico.

Uno degli obiettivi dell’indagine in oggetto è quello di verificare se e quanto il fattore esposizione all’inquinamento ambientale incida sui livelli di accumulazione dei metalli in organi bersaglio, in questo caso il rene.

  1. Le distribuzioni e le costanti statistiche

In termini descrittivi i quattro gruppi hanno le seguenti caratteristiche : a) feti (31 unità con età mediana di gestazione di 20 settimane); b) neonati (12 unità con età di 12 mesi); c) cadaveri (37 unità, di cui 18 maschi e 19 femmine, con età mediana di 68 anni); d) pazienti affetti da tumore (30 unità, di cui 20 maschi e 10 femmine, con età mediana di 61 anni). Si ricorda per inciso che la mediana divide in due la serie dei dati e non risente della presenza dei valori anomali (outliers). I fattori sesso ed età non sono stati considerati in quanto avrebbero dato luogo a stratificazioni con numerosità irrilevante.

Tutto il materiale sperimentale è stato sintetizzato sia predisponendo tabelle che riportano la distribuzione dei dosaggi dei 4 metalli sia allestendo i relativi grafici ed elaborando alcune costanti statistiche.

L’esame congiunto grafici-tabelle-costanti statistiche consente di effettuare le seguenti osservazioni.

In primo luogo si rileva che le distribuzioni sono fortemente asimmetriche, talvolta bimodali, ciò implica che il modello normale non può essere preso in considerazione. Per questo motivo la media e la deviazione standard sono state più vantaggiosamente sostituite con la mediana ed il campo di variazione. Alla stessa conclusione si perviene constatando che le “medie” e la “variabilità” sono fortemente correlate.

I dosaggi dei metalli mettono in luce interessanti tendenze di fondo. I dosaggi relativi ai neonati presentano valori sempre più bassi salvo che per il rame. Similmente per i feti con esclusione dello zinco e del manganese. Il gruppo dei cadaveri mostra valori tendenzialmente alti fatta eccezione per il rame. Per quanto riguarda i pazienti affetti da carcinoma, i dosaggi eseguiti sul tessuto sano forniscono i valori più elevati, in particolare per il cadmio (circa 10 volte più grande) e lo zinco (circa il doppio), manganese escluso. Per questi stessi pazienti i dosaggi eseguiti sul tessuto tumorale presentano valori, rispetto agli altri gruppi, assai mutevoli. Infine si rileva che nel gruppo dei cadaveri, le distribuzioni sono bimodali, del tipo ad U, per ben tre metalli (cadmio, piombo e zinco).

Bibliografia

J.H.. Kagi, B.L. Vallee, J. Biol. Chem, 235, 3460, 1980.

H.A. Schroeder, I.H. Tipton, Arch. Environ. Health, 17, 965, 1968.

  1. Van Urk, J.M. Marquenie, “Environmental Behavior of Cadmium : Who are at Risk and Why”, Heavy Metals in the Environmen, Volume II, Geneva, 456-459, 1989.
  2. Watanabe, O. Iwani, S. Shimbo, M. Ikea, Inr. Arch. Occup. Environ, Health, 65, S205, 1993.
  3. Ala-Opas, R. Tahvonen, J. Trace Elements Med. Riol., 9, 176, 1995.
  • TAKAGI Y, SUGITA K, MUTO M, KATO Y, KOHZAKI K, ENDO O, GOTO S. measurement of polynuclear aromatic hydrocarboms in canine lung after alkaline decomposition. J Vet Med Sci 2004; 66: 793-796.
  • – TAKEMOTO K, KAWAI H, KAWAHARA T, NISHINA M, ADACHI S. Metal concentrations in human lung tissue, with special reference to age, sex, cause of death, emphysema and contamination of lung tissue. Int Arch Occup Environ Health 1991; 62: 579-586.
  1. Degraeve, Mutation Research, 86, 115. 1981.

– TAPIO S, GROSCHE B. Arsenic in the aetiology of cancer. Mutat Res 2006;612:215-246M.D. Kipling, J.A.H. Waterhouse, Lancet, 730, 1967, Ist april.

IARC, Lead and lead compunds in IARC Monographs on the evaluaion of the carcinogenic risk of chemicals to humans, 23, 325-41, 1980.

  1. Friberg, M. Piscator, G.F. Nordberg, T. Kjellstom, Cadmium in the Environment, 2nd edition, CRC Press, Cleveland, Ohio, 1974.

S.J. Kopp, T. Glonek, J.R. Perry, Science, 217, 837, 1982.

B.F. Saltzman, B.G. Stanley, D.W. Yeager, B.G. Meiners and P.S. Gartside, Envirom. Rescarch. 52, 126, 1990.

  1. Health, M.R. Daniel, Br. J. Cancer, 18, 124, 1964.
  • – VALLYATHAN V, SHI X, CASTRANOVA V. Reactive oxygen species: Their relation to pneumoconiosis and carcinogenesis. Environ Health Perspect 1998; 106: 1151–1155.
  • TAKAGI Y, SUGITA K, MUTO M, KATO Y, KOHZAKI K, ENDO O, GOTO S. measurement of polynuclear aromatic hydrocarboms in canine lung after alkaline decomposition. J Vet Med Sci 2004; 66: 793-796.
  • – TAKEMOTO K, KAWAI H, KAWAHARA T, NISHINA M, ADACHI S. Metal concentrations in human lung tissue, with special reference to age, sex, cause of death, emphysema and contamination of lung tissue. Int Arch Occup Environ Health 1991; 62: 579-586.
  1. Lockitch, Clin. Biochem, 26, 371, 1993.
  2. Lills, Am. J. Ind. Med., 2, 293, 1981.

L.N. Kolonel, Cancer, 37, 1782, 1976.

  • TAKAGI Y, SUGITA K, MUTO M, KATO Y, KOHZAKI K, ENDO O, GOTO S. measurement of polynuclear aromatic hydrocarboms in canine lung after alkaline decomposition. J Vet Med Sci 2004; 66: 793-796.

Alfred J. Lotka e l’energia solare

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati e Emanuela Greco*

Nell’Anno Internazionale della Luce desideriamo ricordare il contributo di Alfred J. Lotka (1880-1949) sui possibili sviluppi dell’utilizzo dell’energia solare.

LotkaConcordiamo anzitutto con Giorgio Nebbia nell’affermare che Lotka fu un complesso personaggio dai molteplici interessi e che la lettura del suo capolavoro, “Elements of Physical Biology” [1] riserva sempre nuove sorprese.

Nella prefazione al libro, Lotka dichiara che il suo interesse per la biologia fisica iniziò nel 1902 a Lipsia mentre stava approfondendo le sue conoscenze di termodinamica e cinetica nel laboratorio di Ostwald, dopo aver ottenuto il Bachelor of Science in chimica all’Università di Birmingham.

Friedrich Wilhelm Ostwald (1853-1932), famoso chimico, uno dei fondatori della chimica fisica, era un assertore dell’energetismo, teoria che negava realtà agli atomi e alle molecole sostenendo il primato dell’energia sulla materia[1] (la materia essendo soltanto una manifestazione dell’energia[2]), che influenzò il pensiero di Lotka senza tuttavia che egli entrasse nel merito della struttura della materia. In un lungo articolo del 1907, Lotka illustra infatti come si possano utilizzare metodi statistici per interpretare i comportamenti di aggregati, siano essi individui (popolazioni) o molecole (sostanze chimiche) [2].

Il paragrafo “The World Engine”, contenuto nel capitolo XXIV degli Elements “Energy Transformers of Nature”, è interamente dedicato all’energia solare. Ecco come inizia:

Il grande motore del mondo, di cui ciascuno di noi è una piccola insignificante ruota, riceve la sua fonte di energia dal Sole, a 98.000 milioni di miglia di distanza dal “trasformatore” [la Terra]. Dal punto di vista ingegneristico questa “macchina” [l’insieme Sole-Terra] sarebbe mal progettata se si considerasse la sola efficienza. Infatti su cinquecentomila milioni di milioni di milioni di cavalli-vapore che il Sole irradia nello spazio anno dopo anno, solo una frazione ridicolmente piccola, 1/2.200.000.000, viene intercettata dalla Terra. Ci vorrebbero più di due miliardi di Terre affiancate a formare un guscio continuo intorno al Sole alla distanza della Terra per ricevere tutto il calore solare (p. 331).

Va sottolineato che Lotka parla sempre in termini di trasformazione e trasformatori di energia al posto di produzione e produttori di energia come tutti (molti scienziati compresi) sono soliti dire[3].

Dopo aver ricordato che il 35% dell’energia che raggiunge la Terra viene riflessa e il 65% è assorbito, e che la superficie del globo perpendicolare al Sole riceve in media circa 2 calorie per centimetro quadrato per minuto, un calore sufficiente a fondere uno strato di ghiaccio spesso 424 piedi ogni anno, Lotka cita Arrhenius, che a sua volta cita Schroeder:

[secondo questi autori] circa lo 0,12 per cento di questa energia viene assorbita dalle piante verdi, il cancello di ingresso attraverso cui passa praticamente tutta l’energia che partecipa al ciclo della vita. E di quest’ultima quantità solo il 24 per cento è assorbito da piante coltivate per i bisogni umani. Le foreste ne assorbono la maggior parte, il 67 per cento, il 7 per cento viene assorbito dall’erba delle steppe, e il 2 per cento dalle piante del deserto. (p. 331-332)

In una nota a p. 331 Lotka cita la trascrizione della conferenza di Giacomo Ciamician “La fotochimica dell’avvenire” (New York, 1912), tradotta e pubblicata in inglese, francese, tedesco e italiano. La citazione si riferisce alla traduzione tedesca:

Ipotizzando una superficie di 128 milioni di chilometri quadrati abitata da piante, Ciamician calcola che si possono ottenere 32 miliardi di tonnellate annue di materia secca, equivalente a 17 volte la produzione mondiale annua di carbone. (p. 331, nota 6)

Commenta Lotka:

Se i dettagli di queste cifre lasciano la mente un po’ confusa, essi possono aiutare l’immaginazione a formarsi un adeguato quadro del ciclo vitale nella sua totalità, se si considera che il totale dell’energia così assorbita ogni anno è dell’ordine di circa 22 volte la produzione annuale di carbone del mondo. Viceversa questo dato statistico può servire a darci una stima corretta dell’immensa portata dell’interferenza umana con il corso della natura. (p. 332)

A questo punto lo sguardo viene rivolto ad altre fonti energetiche, quella eolica e quella idrica:

Il ciclo organico, la parte vivente […] anche se è quello che a noi interessa direttamente, quantitativamente parlando assorbe solo una piccola parte del tutto. Se il ciclo organico richiede un importo di energia nell’ordine di 20 volte il consumo mondiale di carbone, i venti equivalgono a circa 5000 volte tale quantità. […] Più importante di tutto, nel ciclo inorganico, è la circolazione di acqua mediante evaporazione, precipitazione, e portata dei fiumi (comprese le cascate) nuovamente verso l’oceano. […] Riguardo all’energia coinvolta, Henderson stima che la potenza di evaporazione di 100 chilometri quadrati di oceano tropicale equivalga a oltre 100.000.000 di cavalli-vapore[4]. CP Steinmetz ha calcolato che se ogni goccia di pioggia che cade negli Stati Uniti potesse essere raccolta, e tutta la potenza che potrebbe produrre nella sua discesa verso l’oceano potesse essere recuperata, questo equivarrebbe a 3-100.000.000 cavalli-vapore. G. Ciamician cita una stima di Engler della forza idrica totale del mondo come l’equivalente di settanta miliardi di tonnellate di carbone. (p. 332-333)

EoPB

Prosegue e termina Lotka:

Secondo C.G. Gilbert e J.E. Pogue l’energia idroelettrica impiegata negli Stati Uniti nel 1910 era l’equivalente di quaranta milioni di tonnellate di carbone […] Questi autori hanno inoltre stimato che la potenza ottenuta dall’acqua alla data indicata rappresentava circa il 10 per cento di quella effettivamente disponibile, e il 3 per cento del totale che potrebbe essere disponibile in presenza di adeguati metodi di stoccaggio. (p. 333)

Lotka può quindi essere legittimamente considerato un precursore dell’utilizzo delle energie rinnovabili, principalmente quella derivante dal sole. A p. 357 degli Elements, scrive chiaramente:

[…] il problema dell’economizzazione delle risorse non verrà considerato in tutta la sua importanza fino a quando queste non saranno sfruttate più di quanto lo siano oggi. Ogni indizio ci porta a pensare che l’uomo imparerà a sfruttare parte dell’energia solare che adesso viene sprecata. (p. 357)

In conclusione, il consiglio che riteniamo di poter dare a coloro che insistono, ad es., a voler raschiare il Mediterraneo per un po’ di petrolio è questo: leggete il libro di Lotka.

Nota. Le citazioni sono state liberamente tradotte dagli autori.

[1] A. J. Lotka, Elements of Physical Biology, Waverly Press, Baltimora, 1925, volume unico, pp. XXX + 460; ripubblicato nel 1956 col titolo Elements of Mathematical Biology, Dover Pubblication, New York. si può scaricare dall’Internet Archive liberamente

[2] A.J. Lotka, Studies of the Mode of Growth of Material Aggregates, Am. J. Sci., 24, 199-216 (1907)

1Nel 1909 Ostwald riconobbe la realtà di atomi e molecole in base agli esperimenti sul moto browniano di J. Perrin (Nye, M., 1972, Molecular Reality: A Perspective on the Scientific Work of Jean Perrin, London, MacDonald).

[2] Gli energetisti non erano poi così lontani dal vero se si considera la più famosa equazione di Einstein: E = mc2 (1905).

[3] Fino a prova contraria il 1° Principio della Termodinamica è ancora valido.

[4] 1 cavallo-vapore equivale a circa 745 W.

*Emanuela è Tutor didattico della Scuola di Farmacia, Biotecnologie e Scienze motorie di UniBo

Accumulo di cancerogeni in organi bersaglio (1)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella – Università La Sapienza – Roma -ex Presidente SCI

Correlazione tra ambiente e salute: determinazione e accumulo di inquinanti ambientali in organi umani bersaglio

L’impressionante aumento delle neoplasie urologiche, soprattutto renali e vescicali, negli ultimi venti anni ha fatto ipotizzare un nesso di casualità tra processo neoplastico ed inquinamento ambientale.

E’ ormai accertato il potere oncogeno di numerosi gruppi di sostanze : nitrosamine, fenoli, composti organo-clorurati, metalli pesanti che, sia pure a concentrazioni molto basse, sono componenti di pesticidi, diserbanti, concimi, conservanti, etc., e che fatalmente vengono introdotti nell’organismo umano.

Poiché a tutt’oggi si ignora se il metabolismo corporeo sia in grado di eliminare completamente tali sostanze ed i loro derivati impenendone l’accumulo nei tessuti, alcuni anni fa è stata impostata una ricerca da patrte del Dip.to diUrologia della Sapienza allo scopo di verificare l’eventuale presenza di alcune di esse e la loro concentrazione nel tessuto adiposo, muscolare e nell’organo malato sia nel contesto della neoplasia che nella parte sana.

La determinazione degli elementi nei tessuti e negli organi di sistemi biologici anche umani può rivelare anche cronologicamente sia stati patologici sia eventuali esposizioni ad ambienti contaminati Fra questi alcuni organi e tessuti fungono meglio di altri, in quanto il bio-materiale ha caratteristiche di elevata stabilità nel tempo e può essere facilmente prelevato e conservato, per cui è stato usato sia per studi epidemiologici o biomedici sia per studi ambientali (bioindicatori) rivolti al monitoraggio di contaminanti nocivi. Con questo tipo di analisi si possono avere due tipi di informazioni :

– apporto totale di certi elementi nell’organismo e quindi possibilità di utilizzare questo tipo di esame in sostituzione delle più comuni (sangue ed urine) analisi;

– accumulo di componenti inorganici in un esteso periodo di tempo con guadagni anche di un ordine di grandezza di concentrazione rispetto ai valori riscontrabili nei fluidi biologici.

L’apporto di elementi può avvenire attraverso molteplici sorgenti, sia endogene sia esogene. Infatti tali elementi possono essere trasportati di vasi sanguigni e possono accumularsi negli organismi continuamente, facendo registrare lungo l’asse degli stessi le variazioni lungo l’asse degli stessi le variazioni degli elementi circolanti nell’organismo : data la recettività a questi agenti tale apporto può arrivare allo stesso tempo da acqua o aria. bonifiche-300x270

In questo lavoro sono state esaminate le problematiche relative alla determinazione di inquinanti ambientali negli organi umani in cui si accumulano. Queste tematiche stanno imponendosi sempre più all’interesse del mondo scientifico, dal momento che si sta sempre maggiormente diffondendo la consapevolezza che la tutela dell’ambiente è in stretto rapporto con la tutela della salute delle popolazioni. Di qui la necessità di determinare con accuratezza sempre maggiore i livelli di inquinanti ambientali presenti negli organi bersaglio.

Il maggiore problema presentato da queste determinazioni risiede nel fatto che si tratta di analisi in tracce effettuate su matrici estremamente complesse, per cui la difficoltà maggiore delle analisi risiede spesso nella preparazione dei campioni.

E’ anche opportuno differenziare nettamente le determinazioni dei metalli (in particolare piombo, mercurio, cadmio, zinco e rame) da quelle delle sostanze organiche (pesticidi e policlorobifenili), sia perché la procedura di preparazione dei campioni è molto diversa nei due casi, sia perché le tecniche di analisi vere e proprie sono basate su principi totalmente diversi. Nel caso della determinazione dei metalli si ricorre in preferenza all’assorbimento atomico e alla spetttrometria di massa, ed i campioni vengono preparati mineralizzando le matrici con miscele di acidi forti che hanno lo scopo di eliminare le tracce organiche. In taluni casi questa procedura non è sufficiente ed è necessario introdurre degli stadi di estrazione o concentrazione per aumentare la quantità di analita da determinare. E’ il caso del piombo che può essere estratto mediante complessazione con alcuni carbammati, oppure con il O,O-dietilestere dell’acido tiofosforico.

La mineralizzazione della matrice è efficace nel caso della determinazione dei metalli nei tessuti molli, meno efficace nel caso in cui la determinazione debba essere effettuata nell’osso. Infatti in questo caso la base di fosfato di calcio che costituisce l’osso stesso non viene distrutta e può interferire nella determinazione successiva.

Nella determinazione tramite assorbimento atomico ciascun metallo viene determinato ad una specifica lunghezza d’onda ed il limite di rivelabilità, che varia leggermente da metallo a metallo è dell’ordine di 10-2 mg/ml.

Un limite di rivelabilità inferiore può essere raggiunto tramite la spettrometria di massa (intorno ai 10-6 mg/ml. Che però presenta problemi di altro tipo, primo tra tutti l’elevato costo degli strumenti che non sono reperibili presso tutti i laboratori di analisi, in secondo luogo la necessità di inviare quantità estremamente piccole di campione nello strumento, il che rende difficoltoso l’interfacciamento con le linee automatiche che sempre più vengono impiegate per la preparazione dei campioni e che hanno lo scopo di ridurre al minimo il contatto con lo sperimentatore e quindi il rischio di contaminazione.

Per quanto riguarda la determinazione delle sostante organiche, il lavoro è stato concentrato sui pesticidi, per la loro ormai ubiquitaria presenza sotto forma di insettiidi, erbicidi, fungicidi, e sui policlorobifenili (PCB). La determinazione di queste sostanze è basata sul principio della distribuzione tra fasi, e le tecniche universalmente impiegate sono l’IIPLC e soprattutto, la gas-cromatografia.

La gas-cromatografia viene condotta impiegando colonne capillari, anche se nel caso dei pesticidi i tempi di ritenzione dei vari componenti delle miscele sono in genere sufficientemente diversi da permettere anche l’impiego di colonne impaccate. Tra l’altro le diverse classi di pesticidi si differenziano notevolmente per la polarità, per cui una soddisfacente separazione in classi può essere realizzata semplicemente mediante l’impiego di colonne a polarità diversa.

La scelta della colonna capillare è invece obbligata quando si vogliono analizzare le miscele di PCB, che possono contenere fino a 209 congeneri con tempi di ritenzione molto simili.

In questo caso è possibile ricorrere anche alla gas-cromatografia multidimensionale, che prevede l’impiego di due o più colonne, contenenti fase fisse diverse disposte in serie o in parallelo tra loro.

organibersaglio

Nel primo caso è possibile migliorare la risoluzione di tutto il cromatogramma, nel secondo caso, tramite l’impiego di un’opportuna valvola è possibile deviare nella seconda colonna solo una parte della miscela da analizzare. Infine, un importante traguardo nella separazione dei PCB riguarda la separazione degli enantiomeri, che alcuni autori stanno mettendo a punto tramite l’impiego di fasi fisse chirali costituite da ciclodestrine modificate mescolate a polisilossani. La cromatografia liquida è invece meno utilizzata rispetto alla gas-cromatografia ed ha trovato impiego soprattutto nella determinazione di quei pesticidi che assorbono nell’ultravioletto o possiedono proprietà di fluorescenza e sono quindi facilmente rilevabili dai più comuni rivelatori per HPLC. Per migliorare la risoluzione raggiungibili con questa tecnica sono state messe a punto colonne del diametro interno molo piccolo, e cioè microcolonne (diametro interno pari a circa 200 μm) e nanocolonne (diametro interno pari a circa 50 μm), che sono impiegate in microsistemi di grande interesse. Si badi però che l’impiego di tali colonne è relativamente limitato al mondo della ricerca. (continua)