Topinambur.

a cura di C. Della Volpe

L’ultimo fine settimana di settembre segna spesso il passaggio dall’estate all’autunno; quest’anno ha anche segnato i giorni  di Puliamo il mondo, una delle più importanti iniziative ambientaliste; e non basta, venerdì 27 alle 14 l’IPCC ha comunicato al mondo il testo riassuntivo del suo V rapporto sull’evoluzione del Clima e non basta ancora: la sera del medesimo giorno si è celebrata in tutta Europa la Notte dei Ricercatori. Insomma un fine settimana denso di avvenimenti e di associazioni di idee. (A proposito il 29 settembre 1901 nacque Fermi).

Sarà per questo che stamani (domenica, 29 settembre, come nella canzone di Battisti , la ricordate?) mentre pedalavo lungo l’Adige, su una ciclabile magnifica che scende dal Brennero fino a Modena, e guardavo le distese di topinambur che  danno un vivido colore giallo a tutto l’argine del fiume, mi è tornato in testa Enzo Tiezzi.

Penso che molti dei lettori di questo blog lo ricordino; Tiezzi, uno dei padri nobili dell’ambientalismo italiano ci ha lasciato nel giugno del 2010; ma Enzo è stato molto di più perchè è stato un chimico che ha contribuito a fondare sul piano dei principi e della riflessione scientifica e culturale i principi della sostenibilità ambientale e dell’ecological economics, ossia della rifondazione delle attività produttive umane riconsiderate alla luce dell’ecologia e della unità e limitatezza della biosfera.

Il fiore del topinambur, una pianta bella ed utile, la preferita da Enzo Tiezzi.

Il fiore del topinambur, una pianta bella ed utile, la preferita da Enzo Tiezzi.

Il topinambur era il suo fiore preferito, perchè rappresentava per lui la sintesi della bellezza della Natura e della utilità che hanno per l’uomo i suoi prodotti, apparentemente più umili, un modo di considerare che non serve necessariamente l’agricoltura intensiva per avere prodotti molto utili; in omaggio a ciò, se ci fate caso la sua immagine è una di quelle che tornano periodicamente nella testata di questo blog, un simbolo.

Il topinambur è un immigrato fra le piante, una pianta originaria del Nord America che come tante altre ha invaso il nostro habitat; l’Europa è stata terra di conquista per l’ailanto, per il fico d’india, per la patata e il mais e anche per il topinambur.

Helianthus Tuberosus è una composita o asteracea, con i fiori composti appunto da molti singoli fiori detti flosculi che compongono un capolino, come avviene nel girasole o nel tarassaco. Quello che vediamo di essa è una pianta erbacea alta fino a tre metri; ma la parte più importante è il bulbo simile ad una patata che vive sottoterra e da cui si dipartono sia il fusto che le radici; un tubero che contiene le gemme e che nella stagione avversa non possiede parti aeree, per meglio difendersi dalle avversità climatiche.

topinamburtubero

La raccolta dei tuberi si fa quando tali parti aeree sono ormai secche. La produzione si aggira intorno ai 200-250 quintali ad ettaro. Oltre all’alimentazione umana, possono venire utilizzati per il bestiame e l’industria. Anche gli steli e le foglie della pianta forniscono foraggio. Come pianta foraggera il topinambur dà diversi tagli all’anno e può durare più anni: basta non raccogliere tutti i tuberi, ma lasciarne una piccola parte nel terreno, per garantire la perpetuazione della coltura. In questa forma la sua resa per ettaro può superare i 500 quintali. Se lasciata a se stessa il topinambur è una pianta terribilmente invasiva. Tuttavia i tuberi di Topinambur sono meno nutritivi di quelli di patata, perchè nel tubero il principale componente di riserva della pianta è l’inulina, non l’amido.

300px-Inulin_strukturformelSi tratta di un polisaccaride prodotto da molte altre piante fra cui spicca come principale produttore la cicoria. La sua catena è costituita da molecole di fruttosio tenute insieme da un legame β-glicosidico 2-1 e termina con una molecola di glucosio.

L’inulina non è attaccabile da ptialina e amilasi e quindi è relativamente indigeribile per l’uomo; tuttavia essa è certamente digeribile nel colon umano da parte dei batteri (in particolare della famiglia dei Bifidus) che ivi risiedono e che quindi possono nutrirsene; questo è di giovamento anche per noi (non scordiamoci che le cellule batteriche presenti nel nostro organismo sono molto, molto più numerose delle nostre stesse cellule), a patto pero’ di adattarci ad essa, nel senso di non abusarne in quantità almeno le prime volte. In questo senso la inulina è un pro-biotico, costituito fra l’altro da fibre solubili in acqua. Insomma un prodotto molto interessante per l’industria alimentare anche perchè gelifica e non fa aumentare i tassi di glucosio, un prodotto che per secoli è stato ritenuto foriero di “buona salute”.

Dicevo prima il topinambur è un simbolo, per me almeno, il simbolo di una ritrovata unità fra uomo, scienza e natura e quando lo vedo non posso fare a meno di ripensare a Enzo Tiezzi e a tutto quel che ci ha insegnato.

Per approfondire: http://en.wikipedia.org/wiki/Inulin e la letteratura ivi citata.

Chimica analitica del XXI secolo.

510-oHqVlZL._SY300_

uno dei più moderni testi di chimica analitica

L’apertura delle frontiere in seguito alla nascita dell’Unione Europea ha permesso l’ingresso sul mercato di prodotti agro-alimentari aventi la stessa denominazione commerciale ma qualità e prezzo diversi. Questo ha spinto molti produttori e, addirittura, alcuni Stati membri a valorizzare i loro prodotti più pregiati, proteggendo contemporaneamente gli stessi diritti dei consumatori, mediante una certificazione di qualità. Così, i Disciplinari di produzione (normative comunitarie che forniscono tutte le caratteristiche produttive necessarie affinché un prodotto possa fregiarsi di una Denominazione di Origine Protetta (DOP) o di una Indicazione Geografica Protetta (IGP)), già presenti da molti anni nell’industria vinicola, sono stati recentemente estesi ad altri prodotti agro-alimentari, tra i quali l’olio extra vergine d’oliva.
Per l’accertamento a posteriori della “qualità” di un prodotto è però necessario poter risalire attraverso la misura di parametri fisici, chimici ed organolettici alla sua “origine” (materie prime, tecniche di produzione, provenienza geografica e varietale, etc.).
Il controllo analitico della qualità e della purezza o genuinità rappresenta nel suo complesso un problema di non semplice risoluzione, poiché la composizione naturale è fortemente influenzata da fattori genetici, agro-ambientali e produttivi, nonché dalla possibile incorporazione di sostanze xenobiotiche di derivazione agronomica e/o produttiva. A queste obbiettive difficoltà viene a sommarsi l’annosa questione delle frodi sempre più sofisticate.

320px-Continuous-Flow_Analysator
Così se da un lato può essere più o meno semplice, attraverso l’analisi chimica, stabilire la classificazione merceologica e/o l’identificare possibili frodi, quando il problema si sposta sulla determinazione dell’origine geografica o “colturale”, il parco dei dati analitici viene ad essere più difficilmente interpretabile, poiché le variabili discriminanti non risultano più indipendenti, cioè legate ai singoli dati, ma devono essere considerate nel loro insieme. In questi casi è necessaria una valutazione più sofisticata dei risultati dell’analisi chimica che richiede un loro “processamento” attraverso opportuni metodi statistici.
L’approccio più comunemente utilizzato è l’analisi statistica multivariata (chemiometrica), che consiste in un insieme di complessi metodi matematici (Analisi Fattoriale (FA), Analisi dei Clusters (CA), Analisi Discriminante Lineare (LDA)) in grado di operare una valutazione comparativa dei dati (nel nostro caso forniti dall’analisi chimica) finalizzata alla costruzione di un modello matematico “capace” di discriminare e quindi di prevedere, in termini di probabilità, l’appartenenza o meno di un campione ad un determinato “sistema di riferimento”.
In tempi più recenti si stanno sempre più affermando altri metodi di valutazione comparativa dei dati che vanno sotto il nome di Reti Neurali Artificiali (Artificial Neural Networks, ANN) e che si ispirano al modo in cui i sistemi nervosi biologici elaborano le informazioni: acquisizione dei dati – processo di apprendimento – formulazione della risposta.
La loro finalità discriminante è analoga a quella dei metodi della “chemiometria classica”, tuttavia essi, oltre a fornire spesso un quadro “più dettagliato” ed “articolato” nella risposta previsionale in quanto (con un sistema correttamente istruito) possono trovare una più esatta collocazione “interclasse” dei campioni in analisi, sono di grande utilità perché, essendo basati su procedimenti di indagine statistica diversi dai precedenti, consentono di operare un controllo incrociato sulla “significatività” delle risposte ottenute.
Sulla base di queste riflessioni, il problema analitico si può porre fondamentalmente nei termini seguenti (che costituiscono il processo logico e sperimentale da seguire) :

a.
individuare i parametri chimici che “potrebbero” nel loro insieme essere utili a discriminare “al livello richiesto” i singoli prodotti in analisi;
b.
eseguire le determinazioni analitiche dei suddetti parametri (mettendo a punto, se necessario, i relativi metodi di analisi) sui campioni in studio e, se non disponibili in letteratura, su un congruo numero di campioni analoghi “di sicura provenienza” che dovrà servire per la costruzione della “matrice di riferimento” (training set);
c.
analizzare “statisticamente” i risultati ottenuti attraverso passaggi successivi atti ad ottimizzare il procedimento di valutazione, di cui vengono di seguito riportate le fasi più significative:

controllo dei dati analitici per “eliminare o correggere” eventuali valori “statisticamente” dubbi che potrebbero falsare i risultati dell’indagine (outliers)
riduzione del numero delle variabili sperimentali,”scremandole” da quelle iniziali, senza incidere sul grado di discriminazione del sistema (variabili a scarso o nullo potere discriminante e/o variabili direttamente correlate tra loro);
determinazione dei fattori di correlazione tra tutte le variabili sperimentali rimaste e compressione dei dati così ottenuti in un nuovo set semplificato (purificato da ogni ridondanza nei dati originali);
uso dei dati compressi e delle classificazioni note per ricondurre le osservazioni esistenti alla classe più vicina;

d) controllare ed affinare l’interpretazione dei dati analitici (risposte)
mediante un metodo di indagine indipendente (ANN)
Per poter applicare con successo questo tipo di analisi statistica, è pertanto necessario disporre di un numero sufficiente di variabili “discriminanti” (ad esempio, nel caso di un olio di oliva, intese ad accertare la “cultivar” delle olive utilizzate per la produzione dell’olio in esame) e di un “training set” (campioni per i quali sia nota l’attribuzione) ben rappresentativo.

100px-Italian_olive_oil_2007

Per poter applicare con successo questo tipo di analisi statistica, è pertanto necessario disporre di un numero sufficiente di variabili “discriminanti”  e di un “training set” (campioni per i quali sia nota l’attribuzione) ben rappresentativo.Nel caso ad esempio di un prodotto di largo consumo come l’olio di oliva potrebbero essere utilizzati soltanto indici chimici (acidità, numero di perossidi, K232 , K270, DK, acidi grassi, steroli e LLL) che,essendo stati standardizzati per la relativa determinazione, evitano il rischio che il risultato finale possa essere influenzato da una certa variabilità sperimentale.

per approfondire:

http://en.wikipedia.org/wiki/Analytical_chemistry

Ozono: facciamo il punto.

Il 16 settembre è stata la giornata internazionale per la prevenzione del buco dell’Ozono; qual’è la situazione attuale? Abbiamo risolto il problema dei clorofluorocarburi e degli altri prodotti sostitutivi? Quale è e sarà il ruolo della Chimica?

a cura di Giorgio Nebbia, nebbia@quipo.it

220px-ThomasMidgleyJr

ThomasMidgleyJr (1889-1944)

Forse una notizia abbastanza buona. In un recente incontro i presidenti delle due maggiori potenze industriali mondiali, gli Stati Uniti e la Cina, si sono accordati per eliminare gradualmente, da ora al 2050, l’uso degli idrocarburi fluorurati, HFC, una classe di sostanze chimiche che stanno sostituendo i cloro-fluoro-carburi (CFC), responsabili della distruzione dell’ozono stratosferico, ma che si sono rivelate a loro volta responsabili del riscaldamento planetario. Tutto è cominciato quando, nel 1928, il chimico Thomas Midgley ha scoperto che certe molecole, nelle quali uno o due atomi di carbonio erano legati ad atomi di cloro e di fluoro, anziché ad atomi di idrogeno, come negli idrocarburi, avevano singolari proprietà tecniche. I CFC, non infiammabili, stabili chimicamente, privi di odore, si sono rivelati utilissimi come fluidi propellenti per i preparati commerciati in confezioni spray, le cosiddette “bombolette”, di deodoranti, di vernici e cosmetici, e come fluidi frigoriferi; anzi il loro uso ha determinato il successo dei frigoriferi domestici, tanto utili per conservare i cibi a lungo, e dei condizionatori d’aria che rendono meno afosa l’aria degli edifici e delle automobili. Inoltre alcuni CFC sono risultati eccellenti per rigonfiare le materie plastiche e trasformarle nelle “resine espanse”, così importanti come isolanti termici per il trasporto dei cibi, come isolanti acustici e termici in edilizia, per produrre materassi, cuscini e poltrone per le case e le automobili. Un trionfo: peccato che, negli anni settanta del Novecento, alcuni studiosi si siano accorti che questi CFC, nel disperdersi nell’atmosfera raggiungono la stratosfera, lo strato di gas che si trova fra 10 e 30 chilometri di altezza, e qui decompongono l’ozono O3, l’altra forma del comune ossigeno O2. L’ozono stratosferico, pur presente in forma molto diluita, ha la proprietà di filtrare la radiazione ultravioletta biologicamente dannosa UV-B, proveniente dal Sole, impedendole di arrivare sulla superficie della Terra. Questa radiazione UV-B è responsabile di tumori della pelle e di malattie degli occhi negli umani, ma ha anche effetti nocivi su altri cicli biologici, tanto che alcuni pensano che la vita sia comparsa sui continenti e negli oceani, alcuni miliardi di anni fa, quando una parte dell’ossigeno della stratosfera ha cominciato a trasformarsi nel più benigno ozono. Il chimico messicano Mario Molina e il chimico statunitense Sherwood Rowland (1927-2012),

rowland_molinahanno ottenuto il premio Nobel per la scoperta del rapporto fra CFC e diminuzione della concentrazione dell’ozono stratosferico, una scoperta che ha indotto molti governi a vietare l’uso della maggior parte dei CFC con un accordo, il “protocollo di Montreal” del 1987. L’industria chimica si è subito impegnata a cercare dei surrogati, delle molecole nelle quali non fossero presenti atomi di cloro, ma solo atomi di idrogeno e di fluoro. Sono così nati gli idrocarburi fluorurati HFC, prodotti subito su vasta scala a partire dal 1990. Da una trappola all’altra, però, perché gli HFC sono meno dannosi per lo strato di ozono, ma si comportano come “gas serra” contribuendo al riscaldamento globale e ai mutamenti climatici. Anzi contribuendo moltissimo perché un chilo di HFC trattiene l’energia solare nell’atmosfera come 1000 chili di anidride carbonica CO2, l’altro importante “gas serra”. Il “protocollo di Kyoto” del 1997, per il rallentamento dei mutamenti climatici, ha incluso gli HFC fra le sostanze il cui uso deve essere limitato. A questa nuova limitazione si sono opposti molti paesi, specialmente quelli in via di sviluppo o sottosviluppati che temevano l’aumento del prezzo dei frigoriferi e dei condizionatori d’aria se avessero dovuto essere impiegati altri fluidi frigoriferi meno dannosi per l’ambiente, ma più costosi. E’ così cominciata una lunga guerra fra interessi industriali, interessi nazionali, innovazioni chimiche. La Cina e l’India finora sono stati i paesi più contrari all’eliminazione degli HFC; da qui l’importanza del recente accordo fra Cina e Stati Uniti, ricordato all’inizio. I due presidenti Xi e Obama

130610025853-china-xi-obama-620xahanno spiegato che la graduale eliminazione, da qui al 2050, dell’uso anche degli HFC rallenterebbe i mutamenti climatici come se, nello stesso periodo, nell’atmosfera venissero immessi 80 miliardi di tonnellate di CO2 di meno (attualmente ogni anno vengono immessi nell’atmosfera “gas serra” equivalenti a circa 30 miliardi di tonnellate di CO2 ). Un passo avanti, ma i problemi non sono finiti: nei frigoriferi e nelle resine espanse esistenti nel mondo e fabbricati negli ultimi decenni, ci sono ancora grandissime quantità, dell’ordine di milioni di tonnellate, sia dei cloro-fluoro-carburi CFC, vietati da tempo, sia degli idrocarburi fluorurati HFC in crescente uso; questi gas continuano a liberarsi quando i frigoriferi e i condizionatori d’aria sono smantellati e quando le resine espanse finiscono nelle discariche o negli inceneritori. Da una parte occorre perciò sviluppare nuovi processi di smaltimento di tutti i prodotti che contengono questi gas nocivi; dall’altra parte occorre inventare nuovi agenti che svolgano le stesse funzioni dei gas vietati. Come si vede, nella corsa per evitare le violenze all’ambiente non c’è riposo, specialmente per i chimici e per una buona chimica.

Min_ozone

Arance da lontano

a cura di C. Della Volpe

Ieri sera, un po’ triste perchè fare andare avanti questo blog senza molta collaborazione è difficile, sono andato a fare la spesa; e non ho saputo resistere davanti al mio frutto preferito: arance. Da bambino me ne facevo scorpacciate in giardino, Queste qua sono un po’ fuori stagione e vengono dal Sud-Africa; costano di meno mi sono consolato.

Tornato a casa le ho estratte dalla loro retina di plastica colorata e mi è caduto sotto gli occhi un messaggio:

“Arance Navel. Buccia non destinabile ad uso alimentare.”

250px-Navel_orange_sectioned

Caspita – ho pensato -adesso fanno anche la buccia sintetica! In realtà le Navel sono una mutazione delle normali arance sviluppate in Brasile nel 1820 a partire da una singola mutazione che inglobava un frutto gemello nell’arancia come vedete in figura.

Ma no, stupidone, – mi sono risposto- sono solo le quattro sostanze elencate in coda:
“ trattate con gommalacca, imazalil, ortofenilfenolo e tiabendazolo”

A questo punto non ho resistito e nonostante i ripetuti richiami domestici alla cena mi sono lanciato in una ampia ricerca sulla rete per capire di cosa si tratta e soprattutto perchè ci sono tutti quei chemicals, quelle sostanze estranee alle arance sulla loro buccia.

Gommalacca. Questa non è una sostanza di sintesi, ma è un derivato che ci proviene dagli insetti, un materiale che potremmo definire un vero e proprio polimero naturale. La gommalacca è prodotta dalla secrezione di un insetto che vive in estremo oriente, la Kerria Lacca.

gommalacca

scaglie di gommalacca (da Wikipedia)

la quale lo usa come protettivo quando aggredisce i rami degli alberi.

KerrialaccaLa sua composizione è quella di un poliestere costituito principalmente dalle due molecole qui indicate;

gommalacca2

La ceralacca solida si usa come vernice per la protezione del legno ed essendo innocua e digeribile anche come additivo alimentare e farmaceutico; il polimero formato è un poliestere che fra l’altro non si deteriora alla luce come fa il resto dei polimeri, tanto che in passato quando i materiali sintetici non c’erano veniva usata come plastica naturale per fare oggetti i più diversi. E’ solubile in basi forti. I vecchi dischi da fonografo a 78-rpm del periodo precedente gli anni 50′, erano fatti di ceralacca.Attualmente la produzione essenzialmente indiana raggiunge circa le 20.000 ton/an. Perchè la si usa sulle arance? Perchè mangiamo con gli occhi. (http://www.lastampa.it/2013/09/19/societa/troppo-brutta-per-essere-esposta-invenduto-il-della-frutta-inglese-pNK1C4q5HCTvXwA1YSF7LI/pagina.html)

Le altre tre molecole invece sono di sintesi.

L’Imazalil  enilconazolo

imazalil

è un fungicida inventato da Jansen nel 1983 ed utilizzato per proteggere dalle muffe gli agrumi dopo la raccolta. È tossico per inalazione e irritante per gli occhi. L’ EPA ha stabilito un livello di tossicità equivalente di 6.1 x 10-2 mg/kg/day, quindi più pericoloso nei bambini per i quali ne bastano 1 mg scarso per avere effetti tossici. E’ da non confondere con l’epossiconazolo che è una molecola simile ma presente nell’elenco delle molecole escluse dallo Stato dela California dall’uso in agricoltura perchè cancerogeno (http://www.oehha.org/prop65/prop65_list/files/P65single091313.pdf).

 L’UE e l’EPA hanno consentito l’uso dell’enilconazolo in agricoltura; esso e’ un inibitore selettivo della biosintesi dell’ergosterolo, componente essenziale delle molecole cellulari di funghi e lieviti, il che comporta cambiamenti irreversibili nei processi enzimatici e di permeabilita’ della membrana con conseguente inibizione della crescita cellulare; viene anche usato qundi come farmaco in dermatologia veterinaria contro le micosi del cane e del gatto.

Su internet trovate spesso la confusione fra enilconazolo ed epossiconazolo, causato da un errore su wikipedia inglese, fate attenzione. Non ci sono al momento prove che l’eniconazolo sia cancerogeno; tossico se usato in eccessive quantità, ma non cancerogeno.

Ortofenilfenolo

ortofenilfenolo

L’ortofenilfenolo è un disinfettante fenolico con proprietà antimicrobiche. Viene usato per la disinfezione di cute e di oggetti ed è un ingrediente di gel lubrificanti. È usato nell’industria come conservante (specie contro muffe e putrefazioni) e in agricoltura come fungicida; come fungicida post-raccolta è stato iscritto nell’allegato 1 della direttiva 91/414 (direttiva 2009/160/UE del 17 dicembre 2009, pubblicata sulla Gazzetta Europea L 338 del 19 dicembre scorso).

L’autorizzazione europea è entrata in vigore nel 2011; c’è un valore massimo della concentrazione del prodotto ammesso al consumo che non deve essere superato. Si usa come fungicida anche nel campo dell’arte per proteggere tele ed acquerelli od altri manufatti.

Tiabendazolo

tiabendazolo

E’ un prodotto che agisce da antifungino ed antielmintico; Il tiabendazolo funziona inibendo il funzionamento del particolare enzima mitocondriale di fumarato reduttasi posseduto dagli elminti, forse interagendo con un chinone endogeno. Si usa come farmaco sugli animali e come pesticida.

E’ stato in passato usato (ahimè) come additivo alimentare (E234) ma ora è solo considerato un pesticida e quindi non è approvato come additivo e non si puo’ usare in EU se non come pesticida (http://ec.europa.eu/sanco_pesticides/public/index.cfm?event=activesubstance.detail); probabilmente è approvato in questo caso se i residui sulla buccia non superano la dose massima ammissibile come residuo che è 5mg/kg.

Conclusione: ho imparato un sacco di cose da questa breve indagine:

1)    che la frutta fuori stagione (le arance italiane maturano fra un po’) la si può avere solo da altri paesi e quindi a costo di averla protetta con una serie di sostanze ;

2)    alcune di queste sostanze si usano anche sulla frutta nostrana per sole esigenze di immagine (la ceralacca)

3)    altre servono a proteggere la nostra ed altrui salute ma ovviamente non sono prive di potenziali effetti collaterali;

4)    forse se ne usano troppe? A che servono ben tre disinfettanti ed antifungini? Forse si usano contro diversi tipi di funghi?

5)    Su internet ci sono parecchi errori e occorre stare attenti a leggere le cose, mai fidarsi della prima lettura; Wikipedia è utile ma sempre usare le pinze.

6)    Il caso del tiabendazolo è interessante: ha cambiato ruolo ma per capirlo sono dovuto entrare nel data base europeo dei prodotti per alimenti che non è proprio banale da usare.

Ma si deve mangiare proprio fuori stagione la frutta? Avrei potuto non comprarla proprio al supermercato; se solo qualcuno si decidesse a mandare qualche contributo in più a questo blog……..

PS come al solito non sono un esperto di questo settore; chi mi da una mano?

Chimica, zanzare ed altre storie

a cura di C. Della Volpe

Su questo blog abbiamo parlato già di insetti, in particolare di api ed altri insetti impollinatori e dei prodotti che possono danneggiarli. Tuttavia fra gli insetti esistono molte specie che sono decisamente nocive per l’uomo, come le mosche e le zanzare; mentre le api sono imenotteri, dotate di quattro ali, le mosche e le zanzare sono ditteri, dotate di due ali, più altre due molto piccole, quasi invisibili spesso. Anche fra i ditteri ci sono insetti impollinatori, come i Sirfidi, che è facile confondere con le api (a me è capitato anni fa [C&I 2010, 7, 134] che potete scaricare liberamente dal sito SCI), ma i più famosi fra di loro sono certamente quelli nocivi, come appunto le mosche e soprattutto le zanzare.
Le zanzare sono in grado di bucare la nostra pelle ed aspirare dai capillari alcune gocce di sangue, sono cioè ematofaghe; nel far ciò ci iniettano un po’ di saliva e dato che sono portatrici di alcune fra le peggiori infezioni disponibili in natura sono quindi vettori di tali infezioni, la principale delle quali, ma non l’unica, è la malaria. E con le zanzare si è scatenata nei decenni una guerra che ha usato anche la Chimica come arma letale.
Prima di entrare nel merito ricordo che non sono un esperto, ma solo un curioso; se trovate errori fatevi avanti; lo stimolo mi è venuto dalla lettura di una recentissima presentazione all’ultimo congresso ACS in corso a New Orleans, nel quale il collega Ulrich Bernier del Dipartimento per la ricerca in agricoltura degli USA ha presentato un prodotto che rende “invisibili” alle zanzare; e da qui parte la nostra storia[http://www.acs.org/content/acs/en/pressroom/newsreleases/2013/september/toward-making-people-invisible-to-mosquitoes.html]. Come siamo arrivati a questo tipo di strategia per combattere le zanzare?
Gli antenati delle zanzare esistevano già decine di milioni di anni fa, prima dell’inizio del Cretaceo; si tratta di una famiglia, quella dei Culicidi, che raccoglie migliaia di specie diverse. Le zanzare si nutrono di nettare e di melata e per far ciò sono dotate di un apparato boccale succhiante; tuttavia alcuni tipi di femmine sono dotate di un apparato boccale penetrante-succhiante, quindi possono pungere e lo fanno perchè per poter condurre a termine la formazione delle uova hanno bisogno di alcuni tipi di proteine che trovano nel sangue dell’ospite, che può essere un mammifero, un rettile, un anfibio e perfino un altro organismo ematofago che abbia appena punto.
La risposta spontanea dei mammiferi a questo tipo di problema è stato di evolvere modifiche genetiche che resistono ad alcune delle malattie trasmesse in tal modo; è noto per esempio che le popolazioni che vivevano in zone dove la malaria era endemica hanno sviluppato modifiche degli eritrociti (la talassemia) e degli antigeni di superficie degli eritrociti (l’assenza dell’antigene Duffy, cosiddetto negli uomini dell’Africa occidentale) che erano un modo per resistere all’attacco del parassita Plasmodium pur a costo di pagare un prezzo nella qualità e nella durata della vita.
Quindi le zanzare che ci pungono da centinaia di migliaia di anni, sono femmine e sono in una fase precisa del loro ciclo di riproduzione; i maschi di zanzara sono innocui. In secondo luogo non tutte le zanzare possono trasmetterci malattie pericolose, ma solo alcune di esse, il cui ciclo vitale si incrocia con quello di alcuni protozoi o batteri o virus.
Ci sono essenzialmente tre tipi di zanzare alle nostre latitudini che hanno a che fare con noi: Culex, Anopheles, Aedes.

240px-Mosquitoes

La differente postura assunta dalle femmine di Anopheles (a sinistra) e Culex a destra.

La lotta alle zanzare è iniziata dopo che si è capito che erano il vettore delle febbri malariche o malaria o paludismo; la scoperta del meccanismo dellla malattia (il ruolo del plasmodio e poi della zanzara)  si deve a vari medici ad uno solo dei quali, Laveran, fu assegnato il premio Nobel nel 1907, ma il lavoro di ricerca fu lungo e complesso e fra gli altri vi svolse un ruolo importante una delle nostre glorie nazionali, Camillo Golgi.
A quel punto inizò una attività che si basava essenzialmente sull’eliminazione delle zone umide; ma tale azione che è continuata per decenni in molti paesi fra i quali il nostro, nel quale si verificavano ogni anno decine di migliaia di casi di malaria (in Sardegna e nella Pianura Padana, ma anche in Campania e Lazio), non può essere totale ed oggi si scontra con la necessità ecologica di conservare le zone umide come elemento indispensabile della biosfera.
Il successivo livello di attacco è stato l’uso di insetticidi efficaci. Grazie all’azione combinata di questi due metodi soprattutto nel continente europeo la malaria è stata definita come eradicata dall’Europa nel 1975.
Il DDT, 1,1,1-tricloro-2,2-bis(p-clorofenil)etano, fu sintetizzato nel 1874 da Othmar Zeidler; ma le sue proprietà insetticide furono scoperte solo nel 1939 dal chimico Paul Hermann Müller (Olten, 12 gennaio 1899 – Basilea, 12 ottobre 1965), vincitore del Premio Nobel per la medicina nel 1948; il DDT è stato il primo insetticida moderno.

220px-Paul_Hermann_Müller_nobel

Paul Hermann Müller

150px-DDT_struttura

DDT

Dato che sono napoletano debbo qui ricordare che la prima applicazione diretta del DDT nel controllo di insetti patogeni si svolse proprio a Napoli durante una epidemia di tifo, nel dicembre 1943. In poche settimane milioni di persone furono trattate con una polvere al 10% di DDT che uccideva i pidocchi responsabili della diffusione della malattia.

pidocchi43

Trattamento antipidocchi col DDT nella Napoli del 1943

Dopo poco tempo, nel 1944, sempre in Campania ci fu la prima applicazione su larga scala del DDT come antimalarico, a CastelVolturno. E’ un processo interessante e ci sarebbe da scrivere molto di più ma forse lo farò in un post dedicato al problema del DDT. Per il momento limitiamoci agli aspetti chimici.

Il DDT (ed anche i derivati di tipo piretroide, derivati dall’acido crisantemico e piretrico presenti in alcune piante) agisce come stimolatore dei canali del sodio dipendenti dal voltaggio, che sono proteine di membrana, nelle cellule nervose. Di tali canali ne esistono sostanzialmente due tipi: nei vertebrati e negli invertebrati; in questi ultimi i canali in questione sono denominati “para”. Questi canali non sono da confondere con le pompe sodio-potassio ATPasiche, che servono a pompare continuamente fuori il sodio e dentro il potassio nelle cellule ripristinando il gradiente che poi viene sfruttato dai canali che vengono influenzati dal DDT;  i canali cui mi riferisco sono quelli che entrano in funzione proprio durante la scarica nervosa. Il DDT ha effetto soprattutto sui nervi periferici e produce una attivazione spontanea dei neuroni con contrazioni spontanee dei muscoli che generano i cosiddetti “tremori” da DDT. I suoi effetti sulla giunzione neuromuscolare sono mediati da una depolarizzazione del canale, la quale ad un certo punto causa il blocco della giunzione a causa della deplezione del neurotrasmettitore coinvolto.
Questa specificità fa sì che gli insetti possano adattarsi al DDT ed ai piretroidi in vario modo: alcuni insetti nocivi hanno evoluto modificazioni della proteina del canale del sodio per prevenire il legame dell’insetticida. La nostra specie ci ha messo migliaia di anni ad evolvere le sue modifiche genetiche di difesa, le zanzare pochi decenni, perchè hanno molte generazioni all’anno, non una ogni 25 anni come noi (in media).
Proprio per questo oggi occorre aspettarsi lo sviluppo di resistenza appena dopo l’uso del DDT e dei piretroidi; questo è uno dei motivi, il principale, che ne consiglia una applicazione mirata e non generica come insetticida; gli altri che sono state scoperti nel tempo e che furono indicati per prima da Rachel Carson sono gli effetti tossici sugli animali e sull’uomo legati al ruolo ed alla stabilità di alcuni dei metaboliti del DDT (DDE e DDD) che tendono a concentrarsi nelle specie al sommo della catena alimentare. Tali sostanze non solo sono direttamente tossiche in molte specie ma sono state classificate come cancerogene potenziali nella specie umana.
Ci tengo a dire che NON è vero che non si possa usare il DDT come antimalarico; l’accordo internazionale sui POP lo consente come antimalarico per applicazioni indoor e in applicazioni limitate esterne, ma lo vieta come insetticida generico e questo ovviamente ne riduce le quantità oggi prodotte, ben inferiori a quelle degli anni 50′ e 60’ del secolo scorso quando il DDT rappresentava un vero cash cow (la mucca da mungere) per i suoi produttori che hanno sempre cercato di ristabilirne l’uso massivo; è una storia che ricorda molto quella attuale dei neonicotinoidi.
A questo punto tuttavia siamo in grado di comprendere come mai la strategia contro le zanzare sia passata da altre strade che sono ormai ben diverse dall’uso di insetticidi che ammazzino gli insetti zanzara dovunque e comunque; si cerca di impedire piuttosto la riproduzione nelle zone più pericolose dove le zanzare sono vettori della malaria e di altre malattie epidemiche pericolose usando strategie e mezzi diversi, in attesa della messa a punto di un vaccino efficace.
Per esempio la profilassi quotidiana con prodotti che a bassa concentrazione impediscano al plasmodio di riprodursi; la clorochina e la meflochina sono due farmaci di elezione, ma dato lo sviluppo di resistenze si usano oggi anche la doxiciclina e il malarone. Non approfondisco questo argomento perchè a noi oggi interessa capire come mai la strategia antizanzare si sia spostata verso altri lidi.
La lotta biologica per esempio, usando un batterio specifico contro le larve di zanzara, Bacillus thuringiensis israelensis, che è in grado di attaccare le larve a livello intestinale attraverso una specifica tossina, la Bt; questo significa ridurre in modo determinante il numero di insetti della generazione successiva. Oppure ripristinando una opportuna quota di animali che le catturano: i pipistreli per esempio. Comunque è da dire che la completa eradicazione delle zanzare è un argomento controverso in quanto ci sono pro e contro sul loro ruolo ecologico, specie in zone come l’artico o la tundra o la Siberia[http://www.nature.com/news/2010/100721/full/466432a.html].

larve-zanzara-300x224

larve di zanzare

Bt-toxin-crystals

Cristalli di tossina Bt da Bacillus thuringiensis israelensis

Ma la Chimica non è rimasta a guardare ed ha sviluppato anch’essa nuove strategie che non sono stati solo nuovi insetticidi, ma nuove strade.
Per capire queste nuove strade occorre sapere che esistono delle sostanze chimiche che di fatto svolgono il ruolo di messageri sia intraspecifici che interspecifici, ossia che servono a trasmettere informazioni sia tra membri della medesima specie che fra specie diverse, anche molto diverse.
Si tratta dei composti semiochimici. Mentre gli ormoni svolgono il ruolo di messaggeri all’interno di un certo organismo, i semiochimici svolgono questo ruolo fra organismi diversi o della stessa specie (feromoni) o di specie diverse (allelochimici). A loro volta gli allelochimici si dividono in tre gruppi: allomoni, cairomoni e sinomoni.
Gli allomoni sono sostanze chimiche che comunicano segnali favorevoli a chi li emette, permettono di allontanare altre specie a favore dell’emittente. Esempi di allomoni sono l’acido formico delle formiche, le sostanze repellenti secrete dalle cimici a scopo di difesa.
I cairomoni sono sostanze chimiche che comunicano segnali favorevoli a chi li riceve. Ad esempio gli odori presenti sulle uova che richiamano i parassitoidi oofagi.
I sinomoni sono sostanze chimiche che comunicano segnali favorevoli sia all’organismo che li riceve sia a quello che li emana, come ad esempio l’odore emesso dai fiori che attira gli insetti pronubi.

***************************************************************************************************************

Sebeok

T. Sebeok

Nota di approfondimento:
T. Sebeok, la semiotica
Tutti gli esseri viventi, sia gli organismi interi sia le parti che li compongono, sono interrelati in un modo altamente organizzato. Quest’ordine, o organizzazione, è garantito dalla comunicazione. La comunicazione o semiosi, pertanto, può essere considerata quella proprietà essenziale della vita che ritarda gli effetti di disorganizzazione legati alla seconda legge della termodinamica.
Nel senso più generale, la semiosi può essere considerata come la trasmissione di una qualsiasi influenza da una determinata parte di un sistema vivente a un’altra, tale da produrre una modificazione.
Ciò che viene trasmesso è un messaggio o un insieme di messaggi.
La formazione dei messaggi costituisce l’oggetto della semiotica, che studia i processi attraverso i quali essi vengono codificati, trasmessi, decodificati e interpretati.

Il discorso potrebbe allargarsi; un chimico famoso, James Lovelock, che inventò uno dei più comuni sensori il rivelatore a cattura di elettroni usato in gascromatografia, inventò anche l’ipotesi Gaia, ossia l’idea che la biosfera sia un sistema integrato, tenuto insieme da innumerevoli meccanismi di retroazione che ne conservano e garantiscono la omeostasi; i messaggi chimici sono parte integrante del sistema.
Vedi anche la conferenza Molecole e parole
***************************************************************************************************************
Ma torniamo alle zanzare; quello che ci serve contro le zanzare è solo un opportuno allomone, qualcosa insomma che tenga lontane le zanzare; si tratta dei repellenti.
Ce ne sono sia naturali che sintetici. Vediamone alcuni.

Fra i prodotti naturali due spiccano per la loro efficacia e sono entrambi presenti negli oli essenziali estratti da piante: la citronellale e il p-Mentano-3,8-diolo, anche conosciuto come para-mentano-3,8-diol, PMD, o Mentoglicolo.

citronella

citronella, Cymbopogon

200px-Citronellal-2D-skeletal

Citronellale

Il Citronellale o rhodinale o 3,7-dimetiloct-6-en-1-ale (C10H18O) è un monoterpenoide, (ricordate i terpeni che abbiamo incontrato nell’articolo sulle Astaxantine?) il più importante componente dell’olio di  citronella, un distillato della pianta che ha proprietà repellenti. Esso è anche il principale prodotto di distillazione  oltre che delle piante di (Citronella) Cymbopogon, delle foglie di Corymbia Citrodora e del Leptospermum petersonii.  E’ una molecola chirale. Il suo (–)-(S)-enantiomero costituisce fino all’ 80% dell’olio del  Citrus hystrix ed è il composto responsabile del suo aroma caratteristico. L’olio essenziale dell’eucalipto dall’odore di limone (Corymbia Citrodora) non invecchiato è costituito essenzialmente di citronellale (80%) e viene usato in profumeria. Con l’invecchiamento delle foglie della pianta tale sostanza si trasforma in un’altra che è il p-mentano-3,8-diolo (PMD), precedentemente presente solo all’1-2%. Ma tale processo puo’ essere accelerato in modo artificiale in ambiente leggermente acido e il nuovo prodotto prende il nome di  olio essenziale di eucalipto (OLE) o Citrodiol e contiene non meno del 64% di PMD. Questo secondo olio di eucalipto è un potente repellente di insetti.

250px-Citirodora

Eucalipto dall’odore di limone

120px-Para-Menthane-3,8-diol_chemical_structure

Para-Menthane-3,8-diol

Il p-Mentano-3,8-diolo, chiamato anche  para-mentano-3,8-diolo, PMD, o Mentoglicolo,  contiene 8 possibili isomeri come potete facilmente verificare dalla sua struttura. Tuttavia il PMD puro, sintetico è molto meno efficace dell’olio naturale come repellente degli insetti.
I meccanismi di azione esatti di questi due repellenti non sono conosciuti ed anche la situazione legale del loro uso in USA ed Europa è diversa, tuttavia in letteratura sono presenti vari lavori che ne attestano l’efficacia.
Per quanto riguarda invece i prodotti sintetici abbiamo due principali attori del mercato che sono DEET ed icaridina.
DEET

Diethyltoluamide.svg

N,N-Diethyl-3-methylbenzamide
Il DEET è stato sviluppato dall’esercito americano a seguito delle esperienze di guerra nella giungla durante la 2 guerra mondiale; originariamente testato come insetticida è entrato nell’uso militare nel 1946 e in quello civile nel 1957 ed è stato usato in Vietnam e nel Sud Est asiatico. Esso funziona sulla base del diretto effetto repellente esercitato sulle zanzare. In particolare esso agisce su uno speciale recettore neuronale olfattivo nelle antenne delle zanzare che viene attivato dal DEET e anche da altre molecole come eucaliptolo, linaloolo, e tujone.  Inoltre è stato provato che esso è attivo in assenza di sostanze di tipo cairomonico (che attirano le zanzare) come 1-octen-3-olo, acido lattico, o biossido di carbonio.
(Tsitsanou, K.E. et al. (2011). “Anopheles gambiae odorant binding protein crystal complex with the synthetic repellent DEET: implications for structure-based design of novel mosquito repellents”. Cell Mol Life Sci 69 (2): 283–97. doi:10.1007/s00018-011-0745-z. PMID 21671117.)
Il DEET è anche un solvente e può sciogliere alcuni tipi di plastica e di stoffa sintetica attaccando superfici trattate con vernici sintetiche, come quelle usate per la finitura di strumenti musicali di legno. Disperso nell’ambiente non si bioaccumula ma viene trovato in acqua ed è tossico per alcuni tipi di animali.
L’altra molecola con attività repellente è l’ icaridina.

310px-Icaridin_Stereoisomers_Structural_Formulae

Esistono quattro isomeri della icaridina, 1-piperidinecarboxylic acid 2-(2-hydroxyethyl)-1-¬methylpropylester, che ha i nomi commerciali di Bayrepel e Saltidin, con una azione di repellenza su vari insetti. La sua azione di repellenza appare simile a quella del DEET, nel senso che agisce su uno specifico recettore nelle antenne della zanzara con effetti diversi sui vari tipi di zanzara. Il composto è stato sviluppato dalla Bayer e a differenza della DEET, l’icaridina non scioglie la plastica.
Questi quattro prodotti sono lo stato dell’arte nei repellenti per insetti e per zanzare, e si disputano il mercato attuale; è molto probabile che abbiate usato almeno uno di questi prodotti almeno una volta nella vostra vita. Ma la storia non finisce qui e ci fa capire anche l’interesse della nuova scoperta riportata all’ACS.
La nuova molecola, che in realtà è solo una delle migliaia studiate a questo scopo avrebbe un effetto di mascheramento del corpo, renderebbe cioè inutile l’effetto che le sostanze rilasciate dal nostro organismo e che funzionano come cairomoni ossia come attrattori nei confronti delle zanzare possono svolgere e questo sarebbe un bel passo avanti.

metilpiperazina

1-metil piperazina

Si tratta della 1-metilpiperazina. Nel suo intervento all’ACS Bernier ha raccontato altri aspetti interessanti della storia che ci lega alle zanzare.
Il ministero dell’Agricoltura USA ha uno speciale centro di ricerca dedicato alla lotta contro  mosche e zanzare a Gainesville (in Florida) ed in tale centro l’attività delle zanzare femmmina viene studiata con grande attenzione. Le femmine di zanzara che sono in cerca delle proteine necessarie a produrre uova fertili sono in grado di odorare le persone fino a decine di metri di distanza e per fare ciò sono in grado di sentire alcune almeno delle sostanze che la pelle umana e i batteri ivi residenti rilasciano, alcune delle quali sono molto attraenti per loro.
L’odore di una persona è fatto di centinaia di composti, alcuni prodotti atraverso il sudore ed altri prodotti dai batteri. Per identificare quali di questi sono attraenti per le zanzare, Bernier e collaboratori usano una speciale gabbia, divisa in due parti da uno schermo; essi spruzzano varie sostanze in una delle due sezioni e documentano quali attraggano le zanzare verso lo schermo.

mani

Con alcuni composti come l’acido lattico

150px-Acido_S-lattico_struttura.svg

acido lattico

che è un comune componente del sudore umano il 90% delle zanzare viene attratta verso lo schermo, mentre con altri le zanzare non si muovono affatto o sembrano confuse. “Se si mette la mano in una di queste gabbie dove abbiamo messo l’inibitore praticamente tutte le zanzare rimangono sul lato lontano e non si rendono nemmeno conto che abbiamo messo una mano dentro la gabbia.” dice Bernier.” Noi chiamiamo anosmia o iposmia la incapacità o la ridotta capacità  di avvertire gli odori”
Un gruppo di composti chimici, inclusa la 1-metil-piperazina, blocca l’odorato delle zanzare. Questo può aiutare a spiegare perché le zanzare attacchino certe persone e non altre. Molte di queste sostanze hanno una struttura e delle proprietà tali da poter essere  già trovate in decine di prodotti e da poter essere aggiunte a cosmetici, lozioni, tessuti come repellenti delle zanzare.
Sembra proprio che la lotta contro le femmine di zanzara in cerca di proteine per le loro uova non sia affatto finita; ne sentiremo ancora delle belle! Che differenza col DDT! Ma soprattutto questa storia dei semiochimici è veramente affascinante, e spero ne riparleremo.

********************************************************************************
Per saperne di più:
IUBMB Life, 59(3): 151 – 162, March 2007 Critical Review
DDT, Pyrethrins, Pyrethroids and Insect Sodium Channels
T. G. E. Davies1, L. M. Field1, P. N. R. Usherwood2 and M. S. Williamson1

http://www.in.pi.cnr.it/materiale_didattico.htm del collega del CNR Tommaso Pizzorusso contiene una bellissima descrizione del funzionamento elettrochimico del sistema nervoso.

http://media.accademiaxl.it/pubblicazioni/malaria/pagine/cap4_1.htm sulla storia dell’uso del DDT in Italia.

POP Stockholm Convention Annex B sul fatto che il DDT si possa ancora usare come antimalarico ma NON come insetticida generico.

Consigli pratici su: http://medicinadeiviaggi.blogspot.it/2011/07/i-repellenti-cutanei-per-la-prevenzione.html

Materiale da wikipedia:
http://en.wikipedia.org/wiki/DDT#Mechanism_of_insecticide_action
http://it.wikipedia.org/wiki/Malaria#Storia_della_malaria
http://it.wikipedia.org/wiki/Dietiltoluamide
http://it.wikipedia.org/wiki/Icaridina
http://medicinadeiviaggi.blogspot.it/2011/07/i-repellenti-cutanei-per-la-prevenzione.html
http://en.wikipedia.org/wiki/P-Menthane-3,8-diol#cite_note-2
http://en.wikipedia.org/wiki/Citronellal
http://it.wikipedia.org/wiki/Eucalyptus_citriodora
http://it.wikipedia.org/wiki/Cymbopogon

Kitegen®: nuova chimica dall’eolico troposferico.

Il combinato disposto della crisi climatica dovuta all’eccesso di gas serra (principalmente anidride carbonica da combustione) e del picco del petrolio, ossia del prezzo crescente e dell’EROEI decrescente dei fossili sta spostando il panorama mondiale dell’energia. Cosa succederà quando il costo dell’energia elettrica da rinnovabili scenderà sotto quello ottenibile dai fossili? Come cambierà la produzione industriale in un mondo in cui sarà più facile avere direttamente energia elettrica? La chimica non puo’ fare a meno di porsi il problema e di pensare ai futuri scenari di questo sconvolgimento che metterà al centro i processi elettrochimici rispetto ai tradizionali processi da fossile della petrolchimica attuale. Questo post ci offre uno spunto di riflessione.(cdv)

a cura di Massimo Ippolito, CEO Kitegen Research srl

Il gruppo KiteGen® è stato partecipato nell’Aprile 2013 da SABIC Ventures – il Venture Capital di Saudi Arabian Basic Industries Corporation (SABIC) – ed è attualmente coinvolto, come fornitore di tecnologia per la generazione elettrica, nel grande progetto di impianto Carbon (CO2) Capture & Utilization (CCU) in costruzione a Jubail Industrial City, una grande area industriale sulla costa del Golfo Persico.

jubail-industrial-city-300x190

Jubail City

La tecnologia KiteGen® è la più recente evoluzione nel settore dello sfruttamento dell’energia eolica.  E’un cambio di paradigma che può rappresentare una soluzione pratica ed effettiva al problema energetico e, di conseguenza, alla crisi economica.
La tecnologia KiteGen® è basata su un decennio di ricerca e sviluppo e, ad oggi, ha raggiunto lo stadio di soluzione realizzabile su scala industriale.  La maggiore innovazione risiede nel fatto che KiteGen® può sfruttare una fonte energetica disponibile in quantità immense rispetto agli attuali utilizzi, diffusa su tutto il Pianeta e “nuova”, nel senso che esiste da sempre ma solamente in tempi recenti le nuove tecnologie dei materiali, del supercalcolo e della sensoristica avanzata rendono possibile lo sfruttamento dell’energia del vento di alta quota.  Grandi ali pilotate, mediante robusti cavi di materiale polimerico innovativo, da un sistema di controllo altamente avanzato, basato su sensori avionici, volano ad altezze superiori al km raccogliendo l’energia di venti  molto più forti e costanti di quelli presenti in prossimità del suolo.

L’impianto Saudita CCU di Jubail City è progettato per comprimere e purificare 1500 tonnellate al giorno di anidride carbonica (CO2) proveniente dagli adiacenti stabilimenti petrolchimici.  Tale gas, anziché essere immesso in atmosfera, come usualmente avviene nelle lavorazioni petrolchimiche, sarà utilizzato come una delle materie prime necessarie nella produzione di urea, ammoniaca e metanolo.  I primi due sono componenti indispensabili per la produzione di fertilizzanti, il terzo è utilizzabile come carburante o come base per numerosi prodotti petrolchimici.
I processi CCU non sono una novità, l’innovazione consiste nell’utilizzare energia elettrica rinnovabile a bassissimo costo prodotta da KiteGen® per rendere economicamente convenienente riutilizzare la CO2 emessa dalle attività industriali come fonte di carbonio per produrre urea e metanolo invece che disperdere la CO2 in atmosfera ed alimentare i processi con idrocarburi di nuova estrazione come avviene attualmente, a causa del costo troppo elevato dell’energia rinnovabile o delle emissioni di  CO2 dell’energia termoelettrica, che vanificherebbero ogni processo di cattura.
Complessivamente il progetto consentirebbe di evitare emissioni pari a 500.000 tonnellate di CO2 annue, equivalenti a quanto emesso annualmente da 2,6 milioni di veicoli, e rappresenta il più avanzato, riproducibile e promettente metodo per invertire l’inesorabile e pericoloso processo di cambiamento climatico dovuto alle emissioni di gas serra, in particolare CO2.
KiteGen® sarà responsabile per l’ingegneria e la tecnologia, per il progetto di dettaglio, la realizzazione e la manutenzione. Le tempistiche del progetto prevedono la produzione in serie di generatori KiteGen® per il 2015 e l’impianto pilota nel 2016.
L’impianto di Jubail City sarà il primo progetto CCU di grandi dimensioni realizzato in Arabia Saudita, allo scopo di realizzare la strategia di sostenibilità ambientale intrapresa da SABIC, seconda compagnia saudita dopo Aramco ed uno dei più grandi gruppi industriali del mondo nel settore chimico.
Il progetto KiteGen® sarà, infatti, una delle colonne portanti del programma saudita da 66 miliardi di $ destinato a fornire energia rinnovabile per la desalinizzazione di acqua marina destinata a dissetare l’arida penisola arabica.  L’approccio saudita è infatti molto pragmatico, utilizzeranno gli ingenti proventi petroliferi per valutare ed acquisire le più promettenti tecnologie per la produzione di energia rinnovabile.  KiteGen® è ai primi posti grazie alle imbattibili prestazioni energetiche ed economiche (almeno 10 volte più economico delle altre fonti rinnovabili) del concetto, che è coperto da un patrimonio brevettuale esclusivo e riconosciuto ufficialmente come il primo a livello mondiale.

CIMG0063Massimo Ippolito (al centro, in maniche di camicia) durante una visita allo stem di Sommariva Perno (At)

Breve intervista a Massimo Ippolito (c. della volpe)

Fin qui la comunicazione ufficiale che gentilmente l’ing. Ippolito ci ha concesso di pubblicare; ma la curiosità del chimico mi ha obbligato a qualche domanda di contorno.

D: Ing. Ippolito può dirci qualcosa di più delle attività chimiche in Arabia e di come la nuova tecnologia italiana KItegen® può influenzarle?

R.: Le consociate di Sabic coinvolte nel processo sono alcune grandi aziende petrolchimiche che si trovano nel distretto industriale di Jubail City, sulla costa del golfo persico vicino al Bahrein.
(nota dell’intervistatore: chi è interessato potrebbe trovare qualche dettaglio in più su http://nzic.org.nz/ChemProcesses/production/1A.pdf). In buona sostanza il  processo Sabic per l’urea si potrebbe riassumere così:
dai vicini campi petroliferi proviene il gas naturale associato alla produzione petrolifera (essenzialmente metano) ed utilizzato come materia prima (come sorgente di idrogeno, mentre l’azoto viene preso in atmosfera) per la produzione di ammoniaca mediante steam reforming e water shift. Durante il processo si ottiene anche CO2 che viene utilizzata, insieme all’ammoniaca, per la sintesi dell’urea da cui poi si ottengono alcuni fertilizzanti.
Nel nuovo processo la sintesi dell’urea dovrebbe avvenire da ammoniaca (prodotta con idrogeno ottenuto mediante elettrolisi dell’acqua  e azoto atmosferico) e fatta reagire con la CO2 quasi pura  proveniente dall’impianto etilene glicole.

D: E quale sarebbe allora il ruolo della nuova sorgente di energia? Cambierebbe non solo la fonte ma anche il processo?
R: Il ruolo di Kitegen è produrre H2 da elettrolisi a costo inferiore rispetto al processo che utilizza gas naturale. Idem per il metanolo per la cui sintesi invece del gas naturale si può utilizzare idrogeno e CO2,i cui rapporti vengono poi ottimizzati tramite le classiche reazioni di water shift.
I sauditi (col supporto di LINDE come partner tecnologico per la Carbon Capture) non sono gli unici, la CCU sta diventando una specie di moda in MO; per esempio i qatarioti con il supporto di Mitsubishi per la carbon capture faranno qualcosa di simile qui: http://www.qscience.com/doi/pdf/10.5339/stsp.2012.ccs.22@cop18.2012.2012.issue-1

D: Quali obbiettivi economici vi proponete?

R: L’obbiettivo è scendere sotto i 15 $/MWh per il costo dell’energia elettrica; a questo punto moltissimi processi di sintesi che attualmente coinvolgono idrocarburi potrebbero diventare elettrici, nel senso di sfruttare le nuove opportunità offerte dal bassissimo costo di processi di tipo elettrochimico, oltretutto più puliti e probabilmente anche più efficienti. Il gas naturale (si veda ad es. http://www.eex.com/en/ costa in Europa tra i 25 e i 30 euro/MWh ma, a bocca di pozzo costa ancora di meno.  Scendendo sotto i 25$/MWh l’energia di KiteGen inizia ad essere competitiva con il gas a bocca di pozzo e, se c’è in gioco una qualche iniziativa di emission trading, risulterebbe già pienamente competitiva.
Per quanto riguarda la continuità della produzione non la vedrei come un problema bloccante, la produzione elettrica per l’elettrolisi può essere anche variabile se si dispone di un opportuno stoccaggio dell’ammoniaca, tale da assicurare un input costante alla filiera dei fertilizzanti.
Foto e dettagli sul funzionamento sono disponibili sul nostro sito http://kitegen.com

Come funziona KItegen®.(cdv)

scena-3-kupola-2-versione

Kitegen è un gigantesco aquilone dell’area di quasi 100 mq che viene tenuto in posizione da una coppia di cavi di polimero UHMWPE del diametro inferiore al cm; tale aquilone si muove ad altezze dell’ordine di 1000-1500m e descrive un percorso definito a yo-yo; quando si allontana i cavi fanno girare un alternatore producendo energia elettrica e quando la lunghezza raggiunge il massimo desiderato uno dei cavi viene allentato e l’aquilone viene trascinato “in bandiera”, quindi con bassa spesa energetica di nuovo a bassa quota, poi il ciclo ricomincia. Grazie alla costanza dei venti in alta quota il sistema è molto più costante dei normali generatori eolici e grazie anche alla maggiore velocità media del vento in quota il procedimento ha un elevatissimo EROEI (la potenza ottenuta dipende dal cubo della velocità del vento). Tutto il meccanismo è gestito da un computer, da un software esperto e da un braccio meccanico appositamente progettato fatto di alluminio o fibra di carbonio.

CIMG0062

Lo stem di Kitegen di Sommariva Perno (Asti)

Sono in corso nel mondo altri tentativi di trarre energia dal giacimento troposferico (per esempio si veda Makani Power).

NdA: si ringrazia per la collaborazione l’ing. Eugenio Saraceno.

Maggiori approfondimenti su Kitegen su:

http://kitegen.com/

http://kitegen.com/tecnologia-2/stem/

http://kitegen.com/prodotti/material/

Il tempo biologico

a cura di Luigi Campanella, Dip. di Chimica Università “La Sapienza” di Roma

Il concetto di tempo ha da sempre affascinato sia gli addetti ai lavori scientifici che i non addetti; la ragione di ciò sta da un lato nell’immanenza del suo trascorrere sulla vita di tutti noi, e dall’altro nel contrasto aperto fra dimensioni così diverse, pure tutte vicine alla nostra realtà. Tale contrasto è particolarmente vivo nel confronto fra fenomeni e processi legati alla dinamica biologica. La comparsa e lo sviluppo della vita sul nostro pianeta, le trasformazione e gli adattamenti ambientali del mondo animale e vegetale, lo stesso tempo che intercorre dal concepimento alla nascita sono processi caratterizzati da ordini di grandezza temporali molto diversi (106, 103, 100 anni).
Ma proprio questa varietà rappresenta quasi un’occasione per la definizione di una scala di tempo dotata di differenti unità di misura da utilizzare di volta in volta in funzione del tipo di fenomeno a cui si vogliono applicare. Lo stesso suolo su cui ci appoggiamo è il risultato del processo pedogenetico che parte dalle rocce e dai minerali e giunge al terreno nel senso comune del termine attraverso processi di natura chimica (ossidazioni, riduzioni, complessazioni, reazioni acido-base), fisica (pioggia, grandine, neve, vento) e biochimica (enzimi, microrganismi). Queste reazioni sono regolate da cinetiche ben precise che fissano i tempi di rinnovamento dei suoli, di correzione delle condizioni di fertilità di un terreno, di durata dei cicli produttivi naturali.

Biological time

Ma se si pensa che la velocità di queste reazioni dipende dalla temperatura si conclude che anche queste unità di misura sono soggette a differenze di entità a seconda delle condizioni ambientali. È questo uno dei limiti del tempo biologico, ma non solo. Si immagini un processo che porti un sistema dello stato A allo stato B attraverso differenti meccanismi; per potere, attraverso una misura quantitativa di B, dedurre il tempo intercorso è necessario conoscere quale delle vie di trasformazione è stata seguita.

Gli stessi grandi eventi astronomici, moti di rotazione, di rivoluzione, di traslazione, precessioni producono effetti temporali costanti e riproducibili, ma spesso difficilmente riconducibili ad eventi misurabili si pensi ad esempio alla notte ideale di 12 ore (contro le 12 ore di giorno), ed a quella reale, magari artica invernale di circa 22 ore, a quella estiva di Capo Nord praticamente di qualche decina di minuti. Ed analogamente si pensi ai processi di trasformazione degli inquinanti smaltati nell’ambiente: i tempi di dimezzamento (è questo un concetto che ritorna spesso nelle scienze fornendo altrettante occasioni di dimensionamento del tempo) rappresentano l’entità del tempo richiesto per ridurre del 50% la concentrazione iniziale; ma anche in questo caso si possono osservare per la stessa sostanza tempi sostanzialmente diversi a seconda delle condizioni sperimentali (pH, carica batterica, limitatamente ai casi di fotodegradazìone intensità luminosa).
I tempi al di là di questi limiti sono stati utilizzati per la prima misura del tempo trascorso.
L’archeometria è la proiezione di questa metodologia ai beni archeologici e culturali. Tale misura si può alternativamente basare sul decadimento degli isotopi radioattivi del carbonio, sulla racemizzazione dei composti organici otticamente attivi, sulla produzione di alcuni isotopi ottenuti a partire da altri attraverso reazioni nucleari, sulla comparsa di alterazioni molecolari connesse con processi ossidativi (si pensi alla carbossilazione dei materiali cellulosici) o idrolici (lignina). La dendrocronologia misura l’età degli alberi sulla base dei cicli di vita rivelabilì dall’osservazione dei cerchi concentrici di una sezione ortogonale all’asse verticale dell’albero. Ciò consente studi sulle capacità di sviluppo delle differenti specie vegetali programmandone l’insediamento in funzione delle finalità.
Si è finora soprattutto centrata l’attenzione sul tempo biologico inteso come “lungo” nell’accezione umana, cioè se confrontato con il tempo medio della nostra vita.

In effetti si conoscono tempi biologici capaci di fornire indicazioni sui fenomeni e processi che si sviluppano in lassi di tempi “brevi” rispetto al tempo della vita umana. I nove mesi della gestazione, le 24 ore del giorno, il periodo di oscillazione di un cristallo di quarzo, l’alternarsi trimestrale delle stagioni, la comparsa o scomparsa dei colori nelle reazioni chimiche oscillanti, i cicli di respirazione dei microrganismi, i periodi di alcuni fenomeni periodici come il battito delle ali di alcuni insetti, le oscillazioni di un’onda sonora, il ciclo termico del corpo umano, i cicli cellulari. L’orologio biologico è un ciclo stimolante: in un’epoca in cui per validare e valorizzare il dato scientifico sperimentale, si cercano riferimenti materiali, sia tematici che procedurali, disporre di standard biologici è certamente di fondamentale interesse. Un riferimento è infatti un sistema caratterizzato da valori che possono essere assunti per veri e se misurati, perciò, consentono di evidenziare eventuali disfunzioni nella strumentazione ed eventuali errori metodologici.
Questo approccio non viene formalmente applicato visto che la qualità di una misura richiede come riferimento uno standard che sia costante nel tempo e nello spazio. E questo, come abbiamo visto, non è per molti dei tempi biologici; in pratica però esso lo è in quanto nella comune accezione della vita di tutti i giorni sono proprio questi fenomeni, di durata accuratamente nota, a consentire la valutazione di tempi percepiti, ma che non possono con certezza essere valutati.
Un altro aspetto del fascino esercitato dal concetto di tempo deriva dal fatto che ad esso è
correlato uno spazio percorribile ad una certa velocità. La difficoltà in cui spesso la nostra vita è costretta a scorrere è sovente proprio determinata, da un lato dalla mancanza di spazi alternativi e dall’altro dalla progressiva riduzione degli spazi percorribili nei tempi a disposizione (ritenuti costanti), a causa della diminuzione della velocità, limitata in modo massiccio dai condizionamenti negativi che derivano dallo stesso sviluppo e dal consumismo sfrenato con cui spesso viene interpretato. Le mancanze di spazi hanno un risvolto biologico chiaro: progressiva scomparsa delle zone libere, delle aree verdi, degli spazi che non possono essere interpretati in chiave economica tradizionale, dimenticando che economia vuole anche dire qualità della vita, salute dei cittadini, sicurezza sociale.
Le considerazioni spazio temporali sono in questi ultimi anni state applicate a problemi planetari di grande interesse. Si ricordi per tutti, la valutazione di impatto ambientale che obbliga a valutare, ai fini del risultato richiesto, bilanci energetici temporali, consumi unitari, smaltimenti energetici per unità di tempo. Il tempo biologico ha finito quindi per sposarsi e confrontarsi con il tempo ecologico inteso come lasso di tempo necessario per poter misurare variazioni della qualità dell’ambiente a seguito di attività produttive ed industriali naturali o indotte. Da tale confronto emergono indicazioni preziose sulle iniziative da assumere ai fini di una minimizzazione del danno ambientale e del rapporto costi/benefici, inserendo fra tali benefici quello della qualità ambientale, spesso dimenticata perché ritenuta incommensurabile.

per approfondire:

http://www.technologyreview.com/view/418702/the-two-dimensional-arrow-of-biological-time/

arxiv.org/abs/1004.4186: A 2-dimensional Geometry for Biological Time

L’Organizzazione per la proibizione delle Armi Chimiche (OPCW)

a cura di Ferruccio Trifirò, consigliere scientifico dell’OPCW, direttore di C&I

L’ONU ha promosso nel 1993 una Convenzione per la proibizione delle Armi Chimiche, poi ratificata nel 1997 con la creazione all’Aia dell’OPCW ( Organization for Prohibition of Chemical Weapons). La convenzione è stata attualmente ratificata da 189 Paesi, ce ne  sono  ancora 7 che non l’hanno ratificata e questi sono: Siria, Israele, Egitto, Myanmar, Sudan del Sud, Corea del Nord e Angola. Questi paesi non firmatari non accettano automaticamente i controlli da parte della OPCW che sono, invece, obbligatori per i paesi firmatari. La convezione è un accordo fra diversi stati sulla produzione, l’importazione, l’uso e l’accumulo di armi chimiche e comporta impegni ben precisi da parte dei  diversi stati firmatari. Secondo la convenzione  è proibito  sviluppare, produrre, acquistare, immagazzinare o trasferire ad altri paesi armi chimiche e usare armi chimiche.

Slide2

Un arma chimica é una sostanze tossica  o anche un suo precursore  proibiti dalla convenzione e presenti in un speciale elenco elaborato dall’OPCW. In questo elenco ci sono sostanze tossiche che possono essere utilizzate, ma occorre avere l’autorizzazione dalla Convenzione. Queste sostanze tossiche sono le sostanze chimiche che attraverso la loro azione chimica sui processi vitali possono  causare morte, invalidità permanente o temporanea sugli uomini e sugli animali: questo include qualsiasi sostanza chimica  indipendentemente dalla sua origine e dal metodo di produzione, se  essa sia prodotta in industrie belliche o civili. le più note armi chimiche sono: agenti nervini (Sarin VX ,Tabun, Soman); vescicanti  (Lewisiti, Ipriti); soffocanti (Cloro, Fosgene) ;incapacitanti (BZ – quinuclidinil benzilato); lacrimogeni (cloropicrina, bromuro di xilile); tossici – attaccano i globuli rossi (HCN, ClCN).

Slide3Sulla proibizione dell’uso di armi  chimiche  c’è una lunga storia di trattati internazionali elencati in Tab 1

  • Tab 1 Elenco dei trattati sulla proibizione delle armi chimiche
  • Anno 1675 L’accordo di Strasburgo (limitazione  uso pallottole velenose)
  • Anno 1874  La convenzione di Brusselles proibizione delle armi che causano non necessarie sofferenze
  • Anni 1899-1907Conferenze  Aia per la messa al bando di armi velenose
  • Anno1925 Protocollo Ginevra  per la messa al bando ma non proibizione
  • Anno 1993  Firma Convenzione  Armi Chimiche CWC
  • Anno 1997   Entra in forza la convenzione con la Creazione dell’OPCW con sede all’AIA con la ratifica di 87 stati,nel 2007 hanno ratificato 182 paesi,nel  2010 188 paesi e nel 2013 189 paesi

 

Slide6I composti chimici che devono  essere tenuti sotto controllo appartengono alle seguenti quattro categorie:

Classe 1 (composti tossici e loro precursori con  nessuna applicazione per scopi pacifici per esempio Sarin o Metil fosfonildifluoruro un suo precursore );

Classe 2( composti tossici e loro precursori con applicazione per usi pacifici in modeste quantità,  per esempio Metilfosfonil dicloruro precursore Sarin);

Classe 3 (composti tossici e loro precursori con  applicazione per usi pacifici in grandi quantità, per esempio fosforo tricloruro precursore  Sarin );

Classe 4 prodotti organici distinti  (DOC)(che non hanno legami diretti con la produzione di armi chimiche, ma le cui apparecchiature potrebbero essere utilizzate per produrre armi chimiche per esempio  acetone) . Invece la produzione di NaF e KF che sono  anch’ essi intermedi per produrre Sarin non sono nell’elenco delle sostanze da tenere sotto controllo per la convenzione, per questo l’Inghilterra le ha vendute alla Siria recentemente.

Slide7

E’importante  che  tutti i chimici conoscano le implicazioni che questa convenzione, legata a filo doppio alla chimica, ha sulla umanità. Innanzitutto è bene ricordare che le armi chimiche sono sostanze chimiche di sintesi che presentano tossicità acuta  e proprietà fisiche ottimali per la loro facile dispersione nell’ambiente, sono tra gli inquinanti più pericolosi in una produzione chimica  per scopi pacifici. Il primo obiettivo della convenzione è stato di disattivare gli impianti che producevano armi chimiche e distruggere le armi chimiche immagazzinate. Erano stati individuati 70 siti in 13 paesi diversi che producevano armi chimiche e sono stati tutti disattivati, erano stati individuati 38 siti in 7 paesi diversi dove erano armi chimiche immagazzinate e l’80% è stato distrutto. Un secondo obbiettivo della convenzione é quello di tenere sotto controllo anche i siti dove  ci sono produzioni chimiche a scopi pacifici, ma che potrebbero essere utilizzate per produrre armi chimiche: ne sono stati dichiarati 5426 in tutto il mondo. L’obbligo della dichiarazione della presenza di queste attività da parte dei paesi firmatari ed il successivo controllo da parte dell’OPCW con diverse ispezioni, indirettamente ha una forte ricaduta sulla sicurezza di questi impianti o laboratori di ricerca, in quanto spinge ad un maggiore controllo delle emissioni di materie prime, sottoprodotti, intermedi,  prodotti e coprodotti che presentano tossicità acuta. Comunque il futuro dell’OPCW non può essere legato solo alla distruzione completa delle armi chimiche immagazzinate e dei loro impianti di produzione, ma anche al controllo del cattivo uso o alla possibilità di un uso duale della produzione chimica ad esempio  quella dell’acido cianidrico, fosgene, cloro, composti dell’arsenico etc. In particolare lo spostamento della produzione chimica dal Nord America e dall’ Europa in Asia e Sud America rende questi aspetti negativi della chimica sempre più attuali ed inoltre con le nuove tecnologie e con la possibilità di utilizzi da parte di terroristi il pericolo è legato all’utilizzo di chilogrammi di sostanze tossiche non più di tonnellate.

Slide5

Un terzo obiettivo della Convenzione é controllare le possibili scoperte di nuove armi chimiche (o nuove sostanze a tossicità acuta)  e questo obiettivo è uno dei compiti principali del comitato scientifico dell’OPCW di cui faccio parte. Infatti, all’interno dell’OPCW è operativo un Scientifc Advisory Board (SAB) costituito da 23 tecnici appartenenti ai paesi che hanno ratificato la convenzione, selezionati dalla direzione dell’OPCW in base al loro curriculum  scientifico e/o professionale, la gran parte di questi tecnici sono chimici e medici. Diverse sono le attività che i membri del SAB devono seguire, qui di seguito sono riportati i diversi argomenti che sono l’oggetto dei diversi convegni e riunioni a cui devono partecipare.

1- Sviluppo nella scienza e nella tecnologia

In questo settore gli argomenti rilevanti di interesse per la Convenzione sulle armi chimiche sono la creazione di nuove armi chimiche  a seguito della convergenza fra chimica e biologia, la nanotecnologia, lo sviluppo accelerato di nuove sostanze chimiche e l’uso di microreattori.

1-1 Convergenza fra chimica e biologia

Le produzioni chimiche a partire da biomasse che utilizzano processi  biotecnologici stanno aumentando notevolmente in questi ultimi anni ed è interessante ricordare che un esempio emblematico di queste nuove tecnologie riportato nelle riunioni del SAB è la produzione di 1-4 butandiolo intermedio per la sintesi di polimeri, sarà prodotto in Italia ad Adria(Rovigo) a partire da biomasse con processi di fermentazione modificati geneticamente, dall’azienda italiana Novamont in collaborazione con la Genomatica azienda americana che ha messo a punto la tecnologia. Il processo che sarà utilizzato permette di arrivare in uno solo stadio al prodotto finale a partire da carboidrati con un risparmio del 30 % su quello  ottenuto da combustibili fossili.  Dopo la realizzazione dell’impianto di Adria sarà  realizzato nei prossimi anni un secondo impianto più grande a Porto Torres dalla Novamont  e dall’ENI. Inoltre  la Genomatic ha fatto un accordo con La Chemtex azienda italiana(della Mossi & Ghisolfi ) per studiare il processo di produzione di 1-4 butandiolo a partire da lignocellulosa, quindi  non da sostanze che possono essere utilizzate a scopi alimentari. Comunque per la produzione di sostanze tossiche di classe 1 con processi fermentativi da biomasse il SAB ha concluso che per adesso non ci sono ancora esempi significativi che possono essere alternativi in quanto più facili ed economici delle sintesi tradizionali. Comunque è necessaria una convergenza fra CWC  e BTWC (la convenzione sulle armi biologiche) e tenere sempre sotto controllo anche queste nuove biotecnologie

1-2 Metodologie accelerate di sviluppo di sostanze chimiche

In questi ultimi anni sono state molto utilizzate tecniche accelerate di sviluppo di farmaci che hanno permesso l’individuazione di migliaia di nuove sostanze. Questi metodi utilizzano tecniche combinatorie accompagnate da misure in vitro di attività  biologica e potrebbero essere utilizzate per produrre nuove sostanze tossiche, in particolare quelle della famiglia degli agenti incapacitanti.

Slide41.3 Nanotecnologie 

Le nanotecnologie ossia la produzione di sostanze che hanno dimensioni inferiori ai 100micron hanno avuto ricadute positive in diversi settori, come  nella scienza dei materiali( silicio, argento, nichel e nanotubi di carbonio), nella medicina (per il rilascio di farmaci) e nel settore energetico. Le nanotecnologie hanno portato anche dei rischi a seguito della loro tossicità e della capacita di aumentare la tossicità di altre sostanze chimiche. Le nanotecnologie hanno avuto anche ricadute positive per la Convenzione per le armi chimiche perché sono servite per mettere a punto dispositivi di protezione, di individuazione, di decontaminazione e misure di disintossicazione. Non ci sono ancora esempi rilevanti che permettono di considerare le nanoparticelle cosi tossiche da essere inserite nel novero delle armi chimiche, però potrebbero essere utilizzate in questo settore per veicolare più facilmente le sostanze tossiche o proteggerle per incapsulazione dal degrado atmosferico.

1-4 Tecnologie per la distribuzione di armi chimiche

Quando si parla di distribuzione di armi chimiche non si intende solo del loro rilascio a scopi bellici, ma anche del loro trasporto  in grandi quantità per scopi militari. Nel campo della distribuzione (rilascio) sono interessanti alcune tecniche utilizzate nel settore agricolo, per esempio la dispersione di liquidi con gocce di diametro inferiore al micron (liquidi aerosol) o altre tecniche come  nano-polveri, nano-capsule e anche cibi e acqua avvelenata.

1-5 Nuove tecnologie di produzione

L’utilizzo di microreattori a flusso è una tecnica molto innovativa nelle sintesi organiche perché permette di produrre velocemente e con sicurezza sostanze pericolose e tossiche. Questi microreattori a flusso sono reattori tubulari di dimensioni molto piccole che possono avere diametri <1mm  a forma di spirali o colonne o chip attraverso i quali passa un flusso laminare continuo dei reagenti e sono immersi in un fluido refrigerante o riscaldante. I microreattori a flusso sono stati proposti per la loro maggiore sicurezza, perché permettono un risparmio energetico, una diminuzione della produzione di rifiuti, un minore utilizzo di manodopera, la possibilità di ottenere in molti casi una più elevata resa e selettività ed anche perché consentono un più veloce ottenimento di dati cinetici e quindi facilitano l’ottimizzazione dei parametri operativi per un veloce scale-up. La proprietà che caratterizzano i microreattori a flusso sono le seguenti: utilizzano bassi tempi di residenza (ottenuti utilizzando bassi volumi di catalizzatore ed alte velocità di flusso dei reagenti), il flusso dei reagenti è laminare, c’è un ottima miscelazione dei reagenti, utilizzano una bassa quantità di reagenti con un volume del reattore molto piccolo ed hanno un elevato rapporto superficie /volume del reattore. Il pericolo consiste nel fatto che la armi chimiche con questi micro reattori possono essere prodotte non in industrie chimiche e quindi di non facile individuazione e da parte di terroristi.

2 Aggiornamento delle sostanze chimiche tossiche

C’è stata una discussione sulla possibilità di revisione delle sostanze tossiche presenti nell’elenco  che pongono un rischio per la Convenzione sulle armi chimiche. All’interno del SAB si é discusso se intermedi che vengano sintetizzati e subito trasformati in situ devono essere esclusi dalla lista delle sostanze da tenere sotto controllo ed anche se includere le sostanze che  sono sottoprodotti o rifiuti. Il risultato è che devono essere inclusi in tutti i tre casi .

Si è discusso se i sali delle sostanze presenti nella lista da tenere sotto controllo perche sono armi chimiche o loro precursori devono essere esclusi, si è concluso che devono essere inseriti, in particolare tutti i sali della saxitoxin devono essere inclusi. Si è confermato, che per ricina si intende:  tutte le forme derivanti da Ricinus communis incluse ogni variazione nella struttura della molecole prodotte naturalmente o per via sintetica e tutte queste sostanze devono essere tenute sotto controllo . Era  stato proposta dai russi una nuova sostanza tossica da inserire nella classe 1 , un agente nervino chiamato Novichocks.( un composto di fosforo legato ad un gruppo alchilico non alcossidico). E’ stato deciso che per adesso non ci sono abbastanza evidenze scientifiche per includerlo.

3) Metodologie di controllo

Le metodologie di controllo si distinguono in tecniche situ e tecniche non in situ. Nelle metodologie di analisi in situ i problemi sono i seguenti: il poco tempo a disposizione , la logistica non sufficiente, l’analisi di campioni ambientali e biomedicali( contaminazioni da parte di persone e di animali), la tossicità delle sostanze da analizzare soprattutto quelle di  classe 1 e la difficoltà di analisi di tossine (ricina e saxitossina). Per l’analisi in situ la tecnica ideale è la gas-massa  e nel caso di soluzioni acquose è stato messa a punto una tecnica di estrazione gas-liquido con una derivatizzazione dei prodotti ed un campionamento con tecniche DESI (desorption electrospray  ionization)  e tecniche DART( Direct analysis in real time). Per quello che riguarda l’analisi  non in situ ci sono oramai più di una ventina di laboratori accreditati che possono realizzare le analisi senza problemi, questi laboratori sono stati recentemente coinvolti nelle analisi dei campioni di terra e biologici prelevati in Siria. Comunque le analisi dei campioni biomedicali e quello delle tossine pone ancora problemi, essendo sostanze poco volatili e polari.

Si stanno sviluppando nuove tecniche di analisi come per esempio la risonanza magnetica che sta diventando sempre più sensibile ed adatta a trattare miscele e campioni acquosi,la spettrometria raman e la spettrometria di massa ad alta risoluzione che é stato il miglioramento più significativo degli ultimi anni.

4) Distruzione di armi chimiche

In questo settore è necessario distinguere fra armi chimiche immagazzinate e vecchie  armi chimiche  disperse nell’ambiente. Le prime  sono state distrutte al 80%  e le tecnologie di distruzione sono disponibili, ben convalidate e messe a disposizione dai paesi più sviluppati, e l’unico problema può essere il costo di distruzione. Inoltre c’è esperienza in ambito OPCW per la verifica della completa distruzione di queste armi. Problemi, invece, esistono per le armi vecchie, disperse nell’ambiente ed abbandonate per le quali occorre trovare ancora sistemi più sicuri di recupero e distruzione.

5) Ulteriori consigli scientifici e  tecnologici

La messa a punto di sistemi portabili per la rivelazione veloce di armi chimiche, durante le operazioni di controllo  rimane un argomento di interesse sempre attuale. Tecnologie promettenti sono la fotometria di fiamma, sensori a nano tubi di carbonio, GCMS portabili e tecnologie veloci per la rivelazione di tossine e di campioni  biomedicali.

6) Educazione e ricadute della scienza e tecnologia

E’ necessario che ci sia percezione da parte degli studenti, degli educatori e del mondo scientifico del rischio posto dall’ uso non corretto dei prodotti chimici, non solo per quanto riguarda la produzione di armi chimiche, ma anche per i problemi legati alla sicurezza dei processi e dei prodotti e di tutta la catena produttiva . Tutti questi aspetti trovano una soluzione ideale nella collaborazione fra IUPAC e l’OPCW  e nella realizzazione di attività in comune. E’ stato ricordato più volte proprio il convegno di Torino organizzato   nel 2007, dove c’é stata la presenza di attività dell’OPCW, come esempio di successo di questa collaborazione ed è utile ricordare che anche all’ultimo convegno IUPAC tenutosi quest’anno in Turchia ha partecipato il presidente dell’OPCW. Comunque della sintesi di armi chmiche non si deve parlare in ambito scientifico e scolastico per motivazioni etiche. Infatti oramai  facendo un’analisi della letteratura negli ultimi vent’anni si trovano pubblicazioni solo nei seguenti settori : aspetti analitici, aspetti biomedicali, tecnologie di distruzione e aspetti di protezione .

Il sito della OPCW: http://www.OPCW.org

 

Ultimi indovinelli dal cappellaio matto.

a cura di C. Della Volpe

“Mad as a hatter” è un modo di dire inglese, che fa ricordare a tutti noi il personaggio burlone di “Alice nel paese delle meraviglie” di Lewis Carroll, che poneva continuamente inquietanti non-sense o gustosi indovinelli: “matto come un cappellaio”.

hatter

Illustrazione di John Tenniel, 1865

E’ un  modo di dire che probabilmente deriva dal fatto che nell’industria del feltro si usava il nitrato di mercurio e il suo assorbimento produceva non solo le macchie arancioni, che compaiono nel personaggio di Disney e nel travestimento di altri “cappellai matti” della letteratura e del cinema, ma soprattutto una generale intossicazione del sistema nervoso con conseguenze che partivano dal comportamento strano, da matto, appunto, e che arrivavano  comunemente alla morte precoce.

Nonostante la intossicazione da mercurio abbia queste conseguenze il mercurio è stato uno dei metalli che l’uomo ha usato per primo, date le sue specialissime proprietà; si ha notizia di uso del mercurio da almeno tremilacinquecento anni e il suo consumo è andato crescendo sia per le applicazioni nell’attività estrattiva dei metalli preziosi che nell’industria bellica e in tante altre applicazioni.

Secondo la letteratura [1] solo negli ultimi 500 anni sono stati estratti almeno 1 Mt di mercurio, di cui un terzo o un quarto  dalla sola miniera di Almaden, in Spagna, attiva da 2000 anni; da questa quantità è escluso il contributo della produzione cinese più antica che probabilmente rivaleggiava con quella spagnola. Questa enorme quantità è stata usata nel trattamento dei metalli preziosi (oro ed argento) e nello sviluppo dell’industria mondiale oltre che nella seconda guerra mondiale.

mercurystoria

Il mercurio rappresenta un buon esempio della parabola produttiva completa di un metallo di cui abbiamo esaurito i principali accumuli nella crosta terrestre; oggi produrlo sarebbe molto più costoso di una volta a causa delle bassissime percentuali residue; comunque è chiaro che ne abbiamo abbandonato la produzione anche per la sua riconosciuta tossicità, ma ripeto non prima di averne esaurito letteralmente le risorse minerali più cospicue e concentrate, di cui rimangono in crosta solo un altro 5-10%. Avevo parlato di questo fatto e del problema dei limiti della biosfera in un articolo comparso recentemente su C&I [2]. Ma oggi voglio parlarvi dell’altro aspetto del mercurio, la sua riconosciuta tossicità.

I primi a cercare di difendere le loro condizioni di lavoro furono i minatori italiani dellle miniere toscane che lottarono fin dagli anni 20 del secolo scorso; ma fu solo con il caso Minamata, , che la cosa divenne di dominio mondiale: l’avvelenamento di un intero Golfo giapponese protratto nel tempo dalla criminale azione della Chisso corporation, che usava il mercurio nella produzione di acetaldeide, e invece di raccoglierla in una discarica la immetteva in mare, intossicando ed uccidendo negli anni migliaia di persone, che si nutrivano del pesce del golfo. La causa del disastro fu individuata solo nel 1956 e la produzione interrotta solamente (ahimè) nel 1968 [3].

Attorno all’inizio degli anni 70 la coscienza dei rischi del mercurio era diffusa e obbligò l’amministrazione americana a mettere dei limiti sul contenuto di mercurio dei concimi; questa decisione segnò l’inizio di una crisi del mercato del mercurio o forse sarebbe meglio dire confermò una crisi che già mordeva il mercato mondiale del mercurio, a causa dei crescenti costi di estrazione.

L’uso mondiale del mercurio ne ha fatto un global pollutant: prima del mercato mondiale e della globalizzazione, c’è l’inquinamento globale di cui il mercurio è un protagonista indiscusso, come mostrano i dati del ghiacciaio Freemont che fanno vedere come la sua concentrazione sia regolarmente cresciuta in questo ghiacciaio americano in corrispondenza del suo uso nel mondo intero.

freemontglacier

Dati USGS

Il mercurio entra nei cicli biologici non direttamente come metallo, ma attraverso un suo composto metilato, il metilmercurio, prodotto per azione dei batteri. Tuttavia i dettagli di questo processo sono relativamente compresi nei fanghi dei fondali costali ma molto meno nell’oceano. Si sapeva per esempio che il mercurio entra nell’alimentazione umana attraverso i grandi pesci pelagici, ma non si era capito come il mercurio arrivasse così in alto nella catena alimentare e così facilmente se la fonte erano solo i batteri che lo metilavano nel fondo oceanico.

Un recente articolo comparso su Nature Geoscience [4] svela alcuni aspetti del problema.

Blum e collaboratori hanno analizzato la situazione del mercurio nel grande giro oceanico del Nord Pacifico, attraverso il campionamento della profondità di occorrenza di 9 grandi pesci pelagici (misurata con rivelatori elettronici, “electronic tagging”) e del loro contenuto di due isotopi del mercurio.

Il metil mercurio (MMHg) viene degradato da processi fotochimici e batterici, oppure viene assimilato dai grandi pesci. La fotodegradazione è importante a bassa profondità, ma il suo ruolo diminuisce con il crescere della profondità; contemporaneamente c’è una quota di nuova metilazione proveniente dall’azione batterica che avviene al di sotto di una certa profondità e che spiega l’aumento di assimilazione del mercurio con la profondità di foraggiamento dei grandi pesci pelagici. Non solo, la composizione isotopica di questo mercurio è molto simile, è quasi identica a quella proveniente dalla superficie.

In conclusione l’ipotesi è che batteri adesi alle particelle di nutrienti che sprofondano nell’oceano producano circa l’80% del MMHg al di sotto di una certa profondità. Questo nuovo meccanismo giustifica per la prima volta il risultato dell’accumulo di mercurio che cresce con la profondità di foraggiamento e ne spiega la somiglianza isotopica con quella aerea.

Ma questo risultato pone anche un nuovo quesito, molto importante per il futuro: abbiamo valutato correttamente la dinamica del mercurio nei decenni a venire?

Una quota di mercurio proviene non solo dall’uso diretto, che è ormai diminuito, ma dalla combustione di grandi quantità di carbone che è divenuto il combustibile a basso prezzo del nuovo sviluppo economico cinese ed indiano. Questo mercurio viene trasportato anche a grande distanza sul Pacifico ed assorbito dai grandi pesci attraverso il meccanismo prima descritto e non tenderà a diminuire a meno che non venga ridotto l’afflusso di mercurio da Ovest; questo vuol dire che l’inquinamento da mercurio, che si pensava di poter controllare con la sua abolizione, sta continuando e pone un notevole problema di controllo della intossicazione da mercurio nel supepredatore uomo: questo controllo dipende da quanto il medesimo superpredatore sarà in grado di gestire il suo modo di produrre energia nei paesi di recente sviluppo economico e dal rispetto degli accordi internazionali in tema di inquinamento (per il mercurio esiste l’accordo internazionale di Minamata).

Meccanismi complessi e spesso a prima vista inimmaginabili di retroazione collegano la vita e il futuro di Homo Sapiens Sapiens.

Lorenz

Questi legami profondi apparentemente misteriosi valgono per tutti i sistemi complessi: un battito di ali di farfalla nella giungla amazzonica potrebbe provocare un uragano sul golfo del Messico, ci raccontava nel 1972 Edward Lorentz, il matematico scopritore degli attrattori strani; l’idea gli era già venuta 10 anni prima in un articolo del 1963, ma allora aveva parlato di battito di ali di gabbiano. Questo cambiamento probabilmente gli fu suggerito da un racconto di Ray Bradbury, Rumore di tuono (A Sound of Thunder) del 1952, in cui si immagina che nel futuro vengano organizzati dei safari temporali per turisti e che  un escursionista del futuro calpesti una farfalla con conseguenze tragiche per la storia umana. Ma in realtà c’è un ulteriore precedente, dovuto ad un altro grande matematico Alan Turing che in un saggio del 1950, Macchine calcolatrici ed intelligenza, scriveva:

turing

Alan Turing, uno dei più grandi matematici della storia umana, spinto al suicidio dalla cultura omofobica della Gran Bretgna post-bellica

 “lo spostamento di un singolo elettrone per un miliardesimo di centimetro, a un momento dato, potrebbe significare la differenza tra due avvenimenti molto diversi, come l’uccisione di un uomo un anno dopo, a causa di una valanga, o la sua salvezza“.

Insomma nella catena infinita di rimandi e di retroazioni fra scienza e cultura umana, fra vita ed economia, sta scritta tutta intera la vita e la morte della nostra specie, una realtà che qualcuno aveva immaginato anche recentemente (vedi qui, nell’ultimo rimando misterioso di questo articolo).

 [1] Lars D. Hylander, Markus Meili, The Science of the Total Environment 304 (2003) 13–27

[2] C. Della Volpe Perchè era matto il cappellaio matto? C&I 2012, 8 142-143

[3]http://en.wikipedia.org/wiki/Minamata_disease#1908.E2.80.931955

[4]Joel D. Blum, Brian N. Popp, Jeffrey C. Drazen, C. Anela Choy & Marcus W. Johnson, Methylmercury production below the mixed layer in the North Pacific Ocean Nature Geoscience (2013)  doi:10.1038/ngeo1918

Pane, sale e spettroscopia.

a cura di Luigi Campanella , ex presidente SCI

Il sale da cucina è un importante composto che determina il giusto sapore in molti prodotti alimentari,primo fra tutti il pane. Purtroppo un gran numero di morti-ci informa la medicina-può essere correlato agli effetti di un’eccessiva ingestione di sale.

ipertensione_sale

In generale l’assunzione di sale è infatti maggiore di quanto consigliato.Ad esempio, l’assunzione media giornaliera di cloruro di sodio nell’adulto nei 12 Paesi dell’Europa occidentale è pari a 8-12 g,in confronto al valore consigliato che non dovrebbe superare i 6 g,mentre le esigenze nutrizionali si fermano ancora a meno,1-2 g.

Il pane è la maggiore fonte di sale della dieta umana. Per questa ragione è da attendersi che abbassando la quantità di sale nel pane si può ottenere una minore assunzione media di questo composto. Molte iniziative sono in corso,anche e soprattutto nell’UE, per ridurre la concentrazione del sale nel pane senza influenzare il sapore del prodotto. Recentemente è stato provato che una distribuzione disomogenea di sale nel pane potrebbe essere utile per rinforzare l’intensità del sale,consentendo di abbassare la concentrazione di tale composto nel pane, senza perdere in intensità totale salina. Concentrazioni locali -quasi puntuali- di sale portano ad un contrasto sensitivo che comporta una percezione più elevata del gusto, se paragonata a quella ottenuta con la stessa quantità complessiva, ma distribuita omogeneamente. Uno studio recente acquisibile in bibliografia (citato in calce) ha mostrato che un grande rinforzo della percezione del gusto può essere raggiunto creando nel pane zone a più alta concentrazione di cloruro di sodio per mezzo di particelle di sale incapsulate all’interno. La distribuzione del sale-riporta la ricerca-è fondamentale perchè un contrasto di concentrazione è utile per rinforzare l’intensità salina,ma se diviene eccessiva il prodotto risulta poco gradevole,fino ad essere inaccettabile. Nei prodotti alimentari semi-solidi, quali pane, formaggio, carne che hanno un contenuto in acqua di circa il 40%, il sale si scioglie nella fase acquosa e migra in modo relativamente rapido, sicchè gli iniziali contrasti di concentrazione si estinguono nel tempo. Per creare un prodotto con la distribuzione desiderata di sale è perciò necessario disporre di una tecnica che renda possibile la determinazione locale, quasi puntuale,del sale nel prodotto alimentare.

200px-Libs

Schematic of a LIBS system – Courtesy of US Army Research Laboratory

A tale esigenza risponde la LIBS (laser induced breakdown spectroscopy), una tecnica spettroscopica di emissione atomica, minimamente distruttiva e che non richiede alcuna preparazione del campione (al contrario di tecniche alternative come la microscopia elettronica a scansione e la spettroscopia di raggi X a dispersione di energia) e che può fornire informazioni sulla distribuzione locale di elementi a costi relativamente bassi.Con la LIBS il campione è eccitato utilizzando un impulso laser ad alta energia breve e localizzato, che porta alla produzione di un plasma con eccitazione atomica e conseguente emissione a frequenze specifiche e diagnostiche. E’ così possibile anche rilevare come nel pane invecchiato per soli 4 giorni i picchi di concentrazione locale si abbassino rispetto ai valori iniziali, chiara indicazione di una tendenza verso l’omogeneizzazione e la conseguente perdita dell’iniziale disomogeneità. Le analisi sono rapide:si pensi che in 5 minuti si possono analizzare per un elemento (il sodio in questo caso) 60 “locations” del campione di pane investigato

Per approfondire:

M.W.J.Noort,J.H.F.Bult e M.Stieger,J.Cereal Sci. 55(2) 218 (2012)