La concretezza in laboratorio.

Mauro Icardi

Ad intervalli di tempo regolari, mi capita di riflettere sul lavoro in laboratorio. Mi ritengo fortunato per due ragioni. La prima è che ho ricevuto  insegnamenti importanti e continui durante il periodo di studi. Le prime esercitazioni di laboratorio chimico mi hanno suscitato le stesse emozioni che Primo Levi descrive nel secondo capitolo de “Il sistema periodico”, quello dedicato all’Idrogeno.

L’esercitarsi a sviluppare la manualità, termine in un primo momento indistinto e quasi misterioso, prevedeva di applicarsi con dedizione e concentrazione, all’uso di propipette . Che molti di noi continuano a chiamare simpaticamente “porcellini”. Sembra un’operazione semplice e banale. Posso assicurare per esperienza personale che non è cosi. Non è stato semplice insegnare l’uso di questo palloncino di gomma rossa, con le sue tre valvoline a sfera, che ha liberato i chimici dalla non piacevole, e ormai dimenticata esperienza del pipettare a bocca.

Mi è successo di doverlo fare per studenti sia delle scuole superiori, che per tesisti provenienti dall’Università. Molti si sono destreggiati bene.  Ma ho sempre avuto l’impressione che non avessero compreso in maniera profonda, l’importanza di quel gesto.

Oggi anche l’utilizzo di questo oggetto è praticamente dimenticato. Le pipette a volume variabile hanno praticamente mandato in pensione le propipette. Io però continuo ad usarle, soprattutto quando preparo soluzioni di uso comune per il laboratorio.  Forse un vezzo che mi qualifica come chimico anziano.

Mi è anche successo di dovermi confrontare con persone che mi sono state affiancate sul lavoro, che, non per loro colpa, non possedevano   né una manualità sufficiente, ma soprattutto  non avevano la forma mentis del chimico di laboratorio.

Che si badi bene, non è una persona che esegue analisi in maniera pedestre e routinaria.

Ma che deve acquisire, con pazienza e perseveranza quello spirito di osservazione, che gli permetta per esempio di effettuare  il pretrattamento necessario del campione di acqua reflua che dovrà analizzare.  Che abbia un’idea preventiva del  livello di concentrazione di alcuni parametri, per esempio la richiesta chimica di ossigeno.  Potendo quindi scegliere il modo migliore per eseguire l’analisi, ed esprimere un risultato che più si avvicini al valore reale.

Deve osservare il campione. Verificarne l’aspetto e anche (sia pur con le dovute cautele) annusarlo. Levi su questo ci indirizzava. Credo valga la pena di citare questo brano.

Pesai un grammo di zucchero nel crogiolo di platino (pupilla dei nostri occhi) per incenerirlo sulla fiamma: si levò nell’aria del laboratorio l’odore domestico ed infantile dello zucchero bruciato, ma subito dopo la fiamma si fece livida e si percepì un odore ben diverso, metallico, agliaceo, inorganico, anzi, controrganico: guai se un chimico non avesse naso. A questo punto è difficile sbagliare: filtrare la soluzione, acidificarla, prendere il Kipp, far passare idrogeno solforato. Ecco il precipitato giallo di solfuro, è l’anidride arseniosa, l’arsenico insomma, il Mascolino, quello di Mitridate e di Madame Bovary.”  Primo Levi «Il sistema periodico»

Gli studenti di oggi mi sembra che non eseguano  più la ricerca sistematica dei gruppi analitici, che nel caso descritto era quella del secondo gruppo.  E questo, mi permetto di fare osservare, pur non essendo un docente, è davvero una grossa mancanza. Priva gli studenti di un’ addestramento pratico formativo e necessario.

Io opero nel settore idrico. L’acqua facilmente si sporca. E il chimico deve avere il giusto approccio, non avere né patemi né ribrezzi nei confronti di essa.

E in questo caso non è stato solo Levi a ricordarci l’importanza di questo approccio.

Ma anche l’indimenticato collega di redazione Giorgio Nebbia.

Mi rendo conto che può sembrare non gratificante dedicarsi all’analisi e allo studio dei liquami zootecnici o dei reflui degli impianti di depurazione urbana, anche se si tratta, solo in Italia, di alcuni miliardi di metri cubi all’anno, da cui potrebbero essere ricavate altre soluzioni forse non potabili, ma utilizzabili in agricoltura (e, con un po’ di furbizia, anche come fonti di metano). La chimica modesta è spesso molto utile per il, paese.

Giorgio Nebbia

Mi capita sempre più frequentemente di avere nostalgia degli anni di Laboratorio scolastico dove davvero ci si formava. Sia a livello teorico, che a livello di padronanza delle operazioni basilari. Essicamento, precipitazione, lavaggio dei precipitati, preparazione e standardizzazione di soluzioni.

Oggi tutto questo sembra dimenticato. Sia ben chiaro che non sono un retrogrado. L’analisi strumentale è stata rivoluzionaria e  dirompente per il lavoro in laboratorio.

Ma temo abbia in parte atrofizzato una certa sensibilità, una concretezza che, a mio parere il chimico dovrebbe acquisire e coltivare. E maggiormente il non chimico, che si trova per la prima volta in laboratorio.

Qualità dell’aria interna.

Luigi Campanella, già Presidente SCI

Come si valuta la qualità dell’aria negli ambienti interni (indoor,confinati di vita e di lavoro non industriali, in particolare adibitI a dimora, svago, trasporto, lavoro :uffici pubblici e privati, abitazioni, strutture comunitarie,locali destinati ad attività ricreative e sociali, auto, treno,  aereo, nave)?
L’aria negli ambienti indoor  negli ultimi decenni, è andata incontro ad un progressivo cambiamento sia dal punto di vista qualitativo che quantitativo, con un aumento di sostanze inquinanti e dei relativi livelli in aria. La particolare attenzione che merita il problema deriva dal fatto che l’esposizione ad agenti chimici  con effetti subacuti e cronici, e quindi la dose inalata, non dipende solo dai livelli  riscontrabili nell’armosfera di un certo ambiente, ma anche dal tempo che gli individui trascorrono in quel particolare ambiente.

Da questo punto di vista una recente statistica europea ha evidenziato che la popolazione trascorre in media il 95-97% del suo tempo negli ambienti  interni e  che il 90% dell’inalato è assunto in ambienti interni. Al contrario di quanto avviene in ambito industriale l’inquinamento indoor viene spesso sottovalutato per fattori di natura squisitamente culturale,psicologica o storica. .Un caso poi di particolare rilievo è rappresentato dall’ambiente ospedaliero, dove la possibilità di contrarre varie malattie, anche di tipo professionale, obbliga ad un’attenzione ancora maggiore, rappresentando i frequentatori una fascia debole di utenza.

https://www.insic.it/salute-e-sicurezza/Notizie/Qualita-aria-indoor-dati-Societa-Italiana-Medicina-Ambiental/6955516a-5cc8-436e-b7de-e1c45c095a10

Le sostanze in grado di alterare la qualità dell’aria indoor possono essere classificate come  agenti fisici, chimici, biologici, provenienti in parte dall’esterno, ma molti prodotti da fonti interne. Di queste le principali sono rappresentate da occupanti (uomo, animali), polvere (ricettacolo per  eccellenza di microrganismi), strutture, materiali edili, arredi, prodotti per la manutenzione  e pulizia(detersivi,insetticidi), l’utilizzo degli spazi ed il tipo di attività che vi si svolge (nei laboratori reazioni chimiche, test biologici, riscaldamento di sostanze volatili), impianti (condizionatori, umidificatori, impianti idraulici).

In particolare fra gli agenti chimico-fisici è da considerare il radon, un isotopo della serie dell’uranio 222 che deriva da rocce acide come graniti, tufi e suoli acidi, ma anche per estensione da acque sotterranee e materiali da costruzione e che contribuisce in modo determinante alla dose totale di radiazioni ionizzanti. Gli agenti biologici presenti negli spazi confinati sono rappesentati da particolato organico  aerodisperso (bioaereosol), costituito da microrganismi (virus,batteri, muffe, lieviti, funghi, protozoi, alghe), da insetti (acari, aracnidi) e da materiale biologico da essi derivato o da materiale organico di origine vegetale (polline)
A oggi non esistono in Italia valori di riferimento per la valutazione della qualità dell’aria in interni, a differenza di altri Paesi come Austria, Portogallo, Francia, Germania, Canadà Cina, Corea, Giappone. Questi valori nazionali possono essere considerati per la caratterizzazione del rischio in caso di contaminanti non indagati dall’OMS. Esistono però alcuni riferimenti normativi e metodologie che possono essere applicati. Le norme tecniche sono le Iso 16000 e le  Uni En Iso 16000 riferite a campionamento attivo e passivo, conservazione e preparazione del campione, misurazioni, monitoraggio, differenti composti: dalla CO2 agli NOx, dai VOC alla formaldeide ed altri composti carbonilici,dai PCB alle diossine, dalle ammine ai furani. I valori guida sono quelli raccomandati dall’Organizzazione Mondiale della Sanità per benzene, CO, formaldeide, naftalene, biossido di azoto, benzopirene, radon, tricloroetilene, tetracloroetilene, PM10 e PM2,5  con i relativi tempi di riferimento. Le pericolosità sono espresse per ogni agente chimico considerato come rischio unitario, ovvero il rischio probabilistico di sviluppare una patologia in una popolazione esposta in modo continuativo ad una  concentrazione unitaria.


Il progetto europeo Officair è il più importante e recente studio internazionale in materia. Si è svolto nell’ambito di un network di 8 Paesi (Grecia, Italia, Francia, Portogallo, Olanda, Ungheria,  Spagna, Finlandia) con un approccio integrato per la valutazione della qualità dell’aria e dell’eventuale rischio per la salute. La struttura del progetto è stata caratterizzata da 3 livelli di studio, con gradiente di approfondimento e dettaglio incrementale (in Italia dai 21 siti di osservazione della prima fase ai 4 della seconda ai 2 della terza), da un monitoraggio multiparametrico per tempi prestabiliti e da una parallela sorveglianza sanitaria, anche ampliata a parametri respirometrici e cardiologici, a marcatori di stress ossidativo ed infiammazione nell’esalato condensato. Alcuni interessanti conclusioni sono le seguenti
-peggioramento dello stato di salute associato al numero di occupanti, alla mancanza di finestre apribili, alla presenza di moquette, alle attività di pulizia giornaliera o periodica
-sono stati per la prima volta misurate concentrazioni indoor di alcuni prodotti di ossidazione dei terpeni costituiti da VOC irritanti per le prime vie aree, per i quali nel caso di uso di detergenti ad elevato contenuto terpenico, l’indicatore più fedele sembra essere il d-limonene
-l’indipendenza per quanto riguarda le particelle ultrafini derivanti anche da reazioni di ozonolisi dalla concentrazione di VOC alla loro formazione potenzialmente correlate
-la mediana su 5 gg delle concentrazioni di terpeni, di formaldeide, di ozono, acroleina, pinene e limonene è risultata di assoluta sicurezza
-le concentrazioni medie di benzene, etilbenzene e xileni sono risultate in discesa rispetto a rilevamenti in studi precedenti
-le concentrazioni che più preoccupano perchè superiori in molti casi ai valori raccomandati dall’OMS sono quelle del PM2,5
Circa il monitoraggio c’è da osservare che negli ultimi tempi è emersa una crescente domanda di strumenti portatili in linea con quanto detto più sopra circa la richiesta di conoscenza sulla qualità dell’aria che respiriamo anche in casa.In particolare il mercato offre nuove opportunità  di monitoraggio di CO, CO2, umidità relativa, temperatura, VOC, di sonde multiparametriche applicabili a magazzini ed uffici, ma anche ad ambienti domestici ed industriali leggeri.

Piccola lezione sui fanghi di depurazione.5: i controlli (considerazioni finali)

Mauro Icardi

(I precedenti post di questa serie sono qui, qui , qui e qui)

Terminati i controlli per verificare il corretto funzionamento della fase di ossidazione biologica, e successivamente quelli relativi alla stabilizzazione del fango , la fase successiva si riferisce ai controlli da effettuare sul fango ormai disidratato, e destinato a smaltimento, incenerimento, o riutilizzo in agricoltura.

Sul fango si possono determinare diversi parametri. Vediamo nello specifico la determinazione dei metalli.

L’analisi si effettua su campione umido per la determinazione del mercurio, e su fango secco per tutti gli altri parametri. Per la determinazione dei metalli si effettua attacco acido con acido solforico e nitrico, ed eventualmente con acqua ossigenata. Questa tecnica viene sempre di più sostituita dalla mineralizzazione con forno a microonde. Utilizzando questa tecnica le microonde riscaldano contemporaneamente tutto il campione, senza riscaldare i contenitori utilizzati che sono di materiali trasparenti alle microonde. In questo modo le soluzioni raggiungono molto più rapidamente il proprio punto di ebollizione e il riscaldamento è molto più veloce ed efficace del sistema tradizionale. La concentrazione dei metalli portati in soluzione viene determinata attraverso analisi eseguite tramite spettroscopia di assorbimento atomico, normalmente utilizzando la tecnica in fiamma, oppure con spettroscopia di emissione al plasma (ICP Ottico). La concentrazione dei metalli nei fanghi viene espressa in mg/Kg di metallo estraibile, riferito alla sostanza secca.

I fanghi di depurazione delle acque reflue industriali contengono metalli pesanti di tipo e quantità variabili e derivano dal tipo di lavorazioni e dalla dimensione delle industrie. I metalli pesanti provenienti dalle attività civili si ritrovano, inoltre, nella fase gassosa dei combustibili utilizzati per il riscaldamento, nei fumi provenienti dagli inceneritori o dal traffico veicolare; tali metalli raggiungono il suolo attraverso le precipitazioni atmosferiche. Alcune attività tipicamente agricole, come l’uso di prodotti fitosanitari e di concimi minerali, possono costituire una fonte di inquinamento da metalli pesanti.

In genere, i metalli pesanti si concentrano nei sottoprodotti di alcuni settori industriali o, anche se in misura minore, nei rifiuti urbani e nei reflui civili; per questo, lo smaltimento di questi materiali, per i rischi di tossicità sopra riportati, è regolamentato da apposite normative.

Vediamo ora, per alcuni dei principali metalli, ricercati nella matrice fanghi, le provenienze.

Cadmio totale

La concentrazione di cadmio nel suolo, è funzione delle caratteristiche dei materiali originari e dell’utilizzo sul suolo di sostanze contenenti metalli pesanti utilizzate per la difesa antiparassitaria o per la fertilizzazione (concimi fosfatici, fanghi di depurazione).

Cromo totale

La concentrazione di cromo è riconducibile in parte a naturali processi di degradazione dei substrati geologici, da cui i suoli stessi traggono origine; in parte è funzione dell’utilizzo sul suolo di sostanze contenenti metalli pesanti utilizzate per la difesa antiparassitaria o per la fertilizzazione. In particolare il contenuto di cromo può essere molto elevato in alcuni sottoprodotti dell’industria conciaria utilizzati per la produzione di concimi organici.

Piombo

La concentrazione di piombo riscontrabile nei fanghi di depurazione, relativamente alle attività produttive, riguarda principalmente gli scarichi delle fonderie. Un’altra fonte di contaminazione riguarda l’utilizzo di prodotti fitosanitari contenenti arseniti di piombo. Da rammentare che in passato si poteva avere contaminazione da piombo tetraetile, che veniva utilizzato come antidetonante nella benzina.

Rame

La concentrazione di rame dovuta ad attività antropica è anch’essa riferibile all’utilizzo del rame per la difesa antiparassitaria o per la fertilizzazione, soprattutto con reflui zootecnici. In particolare l’elevato contenuto di rame nelle deiezioni zootecniche è dovuto all’utilizzo di integratori e additivi alimentari che contengono questo elemento. I composti del rame sono anche utilizzati nel settore della coltivazione della vite, e molto spesso come componente alghicida per le vernici antivegetative, destinate normalmente a ricoprire il fondo delle imbarcazioni.

Per chiudere queste piccole lezioni sui fanghi, e sui controlli che si possono effettuare, parliamo di una analisi di tipo batteriologico, cioè la determinazione della Salmonella.

Considerando che i fanghi sono il prodotto finale del trattamento delle acque, essi posseggono un’ampia variabilità delle loro caratteristiche fisiche, chimiche, biologiche e tecnologiche che dipendono dalla loro origine, dal tipo di trattamento subito dai reflui, dal fango stesso, dalla durata dello stoccaggio. Se si tiene conto oltretutto che il numero dei microrganismi concentrati nei fanghi supera quello presente nelle acque grezze, bisogna considerare come diventi altrettanto rilevante lo studio delle loro caratteristiche microbiologiche. A qualunque recapito finale vengano destinati, è necessario renderli igienicamente innocui. Dal punto di vista microbiologico la normativa (dlgs 99/1992) fissa il limite di concentrazione nei fanghi per il solo parametro Salmonella. I processi di trattamento del fango sono comunque in grado di ridurre il numero di salmonelle, come di tutti i microrganismi in essi presenti.

L’analisi della Salmonella prevede l’omogeneizzazione, la filtrazione di un campione di fango precedentemente risospeso in una soluzione di acqua sterile tamponata. Il campione, diluito in funzione della concentrazione di Salmonella stimata, è omogeneizzato e filtrato; la membrana è recuperata asetticamente e incubata a 36°C,posizionata su un filtro sterile a fibre di vetro imbibito con un terreno favorevole alla crescita del microrganismo (Brodo al terationato). Dopo 24 ore la membrana è recuperata asetticamente e incubata a (36±2)°C su terreno cromogeno (Rambach® agar).

Le membrane sono esaminate dopo 24 e 48 ore. Trascorso questo tempo di incubazione si procede a quantificare il numero di colonie. Le salmonelle presuntive crescono su questo terreno come colonie di un colore rosso brillante, derivante dalla fermentazione del glicole propilenico.

Ho scritto queste brevi lezioni sui fanghi di depurazione, spinto sia dalla mia personale passione per il tema, che con la nemmeno troppo nascosta speranza che siano in qualche modo utili a chi voglia avvicinarsi ad un tema troppo spesso ancora ignoto ai non addetti. Credo sia utile ribadire un concetto: i fanghi, quali prodotti di risulta derivati dai processi di trattamento dei liquami, costituiscono il concentrato di tutti gli inquinanti presenti nei reflui: sostanze organiche, composti inorganici anche difficilmente biodegradabili, metalli pesanti e microrganismi. Bisogna lavorare a soluzioni economicamente sostenibili, ecologicamente praticabili, socialmente accettabili. E paradossalmente, più fanghi si producono, meglio le acque si depurano. In futuro probabilmente si privilegeranno trattamenti più spinti di riduzione della produzione. Ma non dimentichiamoci che “nulla si crea, nulla si distrugge, tutto si trasforma”.

E che come giustamente faceva osservare Primo Levi “La materia è materia né nobile né vile e non importa affatto quale sia la sua origine prossima”.

Piccola lezione sui fanghi di depurazione.4. I controlli (parte terza).

Mauro Icardi

(I precedenti post di questa serie sono qui, qui e qui)

Terminata l’esposizione di controlli sul comparto di ossidazione, passiamo ai controlli del fango estratto come fango di supero (o di spurgo) dalla vasca di ossidazione. Normalmente il fango estratto viene inviato ad una sezione di ispessimento Dal punto di vista analitico si effettuano i medesimi controlli già visti per il fango della vasca di ossidazione (determinazione dei solidi sospesi totali e della sostanza volatile).

Prima di passare alla fase di disidratazione il fango deve subire un trattamento di stabilizzazione, per ridurne il contenuto di sostanza organica putrescibile, ridurne la carica batterica potenzialmente patogena, ed essere più facilmente sottoposto ai trattamenti di disidratazione. Sui piccoli impianti, generalmente con potenzialità inferiori ai 5000 A.E (abitanti equivalenti) gli impianti sono progettati con una sezione di digestione aerobica. Si tratta sostanzialmente di una vasca di ossidazione, dove il fango viene fortemente areato per tempi prestabiliti, senza ricevere apporto di acqua reflua. In questo caso il parametro fondamentale da controllare è la riduzione percentuale della sostanza organica volatile, che analogamente a quanto ritenuto soddisfacente per la digestione anaerobica non deve essere inferiore al 40%.

Lo svantaggio di questo tipo di tecnica è che non consente alcun recupero energetico, ed ha costi abbastanza elevati. Dati del 2002 indicavano un costo per abitante equivalent pari a 11,2 euro.

Il trattamento normalmente più usato per la gestione del fango è quello della digestione anaerobica. Nei sistemi anaerobici si sfrutta l’azione di microrganismi in grado di sopravvivere in assenza di ossigeno disciolto. Il processo di digestione anaerobica procede attraverso queste fasi:

Suddivisione delle molecole più grandi, come ad esempio:

carboidrati →zuccheri semplici

proteine →amminoacidi

grassi →glicerolo

Fermentazione acida, condotta da acido produttori, in cui i prodotti formatisi nella fase precedente sono trasformati in acidi grassi volatili (butirrico, propionico, acetico) ed in NH3, H2S, CO2(nel corso di tale fase il pH si porta fino a 5).

Tali acidi sono soggetti a degradazione da parte di batteri metanigeni, che utilizzano quale accettore di idrogeno unicamente il carbonio delle molecole organiche con formazione prevalente di CH4 e CO2.

Nella gestione degli impianti reali è necessario controllare che si stabilisca un equilibrio tra la fase acida e quella metanigena. È necessario, cioè, che la quantità di acidi volatili che si produce non superi la capacità di degradazione della massa batterica metanigena, che, essendo caratterizzata da una più ridotta velocità di degradazione, regola la velocità dell’intero processo.

La temperatura del processo anerobico è un fattore fondamentale (come per tutti i processi biologici).

Le temperature di esercizio di un processo di digestione anaerobica possono essere principalmente:

processo psicrofilo(4-25 °C; valori ottimali 15-20 °C);

processo mesofilo(10-40 °C; valori ottimali 30-35 °C);

processo termofilo(45-70 °C; valori ottimali 55-60 °C).

La possibilità effettiva di poter regolare la temperatura di esercizio è legata, nel caso specifico, alla disponibilità del biogas prodotto.

I controlli che si devono dunque effettuare su questa fase del processo sono diversi, e devono essere confrontati. Sul fango in digestione si deve verificare il valore della temperatura di processo, determinare ad intervalli di tempo prestabiliti il valore degli acidi volatili e dell’alcalinità, verificare la riduzione di sostanza organica percentuale. Tutti questi dati permettono di identificare le disfunzioni del processo, pianificare la necessità di interventi di manutenzione per esempio allo scambiatore di calore, che col tempo può diminuire l’efficienza a causa dei fenomeni di biofouling.

Vengono utilizzati poi per il controllo direttamente sull’impianto dei misuratori portatili di gas, che consentono di verificare la quantità percentuale di CH4 e di CO2 che sono i parametri principali che definiscono la qualità del biogas prodotto. Il terzo parametro importante da determinare è quello del valore di H2S per due principali ragioni: la prima è la tossicità del composto, la seconda è che, se il valore di questo parametro è elevato, occorre prevedere un processo di desolforazione del biogas, per impedire fenomeni di malfunzionamento e di corrosione e quindi di usura prematura delle parti metalliche. Un tipico esempio può essere quello della corrosione della caldaia di combustione del biogas prodotto, soprattutto negli impianti di costruzione più remota.

Dopo questa fase di trattamento, il fango viene inviato al trattamento di disidratazione.

(continua)

Nota: Per abitante equivalente si intende la quantità di sostanze organiche biodegradabili, derivate da un’utenza civile o assimilabile a questa, convogliate in fognatura nell’arco temporale di un giorno (24 ore) cui corrisponde una richiesta biochimica di ossigeno a 5 giorni (120 ore) pari a 60 grammi di O2 al giorno (D.Lgs. 152/06 art. 74-Definizioni)

La prima donna professore ordinario in una facoltà scientifica in Belgio: Lucia de Brouckère (1904-1982)

Rinaldo Cervellati

Lucia Florence Charlotte de Brouckère è stata la prima donna a diventare professore ordinario di chimica all’Université Libre de Bruxelles, didatta eccezionale. A lei è intitolata la Haute Ecole Lucia de Brouchère (HSLdB), fondata nel 1996 dalla fusione di cinque istituti di alta istruzione superiore.

Lucia nacque il 13 luglio 1904 a Saint – Gilles (Belgio), figlia di Gertrude Guïnsbourg e Louis de Brouckère, famoso politico socialista del XIX secolo e principale portavoce della sinistra del POB.[1]

Fin da bambina nutre un’ammirazione sconfinata per gli ideali di libertà e uguaglianza del padre e per il suo attivismo nel perseguirli. Di conseguenza, lei stessa si impegnerà attivamente per tutta la vita. Una parte dell’infanzia e della prima educazione di Lucia avvengono ovviamente in Belgio, ma nel 1914, allo scoppio della 1° Guerra Mondiale la famiglia si trasferisce in Inghilterra, dove Lucia riceve gran parte dell’educazione secondaria superiore. Tornata in Belgio alla fine del 1918, completati gli studi liceali, pur provando interesse per la storia, Lucia si iscrive nel 1923 all’Università Libera di Bruxelles scegliendo di studiare scienze, e in particolare chimica.

Secondo Brigitte Van Tiggelen, biografa di Lucia, questa scelta fu dovuta all’ammirazione che essa provava per Daisy Verhoogen[2], divenuta chef des travaux[3] (supervisore) nel laboratorio di chimica organica di Georges Chavannes, in seguito di Henry Wuyts e poi di Richard – Henri Martin all’ULB. Non è da escludere, anzi è probabile, che Lucia de Brouckère abbia seguito le lezioni di Verhoogen o sia stata da lei assistita nel laboratorio didattico di preparazioni organiche.

Nel 1927 Lucia discute la tesi: L’absorption des électrolytes par les surfaces cristallines, per la quale ottiene il dottorato in chimica e un premio dall’Académie Royal de Belgique. La sua completa ricerca riguardava l’assorbimento di ioni metallici da parte di superfici cristalline usando quattro diverse tecniche sperimentali per confrontare i risultati. Precisione e rigore sono le caratteristiche del suo lavoro sperimentale. Fra l’altro, essa dimostrò che lo ione triioduro si fissa perpendicolarmente alla superficie del solfato di bario. Questa conclusione portò a una controversia con l’americano I.M. Kolthoff[4]. La divergenza fu risolta quando i due chimici, scambiandosi i campioni, scopersero che erano stati preparati in due modi diversi.

Nello stesso anno è nominata assistente del prof. Jean Timmemans nella sezione di chimica fisica e del prof. Alexandre Pinkus nel laboratorio di chimica analitica.

Lucia de Brouckère

Dal 1930 al 1932 Lucia è stata docente incaricata a Gand, diventando la prima donna a insegnare in una Facoltà di Scienze in Belgio. Nel 1933 è nominata “aggregato all’insegnamento della chimica” e, da1937 al 1940, le fu affidato il corso di Elementi di Chimica Generale alla Libera Università di Bruxelles.

Allo scoppio della 2a Guerra Mondiale emigra con il padre in Inghilterra, dove studia la corrosione del piombo da parte dell’acqua di rubinetto e delle leghe alluminio-magnesio da parte dell’aria atmosferica e, più direttamente connesse alla guerra, la corrosione dei contatti di rame nei carri armati dovuta alla sabbia del deserto. Nel 1944, de Brouckère prese la direzione della sezione Industrie Chimiche al ministero degli affari economici del governo belga in esilio a Londres. Questa esperienza, collegata a un’importante funzione, le permetterà di sperare in una promozione al suo ritorno in Belgio.

Tornata in Belgio alla fine del 1944, si dedica immediatamente alla riorganizzazione dei curricola di chimica trovando finanziamenti per invitare professori stranieri. Fu nominata professore ordinario nel 1945. L’anno successivo divenne Direttore del Laboratorio di Chimica Generale e nel 1951 direttore del Laboratorio di Chimica Inorganica e Analitica.

In questo periodo si interessò ai colloidi e alle macromolecole dei quali studiò le proprietà chimico fisiche in soluzione. Per alcuni anni de Brouckère collaborò con Ilya Prigogine[5] allo studio sperimentale della termodinamica in fase liquida mentre la parte teorica fu affrontata da Prigogine. Nel 1953 le fu assegnato il premio Wetrems dall’Académie Royale de Belgique in onore del suo lavoro scientifico.

Come professore ordinario le fu affidato il corso di Chimica Generale per le matricole, Lucia ne rivoluzionerà l’impostazione didattica trasformandola da mnemonico descrittiva a basata sui principi e il ragionamento e su numerosi originali esperimenti di laboratorio.

De Brouckère in laboratorio didattico

Negli anni le furono affidati altri insegnamenti, fra cui quelli di chimica fisica e chimica analitica e il suo lavoro di ricerca rallentò di conseguenza a partire dagli anni ’60. Ebbe numerosi incarichi accademici. Preside della Facoltà di Scienze 1962-63, membro del Consiglio di Amministrazione delle Istituzioni Internazionali Solvay di Fisica e Chimica dal 1965. Al fine di incoraggiare la nascita di vocazioni nei giovani, partecipò alla fondazione dell’associazione Jeunesses Scientists e di un Centro universitario per i film scientifici.

Per la sua lunga carriera professionale fu nominata professore emerito nell’ottobre del 1974.

Interessata all’evoluzione dei concetti base della scienza, de Brouckère scrisse il libro: Évolution de la pensée scientifique: évolution des notions d’atome, et d’élément (Bruxelles, 1982).

Lucia de Brouckère non si dedicò solo all’insegnamento e all’attività scientifica, ma anche ad attività nel sociale. Per tutta la vita è stata in prima fila nella difesa delle libertà, del pensiero democratico e dei diritti delle donne. Nel 1934 è stata eletta Presidente del Comitato mondiale delle donne contro la guerra e il fascismo, un’associazione di donne con simpatie femministe. Nel 1936 intervenne in per la difesa della Spagna repubblicana. Ha fatto parte della “Fondazione per l’assistenza morale alle detenute”.

È anche stata coinvolta nella lotta per il riconoscimento della laicità. Lucia de Brouckère è stata in particolare un membro del Centro per l’Azione Secolare, il cui principale scopo era la depenalizzazione dell’aborto, poco dopo la seconda guerra mondiale. Nel 1962 divenne una delle fondatrici della pianificazione familiare “La famiglia felice”.

De Brouckère in conferenza

Poco dopo le dimostrazioni studentesche del maggio 1968, guidò l’Assemblea Costituente per le riforme dei nuovi statuti dell’Università.

Nel libro Le principe du libre examen et son prolongement: la laïcité (U.A.E., 1979) scrive:

“Ciò che mi ha colpito nel corso delle mie ricerche è stata la straordinaria coerenza interna delle teorie per cui gli esperimenti hanno inevitabilmente dimostrato essere inesatte. Questo dovrebbe renderci cauti e modesti. Le cosiddette scienze esatte e naturali non ci rivelano alcuna Verità assoluta, definitiva, immutabile, nessuna verità esistente al di fuori del tempo e dello spazio, che sarebbe sufficiente raccogliere come la famosa mela! Le scienze ci offrono verità parziali che dobbiamo costantemente correggere, ma correggere solo nelle loro stesse basi. Esigono la costante applicazione del principio dell’indagine libera, che è la base della nostra morale laica .

Lucia de Brouckère è morta all’età di 78 anni, il 3 novembre 1982 a Ixelles, uno dei Comuni di Bruxelles dove è in parte situata l’Université Libre.

Opere e siti consultati

  1. Despy-Meyer, Lucia de Brouckère (1904-1982)

https://66.35.87.110/~kvcv/images/documenten/historiek/galerij/De_Brouckere_Lucia_FR.pdf

  1. Van Tiggelen, Lucia de Brouckère (1904-1982). In: J. Apotheker and L.S. Sarkadi, European Women in Chemistry, Wiley-VCh verlag GmbH & Co. Weinheim, Germany, 2011, pp. 157-160.

https://66.35.87.110/~kvcv/images/documenten/historiek/galerij/De_Brouckere_Lucia_FR.pdf

[1] POB sigla per Partito Operario Belga (POB) è un ex partito politico belga, classificato socialdemocratico, che rivendicava il socialismo. Fu fondato il 5 aprile 1885 da un centinaio di delegati rappresentanti sindacati, sezioni di un partito socialista nato nel 1879, società di mutuo soccorso e cooperative.

[2] Marguerite (Daisy) Verhoogen (1900-1994), chimico belga, dopo il liceo seguì studi di chimica diventando prima assistente, poi attorno al 1931, chef du travaux. Questo era il grado accademico più alto cui una donna potesse a quel tempo aspirare. Notevoli sono le sue ricerche con Richard Martin sulla sintesi degli heliceni.

[3] Gli chef du travail (supervisori) appartenevano al personale scientifico fisso dell’università. Erano il braccio destro di un professore, che assistevano nelle sue ricerche e nel suo carico didattico, compresa l’assistenza al lavoro pratico dagli studenti. Questo posto è spesso considerato il confine verso il professorato che Verhoogen non raggiungerà mai, certamente non per demerito…E’ stata membro della Società Chimica Belga e della Società Francese di Chimica.

[4] Izaak Maurits (Piet) Kolthoff (1894 – 1993), influente chimico analitico americano, è considerato il padre della chimica analitica per le sue numerose pubblicazioni in tutti i diversi campi dell’analitica, importante il suo lavoro per modernizzare e promuovere il settore e per aver seguito molti studenti che sarebbero diventati in seguito chimici famosi.

[5] Ilya Romanovich Prigogine (1917-2003), chimico fisico di origine russo-ebraica e nazionalità belga, è stato fondatore della termodinamica dei processi irreversibili. Premio Nobel per la chimica 1977 per il suo contributo alla termodinamica di non equilibrio, in particolare per lo sviluppo della teoria sulle strutture dissipative.

“Contaminazione da microplastiche nell’acqua corrente di tutto il mondo”: Houston, abbiamo un problema?

Claudia Campanale*

Il giorno 25 Agosto scorso mi trovavo in Germania presso l’Istituto Federale di Idrologia di Coblenza per svolgere parte del mio dottorato di ricerca sulle microplastiche nell’ambiente acquatico quando ricevo una telefonata da parte di uno dei giornalisti che stava seguendo il caso “Microplastiche nell’acqua potabile”. Il giornalista mi parla dell’inchiesta in corso preannunciandomi i risultati della ricerca condotta dall’Università statale di New York e del Minnesota e da Orb Media che sarebbero poi stati pubblicati il 05 settembre 2017 sul “the guardian” e secondo cui l’83% dei campioni di acqua potabile prelevati da tutto il mondo conterrebbero microscopiche fibre di plastica.

https://www.theguardian.com/environment/2017/sep/06/plastic-fibres-found-tap-water-around-world-study-reveals

Il giornalista inoltre, mi chiede di analizzare tre campioni di acqua prelevati dalle fontane pubbliche di Roma per avere un controllo su altri tre campioni prelevati dagli stessi punti e analizzati contemporaneamente dall’Università del Minnesota.

Al momento a livello globale non sono state mai eseguite azioni di intercalibrazione tra laboratori e non sono disponibili standards di qualità a cui far riferimento. A causa della mancanza di protocolli standardizzati per il campionamento, l’estrazione, la purificazione e la caratterizzazione delle microplastiche, la comparabilità dei dati disponibili rimane altamente limitata, soprattutto per quanto riguarda: la definizione delle diverse classi dimensionali, le procedure di campionamento, i metodi analitici e i valori di riferimento.

Generalmente l’analisi delle microplastiche in matrici ambientali consta di tre fasi: campionamento, estrazione, quantificazione e identificazione.

1° Step: CAMPIONAMENTO

Il primo aspetto da considerare riguarda proprio il significato insito nella definizione di campionamento che secondo i metodi analitici per le acque APAT-IRSA è la seguente:

“Il campionamento può definirsi come l’operazione di prelevamento della parte di una sostanza di dimensione tale che la proprietà misurata nel campione prelevato rappresenti, entro un limite accettabile noto, la stessa proprietà nella massa di origine. In altre parole, il fine ultimo del campionamento ambientale è sempre quello di consentire la raccolta di porzioni rappresentative della matrice che si vuole sottoporre ad analisi“.

La qualità dei risultati di un’analisi è quindi strettamente correlata a quella del campione prelevato; ne consegue che il campionamento risulta essere una fase estremamente complessa e delicata che incide in misura non trascurabile sull’incertezza totale del risultato dell’analisi.

Così come indicato nei Metodi analitici ufficiali per le acque destinate al consumo umano (D.Lgs. 31/2001), per individuare le caratteristiche di qualità di un’acqua e per seguire le sue variazioni temporali è innanzitutto necessario che i campioni da analizzare siano il più possibile rappresentativi delle reali condizioni qualitative e quantitative esistenti nella matrice. Al momento del campionamento è necessario dunque considerare con attenzione i volumi di acqua da prelevare. Essi vanno definiti in funzione dei parametri da determinare e comunque devono essere superiori al minimo necessario per procedere allo svolgimento degli esami richiesti.

Seguendo le metodiche di campionamento utilizzate dai ricercatori dell’Università del Minnesota i tre campioni da analizzare prelevati dalle fontane pubbliche di Roma sono stati campionati in bottiglie di HDPE per un volume totale di 500 ml a campione. In relazione a questa prima fase di campionamento ciò che desta maggiore perplessità è proprio la rappresentatività del campione relativamente all’esiguo volume di acqua campionato. Un volume di 500 ml è abbastanza rappresentativo per avere un valore che si discosti sufficientemente da quella che è la contaminazione ambientale di fondo e avere quindi un risultato superiore al valore del bianco? Basti pensare che, studi finalizzati a determinare la concentrazione di microplastiche a valle di impianti di trattamento delle acque reflue, utilizzano, per l’analisi delle microplastiche, un volume di campione che varia tra i 50 e i 100L (Mintening et al., 2016, Murphy et al., 2016, Carr et al., 2016).

Inoltre, diverse ricerche specifiche dimostrano che determinare la contaminazione ambientale derivante dalla deposizione atmosferica di microfibre sintetiche o dall’abbigliamento dei ricercatori risulta indispensabile per garantire che il contenuto di plastica nel campione analizzato non venga sovrastimato (Hanvey et al., 2017). Pertanto, valutare l’affidabilità della metodica utilizzata mediante test di validazione e bianchi ambientali risulta indispensabile per riportare i risultati di uno studio.

Un secondo aspetto da tener presente in questa prima fase riguarda il concetto di incertezza. Attualmente è accettato che, nel momento in cui tutte le componenti di errore siano state valutate e le relative correzioni apportate, rimanga tuttavia un’incertezza sulla correttezza del risultato. L’incertezza in generale può essere valutata dalla distribuzione statistica dei risultati di una serie di misurazioni e può essere caratterizzata mediante il calcolo delle deviazioni standard.

I tre campioni di controllo, prelevati dalla città di Roma, sono stati campionati in singola copia senza replicati, quindi non è stato possibile calcolare il livello di incertezza associato al risultato analitico.

Inoltre, secondo la guida EURACHEM/CITAC e la UNI CEI ENV 13005 “Guida all’espressione dell’incertezza di misura” , nel riportare il risultato di una misurazione è necessario:

– specificare il misurando;

– descrivere chiaramente i metodi usati per calcolare il risultato di una misurazione e la sua incertezza dalle osservazioni sperimentali e dai dati di ingresso;

– identificare le sorgenti di incertezza e documentare in modo esauriente come esse sono state valutate;

– quantificare le componenti dell’incertezza;

– calcolare l’incertezza combinata o composta;

– presentare l’analisi dei dati in modo tale che ogni passaggio possa essere agevolmente seguito e che il calcolo del risultato riportato possa essere ripetuto in modo autonomo, se necessario;

– fornire le correzioni e le costanti utilizzate nell’analisi e le loro fonti.

Nell’articolo pubblicato sul “the guardian” non viene descritta nessuna delle metodologie utilizzate per il campionamento, l’estrazione, la quantificazione e l’identificazione delle microplastiche trovate nei campioni analizzati. I risultati pubblicati fanno riferimento ad una concentrazione di microplastiche (espressa come numero di fibre/500mL) senza alcun valore di deviazione standard associato.

2° Step ESTRAZIONE

Al campionamento segue la fase di estrazione, che consiste in una serie di steps volti a separare le microplastiche dalla loro matrice per mezzo di una degradazione chimica e/o enzimatica della sostanza organica interferente, seguita da una separazione densimetrica e da una filtrazione finale del campione. Va detto che questa fase risulta essere la più complicata e, al momento, non esiste una metodica che permetta una rimozione del 100% della componente naturale con un recupero del 100% delle particelle sintetiche. Tuttavia, per campioni di acqua potabile, la degradazione chimica e/o enzimatica non è strettamente necessaria in quanto si presuppone un contenuto di matrice basso o pressoché inesistente, pertanto risulta fondamentale la caratterizzazione chimica.

3° Step QUANTIFICAZIONE e IDENTIFICAZIONE

Una volta che le particelle sono state separate dalla matrice, la quantificazione richiede la pesatura o il conteggio, compito assai difficile soprattutto per le particelle appena visibili ad occhio nudo. La caratterizzazione visiva del campione al microscopico (Visual Sorting) tuttavia presenta un elevato rischio di sovrastima a causa di grandi quantità di sostanze di origine naturale (parti di animali, minerali, fibre di origine naturale, ecc.) ancora presenti negli estratti (Dekiff et al., 2014). Da qui l’identificazione chimica delle particelle estratte risulta indispensabile a valle di una pre-caratterizzazione al microscopio allorquando diversi studi affermano che fino al 70% delle particelle visivamente identificate al microscopio vengono poi, in seguito ad una caratterizzazione chimica, identificate come falsi positivi (Hidalgo-Ruz et al., 2012, Hanvey et al., 2017).

Tra le tecniche consigliate per la corretta identificazione di materie plastiche vi sono spettroscopia Raman o FTIR, o pirolisi-GC / MS (Löder et al., 2015).

Come già accennato precedentemente, l’articolo pubblicato sul “the guardian”, manca dei riferimenti metodologici utilizzati dai ricercatori per eseguire l’analisi delle microplastiche seguendo un approccio scientifico rigoroso che, in questa fase ancora embrionale della ricerca, risulta indispensabile al fine di avere risultati attendibili. Inoltre ciò che desta maggiore scetticismo è che i risultati presentati dai colleghi siano stati divulgati, a livello mondiale, prima ancora della pubblicazione ufficiale di un articolo scientifico su una rivista accreditata.

 

Come ultimo aspetto da approfondire, prima di diffondere allarmismi su scala globale, particolarmente importante è ampliare la conoscenza di quelli che sono gli impatti delle microplastiche sull’ambiente e sulla salute.

Ad oggi non sono ancora state definite “concentrazioni prevedibili senza effetti (PNEC)” e “concentrazioni ambientali previste (PEC)” per le microplastiche presenti nell’ambiente e, non esistono nemmeno approcci alternativi per la valutazione del rischio delle materie plastiche.

Ciò che sappiamo al momento è che una serie di studi ha messo in luce la possibile ingestione di microplastiche da parte di pesci e molluschi in ​​condizioni naturali, sollevando diverse preoccupazioni; si pensa che le particelle possano provocare una risposta biologica attraverso meccanismi fisici e chimici. In primo luogo, sono stati riscontrati danni fisici come abrasioni interne e blocchi ed è stato dimostrato che le microplastiche possono causare lesioni che portano alla necrosi cellulare, all’infiammazione e a lacerazioni dei tessuti nei tratti gastrointestinali di alcuni organismi acquatici. In secondo luogo, l’elevata persistenza e galleggiabilità della plastica la rende un vettore ideale per il trasporto di specie aliene e per il potenziale rischio di dispersione di agenti patogeni per lunghe distanze. La colonizzazione da specie invasive è considerata come una delle più grandi minacce alla biodiversità globale. In terzo luogo, le microplastiche potrebbero essere considerate come possibili micro assorbitori di contaminanti organici (alteratori endocrini, POP) e metalli in tracce in grado di aumentarne la biodisponibilità negli organismi e di fungere da trasportatori in sistemi acquatici ed a lungo raggio in aree remote. Tuttavia, non è stato dimostrato in modo convincente che ciò avviene in condizioni naturali (Hermsen et al., 2017). In questa fase della ricerca quello di cui siamo certi è che le plastiche sono ubiquitarie, si frammentano in microplastiche e, probabilmente, la loro dispersione nell’ambiente è destinata ad aumentare; ciò di cui non siamo a conoscenza è la tossicità e le conseguenze a livello ecologico delle microplastiche in quanto non è ancora stata fatta una valutazione del rischio.

Houston, abbiamo un problema?

 

Bibliografia 

Carr S.A., Liu J., Tesoro A.G., 2016. Transport and fate of microplastic particles in wastewater treatment plants. Water Res. 91, 174 e 182.

Dekiff J.H., Remy D., Klasmeier J., Fries E., 2014. Occurrence and spatial distribution of microplastics in sediments from Norderney. Environmental Pollution 186 (2014) 248e256.

Löder, M. G. J. & Gerdts, G., 2015. Methodology used for the detection and identification of microplastics – A critical appraisal in Marine Anthropogenic Litter (eds Bergmann, M. et al.) Ch. 8, 201–227 (Springer, 2015).

Murphy, F., Ewins, C., Carbonnier, F., Quinn, B., 2016. Wastewater treatment works (WwTW) as a source of microplastics in the aquatic environment. Environ. Sci. Technol. 50, 5800e5808.

Hanvey J. S., Lewis P.J., Lavers J.L., Crosbie N.D., Pozo K., Clarke B.O. 2017. A review of analytical techniques for quantifying microplastics in sediments. Anal. Methods 9, 1369.

Hermsen E., Pompe R., Besseling E., Koelmans A.A. 2017. Detection of low numbers of microplastics in North Sea fish using strict quality assurance criteria. Marine Pollution Bullettin, http://dx.doi.org/10.1016/j.marpolbul.2017.06.051.

Hidalgo-Ruz V, Gutow L, Thompson RC, Thiel M. 2012. Microplastics in the marine environment: a review of the methods used for identification and quantification. Environ Sci Technol. 46:3060 − 3075.

Mintenig S.M., Int-Veen I., Löder M.G.J., Primpke S., Gerdts G., 2016. Identification of microplastic in effluents of waste water treatment plants using focal plane array-based micro-Fourier-transform infrared imaging. Water Research, http://dx.doi.org/10.1016/j.waters.2016.11.015

*Claudia Campanale è laureata in biologia presso UniBa con il massimo dei voti, sta svolgendo un dottorato in Chimica  con un tutor di eccezione, Angela Agostiano e proprio sul tema del campionamento, estrazione, quantificazione e caratterizzazione di microplastiche presenti in acque interne superficiali; ha  fatto esperienza in Italia e Germania sui temi dell’inquinamento ambientale, della sua caratterizzazione e della sua eliminazione.

Analisi chimica oggi.

Luigi Campanella, ex Presidente SCI

Generalmente chi ricorre all’analisi chimica per un problema nuovo ritiene che, tra i tanti, esista già un metodo adatto per i suoi scopi, lo ricerca e talvolta lo adatta e lo applica personalmente; da questa acritica propensione, come si è già rilevato, possono derivare molti danni.

La chimica analitica, ben conscia di questo, ha fortemente sviluppate, e ampiamente e soddisfacentemente applicate, una filosofia e una prassi che le permettono di affrontare con sistematicità nuovi problemi conoscitivi e nuovi campi di committenza; come può essere rilevato:

  • nella cura con cui vengono affrontati i problemi del linguaggio e delle definizioni;
  • nel cosiddetto iter analitico, cioè nel percorso logico e procedurale che ogni analisi deve seguire senza omissioni e alterazioni, ossia nell’insieme coerente dei mezzi e delle operazioni che partono dalla definizione dei problemi e giungono alla soddisfacente soluzione di essi;
  • nell’organizzazione internazionale per le analisi di qualità (v. oltre).

L’iter analitico consta delle seguenti parti nel seguente ordine:

  • approccio analitico ai problemi e ai sistemi,
  • prelievo dei campioni,
  • trattamenti e separazioni,
  • taratura,
  • calibrazione,
  • misurazione,
  • valutazione dei dati sperimentali,
  • elaborazione dei dati sperimentali,
  • classificazione,
  • immagazzinamento e recupero delle informazioni.

Il risultato è la caratterizzazione chimica (compositiva, strutturale, correlativa e alterativa); ove l’operazione sia finalizzata ad una diagnosi,come ad esempio in archeologia spetterà a quest’ultima disciplina la sua utilizzazione per diagnosi e interventi, in armonia e in accordo con la caratterizzazione umanistica.

L’analisi chimica ha per oggetto un sistema, la determinazione chimica di un analita (componente o proprietà del sistema), la misurazione di una grandezza fisica del sistema. Il risultato della misurazione, la misura, è dipendente sia dall’analita che dalla matrice; una o più misure concorrono a una determinazione; una o più determinazioni costituiscono un’analisi. Si suole distinguere anche tra tecnica, metodo, procedimento e protocollo.

Per tecnica analitica si intende lo studio (con prospettive di applicazioni) delle correlazioni tra quantità di sostanza e grandezza fisica relata misurabile; essa descrive i principi e la teoria delle interazioni, le apparecchiature per generare e per definire qualitativamente e quantitativamente le energie in gioco, i rivelatori e i sensori. Esempi: tecniche ottiche e spettrali, elettrochimiche, termiche, separative, cromatografiche, isotopiche, chimiche, biologiche.

Un metodo è l’adattamento di una tecnica a una categoria di problemi e deve comprendere tutto l’iter analitico (spesso però viene riduttivamente inteso come la sua parte centrale che va dai trattamenti dei campioni alla valutazione dei risultati sperimentali); un metodo analitico descrive e prescrive le caratteristiche del laboratorio e degli operatori, i reattivi e i materiali di riferimento, le apparecchiature e i procedimenti. Un metodo (o parte di esso) con l’adeguamento a situazioni specifiche diventa procedimento; protocollo è l’insieme di istruzioni da seguire alla lettera nell’applicazione di un procedimento elevato a norma ufficiale.

Metodo non va confuso con metodologia, che è il discorso globale comprendente tutti e quattro i termini; da scoraggiare è anche l’uso dei termini metodica (si tratta di un aggettivo) e procedure (termine giuridico).

Per meglio chiarire la differenza tra misurazione e analisi si tenga presente che sei delle sette grandezze di base del Sistema Internazionale di Unità di Misura (SI): lunghezza, massa, tempo, intensità di corrente elettrica, temperatura termodinamica e intensità luminosa, sono grandezze fisiche, la settima, la quantità di sostanza è grandezza chimica. L’analisi chimica coinvolge sempre la settima grandezza e, a seconda dei casi, una o più delle altre sei; pertanto essa è sempre dipendente da grandezze fisiche e dal tipo di energia da queste definito.

Da questa premessa si può trarre ragione della classificazione dei metodi analitici basata sul tipo di energia in gioco, di cui qui appresso si riportano esempi.

Senza chimica nel piatto?

 

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

************************************************************************************************

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Massimo Ferrari*,  Chimico – appassionato di alimenti (buoni)

massimoferrariAttraverso il blog provo a rispondere ad alcune questioni sollevate da Claudio Della Volpe in “Troppa chemofobia nella informazione”, relative alla carenza di regole e della difficoltà di individuare gli enti e le strutture che dovrebbero garantirci la qualità dei materiali destinati al contatto con gli alimenti. Il tema dei materiali ed oggetti a contatto con gli alimenti è esteso e complesso, e in esso chimica, esigenze di mercato, e normativa si intrecciano in maniera indissolubile, per cui mi risulta difficile riassumere il tutto nell’articolo di un blog.

Fin dall’antichità l’uomo ha cercato dei mezzi per conservare il cibo. Famosissime sono le giare con una o due anse, utilizzate per produrre e conservare il vino o l’olio delle olive nella zona del mediterraneo, prodotte con la terracotta cioè “argille comuni contenenti ossidi di ferro, che nella cottura nella fornace danno al prodotto il caratteristico colore giallo-rossiccio”

(http://www.treccani.it/enciclopedia/terracotta/ )piatto1

Il “senso comune” vuole che questo materiale in quanto antico, naturale e “senza chimica”, e nel quale gli ossidi di ferro sono naturalmente contenuti e quindi “non chimici”, ed in cui pure il processo di cottura è tradizionale, abbia la caratteristica di essere assolutamente sicuro.

La riscoperta delle produzioni e dei prodotti tradizionali rivisitati attraverso la moderna scienza e tecnologia (quante volte si legge questa cosa nei siti commerciali!) hanno consentito ai produttori di moderne giare per vino, o di tegami e padelle in terracotta (la riscoperta di antiche tradizioni), di evitare la cessione di metalli pesanti (moderna scienza e tecnologia).

piatto2

Ma che ci fanno dei metalli pesanti quali piombo e cadmio o perfino il cromo, quindi elementi “chimici”, all’interno di un prodotto “naturale”?

Forse qualcuno ha capito che i pericoli possono arrivare anche da sostanze naturali e da tradizioni che si tramandano da millenni e non soltanto dalle 1500 sostanze chimiche approvate per venire a contatto con gli alimenti o dalle oltre 100.000 (?) che potrebbero migrare negli alimenti. 1

Normativa

La materia della sicurezza dei “materiali e degli oggetti destinati al contatto con gli alimenti” (MOCA) è regolamentata in Italia fin dal 1973 (Decreto Ministeriale del 21 Marzo 1973 Disciplina igienica degli imballaggi, recipienti, utensili destinati a venire in contatto con le sostanze alimentari o con sostanze d’uso personale); in essa si stabiliscono le norme per l’autorizzazione ed il controllo dell’idoneità di plastica, gomma, carta, vetro, acciaio inossidabile e lattine destinate a venire in contatto con gli alimenti; tale decreto nel tempo è stato ovviamente aggiornato ed implementato ed in parte sostituito dal Reg.(CE) 1935/2004.

Importante è il Regolamento (UE) N.10/2011 DELLA COMMISSIONE del 14 gennaio 2011, riguardante i materiali e gli oggetti di materia plastica destinati a venire a contatto con i prodotti alimentari, che, nel suo Allegato I, autorizza l’utilizzo di 885 sostanze, tra cui le non pericolose: gomma naturale, albumina e olio di soia. Accanto a queste sostanze ce ne sono ovviamente altre tra cui il cloruro di vinile e la formaldeide entrambe classificate come cancerogene (gruppo 1) dallo IARC. La legge per queste ultime due, a differenza delle prime tre, prevede dei limiti specifici di migrazione in un liquido simulante.

Così dal 1973 sono state scritte e pubblicate diverse normative, sia nazionali che europee, in cui si regolamentano anche cose di “attualità chimica” quali la commercializzazione di materiali attivi ed intelligenti2, di plastiche riciclate3, fino alle padelle rivestite in smalto porcellanato4, ottenute con tecnologia sol-gel, ma che tanto ricordano quelle della nonna.

Dichiarazioni di conformità

Secondo quanto previsto dal Reg 1935/2004 i produttori di MOCA, cioè produttori di sostanze, di semilavorati, di materiali, stampatori finali, ed importatori devono accertare la conformità dei loro prodotti al contatto alimentare e dichiararla attraverso una “Dichiarazione di Conformità” e quindi informare i loro clienti circa le condizioni di utilizzo, la presenza di sostanze dual use (sostanze che possono essere presenti nei materiali di confezionamento ed anche essere usate dall’industria alimentare), e la presenza di sostanze con restrizioni o limitazioni e ogni altra informazione utile alla filiera alimentare. Naturalmente devono essere eseguiti dei test di cessione per verificare la migrazione globale o specifica, come indicato dalle norme di settore.

Controlli

Nonostante ciò il RASFF (RAPID ALERT SYSTEM FOR FOOD AND FEED)5 riporta dal 2002 (in realtà il database è ben popolato dal 2007 in poi) ben 2429 notifiche di non conformità di materiali destinati al contatto con gli alimenti: evidentemente ci sono dei “volponi”, ma dal numero di segnalazioni è evidente che ci sono anche dei controlli.

piatto3

Gli accertamenti sulla sicurezza dei MOCA fanno parte dei controlli previsti per la tutela della pubblica salute6 e quindi parte della partita sulla sicurezza chimica degli alimenti. A livello Europeo quest’ultima materia è governata da una serie di regolamenti detti “Pacchetto igiene” di cui fa parte il Reg. 882/2004, che prevede l’obbligatorietà dell’accreditamento secondo la norma ISO/IEC 17025 per i laboratori che effettuano il controllo ufficiale per la sicurezza alimentare; tale norma prevede l’accreditamento, non soltanto del sistema di gestione, ma anche l’accreditamento dei singoli metodi di analisi7.

Un esempio di ciò sono le resine melaminiche con cui si producono stoviglie rigide (sopratutto bicchieri e piatti per i bambini) e le poliammidi (palette nere per cucina), che destando preoccupazione a causa del rilascio di formaldeide e di amine aromatiche primarie nei prodotti alimentari oltre i limiti consenti, sono oggetto di un regolamento specifico8. piatto4

La quasi totalità di questi oggetti sono importati dall’Oriente ed alla frontiera devono essere controllate le “dichiarazione di conformità” sulla totalità delle partite, ed il 10% deve essere controllato analiticamente da laboratori accreditati secondo norma la ISO/IEC 17025 ed incaricati dall’autorità competente, che in Italia è il Ministero della Salute.

piatto5

Utilizzo

La sicurezza delle stoviglie, padelle, piatti, bicchieri…. è legata in modo indissolubile all’utilizzo che ne facciamo: se riscaldo in microonde un alimento in un contenitore plastico non adatto a tale tipologia di riscaldamento si potrebbe verificare una migrazione di sostanze indesiderate dal contenitore al cibo. Lo stesso potrebbe accadere quando si conserva un alimento acido (salsa di pomodoro) in un contenitore di alluminio a temperatura ambiente: in questa situazione con il trascorrere del tempo la salsa di pomodoro potrebbe intaccare il contenitore che cederebbe quindi alluminio. Altrettanto errato, almeno in linea di principio, è il riutilizzo di contenitori per un uso diverso da quello per cui sono stati progettati (olio nelle bottiglie in plastica per l’acqua).

Da segnalare che le norme dovrebbero aiutare il consumatore: è previsto l’obbligo di indicare che il materiale è adatto al contatto alimentare (figura1) ed eventuali restrizioni d’uso9 (es: non adatto al microonde, temperatura massimo di utilizzo; per alluminio DECRETO 18 Aprile 2007, n. 76).

piatto6 piatto7 piatto8

Fig. 1: simboli per indicare restrizioni d’uso: (nell’ordine) adatto per alimenti, adatto al freezer, non idoneo a lavastoviglie, adatto a micro-onde.(immagini commerciali)

Vorrei puntualizzare che le cessioni di sostanze dall’imballaggio all’alimento non sono sempre negative, anzi l’affinamento di vini pregiati in botti di rovere francese (barrique), avviene grazie alla migrazione di particolari aromi e polifenoli dal legno al vino.

330px-Barriques_in_Filicaja

Quindi da quanto esposto è evidente che il problema della sicurezza dei materiali destinati al contatto con gli alimenti non è trascurabile, ma parallelamente c’è consapevolezza di ciò ed esiste un impianto le cui intenzioni sono quelle di minimizzare il rischio legato a tale esposizione.

(Quello che manca è cultura chimica che per ironia della sorte è ben compensata da abbondante “chemofobia”.

Forse c’è ancora troppa poca chimica nel piatto.)

Riferimenti.

1Troppa chimica nel piatto”, Altroconsumo numero 300, febbraio 2016

2 Reg. (CE) No. 450/2009

3 Reg. (CE) N. 282/2008

4 Circolare Ministero Salute N. 20272 del 20/05/2014

5 Art. 50 del Regolamento (CE) n178/2002

6 art.2 Decreto del Presidente della Repubblica 26 marzo 1980, n. 327

7 art.12 Reg. 882/2004.

8Reg (CE) 284/2011

9 art.15 Reg. 1935/2004

* Massimo Ferrari è un chimico che lavora all’APPA di Trento.

Le relazioni fra l’indagine chimica e le percezioni sensoriali umane

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Luigi Campanella, ex presidente SCI

La comunità scientifica ha messo a punto negli anni moltissimi strumenti di misura, affinandoli e migliorandoli  sempre di più, con lo scopo di renderli capaci di esprimere in modo quantitativo e riproducibile le funzioni legate alle percezioni sensoriali dell’uomo. L’evoluzione tecnologica ed elettronica ha permesso l’ottimizzazione delle prestazioni degli organi di senso in termini di risoluzione, sensibilità, prontezza e campo di operazioni.
Gli esseri umani interagiscono con l’ambiente circostante attraverso particolari interfaccia chiamati sensi che possono essere divisi in due gruppi: quelli che rilevano quantità fisiche e quelli che rilevano quantità chimiche. L’interfaccia di tipo fisico (collegato con acustica, ottica, temperatura e interazioni meccaniche) è ben conosciuta e dispone di “controparte artificiale”. Dall’altro lato, l’interfaccia chimica (olfatto e gusto) sebbene sia ben descritta in letteratura, presenta alcuni aspetti sui suoi principi di funzionamento psicologici che non sono ancora del tutto chiari.

800px-Pietro_Paolini_-_Allegory_of_the_Five_Senses_-_Walters_372768

Pietro_Paolini_-_Allegoria dei cinque sensi Museo di Baltimora

 

I sensi collegati al cosiddetto interfaccia fisico sono inoltre adeguatamente elaborati, verbalmente espressi, stabilmente memorizzati e completamente comunicati. Al contrario, le informazioni chimiche, a partire dal naso e dalla lingua, sono circondate da concetti vaghi e questo si riflette nella scarsa descrizione e capacità di memorizzazione nel riportare un’esperienza di gusto o una olfattiva. Il mondo animale ha sviluppato moltissimo la sensorialità chimica, mentre l’uomo ha aumentato l’interfaccia fisico, lasciando pochi dettagli di quello chimico, escludendo l’acquisizione inconscia.
Le moderne tecnologie e i computer, sempre più sofisticati, hanno agito da catalizzatori dei tempi d’analisi oltre che da agenti di implemento delle reali possibilità di calcolo e di studio delle problematiche affrontate.

220px-1668_Gérard_de_Lairesse_-_Allegory_of_the_Five_Senses

Gerard de Lairesse – Allegoria dei cinque sensi

Basti pensare al microscopio elettronico come emblema di uno sviluppo del campo visivo. E per il campo acustico è possibile fare riferimento alla scansione di un suono come spettro di ben identificabili frequenze. Per il campo del tatto le valutazioni quantitative sono correlate con le proprietà di resistenza meccanica ed elasticità dei materiali.
Nel tempo le tecniche si sono affinate, migliorandosi e consentendo maggiori campi di applicazione. Restavano fuori dalle percezioni sensoriali prese in considerazione due sensi: olfatto e gusto.
A causa di queste difficoltà intrinseche di comprensione della natura stessa di questi sensi, per molti anni si sono sviluppate solo ricerche sporadiche per ipotizzare la realizzazione di un dispositivo sensoriale elettronico. E solo verso la fine degli anni ottanta si è arrivati  a dispositivi concreti che realmente potessero essere utilizzati.

Il meccanismo biologico, attraverso il quale l’uomo sfrutta la capacità olfattiva, è costituito da passaggi complessi basati sull’individuazione degli odori tramite confronto con gli odori precedentemente classificati dalla memoria olfattiva.
L’interesse per questo “senso” così importante investiva ogni campo. Dal settore alimentare, a quello industriale, soprattutto per quello che concerne le ripercussioni ambientale, fino a quello medico sempre più bisognoso di un apporto significativo dalle comunità scientifiche nei propri rispettivi settori per apprendere e utilizzare tecniche di analisi innovative volte allo screening delle differenti patologie in modo da agire tempestivamente sul paziente migliorando la qualità della vita stessa.
I metodi “olfattometrici” consistono nel sottoporre ad un gruppo di persone opportunamente scelte (panel) la miscela odorigena a diversi livelli di diluizione. La determinazione presenta una certa riproducibilità e ripetibilità ma ha comunque limitata applicazione per la scarsa selettività e la difficoltà riscontrata in presenza di basse concentrazioni di odori.
Per valutare e gestire le emissioni odorigene è necessario quantificarle il meno soggettivamente possibile, infatti gli odori essendo percezioni sensoriali si prestano solo approssimativamente ad una loro misurazione sperimentale.
I metodi chimici quindi la ricerca analitica delle molecole odorigene soffre molto dei limiti di rilevabilità di composti dalla soglia olfattiva bassissima, come  i mercaptani. Non è inoltre possibile determinabile un potenziale odorigeno di sostanze presenti in miscele a causa di probabili effetti sinergici, mascheranti o esaltanti. La possibilità della valutazione dell’odore con un analizzatore sensoriale rappresenta una significativa novità.
La valutazione degli odori può quindi essere effettuata tramite metodiche olfattometriche, basate sulla percezione olfattiva di un panel di rivelatori o sulla risposta di un naso elettronico, o infine tramite metodiche analitiche.
Un discorso prettamente analogo si può fare per le sensazioni legate al gusto.
La possibilità di sfruttare l’uso di sensori opportuni per qualificare gli odori era già stata vagliata in campo scientifico nel 1920 da Zwaardemarker e Hogewind, i quali constatarono che una misurazione degli odori potesse essere effettuata seguendo l’andamento della carica elettrica su un sottile spruzzo d’acqua che conteneva sostanze odoranti in soluzione. Non furono peraltro in grado di sviluppare il progetto.

220px-Peacock_served_in_full_plumage_(detail_of_BRUEGHEL_Taste,_Hearing_and_Touch)

Pavone servito con tutte le piume, Dettaglio dell’allegoria dell’udito, del gusto e del tatto di Jan Brueghel il Vecchio

Solo nel 1958 Hartman e Wilkans riuscirono ad approntare un sensore amperometrico come strumento sperimentale per la determinazione degli odori. Il sensore era costituito da un microelettrodo di metallo in contatto con la superficie di un’asticella saturata con un elettrolita diluito. Successivamente riuscirono a realizzare uno strumento contenente otto diversi sensori (con elettrodi metallici diversi) che fornivano risposte differenti. Il loro limite fu l’incapacità di elaborare i dati ricavati in modo opportuno.
Nel 1961 Moncrieff arrivò agli stessi risultati partendo da un approccio differente. Sfruttò nei suoi esperimenti un termistore rivestito con diversi polimeri, gelatine, grassi vegetali e lo strumento complessivo basandosi su sensori con più rivestimenti era in grado di discriminare un elevato numero di odori. (1961, by the American Physiological Society Article Special Communication An instrument for measuring and classifying odors R. W. Moncrieff An instrument for measuring and classifying odors.)
Qualche anno dopo, nel 1965 Buck e Trotter misero a punto altri sensori basati sulla variazione di conducibilità o di potenziale. Ma un vero e proprio naso elettronico costituito da una matrice di sensori per la individuazione e classificazione degli odori fu elaborato solo venti anni dopo, con esattezza nel 1982 da Persaud, Dodd e Warwic e nel 1986 da Ikegani in Giappone. Lo strumento proposto da Persaud e Dodd (Persaud, Krishna; Dodd, George (1982). “Analysis of discrimination mechanisms in the mammalian olfactory system using a model nose”. Nature 299 (5881): 352–5. ) si basava sull’assunto che un allineamento di sensori chimici non selettivi, combinato con un sistema di elaborazione dati adatto, potesse “mimare” le funzioni dell’olfatto. E per l’altra interfaccia chimica, la realizzazione di alcuni nasi elettronici ha aperto la strada a svariate applicazioni pratiche e nuove possibilità in moltissimi campi dove gli odori giocavano un ruolo chiave (Gardner e Bartlett, 1992; Kress-Rogers, 1996; Hierlemann, 1996).
Oggigiorno numerosi gruppi scientifici stanno studiando e cercando di mettere a punto dispositivi commerciali. Oggi sono presenti sul mercato dei modelli di naso elettronico di gran lunga più sofisticati dei prototipi originali. Il principio su cui si basa la loro costruzione è quello di “ricalcare” concettualmente la fisiologia dell’apparato olfattivo.

220px-Cyranose_320_Labelled

Cyranose 320 with labelling

L’olfatto umano è basato su una complessa rete di neuroni e recettori che convergono, tramite il nervo olfattivo, il segnale al sistema libico del cervello. Innescato dall’interazione delle molecole odorigene in fase vapore con i recettori situati nell’area olfattoria, il segnale giunge al cervello dove viene classificato ed eventualmente riconosciuto solo nel caso in cui l’odore sia già stato precedentemente “registrato”, ovvero l’odore deve essere noto all’individuo. Infatti non è presente nell’area olfattoria uno specifico sensore per ciascuno odore, i quali molte volte si presentano in miscele di differenti sostanze. Dopo aver annusato un odore qualsiasi, vengono stimolati numerosi recettori e coinvolti diversi neuroni e il cervello secondo un appropriato paragone ricostruisce una “electrical signature” (firma elettrica) o meglio una “impronta digitale dell’odore” che viene confrontata con quanto già in memoria, portando al riconoscimento dell’odore se già avvertito in precedenza. Per queste ragioni nel realizzare un naso elettronico si utilizza una matrice di sensori chimici e un sistema informatico di riconoscimento, in genere basato su reti neurali. La matrice di sensori chimici “emula” le proteine recettrici del naso.
Realizzare un’impronta olfattiva o un dato “qualitativo” (liberato della soggettività della misura stessa) che caratterizzasse ulteriormente le sostanze rappresentava un valore aggiunto ad una tradizionale analisi chimica. In questa ottica era inevitabile che la tecnologia finalizzasse i suoi sforzi alla messa a punto di dispositivi in grado di fornire risposte oggettive laddove l’uomo riusciva a collezionare parametri soggettivi e non riproducibili.
Lo sviluppo di nuovi sensori, e il loro uso stesso ha concesso la realizzazione di nasi elettronici e lingue elettroniche che consentivano analisi su matrici complesse allo stato liquido e gassoso.
Alle tecniche più largamente usate, come le tecniche cromatografiche che fornivano a livello qualitativo e quantitativo i differenti componenti presenti in una miscela incognita, rappresentano una valida alternativa i sensori elettronici che conducono ad una più ampia caratterizzazione del campione in esame fornendo una cosiddetta “impronta digitale” correlata alla composizione della matrice stessa.

per approfondire:

http://www.silae.it/files/Food%20analysis%20using%20artificia%20sense.pdf

Come si rivelano gli agenti nervini ed altre notizie sulla guerra chimica

In questi giorni si discute se si siano usate armi chimiche in Siria, in particolare agenti nervini. Sono al lavoro gli ispettori dell’ONU che usano ovviamente le armi della chimica. Già ma come si fa a rivelare l’uso oltre ogni ragionevole dubbio di tali sostanze?

La questione è di enorme interesse e ad essa sono dedicati anche libri ed articoli recenti. In anteprima per il nostro blog una piccola parte del più recente libro firmato come coautore da Vincenzo Balzani

frontcover_9783527334797

In uno dei capitoli di questo nuovo libro, il cui indice completo trovate qui, si parla dellle tecniche più innovative per rispondere alla domanda.

(per la cortesia di V. Balzani, P. Ceroni e A. Juris e della Wiley una parte del cap. 14)

Capitolo 14. Technological applications of photochemistry and photophysics

sezione 14.3 Luminescence sensors

*************************************

14.2.6 Detecting warfare chemical agents

Ratification of the Chemical Weapons Convention by more than 165 States has reduced the risk of warfare chemical agent use; however, there is increasing concern about terrorist attacks involving these compounds. Practically all the analytical techniques are used for detection of warfare chemical agents. The most employed ones are gas and liquid chromatography, but fluorescence also plays an important role [29].

Figure 14.8 shows the chemical formulae of Sarin, Soman and Tabun, three organophosphorus compounds used as extremely potent nerve agents. The formulae of model compounds, used for obvious reason in this research field rather than the agents themselves, are also shown.

 

fig1balzaFigure 14.8   Chemical formulae of nerve agents Sarin, Soman and Tabun and their mimics.

The general mechanism for the fluorescent detection of such compounds involves nucleophilic attack of the probe molecule on the electrophilic agent to form a phosphate ester, which leads to the generation of a signal through suppression of photoinduced electron transfer (PET) from the nitrogen atom to the fluorophore (see e.g. Figure 14.9)[30].

fig2balzaFigure 14.9 Fluorescent detection of phosphoryl nerve agents:  phosphorylation of an amine participating in PET quenching turns on the fluorescence.

The chemical formula of Sulfur Mustard (SM), also called mustard gas/HD, is shown in Figure 14.10 with two model analogues. Sulfur Mustard has frequently been used on a large scale against military and civilian targets since the beginning of the 20th century, causing millions of casualties. Because of its ease of preparation compared with other chemical warfare agents, the use of this chemical compound by terrorist groups or rogue nations represents a serious threat to society and national security.

fig3balzaFigure 14.10 Chemical formulae of Sulfur Mustard and two of its mimics.

Designing a fluorescent detection method for Sulfur Mustard is challenging because of the absence of highly electrophilic sites such those of nerve agents as well as of any traditional molecular recognition sites. Nevertheless, two rapid, highly selective, and sensitive fluorescent detection methods have been devised.

One such method is based on the reaction of a dithiol with the Sulfur Mustard model compound CEES to form a receptor, which has high affinity for Cd2+ (Figure 14.11). Such a receptor can displace Cd2+ from a Cd2+ complex with 4-methylenesculetin (ME), a strongly fluorescent molecule that does not emit when complexed with Cd2+ [31]. This method has been used successfully for the detection of the model compound present on surfaces and in soil samples.

fig4balzaFigure 14.11 Strategy for fluorescence detection of the Sulfur Mustard mimic CEES.

The second method, which is again based on the displacement sensing assay concept, relies on the fact that when a dansyl-based fluorophore is attached to a gold nanoparticle through an imidazole group, its fluorescence is quenched through an energy transfer process. Exposure of the functionalized gold particle to the Sulfur Mustard simulant CEME, whose sulfur atoms have strong affinity for gold, causes the detachment of the appended fluorophore switching on its fluorescence (Figure 14.12)[32].

fig5balzaFigure 14.12 Method for detection of the Sulfur Mustard mimic CEMS using gold nanoparticles.

************************************************************************************************************

Ma se queste sono le idee all’avanguardia, nella pratica attuale ci sono varie procedure che si rifanno alla chimica analitica e che servono egregiamente allo scopo, anche se occorre dire che non tutti i documenti a riguardo sono “open”, disponibili; una gran parte sono anche classificati e in questo la chimica non ci fa una gran bella figura. Ci sono sia procedure che rivelano l’uso che procedure che rivelano la produzione. Per esempio per rivelare la produzione di VX si ricorre all’individuazione di un intermedio, l’EMPTA o acido O-Etill metilfosfonotioico:

O-Ethyl_methylphosphonothioic_acid_Structural_Formula_V.1.svg

(EMPTA) è un composto organofosforico. Si tratta di un composto a doppio uso: da una parte si usa come intermedio nella sintesi di pesticidi e prodotti farmaceutici, e dalll’altra è un precursore nella sintesi degli agenti nervini come l’agente VM e l’agente VX. L’individuazione dell’EMPTA è indicato come la causa della decisione americana di distruggere nel 1988 l’impianto farmaceutico di  Al-Shifa in Sudan.[1]

  1. ^ Claudine McCarthy (2005). “EMPTA (O-Ethyl methylphosphonothioic acid)” (Google Books excerpt). In Eric Croddy, James J. Wirtz. Weapons of mass destruction: an encyclopedia of worldwide policy, technology, and history. pp. 123–124. ISBN 1-85109-490-3.

Un ampio documento che è una vera e propria review sulla questione è il seguente:

Kim, K., Tsay, O. G., Atwood, D. A. and Churchill, D. G. (2011) Destruction and Detection of Chemical Warfare Agents. Chem. Rev., 111, 5345–5403.

Qualcosa si trova anche senza passare per le forche caudine delle riviste a pagamento e quindi eccovi qui un breve elenco per le tecniche più importanti, ma senza pretesa di essere esasutivo:

http://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=7&ved=0CGcQFjAG&url=http%3A%2F%2Fwww.zenobi.ethz.ch%2FAnalytik5_2011%2Fchemical_warfare.pptx&ei=1Y8dUsqCEef07AavhIGQAg&usg=AFQjCNGAQKAx4Xzek_jJVsH_mjmhtzHIPQ&sig2=GgBTsa1upxRG8lrFpOYlrw&cad=rja

http://www.fas.org/irp/threat/cbw/drdc2006.pdf

http://www.biomedicale.univ-paris5.fr/enseignement/toxico/M2THERV_2011_2012/ANNALES%202010:2011/C3/Publi%20sujet%20module%20tox%20analytique.pdf

http://www.ecbc.army.mil/pr/news/DART.pdf

http://www.dtic.mil/dtic/tr/fulltext/u2/a418514.pdf

Ernest H. Braue Jr.,Michael G. Pannella Microchimica Acta 1988, Volume 94, Issue 1-6, pp 11-16  FT-IR analysis of chemical warfare agents

(c.dellavolpe)