Chimica analitica e depurazione.

I

Mauro Icardi

Il processo di depurazione biologica delle acque reflue si basa su complessi meccanismi chimici, fisici e biologici, strettamente connessi, che consentono la rimozione della sostanza inquinante e l’ottenimento di un effluente chiarificato e idoneo per essere restituito all’ambiente. L’efficienza del sistema (da cui dipende il rispetto dei limiti di legge) si ottiene attraverso un’attenta e corretta gestione dell’impianto.

Il gestore di un impianto dovrà quindi valutare quali siano i parametri da monitorare, la frequenza di prelievo, i punti di campionamento significativi per valutare la resa complessiva del processo depurativo.  La scelta dei parametri da rilevare presuppone la conoscenza  approfondita di cosa significhino le concentrazioni rilevate, e del significato che assumono in relazione alle varie fasi del processo depurativo.    I dati, infatti, servono per fornire informazioni  utili e facilmente interpretabili per consentire la buona conduzione dell’impianto e, quando necessario, interventi mirati per la soluzione di eventuali anomalie nel processo depurativo. Il campionamento costituisce la prima fase di ogni procedura analitica e pertanto deve essere eseguito in modo da non falsare i risultati finali. Il campione deve essere prelevato con una frequenza adeguata per assicurarne la rappresentatività.

La necessità da parte del gestore di un impianto di trattamento delle acque reflue di seguire in tempo reale l’evolversi di situazioni critiche per il processo biologico e, in alcuni casi, la difficoltà nel dotare gli impianti di un laboratorio chimico preposto ai controlli analitici, hanno portato alla diffusione e all’utilizzo di metodiche semplificate, alternative a quelle consigliate dall’IRSA – CNR e di “kit” per l’esecuzione delle analisi da laboratorio. Le metodiche IRSA – CNR prevedono infatti, in molti casi, l’utilizzo di apparecchiature costose e sofisticate e implicano una procedura molto lunga.  Questo  ne rende poco agevole l’applicazione nel monitoraggio degli impianti di depurazione, relativamente ai controlli di routine. Metodiche alternative (di semplice esecuzione e aventi costi più contenuti) sono suggerite da Enti e associazioni e sostituiscono frequentemente i cosiddetti “metodi ufficiali”.   Qualsiasi metodica si intenda adottare, è necessario che il laboratorio ne documenti la validazione e la riferibilità ai metodi cosiddetti ufficiali o riconosciuti internazionalmente , al fine di consentire il confronto dei dati ottenuti. L’applicazione di queste procedure serve a confermare  l’attendibilità dei dati che il gestore deve, a norma di legge, trasmettere all’Autorità di controllo.

 I kit trovano ampia diffusione, sia presso impianti con potenzialità medio-grande (molti dei quali dotati di laboratori attrezzati), sia presso gli Enti preposti al controllo. I principali vantaggi pratici, connessi al loro utilizzo, sono principalmente: facilità di esecuzione analitica; tempi brevi per l’ottenimento dei risultati;  utilizzo controllato di reagenti tossici o pericolosi; smaltimento degli stessi da parte dei fornitori (in alcuni casi); possibilità di utilizzo anche da parte di personale non specializzato. I kit presentano costi più elevati rispetto ai reagenti necessari per l’esecuzione delle analisi secondo le metodiche ufficiali, ma, considerando il costo analitico complessivo (personale addetto, strumentazione, manutenzione e struttura del laboratorio, smaltimento dei reagenti) i due sistemi sono confrontabili in caso di bassa numerosità di campioni.  L’utilizzo dei kit presenta alcune problematiche generali relative ai seguenti aspetti:  il volume di campione da sottoporre ad analisi, in alcuni casi è molto ridotto, l’operatore di laboratorio deve pertanto intervenire per renderlo idoneo all’analisi. L’uso dei test in cuvetta è ottimale nei controlli in campo e in tempo reale per verificare eventuali anomalie nel funzionamento dell’impianto. Consente anche di effettuare il bilancio delle specie chimiche che concorrono alle principali fasi di trattamento (rimozione dei composti organici biodegradabili, e di trasformazione dei substrati, controllo della fase nitro/denitro). E’ buona prassi però confrontare periodicamente i dati utilizzando metodi ufficiali. Questo perché le corrette regolazioni dei parametri di processo possono ridurre i costi di gestione di un impianto, oltre a garantire il più possibile il rispetto dei limiti di norma. I test in cuvetta, come peraltro le metodiche convenzionali, sono soggetti a interferenze.  Nelle acque reflue che confluiscono all’impianto di trattamento,  possono essere contenute diverse tipologie di molecole interferenti. Vediamo ora quali sono sia  i problemi , che le semplificazioni nell’utilizzo di alcuni test analitici presenti in commercio.

Determinazione del COD.

Poiché il volume di campione utilizzato nell’analisi risulta estremamente ridotto, si introduce un errore significativo, soprattutto nel caso di acque contenenti concentrazioni rilevanti di solidi sospesi (soprattutto nel caso di prelievi effettuati sui liquami in ingresso agli impianti). Il campione deve quindi essere omogeneizzato accuratamente prima di essere sottoposto ad analisi .  

Determinazione della concentrazione dello ione ammonio.

 Il metodo di determinazione secondo Nessler presenta in alcuni casi il problema della formazione di torbidità, dovuta a reazioni secondarie che intervengono in aggiunta a quella colorimetrica principale. I kit che utilizzano questo metodo, quindi, in modo analogo alla metodica secondo l’IRSA, presentano questo tipo di limitazione, associata al metodo stesso e non all’utilizzo dei kit. Il metodo di determinazione al cloro-indofenolo invece, risulta essere  più idoneo per l’analisi dello ione ammonio e non presenta controindicazioni rilevanti. Per eliminare le interferenze dovute alla torbidità si può ricorrere ad una preventiva filtrazione del campione attraverso membrana da 45 µm.

 Determinazione della concentrazione di tensioattivi.

I kit in commercio per la determinazione dei tensioattivi risolvono il problema della preparazione dei reagenti, che contengono molecole pericolose, semplificando e riducendo i tempi dello svolgimento analitico successivo.

Analisi dei metalli.

L’analisi dei metalli utilizzando kit è applicabile esclusivamente alle specie in soluzione, ma non nel caso di matrici solide, come ad esempio per i fanghi. In impianti che trattano prevalentemente reflui di origine civile l’apporto di metalli in soluzione è molto contenuto.

La metamorfosi della chimica analitica.

Luigi Campanella, già Presidente SCI

Ho terminato il mio servizio  ufficiale di professore ordinario alcuni anni fa dal SSD Chim12 , Chimica dell’Ambiente e dei Beni Culturali, ma non ho mai dimenticato le mie origini scientifiche profondamente ancorate alla Chimica Analitica.

Di questa disciplina ho continuato sempre con interesse ed impegno a seguire le evoluzioni particolarmente significative dal dopoguerra ai giorni nostri. Credo anzi che la Chimica Analitica sia fra le discipline che più hanno modificato nel tempo la propria identità, adattandosi -grande merito!- alle esigenze e richieste, sia della comunità scientifica che di quella sociale.

Storicamente  la Chimica Analitica ha svolto una funzione soprattutto conoscitiva: creare conoscenza significa garantire gli strumenti per lo sviluppo economico e sociale. Se poi avviene -come è avvenuto – che alcuni valori vengano persi o dimenticati, parlo di ambiente, salute, sicurezza, ecco che il ruolo cambia da garante a tutore. In questo nuovo la Chimica Analitica ha assunto il compito di fungere da sentinella del nostro ambiente, della nostra salute, della nostra sicurezza alimentare.

Oggi stiamo vivendo un’ulteriore fase di questa evoluzione scientifica, sociale ed etica della Chimica Analitica. Freddy Adams e Mieke Adriaens su ABC l’hanno etichettata  metamorfosi della chimica analitica (Analytical and Bioanalytical Chemistry (2020) 412:3525–3537 https://doi.org/10.1007/s00216-019-02313-z).

L’era dei Big Data che stiamo vivendo spinge a misure sempre nuove nella logica di accrescere il patrimonio da cui tecnologie informatiche possano estrarre conoscenze e partecipazioni correlate. La chimica analitica in relazione a ciò è stata costretta a ripensare i suoi fondamentali e la sua posizione nelle Scienze per gli aspetti educazionali e pratici. Come disciplina scientifica centrale fornisce conoscenza o  anche solo informazione alle altre discipline oggi più in auge, in particolare la scienza dei materiali, le nanotecnologie, scienze biologiche e biomediche, biotecnologie.

Mentre il cambiamento è un concetto che applicato ad una disciplina ne spiega  alcuni aspetti che vengono rivisitati in funzione delle mutate condizioni, ma l’essenza non muta, con metamorfosi si intende una trasformazione più radicale, uno shift di paradigma nel quale le  vecchie certezze cadono e nuove emergono.

Deve essere superata la visione minimalistica ed incompleta, di storica origine della chimica analitica, legata alla determinazione della composizione di un sistema in studio. La chimica analitica senza dubbio è oggi coinvolta in un numero di campi elevato come non mai prima, sia con riferimento alla ricerca che alla produzione industriale. I cambiamenti sono stati processi comuni ad altre discipline, ma ciò che rende quelli della chimica analitica una metamorfosi è il massiccio e combinato uso della strumentazione analitica che ha consentito di comprendere materiali eterogenei complessi, naturali e tecnologici.

Essa fornisce anche correlazioni spaziali e temporali fra la composizione chimica, la struttura e la morfologia da un lato e le proprietà e prestazioni dei materiali dall’altro. Si tratta, come si comprende, di un compito difficile: collegare il livello microscopico della struttura e composizione con quello macroscopico del comportamento funzionale. Per assolverlo è stato necesssario aumentare, e di molto, le conoscenze ottenute da un processo analitico. Nanotecnologie, tecniche spettroscopiche e tecniche di immagine combinate insieme hanno consentito di rivelare dettagli submicroscopici, fino al singolo atomo o la singola molecola. Così la misura della composizione chimica analitica ha cambiato i suoi scopi: non solo composizione elementare e/o molecolare ma anche struttura ed interazioni fra i vari componenti fino alle disomogeneitá di sistema di temperatura e/o pressione. Come conseguenza 

-la spinta alla ricerca in chimica analitica non viene più dalla cercata risposta ad una richiesta di composizione, ma dalla ricerca di nuove conoscenze;

-l’approccio olistico viene sempre più preferito rispetto a quello deterministico.

Questi sviluppi hanno spinto la disciplina ben oltre i suoi tradizionali e convenzionali confini, tanto da introdurla fra le Scienze dell’Informazione ed all’interno dell’era dei Big Data. Questo però è avvenuto senza rinnegare il proprio passato: così non si è trattato di scelte di ottimizzazione, ma di crescita continua e costante del proprio patrimonio. L’area leader di questa nuova fase della Chimica Analitica è certamente la bioanalisi (biologia molecolare, biotecnologia, farmacia, medicina). Il recente avvento della tecnologia delle microsonde, della sensoristica e della robotica é riuscito a spostare un paradigma della biologia molecolare: un cambio di enfasi dagli approcci riduzionistici e dagli studi su singole proteine per indagini coordinate su sistemi sempre più complessi di molecole tra loro interagenti nel tempo e nello spazio. Questi approcci di sistema sono utilizzati per indagare i processi e rendere possibile attraverso modelli la previsione della condotta di un sistema a seconda delle condizioni, degli stress e delle interazioni.

La migliore rappresentazione di quanto sto scrivendo sta proprio in come siamo oggi visti dagli altri: scienze analitiche più che chimica analitica. Sul piano industriale abbiamo assistito alla rivoluzione industriale del 21° secolo, la cosiddetta Industria 4.0, alla rivoluzione digitale, alla nascita dell’era dei Big Data: ebbene senza tracciabilità dei dati tutto frana e la Chimica Analitica ha ripetuto l’impresa degli anni 70. Allora attraverso la referenziazione analitica fu creato un campo di regole per garantire la qualità della misura e quindi del dato. Nacque in quegli anni il primo catalogo dei Materiali e Processi di Riferimento: poche pagine che in un decennio sono divenute centinaia e centinaia a significare l’importanza del nuovo settore. Oggi analogamente la disciplina si è assunta la responsabilità di mettere in guardia da misure, che in ogni caso costano, ma che, non essendo tracciabili, forniscono dati incerti.

A questa rivoluzione è necessario dare corrispondenza nella formazione ai livelli di laurea, dottorato, scuola, master: in questo senso sono attive molte iniziative finalizzate a rinforzare e rendere più rispondente al nuovo corso il  curriculum in chimica analitica. Questi adeguamenti  hanno trovato anche risposte europee come il Master EACH (Excellence in Analytical Chemistry) in ambito Erasmus e la Scuola SALSA (Graduate School of Analytical Sciences) alle quali i nostri giovani dovrebbero guardare con la fiducia e la speranza che la Chimica Analitica merita per essersele guadagnate sul campo.

Un ricordo di Giorgio Nebbia.

Claudio Della Volpe

Questo post è basato in piccola parte sui miei ricordi ma soprattutto sulla formidabile intervista fatta a Giorgio Nebbia nel 2016 da Luigi Piccioni e riportata qui; dura quasi tre ore e se avete pazienza è molto interessante, quasi un archivio della cultura e della vita italiana del 900 attraverso gli occhi di un protagonista.

Come tutti i lettori sanno Giorgio è stato redattore anche di questo blog, una delle tante attività che ha svolto nel suo quasi-secolo di vita attivissima. Dunque questo breve ricordo gli è dovuto. Se volete cercare gli articoli con i quali ha contribuito al nostro blog basta che mettiate “Nebbia” nella finestrella in alto a destra, ne troverete decine. Giorgio era stato nominato socio onorario della SCI, su mia proposta, prima del 2010.

Giorgio Nebbia nasce a Bologna nell’aprile 1926, da una famiglia che era però metà toscana e in Toscana rimarrà un pezzo di cuore fra Livorno e Massa, dove il padre aveva costruito, a Poveromo, una casetta delle vacanze, in via delle Macchie.

Ma il sogno piccolo borghese della famiglia impiegatizia di Giorgio dura poco, perché la crisi del 29 fa perdere il lavoro al padre; e segue dunque un periodo di ristrettezze che culmina poi durante la guerra con la morte del padre e il ritorno a Bologna, che era la patria della mamma.

Qui si inizia il percorso universitario di Giorgio, nel primissimo dopoguerra; in un primo momento iscritto a ingegneria e studente lavoratore, conosce per caso colui che diventerà suo mentore, Walter Ciusa, allora associato di merceologia a Bologna, che lo assume come collaboratore del suo lavoro accademico. Giorgio aveva conoscenza dell’inglese, disegnava bene e questo lo rende già un buon collaboratore; in questo periodo Giorgio incontra la chimica analitica e si scopre un buon analista; Ciusa più tardi gli consiglia di lasciare ingegneria ed iscriversi a Chimica; Giorgio si iscrive a Chimica a Bari, dove pensava di riuscire a laurearsi prima e infatti si laurea nel 1949. In un articolo del 2011 lui stesso ci racconta il contenuto della tesi di laurea.

Nei primi del Novecento i perfezionamenti dei metodi di analisi chimica consentirono di separare e caratterizzare numerose sostanze che si rivelarono cancerogene. Si trattava in gran parte di idrocarburi aromatici policiclici, contenenti diecine di atomi di carbonio e idrogeno uniti fra loro in “anelli”. La svolta fondamentale si ebbe con le ricerche condotte negli anni trenta del Novecento da James Wilfred Cook (1900-1975) che preparò per sintesi numerosi idrocarburi policiclici ad alto grado di purezza con cui fu possibile riconoscere il vario grado di cancerogenicità di ciascuno. Il più tossico si rivelò appunto il 3,4-benzopirene, generalmente indicato come benzo(a)pirene per distinguerlo dal benzo(e)pirene (4,5-benzopirene) che ha lo stesso numero di atomi di carbonio e idrogeno, ma disposti diversamente. Negli anni 40 fu possibile anche identificare a quali strutture molecolari era maggiormente associata l’attività cancerogena. Per inciso è stato l’argomento della mia tesi di laurea in chimica nel 1949 nell’Università di Bari e di un successivo libro.”

Il libro è Maria Prato e G. Nebbia, “Le sostanze cancerogene”, Bari, Leonardo da Vinci Editore, 1950, 151 pp.

A questo punto quello che lui stesso descrive come un colpo di fortuna; Ciusa diventa ordinario di Merceologia e lo chiama come assistente a Bologna, a soli 5 giorni dalla laurea. Per la prima volta Giorgio ha un vero lavoro pagato dallo Stato, come lui stesso dice orgogliosamente. Questo ruolo di assistente alla cattedra di merceologia Giorgio lo manterrà per dieci anni fino al 1959.

La merceologia nell’idea di Nebbia è “il racconto di come si fanno le cose”, ereditato da un Ciusa che era a sua volta molto interessato alla storia delle merci ed alla loro evoluzione. Nebbia dunque raccoglie insieme l’eredità culturale del mondo chimico ma anche di quello umanistico , una impostazione a cui rimarrà sempre fedele.

In questi anni il grosso della sua attività di ricerca è dedicato ai metodi della chimica analitica e pubblica anche in tedesco.

Nel 1959 viene chiamato a coprire la cattedra di merceologia a Bari.

Giorgio Nebbia, secondo da sinistra a Bari negli anni 60, con alcuni collaboratori ed un distillatore solare sul tetto dell’università.

Questo segna un cambiamento nell’indirizzo delle sue ricerche; quelle che gli erano state rimproverate a volte come le “curiosità” o perfino capricci da Ciusa o da altri, entrano con maggiore peso nella sua attività di ricerca; entrano in gioco, l’energia, l’acqua, l’ambiente; rimane l’interesse per le merci e la loro storia tanto che si sobbarca un corso di Storia delle merci provenienti da paesi asiatici, ma la sensibilità per l’acqua, che dopo tutto è una merce basica, per l’energia che è anche una merce (e che merce!) crescono. Di questo periodo mi fa piacere ricordare un articolo brevissimo con cui corresse un altro breve articolo su Journal Chemical Education , 1969, e che riporto qui sotto integralmente. Si tratta di un argomento affascinante e di grande impatto didattico e culturale: chi è più efficiente la Volkswagen o il colibrì?

Nebbia trova un errore nell’ultimo conticino di Gerlach che ne inverte radicalmente il senso.

Come potete vedere la sua conclusione ha un impatto che oserei definire filosofico; l’”unità termodinamica del mondo”; un concetto che condivido totalmente e che sarebbe utile far condividere ai nostri politici più illustri ed ai loro “esperti” che di solito la termodinamica non se la filano molto.

Giorgio Nebbia fine anni 70, era consigliere comunale a Massa e presidente della Società degli Amici di Ronchi e Poveromo. Erano gli anni in cui partecipò alle mobilitazioni contro l’inquinamento generato dalla Farmoplant.

 

Inizia con gli anni 70 la fase che potremmo definire ambientalista di Nebbia. Gli impegni sui temi dell’acqua, dell’energia, della dissalazione, dei rifiuti si saldano con una visione che di base è cattolica, ma che vira rapidamente verso sinistra.

Dunque di questi anni è l’impegno nella costruzione di associazioni ambientaliste grandi e piccole, di una divulgazione che ha prodotto nel tempo migliaia di articoli che sono conservati con tutto l’archivio dei libri e dati presso la Fondazione Micheletti.

Gli articoli di Giorgio assommano ad oltre 2000; di questi una rapida ricerca su Google Scholar ne fa trovare 450 dei quali articoli di tipo scientifico sono oltre 130. Purtroppo non riuscite a metterli in ordine temporale perchè probabilmente Giorgio non si era mai iscritto a Google Scholar che d’altronde è nato DOPO che lui era andato in pensione; comunque è una lettura utile a scandire la varietà di interessi che si sono susseguiti nel tempo.

Durante gli anni 80 viene eletto due volte in Parlamento per la Sinistra Indipendente prima come deputato nella IX legislatura (1983-87) e poi come senatore nella X (1987-92). Sono gli anni in cui si discute del nucleare e si vota il primo referendum antinucleare (1987) nel quale Giorgio costituisce un punto di riferimento degli antinuclearisti. D’altronde rimarrà tale anche nel corso del secondo referendum , quello del 2011. Quello fu un periodo eccezionale per la chimica italiana ripetto alla politica; erano in parlamento parecchi chimici fra i quali oltre Giorgio vale la pena di ricordare Enzo Tiezzi.

Nel 1995 va in pensione, ma continua la sua attività pubblicistica sia con libri che che sui quotidiani e sulle riviste.

Era stato nominato professore emerito, ed ottenne le lauree honoris causa in scienze economiche e sociali dall’Università del Molise e in economia e commercio dagli atenei di Bari e Foggia.

Personalmente ho conosciuto Giorgio in questa più recente fase della sua vita, perché era iscritto alla lista di discussione sulla merce regina, il petrolio, una lista che era stata messa su da Ugo Bardi quando aveva fondato l’associazione ASPO-Italia, per studiare il picco del petrolio. Non ci siamo mai incontrati di persona ma ci siamo sentiti varie volte; ovviamente non mi era sconosciuto, anzi avevo già letto molte cose scritte da lui fin da studente e mi sentivo un po’ imbarazzato a parlargli così come se fosse uno qualunque.

Giorgio come altri “grandi” che ho conosciuto era di una semplicità disarmante, rispondeva personalmente alle chiamate ed alle mails, non c’era alcun filtro col pubblico.

Aveva scoperto da solo che avevo un mio blog personale, sul quale esponevo le mie idee sullle cose del mondo e ovviamente le nostre idee politiche erano molto consonanti; subito mi propose di conservarne copia; era uno che conservava tutto, faceva copia di tutto; sembra che conservasse anche i biglietti del tram.

Mi battei con successo per farlo nominare socio onorario della SCI e gli proposi di collaborare col nascente blog della SCI; lui aderì con entusiasmo e fece subito varie proposte di successo, come la serie di articoli: Chi gli ha dato il nome? Dedicata a strumenti o dispositivi di laboratorio di cui ricostruì la storia; ed anche un’altra serie di post di successo è stata quella dedicata alla economia circolare; nei quali l’idea di base era che l’economia circolare non è una invenzione recente ma la riscoperta di qualcosa che l’industria chimica ha nel suo DNA.

Era poi una continua risorsa per la ricostruzione della Storia della Chimica nei suoi più disparati aspetti. A partire dalla storia del Parlamento italiano ovviamente e del ruolo che vi avevano avuto chimici come Avogadro e Cannizzaro.

Quando compì 90 anni ebbe una festa par suo, dunque condita di pubblicazioni varie ; la più interessante delle quali è la raccolta di suoi scritti

Un quaderno speciale di Altro900 con scritti di Giorgio si può scaricare da: http://www.fondazionemicheletti.eu/altronovecento/quaderni/4/AltroNovecento-4_Nebbia-Piccioni_Scritti-di-storia-dell-ambiente.pdf

Il testamento di Giorgio:

http://www.fondazionemicheletti.it/nebbia/sm-4014-lettera-dal-2100-2018/

Giorgio ci ha anche lasciato un testamento ed è un testamento particolare, uno scritto che è una sorta di piccolo romanzo di fantascienza ma anche scritto politico, ma anche novella breve ma anche lettera, una lettera dal futuro, la lettera dal 2100 in cui immagina di ricevere una lettera da chi ha vissuto e ormai digerito le gigantesche trasformazioni che stiamo vivendo. Scritta nel 2018 e pubblicata da Pier Paolo Poggio (a cura di), “Comunismo eretico e pensiero critico”, volume V, JacaBook e Fondazione Luigi Micheletti, p. 47-60, ottobre 2018, ve ne accludo qualche brano.

La crisi economica e ambientale dell’inizio del ventesimo secolo è dovuta e esacerbata dalle regole, ormai globalmente adottate, della società capitalistica basata sulla proprietà privata dei mezzi di produzione e sul dogma dell’aumento del possesso e dei consumi dei beni materiali. E’ possibile prevedere — come ci scrivono dall’inizio del XXII secolo — la trasformazione della società attuale in una società postcapitalistica comunitaria in grado di soddisfare, con le risorse naturali esistenti, una popolazione terrestre di dieci miliardi di persone con minore impoverimento delle risorse naturali e con minori inquinamenti e danni ambientali. …….. Nella società comunitaria i bisogni di ciascuna persona vengono soddisfatti con il lavoro a cui ciascuna persona è tenuto, nell’ambito delle sue capacità, nell’agricoltura, nelle industrie e nei servizi….

La inaccettabile differenza fra la ricchezza dei vari paesi, misurata in arbitrarie unità monetarie, che caratterizzava il mondo all’inizio del 2000 ha portato all’attuale revisione delle forme di pagamento delle merci e del lavoro, su scala internazionale, in unità fisiche, legate al consumo di energia, e al numero di ore di lavoro necessarie per ottenere ciascuna merce e servizio. Queste unità sono regolate su scala internazionale da una banca centrale comunitaria……

La transizione ha comportato una grande modifica della struttura dell’agricoltura e delle foreste, la principale fonte degli alimenti e di molti materiali da costruzione….

Ogni persona ogni anno, in media, ha bisogno di alimenti costituiti da circa 300 kg di sostanze nutritive (carboidrati, grassi, proteine animali e vegetali, grassi, eccetera) ottenibili con la produzione di circa 1000 kg/anno, circa 10 miliardi di tonnellate all’anno, di prodotti vegetali e animali. La coltivazione intensiva dei suoli, con forti apporti di concimi e pesticidi, è stata sostituita da coltivazioni di superfici di suolo adatte a fornire principalmente alimenti alle comunità vicine, con la prevalente partecipazione al lavoro dei membri di ciascuna comunità. Venuta meno la proprietà privata dei terreni agricoli si è visto che la superficie disponibile era largamente sufficiente a soddisfare i fabbisogni alimentari mondiali……

L’altra grande materia naturale essenziale per soddisfare i bisogni elementari umani è costituita dall’acqua: sul pianeta Terra, fra oceani e continenti, si trova una riserva, uno stock, di circa 1.400 milioni di chilometri cubi di acqua; la maggior parte è nei mari e negli oceani sotto forma di acqua salina, inutilizzabile dagli esseri umani; solo il 3 per cento di tutta l’acqua del pianeta è presente sotto forma di acqua dolce, priva o povera di sali, e la maggior parte di questa è allo stato solido, come ghiaccio, nei ghiacciai polari e di montagna; resta una frazione (circa 10 milioni di km3) di acqua dolce liquida che si trova nel sottosuolo, nei laghi, nei fiumi……

Una parte di questo fabbisogno è soddisfatto con l’acqua recuperata dal trattamento e depurazione delle acque usate, sia domestiche, sia zootecniche, grazie ai progressi in tali tecniche che permettono di ottenere acqua usabile in agricoltura e in attività non domestiche; si ottengono anche fanghi di depurazione dai quali è possibile ottenere per fermentazione metano usato come combustibile (contabilizzato come energia dalla biomassa)……

Operazioni che erano difficili quando grandi masse di persone abitavano grandi città lontane dalle attività agricole e che ora sono rese possibili della diffusione di piccole comunità urbane integrate nei terreni agricoli…….

Non ci sono dati sui consumi di acqua nelle varie attività industriali, alcune delle quali usano l’acqua soltanto a fini di raffreddamento e la restituiscono nei corpi naturali da cui l’hanno prelevata (fiumi, laghi) nella stessa quantità e soltanto con una più elevata temperatura (inquinamento termico)……

In particolari casi di emergenza acqua dolce viene ricavata anche dal mare con processi di dissalazione che usano elettricità, come i processi di osmosi inversa.

Dopo il cibo e l’acqua il principale bisogno delle società umane è rappresentato dall’energia che è indispensabile, sotto forma di calore e di elettricità, per produrre le merci, consente gli spostamenti, contribuisce alla diffusione delle conoscenze e dell’informazione e permette di difendersi dal freddo…….

Il programma delle nuove comunità è stato basato sul principio di graduale eliminazione del ricorso ai combustibili fossili, il cui uso è limitato alla produzione di alcuni combustibili liquidi e di alcune materie prime industriali in alcune produzioni metallurgiche, e nella chimica, e di contemporanea chiusura di tutte le centrali nucleari……

L’energia necessaria per le attività umane, 600 EJ/anno è principalmente derivata direttamente o indirettamente dal Sole.

Oggi è stato possibile contenere il fabbisogno di energia dei 10 miliardi abitanti del pianeta a 600 GJ/anno, con una disponibilità media di circa 60 GJ/anno.persona (equivalente a circa 18.000 kWh/anno.persona e ad una potenza di circa 2000 watt), e oscillazioni fra 50 e 80 GJ/anno.persona a seconda del clima e delle condizioni produttive. Questo significa che i paesi con più alti consumi e sprechi sono stati costretti a contenere tali consumi agli usi più essenziali, in modo da assicurare ai paesi più poveri una disponibilità di energia sufficiente ad una vita decente.

Una “società a 2000 watt” era stata auspicata già cento anni fa come risposta al pericolo di esaurimento delle riserve di combustibili fossili e alle crescenti emissioni di gas serra nell’atmosfera…….

Ai fini dell’utilizzazione “umana” dell’energia solare va notato subito che l’intensità della radiazione solare è maggiore nei paesi meno abitati; molti dei paesi che un secolo fa erano arretrati, hanno potuto uscire dalla miseria proprio grazie all’uso dell’energia solare; la società comunitaria ha così potuto contribuire a ristabilire una forma di giustizia distributiva energetica fra i diversi paesi della Terra, realizzando la profezia formulata due secoli fa dal professore italiano Giacomo Ciamician, “i paesi tropicali ospiterebbero di nuovo la civiltà che in questo modo tornerebbe ai suoi luoghi di origine“……..

La struttura economica della società comunitaria richiede molti macchinari e oggetti e strumenti che devono essere fabbricati con processi industriali. Questi sono diffusi nel territorio integrati con le attività agricole e le abitazioni; la loro localizzazione è pianificata in modo da ridurre le necessità di trasporto delle materie prime e dei prodotti a grandi distanze e da ridurre il pendolarismo dei lavoratori fra fabbriche e miniere e abitazioni……

Macchine e merci sono prodotte con criteri di standardizzazione che assicurano una lunga durata e limitata manutenzione. I processi industriali richiedono minerali, metalli, materie estratte dalla biomassa, prodotti chimici, e inevitabilmente sono fonti di rifiuti e scorie.

L’abolizione degli eserciti ha portato ad un graduale declino e poi estinzione delle fabbriche di armi ed esplosivi.

Mentre nella società capitalistica l’unico criterio che stava alla base della produzione industriale era la massimizzazione del profitto degli imprenditori, e tale obiettivo era raggiunto spingendo i cittadini ad acquistare sempre nuove merci progettate per una breve durata, tale da assicurare la sostituzione con nuovi modelli, nella società comunitaria la progettazione dei prodotti industriali è basata su una elevata standardizzazione e su una lunga durata di ciascun oggetto…….

Nella società comunitaria odierna la mobilità di persone e merci è assicurata in gran parte da trasporti ferroviari elettrici, con una ristrutturazione delle linee ferroviarie dando priorità alla mobilità richiesta dalle persone che vanno al lavoro e alle scuole.

Oggi è praticamente eliminato il possesso privato di autoveicoli e il trasporto di persone è assicurato dalle comunità sia mediante efficaci mezzi di trasporto collettivo elettrici, sia mediante prestito di autoveicoli di proprietà collettiva per il tempo necessario alla mobilità richiesta……..

Siamo alle soglie del XXII secolo; ci lasciamo alle spalle un secolo di grandi rivoluzionarie transizioni, un mondo a lungo violento, dominato dal potere economico e finanziario, sostenuto da eserciti sempre più potenti e armi sempre più devastanti. L’umanità è stata più volte, nel secolo passato, alle soglie di conflitti fra paesi e popoli che avrebbero potuto spazzare via la vita umana e vasti territori della biosfera, vittima della paura e del sospetto, è stata esposta ad eventi meteorologici che si sono manifestati con tempeste, alluvioni, siccità.

Fino a quando le “grandi paure” hanno spinto a riconoscere che alla radice dei guasti e delle disuguaglianze stava dell’ideologia capitalistica del “di più”, dell’avidità di alcune classi e popoli nei confronti dei beni della natura da accumulare sottraendoli ad altre persone e popoli.

Con fatica abbiamo così realizzato un mondo in cui le unità comunitarie sono state costruite sulla base dell’affinità fra popoli, in cui città diffuse nel territorio sono integrate con attività agricole, in cui l’agricoltura è stata di nuovo riconosciuta come la fonte primaria di lavoro, di cibo e di materie prime, un mondo di popoli solidali e indipendenti, in cui la circolazione di beni e di persone non è più dominata dal denaro, ma dal dritto di ciascuna persona ad una vita dignitosa e decente.

Questo è il sogno è il lascito di Giorgio.

Giorgio, grazie di essere stato con noi; questo augurio che ci fai, a noi che restiamo piace; non ti dimenticheremo; che la terra ti sia lieve!

Bibiliografia essenziale.

http://www.fondazionemicheletti.it/nebbia/

Carl Remigius Fresenius, 1818-1897

Luigi Campanella, già Presidente SCI

Alla fine dello scorso anno,forse perché presi dalle feste di Natale e Capodanno abbiamo perso di celebrare i 200 anni dalla nascita di Carl Remigius Fresenius, un pioniere ed un padre della Chimica che ci ha lasciato un patrimonio importante che vive ancora oggi.

Sin da giovane appassionato alle Scienze Naturali, praticò la professione del farmacista che lo guidò verso un crescente interesse per le scienze sperimentali tanto che nel giardino di casa condusse i primi esperimenti sull’acido solfidrico. Molto formativo per lui fu anche il periodo della sua vita trascorso in Germania,il suo paese d’origine.sia in organismi pubblici che privati acquisendo una manualità che si rivelò poi preziosa per il suo successo iniziato dalla pubblicazione del suo saggio “Un sistema di di istruzione in analisi qualitativa”,che fu anche la base della sua tesi di dottorato.

Ottenuto questo traguardo superò un esame comparabile alla Libera Docenza che gli aprì le porte dell’insegnamento universitario con la sua prima lezione svolta quando aveva appena compiuto 25 anni. Cominciò a maturare in lui la distinzione fra chimica di base e chimica applicata,giungendo alla conclusione che era questa ad aprire all’interesse ed alla gratitudine dei cittadini l’opera del ricercatore ed a questa volle dedicarsi prevalentemente,in particolare alla chimica analitica applicata che,secondo lui,rappresenta il cuore della Chimica. Cominciò a sviluppare i primi nuclei di Etica della Chimica raccomandando a chi esegue misure di ripeterle tutte le volte che sussistano i benché minimi dubbi sull’accuratezza del risultato.,superando qualunque atteggiamento di pigrizia e di comodo. Nessun risultato pubblicato dovrebbe-secondo Fresenius-suscitare perplessità su autenticità ed accuratezza delle misurazioni eseguite per ottenerlo. Ebbe numerosi allievi anche prestigiosi in campo industriale,quali i fondatori di Bayer,Leverkusen,Hoechst,ai quali trasferì questo suo interesse per la sperimentazione ,raccomandando veri e propri protocolli di laboratorio. Considerò l’analisi chimica qualitativa come corso propedeutico alla chimica pratica perché consente di capire rapidamente ed affidabilmente su quali prerequisiti sia basato il successo degli esperimenti chimici:ordine,pulizia,abilità,osservazione attenta,considerazione completa delle condizioni sperimentali,corretta valutazione delle conseguenze di ogni atto e procedura,programmazione delle esperienze dopo averle meditate, considerazione di possibile ulteriore sperimentazione in tutti i casi in cui i risultati precedenti siano in conflitto fra loro.                 Si occupò anche di chimica forense in casi di avvelenamento,di materiali falsificati,di alimenti adulterati e/o scaduti..Contribuì anche allo sviluppo economico divenendo un assertore dell’esigenza di fare circolare le conoscenze sì da moltiplicare ed amplificare la capacità innovativa del sistema industriale..                                                                       Forse il campo in cui la sua produzione è più apprezzata è quello dell’analisi delle acque minerali delle quali esaminò oltre 100 campioni diversi provenienti anche dall’estero e per la quale mise a punto un sistema analitico procedurale consolidato e pubblicato in molte diverse lingue. Lanciò anche un Giornale di Chimica Analitica che introdusse con questa frase:” Può essere facilmente dimostrato che tutti i progressi maggiori in chimica sono più o meno legati con i nuovi metodi analitici;essi ci hanno aiutato e ci aiutano a stabilire la stechiometria,a sviluppare la sintesi organica, a scoprire nuovi elementi” .

Questo giornale, anche noto come Fresenius’ Zeitschrift für Analytische Chemie or Fresenius’ Journal of Analytical Chemistry ha prodotto 371 volumi durante quasi 3 secoli (1962-2001).Di fatto i suoi più recenti interessi scientifici verso il campo della bioanalitica, in forte sviluppo dalla fine degli anni 80, hanno catalizzato la sua continuità nel nuovo giornale Analytical and Bioanalytical Chemistry,ancora attivo e di grande impatto sulla comunità internazionale della Chimica Analitica.

Mi prendi un campione?

Mauro Icardi

Quando al lavoro pronuncio questa frase vuol dire che, quasi sempre mi trovo a far fronte ad un problema.

Di solito è l’assenza non prevista di colleghi per malattie proprie, o dei figli piccoli. A quel punto, se non voglio soccombere, devo chiedere un aiuto ai ragazzi che si occupano della conduzione e manutenzione dell’impianto. Il prelievo di un campione di acqua da un campionatore programmabile generalmente è un’operazione tutto sommato semplice. La questione è diversa quando si tratta dei campioni della linea fanghi. Sia che siano destinati ad analisi che devono essere svolte nel laboratorio aziendale, sia che invece debbano essere inviate a laboratori esterni. Cerco di dare delle indicazioni di massima per avere un campione rappresentativo. E cerco di far capire che il campionamento è la fase fondamentale di un’analisi. In questo modo cerco anche di comunicare qualcosa della filosofia chimica. Quella analitica in particolare. Posto che la chimica ancora per troppi rappresenti un concetto negativo , è anche difficile fare capire che il chimico che svolge un’analisi non è un indovino. Che deve seguire un preciso percorso metodologico, sia quando preleva un campione, ma anche quando lo deve pretrattare prima di sottoporlo ad analisi.

Cerco di spiegare che l’analisi della medesima sostanza in materiali diversi può presentare problemi analitici anche sensibilmente differenti. Per esempio la determinazione del ferro nel sangue, in una lega metallica o negli spinaci.

Quindi mi diletto a parlare di queste cose. Qualche volta il mio interlocutore è attento, altre volte visibilmente annoiato. Oppure pensa che io lo stia sottoponendo ad una delle famose “supercazzole” divenute famose grazie al film “Amici miei”. Questo accade quando pronuncio qualche parola che per me è ovviamente usuale. Terminologia tecnica, o qualche formula chimica che risulta a chi mi ascolta particolarmente astrusa. Sembra che il linguaggio e la terminologia della chimica risulti particolarmente indigesto. Infatti secondo alcuni dei miei colleghi io per l’analisi dei metalli utilizzo “l’assorbitore atomico”.

Qualche altro collega , per animare la conversazione mi propone improbabili teorie. Queste notizie sono reperite normalmente su siti, o su programmi televisivi decisamente poco attendibili . Se ci pensiamo bene se ci si vuole informare in maniera corretta, occorre fare un capillare lavoro di verifica dell’attendibilità delle fonti. Smontare teorie assurde o palesemente false nel corso di queste conversazioni, mi fa provare inevitabilmente ad una sensazione di stanchezza e fatica.

Un’altra delle cose che succede, è che chi preleva campioni di fanghi, nonostante io gli dica che la quantità che mi serve è per esempio di circa 250 grammi, si presenta in laboratorio con un barattolo da un chilo pieno fino all’orlo. Quasi che esista un collegamento più campione= analisi più precisa. Forse l’idea che un chimico si occupi di concentrazioni a volte davvero molto basse induce ad un ragionamento di questo tipo. Si tratta di fanghi che poi tendono a gassificare anche se sono già stati già sottoposti al processo di disidratazione. Quindi non mi rimane che liberarmi dell’eccesso, pena riempire il frigorifero del laboratorio di barattoli e campioni inutili.

Non manca mai, e anzi continua l’incomprensione quando parlo del fatto che un problema analitico non si risolve possedendo arti divinatorie, ma che l’approccio al problema analitico deve essere sistematico, cioè non si deve improvvisare. Un dialogo di questo tipo si presenta quando qualcuno mi porta un campione che in questo caso non gli ho chiesto di prelevarmi, ma che invece è stato prelevato di sua iniziativa in qualche punto dell’impianto o della rete di acquedotto. L’intenzione è lodevole, ma di solito non so dove e come il campione sia stato prelevato, e con quali modalità. E la stessa cosa vale per chi mi chiede qualche volta l’analisi dell’acqua di casa. Propongo di fornire i contenitori che uso in laboratorio. Ma l’offerta viene spesso rispedita al mittente. Quindi negli anni mi sono giunti campioni in bottigliette di acqua, in contenitori di marmellata, e anche in scatole di biscotti e caramelle, se erano solidi o polverulenti. E questi campioni sono stati conservati in maniera non ben definita E’ quindi del tutto evidente che questa sia una battaglia persa . La morale finale è quella che, la frase “Scusa puoi prendermi un campione ?” la sto pronunciando ormai da tempo il meno possibile. Preferisco, anche a costo di variare l’impostazione di un programma di lavoro già definito, recarmi di persona per effettuare il campionamento. O accompagnare la persona che è stata incaricata di farlo. Credo che il chimico che lavora con coscienza sa di assumersi una responsabilità di fronte alle persone per le quali sta svolgendo il servizio. E quindi delegare sull’effettuazione dei campionamenti, o delle verifiche sul campo sarebbe come venir meno ad un impegno da cui non mi sento di derogare.

Questo mi pone alcune volte un problema di come ottimizzare il mio tempo, ma è l’unica soluzione possibile. Sarebbe interessante pensare ad un corso interno per insegnare le modalità di base del campionamento per il personale di impianto. Un’idea che però non è ancora stato possibile realizzare fattivamente.

Un ultima considerazione relativa alle fasi di preparazione di un’analisi. Credo che occorra insegnare con molta attenzione il giusto pretrattamento dei campioni. Spesso ho avuto discussioni anche molto accanite su questo aspetto del lavoro. Visto che sono convinto che il punto critico del trattamento di depurazione convenzionale risieda nella linea fanghi, se il campione proviene da quel trattamento occorre convertire l’analita che si andrà a determinare nel modo migliore e nella forma più adatta per la successiva analisi.

Questo ultimo tipo di problema è come uno spartiacque. Sembra che dedicare più tempo al pretrattamento sia una perdita di tempo inutile, e limiti la produttività. E invece è una fase fondamentale.

Non è argomento facile quando l’interlocutore non è un tecnico. La difficile conversazione che da sempre esiste tra il settore tecnico e quello amministrativo. Credo in ogni azienda.

Una lingua artificiale.

Rinaldo Cervellati

“Una “lingua artificiale” a base di detergente può identificare le marche di acqua in bottiglia”

E’ il titolo principale di un articolo di Prachi Patel comparso sul fascicolo on-line di Chemistry & Engineering News dell’11 dicembre scorso. Nel sottotitolo, l’estensore specifica che si tratta di un assemblaggio contenente un singolo tipo di sensore fluorescente in grado di rilevare 13 ioni metallici diversi.

Questo assemblaggio (“lingua chimica”) è stata messa a punto da un gruppo di ricerca misto delle Scuole di Chimica e Ingegneria Chimica e di Fisica e Tecnologia dell’Informazione dell’Università di Shaanxi (Cina), coordinati dalla Dr Liping Ding (L. Zhang et al., A Fluorescent Binary Ensemble based on Pyrene Derivative and SDS Assemblies as a Chemical Tongue for Discriminating Metal Ions and Brand Water, ACS Sensors, 2017, DOI: 10.1021/acssensors.7b00634). Il sensore chimico realizzato dai ricercatori cinesi utilizza un singolo tipo di molecola fluorescente per rilevare e quantificare 13 ioni metallici diversi.

I sensori fluorescenti sono particolarmente adatti per la rilevazione in tempo reale di quantità minime (livello nanomolare) di composti o ioni bersaglio in soluzione. In queste applicazioni, le molecole includono tipicamente due parti: un recettore collegato a un colorante fluorescente. Quando il recettore si lega al suo bersaglio, innesca un cambiamento nel colore, nell’intensità o nella durata dell’emissione luminosa del colorante. Questa risposta viene usata per identificare e quantificare la concentrazione della molecola bersaglio (analita).

Per questo tipo di applicazione, i ricercatori hanno in genere utilizzato un insieme di sensori, ciascuno posto in pozzetti separati di una piastra, per misurare la quantità di più tipi di molecole in un campione. Utilizzando tali insiemi di sensori, i ricercatori hanno realizzato lingue artificiali in grado di identificare diverse bevande analcoliche, whisky e vini. Queste “lingue” possono inoltre consentire il monitoraggio della qualità dell’acqua e permettere ai consumatori di testare i prodotti alimentari per la contaminazione da metalli pesanti.

Ma questi insiemi di sensori sono tediosi da utilizzare, richiedono tempo e non poca quantità di campione, afferma Liping Ding, pertanto insieme ai miei colleghi abbiamo cercato di semplificare sia il metodo sia l’apparecchiatura.

Il nuovo sensore messo a punto dai ricercatori cinesi utilizza una singola sonda molecolare che può emettere fluorescenza a quattro diverse lunghezze d’onda, a seconda della lunghezza d’onda della luce applicata al campione. Quando diversi ioni metallici si legano, il pattern di fluorescenza cambia sensibilmente in modo tale da consentire di distinguerli in soluzione.

La parte fluorescente del sensore è un colorante a base di pirene contenente un gruppo funzionale amminico che lega gli ioni metallici. Quando vengono aggiunti all’acqua insieme al detergente più comune, il sodio dodecil solfato (SDS), le molecole del detergente si aggregano in micelle.

Formazione di una micella

Le micelle sono aggregati molecolari di forma sferica con superficie idrofila caricata negativamente, e interno idrorepellente. Gli aggregati incorporano le molecole del sensore: la parte pirenica idrofobica viene intrappolata all’interno delle micelle mentre l’estremità amminica idrofila punta verso l’esterno della soluzione e si lega agli ioni metallici, attratti dalla superficie negativa.

Questa interazione provoca un cambiamento nelle dimensioni e nella forma degli aggregati micellari. Questo cambiamento strutturale a sua volta fa variare l’intensità della fluorescenza in ciascuna delle quattro lunghezze d’onda, tipica per un dato ione metallico. La combinazione dei cambiamenti a diverse lunghezze d’onda costituisce quindi un modello di riconoscimento per un particolare ione metallico, afferma Ding.

Schema del metodo. Quando gli ioni metallici si legano ai fluorofori del sensore (mezzalune rosa) o interagiscono con la parte anionica delle micelle di detergente, la struttura delle sfere cambia, come pure l’intensità della luce dei fluorofori a quattro lunghezze d’onda.

I ricercatori cinesi sono stati in grado di registrare modelli di riconoscimento unici per 13 diversi ioni metallici: Cu2+, Co2+, Ni2+, Cr3+, Hg2+, Fe3+, Zn2+, Cd2+, Al3+, Pb2+, Ca2+, Mg2+ e Ba2+. Applicando un algoritmo di riconoscimento ai diversi pattern dei segnali fluorescenti, si potrebbero individuare più ioni metallici presenti nella soluzione in esame.

Le marche di acque minerali in bottiglia hanno diversa composizione e quantità di ioni metallici, ciò che le rende un test ideale del nuovo sensore. Quando i ricercatori hanno testato tali campioni con il loro sensore, hanno potuto discriminare fra acqua del rubinetto e acqua minerale e identificare otto diverse marche di acqua minerale. Il sensore potrebbe infine essere utilizzato per monitorare la qualità dell’acqua potabile o rilevare contraffazioni dell’acqua in bottiglia, conclude Ding.

Liping Ding

Analisi chimica in archeologia

Luigi Campanella, ex Presidente SCI.

Da un punto di vista chimico i sistemi archeologici sono molto complessi, per lo più risultando costituiti da molte specie chimiche in miscela disomogenee. Poiché è impossibile descrivere completamente un sistema complesso, l’interesse si appunta usualmente su uno o più analiti, mentre l’insieme dei componenti viene chiamato matrice; è da sottolineare che i risultati delle determinazioni di ogni singolo analita sono grandemente influenzati da quest’ultima .

La chimica analitica in un passato anche abbastanza recente richiedeva campioni di dimensioni eccessive, i suoi metodi non erano sufficientemente sensibili e le sue conoscenze sulle matrici archeologiche scarse; oggi e in prospettiva, è in grado di analizzare campioni sempre più piccoli e analiti a concentrazione sempre più bassa, e ha sviluppato una maggiore sensibilità sul problema delle matrici e sui criteri generali per tener conto dei loro effetti.

Questo si riflette in una maggiore rispondenza alle esigenze dell’archeologia, sia perché i campioni richiesti sono di dimensioni talmente ridotte da rendere il loro prelievo praticamente non-distruttivo, sia perché gli analiti in tracce vanno assumendo un preponderante significato diagnostico.

Tre sono i tipi di intervento dell’analisi chimica in archeologia:

  • analisi di poco o nessun peso sulla diagnosi;
  • analisi con metodi analitici acriticamente mutuati da altri campi applicativi;
  • analisi con metodi appropriati, appositamente sviluppati.

Con riferimento ai campi 2 e 3 le nuove tecnologie applicate ai beni culturali sono in parte mutuate dalla medicina, dalla biologia molecolare, dalla chimica e dalla fisica. Per esempio le indagini di medical imaging e morfometria geometrica si applicano ai reperti fossili per lo studio dell’evoluzione umana; l’analisi degli isotopi stabili fornisce chiarimenti sul rapporto tra alimentazione e mobilità nelle popolazioni umane del passato; tecniche microanalitiche sono utilizzate per le gemme; l’illuminazione applicata ai beni culturali è impiegata a individuare i sistemi di illuminazione più adatti e meno dannosi a cui i sistemi biologici sono sottoposti nel tempo.

L’invecchiamento delle proteine è un processo non ancora ben compreso tuttavia è noto che le proteine invecchiate sono soggette a modificazioni della catena polipeptidica che producono ad esempio diminuzione di solubilità, aumento del calore di denaturazione; inoltre variazioni di umidità ambientale e pH possono causare l’idrolisi del legame peptidico, causando variazioni del peso molecolare e reazioni di disidratazione. Lo studio sistematico di queste modificazioni, attraverso una sperimentazione in laboratorio, e quindi sottoponendo i campioni di composizione nota ad un invecchiamento accelerato, apre ampie prospettive sulla possibilità di datare i reperti archeologici a partire dall’interazione della matrice proteica con l’ambiente.

La Proteomica

Le strategie proteomiche sono procedure ormai consolidate in ambiti scientifici, soprattutto in biochimica e biologia, prevedono come processo di estrazione, quello della digestione enzimatica che riduce le proteine a polipeptidi più piccoli o singoli amminacidi idrolizzando i legami peptidici; questo comporta che da ogni singola proteina ottenuta viene liberato un set specifico di peptidi che ne costituisce l’impronta digitale. La mistura proteica ottenuta, viene poi identificata con una tecnica cromatografica accopiata alla spettrometria di massa, evidenziando i cambiamenti della sequenza amminoacidica e le eventuali modifiche delle catene laterali.

Nel settore della diagnostica applicata ai beni culturali la caratterizzazione delle sostanze organiche è estremamente importante ed è di particolare interesse per diversi settori che vanno dall’archeologia alle indagini pittoriche.

Dietro, anzi dentro i dipinti e gli affreschi dei più grandi maestri della pittura sono presenti i più svariati derivati vegetali e animali, molto spesso custoditi nel segreto di quei meravigliosi colori che non smettono mai di incantare: l’accecante giallo di Van Gogh, le ombre di Michelangelo, l’indefinibile blu di Picasso, lo sforzo oro di Klimt, in ogni cromia si nasconde una insondabile miscela chimica di natura organica. Senza considerare che il più delle volte, indipendentemente dalle miscele adoperate per creare i colori, sono di natura organica i leganti, collanti e siccativi utilizzati per fissare i colori sulle superfici da dipingere.

I componenti pittorici di tipo organico sono caratterizzati da un’enorme variabilità chimica, sono presenti in quantità esigue e sono fortemente affetti da problemi di alterazione. Infatti, in generale, la caratterizzazione e lo studio del sistema proteico sono piuttosto complessi, poiché a differenza del genoma, che può essere considerato virtualmente statico, il proteoma cambia continuamente introducendo drastiche modificazioni nella composizione di diversa natura; ad esempio la formazione di radicali liberi per azione della radiazione UV può indurre reazioni con le funzionalità libere degli amminoacidi nei peptidi formando complessi metallici con i pigmenti e siccativi inorganici.

Da sottolineare che l’individuazione della componente proteica in un’opera pittorica, conduce anche alla conoscenza delle tecniche di esecuzione, alla comprensione dell’evoluzione degli stili pittorici, alla determinazione dei parametri che ne permettono un’autenticazione; inoltre identificare eventuali alterazioni relative al contenuto vitale, ovvero organico e proteico, presenti nei materiali pittorici diventa un compito sempre più importante per valutare e progettare delle strategie di intervento.

L’approccio proteomico può inoltre condurre ad importanti scoperte nell’ambito delle ricostruzioni ecologiche, delle paleopatologie, delle paleodiete e l’organizzazione civile della popolazione d’interesse, sottoponendo all’indagine sia manufatti archeologici di uso quotidiano, che reperti di ossa e/o denti umani e di origine animale.

Esistono alcuni studi condotti sulle ceramiche in contesti archeologici che dimostrano la forte tendenza delle proteine di legarsi alle matrici ceramiche e di rimanere nelle stesse per lunghi periodi di tempo. Le procedure proteomiche vantano la possibilità di individuare le proteine anche se la disponibilità del campione è ridotta (dell’ordine dei nanometri) e forniscono un’identificazione precisa della sequenza peptidica, definendone l’impronta digitale.

La presenza nelle matrici ceramiche di alcune proteine piuttosto che altre, può indurre al riconoscimento non solo del tipo di nutrimento, individuando la paleodieta dell’individuo o del gruppo di individui a cui appartiene il manufatto, ma anche la tipologia di animale, ad esempio, e la sua specie, portando ad affinare le conoscenze relative alla fauna che occupava il territorio in un certo periodo archeologico.

Aldilà delle analisi condotte sui manufatti di uso quotidiano (es. ceramiche per la cottura di cibi, utensili utilizzati per la caccia, ecc…), l’indagine proteomica può essere condotta direttamente sui reperti.

Un’altra rilevante applicazione della proteomica riguarda l’identificazione quando il riconoscimento non è possibile su base morfologica: un ritrovamento di enormi quantità di ossa, ad esempio ossa animali, deposte in maniera casuale, non può essere ricostruito se non con un approccio scientifico che permetta di discriminare inequivocabilmente ogni reperto osseo e di attribuirlo ad una specie ben definita.

Un ultimo aspetto da non trascurare è la possibilità di datare i reperti archeologici, con metodi del tutto innovativi e che possono fornire interessanti scoperte. Esistono già dei metodi che si basano sull’identificazione degli amminoacidi come il metodo della racemizzazione. Esso si basa sul fatto che negli organismi viventi è presente soltanto la forma levogira degli amminacidi che inizia a diventare destrogira dopo la morte, fino a raggiungere uno stato di equilibrio tra i due isomeri ottici, nel quale la luce non sarà più deviata. Il metodo della racemizzazione mette in relazione il rapporto tra la concentrazione dei due enantiomeri con il tempo.

Oltre a questo metodo si può pensare di applicare le strategie proteomiche procedendo con uno studio approfondito sulle modificazioni che subiscono le proteine con l’avanzare del tempo servendosi di invecchiamenti simulati accelerati, verificati e confrontati a fini di calibrazione. con quelli naturali

Analisi di inchiostri

Luigi Campanella, ex Presidente SCI

Sono stato di recente interpellato per un problema molto interessante : la datazione dei documenti e delle relative firme. Si tratta di un lavoro difficile: ritengo utile postare quanto ho scritto in attesa di commenti migliorativi in favore della verità e contro le falsificazioni documentarie.

La letteratura internazionale riporta che, dal momento della sua deposizione sul supporto cartaceo, un inchiostro subisce una serie di processi chimici (evaporazione del solvente, polimerizzazione della resina, ossidazione dei componenti cromatici), comunemente indicati come “invecchiamento”. Uno dei risultati pratici dell’invecchiamento è una continua riduzione della solubilità (estraibilità) dell’inchiostro nei confronti di una prima azione di un solvente debole e successivamente di un solvente forte.

La valutazione del grado di estraibilità costituisce pertanto un indice del grado di invecchiamento di una scrittura, e quindi della data reale di produzione della scrittura medesima, che trova ampia applicazione nelle analisi forensi.

Il rapporto tra la quantità di inchiostro estratta dal solvente debole e la quantità totale di inchiostro (estrazione di solvente debole + solvente forte) è indicativo della data di produzione di una scrittura all’interno del periodo di maturazione dell’invecchiamento stesso, esaurito il quale non si riscontrano ulteriori modificazioni.

L’andamento del processo di invecchiamento è tale per cui la sensibilità della tecnica è tanto maggiore quanto minore è il tempo trascorso dalla produzione della scrittura all’analisi. Trattasi di un metodo distruttivo che si limita all’applicazione solamente a taluni pigmenti di inchiostro di penna (tipicamente di tipo oleoso come nel caso di una penna a sfera) e non può dare una risposta “accurata” riguardo alla datazione. In alcuni lavori (bibliografia 13) si conclude, proprio sulla base di 2 differenti approcci (uno lento ed uno veloce) che forniscono risultati significativamente diversi, sulla relativa impossibilità di datazione accurata degli inchiostri deposti.

In ogni caso è pressoché impossibile stabilire se due diverse scritture siano state apposte nell’arco di breve tempo l’una dall’altra (ore o giorni).È possibile invece la sequenza temporale dei tratti grafici che stabilisce se una scrittura, ad esempio una firma, è stata apposta prima o dopo un’altra. Però questa metodologia è possibile solo in presenza di sovrapposizione dei tratti delle due scritture (olografia conoscopica).

Dalla letteratura emerge anche come la datazione dei documenti manoscritti sia sempre molto approssimativa e non sia possibile esprimere mai un parere di certezza tecnica e ciò per svariati motivi, quali la mutazione degli inchiostri (pigmentazione) e dell’attrezzo scrittorio, dell’esposizione del documento in esame a fonti di calore, raggi solari, caldo, freddo, fonti di luce, agenti atmosferici, ecc. che peraltro interferiscono in modo diverso al variare del tipo di inchiostro.Se, ad esempio, un documento manoscritto con penna a biro viene esposto ai raggi solari, o posto in un forno, viene invecchiato di molti anni. Inversamente nel caso di collocazioni in freezer.

L’olografo commerciale (Conopoint3 della Ofir) è in pratica un profilometro.

Comunque la Chimica Analitica ha applicato al problema metodi più sofisticati. L’analisi degli inchiostri può essere infatti effettuata con spettrometria Raman e spettroscopia di fluorescenza a raggi X (XRF), impiegando sia strumenti portatili, sia strumenti da banco. La spettrometria Raman fornisce informazioni sui composti impiegati, la spettroscopia XRF, identifica gli elementi-chiave e dà informazioni addizionali sugli elementi presenti in tracce, permettendo così di evidenziare le differenze di distribuzione elementare tra zone diverse del manoscritto. Anche l’HPLC, la cromatografia liquida a fasi invertite in qualche caso con pre-estrazione in fase solida, e la Gas-massa (GC-MS), sono state applicate all’analisi chimica degli inchiostri per risalire dalla loro composizione, alterata rispetto all’originale dal processo di invecchiamento, alla data di applicazione. Sono anche noti metodi ancor più articolati come quello di usare diagrammi ternari costruiti per i coloranti presenti nell’inchiostro, ma anche in questo caso sono riportate datazioni errate per campioni esposti per tempi prolungati alla luce di lampade a fluorescenza od a quella solare o a fonti di calore. Anche metodi più semplici come la spettrofotometria UV-Visibile o i.r. con misure di assorbanza, l’analisi elettrostatica (ESDA) hanno trovato applicazioni. In studi più recenti anche il microscopio elettronico e la datazione al radio carbonio (ovviamente nel caso di documenti antichi) ha fornito risultati di un certo interesse.

applicazione dell’olografica conoscopica. http://www.ilgrafologo.it/doc/29-34.PDF

Si è già accennato ad un altro metodo, l’olografia conoscopica che è in grado di effettuare delle “scansioni” non a contatto con elevatissima precisione (micrometrica) e ripetibilità del campione oggetto della misura. Il file che viene generato è composto dalla terna X-Y-Z di ogni singolo punto campionato, il che significa che anche nel caso di una scansione di un’area limitata possiamo dare origine ad un file composto anche da qualche milione di punti X-Y-Z, file che viene anche chiamato in gergo “nuvola di punti”.Occorre inoltre notare che il sistema rileva la mappa topografica del campione, conseguentemente non ha alcuna importanza il colore dell’inchiostro o della carta e tantomeno la mano o le mani che hanno tracciato i tratti. È anche possibile rilevare dei solchi che sono stati marcati e poi cancellati;l’apparecchiatura 3D consente di effettuare delle misure inerenti alla profondità dei solchi, alla larghezza degli stessi, ecc.

Due altri aspetti che rappresentano elementi di incertezza e che devono essere valutati riguardano la carta che invecchiando, dal momento della sua fabbricazione, è soggetta anch’essa ad un processo di invecchiamento (produzione di gruppi carbossilici e frammentazione della catena cellulosica) che potrebbero influenzare il processo estrattivo.Inoltre nella costituzione della carta sono presenti ioni metallici in traccia, peraltro distribuiti casualmente e disomogeneamente: anche questi possono influenzare il processo estrattivo ostacolandolo

CONCLUSIONI

La determinazione dell’età di un inchiostro deposto è problema complesso e di non semplice soluzione in quanto il processo di invecchiamento risulta in misura determinante influenzato dalle condizioni di conservazione (temperatura, illuminazione, ambiente chimico) nonché dall’invecchiamento della carta e dalla sua composizione.Il metodo dell’estrazione risente in particolare di queste dipendenze, anche se è fra quelli più impiegati.La correlazione fra maturazione e completamento del processo di invecchiamento ed estraibilità alla base di tale metodo- applicato al caso in questione -ha anche una dipendenza dalla cinetica del processo stesso e dalla dificoltà di definire uno standard. Metodi più sofisticati sono certamente in grado di fornire risposte più accurate (a questo proposito rispetto a quanto riportato nel post c‘è da osservare che non si tratta di problemi di precisione, che è invece fondamentale per definire gli intervalli di incertezza, necessari per dare significatività alle misure al fine di dare significatività ad eventuali differenze), ma richiederebbero campionamenti nuovi (visto il carattere distruttivo del metodo per estrazione), introducendo quindi un ulteriore elemento di incertezza.

BIBLIOGRAFIA DI RIFERIMENTO

  1. Ellen: Scientific examination of Documents: Methods and Techniques. CRC Taylor & Francis Publishers; International Forensic Science and Investigation Series; New York, NY, USA, 2005.
  2. Giuntini, F. Lucarelli, P.A. Mandò, W. Hooper, P.H. Barker, “Galileo’s writings: chronology by PIXE”, Nucl. Instr. & Meth. B, 95, 389 (1995).
  3. Andrasko J., Changes in Composition of Ballpoint Pen Inks on Aging in Darkness, SKL, National Laboratory of Forensic Science, Linkoping, Swed, Journal of Forensic Sciences (2004), 47(2), 324-327.
  4. Mitchell C. Ainsworth, Estimation of the age of ink in writing, International Journal of Forensic Forensic Document Examiners (1995), 1(1), 56-62.
  5. Brunelle RL, Cantu A., A Critical Evaluation of Current Ink Dating Techniques, Bur. Alcohol, Tob. Firearms. Rockville, MD, USA. Journal of Forensic Sciences (1987), 32(6), 1522-36.
  6. Valery N. Aginsky, Writing media and documents, Riley, Welch and Aginsky, Forensic Documents Examinations, Inc., Lansing, MI, USA, Handook of Analytical Separations (2008), 6(Forensic Science), 923-941. Publisher: Elsevier B.V.
  7. LaPorte Gerald M, Wilson Jeffrey D, Cantu Antonio A, Mancke S Amanda, Fortunato Susan L The identification of 2 – phenoxyethanol in ballpoint   inks   using   gas   chromatography / mass   spectrometry — relevance to ink   dating.   Journal of forensic sciences (2004), 49(1), 155-9.
  8. Valery N. Aginsky, A microspectrophotometric method for dating   ballpoint   inks –a feasibility study. Journal of Forensic Sciences (1995), 40(3), 475-8.
  9. Andrasko Jan SKL, Changes in composition of ballpoint pen inks on aging in darkness, National Laboratory of Forensic Science, Linkoping, Sweden Journal of forensic sciences (2002), 47, (2), 324-7.
  10. Wang, Yan; Yao, Lijuan; Zhao, Pengcheng; Wang, Jinghan; Wang, Yanji. Determination of the writing   age of blue   ballpoint   ink by gas   chromatography. Sepu (2005), 23(2), 202-204. Publisher: Kexue Chubanshe.
  11. Hofer, R. Dating of ballpoint   pen   ink. Journal of Forensic Sciences Division , Document Laboratory, Zurich Canton Police, Zurich, Switz, (2004), 49(6), 1353-1357.
  12. Lociciro, S.; Dujourdy, L.; Mazzella, W.; Margot, P.; Lock, E., Dynamic of the aging of ballpoint pen   inks : quantification of phenoxyethanol by GC – MS. Institut de Police Scientifique et de Criminologie, University of Lausanne, Lausanne-Dorigny, Switz.   Science & Justice (2004), 44(3), 165-171. Publisher: Forensic Science Society,
  13. Wilson, Jeffrey D., LaPorte, Gerald M., Cantu, Antonio A., Differentiation of black   gel   inks   using   optical and chemical   techniques, Forensic Services Division, Questioned Document Branch, United States Secret Service, Washington, DC, USA.   Journal of Forensic Sciences (2004), 49(2), 364-370.
  14. Wild Eva Maria, Stadler Peter, Bondar Maria, Draxler Susanne, Friesinger Herwig, Kutschera Walter, Priller Alfred, Rom Werner, Ruttkay Elisabeth, Steier Peter, New   chronological   frame for the Young   Neolithic   Baden   Culture in Central   Europe ( 4th   millennium   BC ), Vienna Environmental Research Accelerator (VERA), Institut fur Isotopenforschung und Kernphysik, Universitat Wien, Vienna, Austria.   Radiocarbon (2001), 43(2B), 1057-1064.
  15. Kher Ashwini A., Green Elinore V., Mulholland Mary I., Evaluation of principal   components   analysis with high – performance   liquid chromatography and photodiode   array   detection for the forensic   differentiation of ballpoint   pen   inks. Department of Chemistry, Materials and Forensic Science, University of Technology, Sydney, Australia.   Journal of Forensic Sciences (2001), 46(4), 878-883.
  16. Puchegger, S.; Rom, W.; Steier, P., Automated   evaluation of 14C   AMS  measurements.      Vienna Environmental Research Accelerator, Institut fur Isotopenforschung und Kernphysik der Universitat Wien, Vienna, Austria.   Nuclear Instruments & Methods in Physics Research, Section B: Beam Interactions with Materials and Atoms (2000), 172 274-280.
  17. Carla Vogt,1 Ph.D.; Andreas Becker,1 B.Sc.; and Jürgen Vogt,2 Ph.D., investigation of ball point pen inks by capillary electrophoresis (CE) with UV/Vis absorbance and laser induced fluorescence detection and particle induced X-Ray emission (PIXE), Institute of Analytical Chemistry, University of Leipzig, Germany, Journal of Forensic Sciences (1999), 44(4), 819-831.
  18. Aginsky, Valery N., Measuring   ink extractability as a function of age – why the relative   aging   approach is unreliable and why it is more correct to measure   ink   volatile   components than dyes, American Academy of Forensic Sciences, New York, NY, USA.   International Journal of Forensic Document Examiners (1998), 4(3), 214-230.
  19. Stuiver, Minze; Reimer, Paula J.; Bard, Edouard; Beck, J. Warren; Burr, G. S.; Hughen, Konrad A.; Kromer, Bernd; McCormac, Gerry; Van Der Plicht, Johannes; Spurk, Marco, INTCAL98   radiocarbon   age   calibration , 24,000-0 cal BP, Quaternary Isotope Laboratory, University of Washington, Seattle, WA, USA.   Radiocarbon (1998), 40(3), 1041-1083.
  20. Wild, Eva; Golser, Robin; Hille, Peter; Kutschera, Walter; Priller, Alfred; Puchegger, Stephan; Rom, Werner; Steier, Peter. First   14C results from archaeological and forensic studies at the Vienna   environmental research accelerator. Institut fur Radiumforschung und Kernphysik, Vienna Environmental Research Accelerator, Universitat Wien, Vienna, Austria. Radiocarbon (1998), 40(1), 273-281.
  21. Cantu, Antonio A., A sketch of analytical   methods for document dating Part I. The static approach: Determining age independent analytical profiles. International Journal of Forensic Document Examiners (1995), 1(1), 40-51.
  22. Aginsky, Valery N. Some   new   ideas for dating   ballpoint   inks — a   feasibility   study. Interior, Moscow, Russia, Journal of Forensic Sciences (1993), 38(5), 1134-50.
  23. Stewart, Larry F. Ballpoint   ink age determination by volatile   component   comparison – a preliminary study. Forensic Serv. Div., U. S. Secret Serv., Washington, DC, USA. Journal of Forensic Sciences (1985), 30(2), 405-11.
  24. Burleigh, Richard; Baynes-Cope, A. D.,   Possibilities in the dating of writing   materials and textiles, Lab., Br. Mus., London, UK, Radiocarbon (1983), 25(2), 669-74.
  25. Brunelle, Richard L.; Pro, Maynard J. Systematic   approach to ink   identification. Firearms Div., Intern. Revenue Serv., Washington, DC, USA, Journal – Association of Official Analytical Chemists (1972), 55(4), 823-6.
  26. Hofer, R. Dating of ballpoint   pen   ink, Forensic Science Division, Document Laboratory, Zurich Canton Police, Zurich, Switz, Journal of Forensic Sciences (2004), 49(6), 1353-1357.
  27. L. Brunelle & K.R. Crawford: Advances in the forensic analysis and dating of writing ink. C.C. Thomas Publisher, Springfield, IL, USA, 2003

Referenziazione analitica: cosa è?

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Luigi Campanella, ex presidente SCI

320px-Continuous-Flow_Analysator

Negli anni ’70, dopo il boom economico che aveva sacrificato alcuni aspetti della sostenibilità, anche importanti, al prevalente interesse economico, la chimica si assunse una grande responsabilità, ed oggi dobbiamo dire anche un grande merito, rivendicando alle proprie misure in tutti i campi di applicazione il carattere della qualità, in termini di accuratezza e precisione, sulla base di alcuni preliminari accorgimenti. Nacque così il progetto “Referenziazione Analitica”. La misura della stessa concentrazione dello stesso elemento o dello stesso composto, qualunque essi siano, in matrici fra loro talvolta tanto diverse (campioni alimentari, ambientali, biologici) deve tenere conto, per essere affidabile nel risultato, del cosiddetto effetto matrice, il che vuol dire che un metodo per essere gartantito nella correttezza dei risultati deve essere validato su un campione della stessa natura di quello da testare. Nacquero così i materiali di riferimento certificati (CRM), prodotti da aziende specializzate che in breve tempo si diffusero così tanto da giustificare la comparsa di cataloghi ad essi dedicari. Una delle caratteristiche più importanti di un materiale di riferimento è di certo la sua stabilità da cui l’esigenza di test di misura che lo possano valutare affidabilmente. La guida ISO a tale proposito suggerisce test di stabilità a breve durata condotta solo per poche settimane. Ma questo non risponde all’esigenza di valutare anche la stabilità a lungo termine. Per questo anche viene ora proposto un test accelerato che si dimostra anche più idoneo ad evidenziare difetti di stabilità. Il test è condotto a temperature di 200°C più alta di quella di conservazione per tempi variabili fra 1 e 18 mesi, sempre operando in doppio. Nel caso dei test di stabilità a lungo termine la temperatura è quella di conservazione o la durata si dilata fino a 48 mesi. I test a breve termine generalmente si applicano per garantirsi sulla stabilità durante il tempo di trasporto, ma risultano spesso insufficienti rispetto a valutazioni più approfondite. Nel caso di studi di cinetica di degradazione 9 mesi è considerato l’intervallo minimo necessario.

Nucleo_magneticamente_attivo_in_rotazione.jpegPer tutti i test l’NMR è il metodo di analisi consigliato per eccellenza. A proposito di questa tecnica in continuo sviluppo negli ultimi anni l’importanza della quantificazione di sostanze organiche impiegando l’NMR è aumentata notevolmente. Oggi l’NMR quantitativo è usato in una grande varietà di applicazioni sia da parte dell’industria che dei laboratori di ricerca. L’intensità di un segnale NMR è direttamente proporzionale al numero di protoni che producono il segnale. La quantificazione è ottenuta misurando l’area del picco di interesse rispetto ad un segnale prodotto da uno standard interno rappresentato da un materiale di riferimento certificato. Questo materiale deve essere tracciabilmente riferito ad un materiale prodotto dall’Istituto di Standard e Tecnologia (NIST).

chimicaanalitica

L’istituto per i Materiali e le Misure di riferimento è uno dei 7 istituti del Centro di Ricerca Europeo impegnato a supportare le politiche europee sui temi della standardizzazione e dei sistemi e metodi di Riferimento. Uno dei materiali di recente prodotto come riferimento è la tetrametilurea applicato in alcuni test su vini. Il carattere DOC e DOP di alcuni alimenti è un indice di qualità a garanzia del consumatore. Purtroppo le frodi alimentari sempre più contrastano la correttezza di questo approccio. Il test affidabile per valutare l’autenticità o meno di un vino richiede la calibrazione accurata di specifiche misure di rapporti isotopici. Anche la tetrametiurea è stata certificata per il suo rapporto deuterio/idrogeno. E’ questo uno dei rapporti finalizzati comunemente e smascherare frodi ed adulterazioni Gli altri sono il rapporto 13C/12C, 18O/16O e 15N/14N. I valori ottenuti per il vino testato sono confrontati con quelli propri dei vini autentici.
Altri materiali di riferimento di recente prodotti, a dimostrazione della grande variabilità,sono
a) capelli umani certificati per il loro contenuto in As, Cd, Cu, Fe, Hg, Pb, Se e Zn : l’impiego di tale materiale è da collegare all’impiego dei capelli umani per monitorare l’esposizione di una persona a certi metalli
b) grani di cementite dispersi in una matrice di perlite ferrosa con un diametro medio dei grani compreso fra 20 e 50 µ , certificati con il contenuto in carbonio ed applicati allo studio delle proprietà ( come duttibilità e durezza) di alcuni materiali da costruzione, esaminati per il loro contenuto in carbonio tramite la microsonda elettronica.

per approfondire: Ref. A.Rueck, C.Hellriegel,Analyrik,issue 1,7-11 (2014)

http://www.treccani.it/enciclopedia/referenziazione_%28Enciclopedia-Italiana%29/

http://en.wikipedia.org/wiki/Certified_reference_materials

Chimica analitica del XXI secolo.

510-oHqVlZL._SY300_

uno dei più moderni testi di chimica analitica

L’apertura delle frontiere in seguito alla nascita dell’Unione Europea ha permesso l’ingresso sul mercato di prodotti agro-alimentari aventi la stessa denominazione commerciale ma qualità e prezzo diversi. Questo ha spinto molti produttori e, addirittura, alcuni Stati membri a valorizzare i loro prodotti più pregiati, proteggendo contemporaneamente gli stessi diritti dei consumatori, mediante una certificazione di qualità. Così, i Disciplinari di produzione (normative comunitarie che forniscono tutte le caratteristiche produttive necessarie affinché un prodotto possa fregiarsi di una Denominazione di Origine Protetta (DOP) o di una Indicazione Geografica Protetta (IGP)), già presenti da molti anni nell’industria vinicola, sono stati recentemente estesi ad altri prodotti agro-alimentari, tra i quali l’olio extra vergine d’oliva.
Per l’accertamento a posteriori della “qualità” di un prodotto è però necessario poter risalire attraverso la misura di parametri fisici, chimici ed organolettici alla sua “origine” (materie prime, tecniche di produzione, provenienza geografica e varietale, etc.).
Il controllo analitico della qualità e della purezza o genuinità rappresenta nel suo complesso un problema di non semplice risoluzione, poiché la composizione naturale è fortemente influenzata da fattori genetici, agro-ambientali e produttivi, nonché dalla possibile incorporazione di sostanze xenobiotiche di derivazione agronomica e/o produttiva. A queste obbiettive difficoltà viene a sommarsi l’annosa questione delle frodi sempre più sofisticate.

320px-Continuous-Flow_Analysator
Così se da un lato può essere più o meno semplice, attraverso l’analisi chimica, stabilire la classificazione merceologica e/o l’identificare possibili frodi, quando il problema si sposta sulla determinazione dell’origine geografica o “colturale”, il parco dei dati analitici viene ad essere più difficilmente interpretabile, poiché le variabili discriminanti non risultano più indipendenti, cioè legate ai singoli dati, ma devono essere considerate nel loro insieme. In questi casi è necessaria una valutazione più sofisticata dei risultati dell’analisi chimica che richiede un loro “processamento” attraverso opportuni metodi statistici.
L’approccio più comunemente utilizzato è l’analisi statistica multivariata (chemiometrica), che consiste in un insieme di complessi metodi matematici (Analisi Fattoriale (FA), Analisi dei Clusters (CA), Analisi Discriminante Lineare (LDA)) in grado di operare una valutazione comparativa dei dati (nel nostro caso forniti dall’analisi chimica) finalizzata alla costruzione di un modello matematico “capace” di discriminare e quindi di prevedere, in termini di probabilità, l’appartenenza o meno di un campione ad un determinato “sistema di riferimento”.
In tempi più recenti si stanno sempre più affermando altri metodi di valutazione comparativa dei dati che vanno sotto il nome di Reti Neurali Artificiali (Artificial Neural Networks, ANN) e che si ispirano al modo in cui i sistemi nervosi biologici elaborano le informazioni: acquisizione dei dati – processo di apprendimento – formulazione della risposta.
La loro finalità discriminante è analoga a quella dei metodi della “chemiometria classica”, tuttavia essi, oltre a fornire spesso un quadro “più dettagliato” ed “articolato” nella risposta previsionale in quanto (con un sistema correttamente istruito) possono trovare una più esatta collocazione “interclasse” dei campioni in analisi, sono di grande utilità perché, essendo basati su procedimenti di indagine statistica diversi dai precedenti, consentono di operare un controllo incrociato sulla “significatività” delle risposte ottenute.
Sulla base di queste riflessioni, il problema analitico si può porre fondamentalmente nei termini seguenti (che costituiscono il processo logico e sperimentale da seguire) :

a.
individuare i parametri chimici che “potrebbero” nel loro insieme essere utili a discriminare “al livello richiesto” i singoli prodotti in analisi;
b.
eseguire le determinazioni analitiche dei suddetti parametri (mettendo a punto, se necessario, i relativi metodi di analisi) sui campioni in studio e, se non disponibili in letteratura, su un congruo numero di campioni analoghi “di sicura provenienza” che dovrà servire per la costruzione della “matrice di riferimento” (training set);
c.
analizzare “statisticamente” i risultati ottenuti attraverso passaggi successivi atti ad ottimizzare il procedimento di valutazione, di cui vengono di seguito riportate le fasi più significative:

controllo dei dati analitici per “eliminare o correggere” eventuali valori “statisticamente” dubbi che potrebbero falsare i risultati dell’indagine (outliers)
riduzione del numero delle variabili sperimentali,”scremandole” da quelle iniziali, senza incidere sul grado di discriminazione del sistema (variabili a scarso o nullo potere discriminante e/o variabili direttamente correlate tra loro);
determinazione dei fattori di correlazione tra tutte le variabili sperimentali rimaste e compressione dei dati così ottenuti in un nuovo set semplificato (purificato da ogni ridondanza nei dati originali);
uso dei dati compressi e delle classificazioni note per ricondurre le osservazioni esistenti alla classe più vicina;

d) controllare ed affinare l’interpretazione dei dati analitici (risposte)
mediante un metodo di indagine indipendente (ANN)
Per poter applicare con successo questo tipo di analisi statistica, è pertanto necessario disporre di un numero sufficiente di variabili “discriminanti” (ad esempio, nel caso di un olio di oliva, intese ad accertare la “cultivar” delle olive utilizzate per la produzione dell’olio in esame) e di un “training set” (campioni per i quali sia nota l’attribuzione) ben rappresentativo.

100px-Italian_olive_oil_2007

Per poter applicare con successo questo tipo di analisi statistica, è pertanto necessario disporre di un numero sufficiente di variabili “discriminanti”  e di un “training set” (campioni per i quali sia nota l’attribuzione) ben rappresentativo.Nel caso ad esempio di un prodotto di largo consumo come l’olio di oliva potrebbero essere utilizzati soltanto indici chimici (acidità, numero di perossidi, K232 , K270, DK, acidi grassi, steroli e LLL) che,essendo stati standardizzati per la relativa determinazione, evitano il rischio che il risultato finale possa essere influenzato da una certa variabilità sperimentale.

per approfondire:

http://en.wikipedia.org/wiki/Analytical_chemistry