Inquinamento da PFAS in Veneto. Riflessioni.

In evidenza

Mauro Icardi

La vicenda è venuta alla ribalta nel 2013. Durante l’effettuazione di ricerche sperimentali da parte del Ministero dell’Ambiente sui nuovi inquinanti “emergenti” è stata verificata la presenza di PFAS (Perfluoroalchili) in acque superficiali, sotterranee e potabili in Veneto. La zona interessata dall’inquinamento da PFAS comprendeva il territorio della bassa Valle dell’Agno (VI), e alcuni ambiti delle province di Padova e Verona .

E’ stata attivata una commissione tecnica regionale che ha provveduto ad emanare dei limiti di concentrazione ammissibili. Tali limiti non sono previsti nel D.lgs. 31/2001, che attua la direttiva 98/83/CE.

Non tutti i parametri sono presenti nelle tabelle del decreto, e questo per ovvi motivi. Il numero di sostanze che sono presenti e normate deriva dalle conoscenze scientifiche disponibili. Per queste sostanze viene fissato un valore di parametro che generalmente raccoglie gli orientamenti indicati dall’OMS (Organizzazione Mondiale della Sanità).

Per altri tipi di composti non normati si può applicare il principio generale presente nel Decreto 31 cioè che: “Le acque destinate al consumo umano non devono contenere microrganismi e parassiti, né altre sostanze, in quantità o concentrazioni tali da rappresentare un potenziale pericolo per la salute umana

La regione Veneto dopo aver riscontrato la presenza di questi inquinanti ha richiesto il supporto tecnico -scientifico del Ministero dell’ambiente e fissato dei limiti provvisori per il PFOA (Acido perfluorottanoico) pari a 0,5 microgrammi/litro, e di 0,03 microgrammi/litro per il PFOS (Acido perfluoroottansolfonico).

Oltre a questo si sono definite misure di emergenza per i gestori del ciclo idrico che hanno installato filtri specifici a carbone attivo per la rimozione di questi inquinanti.

E’ stato attivato un sistema di sorveglianza analitica, formazione per il personale sanitario e tecnico, un regolamento per l’utilizzo dei pozzi privati ad uso potabile. I cittadini che utilizzano pozzi, sia per uso potabile che per preparazione di alimenti devono ricercare la presenza di PFAS nelle acque prelevate allo scopo.

E’ stato attuato anche il biomonitoraggio della popolazione residente che si è concluso a fine 2016 mostrando livelli significativi di PFAS nel sangue di circa 60.000 persone.

L’ARPA del Veneto ha effettuato misurazioni che hanno riguardato falde ed acque superficiali per definire l’area interessata dal problema di inquinamento e definirne la provenienza.

Individuando come la contaminazione prevalente fosse dovuta agli scarichi di uno stabilimento chimico situato a Trissino in provincia di Vicenza.

Questo il preambolo generale. Ma ci sono alcune riflessioni da fare. A distanza di decenni lascia quantomeno sgomenti verificare che ancora oggi un problema di inquinamento ambientale sia dovuto ad una gestione scorretta dei reflui di lavorazione di un’industria.

Non è accettabile questo, perché negli anni abbiamo già dovuto assistere ad altri casi emblematici, casi che ormai sono parte della letteratura. Seveso, Priolo, Marghera, Casale Monferrato, Brescia. E ne dimentico certamente altri. Questo del Veneto sarà l’ennesimo caso. Occorre trovare l’equilibrio. La riconversione dei processi produttivi nell’industria chimica è ormai un’esigenza non rimandabile ulteriormente. Allo stesso tempo non è alla chimica come scienza che si deve imputare tout court il verificarsi di questi episodi, bensì ad una visione alterata di quelli che sono i nostri bisogni reali. L’azienda ritenuta responsabile dell’inquinamento sta affrontando il processo di riconversione. E questo come è probabile comporterà un percorso probabilmente lungo e tormentato. Non sempre le esigenze di occupazione e tutela ambientale seguono gli stessi percorsi.

Questo episodio deve fare riflettere anche per quanto riguarda la gestione del ciclo idrico. L’Italia deve investire e formare tecnici. Occorre dare una forma ad una gestione che al momento è ancora decisamente troppo frammentata e dispersa. Questo non significa, come spesso molti temono, innescare un processo contrario alla volontà espressa nel referendum del 2011. Ma mettere in grado le varie realtà territoriali di gestire emergenze che (purtroppo) potrebbero anche ripetersi.

Sono necessarie sinergie tra tutti i soggetti coinvolti (ISS, ARPA, Gestori del ciclo idrico).

L’ultima riflessione è molto personale, ma la ritengo ugualmente importante. Niente di tutto questo potrà prescindere da una più capillare educazione scientifica ed ambientale. Che riguardi non solo chi sta seguendo un corso di studi, ma in generale la pubblica opinione. Un cittadino compiutamente e doverosamente informato è un cittadino che può operare scelte più consapevoli. La spinta al cambiamento, alla riconversione dei processi produttivi parte anche da questo.

Approfondimenti.http://areeweb.polito.it/strutture/cemed/sistemaperiodico/s14/e14_1_01.html

https://sian.ulss20.verona.it/iweb/521/categorie.html

http://www.arpa.veneto.it/arpav/pagine-generiche/allegati-pagine-generiche/pfas-relazioni-attivita-arpav/Contaminazione_da_PFAS_Azioni_ARPAV_Riassunto_attivita_giu2013_gen2017.pdf

Nota del post master. Si stima che nel periodo 1970-2002 siano state utilizzate nel mondo 96.000 tonnellate di POSF (perfluorooctanesulphonyl fluoride) con emissioni globali di POSF tra 650 e 2.600 ton e di 6.5-130 ton di PFOS. La maggior parte del rilascio avviene in acqua (98%) e il rimanente in aria. Non sono biodegradabili in impianti a fanghi attivi.

Tossicità e prove su animali: a che punto siamo?

In evidenza

Luigi Campanella, ex presidente SCI

Gli studi tossicologici su sistemi bersaglio sono generalmente condotti utilizzando differenti dosi di tossico capaci di coprire un largo intervallo di concentrazione. I risultati di ogni studio mostreranno generalmente, ma non sempre, effetti dannosi ad alte dosi, ed effetti lievi a basse dosi. Se la sostanza è tossica sarà così identificata la dose alla quale gli effetti dannosi compaiono (livello di effetto EL). La natura e la severità degli effetti osservati varierà con il tipo di test, il tempo di esposizione, la specie bersaglio il che mette in discussione qualunque trasferimento conclusivo da una specie ad un’altra. Lo studio identificherà anche la dose massima alla quale non si osservano effetti (livello di nessun effetto osservato NOEL). Così da studi di tossicità condotti in modo diverso potranno risultare differenti valori di NOEL: la valutazione del rischio dovrebbe basarsi sullo studio più sensibile che fornisce il minimo valore di NOEL. Qualche volta il termine NOEL è sostituito da NOAEL dove la lettera A sta per avverso, indicando con essa il carattere dell’effetto, rispetto ad un effetto non nocivo.

I risultati di studi di tossicità possono essere usati in due modi diversi: per predire livelli sicuri di esposizione dell’uomo e per predire livelli potenzialmente tossici e la natura probabile degli effetti dannosi.

Nel primo caso i risultati degli studi di tossicità possono essere usati per predire la più elevata quantità di un tossico assorbito su base giornaliera da un essere umano senza alcun danno sostanziale. Talvolta tale quantità viene riferita all’unità di peso del soggetto e viene assunta come pari al NOEL diviso per 100: ciò al fine di una maggiore garanzia a protezione degli esposti, tenuto conto che gli esseri umani possono essere più sensibili ai tossici degli animali utilizzati nei test di tossicità a causa di differenze tossicocinetiche e tossicodinaniche nell’iter di un tossico (adsorbimento, metabolizzazione, escrezione per la tossicocinetica, attività contro la cellula, i tessuti, gli organi per la tossicodinamica).

Nel secondo caso i risultati degli studi della tossicità possono essere usati per predire la natura di effetti nocivi che si possono registrare negli esseri umani ed a quali livelli di esposizione tali danni si possano registrare. Molti tipi di effetto nocivo per un particolare tossico si osservano soltanto al di sopra di una certa dose, il cui valore però può variare al variare della specie e della durata dell’esposizione.

Per la maggior parte degli effetti tossici prodotti da un particolare composto c’è un valore di esposizione al di sotto del quale gli effetti nocivi non si osservano. A basse esposizioni il corpo può tollerare alcuni disturbi alle sue funzioni biochimiche e fisiologiche senza alcun segnale o sintomo di malattia. Talora l’organismo è capace di rimediare ad alcuni danni derivati dal contatto con alcuni composti purché questo sia limitato nel tempo, talaltra tale risanamento non può avvenire, il che si traduce in danno permanente e lunghe malattie. Quando i danni sono di natura genetica al DNA ed ai cromosomi o peggio portano a forme di cancro per danneggiamento del DNA si parla di effetti genotossici o carcinogenici. Questi effetti possono essere rilevati mediante test in vitro, ad esempio esponendo batteri ai tossici da testare (test di Ames) o cellule isolate animali o umane al tossico stesso. Se risultano effetti genotossici in vitro, si passa ai test in vivo su animali per confermare o meno i risultati in vitro. Il danno al DNA è un evento di tutti i giorni (si pensi all’esposizione alla componente ultravioletta dello spettro solare, all’esposizione ai radicali liberi dell’ossigeno, alla divisione cellulare) cosicché il nostro organismo deve porvi rimedio con provvedimenti ed iniziative che si ripetono per milioni di volte al giorno. Questi studi hanno dimostrato che danni al DNA possono prodursi anche a dosi molto basse, crescendo ovviamente nettamente al crescere della dose. Questi campioni vengono definiti positivi, nel senso che producono danno genotossico. Ad oggi non è possibile definire livelli di nessun effetto per i composti chimici positivi. I danni non riparati a cellule e DNA possono avere due conseguenze negative: possono provocare divisione e mutazione cellulare. I danni al DNA non necessariamente devono portare a mutazioni cellulari. Gli effetti cancerogenici vengono osservati e misurati esponendo animali, generalmente topi o ratti di età giovane a dosi giornaliere di tossico esaminando il numero ed il tipo di tumori che si sviluppano ma le conclusioni di tale tipo di approccio soffrono di accuratezza in quanto riferite a specie diverse da quelle che si intende proteggere, l’uomo. C’è infine da osservare che l’esposizione a dosi quanto si voglia piccole, se anche non produce alcun effetto nel tempo breve di fatto lo produce certamente nel lungo, lunghissimo tempo; questo tipo di rilevazione per motivi pratici non è di reale esecuzione. Per i composti cancerogenici differenti approcci ci dicono se ci sia un reale rischio di cancro ai valori di esposizione che realisticamente possono essere del tipo di quelli incontrati dagli esseri umani. Tali approcci si basano usualmente su curve dose/risposta, ottenute durante test animali. Queste curve relazionano l’incidenza del cancro alle variabilità delle dosi giornaliere assunte per tutta la vita.

Una varietà di modelli matematici può essere applicata alla curva dose-risposta per arrivare ad una stima del rischio. I modelli matematici sono generalmente considerati conservativi, fornendo una stima del rischio che non soltanto eccede sul fronte della sicurezza, ma può considerevolmente sovrastimare il rischio probabile per gli esseri umani. A causa delle limitazioni nei test sperimentali di cancerogenità animale e nei modelli, alcuni responsabili del rischio non vedono nell’approccio in precedenza indicato un’appropriata via per la stima del rischio umano. Se un composto si rivela genotossico tali responsabili possono decidere che l’esposizione degli esseri umani ad esso dovrebbe essere bassa quanto ragionevolmente prevedibile. Misure adeguate devono essere assunte per ridurre o eliminare l’esposizione. È evidente che i limiti fissati su tali basi possono implicare rischi diversi per sostanze di differente attività.

I contrasti fra diverse posizioni a riguardo dell’uso di animali da esperimento forse potrebbero essere composti se i modelli predittivi sulla tossicità umana si basassero non solo sulle risposte all’attività dei composti testati in vitro, ma anche su dati strutturali relativi a tali composti: un recente studio di Ruili Huang e coll. (R. Huang et al., “Modelling the Tox21 10 K chemical profiles for in vivo toxicity prediction and mechanism characterization,” Nature Communications, doi:10.1038/ncomms10425, 2016.) ha evidenziato l’importanza della correlazione struttura/attività; Ruili Huang è capo di un gruppo di informatici allo NCATS; insieme con i suoi colleghi hanno analizzato 10.000 diversi composti attraverso 30 diversi metodi automatici , basati su analisi cellulare (cell based analisys).

“The system is very efficient,” ha dichiarato Huang a Huang The Scientist. We can test all the chemicals at 15 different concentrations each and in three independent experiment runs in one week. With animal testing, this would take years.”

L’apparecchio usato per i test automatici si chiama TOX21, una sorta di analizzatore robot e i valori generati dai test sono stati quasi 50 milioni; su questa ampia base le previsioni del comportamento basate sul rapporto struttura-proprietà sono state molto precise; Huang spera di poter allargare le prove ad altri 80.000 composti.

Avventure e sventure di Charles Goodyear

In evidenza

Giorgio Nebbia nebbia@quipo.it

Siamo spesso debitori di cose importantissime, essenziali per la vita tecnica ed economica, a persone grandissime nella sfortuna. Un esempio è offerto dall’americano Charles Goodyear (1800-1860), lo scopritore della vulcanizzazione della gomma. Senza la sua invenzione non potremmo andare in automobile, non potremmo usare Internet, io non potrei scrivere questo articolo sul computer, non avremmo luce elettrica nelle case — non potremmo godere delle merci e dei beni della società moderna.

La gomma, estratta dalla corteccia di alcune piante del genere Hevea presenti nella foresta brasiliana, era nota in Europa dalla fine del Settecento: i nativi la chiamavano con uno strano nome che gli esploratori europei interpretarono come caucciù. Si trattava di un materiale elastico che poteva essere sciolto in un solvente e, in soluzione, poteva essere stesa su un tessuto rendendolo impermeabile; un brevetto relativo a questa applicazione porta la data del 1791 e nel 1822 l’inglese Charles Macintosh (1766-1843) aveva inventato l’indumento impermeabile. Una industria di manufatti di gomma ebbe inizio nel 1820 ad opera dell’inglese Thomas Hancock (1786-1865) il quale apportò alcune utili innovazioni nella lavorazione della gomma greggia. I manufatti così ottenuti, però, erano di limitata durata e soprattutto diventavano appiccicosi a caldo e fragili a freddo. La “febbre della gomma” che aveva investito l’America nei primi anni del 1800, era già finita nel 1830; migliaia di oggetti di gomma venivano buttati via o restavano invenduti per questi inconvenienti.

E’ a questo punto che interviene Goodyear: da ragazzo aiutava il padre in un negozio di ferramenta che fallì abbastanza presto, le imprese commerciali a cui si dedicò nei sessanta anni della sua vita furono tutte un fallimento; per tutta la vita fu ossessionato dai misteri della “gomma elastica”. La leggenda vuole che Goodyear, in prigione per debiti, si sia fatto portare dalla moglie dei campioni di gomma per vedere come potevano esserne migliorate le caratteristiche; se la gomma era appiccicosa forse aggiungendo qualche polvere l’inconveniente avrebbe potuto essere eliminato. Tornato a casa, provò allora a scaldare la gomma con magnesia, ma i vicini protestavano per la puzza che si levava dalla sua casa; per farla breve provò molte altre sostanze e, facendosi prestare dei soldi, cercò di produrre sovrascarpe di gomma che erano una peggio dell’altra. La grande crisi economica americana del 1837 lo gettò sul lastrico e si ridusse a vivere con la moglie e il figlio mangiando il pesce che pescava nel porto di Boston.

Nel 1839, sempre nella miseria più nera, viveva a Woburn, nello stato del Massachusetts destinata a diventare celebre proprio per la scoperta della vulcanizzazione; in quell’inverno, Goodyear lasciò una miscela di gomma e zolfo su una stufa; la miscela prese quasi fuoco e fu gettata nella neve fuori dalla finestra; quando fu raffreddata si rivelò un materiale del tutto diverso: era ancora una gomma elastica, impermeabile all’acqua, ma era resistente al calore, facilmente lavorabile e trasformabile in oggetti utili. Il caso aveva premiato l’uomo che aveva dedicato tutta la sua vita a trasformare la gomma greggia nel materiale più importante della storia, quello che si sarebbe chiamato “gomma vulcanizzata”.

Dopo un altro inverno di miseria, malattie, lutti familiari (dei dodici figli sei morirono nell’infanzia) Goodyear finalmente trovò degli industriali che riconobbero l’importanza della scoperta che però egli non aveva ancora brevettato. Goodyear mandò vari campioni della nuova gomma in Inghilterra e uno di questi cadde sotto gli occhi del pioniere inglese della gomma, già ricordato, Thomas Hancock, quello che, nei venti anni precedenti, aveva invano cercato di ottenere della gomma di qualità accettabile commercialmente.

Hancock notò la presenza di tracce di zolfo nella gomma vulcanizzata e immediatamente brevettò, nel 1843, l’effetto vulcanizzante dello zolfo, portando via a Goodyear la scoperta che egli aveva fatto quattro anni prima. Quando Goodyear presentò la domanda per un brevetto, scoprì che Hancock lo aveva preceduto di poche settimane.

Goodyear presentò, alle fiere mondiali di Parigi e Roma del 1850, i suoi oggetti di gomma vulcanizzata, riscosse un grande successo, ma finì di nuovo in prigione per debiti, con tutta la famiglia, per due settimane, perché non aveva ancora riscosso il compenso per il suo brevetto. In prigione ricevette la croce della Legion d’Onore assegnatagli dall’imperatore Napoleone III.

Quando morì nel 1860 Goodyear lasciò 200.000 dollari di debiti alla famiglia; come testamento scrisse che “la vita non si può valutare soltanto sulla base dei soldi; non mi rammarico di avere seminato e che altri abbiano raccolto i frutti del mio lavoro. Un uomo deve rammaricarsi soltanto se ha seminato e nessuno raccoglie”.

E’ sorprendente che Goodyear sia arrivato alla vulcanizzazione per via empirica, con l’antico processo per tentativi ed errori; solo nel 1860, lo stesso anno della morte di Goodyear, il chimico inglese Charles Greville Williams (1829-1910) riconobbe che la gomma era un polimero di un idrocarburo con due doppi legami, l’isoprene:

Fu così chiarito il ruolo centrale dello zolfo: attraverso legami che comportavano l’apertura di uno o più doppi legami, le molecole di poliisoprene si univano fra loro in strutture le cui proprietà dipendevano dal numero di atomi di zolfo; se tutti i doppi legami erano saturati con zolfo e la vulcanizzazione era prolungata, come scoprì lo stesso Goodyear, si otteneva un materiale duro e nero che chiamò ebanite e che fu prodotto come sostituto del prezioso legno di ebano. In altre parole, regolando le condizioni di vulcanizzazione, si potevano ottenere materiali molto diversi, adatti a molti usi.

Grazie alla scoperta di Goodyear la richiesta di gomma nel mondo aumentò immediatamente. Il Brasile, che deteneva il monopolio della produzione e esportazione del caucciù, fu investito da un’ondata di ricchezza e di speculazioni: folle di nativi e di immigrati miserabili si dedicarono a raccogliere latice dalle piante di Hevea, dapprima distruggendo la foresta più vicina e accessibile, poi andando a cercare piante più all’interno, nel bacino del Rio delle Amazzoni. Manaus, porto fluviale di esportazione della gomma, diventò il centro di stravaganze e miserie per tutta la seconda metà dell’Ottocento; uno sguardo al clima del tempo si ha nel film “Fitzcarraldo”, di Werner Herzog, del 1982, nel quale il personaggio del barone della gomma del titolo, è interpretato da Klaus Kinski.

Come tutti i monopoli, anche quello della gomma brasiliana non durò a lungo. Nel 1876 un viaggiatore inglese riuscì a portare via dal Brasile, clandestinamente, piantine di Hevea che furono trapiantate in India, Malesia, Ceylon, Indocina. Ai primi del Novecento, inglesi, francesi e olandesi producevano caucciù nelle loro colonie dell’Estremo Oriente; al Brasile restavano vaste estensioni di foresta amazzonica distrutta, uno dei primi disastri ecologici, rimediato soltanto dopo molti decenni di rimboschimento e difesa del suolo.

Il monopolio del Brasile diventava così un oligopolio di Inghilterra, Olanda, Francia e Stati Uniti; le industrie americane avevano proprie piantagioni di Hevea in Brasile e Liberia. Ciò avveniva in un momento in cui il diffondersi dell’elettricità in seguito alle invenzioni della dinamo e dei motori elettrici provocava un aumento della richiesta di gomma come isolante per i fili elettrici. Lo sviluppo delle automobili contribuì, con la richiesta di gomma per camere d’aria e copertoni, a far ulteriormente aumentare la richiesta di caucciù. Ben presto la gomma di piantagione fece concorrenza come qualità a prezzo a quella del Brasile il quale attraversò un periodo di grave crisi economica.

Ma l’avventura della gomma era appena cominciata; per sfuggire alle importazioni della gomma naturale da paesi geograficamente lontani, i paesi industriali, prima e durante la seconda guerra mondiale, hanno sviluppato dei processi per riprodurre sinteticamente molecole simili a quella dell’isoprene. La maggiore attenzione fu dedicata al butadiene,

H2C==CH—CH==CH2, uguale all’isoprene con un gruppo metilico di meno. Il butadiene era vulcanizzabile e poteva essere prodotto da molte diverse materie prime: dal carbone, attraverso il carburo di calcio e l’acetilene; dall’alcol etilico di origine agricola (come ricorda il post di Marco Taddia, https://ilblogdellasci.wordpress.com/2014/02/21/la-gomma-dallalcol-un-successo-autarchico/), da frazioni ”leggere” della distillazione del petrolio, dal cracking catalitico delle benzine.

Il butadiene poteva essere polimerizzato insieme ad altre molecole con un solo doppio legame, come lo stirene; nasceva così la chimica delle gomme sintetiche, anche se non spariva la produzione e il consumo di gomma naturale, usata in mescole insieme ai vari tipi di gomma sintetica. Nel 1960 la produzione di gomma sintetica aveva uguagliato quella di gomma naturale, due milioni di tonnellate ciascuna. Nel 2016 la produzione di gomma sintetica era salita a poco meno di 15 milioni di tonnellate, ma anche quella di gomma naturale era aumentata a poco più di 12 milioni di tonnellate. I tre principali paesi produttori sono la Tailandia (4,4 milioni di tonnellate), l’Indonesia, seguiti da Malaysia, India, Vietnam e Cina.

Nel mondo il commercio della gomma, in gran parte trattata e vulcanizzata secondo l’invenzione di Goodyear, riguarda ogni anno oltre 27 milioni di tonnellate di materiali che entrano nei copertoni di automobile e di aereo, nei fili elettrici, nei rulli industriali, nei nastri trasportatori dei raccolti agricoli, nelle scarpe, in innumerevoli merci e processi industriali. Tutto grazie al povero Goodyear.

Nota aggiunta: fu solo circa 40 anni dopo la morte di Goodyear che l’imprenditore Frank Seiberling  acquistò il primo impianto della vecchia società e fondò la Goodyear Tire & Rubber Company, nata nel 1898, che è diventata poi una della maggiori al mondo, ma senza alcun legame con l’inventore iniziale che non fosse il nome medesimo.

Ciclo idrico integrato: la situazione della depurazione.

In evidenza

Mauro Icardi

In questi anni il cambiamento climatico, logiche di sfruttamento intensivo delle risorse idriche e scarsa attenzione all’ecosistema stanno determinando condizioni di vera e propria crisi globale dell’acqua.
L’Italia per altro è in emergenza nel settore fognatura e depurazione dal 2005, e rischia forti multe dopo aver subito già due condanne dalla Corte di Giustizia Europea per depurazione incompleta o non sufficiente a raggiungere standard qualitativi adeguati. La tendenza negli anni è quella di ottenere acque reflue che raggiungano standard di qualità sempre maggiori, e per questa ragione gradualmente si rendono più restrittivi i limiti tabellari per alcuni inquinanti. Questo anche in funzione di un possibile riuso per utilizzo irriguo delle stesse.
Per ottemperare a tali obblighi che per quanto riguarda gli impianti con potenzialità superiori a 100.000 ae (abitanti equivalenti) diventano molto restrittivi sarà necessario intervenire sugli impianti esistenti .
Peraltro, un impianto in condizioni normali di funzionamento riesce a garantire il rispetto dei limiti su BOD, COD e solidi sospesi senza particolari difficoltà. Diverso è invece il caso dei nutrienti per scarichi in aree sensibili. Le quali non rappresentano più solo i laghi, ma per esempio anche l’area del bacino del Po e che quindi vanno ad interessare impianti che precedentemente non sottostavano a limiti così riduttivi (per esempio per quanto riguarda il fosforo totale).
In generale, quindi, si prospetta la necessità di intervenire su un gran numero di impianti di depurazione per far fronte a due ordini di esigenze: incrementarne la potenzialità (come carico trattabile) migliorare le rese depurative (abbattimento in particolare dei nutrienti).

impianti-di-depurazione-acque

Nel caso in cui le caratteristiche del liquame influente non rappresentino un fattore inibente (ad esempio in termini di pH, rapporto BOD/TKN (TKN=total Kjeldahl nitrogen), presenza di sostanze tossiche, ecc.), le condizioni richieste, per conseguire la nitrificazione, sono essenzialmente un adeguato contenuto di ossigeno nel comparto di ossidazione e un’età del fango sufficientemente elevata anche in relazione alla temperatura del liquame.
Gli interventi che possono essere attuati a livello dei pretrattamenti e trattamenti primari hanno l’obiettivo di ridurre il carico in ingresso al reattore biologico e/o il rapporto Carbonio/Azoto, così da favorire la nitrificazione.
Anche l’aggiunta di un sistema di coltura a biomassa adesa permette di migliorare la fase di nitrificazione.
Vi sono due distinte possibilità: un sistema ibrido che viene inserito nel preesistente bacino di ossidazione a fanghi attivi, ed un sistema separato che viene di solito inserito a valle della fase di sedimentazione finale per incrementare le rese di nitrificazione e quindi di abbattimento dell’ammonio.
Si tratta in pratica di fissare la biomassa nitrificante su supporti fissi aventi elevata superfice specifica (per esempio supporti in polietilene o in matrici di gel).

423-it-depuratore-po-sangone-4.jpg

In questo modo viene fatto passare attraverso questo stadio di trattamento un liquame caratterizzato da un rapporto BOD/TKN molto basso, favorevole allo sviluppo di una biomassa nitrificante, in quanto la maggior parte della sostanza organica è stata rimossa nella fase precedente del trattamento.
La separazione del processo biologico in queste due fasi permette maggiori rese singole nei due comparti (ossidazione biologica della sostanza organica e nitrificazione) risolvendo anche problemi gestionali e di conduzione.
Una semplice operazione che può migliorare la resa di nitrificazione è quella di realizzare un bacino di riaerazione della corrente di ricircolo dei fanghi prima del rilancio nel bacino di ossidazione biologica.
Altro problema che si può presentare è dovuto al sovraccarico della fase di ossidazione biologica con un maggior contributo di azoto derivante dal ricircolo dei surnatanti che può variare dal 5 al 25% rispetto all’azoto proveniente dalle acque reflue in ingresso impianto. I sovraccarichi però possono anche raggiungere il 65% dell’azoto entrante, dal momento che i ricircoli sono discontinui nel tempo. Un primo provvedimento da adottare può quindi essere quello di distribuire nell’arco delle 24 ore (eventualmente equalizzandoli) i carichi derivanti dai surnatanti delle fasi di trattamento fanghi, o, meglio ancora, rinviarli all’impianto durante le ore notturne, a basso carico. L’azoto presente nei surnatanti (prevalentemente in forma disciolta) è ammoniacale, nel caso degli ispessitori e dei digestori anerobici, nitroso o nitrico nel caso della stabilizzazione aerobica.

STSTW_GasMixingTypeDigestionTank

Per quanto riguarda la sezione di denitrificazione una possibilità per gli impianti che ricevono reflui speciali, consiste nel dosaggio di rifiuti caratterizzati da elevata concentrazione di carbonio velocemente biodegradabile e trascurabile contenuto di nutrienti, come substrato organico per incrementare le velocità di denitrificazione negli appositi comparti. Occorre però preventivamente verificare ed escludere la presenza di fattori inibenti.
Questi sono alcuni esempi di possibilità di diversa conduzione di impianti, o di modifiche strutturali che non richiedano il completo rifacimento di un impianto non più adeguato a conseguire standard di abbattimento elevati.
Per inquadrare il problema anche dal punto di vista economico credo valga la pena di ricordare che per la riconversione dell’impianto di depurazione di Santa Margherita Ligure, ubicato nel territorio del Parco Naturale Regionale di Portofino, che originariamente era dotato solo di un trattamento primario, è stato dotato di trattamento terziario con filtri a membrana che permettono l’utilizzo dell’acqua depurata come acqua di riuso. Data la particolare ubicazione dell’impianto, adiacente ad un territorio che, pur inserito in un area protetta vede la presenza di stabilimenti balneari e di alberghi, lo si è collocato all’interno di una parete rocciosa per mimetizzarlo e si e costruita una tubazione di 1200 metri che convoglia le acque depurate al largo della costa. Un impianto decisamente all’avanguardia il cui rifacimento è costato venti milioni di euro ed ha una potenzialità tutto sommato media, visto che tratta reflui pari a 36000 abitanti equivalenti, sia pure con le oscillazioni di portata e di carico legate alla fluttuazione stagionale tra stagione turistica estiva e stagione invernale.
Ultima considerazione legata al settore depurazione è quella legata alla necessità di strutturare adeguati laboratori analitici. La normativa vigente (dlgs 152/2006) prevede che il gestore si serva di laboratori interni, o che in alternativa stabilisca convenzioni con altri gestori che ne siano dotati.
E’ prevedibile che in futuro la necessità di ricerca di nuovi parametri (inquinanti emergenti di varia natura) preveda non solo l’utilizzo di nuove tecniche analitiche in maniera generalizzata (spettrometria di massa a plasma con accoppiamento induttivo e gascromatografia-spettrometria di massa), ma che richieda come prescrizione normativa l’accreditamento dei laboratori dei gestori del ciclo idrico. Questa per lo meno è la tendenza che sembra ispirare le scelte in Regione Lombardia.

La serendipità della camola.

In evidenza

Claudio Della Volpe

La “camola” del miele è un tipico verme da pescatore e dato che ogni tanto mi dedico alla pesca conosco questo tipo di esca viva, anche se di solito uso il “cucchiaino”, ossia un pezzo di metallo brillante opportunamente sagomato e che nasconde l’amo.

Galleria Mellonella da Wikipedia

La camola è comodissima come esca viva, si compra in contenitori e si conserva in frigorifero per un pò (la camola usata per scopi alieutici è trattata opportunamente con un breve riscaldamento che ne impedisce l’imbozzolamento e forse ne modifica il set enzimatico); il suo ciclo di vita la qualifica come un parassita delle api, dato che si nutre dei prodotti dell’alveare e la sua forma finale è una farfallina, la tarma maggiore della cera, tecnicamente Galleria mellonella.

La camola è usata per pescare grazie al suo sapore dolce; è uno degli insetti che ho anche provato a mangiare, dato che viene proposto come alternativa alla carne comune in molte ricette basate su insetti, e vi assicuro che è molto buona.

La camola è al centro di una scoperta che rischia di rivoluzionare il nostro modo di gestire il riciclo della plastica comune; il grosso della plastica, dei polimeri prodotti dal petrolio è difficile da riciclare sostanzialmente per il medesimo motivo per cui la usiamo: la sua durabilità, legata alla stabilità del legame C-C che è difficilmente attaccato in natura (solo a certe condizioni).

Si conosce un batterio i cui enzimi sono in grado di degradare il PET, scoperto solo l’anno scorso in Giappone in un discarica di immondizia; la scoperta del batterio, denominato Ideonella sakaiensis 201-F6, è stata pubblicata su Science (A bacterium that degrades and assimilates poly(ethylene terephthalate) Shosuke Yoshida et al. Science 351, 1196 (2016).

Quando cresciuto sul PET questo particolare strain batterico produce due enzimi capaci di idrolizzare il PET e l’intermedio di rezione l’acido mono(2-idrossietil)tereftalico. Entrambi gli enzimi sono richiesti per convertire efficientemente PET in due monomeri molto più amichevoli dal punto di vista ambientale, l’acido tereftalico e l’etilen-glicole.

Shosuke Yoshida et al. Science 351, 1196 (2016)

La velocità digestiva del batterio è di una frazione di mg di PET per ogni cm2 di superficie attaccata e il PET è un poliestere, dunque con una struttura, mostrata in figura, molto più semplice da degradare (i legami sono O-C-O).

Altre specie viventi sono in grado di attaccare invece il legame C-C e sono riportate in letteratura (Penicillium simplicissimum, Nocardia asteroides, il verme Plodia interpunctella, e i due batteri, Bacillus sp. YP1 and Enterobacter asburiae YT1 che vivono dentro di lui), ma la velocità di aggressione è sempre estremamente bassa.

Ora, come si dice, il caso aiuta la mente preparata. E questo è avvenuto con Federica Bertocchini, che si occupa di biologia dello sviluppo.

Federica Bertocchini(da Repubblica del 25 aprile 2017)

La ricercatrice italiana Federica Bertocchini affiliata al Cnr spagnolo e oggi all’Istituto di biomedicina di Cantabria, a Santander. racconta a Repubblica “Io in realtà mi occupo di biologia dello sviluppo: studio gli embrioni. La scoperta del bruco mangiaplastica è avvenuta per caso. Ho l’hobby dell’apicoltura, e l’abitudine – in inverno – di tenere gli alveari vuoti in casa. Nel tirarli fuori per la primavera, l’anno scorso mi sono accorta che erano pieni di questi bachi. Così li ho ripuliti, raccogliendo i bachi in una borsa di plastica. Qualche ora dopo era già piena di buchi e le larve libere”

Federica non si è fatta pregare, ha subito capito che aveva trovato una miniera d’oro in quelle camole. E questa è serendipità, il caso aiuta la mente preparata.

Il risultato di una indagine più approfondita è stato pubblicato su Current Biology (Current Biology 27, R283–R293, April 24, 2017)

Come si vede la velocità di aggressione del bruco nei confronti della plastica del sacchetto è di ordini di grandezza superiore rispetto a quello di altri organismi trovati in natura (un bruco in 12 ore mangia quasi 1mg di PE). La camola sembra essere capace non solo di aggredire meccanicamente ma di digerire il PE; questo è stato provato analizzando lo spettro IR del materiale dopo digestione; si è trovata la presenza di etilenglicole; si pensa quindi che un sistema enzimatico del bruco sia in grado di fare una reazione simile a quella del batterio giapponese ma ad una velocità molto più elevata.

Tuttavia ci sentiamo di chiosare la scoperta indicandone anche i limiti: da una parte le camole sono nemiche delle api, dunque attenzione ai possibili effetti collaterali di una diffusione delle camole, come mangiatori diretti della plastica; meglio sarebbe individuare ed usare l’enzima o il sistema enzimatico; e comunque anche questo non dovrebbe essere una scusa per tornare indietro lungo la strada del riciclo dei materiali, ma anzi dovrebbe essere usato proprio per riciclare a partire dai prodotti di degradazione.

Altri studi saranno necessari per comprendere l’esatto meccanismo del processo digestivo della umile camola, (o casomai di qualcuno dei suoi ospiti batterici) un vermetto da pescatore pieno di segreti incredibili (notate che nessun giornale quotidiano o la TV ha capito di cosa si tratta, parlano tutti di un bruco, un verme e casomai qualche giornalista pescatore l’avrà anche usato, ma solo Le Scienze cita la camola).

Non c’è che dire la vita è la reazione chimica meglio riuscita! E un brava a Federica, una biologa dello sviluppo dotata di serendipità.

Analisi di inchiostri

In evidenza

Luigi Campanella, ex Presidente SCI

Sono stato di recente interpellato per un problema molto interessante : la datazione dei documenti e delle relative firme. Si tratta di un lavoro difficile: ritengo utile postare quanto ho scritto in attesa di commenti migliorativi in favore della verità e contro le falsificazioni documentarie.

La letteratura internazionale riporta che, dal momento della sua deposizione sul supporto cartaceo, un inchiostro subisce una serie di processi chimici (evaporazione del solvente, polimerizzazione della resina, ossidazione dei componenti cromatici), comunemente indicati come “invecchiamento”. Uno dei risultati pratici dell’invecchiamento è una continua riduzione della solubilità (estraibilità) dell’inchiostro nei confronti di una prima azione di un solvente debole e successivamente di un solvente forte.

La valutazione del grado di estraibilità costituisce pertanto un indice del grado di invecchiamento di una scrittura, e quindi della data reale di produzione della scrittura medesima, che trova ampia applicazione nelle analisi forensi.

Il rapporto tra la quantità di inchiostro estratta dal solvente debole e la quantità totale di inchiostro (estrazione di solvente debole + solvente forte) è indicativo della data di produzione di una scrittura all’interno del periodo di maturazione dell’invecchiamento stesso, esaurito il quale non si riscontrano ulteriori modificazioni.

L’andamento del processo di invecchiamento è tale per cui la sensibilità della tecnica è tanto maggiore quanto minore è il tempo trascorso dalla produzione della scrittura all’analisi. Trattasi di un metodo distruttivo che si limita all’applicazione solamente a taluni pigmenti di inchiostro di penna (tipicamente di tipo oleoso come nel caso di una penna a sfera) e non può dare una risposta “accurata” riguardo alla datazione. In alcuni lavori (bibliografia 13) si conclude, proprio sulla base di 2 differenti approcci (uno lento ed uno veloce) che forniscono risultati significativamente diversi, sulla relativa impossibilità di datazione accurata degli inchiostri deposti.

In ogni caso è pressoché impossibile stabilire se due diverse scritture siano state apposte nell’arco di breve tempo l’una dall’altra (ore o giorni).È possibile invece la sequenza temporale dei tratti grafici che stabilisce se una scrittura, ad esempio una firma, è stata apposta prima o dopo un’altra. Però questa metodologia è possibile solo in presenza di sovrapposizione dei tratti delle due scritture (olografia conoscopica).

Dalla letteratura emerge anche come la datazione dei documenti manoscritti sia sempre molto approssimativa e non sia possibile esprimere mai un parere di certezza tecnica e ciò per svariati motivi, quali la mutazione degli inchiostri (pigmentazione) e dell’attrezzo scrittorio, dell’esposizione del documento in esame a fonti di calore, raggi solari, caldo, freddo, fonti di luce, agenti atmosferici, ecc. che peraltro interferiscono in modo diverso al variare del tipo di inchiostro.Se, ad esempio, un documento manoscritto con penna a biro viene esposto ai raggi solari, o posto in un forno, viene invecchiato di molti anni. Inversamente nel caso di collocazioni in freezer.

L’olografo commerciale (Conopoint3 della Ofir) è in pratica un profilometro.

Comunque la Chimica Analitica ha applicato al problema metodi più sofisticati. L’analisi degli inchiostri può essere infatti effettuata con spettrometria Raman e spettroscopia di fluorescenza a raggi X (XRF), impiegando sia strumenti portatili, sia strumenti da banco. La spettrometria Raman fornisce informazioni sui composti impiegati, la spettroscopia XRF, identifica gli elementi-chiave e dà informazioni addizionali sugli elementi presenti in tracce, permettendo così di evidenziare le differenze di distribuzione elementare tra zone diverse del manoscritto. Anche l’HPLC, la cromatografia liquida a fasi invertite in qualche caso con pre-estrazione in fase solida, e la Gas-massa (GC-MS), sono state applicate all’analisi chimica degli inchiostri per risalire dalla loro composizione, alterata rispetto all’originale dal processo di invecchiamento, alla data di applicazione. Sono anche noti metodi ancor più articolati come quello di usare diagrammi ternari costruiti per i coloranti presenti nell’inchiostro, ma anche in questo caso sono riportate datazioni errate per campioni esposti per tempi prolungati alla luce di lampade a fluorescenza od a quella solare o a fonti di calore. Anche metodi più semplici come la spettrofotometria UV-Visibile o i.r. con misure di assorbanza, l’analisi elettrostatica (ESDA) hanno trovato applicazioni. In studi più recenti anche il microscopio elettronico e la datazione al radio carbonio (ovviamente nel caso di documenti antichi) ha fornito risultati di un certo interesse.

applicazione dell’olografica conoscopica. http://www.ilgrafologo.it/doc/29-34.PDF

Si è già accennato ad un altro metodo, l’olografia conoscopica che è in grado di effettuare delle “scansioni” non a contatto con elevatissima precisione (micrometrica) e ripetibilità del campione oggetto della misura. Il file che viene generato è composto dalla terna X-Y-Z di ogni singolo punto campionato, il che significa che anche nel caso di una scansione di un’area limitata possiamo dare origine ad un file composto anche da qualche milione di punti X-Y-Z, file che viene anche chiamato in gergo “nuvola di punti”.Occorre inoltre notare che il sistema rileva la mappa topografica del campione, conseguentemente non ha alcuna importanza il colore dell’inchiostro o della carta e tantomeno la mano o le mani che hanno tracciato i tratti. È anche possibile rilevare dei solchi che sono stati marcati e poi cancellati;l’apparecchiatura 3D consente di effettuare delle misure inerenti alla profondità dei solchi, alla larghezza degli stessi, ecc.

Due altri aspetti che rappresentano elementi di incertezza e che devono essere valutati riguardano la carta che invecchiando, dal momento della sua fabbricazione, è soggetta anch’essa ad un processo di invecchiamento (produzione di gruppi carbossilici e frammentazione della catena cellulosica) che potrebbero influenzare il processo estrattivo.Inoltre nella costituzione della carta sono presenti ioni metallici in traccia, peraltro distribuiti casualmente e disomogeneamente: anche questi possono influenzare il processo estrattivo ostacolandolo

CONCLUSIONI

La determinazione dell’età di un inchiostro deposto è problema complesso e di non semplice soluzione in quanto il processo di invecchiamento risulta in misura determinante influenzato dalle condizioni di conservazione (temperatura, illuminazione, ambiente chimico) nonché dall’invecchiamento della carta e dalla sua composizione.Il metodo dell’estrazione risente in particolare di queste dipendenze, anche se è fra quelli più impiegati.La correlazione fra maturazione e completamento del processo di invecchiamento ed estraibilità alla base di tale metodo- applicato al caso in questione -ha anche una dipendenza dalla cinetica del processo stesso e dalla dificoltà di definire uno standard. Metodi più sofisticati sono certamente in grado di fornire risposte più accurate (a questo proposito rispetto a quanto riportato nel post c‘è da osservare che non si tratta di problemi di precisione, che è invece fondamentale per definire gli intervalli di incertezza, necessari per dare significatività alle misure al fine di dare significatività ad eventuali differenze), ma richiederebbero campionamenti nuovi (visto il carattere distruttivo del metodo per estrazione), introducendo quindi un ulteriore elemento di incertezza.

BIBLIOGRAFIA DI RIFERIMENTO

  1. Ellen: Scientific examination of Documents: Methods and Techniques. CRC Taylor & Francis Publishers; International Forensic Science and Investigation Series; New York, NY, USA, 2005.
  2. Giuntini, F. Lucarelli, P.A. Mandò, W. Hooper, P.H. Barker, “Galileo’s writings: chronology by PIXE”, Nucl. Instr. & Meth. B, 95, 389 (1995).
  3. Andrasko J., Changes in Composition of Ballpoint Pen Inks on Aging in Darkness, SKL, National Laboratory of Forensic Science, Linkoping, Swed, Journal of Forensic Sciences (2004), 47(2), 324-327.
  4. Mitchell C. Ainsworth, Estimation of the age of ink in writing, International Journal of Forensic Forensic Document Examiners (1995), 1(1), 56-62.
  5. Brunelle RL, Cantu A., A Critical Evaluation of Current Ink Dating Techniques, Bur. Alcohol, Tob. Firearms. Rockville, MD, USA. Journal of Forensic Sciences (1987), 32(6), 1522-36.
  6. Valery N. Aginsky, Writing media and documents, Riley, Welch and Aginsky, Forensic Documents Examinations, Inc., Lansing, MI, USA, Handook of Analytical Separations (2008), 6(Forensic Science), 923-941. Publisher: Elsevier B.V.
  7. LaPorte Gerald M, Wilson Jeffrey D, Cantu Antonio A, Mancke S Amanda, Fortunato Susan L The identification of 2 – phenoxyethanol in ballpoint   inks   using   gas   chromatography / mass   spectrometry — relevance to ink   dating.   Journal of forensic sciences (2004), 49(1), 155-9.
  8. Valery N. Aginsky, A microspectrophotometric method for dating   ballpoint   inks –a feasibility study. Journal of Forensic Sciences (1995), 40(3), 475-8.
  9. Andrasko Jan SKL, Changes in composition of ballpoint pen inks on aging in darkness, National Laboratory of Forensic Science, Linkoping, Sweden Journal of forensic sciences (2002), 47, (2), 324-7.
  10. Wang, Yan; Yao, Lijuan; Zhao, Pengcheng; Wang, Jinghan; Wang, Yanji. Determination of the writing   age of blue   ballpoint   ink by gas   chromatography. Sepu (2005), 23(2), 202-204. Publisher: Kexue Chubanshe.
  11. Hofer, R. Dating of ballpoint   pen   ink. Journal of Forensic Sciences Division , Document Laboratory, Zurich Canton Police, Zurich, Switz, (2004), 49(6), 1353-1357.
  12. Lociciro, S.; Dujourdy, L.; Mazzella, W.; Margot, P.; Lock, E., Dynamic of the aging of ballpoint pen   inks : quantification of phenoxyethanol by GC – MS. Institut de Police Scientifique et de Criminologie, University of Lausanne, Lausanne-Dorigny, Switz.   Science & Justice (2004), 44(3), 165-171. Publisher: Forensic Science Society,
  13. Wilson, Jeffrey D., LaPorte, Gerald M., Cantu, Antonio A., Differentiation of black   gel   inks   using   optical and chemical   techniques, Forensic Services Division, Questioned Document Branch, United States Secret Service, Washington, DC, USA.   Journal of Forensic Sciences (2004), 49(2), 364-370.
  14. Wild Eva Maria, Stadler Peter, Bondar Maria, Draxler Susanne, Friesinger Herwig, Kutschera Walter, Priller Alfred, Rom Werner, Ruttkay Elisabeth, Steier Peter, New   chronological   frame for the Young   Neolithic   Baden   Culture in Central   Europe ( 4th   millennium   BC ), Vienna Environmental Research Accelerator (VERA), Institut fur Isotopenforschung und Kernphysik, Universitat Wien, Vienna, Austria.   Radiocarbon (2001), 43(2B), 1057-1064.
  15. Kher Ashwini A., Green Elinore V., Mulholland Mary I., Evaluation of principal   components   analysis with high – performance   liquid chromatography and photodiode   array   detection for the forensic   differentiation of ballpoint   pen   inks. Department of Chemistry, Materials and Forensic Science, University of Technology, Sydney, Australia.   Journal of Forensic Sciences (2001), 46(4), 878-883.
  16. Puchegger, S.; Rom, W.; Steier, P., Automated   evaluation of 14C   AMS  measurements.      Vienna Environmental Research Accelerator, Institut fur Isotopenforschung und Kernphysik der Universitat Wien, Vienna, Austria.   Nuclear Instruments & Methods in Physics Research, Section B: Beam Interactions with Materials and Atoms (2000), 172 274-280.
  17. Carla Vogt,1 Ph.D.; Andreas Becker,1 B.Sc.; and Jürgen Vogt,2 Ph.D., investigation of ball point pen inks by capillary electrophoresis (CE) with UV/Vis absorbance and laser induced fluorescence detection and particle induced X-Ray emission (PIXE), Institute of Analytical Chemistry, University of Leipzig, Germany, Journal of Forensic Sciences (1999), 44(4), 819-831.
  18. Aginsky, Valery N., Measuring   ink extractability as a function of age – why the relative   aging   approach is unreliable and why it is more correct to measure   ink   volatile   components than dyes, American Academy of Forensic Sciences, New York, NY, USA.   International Journal of Forensic Document Examiners (1998), 4(3), 214-230.
  19. Stuiver, Minze; Reimer, Paula J.; Bard, Edouard; Beck, J. Warren; Burr, G. S.; Hughen, Konrad A.; Kromer, Bernd; McCormac, Gerry; Van Der Plicht, Johannes; Spurk, Marco, INTCAL98   radiocarbon   age   calibration , 24,000-0 cal BP, Quaternary Isotope Laboratory, University of Washington, Seattle, WA, USA.   Radiocarbon (1998), 40(3), 1041-1083.
  20. Wild, Eva; Golser, Robin; Hille, Peter; Kutschera, Walter; Priller, Alfred; Puchegger, Stephan; Rom, Werner; Steier, Peter. First   14C results from archaeological and forensic studies at the Vienna   environmental research accelerator. Institut fur Radiumforschung und Kernphysik, Vienna Environmental Research Accelerator, Universitat Wien, Vienna, Austria. Radiocarbon (1998), 40(1), 273-281.
  21. Cantu, Antonio A., A sketch of analytical   methods for document dating Part I. The static approach: Determining age independent analytical profiles. International Journal of Forensic Document Examiners (1995), 1(1), 40-51.
  22. Aginsky, Valery N. Some   new   ideas for dating   ballpoint   inks — a   feasibility   study. Interior, Moscow, Russia, Journal of Forensic Sciences (1993), 38(5), 1134-50.
  23. Stewart, Larry F. Ballpoint   ink age determination by volatile   component   comparison – a preliminary study. Forensic Serv. Div., U. S. Secret Serv., Washington, DC, USA. Journal of Forensic Sciences (1985), 30(2), 405-11.
  24. Burleigh, Richard; Baynes-Cope, A. D.,   Possibilities in the dating of writing   materials and textiles, Lab., Br. Mus., London, UK, Radiocarbon (1983), 25(2), 669-74.
  25. Brunelle, Richard L.; Pro, Maynard J. Systematic   approach to ink   identification. Firearms Div., Intern. Revenue Serv., Washington, DC, USA, Journal – Association of Official Analytical Chemists (1972), 55(4), 823-6.
  26. Hofer, R. Dating of ballpoint   pen   ink, Forensic Science Division, Document Laboratory, Zurich Canton Police, Zurich, Switz, Journal of Forensic Sciences (2004), 49(6), 1353-1357.
  27. L. Brunelle & K.R. Crawford: Advances in the forensic analysis and dating of writing ink. C.C. Thomas Publisher, Springfield, IL, USA, 2003

Library Everywhere: una biblioteca per tutti

In evidenza

Alfredo Di Nola*

Un progetto di volontariato a cui tutti possono partecipare

Sviluppato da Alfredo Di Nola, Nico Sanna e Gianluca Sbardella

http://www.libraryeverywhere.com

Nei paesi in via di sviluppo, ma non solo, molte scuole e molte piccole comunità, che in realtà rappresentano una gran parte della popolazione mondiale, non hanno una biblioteca e non potranno mai averne una. Questo perché una biblioteca tradizionale, anche piccola, è molto costosa. Richiede una stanza abbastanza grande, attrezzata con scaffali, tavoli e sedie.

Inoltre ha bisogno di condizioni climatiche (quali umidità, temperatura e altro) controllate per fare in modo che i libri non si deteriorino nel tempo.

E ancora, va continuamente aggiornata e ha bisogno di un bibliotecario, più o meno esperto, cioè di una persona che sia in grado di acquistare i libri, catalogarli e gestire il prestito.

Si può calcolare che una biblioteca di 3-4000 libri, in cui già ci siano le mura può costare circa 15.000 euro, considerando che ci sono comunque dei lavori da fare all’interno e l’arredamento da procurare.

I libri sono per noi una cosa molto comune, ma per queste comunità sono spesso una cosa molto rara perché magari il paese più vicino, dove poter andare per prendere un libro, dista parecchi chilometri o perché le strade sono difficilmente accessibili.

Oggi, con la possibilità di avere i libri digitali, le cose possono essere molto più semplici e per questo abbiamo pensato di creare una biblioteca di libri digitali, che offre molti vantaggi rispetto a una biblioteca cartacea.

Caratteristica di questa biblioteca è quella di essere contenuta in una pen-drive. Può essere facilmente installata in uno o più pc, dove si troveranno il catalogo e ovviamente i libri. Può essere liberamente duplicata: in pratica è pensata per essere virale.

I libri si potranno leggere sia sullo schermo del pc, sia su un lettore di libri digitali, chiamato e-reader. Nel catalogo sono inoltre incluse informazioni sui singoli autori e sui libri.

Il costo di tutti questi oggetti è circa il seguente: un pc che possa contenere il catalogo e i libri può costare intorno ai 250 euro e un lettore di libri digitali intorno ai 70-80 euro, anche meno, e quindi con 500 euro si ha già a disposizione un sistema funzionante. La pen-drive viene fornita gratuitamente.

C’è da considerare che in molti casi le scuole o le comunità già possiedono uno o più pc per cui, almeno all’inizio, potranno non spendere nulla.

Questa biblioteca non richiede alcuna connessione a internet; questo può sembrare un controsenso, trattandosi di una biblioteca digitale, ma occorre tener presente che circa il 50% della popolazione mondiale non ha accesso diretto a internet e spesso, quando lo ha, è molto ballerino, anche perché la fornitura di energia elettrica è discontinua e solo per poche ore al giorno. A questo inconveniente si può sopperire con un piccolo pannello solare (ormai se ne trovano portatili e a un costo relativamente basso) e/o un piccolo accumulatore. Inoltre gli e-reader hanno un’autonomia che può arrivare fino ad alcune settimane.

La nostra biblioteca verrà costantemente implementata con l’aggiunta di libri e può essere aggiornata collegandosi al nostro server.

Per questa operazione serve ovviamente il collegamento a internet e potrà essere fatta andando in un internet point, se non si possiede già un collegamento autonomo.

Come abbiamo già detto, il catalogo, l’aggiornamento e la classificazione dei libri saranno fatti da noi e pertanto non sarà necessario un bibliotecario esperto.

Attualmente abbiamo estratto dalla rete libri in inglese esenti dal diritto d’autore.

Purtroppo i libri esenti dal diritto d’autore arrivano fino ai primi del novecento. Ne abbiamo selezionati circa 1000 e abbiamo creato il catalogo. Questi sono adatti a tutti i gusti: si va dalle favole dei fratelli Grimm o di Perrault, ai libri della Austen, Alcott, London, Conrad, Dumas, Verne, Conan Doyle, Balzac, Dickens, Stevenson, Defoe, Twain, Tolstoj, Dostoevskij, Proust ecc.

Noi speriamo che editori di libri in inglese vogliano aiutarci regalandoci un po’ di classici più recenti.

Oltre ai libri di letteratura abbiamo anche un corso scolastico completo dalla prima alla dodicesima classe, per un totale di oltre 200 libri.

Nel 2016 abbiamo provato il funzionamento della biblioteca in due scuole in Kerala ed è stato un buon successo. Abbiamo quindi perfezionato il tutto e da pochi mesi ci stiamo occupando della diffusione dell’iniziativa.

In realtà questa biblioteca può essere utile anche nelle scuole del cosiddetto mondo sviluppato. Ad esempio può essere molto utile nelle scuole come supporto a corsi di lingua inglese, sia in Italia che nel resto d’Europa. Quasi tutte le scuole hanno ormai un’aula di informatica; si può gratuitamente installare la Library Everywhere nei loro pc e gli studenti potranno sia copiarla tutta sul loro pc, sia scegliere un libro dal catalogo e leggerlo su uno smartphone, un e-reader o sul loro pc o tablet.

 

Come contribuire

 

Chiunque può ottenere la pen-drive contenente la biblioteca con i programmi per installarla e aggiornarla. In alternativa può scaricarla dal nostro server.

La Library Everywhere è pensata per essere virale, cioè può essere liberamente installata e duplicata.

Si può contribuire alla sua diffusione in molti modi, quali ad esempio:

  • Diffusione del progetto presso associazioni (ONLUS, enti, parrocchie ecc.), che siano interessate a installare la biblioteca in scuole e comunità nei Paesi in via di sviluppo.
  • Diffusione del progetto attraverso articoli su giornali e interviste televisive.
  • Diffusione attraverso contatti diretti con enti governativi italiani o stranieri.
  • Contatti diretti con comunità o scuole ubicate nei Paesi in via di sviluppo.
  • Installazione della biblioteca in scuole europee come supporto ai corsi di lingua inglese.
  • Richieste a editori di libri in inglese di contribuire donando e-book esenti dal diritto d’autore, almeno per la parte digitale.
  • …..

Le limitazioni sono le seguenti:

  1. Il catalogo della Library Everywhere richiede il sistema operativo Windows (da 7 in poi)
  2. Non può essere modificata in nessun modo e va diffusa con il suo nome e facendo riferimento al nostro sito.
  3. Non può essere usata per fini commerciali.
  4. Non è necessaria nessuna autorizzazione preventiva per la sua diffusione, ma noi apprezzeremo molto se ogni nuova installazione sarà comunicata via mail a alfredo@dinola.it indicando i nomi e i recapiti dei proponenti e dei gestori.

 

Un dubbio

Questo si può considerare colonialismo culturale?

Rispondo con un mio scritto a proposito degli aiuti all’Africa sub-sahariana.

Perché aiutare l’Africa?

Chiunque sia andato in Africa è rimasto commosso nel vedere che gli Africani spesso dormono distesi per terra su una stuoia o nel vedere le donne che compiono lunghi percorsi per approvvigionarsi di acqua, anche là dove per trovarla (come nella foresta equatoriale) sarebbe sufficiente scavare un pozzo di una quindicina di metri.

L’istinto sarebbe di fornire loro i letti e di scavare i pozzi. Ma dovremmo prima domandarci se ciò sia giusto.

La costruzione di un letto non è molto difficile, come pure scavare un pozzo non troppo profondo. Gli Africani lo sanno e se non lo fanno ciò dipende dalla loro cultura. Infatti, l’Africano tende a vivere in equilibrio con la natura e a differenza di noi non tende a modificarla. Per questo non ha costruito edifici memorabili, come le nostre cattedrali e non ha costruito strade come hanno fatto gli antichi Romani o costruito dighe o acquedotti.

Questo aspetto della loro civiltà ha dei vantaggi: ad esempio non distrugge l’habitat e non porta il mondo alla rovina per la produzione di anidride carbonica o di altri veleni. Se il mondo rischia la catastrofe ecologica, questo lo deve a noi occidentali.

Quindi alla domanda se dobbiamo essere noi a costruire letti, strade, acquedotti dovremmo rispondere di no.

Un’altra cosa che incute orrore sono le bidonville, che circondano le grandi città, con il loro carico di dolore. Ma se ci pensiamo un attimo dobbiamo concludere che le bidonville le abbiamo portate noi. Nell’Africa sub-sahariana non esistevano grandi città e quindi le bidonville. Queste sono il frutto della interazione col nostro mondo.
Anche questo aspetto dovrebbe farci riflettere sulla presunta superiorità della civiltà occidentale.

Potremmo concludere che non dobbiamo costruire nulla, ma almeno aiutarli a curare le malattie che li affliggono come malaria, tubercolosi e aids. Sappiamo che la mortalità infantile è molto alta e che la vita media è incomparabilmente più bassa della nostra.

Anche in questo caso dobbiamo prima riflettere. Sappiamo che una donna africana arriva anche ad avere dieci gravidanze nella sua vita e che solo tre o quattro figli raggiungono l’età adulta. Se avessimo la bacchetta magica e potessimo debellare in un colpo tutte le loro malattie, la conseguenza sarebbe un’esplosione demografica in assenza di lavoro per tutti e di cibo. Dobbiamo quindi concludere che anche in questo caso gli Africani hanno raggiunto un equilibrio con la natura e che sarebbe bene non fare nulla.

Ma è proprio così?

Se l’Africa fosse un sistema chiuso e isolato forse sarebbe opportuno lasciarla nel suo equilibrio.

Tuttavia l’Africa da sempre è stata in contatto con le altre civiltà, in particolare con la nostra, che, a differenza della loro, tende a sopraffare le altre, come è accaduto ad esempio con i nativi americani. Al contatto col nostro mondo l’Africano non ha difese da opporre né culturali, né fisiche e ciò è fonte da sempre di enormi catastrofi.

In conclusione è giusto aiutare l’Africa e in questo caso cosa dovremmo fare?

La mia risposta è che, poiché non è un sistema isolato, dobbiamo cercare di aiutarla e che il problema è soprattutto culturale. Quindi dobbiamo aiutare l’Africano ad avere gli strumenti culturali per affrontare e risolvere i suoi problemi.

Questo vuol dire che non dobbiamo cercare di debellare le malattie?
Anche in questo caso occorre agire contemporaneamente su più fronti: ad esempio diminuire la mortalità, ma anche permettere uno sviluppo demografico sostenibile. Questo ultimo si ottiene solo attraverso una diffusione della cultura.

Credo di aver chiarito che la diffusione della cultura sia, secondo la mia opinione, una condizione irrinunciabile per lo sviluppo dell’Africa.

Ma sorge subito un’altra domanda: cosa dobbiamo insegnare?

Dobbiamo parlare di Aristotele? Dobbiamo parlare delle guerre napoleoniche? Dobbiamo portare la nostra cultura e trasformarli in tanti piccoli lord?

La mia risposta è no. Portare la cultura non è così semplice come si potrebbe pensare. Per non trasformare gli Africani in occidentali dobbiamo certamente far loro conoscere la nostra cultura, ma lo scopo deve essere quello di aiutarli a sviluppare la loro. Questo è, secondo me, l’aspetto più difficile, che va affrontato con estrema cautela.

*Alfredo Di Nola, alfredo@dinola.it

Alfredo Di Nola è nato a Roma ed è laureato in Fisica.

Ordinario di Chimica Fisica,  presso il Dipartimento di Chimica della Sapienza-Roma. Attualmente è in pensione. La sua attività di ricerca è stata principalmente focalizzata nell’ambito della Chimica-Fisica teorica e computazionale, mediante simulazioni di dinamica molecolare classica e quantistica. Dal 2004 si occupa di volontariato nell’ambito della diffusione della cultura.