Solventi clorurati nel suolo: come liberarsene?

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex Presidente SCI

I DNAPL (Dense NonAqueous Phase Liquid, ossia Sostanze Liquide in Fase Non Acquosa) sono dei liquidi puri o miscele liquide più dense dell’acqua e relativamente insolubili in fase acquosa che tendono per gravità a migrare verso gli strati profondi del sottosuolo fin quando non trovano una zona impermeabile sulla quale si stratificano; inoltre la volatilità elevata (sono considerati VOC, Volatile Organic Compounds) fa sì che tendono a ripartirsi negli interstizi della zona insatura del suolo occupati dai gas. I DNAPL hanno infatti la capacità di infiltrarsi rapidamente nel terreno provocando contaminazione di suolo e sottosuolo. Tra i più comuni tipi di DNAPL si possono includere composti che sono stati largamente impiegati per anni nei processi industriali, in particolare:

   Solventi Clorurati (es. Tricloroetilene e Tetracloroetilene), impiegati come sgrassanti;C2Cl4 C2Cl3H

   Policlorobifenili (PCB) utilizzati nella produzione di vernici, pesticidi, inchiostri;PCBbis

   Catrame e creosoto (miscela di fenoli aromatici e composti policiclici aromatici), prodotti nel processo di gassificazione del carbonio.

Le sorgenti dei DNAPLs sono generalmente costituite da composti organo-clorurati.

I composti organici clorurati, sono molecole di idrocarburi, alogeno-sostituite, ognuna delle quali contiene almeno un atomo di Cl.Possono essere:

   Saturi (alogenuri alchilici) derivati da etano e metano;

   Insaturi ((alogenuri alchenilici) derivati da etene;

   Aromatici (alogenuri arilici) derivati dal benzene.

A differenza degli alogenuri alchilici e alchenilici, gli alogenuri arilici sono meno utilizzati come solventi.

I solventi clorurati sono considerati tra i maggiori responsabili dell’inquinamento di falde acquifere e di terreni sia in Europa sia negli Stati Uniti. Solo negli anni ’70 fu riconosciuto il potenziale tossico di tali classi di inquinanti e si iniziò ad ottimizzarne l’impiego e a limitare l’esposizione umana ad essi. A causa del buon potere solvente, propellente e della scarsa infiammabilità, i solventi clorurati sono stati e sono ancora impiegati nell’industria meccanica come agenti sgrassanti di parti metalliche, nelle tintorie o lavanderie chimiche, nell’industria orologiera ed in quella cartaria. L’impiego estensivo è stato determinato dall’economicità di tali prodotti, dalla facilità di manipolazione e dall’assenza di odori sgradevoli connessi al loro utilizzo.

L’importanza dei solventi clorurati come contaminanti delle acque di falda è stata riconosciuta soltanto a partire dall’inizio degli anni ‘80, sebbene tali sostanze siano state prodotte e utilizzate sin dall’inizio del secolo precedente; ciò è da imputare alla mancanza di una legislazione adatta che potesse prevenire lo sversamento incontrollato di contaminanti nel sottosuolo, e all’assenza di metodi analitici in grado di rilevare questi composti anche a basse concentrazioni.

La contaminazione di acque sotterranee da solventi clorurati, e la necessaria bonifica, rappresentano un rilevante problema nel settore del risanamento ambientale a causa della loro tossicità e dei conseguenti effetti che questi comportano sulla salute umana e sull’ambiente in generale. L’impiego estensivo di tali composti in vari settori industriali, in agricoltura e in applicazioni anche non commerciali, ne ha provocato la diffusione incontrollata nell’ambiente.

La biodegradazione degli idrocarburi clorurati alifatici avviene molto lentamente in condizioni naturali ed è generalmente mediata da microorganismi naturalmente presenti nelle aree contaminate che si sono adattati alla presenza del contaminante. E’ una efficace strategia di risanamento di acque sotterranee contaminate da solventi clorurati . Le cinetiche di biodegradazione di tali composti sono in genere piuttosto limitate, spesso a causa della mancanza nell’acquifero di adeguate condizioni ambientali (idonee condizioni redox, opportuno donatore di elettroni, nutrienti, ecc.) che determinano lunghi tempi per il recupero del sito contaminato.Tuttavia, sono disponibili delle tecnologie di bonifica di acque di falda. Le principali tecnologie impiegate per la bonifica sono Pump & Treat, Barriere Permeabili Reattive e il Biorisanamento.

Il Pump &Treat (P&T)è un sistema di messa in sicurezza e /o di bonifica che consiste nell’intercettare la falda inquinata al fine di evitare il trasporto dei contaminanti verso valle, nell’emungere l’acqua mediante dei pozzi di estrazione e nel trattare l’acqua estratta in uno specifico sistema di abbattimento posto in superficie.

P&T

Le Barriere Permeabili Reattive (PRB) sono sistemi di risanamento che sfruttano la possibilità di collocare nel terreno, ortogonalmente alla direzione di flusso, un materiale reattivo permeabile, che rappresenta la barriera.

PRB

Negli Stati Uniti ed in alcuni Paesi Europei la tecnologia delle PRB è stata prima oggetto di importanti progetti di studio ed ha ormai trovato rapida applicazione nella bonifica di falde contaminate (ad oggi circa 200 installazioni nel mondo).

Il biorisanamento è una efficace strategia di risanamento di acque sotterranee contaminate da solventi clorurati e si basa sulla possibilità di accelerare l’attività dei microrganismi naturalmente presenti nel sito, capaci di degradare contaminanti specifici.

biorimediazione

A causa del loro elevato grado di clorurazione, i contaminanti quali PCE (tetracloroetilene) e TCE (tricloroetilene) sono raramente ossidati in condizioni aerobiche (solo ossidazione co-metabolica). La degradazione ossidativa è invece più semplice per composti a minor grado di clorurazione quali DCE (dicloroetilene) e VC (vinile cloruro) (anche metabolica).

bioremed2

La declorazione riduttiva di eteni clorurati è pertanto il processo principale attraverso cui solventi alto clorurati sono completamente ridotti tramite la sostituzione degli atomi di cloro con atomi di idrogeno a composti come l’etilene. Tale processo richiede un donatore di elettroni esterno (fonte di carbonio organico e/o H2) ed è effettuato da microrganismi anaerobici altamente specializzati, naturalmente residenti nell’area contaminata, che sono in grado di utilizzare i solventi clorurati per le proprie esigenze metaboliche trasformandoli in composti non tossici e compatibili da un punto di vista ambientale.

Il biorisanamento anaerobico di acque di falda contaminate da solventi è un processo consolidato a livello internazionale e numerose sono le realizzazioni in piena scala.

Dall’esame delle esperienze statunitensi, è evidente una tendenza a sostituire progressivamente interventi bonifica basati sul P&T, o almeno basati sul solo P&T, con interventi basati sull’uso di tecnologie in situ.

Finora il principale ostacolo alla diffusione di tali tecniche è stato il fatto che un intervento in situ deve essere preceduto da una caratterizzazione accurata e dedicata nonché da test in scala di laboratorio e da verifiche su campo in scala pilota.

Un’ulteriore “barriera” risiede nel fatto che alcune di queste tecnologie (ad es. il biorisanamento) richiedono “l’iniezione” di sostanze chimiche in acqua di falda, con preoccupazioni circa la possibile formazione di composti indesiderati e/o sconosciuti.

Cronache dall’antropocene.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Tutti i giornali di questi giorni seguono col fiato sospeso la impari lotta fra i nani di Francoforte e la piccola Grecia battagliera di Tsipras. Le interviste di Wolfgang Schäuble*, ministro tedesco delle finanze, ribadiscono che la Grecia non è abbastanza efficiente e produttiva e che blocca la strada verso “la crescita”, il cui mantra rallegra i sogni di tutti i politici europei e mondiali; l’Italia “renzina” non si sa ancora che fine farà, ma Giorgio Squinzi, patron di Mapei e di Confindustria dichiara che non ha nulla da chiedergli; il governo Renzi, infatti, gli ha già dato tutto e anche di più; i giovani disoccupati (sono al 40%) ringraziano. La “crescita infinita”, sogno di tutti i ministri delle finanze del mondo e risultato medio di alti e bassi del mercato (e della guerra) per gli scorsi 250 anni ha d’altronde già provocato i suoi effetti e li vediamo in questo periodo (beh Schäuble della guerra ne sa qualcosa*). Infatti, sia pur con molta meno fanfara il livello medio del biossido di carbonio in atmosfera ha superato per la prima volta da 4-5 milioni di anni il valore di 400 ppm. Mi direte : “Ma non era già successo l’anno scorso?”; certo vi rispondo io era toccato al dato istantaneo e l’aveva segnalato Giorgio Nebbia (https://ilblogdellasci.wordpress.com/2013/05/20/quattrocento/) ma c’è una piccola differenza adesso: questo è il livello medio. Per comprendere la differenza partiamo dai dati registrati a Mauna Loa, che rappresenta, nel mezzo del Pacifico, una stazione di riferimento per questo tipo di misure. Il grafico seguente rappresenta in rosso i dati mensili più recenti e in nero i valori medi (media mobile su sette cicli adiacenti) sui quali mi sono permesso di tirare una retta orizzontale a 400 ppm.

antropocene1

Si vede bene cosa è avvenuto; nella primavera-estate 2013 il valore massimo mensile ha sfiorato ma non superato il limite; l’anno successivo come registrato da tutti gli osservatori il limite fu superato e i valori rimasero sopra la soglia per qualche mese tornando sottosoglia con il periodo autunnale dell’emisfero Nord; questa ampia variazione, che è conosciuta come il “respiro di Gaia”, dipende dal ciclo fotosintetico globale ed è la somma di due distinti cicli fotosintetici nei due emisferi. Infine nel primo quarto di quest’anno i valori sono tornati a crescere durante la primavera dell’emisfero Nord e hanno ancora una volta superato il limite; stavolta però lo stesso ha fatto la media mobile; mentre il ciclo tornerà a diminuire durante l’autunno e per breve periodo tornerà ancora una volta sottosoglia, la media mobile non tornerà MAI PIU’ sotto soglia per molti anni (secoli o millenni) e questo dipenderà da NOI, sia nel senso che le nostre attività di combustione e di agricoltura ne sono responsabili, sia nel senso che il tempo che passerà soprasoglia dipende dalle nostre azioni future in campo energetico e produttivo. Questa è certamente crescita!

I politici se ne curano poco, ma questa crescita, a differenza di quella del PIL, appare veramente inarrestabile; non è l’unica.

La popolazione mondiale è a 7.2 miliardi e continua imperterrita un’ ascesa anch’essa inarrestabile, al ritmo di oltre 70-80 milioni di nascite nette all’anno; si può stimare che metà di questo numero sia di nascite “indesiderate”, ossia che le donne se fossero padrone di se stesse eviterebbero (http://en.wikipedia.org/wiki/Unintended_pregnancy); ma purtroppo la gran maggioranza delle donne del mondo, a differenza della signora Merkel, non è padrona della propria vita. Certo ci sono anche buone notizie; durante il 2014 la quota di energie rinnovabili è cresciuta in modo notevole; se consideriamo il solo FV, per esempio, la quantità di potenza installata nel mondo è arrivata a sfiorare per il 31 dicembre scorso i 180GWp. La capacità installata delle turbine eoliche è arrivata a oltre 280GWp nella medesima data per un totale di 460GWp. Se si pensa però che la potenza primaria media necessaria è dell’ordine di 15.000GW CONTINUI, siamo ancora lontani dall’obiettivo, la strada per una energia totalmente “pulita” è ancora lunga, ma l’abbiamo intrapresa. Ovviamente le percentuali di energia effettivamente fornite sono ancora basse: si stima che solo il 20% dell’energia elettrica mondiale sia globalmente fornita da sorgenti rinnovabili prima di tutto idro (nel nostro paese abbiamo sfiorato il 40% lo scorso anno) ma l’energia elettrica è solo una parte dell’energia primaria e tale valore scenderebbe a circa il 13% del totale di primaria (dati 2008) contro l’81% di fossile e il 6 circa di nucleare (vedi Nota finale).

(si veda anche http://www.qualenergia.it/articoli/20150525-fotovoltaico-continuano-i-ribassi-da-record-6virgola1-centesimo-%24-per-kwh) Ma queste limitate buone notizie sono bilanciate da un numero notevole di altre notizie meno buone. Due recenti articoli rafforzano gli aspetti gravi della situazione climatica ed ambientale:

Ed infine la estensione dei ghiacci artici, sensibilissimo indicatore della situazione termica del pianeta, è in velocissima riduzione:

antropocene4

tanto che perfino i siti che si interessano di economia parlano di un “problema Artico” (http://www.businessinsider.com/arctic-sea-ice-grows-but-still-shrinking-2014-9?IR=T), l’Artico è diventato un problema perchè le variazioni climatiche indotte possono avere effetti tragici sulla produzione agricola mondiale.

La scoperta del secolo! La natura biofisica dell’economia mondiale, nascosta da un secolo di “magnifiche sorti e progressive”, ridiviene manifesta con la forza dei fatti: il picco del petrolio, il ciclo fuori controllo di azoto e fosforo e le modifiche climatiche da gas serra rivelano la debolezza della scimmia nuda, della sua arretrata e preistorica organizzazione sociale.

Parafrasando il celebre monologo di Roy Batty (interpretato da un magistrale attore anche lui arianissimo, Rutger Hauer (in effetti è olandese)) in Blade Runner

antrpocene5“I’ve seen things you people wouldn’t believe,

methane molecules on fire off the shoulder of Baltic sea, I watched the clathrates in the dark near the bottom of the Siberian Ocean. All those moments will be lost in time, like Arctic tears in rain. Time to die. »**

Note

  • *Wolfgang Schäuble è stato presidente della CDU; dopo aver ammesso in televisione di aver ricevuto una donazione (non registrata) al partito di 100.000 marchi da parte del controverso commerciante di armi Karlheinz Schreiber si dimise; ma dopo aver lasciato la guida alla sempre verde signora Merkel (laureata in Fisica e con un dottorato in meccanica quantistica) è tornato in sella alla sua fida sedia a rotelle (sulla quale è confinato dopo che un pazzo lo ha ferito gravemente) alla guida dell’economia tedesca e, tramite quella, dell’economia europea; tutto per la sua gloria e per il nostro sollazzo.
  • ** il testo è stato parafrasato dall’autore di questo articolo ispirandosi a un post di Ugo Bardi http://ugobardi.blogspot.it/2015/05/le-lacrime-dellartico.html
  • Nota sui valori statistici; le cifre che ho riportato si trovano nelle voci di Wikipedia; tuttavia i dati BP sono più pessimistici; per il 2013 riportano meno del 9% di energia primaria da rinnovabili totali;
  • mentre scrivo: http://www.nature.com/news/big-compromises-needed-to-meet-carbon-emissions-goal-1.17622?WT.mc_id=TWT_NatureNews

Il recupero del lago d’Orta: una storia da raccontare

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Sono trascorsi ormai venticinque anni dall‘inizio di una operazione di recupero di un lago che per molti anni fu uno degli specchi d’acqua più inquinati d’Europa: il lago d’Orta. Nel 1987 l’allora istituto italiano di idrobiologia di Pallanza (oggi istituto per lo studio degli ecosistemi, che come allora fa parte del CNR) propose un “Piano per intervento diretto di risanamento”, che ebbe poi l’avvio operativo nel 1989.

Questa operazione e l’intera vicenda danno lo spunto per diverse riflessioni che riguardano la chimica ma non solo. La chimica, perché il lago per anni riceverà nelle sue acque scarichi industriali sommariamente depurati provenienti da un industria che produce rayon con il metodo cuproammoniacale. Ma quando si tratterà di dare il via all’operazione di risanamento la chimica avrà un ruolo fondamentale e positivo. Quindi questa storia per l’ennesima volta ricorda l’ormai noto dualismo: benefici e rischi della chimica. (La mia opinione personale che potrà sembrare banale e scontata è che la chimica sia una scienza fondamentale. Le molte vicende che l’hanno messa sotto una cattiva luce sono semplicemente un modo sbagliato di utilizzarla). La vicenda riguarda anche strettamente il settore della gestione del ciclo idrico e la protezione delle acque.

Questa storia inizia nel 1926. In quell’anno la Bemberg una società tedesca decide di costruire a Gozzano sulla riva meridionale del lago d’Orta una fabbrica tessile. Viene prodotta seta artificiale (Rayon) con il processo cuproammoniacale estraendo la cellulosa dai linters, sottoprodotti del cotone. La cellulosa viene solubilizzata per alcune ore a freddo (T < 5°C) in una soluzione ammoniacale di solfato di rame in soda caustica. Il trattamento porta alla formazione di idrossido di rame ammoniacale e di un liquido scuro molto viscoso, da cui la cellulosa viene rigenerata con un lavaggio in acqua calda e successivamente con un bagno acido per acido solforico diluito. Il processo richiede elevate quantità di acqua a basso contenuto salino, ed è questa la ragione per cui la fabbrica viene costruita sulle rive del lago. Dalla filatura si ottiene un filo estremante sottile e dall’aspetto lucente e serico che è molto apprezzato e di buona qualità. Lo slogan pubblicitario infatti recitava “Nasce dal cotone, splende come la seta”.

orta2 orta1

Questo tipo di produzione però produce volumi elevati di reflui (0,2-0,3 m3 /s). Le acque scaricate dopo un blando processo depurativo nel lago mostrano da subito i loro effetti negativi. Solo due anni dopo l’entrata in funzione dello stabilimento campioni di acqua raccolti in varie zone del lago mostrano l’assenza di plancton animale e vegetale. Il popolamento ittico si riduce drasticamente.

Per inquadrare la vicenda nel contesto storico giova ricordare che negli anni 30 del secolo scorso le ragioni dell’industria erano certamente prevalenti su quelle della sensibilità ambientale che emergeranno negli anni successivi, in particolare negli anni 70. Un autore come Beppe Fenoglio descrive però già nel dopoguerra nel suo “Un giorno di fuoco” che contiene racconti scritti tra il 1954 ed il 1962 la situazione del fiume Bormida e delle sue acque con questo brano : “Hai mai visto il Bormida? Ha l’acqua color sangue raggrumato, perché porta via i rifiuti delle fabbriche di Cengio e sulle sue rive non cresce più un filo d’erba. Un’acqua più porca e avvelenata che ti mette freddo» descrivendo un’altra delle vicende dolorose e controverse della storia ambientale italiana, quella dell’Acna di Cengio. Anche il Bormida dopo decenni è stato risanato.

Le proteste dei pescatori del lago d’Orta che lamentano la scomparsa dei pesci vengono risolte offrendo loro un nuovo lavoro in fabbrica. Cosa singolare l’inquinamento del lago non dava origine a molestie visibili o ad odori sgradevoli. Le acque anzi risultavano alla vista limpide e pulite.

Negli anni 60 la situazione si aggrava ulteriormente. Nella zona la presenza di numerose industrie elettrogalvaniche (la zona è famosa per la costruzione di rubinetterie di pregio) i cui scarichi contengono metalli quali rame, cromo, nichel e zinco riducono il lago ad uno specchio d’acqua privo di vita.

La massa d’acqua del lago è ormai acidificata dai processi di ossidazione biochimica dell’ammonio a nitrato, e questa condizione aumenta la solubilità dei metalli. L’acqua del lago ha valori di ione nitrico ed ammonio di circa 5 mg/lt, il valore di acidità si oscilla tra 3,9 e 4,7 unità di Ph, il valore di rame a 0,1 mg/lt. Il caratteristico lago prealpino piemontese è ormai un lago biologicamente morto.

Giungono gli anni 80. Nel 1976 in Italia è promulgata la storica “Legge Merli” per la protezione delle acque dall’inquinamento. Negli anni 80 la Bemberg si dota di un depuratore per le acque di processo e il carico di azoto che finisce nel lago si riduce drasticamente (da 3000 a 30 ton/anno). Precedentemente alla fine degli anni cinquanta l’azienda aveva iniziato il recupero del rame dalle acque esauste. Sempre nella metà degli anni 80 entrano in funzione gli impianti di depurazione del consorzio del Cusio ed il carico inquinante si riduce ulteriormente. Maturano i tempi per l’operazione di liming. Si tratta di un processo nel quale l’aumentata acidità del lago viene corretta con carbonati di origine naturale e di granulometria adatta (inferiore a0,1mm e con il 30% inferiore agli 0,02mm). Per dosare il carbonato di calcio viene progettata un’imbarcazione apposita che poteva trasportare sessanta tonnellate di carbonato per viaggio. Negli anni l’acidità viene lentamente corretta, e già nel 1993 ritorna ai valori che aveva prima del massiccio inquinamento. Si ricostituisce la riserva alcalina di carbonato e diminuisce la tossicità dei metalli che erano stati scaricati nelle acque. La vita lentamente ritorna nelle acque del lago. Oggi sono passati venticinque anni da questa operazione drastica. La storia di questo recupero è un esempio dell’equilibrio che occorre ricercare per poter far coesistere attività industriali e tutela ambientale. L’acqua è un bene indispensabile. Come si può vedere sporcarla è facile. Disinquinarla richiede molti sforzi. Le quantità di carbonato di calcio immesse nel lago sono state ingenti (nel solo periodo maggio 1989 a luglio 1990 la quantità fu di 14800 tonnellate). Oggi esiste un progetto chiamato “Orta reloaded” che continua quello che fu iniziato nel 1989. Gli equilibri ecologici dei sistemi lacustri sono estremamente delicati. L’operazione di liming è stata certamente un successo ma il lago deve essere costantemente protetto.

Occorre anche ricordare che negli anni della costruzione e dell’insediamento della Bemberg la stessa azienda chiese il parere di studiosi di limnologia prima di costruire la fabbrica. Ma nonostante il parere negativo degli studiosi che prevedevano che il lago avrebbe risentito degli effetti degli scarichi di ammonio e rame decise di costruirla ugualmente. La naturalista Lina Monti già nel 1930 quattro anni dopo la costruzione documentò e descrisse gli effetti riscontrati nelle acque del lago dagli scarichi tossici dei sali di rame.

La chimica offre molte possibilità. In questa vicenda essa è prima responsabile, e poi strumento per il risanamento di un ambiente pesantemente inquinato e degradato. Vicende di questa natura vanno a mio giudizio fatte conoscere e studiare (io ho fortunatamente avuto questa possibilità). La conoscenza della chimica ma non solo, l’approccio razionale e meditato devono essere la guida per evitare il ripetersi di situazioni cosi estreme. E come sempre la chimica è strumento fondamentale.

orta2 orta1

Per saperne di più:

“Il recupero del lago d’Orta” Rosario Mosello, Alcide Calderoni, Adriano Quirci Le Scienze Dicembre 1991

http://areeweb.polito.it/strutture/cemed/sistemaperiodico/s14/e14_1_07.html

http://www.fondazione.novara.it/orta-reloaded/

http://www.ilportale-rivista.it/wordpress/pdfrivista/tematiche/n2_navigare.pdf

Un concorso a cattedra del 1866.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

si veda anche il precedente articolo

di Gianfranco Scorrano, già Presidente SCI

Recentemente ho letto (Gian Luigi Bruzzone, in Annali di storia delle Università italiane, Vol.12,2009) la lettera che Ciamician ha inviato a Cannizzaro, alla fine del 1894, con l’intenzione di porgere gli auguri per il vicino nuovo anno, ma che contiene anche alcuni spunti per quanto riguarda la conoscenza dei concorsi universitari.

Bologna, 29 Dicembre 1894

Illustrissimo Signor Professore,

nello scorso novembre, sapendo che il Baccelli (nota red.: Guido Baccelli ministro della pubblica istruzione nel governo Crispi 14 giugno 1894-5 marzo 1896) non intendeva aprire altri concorsi, ma provvedere direttamente alle cattedre vacanti per – diciamo così – decreto ministeriale, la pregai di tenere conto del dottor Angeli, nel caso che il Ministro fosse ricorso al suo autorevole parere per eventuali nomine. Ora davanti al fatto compiuto della proposta di Giorgio alla docimastica di Roma, il suo intervento mi sembra necessario e credo che alla nomina del Giorgio a Roma dovesse far seguito quella del dottor Angeli alla docimastica di Napoli. Dopo il trasloco del Peratoner a Palermo, la nomina di Grass a Catania e quella del Giorgio a Roma, mi sembra debito di giustizia da parte del Ministro tenere conto anche dell’Angeli, che ha certo meriti di gran lunga superiori a quelli del Giorgio. In questa occasione, per me assai difficile, invoco il suo ajuto e sono sicuro che Lei per quest’alto senso di giustizia e di equità, che ho in Lei sempre ammirato, e forse anche per un po’ d’amore pel suo antico allievo non vorrà negarmelo. Io non credo scrivendole così di poterle dispiacere, perché l’interessarsi ai giovani d’ingegno, che danno affidamento di fare onore alla nostra scienza, mi sembra un dovere, a cui nessun insegnante, per quanto moderato, deve sottrarsi. Voglia dunque darmi qualche consiglio intorno a ciò che le sembra opportuno fare per il dottor Angeli, e mi perdoni se in questa lettera, ch’io intendeva dedicare soltanto agli augurii di capo d’anno, che le invio, vivissimi, anche a nome di mia sorella, ho dovuto parlarle d’un argomento per me sì grave. Gradisca i miei ossequi e mi creda suo devotissimo ed affezionatissimo G. Ciamician

Dalla lettera possiamo ricavare come si svolgessero i concorsi per le cattedre universitarie:

  • le commissioni di concorso erano fatte dal Ministro della pubblica Istruzione. Questo era la norma da tempo in vigore in tutti, grandi e piccoli regni in cui era divisa l’Italia e che era proseguita nel Regno d’Italia Unito. Naturalmente il ministro si consultava (forse) con i professori più rilevanti o noti.
  • Ciamician esprime critiche per le recenti nomine fatte dal ministro e sostiene che “l’interessarsi ai giovani d’ingegno, che danno affidamento di fare onore alla nostra scienza, mi sembra un dovere, a cui nessun insegnante, per quanto moderato, deve sottrarsi.” Da qui la richiesta di aiuto a Cannizzaro.

Nel mondo moderno, le lettere di raccomandazione sono particolarmente usate nel mondo anglosassone: dopo il dottorato, lasciando il posto dove si è ottenuto, l’ex studente di PhD riceve dal suo supervisore una lettera che spiega cosa ha fatto dal punto di vista scientifico, che risultati ha ottenuto e anche, nella parte finale, alcune note caratteriali che lo raccomandano (o meno). Naturalmente lo studente andrà a lavorare altrove, il parere del supervisore è visto come una “raccomandazione” misurata attentamente negli aggettivi usati.

In Italia, di solito nei tempi moderni si fa carriera in sede, nello stesso gruppo in cui si è preso il dottorato, nella catena PhD, ricercatore, associato, ordinario: qui le lettere di raccomandazione non servono.

Ma torniamo ad un caso, chiaramente documentato, di un concorso in cui i professori sono stati nominati dal ministro: il concorso per la cattedra di chimica all’università di Torino, quello che doveva nominare il sostituto di Piria, da poco defunto.

Siamo nel dicembre del 1866, 25 anni prima della lettera di Ciamician a Cannizzaro. La commissione ministeriale, come abbiamo visto in un precedente post, è così costituita: Francesco Boschi (matematico milanese, Presidente), Stanislao Cannizzaro (1826-1910), Pietro Piazza (1824-1883), Ascanio Sobrero (1812-1888), Paolo Tassinari (1829-1909).

Le biografie di Cannizzaro, Sobrero e Tassinari sono raccolte, assieme a ca 700 altre, all’indirizzo:

http://www.chimica.unipd.it/gianfranco.scorrano/pubblica/la_chimica_italiana.pdf

Accennerò solo a cose di cui si dirà in seguito. Cannizzaro divenne Professore all’università di Genova nel 1855 a 29 anni; Sobrero alla Scuola Applicata per gli Ingegneri di Torino nel 1845 a 32 anni; Tassinari professore di chimica docimastica a Bologna nel 1860-61 a 32 anni.

Per Piazza vi sono pochissime informazioni. L’unica che ho reperito è sul sito gestito dal comune di Bologna:http://www.storiaememoriadibologna.it/

Pietro Piazza (1824-1883).Chimico. Professore ordinario dal 1861 di chimica organica nella Facoltà di Scienze matematiche fisiche e naturali dell’Alma Mater Studiorum. Mazziniano, fece parte, insieme a Carducci, del direttivo dell’Unione democratica bolognese, aderendo a diverse manifestazioni antimonarchiche e anticlericali. E’ sepolto alla Certosa di Bologna, Sala Gemina, loculo 369.
Sulla semplice lapide è incisa la rappresentazione di una stretta di mano che simbolicamente rappresenta l’unione tra Pietro Piazza e Marietta Alfieri. Il messaggio, apparentemente banale, rappresenta invece un rapporto paritario tra i due, in un’epoca in cui la donna ancora faticava ad avere un ruolo diverso da quello di ‘custode del focolare domestico’. L’epigrafe della lapide recita:

A / TRIBUTO DEL PRIMO AMORE / E DI RICONOSCENZA ETERNA / ALLA SUA / BELLA, GENTILE, ONESTA, VIRTUOSA / MARIETTA ALFIERI / CHE / TANTO AMO’ E PATRIA E FAMIGLIA / IL PROFESSORE PIETRO PIAZZA / A LEI FELICEMENTE SPOSO / E / PER TANTA IMMATURA PERDITA / INCONSOLABILE / QUESTA MEMORIA / POSE / VISSE ANNI 36. MANCO’ AI 16 NOVM_RE 1868. – “

I commissari chimici hanno tutti ottenuto la promozione a professori ordinari in età giovanile: 29,32,32 e 37 anni. Si ritrovano a giudicare una serie di candidati (sette) tra cui uno locale (Peyrone) e parecchi altri già abbastanza rinomati tra i quali Schiff (vedi note biografiche nel sito di Padova sopra elencato).

La scelta non è facile ed infatti la commissione spese qualche tempo per definire i criteri di valutazione. Riprendiamo dall’articolo di Cerruti (Concordia Discors. I chimici Italiani dell’ottocento, fra politica e scienza, 1998) quanto scrisse Cannizzaro nei verbali del concorso:

E’ dovere di un professore dedicare il suo tempo non solo a dettare lezioni, ma altresì a coltivare la scienza che professa e cooperare con gli scritti alla diffusione e all’avanzamento di essa

col professore provetto, da più anni disavvezzo al movimento delle idee e che ha perduto persino le emozioni che trascinano alle ricerche e le coronano, si ha immancabilmente il successivo decadimento dell’insegnamento, mentre col giovine, che si è messo bene nella vita scientifica, vi è da sperare un graduale miglioramento

Il primo concetto è espresso, a livello mondiale, anche nella ben nota frase “Publish or perish” e, sia pure con meno gravità, è comunemente accettata. Anche la seconda, dando fiducia alla età giovanile, sembra ragionevole.

Questo modo di ragionare di Cannizzaro fu accettato, senza commenti, da Piazza.

Tassinari, al contrario, valutava la funzione di insegnante piuttosto che quella di ricercatore: vi è in questo un riflesso della sua personale carriera. Da quando aveva lasciato il laboratorio di Piria (1855 per insegnare all’Istituto Tecnico di Alessandria) non aveva (e non avrà più) pubblicato alcun lavoro scientifico.

Sobrero, apertamente a favore di Peyrone, svolse ragionamenti arditi: “se dei soli lavori scientifici si dovesse tener conto per calcolare i meriti dei concorrenti si correrebbe il rischio di attribuire a merito personale ciò che fu effetto di circostanze speciali favorevoli a questo o a quell’altro concorrente”, come se i lavori scientifici nascessero per caso. La meritocrazia non ha avuto mai un terreno facile in Italia. Si lamenta poi che in genere un professore ha molte richieste dalle autorità per analisi varie, cosa che provoca ritardi nelle attività di ricerca.

Ma vediamo in dettaglio lo sviluppo della carriera di Peyrone, riprendendo quanto pubblicato da Sandro Doldi su “La Chimica e l’Industria” Vol.77, pag.989,(1955). Nato nel 1813, ai tempi del concorso (1866) aveva 53 anni: era cioè più anziano di Cannizzaro (40), Piazza (42), Tassinari (37). Solo   Sobrero è di un anno più anziano di Peyrone.

Naturalmente quando i commissari sono più giovani dei candidati diventa ancora più importante una analisi dettagliata dei titoli.

Vediamo che dopo una laurea a medicina, Peyrone decise di studiare chimica con Dumas a Parigi e poi nel 1842-44 nei laboratori di Liebig a Giessen. Qui pubblicò nel giornale di Liebig e poi, tradotta in francese, negli Annales de Chimie et de physique 1844, 193 [36] l’articolo sulla reazione di cloruro platinoso con ammoniaca: ottenne due prodotti, uno giallo e l’altro verde. Separati, il prodotto verde risultò identico al prodotto già noto come sale di Magnus [Pt(NH3)4][PtCl4] mentre quello giallo, denominato poi sale di Peyrone, aveva la formula PtCl2(NH3)2 . Bisognerà attendere il 1893 quando Werner pubblicò il lavoro sulla coordinazione chimica e quindi dimostrò che per i complessi del platino bivalente con la struttura PtA2X2 ci debba essere una struttura planare con il platino al centro ed i sostituenti al vertice , con, nel sale di Peyrone, i due atomi di cloro in posizione cis. Altri anni passeranno per l’utilizzo del sale di Peyrone nella cura dei tumori, ma questa è un’altra storia.

Dopo questo lavoro ben poco dal punto di vista chimico uscì dalla penna di Peyrone. Il quale, invece iniziò una lunga carriera didattica.

Il 28 novembre del 1846 Carlo Alberto aveva concesso alla Camera di Commercio di Genova di istituire la Scuola serale di chimica applicata e il 16 novembre il Ministro dell’interno (reggente) Des Ambrois de Nevache conferì al dott. Michele Peyrone l’incarico di insegnare chimica applicata alle arti nella Scuola serale di Genova.

Peyrone, ai primi di marzo si trasferì a Genova e la sera del 20 novembre 1847 il Peyrone pronunciò il discorso inaugurale. Come riportato da Doldi, nel discorso inaugurale vengono esposte alcune conoscenze del tempo, ma anche molto discutibili. Per esempio della chimica organica Peyrone dice che si tratta di pochi corpi semplici che si formano per effetto della forza vitale e l’uomo non è in condizione di produrne neanche una molecola. Più tardi definirà folle la speranza di arrivare un dì a produrre le sostanze organiche. Queste idee, che suonano abbastanza folli, in realtà già ai tempi di Peyrone erano state provate false.

Nel 1828, circa 20 anni prima che Peyrone prendesse il suo insegnamento a Genova, F.Woeler aveva preparato, riscaldando l’isocianato di ammonio, l’urea uno dei composti presenti nell’urina.

Nel francobollo delle poste tedesche (1982) in alto a destra è scritta la reazione per la preparazione dell’urea. Non c’è traccia della forza vitale. Dopo 20 anni, Peyrone ancora non sa nulla dell’esperienza di Wohler.

Definire folle la speranza di sintetizzare sostanze organiche dimostra ancora una volta la mancanza di cultura chimica da parte di Peyrone. Quanto poi abbia fatto la chimica organica è un monumento che va contro queste inqualificabili assunzioni. Per una approfondita discussione del passaggio nella chimica del concetto di vis vitalis e dello sviluppo della chimica organica vedi: Antonio Di Meo, Percorsi della Chimica
Accademia dei XL – Roma 2000 http://www.accademiaxl.it/it/pubblicazioni/divulgazione-scientifica/165-chimica-organica.html
A mio parere l’opposizione a Peyrone era più che giustificata: pochi risultati scientifici, troppe affermazioni sbagliate. Che non siano arrivati a concludere su altri candidati è sorprendente: ha avuto certamente peso che il candidato locale (Peyrone) non trovasse la maggioranza dei commissari, ma avevano altri forti candidati da promuovere. Le beghe e le camarille, più che dal lato di Cannizzaro (vedi i criteri ragionevoli proposti per la valutazione), venivano da Sobrero/Tassinari.

Progetto MUSIS e cibo.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella.

Sono da gli anni 80 coordinatore del progetto MUSIS per un sistema diffuso di musei e strutture culturali sul territorio della provincia di Roma.

luigi

http://www.lascuolapossibile.it/articolo/intervista-al-papa-del-musis/

Nella sua evoluzione il programma più rappresentativo di questo progetto è stato lo sviluppo dei centri culturali scolastici e dei musei scolastici, intesi come opportunità di stimolo alla ricerca per i più giovani e di fare cultura per gli adulti (abitanti,genitori,amici).

logoscuole musis

http://www.educationduepuntozero.it/organizzazione-della-scuola/musis-non-si-apprende-solo-scuola-3055502246.shtml

http://it.wikipedia.org/wiki/Museo_multipolare_della_scienza_e_dell%27informazione_scientifica

In occasione di una festa di primavera ho visitato la scuola elementare di Mostacciano, quartiere alla periferia della nostra città. Fra le moltissime rappresentazioni create dagli studenti della scuola, tutte peraltro di eccezionale chiarezza,attualità e fedeltà scientifica, mi hannoparticolarmente colpito quelle dedicate all’alimentazione ed al cibo per la vita.

mostacciano

All’interno di postazioni riguardanti l’educazione alimentare,il rapporto fra qualità del suolo e qualità alimentare,la lotta alllo smaltimento come rifiuti di residui alimentari in eccesso rispetto alle porzioni impegnate,mi ha colpito una statistica che mi è stato detto essere frutto di un’accurata ricerca sul web da parte degli stessi studenti e dei loro insegnanti.

Da tale ricerca è emerso che durante una vita media (circa 82 anni) ognuno consuma 11 tonn di farina, 3 tonn di patate, 4 tonn di pomodori, la carne di 10 mucche, di 10 maiali e di1000 polli, quasi 1 tonn di pesce, 6 tonn di latte, 800 l di olio, 2 tonn di zucchero, 6000 l di vino, 8 tonn di frutta, 40000 l di acqua.

piramide

Mi sono chiesto se tale statistica fosse credibile come valore medio ed ho pensato di verificarlo.

Con un’attenta analisi di chimica nutrizionale ho trasformato tutto quanto viene consumato in calorie e poi dividendo il valore ottenuto per il n. di giorni di vita media ho calcolato il consumo calorico medio. Se esso fosse risultato pari a 100 o a 30000 cal, tanto per fare un esempio, tali dati statistici sarebbero stati fortemente criticabili,ma invece il valore ottenuto di circa 2100-2200 cal, molto vicino a quello reale,assegna ai dati statistici rilevati dal museo della scuola un carattere di accuratezza per il quale credo vadano rallegrata alunni ed insegnanti preposte.

10 regole di sicurezza nel laboratorio chimico.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

La sicurezza è uno degli aspetti più importanti ma forse più trascurati della nostra attività; e dico questo perchè vivo in un laboratorio universitario; forse in un laboratorio industriale penserei diversamente, visto che in effetti il numero degli incidenti sul lavoro in Italia dà qualche segno di diminuzione specie nel  comparto chimico. sicurezza1

Diciamo che la questione sicurezza chimica nella ricerca e nell’università avrebbe bisogno forse di maggiore attenzione e certamente non si deve abbassare la guardia.

Ho cercato allora di fare un breve vademecum, una lista dei punti caldi nell’atteggiamento da tenere in un laboratorio di chimica; sottolineo che questa classifica è del tutto personale:

  • Prima di iniziare, e sottolineo PRIMA di iniziare, occorre procurarsi le informazioni riguardo i prodotti e le procedure da seguire nella reazione o nel procedimento che vogliamo attuare; sia questa una cosa che ci procuriamo dalla letteratura, da altre persone, che sono i nostri preposti, ossia che sono il nostro riferimento lavorativo (c’è una legge la legge 81 del 2008 che definisce esattamente le figure del laboratorio e di ogni altro luogo di lavoro); e mi raccomando che queste informazioni siano AGGIORNATE!

Secondo me questa è la prima regola e la più basilare; non basta essere esperto di una materia per stare al sicuro!

  • Prima di iniziare rendersi conto di dove sono le apparecchiature per la sicurezza che potremmo dover usare: la doccia oculare, la doccia, l’estintore, le vie di fuga, ma anche semplicemente gli occhiali di protezione, i guanti di ricambio o gli interruttori della energia elettrica o le valvole del gas e non ultime le bende, i disinfettanti le maschere di sicurezza; dobbiamo sapere prima di iniziare dove sono posizionate le cose e organizzare il nostro lavoro tenendolo presente
  • Andiamo in laboratorio vestiti opportunamente; duole dirlo ma la moda specie femminile non è assolutamente adatta; in alcune stagioni come quella estiva l’abbigliamento è inadatto allla frequentazione del laboratorio: i sandali aperti, le camicette che lasciano scoperta la pancia, il petto o le braccia, la mancanza di un camice, i capelli tenuti lunghi e non legati, la mancanza di occhiali di sicurezza sono elementi non secondari di certi incidenti di laboratorio. Certi elementi di vestiario poi, una volta terminato il lavoro in laboratorio devono essere tolti; con gli stessi guanti usati per manipolare polveri non ci si va a prendere il caffè alla macchinetta. E poi come ci si tolgono i guanti? Chi sa rispondere?
  • In laboratorio non si mangia nè si beve comunque; spiace dire che spesso questa regola viene infranta proprio da coloro che dovrebbero farla rispettare e spesso ciò avviene perchè i locali delle nostre università non sono adeguati, sono vecchi e non sono minimamente all’altezza della situazione. Ciò è dovuto anche alla pluridecennale operazione di compressione della spesa universitaria. Molti dipartimenti anche nuovi o situati in nuovi edifici sono stati il frutto di operazioni edilizie lunghe e complicate dove i progetti sono cambiati decine di volte e dove una notoria proprietà dei docenti universitari (è nota la similitudine dei docenti con i gas ideali che occupano TUTTI gli spazi a disposizione) ha deciso le divisioni degli spazi più della logica della sicurezza. Nel vostro Dipartimento c’è un locale per mangiare qualcosa o prendere il caffè?Lab-safety
  • Nonostante faccia parte della tradizione dei chimici, assaggiare o annusare i prodotti non è una buona pratica! Alcune sostanze sono pericolose anche a basse concentrazioni e toccarle o annusarle le fa venire in contatto con le nostre mucose corporee. Questa pratica viene spesso rinverdita dai colleghi o studenti che provengono da paesi in via di sviluppo dove le buone pratiche possono essere meno presenti che da noi.
  • Una nota dolentissima: i rifiuti di laboratorio! Come smaltire le piccole quantità dei numerosissimi prodotti usati nei nostri laboratori? Qua può aiutare l’apporto dei tecnici e soprattutto una operazione SISTEMATICA di analisi dei rifiuti prodotti, dei quali a volte non ci si rende conto.
  • Prima o poi gli incidenti avvengono, o almeno è possibile che avvengano; siamo preparati alle evenienze possibili? Cosa faremmo se avvenissero? Una esplosione, un incendio, una fuga di gas? Siamo preparati? Cosa fare se uno studente si versa addosso un acido forte? Effettuare dei test pratici di sicurezza o delle simulazioni è utile.
  • Ed infine non portate fuori dal laboratorio le sostanze che usate perchè all’esterno non ci sono gli stessi meccanismi di sicurezza che ci sono all’interno.
  • PS Mi ero dimenticato: i vostri frigoriferi sono a norma?

simpson_safety_chemical

Ovviamente non pretendo di avere alcuna regola d’oro, solo buonsenso; inoltre occorrerebbe che TUTTI noi docenti, studenti, tecnici fossimo adeguatamente FORMATI! Ossia che avessimo seguito PRIMA di entrare in laboratorio un più o meno breve corso relativo alla sicurezza come d’altronde recita la legge 81 e come richiedono oggi tutte le imprese che assumono i nostri laureati o dottori di ricerca. Sarebbe il caso di mettere dei crediti di questo tipo in OGNI carriera universitaria di tipo tecnico-scientifico.

Lo sanno i direttori di Dipartimento di essere dirigenti (e spesso anche preposti)? Lo sa il Rettore che è datore di lavoro? Lo sapete voi di essere preposti dei vostri studenti in laboratorio? Lo sanno gli studenti che sono “lavoratori” quando entrano in laboratorio? E sapete quali sono le conseguenze anche legali (penali e civili) oltre che etiche della trascuratezza? Dimenticavo oltre la legge 81 la legge 125/2001 contro l’abuso di alcool che stabilisce che i docenti universitari non possono bere nell’esercizio della professione (e nemmeno gli studenti); e allora come la mettiamo con quei bar o mense che servono alcoolici DENTRO le strutture universitarie (da me ce ne sono)?

Ci sono di sicuro altre cose da ricordare e sottolineare; spero che gli interventi su questo post siano numerosi.

 per approfondire:

http://www.chimica.unibo.it/it/risorse/files/lezione-sulla-sicurezza-nel-laboratorio-chimico

Bufale energetiche, truffe italiche e fregature “cosmiche”.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

L’amico e collega Gianni Comoretto, astronomo in Arcetri, ci racconta un paio di storie degne di essere conosciute sul suo blog (http://giannicomoretto.blogspot.it/2015/05/ho-sbagliato-mestiere.html)

Di che si tratta? Cominciamo dalla bufala energetica.

Se cercate su internet troverete un numeroso gruppo di venditori (ce ne sono almeno tre o quattro al momento con nomi e marchi diversi) di un “riduttore di consumi intelligente”, un gentile apparecchietto dalle dimensioni di un comune alimentatore da cellulare o da computer e dal costo di 130 euro che promette di ridurre i vostri consumi elettrici fino al 35%.

Non si sa bene come funzioni, ma i vari siti non lesinano le promesse.

Ve ne proponiamo un assaggio:

bufala1

altre volte le obnubilanti promesse vengono tradotte in italiano, ma la sostanza è la medesima; la questione energetica è talmente al centro della nostra attenzione che siamo molto suscettibili alla bufala.

Non esistono modi di “migliorare il voltaggio”, “ridurre i picchi di voltaggio”, ossia stabilizzare la tensione che non passino attraverso un robusto (e costoso) impianto di stabilizzazione; ci sono altri aspetti coperti dai cosiddetti rifasatori, ossia apparecchi che riducono il cosiddetto fattore cosφ, che dipende dall’uso di dispositivi come i motori elettrici che funzionano grazie al fenomeno dell’induzione magnetica, (in sostanza che introducono un ritardo nel flusso della corrente) ma anche in quel caso un rifasatore, che tra l’altro è d’obbligo quando l’effetto è marcato, ha un costo notevole e soprattutto è una applicazione trasparente dei principi dell’elettromagnetismo.

D’altronde se fosse possibile ridurre del 35% i consumi agendo sui parametri invocati dalla pubblicità menzognera, sapete quante aziende sarebbero interessate? Invece guardacaso i venditori di questi apparecchi miracolosi non si rivolgono ai consumatori principali di energia elettrica, ossia a coloro che usano motori elettrici (che come abbiamo detto altrove sono i principali utenti dell’energia elettrica in Italia (https://ilblogdellasci.wordpress.com/2014/08/21/noterelle-sullenergia-elettrica-parte-4/), ma limitano il loro mercato a consumatori sotto i 12kW; probabilmente perchè chi consuma di più ha anche conoscenze tecniche personali o dei suoi tecnici in grado di reagire velocemente a promesse del genere con il gesto dell’ombrello! In effetti sui siti i riferimenti alle aziende ci sono solo per convolgere altre aziende nella vendita, non nell’uso del prodotto.

Questi “risparmiatori intelligenti” sono delle grandi bufale e la cosa che mi stupisce è che possano vantarsi di brevetti europei e di dichiarazioni ministeriali sulla loro sicurezza senza che ci sia un controllo sociale e giuridico sulle false promesse che fanno ai consumatori.

Siamo un paese in cui la bufala è di casa d’altronde, specie se condita di lingua inglese; basti pensare a cose come quelle segnalate da Altroconsumo sui carburanti:

http://www.altroconsumo.it/auto-e-moto/automobili/news/prodotti-che-promettono-risparmi-di-carburante

qui la truffa è basata sull’ignoranza della chimica e della biologia (i magneti spacciati per antibatteri) così come nel caso del “riduttore intelligente” è basata su quella della fisica, ma tant’è questo non è il paese con la minore percentuale di laureati d’Europa e dove un ministro della ricerca, famosa per la riforma della scuola e dell’Università ha creduto che si potesse scavare un tunnel di 700 km (fra l’altro con pochi milioni di euro) per scopi scientifici e siede ancora in Parlamento come vicecapogruppo di uno dei partiti maggiori?

(http://www.repubblica.it/scuola/2011/09/24/news/gaffe_gelmini-22159174/)

In passato abbiamo avuto il famoso “tubo Tucker”, una catena di S. Antonio di venditori di un altro oggetto parente di questi ma per il quale come per questi lo scopo essenziale era oltre che vendere qualcosa a piccoli consumatori disattenti o sprovveduti soprattutto coinvolgere venditori entusiasti anche con mezzi coercitivi, pensate un po’.

http://messaggeroveneto.gelocal.it/udine/cronaca/2014/01/11/news/tubi-tucker-maxitruffa-e-nessuno-paga-1.8448051

La ditta produttrice dei tubi Tucker è riuscita persino ad avere uno scarico IVA di milioni di euro, ma non ha ripagato i truffati.

bufala2

Come funzionano queste truffe il cui lato più importante è quello nascosto, la truffa verso i rivenditori è spiegato qui (http://www.piramidedoro.it/pagine/tucker.htm).

Il post di Comoretto si conclude con l’altra faccia del problema culturale italiano; il caso del progetto SKA (Square Kilometer Array).

Siamo il paese dove una martellante iniziativa giornalistica (che ha visto in prima fila alcune firme “accademiche” del Corrierone) e politica ha dipinto l’Università come il regno dei baroni ignoranti e ha supportato una iniziativa fantasmagorica e costosa di abilitazione nazionale a cui ora non può dare seguito se non in minima parte visti i colossali tagli di bilancio cui i vari governi hanno sottoposto Scuola e Università PUBBLICHE (quelle private stanno ancora sghignazzando dato che hanno avuto incrementi).

Ora lungi da me difendere i gattopardeschi baroni (che dove esistono sono ben seduti sullo scranno del “settore disciplinare”, una istituzione tutta italica che ha diviso la cultura universitaria in poco meno di 400 loculi a proprietà limitata e che non è stata modificata seriamente da alcuna riforma) ma mi aspetterei che almeno poi i governi fossero coerenti nel difendere la visione efficientistica e meritocratica della scienza.

Invece cosa accade?

Progetto SKA; perfino Nature si indigna (http://www.arcetri.astro.it/~sperello/Nature12mar15.pdf) .

bufala3

In effetti siamo un paese dove si fa ancora ottima scienza e di punta anche e abbiamo partecipato alla gara per scegliere la base operativa del progetto SKA, ossia un radiotelescopio da un chilometro quadrato che costituirà uno dei nostri occhi futuri sull’universo; la sede di Padova se l’è vista due volte con la proposta inglese di lasciare tutto a Jodrell Bank e per due volte l’ha sconfitta nelle sedi internazionali; ma il primo ministro inglese attuale, il conservatore Cameron, ha esercitato una pressione politica enorme ed è riuscito a spuntarla su tutte le raccomandazioni di efficienza e di qualità sortite dalle commissioni puramente tecnico-scientifiche; la base operativa resterà in Inghilterra a scorno di tutte le considerazioni di efficienza e qualità che valgono solo per i fessi.

Il presidente della cultura “umanista” e la sua ministra dell’Università incassano una cocente sconfitta di cui fra l’altro non fanno mai menzione pubblica.

https://www.skatelescope.org/news/decision-on-ska-headquarters/

Forse ha ragione Gianni Comoretto, abbiamo sbagliato mestiere, e questo è un paese per furbi ed ignoranti dove la scienza nonostante le tradizioni fa fatica.

Ma noi non ci arrendiamo!

Trattamento e recupero dei fanghi di depurazione

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Il trattamento dei fanghi residui dal trattamento di depurazione delle acque reflue è dal punto di vista organizzativo, tecnico, e di pianificazione quello che più impegna da decenni tecnici ed operatori del settore.

Gli inquinanti che vengono rimossi dai trattamenti depurativi si concentrano nei fanghi. Negli impianti di depurazione municipali o negli impianti di trattamento delle aziende il corretto trattamento dei fanghi rappresenta la soluzione a due problemi.

Uno economico e l’altro ambientale.

fangidepurazione

Cioè rendere il fango idoneo ad uno smaltimento finale ad un costo il più possibile contenuto e nel contempo non provocare problemi di carattere sanitario o di inquinamento. I nuovi limiti più restrittivi imposti dalle norme europee (direttiva comunitaria 91/271/EEC) hanno fatto crescere la quantità dei fanghi prodotti dagli impianti a seguito del miglioramento e potenziamento degli impianti esistenti e alla realizzazione di nuovi.

Attualmente la produzione di fanghi nell’unione europea ammonta a circa 10 milioni di tonnellate di sostanza secca. L’Italia ne produce circa un milione di tonnellate.

La regione Lombardia produce circa 800.000 tonnellate di fanghi di depurazione tal quali ( 120.000 tonnellate di sostanza secca). Il 50% proviene da impianti di trattamento da impianti di depurazione municipali. Il 30% da impianti di trattamento di acque industriali, ed il restante 20% da impianti dell’industria agroalimentare.

La regione Lombardia ha emanato un deliberazione risalente al Luglio 2014 (deliberazione X/2031 01/07/2014) nella quale consente ancora l’utilizzo dei fanghi di depurazione in agricoltura, riservandosi di introdurre nuovi criteri sulla qualità dei fanghi da destinare al riutilizzo in agricoltura se dovessero essere emanate modifiche alla normativa statale vigente.

Nel contempo rivestono sempre maggior interesse le tecniche applicabili agli impianti di trattamento che hanno lo scopo di ridurne la produzione.

 Desiccation-cracks_hg

Per quanto riguarda lo smaltimento dei fanghi per il riutilizzo in agricoltura sono da considerare con molta attenzione i valori limite per i metalli pesanti e le caratteristiche agronomiche dei fanghi. In particolare la composizione in carbonio organico, fosforo, azoto totale.

Queste le concentrazioni ammesse per i metalli nella deliberazione della Regione Lombardia

Metalli pesanti

Cadmio (Cd) mg/kg ss ≤ 22

Rame (Cu) mg/kg ss ≤ 1200

Nichel (Ni) mg/kg ss ≤ 330

Piombo (Pb) mg/kg ss ≤ 900

Zinco (Zn) mg/kg ss ≤ 3000

Cromo (Crtot) mg/kg ss ≤ 900

Mercurio (Hg) mg/kg ss ≤ 11

Nutrienti

Carbonio organico % SS > 10

Azoto totale % SS > 1,0

220px-ImhoffGlas

L’utilizzo in agricoltura può essere una soluzione al progressivo impoverimento dell’humus dei terreni dovuta all’umidità e al riscaldamento. I fanghi non devono contenere sostanze persistenti e bioaccumulabili, e rimane comunque aperto il problema dei microinquinanti organici e degli inquinanti emergenti, tema che riguarda anche le acque reflue. Le analisi da effettuare per i microinquinanti organici sono quelle per la determinazione degli IPA;PCB;PCDD/F*. Queste analisi sono effettuate in fase di ammissibilità annuale per impianti di depurazione con potenzialità superiore ai 100.000 abitanti equivalenti. Questi i limiti ammessi

IPA mg/kg ss < 6

PCB mg/kg ss < 0,8

PCDD/F ng TEQ/kg ss < 50

I fanghi che possono essere ritirati sono di provenienza molto varia, per quanto riguarda quelli derivanti da processi di lavorazione dell’industria. Spaziano dall’industria alimentare fino alla produzione di grassi saponi e detergenti, che devono comunque rispettare i limiti precedenti.

I trattamenti di stabilizzazione e di igienizzazione consistono in digestione anaerobica mesofila a 35°C o termofila a 55° C con tempi di ritenzione minimi di trenta e venti giorni rispettivamente.

Anche la stabilizzazione aerobica prevede un tempo di ritenzione di venti giorni.

Altri trattamenti da che si effettuano sono la stabilizzazione con ossido di calcio e, se necessario, con acqua. Al termine dell’addizione del reagente, il fango è ammassato in apposita area per l’ultimazione del processo, conseguendo, contemporaneamente, un’adeguata igienizzazione. Durante tale periodo (qualche ora) si instaurano delle reazioni esotermiche che portano la temperatura della massa di fanghi fino a circa 50°-70° C. Terminata tale fase il fango ha raggiunto un pH alcalino almeno pari a 12.

Nel trattamento con ammoniaca Il fango, scaricato nell’area di messa in riserva, è immesso in apposito reattore/vasca chiusa in cui avviene il trattamento con il dosaggio di ammoniaca o soluzioni contenenti ammoniaca. Durante tale fase avviene un leggero innalzamento di pH ed un arricchimento di azoto. Il risultato è un fango igienizzato. Il processo avviene in ambiente liquido e pertanto è necessario che i fanghi miscelati raggiungano percentuali di sostanza secca con valori di circa 8 – 12%. In alcuni casi, per garantire condizioni di fluidità della miscela di fanghi, è aggiunta acqua.

Sono ammessi anche processi di trattamento termico (ad esempio trattamento termico del fango liquido per un minimo di 30 min a 70 °C) eventualmente combinati con processi di digestione anaerobica. Tali processi assicurano l’igienizzazione del fango.

Per ottenere un fango di maggiore qualità sarebbe consigliabile un trattamento ulteriore di compostaggio per migliorare la qualità agronomica.

I fanghi che non sono idonei al recupero agricolo possono essere destinati a trattamenti quali:

Co-Combustione dei fanghi tal quali (o previa disidratazione) presso inceneritori di rifiuti urbani, combustione presso inceneritori “dedicati” (previo essiccamento termico o disidratazione meccanica “spinta” per raggiungere la percentuale di secco sufficiente all’autonomia termica): una tipologia indicata di combustione appare in questo caso quella a “letto fluido”, utilizzo quale combustibile presso cementifici previa essicazione termica, combustione con produzione di vapore e produzione di energia utilizzabile per l’impianto, gassificazione, pirolisi, termocatalisi, etc.

Schema_ARA_grande

TRATTAMENTI DI MINIMIZZAZIONE DELLA PRODUZIONE

Sono trattamenti che si possono effettuare sia nella linea acque, che nella linea fanghi.   Le tecniche innovative applicabili sulla linea acque possono essere di tipo biologico (idrolisi enzimatica, trattamento alternato ossidazione aerobico-anaerobico) e quelli chimici (ozonolisi e termochimico). Sono trattamenti più “rischiosi” che richiedono un controllo molto attento della gestione.

Più sicuri quelli sulla linea fanghi (idrolisi termica nella fase di digestione anaerobica), ultrasuoni, digestione anaerobica termofila. Quest’ultima risulterebbe molto agevolata dalla codigestione di residui di lavorazione agricoli e industriali quali scarti della produzione lattiero casearia o frazione umida dei rifiuti solidi negli esistenti digestori anaerobici degli impianti municipali e consortili.

Vediamo alcuni di questi trattamenti:

Idrolisi termica: Solubilizzazione del fango ⇒ miglioramento delle rese di digestione anaerobica ⇒incremento della produzione di biogas.

Consiste nella scissione delle cellule e delle lunghe catene di molecole in presenza di acqua grazie all’applicazione di calore (termica) e/o di un reattivo che ne altera il pH. I vantaggi di questo trattamento nella minor produzione di fango, nella maggior produzione di biogas, e nella migliore igienizzazione del fango.

Ultrasuoni: Utilizzo di ultrasuoni (onde sonore con frequenza 20 ÷ 40 KHz) per il trattamento di fanghi (primari e secondari) che generano pulsazioni all’interno della massa di fango costituita da bolle o cavità; queste bolle o cavità aumentano di diametro fino a raggiungere uno stato critico, in corrispondenza del quale implodono

Il risultato finale è la distruzione delle strutture solide contenute nel fanghi. Si incrementa il COD rapidamente biodegradabile o rapidamente idrolizzabile a spese dei solidi sospesi.

Questo tipo di trattamento migliora la successiva disidratabilità del fango riducendo il consumo di polielettrolita organico. Lo svantaggio consiste nell’elevato consumo energetico.

http://www.isprambiente.gov.it/it/pubblicazioni/manuali-e-linee-guida/digestione-anaerobica-della-frazione-organica-dei

http://www.isprambiente.gov.it/it/pubblicazioni/rapporti/l2019ottimizzazione-del-servizio-di-depurazione

L’energia.4. Statistiche energetiche.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Benito Leoci

La prima, la seconda e la terza parte del presente post sono state pubblicate qui, qui e qui.

In questi ultimi decenni il ricorso alle statistiche energetiche è andato continuamente crescendo. La conoscenza dei consumi e della produzione di energia di una data regione o di un certo Paese viene considerato un utile indicatore ai fini della programmazione economica e del livello di sviluppo (1). In questi studi l’energia viene espressa normalmente con uno dei seguenti sistemi:

  • come quantità fisiche ovvero come tonnellate di carbone, di petrolio o come m3 se si tratta di gas naturale. Un esempio è dato dalle statistiche dell’OECD;
  • come energia primaria (per esempio come carbone considerato alla miniera o petrolio presso il pozzo di estrazione, ecc.) espressa come unità di misura energetica. Un esempio è dato da alcune statistiche redatte in Gran Bretagna;
  • come combustibile considerato presso l’impianto termoelettrico, sempre espresso in unità di misura energetiche. Un esempio è dato dalle statistiche delle Nazioni Unite;
  • come costi potenziali espressi in unità di misura energetiche. Tale è il caso degli impianti nucleari o idroelettrici, in cui il valore attribuito all’energia, viene espresso in termini di combustibile fossile che sarebbe stato utilizzato presso una centrale termoelettrica per produrre la stessa quantità di elettricità.

statistiche2Per quanto riguarda i combustibili spesso si fa riferimento al potere calorifico superiore (come in Gran Bretagna) altre volte a quello inferiore (nella UE e in Italia). In altre occasioni non viene precisato quale dei due è stato usato. In molti casi si usano, per il confronti di vari tipi combustibili o per sommare le quantità di calore prodotto dai diversi combustibili o per altri fini statistici, opportuni coefficienti di equivalenza. Per esempio una unità di elettricità termica (1 kWh o diverse altre quantità) sarebbe equivalente alla quantità di petrolio o di carbone necessaria per produrre detta unità. Si utilizzano cioè le tonnellate equivalenti di carbone (tec o tce) o le tonnellate equivalenti di petrolio (tpe o tep) che possono quindi essere considerate unità di misura di energia molto più intuitive e maneggevoli dello joule (o della vecchia caloria). Il valore è però fissato convenzionalmente, dato che le diverse varietà di petrolio o di carbone posseggono diversi poteri calorifici. Passando alle tce o tpe si introduce nei calcoli sempre un certo errore. Le convenzioni attualmente in uso sono più di una. I coefficienti utilizzati nella UE sono i seguenti:

1 tce = 7.000 kcal/kg =29,3 GJ;

1 tpe = 10.000 kcal/kg = 41,9 GJ;

1 tpe = 1,43 tce.

headIn Italia si utilizzano sia i suddetti coefficienti che, in determinate circostanze, altri valori. Per esempio il Ministero delle Attività Produttive con due diversi decreti ministeriali (dello stesso DM 20.07.2004) (2), ha fissato il seguente fattore di conversione: 1 tep = 41,860 GJ. Il terzo comma dell’art. 2 dello stesso decreto ricorda inoltre che “La conversione dei kWh in tep viene effettuata utilizzando l’equivalenza 1 kWh = 0,22×103 tep per il primo anno di applicazione del decreto. Il fattore di conversione dei kWh in tep può essere aggiornato dall’Autorità per l’energia elettrica e il gas sulla base dei miglioramenti di efficienza conseguibili nelle tecnologie di generazione termoelettrica al fine di promuovere l’efficienza e la concorrenza”. Si prevedono dunque coefficienti variabili nel tempo.

In Gran Bretagna, in alcuni casi, si fa ancora riferimento alla tonnellata imperiale (pari a 1,018 t metriche), anche se da tempo è stato introdotto il sistema SI delle unità di misura. I coefficienti adottati sono:

1 tce = 6.426 kcal/kg =26,9 GJ;

1 tpe = 10.000 kcal/kg = 41,868 GJ;

1 tpe = 3,9683 BTU

1 tpe = 11.630 kWh

Nelle statistiche dell’ONU:

1 tce = 7.000 kcal/kg =29,397 GJ;

1 tpe = 10.182 kcal/kg = 42,622 GJ;

statistiche3Ma vi sono altri fattori di conversione da considerare. La conversione in tce o tpe dell’energia idroelettrica (al netto dei pompaggi), della geotermoelettrica e del saldo degli scambi con l’estero è normalmente effettuata sulla base di un consumo specifico medio lordo convenzionale delle centrali termoelettriche tradizionali pari a 2.200 kcal/kWh. Nel caso di centrali idroelettriche, nelle condizioni di massima efficienza ovvero con rendimento del 100%, un milione di kWh prodotte corrisponderebbero a 3,6 TJ e cioè a 123 tce o 86 tpe. Nel caso di produzione di energia elettrica dal nucleare (rendimento del 33%) e dal geotermico (rendimento del 10%) si assume che un milione di kWh prodotte corrispondono rispettivamente 10,91 e 36 TJ equivalenti, a loro volta pari a 372 e 1.228 tce o 261 e 860 tpe. Si tratta di dati da prendere con le pinze in quanto le condizioni ipotizzate sono estremamente influenzate da una lunga serie di fattori quali le tecnologie impiegate (tipo di impianti, condizioni di impiego, ecc.), le caratteristiche di funzionamento (rendimento), le manutenzioni, e così via. Le centrali nucleari, in particolare, presentano rendimenti fortemente dipendenti dal tipo di barre di “combustibile” utilizzate, la cui preparazione richiede quantitativi di energia molto differenti. Utilizzare i valori medi di queste variabili porta certamente a risultati poco affidabili.

Anche i rendimenti dei tradizionali impianti termoelettrici sono soggetti a una lunga serie di fattori non molto dissimili da quelli su ricordati. Basti pensare alle caratteristiche di una centrale monocombustibile o policombustibile o turbogas, ai sistemi di depurazione degli effluenti utilizzati, per convenire sulla scarsa affidabilità dei coefficienti utilizzati.

Ma anche gli estensori delle tabelle riportanti consumi, produzioni, scambi, ecc, di energia, ce la mettono di loro, per accrescere le incertezze e i dubbi. Se si esaminano le tabelle riportate dalla Confindustria energia (Statistiche economiche, energetiche e ambientali – I dati dell’energia), si può notare che fra le varie avvertenze (per esempio, dei Consumi per fonte) si avverte che “la trasformazione in tep del gas naturale dal 2007 si usa il PC uguale a 8.190. Fino al 2006 era uguale a 8.250”. Non si sa se il dato è riferito al PC inferiore o superiore, né sono indicate le unità di misura (8.190 o 8.250: sono kcal/m3?). Per quanto attiene le tabelle relative al gas naturale si avverte che fino al 1994 si usavano i “mc fisici”, mentre dal 1995 si fa riferimento al valore di 38,1 MJ: cosa sono questi mc fisici, forse si riferiscono alle condizioni normali? In altre tabelle si indicano i “mc standard”. Potremmo continuare a lungo.

Come si vede si tratta di un autentico guazzabuglio, con risultati talmente incerti da far ritenere poco indicativi i conseguenti confronti delle produzioni di energia fra i diversi Paesi o fra anni diversi e persino poco affidabili i Piani energetici (quinquennali, decennali, ecc.), utilizzati per programmare i fabbisogni e le disponibilità delle varie forme di energia nel tempo.

energia4

Bibliografia

  • Il ricorso ai consumi di energia, spesso indicati come quantità di energia usata pro-capite (kg), è stato considerato essere più affidabile del PIL per misurare il livello di sviluppo economico di una nazione. Il suggerimento di utilizzare questo indice viene attribuito agli studi di Kraft and Kraft, i quali rilevarono l’esistenza di una forte correlazione fra l’andamento del PIL e quello dei consumi di energia negli USA, nel periodo 1947-1974 (J. Kraft and A.Kraft (1978). “On the relationship between energy and GNP”, Journal of Energy Development, 3 (2): 401-403). Sebbene altri studiosi confermarono la validità dell’indice, negli anni ’80 del secolo scorso numerosi altri studi (fra i quail quelli di U.Erol and E.S.H.Yu (1987), “Time series analysis of the causal relationships between US energy and Employment”, Resources Energy, 9: 75-89; E.S.H.Yu and J.Y.Choi (1985), “The causal relationship between energy and GNP: an International comparison”, Journal of Energy Development, 10(2): 249-272; E.S.H.Yu and B.K.Hwang (1984), “The relationship between energy and GNP: further results”, Energy Economics, 6(3), 186-190) indicavano invece l’inesistenza di qualsiasi correlazione fra l’andamento del consumo di energia e l’andamento economico. Alcuni studiosi (Y.U.Glasure and A.R.Lee (1997), “Cointegration, error-correction, and the relationship between GDP and energy: the case of South Korea and Singapore”, Resource and Energy Economics, 20(1): 17-25) evidenziavano poi che uno dei motivi responsabili di detti risultati contrastanti risiedeva nei test utilizzati per gli studi (test di C.W.J.Granger (1969), “Investigating causal relations by econometric models and cross spectral methods”, Econometrica, 37: 424-438; di C.A.Sims (1972), “Money, income and causality”, The American Economic Review: 62(4.): 540-552) e dipendeva anche dalle politiche perseguite dallo Stato sotto osservazione (politiche di risparmio energetico, per l’occupazione, ecc.). L’uso del consumo di energia per rilevare il livello di sviluppo economico di una nazione, merita dunque ulteriori approfondimenti e studi, in quanto il PIL, per altri motivi, si rivela poco attendibile.
  • Ministero delle Attività Produttive, Decreto 20 luglio 2004, Nuova individuazione degli obiettivi quantitativi per l’incremento dell’efficienza energetica negli usi finali di energia, ai sensi dell’art. 9, comma 1, del decreto legislativo 16 marzo 1999, n. 79; Decreto 20 luglio 2004, Nuova individuazione degli obiettivi quantitativi nazionali di risparmio energetico e sviluppo delle fonti rinnovabili, di cui all’art. 16, comma 4, del decreto legislativo 23 maggio 2000, n. 164 (G.U. n. 205 del 1/9/2004).

Il nuovo laboratorio.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella

I prodotti del mercato per il laboratorio giuocano un ruolo chiave nell’avanzamento della ricerca assicurando competitività al “business” moderno ed agevolando la risposta alla crescente domanda per una sempre maggiore protezione della salute. La domanda ai costruttori di strumenti scientifici da parte dei loro clienti ha comportato una drammatica rivoluzione nell’industria durante gli ultimi dieci anni, ma soltanto una piccola parte di quelle domande ha trovato soddisfazione.

Alcuni orientamenti si sono sviluppati prima, altri sono recentissimi. Una delle richieste più mature è quella per strumenti facili da usare anche da parte di non esperti, soprattutto nel campo delle discipline delle scienze della vita, dove è necessario procedere con un approccio sperimentale multidisciplinare, rendendo praticamente impossibile alla stessa persona di divenire esperta di molte diverse apparecchiature. Se alla semplicità si accoppiano robustezza,bassi costi e comportamento brillante, l’opportunità di occupare fette significative del mercato diviene reale. In questo senso risultati di rilievo sono stati ottenuti nello studio della configurazione infrarosso di prodotti farmaceutici e nell’analisi di grassi e di contenuti di umidità; si accoppiano in questo caso la risonanza magnetica nucleare con le tecnologie di essiccazione e pacchetti di software molto finalizzati. Anche la spettrometria di massa fornisce una linea di prodotti di successo, tanto che la produzione in questo campo è in continua crescita, talvolta corredata di miglioramenti di grande potenzialità, come nuovi metodi di ionizzazione, tal’altra come detector cromatografici, sfruttando la potenzialità di pacchetti di software di facile uso.

 bilancia1

nuovabilanciaSono passati i tempi nei quali le più grandi compagnie di strumentazione scientifica pensavano di potere fornire una completa gamma di prodotti e servizi per il laboratorio analitico.In effetti questa linea che prevaleva negli anni 80 era controproducente. Dal momento che nessun laboratorio era preparato a servirsi di un solo fornitore, pressochè tutti i laboratori possedevano strumentazione di marche diverse. Ciascuna aveva i suoi format illustrativi, qualcuna attrezzò proprie work station informatiche, ma il tutto si esaurì assai rapidamente. Negli anni 90 il personal computer fornì alcune standardizzazioni molto richieste, forzando le industrie verso questi standard. Oggi sono i parteneriati fra ditte diverse che aggiungono valore alle singole produzioni.Questo è particolarmente vero nel settore del Software dove non c’è né voglia né tempo di reinventare la ruota.

E’ molto cresciuta la variabilità dei prezzi tanto che si può sostenere la tesi di prezzi più alti o prezzi più bassi che mai. Idealmente ad un estremo troviamo gli spettrometri NMR 900 MHZ che costano fino a 8 milioni, all’altro cromatografi e spettroscopi di nuova generazione prodotti a costi veramente bassi.

Il mercato nel settore delle scienze della vita sta certamente attirando una crescente attenzione da parte dei produttori di apparecchi scientifici. Molte ditte si sono avvicinate a questo settore modificando le proprie priorità strategiche.E’ anche passato il tempo delle produzioni capaci di tirare per 2-3 anni ed anche più. Oggi il tempo massimo di sviluppo di una produzione di laboratorio è intorno all’anno per gli strumenti maggiori, spesso anche meno. C’è inoltre stata una rivoluzione dal punto di vista delle tecniche costruttive:oggi poche compagnie producono in proprio tutti i componenti. Negli anni 80 le compagnie più grandi erano use dichiarare con orgoglio che ogni pezzo della propria produzione era fatto in casa. Con i componenti oggi messi a disposizione da altre aziende l’operazione più significativa diviene la scelta delle compatibilità, l’assemblaggio,la verifica del prodotto allestito. Questa trasformazione in genere accelera i tempi di consegna. Inoltre l’abilità a produrre strumenti in modo più rapido incide sui tempi di vita del prodotto stesso che si stanno riducendo e sono destinati ad accorciarsi ancora. I ricercatori sono noti per dipendere dai loro strumenti. Se devono essere convinti a cambiare i fornitori si deve introdurre nel nuovo modello qualche valore aggiunto che lo renda degno di essere preferito rispetto al modello precedente.

alambicco02

350px-Gascromatografo_con_desorbitore_termico

L’automazione particolarmente nel campo delle facilities sta cambiando la faccia del laboratorio. I laboratori ad elevata automazione sono ormai più comuni di quelli tradizionali. Una buona metà del costo di un nuovo strumento è rappresentato dal suo software. Per gli strumenti di maggiore rilievo l’investimento in software viene misurato in anni uomo. Lo strumento è ormai spesso visto come un computer con attaccati alcuni trasduttori di segnale.Ci sono molti importanti ruoli che il software svolge nella strumentazione moderna, incluso quello ovvio di controllo dello strumento,di calibrazione diagnostica,di validazione,trattamento dati ed altro ancora.

E’ crescente oggi l’importanza dell’intelligenza artificiale che viene costruita per simulare il ruolo della chimica analitica che, con sempre maggiore frequenza, non gestisce più direttamente l’apparecchiatura. Oggi il chimico analitico sta divenendo sempre più un lavoratore della conoscenza. I brillanti strumenti moderni, una volta messi a punto, non richiedono lo stesso livello di esperienza del passato. Quasi ogni ditta annuncia periodicamente nuovi software o il potenziamento di quelli adottati. Un altro nuovo orientamento in questo settore è il ritorno verso i tempi nei quali ogni istituto aveva una sola potente rete di computer che serviva tutti. Oggi la tendenza è verso computer basati su server. Le compagnie che regolano il mercato di questi servizi sono chiamate fornitori di servizi applicati (ASP). Un singolo computer è in rete a molti utilizzatori, in posizioni distanti fra loro, non nello stesso posto di lavoro, come avveniva in passato.Con la tecnologia moderna il server è di molto più facile accesso attraverso un collegamento sicuro (Internet) e le ASP garantiscono che l’infrastruttura in rete abbia sufficienti forniture da evitare il pericolo di interruzioni del servizio. Oggi i costi di acquisto,sdoganamento,aggiornamento e fornitura del software possono rappresentare la spesa più rilevante.Con il software su un singolo server soltanto uno dei computer richiede l’aggiornamento del software stesso e la validazione di questo avviene soltanto su una singola postazione. Il software che viene utilizzato solo occasionalmente non richiede di essere acquistato :si può ottenere l’accesso ad esso soltanto quando serve. Attualmente il modello ASP è più largamente sostenuto nell’area dell’economia e della formazione che in quella dei laboratori con implementazioni che forniscono servizi di posta elettronica ,uffici virtuali,servizi elaborazione dati ed altro ancora.Ci si può aspettare interesse nelle ASP ad accrescere la loro presenza nella comunità dei laboratori, in particolare nella bio-informatica, dove è presumibile che ci sarà un’ulteriore esplosione nel numero e nel genere di programmi software sul mercato.computer1

ipad

Internet è una grande risorsa per la comunità scientifica mondiale.Ciascuno lavora sullo stesso argomento, ma in laboratori distanti fra loro anche migliaia di chilometri, Internet fornisce il mezzo ideale di comunicazione per lo scambio di informazioni e di dati.

A dispetto del collasso registrato negli anni passai da alcune imprese il commercio eletttronico ha ancora un suo mercato significativo anche se la filosofia è cambiata:da commercio elettronico ad utilities elettroniche. Chiaramente il modello aggregatore adottato non era quello giusto e l’accettazione da parte dell’utenza è stato troppo lento per garantire gli affari e prevenire la caduta che invece,come si è detto, c’è stata. In ogni situazione molte delle case costruttrici di apparecchiature sono state riluttanti ad accettare un partner di collegamento con l’utenza. Molte delle più grandi stanno godendo di un tasso di crescita nel commercio elettronico. Ad oggi però molte di esse stanno riducendo la loro offerta on line in termini di materiale di consumo e di accessori. Il commercio elettronico nel mercato di laboratorio prospererà certamente ,ma come estensione delle operazioni di mercato delle compagnie. Ogni compagnia ha un proprio sito web ed una propria offerta di commercio elettronico.

Le acquisizioni continueranno a cambiare il paesaggio dell’industria, consolidandolo verso compagnie sempre più grandi. Comunque con un costo relativamente basso di entrata, se paragonato alle altre industrie, ogni anno un nuovo gruppo di richieste viene ad ingrossare l’esercito degli operatori di questo settore.

In questi anni la comunità economica e finanziaria sta prestando crescente attenzione all’industria della strumentazione di laboratorio:certamente la ragione di tale attenzione sta nel fatto che negli ultimi anni si   sono consolidate molte compagnie con vendite superiori al miliardo di dollari.Generalmente le compagnie con incassi al di sotto del miliardo di dollari sono al di sotto del quadro di osservazione degli analisti finanziari.

Concludendo possiamo affermare che l’industria della strumentazione scientifica è ormai fuori dalla stasi che l’ha afflitta fino a circa il 2000. Si intravedono nuove vitalità ed inventive guidate dalle esigenze dell’industria e del mercato. Dalle favorevoli opportunità di mercato c’è da aspettarsi un’eccitante nuova gamma di prodotti.

***********************************************************************************************

Riferimenti

Gerard L.E. Turner, Nineteenth-Century Scientific Instruments, Sotheby Publications, University of California Press, Berkeley and Los Angeles 1983.

Antony Turner, Early Scientific Instruments Europe 1400-1800, Sotheby’s Publications, London 1987.

Gerard L.E. Turner (a cura di), Storia delle Scienze. Gli strumenti, Vol. 1, Einaudi 1991.

William R. Shea (a cura di), Storia delle Scienze. Le Scienze Fisiche e Astronomiche, Vol. 2, Einaudi 1992

Thomas Crump, A brief history of science as seen through the development of scientific instruments, Carrol & Graf Publishers, New York 2001.

Robert Bud, Deborah Warner (editors), Instruments of Science: An Historical Encyclopedia, Garland Publishing, London & New York 1998.

[PDF]Inflazione interna e bilancia dei pagamenti – OJS

ojs.uniroma1.it/index.php/monetaecredito/article/viewFile/…/12000

di J TINBERGER – ‎2014