Corruzione e fuga.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

 Giorni fa mi chiedevo su queste pagine quando la SCI dovrebbe prendere una posizione pubblica e mi pare che adesso ce ne sia l’occasione; di che si tratta? Ve lo spiego brevemente.

Pochi giorni fa su tutti i giornali sono comparse delle dichiarazioni del dott. Cantone, magistrato, Presidente dell’Autorità Nazionale Anticorruzione nel corso della tavola rotonda sul tema “I modelli organizzativi anticorruttivi tra pubblico e privato” tenutasi a Firenze. cantoneSiamo subissati di segnalazioni su questioni universitarie, soprattutto segnalazioni sui concorsi“.

E ancora

C’è un grande collegamento, enorme, tra fuga di cervelli e corruzione“.

Sull’università “proveremo a fare linee guida ad hoc, che non vogliono burocratizzare ma provare a consentire l’esercizio della discrezionalità in una logica in cui la discrezionalità però non diventi arbitrio, in cui discrezionalità significhi dare conto ai cittadini, non solo gli studenti ma tutti i cittadini perché l’università è il nostro futuro“.

L’università dovrebbe essere l’esempio, per rilanciare il nostro Paese. Le classifiche internazionali, purtroppo, in questo senso, e se non ci premiano una delle cause sta anche in una serie di vischiosità del sistema universitario. Non concordo che le università italiane sono baracconi burocratici; ma all’estero tutti credono che lo siano, e sappiamo bene quanto conti non solo il fatto di essere ma anche di apparire. E questo apparire costituisce un danno enorme per il nostro Paese“.

Ha detto anche altre cose su un caso specifico di corruttela e criticato la legge Gelmini, ma stiamo alle prime tre.

Le sue dichiarazioni hanno suscitato discussione e polemiche. In particolare Ciro Ciliberto, presidente della UMI, l’Unione Matematica Italiana, una associazione del tipo della SCI, ha scritto una lettera aperta in cui critica fortemente queste dichiarazioni e invita Cantone a correggerle o a precisarle.

ciro-cilibertoNella stessa lettera Ciliberto dice:

chiunque può segnalare quel che vuole e ”segnalare” non vuol dire un bel nulla, forse ”denunciare” vorrebbe dire qualcosa in più. Il grave è che le viene attribuita la deduzione che, da queste non meglio precisate ”segnalazioni”,  ne derivi che la corruzione dilaghi nelle università del nostro paese, al punto che, secondo lei, ci sarebbe ”un grande collegamento, enorme, tra fuga di cervelli e corruzione”. Dunque, la fuga dei cervelli sarebbe in gran parte motivata non dalla drammatica e ampiamente documentata carenza di fondi e investimenti per la ricerca che determina un enorme calo di competitività e attrattività del nostro sistema universitario, con conseguente mancanza di opportunità di lavoro decoroso per i nostri giovani più brillanti, ma semplicemente dalla casta baronale corrotta e inefficiente.

E inoltre:

il nostro ”corrotto” sistema universitario, questi giovani brillanti li produce, e sono bravi e tanto competitivi da trovare posto nelle migliori istituzioni di ricerca straniere. Questo vuol dire che, nonostante il vero e proprio accanimento dei vari governi che si sono succeduti negli ultimi circa dieci anni, nel tagliare fondi alla ricerca, il sistema incredibilmente funziona ancora, evidentemente grazie alla competenza e qualità dei docenti. I bravi ricercatori nascono sotto i cavoli, qualcuno deve aver loro insegnato qualcosa! O no?

E ancora: Quel che risulta a me, e che ormai è chiaro ai colleghi stranieri più attenti alle nostre cose, è che la situazione della ricerca in Italia è al limite della sostenibilità per le difficoltà economiche cui ho fatto cenno ed anche per le normative che alcuni politici hanno voluto appiopparci, che anche le dichiarazioni a lei attribuite sembrano giudicare viscose, paralizzanti e talvolta umilianti. Leggo infine che lei avrebbe annunciato per l’Università ”linee guida ad hoc, che non vogliono burocratizzare, ma provare a consentire l’esercizio della discrezionalità in una logica in cui la discrezionalità però non diventi arbitrio”, regole che servano a dar conto ”a tutti i cittadini, perché l’università è il nostro futuro”. Che l’università, la scuola, la cultura, siano il nostro futuro sono in molti ad affermarlo. Peccato che nessuno ne tragga l’unica conclusione sensata, e cioè che occorre investire meglio, e soprattutto molto di più di quanto non si faccia ora, investire quanto investono i paesi con cui vogliamo confrontarci e relazionarci.

Devo dire che condivido quasi completamente la valutazione di Ciliberto; è pur vero che il nostro paese è “ben piazzato” (cioè in fondo) nelle classifiche internazionali della corruzione e perfino della libertà di stampa, ma direi che il fatto che è ultimo in Europa per investimenti nella ricerca, nella didattica e nel numero di laureati siano una base materiale almeno altrettanto potente.

Luciano di Samosata (Contro un bibliomane ignorante) diceva: Una cosa terribile è l’ignoranza, fonte senza fine dei mali umani, diffonde una nebbia sui fatti, oscura la verità, e lancia un buio sulla vita individuale. Siamo tutti pedoni nelle tenebre

e noi ripetiamo in uno dei banner del blog:” Se pensi che l’istruzione sia costosa, prova con l’ignoranza” (Derek Bok -25° presidente dell’Università di Harvard).

Il nostro paese ha preso sul serio la sfida retorica di Bok e al contrario di TUTTI gli altri paesi europei ha ridotto di miliardi il già basso investimento in istruzione e ricerca, ha ridotto in 10 anni del 20% il numero di docenti universitari, ha bloccato il ricambio generazionale di fatto almeno dal tempo di Tremonti e della legge Gelmini; vi ricordate? Il primo miliardo lo abbiamo perso con loro, i ministri del tunnel dei neutrini!

Una delle scuse di questa strategia è stata la parentopoli, dimostrata dalle omonimie e denunciata in un famoso articolo da Giavazzi ed Alesina; peccato che l’articolo sia sbagliato. I casi di potenziale parentopoli denunciabili sulla base delle omonimie non superano l’1.36% del totale dei docenti.

Ma cosa è successo dopo? Nulla di diverso purtroppo.

Faccio due esempi recenti di come la riduzione di spesa e le regole burocratiche folli ci opprimono letteralmente e questo occorre dirlo ai giovani e a tutti. E su questo per fortuna Cantone la legge Gelmini la critica, in questo direi che si poteva cogliere l’unica sollecitazione giusta della sua perorazione (a parte ovviamente la PUNIZIONE a SEGUITO di DENUNCIA non di segnalazione dei casi di corruttela).

Il primo esempio è il PRIN; PRIN significa Progetti di ricerca di interesse nazionale e i fondi non venivano erogati da ben 4 anni, dal 2012; per qualche dato più ampio potete vedere qui. Ma la cosa che mi interessa far notare è che stiamo parlando di richieste per oltre 2 miliardi di euro e fondi per soli 91 milioni di euro; 4000 progetti di cui solo 300 sono stati finanziati, il 7.5% e con importi pari al 4% del totale richiesto, in definitiva ai progetti vincenti hanno dato comunque metà in media di quanto richiesto.

La corruzione cosa c’entra con questo?

Il secondo esempio sono le regole folli; la legge dice che il dottorato non può durare meno di tre anni; da questo si dedurrebbe che il percorso di dottorato che in tutti i paesi o quasi del mondo è superiore ai tre anni possa se le esigenze di formazione o di ricerca lo impongono essere in qualche modo supportato per OLTRE tre anni; ma invece l’ultimo ritrovato della burocrazia ministeriale è che l’interpretazione autentica è che la durata sia al MASSIMO tre anni; si veda qui in particolare art.8 comma 6.

Se ne deduce che se non finisce in tre anni giusti lo studente è fregato e i soldi spesi già sono persi. Nessuno sta chiedendo allo stato di metterci i soldi ma almeno di lasciarli usare quando ci sono.

Ovviamente si possono trovare trucchi perfettamente legali, l’Italia è “la patria del diritto” ma anche dei legulei e dei trucchetti, ma non credo che Cantone dicesse questo.

O forse no, dopo tutto anche Cantone si occupa di diritto.

Voi che ne dite?

Chimicappello.

In evidenza

a cura della Redazione del Blog

Cari colleghi,
da qualche giorno questo blog ha superato il traguardo dei 500.000 contatti da quando esiste (circa 4 anni); non è un numero enorme, ma da comunque il senso dell’impegno di chi ci ha lavorato e della presenza realizzata fra il pubblico; corrisponde a meno di 1000 contatti per ciascuno in media dei post pubblicati; tuttavia dobbiamo dire che siamo solo parzialmente soddisfatti perché soprattutto la partecipazione all’attività editoriale dei soci SCI e degli iscritti agli ordini, sebbene presenti è di gran lunga inferiore alle esigenze e anche alle aspettative. Come sapete si tratta di un blog non  speculativo, ma problematico e promozionale di forme di confronto e di partecipazione, di stimolo per i più giovani.
Se considerate che fra SCI ed Ordini abbiamo circa 13.000 persone raggiungibili vi fate subito un quadro della situazione; certamente il blog può cambiare e migliorare, ma d’altra parte c’è una situazione di base che diremmo manifesta. Ed è la solo parziale disponibilità dei chimici a partecipare alla divulgazione e al dibattito sui temi di chimica e società. Abbiamo altre volte indicato in circa 100.000 il numero di laureati della nostra disciplina in Italia, di questi una piccola parte, attorno al 10% sono organizzati in associazioni di qualche tipo e di questo 10% ancora il 10% partecipa in qualche modo alla vita culturale della chimica; sono numeri che si possono ottenere dal traffico nostro ma anche dai risultati di altri blog e siti; questa rozzissima regola del 10% mostra la difficoltà ad attrarre il grande pubblico, ma prima di tutto a coinvolgere perfino noi stessi. Dove sono i chimici che lavorano nell’industria, nelle dogane, nelle struttura sanitarie pubbliche e in tutte le altre istituzioni del paese? Si facessero vivi!

Facciamo allora un appello a voi tutti ad una maggiore partecipazione in termini di contributi scritti e in termini di discussione e diffusione; l’importanza della nostra disciplina dal punto di vista applicativo e sociale non è affatto diminuita, anzi: eppure questo non sembra stimolare la discussione; in parte si tratta di una tendenza presente nella nostra vita sociale, chiudersi nel proprio guscio, in parte di una tendenza specifica che l’ambiente dei chimici italiani vive da alcuni decenni. Più collaborazione si riesce ad ottenere, più il dibattito diventa uno strumento di approfondimento e confronto. Necessario anche per contrastare alcuni vecchi difetti italiani: preoccupante tendenza all’analfabetismo di ritorno, pigrizia nella lettura e di conseguenza un proliferare di leggende e inesattezze anche su temi di interesse generale.
Cerchiamo di uscirne; i problemi delle risorse e dell’energia chiedono una maggiore applicazione di una scienza e di una chimica volte al bene comune e non all’interesse economico di pochi; senza la partecipazione democratica e massiva alle discussioni e alle decisioni in corso non è detto che le cose migliorino.
Scienza e democrazia sono legate; scienza vuol dire conoscenza e conoscenza vuol dire partecipazione, un aspetto irrinunciabile della democrazia; se la democrazia al momento è la peggior forma di governo (eccettuate tutte le altre), la scienza è oggi, più che il mero tempo di lavoro, la principale forza produttiva; al di fuori della scienza spettacolo e di una scuola pubblica solo parzialmente efficace, le due cose si legano con difficoltà, eppure una scienza senza democrazia è un mero strumento di dominio sociale e una democrazia senza scienza è tecnicamente insostenibile in un mondo di quasi 8 miliardi di persone.
Siamo chiamati a contribuire a costruire un mondo basato su produzione circolare, energie rinnovabili, equità sociale, cultura critica diffusa; la chimica ha un ruolo enorme in tutto ciò; senza di essa, senza la scienza più in generale  e senza la cosciente partecipazione di chi la applica l’obiettivo è irrealizzabile; di più l’umanità va incontro a problemi crescenti.
Il blog è solo una goccia nel mare, ma almeno a questo la redazione sa di poter contribuire e vi esorta a fare altrettanto.

Tungsteno o Wolframio: due nomi per lo stesso elemento

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

(Per questo post ho ampiamente attinto alla rubrica del Journal of Chemical Education: “Ask the Historian”: W.B. Jensen, Why Tungsten Instead of Wolfram?, J. Chem. Educ., 2008, 85, 488-489.)

Il Tungsteno, simbolo W (da wolframio, appunto) è l’elemento 74 della Tavola Periodica. E’ un metallo di transizione e, per sue proprietà metalliche (alto punto di fusione 3422°C, conducibilità elettrica 1,89 × 107 S/m, durezza 7,5) ha trovato e trova molteplici applicazioni, dagli acciai rapidi alla pesca sportiva, dalla radiologia alle pale per turbine. Ma il suo uso più conosciuto è nei filamenti per le (ormai vecchie) lampadine a incandescenza. Abbastanza noto è il libro del medico scrittore Oliver Sachs, “Zio Tungsteno” (Adelphi, 2006), con i ricordi del giovane Sachs che nell’infanzia e adolescenza si interessò moltissimo alla chimica.

zio-tungstenoVediamo una breve storia del tungsteno (wolframio) per capire l’origine dei due nomi dati a questo elemento.

Nel 1747 il chimico e mineralogista (nonché farmacista e medico) svedese Johan Gottschalk Wallerius (1709 – 1785) descrisse un nuovo minerale presente in Svezia che, a causa della sua pesantezza, chiamò tung sten, che in svedese significa “pietra pesante” (oggi: wolframite[1]).

wolframite

wolframite

tunsteno-metallo

tungsteno-metallo

Nel 1781 il chimico Carl Wilhelm Scheele[2], anch’egli svedese, riportò la scoperta di un nuovo “ossido acido” in questo minerale che, a causa di ciò, chiamò ossido tungstico acido. Due anni più tardi, i fratelli Elhuyar (Fausto e Juan José, chimici spagnoli) isolarono lo stesso ossido dalla wolframite e si accorsero subito che si trattava dello stesso composto scoperto da Scheele il quale, in conformità alla nomenclatura francese in uso all’epoca, chiamò nel 1784 il metallo contenuto nell’ossido tungsten regulus.

Tuttavia, nella successiva riforma della nomenclatura chimica del 1787, Lavoisier e collaboratori rifiutarono l’uso del termine “regulus” per nominare i nuovi metalli poichè esso non si accordava con la proposta di nomenclatura per i composti binari[3]. Di conseguenza la parola regulus fu eliminata (allo stesso modo per molibdeno e manganese) e il termine accorciato in tungstène, rendendo così il nome del metallo identico al corrispondente nome comune (tung sten) del minerale da cui sarebbe stato estratto. Robert Kerr, traduttore e divulgatore della riforma lavoisierana in Gran Bretagna, tradusse in tungsten il termine tungstène.

Sebbene anche i chimici tedeschi adottarono infine la nomenclatura riformata di Lavoisier e colleghi, preferivano spesso usare vocaboli derivati dal greco antico, ad esempio Sauerstoff invece di ossigeno, Wasserstoff invece di idrogeno[4]. La letteratura chimica tedesca e scandinava di questo periodo fu anche più strettamente affine alla letteratura mineralogica rispetto a quella inglese e francese, ciò che provocò ulteriori problemi rispetto al termine tungsteno, perchè i mineralogisti cominciarono a favorire l’alternativa wolframio per il nuovo metallo in onore del suo isolamento dal minerale wolframite. La confusione aumentò con la proposta di chiamare scheelium il metallo, in onore del suo scopritore, Scheele.

carl-wilhelm-scheeleCosì nel 1791 la versione tedesca del famoso dizionario della chimica di Macquer elencò il metallo solo alla voce “Wolfram”, mentre il dizionario tedesco Remler del 1793 riportò wolfram, tungsten e scheelium come sinonimi. In netto contrasto, dizionari chimici inglesi e francesi di questo periodo non fanno menzione di queste alternative e utilizzano solo il nome adottato da Lavoisier e dai suoi collaboratori o il suo equivalente inglese.

Entrambi i nomi tungsteno e scheelium riflettono il fatto che l’elemento in questione è stato scoperto da uno svedese e quindi vi è una certa ironia apprendendo che il grande chimico svedese Jöns Jacob Berzelius raccomandò che, almeno nella letteratura chimica nord-europea, l’elemento dovesse essere indicato con il nome wolfram. Ciò anche a causa dell’introduzione di Berzelius del nostro attuale simbolismo chimico (intorno all’anno 1814), in cui ogni elemento è rappresentato da una o due lettere del suo nome latino o latinizzato (v. link in nota 3). Al fine di distribuire più equamente i simboli su tutto l’alfabeto, Berzelius insistitè su alcune scelte “inusuali”, molte delle quali suggerite dalla sua conoscenza dettagliata della letteratura mineralogica e la sua preferenza per il latino, come natrium invece di sodio, kalium invece di potassio, tantalio invece di niobio, e naturalmente, wolframium o wolfram invece di tungsteno.

Commentando quest’ultima scelta nel suo famoso libro di testo, Berzelius sostenne:

scheelite

scheelite

Anche se alcuni chimici hanno suggerito che dovrebbe essere chiamato scheelium in onore di Scheele, non solo questo nome non si adatta bene alla lingua svedese, ma l’immortalità del nostro connazionale non richiede un tale sostegno supplementare; così la mia preferenza è andata al nome wolfram[5].

Il simbolismo di Berzelius fu rapidamente adottato dalle comunità dei chimici tedeschi e scandinavi, ma l’impatto sugli inglesi e sui francesi è stato molto più lento. In effetti, i simboli di Berzelius erano rari nei libri di testo inglesi e americani precedenti il 1840, dopodichè la discrepanza tra il nome tungsten e il simbolo W è stata considerata solo un altro caso di un nome accoppiato con un simbolo sulla base di un latino alternativo (wolframium), non diversamente dal caso del sodio, Na per natrium. I chimici francesi, forse per spirito di rivalsa su quello che i tedeschi avevano fatto in precedenza con alcuni dei nomi proposti da Lavoisier, alterando alcuni dei suoi simboli, continuarono per un certo tempo a utilizzare Az per l’azoto e ovviamente Tu per tungsteno. Tuttavia, nell’interesse dell’universalità, prevalse il simbolo W per il tungsteno, anche se francesi e inglesi conservano ancora la scelta del nome originale di Lavoisier per questo elemento.

Infine, nel 1961 la IUPAC dichiarò ammissibili entrambi i nomi.

 

[1] In realtà la wolframite non è un vero e proprio minerale ma una miscela dei minerali ferberite e hubnerite, entrambi tungstati di ferro e manganese, il primo più ricco in ferro, il secondo in manganese. La wolframite ha una composizione variabile secondo la zona di provenienza. La wolframite, insieme alla scheelite (tungstato di calcio, CaWO4), rappresentano le principali riserve di tungsteno. La wolframite deve il suo nome al mineralogista irlandese Peter Woulfe (1727-1803) che nel 1779 dedusse che il minerale doveva contenere un nuovo elemento.

[2] Carl Wilhelm Scheele (1742-1786), chimico svedese, scoprì per primo l’ossigeno (ma la scoperta è accreditata a Joseph Priestley), il molibdeno, il tungsteno, il bario e il cloro (queste scoperte furono poi attribuite ad altri, fra i quali Humphrey Davy). Scoprì gli acidi organici tartarico, ossalico, urico, lattico e citrico, come pure gli acidi fluoridrico, cianidrico e arsenico. Parlava essenzialmente in tedesco, lingua utilizzata all’epoca dai chimici e farmacisti svedesi.

[3] Sulla riforma della nomenclatura di De Morveau, Lavoisier, Bertholet e De Furcroy abbiamo parlato in un precedente post: https://ilblogdellasci.wordpress.com/2016/07/20/lorigine-della-nomenclatura-e-della-simbologia-chimica-moderna/

[4] Non mi meraviglio perché fino a quando sono stato studente, negli anni ’70, nelle etichette delle bottiglie Merck per l’acido cloridrico e l’acido nitrico c’era scritto Salzsaure e Salzspetersaure rispettivamente. Provate a vedere cosa vi suggerisce anche oggi il traduttore google a questo proposito…

[5] Il contributo di Scheele fu poi ulteriormente riconosciuto col nome scheelite dato all’altro importante minerale del tungsteno (v. nota 1).

Automazione, microfluidica e analisi chimica.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, già Presidente SCI

L’automazione rappresenta oggi nel laboratorio una via per migliorare produttività e qualità.

I chips microfluidici stanno divenendo il nuovo paradigma per l’analisi chimica in laboratorio. Nanocapillari costruiti in substrati planari usando la tecnologia del silicio si avviano a sostituire beakers e tubature per il trasporto e la manipolazione dei liquidi a livello dei sub microlitri. Diametri ridotti significano anche ridotto uso di agenti e di reagenti, migliorata qualità analitica, tempi più brevi di analisi ed accresciuto campo applicativo.

Un altro sviluppo di questi anni riguarda l’uso di microstrutture quali i micro-reattori per la sintesi chimica per applicazioni varie, dalla chimica combinatoria alla produzione industriale su vasta scala. Nanoreattori a livello del singolo enzima ( volumi inferiori agli attolitri) consentono di realizzare reazioni enzimatiche con una sola molecola di enzima nel volume di misura. La nanofluidica è perciò una tecnologia potenzialmente in grado di cambiare in modo fondamentale la nostra percezione delle scienze chimiche e della vita.

nano1Un microdispensatore è fabbricato in silicio con un trasduttore piezo elettrico. Una piccola goccia del volume di 50 picolitri è capace, attraverso operazioni multiple, di provocare un arricchimento al quale corrisponde un segnale che può essere mediato attraverso l’uso di un cromatografo liquido annesso al dispensatore. Per muovere piccole quantità di liquido dai contenitori di conservazione al reattore si può applicare il principio della goccia acustica. Una grande varietà di solventi, DNA, proteine, cellule in un volume dell’ordine dei microlitri possono essere così trasportate senza apprezzabile perdita di attività o di vitalità. Un trasduttore è accoppiato al fondo di microcapsule per produrre ultrasuoni capaci senza contatto di provocare la formazione di una goccia di soluzione o, analogamente, di volumi maggiori per lavaggi, mescolamenti, aggiunta di reattivi, risparmiando anche sui volumi da smaltire.

Il LabCD è una piattaforma microfluidica centrifuga che usa la forza centrifuga su un disco rotante per pompare o somministrare liquidi.

nano3

JN Kuo Biomed Microdevices. 2014 Aug;16(4):549-58.

Uno dei grandi vantaggi di un test deve essere quello della velocità della risposta, soprattutto in medicina. Ciò spesso provoca un contrasto fra qualità e rapidità rinunciando alla prima per la per la seconda. Ci si chiede cosa sia meglio per il paziente. In effetti molto spesso la ridotta qualità analitica non deriva dalle caratteristiche del test ma dagli operatori non usi a tecnologie tanto innovative. Il dilemma suddetto pertanto merita come prima importante risposta quella di una più attenta formazione del personale addetto e descrizione molto più accurata e dettagliata dei relativi protocolli. Ci sono peraltro approcci per ridurre gli errori: un sistema qualità appropriato per le infrastrutture, metodi di controllo del sistema accurati, implementazione delle misure, computerizzazione dei dati; finora non molto si fa in questa direzione.

Lo scattering della luce di risonanza da parte di particelle è stato applicato a molti biotest. Queste particelle colloidali, per lo più metalliche, di nano-dimensioni irradiano energia come luce dispersa a seguito di illuminazione con luce bianca. Lo scattering della luce ha proprietà che sono controllate dalla dimensione delle particelle nonché dalla loro forma e composizione e sono prevedibili secondo appropriati algoritmi. Il segnale di luce prodotto da una singola particella è da 104 a 106 volte maggiore del segnale ottenuto attraverso i comuni fluorofori, con in più il vantaggio di non decadere né essere estinti. La superficie delle particelle può essere derivatizzata con differenti biomolecole che possono poi, legandosi con molecole bersaglio, produrre effetti specifici. Gli oggetti biologici vengono intrappolati mediante un metodo elettroforetico usando costrizioni geometriche fatte di materiali fabbricati mediante processi litografici. La costrizione è necessaria per costringere il campo elettrico in una soluzione conduttrice, come tamponi di forza ionica, cosi’ creando un gradiente di alto campo con un massimo locale. Cellule di batterio possono essere intrappolate e separate in flusso da cellule di sangue.

Il nanospray ( lo spray caratterizzato cioè da flussi molto bassi rispetto ai valori convenzionali) è tecnica poco robusta e poco riproducibile. Molto di questo comportamento risulta come una conseguenza dell’elevato numero di “spray modes” possibili a basse velocità. Quando queste tecnica è accoppiata alla cromatografia a gradiente la stabilità risulta in ogni caso complicata dalla variazione della tensione superficiale, della viscosità e della conducibilità della fase mobile. Piuttosto che usare la corrente ionica come monitor delle prestazioni dello spray vengono monitorate la geometria del cono, il getto e la coda ortogonalmente allo spettrometro di massa.nano2

Quelli descritti sono alcuni dei moderni sviluppi dell’analisi automatica dei quali quella finalizzata al controllo ambientale comincia a raccogliere i frutti in termini di prestazioni e di sofisticazioni strumentali.

Riferimenti:

K. Mawatari et al.   Anal. Chem. 2014, 86, 4068−4077

D.G. Haywood  Anal. Chem. 2015, 87, 172−187  (si può scaricare liberamente)

JN Kuo Biomed Microdevices. 2014 Aug;16(4):549-58.

Farmaceutica, nutraceutica, elettroceutica.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe.

La parola farmaceutica viene dal greco, probabilmente ha radici egiziane; è la scienza dell’uso del farmaco, parola di analoga origine che significa sia medicina che veleno, a conferma del fatto che il vecchio adagio del grande ParacelsoE’ la dose che fa il veleno” ha una tradizione millenaria; una nozione dialettica direi, nel senso hegeliano del termine, qualcosa che cambiando di quantità si trasforma nel suo opposto. Sembra un gioco di parole, ma in effetti è un risultato basilare della chimica applicata alla cura del corpo umano.

La farmaceutica tradizionale è stata uno dei maggiori successi della chimica, la pallottola magica che risolve i problemi medici, esemplificata dall’azione degli antibiotici nel risolvere la questione millenaria delle infezioni batteriche che mietevano milioni di vittime. Ma come l’uso sconsiderato degli antibiotici, sia nell’uomo che negli animali ci ha condotto ad una situazione estremamente rischiosa, per la quale oggi esistono batteri capaci di resistere a tutti i tipi di antibiotici conosciuti, così un po’ tutta l’impostazione tradizionale della pallottola magica segna il passo, perde splendore. Come abbiamo raccontato oggi si cerca di intervenire diversamente, destabilizzando la rete di contatti (Quorum Sensing )che i batteri se nocivi ed invasori stabiliscono all’interno dell’organismo umano attraverso il cosiddetto Quorum Quenching (https://ilblogdellasci.wordpress.com/2016/05/18/la-comunicazione-tra-batteri-1-parte/).

Le malattie croniche sembrano in molti casi difficilmente aggredibili in modo banale, con singoli farmaci, e contemporaneamente si è compreso il ruolo almeno in parte sia della genetica che dell’ambiente nella determinazione della malattia; il ruolo dell’inquinamento ambientale e della alimentazione nel favorire lo sviluppo dei tumori per esempio ha condotto all’idea che si può fare prevenzione o che si può perfino guarire da certi tipi di disturbi attraverso una alimentazione opportuna che elimini alcune componenti oppure che gestisca con equilibrio i diversi cibi o ancora come ci ha raccontato un recente post che introduca degli “integratori”, delle molecole che l’organismo possa sfruttare per combattere da solo gli effetti dell’invecchiamento o della degenerazione dei tessuti o dell’inquinamento. E’ il campo della nutraceutica.

Ma questa parola è a malapena entrata nel nostro vocabolario che un’altra “ceutica” fa il suo ingresso nel medesimo vocabolario, nel mercato e nella pratica clinica: la elettroceutica.

elettroceutica1Di cosa si tratta? Ne troviamo notizia nelle grandi riviste scientifiche ed una giustificazione nell’interesse che un colosso dell’industria farmaceutica GSK (che aveva fino a poco tempo fa un grande centro di ricerca in Italia, a Verona, dedicato allo sviluppo di farmaci per le terapie delle malattie nervose e mentali, poi chiuso), Google e grandi università statunitensi (come il MIT) e tedesche dimostrano sul tema, investendo massicciamente in questo nuovo settore con la convizione che entro pochi anni la medicina ne sarà rivoluzionata. Di che si tratta? Cosa è la elettroceutica?

L’idea base è relativamente antica; l’uso della corrente elettrica per guarire o uccidere ha una storia tutto sommato lunga e molte storie si potrebbero raccontare a partire dall’uso della “terapia anticonvulsivante”, volgarmente elettroshock. Nel 1870 il ricco Cornelius Vanderbilt cercava “dottori elettrici” per guarire e nelle prigioni americane la scarica elettrica è usata per i prigionieri condannati a morte (ancora una volta l’idea di Paracelso, è la dose che fa il veleno); d’altronde oggi è comune l’uso di apparecchi come il pacemaker cardiaco o il defibrillatore che usano potenziali elettrici per salvare la vita delle persone. Ma non solo: impianti neurali clinici come gli impianti cocleari per ripristinare l’udito, impianti retinici per ripristinare la vista, stimolatori del midollo spinale per alleviare il dolore o pacemaker cardiaci e defibrillatori impiantabili, non esterni, sono esempi di possibili applicazioni

Ma qui parliamo di qualcosa di ancora più sofisticato; il cervello controlla gli organi e ne riceve informazioni, c’è una rete di collegamenti sulla quale si può intervenire per ricavare informazioni, risolvere i problemi di funzionamento, in alternativa o in parallelo con l’uso di farmaci e si possono oggi individuare perfino gruppi o singole cellule ed agire in modo molto fine su di esse. Per fare questo, una volta conosciuto ed analizzato il sistema organico occorrono dispositivi impiantabili di dimensioni minime, dotati di elettrodi inerti, fissarli in loco e fornire loro energia o tramite sorgenti interne oppure tramite energia radiante inviata dall’esterno in forma elettromagnetica o acustica, compiti per cui la chimica dei materiali è una necessità.

  elettroceutica2La descrizione di questo nuovo possibile modo di aggredire i malfunzionamenti cellulari è diventata la nuova frontiera della pubblicità delle grandi case come GSK che si sono avviate su questa strada: oltre la farmaceutica.

Vi segnalo due articoli che potete approfondire, uno dell’MIT su Nature (Nature. 2013 April 11; 496(7444): 159–161) ed uno su Angewandte Chemie intitolato indovinate un pò: la Chimica dei cyborg (Angew. Chem. Int. Ed. 2013, 52, 13942 – 13957)!

 elettroceutica3Quest’ultima immagine è perfino inquietante, potrebbe prefigurare aspetti di controllo elettronico addirittura e il fatto che la DARPA, l’agenzia USA di ricerca delle forze armate, ci investa con lo scopo dichiarato di controllare la salute dei soldati sul campo non è tranquillizante; ma d’altronde la scienza ha sempre questo aspetto duplice, potere di vita E di morte (come ne “Il 27° giorno” Urania 154 di J. Mantley) in cui gli alieni invasori propongono una versione supertecnologica della pillola magica che ha letteralmente potere di vita E di morte, è sia bomba che soluzione universale dei mali, contemporaneamente.

elettroceutica4

L’elettroceutica è la nuova frontiera della medicina oppure dobbiamo averne timore?

Sta a noi controllare il tutto e questo si fa entrando in campo, facendo divulgazione, abbandonando la torre d’avorio cari colleghi chimici, dibattendo insieme sul ruolo della scienza nella società contemporanea: la scienza e la tecnologia applicate in modo socialmente coordinato sono la forza produttiva principale, il semplice tempo di lavoro o il numero di lavoratori diventano sempre meno importanti. E’ per questo che discutere e divulgare gli sviluppi scientifici e le loro implicazioni sociali è un compito ineludibile, a cui come chimici e come cittadini non possiamo sottrarci. Voi che ne dite?

 

La sostenibilità ambientale del cuoio

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Biagio Naviglio**

(l’autore è ricercatore presso la Stazione Sperimentale per l’Industria delle Pelli e delle Materie Concianti Srl – Via Poggioreale 39 – Napoli e Presidente dell’ordine dei Chimici della Campania)

cuoio1Introduzione

Le componenti fondamentali della sostenibilità devono essere intese come :

– la capacità di generare reddito e lavoro per il sostentamento della popolazione (sostenibilità economica);

– la capacità di generare condizioni di benessere umano, inteso come sicurezza sul territorio,salute e diritti civili equamente distribuiti (sostenibilità sociale) ;

– la capacità di mantenere lo stesso livello di qualità e riproducibilità delle risorse naturali (sostenibilità ambientale).

1200px-sustainable_development-svg

Le tre componenti della sostenibilità secondo una delle definizioni più comunemente accettate

Anche nel settore conciario la questione della sostenibilità ha guadagnato , negli ultimi tempi, una notevole attenzione tra i clienti del settore, i consumatori e la comunità in generale. Ciò anche perché ricerche di mercato hanno evidenziato che la maggior parte dei consumatori sostiene di essere orientata , a pari prezzo, all’acquisto di prodotti con migliori performance in termini di sostenibilità e di essere disposti a spendere di più , qualora le informazioni a riguardo siano attendibili e verificabili. Conseguentemente l’industria conciaria sta mettendo in atto tutte le strategie in grado di garantire il pieno rispetto delle diverse componenti della sostenibilità come ad esempio :

– la conformità alla normativa ambientale (scarichi idrici , rifiuti solidi , emissioni in atmosfera,ecc.);

– la valutazione del Carbon Footprint in accordo alla metodologia LCA (Life Cycle Assessment);

– l’uso delle migliori tecnologie disponibili (BAT- Best Available Technology)) per la riduzione dell’impatto ambientale;

– la conformità alla legislazione che regola la salute e sicurezza sul lavoro; il rispetto dei diritti dei lavoratori e nessun tipo di lavoro minorile;

– l’impegno nel garantire il benessere degli animali e la tracciabilità delle pelli grezze;

– la trasparenza e il “Made in” con l’impegno di comunicare l’origine della produzione del cuoio;

– la sicurezza degli articoli in cuoio e la tutela del consumatore con l’impegno del pieno rispetto della legislazione concernente le sostanze chimiche soggette a restrizioni in ambito REACH.

Struttura dell’industria conciaria italiana

L’industria conciaria italiana è tradizionalmente ed indiscutibilmente considerata leader sia a livello europeo (66% della quota sulla produzione europea) che mondiale (17 % della quota sulla produzione mondiale) ; le concerie italiane si trovano in una posizione di assoluta avanguardia anche per quanto riguarda la ricerca , le tecnologie e le strategie di mercato .

Il settore conciario italiano è tradizionalmente organizzato in quattro distretti industriali, ognuno con la propria specializzazione produttiva : Arzignano, Zermeghedo e Montebello in Veneto; S. Croce sull’Arno e Ponte a Egola in Toscana , Solofra in Campania e Turbigo e Castano Primo in Lombardia.

La principale specializzazione produttiva del polo conciario veneto riguarda la lavorazione delle pelli bovine grandi che vengono destinate ai clienti dell’imbottito (arredamento ed interni auto) , alla calzatura ed alla pelletteria.

Il distretto toscano si caratterizza per l’elevato grado di artigianalità e flessibilità delle produzioni, primariamente destinate all’alta moda; le lavorazioni riguardano soprattutto le pelli di vitello e le bovine medio-grandi, alcune delle quali utilizzate per la produzione di cuoio da suola.

In Campania , invece, esiste un polo conciario specializzato nella concia di pelli ovine e caprine per abbigliamento, calzatura e pelletteria.

Infine una significativa presenza conciaria permane in Lombardia , nell’area magentina, la cui specializzazione industriale riguarda la produzione di pelli ovicaprine destinate per l’alta moda.

Il processo produttivo conciario

Il lavoro di trasformazione delle pelli grezze in cuoio finito vanta tradizioni millenarie. La pelle è infatti da sempre uno dei materiali più diffusamente utilizzati dall’uomo per la fabbricazione di calzature, capi di abbigliamento e oggetti d’uso quotidiano di vario genere; nessun altro materiale è comparabile al cuoio per un così ampio range di applicazioni. Le inimitabili proprietà fondamentali del cuoio derivano dal fatto che esso è un biomateriale microporoso ed igroscopico con una elevata superficie interna della fibra collagenica. Queste caratteristiche permettono un adeguato controllo del flusso di calore, di umidità e di aria attraverso il cuoio e ne determinano le sue proprietà di comfort.

Il processo produttivo conciario è costituito da una serie di trattamenti chimici e meccanici che consentono la trasformazione della pelle grezza in cuoio finito; tali operazioni chimiche e meccaniche sono atte ad eliminare l’epidermide ed il tessuto sottocutaneo dal restante derma che viene convertito in cuoio. Quando la pelle è trasformata in cuoio, la sua struttura naturale è conservata ; tale struttura consiste in fasci di fibre di proteine, le proteine del collagene, che si intrecciano tra loro in maniera naturalmente tridimensionale in tutto lo spessore della pelle (figura 1)

cuoio2

Figura 1: Struttura fibrosa della pelle

Il processo produttivo a ciclo completo prevede delle fasi ad umido e delle fasi a secco. Le fasi ad umido comprendono i cosiddetti lavori di riviera (rinverdimento, calcinaio, decalcinazione-macerazione), quelli di concia propriamente detti e le operazioni di riconcia, tintura e ingrasso. Le fasi a secco riguardano alcune operazioni meccaniche e il processo di rifinizione.

In figura 2 si riporta il diagramma a blocchi di un processo produttivo conciario a ciclo completo; a partire dalla fase di ricevimento della pelle grezza in conceria fino al cuoio finito. Nel diagramma si riportano non solo le fasi relative alla concia al cromo ma anche quella previste per la produzione del cuoio suola.

cuoio3

Figura 2 : Schema del processo conciario

I problemi ambientali dell’industria conciaria derivano dal fatto che

  1. a) nel processo produttivo la maggior parte dei prodotti chimici utilizzati resta nei reflui allo stato originario o trasformati in derivati in quanto le quantità fissate sono quasi sempre inferiori a quelle fornite. Nel caso ad esempio della concia al cromo convenzionale, il rendimento di fissazione non supera quasi mai il 60/%. Ciò comporta da un lato elevati consumi e sprechi delle materie prime, dall’altro la presenza di elevate quantità di prodotti chimici negli scarichi con conseguente necessità di trattamenti depurativi.

Le acque reflue di concerie sono quindi caratterizzate oltre che dalla presenza del cromo trivalente , nel caso della concia con solfato basico di cromo, da elevate concentrazioni di sostanze organiche (COD – Chemical Oxigen Demand), di composti azotati , di sali (in particolare cloruri e solfati) , di solfuri , di tensioattivi e così via.

b)La trasformazione della pelle grezza in cuoio dà luogo ad una produzione di rifiuto pari ad oltre il 50% in peso della materia prima lavorata , oltre ai fanghi derivanti dalla depurazione degli scarichi idrici.

Per questi motivi l’industria conciaria è spesso considerata una attività altamente inquinante e pertanto nell’immaginario collettivo richiama cattivi odori , acque inquinate e un suolo contaminato

Come spesso avviene, quando si tratta di problemi ambientali, esiste un divario tra la percezione e la realtà del rischio.

La sostenibilità della materia prima (pelli grezze) e della sua trasformazione

L’industria conciaria si occupa sostanzialmente della trasformazione di un rifiuto dell’industria della carne e/o del latte in un prodotto industriale adatto ad essere valorizzato nella produzione di articoli in pelle e/o cuoio. Pertanto il cuoio può essere considerato come una soluzione ambientalmente sostenibile ad un reale problema di smaltimento di elevate quantità di spoglie animali che si originano dall’industria della carne.

Infatti la disponibilità di pelli grezze sul mercato dipende dalla quantità di macellazioni a scopo alimentare e non è in alcun modo influenzata dal fabbisogno dell’industria manifatturiera della pelle ; in sostanza il numero di animali allevati e macellati a fine vita è funzionale ai fabbisogni di altre industrie (carne , latte, lana, ecc.).

Per quanto concerne l’impatto ambientale (effluenti e rifiuti) del processo produttivo conciario è da tener presente che

Come accennato precedentemente l’industria conciaria italiana è prevalentemente strutturata in poli conciari; questo tipo di accentramento permette di affrontare in maniera razionale e mirata alcune delle problematiche ambientali legate alla lavorazione della pelle.

Ad esempio per far fronte alla domanda di disinquinamento delle acque è stata favorita, a partire dagli anni ’70, la costruzione di impianti di depurazione centralizzati di tipo consortile specializzati nel trattamento di acque a prevalente origine conciaria (questi impianti trattano, in genere, anche percentuali minori di effluenti urbani).

In quegli anni, mentre la politica ambientale tendeva ad esasperare i trattamenti depurativi a piè di fabbrica, la realizzazione di strutture centralizzate di depurazione, quali impianti di servizio di aree industriali per scarichi di difficile trattabilità, era stata fortemente voluta , sin dall’inizio, dagli operatori del settore per i molti vantaggi che tale soluzione comportava:

  • maggiore continuità ed affidabilità di esercizio ;
  • possibilità di impiegare tecnologie di tipo avanzato, insostenibili in proprio dai singoli insediamenti;
  • sensibile riduzione dei costi unitari di trattamento;
  • migliore trattabilità dello scarico complessivo ;
  • maggiori garanzie di controllo e minore impatto ambientale globale.

In sostanza, per il settore conciario, è stato anticipato il modello depurativo indicato successivamente nella normativa europea.

Attualmente in Italia gli impianti consortili trattano circa l’85% delle acque reflue conciarie mentre il restante viene trattato in impianti di singole concerie.

Se il trattamento depurativo è effettuato correttamente e l’impianto consortile è adeguatamente condotto, tutti i parametri delle acque (Cromo , COD , ecc.) in uscita rispettano i valori limiti previsti dalla legislazione vigente, con l’eccezione talvolta dei parametri cloruri e solfati. In genere, tuttavia, i valori di questi parametri non sono tali da produrre danni ai corpi idrici recettori e lo sversamento delle acque depurate è consentito da apposite autorizzazioni e/o deroghe regionali.

Per quanto concerne i rifiuti come ad esempio il carniccio , la rasatura e i ritagli di pelle (residui solidi specifici della lavorazione conciaria) essi vengono adeguatamente gestiti e valorizzati per la produzione di fertilizzanti , ammendanti , ecc., in particolare nei distretti industriali della Toscana e del Veneto.

Inoltre nel distretto conciario toscano viene effettuato , mediante un impianto centralizzato, il recupero del cromo trivalente; infatti opportuni trattamenti dei liquidi di concia al cromo esausti consentono il riciclo di tale conciante nel processo produttivo.

La problematica ambientale della concia al cromo

La ragione principale per la crescita della richiesta di conce alternative è la scarsa immagine del cromo e conseguentemente delle pelli conciate con tale metallo. Secondo quanto frequentemente contestato, una delle maggiori cause dell’inquinamento conciario è l’impiego per la concia di prodotti a base di cromo. In pratica la presenza di cromo nelle acque reflue e quindi nei fanghi di depurazione oltre che in alcuni residui solidi è uno dei punti più frequentemente citati da chi addita l’industria conciaria quale fonte di grave inquinamento. Ciò è dovuto anche al fatto che, talvolta, quando si dice che l’industria conciaria usa il cromo si tende a pensare che si tratti di cromo esavalente, che è notoriamente tossico e cancerogeno.

Tuttavia anche il cromo trivalente,utilizzato nel processo conciario sottoforma di solfato basico di cromo, è un metallo pesante e come tale soggetto a limitazioni nelle acque reflue e nei residui, anche se, per quanto è noto, non presenta particolari problemi né sul piano sanitario né su quello ambientale (è facilmente abbattibile come idrossido già a pH 4,5 circa e l’idrossido è quasi inerte in condizioni normali).

Ad ogni modo nonostante ciò è evidente che il termine “chrome free” implica necessariamente che vi è un problema che sta alla base circa l’impiego del cromo trivalente nella produzione del cuoio. Questo concetto ha la sua origine nell’asserito impatto ambientale del cromo(III) nelle “emissioni conciarie” (scarichi idrici, residui solidi, ecc.) e nella sua potenziale mobilità e trasformazione nei residui solidi conciati e nei fanghi. Anche la potenziale ossidazione nelle pelli finite del cromo trivalente a cromo esavalente sta negli ultimi tempi generando delle preoccupazioni nei riguardi del cuoio al cromo. Inoltre un altro inconveniente che deriva dalla concia al cromo è rappresentato dallo smaltimento degli scarti di lavorazione, quali la rasatura, la smerigliatura e la rifilatura. Infatti il loro eventuale incenerimento può provocare l’ossidazione del cromo III a cromo VI mentre lo smaltimento di tali residui in discarica oppure il loro riutilizzo è legato anche al concetto di riciclabilità e biodegradabilità. Al riguardo è noto che nel sentimento comune un cuoio con concia organica ed esente da metalli pesanti è più facilmente degradabile rispetto a quello contenente cromo ed anche più anallergico. Questa ultima caratteristica rende l’uso di tale tipo di cuoio più favorevole nei confronti dei soggetti predisposti alle allergie e alle irritazioni cutanee.

Valutazione del ciclo di vita

Una valutazione oggettiva dei vantaggi produttivi ed ambientali derivanti dall’impiego di conce alternative a quella al cromo, non è facile né semplice. Sul piano produttivo si potrebbe dire che gli svantaggi sono superiori ai vantaggi. Le limitazioni nella destinazione di questi cuoi rispetto a quelli al cromo, i processi produttivi relativamente più complessi e lunghi, la necessità di impiegare un maggior numero di prodotti chimici per compensare alcuni inconvenienti, rendono complessivamente questi sistemi meno flessibili e più costosi.

Sul piano ambientale, la quantità globale dell’inquinamento prodotto con questi sistemi di concia chrome-free e/o metal-free è probabilmente maggiore per la necessità di utilizzare prodotti più difficilmente eliminabili dalle acque. Al riguardo, alcuni anni fa, uno studio di autori tedeschi (B. Trommer, H.J. Kellert, Comparison of tanning methods from an ecological viewpoint – Leather, dic. 1999 parte I e gen. 2000 parte II), in cui vengono raffrontati quattro tipi di concia (concia convenzionale al cromo, concia wet-white con glutaraldeide e tannini sintetici, concia combinata glutaraldeide e cromo e concia vegetale con mimosa) mediante applicazione della metodologia LCA (Life Cycle Assesment) al solo processo conciario, mette in evidenza che la concia al cromo è da preferire sotto tutti gli apetti considerati.

Infatti lo studio mostra che le fasi che maggiormente contribuiscono all’inquinamento/tossicità delle acque sono quelle successive alla concia (riconcia, ingrasso, tintura, ecc.) ed è risultato notevolmente maggiore per le conce alternative esaminate. In pratica, il solo svantaggio rilevato per la concia convenzionale al cromo è stato, come era ovvio, la presenza di cromo nei fanghi di depurazione con le conseguenti difficoltà per lo smaltimento.

La concia peggiore, da questa valutazione generale, è risultata la concia con tannino vegetale (mimosa) che ha il solo vantaggio dell’assenza di metalli concianti e/o pesanti nel prodotto e nei fanghi. Ad ogni modo i risultati di questo studio sono comunque parziali in quanto non sono stati presi in considerazione gli altri criteri ambientali previsti dalla metodologia LCA. Infatti questo metodo si basa su un approccio sistematico definito “from cradle to grave”, cioè “dalla culla alla tomba”: il prodotto, processo o servizio, è analizzato in ogni fase della sua vita, dall’estrazione e trasformazione delle materie prime, attraverso la produzione, il trasporto e l’utilizzo, fino al riciclo o allo smaltimento. Attraverso uno studio LCA è quindi possibile individuare le fasi in cui si concentrano maggiormente le criticità ambientali e le informazioni necessarie per realizzare gli interventi di miglioramento.

Al riguardo una recente ricerca riguardante la valutazione del Carbon Footprint (CF) di pelli ovine per abbigliamento ha evidenziato che la maggior parte dell’impatto climatico (Carbon Footprint) deriva dalla fase di agricoltura-allevamento, e cioè a monte del processo di lavorazione conciario.

Per quanto concerne , invece, la fase “core” cioè il cuore del processo di lavorazione effettuato in azienda i dati riscontrati mostrano che il contributo maggiore dell’impatto ambientale , in termini di CF, è dovuto ai prodotti chimici impiegati nelle diverse fasi di lavorazione.

Conclusioni

La sostenibilità del cuoio , in particolar modo quello derivante dalla produzione italiana, è sostanzialmente basata su processi produttivi che risultano essere conformi alle norme ambientali di riferimento; la conceria italiana , la cui produzione si concentra , per la quasi totalità, all’interno di poli industriali territoriali da molti anni considera la tutela dell’ambiente come parte integrante della propria crescita produttiva. L’adozione di tecnologie pulite , il maggior uso di prodotti chimici più ecocompatibili, l’impiego di macchinari con un più elevato rendimento energetico , hanno consentito di raggiungere adeguati livelli di efficienza ambientale dei cicli produttivi.

Per quanto concerne la sicurezza del prodotto , in termini di presenza di sostanze particolarmente pericolose- SVHC , la pelle finita (cuoio) italiana è generalmente conforme ai requisiti previsti dalle normative internazionali ed in particolare a quelli regolamentati dal REACH.

Bibliografia

  1. Unione Nazionale Industria Conciaria : Rapporto di Sostenibilità 2014
  2. Naviglio G., La Gestione Ambientale nell’Industria Conciaria, Tesi di laurea – Ingegneria Gestionale 2003-2004
  3. Naviglio B. , Calvanese G. , Aveta R. , Caracciolo D., Girardi V. , Scotti M. , Tortora G., Romagnuolo M. , I sistemi di concia alternativi al cromo : dal chrome-free al metal-free , CPMC ,86, 5, 275-289 , 2010
  4. Wolf G., Meier S., Lin A., Leather and Sustainibility : from contradiction to value creation, World Leather, 14-16, December 2013/January 2014
  5. Germann H.P., Sustainible leather manufacture – Realistic objective or wishful thinking ? , Leather , 28-30, April 2010
  6. Naviglio B., Fabbricino M., Cozzolino A. , La valutazione del Carbon Footprint del cuoio : il caso della lavorazione delle pelli ovine nel Distretto di Solofra , CPMC , 90,6,245-261, 2014

**Biagio Naviglio è laureato in Chimica Industriale, Ricercatore Senior della Stazione Sperimentale Pelli dal 1981 con attività nella chimica e tecnologia della concia per la riduzione dell’impatto ambientale. Socio della SCI divisione di Chimica Industriale
Presidente dell’ordine dei chimici della Campania da febbraio 2016 ad oggi

 

Violare un tabù.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati.

Come noto, quando un pezzetto di metallo alcalino viene messo in acqua si ha una violenta reazione con sviluppo di idrogeno che può portare a una piccola esplosione (l’esplosione si verifica sempre col potassio). La più recente newsletter di C&EN riporta l’articolo di un gruppo di ricercatori secondo cui una goccia di una lega sodio-potassio (liquida a temperatura ambiente) posta su una superficie d’acqua dà luogo a un processo diverso ma ugualmente spettacolare.

tabu1P.E. Mason, P. Jungwirth, T. Buttersack, S. Bauerecker, A Non-Exploding Alkali Metal Drop on Water: From Blue Solvated Electrons to Bursting Molten Hydroxide, Angew. Chem. Int. Ed. Engl,  2016, August 4, DOI: 10.1002/anie.201605986

All’inizio, la lega reagisce con l’acqua formando gli idrossidi dei metalli alcalini, idrogeno e sviluppando calore. La spinta idrostatica della lega e il gas che si produce limitano il contatto fra il metallo e l’acqua in modo che la reazione procede in modo non esplosivo. Un’atmosfera inerte, (generata da un flusso continuo di argon) impedisce l’accensione dell’idrogeno.

A circa 0,3 secondi dall’inizio della reazione, le superfici interagenti diventano blu a causa degli elettroni solvatati, questo fenomeno è visibile ad occhio nudo nonostante che la durata degli elettroni in acqua sia di sottomillisecondi.

tabu2La goccia continua a sviluppare calore per circa due secondi, allorchè i metalli alcalini iniziano a evaporare e la goccia diventa rossa. A circa tre secondi, il vapore metallico schiarisce e la temperatura della lega si abbassa man mano che essa si trasforma in una massa di idrossidi fusi dei metalli alcalini. Supportata da uno strato di vapore, la goccia galleggiante resiste per un secondo prima di cadere in acqua formando una soluzione acquosa degli idrossidi.

Gli autori documentano tutto ciò nel seguente video:

http://cen.acs.org/articles/94/i35/Liquid-alkali-metal-alloy-floats.html?utm_source=NonMember&utm_medium=Newsletter&utm_campaign=CEN

Commenti saranno particolarmente graditi, sul sito di Angewandte ce ne sono già un certo numero.

 

 

La Storia della Chimica tra i banchi di una Fiera Antiquaria

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Roberto Poeti

 

arezzo1

La fiera antiquaria di Arezzo si svolge la prima domenica di ogni mese . Molte stradine e piazze della città vecchia si riempiono di bancarelle che espongono merce di ogni genere : oggetti e strumenti dei mestieri passati , suppellettili , mobili , quadri , vecchi gioielli ecc.. . Può capitare che di tanto in tanto siano esposte intere collezioni di vetreria per laboratorio chimico e farmaceutico . Ma ci sono anche bancarelle che offrono vecchie edizioni di libri , fotografie d’epoca , stampe antiche . In queste ultime bancarelle possono capitare per noi chimici delle vere e proprie perle . Si tratta di manuali di chimica che possono risalire fino al settecento . Qualche volta i loro prezzi sono ragionevoli . L’ultima volta che ho visitato la fiera , scorrendo i titoli di vecchi libri allineati in un tavolo , ho avuto uno scatto di meraviglia quando ho letto sul frontespizio di un piccolo testo “ Raffaele Piria “ e il titolo “Trattato Elementare di Chimica Inorganica “ Pisa 1845 .

Il prezzo era francamente modesto e così l’ho acquisito alla mia collezione.

Raffaele Piria (Scilla, 20 agosto 1814 – Torino, 18 luglio 1865) è stato un grande chimico italiano , dette vita presso l’Università di Pisa , dove fu chiamato nel 1842 ad occupare la cattedra di chimica, ad una prestigiosa scuola di chimica.

arezzo2

Raffaele Piria

A Pisa ebbe come allievi Stanislao Cannizzaro e Cesare Bertagnini . Altri suoi allievi furono Orazio Silvestri e Paolo Tassinari. Vista la grande fama e importanza che caratterizza gli allievi del Piria , la scuola pisana è considerata quella che, in Italia, ha fondato la Chimica moderna . E’ stato un patriota durante il Risorgimento e poi un importante uomo politico dopo l’Unità d’Italia. Tra il 1840 ed il ’41 pubblicò il Trattato elementare di Chimica Inorganica , che si rivelò subito di grande importanza per rigore scientifico e chiarezza dell’espressione ; lo dedicò al suo illustre maestro , il grande chimico Jean Baptiste Dumas , presso il cui laboratorio aveva compiuto importanti ricerche, ricordiamo quelle sulla salicina , e a partire da questi studi si aprì la strada alla realizzazione della famosa aspirina poi prodotta dalla società tedesca Bayer . Così presenta il Trattato di Piria Gaetano Giucci nel “ Degli Scienziati Italiani formanti parte del VII congresso di Napoli nell’autunno del 1845 , Notizie Bibliografiche raccolte da Gaetano Gucci , Napoli 1845 “ :

Fu tale l’accoglienza fatta dal pubblico a questo lavoro di Piria che in breve tempo se n’esaurirono tre edizioni “ .

In realtà le edizioni furono cinque , l’ultima venne da lui curata dopo il 1860 poco prima della sua morte . Cannizzaro così descrive il lavoro del suo Maestro:

Il Piria fra gli smalti ed i cammei della sua non mai abbastanza lodata e citata monografia, fu una delle maggiori glorie scientifiche italiane tanto per l’importante parte con cui contribuì al progresso della chimica, quanto per la durevole influenza che egli esercitò sull’insegnamento scientifico della penisola”.

Ma le sorprese più grandi che riserva la Fiera sono là dove meno te l’aspetti. Così è accaduto tempo fa quando in mezzo a vecchi quadri, vasi di porcellana incrinati e sbreccolati e poltrone sdrucite, seminascosti, quasi a vergognarsi di tale compagnia, erano allineati sei volumi rilegati in pelle marrone chiara, con titoli e fregi dorati ai dorsi, che riportavano “ TADDEI CHIMICA GENERALE“. I volumi sono ben conservati e le pagine del testo di carta bianca, di ottima qualità, sono arricchite di fini incisioni xilografiche. Nel frontespizio si legge che i sei volumi sono stati pubblicati tra il 1850 e il 1855. Contengono, riportate fedelmente , ” Le lezioni orali di un corso privato “ tenute dal Professore Cav . Gioacchino Taddei a cavallo tra il 1849-1850.

arezzo3

I sei volumi di “ Chimica generale “ di Taddei

                                                                                               arezzo4

Gioacchino Taddei (San Miniato, 1792 – Firenze, 1960) appartiene alla generazione precedente a quella di Piria , e ancora molto giovane , nel 1819 , ottiene la cattedra di Chimica Farmacologica nell’Arcispedale di Firenze . Come farà Piria dopo di lui , nel 1821 , due anni dopo l’incarico all’Arcispedale , Taddei inizierà una lunga peregrinazione in Europa dove incontrerà i protagonisti della nuova Chimica .

  Imperò nell’agosto del 1821 egli si dirigeva per l’Italia superiore alla volta di Parigi, ove erano in fama ed onoranza i nomi di Vauquelin, di Gay-Lussac, di Thenard e di Chevreul, dai quali ebbe cortese e familiare accoglienza ed ogni facilitazione di apprendere quanto più si poteva dalla loro voce e dai loro lavori, e di far loro ad un tempo comunicazione dei proprj; tanto che nell’anno appresso si vide publicata in francese la traduzione della sua Memoria intorno ad un nuovo antidoto del sublimato corrosivo. Da Parigi il Taddei non fece ritomo in patria senza prima visitar Londra, che vantava allora di possedere un Davy, un Vollaston, un Dalton, già saliti in molta rinomanza e gli ultimi in ispecie per la nuova dottrina delle

arezzo5

Giovacchino Taddei

proporzioni determinate; la quale fece si bella impressione nell’animo del nostro viaggiatore che reduce appena in Firenze la volle far conoscere a’suoi, illustrandola in quella sua publicazione col titolo «Sistema di Stechiometria chimica».”

Così scriveva il prof. Serafino Capezzuoli nel volume IX de «Il Politecnico», del settembre 1860. La citazione è tratta di una sintetica biografia del Taddei scritta a pochi mesi dalla sua morte.

E’ sorprendente come molti giovani chimici, con pochi mezzi a disposizione, provenienti da molti paesi, inclusi gli Stati Uniti, intraprendessero   un lungo viaggio, per quei tempi, alla volta della Germania, Francia e Inghilterra , considerate i luoghi della Nuova Chimica. Non era la fuga dei cervelli come oggi la conosciamo, i nostri viaggiatori facevano ritorno nei loro paesi per diffondevi le conoscenze apprese. Paesi nei quali, in qualche modo, riuscivano a trovare un ambiente disposto ad accoglieva queste novità.

Ma torniamo al nostro Taddei .

Perché si parla nel frontespizio di “Lezioni orali di un corso privato “? Non aveva la cattedra di Chimica al Reale Arcispedale fiorentino ? Negli anni 1848-49 Taddei partecipa in modo attivo alle vicende politiche che scuotono il Granducato di Toscana . E’ tra i principali protagonisti dell’Assemblea Costituente Toscana durante la vacanza del Granduca , ricoprendo la carica di presidente . Al ritorno di quest’ultimo al potere seguì l’allontanamemto del Taddei dai suoi incarichi pubblici e gli fu interdetto l’insegnamento anche nelle scuole private . Così il Taddei nella propria abitazione terrà per due anni un corso di chimica che comprenderà la chimica inorganica e organica articolato in ben 187 lezioni per la prima e 99 per la seconda . Sempre il Capezzuoli nella biografia del Taddei

Perduta la sua carissima catedra in un coi diletti discepoli, cercò pure nella scienza un conforto e ve l’ebbe onorevole ed efficace. Vedetelo infatti nella sua propria abitazione attorniato da un eletto stuolo di cittadini volonterosi d’intendere e d’ammirare i vantaggi e le bellezze della Chimica, vedetelo, io diceva, dettare un corso di lezioni private intorno a questa scienza ampiamente svolta da lui in ogni sua parte, e comporre così e divulgare per le stampe un libro di Chimica generale che più degli altri onora grandemente il Taddei. E divero il suo natural genio intollerante di qualunque pastoja e vago di spaziare in ogni regione della Chimica, potè spiccare liberissimo il volo, quando non astretto da veruno speciale e determinato modo d’insegnamento fu padrone di scegliere il campo più confacente alle sue vaste aspirazioni. Il perchè non fu né poteva essere il Taddei, a parlar propriamente, uno specialista, ma poteva essere e fu un Chimico inteso a seguire la scienza ed abbracciarla quanto essa è grande nelle sue molteplici diramazioni e nelle sue svariatissime applicazioni. Aprite quel libro delle Lezioni orali di chimica generale, disteso e spartito in sei grossi volumi, e sempre maggiore ne ritrarrete la convinzione di quanto è stato dello fin qui “.

Per meglio comprendere il clima in cui si tennero le lezioni riporto, sempre da un’altra biografia scritta da Tertulliano Taddei e pubblicata nel 1860 , l’introduzione alla Edizione delle Lezioni scritta dagli stessi compilatori :

Allorquando ci proponemmo di raccogliere diligentemente e quindi pubblicare le Lezioni Orali del Professore Gioacchino Taddei, fummo guidati a interpretare questo lavoro non tanto dal vedere che numerosi ed eletti accorrevano d’ogni ceto gli uditori , quanto dal modo col quale l’illustre chimico fiorentino intendeva a rendere la sua scienza uno studio e dilettevole a un tempo ; uno studio che per la sua aridità fu fin qui da molti creduto la parte più ardua del tirocinio farmaceutico e delle mediche discipline , e solo ai cultori da queste devoluto “.

E ancora

“Reputeremo bastantemente ricompensate le nostre fatiche , se anche per esse potrà realizzarsi il voto espresso dal nostro illustre maestro , il quale all’occasione di comunicarci il piano che si proponeva di tenere nel corso di queste Lezioni , si esprimeva così «Io mi chiamerei fortunato qualora riuscendo ad insinuare il gusto per le chimiche discipline in ogni ceto di persone , potessi far si che venisse molto più estesamente coltivato e diffuso questo ramo di filosofici studj , senza il quale reputo non possa darsi vera e completa scientifica educazione ».

Vorrei concludere con la “scoperta più voluminosa “ fatta poco tempo fa . Ammonticchiati alla rinfusa in un grande tavolo , assieme ad oggetti tra i più disparati , giacevano , senza nessun riguardo, molti volumi appartenenti ad una stessa collezione , e mi sarebbero passati inosservati se non avessi intravisto, passando vicino , la scritta sul dorso di uno dei volumi la parola Chimica . Si trattava dell’Enciclopedia di Chimica di Francesco Selmi (Vignola (MO) 1817 – 1881). L’opera consiste di undici grossi volumi , due di supplemento stampati in corso d’opera e , dopo la morte del Selmi  , di altri cinque di supplemento, a cura quest’ ultimi di   Icilio Guareschi . Il primo volume esce nel 1868 e l’ultimo, l’undicesimo , nel 1878 . L’ultimo volume contiene un ampio e interessante “ compendio storico “ che parte dalla civiltà egizia e termina con la chimica  dei primi dell’ottocento. I cinque supplementi del Guareschi ( dovrebbero essere sette ) sono prodotti nel decennio 80-90 ( Per inciso in genere sono riportate in letteratura un numero di supplementi inferiore a quelli da me trovati ). L’opera è veramente monumentale , e racchiude le conoscenze scientifiche nel campo della chimica e della tecnologia chimico – industriale dell’epoca. La stampa è ottima , molto ricca di incisioni xilografie , lo stato di conservazione buono . E il prezzo ? Non osavo chiederlo . Me la sono aggiudicata , dopo una contrattazione serrata , ad un prezzo ragionevole. L’opera del Selmi è il primo esempio di enciclopedia di chimica stampata in Italia e in Europa. La cosa che è per molti aspetti sorprendente è la grande tiratura che ebbe l’opera . Vennero stampate ben settemila copie! Se pensiamo in quel periodo al basso grado di scolarizzazione in generale e in particolare la scarsa diffusione della cultura scientifica , soprattutto quella chimica ci si chiede chi ebbe tanta fiducia in questa impresa editoriale .

arezzo6

Ma per comprendere la sua mole l’ho confrontata con l’Enciclopedia della Chimica della casa editrice USES che apparve negli anni 1970 . Nello scaffale superiore è l’opera moderna , mentre nello scaffale inferiore è l’opera del Selmi ( mancano due volumi che ho prestato ) . Una nota curiosa : la casa editrice che ha stampato le due opere a distanza di cento anni è la stessa!

arezzo8

Francesco Selmi ((Vignola (MO) 1817 – 1881)

Francesco Selmi ((Vignola (MO) 1817 – 1881) ha molto in comune con gli altri due chimici Piria e Taddei . Sono stati scienziati e uomini politici protagonisti del risorgimento e del nuovo stato unitario. Come scienziato Selmi diffuse in Italia le teorie di Liebig soprattutto la chimica applicata all’agricoltura e collaborò con Cavour sia dal punto di vista scientifico che istituzionale. La vicinanza con Cavour favorì la sua integrazione nell’ambiente scientifico torinese . In quel periodo Selmi strinse anche rapporti di amicizia con Ascanio Sobrero (1812-1888), destinato a diventare famoso in tutto il mondo per la scoperta della nitroglicerina . Sarebbe stato proprio Selmi a comunicare la scoperta nel corso della Riunione degli Scienziati italiani di Venezia nel 1847. La sua frequentazione con i protagonisti della chimica italiana ebbe altre testimonianze :   dopo i moti del 1848 un altro grande della chimica di quel tempo , Cannizzaro , fu costretto a rifugiarsi a Parigi. Nel 1851 lo scienziato siciliano riuscì finalmente a rientrare in Italia , trovando sistemazione presso il Collegio nazionale di Alessandria come professore di chimica e fisica, grazie all’aiuto di Francesco Selmi . La figura ricca e complessa del nostro scienziato è dimostrata dalla sua profonda cultura che spazia dal campo scientifico a quello umanistico . Compirà infatti approfonditi studi danteschi , condotti con estremo rigore filologico, che portano Selmi a raccogliere nelle biblioteche d’Italia una mole enorme di informazioni sui codici della Divina Commedia e su altre opere del poeta fiorentino. E l’ Enciclopedia di Chimica Scientifica e Industriale rappresenta l’emblema dell’altra faccia della medaglia . La divulgazione di una cultura scientifica diffusa e aggiornata per l’affermazione di una classe borghese moderna e illuminata è lo scopo principale di questa opera . Ogni argomento è assegnato ad un esperto della materia e lo stesso Selmi partecipa alla stesura di molte ‘voci’ ; tra i chimici importanti che vi collaborano troviamo tra i più assidui Ugo Schiff (Francoforte sul Meno, 26 aprile 1834 – Firenze, 8 settembre 1915) .

Ora è tempo di preparare un’altra spedizione esplorativa tra i banchi delle Fiera dell’Antiquariato di Arezzo .

Silicio, siliconi e dintorni.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Questi due nomi hanno generato (e continuano a farlo) una grande confusione, specialmente fra i traduttori di articoli giornalistici e romanzi, suscitando facili ironie da parte degli addetti ai lavori. Ricordo ad esempio il titolo di un articolo comparso nel quotidiano di Bologna: “In arrivo l’automobile al silicone!” per intendere l’auto munita di componenti elettronici. Oppure la “Silicon Valley”, tradotta come “Valle del Silicone”.

silicio

Silicio, elemento Z=14

Si potrebbero riportare decine di queste “perle”. Il fatto è che la traduzione corretta del vocabolo inglese Silicon è Silicio, nome dato all’elemento 14 della Tavola Periodica, mentre il vocabolo inglese per “silicone” (un importante materiale contenente silicio ma con proprietà completamente diverse) è proprio “silicone”. Vi è davvero assonanza, ma i traduttori quando hanno a che fare con termini scientifici potrebbero consultare un dizionario o, più semplicemente, andare su Google…[1].

siliconi

Prodotti comuni contenenti siliconi

Vediamo di cosa si tratta in qualche dettaglio.

Il silicio, simbolo Si, è il secondo elemento per abbondanza (27.7%), dopo l’ossigeno, nella crosta terrestre sottoforma di minerali (quarzo, feldspati, silicati, alluminosilicati) costituenti le rocce (graniti, argille). Il primo a isolare il silicio elementare a un certo grado di purezza fu il grande chimico J.J. Berzelius (1779-1848) nel 1823. Egli pensò che questo elemento assomigliava molto al boro perché entrambi gli elementi formavano ossidi non volatili che producevano facilmente materiali vetrosi e si potevano ottenere isolati solo come polveri amorfe. Ciò lo portò a assegnare la formula SiO3 all’ossido di silicio in analogia con quello del boro (BO3)[2]. Successivamente fu poi stabilito il giusto peso atomico al silicio e la sua posizione nella Tavola Periodica, sotto al Carbonio, sicchè all’ossido di silicio venne assegnata la formula corretta, SiO2 [1].

wohler

Friedrich Wöhler

Nel 1857, il chimico Friedrich Wöhler[3], che fu allievo di Berzelius, sintetizzò il tetraidruro di silicio (SiH4), stechiometricamente e strutturalmente analogo al metano (CH4) [2]. Successivamente, ottenne, per idrolisi del silicato di magnesio, una serie di composti contenenti silicio, idrogeno e ossigeno, trovando comunque molto difficile assegnare a questi formule precise. In base a dati analitici assegnò a uno di questi composti le possibili formule Si8H4O6, Si6H3O4, Si12H6O8 e altre simili. Poiché gli unici altri composti con questa stechiometria complessa che Wöhler conosceva erano i composti organici del carbonio, nel 1836 scrisse:

… Un risultato di grande interesse in quanto può essere visto come un composto costruito alla maniera di una sostanza organica in cui il silicio svolge il ruolo del carbonio nel materiale organico. Forse può servire come base per tutta una serie di corpi simili, e potrebbe quindi esistere la prospettiva di una chimica speciale del silicio, simile a quella che esiste nel caso del carbonio.[3]

Questa frase, tradotta dall’originale tedesco [3] in inglese da W. Jensen [1]*, ha probabilmente influenzato i giornalisti “scientifici” e gli scrittori di fantascienza che hanno immaginato pianeti basati sul silicio al posto del carbonio, e esseri extraterrestri con organismi al silicio. Queste fantasie sono chiamate da Jensen “strong analogies” fra la chimica del carbonio e quella del silicio. Ma, dice Jensen, sono esistite e esistono anche “weak analogies” che hanno portato proprio alla scoperta dei siliconi. Queste “analogie deboli” consistono nella considerazione che sarebbe stato possibile modificare o perturbare usuali composti organici sostituendo atomi isolati di carbonio con atomi di silicio. In particolare, l’attenzione fu inizialmente posta sulla sostituzione di atomi di carbonio corrispondenti a centri otticamente attivi, a gruppi funzionali, ecc.

friedel

C. Friedel

crafts

J. M. Crafts

Nel 1844, il chimico francese, Jacques-Joseph Ebelmen[4], aveva preparato con successo una serie di alcossido derivati di silicio di formula generale Si(OR)4, e nel 1863 C. Friedel e J. M. Crafts[5] sintetizzarono il primo alchil derivato del silicio, il tetraetilsilano, Si(C2H5)4 [1]. La ricerca fu proseguita da Friedel, e in particolare dal chimico tedesco Albert Ladenburg[6] per tutto l’ultimo quarto del 19° secolo, quindi, nel 1916, il chimico svedese Artur Bygden potè elencare diverse centinaia di composti organometallici del silicio in una sua monografia.

Lo storico americano Jensen afferma che la maggior parte dei composti elencati da Bygden erano semplici prodotti di sostituzione dei tetralchilmonosilani, e in quasi tutti i casi le strutture loro assegnate furono basate esclusivamente sul presupposto che una stechiometria analoga a quella di un composto corrispondente del carbonio implicava automaticamente una analoga struttura. Questo da un lato ci dice che i chimici lavoravano in base alla “analogia debole”, ma dall’altro che nei giornalisti e romanzieri si rafforzava invece l’idea della “analogia forte”.

kipping

Frederick Stanley Kipping

Nel 1899 il chimico organico inglese Frederick Stanley Kipping[7], iniziò uno studio intensivo sui composti organosilanici (in base alla analogia debole) che proseguì per quasi quattro decenni. Forse il risultato più importante di Kipping è stata la sintesi di una nuova classe di derivati organosilanici contenenti ossigeno, i siliconi. Anche Kipping, nei suoi primi lavori, dava per scontato che stechiometria analoga implicava automaticamente struttura analoga. Di conseguenza, quando ottenne una classe di composti di formula generale R2SiO, pensò di aver scoperto gli analoghi alchilsilanici dei chetoni R2CO, da qui il nome “siliconi” che Kipping diede a questi composti. Si deve concordare con Jensen che questo termine ha eguagliato nella nomenclatura chimica, per le sue implicazioni fuorvianti, solo l’ipotesi di Lavoisier che la composizione di zuccheri e amidi implicava che essi fossero letteralmente idrati di carbonio.[1]

Tuttavia, nel 1936, nella sua Bakerian Conference su “I derivati organici del silicio”, in cui riassunse la sua vita professionale, il suo lavoro e l’esperienza maturata, egli si mostra molto dubbioso sulla possibilità di una chimica organica basata sul silicio, infatti dice:

Anche dopo poche esperienze, era evidente che derivati corrispondenti dei due elementi in questione mostravano differenze molto notevoli nelle loro proprietà chimiche; ora si può dire che il caso principale, se non l’unico, in cui essi presentano una somiglianza molto stretta è quello delle paraffine e dei silicoidrocarburi contenenti un atomo di silicio direttamente unito a quattro radicali alchilici. Ma in qualsiasi confronto fra i composti del carbonio e i derivati organici del silicio è molto più importante il fatto che molte, se non la maggior parte, delle principali classi dei primi non sono rappresentate tra questi ultimi. Apparentemente ciò non è semplicemente una conseguenza di una insufficiente indagine sperimentale sui derivati di silicio, ma è dovuto alle differenze fondamentali nelle proprietà degli atomi di silicio e carbonio …[4]

In altre parole, dopo 40 anni di ricerca, Kipping era giunto alla conclusione che anche la “analogia debole” aveva difetti, e il successivo lavoro avrebbe presto mostrato che il suo pessimismo era pienamente giustificato.

rochow

E.G. Rochow

In effetti fu presto dimostrato, in particolare dal chimico americano E.G. Rochow[8], che le strutture e la chimica dei siliconi e di altri alchilsilani contenenti ossigeno sono meglio descritte dal punto di vista della chimica inorganica come derivati progressivamente depolimerizzati in cui uno o più “ponti” Si−O−Si vengono sostituiti da radicali R− o da gruppi RO−:

2(R−) + (= Si−O−Si =) → 2 (= Si−R) + (−O−)

piuttosto che dal punto di vista della chimica organica come semplici analoghi silicio-sostituiti dei chetoni, alcoli, ecc. Infatti, un processo parallelo si osserva nel campo strettamente inorganico quando si depolimerizzano i silicati per reazione con ossidi metallici, un processo che porta alla formazione di strati, catene, anelli e anioni silicato, nonché vetri silicati di viscosità variabile [5]. Va notato che i Bragg avevano dimostrato, tramite la cristallografia a raggi X, la totale assenza di qualsiasi somiglianza tra le strutture di anidride carbonica e carbonati, da un lato, e le strutture di biossido di silicio e silicati, dall’altro, e che Alfred Stock[9], lavorando sui silani nel periodo 1916-1923 aveva mostrato che gli idruri di silicio erano altamente sensibili all’aria e all’umidità contrariamente agli alcani.siliconi-2

Tutto questo per ribadire la pratica impossibilità di realizzare una chimica del silicio analoga alla chimica del carbonio o chimica organica.

Ovviamente ciò nulla toglie all’importanza che i siliconi rivestono oggi nei campi più disparati, dai lubrificanti alla medicina, dall’elettronica all’edilizia, ecc.

cyclomethicone

una bellla molecola di silicone: il ciclometicone o decametilciclopentasilossano un “silicone” ciclico usato nell’industria cosmetica e nel lavaggio dei tessuti

Notate che i siliconi vengono anche definiti silossani o meglio polisilossani, un termine che eliminerebbe l’ambiguità del più comune termine silicone.

[1] W.B. Jensen, The Chemistry of Bug-Eyed Silicon Monsters, An invited lecture given at the 203rd National ACS Meeting, San Francisco, CA, on 05-10 April 1992.

[2] F. Wöhler, H. Buff, Ueber eine Verbindung von Silicium mit Wasserstoff, Ann. Chem., 1857, 103, 218-229, cit. in [1]

[3] F. Wöhler, Ueber Verbindungen des Silicium mit Sauerstoff und Wasserstoff, Ann. Chem., 1863, 127, 257-274, p. 268, cit in [1]

[4] F. S. Kipping, Organic Derivatives of Silicon, Proc. Roy. Soc., 1937, 159A, 139-148.

[5] E. G. Rochow, An Introduction to the Chemistry of the Silicones. Wiley: New York. NY. 1946, cit. in [1]

Noterella semiseria dell’autore: L’universo fisico è illimitato, teniamo quindi sempre in mente l’aforisma di Shakespeare: “Ci sono più cose in cielo e in terra, Orazio, di quante ne possa immaginare la tua filosofia”

*e dall’inglese in italiano dal sottoscritto

[1]Secondo wikipedia, la confusione non riguarda solamente l’inglese/italiano, ma anche altre lingue ad es. spagnolo/inglese: Silicio(Silicon)/Silicona(Silicone); tedesco/inglese: Silizium(Silicon)/Silikon(Silicone).

[2] Ciò anche a causa degli errori nel calcolo dei pesi atomici. Come abbiamo ricordato più volte occorrerà aspettare la “rivoluzione” di Cannizzaro per la determinazione esatta dei pesi atomici (1858/1860).

[3] Di Wöhler abbiamo diffusamente parlato in un precedente post https://ilblogdellasci.wordpress.com/2016/05/30/friedrich-wolher-e-gli-albori-della-chimica-organica-di-sintesi/

[4] Jaques-Joseph Edelmen (1814-1852) chimico e mineralogista francese fece importanti ricerche su diversi minerali e studiò e migliorò un metodo di fabbricazione di ceramiche e porcellane.

[5] Charles Friedel (1832-1899) chimico e mineralogista francese, James Mason Crafts (1839-1917) chimico americano spese la sua carriera fra Francia e Stati Uniti. Fra i due chimici vi fu una stretta collaborazione culminata nella nota reazione di Friedel e Crafts che consiste nell’alchilazione o acilazione di composti aromatici catalizzata da acidi di Lewis.

[6] Albert Ladenburg (1842-1911) chimico organico tedesco isolò per primo la scopolamina e si interessò particolarmente di alcaloidi. Medaglia Davy 1905.

[7] Frederick Stanley Kipping (1863-1949) chimico inglese, pioniere nella chimica dei composti organosilanici ebbe un certo ruolo nelllo sviluppo della gomma sintetica e dei lubrificanti siliconici. Medaglia Davy 1918.

[8] Eugene George Rochow (1909 – 2002) chimico inorganico americano è noto sopratutto per le sue ricerche sugli organosilanici. Descrisse il processo diretto, noto come processo di Rochow o di Muller-Rochow per preparare siliconi su scala industriale.

[9] Alfred Stock (1876-1946), chimico inorganico tedesco, è stato pioniere nelle ricerche sugli idruri del boro e del silicio, sul mercurio e la sua velenosità e in chimica di coordinazione.

Come la pensa un chimico. 2 Parte.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Giorgio Nebbia

la prima parte di questo post è qui.

Nelle settimane di agosto ho ripensato a lungo come rispondere all’invito di Claudio (Lettera del 20/08/2016 12:42) ossia di suggerire quali possono essere gli “habits”, come dice il nostro collega matematico (https://medium.com/@jeremyjkun/habits-of-highly-mathematical-people-b719df12d15e#.n1peqypz6), del chimico. Finalmente mi è venuta in mente la ricetta che un vecchio (ma allora non avrà avuto più di 50 anni) bidello (così si chiamavano quegli straordinari servitori dello stato che pulivano i laboratori e le aule di lezione, mettevano in ordine la vetreria, che peraltro ogni studente o assistente o professore doveva lavarsi da solo, consigliavano e facevano coraggio agli studenti) mi diede quando misi per la prima volta, avevo venti anni, piede in un laboratorio.

Per fare il chimico occorrevano varie cose che lui elencava in un ritornello in bolognese, intercalato da pittoresche espressioni che non posso ripetere: attenzione, scienza, pazienza, fortuna e memoria; lui aggiungeva anche che bisognava aver passione per le ragazze. E Gaetano Benazzi, voglio ricordare il suo nome e sono forse l’ultimo sopravvissuto fra quelli che l’hanno conosciuto, di pazienza ne doveva avere tanta per gli affettuosi scherzi che noi ragazzotti gli facevamo.

Attenzione

Il successo di una analisi o di una sintesi dipende dall’attenzione a quello che si sta facendo; una distrazione può anche costare la vita: prendere una boccetta per un’altra, miscelare sostanze che danno luogo a sostanze esplosive, portare vicino ad una fiamma solventi infiammabili, eccetera.

Stare attenti ai dettagli; anche un precipitato apparentemente insignificante può nascondere una sostanza nuova che meritava di essere studiata; l’andamento anomalo di una analisi può indicare la presenza di un’altra sostanza.

Scienza

La conoscenza è indispensabile. Affrontare qualsiasi lavoro di laboratorio cercando di sapere tutto quanto è possibile su quello che hanno fatto i nostri predecessori, quelli che hanno scritto un secolo fa o in una sconosciuta rivista russa o finlandese.

A questo proposito la prima cosa da fere è “la bibliografia”, quella che poi sarebbe in parte confluita nella pubblicazione, a riprova che l’autore ha fatto fare un passo avanti alle conoscenze precedenti.

Si tratta di una vera e propria indagine storica che ai miei tempi si faceva attraverso quelle straordinarie collezioni dei Chemical Abstracts e dei Chemisches Zentralblatt (se ne è parlato in un blog di qualche tempo fa: https://ilblogdellasci.wordpress.com/brevissime/tassonomia-bibliografica/). Lunghe file di volumi pesanti e rilegati che contenevano dei brevi riassunti degli articoli pubblicati quasi dovunque, con straordinari indici per autore, per nome della sostanza, per brevetto.

Oggi i chimici hanno a disposizione raffinati strumenti telematici, ma in ogni caso nell’esplorazione del passato occorrono le altre doti, attenzione, pazienza, memoria.

Spesso la soluzione di un problema è sepolta in poche righe di un articolo che aveva tutt’altro titolo, o di un brevetto e non bisogna trascurare niente a costo di riempire pagine e pagine di “schede”.

Pazienza

Sono stato un modesto chimico perché sono privo di questa indispensabile attitudine; non aspettavo mai che una soluzione fosse andata a secco perfettamente, per avere più presto il risultato di una analisi ero disposto a saltare un passaggio utile o indispensabile, talvolta per non far aspettare la moglie non ripetevo l’esperimento per controllare se veniva nello stesso modo.

Se un trattato (penso a quelle favolose “bibbie” di sintesi chimiche o di analisi) dice che bisogna aspettare dieci minuti, bisogna ubbidire; fermarsi a sette minuiti può mandare a monte il lavoro di un’intera giornata.

Un esperimento va ripetuto fino a che non da sempre lo stesso risultato; la fretta può far credere di avere ottenuto un risultato che invece non c’è. Forse questa dote, non necessaria per lo storico o il filosofo, è essenziale in tutte le scienze sperimentali (oltre che utile nella vita quotidiana e familiare).

Fortuna

La chimica è una gara con la natura, una nemica bella e maligna. Si possono passare dei mesi a percorrere una strada che non porta in nessun posto o si può essere colpiti da una noticina o da un fatto apparentemente insignificante che contiene la soluzione cercata.

Si può osservare un fatto importante e poi dimenticarlo o trascurarlo. Jack Good, un matematico, scrisse un giorno che occorrerebbe conservare e rileggere i quaderni degli appunti di chi ci ha preceduto perché spesso contengono delle “half-backed ideas”, idee-mezzo-cotte-e-mezzo-crude, magari intuizioni buone, che un chimico ha avuto in un certo momento e poi non ha avuto tempo o voglia di approfondire.

Ricordando che, come ha scritto Pasteur, “il caso aiuta la mente preparata”.

Memoria

E’ una dote utile sempre, ma indispensabile per il chimico perché la bella e maligna natura con cui deve gareggiare per tutta la vita fa spesso lo scherzo di far apparire un lampo, un’osservazione, di ascoltare una lezione o di leggere un articolo che contengono una osservazione che sarebbe utile ricordare a distanza di tempo.

bundesarchiv_bild_183-k1004-0002_buna_veb_chemiekombinat_labor

“Fare” il chimico (il verbo “fare” si applica al chimico molto più che al fisico o allo storico o al letterato), è salire una scala percorsa da tanti altri, dietro di noi, ciascuno dei quali ci ha bisbigliato qualche cosa, sapendo che ci sono altri sul gradino successivo ad aspettare che noi gli si racconti quello che abbiamo visto, una scala senza fine.

Date per scontate queste attitudini, la vita del chimico è una continua sorpresa e divertimento come scrisse quel nostro collega (*): «I chimici sono uno strano genere di mortali, spinti da un impulso quasi folle a cercare il loro piacere fra fumo e vapore, caligine e fiamme, veleni e povertà: eppure fra tutte queste calamità vivo così bene che non cam­bierei la mia esistenza neanche con quella del re di Persia».

(*) Johann Joachim Becher (1635-1682), Acta laboratorii chymica monacensis: seu physica subterranea, 1669

 

Come la pensa un chimico. 1 parte.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura della Redazione del Blog della SCI

Questo post nasce da un altro post che qui sotto elenchiamo,

http://www.ilpost.it/mauriziocodogno/2016/08/18/caratteristiche-di-un-matematico/

il quale a sua volta parte da un altro post in inglese

https://medium.com/@jeremyjkun/habits-of-highly-mathematical-people-b719df12d15e#.zafsc2apv

che discute i modi di fare e di pensare degli “highly mathematical people”

Stimolato da queste letture il postmaster Della Volpe ha mandato il link di Codogno alla redazione e chiesto un parere; ne ha avuto varie risposte e la Redazione ha deciso di farne un post; sottolineiamo che non c’era una domanda specifica ma un quesito così generale che la risposta (quando c’è), come vedrete, tocca aspetti molto diversi del tema: come la pensa o si comporta o agisce un chimico? Fra l’altro habits è un termine a più facce e quindi è giusto che il taglio sia così eterogeneo. Va da se che stiamo chiedendo ai lettori di contribuire alla discussione e, se se la sentono, di scrivere dei brevi pezzi che riprenderemo nei post successivi. Stiamo discutendo di noi stessi, di come ci vediamo nel senso lato del termine.

******************************************************************************

(in ordine di tempo)

nebbiaGiorgio Nebbia (che poi ha scritto un pezzo che sarà la 2 parte del post):

Molto divertente.

Perché non mandi a ciascuno di noi — o a chi vuoi — una domanda: “Secondo te quale sono le ‘caratteristiche’ del chimico ?”, invitando chi ne ha voglia a rispondere con 20 righe entro il … diciamo 1 o xxx settembre ?

“Caratteristiche” non sarebbe il termine esatto; “habits” non è neanche “abitudini”, ma sarebbe più giusto il modo o i modi di pensare, di ragionare, di comportarsi nella propria professione, piuttosto di “professarsi chimico”, che è insieme insegnare, fare ricerca, fare analisi, fare sintesi, perfino stasare un lavandino. Non riesco a trovare una parola italiana adeguata.

Si può insegnare “da chimico” anche fuori dall’Università o dalla scuola, parlando ad altri chimici, parlando a non-chimici, in un dibattito, scrivendo su un giornale popolare.

Se qualcuno risponde puoi magari farne un post.

campanella.pm.240.shLuigi Campanella:

Cari tutti, mi era sembrata un’ottima idea! Poi però cercando di rispondere mi sono reso conto che i miei modi di pensare ed agire non risentono della mia condizione di chimico,ma piuttosto di quella di ricercatore,se non addirittura di cittadino.

mauroicardiMauro Icardi:

Dal mio punto di vista credo che tre siano le cose che contraddistinguono il modo di porsi di un chimico. Ovviamente faccio riferimento alla mia esperienza personale.

Sono ormai alle soglie dei trent’anni di lavoro in laboratorio di analisi. Un laboratorio al servizio della gestione di processo di vari depuratori, che potrebbe dover fare (e me lo auguro) un ulteriore salto di qualità se finalmente potrà partire la gestione unitaria a livello provinciale del ciclo idrico.

Penso che occorra per primo essere sempre curiosi. Non dare niente per scontato, anche se ormai sono più di vent’anni che fai le stesse cose sugli stessi impianti. Ma le variazioni, le modifiche macroscopiche (variazioni di portata, precipitazioni piovose brevi e forti) modificano certamente la materia prima con la quale lavori.

Essere metodico ed ordinato ma non in maniera maniacale. Il laboratorio deve funzionare, non essere una specie di “santuario”.

Pensare che devi comunicare con chi ha della chimica ( e conseguentemente di te) idee a volte bizzarre. E convincerlo a fare determinate operazioni,anche se i risultati non saranno immediati.

Ultimo mio personale “chiodo fisso”. Finchè puoi non smettere mai di reimpararla la chimica. Ma questo vale in generale. Non smettere mai di voler capire un pochino di più. Levi diceva che la chimica era ricca di metafore che si potevano applicare alla vita di tutti i giorni. Io credo che non si sbagliasse.

annarosaluzzattoAnnarosa Luzzatto (Annarosa è una biologa e fa parte da tempo della redazione):

A me pare che le posizioni di Luigi e di Mauro non siano da considerarsi in contrapposizione.

Le caratteristiche – o direi meglio, le regole – di un matematico indicate nell’articolo mi sembra corrispondano a quelle che un qualsiasi cittadino dovrebbe seguire se vuole mantenere un comportamento equilibrato e ragionevol, caratteristiche che dovrebbero essere particolarmente praticate e sentite da chiunque lavori in ambito scientifico.

L’articolo di Codogno però è solo un riassunto di un libro che spero più complesso, per cui non so dire se ci siano elencate anche caratteristiche davvero più sviluppate in un matematico. Infatti penso che, come dice Mauro, ci siano caratteristiche specifiche che risultano sviluppate in modo particolare in chi ha un certo tipo di approccio scientifico.

Nel mio caso, dato che la mia attività di ricerca era centrata principalmente sull’osservazione di ultrastrutture cellulari al microscopio elettronico a trasmissione, credo di aver sviluppato in modo particolare l’abitudine di osservare con particolare attenzione i particolari, cercando di coglierne soprattutto le “stranezze”, senza lasciarmi influenzare, per quanto possibile, dalla tendenza del cervello umano a “riconoscere”, in immagini poco chiare, strutture note e ben conosciute, come capita a chi individua volti ed immagini nelle nuvole o nei profili delle montagne.

Guardare è per tutti un’attività ovvia, mentre in realtà è molto complessa ed implica funzioni cerebrali molto evolute. Il cervello umano tende ad individuare  rapidamente le sagome note ed in particolare i volti umani, anche estrapolando da pochi elementi riconoscibili che possono invece indicare la presenza di strutture del tutto differenti.

Saper guardare senza estrapolare automaticamente figure note è una capacità che si impara con fatica e con lunga pratica. Questa capacità aiuta il morfologo, ma nella vita quotidiana può essere un intralcio: adesso che con l’età la mia acuità visiva è calata di molto, faccio più fatica di altri a interpretare il significato per esempio di un’immagine, in quanto sono predisposta a vedere singoli punti e linee come potenziali rappresentazioni di molteplici immagini differenti, quindi tardo a vedere quella ovvia che ad altri salta all’occhio al primo sguardo.

balzani1venturiVincenzo Balzani e Margherita Venturi:

Cari tutti,

facendo seguito al messaggio di Mauro anche noi proponiamo qualche idea sulle caratteristiche che deve/dovrebbe avere un chimico.

Il chimico sa che ci sono molecole belle, anche se non le ha mai viste

Il chimico sa che si possono interrogare le molecole fino a costringerle di rivelare la loro vera identità

Il chimico sa che le molecole, come le persone, possono essere più o meno “intelligenti”

Il chimico sa come convincere le molecole più intelligenti a compiere determinate azioni

Il chimico ama la Terra, unico luogo dove possiamo vivere, e si preoccupa di custodirla

Il chimico deve sempre ricordare che le interazioni delle molecole con l’uomo e con l’ambiente possono avere effetti imprevedibili

Il chimico è un grande esploratore della natura: questa sua caratteristica gli ha permesso e gli permette di capire come è fatto e come funziona il mondo, uomo compreso, scendendo a livello atomico e molecolare. Con il passare degli anni il chimico, forte dell’esperienza acquisita studiando le molecole e i processi naturali, è diventato un grande inventore: sfruttando questa caratteristica/abilità ha creato e crea continuamente molecole e processi artificiali capaci di cambiare il mondo (in bene, ma a volte, volutamente o imprevedibilmente, anche in male).

Il chimico deve sapersi muovere con agilità e cognizione di causa fra i livelli submicroscopico, macroscopico e simbolico: è infatti in grado di interpretare il mondo dei fatti e delle evidenze (livello macroscopico) in termini di interazioni fra molecole e atomi (livello submicrescopico) e viceversa, e di dare una rappresentazione sintetica di entrambi i livelli mediante simboli ed equazioni (livello simbolico)

rinaldocervellatiRinaldo Cervellati:

Desidero fare un brevissimo intervento sulle caratteristiche che dovrebbe avere un chimico, riprendendo quanto scritto da Mauro a proposito della capacità di comunicare.

Poichè sappiamo tutti quanto sia distorta l’immagine della chimica che ha il pubblico, anche (se non sopratutto) perchè è sempre più la “cenerentola” delle materie scolastiche a tutti i livelli, la capacità di comunicazione, nella maniera più semplice e senza formule o equazioni è dovrebbe giocare un ruolo fondamentale nelle caratteristiche del chimico.

La mia esperienza con amici e conoscenti che spesso mi chiedono info, ad es su come perchè si usa il bicarbonato per “lucidare” oggetti in argento è che la più convincente è il paragone con un antiruggine: la patina brunastra che ricopre l’argento è dovuta all’azione dell’ossigeno dell’aria, il bicarbonato è in grado di sciogliere questo materiale. Se la persona ne vuole sapere di più, allora entro nel merito. Una spiegazione semplice anche se mi chiedono perchè si prende il bicarbonato contro l’acidità di stomaco. Un pò più difficile quando mi chiedono qualcosa sulle droghe: eroina,  cocaina, crack, ecc. c’è tanta confusione su questo argomento. Sono sempre riuscito a far capire le differenze senza entrare nel tecnicismo.

oidualcClaudio Della Volpe:

Vorrei concentrarmi non tanto sul modo di pensare scientifico-generale , ma sull’habit sociale sul comportamento sociologico tipico del chimico italiano attuale e direi che a questo riguardo: siamo pochi, scarsamente presenti sul piano culturale, tendenzialmente chiusi in noi stessi e nella nostra comunità.

Siamo una piccola comunità in Italia; su circa 6 milioni di laureati siamo attorno a 100.000; di questi sono iscritti ad associazioni culturali o professionali una minoranza, (non più di 13.000) anche se devo riconoscere che esistono alcune piccole ma fattive organizzazioni culturali (per esempio Chimicare e anche dei siti web di singoli molto attivi); ancora più ristretto è il gruppo di chimici che si esprime e che scrive o partecipa alle discussioni; non ci sono chimici professionalmente divulgatori sui mass media anche se ci sono molti autori di libri divulgativi, di riviste o persone attive anche politicamente; altrove abbiamo chimici che sono diventati famosi o hanno raggiunto ruoli politici perfino; in Italia, dopo gli anni 60 le cose sono state molto ma molto più limitate. Perchè? Perchè pur essendo dotati almeno nelle loro figure carismatiche di quelle doti che si sono dette finora i chimici sono nell’angolo?

Una possibile risposta è quella proposta da Cerruti in uno storico articolo della Treccani: che ci sia stato un episodio o se volete una serie di episodi (li trovate sul blog raccontati da Scorrano e da Guido Barone) che hanno in qualche modo “bloccato” la nostra partecipazione alla vita culturale del paese e in genere quella degli scienziati di stampo naturalistico; paradossalmente questo non era avvenuto nè durante il fascismo, nè appena dopo; fino agli anni 60 la chimica e i chimici anche forse grazie al Nobel di Natta e al ruolo culturale/politico di alcuni sono stati sempre presenti sul versante dei media, ma anche nell’immaginario collettivo. Cosa è successo dopo? Dopo la prima metà degli anni 60 c’è stato una sorta di periodo oscuro che ha coinciso con gli episodi riguardanti Marotta e Ippolito di cui abbiamo parlato in alcuni post e di cui parla per esempio Cerruti. Ci sono poi stati anche i grandi episodi di inquinamento, Seveso prima di tutti, ma qualcosa era già cambiato. E qui veniamo a quella che Pietro Greco chiama una anomalia di fondazione: la Chimica è l’unica scienza che ha lo stesso nome di una industria.

Sta di fatto che la chimica italiana ha messo i remi in barca rispetto al passato. L’atteggiamento medio del chimico è stato segnato da una scarsa partecipazione alla vita culturale e politica del nostro paese, si è chiuso in se stesso e l’immaginario collettivo ha messo la chimica fra “i cattivi”; solo negli ultimi anni le cose stanno lentamente cambiando, ma rimane questa profondissima cicatrice culturale che si accompagna anche ad una riduzione del peso della Chimica nella scuola. La Chimica come tecnica, o al massimo come Meccanica quantistica applicata, una sorta di riduzionismo culturale che ci tiene come soggiogati. Sono poche le voci che si levano contro questa concezione riduzionistica della Chimica, che sottolineano invece che la Chimica è la scienza dei processi, dei sistemi che reagiscono, dell’equilibrio dinamico, della retroazione. In definitiva i chimici dovrebbero essere come detto sopra da alcuni di noi fra i massimi esperti della bellezza e della complessità della Natura, e loro entusiasti difensori ma di fatto ora e nel nostro paese sono tutt’altro.

(continua)

A volte ritornano.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

E’ di pochi giorni fa la notizia che negli Stati Uniti si sta sperimentando la produzione di una pellicola trasparente per la conservazione degli alimenti. Il titolo (come sempre piuttosto fuorviante) è questo: “Plastica addio, arriva la pellicola di latte”.

L’idea è quella di produrre una pellicola trasparente composta da caseina e pectina da utilizzare per la conservazione dei cibi.

caseina1La fase di produzione di questi ecoimballaggi di nuova generazione, messi a punto presso il Dipartimento dell’Agricoltura degli Usa, ha di recente preso il via con una prima linea da parte di una piccola azienda texana, ma già altre realtà stanno guardando con interesse ai nuovi imballaggi, tanto che i ricercatori prevedono che le prime pellicole al latte possano arrivare sul mercato nell’arco dei prossimi 3 anni.

Questo progetto è stato presentato al 252esimo “National Meeting & Exposition of the American Chemical Society” (ACS), il congresso della Società Americana di Chimica.

Per il momento non si conosce ancora molto del processo di produzione perché i ricercatori hanno deciso di concentrarsi soprattutto sulla comunicazione dei vantaggi nell’utilizzo dei nuovi imballaggi a base di caseina. In particolare sul fatto che potranno ridurre i problemi provocati dalla diffusione ormai incontrollata di rifiuti di plastica nell’ambiente.

Secondo la coordinatrice del progetto, Peggy Tomasula, questo tipo di pellicola basata su proteine riduce di 500 volte la diffusione di ossigeno rispetto ai film in uso e garantirebbe “una migliore conservazione dei cibi nella catena della distribuzione e riducendo di conseguenza gli sprechi”.

Questo perché il polimero così ottenuto avrebbe porosità di dimensioni inferiori a quelle in uso attualmente, sia di polietilene, sia di cellophane che di quelle ottenute dall’amido di patate.

Cortesia della ACS.

Per migliorarne le caratteristiche meccaniche si aggiunge pectina di agrume, un polisaccaride naturale. Il film infine sarebbe anche mangiabile, una caratteristica alquanto originale rispetto agli altri.

Non è però la prima volta che si sente parlare dell’utilizzo della caseina per la produzione di materiali e non come cibo.

Possiamo indicativamente ricordare tre periodi: il primo collocabile tra la fine dell’800 e i primi del 900, il secondo nel periodo immediatamente precedente la seconda guerra mondiale , e quello odierno di cui il progetto americano non è che uno degli ultimi.

I primi studi sulle fibre ottenibili dalle proteine si effettuarono per riprodurre fibre tessili pregiate quali la seta che venne però sostituita dal rayon ottenuto dalla cellulosa.

Mentre fibre che dovevano sostituire la lana vennero prodotte proprio a partire dalla caseina presente nel latte. Questo perché vi era una certo eccesso nella produzione di latte, e allo stesso tempo una mancanza reale o percepita di fibre naturali. La lana poi aveva importanza primaria per la produzione militare.

I progetti vennero sviluppati sia in Italia con la produzione del Lanital, che sempre negli Stati Uniti con la fibra denominata Aralac (da American Research Associates e dalla parola latina Lac che significa appunto latte).

caseina3

Il processo produttivo di lavorazione prevedeva la separazione dei grassi e degli oli dalla caseina del latte.

La caseina è insolubile in acqua (essendo idrofobica), e in acidi e alcol, mentre si può solubilizzare in soluzioni basiche di idrossido di sodio o di ammonio. Sempre per il medesimo motivo la caseina ( o meglio le caseine, ce ne sono almeno 4 tipi diversi) forma nel latte delle micelle, come il sapone in acqua.

La solubilizzazione è necessaria per ottenere un prodotto filabile. Per migliorarne la viscosità la soluzione di caseina veniva lasciata “maturare” facendo attenzione all’ossidazione ed agli attacchi batterici.

Successivamente veniva estrusa in un bagno coagulante che conteneva acidi come il solforico e sali come i solfati di sodio, alluminio, magnesio.

Successivamente si sottoponeva la fibra grezza ad un trattamento di reticolazione in bagni acidi di formaldeide per migliorarne la tenacità. Al termine del processo di produzione il filo veniva lavato ed asciugato e poteva già essere utilizzato nelle normali macchine tessili.

Una fibra di questo tipo risultava meno soggetta agli attacchi delle tarme, ma decisamente meno resistente alle sollecitazioni quali l’abrasione. E dai ricordi dei soldati in guerra abbiamo testimonianze che tenesse meno caldo della lana naturale. In Italia la SNIA VISCOSA che deteneva il brevetto del Lanital e ne avviò l’industrializzazione cercò dopo la guerra di rilanciarlo con il nome di Merinova.

caseina4

Ma lo sviluppo delle fibre acriliche in poco tempo fece uscire quelle caseiniche dal mercato.

L’interesse per questo tipo di fibre è ritornato alla ribalta per diversi motivi, primo fra tutti quello della richiesta di prodotti ecosostenibili. Nel processo produttivo al posto del bagno di formaldeide per la reticolazione della fibra si usano acidi policarbossilici quali il citrico per diminuire la produzione di residui di produzione inquinanti ed aumentare la biocompatibilità.

Attualmente questo tipo di fibre viene associato a fibre in poliestere per migliorare la qualità complessiva del filato associando la fibra caseinica alle più tecnologiche fibre in acrilico.

In questo modo si ottiene una fibra molto più simile alla seta al tatto. La fibra si ottiene per copolimerizzazione di caseina e fibra acrilica modificate.

Questi tipi di studi e sperimentazioni che prendono origine da necessità contingenti del passato sono un tentativo di sfruttare nuove materie prime. O per meglio dire materie seconde se per esempio la caseina viene recuperata da sottoprodotti delle lavorazioni casearie.

La caseina è la principale proteina del latte e quindi il suo uso pone il problema della sostituzione di un cibo così comune e diffuso, mette in concorrenza cibo e materie prime ed inoltre la sua effettiva riciclabilità dipende dalla quantità di energia fossile usata nella produzione del latte vaccino.

Nei prossimi anni si potrà valutare meglio il successo o meno di questi prodotti che attualmente con il nome di Q Milk o Rollomilk ci riportano ad un passato dove per necessità contingenti si utilizzavano le materie prime diverse dal petrolio che non era disponibile come lo è oggi, per le ragioni più diverse ma sostanzialmente nel periodo tra la prima e la seconda guerra mondiale per quelle geopolitiche.

Ma come si vede i corsi e ricorsi storici si riferiscono anche alla chimica ed ai suoi processi di produzione.

Per approfondire: http://www.labmanager.com/news/2016/08/edible-food-packaging-made-from-milk-proteins-video-?fw1pk=2#.V8zRHYWp97Y

Chimica e squali.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

In questi giorni molti giornali citano questa notizia estiva, tipico riempitivo delle pagine quando non ci sono altre notizie; lo squalo che vive qualche secolo http://video.corriere.it/incontro-ravvicinato-lo-squalo-groenlandia/75711126-6053-11e6-92f0-b1559c509232.

squalodigroenlandiaLo squalo della Groenlandia e in genere gli squali sono molto interessanti per un chimico per varie ragioni legate al loro metabolismo e alle loro caratteristiche fisiche.

Allora anzitutto la notizia che lo squalo groenlandese viva secoli è vera anche se l’origine della notizia è un singolo articolo sia pur di Science: http://science.sciencemag.org/content/353/6300/702.

Mia sorella che è andata in vacanza in Islanda mi ha segnalato che la carne di squalo è un cibo ricercato ma molto particolare. La tradizione islandese è di cucinare lo squalo della Groenlandia in un modo molto particolare; si tratta di un cibo islandese tipico chiamato hákarl o squalo fermentato.

La carne fresca dello squalo è tossica, a causa dell’alto contenuto di urea Harnstoff.svge di ossido trimetilamminico TMAO225px-Trimethylaminoxid.svg

Notate di passaggio la diversa simmetria delle due molecole: la prima (in prima approssimazione) planare, la seconda tetraedrica seppure deformata.

Da wikipedia apprendiamo che “la carne può essere consumata dopo un processo di trattamento, di cui lo hákarl islandese rappresenta uno dei rari esempi. Lo hákarl trattato ha un forte odore di ammoniaca, non dissimile da quello di molti prodotti per la pulizia domestica. È spesso servito in cubetti infilzati su uno stuzzicadenti. In generale, chi tenta di assaggiarlo la prima volta ha un immediato moto di repulsione dovuto all’odore; per questo, i “neofiti” sono spesso avvertiti di tapparsi il naso prima di ingerirlo, dato che l’odore è assai più forte del gusto. Usualmente, e così nel þorramatur, è accompagnato da un bicchierino di acquavite locale, il cosiddetto brennivín (letteralmente: “vino ardente”). Cibarsi di hákarl è considerato da alcuni segno di coraggio e di forza. Esiste in due varietà: il glérhákarl (lett. “squalo vetroso”), piuttosto duro e di colore rossastro, ottenuto dalla ventresca, e lo skyrhákarl, (lett. “squalo-skyr), più morbido e bianco, ottenuto dal resto del corpo.”

melhhccdfibahdpk.png

Contributo sperimentale di Sergio Palazzi chimico ed estimatore dello hákarl (11 ago 2016)

Se l’odore ed il gusto dello hákarl sono caratteristici, non meno lo è la sua preparazione. Lo squalo pescato viene privato della testa e delle interiora e sistemato in una fossa scavata in della sabbia ciottolosa; la fossa viene poi ricoperta a sua volta di ciottoli in modo da formare una sorta di collinetta, sulla quale vengono poste infine delle pietre più pesanti che servono a pressare lo squalo. In questo modo, i fluidi presenti nella carne dello squalo vengono espulsi (un pò come si fa con le melenzane). Lo squalo viene lasciato a fermentare nella fossa per un periodo che va da 6 a 12 settimane, a seconda della stagione.

Una volta estratto dalla fossa, lo squalo viene tagliato in spesse strisce e appeso a seccare per diversi mesi. Durante il periodo di essiccazione si sviluppa una crosta brunastra, che viene rimossa prima della consumazione. Lo hákarl viene quindi tagliato a pezzetti e consumato. Modernamente, però, la carne di squalo viene pressata anche in grossi contenitori plastici sottovuoto.

da http://www.ilfattoalimentare.it/italiani-squalo-smergilgio-finning-code-di-squalo-shark-alliance.html

Come mai la carne di squalo ha queste caratteristiche? Il motivo fondamentale è che lo squalo ha un contenuto nelle sue carni di urea e di trimetilammina molto elevato e che può rivelarsi perfino tossico e dunque occorre “trattare” la carne prima di mangiarla.

Tutto parte dai meccanismi con quali lo squalo, che vive in acqua, riesce a rimanere in equilibrio osmotico con il suo ambiente ed espelle l’azoto; i due meccanismi si intrecciano.

Da una parte lo squalo come la maggior parte degli organismi che hanno a disposizione molta acqua espelle l’azoto sotto forma di urea, una molecola che si scioglie bene in acqua; d’altra parte la escrezione di urea non avviene con il meccanismo renale, tipico per esempio del nostro corpo. L’urea viene espulsa infatti attraverso la ghiandola rettale che è il vero organo escretore; inoltre l’urea trattenuta nell’organismo serve a mantenere l’equilibrio osmolare con l’acqua di mare, gli squali sono isoosmotici cioè non sono capaci di regolare la propria concentrazione di sostanze disciolte in rapporto a quella esterna, non sono in grado di vivere in acqua dolce insomma, non ci sono squali d’ acqua dolce (eccetto uno), ma conservano costante la propria concentrazione di sostanze disciolte e lo fanno usando non i sali ma l’urea; in questo modo lo scambio di acqua con l’esterno viene ridotto al minimo a patto di non cambiare ambiente salino: se metteste uno squalo in acqua dolce l’acqua penetrerebbe nelle cellule dello squalo facendolo gonfiare e uccidendolo.

Ma la presenza di un eccesso di urea ha un effetto notevole sulle proteine dello squalo, nel senso che l’urea, (come mi insegnava il mio amico e tutore di tesi recentemente scomparso, Guido Barone) è una sostanza structure-breaker, ossia distrugge la struttura, l’equilibrio fra le due quasi-fasi dell’acqua, l’acqua tipo ghiaccio, l’acqua strutturata e l’acqua destrutturata; l’urea interagisce bene tramite i suoi legami idrogeno con l’acqua ma la simmetria della sua molecola è totalmente diversa e le sue sfere di idratazione  (come le chiamerebbero i colleghi Vittorio Elia e Giuseppina Castronuovo che studiano da anni questi fenomeni) non interagiscono favorevolmente con essa, l’acqua si disfa, diciamo così. Questo altera il contributo dell’acqua al mantenimento della struttura proteica: lo squalo ha rimediato a questo contributo destrutturante dell’urea quasi-planare aggiungendo un secondo componente plasmatico che ha effetto opposto all’urea , la trimetilammina, quasi-tetraedrica appunto.

Ecco dunque che la miscela urea-trimetilammina che lo squalo usa così efficacemente diventa per noi se proviamo a mangiare carne di squalo un tantinello indigesta.

Ricordo di passaggio, ma servirebbero altri post, che dallo squalo si ricavano molti prodotti utili (la pelle è un abrasivo e i giapponesi la usano per rivestire il manico della katana, la spada rituale perché le punte microscopiche rivolte (in alcune specie) tutte nella medesima direzione rendono più difficile farsi “sfilare” la spada dall’avversario) , la squalamina un antibiotico (ma è sintetizzabile in laboratorio), lo squalene , 375px-Squalene-from-xtal-3D-balls-Aun idrocarburo triterpenico ricavato dal suo fegato impiegato nell’industria farmaceutica e cosmetica, per cicatrizzare le ferite, per nutrire la pelle; nell’animale lo squalene che è meno denso dell’acqua, contribuisce a sostenere la notevole massa degli squali, producendo la spinta idrostatica di questa specie animale.

Lo squalo è una risorsa biologica utile ma viene usato male, ucciso solo per usarne le pinne in cucina e gettando in mare il resto dell’animale, una vera crudeltà, le sue carcasse usate per farne concime.

In Europa, l’Italia è il più grande consumatore europeo di carne di squalo; i nomi più diffusi di squali presenti sui nostri mercati sono: palombo, smeriglio, gattuccio, cagnetto, vitello di mare, asià, nocciolo. Molto del bacalhau (baccalà) che si mangia alle Azzorre e in molte ex-colonie africane del Portogallo è prodotto con carne di squalo; in Inghilterra il fish and chips (pesce fritto e patatine) è a base di carne di squalo.

La pesca agli squali si svolge in tutto il mondo e dovrebbe essere controllata ovunque, in modo da non distruggere le popolazioni. Per impedire la distruzione di questa importante risorsa naturale, la pesca agli squali va controllata secondo criteri rigorosi, ma soprattutto diversi da quelli validi per altri pesci. Infatti i lunghi tempi di gestazione tipici di questi animali e la loro ritardata maturità sessuale, rendono problematico – o addirittura impossibile – il recupero delle popolazioni sottoposte a uno sfruttamento intenso.

da http://www.copernico.bo.it/sito_old/subwww/lavoro%20evoluzione/condroitti/prodotti_dagli_squali.htm

La nitriera borbonica del Pulo di Molfetta. Una storia poco conosciuta.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Angela Rosa Piergiovanni

piergiovanniForse non è molto noto che il fenomeno del carsismo è molto comune in Puglia. Le Grotte di Castellana, in provincia di Bari, rappresentano sicuramente il risultato più spettacolare e sono una delle maggiori attrazioni turistiche della regione. In realtà, il territorio pugliese è costellato da una varietà di strutture carsiche sia ipogee che epigee (grotte, doline o puli, gravine e lame) che, essendo decisamente meno spettacolari delle grotte di Castellana, restano ai margini degli itinerari turistici più frequentati o ne sono del tutto escluse. Il Pulo di Molfetta, in provincia di Bari, ne è un esempio eppure avrebbe molte interessanti storie da raccontare dall’insediamento neolitico ritrovato ai suoi margini, al convento cinquecentesco dei frati cappuccini ma è anche un esempio, forse unico in Italia, di archeologia industriale collegata al carsismo.

Il Pulo è una depressione di forma ovoidale, con un diametro di circa 170 metri, un perimetro di quasi 600 metri e una profondità intorno ai 35 metri. Una immagine da satellite permette di apprezzare meglio forma e dimensioni (Fig. 1).

pulo4

Fig. 1. Veduta aerea del Pulo (fonte Google Earth).

La sua origine è dovuta al crollo in tempi molto remoti della volta di ampie cavità sotterranee generate appunto dal carsismo. La conformazione del territorio antecedente al crollo è intuibile osservando le pareti verticali che sono costellate da numerose grotte poste su vari livelli, molte delle quali sono comunicanti tra loro. L’attuale aspetto, sicuramente molto diverso da quello immediatamente dopo il crollo della volta, è frutto di millenni di erosione ad opera degli agenti atmosferici. Questa erosione ha prodotto nel tempo molteplici crolli delle pareti laterali, costituite da calcari organogeni del cretaceo inferiore, ampliando progressivamente la depressione originaria. La penetrazione, e quindi l’azione corrosiva, delle acque meteoriche è infatti favorita dalla fitta stratificazione a “chiancarelle” delle rocce e da una loro notevole fratturazione in senso verticale. Peculiarità del Pulo non è la formazione nei millenni di stalattiti o stalagmiti ma dei nitrati di grotta. Si tratta di una patina biancastra di salnitro che ricopre ampie zone delle pareti e delle volte delle grotte. La formazione del salnitro è causata dalla decomposizione di materiale organico nel suolo sovrastante la dolina. Questo, disciogliendosi nell’acqua piovana, passa nella roccia sottostante ad alta porosità. Il percolato incontra lungo il cammino verso il basso, delle cavità in cui parte dell’acqua evapora producendo il suo progressivo arricchimento in composti azotati. Sulle pareti interne delle grotte, nella zona più vicina all’interfaccia roccia-aria, i composti azotati del percolato possono subire l’azione ossidante dei batteri che da luogo alla formazione di acido nitrico. L’acido così prodotto si combina con i composti basici circostanti contenenti potassio, calcio e magnesio. L’evaporazione dell’acqua residua da luogo ai nitrati che, in condizioni di saturazione, si depositano nelle fratture della roccia.

La casuale scoperta della presenza di salnitro nelle grotte del Pulo avvenne nel 1783 ad opera dell’abate Fortis, studioso padovano in visita in Puglia su invito del canonico molfettese Giuseppe M. Giovene che aveva iniziato la sistematica ricognizione scientifica del Pulo.pulo1

(Pulli 1817)

Questa la descrizione che ne fece il Pulli circa 20 anni dopo, in cui è riportato come alle grotte di maggiore rilevanza vennero dati i nomi dei regnanti del tempo. La notizia del ritrovamento non sfuggi all’attenzione delle autorità borboniche. Infatti, questa inaspettata fonte di salnitro poteva rappresentare una parziale alternativa alla dipendenza delle strutture statali da appaltatori privati che all’epoca, gestivano la produzione del salnitro a partire dallo stallatico obbligatoriamente conferito dai contadini. Alla fine del ‘700 la disponibilità di salnitro era garanzia di un adeguato armamento dell’esercito. Infatti, esso era il componente principale della polvere pirica, che si otteneva miscelando nitrato di potassio, carbone di legna e zolfo in rapporto 7:2:1, rispettivamente. Per sfruttare le potenzialità di questa nuova fonte di salnitro nel gennaio del 1784 divenne operativa all’interno del Pulo la “Reale Nitriera Borbonica”. Si trattava di una complessa struttura industriale concepita per trasformare in loco il salnitro estratto dalle grotte sfruttando la disponibilità di legna fornita dalle campagne circostanti, la falda acquifera sottostante facilmente accessibile e un sistema per la raccolta dell’acqua piovana. L’impianto era costituito da tre distinti corpi di fabbrica, in parte in muratura, destinati alle diverse fasi del lungo e laborioso ciclo produttivo. Un complesso sistema di vasche, canali e cisterne consentiva la lisciviazione delle terre nitrose estratte dalle grotte del lato nord della dolina. L’acqua madre così ottenuta ricca di nitrati subiva una fase di decantazione in una vasca interrata. Successivamente il liquido madre era trasferito nell’edificio dotato di fornaci in cui avveniva la cottura e raffinazione del salnitro grezzo. Nella prima fase di operatività della struttura (1784-1786) la cottura avveniva in 4 piccole fornaci ciascuna contenente una caldaia metallica (Fig. 2).

pulo5

Fig. 2. Fornaci per la cottura del salnitro grezzo (fonte Radina 2007).

La fase finale del processo produttivo si svolgeva nell’ultima struttura costituita da un vano in cui il salnitro era lasciato cristallizzare in appositi catini di ceramica invetriati internamente. A completamento della nitriera fu riadattato il cinquecentesco convento dei cappuccini, posto all’ingresso della dolina, che divenne sede del corpo di guardia incaricato di sorvegliare l’opificio. All’epoca esistevano diverse nitriere in “Terra di Bari”, alcune delle quali in comuni limitrofi a Molfetta pertanto, sebbene le modalità operative fossero diverse da quelle adottate nel Pulo, il raffronto in termini di produzione fu inevitabile. Dopo solo due anni dall’inizio delle attività, le denunce per la scarsa produttività portarono a miglioramenti del processo produttivo e alla sostituzione dei responsabili della nitriera. Fu abbandonato l’uso di acqua salmastra per la lisciviazione delle terre nitrose e per incrementare la produzione il sopraintendente Targioni fece costruire, tra il 1787 e 1789, una fornace a setti radiali di dimensioni decisamente maggiori rispetto alle fornaci già in uso (Fig. 3).

pulo6

Fig. 3. Grande fornace a setti radiali per la cottura del salnitro grezzo (fonte Radina 2007).

L’attenzione che la nitriera e il processo produttivo utilizzato per l’estrazione del salnitro suscitò tra gli studiosi del tempo fu notevole. Il famoso geologo francese Dieudonné Tancrède Gratet de Dolomieu accolse con meraviglia la scoperta dell’abate Fortis e molti illustri personaggi del tempo visitarono personalmente la nitriera. Tra essi vanno ricordati il naturalista G.A.W. Zimmermann, il mineralogista inglese sir John Hawkins, l’illuminista teramano Melchiorre Delfico, il conte svizzero Karl Ulysses von Salis Marschlins. A seguito della sua visita Zimmermann stilò un accurato resoconto sull’opificio nel “Viaggio alla nitriera naturale di Molfetta” che fu presentato il 27 agosto 1788 all’Académie Royale des Sciences di Parigi.

Sir J. Hawkins, nella sua visita avvenuta nel 1788, disegnò la famosa veduta del Pulo donandoci una istantanea del tempo che consente oggi di visualizzare la nitriera borbonica in attività (Fig. 4).

pulo7

Fig. 4. Veduta di J. Hawkins tratta da G. Zimmerman “Voyage à la nitrière nauturelle qui si trouve à Molfetta dans la Terre de Bari en Pouille”. (Bari Biblioteca Provinciale De Gemmis).

In primo piano sono ben visibili due costruzioni con tetto spiovente ricoperto di tegole, attribuibili ai corpi di fabbrica utilizzati per la cottura e lo stoccaggio del salnitro. Analizzando attentamente la veduta si può osservare come la vegetazione arborea circostante appaia molto ridotta, soprattutto se confrontata alla situazione attuale (Fig. 1). Presumibilmente gli alberi presenti nel Pulo furono i primi ad essere utilizzati come combustibile per le fornaci. Infine, sullo sfondo sono ben evidenti i cumuli di pietrame residui del processo estrattivo.

L’attività della nitriera ebbe però vita breve poiché la produzione nonostante gli sforzi dei gestori non raggiunse mai livelli molto elevati. Il 25 ottobre 1808 l’ispettore generale delle nitriere e polveriere del Regno di Napoli, il chimico terlizzese Pietro Pulli (1771-1841), visitò la nitriera del Pulo trasmettendo alle autorità una relazione su quanto osservato. Nel documento sono descritti in dettaglio i corpi di fabbrica utilizzati nel ciclo produttivo, le caratteristiche delle rocce ma soprattutto non sono risparmiate critiche a chi, non esperto in scienze chimiche, aveva ritenuto di individuare nel Pulo una abbondante fonte di salnitro.

pulo2(omissis)

pulo3 (Pulli 1817)

Questo rapporto in cui erano ben evidenziati tutti i punti deboli del ciclo produttivo indusse le autorità a decretare la chiusura della “Reale Nitriera Borbonica”. Iniziò così il lento ed inesorabile degrado delle strutture mentre il Pulo nel suo complesso tornava ad essere utilizzato da privati per scopi esclusivamente agricoli.

Recenti campagne di scavo condotte tra il 1997 e il 2003 hanno consentito il recupero e restauro di quanto rimaneva delle strutture della nitriera borbonica (Fig. 5) consentendo anche la fruizione del sito da parte dei visitatori.

pulo8

Fig. 5. Veduta aerea dei resti murari della nitriera borbonica (fonte Google Earth).

Purtroppo anche questa nuova vita della nitriera ha avuto vita breve per vicissitudini burocratiche e l’oblio è nuovamente calato su questo esempio di archeologia industriale decisamente particolare. Oggi è possibile ripercorrere parte di questa storia, come quella più generale del Pulo, come sito di insediamenti umani in epoca neolitica, visitando il “Museo Civico Archeologico del Pulo” a Molfetta. Unica nota positiva che è possibile trovare in questa vicenda di recupero e abbandono, purtroppo non unica nel nostro paese, è rappresentata dal fatto che la mancanza di una stabile presenza antropica nella dolina garantisce la sopravvivenza di un’isola di flora mediterranea, in gran parte spontanea, ed un rifugio per l’avi-fauna ad appena un chilometro dal centro abitato. Le oltre 200 specie vegetali recentemente censite ne fanno un hot spot di biodiversità vegetale di notevole rilevanza scientifica. Tuttavia cercare di conciliare la tutela della biodiversità e la fruizione del sito e della sua storia sarebbe sicuramente un bel risultato per la collettività.

Bibliografia

Chiapperini R. 1983. Contributo botanico e bibliografico per lo studio della flora pugliese: con particolare riguardo al Pulo di Molfetta e alla provincia di Bari. Mezzina Ed., Molfetta.

De Santis M.I. 1983. Molfetta nella descrizione di viaggiatori del Settecento e le vicende della nitriera borbonica al Pulo, Mezzina Ed., Molfetta.

Flores E. 1899. Il pulo di Molfetta: stazione neolitica pugliese. Conferenza tenuta in Molfetta nella sede della societa Dante Alighieri il 19 marzo 1899. V. Vecchi Ed., Trani.

Pulli P. 1817. Statistica nitraria del regno di Napoli. Vol II, F.lli Chianese ed., Napoli, pag. 217-226.

Radina F. 2007. Natura, archeologia e storia del Pulo di Molfetta. Adda Ed., Bari.

Link utili per approfondimento

https://www.youtube.com/watch?v=Mrh7cYetE7k

http://www.pulodimolfetta.it/index.php/

L’odore del mare.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

L’odore del mare.

C’è una bella canzone di Eduardo De Crescenzo che parla dell’odore del mare,

Se penso al mondo come a un’armonia

tutto è giusto sia così

se ogni strada è la strada mia

il mio posto è stare qui

L’odore del mare mi calmerà

la mia rabbia diventerà

amore amore è l’unica per me

né dare né avere la vita va da sé

né bene né male intorno a me non c’è

né luna né sole è tutto nel mio cuore

Già ma da dove viene l’odore del mare? E perchè ogni mare ha il suo, e quello di Pescara non sa come quello di Napoli? É la domanda da cento milioni che mi ha fatto il solito amico di Napoli, che mi aveva già fatta quella della pietra focaia; e perchè non pensiate che me lo sono inventato vi dico anche come si chiama: Biagio, è un chimico pure lui, ormai in pensione, ma sempre chimico e anche appassionato di cucina. Non ho intenzione di togliere la poesia a questa cosa, per carità, ma anzi forse la poesia ne esce rinforzata, non diminuita perchè dopo tutto ha colto, prima della scienza, la tipicità dell’odore del mare.

Allora supponiamo che siate in spiaggia o in una città di mare, sapete da dove viene quel particolare odore che è tipico del mare, e del vostro mare in particolare? Quando respirate a pieni polmoni l’aria salmastra minuscole gocce di acqua di mare, di aerosol marino vi entrano nei polmoni e voi state letteralmente gustando il vostro mare; e anche ad una certa distanza da esso rimangono gli odori dei principali costituenti biologici e chimici di una miscela molto complessa.

Una possibile spiegazione è dunque che l’odore del mare venga da una miscela di composti la cui precisa composizione è diversa da caso a caso.

Ci sono almeno tre diverse classi di composti che vi contribuiscono:

-il DMS, dimetilsolfuro mare1

-i dictioptereni, (di seguito dictiopterene D, C, B)

mare2 mare3  mare5

ed infine i bromofenoli mare6.

Vediamo meglio.

Il DMS è un prodotto della degradazione dei tessuti, del catabolismo delle alghe o del fitoplancton, viene dal dimetilsolfoniopropionato (DMSP), la cui formula è indicata nella figura seguente che da ragione anche dei rapporti reciproci fra le due molecole.

Nell’articolo da cui è tratta questa immagine si discutono gli enzimi che degradano il DMSP e la loro genetica; quegli enzimi si trovano in varie specie batteriche sia marine che terrestri, perfino in batteri che si trovano in sistemi produttivi semplici, come nella produzione di alcuni formaggi, che hanno di fatto l’aroma “del mare”.mare7

La cosa interessante è il compito climatico di questa molecola che gioca un ruolo nel ciclo complessivo dello zolfo; nella immagine di Science si fa riferimento al fatto che , direttamente, o indirettamente tramite i suoi prodotti di ossidazione, il DMS svolge un ruolo nella formazione di nuclei di condensa del vapore acqueo; a loro volta tali nuclei sono indispensabii nella formazione delle nuvole, perchè, come molti di voi ricorderanno, la transizione di fase vapore/liquido è sfavorita in modalità omogenea, ossia senza nuclei di condensa, a causa del cosiddetto effetto Kelvin. La tensione di vapore di un liquido o il suo potenziale chimico aumenta con la curvatura, quindi diminuisce con il raggio di curvatura; quando un vapore condensa, se non si supera un certo volume di condensato il nucleo tende a rievaporare velocemente; viceversa se c’è un nucleo di condensa il volume necessario è già fornito da questo nucleo o direttamente o come contributo di energia libera di miscelamento che riduce la spinta a rievaporare.

In sostanza senza nuclei di condensa non ci sarebbero nuvole. Il DMS gioca quindi un ruolo cruciale sulle grandi aree oceaniche; molti anni fa il chimico James Lovelock, il padre (insieme a Lynn Margulis, una biologa) della ipotesi GAIA, aveva ipotizzato questo ruolo del DMS, la cosiddetta ipotesi CLAW, illustrata nella seguente immagine (CLAW è un acronimo dalle iniziali dei proponenti).mare8

In entrambi i casi si tratta del fatto che l’aumento del catabolismo del fitoplancton interagisce in modo positivo o negativo con la formazione di nuvole e la formazione di nuvole a sua volta interagisce con la formazione del fitoplancton. Il riscaldamento dell’oceano viene diminuito dalla formazione delle nuvole stimolata dal catabolismo del fitoplancton (più caldo l’oceano, più fitoplancton, più DMS, più nuvole, meno luce, meno caldo l’oceano), ma può anche esserne aumentato (più caldo l’oceano, più stabilità convettiva, meno risalita di nutrienti, meno plancton, meno DMS, meno nuvole, più luce, più caldo l’oceano). Cogliete anche voi che le due ipotesi, entrambe ragionevoli, (ma non ancora verificate bene) funzionano in intervalli diversi di condizioni. Si tratta di meccanismi di retroazione spontanei che di fatto consentono alla biosfera di possedere modalità di equilibrio, di omeostasi, o di evoluzione che a prima vista appaiono frutto di un disegno intelligente, ma che in realtà non sono diversi dai meccanismi di retroazione negativa classici (come quello del galleggiamento di un corpo) o di retroazione positiva e quindi di allontanamento dall’equilibrio (come l’effetto Droste o l‘effetto Larsen), conosciuti per sistemi inanimati.

I dictioptereni sono invece composti volatili di origine naturale, prodotti dagli organi sessuali delle alghe brune (le cosiddette Feoficee) e giocano il ruolo di feromoni ; in qualche modo potremmo considerarli l’equivalente dei profumi delle piante terrestri, servono ad ottimizzare la riproduzione sessuata delle alghe che li producono, attirando e fissando la componente spermatica. Probabilmente il loro nome (dal greco ali a rete) viene dalla loro struttura così singolare che ricorda appunto un uccello visto di fronte, non essendoci alcun legame con gli insetti dictiopteri. (Qualcuno ne sa di più?)mare9

Macrocystis pyrifera (in inglese Giant Kelp)

Gli uccelli usano sia il DMS che i dictioptereni come segnali della presenza di specie predabili e quindi sono molto sensibili al loro odore.

Ed infine i bromofenoli.

Questi composti anch’essi di origine naturale danno l’aroma a molti cibi e prodotti marini a cui siamo abituati come granchi, gamberi; ma non sono questi animali a produrli ma piuttosto essi li assorbono dal loro medesimo cibo, ossia dai vermi marini, dalle alghe e da altri piccoli esseri che fungono da prede.

La deduzione di questo fatto viene dall’osservazione che alcune specie, come i salmoni del Pacifico che dividono la loro esistenza fra il mare e le acque dolci aumentano il proprio contenuto in bromofenoli massimamente durante la loro permanenza in mare, ma la riducono moltissimo mentre sono in acque dolci; ragionevolmente dunque essi assorbono questi composti attraverso la dieta in ambiente marino.

L’idea di riprodurre questa situazione aggiungendo direttamente i bromofenoli alla dieta di pesci cresciuti in cattività non ha funzionato granchè.

Quale ruolo svolgano per gli esseri che li producono non è ben chiaro; probabilmente servono come aggressivo chimico o per difendersi dall’attacco di altre specie, quindi come pesticidi naturali o dissuasori di attacco. Hanno mostrato attività utili in medicina e per questo motivo sono ampiamente studiati.

Noto di passaggio la confusione che regna su internet dove si richiamano questi composti sostenendo che quando sono concentrati il loro odore diventa spiacevole a causa della componente iodica(sic!?): insomma bromo o iodio?

E’ vero che c’è un ciclo dello iodio i cui attori biologici sono i medesimi di cui abbiamo parlato finora, ma bromo e iodio rimangono elementi distinti!mare10

Insomma la conclusione è che l’odore del mare, come l’odore dei prati in fiore dipende dalle creature che vi abitano, che producono molte molecole diverse, usando queste classi di sostanze o come messaggeri chimici della loro vita sessuale, o come componenti del proprio cibo o come pesticidi spontanei (ricordate per esempio le sostanze cosiddette allelopatiche prodotti da alcuni alberi?) o come cataboliti, come molecole prodotte dal loro metabolismo o perfino dalla loro morte. E’ chiaro allora che in dipendenza della abbondanza dei singoli composti che abbiamo citato, ciascun ambiente marino avrà il proprio profumo, esattamente come l’odore di un prato, o di una foresta o di una palude sono diversi fra di loro ma possono condividere certe componenti. Ovviamente queste molecole hanno un doppio ruolo perchè esse saranno presenti in acqua come soluto, ma avranno una loro tensione di vapore, specifica, in dipendenza da concentrazione e temperatura e anche questo contribuirà a formare uno specifico “odore di mare” in ogni circostanza.

Riferimenti

J.D. Todd et al. Structural and Regulatory Genes Required to Make the Gas Dimethyl Sulfide in Bacteria2 FEBRUARY 2007                  VOL 315    SCIENCE                   www.sciencemag.org

http://www.eurekalert.org/pub_releases/2007-02/uoea-cts012907.php

Popular Science http://www.popsci.com/seasmells Why Does The Sea Smell Like The Sea?

https://en.wikipedia.org/wiki/CLAW_hypothesis

Preistoria del legame a idrogeno

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Sebbene secondo Linus Pauling T.S. Moore e T.F. Winmill siano stati i primi a invocare il legame a idrogeno per spiegare la minore basicità dell’idrossido di trimetilammonio rispetto a quella dell’idrossido di tetrametilammonio nel 1912 [1], non v’è dubbio che la descrizione del legame a idrogeno nel suo ambiente più noto, l’acqua, apparve nel 1920 a opera di Wendell M. Latimer e Worth H. Rodebush [2]. Entrambi, a quel tempo, facevano parte del gruppo di giovani chimico-fisici raccoltisi attorno a Gilbert N. Lewis a Berkeley. Di Latimer abbiamo parlato diffusamente in un precedente post[1], Rodebush (1887-1959) si trasferì come professore associato all’università dell’Illinois nel 1921. Latimer, in una sua breve autobiografia, scrisse:

“In my early paper (1920) with W. H. Rodebush, I first clearly stated the principle of hydrogen bonding, which is now so generally accepted. In this paper Rodebush wrote the first half on the general concept of polarization, and I wrote the last half which dealt with the structural interpretation. We naturally had to get G. N. Lewis’ permission to publish the paper since we used his new theory of valence, and it was only with considerable argument that I was able to keep the hydrogen-bond theory in the paper.[3]

Il lavoro di Latimer e Rodebush, il primo articolo di Latimer, è suddiviso in tre parti oltre all’introduzione: Ionization of Polar Compounds, Ionization of Compounds not Higly Polar, Associated Liquids. Latimer afferma che la parte scritta da lui concerne l’interpretazione strutturale. Questa interpretazione non riguarda solo l’ipotesi del legame a idrogeno ma anche in larga misura il confronto fra l’acidità di diversi composti e la loro struttura in base alla teoria di Lewis.

Ad esempio:

La forza di un ossiacido può essere considerata in termini di forze che tendono a distorcere l’ottetto dell’ossigeno. Lewis, nel suo lavoro “The Atom and the Molecule” ha discusso l’effetto della sostituzione di un atomo di cloro nell’acido acetico. Le idee che ha espresso possono essere considerevolmente estese in connessione con gli acidi ossigenati inorganici. Così per l’acido solforico:

preistoria1

l’attrazione del kernel [nucleo] dello zolfo per gli elettroni messi in comune con l’ossigeno e la repulsione fra i kernel dello zolfo e dell’ossigeno tende a distorcere l’ottetto dell’ossigeno dalla sistemazione cubica. Ovviamente questa attrazione degli elettroni verso lo zolfo insieme alla repulsione del kernel dell’ossigeno indebolirà la forza con cui l’idrogeno trattiene una coppia di elettroni in comune con l’ossigeno. Tanto più alta è la carica positiva sul kernel centrale, tanto maggiore sarà la distorsione. Quindi, per ogni riga orizzontale del sistema periodico, gli ossiacidi di alta valenza, esempio l’acido silicico (H4SiO4), l’ortofosforico, l’acido solforico e l’acido perclorico, diventeranno più forti con l’aumentare del numero atomico. [2, p. 1427]

Notare come la “sistemazione cubica” degli elettroni attorno al kernel (nucleo) sia ancora utilizzata, tuttavia la considerazione delle forze attrattive e repulsive e la chiara definizione di elettronegatività riportata nell’introduzione [2, p. 1419], conducono a risultati corretti, in accordo con i dati sperimentali.

Ancora più interessante è l’esempio dell’acido nitrico.

La struttura dell’acido nitrico può essere una di queste due:

preistoria2

Sotto la spinta di un atomo fortemente elettronegativo come l’ossigeno, l’ottetto dell’azoto può non essere stabile formando un sestetto [struttura a sinistra]. L’analisi a raggi X delle strutture del gruppo nitrato nel nitrato di sodio sembrano confermare questa ipotesi. La stessa cosa è senza dubbio vera per gli acidi borico e carbonico.

La struttura dell’acido nitroso può quindi essere scritta come:preistoria4

Qui abbiamo un altro esempio di una coppia libera di elettroni sull’atomo centrale. Ciò spiega il fatto che l’acido nitroso è più debole dell’acido nitrico. [2, p. 1429]

Tornando all’oggetto di questo post, Latimer espone la sua teoria del legame a idrogeno nell’ultima parte dell’articolo, “Associated liquids”. Dopo aver criticato l’ipotesi che l’aggregazione delle molecole nei liquidi è sostanzialmente correlata alla costante dielettrica e al potere ionizzante del liquido come solvente, scrive:

Confrontiamo ancora i composti ammoniaca, acqua e acido cloridrico. L’ammoniaca addiziona facilmente un idrogeno, ma ha scarsa tendenza a cederne uno. D’altro canto l’acido cloridrico mostra proprio la tendenza opposta. L’acqua occupa una posizione intermedia e mostra tendenze sia a cedere sia a acquistare idrogeno, che sono quasi bilanciate. Quindi, in termini della teoria di Lewis, una coppia non condivisa di elettroni su una molecola di acqua potrebbe essere in grado di esercitare una forza sufficiente da attrarre un atomo di idrogeno legato all’ossigeno di un’altra molecola d’acqua, aggregando così le due molecole. Strutturalmente si può rappresentare cosi:preistoria5

Una tale combinazione non deve necessariamente essere limitata alla formazione di molecole [aggregati] doppie o triple. Infatti il liquido può essere costituito da grandi aggregati di molecole, continuamente rompendosi e riformandosi sotto l’influenza dell’ agitazione termica.

Questa spiegazione implica che il nucleo dell’idrogeno trattenuto fra due ottetti costituisca un “legame debole”. [2, p. 1431]

A questo punto nel lavoro di Latimer e Rodebush compare la seguente nota a piede di pagina:

Mr. Huggins [studente di dottorato] di questo laboratorio in qualche lavoro non ancora pubblicato, ha usato l’idea di un nucleo di idrogeno trattenuto fra due atomi come teoria riguardante certi composti organici.

In realtà pare proprio che questa ipotesi di Mr. Huggins[2] non venga molto considerata dagli autori infatti più avanti si legge:

Non si presume che ogni associazione sia di questo tipo. Nel’acido acetico, per esempio, l’associazione avviene certamente con la formazione di polimeri costituiti di 2 molecole. Questo tipo di associazione però produce proprietà radicalmente diverse da quelle di un liquido come l’acqua.[2, p. 1431]

Tuttavia, il tentativo di interpretare la formazione dell’idrossido di ammonio attraverso un legame a idrogeno con l’ossigeno dell’ossidrile:preistoria6

implica, in termini della teoria di Lewis questo legame dovrebbe essere abbastanza forte[3].

Per quanto riguarda l’acido fluoridrico viene detto:

E’ del tutto possibile nel caso dei composti dell’idrogeno con elementi più elettronegativi, per esempio il fluoruro di idrogeno, che l’attrazione simultanea di un ottetto altamente potente di elettroni, e la repulsione del forte nucleo positivo per l’idrogeno, possa provocare un movimento elastico dell’atomo di idrogeno in singola molecola.

L’associazione delle molecole è, tuttavia, molto probabilmente il fattore che determina l’estremamente elevata costante dielettrica.[2, p. 1432].

Questa è l’interpretazione di Latimer del legame a idrogeno in base alla teoria della valenza di Lewis, la storia più recente di questo legame e la sua importanza nella Chimica della Vita dovrebbe essere nota a tutti i chimici. Ecco la definizione IUPAC:

A particular type of multicenter (three center – four electron) X–H …Y in which the central hydrogen atom covalently linked to an electronegative atom X (C, N, O, S..) forms an additional weaker bond with atom Y (N, O, S..) in the direction of its lone electron pair orbital. The energy of hydrogen bonds, which is usually in the range of 3–15 kcal/mol (12–65 kJ/mol), results from the electrostatic interaction and also from the orbital interaction of the antibonding σ*(XH)MO of the molecule acting as the hydrogen donor and the non-bonding lone electron pair MOnY of the hydrogen acceptor molecule.[4]

 

[1] T.S. Moore, T.F. Winmill, The State of Amines in Aqueous Solution, J. Chem. Soc., 1912, 101, 1635-1676.

[2] W.M. Latimer, W.H. Rodebush, Polarity and Ionization from the Standpoint of the Lewis Theory of Valence, Journal of the American Chemical Society, 1920, 42, 1419-1433.

 [3] J.H. Hildebrand, Wendell Mitchell Latimer 1893-1955. A Biographical Memory, Biographical Memoirs, National Academy of Sciences, Whashington, D.C., 1958, p. 224

[4] IUPAC, Compendium of Chemical Terminology Gold Book, Version 2.3.3, 2014.02.24, p. 697

 

[1] https://ilblogdellasci.wordpress.com/2016/08/01/stato-di-ossidazione-e-numero-di-ossidazione-sono-sinonimi/

[2] Maurice Loyal Huggins (1897-1981) introdusse l’ipotesi del legame a idrogeno nella sua tesi di dottorato (1919) applicandola al tautomerismo dell’acido acetoacetico. Sfortunatamente la tesi andò perduta. Dopo il Ph.D a Berkeley continuò a fare ricerca sul ruolo del legame a idrogeno nella stabilizzazione della struttura secondaria delle proteine. Insieme a Flory ha elaborato un’importante teoria sui polimeri. Ha lavorato all’Arcadia Institute of Research a Woodsde, CA (USA).

[3]  E’ attualmente impossibile isolare la specie NH4OH perché essa sarebbe una frazione insignificante della quantità totale di NH3 eccetto che in soluzioni estremamente diluite.

Curarsi col cibo. Cosa è la nutraceutica.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex Presidente SCI

Negli anni 80 l’Unione Europea denunciò a più riprese l’abuso di farmaci da parte dei consumatori con responsabilità assegnate sia a loro stessi che ai produttori.

La denuncia nacque dalla comparsa di residui farmaceutici nelle acque di moltissimi fiumi europei. In effetti non si trattava di comparsa, ma di concentrazione crescente ad una velocità temporale che se fosse stata mantenuta avrebbe portato nel 2050 i valori di tali presenze a limiti incompatibili con la vita nei fiumi.

Da qui la raccomandazione di mettere in piedi tutte le possibili alternative a tale spropositato utilizzo di sistanze, pure preziose contro malattie e patologie varie.La nutraceutica fu subito rilanciata come uno degli strumenti: curarsi con l’alimentazione è perfetto,si disse. Il discorso non è in effetti così semplice,ma il principio certamente valido.

Il termine “Nutraceutica” nasce , per indicare la disciplina che indaga tutti i componenti o i principi attivi degli alimenti con effetti positivi per la salute, la prevenzione e il trattamento delle malattie. Invece di mangiare e curarsi, ecco come curarsi mangiando. La Nutraceutica ha un compito complesso e fondamentale: sgombrare il campo dalle approssimazioni e trattare l’argomento con la scientificità e il rigore che merita.
Ciò significa raccogliere ed esaminare i test e le indagini sperimentali che vengono condotte in tutto il mondo, individuare quali componenti presenti nei cibi siano responsabili degli effetti benefici eventualmente riscontrati, fornire aggiornamenti costanti sulle più recenti ricerche.
Il ruolo della Nutraceutica diventa quindi decisivo per chi vuole conoscere nel dettaglio cosa succede veramente quando ci alimentiamo, quali principi si attivano e con quali conseguenze reali sulla salute. Nutraceutica deve quindi voler dire riconoscere, attraverso una rinnovata relazione tra biologia, chimica ,agraria, biologia ,biotecnologie e medicina, lo stretto rapporto che esiste tra le nostre abitudini alimentari e la nostra salute.

La maggior parte dei nutraceuticii ha origine vegetale e si trova nella frutta e nella verdura, come fibre, proteine di soia, fitosteroli e polifenoli. Molti nutraceutici possono anche trovarsi in farmacia come integratori alimentari. La gamma di possibilità offerta dal consumo di nutraceutici si è allargata negli ultimi tempi in modo considerevole: mantenimento del benessere , prevenzione delle patologie cardiovascolari e degenerative, rafforzamento del sistema immunitario, regolarizzazione delle funzioni intestinali, aiuto a fini sportivi e cosmetici.
I nutraceutici sono oggi una realtà medico-scientifica in costante espansione, sia per quanto riguarda il numero e l’accuratezza degli studi scientifici che per la diffusione di prodotti specifici (si pensi che negli USA si fatturano oltre 250 miliardi di dollari).

La nutraceutica nella sua prima fase di scienza riconosciuta è stata sosatanzialmente basata sul confronto di composizione fra alcuni farmaci,abusati più che usati, ed alcuni alimenti.Oggi la nutraceutica fha approfondito il suo ruolo potenziale con un carattere funzionale, rispetto alle composizioni viste nel loro complesso e non limitatamente al singolo composto responsabile del conferimento del carattere nutraceutico

L’altro aspetto di valore aggiunto della nutraceutica deriva dagli approfondimenti scientifici che l’assimilazione farmaco/alimento ha indotto e resi possibili.

800px-Semillas_de_Chía

I semi di Salvia hispanica, ricchi di omega-3

 

Le verità della comunità scientifica

In evidenza

 Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Alberto Bellini**

albertobelliniuniboUn comunicato stampa della Società Italiana di Igiene, sostenuto dall’Istituto Superiore di Sanità, ha riaperto la discussione sugli impianti di incenerimento rifiuti. La Società Italiana di Igiene afferma con forza sette verità scientifiche sulla gestione dei rifiuti:

  • Le discariche inquinano più degli inceneritori.
  • La gestione dei rifiuti non può prescindere da inceneritori di ultima generazione, che hanno un bilancio energetico positivo.
  • Lo studio epidemiologico Moniter evidenzia chiaramente l’assenza di rilevanti rischi sanitari acuti e cronici per chi vive in prossimità degli impianti.
  • Il trasporto dei rifiuti, lontano da dove essi vengono generati, ha costi e impatti ambientali rilevanti.
  • È fondamentale una strategia di lungo periodo, basata anche su educazione ambientale.
  • I rifiuti accumulati per strada sono un segno di degrado, ma non sono documentate emergenze sanitarie particolari nel caso della città di Roma.
  • La teoria dei rifiuti zero è illusionistica ma è un falso mito, non solo perché di fatto inattuabile ma per la dimostrazione che le raccolte differenziate oltre una certa soglia (attorno al 60%) rischiano di non essere efficaci.

moniter

L’Istituto Superiore di Sanità definisce Moniter (studio commissionato dalla Regione Emilia-Romagna per valutare gli impatti ambientali e sanitari degli inceneritori) un “lavoro scientifico che ha documentato l’assenza di rischio sanitario per i cittadini che vivono nelle zone limitrofe”. “Un dato, condiviso e convalidato anche dalla comunità internazionale, europea e extraeuropea, attraverso studi che dimostrano, inoltre, che i termovalorizzatori di nuova generazione producono emissioni la cui qualità dell’aria in uscita è sostanzialmente migliore a quella in entrata“.

Stupisce in queste affermazioni l’assenza di ogni dubbio e di riferimenti bibliografici che le sostengano. In realtà, come sostenuto dall’Associazione dei Medici per l’Ambiente[1] e da Medicina Democratica[2], lo Studio Moniter ha dimostrato con chiarezza un aumentato rischio di aborti spontanei e di nascite pre-termine nelle popolazioni esposte alle emissioni degli inceneritori, e un aumento di incidenza di linfomi Non-Hodking per l’area di Modena. Inoltre, Medicina Democratica aveva espresso riserve[3] sul metodo adottato nello Studio, dubbi e richieste alle quali il Comitato Scientifico di Moniter non ha ancora risposto[4]. Dubbi che riguardano il perimetro di indagine e l’assenza tra gli indicatori dell’esposizione di matrici animali e vegetali, indicatori più sensibili agli effetti di diossine e PCB.

Pur cercando di evitare una battaglia “ideologica” tra due fazioni “estreme”: chi considera gli inceneritori una panacea per la gestione dei rifiuti, e chi li considera fonti di inquinamenti inaccettabili in un contesto urbanizzato; il comunicato stampa di SITI e ISS appare fortemente indirizzato verso la prima fazione e contiene alcune contraddizioni.

Presentare gli inceneritori come soluzioni migliorative rispetto alle discariche, è auto-contraddittorio: gli inceneritori, infatti, richiedono discariche di servizio per trattare ceneri e scarti, pari a circa il 30% in volume dei rifiuti in ingresso. Analogamente, quando si contesta il trasporto dei rifiuti a lunghe distanze dal punto di produzione, si dimentica che le discariche di servizio per le ceneri degli inceneritori (tossiche e altamente pericolose) sono spesso a grande distanza dagli impianti stessi.

Immaginare che la raccolta differenziata dei materiali debba essere limitata al 60% significa annullare rapidamente le riserve di materie prime disponibili. Una direzione in aperto contrasto con le politiche comunitarie che puntano sull’economia circolare per superare le crescenti difficoltà di un’area territoriale senza materie prime. Secondo gli studi della Comunità Europea, un uso più efficiente delle risorse lungo l’intera catena produttiva potrebbe ridurre il fabbisogno di fattori produttivi materiali del 17%-24% entro il 2030, con risparmi per l’industria europea dell’ordine di 630 miliardi di euro l’anno[5]. Bruciare i materiali contenuti nei rifiuti significa dover estrarre nuove materie prime per produrre nuove merci (magari “usa e getta”) con un impatto ambientale che non è limitato al singolo impianto di incenerimento ma che percorre tutta la filiera produttiva, dall’estrazione, alla trasformazione, alla commercializzazione delle merci e si riattiva a ogni accensione.

Affermare che la qualità dell’aria in uscita agli inceneritori è migliore di quella in ingresso, significa attribuire ai sistemi di abbattimento fumi un merito superiore a quello di Prometeo stesso: la distruzione di materia. In realtà, quei sistemi producono scarti tossici (in aria e in acque) e la combustione produce particolato ultra fine i cui effetti sulla salute sono unanimente riconosciuti[6]. D’altra parte, se un inceneritore avesse queste straordinarie proprietà, perché non costruirne uno di fianco a ogni ospedale?

Attendiamo ora le controdeduzioni della Società Italiana di Igiene e dell’Istituto Superiore di Sanità alle analisi di ISDE e Medicina Democratica. La comunità scientifica è attesa a un ruolo attivo e indipendente. Le affermazioni assolute sono lontane dal metodo scientifico, e le opinioni di decisori politici o di esperti di altri settori dovrebbero essere ignorate. Il condizionale è d’obbligo se la comunità scientifica abdica al suo ruolo di terzietà e analisi.

A mio parere, per la gestione dei rifiuti occorre una riforma strutturale, che si può sintetizzare in quattro punti.

  • Riduzione e prevenzione dei rifiuti, promuovendo l’immissione a consumo di materiali riciclabili, attraverso incentivi economici, ad esempio, fissando un contributo ambientale, inversamente proporzionale alla riciclabilità del prodotto.
  • Tariffe proporzionali alla produzione di rifiuti non riciclabili, per declinare il principio comunitario, chi più inquina più paga.
  • Piano pluriennale per la realizzazione di impianti di selezione e recupero dei materiali secchi (carta, plastica, vetro, metalli) e per il trattamento della frazione organica.
  • Piano pluriennale per gli impianti di smaltimento.

L’obiettivo delle prime tre azioni è la riduzione il rifiuto residuo indifferenziato al di sotto della soglia di 100 kg per abitante per anno, nel medio periodo – eg 2025. In questo modo, la quota di materiale da smaltire attraverso discariche e inceneritori sarebbe pari a circa 6 milioni di tonnellate ogni anno (nel 2014 è stata pari a circa 14.5 milioni di tonnellate). Assumendo che 80% del residuo venga trattato con inceneritori, sarà necessaria una capacità complessiva inferiore a 5 milioni di tonnellate. I 42 inceneritori attualmente operativi hanno una capacità complessiva pari a circa 6 milioni di tonnellate. Quindi, il piano di cui al punto (4) dovrà prevedere una riduzione ed equa distribuzione degli impianti, attualmente concentrati in Lombardia (13), Emilia-Romagna (8), Toscana (5). Una disomogeneità destinata a produrre tensioni sociali, e a non favorire un’efficiente gestione dei rifiuti. Emblematici alcuni dati riportati dallo studio di settore sui rifiuti di Cassa Depositi e Prestiti[7]: (1) le esternalità (costi sanitari e ambientali) associate al settore rifiuti sono pari a 157 € per ogni 1.000 € di valore aggiunto generato, mentre sono in media pari a 24 € per il totale delle attività economiche; (2) la percentuale di materia smaltita in discarica è inversamente proporzionale alla quota procapite degli investimenti per impianti. Nel paese le distanze rimangono enormi, si passa, infatti, da 45 € per abitante investiti in Emilia-Romagna nel periodo 2004-2008 a meno di 5 € in Calabria; la quota di rifiuti smaltiti in discarica è pari al 6-7% in Friuli Venezia Giulia e Lombardia, e pari a oltre 80% in Sicilia e Lazio[8].

Economia-circolare

La riduzione degli inceneritori è un’operazione necessaria per promuovere il recupero di materia e l’economia circolare, poiché essi sono impianti molto rigidi che richiedono una quantità fissa di materia. Realizzare un inceneritore significa ipotecare il futuro, ovvero prevedere che per i prossimi 20-30 anni sarà disponibile un’elevata quantità di materia non riciclabile e non separata alla fonte. Un’opzione che contrasta con le dinamiche economiche e industriali che vedono un’elevata sovra capacità impiantistica (in particolare in Nord Europa) e una costante riduzione di materiale indifferenziato. Queste dinamiche dovrebbero mantenersi e anzi esaltarsi per effetto delle politiche sull’uso razionale delle risorse che prevedono il disaccoppiamento tra produzione e consumo di materie prime e per effetto delle politiche ambientali che promuovono la raccolta differenziata di qualità. Politiche che si estenderanno per ragioni economiche e ambientali, ovvero per limitare l’uso di materia prima e risorse naturali, già oggi, in molti casi, vicino ai limiti di sfruttamento. Tra il 1900 e il 2009 il consumo di materiali da costruzione, metalli e minerali, energie fossili e biomassa è passato da meno di 10 a circa 70 miliardi di tonnellate all’anno[9].

 

[1] Comunicato stampa Associazione Medici per l’Ambiente – ISDE Italia, 17 agosto 2016, “replica a comunicato della Società Italiana di Igiene su inceneritori”.

http://www.isde.it/wp-content/uploads/2016/08/2016.08.17-Replica-a-SItI-su-presunta-utilità-ed-innocuità-degli-inceneritori-di-III-generazione-Comunicato-Stampa-ISDE-Italia.pdf

[2] Medicina Democratica, “Il mito di Prometeo offusca la visione della Società Italiana di Igiene”, 17 agosto 2016

Il mito di Prometeo offusca la visione della Società Italiana di Igiene

[3] Medicina Democratica, “Osservazioni sullo studio Moniter”, a cura di Agostino Di Ciaula e Patrizia Gentilini, gennaio 2012.

http://www.medicinademocratica.org/wp/wp-content/uploads/2016/08/osservazioni-Moniter-MD.pdf

[4] Progetto MonITER, “Verbale della seduta del comitato scientifico del 16 marzo 2012”

http://www.medicinademocratica.org/wp/wp-content/uploads/2016/08/CS120316.pdf

[5] Commissione delle Comunità Europea, “Verso un’economia circolare: programma per un’Europa a zero rifiuti”, 2 luglio 2014, COM(2014)398.

[6] WHO Regional Office for Europe, OECD (2015). Economic cost of the health impact of air pollution in Europe: Clean air, health and wealth. Copenhagen: WHO Regional Office for Europe

[7] Cassa Depositi e Prestiti, “Studio di settore: Rifiuti”, febbraio 2014.

[8] ISPRA, “Rapporto Rifiuti Urbani”, 2015.

[9] Senato della Repubblica, Servizio Studi Dossier Europei, “Le proposte sull’economia circolare”, 19 gennaio 2016.

 

**Alberto Bellini è professore associato presso l’Università di Bologna.
I suoi principali interessi di ricerca sono nell’ambito della conversione statica di energia da fonti energetiche rinnovabili, degli azionamenti elettrici digitali e della diagnostica preventiva delle macchine elettriche.
È stato coordinatore del progetto europeo Life+ RELS sulla gestione dei rifiuti.
È autore o co-autore di oltre 100 articoli scientifici, di 3 brevetti industriali e di un testo didattico.

Fluorazione delle acque potabili. Una questione controversa.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Esiste per ogni persona che si occupi di chimica, un filo che ci collega a qualche elemento. Non è semplice capire perché uno invece di un altro. Le suggestioni possono essere diverse e magari derivano da ricordi di lezioni scolastiche. Io ero interessato agli alogeni ed in particolare incuriosito dal fluoro. Forse le prime curiosità nascevano dalla pubblicità. Io posso definirmi della generazione di Carosello, contenitore pubblicitario che aspettavo di vedere ansiosamente, come quasi tutti i bambini. Negli anni 70 erano innumerevoli le pubblicità che dicevano meraviglie di dentifrici con nomi che mi ricordavano gli alogeni (anche se Chlorodont probabilmente faceva riferimento alla clorofilla più che al cloro…).
Il fluoro è un elemento molto noto per la sua capacità di creare composti anche a temperatura ambiente con quasi tutte le sostanze organiche ed inorganiche vista la sua elettronegatività.
Ricordo che rimasi molto impressionato dalle proprietà dell’acido fluoridrico che, mi venne spiegato, veniva usato per incisioni da effettuarsi sul vetro, quali quelle che molti anni fa si trovavano per esempio sulle bottiglie dei reattivi o nelle porte degli uffici.

fluoro

Eppure in molti paesi di area anglosassone quali Stati Uniti, Canada, Australia e Nuova Zelanda l’acqua potabile veniva e viene sottoposta a fluorazione con l’aggiunta di composti quali sodio fluoruro (NaF) o acido fluosilicico (H2SiF6).
L’ipotesi alla base di questo provvedimento era che il fluoro avrebbe effetto di prevenzione sulla carie dentaria.
In Italia ed in buona parte dell’unione europea l’acqua potabile non viene fluorata con l’eccezione di Irlanda e Gran Bretagna. In paesi quali Germania, Belgio, Austria e Francia è di normale uso il sale fluorato.
In Italia i primi studi ed esperimenti sull’efficacia dl fluoro come mezzo profilattico risalgono ai primi anni cinquanta e furono avviati dalla Clinica Odontoiatrica dell’Università di Pavia, diretta da Silvio Palazzi, in collaborazione con Alessandro Seppilli, direttore dell’Istituto di Igiene dell’Università di Perugia; le ricerche delle due Scuole confermarono il potere batteriostatico ed antifermentativo del fluoro applicato direttamente sullo smalto, oltre che quello preventivo e profilattico dei dentifrici fluorurati.
L’Italia in ogni caso non scelse di fluorare le proprie acque potabili per diverse ragioni,la prima fra tutte il fatto che in Italia la concentrazione media di fluoruri nelle acque si stima abbia un valore di concentrazione medio di 1 mg/lt, con scostamenti in zone quali quelle dei Castelli Romani dove è sensibilmente più alta.
Per quanto riguarda la normativa Italiana il limite di concentrazione dei fluoruri nelle acqua potabili è fissato a 1,5 mg/lt dal decreto legislativo 31 del 2001 che è la normativa di riferimento per i controlli di qualità.
In Italia non esistono normative relative alla fluorazione dell’acqua.
Per quanto riguarda il rapporto rischi/benefici di una fluorazione delle acque potabili, il dibattito è tutt’ora più che mai aperto.
La fluorazione delle acque può essere un intervento di sanità pubblica molto benefico nelle zone in cui le acque potabili sono povere di fluoruri. Il beneficio non si limita alla prevenzione della carie, ma protegge anche da infezioni, perdite di denti e patologie orali particolarmente dolorose.
Sono però noti anche danni conseguenti a fluorosi sia a livello dei denti che dell’apparato scheletrico.
Quindi sembrerebbe una decisione più sensata quella di applicare composti a base di fluoro localmente con le paste dentifricie piuttosto che tramite una profilassi diffusa tramite la distribuzione di acqua degli acquedotti municipali.

acquedotto

Questo anche per una ragione pratica: non tutte le persone utilizzano acqua di rubinetto per bere, anche se in Italia negli anni il gradimento è aumentato. Il 71,8%, sceglie l’acqua del rubinetto e quasi una persona su due, dichiara di berla sempre o quasi sempre (44%).

La fluorazione di acque municipali negli Stati Uniti condusse anche a proteste popolari non appena si ebbero maggiori informazioni sulla tossicologia dei fluoruri. Queste informazioni si ricavarono da studi condotti sulle industrie che utilizzavano fluoro o suoi composti per produzioni industriali. Il fluoro nel XX secolo è stato utilizzato dall’industria per la produzione di materiale plastico (teflon), nei refrigeranti industriali come il freon (prima che ne venisse vietata la produzione), e anche nell’industria farmaceutica. Un ben conosciuto medicinale utilizzato per curare stati ansiosi e depressivi ha come principio attivo la fluoxetina.
Dove però si lavoravano minerali contenenti fluoro da utilizzare come materie prime per le successive produzioni si riscontravano tra i lavoratori una serie di malattie lavorative che andavano da disturbi gastrici,neuromuscolari, fino agli sfoghi cutanei.
Un libro fondamentale sulla tossicologia del fluoro e dei fluoruri fu scritto dal medico danese Kaj Eli Roholm e venne tradotto in inglese nel 1937 con questo titolo : Fluorine intoxication – A clinical hygiene study with a review of the literature and some experimental investigation.
Roholm concluse anche, studiando gli operai di uno stabilimento di Copenhagen che trattava la criolite proveniente dalla Groenlandia, che i denti degli operai che contenevano più fluoro erano maggiormente rovinati. Ma manifestazioni di fluorosi dentale che macchiavano con chiazze giallastre i denti, si riscontravano anche nei figli di operaie che avevano ricevuto fluoro attraverso il latte materno.

dental-fluorosis

Per questa ragione, mentre la battaglia tra i favorevoli ed i contrari alla fluorazione delle acque proseguiva, nel 1950 negli USA a Seven’s Point un paese del Wisconsin dove la fluorazione dell’acqua potabile era in corso da cinque mesi si tenne un referendum pro o contro questo trattamento.

I No vinsero per 3705 voti contro 2166.

A fine 1955 risultarono effettuati 231 referendum in tutti gli Stati Uniti con un po’ più della metà (127) contrari al trattamento di fluorazione delle acque.

Attualmente la fluorazione è un argomento ancora controverso nei paesi in cui viene praticata.
Pensare di stabilire una stima esatta del consumo giornaliero di acqua che sia applicabile a tutta una popolazione risulta essere non semplice, se si tiene conto dei differenti stili di vita, e del fatto che il consumo di acqua varia molto da individuo ad individuo.
Diversi studi clinici hanno evidenziato che l’assunzione di fluoro in maniera continuativa attraverso l’acqua potabile potrebbe aumentare il rischio di contrarre osteosarcomi.
Per concludere penso che aggiungere qualcosa nelle acque di acquedotto sia una sorta di forzatura. E tutta la vicenda della fluorazione risente degli anni  ormai lontani in cui è stata proposta ed attuata.
Per la prevenzione dei disturbi dentali è preferibile praticare una corretta igiene orale piuttosto che attuare improbabili campagne di fluorazione di massa.
Anche se il fine dovesse essere quello di fare profilassi e prevenzione per persone economicamente svantaggiate. Lo scopo di chi gestisce una rete idrica è provvedere alla fornitura di acqua sicura e controllata. Non di trasformarla in una sorta di medicinale. Questa la mia personale opinione.
Ma se fate una ricerca in rete su questo argomento troverete pagine con le opinioni più diverse. Da quelle tutto sommato possibiliste sul portale Epicentro dell’ISS, fino a trovare pagine in cui questo argomento viene trattato con uno stile del tutto simile a quello dei sostenitori delle scie chimiche (Fluorizzazione- Controllo mentale delle masse?).
Queste sono le cose che riescono tutt’ora a sorprendermi. La capacità di costruire leggende e pseudoscienza, quasi ci trovassimo di fronte ad un nuovo medioevo.
Noi come chimici  possiamo e dobbiamo continuare con un lavoro continuo paziente e capillare di informazione.
E per quanto riguarda la questione fluoro (ma vale per ogni altro aspetto legato alla chimica che spesso viene tirata in ballo a sproposito) dobbiamo informare.
Per una questione di questo tipo sarebbe importante e auspicabile un confronto anche con altre categorie (medici e biologi per esempio).
Perché la questione resta aperta e meriterebbe un approfondimento.

Chimica ……olimpica.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Quando diciamo che la Chimica è dappertutto potrebbe sembrare di esagerare, ma non è così; in questi giorni, mentre mezzo mondo guarda a Rio e alle Olimpiadi due piccoli eventi sottolineano il ruolo centrale della nostra disciplina (e devo dire della sua interazione con la biologia).

Vediamo di cosa si tratta.

Il primo fatto a cui mi riferisco è la ormai famosa piscina verde. Una delle piscine usate per gli sport acquatici è rimasta ostinatamente verde nonostante tutti i tentativi di riportarla al suo colore “naturale” azzurro chiaro.

Piscine dell’impianto Maria Lenk a Rio de Janeiro

L’altro fatto invece è la composizione delle medaglie olimpiche, che costituiscono poi l’obiettivo almeno formale di tutto l’ambaradan olimpico. Di cosa sono fatte?

olimpiadi3Una delle piscine dell’impianto Maria Lenk, come si è visto dalle immagini, è diventata verde ed è rimasta tale a dispetto di tutti i tentativi di rimediare con notevoli polemiche sia degli atleti che dei giornalisti.

Alla fine la causa “ufficiale” è stata che l’uso intensivo della piscina ha cambiato il pH dell’acqua favorendo la colorazione, addirittura si è parlato del fatto che se gli atleti sono dopati la loro pipì avrebbe avuto effetti nefasti, beh tutte favole metropolitane; molti atleti hanno invece sostenuto che i filtri non funzionavano bene denunciando anche un cattivo funzionamento dell’impianto la cui acqua rimaneva troppo fredda. Probabilmente la causa vera non la sapremo mai al 100%, ma certamente non perchè, come ha sostenuto uno degli speaker ufficiali “la chimica non è una scienza esatta”.

Per rimediare si è proceduto al cambio dell’acqua integrale della piscina che sembra aver risolto la questione.

Ora le piscine, comunemente, diventano verdi a causa di un fenomeno base: la presenza di alghe, che si sviluppano spontaneamente quando il pH e la clorazione non sono ben controllate. Le alghe sono ubiquitarie, chi lavora con i termostati o le vasche termostatiche in laboratorio lo sa benissimo. Personalmente ho avuto le mie esperienze con le alghe perchè ho lavorato ripetutamente con vasconi molto grandi fino ad 1 metro cubo ed è molto difficile evitare lo sviluppo di alghe ed una colorazione verde o peggio la crescita algale massiva a meno di non usare prodotti che uccidano le alghe o ne rallentino lo sviluppo.

Nelle grandi piscine dove la copertura e l’uso umano rendono impossibile l’uso di prodotti tossici occorre sia controllare il pH sia usare un ossidante come il cloro, sotto forma di ipoclorito per controllare alghe e batteri.

Cosa potrebbe essere successo, escludendo la rottura dei filtri e la disattenzione ai normali controlli?

Sembra in effetti che un errore procedurale possa aver causato il problema; secondo una dichiarazione ripresa da alcuni giornali stranieri c’è stata una aggiunta di quasi un ettolitro di acqua ossigenata (anche se non sappiamo a quale concentrazione); l’acqua ossigenata si usa anch’essa per controllare lo sviluppo algale, ma i chimici sanno bene che mescolare due forti ossidanti come acqua ossigenata ed ipoclorito comporta una loro reazione reciproca

NaClO + H2O2 → NaCl + H2O + O2

e questo non è un bene perchè in questo modo invece di usare il loro potere ossidante contro le alghe entrambi vengono neutralizzati.

Probabilmente, quindi, il responsabile del problema è stato l’eccesso di zelo; per evitare problemi si sono usati in modo non competente due ossidanti che si sono neutralizzati fra di loro.

L’altra questione è quella delle medaglie; la risposta la da (forse) il sito Compound Interest, uno dei più documentati di lingua inglese con la seguente tabella:

olimpiadi2Come potete osservare le medaglie d’oro non sono di oro ma di argento e nemmeno particolarmente puro e solo l’1% di oro o poco più le ricopre; le medaglie di argento sono di argento riciclato (che non è male) e infine le medaglie di bronzo sono (sarebbero secondo il sito) effettivamente di …ottone, che come sapete è una lega rame-zinco, conosciuta da parecchio tempo.

Il bronzo è una lega rame-stagno mentre l’ottone è una lega rame zinco. Il bronzo è venuto prima dell’ottone ed ha perfino caratterizzato una intera epoca storica, l’età del bronzo appunto; qualcuno potrebbe chiedersi a questo punto perchè non sia esistita una età dell’ottone; forse perchè la metallurgia del bronzo a partire dai minerali è molto più semplice di quella dell’ottone? Possiamo discuterne.

Ma c’è una incertezza. Se le medaglie sono fatte solo di rame e zinco non possono essere definite di bronzo ma appunto di ottone che è una lega fino al 40% di zinco, anzi può essere considerata una vera e propria soluzione solida di zinco in rame.

Il sito Compound Interest di cui vi ho riportato la tabella sostiene che sono di fatto di ottone, ma continua a chiamarle di bronzo ( non lo commenta nemmeno la composizione, il che mi fa pensare che possa confondere le due leghe**) mentre quest’altro sostiene che sono effettivamente di bronzo.

Secondo Wikipedia la composizione, peraltro non esplicita, contiene sia stagno che zinco, ma in proporzioni non ben definite. Anzi la composizione effettiva delle medaglie, come racconta Wikipedia, è cambiata nel tempo.

Alla fine ho trovato sulla pagina ufficiale la composizione definita così:

97% rame e 3% zinco; si tratta quindi chiaramente di una lega di ottone non di bronzo!! e per di più diversa da quella indicata da Compound Interest.

Per la differenza bronzo-ottone non c’è che il sito del mio amico prof. Diego Colombo che insegna nella mia Università. Comunque ho scritto al sito Compound e potete leggere le risposte in calce**.

Questa situazione comporta che il valore venale delle medaglie sia alquanto ridotto; le medaglie “d’oro” valgono solo 500 dollari mentre se fossero tutte d’oro varrebbero di solo contenuto aureo almeno 20.000 dollari; alla cosa rimedia “il mercato”  perchè le medaglie olimpiche hanno una fiorente compravendita di appassionati che le fa valere ben di più di questi prezzi. Quelle di argento valgono la metà, attorno ai 300 dollari e quelle di “bronzo” (e di fatto di ottone) attorno ai due dollari.

Chimica e Olimpiadi non vanno molto d’accordo perchè usando la Chimica alcuni dei rutilanti segreti delle Olimpiadi si rivelano per quello che sono: mezzucci umani per abbassare i prezzi o semplice incompetenza; e non parliamo del doping (o meglio ne riparleremo in futuro).

** ho scritto al sito e vi allego lo scambio di mails; la mia opinione è che non si siano accorti subito di cosa avevano scritto anche se sostengono di saperlo, ma allora perchè non farlo notare, trattandosi di una cosa così grossolana? bah

On 16 August 2016 at 08:49, claudio della volpe ‪<wordpress@www.compoundchem.com> wrote:

Name: claudio della volpe

 

Email: claudio.dellavolpe@unitn.it

 

Comment: Dear sirs I suppose there is some problem in the composition of Olympic Bronze medals as you defined them; the alloy of copper and zinc is commonly defined brass not bronze; this is not commented on in your recent article on olympic medals; what is the effective composition and what is the name of the alloy?

 

Time: August 16, 2016 at 7:49 am

IP Address: 188.114.103.191

Contact Form URL: http://www.compoundchem.com/about/

Sent by an unverified visitor to your site.

 

Il giorno 16 Aug 2016, alle ore 10:08, Compound Interest ha scritto:

 

Dear Claudio,

 

There is no error in the graphic – the bronze medal isn’t actually made from bronze! The compositions are according to the Brazilian Mint who made the medals, and the bronze medal is indeed made from just copper and zinc.

 

Hope that clears it up.

 

Thanks,

 

Andy

 

Compound Interest

www.compoundchem.com

 

On 16 August 2016 at 10:11, Claudio Della Volpe ‪<claudio.dellavolpe@unitn.it> wrote:

OK but this means that the Bronze medal is in fact made of brass, because bronze is an alloy of copper and tin not zinc, while brass is an alloy of copper and zinc until 40%

that is the point

 

 

Il giorno 16 Aug 2016, alle ore 10:27, Compound Interest ha scritto:

Yes, I am aware of this. However, it’s still called a bronze medal (for the sake of tradition I guess)!

 

Compound Interest

www.compoundchem.com

 

OK if you agree it would be useful for the public at large to indicate this difference in your post there is no comment on this point: the bronze medals are made of brass

a last point; looking at the officlal page:

http://www.brasil2016.gov.br/en/news/olympic-and-paralympic-medals-of-the-rio-2016-games

the exact composition is even different:

97% of copper and 3% of zinc

I suppose an update is necessary on your page

 

La risposta di IUPAC.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Cari colleghi come ricorderete abbiamo raccolto oltre 3000 firme per chiedere ad IUPAC di chiamare con un nome che facesse riferimento a Levi o comunque con un nome che sottolineasse gli aspetti generali e di pubblico interesse della Chimica uno degli ultimi 4 elementi scoperti; l’idea di usare il nome di Levi veniva da un articolo pubblicato su Nature da Philip Ball, uno degli editor di Nature.

La raccolta, in calce ad una petizione a IUPAC è andata avanti sia pur lentamente negli ultimi mesi, e, se devo dire la mia personale impressione, non è stata efficacissima; tutto sommato la sola SCI ha oltre 3000 iscritti e fra SCI e ordini dei chimici (e il CNC) si superano abbondantemente i 10.000 iscritti; altrettanti probabilmente e certamente di più non sono organizzati in alcuna associazione culturale o professionale; inoltre la raccolta era fatta su un testo in quattro lingue e si è valsa di qualche indirizzo estero suggerito da alcuni colleghi.

Si poteva fare di più; ne prendo atto e ne prendiamo atto come redazione, credo, ma non dipende solo dalla volontà, ma anche dal contesto; prova ne sia che altri tentativi, citati nel prosieguo hanno superato le 100.000 firme.

Questa è una prima conclusione; questo blog ha un ruolo, ma può fare di più e può fare di più se altri, oltre i membri della redazione attuale, vi parteciperanno CON CONVINZIONE, con la convizione che la divulgazione e la discussione APERTE, non riservate all’accademia e prive di qualunque “spocchia culturale” e di una grande apertura alle istanze sociali e culturali, sono la base di un confronto efficace fra noi e il resto della società del nostro paese, perchè chimico non sia più una parolaccia.

Ma comunque sia, una volta superato il traguardo delle tremila firme abbiamo deciso di spedire la richiesta della petizione (firmata dalla redazione del blog ed aggiunta qui in calce) a IUPAC, sia al consiglio direttivo che alla divisione di chimica inorganica che si occupa del tema degli elementi e della nomenclatura e questa che segue è la gentile e, tutto sommato, inattesa risposta del suo coordinatore e presidente, Jan Reedijk.

Come vedrete si tratta di una risposta di fatto negativa ma nel medesimo tempo possibilista e aperta a quello che è il cuore della questione: da una parte la questione dell’immagine della Chimica è nell’attenzione della IUPAC (e non poteva essere altrimenti) e insieme i metodi di assegnazione dei nomi devono essere aggiornati e anche su questo c’è convergenza.

Insomma non abbiamo vinto, ma abbiamo contribuito o stiamo contribuendo ad aprire una strada nuova; incrociamo le dita e continuiamo la nostra azione.

Si potrebbe anche mandare la petizione ai gruppi che hanno fatto le scoperte anche se l’idea di usare altri nomi è certamente stata alla loro attenzione non fosse altro che per la discussione presente nella letteratura internazionale; secondo me le questioni di cui stiamo discutendo, il ruolo della Chimica nella società, l’immagine negativa della chimica e l’idea che le scoperte sono di chi le fa e non viceversa di tutta l’umanità non sono un problema solo italiano. Parliamone.

PS. Se IUPAC ritiene di dover aggiornare le proprie regole, lo stesso forse dovrebbero fare anche la SCI (e il CNC).

A voi i commenti.

La risposta di IUPAC

 

Dear dr. Della Volpe and colleagues:

Thanks for your message and attachments, which was emailed to me and many other colleagues of the IUPAC Executive committee and Inorganic Division Committee.

The fact that you had such a long list of addressees had resulted in your message being filtered away by my spam filter. (And perhaps this happened with other recipients as well; fortunately I could fish it out. TIP: when you send a mail to more than 6 or 8 people: use bcc instead of “cc” or “to”).

 

First of all I am pleased to see that such a large group of people wants to make a plea to give a special name of a new chemical element to try to promote chemistry. Earlier this year we had another petition for a name from another group, which was even accompanied by over 150000 signatures!

We agree with you that naming of new elements is one of the rarely occurring events which we can use to generate extra attention for chemistry.

Your recent example on “chemical free” products again illustrates that chemists still have a mission; indeed in the last 4 decades “free of chemicals” has very often appeared in the press and in advertisements, and was repeatedly criticized as a misnomer. I remember from about 40 years ago a cartoon in New Scientist where a restaurant advertised soup “guaranteed without chemicals” as which was followed by many others since then.

 

Regarding your petition and proposal, I am afraid that you and your colleagues were not aware of the current (and older) rules for naming new elements, as updated most recently in the following paper:

W.H. Koppenol, J. Corish, J. Garcia-Martinez, J. Meija and J. Reedijk; How to name new chemical elements (IUPAC Recommendations 2016); Pure Appl. Chem.,  88, (2016),  401-405.

Here it is clearly written that ONLY the discoverers can propose names.

However, your petition and other comments from the community have made clear to me that perhaps in the future IUPAC might want to consider to modify the current rules and procedures for naming new elements. If that would be the case, your petition would clearly have played a role.

 

In summary: I regret we cannot honour your request given the current rules of naming, but your efforts to undertake action to make chemistry as a field more “popular” are highly appreciated.

 

Kindest regards

Jan Reedijk; President  Inorganic Chemistry Division IUPAC

 

Il testo della mail mandata ad IUPAC:

Dear Sirs,

 Please find attached a list of more than 3000 signatures collected on a dedicated web-page (https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements) asking for naming one of the recently new discovered elements as Levium (113 o 115) or Levine (117) or Levion (118). We are proposing this name following a suggestion of Philip Ball (P. Ball, Nature, 2016, 529, 129).

Chemistry is a “central science” because of its connection with all other sciences; it has been defined as “nice and powerful” and it is certainly, with its countless technologies and applications, at the base of our day life. Notwithstanding this, Chemistry is passing through an important reject crisis by the public at large. An example is the widespread use of the term “chemical free” (Nature Chemistry vol. 6 -2014 p. online). There is an increasing intolerance of the public at large toward a science and a technology that appear to violate the “natural order” of things. Probably this is only the somewhat obscure consciousness of the difficulty to push science towards socially important objectives, rather than to further increase the power of multinational companies. At the same time, we need to face new and important challenges deriving from the exaggerated impact of chemistry and other sciences on biosphere, which brought Paul Crutzen, Nobel Prize for Chemistry in 1995, to propose the term “anthropocene” for the current epoch.

Chemistry needs a symbol, a flag, a unifying myth (mythology is an allowed source of element names) to underline the idea that, if we wish to live in peace on Earth, Chemistry has to be a science for people, for all human beings.

At the end of World War II, a chemist who had the venture to live a terrible experience in a concentration camp, looked deeply at the rubble left behind by the war and at the role of some insane relationships between science, technology and the malefic power of man. His name was Primo Levi, an Italian chemist with Hebrew culture, the author of one of the most famous and widely read books in the world: “The Periodic System”, which is also used as a schoolbook in many countries. “The Periodic System” is an incredibly audacious piece of literature trying to merge the best scientific and humanistic traditions: the rejection of war, the development of science and the desire to live together in peace.

Chemistry is for all, for each child, woman or man of this planet, whatsoever his/her religion, skin colour or language, rich or poor, migrant or not. Chemistry is for all. This is the greatest myth: one humankind only. Levium, Levine or Levion, but let it be this name (or a similar one) indicating Chemistry as a common flag for humankind.

(in alphabetical order) Vincenzo Balzani, Luigi Campanella, Rinaldo Cervellati ,Claudio Della Volpe, Mauro Icardi, Annarosa Luzzatto, Giorgio Nebbia, Margherita Venturi

E.mails: vincenzo.balzani@unibo.it, luigi.campanella@uniroma1.itrinaldo.cervellati@unibo.itclaudio.dellavolpe@unitn.it,  siricaro@tiscali.it ,annarosa.luzzatto@gmail.comnebbia@quipo.it,   margherita.venturi@unibo.it

Attached text of the petition in .pdf and list of 3029 signatures in .csv

Stiamo campando a credito.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex Presidente SCI

La campagna globale #pledgefortheplanet chiede a tutti noi di agire per il cambiamento climatico. Entro l’8 agosto l’umanità avrà esaurito le risorse che la natura le mette a disposizione per tutto l’anno: è quanto afferma il Global Footprint Network, GFNun’organizzazione di ricerca internazionale che sta cambiando il modo in cui il mondo gestisce le sue risorse naturali e reagisce ai cambiamenti climatici.Quanto volte abbiamo letto di un giorno dell’anno a partire dal quale guadagniamo per moi stessi,essendo quanto ottenuto prima assorbito da tasse ed imposte.Il discorso in questo caso si inverte visto dalla natura.Il giorno del sovrasfruttamento della Terra (Earth Overshoot Day) evidenzia la data in cui la domanda annuale di risorse naturali da parte dell’umanità supera le risorse che la Terra può rigenerare in un anno.

bioc1960bioc1984bioc2012Questo è possibile perché emettiamo più anidride carbonica nell’atmosfera di quanto gli oceani e le foreste siano in grado di assorbire, deprediamo le zone di pesca e le foreste più velocemente di quanto possano riprodursi e ricostituirsi,cementiamo il verde ben oltre quanto può riprendersi,immettiamo sostanze estranee a concentrazioni per le quali i processi naturali non sono in grado di rimediare.Il nostro blog vuole ricordare questa giornata nella convinzione che i cittadini,e quindi tutti noi, prendendo coscienza e conoscenza di come stanno le cose,possano contribuire a migliorarle attraverso comportamenti più responsabili ed indicazioni conseguenti al potere politico, responsabile delle scelte di politica ambientale, alimentare,energetica

numeri

Toponomastica chimica

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Si fa un gran parlare di chimica e della sua importanza, ma di fatto le parole della chimica sono poi “riservate” usate poco nel linguaggio quotidiano e quando lo sono spesso il loro significato è ambiguo, diverso, debole.

Tuttavia ci sono dei “resti” della chimica nella toponomastica italiana, cioè nei nomi di paesi, città, borghi, luoghi, vie, piazze. E di questo vorrei parlarvi brevemente oggi.

Cominciamo con i nomi dei comuni italiani, che sono circa 8000 e che potete trovare facilmente in rete.

In alcuni casi troviamo esplicito riferimento a qualche elemento chimico fra i più comuni; per esempio

Calcio è un comune della provincia di Bergamo nella valle dell’Oglio, fondato in epoca romana (III sec. a.C ). Secondo wikipedia “Anche il significato etimologico del nome risalirebbe a quel periodo: calx infatti indicherebbe proprio il materiale presente in natura con il nome di calcio (i cui composti assumono il nome di calce), molto comune in quel tempo specialmente sulle rive del fiume Oglio, dove si verificarono i primi insediamenti umani stabili.” Probabilmente ci si riferisce a depositi di calcare non di calcio, ma tant’è.

calcio

Su questa stessa base possiamo associare al calcio altri nomi di comuni:

Calcinato, Calco, Calceranica al Lago, Montecchio Precalcino, Calci, Calcinaia, Calcata, Calciano.

Tuttavia solo alcuni di essi sono effettivamente associabili al calcio; il comune di Calci (vicino Pisa) per esempio si trova in territorio siliceo e quindi si stenterebbe ad attribuire al calcio come elemento il nome, ma piuttosto sembrerebbe che il locus Calcis sia la primitiva attribuzione onomastica della vallata, di etimo latino (calceum, per “piede” o “tallone” del monte). Viceversa per Calcinaia anch’essa nella medesima provincia sembra assodato che il nome venga dalla presenza almeno in epoca medioevale di forni per la produzione di calce.

Carbonia è una città modernissima in cui il legame toponomastico e rovesciato; il nome fu scelto negli anni 30 del secolo scorso dal regime fascista per un nuovo comune che ospitasse le maestranze che avrebbero lavorato nella industria estrattiva sarda del carbone.

carbonia

Aurano, Valle Aurina, Auronzo e Montauro sembrano invece avere tutti riferimento a miniere di metallo prezioso presenti nel loro territorio in epoca storica.

Così come S. Marco Argentano, Argentera, Argentario e Argenta sembrerebbero venire dalla presenza di miniere o lavorazioni di argento.

Viceversa Cupromontana e Cupro Marina non hanno a che fare col rame ma con la dea Cupra.

Col ferro potremmo andare a nozze; ma attenzione Monferrato deriva in effetti da monte del farro e quindi lo escludiamo; non chiara quella di Ferrara, che potrebbe anch’essa venire dal farro o avere altra origine.

Più accettabili sembrerebbero le varie Ferrere, Ferriere o Ferrera Erbognone o Ferrera di Varese.

Non ci rimane che rimanere sul sicuro Portoferraio, nell’isola d’Elba sembra senza dubbio connesso con la siderurgia. Viceversa Grottaferrata sembra venire dalla presenza di una grotta dotata di una grata di ferro.

Piombino inganna parecchio, in quanto sembrerebbe chiaro che abbia a che fare con l’attività siderurgica ed estrattiva, ma invece piombino deriva da altro:

https://it.wikipedia.org/wiki/Piombino

Sembra ormai accettato che il nome Piombino derivi da Populino, cioè piccola Populonia. Sembra che durante il medioevo Populonia fu spesso attaccata e depredata. L’ultimo saccheggio subito dall’abitato è registrato nell’anno 809 ad opera degli orobiti, pirati di origine slava che vivevano sui monti del Peloponneso[9]. Fu allora che i pochi abitanti fuggiaschi si spostarono presso il porto Falesia mettendo le basi a quella che sarebbe divenuta Piombino.

Delusi dai nomi dei comuni lo saremo ancor più da quelli di vie e piazze; a me risulta solo la gloriosa Piazza Azoto, di Piano d’Orta di cui abbiamo parlato in un post.

Voi ne conoscete altre? segnalatemele; altrimenti non ci sono che le vie e piazze intitolate a scienziati, chimici italiani; non sono poi molte. Certo a Milano c’è Via Giulio Natta e a Novara Largo Guido Donegani, ma Donegani è stato un imprenditore più che un chimico anche se c’è un centro di ricerca famoso a suo nome, ma anche qui non mi sovvengono nonostante qualche sforzo altri luoghi noti. No aspettate c’è corso Amedeo Avogadro di Quaregna a Vercelli e via Stanislao Cannizzaro a Roma e i nomi certo di tante scuole di ogni ordine e grado.

Chi mi aiuta a ricostruire questo quadro della toponomastica chimica, casomai segnalando nei commenti o scrivendo brevi note?

Grazie

Breve elenco di vie e piazze, con il contributo di Giorgio Nebbia; alcuni nomi sono presenti in più comuni:

nome della via o piazza, comune, provincia, CAP

Vincenzo Caglioti (1902-1998)   Soriano Calabro (VV), 89831

Stanislao Cannizzaro (1826-1910)     Catania 95123

                                                           Linguaglossa 95015

                                                              Pisa 56121

                                                                Roma 00156

Giacomo Ciamician (1857-1922)                Bologna 40127

                                                                    Roma 00156

Riccardo Ciusa (1877-1965) (professore di chimica farmaceutica,

ex-assistente di Ciamician)

                                                                   Bari 70132

Roberto Lepetit (1865-1928)                        Lainate 20020

                                                                     Milano 20124

                                                                      Roma 00156

Fra i chimici stranieri:

Justus Liebig                       Reggio Emilia 42124

Dimitri Mendeleev (solo due cittadine)          Pesche (Isernia) 86090

                                                                Savignano sul Rubicone (FC) 47039

Luigi Pasteur (più fortunato)                        Bari 70124

                                                                    Bologna 40132

                                                                     Lecce 73100

                                                                       Milano 20127

                                                                      Reggio Emilia 42122

                                                                     Roma 00144

                                                                     Verona 37135

                                                                       Trieste 34139

e ancora menozzi

 

Chimica e ferrovie.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

E’ sicuro che i legami fra chimica e ferrovia ci sono e sono tanti; basti pensare alla storia delle ferrovie e al ruolo del carbone come sorgente di energia delle locomotive; ma oggi vi parlerò di tutt’altro, un legame più nascosto e per certi versi inaspettato.

Le ferrovie sono un sistema di trasporto inventato in Inghilterra ed usato con trazione a cavalli per il trasporto del carbone nelle miniere; tuttavia di solito si intende con ferrovia il trasporto di merci e persone su strada ferrata come inventato da Richard Trevithick nel 1804, la prima linea fu costruita nel 1825; e risale al 1829 la famosa gara di Rainhill in Inghilterra per individuare la futura locomotiva adatta a percorrere la linea Liverpool – Manchester vinta da George Stephenson che costruì la Rocket nel 1829, capace di raggiungere i 48 km/h e i 28 km/h con un convoglio di 17 tonnellate.

Tutto ciò era basato sull’uso di binari e di ruote di acciaio; e quindi siamo sicuri che la chimica c’entra eccome, ma ancora una volta non vorrei parlarvi di questo, ma di un elemento molto più modesto e per certi aspetto nascosto: come sono posate le rotaie?

ferrovia21

La tipica immagine della ferrovia è questa: due binari che vanno all’infinito, poggiati su traversine di umile legno; ancora oggi le traversine di legno hanno un ruolo determinante nella costruzione delle ferrovie, anche se il cemento e perfino la plastica ne stanno incrinando il dominio pressocchè assoluto fino a pochi anni fa.

Senonchè il legno non è molto duraturo; anche la quercia o il castagno o il faggio non sono in grado di resistere a lungo in quelle condizioni di sollecitazione non tanto meccanica ma chimica, all’interfaccia fra aria e terra, esposte all’acqua e ai batteri; il legno sottoterra, in ambiente anossico è duraturo; le navi del passato ci arrivano spesso in questo modo, nascoste sotto il suolo, ma poi in presenza di aria e degli altri componenti della biosfera la loro vita si accorcia; ci sono esempi eccezionali di durabilità come il legno delle palafitte; nella mia regione, il Trentino le palafitte del lago di Ledro hanno lasciato pali ancora conservati dopo millenni. Tuttavia la situazione delle traversine è critica.

Per questo motivo le traversine di legno sono di solito trattate con agenti conservanti, che sono sostanze naturali o di sintesi o estratte da altre sostanze che prolungano la vita del legno di 20-40 volte.

Nel caso delle traversine ferroviarie c’è una lunga e complessa storia che è stata raccontata in vari testi (Journal of Transportation Technologies, 2013, 3, 149-161   – oppure Date nails and railroad tie preservation di Jeff Oaks, Preside del Dipartimento di Matematica dell’Università di Indianapolis, http://pages.uindy.edu/~oaks/Resources.htm – Thebook) che inizia praticamente appena dopo l’invenzione delle ferrovie; nel 1838 esistevano già il trattamento Burnett con il cloruro di zinco, Margary, solfato di rame, Kyan, cloruro di mercurio e Bethell, olio di creosoto o olio minerale. Nel corso del tempo ne sono stati inventati ed esplorati molti altri, ma nonostante oggi si tenda a montare traversine di cemento precompresso in vari paesi oppure traversine di gomma ed acciaio, alcune delle quali recentemente insignite del titolo di invenzione dell’anno, di fatto il trattamento al creosoto è stato dominante per molti decenni e la maggior parte delle traversine di legno che vedete o avete visto sono state trattate con questo materiale nelle sue varie versioni.

L’odore del creosoto minerale estratto dal carbone è l’odore delle stazioni, quello che avete imparato, fin da bambini, ad associare alle stazioni italiane e che sentite ancora oggi quando siete sui binari ad aspettare un treno nella maggior parte dei casi.

Ma cosa è il creosoto?

Si tratta di un termine comune e non preciso che di fatto indica almeno due diversi tipi di miscele complesse ottenute per distillazione o dalla legna o da catrami minerali.

  • Il derivato minerale contiene fenoli, derivati del fenolo (ferrovia22), cresoli ferrovia23(fenoli caratterizzati dalla presenza di un sostituente metilico) e IPA, idrocarburi policiclici aromatici, che sono generalmente planari a meno di impedimenti sterici, e sono costituiti da un gruppo di atomi di carbonio ibridati sp2, legati tra loro in anelli condensati ovvero che hanno in comune almeno due atomi di carbonio adiacenti. Gli IPA sono molto pericolosi in quanto possono intercalarsi nel DNA e modificare la genetica cellulare.
  • ferrovia24

    Corannulene, un IPA.

Si tratta di un liquido, poco solubile in acqua ma solubile in solventi organici. Usato principalmente come preservante del legno.

  • Il più comune derivato dal legname è un miscuglio di fenoli ed eteri fenolici che si ottiene dalla distillazione tra 200-225 °C del legno di faggio. È un liquido incolore, poco solubile in acqua e solubile in solventi organici. Contiene il 50-60% di guaiacoloferrovia25 o 2-metossifenolo e creosolo ferrovia26o 2-metossi-4-metilfenolo .

Ancora oggi usato in medicina per il suo potere antisettico, anticatarrale e antipiretico, viene tuttora utilizzato anche in endodonzia come disinfettante nelle otturazioni provvisorie .

Gli IPA non sono generalmente presenti in questa seconda miscela e il creosolo e il guaiacolo, pur essendo acutamente tossici a certe concentrazioni, non sono al momento ritenuti cancerogeni; al contrario a certe concentrazioni più basse e in determinati distretti organici sono stati e sono ancora usati come farmaci, il che tutto sommato avviene anche per altre sostanze; in questo senso non sono diversi da un antibiotico o perfino da un antitumorale: è la dose che fa il veleno.

Su questa base occorre dunque fare una attenta distinzione fra i due tipi di distillati; a riguardo si può vedere questo documento sia pur non recentissimo del U.S. DEPARTMENT OF HEALTH AND HUMAN SERVICES

Viceversa gli IPA che si ritrovano e anche in modo relativamente abbondante nel creosoto derivato dalla distillazione del carbon fossile sono in molti casi cancerogeni dichiarati; questa consapevolezza ha condotto a varie decisioni che si sono succedute nel tempo; per esempio il legno trattato con creosoto a causa dell’abbondante rilascio di creosoto nel terreno è stato considerato al momento della sua dismissione un rifiuto tossico e un materiale non riciclabile se non in determinati casi e a certe condizioni (uso industriale essenzialmente); inoltre si è cercato di ridurne l’uso; si veda per esempio il documento UE del 2011

In uno studio recente tuttavia anche i limiti di concentrazione degli IPA ivi fissati (50ppm di benzo[a]pirene, 0.00005%)ferrovia27 si è dimostrato che sono troppo alti.

In definitiva le traversine trattate con creosoto sono cancerogene, sono rifiuti complessi da gestire, sarebbe il caso di non usarne più, ma di fatto al momento non abbiamo in molti casi valide alternative; quali potrebbero essere i potenziali sostituti?

Gli studi di LCA, come quello indicato sopra su JTT potrebbero soffrire di conflitti di interesse. Rimane che l’acciaio, il cemento precompresso e più recentemente traversine di materie plastiche (con il limite degli 80km/h del treno) sono già disponibili; un inventore italiano sta poi sviluppando una traversina con l’anima di acciaio e rivestita dalla gomma di pneumatico usata; sembrerebbe con in più l’opzione di un dispositivo piezoelettrico per recuperare energia quando il treno ci passa sopra; questo ultimo effetto mi ricorda un pò l’idea dei dispositivi frena traffico per “recuperare energia”; quella energia viene di fatto da una azione di frenamento sul convoglio, velocità o meglio quantità di moto che ha senso recuperare se il convoglio (o l’auto) frena, si ferma, ma non se fa la sua strada; vedremo cosa succederà. Certo è che anche nel campo ferroviario la chimica è stata ed è utile ma a condizione di non esagerare e di considerare con attenzione costi e benefici; e chi meglio di noi potrebbe commentare questo argomento?

A voi la parola.

http://ec.europa.eu/health/scientific_committees/environmental_risks/opinions/sctee/sct_out29_en.htm

Fantascienza?

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

(Due avventure narrative di Primo Levi nella lezione di Francesco Cassata)

Recensione, Fantascienza? – Science Fiction? Francesco Cassata ed. Giulio Einaudi p.288 euro 22 2016

978880623038GRA

Il libro “Fantascienza?” di Francesco Cassata docente di storia della scienza presso l’università di Genova è tratto dalla settima lezione Primo Levi. Come le altre sei precedenti queste lezioni si tengono sotto l’egida del Centro Internazionale di studi Primo Levi e approfondiscono temi e interessi che riguardano lo scrittore torinese.

Le lezioni vengono poi pubblicate dall’editrice Einaudi in volumi bilingue (Italiano ed inglese). Le precedenti lezioni hanno toccato ed approfondito temi dell’opera di Levi che sono ben noti ai suoi lettori, agli studiosi e ai critici. Per esempio la prima lezione “Sfacciata fortuna” non può non far pensare al periodo che Levi trascorse nel Laboratorio del lager, dopo avere sostenuto l’esame di chimica di fronte al dottor Pannowitz. Levi viene aggregato al commando chimico e si sottrae così ai lavori più pesanti. Lavora in un ambiente riscaldato che lo preserva dai rigori dell’inverno in Auschwitz. Paradossalmente anche l’essersi ammalato negli ultimi giorni prima dell’arrivo delle truppe russe in marcia verso Berlino, lo salva dalla tremenda marcia di evacuazione del lager, a cui i tedeschi costringono i prigionieri sopravvissuti. Levi lo racconterà nel capitolo “Storia di dieci giorni” che conclude “Se questo è un uomo”.

“Raccontare per la storia” la terza lezione di un ciclo iniziato nel 2010, rimanda immediatamente alla poesia “Alzarsi” (in polacco Wstawac) contenuta nel volume di poesie “Ad ora incerta”. In questa poesia si esprime l’esigenza insopprimibile di sopravvivere non solo per ritornare, ma anche per assolvere al dovere morale di raccontare e testimoniare l’esperienza della prigionia e della deportazione:

Sognavamo nelle notti feroci
Sogni densi e violenti
Sognati con anima e corpo:
Tornare; mangiare; raccontare.
Finché suonava breve sommesso
Il comando dell’alba:
«Wstawac’».

La settima lezione si è tenuta presso la sede del centro studi a Torino il 27 ottobre dello scorso anno, e si occupa di approfondire una fase totalmente diversa dello scrittore torinese, anche se come poi si vedrà, i legami ed i riferimenti con l’esperienza della deportazione non mancano neanche tra le pieghe dei racconti di genere fantascientifico di Levi. Ma le conclusioni di questa lezione e del libro che ne è stato tratto suggeriscono una lettura diversa.

Il titolo “Fantascienza?” di questo volume delle lezioni Primo Levi riprende la fascetta editoriale che corredava la prima edizione di “Storie naturali pubblicato nel 1966 con lo pseudonimo di Damiano Malabaila. Il nome racconterà poi Levi viene scelto casualmente: è il nome che compare sull’insegna di un esercente davanti a cui passa giornalmente per recarsi al lavoro.

storienaturali66

Non è forse noto a tutti, ma Levi inizia a scrivere racconti di questo genere già nel 1946 quando lavora alla Duco di Avigliana, ed è impegnato nella risoluzione di problemi “chimico polizieschi” quali l’impolmonimento di vernici antiruggine, o nella stesura di una relazione tecnica relativa al fenomeno della puntinatura di alcuni smalti.

Il racconto “I mnemagoghi” che aprirà il volume “Storie naturali” viene scritto proprio in quel periodo, e verrà pubblicato sul quotidiano “L’Italia socialista” nel 1948.

La formazione del chimico qui si riconosce immediatamente. Il racconto parla di due medici: il giovane Dottor Morandi che inviato in un piccolo paese di montagna a sostituire l’anziano Dottor Montesanto, viene coinvolto da quest’ultimo nell’esperienza sensoriale di annusare delle boccette in cui sono contenute particolari essenze odorose. Montesanto spiega la cosa in questo modo:

“ Alla questione delle sensazioni olfattive, e dei loro rapporti con la struttura molecolare, ho dedicato anche in seguito molto del mio tempo. Si tratta, a mio parere, di un campo assai fecondo, ed aperto anche a ricercatori dotati di mezzi modesti.

Il Dottor Montesanto ha sintetizzato e raccolto in boccette questi mnemagoghi (suscitatori di memorie).

Il racconto, il primo di “Storie naturali” ci ricorda quello che Levi sosteneva a proposito del senso dell’olfatto (“Guai se un chimico non avesse naso”) ma ci parla anche di sensazioni odorose legate a ricordi particolari. Sensazioni che però non hanno un impatto emotivo univoco. L’odore che per una persona può essere gradevole e legato a momenti lieti, ad altri può provocare disgusto o indifferenza. L’oggettività di un odore in provetta si disperde nelle memorie soggettive.

Il libro di Francesco Cassata spiega con tantissimi rimandi collegamenti ed esempi la genesi dei quindici racconti contenuti nelle “Storie naturali”, e dei successivi venti pubblicati nel 1971 in “Vizio di forma”.

Il primo libro di genere fantascientifico di Levi viene visto dall’autore come uno sforzo di ritorno alla realtà e a una forma di evasione dalla sua veste ufficiale sia di testimone dell’olocausto, che professionale come direttore tecnico di una fabbrica di vernici. Levi non vuole limitarsi a questo. Ma nello stesso tempo Auschwitz non rappresenta soltanto la terribile esperienza del suo passato ma anche un punto di osservazione, una sorta di prisma etico e cognitivo per riflettere sulla distorsione della razionalità, e per analizzare i tanti “vizi di forma” del presente e del futuro.

Francesco Cassata in questo libro ci guida nell’analisi dei racconti. In alcuni di essi quali “Angelica farfalla” e “Versamina” possiamo trovare legami con i terribili esperimenti che i medici nazisti conducevano nei Lager sui prigionieri. Ma allo stesso tempo sono presenti temi squisitamente scientifici che riguardano nel primo racconto il ciclo vitale incompleto dell’anfibio Axolotl che si riproduce allo stato larvale senza completare il suo ciclo evolutivo, e nel secondo il rovesciamento dei comportamenti cioè la trasformazione attraverso appunto la molecola che nel racconto è chiamata versamina (una molecola immaginata dallo scrittore torinese che la immagina derivata dall’acido benzoico) capace di trasformare le sensazioni di dolore fisico in piacere.

Nei racconti di storie naturali è sempre presente il meccanismo (ben conosciuto dai chimici) dell’errore.

In qualche caso anche cercato come in “Alcune applicazioni del mimete” dove l’incauto e pasticcione Gilberto usa questa macchina (un duplicatore tridimensionale) per ottenere una copia di sua moglie.

Nel saggio di Cassata troviamo anche i riferimenti alle basi scientifiche di ogni racconto. Il duplicatore tridimensionale è immediato che possa far pensare alla tecnica delle stampanti 3 D (escludendo è ovvio la duplicazione di esseri viventi).

Il secondo libro di racconti fantascientifici di Levi (l’autore però tendeva a definirli dei divertimenti delle stranezze o delle favole) esce nel 1971. Avrebbe dovuto secondo l’autore intitolarsi in maniera diversa (“Ottima è l’acqua” come il racconto che chiude la raccolta), ma dopo qualche riunione di redazione alla casa editrice Einaudi si scelse come titolo “Vizio di forma” con l’intenzione di connettere questo secondo libro di racconti al primo, quasi come un seguito.

vizio di forma

Ma i due libri sono solo apparentemente uguali. In realtà dal punto di vista letterario e stilistico differiscono. I racconti contenuti in “Storie naturali” lasciano trasparire il senso dell’ironia e del grottesco, mentre “Vizio di forma” ha un modo di scrittura più pessimista.

“Storie naturali” risente molto di più di una fiducia, di un ottimismo legato all’Italia del grande sviluppo economico successivo al dopoguerra. I racconti sono stati scritti in un periodo di tempo di una ventina di anni a partire dal 1946 e sono più eterogenei.

Quelli di “Vizio di forma” invece in un periodo di tempo più breve, dal 1967 al 1970, quando si inizia a percepire che l’età dell’oro è finita e che i problemi globali planetari si stanno affacciando alla ribalta.

Lo stesso Levi lo ricorda nel 1979 nella prefazione al libro di Luciano Caglioti “I due volti della chimica”.

Non era giunto il momento di fare i conti planetari, e di mettere un freno, se non ai consumi, almeno agli sprechi, ai bisogni artificialmente provocati, ed all’inquinamento dell’aria, dell’acqua e del suolo?

“Vizio di forma” viene scritto negli anni in cui l’ambientalismo scientifico si va affermando tra la fine degli anni Sessanta ed il decennio successivo. In questo libro la riflessione sul rapporto tra popolazione, ambiente e risorse economiche è il filo conduttore di ben otto racconti, dei venti che compongono il libro.

Tornando al libro di Francesco Cassata dedicato a questi due libri diversi di Levi è interessantissimo il paragrafo “Equilibri omeostatici ed ecologia” in cui si parla dell’opposizione fondamentale su scala planetaria di due forze contrapposte: l’entropia e l’omeostasi. Due concetti noti soprattutto a scienziati e tecnici. Levi ne scrive in un breve saggio del 1983 uscito nel Notiziario della Banca Popolare di Sondrio.

Scienziati e tecnici sono coloro che combattono “la vecchia battaglia umana contro la materia”.

Nel saggio di Cassata si suggerisce che queste due visioni si possono confrontare leggendo due racconti. Uno è “Carbonio” che chiude “Il sistema periodico” nel quale Levi racconta il meccanismo della sintesi clorofilliana e quello del ciclo biogeochimico del carbonio.

Il secondo racconto è invece “Ottima è l’acqua” che chiude viceversa proprio “Vizio di forma, nel quale il racconto della modificazione impercettibile ma continua della viscosità dell’acqua finisce per impedire agli uomini persino di lacrimare, e rappresenta il trionfo del disordine e del caos.

Non è casuale il confronto perché la stesura di “Carbonio” è databile tra il 1968 e il 1970, lo stesso periodo della scrittura dei racconti di “Vizio di forma”.

Nella parte finale del saggio Cassata da conto di come la critica giudicò i due libri stabilendo un nesso di continuità con l’esperienza del Lager, in maniera da interpretare come fallimentare questa esperienza letteraria dello scrittore.

Ma la conclusione è che vedere in questi due libri di racconti di Levi solo la trasfigurazione allegorica di Auschwitz è riduttivo. E personalmente sono in pieno accordo con questa affermazione.

In chiusura del saggio sono da questo punto di vista significative le parole pronunciate da Norberto Bobbio nel 1988 in occasione di uno dei primi convegni successivi alla scomparsa di Levi. In quella occasione rimproverò Ruggero Pierantoni, ricercatore di cibertenica e biofisica del CNR che fece un’intervento dedicato a “Il sistema periodico” con queste parole: “Lei non ha capito ciò che ci unisce tutti qua dentro: non si può parlare di Primo Levi dimenticando che è stato ad Auschwitz”.

Forse può sembrare un’intollerabile presunzione ma le parole di Bobbio non mi convincono.

Nessuno potrà mai dimenticare l’esperienza umana di Levi ad Auschwitz, come nessuno potrà non riconoscere il valore letterario di “Se questo è un uomo”, libro che colpisce alla prima lettura per lo stile. Dove non una sola parola è fuori posto, dove la descrizione di una delle pagine più atroci della storia del novecento viene fatta con una sensazione di pacatezza e di senso di giustizia che escono dalle pagine del libro andando incontro al cuore e alla ragione di chi le legge.

Ma trovo riduttivo e ingiusto non conoscere “l’altro” Levi. Autore di moltissimi saggi di grande valore divulgativo e scientifico.

Autore di due libri di racconti fantascientifici (ma abbiamo visto che il termine è riduttivo) che sono anche anticipatori di realtà poi narrate successivamente. Il Torec di “Trattamento di quiescenza” che permette di vivere esperienze sensoriali tramite un casco è l’antesignano della realtà virtuale narrata anche in film come “Strange days”, uscito nel 1995

Nella “Bella addormentata nel frigo” si parla di ibernazione ed il pensiero va agli astronauti ibernati sull’astronave Discovery di “2001- Odissea nello spazio”.

Io ho sempre trovato interessanti questi due libri, senza mai considerarli delle opere minori.

Così come ho trovato stimolante ed interessante il libro di Francesco Cassata che nel concludere si augura che la lezione (e conseguentemente il libro) servano come stimolo ad una ricerca critica e ad uno studio più approfondito di queste due opere di Levi.

Invito che mi sento di rivolgere non solo ai critici letterari ma possibilmente ad un pubblico più ampio, anche a chi legge le pagine del nostro blog.

Perché Primo Levi ha ancora tanto da dirci, non solo come testimone autorevole e di grande dignità e autorevolezza di testimone dell’olocausto. Ma come scrittore, saggista e divulgatore scientifico.

E devo dire che Cassata ci fornisce con questo libro stimoli e chiavi di lettura importanti.

Così come suggerisco la lettura di questi due libri di Levi, che a mio parere completano ed integrano l’opera dello scrittore.

 

La chimica della pietra focaia

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

 a cura di Claudio Della Volpe

Come ho scritto altrove la scoperta e l’uso del fuoco sono più antichi di Homo sapiens sapiens, più antichi della nostra civiltà e risalgono ad Homo erectus. La tecnologia della produzione e gestione del fuoco ha avuto più tempo di qualsiasi altra se si fa eccezione di quella dell’uso della pietra (che ha quasi tre milioni di anni) per svilupparsi e perfezionarsi.

Eppure alla base dell’accensione del fuoco ci sono fenomeni complessi e poco conosciuti.

Accendere il fuoco non è affatto semplice come può sembrare a chi come noi usa metodi frutto di un milione di anni di esperienza; qualcosa trovate qua.

Tuttavia non volevo parlare dei metodi per attrito, come quello dell’archetto (che al tempo degli egizi si era addirittuta evoluto in una tecnologia per forare la pietra), ma di quelli a percussione e quindi della pietra focaia. La cosa nasce da una domanda che qualche giorno fa ho avuto da un vecchio amico di Napoli (ciao Biagio!) e alla quale cerco di rispondere qua.

Probabilmente la tecnica che usava la percussione di due pietre di cui una costituita di pirite e una di selce o di quarzo era conosciuta da tempi preistorici; l’uso di pietra e ferro invece non può essere data prima dell’età del ferro, quindi prima di 3-4000 anni fa al massimo.

Una prova dell’esistenza di metodi preistorici che escludono il ferro è nei ritrovamenti effettuati sul corpo di Ötzi, l’uomo del Similaun, il quale deteneva nella sua bisaccia un set di strumenti per accendere il fuoco fatto di selce, pirite e un fungo. Stiamo parlando di oltre 5000 anni fa.

Plinio il Vecchio nella sua Naturalis Historia (Libro VII, 198) racconta di un certo Pyrodes di Cilicia che, stando a quello che dice, sarebbe invece l’inventore dell’acciarino:
[…] fabricam ferrariam invenerunt Cyclopes, figlinas Coroebus Atheniensis, in iis orbem Anarcharsis Scythes, ut alii, Hyperbius Corinthius. fabricam materiariam Daedalus et in ea serram, asciam, perpendiculum, terebram, glutinum, ichthyocollam; normam autem et libellam et tornum et clavem Theodorus Samius, mensuras et pondera Phidon Argivus aut Palamedes, ut maluit Gellius; ignem e silice Pyrodes Cilicis filius, eundem adservare ferula Prometheus; […]

D’altronde è sorprendente che già al tempo dei Romani esistessero gli zolfanelli, ossia oggetti di legno ricoperti di zolfo per trasportare il fuoco facilmente da un posto all’altro o per innescare un fuoco da un altro (si veda Marziale negli epigrammi dove cita ripetutamente gli zolfanelli (1)) tuttavia gli zolfanelli si meritano un post a se, ne riparleremo.

Ma, prima di approfondire l’esatto processo, quale è il meccanismo generale che consente di accendere il fuoco per percussione? La percussione, l’urto violento di materiali duri come alcuni tipi di rocce, dalla frattura fragile, concoide, come la selce o di una roccia e un metallo come il ferro, specie se indurito dalla presenza di una certa quantità di carbonio, quindi in effetti di quello che chiameremmo non ferro dolce ma acciaio o ghisa, consente di produrre scintille e le scintille, che sono piccole particelle incandescenti, possono innescare il fuoco se entrano in contatto con un materiale combustibile molto secco, come il legno, le fibre di alcune piante come la canapa oppure il residuo secco di alcuni funghi come il Fomes Fomentarius ridotti in polvere.

focaia1

Fomes Fomentarius

.La produzione di scintille rappresenta il meccanismo chiave del processo.

Con il termine scintilla si intendono cose alquanto diverse. Scintille sono i raggi luminosi rettilinei che si vedono da immagini molto intense, scintille sono le scariche elettriche (ioni o elettroni) fra punti a potenziale sufficientemente diverso, scintille sono quelle prodotte da fumi di combustione o da processi di saldatura e costituite da minuscoli corpuscoli incandescenti o che stanno bruciando in quel momento e che si staccano dai corpi principali e vengono immesse nel flusso principale di tipo convettivo che muove dal corpo più caldo; queste scintille sono già di origine chimica, ma le vere e proprie scintille, di cui anche quelle che interessano a noi fanno parte, vengono generate dalla percussione o dallo sfregamento di due corpi sufficientemente duri e fragili; il più duro, se la pressione esercitata è bastevole produce nell’altro delle piccole schegge, microscopiche che costituiscono il cuore della scintilla; la rottura delle minuscole schegge che saltano via è il processo chiave, liberando nuova superficie reattiva nel metallo e producendo così una reazione chimica come sorgente di calore e luce.

focaia2

Questa descrizione della scintilla è basata su molte osservazioni empiriche, prima delle quali quella al microscopio di Robert Hooke, uno dei maggiori scienziati inglesi (1635-1703) che è proprio la copertina di un suo libro di osservazioni microscopiche pubblicato nel 1780 e che potete scaricare da GoogleBooks integralmente.

focaia3Il ferro impuro di carbonio usato negli esperimenti di Hooke è sostanzialmente acciaio, sia pur di bassa qualità , sufficientemente più duro del ferro dolce ma meno duro della pietra focaia cosiddetta, ossia una selce, che è una forma sedimentaria di silice, ossido di silicio, quarzo, in una parola, sia pure non cristallino.

La selce nella qualità detta piromaca, generatrice di fuoco, è dura ma fragile.

Nella scala della durezza, che vede come massimo il diamante, ha un valore

superiore a 6-7 laddove il ferro dolce è 4 e l’acciaio 4.5.

Contemporaneamente, per comprendere cosa avviene nella percussione fra una pietra dura come la selce e l’acciaio, sia pur ottenuto con metodi non moderni occorre pensare a quel che avviene quando un metallo è esposto all’aria; l’atmosfera è composta di ossigeno per un quinto circa e costituisce un ambiente fortemente ossidante; alla temperatura media attuale se la concentrazione di ossigeno aumentasse al 25-30 per cento il rischio incendio sarebbe drammatico; nella igiene del lavoro valori di ossigeno sopra il 30-35% sono assolutamente da evitare perchè ogni minimo innesco può scatenare un incendio violento.

La combustione è una ossidazione, ma una ossidazione, una reazione in genere fortemente esotermica, avviene non solo con gli atomi come carbonio o azoto che formano piccole molecole stabili e gassose, ma anche con moltissimi metalli che tendono a cedere i loro elettroni più esterni all’ossigeno formando così ioni positivi e negativi legati in un reticolo cristallino.

focaia4Il ferro si arruginisce molto facilmente cambiando struttura e colore e formando uno strato superficiale alterato che rallenta, ma non impedisce, l’ulteriore ossidazione; se tuttavia lo strato è compatto, come avviene nell’alluminio per esempio, l’ossido impedisce la penetrazione dell’ossigeno e blocca la reazione, un fenomeno che prende il nome di passivazione.

Quello che chiamiamo acciaio, ossia una lega Fe-C con una percentuale intermedia di C compresa fra una frazione piccola e il 2% è conosciuto in vario modo almeno da 2000 anni e la sua durezza, maggiore di quella del ferro “dolce” è particolarmente adatta alla costruzione di un dispositivo per produrre scintille.

Come spiegato prima quando un metallo reagisce a contatto con l’ossigeno presente nell’aria, la reazione chimica in questione avviene coinvolgendo solo le entità che costituiscono la parte più esterna del pezzo solido.

Ciò è dovuto al fatto che sulla superficie esterna del pezzo si crea un film esterno di materiale reagito, mentre nell’interno del solido il materiale rimane non reagito, in quanto la presenza del film esterno rallenta o impedisce la diffusione dell’ossigeno verso l’interno del materiale.

L’urto o lo sfregamento sulla parte più esterna del materiale (costituita dal film passivante) la rimuove, per cui l’interno ha modo di reagire con l’ossigeno dell’aria.

La nostra esperienza diretta ci dice che lo sfregamento e l’urto producono calore, trasformano energia meccanica in calore, una equivalenza intuitiva ma la cui dimostrazione esatta e quantitativa ha necessitato uno sviluppo secolare.

Nelle condizioni di urto della superficie ferrosa con una punta o una lama di selce questa ultima più dura la scheggia (mentre deformerebbe il ferro dolce) producendo piccole particelle e cedendo energia meccanica in forma istantanea, innalzando quindi la temperatura di centinaia di gradi. Questo surriscaldamento del materiale facilita la reazione. Essendo tale reazione fortemente esotermica, si ha un effetto di retroazione positiva per cui la reazione di ossidazione procede a velocità crescente, una vera e propria “esplosione” microscopica, per cui alcune minuscole schegge metalliche diventano incandescenti a causa dell’elevato aumento di temperatura locale e vengono proiettate ad elevata velocità.

Il ferro si ossida in questo caso secondo la reazione

2 Fe + 3/2 O2 –> Fe2O3

 con una significativa entalpia di -829KJ/mole.

Le scintille di questa tipologia sono caratterizzate da percorsi luminosi rettilinei o parabolici più o meno brevi (compatibilmente con l’effetto della forza di gravità agente sulle particelle).

Osservando i percorsi luminosi di tali scintille, si nota che talvolta ad un certo punto i percorsi delle scintille si suddividono in più linee rette, come se “esplodessero” dopo avere percorso il primo tratto, in maniera analoga a quanto succede per i giochi d’artificio; la causa di tali “ramificazioni” dei percorsi luminosi è la presenza di carbonio nelle particelle: esso reagisce e si trasforma in gas ed espandendosi esercita un’elevata pressione all’interno delle particelle, che ad un certo punto esplodono suddividendosi in più frammenti.

focaia5Magnifica l’analisi del lessico: per esempio nel territorio veronese la selce è chiamata “folenda”. Il nome potrebbe derivare da fògola, fogolènda, cioè dal latino focus; dunque “pietra-folenda” è la pietra che deve dare fuoco. La Lessinia e la montagna veronese sono stati luoghi importanti per la produzione delle pietre focaie, sia acciarino domestico che da fucile. Centinaia di persone lavoravano a tempo pieno in queste mansioni di “artigianato-industriale” con folandieri e bati-assalini (assalini-acciarino).

focaia6Illustrazione di un acciarino a pietra focaia (selce) di un antico fucile. Il meccanismo è in posizione di sparo
1. Cane
2. Pietra focaia
3. Martellina
4. Grilletto
5. Scodellino
6. Copriscodellino
7. Canna

Il focile è un termine addirittura dantesco nell’Inferno XIV 38

la rena s’accendea, com’esca / sotto focile, a doppiar lo dolore,

dove si descrive la pena dei violenti contro natura: il fucile, cita anche Boccaccio, è ” uno strumento d’acciaio a dovere delle pietre, le quali noi chiamiamo focaie, fare, percotendole, uscir faville di fuoco “.

Nel congegno di sparo la pietra focaia, posta tra le ganasce del cane, andando a battere sulla faccia della martellina che era d’acciaio, ne asportava minuscole particelle di metallo incandescente; queste, cadendo nella scodellina, accendevano la polvere che dava fuoco alla carica.

Dopo 20 o 30 colpi la pietra focaia doveva essere sostituita o nuovamente appuntita mediante un apposito martelletto. Tale sistema fu usato per i fucili da guerra fin oltre il periodo napoleonico, fino all’invenzione della capsula fulminante.

L’acciarino presentava forme svariate; il formato deve essere ridotto per far scivolare l’oggetto in una tasca. Bisogna anche che sia facile da maneggiare : e perciò la forma è di preferenza ovale, ripiegata ai due estremi, oppure a forma di “D”, costituendo un’impugnatura. Per migliorare la presa verso il XV secolo si praticano nella lama due buchi per l’indice e il medio. Talvolta la lama presenta una semplice forma oblunga, un’estremità della quale è ripiegata. L’oggetto assume presto tutte le variazioni decorative:

focaia7fini cesellature di motivi geometrici o floreali, figure umane e animali, motivi finestrati o punteggiati. L’accendino veniva fabbricato usando come materiale delle lime consumate, che venivano fuse, recuperando così il metallo. Probabilmente il fabbricante di serrature era probabilmente l’artigiano che si occupava di fabbricare l’accendino. (http://www.artericerca.com/Articoli Online/L’accendino fra ricerca, tecnica e arte Articoli Online.htm)

Ma cosa succedeva PRIMA della scoperta della tecnologia del ferro e del’acciaio? Come si usava, se si usava, la percussione? La risposta come abbiamo accennato prima è positiva, l’uomo di Similaun era perfettamente in grado di accendere il fuoco per percussione ed usava a questo scopo un meccanismo analogo : due pietre dure in modo analogo, selce e pirite e un innesco di fungo secco.

Ma come è possibile la reazione in questo caso?

focaia8E’ pertanto possibile ottenere, da questa reazione, che è tipica della produzione di acido solforico non solo anidride solforosa ma anche sufficiente energia per innescare scintille, sebbene inferiore a quella presente nel caso dell’ossido di ferro. A questo scopo la coppia selce-pirite è stata usata probabilmente per migliaia di anni. Si veda qui

http://montrealgazette.com/opinion/columnists/the-right-chemistry-the-real-flintstones

La reazione per l’acido solforico per avvenire ha bisogno di una temperatura di 700-800 °C, ed una volta innescata si automantiene data l’alta quantità di calore sviluppata. In effetti questa proprietà è la medesima richiesta per fare buone scintille.

 focaia9

Flint è il termine inglese per selce.

Una descrizione accurata dei metodi presenti presso popolazioni nordamericane, ma probabilmente di validità alquanto generale è contenuta in una coppia di articoli di tradizione nordamericana

http://www.primitiveways.com/marcasite and flint.html

ottimo per le istruzioni pratiche che da, c’è anche un filmato: è un metodo di fatto a sfregamento, ma usa selce e marcassite

https://ia802708.us.archive.org/7/items/firemakingappara00houguoft/firemakingappara00houguoft_bw.pdf

scritto nel 1890 molto ricco di illustrazioni su tutti i metodi per produrre fuoco usati dagli indiani d’America e dalle popolazioni Inuit

 focaia10

In questi articoli si sostiene che la varietà minerale marcasite (un tipo di pirite) era specificamente usata per questo scopo.

Anche la marcasite ha formula FeS2, ma i suoi cristalli sono ortorombici. Forma anche noduli e concrezioni e questa era la forma più usata per fare il fuoco E’ più fragile della pirite, più reattiva. Questo fa si che la parte superficiale sia anche più alterata e che per usarla occorresse scavarla un po’ producendo un incavo di materiale “fresco”; infine occorreva conservarla a secco, in un contenitore che ne preservassse l’integrità.

Cosa ne è stata della coppia selce-acciaio, che aveva sostituito la coppia selce-pirite? E’ stata a sua volta sostituita per fare scintille più moderne.

Infatti nel 1900 il conte austriaco Welsbach inventò una pietra focaia artificiale: un composto di una lega di ferro e magnesio con cerio, successivamente chiamata pietrina.  Attenzione con un rovesciamento “dialettico” qui la pietrina fa la parte che è stata prima della pirite e poi del ferro o dell’acciaio. La pietrina in lega di ferro, cerio e magnesio (meno dura dell’acciaio) in coppia con dell’acciaio sostituì la selce-pirite, che fu messa a riposo; chi di voi non ha visto un accendisigari a pietrina o un accendigas a pietrina? In questo caso la lega di ferro-cerio o cerio-magnesio deve contenere un eccesso del componente più molle (il cerio in entrambi i casi) e costituisce una vera e propia lega piroforica come si dice, nella quale la parte molle si stacca ed incendia allo sfregamento; la nuova reazione è Ce + O2–> CeO

In sostanza nella pietrina il cerio ha sostituito il solfuro di ferro preistorico o il ferro-carbonio di età storica con una terra rara; ma quanti lo sanno? (si veda Il Villavecchia per i dettagli)

focaia11Io sono abbastanza vecchio da ricordare l’accendino a pietrina e da averlo usato anche se all’epoca non avevo idea di quanta chimica ci fosse dietro e credo non fosse affatto comune saperlo.

Un’ultima nota: considerate che l’ultimo e più comune tipo di accendi gas non è a pietrina ma è piezoelettrico e si tratta di un meccanismo del tutto diverso. Il metodo a percussione è andato in soffitta.

Altri riferimenti:

http://www.veja.it/2009/12/03/la-pietra-focaia-e-l%E2%80%99accensione-del-fuoco/

http://www.lescienze.it/news/2011/09/15/news/il_ritorno_di_o_tzi-550747/

(1) Marziale 1,41 e anche 10,3.

1,41 • A UN BUFFONE INSIPIDO

O Cecilio,
a te sembra di esser spiritoso.
Credimi, non lo sei.
«Che sarei dunque?»
Un becero, qual è
un trasteverino venditore
che baratta i gialli zolfanelli
con oggetti di vetro già incrinati
o che vende a degli sfaccendati
ceci stracotti,

Stato di ossidazione e numero di ossidazione sono sinonimi?

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

W.B. Jensen afferma che la maggior parte degli storici fa risalire il moderno concetto di riducente e ossidante al chimico americano Harry Shipley Fry (1878-1949), che nel 1914 scrisse: If the substance (ion, atom, or compound) loses negative electrons, it acts as a reducing agent. If it combines with negative electrons, it acts as an oxidizing agent. [1][1].

Wendell Latimer

the-electronic-conception-of-valence-and-the-constitution-of-benzene-1921-harry-shipley-fry-0548689792_200x200-PU3ee005f3_1Occorre però aspettare la ponderosa opera di W.M. Latimer[2] sui potenziali di ossidazione per una definizione puntuale di stato di ossidazione e numero di ossidazione.cache.024644.Wendell_Latimer

Scrive Latimer:

Come esempio…userò lo ione solfato. [Il] metodo assume che ogni ossigeno abbia una carica di -2 il che dà quindi una carica di +6 allo zolfo. Queste assunzioni non solo semplificano la classificazione dei composti ma sono anche utili nell’interpretazione delle reazioni di ossido-riduzione. Così la carica +6 sullo zolfo può essere correlata ai sei elettroni coinvolti nell’ossidazione dello zolfo a ione solfato:

S + 4H2O = 8H+ + SO4 + 6e

Si possono scrivere semi-reazioni simili per l’ossidazione (o riduzione) di qualsiasi elemento libero a uno qualsiasi dei suoi composti, e il numero di elettroni coinvolti nella reazione può essere usato per definire il numero di ossidazione o stato di ossidazione dell’elemento. Riassumendo…possiamo dire: la valenza dello zolfo è 4, il numero polare è sconosciuto, ma il numero polare formale è 2[3] e lo stato di ossidazione è +6.[4] [2, p. vi-vii]

Non vi è quindi alcun dubbio che per Latimer numero e stato di ossidazione sono sinonimi. Il metodo di Latimer per calcolare il numero (stato) di ossidazione degli elementi in un composto si basa sulla teoria della valenza e sulle strutture di Lewis: se si ha a disposizione la struttura Lewis di una molecola i numeri (stati) di ossidazione si assegnano calcolando la differenza tra il numero di elettroni di valenza che un atomo neutro di tale elemento avrebbe e il numero di elettroni che “appartengono” a esso nella struttura di Lewis. Ai fini del calcolo, si assume che gli elettroni in un legame tra atomi di elementi diversi appartengano all’atomo più elettronegativo, gli elettroni in un legame tra gli atomi dello stesso elemento siano divisi equamente, e gli elettroni delle coppie spaiate appartengano solo all’atomo che le possiede. Sicché, considerando la struttura di Lewis dell’acido acetico:

aceticoIl numero di ossidazione del C metilico sarà:

4(n° elettroni di valenza del C neutro) – 6(3 coppie elettroniche di legame attribuite al C) – 1(elettrone del legame C-C) = -3

Analogamente per il C carbossilico: 4 – 0 – 1 = +3, per gli atomi di ossigeno: 6 – 8 (2 coppie legame attribuitegli + 2 doppietti non condivisi) = -2 e infine ciascun atomo di idrogeno avrà numero di ossidazione +1 perché ognuno ha ceduto il solo elettrone che aveva. In pratica l’assunzione è che la molecola sia completamente ionizzata.

Latimer inoltre usa le semi-reazioni per bilanciare le ossidoriduzioni, va notato che le semi-reazioni di Latimer sono considerate nel verso dell’ossidazione, ad es.:

Zn = Zn2+ + 2e

Cu = Cu2+ + 2e

Alla prima è attribuito un potenziale standard E° = 0.762 V, alla seconda E° = -0.345 V [2, p. 3]. Questa convenzione, detta “americana”, fu usata fino agli ultimi anni ’60 in contrapposizione a quella detta “europea”, che sceglieva invece il verso della riduzione. Si ingenerava quindi una certa confusione soprattutto negli studenti quando confrontavano testi o articoli al di qua o al di là dell’oceano. Fu poi adottato internazionalmente il verso della riduzione eliminando l’ambiguità.

Vediamo ora cosa dice l’ultima versione del “Gold Book” della IUPAC [3]. Anzitutto si nota che viene mantenuta una distinzione fra stato e numero di ossidazione, infatti a p. 1049 si trova:

oxidation stateA measure of the degree of oxidation of an atom in a substance. It is defined as the charge an atom might be imagined to have when electrons are counted according to an agreed-upon set of rules: (1) the oxidation state of a free element (uncombined element) is zero; (2) for a simple (monatomic) ion, the oxidation state is equal to the net charge on the ion; (3) hydrogen has an oxidation state of 1 and oxygen has an oxidation state of -2 when they are present in most compounds. (Exceptions to this are that hydrogen has an oxidation state of -1 in hydrides of active metals, e.g. LiH, and oxygen has an oxidation state of -1 in peroxides, e.g. H2O2; (4) the algebraic sum of oxidation states of all atoms in a neutral molecule must be zero, while in ions the algebraic sum of the oxidation states of the constituent atoms must be equal to the charge on the ion. For example, the oxidation states of sulfur in H2S, S8 (elementary sulfur), SO2, SO3, and H2SO4 are, respectively: -2, 0, +4, +6 and +6. The higher the oxidation state of a given atom, the greater is its degree of oxidation; the lower the oxidation state, the greater is its degree of reduction.

Si può anzitutto osservare che la “definizione” misura del grado di ossidazione di un atomo in una sostanza è seguita da un’ulteriore definizione che esplicita: Esso è definito come la carica che si immaginerebbe un atomo avesse quando gli elettroni vengono contati in base a un insieme concordato di regole… che sono sostanzialmente quelle riportate in tutti i testi elementari di chimica.

oxidation number

Of a central atom in a coordination entity, the charge it would bear if all the ligands were removed along with the electron pairs that were shared with the central atom. It is represented by a Roman numeral. Note: The term Stock number is no longer recommended.

Dunque si dovrebbe parlare di numero di ossidazione solo per l’atomo centrale nei composti di coordinazione? E cos’è il termine numero di Stock che non è più raccomandato?

Il numero di Stock fa parte di un più vasto sistema di nomenclatura dei composti inorganici, proposto dal chimico tedesco Alfred Stock[5] nel 1919.

Alfred_Stock

Alfred_Stock

Secondo la nomenclatura di Stock, la valenza (numero di ossidazione) di un certo elemento è posta o come apice (in numeri romani) a destra del simbolo dell’elemento in una formula chimica, per esempio FeIII2(SO4)3, o in parentesi tonde dopo il nome dell’elemento nei nomi dei composti, ad esempio ferro(III)solfato. Questo perché uno ione solfato ha carica −2, cosicché a ogni atomo di ferro spetta carica +3. Alla magnetite, Fe3O4, spetta il nome di ferro(II,III) ossido, a indicare due atomi di ferro non equivalenti (FeO●Fe2O3). La nomenclatura di Stock fu largamente impiegata in Germania tanto che nel 1924 una Commissione tedesca la raccomandò con alcune varianti, ad es l’impiego dei numeri romani, che nell’iniziale proposta di Stock dovevano essere arabi. L’intenzione di Stock era probabilmente di eliminare suffissi e prefissi.

In ogni caso sembra che il Gold Book 2014 della IUPAC riservi il termine numero di ossidazione solo per l’atomo centrale nei composti di coordinazione che andrebbe indicato con un numero romano. Va osservato che comunque la notazione di Stock è ancora ampiamente usata e non solo per i composti di coordinazione.

Un altro metodo per determinare gli stati di ossidazione è quello che usa il concetto di elettronegatività introdotto da Linus Pauling[6] nel 1932, proposto a tale scopo nel 1947 (L. Pauling, General Chemistry, Freeman, S. Francisco CA).

Linus_Pauling_1962

Linus Pauling

In breve:

Lo stato di ossidazione di un atomo in un composto è dato dall’ipotetica carica del corrispondente ione atomico che si otterrebbe dalla rottura eterolitica dei suoi legami con gli altri atomi in modo tale da attribuire tutti gli elettroni di questi legami all’atomo con maggiore elettronegatività. I legami tra atomi uguali si rompono omoliticamente.

Questo metodo permette di assegnare lo stato di ossidazione di tutti gli atomi in una molecola senza ricorrere a eccezioni (in LiH, all’idrogeno si assegnerebbe -1 perché è più elettronegativo (2.20) di Li (0.98), agli O in H2O2 si assegnerebbe -1 perché il legame O−O è fra due atomi uguali) e si assegnerebbero facilmente i numeri di ossidazione anche nel caso di Cl2O, FCl, SCN ad esempio, cosa non tanto agevole con le regole IUPAC. H.P. Look [4] chiama la definizione di Pauling “espansa” o “allargata”. Sia Look, sia W.B. Jensen [5] sostengono la superiorità del “metodo di Pauling” rispetto all’insieme di regole proposte dalla IUPAC, criticando altresì l’ambiguità di mantenere distinti i due termini “stato” e “numero” di ossidazione. In particolare Jensen sottolinea che il punto non è fare una distinzione fra definizione “allargata” o “ristretta”, quanto piuttosto fra un approccio “composizionale” e uno “topologico” allo stato di ossidazione, perché sia le “regole memorizzabili” sia la “regola della rimozione dei legandi” sono in ultima analisi riferibili all’approccio composizionale, mentre l’approccio di Pauling richiede piuttosto la conoscenza della topologia delle specie elettronicamente legate come rappresentata dai diagrammi di Lewis [5]. L’autore riporta l’esempio emblematico dell’anione manganese tetracarbonile [Mn(CO)4]3- in cui al Mn possono essere assegnati due numeri di ossidazione diversi con i due approcci.

Una esauriente risposta a queste osservazioni critiche è contenuta in un lungo articolo di P. Karen et al. apparsa su Pure Appl. Chem. [6].

oxidationstateIn conclusione, se non vi è alcuna differenza semantica fra i due termini e cioè il numero di ossidazione si riferisce allo specifico valore numerico assegnato all’entità “stato di ossidazione”, si possono usare le regole IUPAC o le tabelle delle elettronegatività per calcolare tale valore numerico nella maggior parte dei casi, riservando ad alcuni composti organometallici, ai clusters e a prodotti di reazione tipo NaTl (fasi di Zintl) un approccio che tenga conto del contorno elettronico.

[1] H. S. Fry, “Positive and Negative Hydrogen, The Electronic Formula of Benzene, and the Nascent State,” J. Am. Chem. Soc. 1914, 36, 261-272. Definition on page 272. Citazione da W.B. Jensen, The Origin of the Oxidation State Concept, J. Chem. Educ., 2007, 84, 1418-1419.

[2] W.M. Latimer, Oxidation States of the Elements and their Potentials in Aqueous Solutions, Prentice-Hall. Inc., New York, 1938, 1 vol. di pp. xiv+327

[3] International Union of Pure and Applied Chemistry, Compendium of Chemical Terminology

Gold Book, Version 2.3.3, 2014-02-24

[4] H.-P. Loock, Expanded Definition of the Oxidation State, J. Chem. Educ. 2011, 88, 282–283.

[5] W.B. Jensen, Oxidation States versus Oxidation Numbers, J. Chem. Educ. 2011, 88, 1599-1560.

[6] P. Karen, P. McArdle, J. Takats, Toward a comprehensive definition of oxidation state (IUPAC Technical Report), Pure Appl. Chem. 2014, 86, 1017–1081.

[1] Lo stesso Jensen, tuttavia, dichiara di aver trovato un’analoga definizione in un precedente libro di G. Buchner: In a wider sense one can now understand the oxidation of metals as any loss of electrons whereby the positive charge increases. Reduction is then the uptake of electrons and/or loss of positive charge.(Angewandte Ionenlehre, Lehmann: München, 1912, p.70)

[2] Wendell Mitchell Latimer (1893-1955) chimico americano, oltre ai suoi approfonditi studi di elettrochimica, è stato uno dei primi a descrivere il legame a idrogeno nell’acqua (W.M. Latimer, W.H. Rodebush, Polarity and ionization from the standpoint of the Lewis theory of valence, J. Am. Chem. Soc., 1920, 42, 1419–1433)

[3] Il numero polare formale, o meglio carica formale si calcola ipotizzando che tutti i legami siano covalenti sicché un solo elettrone viene assegnato a ogni atomo legato. Ad esempio, nello ione ammonio (NH4+) la carica formale dell’azoto è +1, ottenuta assegnando solo quattro elettroni di valenza (uno per legame) all’azoto. Allo stesso modo, l’azoto nell’ammoniaca (NH3) ha stato di ossidazione -3 ma carica formale zero. Per protonazione dell’ammoniaca si forma lo ione ammonio, la carica formale dell’azoto cambia, ma il suo stato di ossidazione resta -3.

[4] Interessante notare l’uso del segno = per separare reagenti e prodotti, mantenuto per tutto il libro. Interessante anche, al termine della prefazione il ringraziamento a William C. Bray (lo scopritore della prima reazione oscillante): non vi è alcun uomo che abbia una così completa comprensione del meccanismo delle reazioni inorganiche come il Professor William C. Bray. [1, p.vii]. Entrambi furono allievi di Gilbert N. Lewis, insieme scrissero un eccellente manuale di laboratorio per gli studenti di chimica.

[5] Alfred Stock (1876-1946), chimico inorganico tedesco, è stato pioniere nelle ricerche sugli idruri del boro e del silicio, sul mercurio e la sua velenosità e in chimica di coordinazione. È stato il primo a usare il termine ligand, legando.

[6] Linus Carl Pauling (1901-1994) americano, chimico, biochimico, educatore, attivista per la pace, Premio Nobel per la chimica 1954 “per le sue ricerche sulla natura del legame chimico e la sua applicazione all’elucidazione della struttura di sostanze complesse”. Oltre che della chimica quantistica è considerato anche fondatore della biologia molecolare. Nel 1962 ottenne anche il Premio Nobel per la pace “per la sua campagna contro i test nucleari”.

 

Quando la SCI dovrebbe prendere posizione pubblica e in che modo?

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Un recente episodio mi spinge a riflettere sul ruolo della SCI nella società e nella cultura italiana e a considerare il seguente quesito: la SCI (e in generale le organizzazioni dei Chimici, per esempio gli ordini professionali e il CNC) dovrebbe prendere posizione su alcuni almeno dei grandi temi che quotidianamente si pongono all’attenzione (a volte, ma non sempre, connessi direttamente con la Chimica)? E cosa potrebbero fare?

Qualcosa del genere, con qualche mal di pancia, è avvenuto nel caso del clima e mi sembra molto positivo. Ma vediamo a cosa mi riferisco.

Mi riferisco qui a un episodio avvenuto negli scorsi giorni; la condanna di alcuni dirigenti della società Syndial da parte della magistratura per un episodio di grave inquinamento verificatosi in Sardegna.

foto_526459_550x340

Lo stabilimento della Syndial di Porto Torres (foto Unione Sarda)

In questo caso la chimica è chiamata in ballo dal ruolo e dalle attività della società implicata, la Syndial, che è una società ENI che si occupa di riqualificazione ambientale; alcuni dei cui dirigenti sono stati condannati in un processo per inquinamento ambientale.

Il processo, denominato “Darsena dei veleni” era nato in seguito a un sovralluogo effettuato dai vigili del fuoco nella darsena servizi del porto industriale di Porto Torres, sopralluogo culminato con il sequestro cautelare di una parte della darsena.

L’inchiesta era poi stata avviata dalla procura della repubblica di Sassari che aveva individuato  nei vertici di Syndial e Polimeri Europa i presunti responsabili dell’inquinamento della darsena servizi (proprio a  ridosso dell’ex petrolchimico), che per anni era stata “alimentata” dalla falda acquifera inquinata caratterizzata dalla presenza di sostanze  cancerogene, con  livelli migliaia di volte superiori ai limiti consentiti dalla legge.

http://www.ansa.it/sardegna/notizie/2016/07/22/darsena-veleni-p.torres-tre-condanne_54db97af-03d6-47a2-8d8a-c228bc923906.html

Succintamente e attingendo ai testi dei giornali:

il pool difensivo di Eni – composto dai legali Carlo Federico Grosso, Mario Maspero, Fulvio Simoni, Grazia Volo, Luigi Stella, Piero Arru – (ha presentato) le controdeduzioni proprio relativamente alla costituzione delle parti civili. Dopo mesi di accertamenti e audizioni di testimoni erano stati iscritti nel registro degli indagati il rappresentante legale di Syndial Spa Alberto Chiarini, il responsabile gestione siti da bonificare Francesco Papate, il responsabile Taf Management (Taf è l’impianto per il trattamento delle acque di falda) Oscar Cappellazzo, i responsabili dell’area operativa Taf Gian Antonio Saggese e di salute, ambiente, sicurezza del Taf Francesco Leone, il rappresentante legale di Polimeri Europa Daniele Ferrari, il direttore di stabilimento Paolo Zuccarini e il responsabile della sezione salute, sicurezza, ambiente, Daniele Rancati. A tutti veniva contestato di “non aver adottato le opportune cautele” e di aver quindi “cagionato un disastro ambientale per lo sversamento in mare di sostanze inquinanti”.

Il punto è che per l’accusa, gli interventi di risanamento ambientale messi in atto dalla Syndial non avrebbero funzionato.In altri termini, dalla barriera idraulica costituita da pozzi di emungimento collegati a sistemi di trattamento delle acque e dispositivi per misurare il gradiente di diffusione dell’inquinamento, continuano a fuoriuscire inquinanti. Tesi, questa, respinta dalla difesa, che ha commissionato una perizia ad esperti americani. Per i quali la barriera bloccherebbe il deflusso delle sostanze inquinanti verso la darsena. Sempre per gli esperti della difesa, responsabile dell’inquinamento in quell’area, sarebbe una condotta fognaria della rete comunale.

In passato, è stato proprio il Ministero dell’Ambiente a denunciare l’inefficacia del sistema. Ma da allora nessuna nuova procedure di contenimento è stata messa in atto. Per avere un’idea dei livelli d’inquinamento della falda, basta riportare i dati notificati dalla stessa Syndial: “Arsenico 50 volte il limite, mercurio 10 volte il limite, benzene 139.000 volte il limite, etilbenzene 100 volte il limite, toluene 4.900 volte il limite, cloruro di vinile monomero 542.000 volte il limite, dicloroetano 28.000.000 di volte il limite, dicloroetilene 9.980 volte il limite, tricloroetilene

(http://www.sardiniapost.it/cronaca/darsena-dei-veleni-porto-torres-imputati-8-manager-eni-sit-degli-ambientalisti/)

Il rito abbreviato che ha caratterizzato il processo e che ha consentito il dibattito a porte chiuse (e questo atteggiamento sarebbe da spiegare da parte dell’ENI) si è chiuso con la condanna di tre degli 8 manager implicati (Saggese, Papate e Cappellazzo) accusati di disastro ambientale colposo e deturpamento delle bellezze naturali per avere riversato in mare rifiuti industriale altamente inquinanti. Sono tutti e tre di Syndial, e dovranno pagare oltre 500.000 euro di danni.

Infatti andranno 200 mila euro al ministero dell’Ambiente, 100 mila euro alla Regione Sardegna, 100 mila euro al Comune di Porto Torres, 50 mila euro a testa a Giovanni e Alessandro Polese (titolari di un cantiere nautico della zona). Altri 10 mila euro a testa come risarcimento dei danni morali sono stati riconosciuti alle associazioni Anpana, Lega per l’abolizione della caccia onlus, Comitato cittadino Tuteliamo il Golfo dell’Asinara e al Comitato d’azione protezione e sostenibilità ambientale per il nord ovest Sardegna.

Questi sono gli episodi che poi costituiscono la base per la immagine negativa della chimica; gli episodi in cui la Chimica viene avvicinata all’inquinamento al danneggiamento della Natura e che costituiscono il presupposto per l’uso così negativo della nostra parola chiave.

Anche se nello Statuto della nostra associazione non è esplicitamente indicata la difesa dell’immagine della Chimica, questo scopo può e deve essere, sia pure implicitamente, considerato un obbiettivo strategico; nel comma 1 dell’art. 2 si dice infatti “di divulgare la conoscenza della Chimica e l’importanza delle sue applicazioni nel quadro del benessere e del progresso della Nazione”.

statuto1Dovrebbe essere sufficiente a porsi il problema e l’obiettivo di usare come strumento l’azione legale e considerarsi parte lesa in questi episodi e di iscriversi nella lista delle associazioni che ricevono danno morale da episodi di questo tipo; su questa base la SCI potrebbe chiedere in questi casi di costituirsi parte civile nei processi di questa portata e contenuto.

Fra l’altro queste sono le condizioni per recuperare la nostra immagine positiva nei confronti dell’opinione pubblica; far vedere che ci poniamo attivamente contro i comportamenti dell’industria e dei suoi attori quando questi sono contrari all’etica e al vivere civile e alla legge stessa: chimica si ma l’uomo e la Natura vengono prima.

E’ un quesito che rivolgo al CC della SCI e a tutti i soci; apriamo un dibattito su questi temi. E aggiungo: Cosa succederebbe se in episodi del genere fossero coinvolti iscritti SCI o degli ordini? Ci sarebbe un effetto? O tutto passerebbe o passa di fatto in cavalleria? Ci sono stati soci o iscritti agli ordini contro i quali a causa di episodi del genere il filtro delle organizzazioni nazionali di categoria o culturali come la nostra abbia funzionato; non ne sono a conoscenza; chi ne sa di più?

A voi la parola.

 

Depurazione delle acque: processi innovativi.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Il trattamento delle acque di rifiuto è un argomento abbastanza particolare. Ovviamente ben conosciuto dagli addetti del settore (operatori e ricercatori) e meno dal pubblico generico.
Ma come da sempre sostengo anche gli addetti credo debbano sentire l’impegno (perché tale è) di restare continuamente aggiornati sulle novità che si sviluppano da processi di ricerca, e che possono essere poi sperimentati e successivamente utilizzati nei processi di trattamento.
L’università Carlo Cattaneo di Castellanza (Va) organizza ormai da qualche anno incontri di questo tipo, aperti al pubblico, agli operatori ed agli studenti.
Nell’ultimo che si è svolto la scorsa primavera ho potuto conoscere due processi di trattamento riguardanti uno la linea di trattamento delle acque, ed uno la linea fanghi che mi hanno molto interessato.

Processo anammox

Si tratta di un processo di ossidazione dell’azoto ammoniacale effettuato da batteri che in condizioni anossiche (carenza di ossigeno disciolto) ossidano l’azoto ammoniacale usando il nitrito come accettore di elettroni.
La scoperta di questo tipo di batteri avvenne nel 1988 in un depuratore in Olanda.

anammox

Questo tipo di batteri vive spontaneamente in ambienti quali i fondali oceanici e contribuisce per circa il 70% al ciclo dell’azoto negli oceani.
La reazione, condotta in assenza di ossigeno, dei nitriti con lo ione ammonio

NO2+ NH4+(aq) –> N2(g) + 2 H2O

si differenzia da quella classica di denitrificazione (l’azoto nella forma di nitrati viene convertito per via biologica ad azoto gassoso: NO3 –> N2(g)).
Per il processo anammox la fonte è carbonio inorganico e le condizioni sono anaerobiche, mentre per la denitrificazione il carbonio è organico e le condizioni anossiche.
Questo tipo di processo dal punto di vista dell’applicazione impiantistica si può fare avvenire in due stadi separati o in un unico stadio.
Nel primo caso nel primo stadio di trattamento si conduce una normale reazione di nitritazione parziale nella quale si trasforma circa la metà dell’ammonio presente a nitrito.

NH4+ + 3/2 O2 –> NO2 + 2H+ + H2O

Nel secondo stadio avviene il processo anammox.
Se il processo viene fatto avvenire in un solo stadio dove i batteri nitrificanti e gli anammox convivono per esempio in un biofilm si ottiene il doppio vantaggio di avere costi di investimento inferiori e facilitare il controllo di processo.
Questo tipo di trattamento si presta molto bene al trattamento di reflui con alte concentrazioni di azoto (200mg/lt).
Tipicamente quindi reflui quali il percolato di discarica, oppure i digestati liquidi del trattamento fanghi e i reflui derivanti da processi agroindustriali, cioè quelli che da sempre danno più problemi con un trattamento di tipo convenzionale a fanghi attivi.
Questo tipo di processo ben si adatta a costruire sistemi modulari e compatti dal momento che questi batteri formano biofilm adesi e stabili, ma possono anche aggregarsi in forme adatte ai sistemi di biomassa sospesa molto compatta riducendo i problemi di bulking e sfaldamento del fiocco di fango, piuttosto comuni negli impianti tradizionali.
Le criticità del processo sono legate al range di temperatura ottimale (25-38°C) e al rapporto COD/N che è preferibile sia inferiore a 2. Nel caso contrario è preferibile effettuare un pretrattamento aerobico.
La tecnologia è già applicata in un centinaio di impianti (108 a tutto il 2015) e con fornitori commerciali già presenti sul mercato .
In Italia l’applicazione risulta ancora limitata, e spiace dirlo per le solite carenze che riguardano in molti casi il ritardo negli adeguamenti strutturali degli impianti e negli investimenti, una frammentazione ancora troppo elevata delle gestioni, e quindi in ultima analisi un problema culturale.

Disidratazione elettro-assistita.

La seconda tecnica che ha suscitato la mia curiosità (dote che ritengo utile e fondamentale) è questa. Il trattamento dei fanghi è di fatto quello che da sempre impegna molto chi lavora nel settore della depurazione. I problemi del corretto trattamento dei fanghi di risulta sono diversi, e variano dai costi di smaltimento fino a quelli di avere trattamenti di facile uso ed esecuzione per il personale addetto.
La disidratazione elettroassistita consiste nell’applicazione di un campo elettrico per sfruttare il fenomeno della elettroosmosi. Utilizzando corrente elettrica continua si può effettuare la migrazione dell’acqua contenuta nel fango da disidratare (la cosiddetta acqua del fango). In particolare si migliora il drenaggio dell’acqua interstiziale e capillare. Con questa tecnica si possono ottenere tenori di secco del fango che possono arrivare al 40-45% da valori del 18-30% ottenuti con la sola disidratazione meccanica con pressa a nastro o centrifuga.

becker

Il limite di questa tecnica rispetto a quelle tradizionali è la portata inferiore di fango trattabile a cui si può ovviare con l’installazione di più macchine operanti in parallelo.

nastro

L’altro problema a cui si sta lavorando è quello dell’accumulo del fango più secco all’anodo della elettropressa con conseguenti problemi di corrosione e di perdita di conducibilità nel fango. Per questa ragione si sta lavorando alla messa a punto di anodi rotanti. Il vantaggio consiste nel migliorare la fluidità del fango e la sua conduttività migliorando il drenaggio dell’acqua separata.
L’impianto di depurazione di domani sarà profondamente diverso da quello che abbiamo visto fino ad oggi. Saranno fondamentali per il suo miglior funzionamento le tecnologie oggi emergenti. E da esso si potranno recuperare sia energia che materia. Non solo biogas come già oggi avviene, ma anche biopolimeri e soprattutto fosforo.

Ancora sulla simbologia chimica

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Nel precedente post sull’argomento (https://ilblogdellasci.wordpress.com/2016/07/20/lorigine-della-nomenclatura-e-della-simbologia-chimica-moderna/), ho citato questa frase tratta dal libro di Solove’v [1]: “Nella trattatistica chimica le formule e le equazioni cominciarono a comparire fra il 1827 e il 1831”. Secondo lo storico della chimica statunitense William B. Jensen[1][2], a quei tempi i diagrammi chimici erano ancora i soli a essere impiegati nei trattati, un esempio è fornito dalla seguente figura tratta dal libro di A. Lee[2] Chemical Diagrams, Accompanied by a Concise Description of Each Decomposition, Cox, London, 1933, p.12:

nomenclatura11Questo diagramma rappresenta la reazione fra carbonato di calcio [lime] e acido cloridrico [muriatic acid] per dare cloruro di calcio e acido carbonico [anidride carbonica + acqua]. I numeri rappresentano gli equivalenti delle sostanze in base ai pesi atomici di Dalton “aggiornati”. Probabilmente Dumas in base alla simbologia di Berzelius avrebbe scritto l’equazione di reazione “in linea” circa così:

(CaO+CO2) + 2(HCl) = (CaCl2) + (H2O+CO2).

Jensen sostiene che l’apparizione delle “equazioni chimiche in linea” accompagnate dall’uso del simbolo = per separare i reagenti dai prodotti risale alla fine degli anni ’40 del 1800 e cita il famoso libro di testo introduttivo Manual of Elementary Chemistry, Theoretical and Practical, Blanchard and Lea, Philadelphia, 1a Ed. 1847, di G. A. Fownes[3]. Nella prima edizione del 1847 e certamente fino alla 7a edizione del 1860, la doppia notazione, diagramma ed equazione in linea, viene mantenuta, ma essa scompare a favore della seconda nella 12a edizione intitolata Fownes’ Manual of Chemistry Theoretical and Practical, revisionata e corretta da Henry Watts, J. & A. Churchill, London, 1877.

Tuttavia Stanislao Cannizzaro userà esclusivamente equazioni in linea con reagenti e prodotti separati dal simbolo = nel suo famosissimo Sunto di un Corso di Filosofia Chimica del 1858.

L’uso della singola freccia al posto di = arriva certamente più tardi se è vero che ancora nel 1821 gli autori del Journal of the American Chemical Society usavano = per separare reagenti e prodotti. Ad esempio [3]:

nomenclatura12L’origine del simbolo doppia freccia per indicare una reazione all’equilibrio chimico è invece più facile da ritrovare. Nel 1884 vengono pubblicati gli Etudes de Dynamique Chimique di Jacobus Henricus van’t Hoff, in cui l’autore afferma:

La trasformazione limitata, di cui dobbiamo la conoscenza a Berthollet, è caratterizzata dal fatto che essa si arresta prima di arrivare a completezza. Nello stato finale si trova dunque inalterata una parte dei corpi primitivi in presenza dei corpi nuovi formatisi; così nell’azione dell’acido cloridrico sull’azotato [nitrato] di sodio si ha una trasformazione che conduce ad acido nitrico e sale marino, ma questa trasformazione non porta mai alla scomparsa totale dei corpi primitivi impiegati.

Le osservazioni di questo tipo sono diventate via via più numerose e trasformazioni limitate si trovano ora in tutte le parti della chimica. Ora M. Pfaundler ha collegato questi due fenomeni in un solo concetto considerando il limite osservato come la risultante di due trasformazioni contrarie, conducendo l’una, nell’esempio citato alla formazione di sale marino e acido nitrico, l’altra all’acido cloridrico e all’azotato di sodio. Questa considerazione, che l’esperienza ha verificato, giustifica l’espressione di equilibrio chimico, di cui ci si serve per caratterizzare lo stato finale della reazione limitata. Io proporrei di tradurre questa espressione con il seguente simbolo:

HCl + NO3Na ⇄ NO3H + ClNa

Sostituisco dunque nell’equazione chimica, in questo caso il segno = che, in realtà non mostra solo l’uguaglianza ma mostra anche il verso della trasformazione, con il simbolo . Esso esprime chiaramente che un atto chimico si compie simultaneamente nei due versi opposti. [4, p. 4-5]

Per la simbologia delle equazioni chimiche, nel Gold Book della IUPAC, alla voce chemical reaction equation si trova:

Symbolic representation of a chemical reaction where the reactant entities are given on the left hand side and the product entities on the right hand side. The coefficients next to the symbols and formulae of entities are the absolute values of the stoichiometric numbers. Different symbols are used to connect the reactants and products with the following meanings: = for a stoichiometric relation; → for a net forward reaction; ⇄ for a reaction in both directions; ⇌ for equilibrium.” [5]

Nonostante questa raccomandazione, sono tuttavia abbastanza sicuro che nella pratica comune per le reazioni all’equilibrio si usino indifferentemente i due simboli ⇄ e ⇌, mentre per le reazioni che vanno praticamente a completezza l’uso della singola freccia valga anche a indicare la relazione stechiometrica.

[1] J.I. Solove’v, Storia del Pensiero Chimico, EST, Mondadori, Milano, 1976, p. 157.

[2] W.B. Jensen, The Symbolism of Chemical Equations, J. Chem. Educ., 2005, 82, 1461

[3] W.C. Bray, A Periodic Reaction in Homogeneous Solution and its Relation to Catalysis, J. Am. Chem. Soc., 1921, 43, p. 1262

[4] J.H. Van’t Hoff, Etudes de Dynamique Chimique, Frederik Muller & Co., Amsterdam, 1886. 1 vol di pp. 214

[5] IUPAC, Compendium of Chemical Terminology Gold Book, Version 2.3.3, 2014.02.24, p. 262

[1] William B. Jensen, chimico statunitense è Professor of Hystory of Chemistry and Chemical Education all’Università di Cincinnati, curatore della Oesper Collections della stessa Università. Ha curato la rubrica bimestrale “Ask the Historian” del Journal of Chemical Education dal 2003 al 2012. Ha fondato ed è stato il primo editor della rivista Bulletin for the History of Chemistry.

[2] Il libro di Alexander Lee, con un titolo lunghissimo, è “inteso a facilitare il progresso dello studente medico”. Si tratta di un voluminoso compendio di chimica inorganica e organica, dedicato in particolare “to the gentlemen who attending the Borough Medical Schools”.

[3] George A. Fownes (1815-1849), chimico inglese noto per i suoi saggi sulla chimica dei vegetali, professor of chemistry in varie istituzioni, famoso per il suo Manual of Chemistry di cui riuscì a curare solo le prime tre edizioni prima di morire di polmonite a soli 34 anni.

Grove contro Daniell: la “guerra” delle batterie.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

 Oggi tutti noi associamo le batterie ricaricabili all’uso di dispositivi sofisticati per le comunicazioni come i moderni smartphones, i telefoni cellulari intelligenti i computer portatili e anche le auto elettriche; fa parte della nostra tradizione industriale un esteso uso delle batterie ricaricabili per esempio per avviare i motori a combustione interna; batterie non ricaricabili sono in uso per le più svariate applicazioni e su un range di dimensioni veramente ampio, dai piccoli giocattoli all’avvio delle batterie di missili.

In effetti sono oltre due secoli che questo tipo di dispositivi nelle loro varie forme fa parte della nostra vita tanto che molti elementi della loro storia sono perfino andati nel dimenticatoio.

Ma in effetti sarebbe utile riflettere sulla storia delle batterie proprio perchè fanno parte integrante della nostra vita quotidiana.

Uno degli episodi più antichi e contemporaneamente più moderni di questa lunga tradizione è stata la “guerra” per il controllo del mercato del telegrafo che duecento anni fa costituiva l’ultimo grido nel campo delle comunicazioni.

Le due batterie primarie che si contesero il campo furono la batteria di Grove e quella di Daniell.

Il telegrafo è un sistema di comunicazione basato sulla trasmissione di impulsi di corrente continua lungo un filo metallico; data la scarsa potenza in gioco il segnale non può viaggiare per lunghi percorsi ed ha bisogno quindi di frequenti ripetizioni lungo la linea; stazioni alimentate in un primo momento e per lunghi anni da batterie primarie alimentavano questa ripetizione del segnale; solo dopo il 1869 entrarono in gioco le dinamo; una singola batteria di quelle a disposizione all’epoca poteva coprire una distanza variabile fra i 10 e i 20 chilometri.

Il telegrafo elettrico fu il discendente del telegrafo ottico inventato da Chappe appena dopo la rivoluzione francese nel 1793. Esso fu messo a punto per la prima volta in forma commerciale e dopo numerosi tentativi in tutto il mondo, di cui alcuni italiani, da Samuel Morse nel 1837 e la prima linea fu tra Washington e Baltimora sulla costa Est degli USA nel 1844. In Italia il telegrafo di Matteucci, nostra gloria nazionale, fu messo a punto solo a partire dal 1847.

Morse dovette giocoforza inventare anche uno speciale alfabeto che era di fatto binario, costituito di impulsi brevi e lunghi, solo due simboli base, la combinazione dei quali consentiva però di riprodurre messaggi di qualsivoglia lunghezza.

daniell1Un tasto elettrico che chiudeva temporanemente il circuito consentiva all’operatore di regolare la durata del segnale a mano ed un bravo operatore poteva trasmettere anche cento caratteri al minuto. Dato che la maggior parte delle lettere era costituita da tre o quattro caratteri questo equivaleva a scrivere decine di lettere al minuto, quindi alcune parole al minuto.

L’alfabeto Morse fu reso famoso in seguito dai messaggi inviati tramite le onde elettromagnetiche dalle navi fra cui rimane famoso l’SOS, il segnale di soccorso, che ha contribuito a salvare migliaia di vite.

Mio padre era radiotelegrafista del genio militare e mi insegnò ad usare il tasto Morse, che ancora conservo, anche se oggi non riuscirei a trasmettere messaggi, ci vuole molta pratica per scrivere e leggere il Morse.

daniell2

Il primo messaggio Morse trasmesso per telegrafo.

Il meccanismo esatto era il seguente:

daniell3La chiusura del circuito tramite il pulsante Morse invia un segnale all’elettrocalamita che, eventualmente opportunamente amplificato, genera una risposta o meccanica come indicato nella figura o acustica come avverrà in seguito, con l’uso di cuffie. I circuiti nel tempo subirono una enorme evoluzione anche per rivelare deboli segnali su grandi distanze come quelle dei cavi sottomarini transatlantici, posati a partire dal 1866.

Le batterie erano insomma il cuore del sistema; qui sotto la struttura della batteria Grove. daniell6

Un contenitore di vetro di forma cilindrica contiene una soluzione di ZnSO4 a contatto con una lamina cilindrica di Zn; all’interno un separatore poroso che la separa da una soluzione concentrata di acido nitrico in cui è immerso una barretta centrale di Platino; lo Zinco funge da polo negativo e il Platino da polo positivo; la reazione che vi si realizza è la seguente:

Zn + H2SO4 + 2 HNO3 = ZnSO4 + 2 H2O + 2 NO2(g)

Fra il 1840 e il 1860 questa sorgente elettrica fu quella dominante con una differenza di potenziale di circa 1.9V.

Sir William Robert Grove, (1811 –1896) fu uno scienziato di origine gallese che si occupò di chimica e fisica, inventò un dispositivo simile alla lampada di Edison, la cella di Grove di cui parliamo qui e la cella a combustibile, nel 1842.

Quali sono i problemi della cella di Grove? Uno è l’uso del platino che è costoso, un altro è la produzione di biossido di azoto che un gas tossico e il terzo è che durante la vita del dispositivo la tensione tende a diminuire riducendo le prestazioni.

Ci fu un tentativo di ridure alcuni problemi con la sostituzione del platino con la grafite; scriveva nel 1860, Dionysius Lardner in ‘The Telegraph Popularised’ …

Zinc being one of the most oxydable metals, and being also sufficiently cheap and abundant is generally used by preference for voltaic combinations. Silver, gold, and platinum are severally less susceptible of oxydation, and of chemical action generally, than copper, and would therefore answer voltaic purposes better, but are excluded by their greater cost, and by the fact that copper is found sufficient for all practical purposes.

“It is not, however, absolutely necessary that the inoxydable element of the combination should be a metal at all. It is only necessary that it be a good conductor of electricity. In certain voltaic combinations, charcoal properly solidified has therefore been substituted for copper, the solution being such as would produce a strong chemical action on copper.”

It was found that carbon used in place of platinum in the Grove cell
still produced the extra power which made the Grove so popular
… this combination was called a Bunsen cell.

daniell7

Un banco di celle di Grove per alimentare il telegrafo; il tavolo di legno di sostegno era cerato per ridurre gli effetti dell’acido nitrico.

Ma anche la cella Bunsen non risolveva il problema dell’evoluzione di gas tossici e della riduzione del potenziale utile.

Bunsen_cell

Si differenzia per l’utilizzo di un catodo a carbone al posto del costoso catodo di platino della pila di Grove;grazie a tale modifica, che ne abbatteva i costi, la pila di Bunsen poteva essere prodotta su larga scala. Come la pila di Grove, la pila di Bunsen utilizza un anodo in zinco immerso in una soluzione di acido solforico (H2SO4); il catodo in carbone è invece immerso in una soluzione di acido nitrico (HNO3) o acido cromico (H2CrO4). Le due semicelle sono separate da un setto poroso.

Questa situazione portò all’introduzione di tecnologie alternative; la tecnologia alternativa fu la batteria Daniell.

Anche John Frederic Daniell fu uno scienziato inglese (1790-1845) che si occupò di chimica e fisica in un periodo in cui la separazione fra queste due discipline era molto meno netta di adesso. Inventò un igrometro, un pirometro ed un barometro che portano il suo nome e si occupò anche di meteorologia. Ma la invenzione per cui lo ricordiamo adesso è certamente la più conosciuta: la pila Daniell, descritta qui sotto.daniell8 daniell9

Essa consisteva di una tazza di rame riempita con una soluzione di solfato di rame nella quale era immerso un contenitore di ceramica porosa riempito di solfato di zinco ed un elettrodo di zinco. Daniell cercava di risolvere il problema delle bolle di idrogeno che si sviluppavano nella pila di Volta dal lato del rame e la sua soluzione consistette nell’usare un diverso elettrolita, il solfato di rame, invece della soluzione acidula proposta da Volta la quale comportava la riduzione al catodo dell’idrogeno con sviluppo di bolle appunto.

Zn(s) + Cu2+(aq) → Zn2+(aq) + Cu(s) . . ( voltaggio a circuito aperto 1.1018 V )

La cella Daniell è anche la base storica della definizione di Volt, che è l’unità della forza elettromotrice ; la prima definizione, quella proposta nel 1881 era fatta in modo che il potenziale generato dalla cella Daniell fosse esattamente 1V a 25°C, mentre con la definizione attuale il potenziale standard è di 1.1 V.

daniell10

Nella cella Daniell la barriera porosa è usata per prevenire il libero mescolamento delle due soluzioni; senza di essa anche in assenza di corrente gli ioni di rame diffonderebbero velocemente dal lato dello zinco e si ridurrebbero distruggendo di fatto la batteria.

Tuttavia la barriera porosa non può comunque impedire il flusso di ioni rame nella semicella dello zinco. Ne segue che la cella Daniell non può essere ricaricata elettricamente perchè trasformando l’anodo di Zinco nel catodo, gli ioni rame che hanno diffuso si ridurrebbero al posto di quelli di zinco a causa del loro potenziale più favorevole (+0.34 invece di -0.76V).

Col tempo il rame può occludere la barriera porosa e ridurre la vita della batteria, ma ciononostante la cella Daniell consentiva una resa migliore ed una vita utile più lunga della cella voltaica perché mentre l’idrogeno che si sviluppava nella cella voltaica isolava l’elettrodo, il rame che si deposita è comunque un ottimo conduttore.

Rispetto alla cella Grove la cella Daniell presenta una differenza di potenziale circa dimezzata ma non genera gas tossici, non usa materiali altrettanto corrosivi e il suo potenziale rimane sostanzialmente più costante nel tempo Solo la batteria Leclanchè potè poi sostituire la cella Daniell con risultati migliori ma ciò avvenne solo nella tarda metà del XIX secolo e la supremazia della Leclanchè durò poi negli usi pratici fino alla fine della seconda guerra mondiale

Ma l’idea che rese veramente concorrenziale la batteria Daniell divenne realtà nel 1858 e fu opera di un altro inventore di origine francese, di nome A. Callaud, che la perfezionò poi ancora nel 1862. Questa invenzione denominata “pila a gravità” faceva anche a meno del setto poroso riducendo il prezzo e semplificando l’uso e la struttura della battteria.

daniell11 daniell12Essa consisteva di un contenitore di vetro in cui un catodo di rame si trovava sul fondo mentre l’anodo di zinco era sospeso al confine fra le due zone. A causa della maggiore densità la soluzione di solfato di rame rimaneva sul fondo anche se la sua concentrazione diminuiva durante l’uso. Uno strato di solfato di zinco si formava alla estremità dell’anodo e la differenza era sottolineata dalla differenza di colore, essendo azzurra la soluzione di rame e trasparente quella di zinco.

Per ridurre i problemi di mescolamento la cella doveva continuare a produrre corrente e nel contempo evitare che una forte richiesta di corrente distruggesse l’integrità dello strato limite.daniell13 daniell14

Nonostante questi problemi, il costo basso e la facilità di impiego ne diffusero l’uso e ne spinsero l’adozione nello sviluppo di dispositivi a più celle che alimentavano tratte di telegrafo più lunghe, anche perché non c’erano gas tossici e comunque la parte chimica della batteria era isolata dall’aria tramite uno strato di olio che “impermeabilizzava” la sommità della batteria stessa (avendo densità ancora inferiore al solfato di zinco l’olio galleggiava). In una versione ancora più avanzata descritta nell’ultima immegine una sorta di imbuto consentiva l’aggiunta di solfato di rame in forma solida trasformando di fatto la batteria Daniell-Callaud in una sorta di reattore elettrochimico ibrido, a metà strada fra una batteria primaria ed una cella a combustibile.

E’ da notare che anche un inventore italiano Giuseppe Candido di Lecce partecipò alla corsa alla migliore batteria ma non riuscì a vincere perchè di fatto la scelta era stata già fatta (http://www.emerotecadigitalesalentina.it/sites/default/files/emeroteca_all/ID03_contributi-leccesi-sviluppo-pila-elettrica.pdf); la sua idea era basata su una geometria diversa e sull’uso di un setto separatore non poroso come descritto nell’immagine qui sotto:

daniell15

Riferimenti.

Power Struggles Scientific Authority and the Creation of Practical Electricity Before Edison

Michael Brian Schiffer The MIT press 2008

http://members.kos.net/sdgagnon/te4.html

https://en.wikipedia.org/wiki/History_of_the_battery#Invention_of_the_battery

L’origine della nomenclatura e della simbologia chimica moderna

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Nella seconda metà del XVIII secolo la terminologia chimica era ancora intrisa del linguaggio e del simbolismo alchemico sicché a una data sostanza erano in generale associati più termini e altrettanti simboli derivati dagli alchimisti. Ad esempio per la magnesia (carbonato di magnesio) erano in uso ben nove diversi nomi.

All’inizio del 1787 Antoine Laurent Lavoisier (1743-1794) decise di affrontare il problema del linguaggio chimico, nomenclatura e simbologia con un progetto di ampio respiro che coinvolse i seguenti chimici che avevano aderito alla “teoria dell’ossigeno” rigettando quella del flogisto: Guyton de Morveau (1837-1816), Claude Louis Berthollet (1748-1822), Antoine François Furcroy (1755-1809) e, per il nuovo sistema di caratteri chimici, Jean Henri Hassenfratz (1755-1827) e Pierre Auguste Adet (1766-1848). Il progetto si concretizzò con la memoria Mèthode de nomenclature chimique, illustrata all’Académie des Sciences fra aprile e giugno 1787, poi pubblicata in volume nello stesso anno [1][1].

nomenclatura1

L’opera si basava su due regole: la prima, la più importante, stabiliva che il nome avesse un significato conforme alla funzione chimica dell’oggetto da definire; la seconda adottava l’etimologia greca come privilegiata per la formazione dei futuri nomi delle sostanze [2, p.58].

In sintesi, nel volume vengono provvisoriamente elencati come elementi circa 55 sostanze che non potevano essere decomposte in altre più semplici con qualsiasi mezzo chimico noto all’epoca. Gli elementi inclusi sono: luce; calorico (“materia del calore”); ossigeno, idrogeno e azoto; carbonio; zolfo; fosforo; gli ancora sconosciuti “radicali” dell’acido muriatico (acido cloridrico), acido borico e acido fluorico (acido fluoridrico); 17 metalli; 5 terre (essenzialmente ossidi di metalli ancora sconosciuti come magnesia, barite, e strontia); tre alcali (potassa, soda e ammoniaca); e i “radicali” di 19 acidi organici. Gli acidi, considerati nel nuovo sistema come composti di vari elementi a diverso “grado di ossigenazione”, sono stati chiamati con il nome dell’elemento coinvolto insieme al grado di ossigenazione di tale elemento, per esempio acidi solforico e solforoso, acidi fosforico e fosforoso, acido nitrico e acido nitroso, il suffisso -ico indicando acidi con una maggiore percentuale di ossigeno rispetto a quelli con il finale -oso. Allo stesso modo, ai sali degli acidi –ico veniva dato il suffisso -ato, come in solfato di rame, mentre i sali degli acidi –oso venivano designati con il suffisso –ito, come in solfito di rame. L’effetto di questa nuova nomenclatura può essere valutato confrontando il nuovo nome “solfato di rame” con il vecchio termine “vetriolo di Venere”.

La nuova nomenclatura permise, combinando opportunamente i nomi a due a due e a tre a tre, di ottenere più di 320.000 nomi. A questi corrispondevano sostanze che in larga misura non erano ancora state isolate sperimentalmente ma che Lavoisier prevedeva di ottenere quando le tecniche analitiche si fossero raffinate. Il passaggio alla nuova nomenclatura non fu immediato anche a causa della difficoltà di traduzione in alcune lingue europee. Tuttavia, poiché la nuova terminologia chimica era un linguaggio universalmente comprensibile e di facile insegnamento, il successo ottenuto dalla nomenclatura di Lavoisier non ha precedenti nella Storia della Scienza [2, p.64] e, nonostante la revisione IUPAC, continua a essere di uso comune in campo chimico.

I simboli proposti nella Méthode non ebbero però uguale successo, i caratteri consistono in figure geometriche (linee, cerchietti, quadrati, triangoli con o senza lettera all’interno).

John Dalton (1766-1844), il fondatore della teoria atomica, nella sua fondamentale opera: A New System of Chemical Philosophy (1808), propose un sistema di simboli per gli atomi degli elementi e per le loro combinazioni (atomi composti [molecole]). I simboli di Dalton sono cerchietti per gli atomi degli elementi (con un segno convenzionale o una lettera all’interno) e cerchietti a contatto fra loro per rappresentare le particelle delle sostanze composte, come mostrato in figura. [3]

nomenclatura2Non è scopo di questo post discutere le basi della teoria atomica di Dalton e il suo sistema di pesi atomici, vale però la pena sottolineare che le ipotesi di Dalton, che considerava gli atomi come sfere infinitesime dotate di massa, si basavano sulla meccanica newtoniana, una delle più grandi costruzioni nella storia del pensiero umano e che si supponeva potesse spiegare tutto l’universo, dal macro al micro. Si possono quindi considerare le figure daltoniane come rappresentazioni strutturali delle particelle delle sostanze in base alla meccanica di Newton.

A quanto pare il sistema di simboli di Dalton non ebbe largo impiego.

Il successivo sviluppo che condurrà alla simbologia attuale è dovuto al chimico svedese Jöns Jacob Berzelius (1779-1848). Grande chimico, abile sperimentatore e notevole teorico, spaziò dalla chimica inorganica (identificò e scoprì nuovi elementi, inclusi silicio, selenio, cerio e torio, sviluppò tecniche analitiche, ecc.) alla chimica organica (suoi sono i termini allotropo, isomero, polimero, catalisi), enunciò la teoria elettrochimica dualistica per interpretare l’affinità chimica.

Convinto che una notazione chimica dovesse esprimere in modo preciso di quali elementi e in che numero un composto è formato, nel 1814 pubblicò la III parte di un lungo articolo[2] intitolata:

On the Chemical Signs, and the Method of employing them to express Chemical Proportions [4]. Scrive Berzelius:

I simboli chimici dovrebbero essere lettere per la loro maggiore facilità di scrittura [rispetto a segni e figure geometriche] così da non complicare la stampa dei libri……

Prenderò quindi … la lettera iniziale del nome latino di ciascuna sostanza elementare, ma poiché molti hanno la stessa lettera iniziale, li distinguerò nel modo seguente: 1. Nella classe che chiamo metalloidi, impiegherò la sola lettera iniziale, anche se questa lettera è in comune al metalloide e ad alcuni metalli. 2. Nella classe dei metalli, distinguerò quelli che hanno la stessa iniziale con un altro metallo o metalloide scrivendo le prime due lettere del nome. 3. Se le prime due lettere sono in comune fra due metalli, in questo caso, aggiungerò alla lettera iniziale la prima consonante che essi non hanno in comune, per esempio: S = sulphur, Si = silicium, St = stibium (antimony), Sn = stannum (tin), C = carbonicum, Co = cobaltum (cobalt), Cu = cuprum (copper), O =oxygen, Os = osmium, etc.[4, p. 51-52].

Per i composti Berzelius si basa sui “volumi”, quindi: “poiché l’oxidum cuprosum si forma da un volume di rame e uno di ossigeno dovrà scriversi Cu + O, mentre l’oxidum cupricum si scriverà Cu + 2O. Allo stesso modo per l’acido solforico [anidride solforica] si scriverà S + 3O, per l’acido carbonico [anidride carbonica] C + 2O, per l’acqua 2H + O ecc.” [4, p.52].

Per composti come il solfato di rame, Berzelius suggerisce di omettere il segno + fra i “simboli” dei due componenti [ossido di rame e anidride solforica] indicando con un numero posto sopra al simbolo i “volumi” di ossigeno coinvolti, sicché CuO + SO3 sarà il solfato di rame[3].

Nascono così le formule chimiche.

“Ci si può difficilmente rendere conto dell’enorme importanza che questo linguaggio, che noi usiamo come cosa in se stessa ovvia, ebbe a quei tempi per il progresso della scienza chimica…solo a fatica riusciamo a riportarci al modo di pensare chimico del periodo anteriore all’introduzione delle formule, solo sullo sfondo del quale possiamo apprezzare il significato e l’importanza della nuova lingua”. [5]

Tuttavia i chimici dell’epoca trovarono, nell’immediato, i simboli e le formule di Berzelius poco chiari, atti a trarre in inganno e addirittura inutili. Fra i detrattori proprio John Dalton che nel 1837 sostenne che i simboli letterali di Berzelius “gli sembravano iscrizioni in antico ebraico” [5].

Jean Baptiste Andrè Dumas (1800-1824), chimico francese, pare sia stato il primo, nel 1826, a rappresentare reazioni chimiche con equazioni chimiche, utilizzando il simbolismo di Berzelius [6].nomenclatura3

Scorrendo il suo lavoro si evince che egli ritiene valida, insieme con Ampère, l’ipotesi di Avogadro e, a questi due grandi fisici teorici (insieme ai chimici Gay-Lussac, Berzelius, Mitscherlich e Dulong & Petit) vanno i ringraziamenti di Dumas [6, p. 391][4]. Dumas fu anche il primo (o quantomeno uno dei primi) a usare il segno = per separare reagenti e prodotti e a usare i coefficienti per bilanciare le equazioni chimiche [6, pp. 366, 372, 373].

Nei trattati di chimica le formule e le equazioni cominciarono a comparire fra il 1827 e il 1831, l’uso dei pedici per indicare il numero degli atomi della stessa specie fu proposto da J. Liebig nel 1834 [5, p. 156-157]. La “rivoluzione” nella simbolistica chimica si andava completando.

[1] MM. De Morveau, Lavoisier, Bertholet & De Fourcroy, Métode de Nomenclature Chimique, Couchet, Paris, 1787, 1 vol di pp. 313 e 5 tavole.

[2] M. Beretta, Lavoisier – La rivoluzione chimica, I grandi della Scienza, anno I, n.3, maggio 1998, Le Scienze, Milano, 1998.

[3] J. Dalton, A New System of Chemical Philosophy (3 vols. Manchester, 1808, 1810, 1827), Vol I, Part I, p. 211-212

[4] J.J. Berzelius, On the Chemical Signs, and the Method of employing them to express Chemical Proportions, Annals of Philosophy, 1814, Vol III, 51-62, 93-106, 244-256, 353-364

[5] E. Ströker, citato da J.I. Solove’v, Storia del Pensiero Chimico, EST, Mondadori, Milano, 1976, p. 156.

[6] J.B. Dumas, Mèmoire sur quelque Points de la Théorie Atomistique, Annales de Chimie et de Physique, 1826, 33, 327-391.

[1] Il volume è suddiviso in articoli e note, ciascuno relativo a uno degli autori.

[2] L’intero articolo si intitola: Essay on the Cause of Chemical Proportion, and on some Circumstances relating to them: together with a short and easy Method of expressing them. Parte I: On the Relation between the Berthollet’s Theory of Affinities and the Laws of Chemical Proportions, Annals of Philosophy, 1813, Vol II, 443-444. Parte II: On the Cause of Chemical Proportions, ibid, 444-454.

[3] Successivamente Berzelius userà anche altri simboli, ad esempio O per indicare 2 atomi di ossigeno, oppure un numero di pallini pari al numero di atomi sopra al simbolo dell’elemento.

[4] Come noto l’ipotesi di Avogadro fu recepita universalmente valida solo nel 1860 grazie all’opera di Stanislao Cannizzaro.

Il recupero di terre rare: una necessità crescente.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Le terre rare sebbene poco conosciute al grande pubblico sono probabilmente in questo momento i più importanti minerali al mondo. Uno studio dell’Ente americano NCPA (National Center for Policy Analysis) sottolineava le possibili ricadute e conseguenze del monopolio cinese sulla produzione dei metalli del gruppo delle terre rare. La conclusione era che “la dipendenza dalla Cina per l’approvvigionamento di queste indispensabili materie prime pone l’economia americana in pericolo”.
Secondo la definizione IUPAC le terre rare (in inglese “rare earth elements” o “rare earth metals”) sono il gruppo di 17 elementi che comprendono lo scandio, l’ittrio e i lantanidi.

terre rare

Per capire i termini della questione proviamo a focalizzare l’attenzione sul neodimio. Questo metallo è largamente impiegato per la produzione di magneti permanenti che sono utilizzati in quasi tutti i moderni veicoli e nelle attrezzature di alta tecnologia (computer, telefoni cellulari e laser). La carenza di questo elemento non è un problema solo americano: Giappone e Corea del Sud e la stessa Europa hanno preoccupazioni simili. L’industria automobilistica che sta orientandosi verso la produzione di veicoli con maggior efficienza energetica che si basano sull’uso di componenti ultraleggeri e motori ibridi ha la necessità sempre crescente di utilizzare le terre rare.
In un altro rapporto l’Oeko Institut tedesco mostrava che nel 2012 le imprese europee hanno costruito due milioni di motori elettrici per usi industriali, dotati di magneti permanenti costituiti al 30% di terre rare.
L’elemento comune a tutte queste applicazioni è la presenza di magneti al neodimio-ferro-boro.

HydroPMG3-500x500.jpg

Il rapporto prevedendo una crescita nella domanda di questi elementi suggeriva il bisogno urgente di creare un “approccio circolare” al ciclo di vita dei magneti a base di terre rare.
Questi tipi di apparecchiature (motori elettrici e magneti permanenti) non vengono riciclati e spesso finiscono scaricati nei rifiuti domestici.
Un progetto di riciclo di motori elettrici e successivamente una sua applicazione industriale si può ottenere con tecnologie mature per la separazione: si possono triturare i motori elettrici tramite un mulino a martelli, effettuare una separazione magnetica per dividere materiale ferroso e non ferroso, e successivamente utilizzare altre separazioni fisiche per separare gli inerti leggeri dal restante materiale.
Dal punto di vista dei trattamenti chimici il recupero del neodimio e di altre terre rare dai rifiuti elettrici ed elettronici (Raee) tramite processi di tipo metallurgico prevede il recupero attraverso lisciviazione con acidi inorganici (nitrico, cloridrico, solforico).
La successiva separazione da condurre con molta attenzione perché le terre rare hanno proprietà molto simili tra loro, si può ottenere con processi di estrazione solido- liquido (cristallizzazioni o precipitazioni frazionate) o liquido-liquido mediante solventi. Quest’ultima è la più utilizzata e viene effettuata in continuo e in controcorrente con recupero dei solventi.
Con questo tipo di riciclaggio si potrebbe ottenere materiale contenente circa il 30% di terre rare allo stato puro.
Al momento non esistono imprese specializzate nel recupero di soli magneti a base di terre rare. Un impianto di questo tipo potrebbe lavorare in condizioni di efficienza economica se si approvvigionasse di almeno 100 ton di materiale/ anno.
Il paradosso è che le imprese costruttrici di magneti permanenti spediscono i residui di produzione nella Cina stessa, che però negli anni ha ridotto l’esportazione di terre rare a causa degli aumentati consumi interni.
Se nel 2005 le esportazioni cinesi di terre rare ammontavano a 65.000 tonnellate, nel 2010 questo valore si era ridotto a circa 30.000.
Recuperare terre rare con impianti adatti avrebbe il duplice scopo di ottenere risparmi economici e anche di avere minor impatto ambientale. Basti pensare che le stesse tecniche basate sull’attacco acido hanno impatti ambientali significativamente molto diversi se effettuati su materiale recuperato, piuttosto che su miniere dove la necessità di ottenere rese più elevate di materiale puro da separare dalle rocce inerti può provocare vaste contaminazioni del territorio e la produzione di ingenti volumi di materiale di risulta, senza considerare gli elevati livelli di radioattività ai quali sono esposti i lavoratori e che persistono a lungo nell’ambiente, dovuti alla frequente presenza di torio ed uranio nelle miniere di terre rare.
Un caso emblematico è quello dei villaggi vicini a Baotou, nella Mongolia interna, dove si trova la più grande miniera cinese di terre rare, i cui abitanti sarebbero stati trasferiti altrove per la pesante contaminazione di acqua e raccolti: si valuta che i reflui della lavorazione, acidi e radioattivi, ammonterebbero annualmente a circa dieci milioni di tonnellate.

mongolia cinese.jpg

La miniera di Baiyunebo, nella Mongolia Cinese, uno dei luoghi più inquinati al mondo.

Link
http://www.trisaia.enea.it/it/attivita-di-ricerca/tecnologie-ambientali/tecnologie-e-impianti-per-il-trattamento-rifiuti-e-reflui/tecnologie-ambientali/terre-rare

http://www.corriere.it/ambiente/15_giugno_24/terre-rare-metalli-strategici-miniera-scarti-elettronici-raee-7ed7abca-1a78-11e5-9695-9d78fe24c748.shtml

http://www.enea.it/it/pubblicazioni/EAI/anno-2013/n-5-settembre-ottobre-2013/tecnologie-innovative-per-il-recupero-riciclo-di-materie-prime-da-raee-il-progetto-eco-innovazione-sicilia

Letture consigliate
http://www.editoririuniti.it/libri/la-terra-svuotata.php#

Ecofarmacovigilanza.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, già Presidente SCI

La recente ripetuta denuncia dell’Unione Europea circa il pericolo che si sta concretizzando per l’ambiente e per l’uomo a causa della crescente diffusione di inquinanti di nuova generazione,per i quali i sistemi di rimozione ed i relativi impianti di trattamento non garantiscono adeguati risultati,trovano particolare riscontro con riferimento ai residui di farmaci,ormai presenti nelle acque superficiali a concentrazioni dell’ordine dei ppb.Tali valori di concentrazione sono ancora relativamente lontani dalle soglie di rischio derivanti dalla tossicità di molti di tali principi farmaceutici,ma sono anche di uno – ed in qualche caso due – ordini di grandezza maggiori rispetto ai valori che si potevano rilevare fino a 20-30 anni fa.Ciò dimostra l’esigenza di intervenire per evitare che tale trend si mantenga costante con il risultato di raggiungere in pochi anni valori prossimi ai limiti consentiti per non mettere a rischio la salute dei cittadini.Tale situazione è da imputare all’uso improprio ed esagerato che spesso viene fatto dei farmaci ed ai residui di lavorazione dei processi produttivi nel settore. Lo studio del possibile inquinamento delle acque, causato dall’immissione di farmaci e dei loro metaboliti nell’ambiente, affrontato per la prima volta nel 1977, ha subito un’accelerazione , come dimostrano i lavori reperibili in letteratura, con i loro numerosi riferimenti bibliografici.

epvMolteplici sono le cause di un tale interesse:

  • L’aumento del numero e della quantità di prodotti farmaceutici e del loro consumo mondiale, soprattutto nei Paesi industrializzati;
  • Gli ingenti quantitativi di prodotti scartati giornalmente dalle industrie farmaceutiche, perché scaduti o per effetto di controlli di qualità sempre più rigorosi;
  • La sintesi di farmaci sempre più resistenti ai comuni meccanismi di biotrasformazione, per protrarre la loro esistenza inalterata negli organismi trattati, si è tradotta in un aumento del numero di molecole più stabili ai comuni processi di degradazione chimica e biologica col conseguente incremento nell’accumulo, persistenza e diffusione di tali prodotti nell’ambiente ed in particolare nelle acque reflue alle quali pervengono;
  • Il crescente acquisto di medicinali senza ricette mediche o perfino via internet come se si trattasse di un qualsiasi alimento, con usi conseguentemente scorretti;
  • La consapevolezza che, pur nel rilevamento di concentrazioni di sostanze d’origine farmacologica in concentrazioni inferiori a quelle stabilite dalle normative vigenti, non ci sia ancora alcun’informazione attendibile sugli effetti che esse possono provocare a lungo termine sugli uomini.
  • I trattamenti terapeutici di cura e prevenzione negli allevamenti di bestiame e nelle colture ittiche:
  • L’eliminazione impropria di farmaci scaduti da parte dei consumatori;
  • La rilevante percentuale di espulsione dei principi attivi e dei loro metaboliti dopo cure mediche e veterinarie.

Fra tutte queste motivazioni, merita una particolare attenzione quest’ultimo punto, trattandosi di un’importante via di possibile inquinamento acquatico.

Infatti, quando le sostanze farmaceutiche sono somministrate agli esseri umani ed animali, possono essere escrete senza essere metabolizzate nell’organismo bersaglio, o possono essere assimilate e quindi dissolte, dando origine a derivati (metaboliti).

In entrambi i casi i derivati di tali processi (principi attivi farmaceutici e loro metaboliti) vengono scaricati se provenienti:

  • Da esseri umani nel sistema di scolo, dai quali raggiungono gli impianti di trattamento municipali, dove possono essere rimossi.In caso contrario, se ancora persistenti, possono raggiungere l’ambiente acquatico dando inizio al processo di inquinamento.
  • Da esseri animali nel terreno.In questo caso, le sostanze più resistenti all’azione degradativa dei microrganismi presenti nel sottosuolo, possono permeare attraverso di esso raggiungendo le falde acquifere o raggiungere le acque superficiali per dilavamento del terreno.

Questi composti possono raggiungere poi le acque destinate al consumo umano.

Per comprendere l’entità di un tale problema basta considerare i risultati di una ricerca condotta in Germania sin dal 1997 , dalla quale risultavano rilevati 20 differenti principi attivi assieme a quattro loro metaboliti sia nelle acque di scarico che in quelle superficiali, con picchi di 6,3 mg l-1 di Carbamazepina nelle prime e di 3,1 mg l-1 di Bezafibrato nelle seconde.

360px-Carbamazepine.svg

Carbamazepina

Bezafibrate.svg

Bezafibrato

A tale situazione in ogni caso,si deve porre rimedio.I depuratori nella maggior parte dei casi sono costruiti con riferimento a classi di composti da rimuovere che rientrano in quelle tradizionali degli inquinanti,alle quali certamente non appartengono i residui di farmaci,data la relativa novità del fenomeno.

L’intervento correttivo non può che passare da un lato per un aggiornamento tecnico dei depuratori stessi e per una loro sempre più puntuale ed accurata manutenzione e dall’altro per sistemi integrativi pubblici e privati di rimozione di tali principi.

In tale prospettiva sembra necessario porre l’attenzione su implementazioni dei depuratori realizzate con impianti a valle dei depuratori stessi e quindi in grado di integrarne l’azione e su strategie di intervento porta a porta con sistemi depurativi da attivare a valle del rilascio dei reflui delle singole industrie per rimuovere da essi i principi farmaceutici ed i farmaci eventualmente presenti.La proposta è quindi quella di dotare ogni azienda di un sistema di monitoraggio dei principi o loro prodotti di trasformazione presenti nei reflui e di un sistema di rimozione basato su processi quanto più possibilmente economici,semplici e rapidi.

La bibliografia scientifica esalta, rispetto a questo tipo di problematica, i cosiddetti AOP (metodi di ossidazione avanzata),differenziati a seconda dell’ossidante utilizzato o dell’eventuale miscela di essi.Tale approccio soffre di tutti i difetti dei processi basati su reazioni chimiche “sporche” (gestione e controllo delle reazioni,ulteriori reflui prodotti,reattivi)

Alternativamente si possono adottare metodi fisici e biologici.

I primi prevedono l’utilizzo della luce solare per realizzare,in condizione di catalisi eterogenea da parte di biossido di titanio in forma anatasio,la fotodegradazione dei farmaci eventualmente presenti.Ii processo può essere rinforzato assistendo la luce solare con un’opportuna sorgente di radiazione ultravioletta.

I secondi si affidano invece a microorganismi o a singoli enzimi (ossidasi,idrolasi,cicloossigenasi) liberi, immobilizzati o operanti direttamente in suoli di sacrificio.

In entrambi i casi si dispone della tecnologia necessarie.

 

Termodinamica ed economia.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

 Nel 1999 Wayne Saslow dell’Università del Texas ha pubblicato un interessante articolo su American Journal of Physics: An economic analogy to thermodynamics (in Am. J. Phys. 67 ,12, December 1999).

termofis1E’ un articolo che mi è venuto in mente leggendo un recente libro di Francesco Sylos Labini (il figlio di Paolo, l’economista) che fa l’astrofisico a Roma. Il libro di Francesco è dedicato ad una critica feroce della scarsa o nulla scientificità della economia neoclassica contemporanea, che non è stata in grado di prevedere nessuna delle grandi crisi che hanno “funestato” il cammino dell’economia negli scorsi decenni ma che ciononostante domina il panorama culturale del mondo economico e dell’università e pretende di sconvolgere le nostre vite quotidiane. E’ una lettura molto interessante.

Tutto sommato il libro di Sylos Labini prende sul serio una indicazione più volte reiterata da gruppi misti di economisti e scienziati della Natura; si veda per esempio un articolo di Charles Hall, Reiner Kümmel e altri, pubblicato su BioScience nel 2001 (BioScience, 51(8), 663)

termofis2E questo è anche un po’ lo spirito di questo post.

Ma torniamo all’articolo di Saslow; nella prima parte dell’articolo si ricordano alcune delle proprietà fondamentali delle funzioni termodinamiche che fanno parte ormai della presentazione standard della disciplina almeno a livello universitario. Un tale approccio, definito “postulazionale”, si basa su un certo numero di postulati matematici le cui conseguenze vengono poi comparate con i risultati sperimentali; i sistemi considerati sono “semplici”, escludono una serie di cose come le superfici, le cariche elettriche; e poi sono sistemi il cui stato viene definito in una condizione di “equilibrio”, ossia una condizione in cui il comportamento del sistema, che pure è costituito di un numero enorme di particelle elementari può essere considerato come dominato da un piccolo numero di parametri macroscopici che non variano nel tempo. Si postula che esista una funzione (denominata entropia) che ha il valore massimo all’equilibrio.

C’è una definizione, a cui non veniva dato gran peso quando ero studente, ma che assume invece un ruolo chiave in questo approccio: quello di grandezze estensive ed intensive. Le proprietà estensive sono additive sui sottosistemi che si considerano; le funzioni termodinamiche possono essere definite nel modo più semplice considerando in un primo momento solo variabili di tipo estensivo, una volta si sarebbe detto che crescono con le dimensioni del sistema, che è poi la definizione anche di IUPAC; per esempio la funzione energia interna U=U(S,V,N), dove S è l’entropia, V il volume e N il numero di moli.

La proprietà di estensività in effetti si può definire in modo formale; la funzione U è omogenea del primo ordine nelle sue variabili estensive ed è dunque estensiva anch’essa; il che vuol dire che se si moltiplicano per un numero a positivo le variabili S,V ed N che sono estensive, la funzione U risulta moltiplicata per a anch’essa: U(aS,aV,aN)= aU(S,V,N): il fattore a è elevato alla prima potenza (primo ordine) e la conclusione è che U è estensiva anch’essa.

Una grandezza intensiva, in questo quadro può essere definita invece come una grandezza che non cresce con le dimensioni del sistema, ossia che se moltiplico per a le grandezze estensive di cui è funzione non cresce; per esempio se definisco una funzione T=T(S,V,N) (che è una delle derivate parziali prime di U) e moltiplico per a le sue variabili, T non cresce a0T(S,V,N)=T(aS,aV,aN); la grandezza T è omogenea di ordine zero, nel senso che è si moltiplicata per a, ma a è elevata a 0, ossia è uguale a 1; se moltiplico per a le dimensioni del sistema la temperatura, la pressione o il potenziale chimico non ne sono influenzati.

C’è dunque perfetta corrispondenza fra la definizione di grandezza estensiva ed intensiva e proprietà di omogeneità di ordine 1 o zero.

Un’ altra proprietà importante delle funzioni termodinamiche è che siano anche continue e derivabili; ne segue che la funzione U è dotata di un differenziale dU= (∂U/∂S)V,NdS + (∂U/∂V)S,NdV + (∂U/∂N)S,VdN, dove le derivate parziali così definite sono grandezze intensive e corrispondono rispettivamente a T, -P e μ.

L’espressione conseguente dU= TdS -PdV + μdN è il corrispondente del primo principio della termodinamica, ma è di fatto solo il differenziale totale della funzione U.termofis3

Questo approccio formale alla termodinamica classica (solo sommariamente riassunto qui) è quello proposto oltre 50 anni fa da H. Callen in un libro che ha fatto scuola e che da allora è stato poi preso ad esempio molte volte. L’approccio ha molte altre stupefacenti conclusioni tutte dipendenti dal semplice punto iniziale che vi ho riassunto, alcune delle quali riprenderemo più avanti.

Come applicare questo punto di vista alla economia e quali sono le corrispondenze?

Anzitutto c’è da rimarcare che come nel caso della termodinamica l’equilibrio in qualche modo ha una definizione circolare; ossia un sistema è all’equilibrio se segue le regole della termodinamica; così sarebbe vero per l’economia, salvo osservare che mentre in termodinamica la teoria ha una forza enorme (Einstein diceva che la termodinamica classica è la sola teoria fisica di contenuto universale che nell’ambito di applicabilità dei suoi concetti di base non verrà mai superata.), in economia le cose stanno diversamente visti gli innumerevoli fallimenti; ma procediamo.

Su questo argomento Saslow si salva in corner, nel senso che essendo un fisico scrive una cosa ovvia in partenza per tutti, (eccetto che per gli economisti neoclassici contemporanei, tipo Giavazzi e Alesina per capirci): Like thermodynamics, the present theory has predictive power only to the extent that it can relate different sets of measurements.

Sfortunatamente gli economisti neoclassici si rifiutano di confrontarsi con i dati sperimentali e non riescono a prevedere nemmeno una crisi.

In effetti la questione se esista un equilibrio generale del sistema economico e che caratteristiche abbia è uno dei problemi basilari dell’economia che rimane a tutt’oggi almeno in parte irrisolto nell’ambito stesso degli economisti neoclassici o comunque risolto sotto ipotesi che però non reggono il confronto con la realtà; in sostanza anche a prescindere dal confronto con i dati la teoria non è coerente! A questo proposito si legga per esempio B. Ingrao e G. Israel, La mano invisibile ed Laterza 2006 che conclude: “A noi sembra che si possa concludere che l’analisi matematica della teoria dell’equilibrio economico generale, nel contesto delle ipotesi classiche……ha condotto a un chiaro risultato: e cioè che esista una inconsistenza fra gli assunti dellla teoria e le conseguenze che si ricavano dal sistema delle ipotesi che ne costituiscono la struttura”.

termofis4

Ma dato che questo post non vuole essere un trattato ma solo suggerire delle letture vi mostro subito quali corrispondenze suggerisca Saslow:

termofis5Le analogie non riportate qui esplicitamente sono quelle con temperatura assoluta e entropia; la temperatura assoluta viene considerata corrispondente con il livello dello sviluppo economico, mentre all’entropia non viene assegnata alcuna analogia esplicita. Essa viene assegnata al prodotto fra equivalente entropico e temperatura, TS, che viene considerato corrispondente al cosiddetto surplus; il surplus è il risultato finale delle operazioni economiche, quel risultato in termini di plusprodotto o più volgarmente profitto che viene considerato alla base del processo, il suo scopo ultimo; una economia primitiva, arretrata viene considerata incapace di generare un plusprodotto, un profitto, quindi più T è bassa più S è bassa, in altri termini una sorta di terzo principio della termodinamica in termini economici: lim T–>0 S=0

Una delle conseguenze della omogeneità del primo ordine in termodinamica è legata al cosiddetto teorema di Eulero; si può cioè dimostrare che una funzione del tipo del U(S,V,N)=TS-PV+mN; questa equivalenza si conclude con la dimostrazione di quella che viene chiamata in termodinamica equazione di Gibbs-Duhem, ossia l’esistenza di una relazione fra tutte le variazioni delle grandezze intensive: SdT-VdP+Ndμ=0.

In modo equivalente Saslow ragiona nella corrispondenza economica.

Cominciamo col dire che la ricchezza W è la somma della ricchezza monetaria e fisica, W=λM+pN, dove M è la quantità di denaro e λ il suo valore unitario, mentre N è la quantità di beni fisici e p il loro prezzo; ovviamente M ed N sono grandezze estensive mentre l e p sono grandezze intensive (o specifiche). W si conserva negli scambi esattamente come avviene per l’energia; tuttavia Saslow propone una corrispondenza fra energia libera di Helmholtz e ricchezza riservando la corrispondenza con l’energia alla somma fra ricchezza e plusprodotto da essa generato, definito come utilità: U=TS+W=TS+λM+pN; in altri termini la funzione U=U(S,M,N) diventa l’equivalente in termini estensivi dell’energia termodinamica (trascurate per il momento il diverso segno).

L’equivalente della Gibbs-Duhem per questo sistema è

SdT+Mdλ+Ndp=0

Fra l’altro una equazione del genere implica che una diminuzione del valore del danaro o di un bene è accompagnato da un aumento della temperatura economica (ossia di quello che abbiamo chiamato livello dello sviluppo economico).

Un altro esempio di correlazione interessante è quello fra le relazioni di Maxwell e quelle di Slutsky, che sono relazioni fra derivate seconde.

Le relazioni di Maxwell in termodinamica nell’approccio di Callen, vengono fuori dalla condizione per cui se il differenziale primo della funzione termodinamica è esatto allora le derivate in croce sono eguali, esse non dipendono dall’ordine di derivazione e l’integrale sul differenziale della funzione non dipende dal cammino, la funzione termodinamica è una funzione di stato:termofis6

e la medesima proprietà vale per la funzione economicatermofis7

Potrei continuare ancora ma invito i lettori a leggere direttamente l’articolo di Saslow.

Piuttosto impiegherei ancora qualche rigo per sottolineare un limite di questo tipo di correlazioni; la questione è in che modo si possano esse concretamente applicare alle situazioni economiche.

Hall e Kümmell ricordano nel loro articolo uno dei limiti basilari dell’economia, ossia l’economia non ha mai superato la fase del moto perpetuo, non ha mai accettato il primo principio della termodinamica.termofis8

L’economia neoclassica ha una rappresentazione del mondo del tipo di quella mostrata nella parte a della figura dove i fattori della produzione (legati dalla funzione di produzione di Cobb, anch’essa omogenea di primo ordine) non contengono se non capitale e lavoro, trascurando gli apporti energetici e di risorse naturali; una rappresentazione dunque che ricorda da vicino quella di una macchina a ciclo perpetuo, che trae energia dal nulla.

Viceversa la realtà può essere vista come la figura b nella quale gli apporti fisici della biosfera e del sistema naturale non sono trascurabili affatto, ma dominanti; anzi sarebbe bene che questo schema in forma allargata e completa entrasse profondamente nella testa degli studenti di economia:

termofis9Ma allora la relazione fra economia e termodinamica dovrebbe cambiare poichè non la termodinamica classica ma quella di non equilibrio, la termodinamica dei sistemi aperti dovrebbe essere usata per fare delle analogie.

Per esempio giusto per dire; nella termodinamica irreversibile vicino all’equilibrio esistono una numerosa serie di fenomeni lineari interagenti coperti dalle relazioni di Onsager, una scoperta per cui Onsager ricevette il premio Nobel e Prigogine ne ricevette un secondo.

In questo caso le forze spingenti dei fenomeni sono i gradienti delle forze intensive che vengono correlati linearmente ai flussi come avviene nella legge di Ohm (corrente vs. differenza di potenziale elettrico) , nella legge di Fick (flusso di materia vs. gradiente di potenziale chimico) , nella legge di Fourier (flusso del calore vs gradiente di temperatura)  o ancora nei fenomeni elettrocinetici o termoelettrici, dove i gradienti di un tipo controllano, oltre a quelli a loro naturalmente congeniali, flussi di qualità diversa o in cui gradienti di un certo tipo ne generano altri di diversa qualità con una interazione fra cause ed effetti effettivamente dialettica e che hanno un numero enorme di applicazioni (elettroforesi per esempio ossia flussi di materia generati da gradienti di potenziale elettrico oppure gli effetti Seebeck e Peltier con l’interazione complessa fra gradienti di temperatura e potenziale elettrico e i loro rispettivi flussi associati).

E pensate allora a come nella moderna economia globale i gradienti, cioè le differenze, di prezzo del lavoro (il prezzo è una grandezza intensiva) dominano i flussi di lavoratori da un continente all’altro (noi le chiamiamo migrazioni) oppure lo spostamento di capitali da un continente all’altro, in senso opposto (noi la chiamiamo deindustrializzazione in Italia e sviluppo economico in Cina o nel vicino Est Europa); e come tali flussi generino nuovi gradienti. Forse effettivamente la termodinamica ha qualcosa da insegnare all’economia. Voi che ne dite?

Un chimico, un matematico e il calore. 2a Parte

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

(la prima parte di questo post è pubblicata qui)

Nel secondo dei quattro articoli che compongono la Mémoire sur la chaleur di Lavoisier e Laplace [1], i due autori riportano i dettagli e i risultati dei loro esperimenti sul calore specifico dei corpi e sul calore scambiato in alcune trasformazioni chimiche. Dichiarano anzitutto di riferire i calori specifici a quello dell’acqua posto = 1.

La descrizione degli esperimenti è molto dettagliata, così come quella del calorimetro[1] nel primo articolo, in modo che chiunque possa mettersi nelle stesse condizioni ottenendo praticamente gli stessi risultati. Riportiamo ad esempio per il ferro:

… abbiamo messo 5 libbre 15 once 4 grandi 33 grani di ferro granulato in un vaso di ferro, il cui peso era 1 libbra 4 once 4 grandi 60 grani e il coperchio pure in ferro, pesante 7 once 1 grande 15 grani; così il peso totale di ferro fu 7 libbre 11 once 2 grandi 36 grani o 7,7070319 libbre; abbiamo riscaldato questa massa in un bagno di acqua bollente, fino 78 gradi; la abbiamo poi posta in una delle nostre macchine; dopo undici ore, tutta la massa si è raffreddata a zero gradi, e dal recipiente intermedio della macchina, ben sgocciolato, si sono ottenuti 17 once 5 grandi, 4 grani o 1,109795 libbre di ghiaccio fondente, questa quantità di ghiaccio, divisa per il prodotto della massa di ferro, espressa in parti di libbra, e il numero di gradi a cui la temperatura è stata portata sopra lo zero, vale a dire il prodotto 7,7070319 x 78, dà la quantità di ghiaccio che una libbra può fondere per raffreddamento di un grado; allora moltiplicando quest’ultima quantità per 60 si ha quella che una libbra di ferro può fondere fino a zero gradi se riscaldata a 60 gradi, si trova così il valore 0.109985 libbre nella nostra esperienza; ma una libbra di acqua, raffreddandosi a 60 gradi può sciogliere una libbra di ghiaccio; il calore specifico del ferro sta dunque a quello dell’acqua come 0.109985:1; cosicché, se prendiamo uguale a 1 il calore specifico dell’acqua, quello del ferro sarà 0,109985; un secondo esperimento ci ha dato, a meno di circa un novantesimo, quasi lo stesso risultato. ([1], p. 375)[2]

Per determinare il calore specifico dei liquidi una quantità pesata di essi veniva posta in un matraccio di vetro anche esso pesato, riscaldato e immediatamente posto nel calorimetro. Nell’elaborazione dei dati Lavoisier e Laplace tenevano ovviamente conto del calore rilasciato dal vetro del quale avevano preventivamente misurato il calore specifico. Nella Mémoire si trova un esempio relativo all’acido nitrico ([1], p. 375).

calore21

In una tabella precedente la descrizione degli esperimenti, i due Autori riportano i valori ottenuti per i calori specifici di alcuni materiali e miscele.

Sono qui riportati per esempio i calori specifici del ferro battuto 0.109985, del vetro cristallo senza piombo 0.1929 e del mercurio 0.029.

I due scienziati passano poi a riportare e descrivere gli esperimenti fatti per determinare il calore sviluppato da miscele e combinazioni chimiche. Per le prime il calore viene dato in termini della quantità di ghiaccio fondente ottenuta da una libbra di miscela dopo che questa si è raffreddata fino a zero gradi. Per le seconde si riporta l’esempio della reazione fra nitrato di potassio e carbone:

Abbiamo fatto detonare in una delle nostre macchine un’oncia e 4 grandi di nitrato con 4 grandi di carbone, e abbiamo ottenuto 1 libbra e 2 once di ghiaccio fondente; ciò fornisce, per 1 oncia di nitrato, 12 once di ghiaccio fondente.([1], p. 378)

Allo stesso modo determinano il calore sviluppato dalla detonazione di un’oncia di nitrato di potassio con fiori di zolfo, trovando che in quest’ultima si sviluppa una quantità di calore maggiore di più di una libbra rispetto alla prima. Mentre la combustione di un’oncia di fosforo e quella di un’oncia di carbone sviluppano quantità di calore che differisce di due once e 48 grani.

Interessanti sono i due ultimi esperimenti descritti nel secondo articolo, riguardanti il calore prodotto da un porcellino d’india nell’arco di un certo numero di ore:

…in una delle nostre macchine abbiamo messo un porcellino d’india la cui temperatura corporea era di circa 32 gradi, di conseguenza, leggermente diversa da quella del corpo umano. L’animale non ha sofferto durante l’esperimento, lo avevamo posto in un piccolo cesto pieno di cotone, alla

temperatura di zero gradi; l’animale è rimasto 5 ore e 36 minuti nella macchina; durante questo intervallo, gli abbiamo cambiato quattro o cinque volte l’aria mediante un soffietto; rimosso l’animale, la macchina ha fornito circa 7 once di ghiaccio fondente.

In un secondo esperimento…. lo stesso porcellino d’india è rimasto per 10 ore e 36 minuti nella macchina e l’aria è stata rinnovata per tre sole volte; la macchina ha fornito 14 once e 5 grandi di ghiaccio fuso; l’animale non sembra aver sofferto in questi esperimenti[3]. ([1], pp.379-380)

Il terzo articolo, intitolato: Esame delle esperienze precedenti, e riflessioni sulla teoria del calore, inizia con alcune considerazioni su cosa sarebbe necessario conoscere per formulare una teoria completa sul calore:

… si dovrebbe avere un termometro diviso in proporzione alla quantità di calore contenuto nel fluido che lo compone e che potesse misurare tutti i possibili gradi di temperatura.

Bisognerebbe poi conoscere la legge esistente fra le quantità di calore delle sostanze e i gradi del termometro per costruire una scala fra le due quantità… Se il corpo è lo stesso fluido contenuto nel termometro, questa scala sarà rettilinea, ma è possibile che i gradi di calore non crescano proporzionalmente alla temperatura in corpi diversi, e quindi la curva può non essere la stessa per ciascuno di essi.

Sarebbe inoltre necessario conoscere la quantità assoluta di calore contenuta in un corpo ad una data temperatura.

Infine, si dovrebbe sapere la quantità di calore libero che si forma o si perde nelle combinazioni e decomposizioni. ([1], p. 380-381)

E proseguono:

Con questi dati sarebbe possibile risolvere tutti i problemi relativi al calore;…ma questi dati non si possono ottenere se non con un numero quasi infinito di esperimenti molto delicati e fatti a gradi molto diversi di temperatura.

Gli esperimenti dell’articolo precedente non danno i rapporti fra quantità assolute del calore dei corpi, essi non fanno conoscere altro che non sia il rapporto fra quantità di calore necessarie per elevare di uno stesso numero di gradi la temperatura. Occorrerebbe supporre che queste quantità siano proporzionali alle loro differenze; ma questa ipotesi è alquanto azzardata, e non può essere ammessa se non dopo numerose esperienze. Un modo semplice di verificarla sarebbe quello di osservare se le quantità di ghiaccio sciolto dal corpo raffreddandosi di 300 o 400 gradi, sono nello stesso rapporto di quando il raffreddamento è soltanto di 60 o 80 gradi; è un oggetto che intendiamo esaminare in un’altra memoria.[4] ([1], p. 381)

Il resto dell’articolo è una ricerca dell’interpretazione dei risultati degli esperimenti esposti in precedenza in base a una delle due teorie sul calore: quella del calorico (fluido di cui i corpi sono più o meno permeati secondo la loro temperatura) o a quella dinamica (forza viva che risulta dal movimento delle molecole di un corpo).

Conclude la Mémoire il quarto articolo, intitolato “Sulla combustione e la respirazione”. Viene ripreso un precedente lavoro di Lavoisier sulla combustione intitolato Mémoire sur la combustion en général (1779), in cui aveva criticato la teoria del flogisto. In base a risultati sperimentali Lavoisier e Laplace giungono ad affermare che la respirazione è una forma di combustione e che a determinare le combustioni è il consumo di una parte dell’aria (o, per usare la loro terminologia, l’air pur [l’ossigeno]). Negli esperimenti descritti il calore prodotto dalla combustione di diverse sostanze viene confrontato con le variazioni di calore dell’aria pura usata negli esperimenti stessi.

calore22

In ogni caso, come riportato nella prima parte del post, Lavoiser e Laplace non decideranno fra le due teorie sul calore.

Tuttavia molti sostengono che Laplace propendesse decisamente per la teoria dinamica, questa ipotesi è considerata “gratuita” nella nota (3) alla traduzione inglese della Mémoire [2]. Drago e Venezia citano una lunga e dettagliata analisi storica di Guerlac [3] in cui l’autore sosterrebbe che il primo e il terzo articolo sarebbero stati fortemente influenzati dal pensiero di Laplace, il secondo e il quarto da quello di Lavoisier. Attraverso un’analisi logico-linguistica di parti della Mémoire, Drago e Venezia giungono addirittura alla conclusione che la prima e la terza parte sono state scritte da Laplace, la seconda e la quarta da Lavoisier [4]. La propensione di Lavoisier per la teoria del fluido sarebbe anche evidente dal fatto che il grande chimico lo abbia elencato come elemento nel Traité élémentaire de chimie del 1789. Qualunque possano essere state le divergenze fra i due scienziati e chi di loro abbia scritto cosa, essi comunque raggiunsero un’ottima sintesi e il loro lavoro rimarrà un classico nella Storia della Scienza.

Molti anni sono dovuti passare prima che si arrivasse a riconoscere la validità della teoria dinamica, all’equivalente meccanico del calore e al I° Principio della Termodinamica (di cui la Legge di Lavoisier-Laplace è una conseguenza), ma questa è un’altra storia.

calore23

[1] M.rs Lavoisier & de Laplace, Mémoire sur la Chaleur, in: Histoire de l’Académie Royale des Sciences, Anno 1780, Paris, 1784, pp. 355-408.

[2] Memoir on Heat, Guerlac H. translation, Neale Watson Academic Publications, New York, 1982, in Obesity Research, 1994, 2, 189-202.

[3] H. Guerlac, Chemistry as a branch of Physics. Laplace’s collaboration with Lavoisier, Historical Studies Phys. Sciences, 1976, 7, 193-276.

[4] A. Drago, A. Venezia, Lavoisier and Laplace’s “Mémoire” (1784) and two hypothesis on the nature of heat, www.researchgate.net/publication/265983781_Lavoisier_and_Laplace%27s_Memoire_1784_and_two_hypothesis_on_the_nature_of_heat

[1] Nella Mémoire gli Autori si riferiscono al calorimetro come “la nostra macchina”. La parola calorimetro è stata comunque usata per la prima volta da Lavoisier nel suo Traité élémentaire de chimie, Paris, 1789, p. vi e 387.

[2] La libbra francese (489.5 g) era divisa in 16 once (1 oz = 30.6 g) di 8 grandi (1 grande = 3.825 g), ogni grande valeva 72 grani (1 grano = 0.0531 g). Le bilance usate da Lavoiser raggiungevano la sensibilità di 1/400 di grano corrispondente a circa 0.13 mg, la sensibilità di una odierna normale bilancia analitica. Va anche sottolineato che il sistema metrico decimale fu adottato in Francia con la legge 7 aprile 1795, Lavoisier fu fra i sostenitori di questa riforma.

[3] È interessante la preoccupazione dei due scienziati per l’incolumità dell’animaletto nel corso di questi esperimenti e il sollievo espresso per non averlo fatto soffrire.

[4] Ma non ci sarà un’ulteriore memoria, la collaborazione fra Lavoisier e Laplace si interrompe nel 1774.

Trattamento e recupero di acque piovane.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

La disponibilità di acque adatte per il consumo umano (cioè per usi sia potabili che domestici) sta diventando un problema sempre più grave, non solo nei paesi a clima arido, ma anche in Europa.
Uno studio del Joint Research Center della Commissione Europea prevede che nei paesi del sud Europa gli effetti del cambiamento climatico in atto potranno provocare una riduzione fino al 40% della portata dei fiumi. Nel frattempo la crescente richiesta di acqua da parte dei settori produttivi e dalla popolazione urbana potrebbe portare a situazioni di criticità che potrebbero sfociare in misure di razionamento e in eventuali aumenti dei canoni di fornitura.

california

La soluzione per affrontare questo preoccupante scenario potrebbe arrivare dallo sfruttamento delle acque piovane. Occorre precisare però che le acque recuperabili ed utilizzabili sono solo quelle che cadono sui tetti o su appositi bacini, escludendo quelle che cadono su aree pavimentate, strade e piazzali che possono avere carichi inquinanti decisamente elevati.
In effetti le prime acque meteoriche di dilavamento non diluiscono affatto le acque reflue, essendo esse stesse cariche di inquinanti dilavati dalle superfici di deflusso.
A Taiwan una recente legislazione obbliga ad installare sistemi di raccolta per le acque piovane in tutti gli edifici pubblici di nuova costruzione. Per i palazzi privati l’obbligo non sussiste ma è un requisito indispensabile per ottenere la “green building certification” che costituisce un notevole valore aggiunto per il mercato immobiliare.
Nella provincia cinese di Gansu sono stati installati tre milioni di “Shuijiao” (cantine d’acqua) cioè serbatoi interrati per garantire la fornitura di acqua potabile ad altrettante famiglie rurali.
Prima di parlare delle tecniche di trattamento dell’acqua piovana mi piace ricordare i miei anni di infanzia. Oggi sembrerebbe impossibile ma la casa dei miei nonni materni dipendeva per l’acqua da un pozzo esterno, situazione comune in molte cascine del Monferrato nella prima metà dello scorso secolo. Le piogge contribuivano non poco al riempimento e ravvenamento del livello di quel pozzo. Io ero incaricato di agganciare il secchio al gancio e di calarlo nel pozzo facendo scorrere la corda sulla carrucola quando restavo con i nonni durante l’estate. Qualche anno dopo mio padre e mio zio (suo fratello) dotarono mia nonna rimasta vedova di una pompa idraulica per evitarle questo compito che con l’avanzare dell’età risultava per lei sempre più faticoso.

pozzo

Anche se l’acqua piovana non è sempre potabile “tal quale” (soprattutto per la presenza di contaminazioni microbiologiche) i sistemi di filtrazione sono ben conosciuti sia nelle versioni tradizionali (filtrazione su sabbia, disinfezione con ipoclorito o raggi UV) , che nelle versioni più moderne basate su moduli di ultrafiltrazione e carbone attivo. Nel caso del pozzo di mia nonna veniva utilizzato un filtro a carbone di legna che ha sempre funzionato egregiamente. Ne sono la testimonianza diretta, visto che nelle giornate estive spesso bevevo frequentemente l’acqua di quel pozzo direttamente con il mestolo dopo aver calato e poi sollevato il secchio dal pozzo.
La presenza diffusa di sistemi di recupero dell’acqua piovana avrebbe un effetto “ammortizzatore” nel caso di precipitazioni brevi ed intense (le cosiddette bombe d’acqua termine entrato nel lessico corrente ma che personalmente non mi piace troppo).
I contaminanti di un’acqua piovana possono essere i più diversi dal dilavamento di inquinanti atmosferici (per esempio le “piogge acide”, fino al fogliame, escrementi di uccelli ed altri contaminanti microbiologici.
Il sistema di trattamento di queste acque dipenderà anche dall’uso che ne verrà fatto. Su un consumo medio giornaliero di 250 litri di acqua solo il 2% circa viene destinato all’uso potabile propriamente detto, cioè per bere, cucinare, lavare le verdure. Il 49 per cento è destinato ad usi igienici (bagno, doccia e lavaggio pentole e stoviglie. Per questo tipo di usi è comunque necessaria l’eliminazione dei solidi sospesi e della contaminazione microbiologica.
Per il restante 49% dell’acqua che si destina per esempio allo scarico del wc, all’innaffiatura e al lavaggio delle auto può essere sufficiente un semplice trattamento di decantazione e di filtrazione.

recupero_acque

I sistemi di recupero sono di solito costituiti da un serbatoio interrato che raccoglie le acque provenienti dalle gronde. Al di sotto della superfice del liquido si posiziona mediante galleggiante il tubo di aspirazione. La pressione per portare l’acqua alle diverse utenze è ovviamente fornita da una pompa idraulica , e a monte di questa si monta un filtro per l’eliminazione dei solidi sospesi. L’impianto si completa con uno scarico di troppo pieno con recapito in fognatura e da una connessione con la rete di acqua potabile, per sopperire ad eventuali periodi di siccità prolungata e per effettuare eventuali pulizie periodiche. Per usi igienici quali bagno o doccia si include nel sistema uno stadio di trattamento per abbattere la carica batterica. Se si opta per la clorazione o la sterilizzazione con ozono è necessario uno serbatoio di accumulo a valle. Metodi più moderni come lampade uv e microfiltrazione si possono installare direttamente sulla mandata della pompa stessa.
Se, come ancora spesso accade, l’acidità dell’acqua piovana è eccessiva (pH tra 5,5 e 6) e necessaria l’installazione di un filtro di correzione dell’acidità con riempimento di materiale granulare a base di carbonato di calcio. Un sistema di questo tipo con portate di 2000-3000 lt/h a costi che si aggirano intorno ai 4000 euro. Se si vuole poi destinare l’acqua piovana ad uso potabile andrà previsto il passaggio su carbone attivo e l’eventuale aggiunta delle sostanze minerali che di solito non sono presenti nelle acque piovane. Tutto l’impianto idrico dovrà poi essere sottoposto a trattamenti periodici di clorazione.
L’acqua può avere molteplici usi e quindi trattamenti differenziati. Da anni si parla di acqua e della necessità di preservarla e non sprecarla. L’acqua va conosciuta e sarà necessario nel futuro evitare di destinare acqua adatta all’uso potabile per lo scarico dei wc. Ogni fonte di approvvigionamento andrà gestita correttamente. Anche l’acqua piovana.

L’elettrodo a idrogeno: un’”araba fenice”?

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Nel post sul concetto di pH (https://ilblogdellasci.wordpress.com/2016/06/29/il-concetto-di-ph/) si è accennato all’elettrodo a idrogeno, utilizzato da Søren Sørensen per misurare la concentrazione degli ioni idrogeno (per semplicità H+) nelle sue ricerche sulle reazioni di proteine ed enzimi. Come noto a tutti, l’elettrodo standard a idrogeno (SHE) è preso per convenzione come zero della scala dei potenziali redox, ed è descritto e schematizzato in tutti i testi come costituito da un filo o laminetta di platino platinato, immerso in una soluzione acida, sul quale viene fatto passare un flusso di idrogeno gas. La sua importanza risiede appunto nel fatto che, in condizioni standard (pH2 = 1 atm, aH+ = 1), e a T = 298 K, il suo potenziale è posto per convenzione = 0 V. Viene poi liquidato come elettrodo scomodo coinvolgente un gas pericoloso, la pressione difficilmente controllabile ecc., sicché oggi si usano altri elettrodi di riferimento il cui potenziale rispetto allo SHE è esattamente noto. Confesso di aver sempre avuto molta curiosità per l’elettrodo a idrogeno, forse perché non ne ho mai visto uno, neppure in un museo o quantomeno in foto. Quando ero studente all’Istituto Tecnico immaginavo di costruirne uno facendo gorgogliare idrogeno (da un apparecchio di Kipp) su un filo di Pt.

In una ricerca successiva al post sul pH ho trovato la descrizione dettagliata della misura della concentrazione di H+ a mezzo di un elettrodo a idrogeno nel lavoro di Sørensen [1]:

La pila di cui è stata misurata la forza elettromotrice, è costituita da un elettrodo al calomelano immerso in una soluzione normale di cloruro di potassio e un elettrodo a idrogeno (placca in platino platinato) immerso nella soluzione da esaminare che serve anche da liquido elettrolitico. Il potenziale di diffusione tra le due soluzioni è stato eliminato con le modalità indicate da N. Bjerrum[1], vale a dire, interponendo fra le due soluzioni elettrolitiche sia una soluzione 3,5 normale di cloruro di potassio, sia una 1,75 normale dello stesso sale, dopodiché si è fatta un’estrapolazione fra i due potenziali misurati.[1, p.20]

Il dispositivo sperimentale usato è identico a quello riportato da Bjerrum nella sua citata memoria… In generale ho seguito esattamente le indicazioni di questo studioso, al quale presento qui ancora una volta i miei sinceri ringraziamenti per averci permesso di approfittare, durante il corso delle misure, della sua lunga esperienza in questo campo. Sia l’elettrodo di platino platinato sia quello al calomelano sono stati preparati esattamente nel modo suggerito da Ostwald-Luther. Le misure sono state effettuate con il metodo a compensazione di Poggendorf[2]… Come elemento di riferimento mi sono servito di una pila Weston[3] la cui forza elettromotrice risulta 1,0191 volt a 18°. [1, p.21]

L’idrogeno utilizzato è stato preparato per elettrolisi di una soluzione al 10% di idrossido di potassio, con elettrodi di ferro. Dopo aver lavato l’idrogeno, dapprima due volte con una soluzione alcalina di pirogallolo, poi con acqua pura, lo si fa passare per un cilindro di vetro riempito di cotone puro poi lo si fa gorgogliare sul platino dopo averlo lavato con una piccola porzione della soluzione da esaminare.[1, p.22]

 

William B. Jensen[4] [2] ha trovato il seguente manifesto pubblicitario del 1922:idrogeno1

 Secondo Jensen questo manifesto (Oesper Collections, University of Cincinnati) propone un’apparecchiatura identica a quella utilizzata da Sørensen.

Effettivamente l’ingrandimento dell’immagine sulla sinistra [3]:

idrogeno2rappresenta abbastanza bene la pila descritta da Sørensen con la coppia elettrodo a idrogeno – elettrodo a calomelano. Quindi, almeno per me, l’elettrodo a idrogeno non è più un’”araba fenice”. Resta la curiosità di sapere chi è stato il primo a costruire e utilizzare un elettrodo a idrogeno.

[1] S.P.L. Sørensen, Etudes enzymatiques II. Sur la mesure et l’importance de la concentration des ions hydrogène dans les reactions enzymatiques. Compt. Rend. Trav. Carlsberg Lab., 1909, 8, 1—168.

[2] W.B. Jensen, Origins: Why pH?, http://www.che.uc.edu/jensen/W.%20B.%20Jensen/Commentaries/

[3] http://www.derangedphysiology.com/main/core-topics-intensive-care/arterial-blood-gas-interpretation/Chapter%201.0.6/sorensen-definition-ph-hydrogen-ion-concentration

[1] Niels Janniksen Bjerrum (1879-1958), chimico danese, noto per le sue ricerche sui composti di coordinazione, fu professore di chimica al Royal Agricultural College di Copenhagen dal 1914 al 1949.

[2] Johann Christian Poggendorff (1796-1877), fisico tedesco, svolse importanti ricerche sull’elettricità e il magnetismo, fondò e fu editor degli Annalen der Physik und Chemie dal 1824 al 1876. Oltre al galvanometro a specchio, ideò il potenziometro a opposizione per la misura dei potenziali elettrici a corrente (pressoché) nulla.

[3] La pila Weston, costruita per primo dal chimico inglese Edward Weston (1850-1936) nel 1893, è una pila a umido Cadmio/Mercurio, usata dal 1911 al 1990 come standard internazionale di forza elettromotrice per la sua capacità di erogare per lungo tempo una f.e.m costante e con basso coefficiente di temperatura.

[4] William B. Jensen, chimico statunitense (1984-) è Professor of Hystory of Chemistry and Chemical Education all’Università di Cincinnati, curatore della Oesper Collections della stessa Università. Autore di più di 150 fra pubblicazioni e reviews di chimica inorganica, storia della chimica e didattica della chimica, e di diversi libri, tiene bimestralmente la rubrica “Ask the Historian” del Journal of Chemical Education. Ha fondato ed è stato il primo editor della rivista Bulletin for the History of Chemistry.

Perchè Levio

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio della Volpe

L’8 giugno 2016 la IUPAC ha iniziato ufficialmente il periodo di 5 mesi di discussione pubblica sui nomi dei nuovi 4 elementi con i numeri atomici 113, 115, 117 e 118; le proposte sono le 4 seguenti:

Z=113, Nihonio – Z=115, Moscovio – Z=117, Tennessino – Z=118, Oganessio.

rispettivamente in onore o per ricordare le zone dove si è lavorato per la scoperta del nuovo elemento o la persona che vi si è dedicata principalmente.

Rimandiamo al testo della IUPAC per i dettagli delle scelte. Il periodo terminerà l’8 novembre.

L’elenco di oltre 3000 firme che accludiamo chiede una cosa diversa, chiede di nominare almeno uno dei 4 elementi come Levio (Levium (113 o 115) o Levine (117) o Levion (118) in accordo con le regole proposte per le terminazioni) in ricordo dello scrittore italiano Primo Levi, autore de “Il Sistema periodico”.

Il motivo o l’ispirazione fondamentale di questa proposta sta nell’articolo publicato su Nature da Philip Ball nel gennaio 2016, ma i motivi si possono facilmente spiegare ed estendere.

sistema periodico

La ricerca dei nuovi elementi è una operazione che ha un grande impatto mediatico e culturale ed i loro nomi, una volta scelti, sono destinati a rimanere per sempre nella cultura umana; i metodi di scelta di questi nomi privilegiano in qualche modo la gloria personale o nazionale o continentale di chi effettua la scoperta, ma lasciano uno spiraglio sia pur piccolo verso qualcosa di diverso e di questo siamo grati alla IUPAC. I metodi seguiti sono stati recentemente elencati qui.

Nella storia tali metodi sono stati via via precisati; Guyton de Morveau nel 1782 chiedeva “un metodo di denominazione costante, che aiuti l’intelligenza e supporti la memoria”; la Commissione dei Pesi atomici ricordava nel 1957 che i nomi erano stati scelti in accordo “con vari criteri arbitrari che si rifacevano all’origine, alle proprietà fisiche e chimiche o più recentemente a commemorare il nome di scienziati eminenti”; la pubblicazione del 2016 precisa:

(a) un concetto o carattere mitologico (incluso un oggetto astronomico)

(b) un minerale o sostanza simile

(c) un posto o regione geografica

(d) una proprietà dell’elemento

(e) uno scienziato

lasciando quindi il caso (a) come il più generale ed adatto al nostro intendimento. Un nome “mitologico”, che si rifaccia ad un mito. Quale mito possiamo scegliere?

La Chimica è oggi considerata una scienza “centrale” per il suo ruolo di collegamento fra le altre scienze fisiche e biologiche. Essa è stata definita via via “bella e potente” ed è certamente alla base della nostra vita quotidiana con le sue innumerevoli tecnologie ed aplicazioni.

chemicalfree

Ciononostante essa vive una crisi importante una crisi di rigetto che è espressa dall’abusato termine “chemical free”, sul quale anche i giornali scientifici hanno spesso ironizzato. Va crescendo una insofferenza nel grande pubblico nei confronti di una tecnologia e di un’approccio che appaiono violare sempre più invasivamente l’”ordine naturale” delle cose, in realtà la oscura presa di coscienza che è difficile orientare in senso sociale e collettivo l’uso e le applicazioni della scienza, le cui applicazioni e per converso le cui scoperte appaiono dovute a cause esterne, che gratificano non tutti ma solo alcuni, che sottolineano la potenza di chi le fa non i risultati poi disponibili (almeno potenzialmente) per tutti.

Contemporanemente si aprono nuove importanti sfide che sono figlie proprio del successo enorme che la chimica ha avuto nella vita umana; è stato Paul Crutzen, premio Nobel per la Chimica nel 1995, ad adottare il termine Antropocene per segnare l’impatto che l’umanità sta avendo sulla biosfera, proprio grazie al successo della tecnologia chimica. Tale impatto, che si sta manifestando in tutti i campi, dal clima alle risorse minerali, rappresenta la nuova sfida per l’umanità e per la chimica.

La Chimica ha bisogno di un simbolo, di una bandiera, di un mito unitario per raccogliere questa sfida e questa bandiera non può essere quella di criteri che esaltano una persona o un paese o una regione, ma solo quella che rafforza un’idea: la Chimica è per tutti. La Scienza è, deve essere, per tutti se vogliamo continuare a vivere in pace su questo pianeta.

Quando alla fine della seconda guerra mondiale ci si è guardati indietro, alle macerie lasciate alle spalle, alcuni hanno avuto la capacità di pensare e guardare più profondamente alle cose; uno di questi uomini che da perseguitato aveva maturato coscienza di quel che era successo è stato un italiano, Primo Levi, chimico e scrittore, di cultura ebraica, che ha scritto uno dei libri più famosi e letti del mondo adottato nelle scuole di vari paesi, “Il sistema periodico”.

primolevi2

Si tratta di un audace tentativo di raccontare la vita e le contraddizioni umane tramite la chimica e che proprio per questo fonde la migliore tradizione scientifica ed umanistica, raccoglie lo spirito migliore, il succo dell’esperienza umana: rifiuto della guerra, amore per la scienza, anelito ad una umanità che vada al di là delle divisioni di ogni tipo.

Se la chimica deve essere capace di raccogliere le sfide del nuovo millennio questo è il momento di farlo, lasciando per un attimo da parte le rivendicazioni personali o geografiche e guardando all’attività di ricerca come al lavoro più bello e unificante e nuovo che l’umanità abbia inventato, alla scoperta del “chemical space” come alla più grande avventura umana: che è per tutti, per ogni uomo, donna o bambino di questo pianeta, qualunque sia la sua religione o il colore della sua pelle o la sua lingua, ricco o povero, migrante o fuggitivo. Chemistry is for all! Quale mito è più grande di quello dell’unità dell’umanità? Levium, Levine o Levon, ma sia un nome (questo o un altro) che valga per questa scelta simbolica, la chimica come una bandiera per tutti gli uomini.

Interferenti endocrini: possibili interventi tecnologici per la rimozione

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Gli interferenti endocrini sono sostanze organiche generalmente ma non necessariamente di sintesi, che quando vengono introdotte nel nostro organismo possono comportarsi come ormoni endocrini, oppure possono bloccare una attività ormonale endocrina.

Da molti anni sono entrate nel novero degli inquinanti emergenti. Tra le sostanze di cui è riconosciuta l’azione di interferente endocrino possiamo trovare dietilstilberolo (DES), le diossine, i policlorobifenili, il DDT, e almeno due composti conosciuti anche al pubblico generico quali l’atrazina e l’arsenico.

atrazina

atrazina

E’ notizia recente il rilevamento di un metabolita dell’atrazina nella zona di Pordenone.

http://messaggeroveneto.gelocal.it/pordenone/cronaca/2016/06/29/news/acqua-allarme-atrazina-superati-i-limiti-di-legge-1.13741280

Il DL 31 del 2 Febbraio 2001 e le sue successive modifiche all’art 4 prevede che “Le acque destinate al consumo umano non debbono contenere altre sostanze in quantità o concentrazioni tali da rappresentare un potenziale pericolo per la salute umana”

Il problema della diffusione di questi inquinanti si può verificare per il non perfetto grado di depurazione delle acque reflue se successivamente queste vengono riutilizzate per pratiche irrigue.

Una concentrazione di atrazina di soli 0,1 ppb (valore trenta volte più basso di quello consentito da EPA nelle acque destinate al consumo umano) ha mostrato influenze negative nelle caratteristiche sessuali degli anfibi, che rappresentano dei veri e propri marcatori biologici visto che hanno decisamente sensibilità a queste situazioni di inquinamento ambientale diffuso.

interferenti2

Tra gli altri interferenti endocrini possiamo citare gli alchilfenoli. Nel 2001 vennero eseguiti campionamenti dall’istituto Mario Negri di Milano, ed in particolare da Simona Tavazzani che effettuò la messa a punto di metodi in GC-MS . I campioni di acque superficiali vennero prelevati sul fiume Lanza a monte e a valle del piccolo depuratore consortile di Cantello (è uno degli impianti che è gestito dalla società per la quale lavoro e che conosco molto bene visto che mi occupo delle analisi e della gestione impiantistica.)

Il fiume Lanza è anche sede di un parco sovra comunale ed è una zona ricca di fauna e molto bella dal punto di vista paesaggistico.

Tra i prelievi a monte dell’impianto e quelli a valle non si riscontrarono variazioni significative. Le concentrazioni risultarono però molto basse sia sui campioni di acque superficiali, che su quelli biologici (bile e fegato di pesce) cioè con concentrazioni dell’ordine dei ng/l e ng/g rispettivamente.

interferenti3

Questi composti però transitavano sostanzialmente inalterati attraverso il normale processo di depurazione a fanghi attivi. Tengo a precisare che questo impianto funziona molto bene sui normali inquinanti tanto che lo definisco da sempre l’impianto con il fango biologico didattico, cioè quello molto bilanciato e con forte compattezza del fiocco. Quello che mostro al microscopio agli studenti.

interferenti4

(Fotografia fango Cantello 400 x c.f)

Gli interventi tecnologici per risolvere ed abbattere correttamente composti di questo genere sono possibili. Nei paesi aridi ma dotati di sufficiente capacità tecnologica, ma anche ovviamente in Italia.

Nelle acque reflue destinate a riutilizzo o riuso si possono utilizzare trattamenti combinati nei quali si fa uso di membrane di microfiltrazione ed ultrafiltrazione e passaggio di affinamento su strati di PAC (Policloruro di alluminio.) In seguito si possono effettuare trattamenti di coagulazione e di scambio ionico.

Stadi di trattamento che utilizzano queste sequenze le tracce di interferenti endocrini quali prodotti farmaceutici e prodotti agrochimici.

Trattamenti che usino osmosi inversa e nano filtrazione sono più avanzati (ma anche più costosi).

Se si opera con trattamenti tradizionali come la coagulazione con cloruro ferrico la rimozione di questi composti è bassa (circa il 10%). Il carbone attivo ottiene rendimenti di rimozione di circa il 90%.

Le tecniche di depurazione su membrana (per esempio MBR membrane bio reactror) sono efficienti e possono conseguire rimozioni dell’ordine del 75-90%. Il problema è una riduzione del rendimento nel tempo che necessitano di frequenti operazioni di manutenzione e lavaggio delle membrane.

Occorre prestare attenzione anche al rilascio di questi composti nel tempo da parte di resine scambiatrici e membrane che hanno tendenza ad adsorbire sostanze polari quali gli interferenti endocrini di natura organica.

Esistono le tecnologie appropriate e le soluzioni. Occorre modificare molti dei processi di depurazione e di potabilizzazione classici. Occorre prima di ogni altra cosa la consapevolezza del problema degli interferenti endocrini (ma più in generale della diffusione degli inquinanti emergenti).

Come sempre suggerisco sinergie tra varie discipline (chimica in primis, ma anche ingegneria ambientale e biologia). Investimenti mirati su reti e strutture. E come sempre informazione corretta e continua e comprensibile.

Non solo per i cittadini ma anche per gli addetti ai lavori.

 

Il concetto di pH

In evidenza

 Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Piacca, ovvero pH, un fonema indicante acidità, noto al grande pubblico non soltanto per via della pubblicità di detergenti e cosmetici (“che rispettano il pH della pelle”, “saponi a pH neutro”, ecc.) ma anche per i referti delle analisi di sangue e urina, in ambito “gastronomico” (pH degli oli commestibili, dei vini, ecc.), e per molte altre questioni. Inoltre di pH si parla nei corsi di chimica elementare in tutte le scuole secondarie superiori e in molti casi anche in quelle del secondo ciclo dell’obbligo.

Chi introdusse il concetto di pH e la relativa scala di misura dell’acidità (e della basicità) in chimica? Fu il chimico danese Søren Peter Lauritz Sørensen nel 1909 mentre studiava l’effetto della concentrazione di acidi e basi sulla velocità dei processi enzimatici. Poiché egli usava soluzioni diluite di acidi e basi aveva a che fare con valori molto piccoli di concentrazione di H+ (o di OH), diciamo ad es. minori di 10−1. Propose quindi di usare per esprimere queste concentrazioni l’esponente, cambiato di segno, della potenza di 10, e lo chiamò esponente dello ione idrogeno, con simbolo PH. [1a][1]. Il lavoro fu pubblicato contemporaneamente in tre lingue, tedesco, francese e danese. Scrive Sørensen: Con l’esponente ione idrogeno (PH) di una soluzione si intende il reciproco del logaritmo decimale del valore della normalità della soluzione basata sugli ioni idrogeno. [1b]

Vediamo in breve la vita professionale di Sørensen:

 SPL_Sorensen

Nacque a Havrebjerg il 9 gennaio 1868 e dopo aver terminato la scuola superiore fu ammesso all’Università di Copenhagen, a 18 anni. L’intenzione era quella di studiare medicina, ma influenzato da S.M. Jorgensen[2], scelse infine chimica. Ancora studente ricevette due medaglie d’oro, la prima per un articolo sul concetto di radicale chimico, la seconda per una ricerca sui composti dello stronzio. Mentre studiava per il dottorato si occupò di geologia della Danimarca e lavorò come assistente chimico all’Istituto Politecnico Danese. Conseguì il dottorato nel 1899 discutendo una tesi sugli ossidi del cobalto, sicché i suoi interessi iniziali furono essenzialmente rivolti alla chimica inorganica e analitica. Ma nel 1901 Sørensen fu chiamato a succedere a Johann Kjeldhal[3] come direttore del Dipartimento di Chimica del Laboratorio Carlsberg di Copenhagen, dove rimase per il resto della sua vita. Kjeldhal aveva lavorato su problemi di interesse biochimico e Sørensen proseguì su questa linea di ricerca. I suoi studi riguardarono in particolare la sintesi di amminoacidi, la messa a punto di metodi analitici, gli effetti di acidi e basi sulla cinetica di reazioni enzimatiche e ricerche sulle proteine. Nei due primi temi Sørensen si impegnò nella sintesi degli amminoacidi ornitina, prolina, e arginina. Egli dimostrò, fra l’altro, che il metodo di Kjeldahl per la determinazione dell’azoto amminico aveva una valenza più generale di quella ipotizzata dal suo scopritore. Nel 1907 mise a punto una metodica analitica per titolare un amminoacido con idrossido di potassio in presenza di formaldeide, noto come SFT (Sørensen Formol Titration). Successivamente, il lavoro sugli effetti di soluzioni tampone diverse (borati, citrati, fosfati e glicina) sul comportamento di proteine e enzimi lo condusse a utilizzare il metodo elettrochimico potenziometrico per studiare l’andamento della concentrazione degli ioni idrogeno, utilizzando un elettrodo di misura all’idrogeno e un elettrodo al calomelano come riferimento [1a, p. 150]. Fu in questo lavoro, concretizzatosi nel lungo articolo del 1909, che Sørensen definì il pH e la relativa scala di acidità utilizzata oggi in tutti gli ambiti scientifici [2][4]. Sørensen propose anche una scala basata sui colori assunti da un’opportuna miscela di indicatori ai vari pH. Insieme alla moglie studiò le lipoproteine, i complessi del monossido di carbonio con l’emoglobina e fu il primo a ottenere l’albumina di uovo in forma cristallina. Ebbe numerosissimi allievi e molti visitatori stranieri nel suo gruppo di ricerca. Fu anche attivo in campo tecnologico con contributi nell’industria danese dei liquori, dei lieviti e degli esplosivi. Morì a Copenhagen il 12 febbraio 1939.

JohanKjeldahl_in_1883

Johann Kjeldhal

Va quindi sottolineato che la scala del pH è stato solo uno dei tanti successi di Søren Sørensen in una carriera dedicata all’applicazione dei classici metodi fisico-chimici al nuovo settore della biochimica. In particolare le sue ricerche su enzimi e proteine, per le quali l’invenzione della scala del pH è stata solo un miglioramento metodologico, furono fondamentali, fornendo le basi per i successivi studi su questi composti azotati. Si può infine concordare con E.J. Cohn che: “Con Sørensen la chimica fisica delle proteine passò dallo stadio dell’osservazione e della descrizione qualitativa dei fenomeni a quello della loro caratterizzazione quantitativa in termini di leggi e di costanti” [3].

[1] S.P.L. Sørensen, a) Enzymstudien. II: Mitteilung. Über die Messung und die Bedeutung der Wasserstoffionenkoncentration bei enzymatischen Prozessen”. Biochemische Zeitschrift, 190921, 131–304; b) Enzyme Studies II. The Measurement and Meaning of Hydrogen Ion Concentration in Enzymatic Processes, in: http://www.chemteam.info/Chem-History/Sorenson-article.html

[2] F. Sgambato, S. Prozzo, E. Sgambato, R. Sgambato, L. Milano, Il centenario del pH (1909-2009). Ma in medicina, è proprio indispensabile utilizzare i logaritmi negativi per misurare gli idrogenioni? Parte I, Italian Journal of Medicine 2011, 5, 147—155.

[3] E.J. Cohen, Søren Peter Lauritz Sørensen (1868-1939), J. Am. Chem. Soc., 1939, 61, 2573-74.

[1] Successivamente il simbolo divenne PH e infine l’attuale pH. Sull’esatto significato della lettera p ci sono ancora pareri discordanti, quello più accettato è potenziale. Nel 1924 fu riconosciuto che al posto della concentrazione di H+ si doveva usare l’attività.

[2] S.M. Jorgensen (1837-1914), chimico danese, è considerato uno dei fondatori della chimica dei composti di coordinazione. Noto per il suo dibattito con Alfred Werner, anche se le sue teorie si dimostrarono errate, ebbero comunque una certa influenza su quella di Werner. Diede fondamentali contributi alla chimica del platino e del rodio.

[3] Johan Gustav Christoffer Kjeldahl (1849 – 1900), chimico danese si occupò in particolare delle proteine contenute nei malti per la fabbricazione della birra. Noto per il metodo di determinazione quantitativa accurata dell’azoto con un apparecchio di sua invenzione chiamato ancora oggi apparecchio di Kjeldahl. La descrizione dell’apparecchio è stata riportata in un post su questo blog: https://ilblogdellasci.wordpress.com/2012/12/07/chi-gli-ha-dato-il-nome-kjeldahl/

[4] In questo lavoro gli autori (dell’UO Medicina Interna, Ospedale Fatebenefratelli, Benevento), ricordano il centenario del pH (cosa che non mi risulta noi chimici italiani abbiamo fatto) analizzando in dettaglio la versione francese dell’articolo di Sørensen, ma fanno una stravagante proposta, eliminare –log[H+] (pH) dalla medicina e dalla chimica per medici, sostituendola con i nEq (nanoequiv.) di H+, poiché vi sarebbe linearità fra questi e il pH nell’intervallo di acidità compatibile con la vita. I futuri medici capirebbero di più in termini di equivalenti che attraverso il logaritmo… ???

Un chimico, un matematico e il calore. 1.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

La sensazione del caldo e del freddo, del calore insomma, ha suscitato interesse e timore fin da quando l’essere umano ha preso coscienza di se e dell’ambiente che lo circonda. Molto sinteticamente si può dire che le due interpretazioni sulla natura del calore, quella dinamica (secondo cui il calore è dovuto al movimento delle parti dei corpi) e quella particellare (secondo la quale il calore è una sostanza diversa dalle altre) sono entrambe presenti nella filosofia naturale del mondo occidentale. Empedocle (495 a.c. – 430 a.c. circa) poneva il fuoco tra i quattro “elementi” dai quali si sarebbero formati i corpi materiali; Eraclito (535 a.c. – 475 a.c. circa), invece, sosteneva che il fuoco fosse un principio dinamico, e sarebbe quindi alla base di tutto. Aristotele (384 a.c. – 322 a.c. circa) aggiunse il fuoco come “quinta essenza” ai quattro elementi empedoclei cercando in questo modo di interpretare alcuni fenomeni termici, come il trasferimento del calore da un corpo caldo a uno freddo. Gli atomisti, con Democrito (460 a.c. – 370 a.c. circa) ragionavano in termini di atomi “caldi” e “freddi”, come ci riporta Lucrezio nel De Rerum Natura.

Le interpretazioni dei filosofi greci furono sottoposte al vaglio dei grandi scienziati e filosofi del XVII secolo che tuttavia, seppure con notevoli precisazioni, rimasero sostanzialmente ancorati alle concezioni precedenti. Galileo (1564-1642), per esempio, condivideva più la concezione democritea, infatti riteneva che del calore fossero responsabili corpuscoli infimi (“minimi ignei”) in continua agitazione, ritenendo che il freddo derivasse dalla privazione di tali corpuscoli. Anche Francesco Bacone (1561-1626), basandosi sul calore sviluppato per attrito, giunse alla conclusione che il calore è un moto di espansione. Cartesio (1596-1650) e Newton (1643-1727), invece, pur con certe differenze, sostennero che il calore dei corpi era dovuto all’agitazione o alla vibrazione delle particelle costituenti i corpi.

E i chimici? Com’è noto nel XVII e soprattutto nel XVIII secolo la chimica fu dominata dalla (o meglio dalle) teorie del flogisto, un principio non isolabile che interverrebbe nella formazione (perdita di flogisto) e scomposizione (acquisto di flogisto) degli ossidi metallici (calci). La classica teoria del flogisto, dovuta a G.E. Stahl[1] che la enunciò nel 1716, fu poi adattata per interpretare l’aumento di peso nella formazione degli ossidi giungendo a ipotizzare un peso negativo (!) per il flogisto. Queste teorie ebbero comunque un notevole influsso sull’interpretazione del calore, il flogisto poteva infatti essere considerato come il vero “principio” del fuoco.

Sebbene già attorno al 1730 le teorie del flogisto fossero state messe in discussione da alcuni chimici, fra cui l’olandese H. B. Boerehaave (1668-1738) e il russo M. Lomonosov (1711-1765), queste furono praticamente archiviate solo nel 1774 in seguito all’esperimento detto “dei dodici giorni” effettuato da Antoine Laurent Lavoisier. Tale esperimento portò alla scoperta che la formazione degli ossidi è dovuta a un gas contenuto nell’aria, che Lavoisier chiamò oxigène.lavoisier2

 laplace

Negli anni successivi, oltre a continuare le ricerche che condussero alla definitiva enunciazione della legge di conservazione della massa, Lavoisier eseguì, insieme al matematico e fisico matematico Pierre Simon de Laplace[2] una serie di esperimenti su fenomeni coinvolgenti il calore, raccolti in una memoria presentata all’Académie des Sciences il 18 giugno 1873 col titolo “Mémoire sur la chaleur” [1]*.prima pagina memoire

Questo è un raro esempio di collaborazione fra un chimico e un matematico. La memoria, suddivisa in quattro articoli, non costituisce solo il primo trattato di Calorimetria, ma è anche un manuale pratico e interpretativo di fenomeni termochimici. Nell’introduzione i due Autori spiegano i motivi che li hanno spinti a pubblicare i risultati delle loro ricerche:

Questa memoria è il risultato di esperimenti sul calore che abbiamo fatto durante lo scorso inverno, insolitamente mite, cosa che non ci ha permesso di fare di più. Ci eravamo dapprima proposti di attendere un inverno più freddo prima di pubblicare qualsiasi cosa su questo argomento, avremmo così potuto ripetere con tutta la cura possibile gli esperimenti, e farne di più, ma ci siamo impegnati a rendere pubblico questo lavoro anche se molto imperfetto, dalla considerazione che il metodo che abbiamo usato possa essere di qualche utilità per la teoria del calore e, per la sua precisione e generalità possa essere adottato da altri fisici…[1, p. 355]

Passano poi a descrivere l’organizzazione della memoria in quattro articoli:

… nel primo, presenteremo un nuovo metodo di misurare il calore; presenteremo nel secondo i

risultati delle principali esperienze che abbiamo fatto; nel terzo esamineremo le conseguenze che si possono trarre da queste esperienze, infine, nel quarto, discuteremo la combustione e la respirazione. [1, p. 355]

All’inizio del primo articolo gli Autori lamentano la mancanza di dati quantitativi negli studi fatti in precedenza sui fenomeni termici, anche se riconoscono la scelta di una scala per la misura della temperatura basata sui due punti fissi: la fusione del ghiaccio e l’ebollizione dell’acqua alla pressione atmosferica, come pure la ricerca di un fluido le cui variazioni di volume sono praticamente proporzionali alle variazioni di calore.

Ma… la conoscenza delle leggi che segue il calore, quando si diffonde in corpo, è lontana da quello stato di precisione tale da poter sottoporre ad analisi i problemi relativi… agli effetti del calore in un sistema di corpi irregolarmente riscaldati, particolarmente quando la miscela si decompone e forma nuove combinazioni. [1, p. 356]

Dopo aver ricordato le due ipotesi sulla natura del calore, Lavoisier e Laplace affermano che per poter proseguire il lavoro occorre stabilire esattamente cosa si intende per calore libero, calore latente, capacità termica e calore specifico di un corpo e forniscono le definizioni per queste grandezze, definizioni che ci sono oggi famigliari[3].

Prendono in esame alcuni fenomeni di equilibrio termico e di trasferimento di calore e cercano di interpretarli in base a una o all’altra teoria per concludere che:

Non decideremo quindi fra le due ipotesi precedenti; vari fenomeni appaiono favorevoli alla prima, ad esempio, il calore prodotto dall’attrito di due solidi; ma ci sono altri che possono essere spiegati più semplicemente dalla seconda… come non possiamo decidere fra queste due ipotesi sulla natura del calore, dobbiamo però accettare un principio comune a entrambe.

Se, in una combinazione o in un cambiamento di stato, vi è una diminuzione del calore libero, questo calore riapparirà quando le sostanze ritornano al loro stato precedente, e, viceversa, se in una combinazione o in un cambiamento stato, vi è un aumento di calore libero, questo calore scomparirà nel ritorno delle sostanze al loro stato originale[4].

Questo principio è ora confermato dall’esperienza, la detonazione del nitre [nitrato di sodio] ce ne fornirà in seguito una prova determinante. [1, pp. 358-359]

A questo punto gli autori descrivono il termometro a mercurio che useranno negli esperimenti e la scala termometrica (la Réaumur, simbolo r). Propongono una regola generale per la misura del calore specifico di un corpo per mescolamento scegliendo arbitrariamente una sostanza di riferimento, per esempio l’acqua:

Indicando con m la massa del corpo più caldo alla temperatura a, con calore specifico q, con m’ la massa del corpo meno caldo alla temperatura a’ con calore specifico q’, se b è la temperatura di equilibrio della miscela, ammettendo che il calore ceduto dal corpo più caldo sia stato tutto acquistato dal corpo meno caldo, dovrà essere:

m q . (a – b) = m’q’ . (b – a’)

da cui si ottiene:

q/ q’ = m’. (b – a’) / m . (a – b)

che è il rapporto fra i calori specifici dei due corpi.[1, pp. 362-363]

Gli autori riportano l’esempio del mescolamento di acqua e mercurio a temperature diverse giungendo alla conclusione che il calore specifico del mercurio è circa 33 volte più piccolo di quello dell’acqua (29.9 in base ai dati attuali).

Discutono in dettaglio i limiti e le fonti di errore del metodo del mescolamento, poi attraverso lunghe considerazioni su un modello ipotetico di strumento di misura del calore e dopo aver elaborato le equazioni per il trattamento dei dati, giungono alla descrizione meticolosissima del calorimetro a ghiaccio di loro invenzione.

calorimetroQui ne daremo una breve descrizione. Con riferimento alla figura originale, il calorimetro progettato e fatto costruire da Lavoisier e Laplace è formato da tre recipienti concentrici: nel più interno si colloca il corpo in esame; in quello intermedio il ghiaccio; in quello più esterno si colloca dell’altro ghiaccio che ha la funzione di isolante, evitando che il calore dell’ambiente esterno fonda il ghiaccio del recipiente intermedio. Anche il coperchio è cavo e riempito di ghiaccio. In base alla quantità d’acqua che fuoriesce dal recipiente intermedio mediante un apposito condotto si può misurare il calore fornito dal corpo nel contenitore più interno, o calcolarne il calore specifico. Per misurare il calore sviluppato in una reazione chimica si introducono i reagenti in un matraccio di vetro posto nel più interno dei recipienti del calorimetro sopra un supporto isolante. Nel matraccio vi è anche la possibilità di provocare una scintilla elettrica per innescare la reazione[5].

I due Autori forniscono anche indicazioni precise per misurare il calore assorbito in una trasformazione fisico-chimica, come la dissoluzione di certi sali[6] [1, p. 366].

Il primo articolo della memoria termina con un riassunto delle precauzioni usate per garantire l’attendibilità dei risultati, la temperatura del laboratorio non deve superare i 3-4°r il che riporta a quanto dichiarato nell’introduzione, gli autori avrebbero voluto ripetere gli esperimenti in un inverno gelido…

(continua)

Riferimenti.

[1]. M.rs Lavoisier & de Laplace, Mémoire sur la Chaleur, in: Histoire de l’Académie Royale des Sciences, Anno 1780, Paris, 1784, pp. 355-408. *Le parti della Mémoire tradotte in italiano sono opera dell’autore del post

Note.

[1] Georg Ernst Stahl (1659/60-1734), medico e chimico tedesco, grande personaggio sia in medicina che in chimica. Fra le sue opere, i trattati sullo zolfo e sui sali, gli Experimenta, observationes… chymicae et physicae. La sua teoria del flogisto, seppure errata, è considerata dagli storici come il primo tentativo di razionalizzare la chimica in un’unica teoria.

[2] Pierre Simon de Laplace (1749-1827), matematico e fisico francese ha dato contributi fondamentali allo sviluppo dell’analisi matematica, della statistica, della meccanica, dell’astronomia e della cosmologia. Famoso il suo Exposition du système du monde.

[3] Lavoisier e Laplace sono ben consapevoli che il calore specifico dipende dalla temperatura ritengono tuttavia che nell’intervallo 0°r – 80°r i calori specifici possano essere ritenuti approssimativamente costanti. Per le applicazioni pratiche questa approssimazione è utilizzata anche oggi.

[4] Gli autori anticipano qui quella che oggi chiamiamo 1a Legge della Termochimica o Legge di Lavoisier-Laplace.

[5] Si tratta di un calorimetro isobaro, sicché, come diremmo oggi, misura la variazione di entalpia, ΔH della trasformazione.

[6] Come noto oggi chiamiamo esotermiche le trasformazioni che avvengono con sviluppo di calore, endotermiche quelle che avvengono invece con assorbimento.

Astrochimica chirale.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

McGuire e colleghi hanno individuato per la prima volta, nella nube B2 del Sagittario, nella direzione del centro galattico, lo spettro di una molecola chirale o otticamente attiva: l’ossido di propilene.astro1

Difficile oggi dai centri delle nostre citta ultrailluminate riuscire a vedere la Via lattea e ancor più individuare la Nube del Sagittario. Da ragazzino riuscivo a vederla dalla periferia di Napoli, a Capodimonte, nei pressi dell’Osservatorio; oggi qui dal Trentino dovrei andare in montagna per vederla.

astro2

Comunque, bando ai ricordi. La molecola di ossido di propilene è questa:

astro3Come vedete è una molecola la cui immagine speculare non è coincidente con la molecola stessa; come sanno tutti i chimici questa struttura ha come effetto che le due molecole pur possedendo proprietà fisiche identiche non sono identiche affatto, anzi! Diversa è la loro interazione con la luce polarizzata, ma soprattutto con altre molecole chirali, una sottile differenza che è uno degli aspetti decisivi della vita come la conosciamo sulla Terra.

Si tratta della prima molecola chirale ad essere stata trovata nello spazio interstellare (e con questa tecnica spettroscopica); altre molecole erano state individuate in comete o in meteoriti, ma ancora nessuna in una nube interstellare, come questa, che è una vera fucina di nuove stelle a 400 anni luce dal centro galattico e a 25.000 anni luce da noi.

Come hanno fatto? Hanno modellato lo spettro di una molecola di ossido di propilene nell’ambiente della nube, concludendo che c’erano solo tre transizioni ben rivelabili che fanno parte della cosiddetta Q-branch, ossia quella parte di spettro infrarosso contenente transizioni vibrazionali con il medesimo numero quantico rotazionale. (ΔJ = 0).

Di queste tre ne hanno potuto osservare due a 2.342 e 2.141cm nei dati del progetto PRIMOS e la terza con il radiotelescopio Parkes (12.1, 12.8, and 14.0 GHz ).

In conclusione hanno confermato l’esistenza della molecola e sperano in futuro di poter incrementare la risoluzione e l’analisi dello spettro per poter individuare segni di “e.e.” ossia di eccesso enantiomerico, ovverossia di eccesso di uno dei due enantiomeri; eccesso enantiomerico che esiste nella vita sulla Terra e anche in molti dei campioni di meteoriti o di comete; la causa probabile dell’ipotetico eccesso, che finora è stato trovato nelle molecole di meteoriti e comete, potrebbe essere la presenza di radiazione circolarmente polarizzata (presente nella Nube del Sagittario); tale eccesso potrebbe confermare la causa prima della condizione che ha portato poi ad uno dei misteri ancora insoluti dell’origine della vita: l’eccesso di una sola specie enantiomerica nei composti organici coinvolti, come è il caso degli amminoacidi L nella vita terrestre: NOI!

Se un piccolo eccesso esiste la modellazione di processi lontani dall’equilibrio conferma che tale eccesso (anche in piccola fluttuazione) può essere amplifcata e diventare dominante. A questo proposito cito sempre il bellissimo lavoro sperimentale di Kondepudi (Science. 1990 Nov 16;250(4983):975-6.

Chiral symmetry breaking in sodium chlorate crystallization. Kondepudi DK, Kaufman RJ, Singh N.), un esperimento che si potrebbe ripetere con pazienza in un laboratorio scolastico; lo conoscevate?

Emergence and Amplification of Chirality via Achiral–Chiral Polymorphic Transformation in Sodium Chlorate Solution Growth,  Niinomi, H. Miura, Y. Kimura, M. Uwaha, H. Katsuno, S. Harada, T. Ujihara, and K. Tsukamoto Cryst. Growth Des. 14 (2014)

astro4

Termino con un invito.

Se fra i lettori ci sono altri astrofili come me che di tanto in tanto mettono il loro C8 o il loro Takahashi o il loro binocolo col muso all’insù verso il cielo notturno perchè non si fanno vivi sul blog? Meglio ancora se astrochimici. C’è tanta chimica nell’astronomia, anche da casa; guardate qua:

astro5Nebulosa di Orione, le quattro stelle centrali si chiamano “il trapezio”; dal centro di Trento; 24 gennaio 2016; Canon 550D 3200 ASA 15sec C8 primo fuoco. Non è bella ma è la mia prima foto di Orione!

E la spettroscopia casalinga! Fatta con pochi soldi ed un filtro che è un reticolo a 100 linee/mm

Arturo  astro6
Procione  astro7
Regolo  astro8
Giove  astro9

15 aprile 2015 – Condizioni: cielo sgombro di nubi; Celestron C8 – oculare zoom vixen 8-24 – filtro star analyser 100 – Samsung Note 2 in afocale

Spica  astro10

19 aprile 2015 – Condizioni: cielo nuvoloso; Celestron C8 – oculare zoom vixen 8-24 – filtro star analyser 100 – Samsung Note 2 in afocale

sole  astro11

Giorni precedenti Sole con prisma senza telescopio

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

 

Glutine non è una parolaccia.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Giorgio Nebbia

Glutine è parolaccia ? sembrerebbe a giudicare dal numero crescente di prodotti alimentari, ma anche cosmetici, che si affrettano a dichiarare che non contengono glutine, anzi, come si dice secondo la moda anglofila imperante, “gluten free”.

Non c’è dubbio che una parte della popolazione italiana, si stima circa due percento, è “allergica” al glutine essendo afflitta da celiachia, una malattia che provoca disturbi anche gravi in chi mangia glutine.

Poiché il glutine è l’insieme delle proteine del frumento, sembra che si stia diffondendo anche una moda di ostracismo dello stesso frumento nella dieta italiana. Come chimico, non esprimo alcun giudizio di natura biologica o medica sulle “allergie” alimentari: mi limito a parlare degli aspetti chimici del glutine, un complesso di proteine presenti nel frumento in ragione del 8-12 percento del peso della farina (quella che si ottiene dal frumento tenero) o della semola (lo sfarinato che si ottiene dal frumento duro). Il resto degli sfarinati di frumento è costituito da amido e da limitate quantità di grassi e sali minerali.

Il glutine ha fatto la sua comparsa in una pubblicazione scientifica del chimico bolognese Bartolomeo Beccari (1682-1766), di cui quest’anno cadono 250 anni dalla morte. Straordinario personaggio del mondo scientifico del suo tempo; il padre farmacista aveva assicurato al figlio una buona istruzione che permise al giovane Bartolomeo di laurearsi in filosofia e medicina nel 1704.

Jacopo_Bartolomeo_BeccariBeccari si dedicò a esperimenti scientifici che descriveva in “tesi” all’Accademia delle Scienze e per i quali gli fu assegnata una cattedra dapprima di fisica sperimentale e poi di chimica nell’Università di Bologna. In quei tempi chimica, fisica e medicina e la stessa filosofia consentivano di affrontare la conoscenza della natura e della vita in una maniera davvero interdisciplinare che, purtroppo, si è andata perdendo col passare dei secoli. Beccari si dedicò allo studio dell’infiammabilità dei gas che fuoriuscivano da alcuni crepacci delle colline bolognesi; osservò che alcuni animali e alcuni minerali (per esempio il solfato di bario rinvenuto nelle colline bolognesi e chiamato “Pietra di Bologna”) presentano una luminosità che sarebbe stata interpretata come fosforescenza, fonte di luce, dal nome greco della luce, φῶς. Si occupò di ecologia, come diremmo oggi, studiando l’origine dei miasmi che si formano nelle paludi e il loro effetto sulla salute. Il granduca di Toscana lo incaricò di studiare se tali cattivi odori avrebbero potuto essere attenuati tagliando la macchia intorno a Viareggio, allora terreno paludoso, e se i miasmi di tali paludi avrebbero potuto arrivare a danneggiare gli abitanti di Lucca, a una ventina di chilometri dalla costa, e Beccari lo escluse.

Nelle ricerche sulla fisiologia dell’alimentazione Beccari si dedicò alla analisi del frumento e del latte e descrisse, in un saggio del 1728 intitolato “De frumento”, la separazione dalla farina di frumento di due differenti frazioni.

Versando la farina in acqua Beccari osservò che una parte galleggiava mentre una parte si depositava sul fondo del recipiente. Ripetendo l’esperimento più volte isolò la parte più leggera, che oggi sappiamo essere l’amido, e la descrisse come dotata di caratteri “vegetali”, mentre l’altra, che oggi conosciamo come glutine, aveva caratteri “animali”. Scaldando le due frazioni, Beccari osservò che dall’amido si liberavano gas “acidi”, mentre dal glutine di formavano vapori “alcalini”, e oggi sappiamo che ciò è dovuto ai composti azotati che si formano durante la scomposizione delle proteine del glutine. A titolo di curiosità l’analisi del contenuto di glutine nelle farine si fa ancora oggi impastando la farina con acqua e poi manipolando l’impasto sotto un sottile getto di acqua fino a quando tutto l’amido è stato asportato e resta un residuo elastico e appiccicaticcio, di colore giallo, una procedura che veniva mostrata nelle esercitazioni di merceologia ai miei studenti universitari e che è una variante del metodo di Beccari.

Il glutine è costituito da due principali proteine, la gliadina, costituita dall’unione di circa 100-200 amminoacidi (principale responsabile della celiachia), e la glutenina, costituita dalla combinazione di circa 2.000-20.000 amminoacidi. Proprio il carattere gommoso ed elastico del glutine consente di ottenere, con gli sfarinati di frumento, l’impasto per il pane e per la preparazione delle paste alimentari. Il frumento è l’unico cereale dotato di queste caratteristiche e se non altro bisogna dirgli grazie. Va peraltro detto che, dal punto di vista nutritivo, le proteine del glutine sono povere di lisina, uno degli amminoacidi essenziali (i componenti delle proteine che devono essere apportati con la dieta), e quindi una alimentazione a base di pane e pasta deve essere integrata con altri alimenti contenenti proteine con una migliore composizione di amminoacidi, come quelli di origine animale o delle leguminose.

glutine2

blog.giallozafferano.it

glutine

Pochi numeri stanno ad indicare l’importanza anche economica del frumento. L’Italia produce ogni anno circa tre milioni di tonnellate di pane e prodotti da forno utilizzando circa 8 milioni di tonnellate di frumento tenero, metà di produzione nazionale e metà di importazione. Inoltre produce circa 3,5 milioni di tonnellate all’anno di paste alimentari, per la metà destinate all’esportazione, usando circa 7 milioni di tonnellate di frumento duro, anche questo per circa metà di produzione nazionale e per circa metà di importazione.

A livello mondiale, i 750 milioni di tonnellate di produzione annua di frumento sono ancora insufficienti per sfamare tanta parte della popolazione terrestre.

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Ritrovamenti

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Il senso dello scrivere su un blog che si occupa di chimica, è quello di divulgare la disciplina cercando di farla apprezzare a chi non la conosce, oppure toccare temi che riscuotano interesse per chi invece lavora nel settore sia come insegnante o docente, oppure direttamente in laboratorio o nell’industria.
Alcuni libri di divulgazione chimica sono dei long sellers. Uno fra tanti è per esempio “I bottoni di Napoleone” dove con rigore scientifico e capacità di scrittura viene raccontata la storia di diciassette molecole che hanno cambiato le nostre abitudini, la nostra vita quotidiana e addirittura la storia.

i-bottoni-di-napoleone-come-17-molecole-hanno-L-8_Lasq

Tra le abitudini che ho c’è quella di girare per librerie e bancarelle di libri alla ricerca di qualche libro magari fuori catalogo, oppure interessante per il lavoro che svolgo.
Spesso questa ricerca è infruttuosa, altre volte invece si trovano delle piccole chicche.
Negli anni ho salvato dal macero due volumi, una ristampa anastatica del 1948 del trattato di chimica analitica del Prof Villavecchia. Interessante perché mostra una chimica analitica ormai scomparsa, fatta di tanta manualità ormai sostituita dalla strumentazione moderna. Ma leggendo quei volumi negli anni ho scoperto che alcune tecniche possono essere utilissime ancora oggi, come ho già avuto modo di raccontare.
https://ilblogdellasci.wordpress.com/2016/05/16/ritorno-alla-titolazione/
Oggi molto spesso le librerie chiudono con allarmante frequenza, e trovare libri che interessano assume quasi il significato di un salvataggio. La sensazione di preservare la cultura che oggi sembra quasi dimenticata a favore di argomenti più frivoli come per esempio il gossip.
Soltanto pochi giorni fa la mia attenzione è stata immediatamente attratta da un libro che volevo da tempo e che ho trovato a metà prezzo in una libreria di Varese.
Il libro è “La chimica di tutti i giorni” di Gunter Vollmer e Manfred Franz.

$_12

E’ un libro ormai fuori catalogo quindi averlo trovato è stata una piacevolissima sorpresa. A parte le condizioni ottime del volume (praticamente come nuovo) è importante per me averlo perché è un utile prontuario per conoscere i prodotti che usiamo ogni giorno, ma soprattutto perché la mia curiosità per la chimica nacque proprio da questo. Capire cosa c’era in prodotti comuni come il dentifricio o nei profumi.
Erano le curiosità di quando frequentavo la scuola elementare, e non sempre trovavo chi le potesse soddisfare.
Conoscere è il primo passo da fare per apprezzare. So che questo libro ritrovato mi sarà utilissimo per le molte domande che spesso mi vengono rivolte. Per esempio un collega che voleva sapere cosa contenesse la schiuma da barba che usa per radersi. Immancabile il tema acqua che viene trattato anche in relazioni ai filtri per uso domestico e al loro utilizzo e funzionamento.
Mi fa tornare in mente un episodio ormai lontano nel tempo risalente a circa trent’anni fa.
Una piccola azienda produttrice di lacca per capelli e prodotti per la cura del corpo mi contattò per un colloquio di lavoro. Oggi sembra quasi una cosa impossibile vista la perdurante crisi economica. Ma allora succedeva abbastanza frequentemente. Mi presentai al colloquio con molte speranze pensando mi venisse proposto un lavoro in laboratorio oppure in un reparto produttivo. In realtà scoprii che avrei dovuto fare l’agente di commercio presso i negozi di parrucchiere o le estetiste. A loro il chimico serviva perché utilizzare qualche formula chimica nella presentazione del prodotto, oppure fare digressioni sulla struttura proteinica dei capelli sarebbe stata la chiave di volta per vincere le resistenze dei possibili clienti che si riteneva non avessero alcuna nozione anche basilare di chimica.
Ma non mi sentivo portato per fare il venditore, e  da questo punto di vista mi sembrava di dover fare l’imbonitore, quasi fossi il professor Dulcamara dell’Elisir d’amore di Donizetti. La cosa finì con un nulla di fatto.
Adesso ho a disposizione il mio libro salvato. E anche se molte curiosità sono ormai soddisfatte lo sto leggendo con molto piacere e perché no, anche con un pizzico di nostalgia pensando ai miei primi tentativi di ingresso nel mondo del lavoro.
E mi viene anche in mente che come diceva Primo Levi “Siamo chimici, cioè cacciatori”.
Anche di libri.

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Ecocompatibilità ed ecosostenibilità:il contributo dei metodi chimici innovativi per i Beni Culturali

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex presidente SCI

 

Da ricerche economiche intraprese nel settore dei Beni Culturali risulta che quest’ultimi in Italia producono all’incirca 40 miliardi di Euro l’anno, pari a 2.6% del PIL, mentre in Inghilterra rendono 73 miliardi di Euro. Se si confronta questo dato con il numero di siti dichiarati patrimonio mondiale si apprende che l’Italia occupa il primo posto in classifica con 35 siti, pari a 11.2% del patrimonio mondiale totale contro 18 siti del Regno Unito, pari al 5.8%. Le cause di questa apparente contraddizione vanno ricercate nel degrado e nell’impoverimento economico dei siti culturali per chiusure, perdite o riduzioni, nella mancanza di un’attività programmatica, nella localizzazione preferenziale in città che soffrono dell’inquinamento urbano e anche del ritardato trasferimento di innovazione tecnologica.

Nella discussione ed attuazione di strategie che mirino ad un miglioramento della situazione attuale, il termine “sostenibilità” è ormai frequente. Esso può essere inteso sotto l’aspetto ambientale, igienico-sanitario, economico. Per il settore del restauro e della conservazione quest’ultimo si riferisce all’ottimizzazione dei cicli di manutenzione rispetto al rapporto costi/benefici, dove nei costi sono compresi sia quelli operativi sia quelli legati al degrado del bene e nei benefici le ricadute in termini di visitatori ad un patrimonio in salute e sempre disponibile al pubblico. Per quanto riguarda, invece, la sostenibilità sotto l’aspetto igienico-sanitario è da tenere presente che i restauratori sono figure professionali molto esposte sia a malattie professionali sia a problemi di sicurezza in ambiente di lavoro a causa dei metodi e dei materiali impiegati. L’esteso uso di solventi chimici nel settore (durante la pulitura, ma anche contenuti nei prodotti adoperati per il consolidamento, il fissaggio e la protezione finale) comporta, infatti, rischi per l’operatore che dipendono, tra l’altro, da quanto i composti sono accumulabili e volatili, in quanto l’ingresso nell’organismo avviene attraverso il contatto (più facilmente evitabile) e l’inalazione e il loro accumulo combinato (inevitabile anche se si controlla il livello delle singole esposizioni) può far raggiungere livelli di concentrazione con conseguenze nocive per la salute. La sindrome della Sensibilità Chimica Multipla, di cui sempre più si parla, deriva proprio da una sensibilità a queste involontarie e casuali combinazioni. Mentre ufficialmente questa categoria conta qualche migliaia di lavoratori, in realtà i restauratori operanti in Italia sono di più, molti dilettanti e volontari.

C’è, poi, l’aspetto ambientale: i prodotti utilizzati, con il loro carico di pericolo, sono smaltiti, spesso impropriamente, nell’ambiente circostante con conseguenze molto negative.

pergamena_erosa_rid

Considerando quanto esposto sopra, risulta chiaro che un investimento nell’innovazione del settore può avere delle ricadute importanti per gli aspetti igienici ed economici. L’innovazione può essere di processo, come nel biorestauro, un campo ampio che include la sostituzione di prodotti di sintesi nocivi o tossici con microorganismi antagonisti per il controllo di specie nocive per il materiale dei beni; come nella bioricostruzione, dove il consolidamento di materiale degradato è affidato a specie biologiche capaci di sintesi in situ, come nell’uso di enzimi per l’asportazione selettiva e controllata di materiale estraneo o alterato.

L’innovazione di prodotto riguarda, invece, i prodotti per il restauro, la manutenzione, la proposta di nuovi solventi, tensioattivi, polimeri riparatori e prodotti di vario genere, tutti più duraturi, più economici e, soprattutto, più sicuri e sostenibili di quelli oggi in uso. Infine, c’è un aspetto di innovazione tecnologica che comprende la definizione di nuovi indicatori dello stato di conservazione delle matrici di differente materiale (lapidee, lignee, cartacee), come è avvenuto con l’uso della tecnica NMR di superficie. Il concetto di restauro sostenibile è quindi legato a diversi filoni di ricerca; quelli più affini al settore della chimica mirano generalmente alla proposta di prodotti più sicuri e stabili e meno volatili, aggressivi e bioaccumulabili; auspicabile è una produzione che impieghi solo fonti rinnovabili e processi di sintesi puliti (prodotti secondari di reazione biocompatibili e atossici).

I prodotti per il restauro e la conservazion, per le diverse caratteristiche chimiche e la specificità di alcune operazioni, sono di norma destinati ad una specifica classe di materiali. Tra queste, la classe dei materiali cellulosici e specificatamente quelli cartacei vede da qualche tempo un interesse crescente di ricerca in quanto la carta prodotta dalla seconda metà dell’ottocento in poi mostra problemi conservativi per fattori intrinseci dovuti all’acidità così importanti da mettere a repentaglio un immenso patrimonio librario.

In generale la carta è considerata un materiale di natura eterogenea e talvolta complessa costituita da una matrice fibrosa, non esclusivamente di cellulosa, additivata di collante e anche di altre sostanze quali minerali o sbiancanti ottici. Dal punto di vista chimico il degrado dei materiali cartacei può essere riassunto sinteticamente con reazioni di idrolisi (rottura del legame beta-glicosidico della cellulosa catalizzata in ambiente acido) e di ossidazione, interconnesse tra loro (i terminali ossidrilici vengono trasformati per ossidazione in carbossili) che portano generalmente ad un ingiallimento e ad una diminuzione della resistenza meccanica con conseguenze negative estetiche, culturali (lettura spesso compromessa) e di manualità (fragilità della carta anche al tatto). Attualmente il restauro della carta si avvale di trattamenti per la deacidificazione e per il consolidamento. Quest’ultimo avviene o per laminazione (il foglio da trattare viene incluso tra due fogli consolidanti) o per applicazione di un mezzo consolidante in forma liquida. Tra quest’ultimi è molto diffuso l’uso di soluzioni acquose di esteri di cellulosa, soprattutto di metil-cellulosa, un composto non tossico e molto diffuso nel settore, ma la cui sintesi richiede l’uso di clorometano, un composto cancerogeno. Attualmente la ricerca vede l’impegno di diversi studiosi per identificare sia prodotti sintetici alternativi, efficienti e chimicamente stabili, sia prodotti naturali che offrono opportunità interessanti.

carta1

Un diverso problema nel restauro della carta sono, invece, le macchie. Esse costituiscono in prima istanza un problema esclusivamente estetico che può impedire la lettura del testo (manoscritti, documenti, libri) o la percezione estetica dell’oggetto (dipinti su supporto cartaceo). Tuttavia, talvolta, come nel caso di macchie di ruggine che possono originarsi per l’ossidazione di impurezze nella carta o di attacchi presenti sui fogli, il problema non rimane puramente estetico, in quanto il ferro agisce da catalizzatore nei processi ossidativi della cellulosa. La rimozione o l’attenuazione della macchia è, quindi, consigliata. Metodi di pulitura tradizionali per la rimozione di macchie di ruggine utilizzano reattivi chimici adatti a sequestrare il ferro dalla carta e generalmente si basano su reagenti riducenti, spesso abbinati a complessanti, capaci di ridurre il ferro (III) a ferro (II). Data la crescente attenzione verso la sostenibilità, primariamente da un punto di vista sanitario ed ambientale, i metodi di pulitura alternativi sono attualmente oggetto di diversi lavori di ricerca. Uno anche da noi esplorato è basato sull’elettroforesi, utilizzata in maniera non convenzionale. Comunemente, l’elettroforesi viene usata in ambito chimico e biomedico per la separazione di macromolecole. Quando particelle o molecole cariche, immerse e sospese in un fluido (il cui pH influenza lo stato di carica elettrica), sono sottoposte all’azione di un campo elettrico, l’attrazione elettrostatica verso gli elettrodi provoca il movimento delle particelle/molecole cariche verso gli elettrodi. E’ quindi ragionevole supporre che in condizioni sperimentali adatte si possano spostare le particelle/molecole estranee (macchia) dal materiale di supporto (oggetto) quando tale materiale è immerso in un fluido ed è sottoposto all’azione di un campo elettrico. Esiste poca e contrastante letteratura in questo senso: alcuni testi descrivono reperti sottomarini (ad esempio lignei o in pelle) trattati secondo questo principio per migliorare l’estrazione dei sali, ma anche per attenuare macchie di ruggine [3]; tuttavia, la letteratura menzionata non comprende pubblicazioni scientifiche internazionali. La carta è stata tra i primi e più diffusi supporti utilizzati per applicazioni analitico-chimiche dell’elettroforesi e l’esplorazione dell’applicazione dei principi elettroforetici alla sua pulitura è quindi molto interessante e promettente in alternativa ai tradizionali trattamenti chimici.

 

Riferimenti

[1] L.Campanella, C.Costanza, A.De Lera (2009) “Riparazione di carta invecchiata artificialmente e foto degradata”, comunicazione orale a: AlAr, Convegno nazionale sistemi biologici e beni culturali, 6-7 Ottobre, 2009, Palermo, Italia.

[2] Zhou Zhi-gang, Liu Zhi-li, Liu Xue-xian, “Study on the isolation, Purification and Antioxidation Properties of Polysaccharides from Spirula maxima”, Journal of Integrative Plant Biology, 1997, 39(1), 77-81.

[3] D. Pennec S., Lacoudre N., Montlucon J., “The conservation of Titanic artefacts”, Bulletin of the Australian Institute for Maritime Archeology, 1989, 13(2), 23-26.

[4] T.Hayashi, K.Hayashi, “Calcium Spirulan, an inhibitor of enveloped virus replication, from a blue-green alga, Spirulina platensis”, Journal of Natural Products, 1996, 59, 83-87.

[5] Q.Jiao, Q.Liu “Simple Spectrophotometric method for the estimation of algal polysaccharide concentrations”, Journal of Agricultural and Food Chemistry, 1999, 47, 996-998.

[6] E. Scarpellini, R. Caminiti, L. Campanella, S.H.Plattner, S.Nunziante Cesaro “Innovation in Paper Preservation: Green Chemical Treatments – First Results”, comunicazione di congress su poster a: CMA4CH 2014, 14-17.12.2014, Roma, Italia.

[7] R.Caminiti, L.Campanella, S.Nunziante Cesaro, S.H.Plattner, E.Scarpellini, “ Materiali e metodi innovativi per il restauro sostenibile” in: Atti dei V Convegno Internazionale “Diagnosis for the conservation and valorization of cultural heritage”, 11-12.12.2014, Napoli, Italia, Aracne Editore, ISBN 978-88-548-7855-6, pp.1-10.

[8] R.Caminiti, L.Campanella, S.Nunziante Cesaro, S.H.Plattner, E.Scarpellini, “Effects of innovative green chemical treatments on paper – can they help in preservation?” in: Proceedings of the Green Conservation of Cultural Heritage Congress, 27-28.10.2015, Roma, Italia, International Journal of Conservation Science (in press).

[9] D.G.Suryawanshi, S.K.Bisaria “Removing Metallic Stains from Paper Objects Using Chelating Agents EDTA”, Restaurator, 2008, 26(4), 276-285.

  

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

 

 

Dai quadrati magici alla topologia molecolare. Parte 3. Wiener.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Nella prima parte di questo post abbiamo introdotto i quadrati magici e nella seconda abbiamo riassunto la storia dei rapporti fra algebra e chimica nel XIX secolo

Ma questa storia si è poi profondamente intrecciata e modificata con quella della meccanica quantistica in cui le matrici hanno un ruolo determinante. Non è possibile oggi parlare di chimica senza parlare di matrici, nel senso che il calcolo della chimica teorica è basato su questi oggetti algebrici; tuttavia l’automatismo e la complessità che sono seguiti all’invenzione del computer da tavolo hanno fatto si che molti dei concetti base si perdessero nel linguaggio tecnico, mentre invece è importante, importantissimo mettere l’algebra della chimica nella giusta prospettiva.

Questo processo si è potuto sviluppare solo dopo che la parte più rivoluzionaria della buriana concettuale della MQ è passata. E porta un nome, quello di Harry Wiener (1924-1998).

grafi32Nato a Vienna da una famiglia di cultura ebraica, Wiener fu costretto a fuggire dopo le leggi razziali e l’annessione riparando prima in Austria e poi in Portogallo. Come per altri uomini di cultura ebraica l’approdo finale furono gli USA, nel 1941; si laureò in chimica nel 1945 al Brooklyn College.

Durante il periodo della sua laurea cominciò ad occuparsi di un problema: come correlare i punti di ebollizione degli idrocarburi alla loro struttura molecolare.

La soluzione venne in modo inatteso e lo portò alla concezione del numero di Wiener, di cui parleremo in questo post.

Una mattina decise di studiare qualcosa alla Biblioteca pubblica di New York e, con l’intenzione di iniziare presto si recò in biblioteca alle 8. Ma con notevole disappunto scoprì che la bibioteca apriva alle 10 quel giorno. Piuttosto che tornare a casa si fermò fuori la biblioteca e per passsare il tempo si mise a pensare al problema che aveva in mente.

Con sempre maggiore coinvolgimento Wiener iniziò ad esplorare I possibili modi per poter rappresentare le diverse specie di moolecole di idrocarburo. Dopo un pò di prove Wiener scoprì un modo particolarmente promettente di fare questo. Sommando il numero totale di legami chimici esistenti fra tutte le coppie di atomi della molecola Wiener ottenne un numero che è ora comunemente indicato come numero di Wiener. Capì velocemente che il suo numero poteva effettivamente risolvere il problema perchè riusciva a riflettere in modo affidabile la tendenza dei punti di ebollizione del tipo di alcani considerati. Fu così che in un mattina del 1944 in una strada fuori la Biblioteca Pubblica di New York il numero di Wiener vide la luce.

Dennis H. Rouvray , Harry in the Limelight: The Life and Times of Harry Wiener

(in Topology in Chemistry: Discrete Mathematics of Molecules, D. H. Rouvray and R. B. King, Editors Horwood, 2002)

Cosa aveva scoperto Harry Wiener quella mattina del 1944 seduto fuori la biblioteca pubblica di New York?

Aveva inventato due indici che portano il suo nome: il numero di polarità p e il numero della distanza che è rimasto nella storia proprio come indice di Wiener, due quantità che si possono calcolare considerando le molecole di idrocarburo come grafi privi degli atomi di idrogeno.

Il primo dei parametri che egli chiamò nel 1947 numero di polarità, p, è definito come “the number of pairs of carbon atoms which are separated by three carbon-carbon bonds”, il numero di coppie di atomi separati da tre legami carbonio-carbonio”.

Il secondo dei parametri di Wiener era introdotto come il numero o parametro della distanza o del cammino e definito come: “the sum of the distances between any two carbon atoms in the molecule, in terms of the carbon-carbon bonds” ossia la somma delle distanze fra tutte le coppie di atomi della molecola in termini di legami carbonio-carbonio.

Trascurare gli atomi di idrogeno è una conseguenza del considerare l’essenziale della struttura molecolare e quindi l’area superficiale, la forma e la distribuzione della carica, cose nelle quali il ruolo degli atomi di idrogeno può essere ad un primo livello trascurato.

Prima di Wiener esisteva di fatto un solo approccio e anche parecchio datato per cercare di prevedere le proprietà molecolari in serie omologhe, quello inventato da Kopp attorno al 1840 e che prende il nome di principio di additività,

il quale asserisce che qualunque proprietà di una sostanza chimica può essere determinata semplicemente sommando i contributi a quella proprietà da ciascuno degli atomi componenti nella molecola della sostanza.

(Kopp, H. (1842a). Ueber die Vorausbestimmung einiger physikalischen Eigen- schaften bei mehreren Reihen organischer Verbindungen I. Ann. Chem.41, 79.

Kopp, H. (1842b). Ueber die Vorausbestimmung einiger physikalischen Eigen- schaften bei mehreren Reihen organischer Verbindungen 11. Ann. Chem. 41, 169.)

Facciamo qualche esempio:

grafi33

l’n-butano per esempio ha p=1 in quanto solo la coppia di atomi 1 e 4 dista tre legami.

Inoltre questa molecola possiede 3 coppie a distanza 1 (3×1=3), due coppie a distanza due (2×2=4) e 1 a tre legami (1×3=3); la somma delle distanze è quindi 10 che è l’indice di Wiener, w.

Nel caso della molecola di isobutano

grafi34

abbiamo p=0, ma w=9 essendo la somma di 3 coppie a 1 e 3 coppie a 2 legami.

Infine considerate una molecola più grande, 3-metilpentano

grafi35

p=4 e w=31 e calcolateli da soli per fare esercizio.

A cosa serve questa idea?

Serve essenzialmente a prevedere le proprietà di una molecola di cui si conosca solo la struttura molecolare; nel caso dei punti di ebollizione degli idrocarburi Wiener fu capace nel 1947 di prevederli con una precisione dell’ordine di 0.5°C a partire da una tripletta di parametri che scendevano a due se si teneva conto della differenza fra le molecole lineari e quelle ramificate; questo per idrocarburi fino a 12 atomi di carbonio, un successo notevole!

Le due equazioni sono:

tB = aw +bp + c dove le 3 costanti dipendono dal gruppo di isomeri considerato e

Δt = (98/n2) Δw+5.5Δp

dove n è il numero di atomi di carbonio.

In pochi anni si sarebbero sviluppati centinaia di parametri estremamente sofisticati e sensibili e soprattutto si sarebbe completamente automatizzato il metodo per il loro calcolo, che consente di prevedere parecchi aspetti di molecole non ancora sintetizzate in modo relativamente semplice; questo consente di esplorare il chemical space, uno spazio che contiene miliardi e miliardi di possibili molecole.

In effetti subito dopo il periodo successivo alla scoperta dell’indice di Wiener, alle sue pubblicazioni, che erano probabilmente un pò in anticipo sui tempi, che non ebbero particolare risonanza, Wiener decise di dedicarsi alla medicina e si laureò in medicina nel 1949; diventò un pediatra privato ma la sua professione non era particolarmente remunerativa; fu poi chiamato nell’esercito e partecipò alla guerra di Corea; questo segnò la sua vita, nel senso che spostò i suoi interessi definitivamente verso la medicina. Si dedicò allo studio del ruolo dei componenti olfattivi nel comportamento delle persone (i feromoni) e negli anni successivi allo sviluppo di una teoria sull’origine della schizofrenia, supportando l’idea che ci fossero componenti genetiche e ambientali nello sviluppo di quella malattia.

Dal 1958 fu assunto alla Pfizer, dove divenne responsabile del settore ricerca e sviluppo occupandosi poi per i successivi 37 anni, fino alla morte in pratica di molti dei temi importanti della medicina dell’epoca.

grafi36A partire dai cinque articoli di Wiener e nell’arco di qualche decennio si è sviluppato un intero settore di previsioni basate sugli indici connessi alla struttura il QSAR, Quantitative Structure-Activity Relationships, che forse avete sentito nominare e che ha un numero enorme di applicazioni per esempio nel settore farmaceutico; ne parleremo nel prossimo post.

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Il biorisanamento dei suoli (bioremediation)

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

L’uso di microorganismi come ausilio per il ripristino di situazioni di inquinamento ambientale è una tecnica ormai acquisita nel campo del trattamento delle acque reflue, ma si applica anche in quello del recupero dei suoli contaminati.
I suoli formano una sistema ecologico complesso, nel quale solidi, liquidi, gas, organismi viventi interagiscono tra loro, con l’atmosfera e l’acqua. I suoli hanno tempi di formazioni misurabili in migliaia di anni, ma una scorretta gestione può ridurne la fertilità, causare un inquinamento diffuso e ridurre la biodiversità.
Gli esseri viventi presenti nel suolo sono fondamentali anche per il corretto funzionamento dei cicli biogeochimici.

suolo

Le tecniche di biorisanamento utilizzano le piante ed i microrganismi ad esse associati per rimuovere, trasformare o bioaccumulare sostanze tossiche, compresi idrocarburi , solventi clorurati, pesticidi, percolati di discarica.
Se questi contaminanti sono presenti in quantità elevate è necessario un pretrattamento. Altra condizione necessaria è che i contaminanti da rimuovere siano fisicamente e chimicamente accessibili (biodisponibili).
La frazione biodisponibile è spesso considerata un valore statico, mentre in realtà può variare nel tempo a seconda delle specie chimiche ed al variare di alcuni fattori ambientali, ad esempio il valore di pH.
Il biorisanamento è quindi la tecnica che utilizza batteri, funghi, alghe e piante per eliminare o stabilizzare inquinanti in siti degradati.
L’utilizzo di microrganismi può essere effettuato per la decontaminazione da composti organici, per la valutazione della tossicità quando sono utilizzati anche come biosensori, e la trasformazione o la decomposizione di contaminanti con velocità di reazione elevate.
La detossificazione può avvenire con meccanismi di reazione redox, per precipitazione chimica o volatilizzazione. I microrganismi sono in grado di produrre enzimi ossidativi in grado di mineralizzare composti policiclici aromatici e fenoli.

Nomenc1

La capacità di biodegradare gli idrocarburi per esempio è dovuta alla produzione da parte dei microrganismi di sostanze cha agiscono come surfattanti ionici. Tali sostanze sono riversate all’esterno della cellula, in modo da creare delle emulsioni acqua idrocarburi permeabili rispetto alla parete cellulare. Quando una quantità sufficiente di ossigeno è presente nel suolo i microrganismi aerobi ossidano gli idrocarburi producendo CO2 e H2O. Qui si nota già una differenza rispetto a quanto avviene nel trattamento delle acque, dove gli idrocarburi ricoprendo con una patina superficiale la superficie della vasca di ossidazione impedirebbero gli scambi gassosi e quindi il metabolismo batterico.
Anche nel caso del trattamento del suolo però sono ovviamente necessarie condizioni chimico fisiche adeguate al metabolismo batterico come temperatura, pH, potenziale redox e coefficiente di permeabilità del suolo.
In generale sono più facilmente biodegradabili gli idrocarburi con un numero di atomi di carbonio < 20, mentre si considerano difficilmente biodegradabili o recalcitranti quelli con numero di atomi di carbonio > 20.
Nel caso di bioremediation batterica i microrganismi non costituiscono una soluzione permanente : alla fine è necessaria una rimozione della biomassa contaminata che deve essere smaltita in modo appropriato.
Il secondo filone di questo tipo di tecniche è quello della fitorisanamento (phytoremediation), cioè l’utilizzo di piante particolarmente adatte a crescere su terreni contamiinati. La tecnologia prene origine dal concetto che una pianta si può considerare una pompa ad energia solare (Gabbrielli 1998) capace di estrarre e concentrare particolari sostanze dall’ambiente. I contaminanti possono essere stabilizzati, decomposti direttamente nel suolo, oppure assorbiti dalle radici e traslocati ed immagazzinati negli organi aerei delle piante. Se i contaminanti sono poco al di sopra dei limiti di legge è una tecnica molto appropriata. In caso contrario si devono prevedere più cicli colturali, o in alternativa la messa in sicurezza del sito.
Rispetto alle tecniche di biorisanamento che fanno uso di batteri e prevedono un successivo smaltimento in discarica dei terreni contaminati la riduzione dei volumi smaltiti può essere inferiore di un fattore 10.
I fattori che influenzano il processo di fitorisanamento sono in alcuni casi simili a quelli per il birisanamento (pH del terreno, % di sostanza organica e umidità del suolo.) Altri invece sono specifici (tipo di sistema radicale, tipi di enzimi prodotti dalla pianta).
I tipi di decontaminazione che le piante possono svolgere sono:
Fitoflitrazione: assorbimento di sostanze da parte delle radici o di piante acquatiche che crescono in acque sufficientemente areate. I meccanismi di questa tecnica sono diversi a seconda dei contaminanti. Tra questi troviamo la precipitazione e la deposizione sulla parete cellulare.
Fitostabilizzazione: riduce la biodisponibilità delle sostanze inquinanti attraverso meccanismi quali la modificazione del pH , del contenuto di umidità del suolo, e ancora con la precipitazione di alcuni contaminanti.
Fitovolatilizzazione: il meccanismo si basa sull’estrazione delle sostanze inquinanti dal suolo che le piante riescono a metilare rendendole volatili e disperdendole in atmosfera attraverso l’apparato fogliare.
Fitodegradazione: uso delle piante e dei microrganismi ad esse associati in simbiosi per degradare i contaminanti organici. Le piante possono creare le condizioni ideali per la crescita di funghi e batteri tramite la creazione di zone aerobiche e la produzione di essudati. Questa associazione permette di creare le condizioni ideali per la degradazione biologica degli inquinanti.
Fitoestrazione: consiste nell’uso di di piante iperaccumulatrici in associazione con ammendanti appropriati per trasportare e concentrare principalmente di tipo metallico (nichel, zinco,rame,cromo) nelle parti aeree che sono poi raccolte con metodi agricoli tradizionali. Queste piante possiedono un apparato radicale piuttosto esteso e concentrano grandi quantità di metalli nelle parti aeree. I meccanismi si basano sulla produzione di molecole chelanti tipo le fitochelatine, acidificazione e solubilizzazione.
Fitopompaggio: questa tecnica è affine a quella della fitodepurazione. In questo caso le piante sono utilizzate come pompe in grado di sottrarre i contaminanti dalle acque aspirandone grandi volumi. Una pianta come il salice è in grado coinvolgere nell’evapotraspirazione fino a 200 litri di acqua al gorno,e questo può essere efficace per esempio nel risanamento degli acquiferi.

piante spazzine

Le tecniche di bioremediation con l’utilizzo di batteri o piante sono complementari. I batteri sono generalmente più efficaci nella degradazione di inquinanti organici, ma meno nel trattamento di metalli in particolar modo se presenti nel suolo. Le tecnologie di bonifica che prevedono l’escavazione e la sepoltura sono decisamente molto costose e meno praticabili o addirittura inutilizzabili quando il problema è acuto, oppure è diffuso o su una vasta area. I metalli accumulati nelle piante riducono i costi e i volumi destinati allo smaltimento.
E di questi giorni la notizia di una phytoremediation che si sta attivando nei terreni adiacenti all’Ilva di Taranto. Come sempre il titolo è a sensazione, ma la tecnica sta funzionando.
http://www.lastampa.it/2016/06/03/italia/cronache/sar-la-cannabis-a-salvare-taranto-dal-disastro-ambientale-dellilva-IaaHoarIYdv68RBV6SCOsI/pagina.html
Si utilizza la cannabis sativa, nella quale la quantità di THC (Tetraidrocannabinolo ) e a pari allo 0,2% come previsto dalla legge. A maggior ragione sarebbero da evitare titoli sensazionalistici e fuorvianti, ma tant’è nell’informazione scientifica dei quotidiani o nella banalità dei titolisti.
La riflessione andrebbe fatta sulla ormai ubiqua diffusione di inquinanti ambientali (in negativo), e sulle piccole “fabbriche chimiche” che sono microrganismi e piante (in positivo).

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Mozziconi

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Giorgio Nebbia

Nel febbraio 2016 è entrata in vigore la tanto attesa legge 221 del 2015, che, oltre a numerose indicazioni di azioni relative alla difesa e al miglioramento dell’ambiente, contiene un articolo 40 che stabilisce “E’ vietato l’abbandono di mozziconi dei prodotti da fumo sul suolo, nelle acque e negli scarichi”. Lo stato si è finalmente accorto della pericolosità dei mozziconi di sigarette, rifiuti subdoli, diffusissimi e invadenti.

Cigarette_on_asphalt

Nel mondo si fumano circa seimila miliardi di sigarette all’anno; la felicità dei fumatori viene apparentemente (non lo so di persona perché non ho mai fumato) dal fatto che il tabacco delle sigarette, bruciando lentamente, fa arrivare in bocca e nei polmoni, con una corrente di aria aspirata dall’esterno, varie sostanze chimiche, fra cui la nicotina e molte altre. Dopo qualche tempo, dopo che sono bruciati circa i due terzi o i tre quarti della sigaretta, resta un mozzicone che viene buttato via. In seguito ai continui avvertimenti, da parte dei medici, che il fumo delle sigarette fa entrare nel corpo umano sostanze tossiche e cancerogene, le società produttrici di sigarette hanno cercato di attenuare i relativi danni ponendo, nel fondo delle sigarette, dove vengono posate le labbra, un “filtro” che, come promette il nome, dovrebbe filtrare, trattenere, una parte delle sostanze nocive.

Celluloseacetuar

Quando una sigaretta è stata adeguatamente “consumata”, il filtro, con ancora attaccato un po’ di tabacco, viene buttato via; sembra niente, ma la massa di questi mozziconi è grandissima. Ogni sigaretta pesa un grammo, il mozzicone pesa da 0,2 a 0,4 grammi e il peso di tutti i mozziconi di tutte le sigarette fumate nel mondo ogni anno ammonta a oltre un milione di tonnellate. I mozziconi dei circa 80 milioni di chilogrammi di sigarette fumate in Italia ogni anno hanno un peso di oltre 20 mila tonnellate, poche rispetto ai quasi 35 milioni di tonnellate dei rifiuti solidi urbani, ma moltissime se si pensa al potenziale inquinante di tali mozziconi, dispersi dovunque.

I mozziconi sono costituiti in gran parte dal filtro, un insieme di fibre di acetato di cellulosa disposte in modo da offrire un ostacolo alle sostanze trascinate dal fumo delle sigarette verso la bocca e i polmoni dei fumatori. Se si osserva il filtro di un mozzicone, si vede che ha assunto un colore bruno, dovuto alle sostanze trattenute, principalmente nicotina e un insieme di composti che rientrano nel nome generico di “catrame”: metalli tossici fra cui cadmio, piombo, arsenico e anche il polonio radioattivo che erano originariamente presenti nelle foglie del tabacco, residui di pesticidi usati nella coltivazione tabacco e i pericolosissimi idrocarburi aromatici policiclici, alcuni altamente cancerogeni.

fumo inquinaLa natura e la concentrazione delle sostanze presenti nei mozziconi dipendono dalla tecnologia di fabbricazione delle sigarette che le industrie modificano continuamente per renderle più gradite ai consumatori; la natura di molti additivi e ingredienti è tenuta gelosamente segreta, il che non facilita la conoscenza e la limitazione dell’effetto inquinante dei mozziconi abbandonati. Il disturbo ambientale dei mozziconi delle sigarette viene anche dall’acetato di cellulosa del filtro, una sostanza che nelle acque si decompone soltanto dopo alcuni anni, tanto che alcune società cercano di proporre sigarette con filtri “biodegradabili”, il che farebbe sparire rapidamente alla vista i mozziconi, ma lascerebbe inalterate in circolazione le sostanze tossiche che il filtro contiene.

Proviamo a seguire il cammino di un mozzicone di sigaretta. I mozziconi delle sigarette fumate in casa o nei locali chiusi, in genere finiscono nella spazzatura, ma quelli delle sigarette fumate all’aperto o in automobile finiscono direttamente nelle strade e quindi nell’ambiente. I fumatori più attenti, si fa per dire, all’ecologia hanno cura di schiacciare con il piede il mozzicone buttato per terra, per spegnerlo del tutto ma anche credendo di diminuirne il disturbo ambientale; avviene invece esattamente il contrario: il mozzicone spiaccicato spande tutto intorno per terra le fibre del filtro con il loro carico di sostanze tossiche e il residuo di tabacco che è ancora attaccato al filtro. Alla prima pioggia queste sostanze vengono trascinate nel suolo o per terra e da qui allo scarico delle fogne e da qui in qualche fiume o lago o nel mare. Le fibre del filtro galleggiano e vengono rigettate sulle coste dal moto del mare; a molti lettori sarà capitato di fare il bagno nel mare e di dover spostare fastidiosi mozziconi galleggianti.330px-Cyprinus_carpio_smoking

Nel contatto con l’acqua le sostanze che il filtro contiene si disperdono o si disciolgono e possono venire a contatto con gli organismi acquatici. Si sta sviluppando tutta una biologia e tossicologia delle interazioni fra i componenti dei mozziconi di sigarette e la vita acquatica, specialmente di alghe e altri microrganismi. Rilevanti effetti tossici sono dovuti alla stessa nicotina e non meraviglia perché la nicotina è stata usata come un antiparassitario proprio per la sua tossicità verso molti organismi viventi. La nuova legge raccomanda la diffusione di posacenere, ma anche così i veleni dei mozziconi non scompaiono: i loro effetti tossici continuano anche se finiscono nelle discariche o negli impianti di trattamento dei rifiuti. C’è bisogno di molta ricerca chimica sui mozziconi di sigarette, ma soprattutto c’è bisogno che le persone fumino di meno: ne trarrà vantaggio il loro corpo e il corpo comune di tutti noi, l’ambiente, le acque, il mare.

Juvenile_red_billed_gull_smoking

**********************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

 

“L’Universo è fatto di storie non di atomi”.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Zitto e calcola!” frase attribuita a R. Feynman.

L’atomo sembrerebbe non avere più segreti per noi chimici; tuttavia è certo che comprenderne le proprietà non è banale e soprattutto illustrarle a chi non è chimico appare complesso e spesso tortuoso; in certi casi sembra quasi una “storia” ma nel senso deteriore, una invenzione del tutto incredibile, una velina ministeriale, quasi.

La natura elettrica della materia è un aspetto relativamente facile da accettare, dato che le proprietà elettriche sono facili da sperimentare, anche con carta e penna; chi non ha mai giocato almeno da bambino con una penna strusciata forte sul maglione e capace così di attrarre un pezzetto di carta?

Esperimenti di questo tipo, vecchi di millenni (ηλεκτρον-elektron è il nome greco dell’ambra) hanno aiutato a costruire il modello dell’elettricità positiva e negativa o meglio vitrea e resinosa per usare i nomi proposti qualche secolo fa da Charles François de Cisternay du Fay, sovraintendente dei giardini del Re di Francia (Volume 38 of the Philosophical Transactions of the Royal Society in 1734) segno che nella materia coesistono parti che si attraggono; per cui accettare la natura dell’atomo come composita, fatta di particelle di segno opposto è semplice.

muone1Più complesso capire “come” stanno insieme; da questo punto di vista tutti hanno sentito parlare dell’esperimento con cui Rutheford falsificò il modello a goccia di Thomson; l’esperimento fu condotto da Geiger e Marsden nel 1909 sotto la direzione più o meno informale di Rutheford (si favoleggia che abbiano interagito esclusivamente in corridoio) che interpretò poi i risultati in un lavoro del 1911 che invalidava definitivamente il modello a panettone (plum pudding model)

muone2The Scattering of α and β Particles by Matter and the Structure of the Atom”

Philosophical Magazine, Series 6, vol. 21, 1911, pp. 669–688.

Trovò che all’incirca una particella su 8000 veniva deflessa ad un angolo di oltre 90°.

« Fu l’evento più incredibile mai successomi in vita mia. Era quasi incredibile quanto lo sarebbe stato sparare un proiettile da 15 pollici a un foglio di carta velina e vederlo tornare indietro e colpirti. Pensandoci, ho capito che questa diffusione all’indietro doveva essere il risultato di una sola collisione e quando feci il calcolo vidi che era impossibile ottenere qualcosa di quell’ordine di grandezza a meno di considerare un sistema nel quale la maggior parte della massa dell’atomo fosse concentrata in un nucleo molto piccolo. Fu allora che ebbi l’idea di un atomo con un piccolissimo centro massiccio e carico. »”

citato da David C. Cassidy, Gerald James Holton, Gerald Holton, Floyd James Rutherford, (2002) Understanding Physics Harvard Project Physics Published by Birkhäuser, p. 632

L’idea del sistema solare non venne a Rutheford, ma appena pochi anni dopo a Bohr nel tentativo di spiegare le proprietà dell’atomo.

Di fatto il numero trovato da Rutheford, Geiger e Marsden chiariva che l’atomo di oro le cui dimensioni si stimavano in 1.5×10-10 m (150picometri) era occupato al centro da una zona molto densa e di carica positiva con un raggio che è immediato calcolare in al massimo 9×10-13 m (0.9 picometri o 900 femtometri); ma facendo qualche conto più esatto sulla frazione di particelle deviate e sull’angolo e sulle forze di Coulomb agenti su di esse ed applicando la conservazione dell’energia, Rutheford ridusse il raggio ulteriormente a circa 30 volte di meno, 3×10-14m (30 femtometri).

Negli anni successivi si svolse un dramma collettivo che mandò in soffitta la meccanica classica e tirò fuori dal cappello del mago il coniglio quantistico, un animale così strano che perfino chi partecipò fin dall’inizio alla sua estrazione si rifutava di crederci.

I conigli saltano, il coniglio quantistico fa ben di più.

La conclusione fu la cosiddetta interpretazione di Copenaghen a sua volta spesso riassunta nella frase attribuita a Feynman che reciterebbe:” Zitto e calcola!”.

muone3http://scitation.aip.org/content/aip/magazine/physicstoday/article/57/5/10.1063/1.1768652   Physics Today Could feynman have said this? N. David Mermin

Physics Today 57(5), 10 (2004); doi: 10.1063/1.1768652

La interpretazione di Copenaghen è una delle possibili interpretazioni ed è basata nel modo seguente(da Wikipedia)

Le affermazioni probabilistiche della meccanica quantistica sono irriducibili, nel senso che non riflettono la nostra conoscenza limitata di qualche variabile nascosta. In meccanica quantistica i risultati delle misurazioni di variabili coniugate (ossia quelle che si trovano nelle relazioni di indeterminazione di Heisenberg) sono fondamentalmente non deterministici, ossia che anche conoscendo tutti i dati iniziali è impossibile prevedere il risultato di un singolo esperimento, poiché l’esperimento stesso influenza il risultato.

Sono prive di senso domande come: «Dov’era la particella prima che ne misurassi la posizione?», in quanto la meccanica quantistica studia esclusivamente quantità osservabili, ottenibili mediante processi di misurazione. L’atto della misurazione causa il «collasso della funzione d’onda», nel senso che quest’ultima è costretta dal processo di misurazione ad assumere uno dei valori permessi, secondo una probabilità verificabile solo attraverso più misurazioni.

Quindi il gatto di Schroedinger è “vivo e morto” e non “vivo o morto”, fino a che non apriamo la scatola.

Questo tipo di approccio mi ha sempre lasciato molto freddo e personalmente mi ritengo un supporter del punto di vista di Bohm.

Il senso della questione la abbiamo già discusso in un post precedente , ma lo riassumo qui.

La matematica della MQ, dimostrata oltre ogni ragionevole dubbio da Bell, un irlandese geniale e testata sperimentalmente anch’essa oltre ogni dubbio attuale corrisponde a dire: ci sono tre concetti del senso comune che non potete accettare TUTTI INSIEME, dovete rinunciare ad uno di essi:

  • il principio di realtà: le cose ci sono anche se non le guardo
  • la località, ossia se una cosa avviene qui e adesso non può essere influenzata da ciò che sta avvenendo in questo medesimo istante molto lontano, più lontano di dove un segnale luminoso può giungere in tempo utile
  • il comportamento prevedibile della Natura; non è capriccioso e imprevedibile, ma in realtà lo è, se non in media; tutto può succedere anche se solo in minima percentuale di casi.

Sto semplificando all’eccesso, se avete dubbi leggetevi il post cui ho fatto riferimento prima.

L’interpretazione di Copenaghen rinuncia al principio di realtà; è quello che si definirebbe una interpretazione neopositivista, ossia i fenomeni della MQ che è la scienza di base della materia corrispondono a risultati di esperimenti, non necessariamente a oggetti “materiali” con proprietà intrinseche; in altre parole la Scienza non ci dice come sono fatte le cose del mondo, MA come è fatta la nostra conoscenza delle cose del mondo. Al di fuori dell’esperimento e dei suoi risultati non c’è altro: zitto e calcola!

L’approccio di Bohm è diverso; consiste nel rinunciare alla località, l’atomo è infinito; l’idea parte dall’esperimento di Davisson e Germer, quello della interferenza degli elettroni in una doppia fenditura, che Bohm e de Broglie interpretarono come fenomeno quantistico per il quale ogni tipo di particella è associata a un’onda che ne guida il moto (da cui il termine onda pilota) e che è responsabile del fenomeno di interferenza osservato. Matematicamente tale onda pilota è descritta dalla classica funzione d’onda della meccanica quantistica, corretta da un fattore che rende conto dell’influenza sul moto della particella. L’onda pilota, nel governare il moto della particella, evolve in accordo con l’equazione di Schrödinger. Diversamente dall’interpretazione a molti mondi, l’interpretazione di Bohm non implica che l’universo si separi quando viene effettuata una misura, e diversamente dall’interpretazione di Copenaghen è sia oggettiva che deterministica. Essa afferma che l’universo evolve uniformemente nel tempo, senza collasso delle funzioni d’onda.

muone4Quando usate un programmino come Atom in a box, vi viene mostrata la funzione d’onda in falsi colori con tanto di fase dell’onda ed evoluzione nel tempo; tuttavia è da chiarire che nella visione ortodossa di Bohr una rappresentazione del genere è del tutto fuori luogo. Infatti voi non avete alcuna certezza di cosa avvenga nel vostro sistema se non quando fate una misura su di esso; dunque l’idea implicita in quel programma e in molti altri, che è di fatto l’idea di realtà indipendente, l’ipotesi del realismo, che il vostro sistema esista senza la misura e che evolva in quel modo descritto istante per istante e che se voi faceste una misura in quel momento avreste quel risultato è del tutto ipotetica e probabilistica.

Di fatto il vostro atomo descritto con ricchezza di dettagli esiste solo quando ci fate una misura sopra e la sua descrizione è valida solo nel momento in cui la fate; in quel momento la funzione d’onda collasserà in uno degli stati possibili; dopo aver fatto parecchie misure potrete verificare che la distribuzione di probabilità ottenuta è quella attesa; di più nessuno PUO’ sapere; badate, NESSUNO vuol dire nemmeno il padreterno (per chi ci crede).

Torniamo al punto di partenza; come sono messe le cariche nell’atomo? Di solito si dice che quelle positive sono nel nucleo, tenute insieme in qualche modo, dall’effetto dei neutroni per esempio (falso: in effetti sia i neutroni che i protoni sono soggetti alla cosiddetta forza forte che a breve distanza sovrasta quelle elettriche, ma certo diluire le repulsioni fra protoni è utile) e quelle negative “orbitano” attorno muovendosi non su orbite precise ma nel modo descritto dagli orbitali, che sono delle funzioni matematiche il cui quadrato ci consente di calcolare la densità di probabilità. (Orbitano il piffero! Provate a tenere ferma un’onda! Si, si può fare ma è complicato.)

Ma appunto questo non può essere provato: quelle funzioni possono solo aiutarci a prevedere su base statistica il risultato di specifiche “misure”, interazioni che danno su base statistica un risultato compatibile con la funzione stessa, al momento della misura.

Ma cosa facciano le cariche mentre noi non facciamo misure non possiamo saperlo; anzi non abbiamo nemmeno il diritto di chiederlo: zitti e calcolate!

C’è un verso molto “ficcante” di una quasi sconosciuta poetessa americana, Muriel Rukeyser (1913-1980)

muon10Muriel, è stata una attivista politica, ma anche convinta che non bisogna separare scienza e umanesimo; per questo motivo ha scritto varie autobiografie di scienziati e matematici americani; fra gli altri pensate di J.W. Gibbs, il fondatore della termodinamica. (M. Rukeyser, Willard Gibbs: American Genius, (Woodbridge, CT: Ox Bow Press, 1988 [1942]). ISBN 0-918024-57-9 ) Gli aveva anche dedicato un poema nel 1930 (“Gibbs”, incluso in A Turning Wind, 1939). Ebbene in un poema del 1968 (The speed of darkness)) Muriel ha scritto:

“The Universe is made of stories, not of atoms.”

 volendo sottolineare con questa frase la sua lotta politica contro le armi nucleari e il loro uso, contro la guerra. Ma una riflessione simile potrei farla anche io pensando al perchè ho spinto e sgomitato per fare questo blog: raccontare storie per raccontare gli atomi.

In un certo senso quando noi presentiamo gli atomi, facciamo questo; raccontiamo storie; immaginate quale validità possa avere portare questi astrusi concetti della MQ parlando di orbitali a studenti anche del primo anno di università? Figuriamoci prima! Gli atomi che raccontiamo sono storie, perchè non supportati da una base di matematica sufficientemente ampia e robusta; meglio invece partire dai fatti, dagli esperimenti che giustificano gli atomi e le loro proprietà, gli atomi non come storie, ma come modello che deve nascere dal lavoro sperimentale, dalle ipotesi degli studenti. Se no gli atomi diventano storie nel senso deteriore, raccontini, favole, che però sfigurano rispetto alle vere grandi favole, che so come quelle di Torquato Tasso, ma con l’aggravante che Tasso scriveva meglio di quanto noi si possa mai sperare di raccontare gli atomi.

Ci sono però dei fenomeni molto, molto interessanti che aiutano a gettare luce sulle cose; uno di questi fenomeni che vorrei raccontarvi oggi è l’atomo muonico.

Di cosa si tratta?

L’atomo di idrogeno è l’atomo più semplice, un solo protone attorno a cui “orbita” un solo elettrone; le sue dimensioni sono le più piccole possibili fra tutti gli atomi; nel 1964 Slater pubblicò una serie di valori dei raggi atomici illustrati qui sotto ed ottenuti con i raggi X ; si tratta di raggi atomici misurati allo stato solido.

Il raggio dell’idrogeno solido è circa 25 picometri. In effetti quello stimato modernamente per la molecola di H2 gassosa è di 31 picometri. Questo raggio è circa la metà di quello calcolato per un atomo “libero” da legami nel vuoto. Infatti il cosiddetto raggio di Bohr, calcolato in modo semiclassico ma coincidente con quello che segna il massimo di densità della funzione 1s è dimuone5

ossia 0.53 angstroms

muone6

J.C. Slater J. Chem. Phys. 41, 3199 (1964)

Queste differenze sono comprensibili in quanto sia nella molecola di idrogeno che nel cristallo di idrogeno solido le forze agenti sono tali da costringere lo spazio occupato dalle due particelle che sono attratte da quelle circostanti. E’ un po’ quel che succede quando si confrontano i valori di volume molare di un liquido e del suo covolume (ossia il volume da sottrarre a quello gassoso totale per far tornare valida l’equazione di stato del gas ideale). Se andate a cercare i dati l’acqua liquida a t ambiente ha un volume molare di circa 18 cm3, ma il covolume dell’acqua è di ben 30 cm3. In altre parole i volumi di atomi e molecole non sono fissi, la molecola di acqua gassosa si espande quando le altre molecole non la stringono da vicino! L’idea che si possano trattare come sfere rigide tenute da molle sarà comoda per i conti ma non corrisponde alla realtà; gli atomi e le molecole sono “soffici”, come si conviene a oggetti ondulatori e compressibili, spugnosi.

Torniamo al caso dell’atomo muonico; chi ha letto il nostro post sulla fisica delle particelle elementari ricorderà che nel modello standard gli elettroni fanno parte di un gruppo di 6 particelle denominate leptoni, di cui fanno parte anche altre particelle: i muoni.

muone7Un muone è oltre 200 volte (207 per la precisione) più pesante dell’elettrone, ma è dotato di proprietà analoghe: stessa carica elettrica e stessa capacità di interagire con i fotoni.

Per questo motivo è possibile sostituire un elettrone con un muone; l’unico problema è che il muone è instabile e può degradarsi spontaneamente in altro; tuttavia la sostituzione regge per il tempo necessario a farci qualche “misura” e quindi la MQ considera tale sostituzione una interessante possibilità.

Si ottiene un atomo che contiene un muone al posto di un elettrone e si può fare questo con l’idrogeno ma anche con l’elio o con altri atomi. Le conseguenze sono interessanti e per molti versi inaspettate. Per esempio l’elio muonico si comporta come un idrogeno elettronico, il muone non collabora bene; perchè?

Il raggio di Bohr è una sorta di costante che si ritrova anche nella MQ rigorosa e che può servire a fare la cosiddetta adimensionalizzazione; ossia dividete tutte le distanze per questo valore, una sorta di unità di misura e le soluzioni diventano più semplici ed eleganti. Ma guardate con attenzione:

muone5

adesso a denominatore avete una massa me 207 volte maggiore e quindi il raggio di Bohr dell’idrogeno muonico è 207 volte inferiore: 25/207=0.12 picometri, ossia 120 femtometri, che è poco maggiore della stima di Rutheford per il nucleo di oro (30 femtometri); adesso l’atomo di idrogeno muonico è veramente piccolo, 207 volte più piccolo dell’idrogeno normale, ma ne conserva le proprietà, almeno in parte, se ne può fare spettroscopia, per esempio.

In effetti il nucleo dell’idrogeno è un protone isolato, il cui raggio è stimato attorno a 0.9 femtometri, ossia circa un 1% del raggio di Bohr per l’idrogeno muonico. E qui succede una cosa inaspettata, che succedeva già nell’atomo normale ma era troppo piccola per curarsene.

La funzione d’onda è definita anche “dentro” il volume del nucleo, non solo fuori di esso, le due funzioni d’onda di protone e elettrone o muone coprono medesime zone di spazio fisico; in particolare l’elettrone e il muone sono definiti anche “dentro” il volume del protone centrale; ma succede che quando sono uno “dentro” l’altro la forza di attrazione fra i due è minore. E’ una cosa che succede anche con la gravità e che avete studiato al liceo o al primo anno di fisica: in una ipotetica Terra parzialmente cava ma con la stessa massa, la forza di atttrazione diminuirebbe, in quanto un oggetto sarebbe attratto verso il centro di tutto ciò che è “sotto” di esso, ma anche verso l’esterno da tutto ciò che è “sopra” di esso, dalla massa restante; ed è ciò che accade in questo caso.

muone8Con l’elettrone la percentuale di funzione d’onda interna al protone è troppo piccola per farci caso, ma col muone le cose sono diverse e la spettroscopia dell’idrogeno muonico ne risente; anzi si può ricavare un nuovo raggio del protone dalla spettroscopia dell’idrogeno muonico; e questa spettroscopia, laser molto precisa conduce ad una scoperta inaspettata: il protone è più piccolo di quanto misurato finora e di un bel pò, il 4% (0.84 rispetto a 0.88 femtometri): si tratta del proton radius puzzle, una questione mica da ridere perchè mette in questione a partire dalla chimica muonica nientemeno che sua eccellenza il modello standard. O è sbagliata la spettroscopia dell’idrogeno, conosciuta da oltre un secolo, oppure è sbagliato il modello standard, o quanto meno incompleto, una robetta mica da ridere. Anche il protone è una spugnetta?

Voi che ne dite?

**********************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements