Acesulfame K: un dolcificante per monitorare l’urina nelle piscine

In evidenza

Rinaldo Cervellati

L’acesulfame potassico (ACE K) è un dolcificante di sintesi, oggi largamente impiegato da solo o in associazione con altri edulcoranti, solitamente con l’aspartame. A differenza di quest’ultimo, l’ACE K è resistente al calore e a pH sia acidi che basici, ha un potere dolcificante 200 volte quello della saccarina e uguale a quello dell’aspartame, il che lo rende particolarmente utile in pasticceria, per prodotti ad alta conservazione, come pure nell’industria cosmetica.

Dal punto di vista chimico l’ACE K è il sale di potassio del 6-metil-1,2,3-oxathiazine-4 (3H) -one 2,2-diossido[1]. Si presenta come polvere cristallina bianca, solubile in acqua. La sua struttura è mostrata in figura 1.

A tutt’oggi non sembrano esserci pericoli per la salute nell’impiego di acesulfame K come additivo alimentare, esso è stato approvato sia dall’agenzia statunitense FDA (Food and Drug Administration) sia dall’European Food Safety Authority (EFSA, con codice E950).

La caratteristica interessante di ACE K è che non viene metabolizzato dall’organismo, in altre parole una volta ingerito viene escreto con le urine praticamente intatto. Quindi non solo i tessuti non lo metabolizzano ma neanche la flora batterica presente nel lume dell’apparato digerente, dalla bocca all’intestino.

Questa caratteristica ha motivato un gruppo di ricercatori dell’Università di Alberta (Canada) a utilizzare ACE K come marker per l’urina nelle piscine. La ricerca, recentissima, riportata da c&en newsletter on line del 7 marzo è pubblicata su Environmental Science and Technology Letters

(L. K. Jmaiff BlackstockW. WangS. VemulaB. T. Jaeger, and X. F. Li, Sweetened Swimming Pools and Hot Tubs, Environ. Sci. Technol. Lett.2017, on web March 1, DOI: 10.1021/acs.estlett.7b00043)

L’immissione di urina umana nelle piscine e negli idromassaggi è un problema di sanità pubblica, affermano gli autori, infatti anche se l’urina di per sé è sterile, contiene però molti composti azotati (urea, ammoniaca, aminoacidi, creatinina) che possono reagire con i disinfettanti contenuti nell’acqua. Per esempio reagendo con il cloro queste sostanze formano composti volatili (trialometani, acidi aloacetici, aloammine, e alonitrometani) che possono indurre patologie. L’esposizione a questi composti, ad esempio alla tricloroammina provoca irritazione agli occhi e all’apparato respiratorio fino a indurre una forma di asma[2].

I ricercatori canadesi, guidati dalla Prof. Xing-Fang Li,hanno messo a punto un appropriato metodo analitico per la determinazione di ACE K nell’acqua senza necessità di pre-concentrazione. In breve si tratta di cromatografia liquida ad alta prestazione (HPLC) accoppiata a spettrometria di massa tandem (MS-MS), una tecnica di riframmentazioni successive effettuate su frammenti di ioni già analizzati. Si tratta in pratica di ripetere più volte la frammentazione e l’analisi sugli stessi ioni. Sono stati analizzati 250 campioni da 31 fra piscine e idromassaggi e più di 90 campioni di acqua dai corrispondenti rubinetti di alimentazione, tutta acqua municipale di due città canadesi.

Il monitoraggio è stato effettuato nell’arco di tre settimane e i campioni sono stati tutti analizzati in triplicato.

I risultati sulle due città hanno mostrato che la quantità di ACE K riscontrata nelle piscine e idromassaggi va da 30 ng/L a 7110 ng/L, in confronto all’intervallo 6 – 15 ng/L per l’acqua dei rubinetti. Nel caso delle piscine e vasche riscaldate i valori mostrano una grande variabilità, spiegabile in base ai cicli temporali di cambio dell’acqua, al numero di utenti ed eventi, e alle pratiche di facility management. In genere, nelle piscine si aggiunge acqua dolce solo per mantenerne i livelli, mentre nelle vasche idromassaggio di strutture comunitarie l’acqua viene sostituita frequentemente per evitare problemi di salute associati con il loro più intenso utilizzo.   La variabilità nel caso dell’acqua dei rubinetti è molto minore.

Con opportuni metodi statistici i ricercatori hanno potuto ricavare un valor medio per la quantità di ACE K contenuta nelle strutture delle due città: 156 ng/L per la prima città, 210 ng/L per la seconda, valori di molto superiori a quelli dell’acqua dei rubinetti (6-15 ng/L). A questo punto, in base alla capacità delle piscine, 420000 L per la prima città, 836000 L per la seconda e utilizzando il valor medio della quantità di ACE K contenuta nell’urina umana misurata su campioni provenienti da 20 individui (2360 mg/mL), i ricercatori hanno stabilito che il volume di urina contenuta in una tipica piscina pubblica della prima città è mediamente di 30 L, mentre nella seconda si arriva a 75 litri.

Sebbene sia considerata una grave scorrettezza, il 19% degli adulti ha ammesso di aver urinato in piscina almeno una volta, ma la situazione è più preoccupante come mostrato in una recente indagine:

http://healthypools.org/files/WQHC_swimmer_hygiene_survey_results.pdf

Il metodo analitico di analisi dell’urina nelle acque utilizzato dai ricercatori canadesi presenta ottime caratteristiche: LOD = 0.5 ng/L; LOQ = 2.2 ng/L, oltre a una rapida determinazione del marker acesulfame K.

I risultati riportati in questa ricerca sottolineano la necessità di monitoraggi frequenti dell’acqua di piscine e idromassaggi ma prima di tutto sarebbe necessario un maggiore rispetto delle regole e della salute pubblica da parte degli individui[3].

Per un dettagliato approfondimento della “chimica in piscina”, si rimanda a:

Henry Arnaud, C. The chemical reactions taking place in your swimming pool. Chem. Eng. News 2016, 94, 28−32.

http://cen.acs.org/articles/94/i31/chemical-reactions-taking-place-swimming.html

[1] Acesulfame K è stato sintetizzato casualmente per la prima volta nel 1967 dal chimico tedesco Karl Clauss della allora Hoechst AG Company.

[2] Molti continuano a pensare che episodi di irritazione a occhi e gola siano imputabili al cloro o ad altri disinfettanti che lo contengono, in realtà la causa principale di questi episodi è dovuta a composti prodotti dalla reazione fra urina e cloro.

[3] La ricerca riguarda il Canada, ma è presumibile che in altri Paesi la situazione non sia molto diversa (v. link). Nel 1997 una ricerca tedesca riportò che l’escrezione di urina media per nuotatore è di 70 mL.

L’acqua, un indicatore di sostenibilità.

In evidenza

Luigi Campanella, ex Presidente SCI

Acqua, cultura, pace: un triangolo molto significativo. Pace vuol dire messa in comune di ricchezze e di risorse: il nostro Pianeta è nato senza barriere, senza confini. Le risorse del pianeta appartengono a tutte le Nazioni. Il pianeta Terra non conosce né le Nazioni, né i confini di proprietà degli Uomini. Esso cela, conserva ed elargisce i beni primari perché i Regni di Natura più evoluti ne possano trarre sostentamento.

E’ in questo spirito che l’Umanità deve operare con scambievole collaborazione, utilizzando le materie prime secondo il principio di equità. Fra queste risorse l’acqua è di certo la più necessaria per il nostro corpo: si può sopravvivere alla fame non alla sete.

L’acqua è una risorsa essenziale per la vita dell’uomo.Essa è fondamentale non solo per la sopravvivenza stessa, ma anche per attività quali agricoltura ed industria. Senza di essa non vi può essere sviluppo ed il mantenimento delle risorse idriche è problema molto importante. Le riserve idriche sono infatti soggette ad un deterioramento dovuto a molti fattori, tra i quali gli scarichi industriali, l’utilizzo di pesticidi in agricoltura, l’inquinamento atmosferico, riportato al suolo dalle piogge acide.

La ricchezza d’acqua non sempre significa disponibilità: in un terreno agricolo ad esempio si possono creare a seguito di ripetuti interventi sbagliati da parte dell’uomo delle condizioni assai negative a fini della trasferibilità e del trasporto dell’acqua. Sono stati messi a punto test idonei propri e finalizzati a misurare non la quantità di acqua presente, ma il grado di disponibilità.

Anche l’aspetto energetico sembra oggi cambiare. L’era dell’idrogeno, la nuova forma pulita di accumulo dell’energia ci obbliga a considerare l’acqua anche da questo punto di vista: risorsa preziosa di idrogeno. Se poi gli aspetti economici di bilancio non saranno soddisfatti, questo nulla toglie ad un’ennesima preziosità dell’acqua, essere un abbondante potenziale contenitore di idrogeno. Tra l’altro l’impiego della luce solare (in presenza di un catalizzatore) come energia estrattiva apre ulteriori spazi da percorrere.

Lo stesso ruolo che l’acqua esercita per il nostro corpo, la cultura esercita per la nostra anima e la nostra mente che sono alimentate dalla cultura, intesa in senso formativo e stimolante, conoscitivo e sociale. Traduzioni, religioni, arti di un popolo ne rappresentano la ricchezza comune, ma anche quella di ogni singolo cittadino. Queste risorse, acqua e cultura, contribuiscono alla crescita sociale ed economica, alla qualità, della vita, alla salute dei popoli ma esse stesse, se distribuite in modo iniquo, diventano strumenti di discriminazione, di dominio e di potere. La pace ne risulta compromessa.

A chi vengono tolte acqua e cultura vengono sottratte risorse di vita. Ne risulta un quadro internazionale di paesi troppo ricchi e paesi troppo poveri: allora la globalizzazione che potrebbe in senso positivo essere interpretata come messa a comune di risorse, trasferimento di tecnologie, condivisione di progresso, caduta di barriere diviene invece occasione per discriminazioni, compressioni, prepotenze.

La comunità culturale è certamente più sensibile alle discriminazioni e all’equa ripartizione delle risorse di quanto non lo sia la comunità dell’acqua, intesa come espressione della comunità economica. La pace che da questo viene spesso compromessa può essere salvata da quella: in questo senso convegni, incontri, appelli delle comunità scientifiche e culturali rappresentano preziosi strumenti in difesa della pace, dell’equilibrio sociale,del diritto alla vita ed alle sue indispensabili risorse.

 

Quaestio de aqua. Riflessioni sulla giornata mondiale dell’acqua.

In evidenza

Mauro Icardi.

Mercoledì 22 Marzo 2017 è la giornata mondiale dell’acqua. E di acqua è molto difficile non parlare, per motivi davvero molto evidenti. Lo abbiamo sentito ripetere da almeno due decenni. L’acqua è una risorsa che non è inesauribile come inconsciamente abbiamo sempre pensato. Il tema della corretta gestione e protezione di una risorsa vitale indispensabile, si lega a filo doppio anche ad altri problemi ambientali che ci troviamo a dover affrontare. Uno su tutti quello del riscaldamento globale che impatta notevolmente sul ciclo idrogeologico dell’acqua.
Le risorse disponibili di acqua dolce sono sottoposte a una pressione crescente, ulteriormente aggravata dagli effetti dei cambiamenti climatici. Dagli anni ’80 il tasso dei prelievi di acqua dolce è cresciuto ogni anno dell’1%. Tra il 2011 e il 2050 si prevede che la popolazione mondiale crescerà del 33%, passando da 7 a 9 miliardi di persone, mentre la domanda di beni alimentari crescerà nello stesso periodo del 70%.
Ma contestualmente secondo quanto riportato dal quinto rapporto dell’IPCC (Gruppo intergovernativo sul cambiamento climatico) circa il 7% della popolazione mondiale vedrà ridursi la disponibilità di risorsa idrica del 20% per ogni grado di innalzamento della temperatura globale.
Altri numeri sono indicativi: 750 milioni di persone nel mondo secondo l’Unicef non hanno accesso all’acqua potabile. Noi ci permettiamo di usarla anche per i servizi igienici.

Foto-giornatamondiale-dellacqua

E a proposito di servizi igienici un terzo della popolazione mondiale non vi ha accesso.
Mentre lo scorso anno il tema centrale della giornata era dedicato al legame possibile tra acqua e lavoro, la giornata del 2017 pone l’attenzione ai reflui, alle acque rilasciate dagli impianti di depurazione civili e industriali, che raggiungono i corpi idrici superficiali; gli impianti non sempre sono presenti e talvolta non funzionano efficacemente o sono insufficienti.
Per il futuro ci si propone di raggiungere “l’Obiettivo di Sviluppo Sostenibile n°6” – acqua potabile e servizi igienico-sanitari per tutti entro il 2030 – dimezzando la percentuale di acque reflue non trattate e aumentando il riciclo dell’acqua con un riuso sicuro.
In futuro, la possibile carenza d’acqua richiederà l’impiego di risorse idriche non convenzionali, come ad esempio la raccolta di acqua piovana e il riciclaggio di acque reflue e di deflusso urbano.
Tutto questo richiede ovviamente un grande sforzo. E questo deve avvenire non solo nei paesi meno sviluppati, ma anche in Italia.

Discharge_pipe

Per le inadempienze nell’attuazione della Direttiva l’Italia ha già subito due condanne da parte della Corte di Giustizia Europea, e l’avvio di una nuova procedura di infrazione.
E a questo proposito devo purtroppo constatare che quando si parla di acqua appunto, sembra che tutto si limiti al parlare e basta. E che a parlare siano i soggetti più disparati, ma che troppo spesso i tecnici e gli operatori del servizio siano i meno ascoltati.
Dopo il referendum del 2011 che ha sancito la volontà degli Italiani che l’acqua sia gestita da aziende pubbliche, tutto sembra essersi rallentato. Premesso che ho votato a favore della gestione pubblica dell’acqua, devo però constatare che spesso si sono fatte molte discussioni stancanti ed inutili, di pura lana caprina. Uno dei tabù è quello legato alla tariffa del servizio idrico. Occorre ricordare che le aziende del ciclo idrico non ricevono finanziamenti dalla fiscalità generale, ma solo dalle bollette dell’acqua e dalla tariffazione degli scarichi industriali. Altro tasto dolente è la resistenza che c’è sia da parte della politica locale, che della pubblica opinione che spesso sono contrarie a priori all’aggregazione (prevista per legge) del ciclo idrico a livello di gestione unica provinciale. Per motivi diversi (campanilismo, lotte politiche) ma che di fatto impediscono la creazione di strutture più grandi che possano essere meglio organizzate a livello tecnico ed operativo.

Sedimentprima

Sono situazioni che vivo e seguo da ormai dieci anni. E’ infatti dal 2007 che in provincia di Varese si è iniziato il processo di aggregazione. Ancora non è terminato, si attende una decisione del Consiglio di Stato a seguito di un ricorso presentato da una delle aziende del territorio.
Nel frattempo gli investimenti ormai non più differibili sono ancora fermi.
Sarebbe il caso di fare una riflessione anche su queste tematiche. L’acqua non arriva nelle case se le strutture non sono efficienti, e questo vale per acquedotti e conseguentemente si riflette sui depuratori. Quindi fermo restando che debba essere un bene pubblico e universale non è con atteggiamenti di rigidità, e qualche volta di demagogia che si migliora la situazione. Le multe europee potrebbero costarci 482 milioni di euro l’anno.
Allo stesso tempo però non è accettabile che, come dichiarato dall’allora amministratore delegato di Nestlè Peter Brabeck nel 2005 l’acqua sia “la più importante delle materie prime che abbiamo oggi nel mondo“,
ma anche che “La questione è se dovremmo privatizzare la fornitura dell’acqua comune per la popolazione. E ci sono due opinioni diverse in merito. Un’opinione, che ritengo sia estremistica, è rappresentata dalle ONG, che fanno rumore allo scopo di dichiarare l’acqua un diritto pubblico.

L’acqua deve essere e restare un diritto pubblico universale.

Per farlo nel migliore dei modi dobbiamo tutti imparare a conoscerla, a rispettarla e a non sprecarla inutilmente. Visto che il tema riguarda quest’anno la depurazione voglio citare un piccolo esempio.
Ultimamente a pochi giorni di distanza uno dall’altro, nel territorio della provincia di Varese due sfioratori di piena sono entrati in funzione, sversando liquami nei fiumi Olona e Ticino in periodo di tempo secco. Questo si è verificato a causa del fatto che le pompe di sollevamento dei liquami agli impianti di depurazione sono risultate ostruite da stracci.

sfioratore

Sarebbe bastato buttare quegli stracci nel bidone apposito, e non nel wc per evitare l’inquinamento dei due corsi d’acqua.

Io credo che, almeno nei paesi sviluppati, molte persone considerino l’acqua disponibile in maniera praticamente inesauribile, ritengano che quella potabile debba costare poco se non essere gratuita, e non si preoccupino affatto di quello che è il processo laborioso di depurazione, ogni volta che premono il pulsante di uno sciacquone. E magari sono accaniti consumatori di acqua in bottiglia, ed in questo caso non si preoccupano del fatto che un bene demaniale, un bene universale sia gestito da multinazionali private che, per sfruttare i diritti di captazione delle fonti pagano canoni di fatto irrisori e fanno su questo bene di diritto universale profitti enormi.
Non sono questi gli atteggiamenti che dobbiamo adottare. Dobbiamo pensare che l’acqua è vita. Frase che può sembrare banale, ma che invece non lo è affatto.
Un impegno di tutti a preservarla, un impegno soprattutto di chi come me nell’acqua e nel suo trattamento e gestione ha trovato il suo lavoro quello di fare informazione e di impegnare le proprie risorse e le proprie conoscenze.
Per augurare a tutti buona giornata dell’acqua credo che questo brano de “ Il Piccolo Principe” sia davvero indicato.

pozzo principe

“Buongiorno”, disse il Piccolo Principe.
“Buongiorno”, disse il mercante.
Era un mercante di pillole perfezionate che calmavano la sete. Se ne inghiottiva una alla settimana e non si sentiva più il bisogno di bere.
“Perché vendi questa roba?” disse il Piccolo Principe.
“È una grossa economia di tempo” disse il mercante. “Gli esperti hanno fatto i calcoli. Si risparmiano cinquantatré minuti alla settimana.”
“E cosa se ne fa di questi cinquantatré minuti?”
“Se ne fa ciò che si vuole…”
“Io”, disse il Piccolo Principe, “se avessi cinquantatré minuti da spendere, camminerei adagio adagio verso una fontana…”

Intercalazione e altre storie.2.

In evidenza

Claudio Della Volpe

Nella prima parte di questo post abbiamo introdotto il concetto di intercalazione e discusso di una delle sue applicazioni in elettrochimica, come anche delle ricadute economiche della tecnologia elettrochimica moderna.

Ma perchè parlare di accumulo elettrochimico?

Personalmente ritengo che lo sviluppo del settore accumulo energetico sia fondamentale per la crescita seria delle energie rinnovabili; è pur vero che negli ultimissimi anni quasi il 40% dell’energia elettrica italiana è stata prodotta da rinnovabili, ma di fatto l’energia elettrica è solo una parte dell’energia che consumiamo, circa 300TWh/anno contro quasi 200 Mtoe/anno (oltre 2300TWh equivalenti) di energia primaria; pur considerando che il 60% dell’elettrico è prodotto da fossile, stiamo parlando (se vogliamo abbandonare il paradigma fossile) di almeno altri 1500-1600TWh equivalenti di elettrico da estrarre da qualche altra parte; dunque per passare integralmente alle rinnovabili quanti impianti FV o eolici o idro ci servono? E dato che il loro tempo di funzionamento complessivo annuale è solo del 10-15% (per il solare) e 20-30% (per l’eolico) del totale (tecnicamente si chiama fattore di capacità) quanti impianti nominali dobbiamo avere per usarli quando c’è sole o vento ed accumularne il prodotto per il futuro uso? Risposta approssimata diciamo in media 5 volte in più. Oggi per ogni MW rinnovabile installato occorre usare una guardia equivalente di fossile, questo pochi lo dicono, ma il settore fossile si frega le mani per questo; ma in futuro dovremo farne a meno e come faremo?

La risposta è questa: dovremo avere una quantità di impianti multipla rispetto alla loro potenza nominale e una corrispondente capacità di accumulo.

Il consumo italiano di energia annua primaria totale corrisponde (spalmando banalmente i numeri precedenti in un anno) a circa 200-250GW continui, ossia moltiplicando per il fattore di capacità delle rinnovabili parliamo di circa 1 TW installato e backuppato di energia rinnovabile; avete capito bene 1000GW (oggi sono 120 compreso tutto); e tenete presente che un backup di 1 giorno corrisponderebbe a 5-6TWh. E’ una quantità enorme, che occuperà molto territorio.

Al momento il nostro paese dispone di una ridicola capacità di idroelettrico di pompaggio come segue:Se li usassimo al massimo sono 67GWh, ossia 0.067TWh; ma li sottoutilizziamo perfino come qui mostrato:Quindi 0.067TWh, contro 5-6 al giorno, necessari per il futuro: caspita, ma sono 100 volte di meno del necessario (per ogni giorno di backup)!!!

E allora?

Deve cambiare tutto. Abbiamo molti investimenti da fare, altro che piattaforme petrolifere!

Ovviamente sto trascurando cose fondamentali; parlo del risparmio energetico (risparmio!! non efficienza), parlo di altri metodi di accumulo (si può estendere l’idro? Quanto possono pesare altri metodi fisici o chimici?), parlo per esempio dell’ammodernamento del parco dei principali utilizzatori elettrici, i motori elettrici installati che sono in Italia quasi 100GW totali; pochi aggiornati alle tecnologie moderne: abbiamo già accennato a questo tema che prevede l’uso generalizzato degli inverter e dei motori in grado di usare una frequenza variabile.

La velocità di rotazione del motore è strettamente connessa con la frequenza della tensione con cui lo si alimenta. Nell’inverter la tensione alternata della rete (trifase o monofase) viene raddrizzata in corrente continua e quindi viene riconvertita in corrente alternata trifase a frequenza variabile per alimentare il motore. Una cosa del genere consentirebbe di ridurre i consumi ed esaltare la flessibilità del sistema.

Chiaro che sto approssimando. Ci sarà anche dell’altro (penso all’eolico di alta quota per esempio che teoricamente è immune dal problema discontinuità).

Qualcuno dirà: e l’idrogeno, l’idrogeno dove lo metti? Secondo me l’idrogeno è un metodo molto sopravvalutato; l’efficienza complessiva dell’idrogeno è bassa, molto bassa e dunque la strada dell’drogeno come vettore ed accumulo probabilmente non è così facilmente percorribile; ma non posso parlare di tutto in un solo post, ne riparleremo. A parte che per usare l’idrogeno ci vogliono 9 g di acqua per ogni grammo di idrogeno e non è acqua sporca o di mare. Questo è un costo nascosto e spesso trascurato in un mondo che va incontro ad un enorme cambiamento climatico che sta alterando le precipitazioni.

Tornando all’accumulo elettrochimico; è una strada possibile e ragionevole, ma ci sono da mangiare molte pagnotte; una di queste è capire bene, molto bene l’intercalazione.

L’intercalazione è oggi un argomento di avanguardia nel senso che molte ricerche sulla scienza e la tecnologia delle batterie, nel tentativo di scoprire meccanismi e metodi di accumulo energetico che ci aiutino a risolvere il problema di rendere più affidabili le energie rinnovabili, cercano di usare ed estendere l’intercalazione. Cosa hanno concluso? Continueremo questo discorso in un prossimo post.

La struttura del benzene fra chimica classica e chimica quantistica

In evidenza

Rinaldo Cervellati

 Quando ai chimici capita di avere a che fare con il simbolo stilizzato del benzene, con un cerchio inscritto in un esagono, quasi inevitabilmente il pensiero va agli orbitali molecolari dei sei elettroni p degli atomi di carbonio della molecola. Tuttavia questo simbolo fu introdotto a rappresentare il “sestetto aromatico” nel 1925 dai chimici britannici James W. Armit e Sir Robert Robinson[1] [1], qualche anno prima dell’interpretazione in base al concetto di risonanza di Pauling (1928) e del metodo degli orbitali molecolari di Hückel (1931).

Sir Robert Robinson

Arbit e Robinson scrivono:

il possesso di tali gruppi [elettronici] conferisce stabilità chimica come mostrato, per esempio, da una ridotta insaturazione e dalla tendenza a mantenere il tipo[chimico]. Queste sono, naturalmente, le caratteristiche principali dei sistemi benzenici, e qui la spiegazione è ovviamente che sei elettroni sono in grado di formare un gruppo che resiste alla rottura e possono essere denominati il sestetto aromatico [enfatizzato nell’originale]. Perciò:

Il cerchio nell’anello simboleggia l’opinione che sei elettroni nella molecola di benzene producono una associazione stabile che è responsabile del carattere aromatico della sostanza.[1].

Gli autori non cercano di interpretare il motivo per cui questi sei elettroni conferiscano questa particolare proprietà, essi si muovono nell’ambito della teoria di Lewis e poiché in tale teoria un legame a coppia elettronica condivisa viene rappresentato con un segmento che collega i due atomi contraenti il legame, ritengono opportuno usare un particolare simbolo per il sestetto elettronico responsabile dell’aromaticità. Al momento, scrivono Armit e Robinson, non si richiede alcuna assunzione particolare per quanto riguarda la posizione degli elettroni o delle loro orbite nello spazio.

Riprenderemo più avanti le idee di Robinson in proposito, vale tuttavia la pena ricordare che il cerchio inscritto nell’esagono cominciò a essere largamente usato nei testi e nei lavori di chimica organica solo più di venticinque anni dopo, verso la fine degli anni ’50 − inizio degli anni ’60 del secolo scorso.

L’interpretazione della geometria e della struttura della molecola del benzene fin dalla sua scoperta nel 1825 da parte di Michael Faraday[2] che lo isolò dal residuo oleoso della produzione del gas illuminante[3], chiamandolo bicarburo di idrogeno, è una storia lunga e complicata che qui viene riassunta senza pretesa di completezza. Molti altri composti con le proprietà del benzene furono scoperti in seguito, tanto che nel 1855 il chimico tedesco August Wilhelm von Hofmann (1818 – 1892) usò per essi il termine aromatici[4].

Nel 1834 fu determinata la formula minima del benzene (CH) e qualche tempo dopo la sua formula molecolare, C6H6, la prima molecola conosciuta con un numero uguale di atomi di carbonio e idrogeno. Altri fattori intrigarono i chimici del 1800 nel tentativo di attribuire al benzene una ragionevole struttura molecolare, in particolare il fatto che preferisse di gran lunga le reazioni di sostituzione a quelle di addizione e non rispondesse ai test analitici tipici delle sostanze contenenti doppi o tripli legami.

Fra il 1867 e il 1899 furono proposte diverse possibili formule di struttura, le principali sono riportate in figura 2.

I chimici di oggi, soprattutto i più giovani, possono pensare che si tratti di baggianate prive di alcun fondamento ma le cose non stanno affatto così. Se questi tentativi (che comunque cercavano di accordarsi ai fatti sperimentali) non ci fossero stati, probabilmente la rappresentazione moderna (quella “vera”?) avrebbe richiesto più tempo. Inoltre si è poi scoperto che composti reali corrispondono ad alcune di esse. Ad esempio, il diene biciclico, biciclo[2.2.0]esa-2,5-diene, sintetizzato nel 1962 è anche chiamato diene di Dewar perché ha la stessa struttura di quella che Dewar propose per il benzene. Una molecola con struttura analoga a quella di Lademburg, esiste e si chiama prismano (tetraciclo[2.2.0.02,6.03,5]esano), chiamato anche benzene di Lademburg, sintetizzato nel 1973. Infine, il benzvalene (triciclo[3.1.0.02,6]esa-3-ene), sintetizzato nel 1971, ha una struttura somigliante a quella proposta da Armstrong per il benzene, ed è a partire da esso che si è ottenuto il prismano.

Si può far risalire la prima struttura geometrica in accordo con la reattività del benzene ai lavori di Friedrich August Kekulé von Stradonitz[5] che, basandosi sull’evidenza che tutti gli atomi di carbonio nel benzene sono equivalenti ai fini della sua reattività (un solo derivato monostituito, tre isomeri disostituiti), postulò che gli atomi di carbonio fossero legati tra loro a due a due alternativamente con un singolo e un doppio legame in un anello chiuso a forma esagonale.

F.A. Kekulè

Per spiegare il fatto che questa struttura insatura rispondesse in modo negativo ai saggi di insaturazione, Kekulé avanzò l’ipotesi che i legami doppi e semplici scambiassero la loro posizione lungo l’anello con velocità tanto elevata che le reazioni caratteristiche degli alcheni non potevano avvenire. Le formule di struttura originali di Kekulé sono riportate in figura 4

Guardando la formula di struttura proposta da Thiele[6] nel 1899, si potrebbe pensare che egli abbia preceduto Robinson nel rappresentare un cerchio inscritto in un esagono ma le cose non stanno così. Nella rappresentazione di Thiele il cerchio è tratteggiato e non a caso, egli nel tentativo di giustificare la struttura di Kekulé avanzò l’ipotesi della valenza parziale in relazione ai doppi legami carbonio−carbonio. Il cerchio tratteggiato starebbe quindi a indicare queste “valenze parziali”che poco hanno a che vedere con il sestetto aromatico di Robinson.

L’aneddotica ci racconta che nel 1890 durante un convegno in suo onore per il 25° anniversario della struttura esagonale del benzene, Kekulé raccontò che 25 anni prima si era addormentato davanti al fuoco e nel sonno aveva visto un serpente che si mordeva la coda (l’ouroboro, un antico simbolo di origine egizia rappresentante un serpente o un dragone che si mangia la coda). Lo scienziato si svegliò e per tutta la notte lavorò per risolvere l’enigma della struttura ciclica esagonale del benzene.

Tuttavia la versione italiana di wikipedia (https://it.wikipedia.org/wiki/Friedrich_August_Kekul%C3%A9_von_Stradonitz)

riporta che due biochimici americani, John Wotiz e Susanna Rudofsky, nel 1984, studiando gli archivi di Kekulé conservati all’università di Darmstadt trovarono alcuni riferimenti, rispettivamente del 1854 e del 1858, a un saggio del chimico francese August Laurent (1807-1856), mai più successivamente citato dallo scienziato tedesco. In questo saggio il chimico francese proponeva già per il cloruro di benzoile una formula di struttura esagonale. Sembra quindi che quando Kekulé pubblicò la struttura esagonale del benzene ne avesse idea fin da circa dodici anni prima, ciò che non gli toglie nulla ma ridimensiona un aneddoto circolato per molto tempo.

Nonostante l’enorme importanza che ebbero nello sviluppo della strutturistica organica, le formule di Kekulé non si accordavano con le evidenze sperimentali per cui le lunghezze dei sei legami C−C dell’anello sono tutte uguali cui corrisponde un’energia di legame intermedia fra quella di un singolo e di un doppio legame. Ciò ci riporta al sestetto di Sir Robinson e alle prime interpretazioni quantomeccaniche. Come ricordato all’inizio del post, nella seconda metà degli anni venti e l’inizio anni trenta del secolo scorso nascono e iniziano a svilupparsi parallelamente due teorie con lo scopo di applicare la meccanica quantistica all’interpretazione del legame chimico: la teoria del legame di valenza (VB) e quella dell’orbitale molecolare (MO). Le due teorie si diversificano in quanto la prima si concentra sugli orbitali degli elettroni fra atomi che contraggono il legame, mentre la seconda considera l’insieme degli orbitali elettronici nella molecola. Nella teoria VB ha giocato un ruolo importante il concetto di risonanza, introdotto da Linus Pauling[7] nel 1928, come un modo di descrivere elettroni delocalizzati entro certe molecole o ioni molecolari per i quali il legame non può essere espresso con un’unica struttura di Lewis. Una molecola (o ione) con tali elettroni delocalizzati è rappresentato da più strutture (chiamate anche strutture di risonanza o strutture canoniche) che nel loro insieme contribuirebbero alla struttura della molecola (o dello ione). La struttura del benzene sarebbe quindi un ibrido di risonanza fra le due strutture di Kekulé, schematizzata come in figura 5:

le (principali) strutture canoniche essendo separate dal simbolo della freccia a doppia testa.

Sir Robinson non accettò mai la teoria della risonanza e questo suo istinto era giustificato. Gli argomenti su cui Pauling aveva basato il concetto di risonanza si rivelarono in seguito poco fondati e di natura puramente fenomenologica.

Come sappiamo oggi le due teorie (VB e MO) sono sostanzialmente equivalenti, conducendo in tutti i casi a conclusioni simili. L’unica differenza sta nel formalismo usato e nel concetto di risonanza, rivelatosi, secondo alcuni, fuorviante per i chimici organici, avendo dato luogo a numerosi errori e malintesi. Ad esempio, Hugh Longuet-Higgins[8] ebbe ad affermare che la teoria della risonanza, lungi da essere una benedizione, aveva contribuito poco all’avanzamento della chimica del 20° secolo [2]. George Willard Wheland (1907-1972), allievo di Pauling, estimatore e diffusore della teoria della risonanza però scrisse:

“la risonanza è concetto inventato dall’uomo, in un certo senso più fondamentale della maggior parte delle altre teorie fisiche. Non corrisponde ad alcuna proprietà intrinseca della molecola stessa, ma è solo uno strumento matematico deliberatamente inventato dal fisico o chimico per la propria convenienza.” [3]

Molti pensano che sarebbe opportuno eliminare i termini risonanza ed energia di risonanza, sostituendoli con delocalizzazione ed energia di delocalizzazione.

Un ulteriore episodio contribuì ad alimentare la sfiducia di Sir Robertson verso la chimica quantistica. Lord Todd e J.W. Cornforth, biografi di Robinson, così lo raccontano [2].

Nel 1931 Erich Hückel[9] pubblicò un trattamento teorico (teoria MO) sulle sostituzioni aromatiche elettrofile giungendo alla conclusione che l’effetto di gruppi elettron attrattori doveva essere orto- para direttore, mentre i gruppi elettron repulsori sarebbero stati meta direttori. Conclusioni diametralmente opposte a quelle espresse da Robinson e sostenute da Lapworth, sicché i due scrissero una nota alla rivista Nature affermando che i risultati di Hückel erano in netto contrasto con le evidenze chimiche sperimentali. Hückel replicò, più con compatimento che con rabbia, che le sue conclusioni erano una conseguenza diretta della teoria quantistica, quindi al di là di ogni critica, pertanto dovevano essere i chimici organici a trovare l’errore nei loro esperimenti. Infastidito da questa supponenza Robinson interpellò Edward Milne, famoso matematico e fisico-matematico a Oxford per chiedergli di controllare i calcoli di Huckel. Dopo aver ascoltato attentamente Robinson, Milne rispose: “Se ho ragione, Hückel ha ottenuto tutto esattamente al contrario. In tal caso è ovvio cosa è successo, ha sbagliato un segno”. Tuttavia Milne rifiutò di perdere tempo a cercare uno sbaglio di segno nei calcoli di Hückel. Per quanto lo riguardava, la cosa finiva lì, per Robinson fu anche la fine della chimica quantistica.

(L’errore fu trovato più tardi dal chimico americano George Willard Wheland, però non era così banale come aveva pensato Milne. Hückel fece una serie di assunzioni semplificative non giustificabili o scorrette. Lo sbaglio non riguarda quindi la chimica quantistica, ma il suo uso scorretto da parte di Hückel).

La sfiducia di Sir Robinson nella chimica quantistica durò fino alla fine della sua vita. A questo proposito Lord Todd e J.W. Cornforth affermano:

Il primo trattamento quantistico rappresentò invero un effettivo avanzamento rispetto al concetto originale di Robinson del sestetto elettronico, culminato nei lavori di Lennard-Jones e Coulson[10] dell’inizio anni ’40 ma ci volle diverso tempo per essere fruibile, anche a causa della mancanza di sensibilità chimica da parte di coloro che vi contribuirono. Se Robinson avesse avuto un atteggiamento diverso e si fosse impegnato a fondo nello studio dei metodi quantomeccanici e con la sua profonda conoscenza della chimica organica, probabilmente la chimica organica teorica avrebbe seguito uno sviluppo molto più rapido [2].

Comunque il simbolo dell’esagono con cerchio inscritto non ebbe subito un grande impatto nei testi di chimica organica, lo stesso Robinson non ne fece uso nel suo saggio sulla teoria elettronica dei composti organici 4]. Solo alla fine del 1950 e primi anni 1960 il simbolo finalmente fece la sua comparsa nei testi introduttivi di chimica organica, in particolare nell’edizione 1959 del conosciutissimo testo di Morrison e Boyd, dove fu utilizzato non solo per il benzene, ma anche per naftalene, antracene, fenantrene e altri aromatici policiclici [5, 6]. Ma il dibattito sull’uso del simbolo non è cessato. Ancora nei tardi anni ’90 due autori avevano idee diametralmente opposte: McMurray (1996) rifiuta di usarlo considerandolo ambiguo mentre Solomons (1992) ne fa ampio uso. Questo dibattito prosegue anche sul significato del simbolo. Alcuni vorrebbero restringerlo al sestetto aromatico del benzene, come nell’originale intenzione di Robinson, altri lo ritengono applicabile a tutti i composti che obbediscono alla regola di Huckel[11] per l’aromaticità [6].

Infine, data l’importanza del simbolo per l’anello benzenico gli sono stati assegnati due unicode uno per l’esagono con cerchio inscritto:

http://www.fileformat.info/info/unicode/char/23e3/index.htm

l’altro per l’esagono con i tre doppi legami alternati: http://www.fileformat.info/info/unicode/char/232c/index.htm

Bibliografia

[1] J. W. Amit, R. Robinson, Polynuclear Heterocyclic Aromatic Types. Part II. Some Anhydronium Bases, J. Chem. Soc., 1925, 1604-1618.

[2.] Lord Todd and J. W. Cornforth, Robert Robinson 13 September 1886 – 8 February 1975., Biogr. Mems Fell. R. Soc., 1976, 414-527.

[3] George Willard Wheland, The Theory of Resonance and Its Application to Organic Chemistry, John Wiley & Sons, New York, 1944 (1a Ed.), 1955 (2a Ed.)

[4]R. Robinson, Outline of an Electrochemical (Electronic) Theory of the Course of Organic Reactions, Institute of Chemistry: London, 1932.

[5]R. T. Morrison, R. N. Boyd, Organic Chemistry, Allyn and Bacon: Boston, 1959. Gli autori originariamente utilizzarono linee tratteggiate per il cerchio. Nelle edizioni successive queste furono sostituite da linee continue.

[6] W.B. Jensen, The Circle Symbol for Aromaticity, J. Chem. Educ., 2009, 86, 423-424.

[1] Sir Robert Robinson (1886-1975) chimico organico britannico. Premio Nobel per la Chimica 1947 per i suoi studi sui composti contenuti nelle piante: polifenoli, antociani e alcaloidi. Noto anche per alcune sintesi e per la scoperta della struttura molecolare di morfina e penicillina. A lui si deve l’introduzione delle frecce per indicare gli spostamenti elettronici nei meccanismi della chimica organica. Membro dell’Ordine al Merito del Regno Unito 1949.

[2] Michael Faraday (1791-1867), insigne fisico e chimico inglese noto sopratutto per i suoi contributi fondamentali nell’elettromagnetismo e nell’elettrochimica.

[3] Il gas illuminante (o gas di città), ampiamente usato per l’illuminazione notturna delle città prima dell’energia elettrica, veniva ottenuto per distillazione del carbon fossile (litantrace) e distribuito attraverso un complicato sistema di tubazioni. Tipicamente la miscela gassosa era costituita dal 50% di idrogeno, 35% di metano, 10% di monossido di carbonio e 5% di etilene. In alcune città, ad es. Bologna, nei pressi della Stazione Centrale è ancora in piedi l’enorme struttura cilindrica del gasometro, dove veniva immagazzinato il gas illuminante.

[4] Il termine si riferì inizialmente ai derivati del benzene che hanno in generale un odore gradevole, al contrario dei composti alifatici, successivamente fu esteso a molti composti, ad es. contenuti nelle piante anch’essi di odore gradevole. Va detto comunque che vi sono composti “aromatici” dal cui “aroma” è meglio stare alla larga…

[5] Friedrich August Kekulé von Stradonitz (1829-1896) chimico tedesco pubblicò un primo lavoro sul benzene nel 1865 in francese perché in quell’anno stava insegnando nel Belgio francofono (Kekulé, F.S,Sur la constitution des substances aromatiques., Bulletin de la Societe Chimique de Paris, 1865, 3, 98–110.). L’anno successivo pubblicò un più ampio articolo in tedesco sullo stesso argomento (Untersuchungen über aromatische Verbindungen.,  Liebigs Annalen der Chemie und Pharmacie. 1866, 137, 129–36). Nella seconda metà del XIX secolo Kekulé è stato uno dei più eminenti chimici.

[6] Friedrich Karl Johannes Thiele (1865 – 1918), chimico organico tedesco, mise a punto diversi strumenti per la sintesi organica compreso un apparecchio per la misura del punto di fusione, detto tubo di Thiele. Fra le sintesi che si devono a lui ricordiamo la condensazione di chetoni e aldeidi con ciclopentadiene come strada per ottenere fulveni.

[7] Linus Carl Pauling (1901-1994) americano, chimico, biochimico, educatore, attivista per la pace, Premio Nobel per la chimica 1954 “per le sue ricerche sulla natura del legame chimico e la sua applicazione all’elucidazione della struttura di sostanze complesse”. Oltre che della chimica quantistica è considerato anche fondatore della biologia molecolare. Nel 1962 ottenne anche il Premio Nobel per la pace “per la sua campagna contro i test nucleari”.

[8] Hugh Cristopher Longuet-Higgins (1923-2004), inglese, chimico teorico e cognitivista, ancora prima di ottenere il dottorato propose la struttura corretta per il diborano B2H6 con legame a 2centri-3elettroni fra i due anelli H2B, talvolta detto legame a banana. Fu professore di Fisica teorica a Cambridge, poi cominciò a interessarsi di intelligenza artificiale e nel 1967 si trasferì a Edimburgh dove co-fondò il Dipartimento di Intelligenza delle Macchine. Cambiò ulteriormente interesse, occupandosi di psicologia sperimentale all’università del Sussex.

[9] Erich Armand Arthur Joseph Hückel (1896-1980), chimico e fisico tedesco. Noto principalmente per lo sviluppo della teoria di Debye-Huckel per le soluzioni elettrolitiche e per il metodo di Hückel per il calcolo approssimato degli orbitali molecolari di sistemi π.

[10] Charles Alfred Coulson (1910 –1974) britannico, matematico applicativo e chimico teorico. Considerato un pioniere nell’applicazione della teoria quantistica della valenza a problemi di struttura molecolare, dinamica e reattività. Curioso il fatto che Coulson succedette a Milne come Professore di Matematica a Oxford nel 1952. Fu poi chiamato a ricoprire la cattedra di Chimica teorica, istituita nel 1972.

[11] Secondo questa regola, tra tutti i composti ciclici, quelli aromatici: (a) hanno struttura planare e atomi di carbonio ibridati sp2; (b) hanno un numero di elettroni π delocalizzati su tutto il ciclo, pari a 4n + 2, dove n è un numero intero maggiore o uguale a 0.

 

Ci risiamo….

In evidenza

Mauro Icardi

Dopo che i giornali nel riferire di tristi fatti di cronaca, in particolare di violenza familiare o di genere hanno confuso con allarmante regolarità e frequenza acidi e basi, definendo acido un prodotto come la soda caustica, adesso anche il quiz preserale “L’eredità” mette in mostra alcune disarmanti lacune nella conoscenza chimica di base.

Qui a fare la brutta figura sono i concorrenti, non certo gli autori del programma.
Prima di riferire l’episodio nello specifico vorrei fare un breve preambolo. I quiz sono programmi televisivi che da sempre hanno avuto un gran riscontro da parte del pubblico televisivo. Se il programma a quiz annovera autori di valore, e propone argomenti validi può diventare utile nel suo insieme.
Io personalmente ho un buon ricordo di una certa televisione del passato, ed in particolare di programmi come “Chissà chi lo sa” condotto da Febo Conti.

Pensato per ragazzi che frequentavano la scuola dell’obbligo, in generale faceva riferimento nelle domande a quiz ad argomenti presenti nei programmi scolastici.
Negli anni successivi si è assistito ad una maggior tendenza alla spettacolarizzazione, e meno alla qualità del programma e delle domande poste. La televisione generalista ha perso molto nella qualità generale della sua offerta. La concorrenza delle tv a pagamento e di Internet si è fatta sentire, la rincorsa al sensazionalismo e alle ragioni degli inserzionisti pubblicitari e agli indici di share anche. Il risultato è stato quello di una flessione nella qualità dell’offerta televisiva.
Si sono proposti programmi letteralmente inguardabili. Ricordo con sgomento la “Pupa e il secchione”, “Tamarreide” e buon ultimo a rinverdire la tradizione “Riccanza”.
Io ho di fatto smesso da molti anni di guardare programmi televisivi, ma prima di cenare mi concedo un’ora per guardare programmi come “L’eredità”, oppure nel periodo estivo “Reazione a catena” perché sono costruiti sulla risoluzione di giochi che sono derivati dall’enigmistica.
Durante lo svolgimento della puntata i concorrenti sono chiamati a rispondere anche a domande di cultura generale.
Di strafalcioni e di risposte improbabili ne ho sentite molte. Molti concorrenti faticano a collocare personaggi storici nella loro giusta epoca, anche se si tratta di personaggi del novecento. Memorabile chi ha risposto che Hitler era stato nominato cancelliere tedesco nel 1979.

eredità

Qualche giorno fa su una domanda relativa alla chimica, nella quale ai concorrenti veniva mostrata la formula bruta del saccarosio (C12H22O11) e chiesto a quale composto chimico appartenesse, venivano loro date quattro possibilità di risposta. Una ovviamente era quella esatta e poi tra quelle errate vi era sia l’acido solforico che l’ammoniaca. Inutile dire che la risposta giusta è arrivata dopo che i tre concorrenti precedenti avevano indicato quelle errate.

Onestamente faccio molta fatica a capire come chi sia stato anche solo alla scuola dell’obbligo non abbia mai sentito parlare degli zuccheri, o che non si ricordi almeno a memoria che la desinenza –osio si riferisca ad essi. Oppure non abbia mai sentito parlare di formule elementari come quelle dell’acido solforico o dell’ammoniaca. La sensazione che ho provato è di delusione e sgomento. Bastava aver seguito con un minimo di attenzione le lezioni di quelle che ai miei tempi si chiamavano osservazioni scientifiche durante gli anni della scuola media, per non incorrere in errori così grossolani e banali.

acido solforico
Sono anni che veniamo informati del fatto che in Italia cresce l’analfabetismo di ritorno, che gli Italiani mostrano da sempre una ostinata disaffezione alla lettura ed allo studio.
Episodi come questo ne sono una triste conferma. Spesso però si tende a sminuire la gravità di cose come queste (mi riferisco agli errori grossolani su domande non eccessivamente difficili nei quiz televisivi). Spesso i commenti che sento in altri programmi radiofonici o televisivi tendono a sminuirne la gravità e a mettere in campo elementi quali l’emozione. In generale percepisco quasi una elevazione dell’ignoranza a pregio e simbolo di modernità.
E allora chiudo citando le parole che Isaac Asimov scienziato, oltre che scrittore di conosciutissimi racconti di fantascienza scrisse nel 1980 in un articolo pubblicato su Newsweek.
C’è una specie di culto dell’ignoranza negli Stati Uniti e c’è sempre stato. L’anti-intellettualismo si è insinuato come una traccia costante nella nostra vita politica e culturale, alimentato dal falso concetto che democrazia significhi la mia ignoranza vale quanto la tua conoscenza
Bisogna cercare di invertire questa tendenza senza alcun dubbio o tentennamento.

Briscole, tromboni e trombette.

In evidenza

Claudio Della Volpe

Qualche mese fa abbiamo segnalato su questo blog le posizioni di alcune riviste e di alcuni scienziati sulla elezione di Donald Trump* alla presidenza degli USA; posizioni molto critiche.

In questi giorni abbiamo la conferma di alcuni di quegli effetti e di quelle previsioni, in parte catastrofiche.

La prima è che Trump ha cominciato a revocare la precedente dirigenza e a nominarne una nuova; in particolare ha nominato il nuovo capo dell’EPA: Scott Pruitt.

Nel corso di un’intervista condotta dall’emittente CNBC, Pruitt ha risposto a una precisa domanda sul ruolo della CO2 e in generale dell’attività umana rispetto al riscaldamento climatico

I think that measuring with precision human activity on the climate is something very challenging to do and there’s tremendous disagreement about the degree of impact, so no, I would not agree that it’s a primary contributor to the global warming that we see,” ha detto alla CNBC; “But we don’t know that yet. … We need to continue the debate and continue the review and the analysis.”

Nei fatti non c’è alcuna “mancanza di consenso”, né tantomeno “enorme”. Negli ultimi anni tutte (e sottolineo il tutte) le principali organizzazioni scientifiche hanno concordato che siano le attività umane a contribuire più di ogni altro fenomeno al surriscaldamento del pianeta, attraverso le emissioni di CO2.

La stessa pagina web dell’EPA afferma “Il diossido di carbonio è il principale gas serra che sta contribuendo al recente cambio climatico

Il punto di vista di Pruitt è agli antipodi di quello di NASA e NOAA .

The planet’s average surface temperature has risen about 2.0 degrees Fahrenheit (1.1 degrees Celsius) since the late 19th century, a change driven largely by increased carbon dioxide and other human-made emissions into the atmosphere,” hanno affermato NASA e NOAA nel gennaio 2017.

Il Sen. Brian Schatz, co-presidente della Senate Climate Action Task Force, ha violentemente criticato Pruitt per i suoi commenti definiti “extreme” and “irresponsible.”

Anyone who denies over a century’s worth of established science and basic facts is unqualified to be the administrator of the EPA. Now more than ever, the Senate needs to stand up to Scott Pruitt and his dangerous views,” ha affermato.

Come ci racconta Il Post: Pruitt ha del resto una lunga storia alle spalle di negazionismo del riscaldamento globale. Da procuratore generale dell’Oklahoma, Pruitt fece causa all’EPA per 13 volte contestando i suoi regolamenti per proteggere l’ambiente, ridurre le emissioni e regolamentare lo sversamento di sostanze pericolose nei fiumi. Nel corso degli anni, Pruitt ha inoltre ricevuto numerosi contribuiti e finanziamenti da parte delle aziende petrolifere. Secondo un articolo del New York Times, Scott Pruitt intende portare nell’EPA suoi ex collaboratori e conoscenti che negano il riscaldamento globale.

In passato Pruitt ha anche detto di essere contrario all’accordo di Parigi sul clima, il più importante e incisivo degli ultimi anni, già osteggiato dall’amministrazione Trump. Il nuovo capo dell’EPA vorrebbe inoltre rivedere le regole dell’agenzia che impongono ai produttori di veicoli di costruire motori più efficienti e meno inquinanti.

Già questo basterebbe a far capire che le preoccupazioni che avevo richiamato nel post di qualche mese fa erano ragionevoli. Ma quel che mi preoccupa ancor più sono le conseguenze di questo cambio della guardia americano sul resto del mondo visto il ruolo guida in politica che gli USA hanno sulle classi dirigenti di molti altri paesi.

In Italia abbiamo assistito al seguente episodio che coinvolge il Corriere della Sera, un giornale che sappiamo essere in prima fila nell’attaccare l’interpretazione corretta del global warming; il suo ex-direttore Paolo Mieli non le manda a dire. Ai suoi commenti ha risposto in maniera dettagliata Oca Sapiens, una delle più famose blogger italiane. Ma stavolta Mieli e gli altri giornalisti-ignoralisti (l’autrice dell’articolo in questione si chiama Serena Danna) l’hanno combinata grossa; sentite qua.

Il blog Climalteranti (a cui ogni tanto contribuisco) l’ha definita “L’infortunio della Lettura”. Infatti riguarda il supplemento La lettura publicato settimanalmente dal Corriere.

Ne trovate il testo integrale qui.

Ci racconta Climalteranti:

L’idea della giornalista, Serena Danna, non è affatto nuova: un “dibattito” alla pari fra un negazionista con poche o nulle competenze in climatologia e un esperto di clima. Ne abbiamo visti tanti in passato, anche in televisione. Essendo la quasi totalità dei climatologi certa che la terra si sia surriscaldata, dare spazio a una tesi largamente minoritaria, peraltro sostenuta da un dilettante in materia, è una cosa poco sensata. Come lo sarebbe dare spazio all’odontotecnico che straparla di vaccini. 

William Happer, definito “guida degli scettici del cambiamento climatico”, è una pedina minore del negazionismo climatico. Il termine “scettico” per Happer è scorretto sia dal punto di vista culturale che giornalistico: si tratta di un fisico nucleare senza alcuna pubblicazione sul clima, consulente di petrolieri e produttori di carbone e membro di numerose lobby statunitensi dell’energia da fonti fossili, che si è dichiarato disponibile a scrivere articoli a pagamento (250 $/ora) sui benefici della CO2 (sarebbe utile sapere se Happer ha ricevuto un compenso per questo “confronto”). La sua presentazione nella colonna informativa si conclude con “negli ultimi anni il suo lavoro si è concentrato sui dubbi relativi al riscaldamento globale e ai danni della CO2”, senza precisare che si è trattato di un “lavoro” da opinionista, senza alcuna pubblicazione scientifica a supporto.

Nell’intervista pubblicata da “La Lettura” del 26 febbraio 2017, intitolata “Credetemi, il clima non è surriscaldato”, William Happer ha rispolverato molti dei miti del negazionismo climatico, da tempo confutati dalle evidenze scientifiche disponibili. Come spiegato nel precedente post, nell’articolo dell’inserto culturale del Corriere della Sera (qui il testo) è stato proposto un finto confronto fra il fisico William Happer e il climatologo Mark Cane (raggiunto via mail, Cane ha dichiarato di non essere al corrente della presenza di un interlocutore nell’articolo, com’è raccontato qui). Molte delle affermazioni di Happer non sono state confutate nell’articolo, che ha anzi dato pari dignità, e più spazio e visibilità complessiva, alle sue opinioni rispetto a quelle del climatologo Cane.

Sarebbe difficile confutare punto per punto qui le affermazioni di Happer, per cui vi rimando per una confutazione puntuale delle ridicole posizioni di Happer a questo post a cui ho anche un po’ contribuito.

Ma la cosa grave rimane: uno dei principali giornali italiani ha “costruito” un falso confronto fra le posizioni pro e contro il GW disinformando nel merito i suoi lettori e addirittura tenendo non informato almeno uno dei suoi intervistati di cui ha confuso volutamente il ruolo scientifico : uno esperto di lunga data definito un ambientalista, e un non–esperto lobbista a pagamento per Big Oil, definito come la guida degli scienziati scettici. Non solo.

Leggendo l’articolo del Corrierone-La Lettura si ha l’impressione che i due discutano tra di loro, ma in effetti non sanno nemmeno di farlo, come scritto da Cane (si veda l’ultima parte di questo link); le loro frasi sono semplicemente giustapposte dall’autrice secondo il proprio intendimento e non si capisce se quelle frasi siano risposte a precise domande o meno. E questo spiegherebbe anche perché le frasi citate di Cane a volte appaiano del tutto fuori tema. Ma è questo un modo di fare informazione o disinformazione? Non sembra il massimo della correttezza dott. Fontana(direttore del Corriere), dott. Troiano (direttore de La Lettura), dott. Mieli (attualmente redattore) e dott. Danna (autrice dell’articolo)!

*Il titolo del post viene dal significato della parola inglese trump: briscola; il resto potete immaginarlo da soli.

Link utili:

https://www.desmogblog.com/william-happer

http://ocasapiens-dweb.blogautore.repubblica.it/2017/03/05/californexit/

http://www.climalteranti.it/2017/02/27/linfortunio-de-la-lettura/

Il colore giallo.

In evidenza

Luigi Campanella, ex Presidente SCI.

Colori a base di sostanze minerali sono stati utilizzati sin dalla preistoria: gesso, ocra, nelle varie gradazioni dal rosso chiaro al giallo chiaro; neri ricavati da biossido di manganese o da carbone di legna, sono stati utilizzati per le pitture rupestri del paleolitico superiore, più raramente terre verdi e ossido di manganese marrone, ed eccezionalmente anche violetto di manganese.

A partire dal neolitico si amplia la gamma di minerali utilizzati per la pittura e la ceramica, e si creano vari coloranti a base vegetale o animale per la tintura di tessuti, quali il rosso di robbia, il blu indaco, il blu di guado, il giallo di reseda. Con lo sviluppo della tecnica metallurgica diventano inoltre disponibili nuovi composti metallici, come ossido salino e carbonato basico di piombo, antimoniato di piombo.

Gli Egizi sono stati il primo popolo a dedicare un particolare impegno nella preparazione di colori per la pittura. La “fritta Egizia” o “blu Egizio”, ottenuto per cottura in forno a 800-900o di una precisa miscela di calce, ossido di rame e quarzo, e successiva macinazione, partendo da minerali come calcare, malachite e sabbia, è il più antico pigmento di sintesi. Altro pigmento di sintesi è l’antimoniato di piombo, dal Seicento noto come giallo di Napoli, prodotto come ossido o carbonato di piombo e ossido d’antimonio, ottenuti mediante trasformazioni di minerali.

Alcuni pigmenti prodotti (inventati?) circa 4000-5000 anni fa sono rimasti dei colori fondamentali fino al 1700-1800. Per esempio la biacca rappresenta fino alla fine del 1800 un pigmento fondamentale della pittura.

Unico documento rimasto della pittura greca: La Tomba del Tuffatore a Paestum (480-470 a.C.)

Dell’epoca greca non sono rimasti documenti diretti dell’arte pittorica, ma solo ampie descrizioni (a parte la tomba del tuffatore e i dipinti su vaso).

In epoca romana, soprattutto a partire dall’epoca imperiale era disponibile una gamma sufficientemente ampia di pigmenti. Quelli più apprezzati erano il minio e il cinabro, estratti minerali che mescolati a ocre davano differenti toni di rosso, come quelli delle pareti pompeiane; il blu, il porpora, il verde estratto da una preziosa lega di rame e stagno utilizzata per produrre un bronzo dorato, il crisocalco; il giallo oro, il nero, il bianco, per il quale si utilizzavano almeno tre varianti di creta, distinguendo tra bianco brillante e bianco opaco. Si producevano anche colori splendidi, luminosi e resistenti, a partire da sostanze organiche, come il rosso porpora, che si ricava dalla secrezione di un gasteropodo del genere Murex, e un blu superbo, denominato vitrum, ottenuto dal guado, che si affiancava all’indaco e all’azzurrite, minerale composto di carbonato basico di rame. Anche i pigmenti gialli erano disponibili sin dall’antichità in molte varietà e in genere stabili e resistenti. Tra questi, terre gialle, solfuri come l’orpimento e il realgar, l’antimoniato di piombo e il giallo di reseda, un pigmento vegetale utile sia in tintoria che in pittura.

I pigmenti utilizzati nel Medioevo sono quelli ereditati dall’antichità. Minio e cinabro sono i due colori base del primo Medioevo (basti pensare alle miniature), insieme alla lamina d’oro, ottenuta semplicemente per battitura delle monete. Un importante nuovo pigmento è il blu oltremare prodotto dal blu lapislazzuli, importato dal lontano Afganistan, che si aggiunge all’azzurrite; da questa si sono ottenute diverse tonalità utilizzando differenti gradi di macinazione. I pittori medioevali fecero anche largo uso di sostanze organiche: tinture blu indaco e blu di guado cui aggiunsero il tornasole, oltre alla lacca di chermes, o cremisi, e alla lacca rossa del brasile.

Dal XI al XIV secolo la pratica della pittura passa dai monasteri alla città ed inizia l’attività professionale dei pittori, passando con Giovanni Bellini e con Tiziano, dalla tempera alla pittura a olio. I pittori erano costretti per dare luminosità ad aggiungervi biacca, divenuto segno rivelatore del passaggio dal colore medioevale a quello moderno. Ancora alla fine del Rinascimento i pittori preparavano direttamente nelle loro botteghe i propri pigmenti; così ai materiali di base si aggiungevano tutta una serie di materie come leganti e cariche.

I colori primari per il pittore sono il rosso (rosso-magenta), il blu (il blu-ciano) e il giallo. Ogni popolo in ogni tempo ha attribuito ai colori significati simbolici diversi e i nomi dati alle tinte variano da una cultura all’altra. Come racconta Manlio Brisantin, studioso dei colori, oggi il giallo affascina pittori, musicisti, stilisti, pubblicitari, consumatori, per la sua natura calda, luminosa, positiva. Ma non è sempre stato così. Nel passato il giallo è stato spesso associato a caratteristiche negative: era il colore della menzogna, del tradimento, della malattia, della follia.

Colore primario e perciò base di innumerevoli sfumature di colore, il giallo era uno dei colori prediletti dagli impressionisti, da Matisse e Gauguin, dai Fauves e dai rappresentanti dell’arte astratta come Mirò,che generalmente alla ricerca di colori vivi e contrari in buona parte a miscugli fra colori hanno trovato nel giallo le due caratteristiche cercate, colore caldo e preimario (insieme al rosso ed all’azzurro). Kandinskij nel suo “Lo spirituale è nell’arte” associa il giallo al triangolo, al misticismo e allo spirituale: colore dell’oro, del sole, del grano, del pane fragrante, dell’elevazione.

Orpimento giallo allo stato di minerale

Questo colore così pieno di significati, nasconde altri segreti che riguardano il mistero della sua composizione e produzione sin dall’antichità. Cennini lo definisce colore “artificiato” per poi ribadire, tuttavia, la sua provenienza non alchemica. Con il progredire della scienza moderna, questo colore divenne il centro di un dibattito sempre più appassionato che investì persino la prestigiosissima Acadèmie Royale des Sciences de Paris, dove vi si dedicano ancora oggi incontri enciclopedici, intrecciando la passione per settori culturali della conoscenza naturale all’attenzione per altri più coinvolti negli interessi economici dell’industria,come dimostrato dalle aree di studio più sviluppate nell’accademia,che vanno dalla biologia alla biofisica,dalla metrologia alla geodesia. Giallo di bario, giallo di cadmio, giallo di cobalto, giallo di cromo, giallo di marte, giallo di napoli, giallo di piombo-stagno, giallo di smalto, giallo di spincervino, giallo di stronzio, giallo di titanio, giallo di zinco, giallo indiano, giallo minerale, gomma gutta, lacca gialla, litargirio, massicot, ocra gialla, oro, oro musivo. orpimento, terra di siena naturale, terra d’ombra naturale, zafferano, sono i nomi dei pigmenti gialli più noti.

Nel XX secolo l’uso del colore deve essere messo in relazione soprattutto a Matisse (quello della forma probabilmente a Cezanne): colori basati sulla gioia indotta dalle tinte cobalto,cromo e cadmio della chimica del secolo prima.

Ulivi con cielo giallo e Sole di Vincent Van Gogh. 1889. SI trova in un museo di Minneapolis (USA)

La pittura acrilica, una tecnica nuova pittorica, è nata in epoca relativamente recente. Le prime ricerche ed i primi esperimenticon emulsioni sintetiche iniziarono intorno agli anni ventida parte di pittori messicani come Orozco, Rivera e Siqueiros,la cui esigenza era quella di avere colori con le caratteristiche di praticità come quelli ad olio,duttilità come quelli a tempera, trasparenza come l’acquarello e resistenza agli agenti atmosferici come l’affresco. Le vernici sono prodotte con polveri colorate (pigmenti) mischiate con una resina acrilica (quasi esclusivamente di origine chetonica) di essicazione variabile, generalmente veloce, a seconda delle resine, dei pigmenti e della fabbrica produttrice. Presentano vantaggi e difetti, ma hanno una caratteristica importante:a differenza delle tradizionali tempere, sono indissolubili una volta asciutti.

I colori acrilici sono tranquillamente mescolabili fra loro e come diluente è preferibile semplice acqua, utilizzabile anche per cancellare, prima dell’asciugatura, parti di colore. Alcuni tipi di colori acrilici sono sensibili alla luce che li fa schiarire, tipo i colori rosso-violacei e blu-violacei, perché creati con pigmenti derivati da composti chimici organici fotosensibili, a questo fenomeno si ovvia con una lacca di resina acrilica con filtro UV che protegge tali colori.

Per gli altri colori non c’è bisogno di fissativo perché la resina acrilica che li compone li fa resistere alla luce e agli agenti atmosferici, smog compreso. Si comprende allora l’importanza della scelta dei sistemi di illuminazione focali e generali all’interno dei musei e delle gallerie d’arte,in quanto da essa può dipendere la salvaguardia di opere d’arte pittoriche

Quel nostro ingegnoso collega: Leo Baekeland.

In evidenza

Giorgio Nebbia.

“Sappi che l’avvenire è racchiuso in una sola parola, una sola: plastica”. Nel celebre film “Il laureato”, di Mike Nichols (1967) è questo il consiglio che un amico di famiglia dà al giovane Braddock (Dustin Hoffman), durante la sua festa di laurea, per indicare dove orientare il suo futuro di lavoro.

La frase rifletteva il pensiero corrente nell’età dell’oro della plastica; si può ben dire che il Novecento è stato segnato dai nuovi materiali sintetici che, del resto, sono “nati”, si può dire, proprio agli inizi del secolo scorso, nel 1906.
A quell’anno infatti risale il brevetto americano n. 942.699 depositato da Leo Baekeland (1863-1944), per un nuovo materiale ottenuto dalla combinazione del fenolo con la formaldeide. Quando fece la rivoluzionaria invenzione “della plastica” questo Leo Baekeland era già un personaggio speciale. Nato in Belgio da modesta famiglia, si era laureato in chimica, poi si era trasferito negli Stati Uniti, animato dalla passione per le invenzioni, e per il successo economico.

Leo Baekeland (1863-1944)

Baekeland aveva già inventato una carta fotografica, chiamata Velox, con la quale era possibile sviluppare le fotografie anche alla luce artificiale, una innovazione molto importante perché fino allora le fotografie potevano essere sviluppate soltanto alla luce del Sole; per la produzione di questa carta Velox aveva fondato la società Nepera. George Eastman (1854-1932), altro imprenditore nato povero che aveva fatto una fortuna con l’invenzione della macchina fotografica popolare Kodak, capì l’importanza dell’innovazione e acquistò nel 1899 la Nepera e i brevetti Baekeland per un milione di dollari, una cifra allora favolosa.

Ma intanto altri problemi richiamarono l’attenzione di Baekeland; la fine dell’Ottocento era stata caratterizzata dall’espansione dell’elettricità; le forze del calore e del moto delle acque potevano essere trasformate in elettricità mediante dinamo e l’elettricità poteva azionare le macchine mediante motori elettrici e l’elettricità poteva arrivare dalle dinamo ai motori e agli impianti di illuminazione e nelle città e nelle fabbriche e ai telegrafi mediante fili di rame. Per evitare dispersioni e perdite nelle dinamo e nei motori i fili elettrici erano rivestiti con la gommalacca, una sostanza resinosa che esce dai rami di alcune piante in seguito alla puntura di una cocciniglia, l’insetto Laccifera lacca, che va a deporvi le uova. L’aumento della richiesta aveva reso la gommalacca scarsa e costosa e Baekeland cercò di ottenere un surrogato artificiale.

Qualche anno prima, durante le ricerche per la sintesi dell’indaco, il grande chimico tedesco Adolf von Baeyer (1835-1917) aveva osservato che dalla reazione del fenolo, un liquido derivato dalla distillazione del catrame di carbone, con la formaldeide, un sottoprodotto della distillazione secca del legno, si formava un residuo resinoso e appiccicoso che rappresentava uno scarto inquinante; partendo da questo rifiuto Baekeland studiò a fondo la reazione fra fenolo e formaldeide e osservò che il materiale resinoso risultante era un buon isolante elettrico e rappresentava il surrogato ideale della gommalacca. Si trattava della prima vera macromolecola artificiale e quindi era la prima materia plastica.

La resina fenolo-formaldeide non si rivelò soltanto adatta come vernice e isolante elettrico. Nel 1907 si scoprì che, miscelando la resina con farina fossile, si otteneva una materia solida, stampabile a caldo, che fu chiamata bachelite e che ebbe un grande successo per oggetti domestici, telefoni, apparecchiature elettriche, eccetera. Baekeland creò la società “Bakelite” per la fabbricazione e commercializzazione delle resine fenolo-formaldeide (la società fu venduta successivamente al gigante chimico Union Carbide).

Gli anni successivi videro molti altri successi della materia scoperta da Baekeland; mentre cercavano dei surrogati per la mica, il minerale usato come isolante elettrico in sottili fogli, alcuni scoprirono che una materia adatta allo stesso scopo, che fu chiamata “For-mica” (al posto della mica) si otteneva miscelando resine fenolo-formaldeide con segatura o polvere di legno; da questa scoperta derivarono i laminati plastici denominati “formica” ancora oggi usati, partendo da resine diverse.

Leo Baekeland, che era stato, oltre che scienziato e inventore, un fortunato e abile imprenditore, morì nel 1944 nella sua villa vicino New York.

Ormai si parla di resine fenoliche per indicare molte materie plastiche sintetiche termoindurenti ottenute facendo reagire con formaldeide o con altre aldeidi, il fenolo e i cresoli, con addizione di vari materiali di carica. Benché non siano fra le più diffuse materie plastiche commerciali, sono usate ancora per molti oggetti di uso comune e addirittura alcuni stilisti ne stanno riscoprendo alcune virtù estetiche.

Ho voluto raccontare questa storia perché offre l’occasione di alcune considerazioni; molte invenzioni sono nate alla ricerca di surrogati di materiali diventati scarsi e costosi; molte invenzioni sono nate osservando le proprietà di cose buttate via, rifiutate; molti inventori erano nati poveri e sono diventati persone di successo perché tenevano gli occhi aperti sul mondo circostante. Pasteur disse una volta che il caso aiuta la mente preparata.

Che cosa potremmo fare per aiutare tanti giovani, scoraggiati e disoccupati, ad aprire gli occhi su un mondo che è ancora pieno di cose da scoprire, di scarti da trasformare in oggetti utili, e in occasioni di lavoro e di benessere anche personale ?

 

Intercalazione e altre storie. 1.

In evidenza

Claudio Della Volpe.

Dato che il nostro blog vuole occuparsi soprattutto di chimica dell’antropocene dobbiamo in qualche modo fare spazio a quei concetti di chimica, una volta considerati avanzati, ma che oggi costituiscono la base di molte delle applicazioni antropoceniche della chimica. L’intercalazione è uno di questi. Nel discuterne l’aspetto scientifico e tecnico troveremo, quasi naturalmente, i motivi per cui chimica e società ci appaiono così strettamente connesse.

Una delle parole entrate più di recente (si fa per dire eravamo comunque negli anni 60 del secolo scorso) nel linguaggio dei chimici è : intercalazione.

La inventò Lerman, un biologo USA. analizzando il caso delle acridine, molecole aromatiche, che interagivano col DNA intercalandosi fra le basi del DNA, distorcendole dunque inducendo effetti mutageni; oggi trovate il termine nel linguaggio ufficiale della chimica: http://goldbook.iupac.org/I03077.html.

intercalaz1Tuttavia intercalazione è anche quella che dà luogo a composti veramente curiosi, come per esempio il potassio metallico che si intercala fra gli strati della grafite formando un composto dalla formula KC8 o il litio, che in analoghe circostanze forma un LiC6. Ioni diversi possono co-intercalare con effetti reciproci che possono essere anche molto interessanti.

intercalaz2L’intercalazione si può immaginare come una interazione mediata da un legame “a trasferimento di carica”, una parziale donazione di carica fra gli orbitali di frontiera degli atomi coinvolti, dall’HOMO di uno al LUMO di un’altro.

Questi composti sono alla base di molte moderne applicazioni elettrochimiche, come per esempio le batterie al litio ricaricabili.

Nelle batterie al litio lo ione litio viene sostanzialmente pompato contro il suo gradiente di potenziale elettrochimico da un ambiente ad un altro in fase di carica. In particolare il litio può essere spostato dalla cobaltite (un ossido misto di litio e cobalto) verso la grafite durante la fase di carica e tornare verso la cobaltite nella fase di scarica. Lo ione viaggia attraverso la soluzione elettrolitica mentre gli elettroni, come in ogni processo elettrochimico, viaggiano attraverso il circuito esterno; dunque il litio si libera dell’elettrone, si “ossida” sull’elettrodo di grafite e si “riduce” sull’elettrodo di cobaltite, come si può vedere in figura:

intercalaz3Ma se il litio si “ossida” e si “riduce” sui due lati rimanendo però sempre nella sostanza uno ione positivo, quale è il motore del processo? Nelle comuni batterie gli ioni coinvolti sono quelli che si ossidano e si riducono, qui sembra di no. Come riconciliare questa descrizione con le conoscenze comuni di elettrochimica?

Possiamo visualizzare il processo in due modi diversi; in uno meno formale il litio abita i due contesti dei due elettrodi e si sposta fra due potenziali (elettro)chimici diversi; una stessa specie in entrambi gli elettrodi. E il processo non dipende dal suo stato di ossidoriduzione, che rimane il medesimo, ma dal potenziale chimico dei due sistemi, più basso nella cobaltite, più alto nella grafite.

In modo più formale possiamo attribuire al contesto, al resto degli atomi, non al litio, la variazione dello stato di ossidazione: nel contesto della grafite il carbonio acquisisce una carica formale -1/6, oscillando fra 0 e -1/6, mentre nella cobaltite, un’ossido misto CoLiO2, il cobalto oscilla fra due stati +3 in presenza del litio intercalato e +4 in sua assenza, con l’avvertenza che la deplezione di litio dall’elettrodo non può superare il 50% per rimanere un processo reversibile, con tutte le variazioni di volume e di densità che comportano un notevole comportamento a fatica che a lungo andare distruggerà comunque entrambi gli elettrodi.

Come in molte altre batterie ricaricabili (quelle basate su elettrodi allo stato solido) occorre che non tutto il reagente che mettiamo in gioco reagisca se vogliamo che il processo possa essere effettivamente invertito. Solo le batterie con reagenti allo stato liquido e in cui la parte solida funga solo da catalizzatore, possono sfuggire a questa regola e non portare quote morte di reagente (per esempio le batterie al vanadio meglio conosciute come batterie in flusso, flow batteries).

In questo modo possiamo anche interpretare correttamente come anodo la grafite, poichè in fase di scarica il carbonio nell’anodo si ossida da -1/6 a 0, inviando elettroni, mentre il cobalto si riduce da +4 a +3 accettando tali cariche al catodo. Viceversa in fase di carica.

E’ da notare che in condizioni tipiche il rapporto fra atomi intercalati e strati di grafite è tipico di composti non-stechiometrici, ossia che non seguono le leggi usuali di combinazione della chimica, poichè solo alcuni strati o alcune porzioni sono interessati all’intercalazione.

In definitiva l’intercalazione ha espanso l’insieme dei numeri di ossidazione del carbonio (e di altri atomi) a valori frazionari, che raramente sono considerati nelle presentazioni basiche di questo concetto.

Questo meccanismo di funzionamento delle batterie al litio (almeno di alcune) chiarisce due ordini di cose; da una parte a differenza delle tradizionali batterie non esiste un solo potenziale tipico di queste batterie, perchè in effetti ogni coppia di elettrodi fa storia a se e corrisponde ad un salto di energia differente.

Ma non solo; questo spiega l’interesse tecnologico ed economico per le altre specie chimiche coinvolte in questi materiali. Sui giornali degli ultimi giorni qualcuno avrà notato degli articoli che raccontavano la storia del rastrellamento del cobalto sul mercato mondiale.

Gli elettrodi di cobaltite, composto ormai di sintesi perchè non ne esiste più di naturale, sono quelli che in coppia con la grafite producono la più alta differenza di potenziale, ma sono anche quelli che più facilmente danno luogo a problemi di surriscaldamento in fase di ricarica (un fenomeno che va sotto il nome di effetto runaway). Tuttavia il cobalto costituisce comunque un componente importante delle moderne batterie al litio; proprio per questo si pensa che il raddoppio del prezzo del cobalto negli ultimi mesi sia la conseguenza di un rastrellamento del prodotto sul mercato mondiale da parte di pochi operatori che intendono controllare il mercato dell’energia in questo modo.

La Repubblica Democratica del Congo produce quasi la metà del cobalto a livello mondiale. Il cobalto lavorato viene venduto a tre aziende che producono batterie per smart phone e automobili in Cina e in Corea del Sud. Queste ultime riforniscono le aziende che vendono prodotti elettronici e automobili in Europa e in America.

Il cobalto è estratto dai residui di lavorazione di altri metalli e le formazioni più ricche sono in Congo.

Insieme con i prezzi del litio anche il cobalto e la grafite stanno andando alle stelle e sono al centro della speculazione finanziaria.

In un mondo che ha sempre più fame di energia e risorse, il controllo sociale di queste risorse diventa sempe più necessario. Quando qualcuno si lamenta dei flussi crescenti di migranti di colore dall’Africa si dovrebbe ricordargli che per dare a lui un telefonino di ultima generazione si sta sacchegiando la terra d’Africa (oltre il cobalto anche il tantalio, il coltan viene dallAfrica) e le guerre e le migrazioni sono indotte anche da questo furto di ricchezza ai danni delle giovani generazioni di quei paesi. C’è un costo sociale dell’energia, che paghiamo in questo modo, che la grande speculazione ripartisce sui consumatori specie europei e sui giovani africani, costretti dalle guerre e dalla distruzione dell’ambiente, oltre che dal cambiamento climatico e dalla povertà, a lasciare la loro terra.

 

Inquinanti organici e loro effetti negli impianti di depurazione.

In evidenza

Mauro Icardi.

L’interesse per i microinquinanti organici, in particolare per gli effetti che essi possono esercitare sull’ambiente è al centro di ricerche, convegni e studi non solo nella comunità scientifica, ma anche tra gli addetti alla gestione operativa degli impianti di depurazione e di potabilizzazione. Molti di questi composti organici sono di origine sintetica, possono avere proprietà mutagene, carcinogene o teratogene anche a livelli di concentrazione molto bassi (ppb-ppt, ossia parti per miliardo, 10-9

o parti per biliardo,10-12).
Generalmente questo tipo di sostanze costituisce una parte abbastanza limitata del contenuto organico totale di uno scarico (circa 1%-2%) e conseguentemente i saggi di routine aspecifici come COD, TOC, BOD risultano poco significativi per il controllo della loro efficienza di rimozione, in special modo per impianti di depurazione biologica meno recenti e non dotati di un trattamento terziario delle acque depurate prima dello scarico nel corpo idrico finale (filtrazione su sabbia o su carboni attivi, oppure ossidazione con lampade UV.)
Per quanto riguarda l’origine dei microinquinanti di questo tipo essi possono provenire sia dalla rete fognaria, sia dal dilavamento di suoli sia da precipitazioni atmosferiche. Anche i processi di clorazione finale delle acque trattate o il condizionamento del fango tramite polielettroliti organici possono rappresentare fonti puntuali di sostanze organiche inquinanti.

depuratore

Dal punto di vista della loro determinazione analitica la fase importante è quella del loro isolamento e concentrazione ancor prima della loro determinazione strumentale. Le tecniche solitamente sono quelle di concentrazione tramite evaporatore rotante o colonnine di preconcentrazione.
Per quanto riguarda le concentrazioni presumibilmente riscontrabili, mentre gli inquinanti organici che arrivano attraverso la rete fognaria di solito raggiungono concentrazioni più elevate (mg/lt per i tensioattivi per esempio) microgrammi/litro per solventi, quelli che affluiscono all’impianto di depurazione per percolazione o per dilavamento atmosferico (fonti diffuse) hanno normalmente valori di concentrazione più bassi (microgrammi/litro o picogrammi litro).
Per quanto riguarda i principali processi di rimozione in un impianto di trattamento di acque di rifiuto si distinguono quattro principali tipi di di processi.
Adsorbimento sul fango: questo processo dipende dalla concentrazione del fango biologico misurata come carbonio organico e dalla lipofilicità del composto organico. Per quest’ultimo parametro può essere utile utilizzare il coefficiente di ripartizione ottanolo/acqua (Kow) dalla solubilità in acqua.
In passato diversi studi hanno mostrato che la rimozione di composti organici per adsorbimento diventa significativa per valori di log Kow > 4
Altro fenomeno che può intervenire nella degradazione è quello di stripping. Questo effetto risulta lievemente maggiore in impianti con areatori superficiali (turbine) . L’esperienza e studi di laboratorio hanno mostrato che composti con punti di ebollizione inferiori a 150 ° C riescono in qualche misura ad essere volatilizzati con questo tipo di meccanismo durante un normale processo di trattamento biologico a fanghi attivi.
Degradazioni di tipo chimico possono avvenire principalmente per idrolisi. L’effetto di degradazione fotochimica è invece assai poco rilevante. Questo a causa della bassa efficienza di trasmissione della luce sia nell’acqua inquinata che nella stessa vasca biologica di trattamento, che sono di per sé anche dal punto di vista analitico matrici piuttosto complesse.
Il meccanismo principale di funzionamento di un depuratore biologico a fanghi attivi è però la degradazione biologica. In questo caso la previsione e la standardizzazione del comportamento di questi inquinanti è maggiormente variabile. Influiscono non solo le caratteristiche chimico fisiche degli inquinanti, ma anche i periodi di acclimatamento della biomassa, gli eventuali effetti di accumulo. Le biodegradbilità sono quindi variabili. Da composti che mostrano spiccata attitudine alla biodegradabilità, ad altri che invece risultano invece refrattari nonostante lunghi periodi di acclimatazione della biomassa.
Un terzo tipo di composti mostra biodegradabilità fortemente variabili ed influenzate non solo dalla sorgente di inoculo batterico, ma anche dalle caratteristiche di gestione e di modalità di operazione gestionali dell’impianto. Questa caratteristica rimane di fatto costante dalla modalità di prove in scala di laboratorio, di impianto pilota, fino all’impianto reale.
Negli anni passati su un inquinante non particolarmente critico e presente normalmente nelle acque di scarico come l’alchilbenzensolfonato lineare (LAS) che non è particolarmente refrattario si è visto sia nelle prove di laboratorio, e in seguito applicando i risultati di queste ultime nella gestione ordinaria dell’impianto si potevano ottenere abbattimenti dell’ordine del 75-80% rispetto alla concentrazione del LAS nelle acque in ingresso all’impianto.

abs

La rimozione per adsorbimento su fango riusciva mediamente ad abbattere il 20% del LAS, e la restante quantità tramite degradazione batterico-enzimatica. La degradazione del LAS non risultava influenzata dal carico organico (inteso come valori di COD e BOD) ed era sufficiente un tempo di ritenzione in vasca di ossidazione che non scendesse al di sotto dei tre giorni. Anche il frequente ricambio della biomassa in vasca di ossidazione con una regolazione mirata dello spurgo fanghi manteneva costante l’abbattimento.
Oggi la situazione si presenta decisamente più complessa. In particolar modo per la presenza piuttosto rilevante di metaboliti di farmaci, di moltissimi composti di sintesi e delle loro miscele nelle acque di rifiuto da destinare al trattamento
Occorre quindi una sinergia globale tra enti preposti al controllo, gestori ed autorità d’ambito. La perizia dei gestori di impianti, il gran lavoro di ricerca a livello universitario e degli stessi gestori deve essere adeguatamente supportato da investimenti importanti e da una trasformazione del sistema della gestione della risorsa idrica. Altrimenti ogni sforzo sarà di fatto inutile. Fermo restando il concetto (rimarcato recentemente anche da Papa Francesco) sulla necessità assodata di considerare l’acqua e la sua disponibilità in quantità adeguate e di qualità come un bene primario ed un diritto essenziale per gli esseri umani e per la loro sopravvivenza sul pianeta.

– B Hultmann, Removal of specific pollutants in biological waste water treatment
Water pollution Research Report n° 6 ,EUR 11356 Brussel 1988
-P.L MC Carty and M Reinhard, Statistical evaluation of trace organics removal by advance waste water treatment
P.V. Roberts, Volatilization of organic pollutants waste water treatment _ Model studies. Draft Final Report EPA-R -806631, Cincinnati Ohio, 1982

L’elio forma molecole stabili ad alte pressioni

In evidenza

Rinaldo Cervellati

Gli autori di libri di testo di chimica potrebbero presto dover riscrivere i capitoli sui gas nobili e l’inerzia chimica, commenta Mitch Jacoby nel riportare, per c&en newsletter, la notizia della sintesi di un composto di elio e sodio stabile ad alte pressioni, ottenuto da un team di ricercatori internazionale. Il gruppo, una ventina di ricercatori in prevalenza russi, cinesi e americani con alcuni europei fra i quali l’italiano Carlo Gatti, ha recentemente pubblicato i dettagli della ricerca (Xiao Dong et al., A stable compound of helium and sodium at high pressure, Nature chemistry, 2017 on line 6 february 2017, DOI: 10.1038/nchem.2716).

La caratteristica più nota dell’elio è stata la sua assenza di volontà di reagire. Con una configurazione elettronica stabile, affinità elettronica tendente a zero e una energia di ionizzazione superiore a quella di tutti gli altri elementi, l’elio è il prototipo dell’inerzia chimica.

Per esaminare la scarsissima reattività di questo elemento, gli scienziati hanno tentato sia attraverso metodi teorici sia sperimentali di individuare le condizioni per ottenere composti dell’elio. Con scarso successo, almeno fino a oggi, ottenendo solo specie insolite, come il radicale HeH+, stabile solo nella sua forma positivamente carica, e HHeF, una molecola metastabile. Al contrario, è noto da molto tempo che i gas nobili a più elevato peso atomico, xeno e cripto, sono in grado di formare una varietà di composti stabili. In particolare i fluoruri di xeno: XeF2, il difluoruro, è il più stabile, si presenta come un solido cristallino bianco molto sensibile all’umidità, disponibile commercialmente e usato nelle reazioni di fluorurazione. Il tetrafluoruro, XeF4 è stato il primo composto di un gas nobile a essere sintetizzato nel 1962 (H. H. Claassen, H. Selig e J. G. Malm, Xenon Tetrafluoride, J. Am. Chem. Soc., 1962, 84, 3593), si presenta pure come solido cristallino sensibile all’umidità, molto più reattivo del difluoruro. L’esafluoruro, XeF6, è ancora più reattivo potendo funzionare sia come donatore sia come accettore di ioni fluoruro.

Il team internazionale di ricerca, coordinato dai Prof. Artem R. Oganov (Skolkovo Institute of Science & Technology, Mosca; Stony Brook University, USA), Xiang-Feng Zhou (Nankai University, Tianjin, Cina; Chemistry Division, Brookhaven National Laboratory, NY USA), Hui-Tian Wang (Nankai University, Tianjin, Cina), ha continuato e ampliato la ricerca di composti stabili dell’elio.

fig-1a-oganov

Oganov

fig-1b-xiang-feng-zhou

xiang-feng-zhou

Il gruppo ha usato una strategia computazionale nota come previsione della struttura evolutiva (USPEX) per individuare gli scenari di interazione elio-sodio in una vasta gamma di pressioni. La conclusione è stata che Na2He dovrebbe essere termodinamicamente stabile a pressioni superiori a circa 115 GPa, cioè più di 1 milione di volte superiore a quello della pressione atmosferica della Terra.

Per realizzare gli esperimenti i ricercatori hanno utilizzato una cella a incudini di diamante (DAC) che permette di raggiungere altissimi valori di pressione, ottenendo infine il composto cercato. In breve, e con riferimento allo schema di figura 2:

fig-2-schema-apparato-sperimentaleuna cella ad incudini di diamante è formata da due diamanti tagliati a forma di tronco di piramide con punta molto fine in modo da esercitare una fortissima pressione. Il campione (cioè l’oggetto in questione), che in condizioni normali può essere sia solido, che liquido o gassoso, di dimensioni opportune, viene posto tra le facce piane dei due diamanti naturali, e mantenuto in questa posizione mediante una guarnizione metallica, anch’essa schiacciata tra i diamanti. I due diamanti sono poi pressati uno contro l’altro e così facendo esercitano una grande pressione sul campione posto nel mezzo. Si usano i diamanti naturali perché essi sono gli oggetti più duri che esistono in Natura e non si danneggiano a causa delle altissime pressioni che producono. Si possono così studiare, in condizioni estreme, sistemi di grande importanza in fisica fondamentale, in geologia, in scienza dei materiali e in astrochimica.

Il composto Na2He è stato caratterizzato per diffrattometria a raggi X, spettroscopia Raman e altri metodi. Il gruppo di ricerca riporta che la sua struttura è simile a quella del minerale fluorite, è elettricamente isolante e rimane stabile fino a 1000 GPa. La struttura del nuovo composto è mostrata in figura 3.

fig-3-struttura-di-na2he

Questa scoperta dimostra che l’elio non è completamente inerte come si pensava”, ha commentato Carlo Gatti (Istituto di Scienze e Tecnologie Molecolari del CNR, Milano), che ha contribuito allo studio come esperto di legami chimici, “In certe condizioni può formare dei composti e addirittura assumere una carica negativa. Di fatto, quello che capita è la creazione di coppie elettroniche che occupano alternativamente le posizioni dell’elio”.

fig-4-carlo-gatti

Carlo Gatti

Na2He appartiene infatti alla categoria dei cosiddetti elettruri – materiali cristallini simili a sali – in cui gli elettroni prendono il posto degli ioni negativi alternandosi a un reticolo di ioni carichi positivamente, rappresentati in questo caso dal sodio.

I ricercatori hanno anche teorizzato che il composto Na2HeO, che non hanno ancora sintetizzato, dovrebbe essere stabile a pressioni superiori a 15 GPa.

Questo studio mette in evidenza come l’alta pressione può essere utilizzata per la sintesi di composti con nuove stechiometrie e strutture elettroniche“, dice Eva Zurek, specialista in chimica computazionale presso la State University of New York, SUNY a Buffalo. Na2He non potrebbe mai essere stabile in condizioni atmosferiche, osserva Zurek, ma è stato ottenuto a circa il 40% della pressione presente al centro della Terra. I risultati amplieranno la comprensione dei processi chimici che possono verificarsi a grandi pressioni all’interno giganti gassosi come Giove e Saturno.

Il chimico inorganico Sven Lidin dell’Università di Lund (Svezia), osserva che le implicazioni per l’astronomia sono chiaramente interessanti “ma per quanto riguarda la nostra percezione della reattività chimica, questo risultato è un cambio di prospettiva.

Dice infatti Lidin: già le scoperte precedenti di altri composti dei gas nobili avevano messo in chiaro che l’inerzia è una questione di condizioni di reazione. Ma l’elio è stato un resistente anche in condizioni estreme, perché si tiene i suoi elettroni chiusi quasi ermeticamente e non li lascia andare. Questi nuovi risultati, aggiunge, mostrano che in un certo senso, “l’ultimo bastione sulla inerzia chimica è finalmente caduto.

Fonte: c&en newsletter web february 9, 2017

Il simbolo R ha sempre indicato un sostituente alchilico?

In evidenza

Rinaldo Cervellati.

In un precedente post si è detto che l’introduzione dei termini gruppo funzionale e serie omologhe è dovuta al lavoro pionieristico del chimico francese Charles Frédéric Gerhardt (1816-1856), che nel suo importante trattato Précis de Chimie Organique (1844) utilizzò questi concetti per sistematizzare e classificare tutti i composti organici noti all’epoca. Secondo lo storico della chimica W.B. Jensen, in quel trattato Gerhardt utilizzò per primo il simbolo R per scrivere le formule generali delle diverse classi di composti. Tuttavia, dice Jensen, il motivo della scelta della lettera R non è ancora chiaro. La spiegazione più ovvia è che fosse l’abbreviazione per la parola “radicale”, un termine introdotto da un altro chimico francese, Guyton de Morveau[1], nel 1786 per designare l’elemento o la combinazione di elementi che formavano acidi reagendo con l’ossigeno [1].

fig-1-louis-bernard_guyton_de_morveau

Guyton de Morveau

Però, fin dagli inizi del 19° secolo, il termine era usato per indicare qualsiasi specie monoatomica reattiva (“radicali semplici”) o poliatomica (“radicali composti”), frammenti di una molecola più grande che mantengono la propria identità in una serie di reazioni chimiche [2].

Un secondo possibile significato per la R di Gerhardt è il termine “residuo” (résidue) e il suo equivalente tedesco Rest. Questi termini erano stati introdotti da Gerhardt nel 1839 come parte della sua teoria dei residui per le reazioni organiche. Questa teoria postulava che le reazioni organiche fossero “guidate” dalla eliminazione di piccole molecole inorganiche stabili, come H2O, HCl, NH3, ecc., i composti organici essendo solo il risultato della combinazione casuale di frammenti organici o, appunto, residui rimasti nelle molecole di partenza dopo l’estrazione dei componenti necessari per il prodotto inorganico eliminato [3].

Entrambe le interpretazioni non sono però coerenti con l’uso che fa Gerhardt della lettera R nel suo Précis, infatti egli la usò sia per simboleggiare le molecole degli idrocarburi sia porzioni di esse o, come egli si espresse, per rappresentare “gli elementi combustibili” (les éléments combustibles). Egli limitò successivamente il suo utilizzo alle formule generali di idrocarburi e frammenti di idrocarburi contenenti il rapporto 2/1 fra idrogeno e carbonio (cioè CnH2n), impiegando simboli più elaborati per indicare altri rapporti, come R+2 per CnH2n+2 e R−4 per CnH2n-4, ecc.

Un altro chimico francese, August Laurent[2] (amico di Gerhardt), nel suo Méthode de Chimie, del 1854, utilizzò R nel significato originale di Guyton de Morveau per generalizzare le formule di diversi ossidi binari (ad es. RO, RO2, R2O3, ecc.), come pure per simbolizzare il nucleo (noyau) idrocarburico di svariate molecole organiche [4].

fig-2-auguste_laurent

Auguste Laurent

Fra Guyton-Morveau e Gerhardt, il grande J.J. Berzelius utilizzò nel 1819 la lettera R nel suo nuovo simbolismo chimico alfabetico come abbreviazione per qualsiasi “radicale combustibile” [5]. Berzelius usò questa abbreviazione nei suoi successivi lavori anche per le formule generalizzate degli ossidi, ad es. R + O, R + 2O, R + 3O, ecc, in cui R sta a significare un elemento o un radicale semplice.

Tutto questo, insieme alla definizione di R come rappresentante “les éléments combustibles”, suggerisce fortemente che Gerhardt stesse ancora usando il termine e il simbolo nel significato suggerito da Guyton e Berzelius e non nel significato moderno di radicale alchilico. Sarebbe difficile infatti credere che Gerhardt non fosse al corrente dei lavori di Berzelius quando scrisse il Précis, il chimico svedese era infatti considerato dai contemporanei la massima autorità in chimica.

Il famoso “Sunto” di Cannizzaro del 1858 [6] sulla determinazione dei pesi atomici contiene secondo Jensen la prima esplicita identificazione della lettera R con il termine radicale. A conferma di ciò Jensen cita la frase:

I indicate by the symbol RIm any monoatomic metallic radical, whether simple or compound, and with the symbol RIIm any biatomic metallic radical.

contenuta in una traduzione inglese del “Sunto” [7].

fig-3-stanislao-cannizzaro

Stanislao Cannizzaro

Ho trovato il riscontro nell’originale italiano a p. 354:

Indico col simbolo RIm qualsiasi radicale metallico monoatomico sia semplice sia composto; e col simbolo RIIm qualsiasi radicale metallico biatomico. Se nella stessa formula o nella medesima equazione voglio in generale indicare 2 o più radicali monoatomici, l’uno diverso dall’altro, aggiungerò ai simboli le lettere minuscole abc, perciò Rma’Rmb’ indicherà una unica molecola formata da 2 radicali diversi…

E prosegue a p. 355:

Le molecole dei radicali metallici monoatomici son rappresentate dalla formula (RIm)2; quelle dei radicali biatomici collo stesso simbolo del radicale esistente nei composti, poiché è carattere di questi radicali aver la molecola fatta da un sol atomo o da un sol gruppo che ne fa le veci.

Ritengo necessaria l’aggiunta di queste citazioni per far meglio comprendere l’importanza della chiara distinzione fra atomo e molecola fatta da Cannizzaro. Come noto il Sunto di Cannizzaro fu distribuito al Congresso di Karlsruhe del 1860 che terminò con la proposta di adottare concetti diversi per molecola e atomo e passare al nuovo sistema di pesi atomici e molecolari (J.I. Solov’ev L’evoluzione del pensiero chimico, EST, Mondadori, 1976, pp. 177-178).

Di regola, ai suoi radicali semplici corrispondevano atomi o elementi elettropositivi e i suoi radicali composti a gruppi atomici compresi frammenti idrocarburici. Cannizzaro ha anche introdotto il simbolo X:

X indica tutto ciò che vi è nella molecola, oltre l’idrogeno metallico; così, a cagion d’esempio, nel caso dell’acido acetico X = C2H3O2, essendo questi i componenti che insieme ad H fanno l’acido acetico[3].

In generale X rappresenta quindi sostituenti elettronegativi, come O, OH, e gli alogenuri.

Personalmente reputo Cannizzaro il più grande chimico del 19° secolo.

È curiosa la forma con cui Cannizzaro decide di pubblicare i risultati del suo lavoro, sottoforma di lunga lettera all’amico Sebastiano De Luca (conosciuto nel biennio 1845-47 a Pisa sotto la guida del chimico prof. Raffaele Piria) in cui espone un ampio riassunto delle lezioni di chimica svolte all’Università di Genova dove era stato chiamato a ricoprire la cattedra di chimica. Secondo alcuni biografi l’opera nasce sostanzialmente dall’esigenza didattica di chiarire a se stesso e ai propri studenti concetti e principi sui quali fino ad allora regnava la più assoluta confusione. Pare abbia affermato: «Io non ebbi veramente l’ambizione di proporre una riforma, non ebbi altro scopo che quello pedagogico». Ma è proprio la consapevolezza della validità didattica della sua teoria a spingerlo a comunicarne i risultati al mondo scientifico. Secondo altri, il suo maestro Piria lo rimproverava proprio per la grande attenzione con la quale Cannizzaro svolgeva l’attività didattica, a scapito della ricerca e gli rivolgeva non poche pressioni al riguardo. Quella di presentare i risultati della ricerca come lezioni potrebbe quindi essere stata anche una forma di ironia nei confronti di Piria. Nel Sunto è compresa un’analisi storica dettagliata del periodo in cui nacque e si sviluppò la teoria atomico-molecolare.

Seguendo Cannizzaro, Mendeleev ha fatto ampio uso del simbolo R per rappresentare le formule generali di ossidi (R2O, RO, R2O3, ecc.) e idruri (RH, RH2, RH3, ecc.) – corrispondenti alla valenza massima degli elementi nei gruppi della sua tavola periodica. Formule che comparirono nella parte superiore della forma breve della tavola periodica per più di 70 anni [8].

fig-4-periodensystem_mendelejew

forma corta della Tavola Periodica

Al contrario, nei primi testi e trattati di chimica organica non si fece uso della lettera R, che comparve saltuariamente nel testo di Erlenmeyer del 1867 [9], dopo di che il suo utilizzo nella letteratura organica aumentò lentamente durante il resto del 19° divenendo comune in tutto il 20° secolo.

*Questo post è sostanzialmente una traduzione ragionata e ampliata dell’articolo di W.B. Jensen: Why is R Used to Symbolize Hydrocarbon Substituents?, J. Chem. Educ., 2010, 87, 360-361.

[1] G. de Morveau, Ed., Encyclopédie méthodique (chymie), Vol. 1, Panckoucke: Paris, 1786, p. 142.

[2] J. B. Dumas, J. Liebig, “Note sur l´état actuel de la chimie organique,” Comptes rendus 1837, 5, 567-572.

[3] C. Gerhardt, “Sur la constitution des sels organique à acides complexes et sur leurs rapports avec des sels ammoniacaux,” Ann. chim. phys. 1839, 72, 181-214.

[4] A. Laurent, Méthode de chimie, Mallet-Bachelier: Paris, 1854, pp. 177-189, 425-4252

[5] J.J. Berzelius, 1819, nuova prefazione aggiunta alla traduzione francese del suo lavoro Essay on the Theory of Chemical Proportions and on the Chemical Influences of Electricity.

[6] S. Cannizzaro, “Sunto di un corso di filosofia chimica,” Il Nuovo Cimento 1858, 7, 321-366.

[7] traduzione inglese del Sunto: Sketch of a Course of Chemical Philosophy, Alembic Club Reprint No. 18, Livingstone: Edinburgh, 1949. Citazione a p. 41 della traduzione.

[8] D. Mendeleev, “Die periodischen Gesetzmässigkeit der chemischen Elemente,” Ann. Chem. Pharm. 1872, 8 (Suppl.), 133-229. Traduzione inglese disponibile in: W. B. Jensen, Ed., Mendeleev on the Periodic Law: Selected Writings, 1869-1905, Dover: Mineola, NY, 2005, pp. 38-109.

[9] E. Erlenmeyer, Lehrbuch der organischen Chemie, Winter: Leipzig, 1867, pp. 186, 210.

[1]Louis-Bernard Guyton, Baron de Morveau (Louis-Bernard Guyton-Morveau dopo la Rivoluzione Francese, (1737 – 1816) chimico e politico francese, noto in particolare per aver contribuito al nuovo sistema di nomenclatura chimica, insieme a Lavoisier e altri.

[2] Auguste Laurent (1807-1856) chimico francese, scoprì l’antracene, l’acido ftalico e identificò il fenolo. Introdusse un nuovo metodo di nomenclatura organica basato sui gruppi funzionali.

[3] Ai tempi di Cannizzaro era uso indicare il numero di atomi nelle molecole con apici anziché con pedici.

 

Datazione dei manufatti di cemento.

In evidenza

Luigi Campanella, ex Presidente SCI.

Alcuni anni fa una legge stabilì che potevano essere salvaguardate costruzioni costruite senza il rispetto delle distanze dalle rive del mare purchè costruite più di 20 anni prima. Si scatenò una vera bagarre sulla datazione di molte costruzioni per farle datare anteriormente ai 20 anni richiesti.

La datazione del cemento era e resta un’operazione assai delicata a cui la chimica dà un sostanziale contributo. Inoltre il poter caratterizzare un materiale cementizio invecchiato rende possibile una migliore valutazione nella determinazione di eventuali interventi di consolidamento (nel campo dell’edilizia civile) o di restauro (nel campo dei beni culturali), oltre – come si è detto- la sua datazione anche al fine di contribuire a dipanare dispute legali riguardanti la collocazione temporale di costruzioni edili.

Allo scopo di individuare dei possibili indicatori analitici per la diagnosi dell’invecchiamento di manufatti cementizi la prima operazione da fare è esaminare alcuni campioni provenienti da manufatti cementizi appena lavorati (fresco, circa 1 mese) e invecchiati naturalmente (non inferiore a 10 anni) o artificialmente mediante esposizione combinata a luce e calore e procedere con una diagnosi circa le alterazioni con tecniche rapide, che non richiedono pretrattamenti, quali l’analisi termica simultanea (analisi termogravimetrica (TGA) e differenziale (DTA), la diffrattometria a raggi x (XRD).

A cosa sono dovute le alterazioni suddette?

Rispondere a questa domanda è già gettare una base per la datazione. Individuare modifiche del manufatto, che sono riferibili al suo invecchiamento, risulta utile nella diagnosi dell’età del materiale

Diversi processi chimico-fisici avvengono tra le prime fasi della lavorazione del cemento, in cui si procede all’impasto con acqua, e le successive fasi dell’indurimento. Dopo 28 giorni si ha una maggiore definizione della composizione e della struttura; è infatti dopo tale periodo che sono previste le prove meccaniche per rispondere ai requisiti di legge riguardanti le opere di edilizia civile. In pratica, però, alcuni processi avvengono con cinetiche talmente lente e in dipendenza dell’ambiente circostante, che alcune modifiche del manufatto si manifestano solo dopo diversi anni dalla sua preparazione.

9780820602127-3La composizione chimica del cemento, anche se variabile e dipendente dalla zona di provenienza, essenzialmente è determinata dai seguenti componenti.

  • Il clinker che rappresenta il costituente principale. dal punto di vista mineralogico, esso può essere considerato come una roccia artificiale, sostanzialmente a base di silicati ed alluminati insieme ad una fase vetrosa a base di ossidi, la cui formazione è basata sulle reazioni in fase solida e sulla fusione di parte dei suoi costituenti, con la formazione di un magma eutettico in seno al quale si completa la formazione dei composti cristallini non fusibili.
  • Il gesso è molto diffuso in natura in giacimenti di origine sedimentaria, talvolta ricoperti da depositi di cloruro di sodio o di argille e marne. Esso è costituito essenzialmente da solfato di calcio biidrato CaSO4 2H2O, ma di rado è allo stato puro e presenta spesso impurezze quali silice, allumina, ossido di ferro, ossido di manganese, carbonati di calcio e di magnesio, minerali argillosi.

Secondo la normativa UNI EN 197-1-2001 il solfato di calcio può essere aggiunto al clincker durante la macinazione sia sotto forma di gesso (solfato di calcio biidrato CaSO4·2H2O), di gesso semiidrato (CaSO4·1/2H2O), o come anidrite (solfato di calcio anidro CaSO4) o come miscela di questi.

  • La Pozzolana e le ceneri volanti

La Pozzolana è una roccia di origine vulcanica presente in varie località del Lazio, della Sicilia e della Campania (p.e. Pozzuoli). E’ costituita da ossidi,in prevalenza di silicio,ma anche di alluminio,fero,calcio ed altri metalli. Essa è costituita da lapilli e ceneri vulcaniche cementatesi per azione degli agenti atmosferici i quali, agendo sui componenti delle lave a base di silicio, hanno dato origine ad un prodotto di natura acida che contiene silice (SiO2) in forma reattiva, capace cioè di reagire a temperatura ambiente con l’idrossido di calcio formando dei composti insolubili. La pozzolana macinata insieme al gesso e al clinker è usata per produrre cementi pozzolanici.

triangle_imagelargeQuando si impasta il cemento con l’acqua, la massa in breve comincia a indurire (fa presa); col procedere del tempo l’indurimento prosegue (può durare anche molti anni) e se la malta è mantenuta sott’acqua può assumere consistenza lapidea. Diverse teorie sono state proposte per spiegare le reazioni che accompagnano presa e indurimento; di esse, una ne attribuisce la causa alla formazione dei composti cristallini che si originano dalla reazione dei componenti dei clinker con l’acqua, l’altra invece sostiene che si formino sostanze di natura colloidale.

cemento2

Illustrazione schematica dei pori nel silicato di calcio in diversi stadi di idratazione http://matse1.matse.illinois.edu/concrete/prin.html

Oggi si è giunti in parte ad una fusione di queste due teorie e la presa e l’indurimento delle malte cementizie vengono attribuiti all’idrolisi e all’idratazione degli alluminati e dei silicati di calcio presenti nel clinker con messa in libertà di idrato di calcio e alla formazione anche di ferriti di calcio idrati. Dei suddetti composti idrati solo l’idrato di calcio può dare cristalli sufficientemente grandi da essere visibili al microscopio, gli altri formano cristalli di dimensioni all’incirca uguali a quelle delle particelle colloidali. Il processo di presa del cemento prosegue con quello di invecchiamento durante il quale alcune delle reazioni descritte proseguono ed altre se ne instaurano, sostanzialmente reazioni della matrice con l’acqua che favoriscono una maggiore idratazione del materiale riferibile sia all’acqua di costituzione, che di adsorbimento. Inoltre l’ambiente di esposizione soprattutto nelle atmosfere urbane può facilitare l’innescarsi di reazioni che modificano la matrice.

I processi di invecchiamento del materiale cementizio, portano a modifiche composizionali e strutturali della matrice che possono essere messe in evidenza all’analisi diffrattometrica e termogravimetrica, in quanto capaci di discriminare fra cementi “giovani” e cementi “vecchi” sulla base di differenze riguardanti il loro stato di idratazione, ossidrilazione, carbonatazione e cristallizzazione.

In sintesi la ricerca di indici capaci di agire da marker dell’invecchiamento del cemento è avvenuta a partire da un confronto fra cementi preparati di fresco e cementi invecchiati naturalmente od artificialmente. Al fine di evidenziare le possibili differenze si è ricorsi all’uso di tecniche diffrattomentriche e di metodi termici.

Si è pervenuti alla conclusione che all’aumentare del tempo di invecchiamento aumenta la quantità d’acqua rilasciata al riscaldamento (dal 2-3% all’8-10%), diminuisce il rilascio di anidride carbonica (dal 35-40% al 6-10%) alla temperatura di decomposizione del carbonato e diminuisce il peso del residuo del processo di calcinazione (dal 40-42% al 16-20%). Tali differenze sono da attribuire a una degradazione subita durante l’invecchiamento dei composti che caratterizzano la formazione del cemento. A riprova di ciò a tali variazioni corrispondono ben individuate variazioni degli spettri di polvere ai raggi X.

 

Sapori e aromi dei pomodori

In evidenza

 Rinaldo Cervellati.

Negli ultimi decenni i pomodori sono diventati il prodotto fresco preferito negli USA, e sono in cima al settore frutta e verdura, con una quota di mercato di quasi il 10%. In seguito al forte aumento della domanda, i produttori hanno cercato di rendere i pomodori sempre più attraenti all’aspetto, incrementandone il colore rosso e il tempo di conservazione, senza tuttavia considerare l’impatto che queste modifiche avrebbero potuto avere sul gusto e sul profumo del prodotto, come sostiene il Dott. James Giovannoni, biologo molecolare presso l’USDA (United States Department of Agriculture).

fig-1-varieta-di-pomodoriIl Dott. Giovannoni afferma che la maggior parte dei pomodori che arrivano ai supermercati ha subito una mutazione genetica che provoca un ritardo nella produzione degli ormoni di maturazione, con conseguente incremento della durata di conservazione. Un danno collaterale di tale mutazione, tuttavia, è la diminuzione della produzione di zucchero, con conseguente alterazione del sapore del prodotto. Al tempo stesso, quando i produttori hanno selezionato frutti di colore rosso uniforme, essi non si sono resi conto che le zone verdi della buccia, oltre a essere una “eredità” di specie selvatiche, sono ricche di cloroplasti, organuli essenziali per la produzione di sostanze aromatiche.

Di conseguenza, molti consumatori americani che hanno avuto familiarità con il delizioso sapore e la consistenza di un pomodoro appena raccolto, si sentono traditi da queste “sfere rosse” poco saporite e quasi prive di odori vendute in molti supermercati.

Ma il ripristino dell’aroma e del sapore del pomodoro potrebbe avvenire nei supermercati USA grazie ai risultati di una dettagliata ricerca genetica effettuata da un team internazionale di 20 ricercatori (a prevalenza americani e cinesi, qualche europeo)[1] guidati dai Dott. Harry J. Klee, professore di Scienze Orticole all’Università della Florida e Sanwen Huang dell’Accademia Cinese di Scienze Agrarie di Pechino.

fig-2-harry-klee-and-sanwen-huang

harry-klee-e-sanwen-huang

Il gruppo di ricerca ha sequenziato il genoma di 398 varietà di pomodoro fra selvatiche, antiche e moderne. Aiutati anche da un panel di assaggiatori qualificati, i ricercatori hanno identificato 28 composti caratterizzanti gli aromi e i sapori più gradevoli dei pomodori, fra essi il frondoso geranilacetone, il floreale β-ionone e l’agrumato 6-metil-5-epten-2-one. La ricerca ha evidenziato che la maggior parte delle varietà moderne da supermercato presentano livelli molto più bassi di 13 fra queste molecole aromatiche rispetto alle varietà antiche [1].

fig-3-composti-isolatiPer individuare quali regioni del genoma di pomodoro sono responsabili della biosintesi di queste sostanze, il team ha preso in considerazione quelle varietà di pomodoro che le contengono a livelli elevati. Klee afferma che il lavoro ha fornito una mappa chimica e genetica in grado di dare indicazioni per migliorare il sapore degli attuali pomodori dei supermercati americani. Dice infatti a c&en: “Uno degli scopi della ricerca è stato quello di poter dire ai produttori: ecco cosa manca, ecco perché, e qui ci sono i marcatori molecolari che si possono utilizzare per recuperare i tratti perduti. Stiamo cercando di riportare il calendario indietro di decenni recuperando le caratteristiche che erano presenti nei pomodori nella prima metà del 20° secolo“.

Infine, il Dott. Giovannoni commenta: “Non so se è possibile produrre un pomodoro da supermercato con le stesse caratteristiche di quello coltivato nel proprio giardino, ma non ho dubbi che questo lavoro possa aiutare i produttori a immettere sul mercato pomodori migliori di quanto sono adesso.

Anche in questo caso che riguarda una questione assai controversa, cioè gli organismi geneticamente modificati, si propone un aspro contrasto fra ogiemmefobici e ogiemmefilici. Se cerchiamo di guardare spassionatamente allo specifico del problema penso che a nessun mediterraneo verrebbe in mente di produrre pomodori geneticamente modificati. I nostri pomodori con le loro innumerevoli varietà non ne hanno certamente alcuna necessità commerciale, ci saranno però delle regole comunitarie come per le quote latte. Confesso che non ne ho idea. Almeno però so che mentre la legislazione sugli OGM è abbastanza restrittiva in Italia e in Europa, è però molto permissiva negli USA (e in Asia ?). Il fenomeno pomodori ne è un esempio.

Senza regole, soprattutto senza ricerca il rischio è quello di produrre vegetali che, se va fatta bene “san solo di carton” (come direbbe Crozza). Ma potrebbe anche andar peggio…

Fonte: c&en newsletter, web: Jan 26, 2017

 [1] D. Tieman et al., A chemical genetic roadmap to improved tomato flavor, Science, 2017, 355, 391 –394. DOI: 10.1126/science.aal1556

[1] La ricerca ha ricevuto notevoli finanziamenti, oltre che dalla NSF (National Science Foundation) e da varie Istituzioni Cinesi, anche dall’European Research Council e dall’European Commission Horizon 2020 program.

Composti alifatici su Cerere.

In evidenza

Diego Tesauro.

I siti di tutte le riviste scientifiche ed anche di alcuni quotidiani in tutto il mondo stanno divulgando la notizia, a seguito di un articolo comparso sulla rivista Science (1), che sono state rilevate presenze di composti organici alifatici nel cratere Ernutet del pianeta nano Cerere in una superficie di 1000 Km2. Cerere è il più grande dei nano-pianeti (o pianeti nani, questo il nuovo nome ufficiale per gli ex pianetini) della fascia asteroidale compresa fra Giove e Marte, secondo la più recente definizione della IAU; fu scoperto da Giuseppe Piazzi a Palermo il primo giorno del XIX secolo, prima ancora che fosse scoperto Nettuno, per cui fu definito come l’ottavo pianeta. E’ oggetto da circa due anni di osservazioni da parte della sonda ESA-NASA Dawn che mediante due spettroscopi (uno nell’IR e l’altro nei gamma) ci sta rilevando le caratteristiche della sua superficie.(sul blog si era parlato della scoperta di ghiaccio sul medesimo nano-pianeta).

Dall’analisi degli spettri IR ottenuti mediante lo spettrografo VIR è stato possibile rilevare le bande di assorbimento caratteristiche delle frequenze di stretching simmetriche e antisimmetriche del metile e del metilene caratteristici dei composti alifatici.

Perché tanta enfasi viene posta nell’osservazione di questa classe di composti? Negli ultimi anni, come era prevedibile, stiamo scoprendo che composti organici nello spazio sono presenti in moltissimi corpi del nostro sistema solare ed anche in nebulose esterne. I composti organici nello spazio vengono suddivisi in due classi la IOM (insoluble organic matter) costituita essenzialmente da idrocarburi aromatici e la SOM (soluble organic matter) costituita da composti pre-biotici come amminoacidi e composti azotati solubili in acqua. Questi ultimi si ritrovano principalmente in condriti carbonacee. L’ultima scoperta riveste interesse per diversi motivi. Innanzitutto l’osservazione di composti alifatici è più rara e più frequentemente nelle IOM vengono osservati composti di natura aromatica e cluster di molecole aromatiche, in quanto in questi composti il legame chimico è più forte e resiste alle condizioni energetiche estreme a cui sono sottoposte molecole nello spazio.

Inoltre la scoperta su Cerere permette di supporre che le molecole alifatiche, simili ai minerali di catrame o asfaltite, per la loro natura, non siano presenti a seguito di impatti di condriti asteroidali o comete nelle quali sono state rilevate molecole organiche anche complesse. Negli impatti l’energia in gioco non permetterebbe la sopravvivenza di composti del genere in quanto il legame chimico alifatico C-H non sarebbe stabile nelle condizioni fisiche di impatto. Studi cinetici (2) dimostrano infatti che a 100°C in 200 anni il legame C-H non è stabile e che questa stabilità si riduce a soli 90 sec a 400°C, temperatura raggiunta e superata negli impatti. Questa osservazione fa propendere per una natura endogena dei composti sul nano-pianeta.

Questa ipotesi è rafforzata dal fatto che gli spettri delle molecole sono stati rilevati in zone più ricche di carbonati e argille contenenti ammoniaca rispetto al resto del pianeta. Pertanto si ritiene che i composti alifatici siano prodotti da processi idrotermali, come quelli che possono anche produrre materiale organico sulla Terra (3), attivi nel passato Cerere, quando l’asteroide era più caldo in profondità rispetto ad ora. Ma resta sconosciuto il meccanismo che ha portato i minerali in superficie. Questo meccanismo di produzione di sostanze organiche potrebbe essere attivo anche in asteroidi, quali le condriti, anche se in questo caso, si propende piuttosto per una formazione dei composti organici nel gas interstellare. Questa ipotesi è suffragata dall’abbondanza isotopica degli elementi che le costituiscono (4).

La scoperta si deve ad un gruppo di ricercatori fra i quali spiccano numerosi nomi di italiani.

  1. C. De Sanctis et al. Localized aliphatic organic material on the surface of Ceres Science  355, 719-722 (2017)
  2. Kebukawa, S.Nakashima, M. E.Zolensky, Kinetics of organic matter degradation in the Murchison meteorite for the evaluation of parent-body temperature history. Meteorit. Planet. Sci. 45, 99–113 (2010).
  3. B.Williams, B.Canfield, K. M.Voglesonger, J. R.Holloway, Organic molecules formed in a “primordial womb.” Geology 33, 913–916 (2005).
  4. M. O’D.Alexander, M.Fogel, H.Yabuta, G. D.Cody The origin and evolution of chondrites recorded in the elemental and isotopic compositions of their macromolecular organic matter. Geochim. Cosmochim. Acta 71, 4380–4403 (2007).

Chimbufale.1. Accendere il fuoco con una batteria al limone.

In evidenza

Claudio Della Volpe

Accendere il fuoco con una batteria al limone.E altre storie.

La lotta alle bufale è stato sempre un nostro ambito, ben prima che, come succede oggi, perfino i governi cercassero di impadronirsene; e sinceramente preferiamo che sia la rete a generare gli anticorpi, non strutture centralizzate che potrebbero mascherare facilmente attacchi alla libertà di stampa. Esistono d’altronde siti antibufale “spontanei”, specializzati e famosi, come quello di Paolo Attivissimo (http://bufalopedia.blogspot.it/p/cose-la-bufalopedia.html).

Bufale chimiche ne girano parecchie.

Oggi parliamo qui della bufala di accendere il fuoco con una batteria al limone che compare da mesi sulle pagine video della Stampa senza commenti negativi da parte della redazione. Ma potete trovarla anche su Youtube o in giro per la rete; spiace che un giornale così diffuso come la Stampa non abbia i necessari anticorpi.

http://www.lastampa.it/2016/03/15/multimedia/scienza/sapete-come-accendere-un-fuoco-con-un-semplice-limone-9ty316mZxRrIHN7RJOiNWJ/pagina.html

La Stampa: Sapevate che un limone può essere utilizzato per accendere un fuoco? Il segreto è trasformarlo in una batteria artigianale, che funziona con elettrodi di rame e zinco. Nel video pubblicato da NorthSurvival , l’esperimento è presentato come trucco salva-vita, nel caso ci si perda nel bosco, ed è realizzato con fermacampioni di rame, chiodi di zinco, un pezzo di fil di ferro e un po’ di lana d’acciaio. Per le sue caratteristiche chimiche l’agrume può innescare un processo che genera energia, anche pochi Volt sono sufficienti per questo scopo.

lemon1L’origine di questa bufala è un sito americano, di “sopravvivenza”, Northsurvival; siti di questo tipo sulla base della diffusa paura di una catastrofe mondiale di qualche genere parlano di continuo di come fare a sopravvivere; d’altronde ci sono casi più semplici come perdersi in un bosco o in un’isola deserta in cui la cosa potrebbe risultare utile. In fondo accendere il fuoco è una delle azioni base della sopravvivenza.

La foto che vedete rappresenta il dispositivo che secondo il filmato sarebbe in grado di generare l’energia necessaria a portare all’incandescenza un pezzetto di spugna-lana metallica (di ferro o acciaio) e dunque innescare la combustione di legno o altro materiale; una guardata ai seguenti (e veritieri filmati) è forse più chiara;

fuoco acceso con batteria da 9V:

https://www.youtube.com/watch?v=snjocUdBs30

fuoco acceso con 2 batterie da 1.5V in serie:

https://www.youtube.com/watch?v=htfBaJME4m4

Il filmato de La Stampa è simile, solo che si usa come sorgente non una batteria commerciale da 9V o due da 1.5 in serie, ma un limone modificato come in figura; anche nel filmato del limone la cosa sembra funzionare, ma ragionevolmente si tratta di un videomontaggio e vedremo perchè.

Nei due filmati citati prima si fa partire l’incendio di materiale secco usando come innesco la lana di ferro e una batteria messa in corto su di essa.

La cosa è credibile almeno come ordine di grandezza; cerchiamo di stimare quanta energia e quanta potenza serve allo scopo.

Si tratta di portare al calore rosso almeno qualche decina diciamo 100mg di ferro partendo da temperatura ambiente per effetto Joule; l’evento si verifica quasi istantaneamente, segno che potremmo trascurare le perdite per raffreddamento.

Il calore specifico del ferro è poco meno di 0.5 J/grammo; dobbiamo quindi fornire 0.05J/°C per un innalzamento di temperatura fino a circa 800°C; circa 40J in un secondo, ossia una potenza dell’ordine di 40W per un brevissimo periodo (anche in due secondi, 20W).

Le caratteristiche delle batterie commerciali da 9V alcaline sono una capacità di 0.5Ah (1800 coulomb, ossia 1800/96485= 0.02Faraday circa), ed una energia di 16200J (9×0.5×3600); se messa in corto circuito una batteria del genere potrebbe fornire la corrente richiesta teoricamente per oltre 400 secondi (16200/40); ma quando scaricate a questa velocità la reazione elettrochimica le cose non sono lineari, c’è tanta dissipazione. Dai dati di letteratura tuttavia non è banale avere questo tipo di informazioni che sono più simili a quelle di sicurezza, legate al rischio di incendio da batteria; inoltre una batteria sollecitata in questo modo si surriscalda e può dare luogo anche ad una esplosione.

Se trascuriamo l’inevitabile abbassamento del voltaggio durante una scarica di questo tipo, se stimiamo in un solo secondo il tempo di lavoro possiamo facilmente concludere che per ottenere 40W abbiamo bisogno nei due casi di 4-5A nel primo caso e di oltre 13A nel secondo.

Dati sperimentali si possono trarre da siti di appassionati come questo: http://physics.stackexchange.com/questions/30594/short-circuit-an-alkaline-battery

Da questo sito si ricava sperimentalmente, senza alcun tentativo di giustificazione teorica (trattandosi di un fenomeno complesso) che una singola AA alcalina in corto circuito o meglio con una resistenza applicata molto bassa, può arrivare a quasi 10A; mettendone due in serie (teoricamente il voltaggio aumenta senza variazione della corrente) possiamo dunque arrivare molto vicino al valore richiesto (basterebbe considerare 2 secondi il tempo necessario di contatto); nel caso della 9V alcalina il requisito è certo; dunque i due video sono credibilissimo quello della batteria a 9V, un pò meno l’altro ma la cosa almeno teoricamente può funzionare in entrambi i casi.

ATTENZIONE: Ovvio che stiamo parlando di dati molto approssimati perchè in effetti un corto circuito effettivo implicherebbe quasi l’azzeramento della differenza di potenziale, e dunque una corrente ancora maggiore necessaria per giustificare la potenza termica dissipata; ci sono da considerare il ruolo della resistenza interna della batteria e quello delle resistenze di contatto. Comunque, anche applicando l’espressione potenza=I2R alla dissipazione termica, un filo di ferro da 1mm2 di sezione e lungo 1cm ha una resistenza a t ambiente dell’ordine di 1 milliohm (mΩ), ma a 800°C (la resistività del ferro a 25°C è 10-7Ωm, ma il suo coefficiente termico è 0.00651/°C) più alta che a 25°C.

A 800°C dunque la R vale:

lemon2R=0.001Ωx(1+0.00651×800)=0.006Ω; servirebbero 80A in queste condizioni, ma sperimentalmente ne servono 10 volte di meno; perchè? Probabilmente la resistenza effettiva è maggiore a causa della resistenza di contatto ai capi del filo, ossia lo scadente contatto fra filo e eletttrodi della batteria dà una mano. Una resistenza di soli 0.5 Ω, farebbe scendere la corrente a meno di 9 Ampere, pienamente alla portata del sistema.

Ma cosa succede passando ad una batteria al limone? Già come funziona una batteria al limone?

La batteria al limone in effetti è un must della divulgazione chimica; ci sono perfino articoli scientifici pubblicati su varie riviste come JCE (Journal Chemical Education); una batteria al limone, o alla patata l’avrete costruita di sicuro; ma allora dove è il problema?

http://surface.syr.edu/che/2

https://www.scientificamerican.com/article/generate-electricity-with-a-lemon-battery/

http://www.autopenhosting.org/lemon/p181.pdf

Beh come al solito il diavolo è nei dettagli.

E’ una batteria molto simile a quella di Volta; due pezzi di metalllo, zinco e rame immersi in una soluzione acquosa acidula, sia pur compartimentata in cellule, dunque con una resistenza al movimento della cariche certamente maggiore che in una soluzione vera e propria e dunque risultati peggiori.

In quelle condizioni (una volta chiuso il circuito) lo zinco tende ad ossidarsi e il rame invece si comporta da semplice conduttore passivo, consentendo la riduzione dell’acido citrico presente nel limone con sviluppo di idrogeno gassoso.

Zn(s)—> Zn++(aq) +2e

2H+(aq)+2e —> H2(g)

Il voltaggio considerato è la somma dei voltaggi ottenibili dalle due semireazioni; facendo una enorme approssimazione 0.76V per lo zinco (anche se almeno in partenza la conc. di Zn++ è trascurabile) e 0 circa per l’idrogeno, in pratica a circuito aperto non supereremo gli 0.7volt. Trascuro completamente l’effetto delle concentrazioni, l’equazione di Nernst. Se volessi considerare Nernst, dovrei stimare la concentrazione di H+ legata alla presenza di acido citrico e ipotizzare ancora una volta una pressione parziale di idrogeno che almeno all’inizio è trascurabile.

Per stimare la capacità della batteria chiediamoci quanto acido citrico c’è in un limone? Attorno a 50ml di una soluzione che è al 5-7% in peso di acido citrico, dunque atttorno 2-3 grammi di acido, che corrispondono a circa 12-13mmoli (dunque circa 0.25M), dunque teoricamente 6 millimoli di idrogeno molecolare e 12.5 millimoli di elettroni; un limone corrisponde alla rispettabile quantità di 12.5 mmoli di carica elementare da estrarre, che sono oltre 1200 coulomb. Però attenzione questa non è una soluzione e basta; è una struttura biologica, compartimentata, e inoltre l’acido citrico è un acido debole (la prima Ka=7.5×10-4, dunque sempre in approssimazione una conc. di H+ di circa il 2% del totale, 5×10-3M)), di cui solo quello attorno all’elettrodo di rame immerso potrà partecipare velocemente alla reazione; dobbiamo stimare un calo di almeno 10 volte, forse di 20; 50-120 coulomb di carica disponibile. Questi stessi dati messi nell’equazione di Nernst ci consentirebbero di stimare anche il potenziale della semireazione, che diventerebbe negativo, attorno a -0.3V, in accordo con quanto detto sopra (Nota sulla reazione di riduzione).

In questo caso abbiamo varie stime della corrente tipica di questa batteria; per esempio nel lavoro di Svartling per accendere un piccolo LED rosso che necessita di circa 40mW occorrono quattro limoni in serie, dunque circa 10mW per limone; dato che il voltaggio è attorno a 0.7V abbiamo una corrente di 14mA circa; siamo su un livello molto più basso delle batterie commerciali. Comunque il valore di 0.014A e la stima di 50-120 coulomb si corrisponderebbero nel senso che quella corrente se mantenuta per un’ora corrisponde a 50 coulombs, dunque ordine di grandezza giusto.

lemon3Anche immaginando che il video la racconti giusta immaginando di porre “in serie” sei dispositivi non supereremmo i 60mW e saremmo dunque ben lontani dalla potenza necessaria, fra uno e due ordini di grandezza sotto la necessità.

Un esame del video incriminato è stato pubblicato già tempo fa con una verifica sperimentale e un giudizio negativi; lo trovate qua; aggiungiamo i nostri commenti.

https://offgridweb.com/preparation/starting-fires-with-a-lemon-real-or-hoax/

Il commento più importante da fare è sul come la batteria al limone viene proposta sul sito bufalino; confrontate l’immagine del sito con quella di un lavoro serio, pubblicato su JCE e vi rendete conto immediatamente di una differenza enorme: come sono messe “in serie” le tre batterie al limone nel lavoro di Svartling e le immaginifiche 6 nella bufala.

Se guardate con attenzione nel sito della bufala la connessione è assurda in quanto si tratta di fatto di una sola batteria al limone, costituita dai due elettrodi estremi, mentre quelli intermedi non costituiscono alcun dispositivo elettrochimico, ma sono solo pezzi di metallo connessi fra di loro; la similitudine è geometrica, non fisica; fra ciascuna delle singole coppie e quelle adiacenti non c’è alcuna separazione, condividono la stessa soluzione elettrolitica; ma le batterie non sono fatte così, esigono che ciascuna di esse, quando sono messe in serie abbia un suo proprio ambiente elettrochimico omogeneo alla batteria stessa, (e se vogliamo essere precisi a sua volta dotato di separatore fra i due elettrodi per evitare il mescolamento spontaneo e dunque la reazione in forma chimica non elettrochimica).

lemon4Per avere 6 batterie dovremmo separare il limone della bufala in sei pezzi indipendenti. Qui sotto lo schema a tre limoni.

lemon5Questo a mio parere è l’errore concettuale più forte e va al di là dei valori numerici di corrente e tensione, quel limone è una singola batteria, di più con i suoi elettrodi molto lontani e dunque che massimizzano la resistenza interna e peggiorano i risultati: il contrario di una buona batteria.

Conclusione è una bufala, non si può accendere il fuoco con una batteria al limone (e nemmeno con 6) in corto circuito.

Alcuni link utili.

http://hypertextbook.com/facts/2001/EtanMarciano.shtml

http://cr4.globalspec.com/thread/64677/Lemon-Battery-Capacity

https://prezi.com/93yh49bihq4-/factors-affecting-current-of-fruit-batteries/

http://www.odec.ca/projects/2011/duduj2/fruit-veg-battery.html

******************************************************

Nota sulla reazione di riduzione. E’ interessante notare che si sceglie di solito come reazione di riduzione per questo processo e anche per la reazione di Volta (che usò una soluzione acidula con i medesimi elettrodi) quella dell’idrogeno, con i problemi che si diceva nel testo: quali sono le effettive concentrazioni dei reagenti? Dove è l’idrogeno gassoso in equilibrio e che pressione parziale ha? Ma c’è un’altra reazione di riduzione che è anche termodinamicamente più favorita e che non soffrirebbe i medesimi problemi concettuali: la riduzione dell’ossigeno sciolto in soluzione il cui potenziale è positivo, molto più favorevole dunque di quello del protone, nelle condizioni date (che non sono di attività unitaria) dell’ordine di +0.8V. Ma come mai non si sceglie questa reazione?

O2(g) +4H+(aq)+4e –>H2O

Beh nel limone mi vien da dire per mancanza di ossigeno disciolto nel liquido interno del limone, a causa delle barriere cellulari. L’acido citrico c’è , l’ossigeno no, anche nella mela o nella patata è lo stesso come provato dal cambio di colore se li tagliate.

Ma nel caso della reazione di Volta (dunque usando una soluzione e non il limone come eletttrolita) invece la questione è molto ampia; la scelta fra i due reagenti è importante in molti altri ambiti, come nelle celle a combustibile per esempio; la risposta potrebbe essere non tanto termodinamica, ma cinetica; ossia quale sovratensione hanno rispettivamente il protone e l’ossigeno nel ridursi su un elettrodo di rame o di grafite poniamo, se costruiamo la cella con grafite e zinco, tanto il rame è inerte nel contesto dato? La risposta a queste domande è complessa; per chi fosse interessato consiglio di approfondire leggendo qualcosa sull’analisi cosiddetta di Sabatier o sul diagramma vulcano, che è lo stesso e casomai leggendo questi riferimenti:

Oxygen-tolerant proton reduction catalysis: much O2 about nothing?†

David W. Wakerley and Erwin Reisner*   Energy Environ. Sci., 2015, 8, 2283

Oppure

Electrocatalytic Oxygen Reduction Reaction Chaojie Song and Jiujun Zhu

E si tenga presente che il termine attività in questo contesto si riferisce alla catalisi e non alla termodinamica, più vicino concettualmente all’affinità di De Donder che ad altro.

Anche nella lemon battery c’è da studiare per una vita e non solo alle elementari. Si può ripetere questo esperimento dalle elementari all’università trovando sempre di cosa discutere.

Chimicamente alla moda. 2.

In evidenza

(la prima parte di questo post è pubblicata qui).

Marino Melissano

(seconda parte)

Coloranti azoici

Detti anche azocoloranti, derivano formalmente dall’azobenzene. Presentano colori brillanti e buoni requisiti tintoriali anche se, rispetto ad altri coloranti, sono meno stabili alla luce, al lavaggio e al candeggio.

melissano21

Il Metilarancio un esempio di colorante azoico.

I coloranti Azoici sono composti caratterizzati dalla presenza di uno o più gruppi azoici (-N=N-), in genere in numero da 1 a 4 , legati a radicali fenilici o naftilici , che sono generalmente sostituiti con alcune combinazioni di gruppi funzionali che includono: ammine (-NH2), cloruri (-Cl), idrossili (-OH), metili (-CH3), nitro (-NO2), acido solfonico sali di sodio (-SO3Na+. I coloranti azoici , sintetizzati a partire da composti aromatici non sono basici in soluzione acquosa (a causa della presenza dei legami N=N, che riducono la possibilità di avere elettroni spaiati sugli atomi di azoto) , sono facilmente ridotti a idrazine e ammine primarie, funzionando come buoni ossidanti.

Di conseguenza i coloranti azoici possono rilasciare una o più ammine aromatiche che sono cancerogene in concentrazioni superiori a 30 mg/kg (0,003 % in peso). Per questo, non possono essere utilizzati come coloranti di articoli tessili e di cuoio che potrebbero entrare in contatto diretto e prolungato con la pelle.

A questo proposito esiste una delle restrizioni cogenti più conosciute. E’ stata introdotta negli anni ’90 e recepita dalla Direttiva CE 2002/61, che, oggi, è stata sostituita dal Regolamento REACH ed è stata recepita anche dalla legislazione di molti Paesi extra UE (Cina ad esempio).

Le ammine cancerogene previste sono 22.

I metodi da seguire per l’esecuzione delle prove sono ben definiti, (EN 14362-1 e EN 14362-3), eppure queste sostanze sono ancora usate, soprattutto per il loro basso costo. Siveda per esempio:

http://cirs-reach.com/Testing/AZO_Dyes.html

E’ interessante notare che in un studio analogo a quello di GP (European survey on the presence of banned azodyes in textiles) condotto nel laboratorio ISPRA per l’UE sullo specifico problema dei colorati azoici e dei loro derivati cancerogeni nei tessuti nel 2008 il numero di campioni esaminati non fu diverso come ordine di grandezza da quelli esaminati dallo studio GP e anche i risultati non si distaccarono troppo. Vale la pena di dire che in quel caso ci fu forse più attenzione ai dettagli statistici del problema, come si può evincere dall’abstract del lavoro che accludiamo in nota (Nota ISPRA 2008[i], lavoro intero scaricabile qui).

Anche nel caso dei coloranti azoici oltre il contatto diretto esiste la possibilità dell’assorbimento tramite la catena alimentare, la qual cosa indica anche un potenziale danno ambientale oltre che il ritorno “sistemico” verso la specie umana, che come super-super-predatore diventa così il collettore di tutto ciò che essa medesima scarica nell’ambiente. Questo fenomeno per i coloranti azoici è documentato in un recente testo.

The discharge of azo dyes into water bodies presents human and ecological risks, since both the original dyes and their biotransformation products can show toxic effects, mainly causing DNA damage. Azo dyes are widely used by different industries, and part of the dyes used for coloring purposes is discharged into the environment. The azo dyes constitute an important class of environmental mutagens, and hence the development of non- genotoxic dyes and investment in research to find effective treatments for effluents and drinking water is required, in order to avoid environmental and human exposure to these compounds and prevent the deleterious effects they can have on humans and aquatic organisms.

Nella ricerca GP gli azoici sono stati trovati in un numero molto limitato di casi; le immmagini e il marchio implicato in questo caso si possono trovare nel report originale.

Formaldeide

Gas incolore, dall’odore penetrante, ha la proprietà di uccidere batteri, funghi e virus, perciò viene largamente impiegato come disinfettante e conservante in moltissime produzioni industriali: mobili, vernici, truciolati, colle, detersivi, materiali isolanti. E’, inoltre, utilizzata come agente reticolante per le paste da stampa e come ausiliario nella concia delle pelli.

Essendo un gas, viene rilasciato nell’aria, provocando irritazioni e bruciori a occhi, naso e gola, ma anche cefalee, stanchezza e malessere generale. È solubile nell’acqua, perciò i lavaggi ne riducono la concentrazione fino alla totale scomparsa.

In campo tessile, la formaldeide può essere rilasciata dalle resine utilizzate per conferire agli abiti le caratteristiche antipiega. Negli anni più recenti, a livello europeo, tale rischio è estremamente contenuto, grazie ai progressi dell’industria chimica, che hanno consentito un’ottimizzazione consistente delle resine che, se correttamente applicate, sono definibili a “zero contenuto di formaldeide”.

Il primo paese a livello mondiale che ha posto restrizioni sul valore di formaldeide rilasciata da un tessuto è stato il Giappone (1973 – legge 112) che, per oggetti destinati ai bambini, ne impone di fatto l’assenza.

Gradualmente anche i paesi europei si sono adeguati e, pur con limiti diversi, esistono leggi che ne regolamentano l’utilizzo nella maggior parte di essi (Germania, Austria, Olanda, Francia, Norvegia, Finlandia, Slovenia, Repubblica Ceca).

Il metodo più noto per la determinazione della formaldeide nei tessuti trattati è il metodo giapponese JIS L 1041. Esiste tuttavia una norma europea sostanzialmente equivalente: la EN ISO 14184-1, mentre per il cuoio si applicano i metodi della serie EN ISO 17226.

A livello di Unione Europea non esiste tuttavia un divieto o una restrizione specifica applicata al settore tessile, neppure in ambito REACH. Le restrizioni sono invece previste da alcuni marchi volontari, che, di fatto, si rifanno alla legge giapponese prevedendo in genere come limiti massimi:

da 16 a 20 mg/kg (bambini); 75 mg/kg (per prodotti a contatto con la pelle); 150- 300 mg/kg

(per prodotti non a contatto con la pelle).

Comunque la formaldeide, che si usa fin dal 1923, è considerata a basso livello di concentrazione se presente nel prodotto finale a meno di 100ppm, ossia meno di 100mg/kg di tessuto.

Anche questa sostanza e’ stata trovata in alcuni jeans (https://pubs.acs.org/cen/government/88/8836gov2.html) ma non nei test effettuati da Green Peace.

Metalli pesanti

Cadmio, Piombo, Mercurio, Cromo(VI), Nichel. I metalli pesanti come cadmio, piombo e mercurio vengono utilizzati in alcuni coloranti e pigmenti. Questi metalli possono accumularsi nel corpo per molto tempo e sono altamente tossici, con effetti irreversibili, inclusi i danni al sistema nervoso (Piombo e Mercurio) o al fegato (Cadmio).

Il Cadmio è anche un noto cancerogeno.

Il Cromo(VI) che è utilizzato in alcuni processi tessili e conciari dell’industria calzaturiera è fortemente tossico, anche a basse concentrazioni, per molti organismi acquatici. Qualsiasi articolo in cuoio, o parte in cuoio di un articolo, che entri a contatto diretto o indiretto con la pelle non dovrà contenere Cromo(VI) in concentrazione superiore o uguale a 3 mg/kg di materiale “secco” (0,0003%)perché provoca, tra l’altro, dermatiti, allergie e irritazioni. La concentrazione massima indicata nel Regolamento REACH coincide con il limite di rilevabilità del metodo di prova ufficiale, EN ISO 17075.

I composti del Cromo(VI) sono stati valutati dall’IARC come cancerogeni per l’uomo.

Il Nichel rilasciato dai coloranti usati per tingere, è fortemente allergizzante.

Dal primo maggio 2015 l’Ue ha vietato la vendita di scarpe e pelletteria in cui la concentrazione del metallo superi i 3 mg/kg.

Anche Cadmio, Mercurio e Piombo sono stati classificati come ‘sostanze pericolose prioritarie’ ai sensi della normativa dell’Unione europea sulle acque e sottoposti a rigorose restrizioni.

Trovati in biancheria intima, jeans, maglie da calcio. E’ interessante notare che negli allarmi RAPEX una quota significativa è relativa all’uso di qualcuno di questi metalli, specie nei pellami per uso umano. (Infine il Nichel non dimentichiamolo è un componente delle monete che usiamo tutti i giorni e la sua presenza in concentrazione superiore a quella che può scatenare dermatiti è stata denunciata in tempi e luoghi non sospetti (http://www.nature.com/news/2002/020912/full/news020909-9.html))

Perfluorocarburi (PFC)

Composti contenenti in modo preponderante legami carbonio-fluoro. La loro particolare struttura li rende idrofobici e lipofobici, ovvero in grado di repellere l’acqua e le sostanze oleose/grasse

Sono utilizzati per rendere i tessuti e oggetti impermeabili, resistenti all’acqua e resistenti alle macchie.

E’ dimostrato che i PFC sono tossici e bioresistenti. e che un’esposizione a PFC è correlata a minore peso alla nascita nei neonati, colesterolo elevato, infiammazione al fegato, indebolimento del sistema immunitario, tumore del testicolo, obesità
Trovati in tessuti outdoor e per sportivi anche di grandi marche. D’altronde sappiamo che la produzione di questi materiali per i più disparati usi ha avuto un effetto di inquinamento notevole nelle zone di produzione, fra cui alcuni dei nostri distretti industriali (http://corrieredelveneto.corriere.it/veneto/notizie/cronaca/2016/20-aprile-2016/inquinamento-miteni-valori-pfas-superiori-limiti-240327880018.shtml).

Abbiamo velocemente tratteggiato la situazione, ma ovviamente questa descrizione non è completa non solo perché il mercato evolve ma anche perchè evolve la chimica e cambiano i metodi di produzione ed analisi e le conoscenze mediche.

Esistono e da molti anni leggi e numerosi protocolli di sicurezza (come Oeko-Tex) a cui le aziende si attengono, ma dato che nonostante tutto i problemi ci sono, come abbiamo visto, Altroconsumo, insieme a Greenpeace, ha chiesto ai marchi d’abbigliamento di andare oltre il Reg. REACH e la certificazione Oeko-Tex ed eliminare dalla produzione, gradualmente entro il 2020, tutte le sostanze tossiche.

Nasce così la Campagna DETOX.melissano22

La campagna Detox di Greenpeace chiede ai marchi della moda di impegnarsi su base del tutto volontaria nell’eliminare l’utilizzo di tutte le sostanze pericolose entro il 2020 e chiede a tutti i loro fornitori, nell’ottica della massima trasparenza, di rendere pubblici su una piattaforma online indipendente, i dati relativi allo scarico di inquinanti dalle loro strutture.

Diventa sempre più ampia la lista di aziende che hanno scelto di sottoscrivere l’impegno Detox, tra cui 35 gruppi della moda e dell’abbigliamento che rappresentano più di 100 marchi, che da soli costituiscono il 15% ,in termini di fatturato, della produzione tessile mondiale. Ciononostante anche nel nostro paese la copertura è a macchia di leopardo.

Tra gli aderenti alla campagna ci sono vari grandi gruppi e marchi internazionali, interi distrettti produttivi del tessile italiano e il numero cresce di continuo; negli ultimi giorni per esempio avrete letto sui giornali che il gruppo Gore Fabrics si è impegnato ad eliminare i derivati perfluorurati la cui produzione si è dimostrata ecologicamente nociva.

Trovate la lista delle aziende che hanno sottoscritto l’impegno Detox e il testo dello stesso su https://www.confindustriatoscananord.it/chi-siamo/attivita-e-progetti-speciali/detox

L’iniziativa Detox è del 2011 ed ha catalizzato a sua volta altre iniziative come per esempio ZHDC (Zero Discharge of Hazardous (ZDHC) Programme); è da dire che questa iniziativa va a rilento.

Infatti sebbene esista una lista di prodotti che sono bannati non dall’uso generale nel procedimento produttivo ma dall’uso intenzionale, sul sito troviamo scritto ancora oggi:

In 2014, the Programme began developing a universal set of XML-standards to organise the way key chemical data should be collected and shared for the benefit of all stakeholders.

In 2016, the Programme will release the ZDHC Chemical Registry, an online data sharing portal for chemical companies to asses a product’s compliance against ZDHC’s MRSL. Read more on the Chemical Registry here.

Ma sfortunatamente quel link “here” è vuoto.

Per comprendere uno dei limiti di questa impostazione si può fare riferimento all’uso di NPE che è il più comune degli alchilfenoletossilati; NPE non è consentito come uso diretto e questo va benissimo, ma può essere usato in prodotti che lo contengono come “impurezza” fino ad una concentrazione di 500ppm, ossia 500mg/kg di prodotto; la concentrazione permessa nel prodotto finale non deve superare 100ppm (0.01%); è chiaro che esiste una “driving force” per far diffondere l’impurezza in quantità anche superiori a quelle consentite.

Inoltre se si va a vedere in dettaglio si trova che la concentrazione massima tollerata per NPE è superiore alla concentrazione critica micellare (CMC) della sostanza; in pratica il protocollo (e la legge europea) consente di usarla ancora come tensioattivo (infatti la CMC di NPE15 è 0.1mM, ossia 22mg/kg (22ppm) contro un limite legale di 100 ppm (0.01% nella legge europea nel prodotto finale e un limite concesso nel protocollo ZHDC di 500ppm, quasi 25 volte superiore); per le varie lunghezze di catena degli etossilati la CMC varia ma è comunque inferiore a 100ppm!

Non è comunque banale fare un confronto fra i due approcci, mentre per meglio approfondire i risultati già ottenuti del progetto Detox si può guardare ai risultati degli scarichi in alcune zone industriali italiane.

Che cosa possiamo fare, prima di acquistare un capo di moda?

In realtà è necessaria un’attività di informazione, dalla filiera e al consumatore, sia sulle sostanze utilizzate e sui relativi rischi potenziali sia sull’attività di prevenzione che fanno le aziende.

Le fibre artificiali (quelle naturali modificate) e quelle sintetiche (dette anche “man-made“, sintetizzate dall’uomo), che coprono oggi il 70% dei consumi mondiali di fibre tessili, arrivano in buona parte dall’Estremo Oriente. Anche in questo blog si è detto altre volte che il primo produttore chimico mondiale con una quota del 66%, è la Cina, che esporta in Europa prodotti meno costosi e a volte già trattati con dei coloranti. Per questo motivo la semplice richiesta della etichetta “made in Italy”, di per se, non esclude prodotti confezionati in Italia, ma con tessuti importati da altri paesi i cui controlli potrebbero essere meno efficienti.

I vestiti non parlano, non ci raccontano la loro storia e le sole etichette non ci aiutano nella scelta. Cerchiamo certificazioni sulla sostenibilità (Oeko-Tex) e smart labels di “Made in colours”, con codice a barre o QR code, che permette di conoscere tutte le sostanze usate nel ciclo produttivo.

Altroconsumo consiglia i marchi che hanno firmato l’accordo Detox e che si sono classificati Detox leader mentre altri non lo hanno fatto.

Più in generale:

Evitiamo l’acquisto di indumenti con stampe plastificate ed etichettati come: antiaderente, resistente alle macchie e all’acqua.

  • Laviamo i capi prima di indossarli per la prima volta
  • Evitiamo di far indossare a bambini e adolescenti capi di dubbia qualità. Se si notano sulla pelle reazioni allergiche imputabili a un capo di abbigliamento, segnaliamolo anche all’associazione Tessile e Salute, che indicherà un laboratorio per far analizzare il capo sospetto.
  • Per lo sport ricordiamo che il sudore e il calore favoriscono l’assorbimento delle sostanze rilasciate dai tessuti e potenzialmente dannose per cui massima attenzione.
  • Evitiamo indumenti con un’etichetta mancante o contraffatta
  • In ultimo ricordiamo che il suggerimento di preferire il cotone bianco per la biancheria potrebbe essere insufficiente (infatti non possiamo escludere che un capo di colore bianco non contenga di per se sostanze potenzialmente dannose e perfino non possiamo escludere trattamenti con sostanze coloranti che esaltino il bianco, in fondo l’occhio non è uno spettrofotometro, pensiamo agli effetti di certi derivati degli stilbeni con proprietà fluorescenti e comunemente usati a questo scopo)

PIU’ ETICA E MENO ESTETICA

L’inversione di tendenza in campo ambientale non è data solo dall’avvento di prodotti che non siano dannosi per l’uomo, (così detti verdi), ma forse ancor più dai nostri comportamenti. E qui sorge ancora la domanda: siamo veramente pronti a cambiare il nostro stile di vita? Siamo convinti che occorre rinunciare a qualcosa e, che l’era del consumismo sfrenato è finita?

  • Come al solito, siamo degli autodidatti e come tali il percorso è lungo.

In Italia manca un’educazione ambientale, intesa non solo come rispetto della Natura, ma anche come educazione ad un futuro migliore, ecologicamente, economicamente e socialmente sostenibile, in cui ben si inserirebbe il vestire sostenibile.

Questa è la vera sfida su cui ognuno di noi è chiamato a dare il suo contributo e il ruolo del Chimico sia nei processi di analisi e di controllo, sia nei processi di sintesi di sostanze che sostituiscano quelle dannose, è essenziale.

**********************************************************

[i] Nota ISPRA 2008: A European survey on the presence of banned azodyes in textiles, in particular textile clothing, produced all over the world was performed. The selection of fabrics was planned among coloured textile products, in order to cover as many different types of fibres and type of garments as possible. The whole population was considered as target. Samples were bought in 24 Member States of the European Union, from different sources, with different compositions and various production countries or areas. Part of them was printed and some were “easy care” or Oeko-Tex labelled. A total of 116 samples were analysed with standard method EN 14362-1 (without extraction) and 72 also with standard method EN 14362-2 (with extraction). Measurements were performed in duplicate and standard deviations were calculated.

In the case of the method without extraction, 2.6 % of samples (3 out of 116) intended to be in direct contact with skin contained over 30 mg/kg of some banned aromatic amines, which is the limit established by Directive 2002/61/EC. The highest concentration (434.2 mg/kg) was measured for benzidine. Other ten samples (8.6 %) contained some prohibited aromatic amines in levels lower than the limit. Comparison between method EN 14362-1 and a slightly modified version of it showed that generally the standard method gave lower results than the ones obtained with the modified one.

Considering the method with extraction from fibres, only one sample T188 contained some banned aromatic amines, one of which, benzidine, in concentration of 39.0 mg/kg. Several not carcinogenic aromatic amines, different from the ones listed in Directive 2002/61/EC, were detected in 21 samples. They were quantified based on calibration curves of some banned aromatic amines of similar structure. Their concentration was often higher than 30 mg/kg and in certain cases even higher than 100 mg/kg. Colour fastness to washing, perspiration and saliva was evaluated for the samples which contained some forbidden aromatic amines, in order to estimate the tendency of dyes to migrate. Results showed a very high colour fastness in terms of colour degradation, except for some samples including the two positive ones T188 and T292. On the contrary, colour fastness in terms of staining was not high, in particular on polyamide. Staining was generally higher to washing at 60°C than to saliva at 37°C; the lowest staining was obtained to perspiration at 37°C. Almost no differences were observed among results obtained with acid and basic saliva or with acid and basic perspiration simulants. The three positive samples T148, T188 and T292 were among the worst specimens concerning both colour degradation and staining.

Following the recommendations of the European Chemical Bureau’s Technical Guidance Document, data were used to estimate adult and child dermal exposure to carcinogenic aromatic amines. From data obtained with the EN-14362-1 standard method and the modified one, the maximum dermal uptakes evaluated in the case of a child were 8.2 and 11.8 mg/kg bw and, in the case of an adult, 3.1 and 4.4 mg/kg bw respectively.

Chimicamente alla moda. 1.

In evidenza

Marino Melissano*

*Marino Melissano è stato fino a pochi giorni fa vicepresidente di Altroconsumo, uno dei pochi chimici (già docente universitario, libero professionista, coordinatore di progetti europei, membro dell’ordine dei Chimici in Trentino) in una posizione chiave nelle associazioni di consumatori e ambientalisti.

Premessa

melissanoPochi sanno che l’industria tessile è la seconda più inquinante al mondo, dopo quella del petrolio. La scioccante dichiarazione è dovuta ad una delle principali esponenti del settore, Eileen Fisher, una magnate dell’industria tessile.

Nel tessile si possono usare molte sostanze tossiche, che inquinano e possono lasciare tracce sui capi di abbigliamento. L’esistenza di questo rischio è riconosciuta dall’UE ed esiste una categoria dedicata nel servizio RAPEX, ossia nella segnalazione rapida di casi di merci pericolose che entrino nel mercato europeo.(si veda Nota RAPEX[i]).

Dobbiamo conoscerle ed essere coscienti di ciò negli acquisti.

Se vogliamo veramente cambiare il mondo, se vogliamo invertire la tendenza all’inquinamento, se vogliamo che le generazioni future possano vivere in un ambiente più pulito e più rispettoso dei diritti altrui, se vogliamo un’economia più equilibrata che muti i concetti di profitto e lavoro, se vogliamo risorse meglio distribuite, se vogliamo che i diritti di noi consumatori siano il punto-chiave di ogni politica industriale e sociale.

DOBBIAMO CAMBIARE IL NOSTRO APPROCCIO ALLE COSE, DOBBIAMO INTERPRETARE UN NUOVO RUOLO, DOBBIAMO ESSERE PIU’ COSCIENTI DI CIO’ CHE ACQUISTIAMO, IN DEFINITIVA AVERE NUOVE RESPONSABILITA’.

“Tutti pensano di cambiare il mondo, ma nessuno pensa a cambiare sé stesso” (Tolstoj)

Questo vale anche per la moda, che non deve essere solo trendy, ma deve diventare sempre più sostenibile, deve diventare «uno stile».

                                                   «La moda passa, lo stile resta» (Coco Chanel)

melissano2Panorami incontaminati e boschi lussureggianti hanno a che fare con una moda sostenibile?

Estetica senza etica: un abito nuovo ci veste o ci gratifica?

La Chimica e la moda

Greenpeace (GP), nel 2011 ha scoperto due impianti tessili in Cina che scaricavano sostanze pericolose nei fiumi Azzurro e delle Perle. Così ha fatto analizzare prima le acque e poi 141 campioni di vestiario di 20 diversi marchi, prodotti in Paesi in via di sviluppo (trovate questo report insieme agli altri qui). Questo numero potrebbe apparire ridotto rispetto al numero di capi presenti sul mercato mondiale; ma in effetti è ben noto che anche un campione relativamente ridotto di dati può comunque considerarsi rappresentativo dell’intera popolazione statistica, purchè raccolto con criteri appropriati, quali una copertura completa di tutte le principali aree di produzione e tipologie di prodotto, una numerosità di dati raccolti per area proporzionale alla produzione complessiva dell’area stessa, e così via. D’altronde vedremo più avanti altri studi con coperture analoghe e fatti da enti istituzionali.

Nello studio citato di GP i 2/3 dei campioni contenevano sostanze tossiche o cancerogene (nonilfenolo etossilato, ftalati, formaldeide, coloranti contenenti ammine).

Secondo uno studio realizzato dalla Ue, il 7-8% delle patologie dermatologiche è dovuto a ciò che indossiamo, mentre il Sistema europeo di allerta rapido per i prodotti non alimentari piazza l’abbigliamento al primo posto della classifica per presenza di sostanze pericolose. (Chemical substances in textile products and allergic reactions)

L’Associazione Tessile e Salute ha eseguito, per conto del Ministero della Salute, un’indagine sui tessili circolanti in Italia. E’ risultato che:

  • Il 15% erano privi di etichettatura
  • Il 34% riportavano una composizione errata
  • Il 29% aveva un pH fuori dai limiti: a livello comunitario non esiste una restrizione cogente specifica relativa al valore di pH consentito per un prodotto di abbigliamento in tessuto o pelle, anche se esistono norme volontarie per la sua determinazione e requisiti definiti, a livello volontario, da alcuni marchi. (Nota sul pH[ii])
  • Il 4% conteneva ammine aromatiche (cancerogene)
  • Il 4% coloranti allergenici
  • Il 4% metalli pesanti
  • Il 6% formaldeide

Sono stati monitorati 400 casi di dermatiti gravi ed è risultato che fossero causate:

  • 69,1% da tessili
  • 16,5% da accessori metallici
  • 14,4% da calzature

Quello della sicurezza dei capi di abbigliamento è insomma un problema che le associazioni ambientaliste e dei consumatori, tra cui Altroconsumo, denunciano da tempo, senza trovare adeguato ascolto, salvo in occasione di eventi eclatanti come il ritiro di pigiami per bambini posti sotto sequestro dalla Procura di Torino perché risultati tossici.

Le leggi sono carenti, obsolete e frammentate. la norma Uni/Tr 11359, sulla gestione della sicurezza degli articoli di abbigliamento è l’unico documento normativo sistematico sulla materia.

Vediamo più da vicino questi composti.

melissano3NONILFENOLIETOSSILATI (NPE):

Vengono usati in genere come detergenti industriali e nella produzione di detergenti.

Sono tensioattivi che possono funzionare da interferenti endocrini, di conseguenza il loro commercio è stato limitato in Europa e non si trovano più nei prodotti per bucato negli Stati Uniti. L’NPE, che è stato individuato anche in pigiamini per bambini e nella biancheria intima viene rilasciato al momento del lavaggio dei tessuti e, una volta disperso nell’acqua, si degrada in altri composti, tra cui il nonilfenolo, che si accumula nei pesci, interferendo con il loro sistema endocrino..

L’ NPE che è usato, come detergente ed è responsabile dell’inquinamento idrico e dell’alterazione degli ecosistemi acquatici, pur essendo vietato da più di 10 anni negli articoli prodotti in UE, non è vietato nei capi importati.

Gli Stati membri dell’Unione Europea hanno raggiunto nel 2016 un accordo per vietare l’impiego del nonilfenolo etossilato (NPE) anche nei tessuti importati all’interno della UE, ma la messa al bando avrà effetto entro il 2021.

Esiste, però, uno studio dell’Agenzia danese per l’ambiente che ha concluso che le concentrazioni di NPE, più alte nei tessuti di origine cinese di aspetto brillante, non pongono rischi per la salute umana pur essendo tossici per gli organismi acquatici.

Il fenomeno può essere considerato una sorta di effetto rebound, simile a quello che avviene per certi farmaci; se assumete i farmaci antinfiammatori non steroidei (FANS) per via orale avete un potenziale effetto gastrolesivo dovuto alla inibizione di alcuni enzimi; per evitare questo effetto si può somministrare il farmaco per altre vie, non orali, per esempio attraverso una pomata direttamente sull’arto infiammato; ma il farmaco anche per questa strada può avere effetti gastrolesivi (ma notevolmente inferiori), in quanto una volta assorbito entra in circolo e dunque può arrivare allo stomaco dal circolo ematico, anche se in concentrazioni inferiori. In analogo modo se voi impedite il contatto diretto fra NPE e pelle umana, imponendo una concentrazione finale rilevabile molto bassa sui tessuti ed anche un lavaggio preventivo, NPE si diffonderà comunque nell’ambiente dove entra in biosfera; miliardi di capi cedono piccole quantità di composto che, sommate insieme, oltre ad essere lesive per alcune specie animali (stimolano la femminilizzazione in varie specie), entrano nella catena alimentare e per questa strada vengono infine ri-assorbite dall’uomo.

Occore precisare tuttavia che sebbene gli NPE siano stati trovati in quantità significativa nel latte umano anche nel nostro paese, ed ovviamente anche in altri paesi, non esiste ancora una associazione chiara fra questo bioaccumulo e la sorgente effettiva di questi composti, così ampiamente usati in passato.

Alcuni esempi di capi, pubblicati da Greenpeace, in cui sono stati trovati NPE con le immagini dei capi incriminati si possono trovare nel report originale.

melissano4FTALATI

Famiglia di composti di sintesi usati nell’industria delle materie plastiche come agenti plastificanti, o meglio, come sostanze aggiunte al polimero per migliorarne la flessibilità e la modellabilità.

Sono sostanze tossiche soggette a restrizione europea. Il loro uso in concentrazioni >0,1% è vietato nei giocattoli e negli oggetti per la prima infanzia, compresi gli indumenti. Il più recente documento riguardante questi prodotti e il loro uso è di meno di un anno fa: https://echa.europa.eu/documents/10162/22286145/four_phthalates_annex_xv_report_initial_appendices_en.pdf/f86ddf58-a578-486f-88d3-9d9c21139ad3.

E’ bene chiarire che i composti soggetti a restrizioni non sono genericamente gli ftalati ma alcuni ftalati, i principali dei quali con le sigle: DEHP, DBP, DIBP, and BBP corrispondono ai cosiddetti ftalati a basso peso molecolare.

melissano5

Sperimentazioni sugli animali da laboratorio hanno mostrato che i tipici effetti critici riguardano la tossicità epatica, testicolare e riproduttiva.

Non essendo legati stabilmente alla matrice polimerica, gli ftalati possono facilmente migrare e depositarsi sulla pelle, ma anche essere inalati o ingeriti.

Si sospetta che alcuni di essi agiscano come interferenti endocrini.(http://ehp.niehs.nih.gov/0901331/)

In campo tessile sono usati per le stampe di scritte o disegni da applicare a magliette o pigiamini, specie nell’abbigliamento dei più piccoli. Se la stampa si “screpola” facilmente vuol dire che contiene pochi ftalati, viceversa una stampa che resta sempre morbida e inalterata ne contiene molti.

Alcune di queste sostanze sono disciplinate dal regolamento REACH, e soggette ad autorizzazione (Allegato XIV) o a restrizione (Allegato XVII).

Alcuni esempi, pubblicati da Greenpeace, di capi in cui sono stati trovati ftalati con le immagini dei prodotti implicati si possono trovare nel report originale.

(continua)

Note dell’autore.

[i] Nota su Rapex: Dal 2012 esiste un sistema di allerta rapido per tutte le merci pericolose gestito dalla Unione Europea i cui report sono pubblici e che si può consultare a questo indirizzo e a cui qualunque cittadino si può abbonare gratuitamente: http://ec.europa.eu/consumers/consumers_safety/safety_products/rapex/alerts/main/index.cfm?event=main.listNotifications

Nella categoria Clothing, textiles and fashion items il rischio chimico è stato segnalato nel corso del 2016 69 volte, cioè per 69 diverse merci di questa categoria. Nel 2015: 69 – 2014:95 – 2013:99- 2012:66. In tutti i 400 casi individuati per la categoria in questione da quando il sistema esiste il rischio è stato giudicato “serio”. Questo dà contemporaneamente l’idea che un sistema del genere è utile perché il rischio c’è ed è un rischio significativo (anche se il numero di merci in ingresso in EU è molto più elevato) ma anche del fatto che esistono metodi di verifica e controllo efficaci. D’altronde per il medesimo motivo pone anche il problema di quanti casi NON vengano individuati: in pratica questi casi probabilmente sono solo la punta dell’iceberg di un fenomeno più esteso di violazione delle regole. (si veda anche: http://www.mercipericolose.it/approfondimenti-mp/pillole-di-reach/471-restrizioni-reach-sugli-ftalati-e-rapex)

  • [ii] (Nota sul pH): La necessità di una restrizione cogente è conseguente al fatto che la pelle umana ha un pH 5,5 e che al contatto con sostanze a comportamento acido o basico che mostrano valori di pH molto diversi da 5,5 sviluppa fenomeni irritativi anche molto significativi.
  • Il metodo per la determinazione del pH su tessili è descritto nella norma EN ISO 3071, e quello per il cuoio nella norma EN ISO 4045.
  • In Cina, al contrario, la restrizione dei valori del pH è un requisito cogente (Standard GB 18401) che impone, per i prodotti tessili destinati all’abbigliamento, valori di pH compresi tra 4,0 – 7,5 (per bambini fino a 36 mesi); tra 4,0 – 8,5 (per prodotti a diretto contatto con la pelle); 4,0 – 9,0 (per prodotti non a diretto contatto con la pelle).

 

Il dilemma del tensioattivo (e del chimico)

In evidenza

Mauro Icardi.

Il fenomeno della diffusione di schiume da tensioattivi sulla superficie di molti fiumi italiani negli anni 70, rivelò agli occhi degli italiani che la situazione dell’inquinamento idrico era oggettivamente grave, e che occorreva porvi rimedio. Il 1976 vide promulgata la legge 319/76 da tutti meglio ricordata come Legge Merli, termine cha ha poi identificato per abitudine presso la pubblica opinione anche le successive normative di regolamentazione degli scarichi idrici, fino a non molti anni fa.
Le schiume di qualunque genere e provenienza (biologiche, marine o altro) portano le persone ad identificarle con quelle dei tensioattivi. Questo è ormai un atteggiamento mentale consolidato.
La presenza di schiume superficiali su corsi d’acqua effettivamente reca a chi le vede una sorta di fastidio, crea un’immagine stridente con l’idea che ognuno di noi ha di quello che deve essere un fiume limpido e pulito.

ticino-2

I tensioattivi sintetici sono prodotti derivanti principalmente dall’industria petrolchimica (nota). La loro funzione principale è quella di diminuire la tensione superficiale della molecola di acqua, ed aumentare la bagnabilità dei prodotti che sono messi a lavare. Pare impossibile, ma l’acqua da sola ha uno scarso potere detergente.
Molto presto si scopri che detersivi sintetici la cui struttura molecolare era ramificata non erano attaccabili dai microrganismi naturali, quindi non potevano essere degradati tramite i meccanismi biologici di autodepurazione.
Si stabili per legge quindi che i tensioattivi dovevano essere biodegradabili almeno all’80% . Vennero formulati prodotti tensioattivi a catena lineare più “appetibili” e più facilmente biodegradabili dalle comunità batteriche.
Ora occorre ragionare su questa percentuale di abbattimento e fare qualche riflessione più generale su quello che le normative prevedono, e sull’evoluzione dei trattamenti di depurazione.
Abbiamo parlato di tensioattivi biodegradabili all’80%. Se guardiamo i limiti normativi ci accorgiamo che questo limite si riduce al 50%. Il limite tabellare di legge (Dlgs 152/2016) prevede che possano essere scaricati in fognatura al massimo 4 mg/l di tensioattivi totali (anionici, cationici, non ionici), e che all’uscita di un impianto di trattamento il limite massimo tollerato, sempre di tensioattivi totali, sia di 2 mg/l.
Un impianto normale, non dei più sofisticati, anche se privo di un trattamento terziario raggiunge agevolmente questa percentuale di abbattimento e la supera nella quasi totalità dei casi, salvo particolari condizioni di criticità che possono essere dovute o a sovraccarico o ad avarie di tipo meccanico/elettrico. Queste ultime di solito si risolvono in tempi brevi tramite la messa in funzione di unità di riserva (per esempio pompe o sistemi di areazione).
Nella mia esperienza personale sugli impianti ho notato che la percentuale di abbattimento reale è dell’ordine del 75%, quindi congruente con quella di biodegradabilità dei tensioattivi e molto al di sotto del limite di legge. La concentrazione residua di tensioattivi totali è normalmente al di sotto di 1 mg/l. (varia da 0,5 a 0,7 mg/l.)
Eppure questa concentrazione residua è ancora più che sufficiente a produrre schiume, soprattutto se il flusso di acqua depurata viene sollevato a quote superiori con l’ausilio di pompe (per esempio nel trasferimento dalla sezione di sedimentazione finale a quella di disinfezione). E se il flusso dell’acqua in uscita dall’impianto è turbolento.

schiume.jpg

Il moto turbolento del fluido aumenta l’effetto. Questo è perfettamente spiegabile, visto che le bolle di sapone sono sacche di gas trattenute all’interno di una pellicola lamellare formata da una pellicola d’acqua in mezzo a 2 pellicole di sapone. La struttura lamellare dell’interfaccia tra l’acqua nelle pareti della bolla e l’aria , interna o esterna, è fondamentale per garantire la formazione e stabilità della bolla. Il sapone o il tensioattivo riducendo la tensione superficiale dell’acqua si dispone sulle pareti, sia nell’interfaccia interna che in quella esterna della bolla con le code lipofile orientate verso l’aria. Tra i 2 film si trova l’acqua. Il sistema lamellare ha una sua specifica elasticità e resistenza da cui dipende la capacità di fare bolle con le caratteristiche più svariate: enormi, piccolissime, che si dissolvono rapidamente. Nella parete della bolla, l’acqua può scorrere e per gravità scendere verso il basso.

chimica17

Questo è il primo fattore , il drenaggio, che porta all’indebolimento delle pareti della bolla e poi alla sua dissoluzione. La stessa acqua poi può evaporare , attraverso le pellicole di tensioattivo .Questo è il secondo fattore che porta all’indebolimento delle pareti della bolla e poi alla sua dissoluzione. Come si vede ci sono molti fattori (di carattere chimico-fisico) che fanno sì che si possano vedere residui di schiume all’uscita di un depuratore.
I tensioattivi che arrivano all’ingresso di un impianto sono poi una miscela dei più svariati tipi. A parte la normale divisione (anionici, cationici, non ionici) sono in genere quelli usati per la detergenza personale, per il lavaggio dei piatti, per il bucato. Se andiamo a guardare le tabelle di formulazione ci accorgeremo che le formulazioni non sono ovviamente tutte uguali.
Esistono prove di schiumeggiamento che mettono a confronto diversi saponi e tensioattivi e che misurano sia lo strato, che il tempo di permanenza della colonna di schiuma che si forma. Da questo si può notare che per esempio i saponi con una coda idrofobica più lunga possono formare più schiuma.

Si potrebbero poi citare ancora tanti temi quali la viscosità, la densità delle molecole di tensioattivo sulla superficie della bolla, la concentrazione critica micellare.

micella.png

Ma quando si è alle prese magari con un comitato di cittadini, o con associazioni ambientaliste non sempre questa sembra essere la soluzione migliore. Perché bisogna riuscire a parlare un linguaggio che sia comprensibile a tutti. E già di per sé questa cosa richiede impegno e costanza.
Andrebbe ricordato poi anche il collegamento con il cambiamento del regime delle precipitazioni, con i sempre più lunghi periodi di siccità, e quindi con la riduzione delle portate in molti fiumi. Che quindi mettono in crisi quella che è stata per decenni la filosofia di progettazione dei depuratori. Raggiungere dei ragionevoli e tecnicamente praticabili livelli di abbattimento di vari inquinanti, e lasciare che il carico inquinante residuo venga biodegradato naturalmente. Ma questo tipo di approccio sta entrando pesantemente in crisi.
Ne ho scritto in questo post pubblicato su “Risorse,Economia,Ambiente”
https://aspoitalia.wordpress.com/2016/02/24/siccita-che-fine-fa-lacqua-sporca/

Questo è un altro tema “caldo”. I tecnici idrici ne saranno coinvolti in pieno. E in questo caso lo sforzo dovrà essere molto coordinato, chiamando in causa chimici, ingegneri ambientali, progettisti.
Ma anche politici e cittadini. Questi ultimi a mio parere devono giustamente vigilare sull’operato delle società che si occupano di trattamento delle acque. Ma come per i rifiuti dove si deve impararne la corretta gestione, altrettanto si deve fare nella gestione dell’acqua e nel corretto uso dei prodotti di detergenza, senza eccedere inutilmente nel loro uso.
Lo scorso anno Luca Mercalli in una puntata del suo programma “Scala Mercalli” ha mostrato cos’è il “lato b” dell’acqua, cioè il trattamento di depurazione.
Ma non credo che ancora tutti siano consapevoli di questo. C’è un’analogia stringente tra il non buttare rifiuti nell’ambiente e nell’essere più attenti nell’uso dell’acqua che poi dovrà essere depurata.
Le sinergie e l’impegno di tutti sono imprescindibili.

(nota del blogmaster) Non fatevi ingannare dalla dizione tensioattivi “naturali”; in Natura esistono, è vero, sostanze ad azione tensioattiva, come le saponine, che sono glucosidi, ma i tensioattivi intesi come saponi, come li intendiamo comunemente sono eslusivamente prodotti dall’attività umana a partire da varie materie prime. Non esistono saponi “estratti” come tali da qualche altro materiale naturale (potreste usare la Saponaria officinalis come tale, ma non è poi così efficace). Perfino la ricetta “naturale” del sapone, quella delle nostre nonne, necessita di trattamenti chimici veri e proprii, come l’uso di potassa estratta dalle ceneri, da addizionare a grasso più o meno raffinato. E se volete farlo bene dovete usare soda non potassa. L’aggettivo “naturale” per i tensioattivi è sostanzialmente abusivo.

Archeometria delle ossa.

In evidenza

Luigi Campanella, ex Presidente SCI

L’uomo da sempre lotta contro il tempo che passa cercando di conservare giovane ciò che invecchia: dagli oggetti al vestiario dal corpo alla mente. Però lo stesso uomo cerca di misurare l’invecchiamento perché da esso si possono ricavare informazioni e conoscenze. Il corpo umano è im gran parte degradabile, le parti di esso che più resistono al tempo sono quelle minerali:ossa e denti, preziose entrambe attraverso la misura della loro età per assegnare un residuo umano ad un tempo storico.

Durante la vita l’osso è uno dei tessuti connettivi del corpo ed è costituito da cristalli del minerale idrossiapatite, depositati su una matrice fibrosa della proteina collagene. Il minerale occupa il 71 per cento del volume, il collagene il 19, altre proteine il 2 e l’acqua l’8 per cento. Dopo la morte, le proteine si decompongono lentamente: questa decomposizione graduale rappresenta la base di un metodo di datazione delle ossa: il dosaggio dell’azoto. Il minerale restante è soggetto a sciogliersi in condizioni di terreno acido. Le ossa si sono conservate in siti archeologici molto diversi, e molto diverso è anche il loro stato di conservazione. Le ossa possono essere datate tramite diversi metodi. Il più comune è quello della datazione al radiocarbonio: sia il collagene che i componenti minerali possono essere databili. Recentemente un certo numero di campioni ossei sono stati datati tramite test all’uranio. Datazioni relative possono essere ottenute in base agli scambi chimici, collegati al tempo, che avvengono nelle ossa dopo la sepoltura. In particolare essi comprendono il dosaggio del fluoro e dell’azoto e la racemizzazione degli amminoacidi.

       Racemizzazione degli amminoacidi

Dopo la morte, le ossa insieme al resto del corpo, cominciano a decomporsi. Nelle ossa ciò significa la disgregazione , e il cambiamento della componente proteica, soprattutto il collagene.

Come le altre proteine il collagene è costituito da molecole di amminoacidi, e sono proprio queste che si separano e si disgregano; tale decomposizione ha suggerito un metodo di datazione, la datazione con l’azoto. Oltre all’effettiva disgregazione gli amminoacidi che rimangono intatti sono soggetti ad altro cambiamento. Durante la vita, tutti gli amminoacidi hanno un particolare orientamento riguardo la loro struttura molecolare (sono isomeri levogiri di tipo L.) . Dopo la morte gli amminoacidi si riallineano secondo un’immagine speculare della loro struttura molecolare (destrogiri , o di tipo D). La reazione, chiamata racemizzazione (o epimerizzazione), avviene lentamente e a un ritmo relativamente uniforme. La misurazione della proporzione della molecola di tipo D rispetto a quella di tipo L dovrebbe quindi fornire un metodo di datazione. Sfortunatamente la racemizzazione dipende anche dalla temperatura, dall’acqua del sottosuolo e dal grado di disgregazione delle molecole di collagene. Ciò rende difficile ottenere date affidabili.

         Datazione con l’azoto

Dopo la sepoltura, il collagene presente nelle ossa si decompone gradatamente, in maniera lenta e relativamente uniforme. Le ossa appartenenti alla stessa epoca e conservate in condizioni simili possiedono grosso modo la stessa quantità di collagene non ancora decomposto. Uno degli elementi essenziali del collagene è l’azoto, e quindi calcolandone la quantità contenuta nelle ossa antiche ritrovate si può risalire alla quantità di collagene già decomposto . La datazione relativa delle ossa in un contesto stratigrafico si può quindi determinare tramite il contenuto di azoto.

         Dosaggio del fluoro

L’acqua di falda che contiene fluoro si infiltra nei depositi e il fluoro viene assorbito nel reticolo dei cristalli del componente minerale dell’osso sepolto (nello stesso modo in cui il fluoro viene assorbito dagli strati superficiali dei denti tramite ripetuti spazzolamenti con dentifricio al fluoro). Ponendo un ritmo costante nella percolazione dell’acqua del terreno, la concentrazione di fluoro nell’ osso dovrebbe essere proporzionale alla sua età. E possibile attribuire date relative a ossa provenienti dallo stesso contesto stratigrafico paragonandone il contenuto di fluoro. Il falso di Piltdown fu smascherato proprio con questo metodo.

Le ossa sono uno dei materiali più comunemente inviati ai laboratori per la datazione al radiocarbonio con AMS (spettrometria di massa con acceleratore). Questo perché le ossa animali e umane sono spesso oggetto di studi archeologici.

Datazione al radiocarbonio

Molte delle informazioni che abbiamo sull’era preistorica sono state apprese grazie agli studi archeologici e alla datazione al radiocarbonio delle ossa. La datazione al radiocarbonio delle ossa è inoltre in grado di fornire informazioni più dettagliate sulle civiltà antiche.

Componenti delle ossa

Un osso è composto di materia al 30% organica ed al 70% inorganica. La porzione organica è rappresentata dalle proteine; la porzione inorganica include il minerale idrossiapatite, costituito da fosfato di calcio, carbonato di calcio, fluoruro di calcio, idrossido di calcio e citrato. La parte proteica, principalmente collagene, garantisce resistenza e flessibilità alle ossa, mentre l’idrossiapatite fornisce rigidità e solidità strutturale.

In teoria è possibile datare sia i componenti organici, sia quelli inorganici. Tuttavia, la struttura reticolare aperta dell’idrossiapatite la rende facilmente contaminabile dai carbonati provenienti dalle falde acquifere. Non è inoltre possibile applicare la rimozione dei carbonati contaminanti tramite lavaggi con soluzione acida diluita, poiché l’idrossiapatite è solubile in acido.

I laboratori utilizzano la componente proteica dei campioni di ossa nella datazione con AMS, poiché questa è relativamente insolubile in acido e può essere facilmente separata dall’idrossiapatite e dagli altri carbonati.

datazione14c

Tesi per la prova finale del Corso di Laurea in Fisica A.A. 2002-03 Tecnica di datazione con il Carbonio14 Candidato: Francesco Vernocchi Relatore: Prof. P. Corvisiero

Nei casi in cui la parte proteica dei campioni d’ossa non è ben conservata ed ha iniziato a degradarsi a causa di temperature elevate ed aggressione da parte di funghi o batteri, i laboratori con AMS effettuano la datazione al carbonio dei singoli amminoacidi per verificare se alcuni di essi presentano la stessa età radiocarbonica. Questo processo può essere svolto dai laboratori con AMS data la piccola quantità di campione richiesta.

Il buon esito della datazione di ossa dipende dal contenuto di collagene. La quantità e qualità del collagene (la componente organica che viene estratta e datata) dipende dall’ambiente di sepoltura dell’osso e dalle sue condizioni (pH, T, acidità del suolo…). L’osservazione dell’osso è il primo passo da effettuare per avere una indicazione del contenuto di collagene. Per esempio, le ossa compatte dovrebbero contenere sufficiente collagene per la datazione, mentre ossa spugnose, friabili e porose, di solito non contengono abbastanza collagene- o non ne contengono affatto – per la datazione. Per la calibrazione della datazione delle ossa, è importante specificare, nella “Submission form” (nel paragrafo “Note particolari sul campione”) se in vita gli individui possano aver avuto un’alimentazione terrestre piuttosto che marina o d’acqua dolce, deducibile dal contesto in cui è stato trovato il campione o da altre analisi isotopiche.

E’ importante che il materiale osseo inviato sia in buono stato di conservazione. Si suggerisce, se a disposizione,di utilizzare femore o in alternativa denti.

per documentazione: http://www.aknews.it/la-datazione-delle-ossa/

Naturale o sintetico? Note sull’ identità chimica.2.

In evidenza

Claudio Della Volpe

Nella prima parte di questo post abbiamo esaminato un paio di casi non comuni di identità chimico-molecolare non legati semplicemente alla formula della sostanza e abbiamo visto che la distinzione naturale-sintetico può essere molto complessa (o come dice Scientific American una zona grigia)

Lo abbiamo fatto perché a me appare superata la polemica stucchevole fra chemofobici (che vogliono materiali chemical free) e chemofilici (che fanno cherry picking fra i vari casi di sostanze di sintesi più pure e quindi meno allergeniche o tossiche, oppure che fanno notare come i veleni più potenti per unità di massa siano naturali non sintetici, la tossina del botulino LD50 di 1ng/kg di peso); nonostante questo impegno la fallimentare strategia chemofilica non impedisce la nascita, la crescita e il prosperare di una pseudo-bio-filosofia chemofobica.

Personalmente ritengo che la strategia chemofilica sia sbagliata anche perché non è affatto vero che i composti naturali e sintetici con la medesima formula chimica siano identici: lo sono per la loro formula, lo sono per i loro effetti pratici, lo sono funzionalmente, ma non lo sono necessariamente all’occhio del chimico (non chemofilico, né tanto meno chemofobico).

identita22 identita21

Il caso del para e orto idrogeno chiarisce bene una cosa: la formula chimica tradizionale che esprime solo numero atomico e legame chimico non dice tutto, è una approssimazione; la dimostrazione è nel fatto che orto- e para-idrogeno hanno non solo proprietà fisiche diverse, come temperatura di transizione di fase o entalpia di transizione, ma anche diversa reattività chimica. La cosa è manifesta a bassa temperatura, per esempio nelle nubi interstellari, argomento dell’astrochimica.( DOI: 10.1038/NCHEM.2359)

identita23Le costanti di reazione delle due molecole sono diverse a bassa temperatura e diventano ben sovrapponibili solo sopra i 30K; nello spazio interstellare la chimica dell’idrogeno è divisa dunque fra quella del paraidrogeno e quella dell’ortoidrogeno: studi sono ancora in corso.

Ma questo potrebbe essere considerato un caso estremo; consideriamo allora esempi più semplici e generali di identità molecolare: quali differenze possiamo attribuire a composti o sostanze (quindi miscele di composti) di origine naturale o sintetica con la medesima formula?

Non stiamo parlando di singole molecole, ma di composti o sostanze in quantità macroscopica: la chimica è una scienza macroscopica, nel caso generale, e ha a che fare con grandi numeri di molecole o atomi.

Le differenze si possono ascrivere a

  • diversa purezza quantitativa e diversa composizione delle impurezze, prodotte da reazioni del tutto diverse nei due casi; questo costituisce una sorta di marchio indelebile della sostanza o del composto, anche a parità di costituzione delle singole molecole; è infatti impossibile avere una purezza del 100%, almeno al momento.
  • diversa composizione isotopica del composto; questo può manifestarsi sotto forma di isotopologia (un atomo qualunque è di diverso tipo isotopico) o sotto forma di isotopomeria (ossia un medesimo atomo e sempre quello è sostituito da isotopi diversi); va da se che una molecola isotopomera di un’altra è anche una sua isotopologa; il viceversa non è dato.
  • diverso stato magnetico del nucleo come è il caso di para- ed orto-idrogeno, fenomeno che corrisponde ad isomeria di spin e che genera livelli energetici diversi e diverse reattività.

Ciascuno di questi casi presenta molti esempi e corrisponde in genere ad una medesima “formula” chimica, pur in presenza di diversità macroscopiche del materiale. Ovviamente alcuni isotopi hanno un proprio simbolo e si può sempre indicare il numero di nucleoni, il numero di massa A, identita24a fianco al simbolo, ma comunemente questo non viene fatto con sistematicità.

Le distinzioni di identità sono talmente forti da dare luogo a metodi sperimentali ben acclarati o tabulati, a norme precise con effetti legali per distinguere fra diverse origini del composto o della sostanza.

Cominciamo dal caso più banale; come distinguere genericamente una sostanza organica sintetica o naturale? Le sostanze naturali organiche vengono da un pool di atomi di carbonio che scambia regolarmente con l’atmosfera; gli atomi di carbonio dell’atmosfera sono soggetti ai raggi cosmici e dunque danno luogo a reazioni nucleari che producono quantità macroscopiche di 14C; viceversa i materiali sintetici vengono nella stragrande maggioranza da un pool di atomi di carbonio residente fuori dall’atmosfera da molto tempo (carbone, petrolio, gas naturale) protetto dai raggi cosmici e in cui dunque la quota di 14C si è ridotta (esiste una tecnica di datazione isotopica basata su questo fenomeno) oppure è scomparsa; ne segue che le sostanze o i composti sintetici sono genericamente meno radioattivi di quelli naturali. Stessa formula, diversa composizione isotopica, molecole isotopologhe o isotopomere; l’alcool etilico sintetico e quello naturale per esempio sono così diversi da poter essere distinti applicando le procedure stabilite dal metodo ASTM D6866-05 basato proprio su questo fenomeno di decadimento radioattivo.

D’altronde l’effetto isotopico fra i due atomi è significativo; la differenza di velocità nella polimerizzazione fra monomeri di stirene contenenti questi due isotopi è dell’ordine del 10%. Non si tratta solo di radioattività, ma proprio di chimica, di reattività.

Tuttavia anche se usassimo monomeri di stirene ottenuti da materiale naturale avremmo reazioni di polimerizzazione dello stirene di un 10% più lente solo per la quota di 14C (che è troppo piccola per avere effetti macroscopici). La conseguente chimica verde sarebbe più lenta di quella normale, sintetica, ma per una quantità troppo piccola per essere attualmente misurata (ringrazio il collega Ragaini di avermi fatto notare un errore nel mio ragionamento).

Questo potrebbe far pensare che le differenze isotopiche e dunque fra isotopomeri e isotopologhi abbiano solo un ruolo analitico; in Natura avvviene però che le piante (e dunque i loro enzimi) siano di fatto in grado di distinguere; per esempio piante cosiddette C3 e C4, dotate di diversi meccanismi di fotosintesi, hanno un rapporto fra 12C e 13C diverso nei loro tessuti e questo vuol dire che i loro enzimi sono in grado di discriminare fra isotopi (si noti che questi sono isotopi stabili); una conseguenza chimica di questo è che isotopomeri o isotopologhi diversi hanno diversa reattività e che i sistemi biologici sono in grado di discriminare; anche se al momento non abbiamo esempi tecnologici di questo, inventati da noi (se non di tipo analitico)  la differenza di principio rimane.

Passiamo al problema delle impurezze; l’urea è stata la prima molecola naturale ottenuta per via sintetica; è una storia di errori e serendipità. Wholer voleva sintetizzare il cianato di ammonio, (che ha una formula bruta uguale all’urea) NH4OCN, ma per riscaldamento il cianato da lui ottenuto per doppio scambio a partire da cianato di argento e cloruro di ammonio si trasformò in urea e dunque la sua sintesi non riuscì, ma produsse un risultato così eclatante da essere poi la base della moderna chimica di sintesi. Viva gli errori!

La sintesi commerciale dell’urea si ottiene oggi in vari modi, ma in ogni caso una percentuale significativa di biureto è presente nel prodotto commerciale; il biureto è un prodotto che deriva dalla condensazione di due molecole di urea ad alta temperatura, NH2-CO-NH-CO-NH2, e può avere effetti deleteri su alcune piante se si utilizza l’urea con troppo biureto come concime (http://fshs.org/proceedings-o/1954-vol-67/67-69%20%28OBERBACHER%29.pdf)

L’urea estratta dall’urina umana o animale, viceversa, non contiene affatto biureto come impurezza, per cui la ricerca del biureto potrebbe costituire un semplice metodo per distinguere l’urea sintetica da quella naturale.

Tuttavia è chiaro che si possono ridurre, sia pur faticosamente e costosamente, le impurezze al di sotto di una soglia qualsivoglia, fare scomparire insomma i residui indesiderati.

Ma tornando all’urea, nonostante la purificazione rimane qualche segno della diversa origine delle molecole di urea? La risposta è positiva. Si tratta della cosiddetta impronta isotopica. In genere sembra ci sia più 15N nell’urea naturale, ma la questione è complessa ed un’analisi dettagliata della questione potete trovarla in letteratura (https://wwwrcamnl.wr.usgs.gov/isoig/isopubs/itchch16.html).

La diversa impronta isotopica di materiali di differente origine va molto al di là della distinzione naturale/sintetico poichè consente, per esempio, di risalire all’origine di un prodotto e facilita la sua geolocalizzazione. La geochimica e in genere le scienze ambientali sono grandi utilizzatrici di questi metodi. Quindi non solo naturale o sintetico, ma fatto in un certo modo o in un certo posto; le molecole che pure sembrano uguali nella formula e nella accesa polemica anti-chemofobica, si rivelano poi alquanto diverse e memori della loro origine e della loro storia nella realtà dell’analisi chimica: le molecole sono glocali, globali nella formula, locali nei dettagli.

Una interessante considerazione potrebbe essere quella di capire se in genere sia possibile al di là dei casi di diversa origine del medesimo composto capire con qualche criterio se un prodotto sia di origine naturale o sintetica, cioè se esso esista in natura prima della nostra sintesi o no; il chemical space di cui abbiamo ripetutamente parlato nel blog è costituito oggi di oltre cento milioni di molecole(108), ma potenzialmente tale numero è strabocchevole (1060): come distinguere ora e in futuro l’origine dei composti? Una proposta ci viene dall’uso dei metodi dei descrittori molecolari (di cui pure abbiamo parlato nel blog) con capacità di distinzione che superano il 90% da parte di programmi automatici (J. Chem. Inf. Comput. Sci. 2000, 40, 1245-1252).

Termino con una informazione; l’acqua possiede due isomeri di spin separabili, dunque due molecole del tutto identiche secondo i criteri normali ma separabili come tali e conservabili a -18°C per qualche settimana; cosa facciamo, vietiamo la notizia ai supporters dell’omeopatia? (SCIENCE  VOL 296                   28 JUNE 2002)identita25Aggiungo che il solito russo genialoide propone una idea teorica anomala: (Biofizika. 2013 Sep-Oct;58(5):904-9. S.D. Zakharov) sappiamo che l’acqua comune è una miscela di due quasi fasi definite comunemente acqua strutturata tipo ghiaccio e acqua destrutturata (è acclarato almeno dagli anni 60 il sito che vi linko è quello celeberrimo di Martin Chaplin); Zakharov ipotizza che le strutture tipo ghiaccio siano strutture di para-acqua legate in cluster chiusi, per spiegarne la nulla libertà di rotazione, mentre la ortoacqua sarebbe invece l’acqua destrutturata; l’idea è intrigante. L’abstract è in inglese, ma l’articolo è in russo.

Mentre la fisica scopre un’universo in cui la materia oscura domina quella normale 6:1 noi ci crogioliamo in una descrizione dell’identità molecolare basata solo su numero atomico e legame chimico, la formula tradizionale; Montalbano direbbe: “mi sono pirsuaso che le vostre carte di identità sono scadute, signore molecole!”.

Naturale o sintetico è una polemica che non mi appassiona, si sarà capito; la chimica moderna ha dimostrato con le sue sofisticate tecniche analitiche che è possibile risalire all’origine e perfino al luogo o alle reazioni di formazione di un composto o di una sostanza; certo l’uso delle formule ci consente di schematizzare potentemente il numero atomico Z e i legami di un composto ,ma nella realtà dell’analisi si potrà poi andare oltre e perfino in alcuni casi determinare l’origine e distinguere molecole affatto identiche, come nel caso di para e ortoidrogeno o di orto e para-acqua.

La materia non è fatta solo di nuvole elettroniche e per vedere l’albero si corre il rischio di perder di vista la foresta, come diceva il filosofo. Se abbiamo fallito finora nella lotta contro la chemofobia vale la pena di tentare nuove strade, nuovi approcci, in cui argomenti considerati “avanzati” siano usati e spiegati al “volgo profano”; in fondo naturale o sintetico è solo una questione di rischio/beneficio (non di costo/beneficio, ci sono rischi che non hanno prezzo).

Anche la distinzione fra specialisti e gli altri non mi appassiona; non ci sono argomenti per specialisti, c’è solo la scarsa tradizione a fare divulgazione, i chimici non hanno nemmeno un indirizzo di ricerca sulla didattica, un settore disciplinare che se ne occupi.

Sogno un mondo in cui la chimica sia conosciuta e amata da tutti, come un potente strumento di indagine e di sopravvivenza, che ci consenta però di essere più “umani” possibile; dopo tutto, la nostra specie conosce il fuoco (e dunque la chimica) da quando esiste.

Naturale o sintetico? Note sull’identità chimica. 1.

In evidenza

Claudio Della Volpe

 Uno dei più comuni tormentoni nell’ambito della divulgazione chimica e dell’uso del termine “chimico” riguarda il rapporto fra ciò che è naturale e ciò che è sintetico; da una parte ci sono i sostenitori dell’idea, del meme che “naturale” è sempre meglio, che “chimico” è sporco, che cercano il Santo Graal ovvero le inesistenti sostanze “chemical free”, che potremo definire i chemofobici; e dall’altra ci sono i difensori del mondo chimico, che a questo punto etichetterei come chemofilici, che sono pronti a trovare esempi in cui le cose naturali sono spesso più tossiche o velenose o più allergeniche di ciò che è “chimico” o più correttamente sintetico.

identita11identita12Si tratta di un tormentone che risale probabilmente alla sintesi dell’urea e che ritroviamo spesso nei blog o sui siti a carattere divulgativo, ma anche in testi professionali. Personalmente come chimico credo che tutto sia fatto di materia e dunque soggetto alle leggi della chimica, ma, come direbbe il commissario Montalbano, “mi sono fatto pirsuaso” che le cose siano più complicate di come la mettono i punti di vista chemofobico e chemofilico, il cui scontro rischia di mascherare fatti veramente interessanti e che superano entrambi i punti di vista, almeno nella loro vulgata più comune.

D’altronde se tutto è chimica ci saranno casi in cui il naturale è più adatto allo scopo e altri in cui il sintetico è più adatto; tutto qua. Non è una guerra di religione; la cosa interessante è che in molte occasioni l’identità delle molecole e dei composti è più complessa e sfuggente di quanto si pensi e per un chimico, ma anche per il grande pubblico, questo argomento è molto più interessante e stimolante della solita e ormai, lasciatemelo dire, ridicola e stucchevole polemica fra naturale e sintetico.

Cercherò dunque di analizzare alcuni esempi in cui l’identità molecolare è per così dire ambigua e discuterne con voi.

Comincio dalla molecola più semplice, quella di idrogeno, due protoni e due elettroni, tenuti insieme dalle forze di legame. Trascuriamo l’esistenza degli isotopi dell’idrogeno (deuterio e trizio) consideriamo un sistema costituito solo di molecole tutte uguali di isotopo 1H (e già questo è un bel problema, avere una purezza del 100% sarebbe praticamente molto molto difficile e costoso, dubito che esistano prodotti commerciali o anche di laboratorio garantiti con questa purezza; si possono avere purezze a 6 “nove”, ossia 99.9999% o anche oltre, ma il salto al 100 è cosa lontana ancora dalla nostra tecnologia[i]).

Ma comunque anche le molecole di idrogeno isotopo 1, supposte ad una purezza del 100%, non sarebbero tutte uguali; ohibò e perchè mai, dirà qualcuno? Queste molecole non sono tutte uguali, sono distinguibili dal punto di vista chimico-fisico per un semplice motivo che viene definito isomeria di spin.

identita13Di cosa si tratta? Anche a temperatura ambiente il normale idrogeno è una miscela di due specie in equilibrio fra di loro ma dotate di proprietà diverse, per esempio due punti di fusione diversi (di circa 0.1K) e proprietà termodinamiche differenti; il paraidrogeno e l’ortoidrogeno posseggono i due protoni con uno spin, una proprietà che potremmo definire un campo magnetico intrinseco alle particelle e legato secondo una concezione classica alla sua rotazione; tale spin può assumere due direzioni e dunque i due nuclei possono avere spin allineati o no; in questo secondo caso l’energia del sistema è minore e questa specie predomina a bassa temperatura, mentre a temperatura ambiente predomina l’ortoidrogeno (in un rapporto 3:1). La transizione fra i due stati è un processo lento e che non avviene velocemente se non in presenza di un catalizzatore.

Le conseguenze pratiche di questo fatto sono vistose: se congelate bruscamente l’idrogeno partendo da t ambiente, conservando dunque il rapporto a favore dell’ortoidrogeno e tornate dopo un mese, anche in presenza di un isolamento ottimale del sistema troverete che metà del vostro campione è tornato gassoso; il motivo è che a bassa temperatura predomina il paraidrogeno e che la transizione libera calore; ne consegue che lentamente l’idrogeno molecolare ripristina l’equilibrio e il calore in eccesso viene usato dal sistema per cambiare stato; grazie al vostro isolamento perfetto l’idrogeno solido torna gassoso. Per evitare questo se congelate idrogeno lo dovete fare in presenza di un opportuno catalizzatore come l’ossido di ferro così che la transizione verso il paraidrogeno sia quasi immediata, quando raffreddate. L’isomeria di spin è presente in molti altri casi anche per altre molecole comuni, come l’acqua per esempio, e le sue conseguenze non sono sempre semplici da capire. La lezione è che anche molecole apparentemente identiche dal punto di vista “chimico” possono essere diverse e parecchio. Ortoidrogeno e paraidrogeno non hanno formule diverse.

Il fatto è che la chimica è una scienza basata essenzialmente sulle proprietà del guscio elettronico; non a caso quando si presentano anche in forma professionale i calcoli quantomeccanici si fa una approssimazione che si chiama di Born-Oppenheimer, ossia si disaccoppiano i moti elettronici da quelli del nucleo quando si scrive il cosiddetto hamiltoniano; i nuclei sono fatti di particelle molto più pesanti (almeno 2000 volte nel caso più semplice, o centinaia di migliaia di volte o milioni di volte per i nuclei pesanti) e dunque le velocità degli elettroni (chiamate velocità di Fermi, dell’ordine di milioni di metri al secondo) sono almeno decine di migliaia di volte più alte di quelle del nucleo (che si muove a centinaia di metri al secondo, come il suono, velocità fononiche). Questo permette di semplificare l’hamiltoniano, (eliminando i pezzi legati all’energia cinetica del nucleo) e i calcoli; noi chimici consideriamo in genere i nuclei come se fossero fermi, ma le cose reali sono diverse e più complicate, è bene ricordarlo. La materia non è fatta solo di un guscio elettronico. Vedremo più avanti gli effetti di queste differenze dal punto di vista della reattività.

Passiamo ad un caso di identità completamente diverso; il tramadolo. Si tratta di un caso di identità molecolare veramente affascinante. Il Tramadol è un analgesico oppioide sintetico in commercio fin dagli anni 70 inventato dalla Grünenthal GmbH ed usato in tutto il mondo per il trattamento del dolore da moderato a severo.identita14Come vedete dalla figura si tratta di una molecola otticamente attiva e contenente ben due atomi di carbonio asimmetrici (con 4 sostituenti diversi); il racemo ottenibile da una delle due coppie di enantiomeri (quella indicata in figura) è usato come farmaco. Fin qui niente di strano, fino al 2013, quando un gruppo di ricercatori francesi diretto da M. De Waard trova il composto in natura. L’autore racconta:

Iniziando un progetto di ricerca teso a scoprire prodotti naturali con funzione di antidolorifico, abbiamo focalizzato la nostra attenzione sulla pianta sub-Sahariana Nauclea latifolia Sm. (Rubiaceae) comunemente conosciuta come pesca africana o albero puntaspilli. Questa pianta ha una lunga tradizione di uso da parte della popolazione locale per il trattamento di una grande varietà di disturbi , inclusi problemi digestivi seri, disordini neurologici e malattie infettive. In Camerun la pianta viene usata nel trattamento del dolore, della malaria, della febbre, dell’epilessia e delle convulsioni infantili. Eravamo particolarmente interessati all’uso tradizionale della corteccia della radice di N. latifolia nel trattamento del dolore. Precedenti ricerche fitochimiche di N. latifolia avevano portato alla identificazione di alcaloidi, prevalentemente naucleammidi, come i costituenti principali. Estratti di questa pianta hanno mostrato atttività antipiretica, antinocicettiva, antinfiammmatoria e antimalarica. In questo studio, un frazionamento dell’estratto crudo, guidato dalla bioattività antinocicettiva, ha portato all’isolamento di un potente prodotto analgesico.

Il prodotto trovato, illustrato nella fig. 1, tratta dal lavoro di De Waard, era proprio il tramadolo, presente come racemo della medesima molecola sintetica già in commercio. La cosa fece scalpore in quanto sono pochissimi i composti sintetici ritrovati in Natura e per di più con queste caratteristiche di serendipità. Per esempio l’anticancerogeno sintetico 5-fluorouracile (%-FU), che era stato inizialmente sintetizzato nel 1957, fu più tardi isolato dalla spugna marina Phakellia fusca. Al contrario sono milioni quelli naturali copiati per sintesi dall’uomo per i motivi più diversi, ovviamente usando metodi di sintesi in genere diversi da quelli delle piante o degli animali e a partire da reagenti diversi.

Spesso la copia nasce da esigenze di costo o di purezza o di disponibilità; le copie sono funzionalmente indistinguibili dagli originali, a volte risultano perfino migliori, prive di quelle impurezze estrattive che possono danneggiarne l’uso come nel caso dell’ormone somatotropinico, anche se in questo caso il sintetizzatore è un batterio geneticamente modificato; altre volte superano i limiti di disponibilità della materia prima come nel caso del tassolo. Ovviamente in tutti questi casi l’equivalenza funzionale fra la sostanza naturale e quella sintetica deve essere testata di volta in volta; non sempre, come vedremo, l’equivalenza funzionale corrisponde ad una perfetta identità molecolare. Attenzione all’uso dei termini nei casi di interesse medico: nel contesto degli ormoni umani la vexata questio dell’uso di ormoni naturali o sintetici non esclude che l’ormone naturale per eccellenza, il progesterone, sia prodotto per sintesi parziale o totale con ottimi risultati. In quel contesto sono chiamati di sintesi quei composti che mimano l’azione del progesterone ma non presenti nell’organismo naturalmente.

Incuriositi dal fatto che un composto sintetico fosse trovato in natura come racemo e non come enantiomero (come capita di solito nelle piante2) e per di più il medesimo racemo e con il medesimo rapporto isotopico per l’azoto e il carbonio del prodotto commerciale, Michael Spiteller ed il suo gruppo pubblicavano un anno dopo sulla stessa importante rivista un brillante lavoro in cui dimostravano conclusivamente come stessero effettivamente le cose.identita16Badate, il lavoro di De Waard era un lavoro estremamente ben fatto; egli si era posto il problema dell’inquinamento ambientale ed aveva infatti analizzato il contenuto più intimo delle radici, trovando conferma della presenza del tramadolo racemo. Ma ciononostante aveva commesso un errore. Spiteller confermò la presenza della sostanza con le medesime caratteristiche trovate da De Waard, ma grazie ad una visuale più ampia ne trovò l’origine.identita17

Nelle zone centrosettentrionali del Camerun l’uso del tramadolo commerciale è legato alla sofferenza di uomini ed animali nel lavoro dei campi; il clima arido rende difficile e duro il lavoro; il tramadolo viene correntemente usato per ridurre la fatica e migliorare il risultato, come le foglie di coca in Sud-America; la conseguenza è che il territorio (attraverso le escrezioni di uomini e animali) è inquinato dal tramadolo che viene assorbito dalle radici delle piante e si ritrova pari pari nell’analisi di De Ward; questa osservazione ha consentito a Spiteller di discriminare le situazioni di altre zone del Camerun dove il prodotto non è conosciuto od usato e dove le stesse piante non contengono tramadolo; fra l’altro Spiteller sostiene che l’uso tradizionale della corteccia della pianta risente della presenza del composto di sintesi inquinante ad un livello che ne esalta gli effetti collaterali. Non so se la polemica fra De Waard e Spiteller sia finita, ma certo questa storia è una meravigliosa metafora della situazione del mondo: perfino in un lontano territorio tropicale l’inquinamento è arrivato al punto che i più bravi chimici del mondo faticano a distinguere fra una sostanza naturale ed una sintetica!

Ma questa è anche la ragione per cui la polemica fra chemofobici e chemofilici mi appare stantia, almeno se impostata al solito modo; nella seconda parte di questo post vi mostrerò dati alla mano che è quasi sempre possibile distinguere fra composti sintetici e naturali con la medesima formula; in fondo quando noi diciamo ai chemofobici che due composti naturali e sintetici sono identici, hanno la stessa formula, stiamo solo dicendo che le loro molecole sono fatte da atomi con il medesimo numero atomico e legati da identici legami chimici, ma queste due sole proprietà non comportano né che macroscopicamente parlando la sostanza o il composto corrispondente sia la medesima (abbia le medesime impurezze per esempio) né che microscopicamente le molecole non siano isotopologhe o isotopomere o perfino abbiano lo stesso stato energetico. Un chimico sarebbe capace di distinguere perfino fra le molecole di idrogeno (isotopo 1H) contenute nell’atmosfera terrestre e in quella gioviana. E allora che senso hanno le rivendicazioni e gli argomenti dei chemofobici e dei chemofilici?

(continua)

Note.

  • [1] Per confronto la purezza isotopica necessaria per la realizzazione del progetto Avogadro immaginato fantasiosamente da Egidi nel 1963 e divenuto realtà solo in tempi recenti per definire il campione di massa contando gli atomi di una sfera perfetta di 28Si arriva solo a 4 “nove”: 99.99% (EgidiC 1963 Phantasies on a natural unity of mass Nature 200 61–2); la purezza a 6 nove è quella del silicio usato per l’elettronica, ma in quel caso non è purezza isotopica ma solo rispetto alle impurezze di altri atomi componenti; una purezza a 5 nove basta invece per costruire le giunzioni P-N per il fotovoltaico.

2 Il caso del linalolo è molto interessante; nell’industria del profumo il linalolo, è presente in tre forme; avendo un atomo di carbonio asimmetrico (cioè con 4 sostituenti diversi) la forma d- e quella l- corrispondenti ai due differenti aromi del coriandrolo (dal coriandolo) e del licareolo (dalla lavanda), il racemo è quello venduto invece comunemente a livello industriale; tre numeri CAS per il linalolo.identita18

Reagente, gruppo funzionale, sostituente, substrato: chi ha introdotto questi termini?

In evidenza

 Rinaldo Cervellati.

Tutti i chimici usano abitualmente questi termini, ormai entrati nel loro lessico con un significato ben preciso. Ma è sempre stato così? Seguiamo quanto racconta lo storico William B. Jensen e scopriremo aspetti interessanti.

Anzitutto Jensen sostiene che, mentre è relativamente semplice rintracciare l’origine e lo scienziato che ha introdotto termini di radice greca e latina, altre parole sono adattamenti del linguaggio di tutti i giorni, che solo gradualmente sono entrati nella letteratura scientifica, acquisendo infine il significato tecnico ufficiale della disciplina. In questi casi è generalmente impossibile assegnare una determinata data e l’ideatore di quel termine. Ci si deve quindi accontentare di stabilire il periodo di tempo corrispondente alla loro introduzione.

Tutti e quattro i termini di cui sopra, che costituiscono il nucleo dell’attuale vocabolario chimico sopratutto per la descrizione della reattività organica[1], sembrano essere esempi di questo processo indiretto.

Per cercare l’origine della parola “reagente” occorre risalire alla seconda metà del 1700, quando entrarono comunemente in uso reazioni accompagnate da variazione di colore o da comparsa di precipitati per stabilire la presenza di determinate sostanze in soluzioni acquose. Le soluzioni delle sostanze chimiche utilizzate per effettuare questi test divennero note come “soluzioni prova” o, più in breve, come “prove”. In effetti esse stavano rispondendo (cioè reagendo) alla presenza di vari agenti in acqua, come acidi, ferro, ammoniaca libera, ecc.

In altre parole, la reazione sta all’azione come il reagente sta all’agente, dove l’agente e l’azione descrivono i fattori causali e il reagente e la reazione descrivono i fattori che rispondono. Anche se esempi sull’utilizzo di reazioni con variazioni di colore e formazione di precipitati per scopi analitici risalgono al 17° secolo, il primo tentativo di raccogliere e sistematizzare questi saggi analitici si deve al chimico svedese del 18° secolo Torbern Bergman[2], con la sua vasta opera Physical and Chemical Essays (1779-1781). Bergman scrisse la sua opera in latino e preferì comunque fare riferimento alle sue soluzioni test come “precipitanti”. In realtà fu il traduttore in inglese Edmund Cullen che usò il termine reagente in una nota a piede di pagina della traduzione inglese dell’opera di Bergman [1][3].

fig-1a-torbern-bergman

Torbern Bergman

fig-1b-frontespizio-vol-iIl termine “gruppo funzionale” fa la sua prima apparizione negli scritti di vari chimici organici francesi negli anni 40 del 1800, in relazione al riconoscimento del fatto che i composti organici possono essere classificati in classi come acidi, alcoli, ammine, ecc. in base al loro comportamento chimico. Charles Gerhardt[4], nel suo Précis de Chimie Organique del 1841 scrive [2]:

In questa sezione esamineremo i principali gruppi di composti organici classificati secondo le loro “funzioni chimiche” [fonctions chimiques nel testo originale]… Rivedremo in successione: 1. i sali (acidi); 2. le anidridi; 3. gli amidi, 4. gli alcaloidi, 5. gli alcoli; 6. gli eteri; 7. gli acetoni; 8. gli idrocarburi; e 9.i gliceridi.

fig-2-charles-f-gerhardt

charles-f-gerhardt

Così si cominciò a parlare di un dato composto a seconda che si comportasse (cioè funzionasse) come un acido o un alcool, ecc. Una volta accertato dai chimici che questo comportamento comune a una classe era associato alla presenza di caratteristici gruppi atomici all’interno delle molecole appartenenti a quella classe, fu quasi naturale fare riferimento a questi raggruppamenti comuni come gruppi funzionali.

Il terzo di questi adattamenti è il termine “sostituente”, che cominciò ad apparire nella letteratura della chimica organica nel tardo 19° secolo. Derivato dalla parola latina substituere, che significa “sostituire”, è stato utilizzato per descrivere un atomo o gruppo di atomi che vengono introdotti in un idrocarburo genitore tramite la sostituzione di uno o più dei suoi atomi di idrogeno terminali.

Il termine non fu però utilizzato da W. Körner[5] nel suo famoso testo sulla struttura e sugli isomeri dei derivati del benzene e da A. Brown[6] e J. Gibson nel loro ormai classico articolo del 1892 sui sostituenti orto-para e meta direttori nel benzene [3]. Il primo preferì utilizzare il termine “gruppo” [Gruppe], e i secondi il termine “radicale”. Tuttavia, in un articolo di R. Meldola[7] e F. Streatfeild, si può leggere la frase influenza degli orto-sostituenti [4].

Il terzo adattamento è il termine “substrato”, dal latino substratum, che significa fondamenta. Questo termine è stato introdotto nella letteratura biochimica in connessione con lo studio di enzimi nel primo decennio del 20° secolo. La storia dell’enzimologia non riporta chi furono i primi a usarlo o quando iniziò ad essere usato [5, 6]. Tuttavia, nella sua monografia sugli enzimi, M. Dixon[8] osserva che:

La sostanza su cui agisce un enzima, e che viene attivata dall’enzima è denominata “substrato” dell’enzima. Questo termine, originariamente introdotto da lavoratori tedeschi [German workers, nell’originale], è stato in uso comune per più di cinquanta anni ed è da preferire alla parola più generale “reagente” quando sono interessate reazioni enzimatiche.[7]

fig-3-malcom-dixonQuesta congettura storica è confermate dai commenti di W. Bayliss[9] nella sua monografia del 1908 sugli enzimi dalla quale si deduce che il termine era, a quei tempi, di recente uso e ancora provvisorio [8]:

Si rende frequentemente necessario un nome per le sostanze sulle quali gli enzimi esercitano la loro attività … Nel complesso, “substrato”, in uso da molti ricercatori, sembra rispondere al meglio a questo scopo.

fig-4-william_bayliss

W. Bayliss

La generalizzazione di questo termine da “substrato enzimatico” a “substrato di reazione” sembra essere dovuta a C. K. Ingold[10]. Avendo egli già adottato il termine reagente nell’interpretazione dei meccanismi delle reazioni organiche nel suo fondamentale lavoro del 1934 [9], senza problema utilizza il termine substrato nelle sue famose lezioni Baker del 1953 per descrivere l’oggetto di attacco del reagente [10]:

È, naturalmente, una pura convenzione quale delle due sostanze interagenti va considerata come “reagente” e che “substrato” sia la sostanza su cui agisce il reagente. Tuttavia, per molte reazioni di chimica organica è stata stabilita una convenzione simile.

fig-5-christopher-ingold

C. K. Ingold

Questa convenzione è stata infine ampiamente utilizzata nel classico testo Mechanism and Theory in Organic Chemistry, di T. Lowry e K. Richardson [11].

La IUPAC ha definitivamente ufficializzato i termini substrato, sostituente, gruppo funzionale (insieme a reagente) come facenti parte del lessico chimico nel 1997 [12].

*Questo post è sostanzialmente una traduzione ragionata dell’articolo di W.B. Jensen: Reagent, Functional Group, Substituent, and Substrate, 2012, unpublished (la rubrica “Ask the Historian” del J. Chem. Educ. fu soppressa insieme alle altre in seguito al completo reformat della rivista deciso dall’ACS nel 2011).

[1] T. Bergman, “On the Analysis of Waters”, in Physical and Chemical Essays, Vol. 1, Murray, 1784, nota a p.125.

[2] C. Gerhardt, Précis de chimie organique, Vol 1.,Fortin, Masson et Cie, Paris, 1841, p. 69.

[3] A. C. Brown, J. Gibson, “ A Rule for Determining Whether a Given Benzene Mono-Derivative Shall Give a Meta-Di-Derivative or a Mixture of Ortho- and Para-Di-Derivatives,” Chem. Soc. Trans., 1892, 61, 367-369.

[4] R. Meldola, F. W. Streatfeild, “Mixed Diazoamides Containing an Ortho-Nitro Group,” Proc. Chem. Soc., 1896, 12, 49-51.

[5] M. Dixon, “The History of Enzymes and of Biological Oxidations,” in J. Needham, Ed., The Chemistry of Life: Lectures on the History of Biochemistry, Cambridge University Press, Cambridge, 1970, Chapter 2.

[6] J. S. Fruton, Fermentation: Vital or Chemical Process?, Brill, Leiden, 2006.

[7] M. Dixon, E. C. Webb, Enzymes, Academic Press:New York, NY, 1958, p. 5.

[8] W. M. Bayliss, The Nature of Enzyme Action, Longmans, Green and Co, London, 1908, p. 7.

[9] C. K. Ingold, “Principles of an Electronic Theory of Organic Reactions,” Chem. Rev., 1934, 15, 225-274.

[10] C. K. Ingold, Structure and Mechanisms in Organic Chemistry, Cornell University Press, Ithaca, NY, 1953, p. 206. Le lezioni vennero effettivamente tenute nel 1951.

[11] T. H. Lowry, K. S. Richardson, Mechanism and Theory in Organic Chemistry, Harper & Row, New York, NY, 1976, Chapter 4.

[12] A. D. McNaught, A. Wilkinson, Compendium ofChemical Terminology: IUPAC Recommendations, 2nd ed., Blackwell Science, Malden, MA, 1997.

[1] Se è vero che i termini gruppo funzionale, sostituente e substrato sono principalmente impiegati in chimica organica, a me sembra che reagente sia generalmente utilizzato in tutti i rami della chimica.

[2] Torbern Olaf (Olof) Bergman (1735-1784), chimico e mineralogista svedese, noto per le sue ricerche sull’affinità chimica, ha dato notevoli contributi all’analisi chimica qualitativa e quantitativa, alla chimica dei metalli (nichel e bismuto). Fu il primo a proporre la distinzione fra sostanze inorganiche e organiche.

[3] Il riferimento [1] riporta la data di edizione 1784. In internet ho trovato una edizione datata 1788 https://archive.org/stream/b28774073_0001#page/n6/mode/1up per quanto abbia cercato non ho trovato la nota citata da Jensen. E’ interessante osservare che l’intera opera è composta da tre corposi volumi che descrivono in dettaglio praticamente tutte le conoscenze chimiche di quel tempo, il vol. III tratta anche le origini e la storia della chimica.

[4] Charles Frédéric Gerardt (1816-1856) chimico francese, fu allievo e collaboratore di Justus von Liebig e di Pierre Auguste Dumas e fu tra i riformatori della nomenclatura e delle formule chimiche. Si occupò di acilazioni sintetizzando, fra l’altro, l’acido acetilsalicilico seppure in forma instabile e con impurezze. Notevole la sua opera magna: Traité de Chimie Organique, 4 vol, Paris 1853-56.

[5] Wilhelm (Guglielmo) Körner (1839-1925) chimico tedesco naturalizzato italiano fu collaboratore di Cannizzaro a Palermo occupandosi di composti organici aromatici. Si interessò poi di chmica di piante e vegetali ricoprendo la cattedra di Chimica Organica nella Scuola Superiore di Agricoltura all’Università di Milano.

[6] Alexander Crum Brown (1838-1922) chimico scozzese si occupò prevalentemente di chimica organica teorica, nel 1892 (con J. Gibson) propose una regola (regola di Brown-Gibson) riguardante l’effetto di sostituzione di un gruppo organico in un anello benzenico che contiene già un gruppo. La regola può essere utilizzata per prevedere la posizione in cui il gruppo esistente dirigerà il secondo gruppo.

[7] Raphael Meldola (1849-1915) chimico britannico, si è occupato principalmente di coloranti organici sintetizzandone uno noto come il blu di Meldola. Fu anche entomologo e naturalista. Eletto Fellow of the Royal Society su proposta di Charles Darwin nel 1886.

[8] Malcom Dixon (1899-1985) biochimico britannico, si è occupato di purificazione di enzimi e di cinetica di reazioni catalizzate da enzimi. Collaborò all’assegnazione dello spettro di assorbimento del citocromo c.

[9] Sir William Maddock Bayliss (1860-1924) è stato un famoso fisiologo inglese, nella sua carriera si è occupato anche di meccanismi dell’azione enzimatica.

[10] Sir Christopher Kelk Ingold (1893 – 1970) chimico britannico, famoso per il suo lavoro pionieristico sui meccanismi di reazione e la struttura elettronica dei composti organici, a lui si devono principalmente i concetti di nucleofilo, elettrofilo, effetti induttivi e di risonanza, nonché i descrittori SN1, SN2, E1, e E2. Ingold è considerato come uno dei fondatori della chimica fisica organica. Medaglia Davy 1946, Medaglia Royal Society 1952.

14 gennaio 2017: ambiente e Italia cosa cambia?

In evidenza

Luigi Campanella, ex Presidente SCI.

La legge n.132 del giugno dello scorso anno ha istituito il SNPA, Sistema Nazionale per la Protezione dell’Ambiente. Di fatto con tale istituzione si riconoscono due principi fondamentali

snpa-Le matrici ambientali sono 3: acqua, aria, suolo con capacità di mobilità diverse, ma comunque destinate ad influenzarsi reciprocamente sicchè il controllo di una di esse non garantisce la qualità ambientale che è solo assicurata da un controllo sui  3 comparti. Mare, lago, fiume, atmosfera indoor ed outdoor, suolo agricolo e terreno industriale scambiano fra loro componenti ed inquinanti che pertanto, rispondendo a regole di distribuzione si ripartiscono fra le varie fasi.

L’aria inquinata inquina a sua volta acque e suoli, ma anche acque inquinate aggrediscono i suoli e suoli inquinati rilasciano in acqua  sostanze e composti nocivi. L’atmosfera poi, la più mobile dei comparti (si tratta di un aereifome in confronto a liquido e solido degli altri 2 comparti) esercita un’azione di trasferimento che supera le barriere geografiche, tanto da rendere problematiche le applicazioni di leggi nazionali, quasi che i confini possano essere reali ostacoli alla diffusione aereiforme

-si contrastano sull’ambiente due teorie:il riduttivismo e l’olismo. Ci si chiede cioè se la qualità ambientale possa essere ricondotta a criteri lineari e differenziali o se invece essa non debba essere affidata a valutazioni circolari ed integrali. Il SNPA contribuisce con la sua istituzione al chiarimento di queste ambiguità:in genere l’organizzazione deriva dall’approccio razionale adottato,in questo caso forse è essa stessa motivo di contributo alla razionalità ed allo sviluppo di una cultura ambientale.

Detto questo non si può fare a meno di guardare con una certa dose di preoccupazione al terzo integrale che sta dentro la legge,dopo quello dei comparti e quello degli indicatori: mi riferisco ai 22 Enti autonomi ed indipendenti che costituiscono il SNPA.Sapranno superare gelosie e corporativismi che a volte nella ricerca purtroppo compaiono? Sapranno darsi un’organizzazione non per Enti, ma per problemi creando vere e proprie matrici di gestione individuando per ciascuno dei 3 comparti problematiche di riferimento.Nel ns Paese è uno sforzo che è stato fatto in passato solo in occasione della nascita del Ministero della Ricerca Scientifica e Tecnologica staccato da quello di Scuola ed Università,circa 40 anni fa.Conterà molto,come contò allora,l’azione di chi guida questa impresa.Il mio augurio e quello del ns blog al presidente De Bernardinis.

Un minimo di storia (estratto dalle news di Arpa Toscana):

La legge 61/94 ha istituito l’Agenzia nazionale per la protezione dell’ambiente (oggi Agenzia per la protezione dell’ambiente e per i servizi tecnici – ISPRA) e dato mandato alle Regioni e alle Province Autonome di istituire Agenzie per la protezione dell’ambiente nei loro territori.

La nascita delle Agenzie regionali e delle Province autonome inizia nell’aprile 1995 – tra le prime a partire Piemonte, Toscana ed Emilia Romagna – e si conclude nel 2006 con la nascita di ARPA Sardegna.

assoarpaA partire dalle disposizioni contenute nella sentenza della Corte Costituzionale n. 356 del 1994, le Agenzie locali hanno colto l’importanza di pervenire ad una forma di coordinamento che andasse oltre il mero coordinamento tecnico ed entrasse in una logica di Sistema.  E infatti si è istituito

  • Il Consiglio federale, presieduto dal Presidente di ISPRA e composto dai legali rappresentanti delle varie ARPA/APPA che ha tra l’altro il compito di approvare il Piano triennale di attività
  • e si è iniziata la partecipazione al Sistema Informativo nazionale ambientale (SINAnet) mirato alla razionalizzazione delle iniziative di monitoraggio e di gestione delle informazioni ambientali

I risultati ottenuti hanno spinto il legislatore a intraprendere un progetto di  riforma – il cui iter di approvazione è stato abbastanza lungo – che si è concluso con l’approvazione della legge 132 del 28/06/2016  che istituisce il Sistema nazionale a rete per la protezione dell’ambiente e disciplina l’Istituto superiore per la protezione e la ricerca ambientale (ISPRA).

ispraNell’ambito del  Sistema – che entrerà in vigore il 14/1/2017 –   forte è, in questo momento, la necessità di confronto per il rafforzamento dell’identità di sistema, ma anche e soprattutto per una più efficace e omogenea tutela dell’ambiente.

Complementare al SNPA è AssoArpa – associazione con personalità giuridica che ha funzioni di rappresentanza delle Agenzie regionali e provinciali aderenti, con particolare rilievo per gli aspetti legali, i sistemi di finanziamento, l’organizzazione del lavoro, lo sviluppo delle risorse umane, la gestione dei rapporti di lavoro e delle relazioni sindacali.

 

Giorno della memoria. L’esame di chimica di Levi in Lager.

In evidenza

Mauro Icardi

Il 27 Gennaio 2017 ricorre il 72° anniversario della liberazione, da parte delle forze alleate, del campo di sterminio di Auschwitz. Utilizzo il sostantivo sterminio perché era quello il fine che nei campi di concentramento nazisti era perseguito, in perfetto accordo e ossequio alla politica di Adolf Hitler e dei suoi collaboratori. Per la precisione furono soldati dell’armata rossa che il mattino del 27 Gennaio arrivarono a cavallo davanti al cancello principale del campo.
Primo Levi così ricorda quel momento nel primo capitolo de “La tregua” con queste parole:
La prima pattuglia russa giunse in vista del campo verso il mezzogiorno del 27 gennaio 1945. Fummo Charles ed io a scorgerla: stavamo trasportando alla fossa comune il corpo di Sòmogy , il primo dei morti tra i nostri compagni di camera. Rovesciammo la barella sulla neve corrotta, che la fossa era ormai piena, ed altra sepoltura non si dava: Charles si tolse il berretto a salutare i vivi e i morti.
Erano quattro giovani soldati a cavallo, che procedevano guardinghi, coi mitragliatori imbracciati, lungo la strada che limitava il campo. Quando giunsero ai reticolati, sostarono a guardare, scambiandosi parole brevi e timide, e volgendo sguardi legati da uno strano imbarazzo sui cadaveri scomposti, sulle baracche sconquassate, e su noi pochi vivi.

auschwitz07.jpg

Come sempre nello stile di Levi tutto è pacato, armonioso ed essenziale. Questo brano ne è un perfetto esempio.
Paradossalmente l’esperienza della deportazione è per Levi l’inizio della sua vocazione di scrittore, nonostante avesse già scritto racconti e poesie prima, durante i suoi anni di studio. L’esigenza di portare testimonianza di quanto è avvenuto nell’universo concentrazionario del regime nazista porterà Levi a scrivere già durante la prigionia, attività decisamente rischiosa che lo avrebbe sicuramente portato a finire in crematorio nel caso fosse stato scoperto.
Levi dopo essere stato liberato dalla prigionia si interrogherà spesso su quanto la sua sopravvivenza al tremendo regime del Lager sia dovuta al caso, e questo sentimento lo accompagnerà per tutta la vita.
Altri due episodi aiuteranno Levi a sopravvivere. L’ultimo in ordine di tempo è il fatto che fosse ammalato e ricoverato in infermeria nel momento in cui i tedeschi ,pressati dall’avanzare delle truppe sovietiche abbandonano il campo di Auschwitz. Ma nell’intento di non lasciare tracce dei loro crimini costringono i prigionieri ancora in forze ad abbandonare anch’essi il campo, mentre loro tentano di distruggere almeno i registri di internamento dei prigionieri. L’evacuazione sarà ricordata come la “marcia della morte”. I prigionieri saranno costretti a marciare per chilometri nella neve, diretti verso le stazioni ferroviarie, da dove verranno stipati su carri bestiame aperti riempiti fino al limite della capienza. Altre migliaia di persone troveranno la morte in questo modo, morti di fatica, di fame o di freddo, o fucilati dopo pochi chilometri di marcia dalle SS nel caso fossero moribondi o stremati dalla stanchezza.
L’altro episodio che in qualche modo decide della sopravvivenza di Levi è quello dell’esame di chimica sostenuto in Lager, per potere essere aggregato al Kommando 98, il kommando chimico come specialista, sottraendosi così ai lavori più pesanti e al freddo.
Ed ora so anche che mi salverò se diventerò specialista, e diventerò specialista se supererò un esame di chimica”.
Per chi forse non riuscisse a capire il perché di un esame di chimica in Lager ecco alcune informazioni su come era strutturato il campo di Auschwitz.
Il complesso concentrazionario era costituito dai campi di Auschwitwz, Birkenau, e Buna Monowitz.
Quest’ultimo venne costruito nell’ottobre del 1942 nella frazione di Monowice (in lingua tedesca Monowitz) della cittadina di polacca di Oswiecim (Auschwitz in tedesco). Nei pressi vi era l’impianto per la produzione di gomma sintetica Buna Werke di proprietà della IG Farben.
I deportati furono utilizzati sia per la costruzione del campo, che per quella dell’impianto chimico che avrebbe dovuto anche ricavare combustibili liquidi dal carbone.

AuschwitzRampebeschriftet.jpg

Al di là di ogni ragione logistica come la presenza di una buona rete stradale e ferroviaria, l’impianto chimico venne realizzato per utilizzare la forza lavoro quasi gratuita. L’amministrazione del campo e la IG Farben stipularono accordi economici per poter utilizzare i prigionieri pagandoli 3-4 Reichsmark giornalieri.
La Farben si preoccupava anche di non diminuire il livello produttivo, e per questa ragione chiedeva ai responsabili del campo di effettuare frequenti selezioni, che destinassero gli inabili al lavoro alla morte per gas e successivamente al crematorio.
In questo scenario Levi sostiene un esame di chimica davanti al Dottor Pannwitz.
Condotto davanti a lui dal rude e volgare Kapò Alex.
“Siamo entrati. C’è solo il Dottor Pannwitz, Alex col berretto in mano gli parla a mezza voce – …un italiano in Lager da tre mesi soltanto già mezzo kaputt… Er sagt er ist Chemiker… – ma lui Alex sembra che faccia su questo le sue riserve”.
E inizia cosi l’esame di chimica. Levi riesce nonostante i tre mesi passati in Lager a spostare traversine, portare pesi, a richiamare alla mente, in maniera pronta e docile, i suoi ricordi dello studio della chimica organica. A mano a mano che il colloquio prosegue sente che gli corre nelle vene la febbre dei suoi passati esami.
Pannwitz sembra molto interessato al tema della tesi di Levi, “Misura di costanti dielettriche”.
Chiede al prigionero, all’Haftling 174517 se conosce l’inglese, mostrandogli anche il testo del Gattermann .
Entrambi hanno studiato su quel libro, ma sono uno al di qua del filo spinato con la sua vita regolare e sicura, e uno al di là senza nessun orizzonte oltre quello del Lager e della prigionia, del lavoro, della fame del freddo e della fatica disumana.
L’esame termina e Levi non riesce nemmeno a trovare una formula di saluto in lingua tedesca adatta a salutare il suo esaminatore. Lui che come dirà in seguito ha imparato il tedesco dal basso, dal Lager e sa dire parole come mangiare, lavorare, rubare e morire. Sa dire in tedesco anche pressione atmosferica ed acido solforico. Ma non una frase di saluto.

2004-03-n2-primo%20levi

Esce dalla stanza sempre accompagnato da Alex.
Per rientrare in campo devono attraversare uno spiazzo ingombro di travi e tralicci. E il capitolo di “Se questo è un uomo” dedicato all’esame di chimica si chiude con la descrizione di Alex che afferra un cavo d’acciaio unto di grasso e compie un gesto che rimane impresso, forse più di altri sia pure più violenti e crudeli nella memoria di Levi:
…ecco si guarda la mano nera di grasso viscido. Frattanto io l’ho raggiunto: senza odio e senza scherno, Alex strofina la mano sulla mia spalla, il palmo e il dorso per nettarla, e sarebbe assai stupito, l’innocente bruto Alex ,se qualcuno gli dicesse che alla stregua di questo suo atto io oggi lo giudico, lui e Pannwitz e gli innumerevoli che furono come lui, grandi e piccoli, in Auschwitz e ovunque
Non sarà lunga l’esperienza nel laboratorio di Buna per Levi, che sarà descritta nei racconti “Pipetta da guerra” e “L’ultimo Natale di guerra”.
Ma sarà per il lui un riparo dalla vita di stenti del campo.
La fabbrica di Buna Monowitz che costerà migliaia di morti non entrerà mai in produzione.

Monowitz.jpg

Le prime ricerche sulla chimica delle piante: i lavori di Giacomo Ciamician e Ciro Ravenna

In evidenza

Rinaldo Cervellati

La funzione delle sostanze bioattive di origine vegetale, chiamate oggi metaboliti secondari, prodotte dalle piante in quantità relativamente piccole è rimasta per molti anni un’incognita. Queste sostanze venivano infatti ritenute prodotti di scarto e comunque senza un ruolo specifico. Uno dei primi chimici a interessarsi a questo campo di ricerca è stato il Prof. Giacomo Ciamician (1857-1922)[1], insieme al suo allievo poi collaboratore Prof. Ciro Ravenna[2].

fig-1a-giacomo-ciamician

fig-1b-ciro-ravennaGià nel 1908, all’inizio del programma di studi sulla chimica delle piante traspare l’ammirazione di Ciamician per il mondo vegetale. Si legge infatti:

Le piante sono in grado di compiere il grandioso lavoro di sintesi, per cui esse riescono a produrre le più importanti materie organiche, con mezzi almeno in apparenza modestissimi. Gli agenti atmosferici e segnatamente le piccole quantità di anidride carbonica, i sali che loro fornisce il suolo e l’acqua, costituiscono i soli materiali di cui abbisognano i vegetali a foglie verdi per comporre quella numerosa e svariata serie di sostanze che noi tanto a stento riusciamo a riprodurre. [1]

Scopo del programma di ricerche sulla chimica delle piante era quello di individuare l’origine, il comportamento e la funzione delle sostanze accessorie nelle piante.

Ciamician e Ravenna osservarono che inoculando in diverse piante dei glucosidi, questi venivano scissi in sostanze aromatiche (oggi chiamate agliconi, sostanzialmente della categoria dei polifenoli). Viceversa, se alla pianta venivano somministrate queste sostanze aromatiche, esse si trasformavano in parte nel glucoside, in parte rimanevano inalterate e in parte venivano ossidate, in base alle necessità della pianta.[2]. Ecco un brano tratto dal rif. [2]:

Inoculando ad alcune piante (mais, giacinti) dei glucosidi, questi vengono scissi in gran parte nell’interno della pianta in modo che si ritrovano, allo stato libero, le sostanze aromatiche che entrano nella loro costituzione. Reciprocamente, inoculando o facendo assorbire in altro modo alcune sostanze aromatiche, si ritrova poi oltre alla sostanza inalterata, un composto che per azione della emulsina si scinde liberando nuove quantità della sostanza introdotta. Abbiamo quindi supposto che le sostanze aromatiche assorbite dalle piante si combinassero in modo da dar origine a dei glucosidi. Di ciò fu data la dimostrazione rigorosa inoculando nel mais la saligenina [alcool salicilico: 2-(idrossimetil)-fenolo]; siamo riusciti cioè ad isolare dalle piante così trattate il glucoside formatosi, che fu riconosciuto identico alla salicina [2-idossimetil)-fenil-β-D-glucopiranoside]

Oggi è noto che polifenoli e loro glicosidi svolgono principalmente un ruolo di difesa nelle piante. Di recente una ricerca ha dimostrato come estratti di Limonium narbonense cresciuto spontaneamente (ed esposto maggiormente a parassiti), contengano una quantità di polifenoli superiore rispetto a quella contenuta in estratti da piante coltivate [3]. Ciò conferma la capacità delle piante, già nota a Ciamician e Ravenna, di modulare la produzione delle sostanze di cui necessitano, con il minimo dispendio di energia e di materie prime.

Ciamician e Ravenna, analogamente a quanto fatto con la saligenina, inocularono nel mais l’alcool benzilico, che fu trasformato dalla pianta nel relativo glucoside, essi ottennero il medesimo risultato con la pianta del fagiolo [4].

Poiché medesimi fenomeni, oltre che nella pianta viva, furono anche osservati in poltiglie ottenute triturando le piante [e contenenti quindi tutti i principi degli individui originari] [2], i due chimici supposero che queste trasformazioni fossero dovute all’azione di enzimi. Successive ricerche confermarono questa ipotesi.

Oltre ad interessarsi ai glucosidi, uno studio più vasto fu condotto sugli alcaloidi, valutandone la produzione e cercando di capire il ruolo ed il comportamento di questi nelle piante. In questo caso, oltre alla tecnica dell’inoculazione, venne usata quella dell’innaffiamento di piantine cresciute in opportuni germinatoi, con soluzioni all’1 ‰ delle sostanze che si volevano esaminare [5].

fig-2a-germinatoio1

fig-2b-germinatoio2I primi studi furono eseguiti su piante che in natura producevano alcaloidi (datura e tabacco) inoculando in esse sostanze azotate: piridina, piperidina, acido carbopirrolico e asparagina , ottenendo un aumento della produzione di alcaloidi [6]:

Abbiamo descritto alcune esperienze dalle quali risulta che inoculando nelle piante di tabacco e di datura certe sostanze azotate, si ottiene, segnatamente colla piridina, un notevole aumento nella quantità totale dei rispettivi alcaloidi.

Ciamician e Ravenna osservarono anche che la sola incisione della pianta produceva notevoli variazioni sul contenuto degli alcaloidi, facendolo aumentare [7].

Vennero effettuati studi oltre che su piante spontanee anche su piante coltivate secondo norme agricole, per valutare il diverso comportamento all’inoculazione [8]. Appare quindi chiaro che queste ricerche avevano anche uno scopo pratico, agroindustriale, teso al miglioramento della qualità della pianta, soprattutto del tabacco.

Il rif. [6] conclude così:

Dalle esperienze descritte risulta che l’inoculazione di sostanze azotate di svariata natura chimica nel tabacco, produce un aumento nella quantità totale di alcaloidi e che questo aumento si accentua impiegando l’asparagina, anche introducendo nelle piante quantità di materie proporzionali al loro contenuto in azoto. Ma le osservazioni raccolte non permettono di trarre conclusioni sufficientemente sicure relative alla genesi ed al significato degli alcaloidi nelle piante. Ci sembra però si possa affermare, che le nostre esperienze parlino piuttosto in favore di quelle vedute secondo le quali gli alcaloidi vegetali provengono dagli acidi amidati [amminoacidi].

Sempre su piante in grado di produrre alcaloidi furono inoculate sostanze non azotate, glucosio e acido ftalico, per valutare il loro effetto sulla produzione di alcaloidi. Il glucosio fece aumentare la produzione di nicotina nel tabacco, con il secondo si ottenne una quantità circa uguale a quella delle prove in bianco (piante non inoculate). Tuttavia, poiché la sola incisione provocava un aumento dell’alcaloide, se ne concludeva che l’effetto dell’acido ftalico era di farne diminuire la produzione.

I risultati di queste ricerche furono raccolti in un fascicolo pubblicato (insieme a Ravenna) nella collana “Attualità Scientifiche” edito da Zanichelli [9]. All’inizio di questo testo si legge:

Le piante peraltro non producono solo le anzidette sostanze fondamentali della vita organica, cioè le materie proteiche, gli zuccheri semplici e composti, i grassi, le lecitine e altre ancora, ma inoltre tutta una serie di composti che sembrano essere accessori e che gli animali non contengono affatto. Si può però chiedere a che cosa servano queste sostanze, chiamate appunto accessorie, quali i glucosidi, gli alcaloidi, i tannini, le resine e tante altre.

fig-3-copertina-fascicoloGli autori giungono alla conclusione che gli alcaloidi prodotti dalle piante non sono sostanze di scarto ma eserciterebbero una funzione molto simile a quella degli ormoni negli animali. Il testo termina con queste frasi:

La conclusione a cui si può arrivare in base a quanto sappiamo per ora, è che le piante fanno una chimica che corrisponde a quella che pratichiamo noi nei laboratori; la fanno con mezzi infinitamente più semplici dei nostri, ma con intendimenti simili ai nostri. E se in esse l’organizzazione non è così differenziata come negli animali, suppliscono a tutto ciò con un chimismo assai perfetto; la coscienza delle piante è una coscienza chimica.”[9]

Infine, si vuole ricordare che per la preparazione di farmaci semisintetici, si rende necessario avere a disposizione quantitativi adeguati di metaboliti vegetali. Poiché la loro sintesi è particolarmente complessa e costosa si ricorre a trattamenti biotecnologici che ‘obbligano’ le piante a produrre una maggior quantità di metaboliti. Possiamo affermare che Ciamician, attraverso i suoi esperimenti, può essere considerato un precursore delle biotecnologie. La definizione di biotecnologia (usualmente al plurale, biotecnologie) stesa dalla Convenzione sulla Diversità Biologica delle Nazioni Unite, è infatti la seguente:

“La biotecnologia è l’applicazione tecnologica che si serve dei sistemi biologici, degli organismi viventi o di derivati di questi per produrre o modificare prodotti o processi per un fine specifico.”

Parte delle biotecnologie vegetali si occupa, come già detto, di favorire la produzione di specifici composti nelle piante continuando così nella strada percorsa da Giacomo Ciamician.

(NdA). Questo post è tratto in parte da: V. Saiola, Le ricerche di Giacomo Ciamician sulla Chimica delle Piante. Una bibliografia ragionata, tesi di laurea in Farmacia, Università di Bologna, A.A. 2009/2010, Sessione I; e da: R. Cervellati, V. Saiola, E. Greco, Le ricerche di Giacomo Ciamician sulla Chimica delle Piante, Atti del XIV Convegno Nazionale di Storia e Fondamenti della Chimica, Serie V, Vol. XXXV, Parte II, Tomo II, 2011, pp. 123-135.

[1] Ciamician G., 1908. La Chimica Organica negli Orgnaismi, Attualità Scientifiche, n.11, Nicola Zanichelli, Bologna

[2] Ciamician G.; Ravenna C., 1909. Sulla formazione dei glucosidi per mezzo delle piante Rend. R. Acc. Lincei, vol. XVIII, serie 5°, fasc. 12°, pp. 594-596

[3] Cervellati R., Greco E., Dall’Acqua S., Innocenti G., 2011. Piante spontanee e coltivate: c’è differenza? Uno studio di caso su Limonium Narbonense Mill., Natural 1, XI(105) pp. 68-76

[4] Ciamician G.; Ravenna C., 1911. Sul contegno dell’alcool benzilico nelle piante, Rend. R. Acc. Lincei, vol. XX, serie 5°, pp. 392-394

[5] Ciamician G.; Ravenna C., 1911. Ricerche sulla genesi degli alcaloidi nelle piante Rend. R. Acc. Lincei, vol. XX, serie 5°, pp. 614-624

[6] Ciamician G.; Ravenna C., 1911. Sul contegno di alcune sostanze organiche nei vegetali Rend. Acc. Scienze Ist. Bologna, IV memoria, pp. 47-52

[7] Ciamician G.; Ravenna C., 1912. Sul contegno di alcune sostanze organiche nei vegetali Rend. Acc. Scienze Ist. Bologna, V° memoria, pp. 71-76

[8] Ciamician G.; Ravenna C., 1913. Sul contegno di alcune sostanze organiche nei vegetali Rend. Acc. Scienze Ist. Bologna, VI° memoria, pp. 143-153

[9] Ciamician G.; Ravenna C., 1921. Sul significato biologico degli alcaloidi nelle piante, Attualità scientifiche, n. 28, Nicola Zanichelli, Bologna

 

[1] Professore di Chimica Generale nell’Università di Bologna dal 1889 fino alla scomparsa è considerato il fondatore della fotochimica moderna, collaborò al progetto dell’edificio dell’Istituto di Chimica dell’Università di Bologna che oggi ospita il Dipartimento a lui intitolato. Si è occupato attivamente della sintesi di prodotti organici naturali. Oltre a essere uno dei fondatori della fotochimica moderna, Giacomo Ciamician è considerato anche il precursore dell’utilizzo pratico dell’energia solare.

[2] Ciro Ravenna (Ferrara, 1878, Auschwitz, 1944). Dal 1909 in avanti collaborò con Ciamician alle sue ricerche sulla chimica delle piante. Dal 1923 al 1938 occupò la cattedra di Chimica Agraria di Pisa, dove continuò gli studi sulla formazione e sul significato biologico degli alcaloidi. Scrisse un libro sulla chimica vegetale, pedologica e bromatologica. Cacciato dall’università nel 1938 in seguito alle vergognose leggi razziali mussoliniane si guadagnò da vivere con lezioni private. Fu arrestato a Ferrara da italiani repubblichini nel 1943 e deportato nel campo di concentramento di Fossoli, poi trasferito a Auschwitz il 22 febbraio 1944, dove fu assassinato il 26 febbraio 1944.

 

Fame e biotecnologie: un punto di vista non convenzionale

In evidenza

 Giuseppe Poeta Paccati [1]

La fame continua ad essere un problema in tutto il mondo. Secondo l’Organizzazione per l’alimentazione e l’agricoltura delle Nazioni Unite, “850 milioni di persone nel mondo erano denutrite fra il 1999 e il 2005” ed il numero è in continuo aumento.

fame1

Carl von Bergen, 1904, Ragazza con piatto.

La fame ha pochissimo a che vedere con le tecniche agricole di produzione; essa, al contrario, è legata a una diseguale distribuzione delle ricchezze sul pianeta ed è soprattutto un problema politico, di democrazia economica e di giustizia sociale. Forse dobbiamo mettere in dubbio che la ricerca biotecnologica applicata alla produzione agroalimentare (colture transgeniche ecc.) possa effettivamente servire a risolvere il problema della fame nel Terzo e Quarto Mondo. È significativo che la Croce Rossa Internazionale abbia stimato che ben il 90% dei circa 256 milioni di disastrati nel mondo viva nei paesi poveri.[2]

Papa Benedetto XVI, ha sostenuto che la denutrizione: « è colpa non della mancanza di cibo, ma delle politiche dei governi, dei fenomeni speculativi e della carenza di un assetto di istituzioni politiche ed economiche in grado di fronteggiare le necessità e le emergenze ».

Inoltre, è stato dimostrato che le condizioni atmosferiche avverse e la scarsità del raccolto, sebbene siano sicuramente eventi naturali avversi, non sono necessariamente disastri di vaste dimensioni.[3] In occasione delle grandi carestie nel Bengala, a Calcutta nel Sahel e in Etiopia, ad esempio, la scelta di concentrare l’attenzione sulla disponibilità di cibo e di attribuire la sua mancanza esclusivamente a cause naturali, ha impedito di evidenziare le vere responsabilità a carico delle strutture economiche e legali il cui crollo è la causa principale di tali calamità che avvengono anche quando il raccolto è stato buono e vi sono riserve di cibo disponibili.

Le principali crisi sanitarie e le catastrofi umanitarie cui, ancora oggi, assistiamo in Somalia, Birmania, Zimbabwe, Congo, Pakistan, Sudan ed Iraq, sono causate dalle periodiche ondate di violenza che riducono in condizioni estreme intere popolazioni spesso costrette ad esodi di massa in cui ai profughi manca acqua, cibo, riparo e assistenza sanitaria che li rende estremamente vulnerabili a malattie che, normalmente, sarebbero facilmente curabili.[4] Papa Francesco in visita alla sede romana del Programma Alimentare Mondiale delle Nazioni Unite,[5] parlando a braccio affermò che “La fame non è un dato naturale, né frutto di un destino cieco di fronte al quale non possiamo fare nulla”.fame2

Il cibo che si spreca è come se lo si rubasse dalla mensa del povero, di colui che ha fame”. E ancora, “abbiamo fatto dei frutti della terra, dono per l’umanità, un privilegio di alcuni, generando esclusione. Abbiamo stravolto i fini della terra”. “La mancanza di alimenti – spiega il Pontefice – non è qualcosa di naturale, non è un dato ovvio: il fatto che oggi, in pieno ventunesimo secolo, molte persone patiscano questo flagello, è dovuto a un’egoista e cattiva distribuzione delle risorse, a una mercantilizzazione degli alimenti”.

Nel frattempo la scienza, oggi le biotecnologie, vorrebbe impossessarsi di un fine alto, e indiscutibile, quello di voler sfamare la “sovrappopolazione” futura per giustificare i suoi indirizzi e le sue nuove e rivoluzionarie pratiche sulle cellule animali, vegetali e batteriche. Ma in questo modo è come se invece di prevenire la “malattia” agendo sulle sue vere cause per debellarle, ci si accontentasse di curarne i sintomi accettando che essa possa comunque insorgere.

Il consumismo che pervade le nostre società ci ha indotti ad abituarci al superfluo e allo spreco quotidiano di cibo, al quale a volte ormai non siamo più capaci di dare il giusto valore, che va oltre i meri parametri economici”. “Non possiamo ‘naturalizzare’ la fame di tante persone; non ci è lecito dire che la loro situazione è frutto di un destino cieco di fronte al quale non possiamo fare nulla”.[6]Per sfamare il mondo preoccupano giustamente i cambiamenti climatici, ma non possiamo dimenticare la speculazione finanziaria.[7]

Ci troviamo così davanti a uno strano e paradossale fenomeno: mentre gli aiuti e i piani di sviluppo sono ostacolati da intricate e incomprensibili decisioni politiche, da forvianti visioni ideologiche o da insormontabili barriere doganali, le armi no; non importa la loro provenienza, esse circolano con una spavalda e quasi assoluta libertà in tante parti del mondo. E in questo modo, a nutrirsi sono le guerre e non le persone. In alcuni casi, la fame stessa viene usata come arma di guerra. E le vittime si moltiplicano, perché il numero delle persone che muoiono di fame e sfinimento si aggiunge a quello dei combattenti che muoiono sul campo di battaglia e a quello dei molti civili caduti negli scontri e negli attentati. Siamo pienamente coscienti di questo, però lasciamo che la nostra coscienza si anestetizzi, e così la rendiamo insensibile. In tal modo la forza diventa il nostro unico modo di agire, e il potere l’obiettivo perentorio da raggiungere”.

fame3La figura 1 sopra mostra come sarebbe il Mondo se le dimensioni dei paesi fossero proporzionali al grado ricchezza.[8] fame4La figura 2 mostra invece come sarebbe il Mondo se le dimensioni dei paesi fossero proporzionali alle morti per fame[9] fame5e la figura 3 mostra come si distribuiscono le morti per fame nel mondo.

Allora constatiamo, accoratamente, che senza una migliore giustizia, le rinnovate e moltiplicate risorse (o presunte tali) che la biotecnologia promette di metterci a disposizione in futuro nulla potranno per ridimensionare quello che lo stesso Pontefice ha definito lo “scandalo” della fame e della malnutrizione che continuerà a minacciare la vita e la dignità di tante persone – uomini, donne, bambini e anziani perché dall’indigenza, come dall’ignoranza, qualcuno continuerà – indisturbato – a trarre il suo macabro profitto.

[1] Insegnante presso l’ISIS G. Natta, Via Europa, 15, Bergamo.

[2] Federazione Internazionale della Croce Rossa, Rapporto Mondiale 2001 sui disastri ambientali.

[3] Sen Amartya, Collective Choice and Social Welfare, Elsevier, Amsterdam, 1970.

[4] Medici Senza Frontiere, Quinto Rapporto sulle Crisi Dimenticate, http://www.crisidimenticate.it/

[5] Pam, il Programma Alimentare Mondiale delle Nazioni Unite si prefigge l’obiettivo “Fame zero”, cioè nessuno uomo dovrà soffrire la fame in nessun luogo del mondo, entro il 2030.

[6] Il Pontefice in occasione dell’incontro in udienza dei partecipanti al Banco alimentare, 2015.

[7] Il Papa rivolto ai delegati Fao in udienza in Vaticano all’indomani dell’annuncio del titolo della nuova enciclica sull’ambiente “Laudato si'”.

[8] Livello di sviluppo economico Banca Mondiale, 2015.

[9] http://www.worldmapper.org/display_extra.php?selected=412

La Chimica di Pirandello.

In evidenza

Claudio Della Volpe

(Il Gioacchino Genchi di cui si parla in questo post non è da confondere con il Gioacchino Genchi, avvocato ed esperto informatico diventato famoso per il caso SIATEL.)

Qualcuno ricorderà la storia di Adolfo Parmaliana, l’eroico collega di Messina la cui valorosa lotta contro la mafia abbiamo ricordato pochi mesi fa sul nostro blog. Ma a quanto pare la chimica siciliana non è seconda a nessuno nella lotta per una cultura ed una società diverse; oggi vi raccontiamo un’altra storia che ha come protagonista un chimico siciliano (anzi due), che per sua fortuna e nostra, a differenza di Adolfo, è vivo non solo nei nostri cuori: Gioacchino Genchi. E se la storia di Adolfo è una storia tragica ed eroica, quella di Gioacchino è pirandelliana. Infatti un tema molto caro a Pirandello è l’inconoscibilità del reale, di cui ognuno può dare una propria interpretazione che può non coincidere con quella degli altri.

genchi1

Gioacchino Genchi, chimico.

Genchi si laurea in Chimica a cavallo fra gli anni 60 e 70, come ricorda lui stesso, in occasione della proiezione del film su farmacia di Costanza Quatriglio ( il caso Catania ) andato in onda anche su Raitre nel 2014 (Con il fiato sospeso) e forse proprio in polemica con quel modo di fare la Chimica diventa dirigente chimico della Regione Sicilia.

Nei primi anni duemila si oppone, insieme con il collega Alessandro Pellerito, con successo ad una serie di tentativi di “importare” in Sicilia metodi e procedure altamente inquinanti; fa chiudere per 5 anni la distilleria Bertolino di Partinico che inquina l’ambiente non rispettando i criteri delle leggi ambientali (si veda qui), blocca le industrie che impastavano laterizi con fanghi tossici del Petrolchimico di Siracusa (la Guglielmino Group di Misterbianco e la DB Group di Adrano),  ma soprattutto imperdonabilmente si oppone alla costruzione di 4 inceneritori o termovalorizzatori tra il 2005 e il 2006, un affare da 4-5 miliardi di euro; limpidi gli argomenti che condividiamo anche noi contro la logica dell’incenerimento, illustrati in una bella presentazione scaricabile in rete. Da notare che il governo regionale si è poi vantato di aver interrotto quei progetti, ma allora perché chi lo ha fatto tecnicamente è stato poi punito?

Dopo questi episodi inizia per i due dirigenti (e anche per altri due ad essere completi) una storia infinita veramente pirandelliana e tutta siciliana. Nel gennaio 2007 i due dirigenti vengono sospesi dal loro incarico con la scusa di scarso rendimento, ma con motivazioni così poco credibili (fra l’altro con un errore numerico nelle motivazioni) da portare a una trafila legale e alla condanna della regione Sicilia da parte della magistratura del lavoro e al loro ripristino nel posto e nell’incarico; tuttavia tale ripristino non viene mai attuato e ormai da quasi 8 anni (!incredibile ma vero) nonostante abbiano avuto ragione da parte della magistratura attendono l’attuazione della sentenza; uno dei due, Pellerito, è emigrato in Canadà e l’altro svolge un non-lavoro per il quale però viene pagato, ma di fatto è stato estromesso dal posto di dirigente che occupava; Genchi ha ripetutamente protestato per questa situazione che compare regolarmente sulle pagine dei principali quotidiani come esempio di un malgoverno imperante.

In pratica questa azione di vero e proprio mobbing nei confronti dei due dirigenti chimici è stato attuato per avere realizzato in modo tecnico il blocco delle attività inquinanti, che in alcuni casi, almeno a parole, venivano poi rivendicate dal governo regionale, ma nei fatti non erano nei desiderata effettivi dei politici.

E’ doveroso notare che entrambi i governi siciliani di quel periodo Cuffaro e Lombardo si sono dovuti dimettere per motivi legati a coinvolgimenti mafiosi; anche il governo in carica (Presidente Crocetta) non è stato capace di risolvere il problema che ne è conseguito.

genchi2Al di là delle questioni legali questo è un esempio di come la chimica può diventare una spina nel fianco e un modo di difendere gli interessi dei cittadini, ma di fatto questa cosa non viene poi rivendicata; lo facciamo su questo blog perchè noi siamo invece interessati a difendere ed esaltare proprio questo ruolo della chimica, la chimica come strumento di risoluzione dei problemi dell’Antropocene. Per fare questo ci vogliono dei Chimici che la mettano in pratica con etica e coerenza e dunque il nostro ringraziamento e il nostro appoggio vanno a Genchi e Pellerito che stanno pagando di persona la resistenza delle classi dominanti ad un uso razionale e corretto della chimica.

Ci auguriamo che presto i siciliani non abbiano più bisogno di eroi come Parmaliana e nemmeno di strenui difensori della legalità e di un uso corretto della Chimica come Genchi e Pellerito. E PIrandello meglio goderselo a teatro.

Per documentazione si vedano anche:

(http://www.ilfattoquotidiano.it/2017/01/07/sicilia-sullisola-la-matematica-e-relativa-lo-strano-caso-del-dottor-genchi/3299042/)

https://www.scribd.com/doc/93765017/Genchi-Dirigente-Regione-Sicilia-PAGATO-PER-NON-LAVORARE-Lia-on-line-del-13-marzo

http://isoladellefemminepulita.blogspot.it/2015/07/presentazione-gioacchino-genchi.html

Una riflessione sulle modifiche genetiche.

In evidenza

Luigi Campanella, ex Presidente SCI

L’umanità deve riuscire a produrre sempre maggiore nutrimento per soddisfare le necessità di una popolazione in continua crescita. Tuttavia, le terre arabili propizie all’agricoltura diventano sempre più rare, spesso a causa di una forte salinità, di mancanza di acqua, del freddo o di contaminazione chimica. Si sostiene pertanto che sarebbe possibile diminuire la pressione sulle terre disponibili coltivando varietà resistenti a questi stress ambientali.

La salinità elevata colpisce circa il 20% di tutte le terre agricole e il 40% dei terreni irrigui. La facoltà che hanno certe piante di adattarsi ad una forte salinità o a condizioni di siccità deriva dall’interazione di numerosi geni. E’ dunque difficile introdurre una tolleranza al sale o alla siccità mediante riproduzione tradizionale o mediante la biologia molecolare attuale. Nondimeno, sono stati realizzati progressi manipolando delle piante perché producano di più alcuni composti, fra cui la glicina betaina o betainato di glicina o trimetilglicina, che protegge le cellule contro l’azione del sale.

betainato-di-glicinaI suoli fortemente acidi determinano una liberazione di alluminio, elemento tossico per le radici della maggior parte delle colture e che causa dei problemi nel 30-40% delle terre arabili del mondo, particolarmente sotto i tropici. Ad esempio il rendimento del mais può diminuire dell’80% quando cresce sui suoli acidi. Le piante che tollerano naturalmente forti concentrazioni di alluminio secernono acido malico o citrico, questo aiuta le radici ad assorbire meno alluminio. L’introduzione di un gene batterico nella papaia ha reso questa pianta più tollerante all’alluminio.

Tutte le piante hanno bisogno d’azoto organico per crescere. Attualmente si studiano due modi di aumentare il tenore di azoto nel suolo. Si tratta della modificazione genetica del batterio Rhizobium per indurlo a formare più noduli sulle radici, e dell’introduzione nelle piante delle caratteristiche di nitrificazione del batterio. (qui un test italiano sull’uso in campo di questa modifica )

Oltre ad offrire vitamine e minerali, le piante sintetizzano migliaia di metaboliti secondari, fra cui alcuni hanno un impatto sulla salute umana.

La vitamina E è il più importante antiossidante solubile nell’acqua (vedi nota in fondo) che la nostra alimentazione conosca ed è associata a vari benefici vascolari. Le fonti naturali di vitamina E sono gli oli di semi, fra cui la colza e la soia, che contengono una miscela di più tipi di molecole denominate tocoferoli.

Il tocoferolo alfa è il più benefico di questi composti, ma si trova in bassa quantità nella maggior parte dei prodotti. Introducendo un gene nei semi di una specie vicina alla colza, l’Arabidopsis thaliana, il contenuto è stato aumentato di un fattore superiore al 95%.

vitaminaeLa carenza di ferro è una dei maggiori punti deboli dell’alimentazioni tradizionali, nel mondo, e colpisce da uno a due miliardi di persone. Il suo sintomo più comune si chiama anemia, ma è anche associata a difficoltà di apprendimento dei bambini e ad una grande suscettibilità alle infezioni. Oltre all’integrazione alimentare, si cerca di aumentare l’assorbimento di ferro in due modi: aumentando il tenore di proteine che trattengono il ferro (ferritina), in certe colture, e riducendo l’impatto dei composti che disturbano l’assorbimento di ferro.

L’incorporazione di sequenze virali nei genomi di piante come tecnica che conferisce una resistenza alle malattie causate da questi agenti, è ormai una tecnica ben acquisita, e questo metodo ha permesso di sviluppare varietà commerciali di patate, zucche e papaia.

Le piante possono combattere le malattie in vari modi. In certi casi, esse producono delle sostanze chimiche o delle proteine specifiche. Questi composti protettivi possono colpire dei patogeni specifici o essere di natura generale, avviene spesso che la loro produzione porta alla morte delle cellule vicine al punto d’ingresso del patogeno, ciò che isola l’agente infettivo e ne impedisce l’espansione.

Le piante vengono sempre più manipolate ai fini non alimentari, e cioè per la produzione di proteine industriali, di prodotti farmaceutici e di altri prodotti.

Anche gli animali sono oggetto di studi di modificazione genetica: animali transgenici offrono numerose applicazioni nella ricerca medica, ad esempio servendo da modelli per studiare le malattie, la crescita, l’invecchiamento e le funzioni di geni dell’essere umano.

Piante, animali:resta l’uomo.

Su questa strada, mentre da un lato c’è da chiedersi se alterando i modelli naturali non si finisca per alimentare il processo degradativo del collasso della diversità biologica che si vuole combattere, dall’altro c’è da guardare con sospetto a progetti che considerino come base di studio l’organismo umano.

*********************************************

Nota: i tocoferoli e i tocotrienoli sono pochissimo solubili in acqua. L’alfa-tocoferolo (vitamina E) è presente come acetato (questo sì solubile in H2O), l’OH fenolico essendo esterificato dal gruppo carbossilico, nella maggior parte delle forme farmaceutiche. L’acetato in sè non ha attività scavenger di radicali liberi, ma l’organismo è in grado di ripristinare l’OH fenolico.

Astrochimica: individuato ghiaccio sotto la superficie del pianeta nano Cerere

In evidenza

Rinaldo Cervellati

Il pianeta nano Cerere[1], che orbita nella fascia degli asteroidi tra Marte e Giove, ospita una grande quantità di ghiaccio sotto la superficie, afferma un team di scienziati guidati dal Dr. T.H. Prettyman del Science Planetary Institute nel corso del Convegno dell’American Geophysical Union il 15 dicembre scorso.[1]

fig-1-cerereIl ghiaccio, che probabilmente riempie i pori nel sottosuolo di roccia, si trova lì da miliardi di anni, confermando le previsioni fatte da alcuni astronomi 30 anni fa.

Thomas Prettyman

Thomas Prettyman

Gli scienziati hanno riferito questi e altri risultati raccolti dal veicolo spaziale Dawn[2] della National Aeronautics and Space Administration, in orbita attorno a Cerere, in una conferenza stampa il 15 dicembre scorso al convegno dell’American Geophysical Union a San Francisco.

Il veicolo spaziale è munito di uno spettrometro a neutroni e raggi gamma che fornisce informazioni sugli elementi che costituiscono la crosta del pianeta, tale strumento è stato già utilizzato nella missione Messenger che ha fornito informazioni su Mercurio. Uno schema semplificato del funzionamento dello spettrometro è mostrato in figura. In breve lo strumento misura il numero e l’energia dei neutroni e dei raggi gamma che raggiungono la sonda quando passa vicino al pianeta.

fig-3-spettrometro-a-neutroniI dati raccolti da Down nell’arco di cinque mesi hanno permesso una mappatura della composizione di Cerere rilevando la presenza di idrogeno anche alla profondità di appena un metro sotto la superficie del pianeta nano. Il ghiaccio è più concentrato ai poli di Ceres.

Norbert Schörghofer, uno scienziato della missione Dawn e astronomo presso l’Università delle Hawaii, ha infatti riferito che la sonda ha rilevato sacche di ghiaccio nei crateri permanentemente in ombra ai poli di Ceres, fenomeno che esiste anche su Mercurio e Luna [2].

fig-4-norbert-schorghofer

Norbert Schörghofer

Tutte le evidenze raccolte da Down stanno a indicare che un tempo Cerere aveva un oceano e che tracce di esso rimangono probabilmente ancora sotto la sua superficie ha detto Carol Raymond del Jet Propulsion Lab, vice ricercatore principale della missione.

fig-5-carol-raymond

Carol Raymond

Gli scienziati sono particolarmente interessati a corpi del sistema solare che possono contenere acqua allo stato liquido perché potrebbero essere ambienti in grado di ospitare la vita. Cerere, ha sostenuto Raymond, è probabilmente simile a Europa, una luna di Giove, o a Encelado, luna di Saturno, in termini di potenziale abitabilità.

Al convegno dell’American Geophysical Union è stata presentata un’altra ricerca, focalizzata su un corpo del sistema solare più vicino al nostro pianeta: Marte. Gli scienziati del Los Alamos National Laboratory hanno annunciato per la prima volta la scoperta di boro sulla superficie del pianeta rosso. La NASA ha individuato l’elemento in vene minerali di solfato di calcio. Se questo minerale è confrontabile con quello che si trova sulla Terra, ciò indicherebbe che molto tempo fa le temperature superficiali del pianeta erano 0-60 ° C, e che il terreno aveva un pH neutro-alcalino, in altre parole un ambiente abitabile.

Fonte: c&en Newsletters 21-12-2016

[1] T. Prettyman et al., Extensive water ice within Ceres’ aqueously altered regolith: Evidence from nuclear spectroscopy, Science  15 Dec 2016, DOI: 10.1126/science.aah6765

[2] T. Platz et al., Surface water-ice deposits in the northern shadowed regions of Ceres,

Nature Astronomy, 15 Dec 2016, DOI: 10.1038/s41550-016-0007

[1] Cerere è l’asteroide più grande della fascia principale del sistema solare, scoperto nel 1801, per mezzo secolo è stato considerato l’ottavo pianeta. Dal 2006 Cerere è l’unico asteroide del sistema solare interno considerato un pianeta nano, alla stregua di Plutone.

[2] La Missione Dawn è una missione basata su una sonda senza equipaggio sviluppata dalla NASA per raggiungere ed esaminare il pianeta nano Cerere e l’asteroide Vesta . Dawn è stata lanciata in settembre 2007 e ha raggiunto Cerere in marzo 2015.

I mondi di Primo Levi: una strenua chiarezza

In evidenza

Mauro Icardi.

(il post è illustrato da alcune foto scattate dall’autore medesimo)

La mostra dedicata alla vita e alle opere di Primo Levi è stata inaugurata il 21 Gennaio del 2015 a Torino, città natale dello scrittore. E’ una mostra itinerante ed ha avuto successivi allestimenti nel corso del 2015 e del 2016 in due città italiane (Cuneo e Ferrara) e anche in Belgio nella città di Liegi.

Particolarmente significativa l’esposizione tenuta al campo di concentramento di Fossoli in provincia di Modena, dove lo scrittore venne condotto dopo l’arresto in attesa di essere poi deportato ad Auschwitz, che è stata la seconda edizione (19 Aprile -30 Giugno 2015).

Attualmente la mostra, che è stata realizzata dal Centro Internazionale di studi Primo Levi di Torino, è allestita presso il Museo di Scienza e Tecnologia di Milano, in occasione della nuova edizione delle Opere Complete.

mostralevi1Prima di parlare della mostra occorre fare una prima, importante riflessione.

Per moltissimi anni Primo Levi, anche per ragioni che lui stesso aveva sempre evidenziato, cioè che si dedicasse alla letteratura come attività complementare a quella principale di chimico e direttore tecnico di una fabbrica di vernici era certamente molto apprezzato come scrittore memorialista, ma difficilmente classificabile dalla critica negli anni delle sue prime prove letterarie.

Nel 1975 Primo levi decide di andare in pensione e di dedicarsi a tempo pieno all’attività di scrittore. In quello stesso anno viene pubblicato “Il sistema periodico” l’altro libro che insieme a “Se questo è un uomo” è da considerarsi a tutti gli effetti un classico della letteratura italiana del novecento.

mostralevi2Dopo la morte di Levi avvenuta nell’aprile del 1987 inizia per lo scrittore un lento ma costante cambiamento di immagine e di valutazione da parte della critica letteraria.

Iniziative culturali, pubblicazione di diversi libri di biografie e studi critici hanno raggiunto dimensioni importanti e corpose.

Finendo per trasformare l’opera di Primo Levi come scrive Mario Barenghi nell’articolo uscito su “Doppiozero.com” in “un’intera galassia, che non ci si stanca di percorrere e di esplorare.”

(Mario Barenghi “La galassia Primo Levi” Doppiozero.com 04 Dicembre 2016”)

Ho voluto tornare a visitare la mostra a lui dedicata dopo essere già stato nel 2015 a quella di Torino. Per la fondamentale ragione che ero certo che avrei trovato nuovi stimoli, come in effetti è stato.

Nel museo di Milano, oltre alla sala dedicata alla mostra vera e propria si può fare un percorso della durata di circa un’ora dove brani dell’opera di Levi sono accostati agli spazi espositivi del museo, creando una suggestione ed un legame . Per esempio nella sezione dedicata alla chimica di base si trova esposto un brano tratto da “Racconti e saggi” cioè “La sfida della molecola”, oppure nella sezione dedicata alle macchine da calcolo un brano de “Lo scriba” uscito su “L’altrui mestiere” dove Levi racconta la sua esperienza nell’uso del suo primo elaboratore elettronico di testi ,ausilio ed aiuto nel suo lavoro di scrittore.

mostralevi3Nell’attesa dell’ingresso al museo ho avuto modo di scambiare qualche parola con altri visitatori. Accorgendomi come per il pubblico dei semplici lettori, o studenti sia ancora prevalente l’immagine del Levi scrittore e testimone dell’olocausto e che molti non sapessero che lo scrittore era un chimico.

mostralevi4All’interno della mostra ho spiegato ad alcune persone cosa rappresentasse la prima sezione della mostra, dove il racconto “Carbonio” viene illustrato con le parole scritte da Levi e con le tavole disegnate dall’artista giapponese Yosuke Taki. Il visitatore viene condotto a viaggiare nell’infinitamente piccolo, nel ciclo del carbonio.

Le sezioni della mostra prendono poi in esame l’esperienza del lager e della deportazione (Il viaggio verso il nulla/Il cammino verso casa) e le varie altre anime di Levi. “Cucire parole” per significare il lavoro di scrittore attento a evitare lo scrivere oscuro, “Cucire molecole” che invece ci mostra il Levi chimico ed i momenti più salienti del suo rapporto con la chimica.

Le sezione “Homo Faber” è dedicata al rapporto tra mano e cervello che Levi sviluppava costruendo sculture in filo di rame, quello che rivestiva con vernici e polimeri alla SIVA. Uno di questi, una farfalla si trova esposto alla mostra mentre altri si possono vedere in fotografia.

mostralevi6“Il giro del mondo del montatore Tino Faussone” personaggio de “La chiave a stella” è la sezione della mostra che si occupa del lavoro, tema centrale di questo romanzo. Dell’etica che ad esso si lega e del concetto che amare il proprio lavoro sia “la migliore approssimazione concreta della felicità sulla terra”.

La mia seconda visita come dicevo non è stata inutile. Come per la lettura dei suoi libri,anche rivedere la mostra ha avuto lo stesso effetto. Le sua opera anche se letta e riletta non stanca mai. Sia che si analizzi il versante memorialistico,sia che si analizzi quello propriamente dedicato alla chimica, o cosa significhi essere chimico, o quelle che sono esperienze comuni per chi la pratica, di soddisfazioni o di problemi lavorativi da affrontare e risolvere.

Levi è stato scrittore e chimico, ma sostanzialmente è stato un grandissimo uomo di cultura ed un divulgatore di primissimo ordine.

Tutti questi aspetti della sua vita e della sua opera non sono scindibili. Levi riesce a trasmettere in chi si accosta alla sua opera questa inesauribile curiosità.

Non saprei suggerire quale aspetto si possa considerare prevalente. Mi sento solo di suggerire per esempio che, pur essendo necessario far leggere soprattutto a scuola i suoi libri attinenti alla vicenda storica della deportazione e dell’olocausto, andrebbe fatto conoscere forse di più il Levi chimico.

mostralevi7

Levi è un autore che ci porta per mano nel XXI secolo dopo essere uscito vivo da una delle peggiori tragedie storiche e umane del ventesimo.

La sua poliedricità di temi ed argomenti è una vera costante scoperta. E visitare questa mostra ne è un importante tassello.

 

La saliva.

In evidenza

Luigi Campanella, ex Presidente SCI

La saliva è considerato un liquido biologico ed il suo ruolo è spiegato attraverso la chimica,ancora una volta scienza regina per interpretare i processi biologici e naturali,compreso anche il funzionamento dell’organismo umano-

La saliva, con le sue caratteristiche, esercita un’influenza diretta sulla salute dei denti, una parte del nostro corpo fondamentale ai fini delle attività di nutrizione e digestione. La sua composizione normalmente ha un pH neutro (valori da 6.5 a 7.5), ma varia quando si mangia o si beve. Un paio di ore dopo l’assunzione di cibo torna a livelli normali. Talvolta però questo non succede e un ambiente della bocca troppo acido, in cui l’acidità permane a lungo (valore pH inferiore a 6.5) contribuisce alla formazione di un eccesso di placca batterica che, indebolendo lo smalto dei denti, dà il via al processo cariogeno.

 

Al contrario, quando il pH sale a livelli basici o alcalini (superiore a 7.5), il calcio contenuto nella saliva tende a cristallizzarsi sui denti, andando a formare il tartaro, nocivo per le gengive. Da qui si comprende come un’alimentazione troppo ricca in cibi acidi o basici sia dannosa e come la saliva con la sua composizione aiuti l’organismo a difendersi. Ma non solo gli equilibri acido/base sono coinvolti nell’azione salivare. L’idrossiapatite che compone i denti potrebbe col tempo disciogliersi se la saliva fosse solo costituita da acqua; infatti anche i composti più insolubili finiscono per sciogliersi in un solvente che si rinnovi continuamente nel tempo. Ma la nostra saliva è invece un liquido iposmotico secreto dalle ghiandole salivari che contiene oltre ad oltre il 99% di acqua, numerose sostanze organiche ed inorganiche. Fra queste troviamo soprattutto sali minerali, in particolare cloruri e bicarbonati di Na,K,Ca. La frazione organica è invece rappresentata da enzimi (amilasi,mucina,lisozima) ed immunoglobuline.

saliva1

dalla presentazione Umich

Anche gli equilibri redox sono coinvolti. Le nostre ghiandole salivari accumulano attivamente i nitrati prelevandoli dal sangue e li secernono con la saliva nella bocca, dove alcuni batteri non dannosi (denitrificanti) possono ridurli a nitrito che in presenza di ambiente acido rimuove i batteri pericolosi costituendo per essi un veleno l’acido nitroso formato.

Ancora più complesso è il caso dell’assunzione di farmaci: in questo caso la composizione e di conseguenza le caratteristiche della saliva possono risultare molto alterate rispetto alle condizioni di normalità. Anche il flusso salivare può essere modificato indebolendo così la difesa naturale della bocca affidata alla grande quantità di saliva, capace di tamponare gli attacchi chimici e biologici. E’ proprio il diminuito flusso salivare notturno a consigliare di andare a letto avendo puliti accuratamente i denti.

img_qual_e_la_funzione_della_saliva_5717_orig

da asisccmaxilo.com

Il pH salivare viene generalmente misurato dai dentisti con le cartine al tornasole e generalmente, per accrescere la qualità e quantità di informazione, il test viene ripetuto sul paziente nel tempo durante sia una giornata sia l’arco di tutto un anno.

per documentazione:

Una presentazione della Università del Michigan

Wikipedia:

https://en.wikipedia.org/wiki/Saliva_testing#Evidence_and_current_research

Omega-3 e dintorni

In evidenza

Rinaldo Cervellati

Negli ultimi decenni gli omega-3 sono diventati sempre più popolari e richiesti come integratori alimentari per gli effetti benefici che questi prodotti avrebbero sulla salute umana, dalla diminuzione del rischio di disturbi cardiovascolari a quella dell’incidenza di demenza senile, insomma una panacea per tutti i mali. Ma cosa sono esattamente gli omega-3 e quanto sono veramente efficaci?

fig-1-pubblicita-omega-3Gli omega-3 sono sostanze appartenenti alla categoria chimica degli acidi grassi polinsaturi, costituiti da una lunga catena di atomi di carbonio, alcuni dei quali legati fra loro con un doppio legame, come mostra la struttura del composto principale, l’acido α-linolenico (ALA, Fig.1):

fig-2-acido-linolenicoSe si inizia a contare gli atomi di carbonio da quello terminale della catena (carbonio ω, in rosso), il primo doppio legame (=) si trova nella terza posizione, da cui il termine omega-3. Quindi il termine è solo una questione di nomenclatura chimica, niente di più[1]. A questo proposito il Dr. Nils Hoem, ricercatore capo della norvegese Aker Biomarine[2], dice: Quante persone sanno che omega-3 è solo nomenclatura chimica? Significa solo che un doppio legame si trova nella terza posizione dall’estremità omega, l’estremità opposta al gruppo carbossilico di un acido grasso polinsaturo. L’ultima lettera dell’alfabeto greco in sé non ha alcun significato.(NUTRAingredients newsletter, 12-12-2016)

La posizione dei doppi legami e dei gruppi metilenici conferiscono alle molecole di omega-3 una struttura spaziale elicoidale.

fig-3-struttura-spaziale-di-alaOltre all’acido linolenico altri due importanti omega-3 sono l’acido timnodonico (EPA, acido eicosapentaenoico) e l’acido cervonico (DHA, acido docosaesaenoico). Essi, insieme a ALA, intervengono infatti nel normale metabolismo umano. I mammiferi non sono in grado di sintetizzare gli acidi grassi omega-3, ma possono ottenere ALA (catena più corta, 18 C, 3 =) attraverso la dieta e utilizzarlo per formare il più importante EPA (20 C, 5 =) e infine da questo il fondamentale DHA (22 C, 6 =).

fig-4-struttura-spaziale-dhaTuttavia la capacità di trasformare ALA in DHA può calare rapidamente con l’età. Gli acidi grassi insaturi si ossidano all’aria fino all’irrancidimento, cioè la trasformazione in acidi grassi saturi dal caratteristico cattivo odore.

Fonti ricche di omega-3 sono gli olii vegetali (noce, lino, alga, ecc) e animali (pesci, plancton, ecc.).

fig-5-fonti-di-omega-3Fra gli olii di origine animale troviamo il ben noto olio di fegato di merluzzo, ottenuto dal fegato fresco del merluzzo (Gadus morhua) contenente anche vitamine A e D. Il prodotto grezzo viene raffinato e chiarificato a 0 °C e mantenuto in recipienti chiusi e scuri per evitare il contatto con l’aria e la luce. E’ un liquido di color giallo pallido con un lieve odore di pesce.

fig-6-olio-di-fegato-merluzzo-e-capsuleSecondo la USP (United States Pharmacopeia) 1.0 g di olio non deve contenere meno di 850 unità USP (225 µg) di vitamina A e non meno di 85 unità USP (2,125 µg) di vitamina D; possono essere aggiunte idonee sostanze aromatizzanti, in quantità non superiori all’1%.

L’olio è particolarmente ricco di omega-3, il contenuto in EPA e DHA va da un minimo del 7- 6 % a un massimo del 16-18 % in peso rispettivamente. Il contenuto massimo di questi e di altri omega-3 può raggiungere il 60 % in peso.

E’ stato riportato che l’assunzione di 5 ml di olio di fegato di merluzzo può soddisfare ampiamente la richiesta dietetica giornaliera di vitamina A e D nell’adulto e nel bambino. L’assunzione in forma liquida può risultare disgustosa a causa del cattivo sapore dell’olio (come ben sanno o ci hanno raccontato i nostri nonni o bisnonni), pertanto, e in particolare come integratore, viene commercializzato sottoforma di perle farmaceutiche da inghiottire.

fig-7-omega-3-capsuleIn passato l’olio di fegato di merluzzo è stato impiegato come lassativo e nella profilassi del rachitismo nei bambini e dell’osteoporosi negli adulti causa carenza vitaminica.

fig-8-olio-di-fegato-di-merluzzo-bambiniPassiamo in rassegna le principali proprietà terapeutiche attribuite a questo prodotto.

Cancro. Non sembra vi siano evidenze che a un maggior consumo di pesce sia associato un minor rischio per tutte le possibili patologie cancerose [1], lo stesso vale per l’integrazione con omega-3 [2]. In pazienti con tumori in stadio avanzato l’integrazione con omega-3 può essere di beneficio nel migliorare la qualità della vita [3]. Il tentativo di correlare l’assunzione di omega-3 a un minor rischio di cancro al seno e alla prostata ha fornito dati inconcludenti [4].

Malattie cardiovascolari. Non vi sono evidenze cliniche a sostegno della supplementazione con omega-3 per la prevenzione di malattie cardiovascolari, incluso infarto del miocardio e ictus [5]. Tuttavia, l’assunzione di un grammo o più al giorno per almeno un anno può avere effetti protettivi da infarti o ictus in persone che hanno già sofferto di disturbi cardiaci [6]. L’evidenza suggerisce che gli acidi grassi abbassano la pressione arteriosa (sistolica e diastolica) sia in soggetti con ipertensione sia in persone con pressione sanguigna normale [7]. Alcune evidenze suggeriscono che le persone con problemi circolatori, come le vene varicose, possono trarre beneficio dal consumo di EPA e DHA, che stimolano la circolazione sanguigna e aumentano la rottura della fibrina, una proteina coinvolta nella coagulazione del sangue [8].

Infiammazioni. Per l’artrite reumatoide (RA), una revisione sistematica ha trovato una correlazione positiva, anche se modesta, fra gli effetti dell’olio di pesce e sintomi come gonfiore, dolore, durata della rigidità mattutina, analoghi a quelli prodotti dall’uso di farmaci anti-infiammatori non steroidei [9]. L’American College of Rheumatology (ACR) ha dichiarato che si possono ottenere modesti benefici dall’uso di oli di pesce, ma che potrebbero essere necessari mesi per rilevarne effetti, e mette in guardia su possibili effetti collaterali gastrointestinali e la possibilità di supplementi contenenti mercurio o vitamina A a livelli tossici.

Disturbi del comportamento e dello sviluppo cognitivo. Anche se non sostenuta da prove scientifiche certe, una supplementazione con omega-3 è stata raccomandata a bambini che soffrono di deficit di attenzione/iperattività (ADHD), autismo o altri disturbi dello sviluppo [10].

Una meta-analisi ha concluso che tale supplementazione ha avuto esiti modesti nel ridurre i sintomi di ADHD, un altro studio afferma che “ci sono poche prove che la supplementazione di PUFA (Poly Unsaturated Fatty Acids) fornisca qualche beneficio nei bambini e negli adolescenti” [11]. Un’altra ricerca ha trovato evidenze inconcludenti per l’uso di acidi grassi omega 3 nei disturbi del comportamento e disordini neuropsichiatrici non-degenerativi come l’ADHD e la depressione [12].

Il legame tra omega-3 e la depressione è stato ipotizzato in base al fatto che alcuni prodotti della biosintesi di omega-3 svolgono un ruolo chiave nella regolazione delle infiammazioni, come ad es. la prostaglandina E3 che è stata collegata alla depressione [13]. Questo collegamento alla regolazione dell’infiammazione è stato confermato sia in vitro che in vivo come pure da studi di meta-analisi.

Il meccanismo esatto in cui gli omega-3 agiscono sul sistema infiammatorio è ancora controverso [14]. Ci sono alcune prove che gli acidi grassi omega-3 possano essere utili per il trattamento della depressione associata a disturbo bipolare. Tuttavia benefici significativi dovuti alla supplementazione di EPA sono stati osservati solo sui sintomi depressivi, non su quelli maniacali, il che suggerisce un legame tra omega-3 e il solo umore depresso [15]. Vi è,comunque, una significativa difficoltà di interpretazione dei risultati a causa di differenze sistematiche nelle diete dei soggetti coinvolti nella sperimentazione o addirittura di errori sistematici (bias) nel trattamento statistico dei dati.

Demenza senile. Gli studi epidemiologici su possibili effetti degli omega-3 sui meccanismi della malattia di Alzheimer sono inconcludenti [16]. Ci sono evidenze preliminari di un qualche effetto su problemi cognitivi lievi [17], ma nulla riguardo differenze fra persone sane e persone affette da demenza.

Dermatiti atopiche. I risultati di studi che hanno valutato il ruolo dell’integrazione di acidi grassi omega-3 nella prevenzione e terapia delle dermatiti atopiche (rinocongiuntivite allergica, dermatite atopica e asma allergica) sono controversi. Pertanto, allo stato attuale delle conoscenze, non si può affermare né che l’apporto nutrizionale di acidi grassi omega-3 abbia un ruolo preventivo o terapeutico né che l’assunzione di questi prodotti abbia un ruolo nella promozione di malattie atopiche [18].

Da quanto sopra esposto risulta chiaro che gli acidi grassi polinsaturi omega-3 non possono essere considerati una cura per il trattamento e prevenzione delle malattie prese in considerazione. Essi, al pari di altri integratori, sono utili nei casi di carenza di questi importanti fattori che intervengono nel corretto funzionamento dell’organismo umano mantenendolo in salute.

La deficienza si manifesta ovviamente in caso di malattie, l’integrazione avrà quindi il compito di ristabilire il normale equilibrio, riducendo nel contempo i sintomi del malanno che sarà curato con i farmaci appropriati.

fig-9Da ultimo, ma non meno importante, va detto che il mercato degli omega-3 ha un fatturato annuo di miliardi di dollari con enormi guadagni dato anche il basso costo della materia prima, non sorprende quindi il volume pubblicitario di persuasione su questo prodotto.

Riferimenti.

[1] Sala-Vila A. et al. Update on the relationship of fish intake with prostate, breast, and colorectal cancers. Critical reviews in food science and nutrition2011, 51, 855–71.

[2] MacLean C.H. et al. Effects of omega-3 fatty acids on cancer risk: a systematic review. JAMA: The Journal of the American Medical Association2006, 295, 403–15.

[3] Colomer R. et al. N-3 fatty acids, cancer and cachexia: a systematic review of the literature”, Br. J. Nutr., 200797, 823–31.

[4] Heinze V.M, Actis A.B. Dietary conjugated linoleic acid and long-chain n-3 fatty acids in mammary and prostate cancer protection: a review. International journal of food sciences and nutrition2012, 63, 66–78.

[5] Billman, George E. The effects of omega-3 polyunsaturated fatty acids on cardiac rhythm: a critical reassessment, Pharmacology & Therapeutics2013, 140, 53–80.

[6] Casula M. et al. Long-term effect of high dose omega-3 fatty acid supplementation for secondary prevention of cardiovascular outcomes: A meta-analysis of randomized, placebo controlled trials [corrected], .Atherosclerosis Supplements, 2013, 14, 243–51.

[7] Miller P.E., Van Elswyk M., Alexander D.D. (July 2014). Long-chain omega-3 fatty acids eicosapentaenoic acid and docosahexaenoic acid and blood pressure: a meta-analysis of randomized controlled trials, .American Journal of Hypertension2014, 27, 885–96.

[8] Morris M.C., Sacks F., Rosner B. (1993). Does fish oil lower blood pressure? A meta-analysis of controlled trials”Circulation, 1993, 88, 523–33.

[9] Miles E.A., Calder P.C. Influence of marine n-3 polyunsaturated fatty acids on immune function and a systematic review of their effects on clinical outcomes in rheumatoid arthritis. The British journal of nutrition. 2012, 107 , Suppl 2(S2), S171–84.

[10] Levy S.E., Hyman S.L., Novel treatments for autistic spectrum disorders. Ment Retard Dev Disabil Res Rev., 2005, 11, 131–42.

[11] Gillies D. et al. Polyunsaturated fatty acids (PUFA) for attention deficit hyperactivity disorder (ADHD) in children and adolescents, The Cochrane database of systematic reviews2012, 7: CD007986.

[12] Ortega R.M. et al., (June 2012). Effects of omega-3 fatty acids supplementation in behavior and non-neurodegenerative neuropsychiatric disorders. The British journal of nutrition. 2012, 107 Suppl 2(S2), S61–70.

[13] Ruxton C.H.S. et al. The impact of long-chain n-3 polyunsaturated fatty acids on human health. Nutrition Research Reviews2005, 18, 113–29.

[14] Bucolo C. et al., Omega-3 fatty acids and depression: Scientific evidence and biological mechanisms, Oxidative Medicine and Cellular Longevity2014: 1–16.

[15] Montgomery, P., Richardson A.J., Omega-3 fatty acids for bipolar disorder, Cochrane database of systematic reviews (Online), DOI: 10.1002/14651858.CD005169.pub2

[16] Cederholm T, Palmblad J. (March 2010). Are omega-3 fatty acids options for prevention and treatment of cognitive decline and dementia?”. Current Opinion in Clinical Nutrition and Metabolic Care2010, 13, 150–55.

[17]  Forbes, S.C. et al. Effect of Nutrients, Dietary Supplements and Vitamins on Cognition: a Systematic Review and Meta-Analysis of Randomized Controlled Trials., Canadian Geriatrics Journal, 201518, 231–45.

[18] Lohner S, Decsi T. Role of Long-Chain Polyunsaturated Fatty Acids in the Prevention and Treatment of Atopic Diseases. In: Polyunsaturated Fatty Acids: Sources, Antioxidant Properties and Health Benefits (edited by: Angel Catalá). NOVA Publishers. 2013. Chapter 11, pp. 1–24

[1] Nella nomenclatura standard IUPAC si inizia a contare a partire dal carbonio carbossilico da cui il nome acido octadecatrienoico, comunemente acido α-linolenico.

[2] Una gigante fra le più importanti industrie produttrici di omega-3.

Il chimico e l’arte della pazienza

In evidenza

Mauro Icardi

Spesso tra i motti di spirito ed i proverbi si cita quello che dice che “la pazienza è una virtu’”.
Mi trovo d’accordo con questa affermazione, ed in particolare se faccio come tutti un bilancio del 2016 appena trascorso e rifletto su come la pazienza sia una dote del chimico.
Molto del lavoro che un chimico svolge in un laboratorio che si occupa di controllo delle acque si esegue ormai con l’ausilio di strumenti e tecniche più o meno sofisticate (dalla gascromatografia alla spettrofotometria di assorbimento atomico).
Ma non sono state sostituite del tutto e credo non lo saranno mai le tecniche di base, quali la volumetria con le titolazioni per esempio della durezza dell’acqua, o la distillazione dell’ammonio sui campioni di acque reflue con il metodo messo a punto da Johan Kjeldhal nei laboratori della Carlsberg che risale al 1883.Kjeldahl.jpg

Ho già avuto modo di dire come queste tecniche e metodiche possano fornire una buona base di conoscenza per chi lavora in laboratorio.
Ma nella mia esperienza personale ho finito per rendermi conto che una dote come la pazienza sia necessaria.
Chi conosce il lavoro di laboratorio o lo pratica è portato a pensare che la si debba esercitare durante i delicati lavori di pesatura su bilancia analitica magari mentre si sta procedendo alla preparazione per esempio dell’eluente per il cromatografo ionico.
In effetti ricordo che a molte persone sia chimici che non, per esempio stagisti o tesisti universitari, questa era un’operazione che risultava piuttosto indigesta.
Anche la semplice accortezza per portare a volume un matraccio tarato o la necessità di effettuare la titolazione goccia a goccia sono attività che facevano sbuffare qualcuno.
Anche me prima che mi accorgessi invece che sono un’essenza del lavoro, della metodicità che occorre avere e che mi trovassi a riflettere per esempio su cosa avveniva ad ogni aggiunta di titolante nel campione che analizzavo.
Ma in fin dei conti se nel senso comune si è portati a pensare che occorra pazienza per lo svolgimento di analisi che prevedano tecniche analitiche “tradizionali”, non molti sanno oppure hanno sperimentato che ci si debba armare di pazienza anche nella pratica dell’analisi strumentale.
Tralasciando la messa a punto degli strumenti in fase di avvio, la messa a punto dei metodi e la costruzione di rette di taratura idonee, anche la semplice attività di routine può mettere alla prova il grado di pazienza di un chimico analista.
Ho già avuto modo di dire che la pazienza il chimico la deve avere con coloro che aspettano da lui i risultati delle analisi. La tendenza a pensare che la determinazione per esempio di un’analisi di metalli su un campione di fango sia quasi immediata è nota e consolidata. La mineralizzazione del campione e l’aspetto preparativo viene solitamente tralasciato.
Ma per esempio nell’esecuzione di una semplice analisi di routine di acque potabili può essere necessario esercitarla.
Qualche volta lo strumento sembra esserti nemico. Uno strumento analitico non è composto solamente da una parte ottica o da colonne di separazione nel caso della cromatografia.
Ci sono circuiti idraulici con molti tubicini capillari che, nonostante la manutenzione programmata e le procedure di qualità spesso decidono di rompersi o di ostruirsi ovviamente quando il numero di campioni è notevole e si è vincolati da urgenze.
Questa cosa mi è capitata facendomi pensare alla assoluta veridicità della “Legge di Murphy”.

legge-di-murphy

La legge di Murphy è un insieme di paradossi pseudo-scientifici a carattere ironico e caricaturale.
« Se qualcosa può andar male, andrà male. (o, in altra versione o forse traduzione più letteraria, “se qualcosa può andar male, lo farà“) »
Nel mio caso mi ha sempre colpito questa: « La probabilità che qualcosa accada è inversamente proporzionale alla sua desiderabilità. »
L’esperienza porta ad essere preparati e forniti di materiali di ricambio per far fronte a problemi di questo genere.
Diverso è il caso di malfunzionamenti che dipendono invece dal software dello strumento oppure da sbalzi di tensione che non dovrebbero capitare ma capitano. Nel primo caso si va con la memoria a ricordarsi di tutti i trucchetti che si conoscono nell’uso del pc, dal semplice riavvio a tutte le verifiche del caso.
Qualche volta i software sono ormai obsoleti, ma la resistenza a sostituirli (motivata da validissime ragioni economiche) può provocare inconvenienti molto fastidiosi. Caso verificatosi recentemente, lo spegnimento fortuito di un pc e il mancato arresto del software di un cromatografo ionico che ha lavorato fino ad esaurire i reagenti . Qui la fortuna ha aiutato il chimico, perché al mattino dopo rilevato l’inconveniente si è capito che lo strumento aveva lavorato poco senza eluente.
La pazienza è stata utilizzata successivamente ripreparando tutti i reagenti e verificando l’integrità del circuito idraulico, della tenuta dei vari pistoncini delle pompe e la capacità di risoluzione della colonna.
Questo è un episodio inusuale certamente, ma situazioni in cui ci vuole pazienza nel lavoro di laboratorio sono le più diverse. Anche la verifica della corretta posizione di un fornetto di grafite e dell’allineamento del dispensatore di un autocampionatore. Sono piccole battaglie giornaliere, sudate e vinte
E a pensarci bene non sono inutili. Gli inconvenienti aiutano a costruire un bagaglio di esperienze necessario. Anzi indispensabile.
E per concludere non si può che citare ancora una volta Primo Levi che nel racconto “Arsenico” fa dire al ciabattino che ha portato ad analizzare lo zucchero contaminato dall’Arsenico questa frase.
Bel mestiere anche il vostro: ci va occhio e pazienza. Chi non ne ha è meglio che se ne cerchi un altro.

Reinventare il ruolo della Chimica nella Società

In evidenza

 Vincenzo Balzani, Università di Bologna

Coordinatore del gruppo di scienziati energiaperlitalia

 La Chimica: ieri

Negli ultimi decenni, e in parte ancora oggi, sui mezzi di comunicazione la Chimica ha fatto e fa notizia principalmente in relazione a guerre, disastri ecologici, inquinamento e sofisticazioni. Ne consegue che, anche fra persone di una certa cultura, la Chimica è percepita come una scienza malvagia, di cui diffidare. Ma come accade per tutti gli strumenti che la scienza e la tecnica mettono nelle mani dell’uomo, da un semplice coltello all’energia nucleare, malvagio non è lo strumento in sé, ma chi lo usa senza le dovute cautele o, peggio, per fare del male deliberatamente.

Negli ultimi 100 anni la Chimica ha portato enormi benefici all’umanità. Ha fornito potenti fonti di energia, vaccini e farmaci capaci di prevenire e curare molte malattie, materiali con proprietà eccezionali come i polimeri, le materie plastiche e i semiconduttori, fertilizzanti per lo sviluppo dell’agricoltura e molto altro ancora. Si può dire che non c’è nulla di quello che usiamo che non sia stato fabbricato dai chimici o basato sui materiali che i chimici hanno ideato. La Chimica, però, deve anche riconoscere la sua responsabilità nell’aver creato strumenti di distruzione e di morte come esplosivi e armi chimiche e nell’aver contribuito, spesso senza volerlo, a volte addirittura senza saperlo, all’insorgere di gravi problemi a livello locale e globale. Nell’ultimo secolo, infatti, la grande accelerazione nell’attività dell’uomo ha coinvolto la Chimica in molti modi e con risultati spesso disastrosi, come il danneggiamento dello strato protettivo di ozono, il riscaldamento del pianeta, l’inquinamento atmosferico e lo sfruttamento senza limiti delle risorse naturali. L’effetto dell’attività umana degli ultimi decenni sulle caratteristiche del pianeta è ritenuto epocale, come dimostra il nome Antropocene ormai comunemente adottato per indicare l’epoca presente [1].

I chimici sono stati fra gli scienziati più attivi nel forgiare, nel bene e nel male, questa nuova epoca.

L’astronave Terra

Il pianeta Terra su cui viviamo è una specie di astronave che viaggia nell’infinità dell’Universo. E’ un’astronave del tutto speciale perché non potrà mai “atterrare” in nessun luogo per fare rifornimento, per essere riparata o per sbarazzarsi dei rifiuti che vi si accumulano. L’unico rapporto con l’esterno è la luce che riceve dal Sole, risorsa fondamentale per la vita dei 7,3 miliardi di passeggeri.

La prima cosa di cui essere consapevoli è che il pianeta Terra ha dimensioni “finite” [2]. Pertanto, le risorse di cui disponiamo sono limitate ed è limitato anche lo spazio in cui collocare i rifiuti. Si tratta di una realtà innegabile; eppure, spesso, anche i chimici non ne hanno tenuto conto. Molti economisti, poi, sembrano addirittura non saperlo.

Nel 1980, le risorse utilizzate estratte dalla Terra ammontavano a 40 miliardi di tonnellate; nel 2015 sono salite a circa 70 miliardi di tonnellate, pari a 27 kg per persona al giorno. Alle risorse utilizzate vanno aggiunte quantità da due a tre volte maggiori di risorse estratte, ma difficili da usare, rapporto che aumenta costantemente man mano che i depositi di risorse più ricchi si vanno esaurendo [3]. Ci si può chiedere: rimarrà qualcosa per le future generazioni?

Le dimensioni finite del pianeta hanno conseguenze anche per quanto riguarda la collocazione dei rifiuti che si producono ogni volta che si usano risorse [4]; non possiamo sbarazzarcene collocandoli in un inesistente “non luogo”. I rifiuti finiscono inesorabilmente sotto terra, sulla superficie della terra, sulla superficie o sul fondo dei mari e nell’atmosfera; in ogni caso, con conseguenze poco piacevoli. Le scorie di materie plastiche che si sono accumulate nell’Oceano Pacifico formano un’ “isola” grande come l’Europa. La quantità di anidride carbonica riversata in atmosfera supera i 30 miliardi di tonnellate all’anno e, come sappiamo, causa un aumento dell’effetto serra ed i conseguenti cambiamenti climatici. Il particolato fine generato dai motori a combustione ha causato nel 2012 più di 941.000 morti premature in Europa, 84.000 delle quali in Italia. Ci sono poi le scorie delle centrali nucleari, pericolose per decine di migliaia di anni, che nessuno sa dove collocare. Cosa diranno le prossime generazioni dei danni, in parte irreversibili, che abbiamo creato con i nostri rifiuti all’astronave su cui anche loro dovranno viaggiare?

Alla Conferenza COP21 tenutasi nel dicembre 2015 a Parigi [5], 185 nazioni hanno concordemente riconosciuto che il cambiamento climatico, causato dall’uso dei combustibili fossili, è il problema più preoccupante per l’umanità e nell’Enciclica Laudato si’ [6] papa Francesco ha ammonito: “Il ritmo di consumo, di spreco e di alterazione dell’ambiente ha superato le capacità del pianeta, in maniera tale che lo stile di vita attuale, essendo insostenibile, può sfociare solamente in catastrofi”.

La nostra è la prima generazione che si rende conto di questa situazione di crisi e quindi è anche la prima (qualcuno dice che potrebbe essere l’ultima) che può e deve cercare rimedi [4].

Economia lineare ed economia circolare

Dovrebbe essere ormai chiaro a tutti che non è possibile continuare con l’attuale modello di sviluppo basato sull’economia lineare (Figura 1) che parte dall’ingannevole presupposto [7] che le risorse siano infinite e che non ci siano problemi per la collocazione dei rifiuti.

antropocene21Figura 1. Schema del sistema economico lineare oggi adottato, basato sul falso presupposto che le risorse siano infinite e che non ci siano problemi per la collocazione dei rifiuti.

Non è possibile continuare col consumismo e con “l’usa e getta”. Questo tipo di economia ci sta portando sull’orlo del baratro ecologico [8] ed è la causa delle crescenti, insostenibili disuguaglianze [9]. Il papa, nell’enciclica Laudato si’ [6], lancia un appello accorato: “Di fronte al deterioramento globale dell’ambiente, voglio rivolgermi a ogni persona che abita questo pianeta. Ciò che sta accadendo ci pone di fronte all’urgenza di procedere in una coraggiosa rivoluzione culturale”.

Uno dei punti cardine della rivoluzione culturale, di cui c’è tanto bisogno, è il passaggio dall’economia lineare all’economia circolare. In questo modello di sviluppo alternativo (Figura 2), l’energia usata proviene da fonti rinnovabili e le risorse della Terra vengono usate in quantità il più possibile limitate (risparmio) e in modo intelligente (efficienza) per fabbricare oggetti programmati non solo per essere usati, ma anche per essere riparati, raccolti e riciclati per fornire nuove risorse.

antropocene22Figura 2. Schema di un sistema economico circolare basato sul concetto che le risorse naturali sono limitate ed è limitato anche lo spazio in cui mettere i rifiuti. Tutta l’energia usata è ricavata da fonti rinnovabili.

La differenza fondamentale fra economia lineare e economia circolare riguarda l’energia, che è la risorsa chiave di ogni sistema economico. L’economia lineare è basata sui combustibili fossili, una fonte in via di esaurimento, mal distribuita sul pianeta e causa di danni gravissimi all’ambiente e alla salute dell’uomo. L’economia circolare, invece, utilizza l’energia solare e le altre fonti di energia (eolica, idrica) ad essa collegate: abbondanti, inesauribili e ben distribuite. Gli ammonimenti degli scienziati [10], le direttive dell’Unione Europea, le decisioni prese alla Conferenza COP21 di Parigi sui cambiamenti climatici [5] e la bellissima enciclica Laudato si’ di papa Francesco [6] sostengono la necessità di accelerare la transizione dai combustibili fossili alle energie rinnovabili.

 

La Chimica: scienza centrale

La Chimica è una scienza centrale (Figura 3) che, col suo linguaggio, quello degli atomi e delle molecole, invade e pervade numerosi altri campi del sapere e fa da tramite per molte altre scienze. Ha quindi davanti a sé immensi territori da esplorare. Ha dato nuove prospettive alla biologia, che nella sua versione più avanzata, infatti, prende il nome di biologia molecolare e che a sua volta ha profondamente rivoluzionato il campo della medicina.

antropocene23Figura 3. La Chimica: una scienza centrale.

Solo la Chimica potrà dare risposte ad alcune domande fondamentali: come si è originata la vita? come fa il cervello a pensare? c’è vita su altri pianeti?

La Chimica è il fondamento di discipline di primaria importanza come la scienza dei materiali e l’ecologia. Solo con il contributo della Chimica si potranno trovare soluzioni ai quattro grandi problemi che l’umanità deve risolvere per continuare a vivere bene su questo pianeta, senza comprometterne l’uso alle future generazioni: alimentazione (cibo e acqua), salute e ambiente, energia e informazione.

La Chimica è la scienza che ha maggior impatto sulla società. Quindi, può e deve giocare un ruolo guida in questo periodo storico caratterizzato dall’inevitabile transizione dall’economia lineare all’economia circolare e dai combustibili fossili alle energie rinnovabili.

Innovazione

L’innovazione è e rimarrà sempre il motore della crescita e dello sviluppo. Ma oggi sappiamo che crescita e sviluppo devono essere governati non più dal consumismo, ma dalla sostenibilità ecologica e sociale [11]. Un’innovazione volta soltanto ad aumentare i consumi e ad accrescere le disuguaglianze, come è accaduto negli scorsi decenni, è la ricetta per accelerare la corsa verso la catastrofe di cui parla anche papa Francesco.

Le prime cose da innovare, quindi, sono istruzione e cultura. Bisogna far sapere a tutti i cittadini, in particolare ai giovani, quale è la situazione reale del mondo in cui viviamo riguardo risorse, rifiuti e disuguaglianze. L’istruzione è in gran parte di competenza dello Stato, ma anche a livello locale si può fare molto. Lo possono fare, con opportuni corsi di aggiornamento, i comuni, le regioni, le confederazioni degli industriali e degli artigiani. Lo possono fare le grandi e anche le piccole imprese con appositi stages per gli studenti. Possono contribuire con iniziative culturali le Fondazioni bancarie, le parrocchie e le associazioni di ogni tipo.

Un esempio di innovazione sbagliata è la conversione delle raffinerie di petrolio in bioraffinerie, anziché la loro definitiva chiusura con ricollocazione del personale in altri settori. Infatti: 1) le bioraffinerie sono alimentate con olio di palma proveniente in gran parte dall’Indonesia e dalla Malesia, dove per far posto alle piantagioni di palma vengono compiute estese deforestazioni con gravi danni per il territorio e per il clima; 2) i biocarburanti prodotti dall’olio di palma hanno un EROI (Energy Returned on Energy Invested) mai dichiarato, ma certamente minore di 1, cioè forniscono una quantità di energia minore di quella spesa per produrli; 3) fra pochi anni ci si accorgerà che anche le bioraffinerie sono ecologicamente ed economicamente insostenibili e si riproporrà il problema della ricollocazione del personale. Quindi, le bioraffinerie non aiutano a risolvere la crisi energetico-climatica e neppure quella occupazionale.

Un altro esempio di innovazione sbagliata è l’accordo fra Governo, Regione Emilia-Romagna e Audi (l’azienda tedesca che possiede la Lamborghini) per la produzione del nuovo SUV Lamborghini a Sant’Agata Bolognese; un accordo celebrato da alcuni politici ed industriali come straordinario esempio di innovazione [12]. Ma tutti sanno che c’è poco o nulla da innovare nei motori a scoppio, usati da più di un secolo. Se si vuol fare innovazione nel campo delle automobili, oggi la si può fare solo sulle auto elettriche: motori elettrici, batterie (settore che riguarda direttamente la Chimica), dispositivi di ricarica veloce, ecc. Oppure si può fare innovazione per produrre combustibili sintetici mediante elettrolisi dell’acqua (utilizzando elettricità da fonti rinnovabili) e successive reazioni fra l’idrogeno così ottenuto e CO2 [13].

Per capire quanto poco innovativo sia il SUV Lamborghini, che entrerà nel mercato presumibilmente nel 2018, basta pensare che nel 2025 Olanda, Norvegia e anche India prevedono di vietare la vendita ad auto con alimentazione a benzina o gasolio [14‎]. Con la sua mostruosa potenza di 600 CV, il SUV Lamborghini è un emblema del consumismo e della “civiltà” dell’usa e getta, dalla quale le vere innovazioni dovrebbero farci uscire. Col suo costo di 250.000 euro, è anche l’icona delle disuguaglianze, causa prima dell’insostenibilità sociale.

Alcuni campi di sviluppo dell’industria Chimica

 

Nuovi materiali

La caratteristica fondamentale della nostra epoca è il continuo aumento della complessità. Basti pensare che mentre fino al 1990 tutto ciò che c’era in una abitazione era costituito da meno di 20 elementi, oggi in uno smartphone ci sono più di quaranta elementi diversi. Da qualche tempo destano molto interesse elementi relativamente scarsi e finora trascurati, per i quali si prevede un crescente uso nei dispositivi ad alta tecnologia. Il Dipartimento dell’Energia degli Stati Uniti ha identificato sei elementi critici per le industrie americane: disprosio, europio, erbio, neodimio, ittrio e indio. Nell’Unione Europea, che è povera di risorse minerarie e ha industrie maggiormente diversificate, gli elementi critici sono più di venti. Per contrastare la scarsità di certi elementi si possono adottare varie strategie: 1) fare con meno; 2) riciclare; 3) individuare elementi più abbondanti che possano sostituire nei processi industriali quelli che scarseggiano; 4) reinventare i processi industriali sulla base dei materiali più facilmente disponibili.

E’ chiaro che in ciascuna di queste strategie c’è ampio spazio per la ricerca e l’industria chimica.

 

Energia

La transizione energetica, già avviata, dai combustibili fossili alle energie rinnovabili ha molto bisogno della Chimica. L’energia solare è abbondante, ma deve essere convertita nelle energie di uso finale: calore, elettricità e combustibili. Ad esempio, la quantità di energia elettrica ricavabile dai 170 Wm-2 di potenza solare media dipende dalla nostra capacità di costruire pannelli, accumulatori e altri dispositivi con le risorse della Terra. Spesso è necessario usare elementi chimici poco abbondanti, come litio, selenio e neodimio, per cui i “reagenti limitanti” nell’utilizzo delle energie rinnovabili spesso non sono i fotoni del Sole, ma gli atomi della Terra, con tutti i problemi prospettati nella sezione precedente. Accade così che mentre la transizione dall’economia lineare all’economia circolare deve fare fulcro sulle energie rinnovabili, la disponibilità di queste ultime è a sua volta legata all’uso delle materie prime secondo i principi dell’economia circolare: risparmio, efficienza e riciclo (Figura 2).

Chimica verde

L’industria chimica in passato aveva come unico traguardo un’alta resa di produzione, senza troppe preoccupazioni per la compatibilità ambientale dei prodotti, sottoprodotti, rifiuti, solventi e catalizzatori, nonché per i consumi idrici ed energetici; a volte, non si è valutata con cura neppure la potenziale pericolosità degli impianti. Nell’ultimo decennio sono stati fatti notevoli progressi, ma molto c’è ancora da fare per giungere ad un Chimica sostenibile, cioè che fornisca quello di cui abbiamo bisogno senza far danni al pianeta e ai suoi abitanti.

Chimica per il Terzo Mondo

Miliardi di persone vivono in paesi tecnologicamente sottosviluppati dove i sofisticati e costosi processi chimici dell’industria non si possono utilizzare. In questi paesi la Chimica deve inventare soluzioni tecnicamente accessibili ed economicamente sostenibili per risolvere problemi di base legati all’acqua, al cibo e all’energia.

 

Monitoraggio, raccolta di informazioni

Un campo particolarmente importante della Chimica è quello dei sensori per monitorare l’ambiente, i cibi, i materiali, le merci, la salute dell’uomo e la sicurezza pubblica. Per esempio, nella difesa contro il terrorismo la Chimica può dare un contributo fondamentale nel prevenire l’attacco, nel controllarlo e nel fornire prove sull’accaduto. In un mondo che diventa via via più complesso e globalizzato ci sarà sempre più bisogno di raccogliere ed elaborare informazioni anche per svelare truffe come, ad esempio, quella messa in atto dalle case automobilistiche, in particolare dalla Volkswagen, per quanto riguarda il livello di sostanze inquinanti prodotte.

Conclusioni

Negli ultimi decenni il mondo è profondamente cambiato. Siamo in una nuova era, l’Antropocene [1], che anche la Chimica ha contribuito a forgiare. Appare evidente che i progressi della scienza e della tecnologia e l’uso dei combustibili fossili [15] hanno rafforzato le mani dell’uomo, ma hanno aumentato la fragilità del pianeta. Scienziati e filosofi sono preoccupati per il futuro dell’umanità. Secondo Zygmunt Bauman, la scienza e la tecnica hanno fatto vincere all’uomo molte battaglie contro la Natura, ma ora rischiano di farci perdere la guerra causando l’irreversibile degrado del pianeta. Hans Jonas ha scritto che è lo smisurato potere che ci siamo dati, su noi stessi e sull’ambiente ad imporci di sapere che cosa stiamo facendo e di scegliere in quale direzione vogliamo inoltrarci. Umberto Galimberti è più pessimista: “L’uomo è impotente contro la scienza, perché la scienza è più forte dell’uomo. La domanda non è più cosa possiamo fare noi con la scienza e la tecnica, ma che cosa la scienza e la tecnica possono fare di noi”.

In questo quadro, è evidente che molte cose devono cambiare nella politica, nell’economia e nella scienza. La Chimica, la scienza che più interagisce con l’uomo e con l’ambiente, deve reinventare il suo ruolo in questo nuovo mondo. Ha il dovere di trovare soluzioni per i problemi che essa stessa ha contribuito a creare in passato e deve svolgere un compito di importanza fondamentale: mettere a disposizione dell’umanità energia, materiali e prodotti di sintesi senza compromettere l’integrità dell’ambiente e la salute dell’uomo. Il ruolo che la Chimica deve giocare, oggi e domani, è quindi addirittura più importante di quello che ha svolto in passato. Infatti, anziché sfruttare opportunità per un generico sviluppo industriale, deve contribuire a risolvere problemi urgenti, quali il cambiamento climatico, l’inquinamento, la conversione delle energie rinnovabili in energie di uso finale, la disponibilità di cibo e acqua, il recupero dei materiali, la preparazione di farmaci per le popolazioni del terzo mondo e la riduzione delle disuguaglianze. E non c’è dubbio che dall’impegno volto a risolvere questi problemi pratici nasceranno nuove idee e scoperte fondamentali.

C’è molto bisogno di una nuova Chimica e quindi di giovani che vi si dedichino, consapevoli della grande missione che li aspetta.

[1] V. Balzani, Sapere, agosto 10-15, 2015,

[2] N. Armaroli, V. Balzani: Energia per l’astronave Terra, Zanichelli, 2011.

[3] U. Bardi: Extracted: How the Quest for Mineral Wealth Is Plundering the Planet, Chelsea Green, White River Junction, Vermont (USA), 2014.

[4] V. Balzani, M. Venturi: Energia, risorse, ambiente, Zanichelli, 2014.

[5] http://www.accordodiparigi.it/

[6] Francesco: Laudato si’, Lettera enciclica sulla cura della casa comune, Paoline Editoriale Libri, 2015.

[7] http://www.scienzainrete.it/contenuto/articolo/La-fuga-dalla-realta-e-il-mito-della-crescita-infinita

[8] L.R Brown: World on the Edge: How to Prevent Environmental and Economic Collapse, Earth Policy Institute, Washington (DC), 2011.

[9] T. Piketty: Disuguaglianze, Università Bocconi Editore, 2014

[10] http://ar5-syr.ipcc.ch/

[11] V. Balzani, La Chimica e l’Industria, ottobre 2016 (in stampa)

[12] http://www.regione.emilia-romagna.it/notizie/2015/maggio/nuovo-suv-lamborghini-firmato-a-palazzo-chigi-protocollo-dintesa-tra-ministero-sviluppo-economico-e-regione

[13] N. Armaroli, V. Balzani, Chem. Eur. J., 22, 32–57, 2016

[14] www.huffingtonpost.it/…/auto-elettriche-olanda_n_9640970.html

[15] Nel 2015, su scala mondiale abbiamo consumato ogni secondo 250 tonnellate di carbone, 1000 barili di petrolio e 105.000 metri cubi di gas.

 

Perché il blog cambia nome.

In evidenza

“La Società Chimica Italiana (SCI) ospita l’accesso a questo blog dal proprio portale web nella convinzione di contribuire al rapporto fra chimica e società civile ed alla disseminazione della cultura chimica; al tempo stesso ne sancisce l’assoluta autonomia e sottolinea che nessuna responsabilità su quanto in esso pubblicato è ascrivibile alla SCI.”

a cura di Claudio Della Volpe.

Il blog della SCI è al suo quinto anno di lavoro; ha iniziato infatti a pubblicare il 14 novembre 2012 e da allora ha pubblicato oltre 600 fra post e pagine (150 all’anno, uno ogni due o tre giorni) con molte decine di autori diversi ricevendo fra 900 e 1000 contatti in media per ogni post, 14000 ogni mese; nell’ultimo anno sfiora i 160.000 contatti.

blogsci2017Dietro questa mole di lavoro c’è una redazione di meno di dieci persone che scrivono e discutono insieme e il contributo di tanti altri che ogni tanto inviano il loro testo o filmato.

Siamo partiti con un nome “il blog della SCI” che faceva riferimento all’ambiente da cui veniamo fuori in maggioranza, la SCI, anche perchè riteniamo che il blog sia un modo per comunicare fra di noi e con il grande pubblico che è uno dei compiti della Società Chimica; l’art. 2 del nostro statuto recita:scopo1Mentre tutti gli altri punti sono sostanzialmente al centro dell’impegno della SCI il secondo item del punto 1 dell’articolo 2

scopo2non vede al momento numerose le opportunità di realizzazione concreta; il blog ci sembrava e ci sembra dunque uno dei modi di realizzare concretamente questo obiettivo.

In effetti guardando dall’esterno la SCI si presenta come una associazione essenzialmente universitaria (sui 3500 soci attuali 2500 dichiarano al momento dell’iscrizione di essere in qualche modo legati all’università: docenti, studenti, dottorandi, precari); all’esterno della SCI, il mondo della chimica è molto più variegato, dato che l’università copre solo qualche percento dei quasi 100.000 chimici del nostro paese (un numero che non vuole essere una stima esatta) e fra i quali la maggioranza fa tutt’altro lavoro: industria, terziario, scuola. Si capisce dunque la difficoltà legata al compito a dir poco immane di stare legati fra chimici e di essere presenti fra la popolazione più in generale. Ora mentre al primo di questi obiettivi concorrono molte delle iniziative scientifiche come i congressi o le riviste, a quelle divulgative e didattiche sono dedicati molti meno sforzi, nonostante l’impegno notevole che la sezione didattica sta sviluppando meritoriamente in questi anni (si veda anche il nuovo sito in corso di costruzione). Per esempio è chiaro che anche una partecipazione massiva alle Olimpiadi della Chimica di per sé non può coprire le esigenze di formazione generalizzata verso la popolazione più in generale; ci vuole un’approccio che non può fare a meno oggi dell’uso dei media moderni, la rete prima di tutto, e che sia costante e che impegni risorse intellettuali adeguate.

Non si tratta qui di un desiderio personale (o perfino politicizzato come qualcuno ha detto di recente) ma di uno scopo statutario e direi anche di una esigenza basilare: la chimica o riacquista una immagine positiva presso il grande pubblico oppure scompare dal novero delle scienze affidabili per la popolazione, giusto mentre il suo ruolo di fatto diventa quello di uno strumento comune e necessario a tutti i rami della produzione, col rischio di divenire mezzo di controllo e dominio invece che mezzo di liberazione.

Abbiamo condotto varie battaglie in questi quattro anni e le rivendichiamo orgogliosamente: contro l’uso dei neonicotinoidi in agricoltura, per una presa di posizione sulla questione climatica, per la chiusura delle piattaforme estrattive marine, per il nome Levio ad uno dei nuovi elementi e altre ancora.

Si tratta di prese di posizione legittime, basate su argomenti scientifici, sulla letteratura pubblicata; qualcuno ci ha chiesto di non andare oltre, o ha perfino sostenuto che su argomenti di questo tipo la chimica non può parlare; noi pensiamo al contrario che sia nostro dovere come chimici parlare e far sentire il peso dell’argomentazione scientifica e razionale sul terreno delle scelte sociopolitiche, per l’energia e le risorse, un terreno sul quale spesso avviene il contrario: la scienza viene usata come strumento di potere o di giustificazione, non come strumento di comprensione e liberazione.

Il CC della SCI ci ha chiesto di cambiare nome per evitare ambiguità; qualcuno potrebbe fraintendere che le posizioni espresse da noi siano le posizioni della SCI e perfino usare legalmente questo argomento; anche se a malincuore obbediamo a questa richiesta; riconosciamo al CC un sostanziale equilibrio nella decisione che ci lascia le medesime possibilità di prima (lo stesso supporto globale da parte della SCI) col solo cambio del nome.

Contestiamo un punto; questo blog NON è una scelta personale, NON è uno strumento dei membri della redazione; esso è un luogo culturale e mentale necessario alla SCI per attuare il proprio statuto; si è fatto il paragone con i blog di alcune società chimiche estere, che sono o strettamente di comunicazione passiva oppure che sono i blog di alcuni singoli; la questione secondo noi dovrebbe essere posta diversamente, la SCI deve essere presente nell’agone pubblico e non si può sempre pretendere di avere posizioni univoche su tutto, ma non si può nemmeno evitare di prendere posizione, quando la scienza e la chimica sono poste in discussione, sono l’oggetto del contendere o lo strumento di decisione o di discernimento.

antropocene2Il nostro nuovo nome sarà diverso da quello della rivista storica: La Chimica e la Società; il nostro referente infatti è la società nel suo complesso, non una sua parte, e il nostro oggetto sarà la Chimica dell’Antropocene, intendendo con questo termine, proposto anche da alcuni Nobel per la Chimica, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo. La Chimica (come tutte le scienze applicate alla produzione, come una delle pochissime che dà il nome ad un settore produttivo indispensabile e che di fatto è supporto per tutti gli altri) ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e l’economia circolare. Produrre linearmente, consumando risorse non rinnovabili e riempiendo la biosfera di rifiuti è un modo inaccettabile di fare chimica.

D’altronde i due aspetti naturali e sociali non sono separabili, non è possibile una soluzione solo tecnica che lasci invariate le tensioni legate ad una ineguale distribuzione delle risorse e della ricchezza.

La Chimica non può continuare a guardarsi l’ombelico, ma deve prendere coscienza del proprio ruolo produttivo indispensabile e farsi valere; dobbiamo acquisire quella indispensabile coppia di autorevolezza culturale e di indipendenza di giudizio che sole possono farci superare la crisi di credibilità che la chimica moderna vive: “chemical free” senza chimica è l’impossibile richiesta di quella parte ahimè maggioritaria di popolazione che non vede soluzioni all’invadenza ambientale e sociale di una scienza ridotta a mero strumento di profitto. Sta a noi fargli cambiare idea.

Mentre il nome, il motto del blog e il disclaimer cambiano rimangono invariati altri aspetti come i meccanismi di lancio dei post, il link in pagina web della SCI e i link dei vecchi files, oltre al piccolo supporto economico (100 euro) che ci consente di usare lo spazio WP.

Come scoprire la materia oscura con lo spettroscopio.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Il giorno di Natale 2016 è morta Vera Rubin, una della più grandi astronome di tutti i tempi e con la sua morte si è chiusa la possibilità di assegnarle il premio Nobel per la fisica (il premio può essere assegnato solo a scienziati viventi) per aver contribuito alla scoperta della materia oscura.

Come vedete non solo noi italiani avremmo da lamentarci per il comportamento delle commissioni Nobel, ma anche le donne; infatti delle 50 donne che hanno ricevuto il prestigioso riconoscimento (il 4%) solo 18 lo hanno ottenuto nelle materie scientifiche e di queste solo due in fisica (Marie Sklodowska e Maria Goeppert), Vera sarebbe stata la terza; casomai lo avrebbe condiviso con Jan Oort e Fritz Zwicky, morti anche loro. Ma non lo hanno ricevuto.

Cosa ha fatto di importante Vera?

Abbiamo già parlato di questi temi. Era nata nel 1928 da una famiglia dell’Europa dell’Est immigrata in USA; studiò fisica e si laureò in astronomia a Cornell.

rubin1

Vera Cooper Rubin at the Lowell Observatory. Kent Ford has his back to us. © Bob Rubin. Cit. da http://www.learner.org/courses/physics/unit/text.html?unit=10&secNum=2

Dato che era affascinata dal moto delle galassie la sua tesi fu su questo tema e scoprì che esisteva quello che oggi chiamiamo il superpiano galattico ossia il piano equatoriale del nostro gruppo “locale” di galassie; successivamente durante il suo dottorato alla Georgetwon University studiò proprio l’argomento dei gruppi locali di galassie e finalmente incontrò Kent Ford che aveva costruito il migliore spettrofotometro dell’epoca per applicazioni astronomiche basato su un sensibilissimo tubo fotomoltiplicatore. Le possibili applicazioni erano moltissime, ma per vari motivi legati all’uso del tempo macchina sui grandi telescopi decisero di usarlo per analizzare il moto di Andromeda, uno dei più begli oggetti celesti visibili nell’emisfero occidentale, una galassia che è anche per inciso la più vicina a noi, la nostra più stretta compagna di viaggio.

Questo lavoro pubblicato nel 1970 (dal quale sono tratte le immagini seguenti) segnò definitivamente la sua vita scientifica. Vera era al tempo l’unica donna autorizzata a mettere le mani sul prezioso telescopio da 5 metri di Monte Palomar, all’epoca il maggiore del mondo e fece fruttare le sue capacità.

rubin2Esaminò il moto di numerose zone della grande galassia e trovò un risultato sconcertante; tutto sommato il metodo è semplice e si può realizzare anche in modo casalingo seppure non a questo livello di sensibilità. Per esempio si può sfruttare da casa per misurare la velocità di rotazione del Sole con buona approssimazione. Si tratta di sfruttare l’effetto Doppler applicato alle radiazioni luminose; se un oggetto che emette radiazioni si avvicina o si allontana da noi succede quello che avviene anche con le oscillazioni sonore; se il generatore si allontana la frequenza diminuisce mentre se si avvicina la frequenza aumenta; (questo corrisponde a sentire più acute le sirene delle ambulanze che si avvicinano a voi e più profonde quelle che si allontanano). Fateci caso la prossima volta che un’ambulanza vi sorpassa.

rubin3Con la luce questo corrisponde al fatto che le radiazioni si spostano rispettivamente verso il violetto (si avvicina) o verso il rosso (si allontana). Dato che è possibile apprezzare le bande di emissione e di assorbimento di oggetti come Andromeda con grande precisione, per esempio come vedete nella figura le radiazioni dell’idrogeno (Hα e Hβ a circa 656 nm, la quarta della serie di Balmer nel visibile) che ne costituisce buona parte della massa, si può capire a quale velocità relativa ruotino le diverse parti della galassia e le velocità relative (si possono apprezzare pochi chilometri al secondo di differenza) misurando lo spostamento delle righe dell’idrogeno nelle due direzioni; i risultati degli spettri precedenti sono alquanto “piatti”, ossia la velocità di rotazione di Andromeda è costante in qualunque zona la si consideri, come si vede anche nel grafico qui sotto; Andromeda ruota come un oggetto solido, come a volta fanno vedere nei film di fantascienza! Ma questo è in enorme conflitto con la legge di gravitazione universale; nel nostro sistema solare i pianeti più lontani dal Sole ruotano più lentamente e ci si aspetta che lo stesso facciano anche le galassie, ma non è questo il caso; la cosa sarebbe spiegabile solo se la massa di quelle galassie fosse molto maggiore di quella stimabile dalla loro luminosità.

rubin4Rubin e altri astronomi confermarono questo risultato su decine di altre galassie e la risposta costante fu che le galassie NON ruotano come ci si aspetterebbe; lo strumento fu prevalentamente lo spettroscopio, l’umile spettroscopio che usiamo anche noi ogni giorno in laboratorio.

Quali spiegazioni ci sono?

O la legge di gravitazione non funziona a grandi distanze, oppure esiste una massa “oscura” che non si vede, che non si può stimare con i metodi tipici dell’astronomia (che è in grado di correlare la massa di un oggetto stellare e la sua luminosità); questa seconda spiegazione è quella oggi accettata e che ha portato al fermento di studi sulla materia oscura; una massa ben più grande di quella visibile, ma costituita di particelle elementari debolmente interagenti con le altre e che si concentrerebbe sul piano galattico (e se è per questo sarebbe presente in ogni dove, anche attraverso il vostro corpo mentre mi leggete e la sua massa sarebbe varie volte maggiore della vostra). Un universo parallelo di materia oscura permea secondo questa teoria ogni parte dell’universo visibile; date le striminzite interazioni possibili fra la materia oscura e quella normale di cui siamo costituiti nulla di significativo avviene se non il reciproco effetto gravitazionale.

Vera non era entusiasta di questa interpretazione:

mi piacerebbe sapere che le leggi di Newton possano essere modificate in modo da descrivere correttamente le interazioni gravitazionali a grandi distanze. Questo è più attraente di un universo pieno di un nuovo genere di particelle sub-nucleari“. · ^ (EN) Michael Brooks, 13 things that do not make sense, in New Scientist, 19 marzo 2005;

Questa posssibilità è al momento esclusa e d’altronde recentemente sono state individuate galassie non lontane e composte quasi interamente di materia oscura.

Voi che ne dite?

Chimica e biologia : pensieri.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex Presidente SCI

La biomassa come materia prima rinnovabile prodotta per biosintesi è oggi oggetto di particolare interesse sia a fine di risorsa alimentare sia di substrato per processi biotecnologici produttivi. Una politica di produzione energetica basata su biomassa richiede grandi quantità di terra e di acqua e si combinerebbe assai bene con la crescita delle attività agricole, ma d’altra parte creerebbe problemi in termini di erosione del suolo, mancanza d’acqua e perdita di nutrienti. In aggiunta la conversione degli ecosistemi naturali in piantagioni finalizzate a produzioni agricole per biomassa altererebbe l’habitat naturale favorendo le monoculture più facilmente aggredibili da insetti.

biomasseLa produzione di etanolo da grano e materie alimentari per produrre gasolio contrasterebbe con elementi etici connessi al principio di bruciare cibo (si pensi alle campagne sulla “fame nel mondo”), per le automobili. Quali sarebbero gli impatti sulla conservazione delle specie per piante impiegate in processi biotecnologici perché ricche di zucchero o di amido?

La definizione della vita come un lasso di tempo che ne limita geneticamente la durata minimizza l’importanza dell’ambiente nel determinare tale durata. In più esso implica che le limitazioni genetiche siano immutabili, che i geni non possano essere modificati, il che è sostanzialmente falso. Le tecniche di ingegneria genetica sono largamente utilizzate per identificare e manipolare geni che controllano i processi di invecchiamento, e quindi di estinzione e rinnovamento, in un gran numero di organismi. Un certo numero di tali geni è stato identificato nei lieviti, il più semplice modello eucariota per studiare l’invecchiamento. Quando uno di questi geni è estromesso il tempo di vita si allunga del 50%. Quando poi si è visto che tale gene ha una sequenza genetica simile ad una di quelle che si ritrovano nell’uomo, l’interesse per questa scoperta si è amplificato.

621px-Schematic_relationship_between_biochemistry,_genetics_and_molecular_biology.svgLo stesso principio può essere applicato ad altre specie animali e vegetali con conseguenze determinanti ai fini della sopravvivenza e dei livelli di biodiversità.

La tecnica finora usata per la selezione delle nuove varietà di piante è basata sulla ricombinazione sessuale. Nei microrganismi, come anche nelle piante la ricombinazione origina nuove forme che vengono successivamente selezionate mediante coltivazione ed esame delle caratteristiche di ciascuna. E’ un lavoro lunghissimo, perché ogni fase richiede un ciclo di coltura e le piante per crescere richiedono molto tempo.

La possibilità di ottenere cellule vegetali in coltura, di trasformarle in protoplasti, di fonderli e di rigenerare quando si vuole la pianta, insieme con le possibilità offerte dall’ingegneria genetica, hanno destato molto interesse tra gli studiosi di genetica vegetale. Solo negli USA, sullo stimolo delle nuove tecnologie, sono sorte oltre 40 società di ricerca che si interessano di questi problemi. Si vedrà che, se le tecniche più specifiche come l’ingegneria genetica, pur avendo ottenuto apprezzabili risultati applicativi, sono ancora relativamente lontane da risultati applicativi,questi sono una realtà nel caso di tecniche più affermate quali la selezione di cellule mutate e la fusione di protoplasti.

fusioneprotoplastiLa possibilità di produrre facilmente piante con caratteristiche differenti è stata sfruttata selezionando tra le piante ottenute quelle dotate di caratteristiche utili. Ad esempio la canna da zucchero è attaccata da Helminthosporium sacchari, un fungo che produce una tossina dannosa alla pianta. Piante di canna da zucchero ottenute mediante rigenerazione di cellule indifferenziate sono state trattate con una soluzione di tossina prodotta dall’agente patogeno. Una percentuale molto elevata di esse (15-20%) era resistente alla tossina e tra queste un buon numero era resistente all’attacco del fungo. L’azione della tossina cominciava ad essere contrastata con una forma di “vaccinazione” metodologicamente esportabile ad altri casi ed ad altre situazioni. Strettamente correlato a questi esempi di biotecnologie vegetali è poi l’aspetto curativo delle cosiddette biotecnologie bianche applicate alla cura delle malattie con sempre maggior frequenza e che oggi trovano anche applicazione alla ricerca di ritardare l’invecchiamento e di modificare la durata della vita dell’uomo e di altre specie.

 

Etica della chimica e neoplatonismo.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

Luigi Campanella è stato recentemente eletto (con il maggior numero di voti) nello steering committee dello WP sull’Etica della Chimica di EuCheMS. Festeggiamo questa elezione ripubblicando un suo post recente sull’etica con una serie di aggiornamenti dell’autore.

a cura di Luigi Campanella, ex Presidente SCI

La trasformazione della società obbliga la chimica ad adeguarsi alle nuove richieste: da quelle di prima necessità a optional e specialità. In questi adeguamenti si sono presentate alla chimica sempre nuove sfide a in cui, proprio per contrastare l’impronta del peccato originale che la chimica pesante ha imposto purtroppo per lunghi decenni, il chimico ha cercato di innestare un comportamento sul quale i principi etici fossero ben presenti, e così nel tempo ha affrontato difficili situazioni che hanno richiesto l’assunzione di responsabilità, di codici di condotta, in definitiva di etica. Ripercorrendo gli ultimi 30 anni della storia della chimica sono molte le domande che più spesso il chimico si è dovuto imporre per salvaguardare l’etica della sua professione. Il brevetto è una forma di proprietà intellettuale, è un motore dell’economia; è giusto che lo sia anche quando conoscere il prodotto significa salvare vite innocenti?

etica2Quando si costruisce una molecola per un fine programmato giusto fa parte dell’etica scientifica prevedere i possibili altri usi della molecola inventata? È davvero accettabile che la sperimentazione animale sia assunta a metodo di riferimento per la valutazione di tossicità ed ecotossicità? La battaglia contro gli OGM su una base più culturale e politica che scientifica, è accettabile dinanzi allo spettro della fame nel mondo o non è più giusto battersi per una loro presenza controllata mettendo a comune metodi di valutazione? I risultati delle ricerche vengono sempre espresse in maniera responsabile e corretta o essi vengono influenzati dalla volontà di perseguire successi e di condizionare l’assegnazione di futuri finanziamenti? Siamo capaci come cittadini, ricercatori, chimici di sacrificare, sia pure in parte, le nostre libertà individuali in favore degli interessi più ampi della comunità sociale?

beckViviamo ormai nella “società del rischio” (un termine coniato da Ulrich Beck in un testo ormai classico con questo titolo che risale alla metà degli anni Ottanta), definita come la nuova fase della società industriale, in cui “il rapporto tra produzione di ricchezza e produzione di rischi s’inverte dando priorità alla seconda rispetto alla prima”. Secondo la formulazione che ne danno i due autori – Kourilsky e Viney – che per primi hanno affrontato la questione, “il principio di precauzione implica l’adozione di un insieme di regole finalizzate a impedire un possibile danno futuro, prendendo in considerazione rischi tuttora non del tutto accertati”. La precauzione occupa un atteggiamento intermedio fra quello in cui si applicano le procedure della prevenzione (cioè dell’attivazione di misure volte a evitare o a limitare le conseguenze di un agente di rischio accertato) e quello delle semplici congetture (che non giustificano la sospensione di uno sviluppo tecnologico utile del quale i futuri possibili effetti avversi, in assenza di evidenze anche parziali, possano soltanto essere ipotizzati). Qual è il livello di intermedialità ottimale? Tutte domande a cui non è facile dare risposte certe, ma noi cittadini e lavoratori (ricercatori scientifici nel mio caso) sappiamo che solo rispondendo con la nostra coscienza potremo contribuire alla crescita della Società, la cui trasformazione obbliga la politica ad adeguarsi alle nuove richieste: da quelle di prima necessità a optional e specialità. In questi adeguamenti si sono presentate sempre nuove sfide in cui sarebbe stato necessario innestare un comportamento sul quale i principi etici fossero ben presenti, per affrontare difficili situazioni che hanno richiesto l’assunzione di responsabilità, di codici di condotta, in definitiva di etica.

principiodiprecauzionePurtroppo l’esperienza vissuta ci insegna che purtroppo molto raramente tale richiesta è stata soddisfatta. Molti politici hanno tradito la fiducia in essi riposta per produrre il bene comune. In queste condizioni la democrazia affidata alle rappresentanze ha sofferto. Il politically correct è divenuta espressione a caratterizzare azioni e pensieri atipici, mentre tale carattere dovrebbe essere la norma.

In questo contesto la ricerca scientifica con i suoi pochi addetti, quindi depositaria di una modesta quota di voti, ha finito per non essere vista come un irrinunciabile strumento a cui affidare il bene comune (qualità della salute e dell’ambiente,sicurezza alimentare,beni culturali,sevizi),ma piuttosto come un esercizio autoreferenziato ed intellettuale.La politica dovrebbe essere l’applicazione del bene comune al fine di rimuovere gli ostacoli che si frappongono fra l’individuo e la sua completa realizzazione.

Qualsiasi diverso intendimento,per di più disconoscendo alleanza determinanti-mi riferisco proprio alla ricerca-è una politica del reale di tipo machiavellico,che finisce per giustificare con il fine il mezzo che si è scelto per raggiungerlo. La battaglia contro gli OGM su una base più culturale e politica che scientifica, è accettabile dinanzi allo spettro della fame nel mondo o non è più giusto battersi per una loro presenza controllata mettendo a comune metodi di valutazione? I risultati delle ricerche vengono sempre espressi in maniera responsabile e corretta o essi vengono influenzati dalla volontà di perseguire successi e di condizionare l’assegnazione di futuri finanziamenti? Siamo capaci come cittadini, ricercatori di sacrificare, sia pure in parte, le nostre libertà individuali in favore degli interessi più ampi della comunità sociale?

 

Le molecole della pubblicità: i saponi da barba.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo 

a cura di Mauro Icardi

La rasatura mattutina è un’operazione che molti uomini effettuano con regolarità. Per qualcuno a volte può diventare anche un fastidio, in particolare per chi si trova ad affrontare una barba cosiddetta “difficile”.
La barba come ogni altro tipo di pelo dell’essere umano è chimicamente composto da cheratina, una proteina filamentosa ricca di zolfo molto stabile e resistente. Viene prodotto negli strati profondi dell’epidermide e migra verso gli strati superiori fino ad addensarsi in cellule cornee che hanno perso il nucleo. Sono in sostanza cellule morte molto ricche di cheratina e quindi molto dure e resistenti.

schema-pelo

La stessa parola cheratina deriva dal greco kèratos che significa corno.
Tra gli uomini che si radono la percentuale di chi usa il rasoio elettrico, rispetto a chi preferisce il rasoio a mano e la schiuma da barba è sostanzialmente suddivisa al 50%. Dopo il grande successo del rasoio elettrico negli anni cinquanta, dai primi anni 60 si è assistito ad un graduale ritorno della rasatura ad umido.
Per questi ultimi a dispetto di quanto viene decantato negli spot pubblicitari e a fronte dell’aumento nel tempo del numero delle lame nei rasoi usa e getta, tagliare via peli molto corti dal volto non è un’operazione del tutto indolore.
Le cellule dei peli della barba non contengono alcuna struttura vivente che possa mandare stimoli dolorosi al cervello. Sfortunatamente non è così per le cellule epidermiche che si trovano vicino ai pori dai quali i peli fuoriescono. In realtà il pelo della barba viene scalfito ed inciso, prima di venire strappato via parzialmente. A consolazione degli uomini che si radono (tra cui chi scrive) bisogna ricordare che per le generazioni passate era anche peggio. Alessandro Magno voleva che i suoi soldati fossero rasati, in maniera che in combattimento i nemici non potessero afferrarli per la barba. Ma per rasarsi venivano offerti rudimentali pugnali di bronzo oppure pezzi di selce limati.

a-magno

I Romani non conoscevano unguenti o oli per il volto, e nel XV secolo Luigi XI promosse l’uso del rasoio a lama che fu molto presto ribattezzato tagliagola. La stessa etimologia della parola rasoio deriva da radère cioè “raschiare”.
La rasatura a secco è difficoltosa per la rigidità della cheratina, e per la presenza intorno al pelo di grasso e sporcizia. Quindi si ammorbidisce lo strato esterno del pelo con acqua e con prodotti che sciolgano il film lipidico e facciano rigonfiare la cheratina. La vecchia ciotola del barbiere conteneva di solito un sapone costituito da idrossido di sodio e di potassio con una miscelazione di stearina e olio di cocco.

savons20

Stearina

Erano comuni anche i saponi solidi di forma cilindrica (che ho personalmente utilizzato durante il servizio militare). I saponi da barba di alta qualità per la maggior parte sono triple-milled. Che vuol dire? Il sapone è un normale sapone ottenuto per reazione di saponificazione che viene poi finemente disperso con un’operazione di fresatura, schiacciato e amalgamato in un macchinario a rulli ottenendo una pasta, e la procedura viene ripetuta per tre volte. In questa maniera si distribuiscono uniformemente le eventuali fragranze e i profumi che possono essere presenti nella formulazione.

saponidabarbaQuesta lavorazione conferisce una migliore qualità e una durata di gran lunga superiore (un buon triple-milled usato senza sprechi può durare a lungo e compensare il maggior costo rispetto ad una crema o una schiuma da barba). L’origine di questo prodotto ça va sans dire è francese perchè il metodo della tripla macinazione proviene dai maestri saponieri di Francia.

Le creme da barba sono normalmente costituite da saponi potassici e trietanolamminici e spesso nella formulazione si trovano componenti che hanno il compito di proteggere lo strato grasso della pelle (vaselina e lanolina) e prodotti idratanti come la glicerina.
Anche le creme da barba non schiumogene hanno composizione simile, contengono eccipienti come gli alginati e sali a reazione alcalina quindi molto ammorbidenti come i fosfati.

I saponi da barba spray, cioè le schiume da barba contengono nella loro formulazione molta aria inglobata, ingrediente di fatto di bassissimo costo e che troviamo in moltissimi prodotti industriali, come gelati e dentifrici. Nel caso della schiuma da barba garantisce la spumosità, mentre nel caso dei gelati ad esempio agisce da cuscino termico rallentandone lo scioglimento. In ogni caso l’aria è utilizzata per aumentare il volume di un prodotto industriale, e qualunque ingrediente come questo rende decisamente redditizia la produzione.
Ma non solo, in una schiuma da barba possiamo trovare anche propellenti che di solito sono di solito butano, isobutano e propano che hanno la funzione di gonfiare la schiuma appena si preme il pulsante del barattolo per farla fuoriuscire.

isobutano

Ovviamente si trovano saponi come base nella formulazione per i rigonfiamento del pelo, di solido a base di acido palmitico e stearico.

Durante la rasatura se si verificano piccole perdite di sangue è diffuso l’uso dello stick emostatico che normalmente è allume, solfato di alluminio e potassio KAl(SO4)2 .12 H2O con l’aggiunta di agenti antibatterici.
Anche per la rasatura a secco possono essere usati prodotti prerasatura. Per esempio le polveri a base di talco, stearato di magnesio o di zinco e agenti neutralizzanti quali il carbonato di calcio vengono usate per la loro proprietà astringenti in caso di pelle umida o grassa. La stessa funzione viene espletata dai prodotti in gel che sono ad alta percentuale alcolica (per lo più composti da etanolo). L’etanolo ha azione rinfrescante e ovviamente disinfettante. Ma in questo tipo di prodotti compaiono anche le imidazoline, Imidazole_chemical_structure

composti eterociclici derivati dall’imidazolo che hanno azione vasocostrittrice e provocano la contrazione del muscolo erettivo pilifero.

crema-barba-eucalipto1-700x531

Al termine dell’operazione di rasatura solitamente si usano prodotti dopobarba perché date le premesse è improbabile che l’operazione di rasatura non abbia lasciato irritazione, cioè un parziale danneggiamento dello strato cutaneo esterno. I prodotti dopo barba devono quindi avere funzione lenitiva e ripristinare lo strato acido cutaneo danneggiato. La composizione di questi prodotti di solito prevede insieme all’etanolo anche percentuali di acidi deboli come lattico, citrico o tartarico che servono a ripristinare il normale valore del pH epidermico. Per aumentare la sensazione di freschezza vengono aggiunti estratti al mentolo o prodotti canforati che hanno anche un blando effetto anestetico, così come la benzocaina.

315px-benzocaina_struttura-svgCome si può vedere una semplice operazione di rasatura può diventare anche uno strazio, più che un piacere (e questo mi fa venire in mente i tormenti femminili per problemi di epilazione, tra creme depilatorie e cerette).

after-shaving

Ma se queste piccole mutilazioni quotidiane vanno oltre la sopportazione si può sceglier di fare come gli antichi romani. Essi per due secoli sopportarono l’uso di dure e ben poco affilate lame di ferro per radersi, fino a quando l’imperatore Adriano riuscì ad escogitare un’efficace stratagemma per ridurre le pene provocate dall’uso di queste lame. Si fece semplicemente crescere la barba, incoraggiando i sudditi a fare altrettanto!

La Chimica.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo 

a cura di Luigi Campanella, ex-Presidente SCI

La chimica è forse il più antico tra i saperi dell’uomo. Perché nasce, come pratica, centinaia di migliaia di anni fa, non appena la specie homo riesce a controllare il fuoco e le trasformazioni della materia che produce. La chimica come scienza, tuttavia, è molto più giovane e nasce, sostengono molti storici, solo nel XVII secolo dell’era cristiana. Quando il sapere chimico si affranca dall’esoterismo del sapere alchemico e si propone come scienza fondata sulle «sensate esperienze» e sulle «certe dimostrazioni», utilizzando come strumento principe la bilancia.

Ma di cosa si occupa questo nuovo eppure antico sapere? «La chimica è un’arte – scriveva nel 1610 il farmacista francese Jean Beguin in un libro, Tyrocinium Chimicum, che può essere considerato uno degli atti fondativi della nuova scienza – il cui oggetto è il corpo misto e composto, non in quanto mobile, per­ché sotto questo aspetto esso appartiene alla fisica, ma in quanto è solubile e coagulabile».

tyrocinium_chymicumJean Beguin individua uno spazio tra la scienza che studia i corpi e il loro moto, la fisica, e la scienza che studia la materia vivente, la medicina (oggi la chiameremmo biologia). Questo spazio riguarda i corpi misti e composti, cioè tutta la grande varietà di materia con la quale abbiamo a che fare nella nostra vita quotidiana, ma non in quanto mobile, cioè in quanto materia che si muove. Se si muove, dice, è un problema dei fisici. A noi interessa la materia solubile e coagulabile, cioè la materia che si trasforma. Come un albero, bruciando, diventa in parte gas (anidride carbonica) e in parte liquido (acqua). Come un acido aggressivo (l’acido solforico) reagisce con un metallo inerte, per esempio il rame, e insieme si trasformano in un sale: il solfato di rame, efficace nella lotta a un fungo, la peronospora, che attacca la vite.

Alla fine dell’Ottocento i chimici hanno già riconosciuto la natura atomica e molecolare della materia che manipolano. E i chimici conoscono le leggi fondamentali che regolano la struttura e le trasformazioni della materia. Riescono a predire l’esistenza e persino il comportamento degli atomi e delle molecole.

Ma non sanno ancora bene né cosa sia un atomo o una molecola, né quali siano le cause di quei comportamenti.

La svolta si realizza tra il 1916 – quando Gilbert Newton Lewis propone che il legame chi­mico consista in una coppia di elettroni condivisa da due diversi atomi – e la fine degli anni Venti, quando i fisici gettano le fondamenta fisico-matematiche della nuova meccanica quantistica, cioè della scienza che spiega il comportamento della materia a livello microscopico. Cosi nel 1939 il chimico americano Linus Pauling può pubblicare un libro, “The Nature of Chemical Bond“, dove può finalmente spiegare, in termini quantistici, che cos’è il legame chimico, ovvero come e, soprattutto, perché gli atomi si combinano tra loro per formare molecole.

Linus_Pauling_1962La chimica però si occupa anche delle proprietà collettive della materia. Ovvero di proprietà che non sono la semplice somma delle proprietà degli oggetti che la compongo.

L’acqua che beviamo, lo sanno tutti, è un liquido. Ma nessuna singola molecola d’acqua è liquida. La «liquidità» è una proprietà collettiva delle molecole d’acqua, una caratteristica che emerge quando molte molecole di acqua si riuniscono insieme in certe condizioni ambientali (tra 0 e 100 °C di temperatura alla pressione di un’atmosfera).

In questo secolo la chimica ha anche assunto il ruolo di scienza di base per molte altre discipline che si sono sviluppate partendo dai suoi principi. La conoscenza chimica è infatti uno strumento, un linguaggio, una filosofia naturale, utilizzata da tutte le altre scienze. In questo senso oggi la chimica è uno strumento per il lavoro scientifico, cosi come da tempo lo sono la matematica e la fisica.

Nelle scienze dei materiali e nelle cosiddette nanotecnologie, per esempio. Per tutto il XX secolo e, ancor più, adesso la chimica ha prodotto e continua a produrre nuovi materiali che hanno profondamente modificato e migliorato il nostro modo di vivere: dalla plastica alle gomme, dai fertilizzanti per l’agricoltura ai medicinali di sintesi, dalle nuove leghe metalliche, alle ceramiche, alle fibre di carbonio. Oggi le nanotecnologie sono considerate – insieme alle biotecnologie e alle tecnologie informatiche – il triangolo su cui si fonda la società (e l’economia) della conoscenza. Le nanotecnologie altro non sono che chimica applicata a livello atomico e molecolare.

La moderna biologia, peraltro, è biologia molecolare. E quest’ultima altro non è che un modo diverso di chiamare la “chimica biologica”, inaugurata da Lavoisier alla fine del XVIII secolo. D’altra parte le cellule sono delle vere e proprie fabbriche chimiche, in cui in maniera incessante le molecole vengono metabolizzate (distrutte) e sintetizzate (prodotte). Tutte le biotecnologie, pertanto, sono una speciale applicazione della chimica.

La verità è che troviamo la chimica – e i chimici – dappertutto. Nello spazio, per esempio. Dove una speciale disciplina, l’astrochimica, guarda al cosmo come a un produttore di sostanze chimiche semplici e complesse. Gli astrochimici hanno individuato centinaia di composti «fabbricati» sui pianeti, sulle comete e sugli asteroidi, persino nelle nuvole galattiche. Alcuni nuovi composti, come i cosiddetti “fullereni” sono stati poi sintetizzati sulla terra per ottenere nuove applicazioni.

astro2Ma la chimica la troviamo, eccome, anche sulla Terra. La “chimica ecologica” è uno stru­mento indispensabile per gli scienziati che cercano di capire le relazioni tra gli esseri viventi e l’habitat in cui vivono. E sempre la chimica è lo strumento indispensabile per capire come funziona il pianeta Terra e, in particolare, quella sua piccola ma decisiva parte che chiamiamo biosfera. È grazie ai lavori di grandi chimici – da Svante Arrhenius all’inizio del XX secolo a Crutzen, Molina e Rowland alla fine del secolo – che abbiamo capito come funziona il clima del pianeta Terra e come l’uomo, con i suoi comportamenti, ne sta accelerando le dinamiche.

fosforo25Certo, un uso improprio dei nuovi composti sintetizzati dai chimici, o dei metodi di pro­duzione troppo rivolti al profitto e poco attenti alle con­seguenze, hanno avuto ed hanno tuttora un forte impatto ambientale. Ma è anche vero che per limitare questo impatto c’è bisogno di tutto il sapere e di tutto l’impegno dei chimici, e di una maggiore conoscenza della chimica e consapevolezza del suo modo di operare da parte di tutta la società.

Le molecole della pubblicità: l’anticalcare.2.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo  

a cura di Claudio Della Volpe

la prima parte di questo post è pubblicata qui

Nella prima parte del post abbiamo parlato di anticalcare su superfici esposte (vetro, mattonelle). La situazione dei tubi delle lavatrici, lavastoviglie e in genere delle superfici metalliche di dispositivi che flussano acqua è molto diversa e qui la storia si fa più complessa ancora.

La quantità di calcio in acqua dipende dalla sorgente; storicamente viene indicata con il concetto di “durezza” dell’acqua; nel nostro paese ci sono zone ad acqua dura specialmente nel centro Italia: Lazio e Umbria classicamente ma anche alcune zone di Piemonte e Lombardia o di altre regioni con terreni vulcanici più limitatamente e l’acqua dura è un problema non solo in casa ma soprattutto nell’industria ed è a questo target che si rivolgeva il calgon.

Per durezza dell’acqua si intende un valore che esprime il contenuto totale di ioni di calcio e magnesio (provenienti dalla presenza di sali solubili nell’acqua) oltre che di eventuali metalli pesanti presenti nell’acqua. Generalmente con questo termine si intende riferirsi alla durezza totale; la durezza totale è somma della durezza permanente, che esprime la quantità di cationi rimasti in soluzione dopo ebollizione prolungata, e della durezza temporanea, che per differenza tra le precedenti durezze, esprime sostanzialmente il quantitativo di idrogenocarbonati (o bicarbonati) presenti nell’acqua prima dell’ebollizione.

mappadurezza

http://www.watermarket.it/test-addolcitore; per maggiori info: http://assocasa.federchimica.it/DUREZZAACQUA.aspx si tenga presente che i limiti “pratici” di uso sono puramente indicativi e che la maggior parte della mappe di questo tipo sono prodotte da chi vende gli addolcitori.

 

Calgon è un marchio che viene dalla frase inglese calcium gone, il calcio è andato.

calcare8Calgon è un marchio storico; l’invenzione è del 1933. Il Calgon un addolcitore dell’acqua (termine che indica la capacità di ridurre la concentrazione di calcio ione) fu introdotto sul mercato in quell’anno dalla Calgon, Inc. of Pittsburgh, Pennsylvania. Calgon, Inc. è stata poi acquistata da Merck nel 1968 e poi rivenduta. Oggi il marchio Calgon è della Reckitt Benckiser per l’Europa come addolcitore di acqua e della Ilex Consumer Products Group in USA dove è posizionato come prodotto di bellezza!!! Di fatto il termine Calgon è entrato nel linguaggio anglosassone ed americano non solo tramite gli slogan, ma anche perchè usato in film e spettacoli. (https://en.wikipedia.org/wiki/Calgon).

calcare18Renckitt Benckiser è una multinazionale di prodotti chimici per la casa e la persona con origini che risalgono al 1823 e un fatturato di oltre dieci di miliardi di dollari; marchi posseduti fra gli altri: Gaviscon, Durex, Calgon, Vanish.

Cosa è il Calgon allora per coprire settori così diversi come la cura della persona e della lavatrice?

E’ un agente complessante, ossia una molecola che interagisce con gli ioni di calcio bloccandone la disponibilità in soluzione e rendendo termodinamicamente sfavorita la formazione di un precipitato o comunque le sue reazioni con altre specie. La reazione più importante in ambito di detergenza è quella di formazione dei sali di calcio dei saponi; i saponi sono di fatto sali di sodio e di acidi grassi, RCOONa; ora se sostituiamo al sodio il calcio abbiamo un sale molto meno solubile e la potenza detergente del sapone ne soffre mentre il precipitato infeltrisce i tessuti.

Quindi il ruolo dell’addolcitore è di catturare, intercettare il calcio (e altri ioni di metalli) e impedirgli di formare sali insolubili del detergente o di qualunque altra cosa. I detergenti di massa, i saponi esistono da meno di mille anni (dal XII secolo) e sono diventati di uso comune solo negli ultimi due o tre secoli; la regina Elisabetta I di Inghilterra morta nel 1603 si lavava “una volta al mese, ne avesse bisogno o meno”; figuratevi gli altri!! Oggi ci laviamo tutti (beh quasi…nei paesi occidentali, nei paesi poveri l’acqua da bere (!!) è ancora un problema per centinaia di milioni di persone).

Originariamente si è usato e per certe applicazioni si usa ancora come complessante/addolcitore il sodio esametafosfato, un oligomero di NaPO3 che ha dato l’immagine al Calgon e da cui ha tratto il nome comune che si identifica col fosfato.

Il sodio (esa)metafosfato, chiamato anche impropriamente Calgon, per motivi storici, si ottiene per riscaldamento del fosfato monosodico ed è una polvere fine, abbastanza solubile in acqua, costituita da catene fino a 25 unità di NaPO3. E’ molto igroscopica.calcare19

Il sodio esametafosfato è universalmente usato per ottenere una immediata dispersione dei pigmenti nel settore delle pitture per esempio. In particolare il sodio esametafosfato ha il potere di mantenere in soluzione gli ioni dei metalli polivalenti, specialmente Ca, Mg e Fe anche in presenza di anioni ad azione precipitante con formazione di sali complessi solubili.

Esso agisce di conseguenza come inibitore della corrosione verso il ferro, il rame, lo zinco e l’alluminio e quindi è usato industrialmente.

calcare20L’uso di questo prodotto e dei suoi similari polifosfati in grandi quantità ha però un effetto devastante sull’ambiente, perché il fosforo è un elemento limitante nella crescita degi organismi e la sua aggiunta in grandi quantità alle acque di fiumi, laghi e del mare favorisce la crescita di organismi che alterano l’equilibrio ecologico; nel tempo ne è stata proibita l’aggiunta ai detersivi (e anche a molti alimenti sempre per problemi di chelazione degli ioni utili) proprio per evitare questo pericoloso effetto collaterale. E’ rimasta invece in altri settori come l’industria tessile, le vernici, il restauro, la protezione dei tubi metallici, etc

Al momento la composizione del Calgon (o Calfort ma solo in Italia per un certo tempo) nel settore detersivi è dunque diversa; il metafosfato è stato sostituito da altri agenti adsorbenti e complessanti: zeoliti e policarbossilati. Ci sono o ci possono essere altri ingredienti per scopi diversi( dare volume alla polvere: solfato di sodio; cellulosa: aiutare a rompere la polvere quando si bagna, la cellulosa si rigonfia; etc etc).

Come funzionano zeoliti e policarbossilati?

calcare21

Parte della struttura di una zeolite mostrante uno dei suoi ‘tunnels’. In Blu gli Al3+ e in rosso Si4+ (dalla pagina RSC – Courtesy of molecularsieve.org)

La zeolite è un minerale microporoso usato come catalizzatore in molti processi industriali come la purificazione dell’acqua e dell’aria. Le zeoliti sono alluminosilicati idrati e la loro composizioe generale è AlxSiyO2(x+y)  (senza molecole di acqua). Le zeoliti sono di due tipi: naturali e artificiali. Quella naturale che si usa per addolcire l’acqua è la gluconite mentre la permutite è la zeolite sintetica, la più usata nell’addolcimento con una formula del tipo: Na2O, Al2O3, nSiO2, xH2O. Questi materiali sono usati come scambiatori di ioni e per rimuovere odori essendo la permutite più porosa, vetrosa e con una maggiore capacità di addolcitore rispetto a quella naturale.

Le Zeoliti possono rimuovere Ca2+ and Mg2+ dall’acqua che le attraversa. Ma possono essere anche facilmente rigenerate e questo è stato il motivo di un grande successo commerciale.

Quando gli ioni di Ca2+ and Mg2+ presenti nell’acqua sostituiscono il sodio presente nella zeolite .

Na2Ze  + Ca(HCO3)2 → 2NaHCO3 + CaZe
Na2Ze  + Mg(HCO3)2 → 2NaHCO3 + MgZe
Na2Ze  + CaSO4  → Na2SO4 + CaZe
Na2Ze  + MgSO4 → Na2SO4 + MgZe

Quando tutti gli ioni sono sostituiti la zeolite diventa inattiva. A questo punto si può usare una salamoia per rigenerare la zeolite di partenza.

CaZe + 2NaCl → Na2Ze + CaCl2
MgZe + 2NaCl → Na2Ze + MgCl2

Nel caso del Calgon casalingo comunque l’uso del prodotto è a perdere o è comunque fatto una sola volta, la zeolite non viene ripristinata come potrebbe in un impianto a ciclo chiuso.

La formula del policarbossilato è mostrata qui di seguito, si tratta quindi di un polianione in grado di complessare gli ioni come il calcio o altri ioni metallici

calcare22

una parte di molecola di policarbossilato

Il policarbossilato cambia anche il pH dell’acqua e consente di gestire al meglio il ruolo della zeolite.

Esso può anche complessare ioni metallici e lavora esattamente come lavora il citrato, ma date le dimensioni maggiori della molecola di policarbossilato rispetto a quella di citrato la scala della sua attività è maggiore ed è attivo su particelle o quantità più grandi.

Questo meccanismo è mostrato grossolanamente nella seguente figura.calcare23pagina RCS: il polimero intercetta le particelle di calcare e ne previene la deposizione (in effetti intercetta gli ioni calcio)

Molte di queste immagini sono tratte da un sito gestito da Benckiser e da Royal Chemical Society, fatto veramente bene.

Per approfondire:

Sito Benckiser: http://www.rbeuroinfo.com/index.php?BRAND=Calgon&action=product_select.php&LANGUAGE=EN&COUNTRY=US#

Sito misto RCS-Benckiser: http://www.rsc.org/learn-chemistry/resources/chemistry-in-your-cupboard/calgon/10

Sito Benckiser Italia: http://www.prodottireckittbenckiser.it/flex/cm/pages/ServeBLOB.php/L/IT/IDPagina/234

 

Giudizi politici.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo  

a cura di Claudio Della Volpe

Con un articolo pieno di espressioni idiomatiche e quindi ben lontano dal gergo scientifico che la caratterizza Nature ha salutato le dimissioni di Matteo Renzi.

politici1Fa riflettere che la famosa rivista si sia impegnata nel raccogliere e pubblicare le opinioni di alcuni fra gli opinion leader della scienza italiana su questa questione, nel senso che fa capire l’interesse che il pubblico dei suoi lettori, in gran parte scienziati, ha per la situazione della scienza italiana, che pur impoverita dagli ultimi anni di disinvestimento continua tuttavia a svolgere un ruolo sia attivo che di preparazione di giovani leve che purtroppo se ne vanno all’estero a causa proprio dell’enorme disinvestimeno attuato finora (siamo ridotti a meno di 50.000 docenti universitari rispetto agli oltre 60.000 di pochi anni fa)(si vedano i dati in fondo al post).

L’articolo è intitolato: Gli scienziati italiani non sentiranno la mancanza del primo ministro Matteo Renzi.

Gli universitari dicono che il più giovane leader italiano ha sbagliato al momento di passare dalle parole ai fatti nel rafforzamento della ricerca.

L’autrice, Alison Abbott, lavora con Nature da oltre 20 anni e vanta un PhD in farmacologia, ma si è occupata spesso di politica della ricerca.

Inizia con un commento duro: “.. i ricercatori dicono di non essere particolarmente tristi per le dimissioni di Renzi. In quasi tre anni di governo Renzi che aveva promesso di migliorare lo stato dell’università e della scienza ha fallito nel migliorare lo stato della ricerca nel paese secondo gli scienziati, che si lamentano anche del fatto che egli abbia interferito direttamente in questioni di tipo accademico

Raccoglie al riguardo le opinioni di tre fra i più noti scienziati italiani:

politici2

Cesare Montecucco, professore ordinario di Patologia generale presso l’Università di Padova, esperto mondiale di neurotossine e vincitore del Premio Paul Ehrlich und Ludwig Darmstaedter nel 2011

“Renzi è diventato primo ministro durante una seria crisi economia e sociale e ha iniettato un senso di energia e di ottimismo nell’Università e nel settore della ricerca” “Le nostre aspettative sono aumentate, ma sono state in massima parte deluse.”

L’investimento procapite italiano in ricerca ed università è fra i più bassi d’Europa – sebbene il paese produca una quota maggiore dei lavori più citati rispetto alla media dell’Unione europea. Poco è cambiato in questo durante il governo renzi , dicono Montecucco ed altri scienziati. Renzi non ha partorito nulla di quello per cui questi scienziati si erano battuti a lungo: meno burocrazia per le istituzioni di ricerca e una nuova agenzia per il finanziamento sullo stile della US National Science Foundation.

L’articolo prosegue poi citando le varie decisioni che hanno contrassegnato l’azione del governo Renzi nel settore università e ricerca:

La decisione più controversa è stato il decreto Renzi del Novembre 2015 che ha creato un centro per la genomica a Milano con un investimento di 1.5 miliardi di euro (1.7 miliardi di dollari). Conosciuto come Human Technopole, esso si focalizzerà sulla medicina personalizzata e la nutrizione. Il nuovo progetto prevede un finanziamento annuo di 100 milioni di euro a partire dal 2018. Sebbene alcuni siano grati di questi fondi di ricerca , molti scienziati si lamentano che il maggiore investimento in un singolo nuovo progetto sia inappropriato mentre la maggior parte degli altri istituti di ricerca pubblici stanno letteralmente morendo di inedia. Essi obiettano anche al fatto che questo progetto di Renzi sia stato partorito col cotributo di pochi scienziati e a porte chiuse.

Nel settembre 2016 Renzi ha partorito l’idea di creare una elitè di professori conosciuta come cattedre Natta (dal nome del chimico e premio Nobel Giulio Natta), da assegnare principalmente a Italiani che lavorano all’estero. Essi sarebbero selezionati attraverso 25 commissioni di valutazione nominate dal primo ministro. Migliaia di professori hanno sottoscritto una lettera in ottobre lamentandosi del fatto che Renzi abbia deciso questo progetto senza discuterne con le Università e protestando per il coinvolgimento della politica nella selezione.

politici3

Giorgio Parisi, uno dei più noti fisici teorici del mondo, Medaglia Boltzmann per i suoi contributi alla fisica statistica, premio Dirac, premio Galileo, Premio Lagrange e Medaglia Max Planck; insegna meccanica statistica presso l’Università di Roma

“La nomina di commissioni da parte del primo ministro è assolutamente inaccettabile.” dice il fisico Giorgio Parisi della Università di Roma La Sapienza, uno dei principali critici del progetto. “E’ una scelta politica quella di fare le selezioni senza la partecipazione delle Università italiane, ma allora ci si potrebbe rivolgere ad organizzazioni universitarie estere, come quelle delle altre università Europee.”

Parisi è anche scontento su aspetti riguardanti il finanziamento 2017 delle università. In particolare una quota di 217 milioni di euro sarà riallocato ai dipartimenti che sono stati valutati dalla agenzia nazionale di valutazione ANVUR per aver avuto le migliori performances nella ricerca. Parisi pensa che i nuovi finanziamenti dovrebbero essere resi disponibili direttamente a coloro che hanno avuto queste elevate performances e non passare attraverso il finanziamento universitario generale, che è già particolarmente ridotto. “Questa riallocazione del governo significa che le università più deboli nel sud del paese perderanno ancora più denaro e questo sarebbe un disastro sociale”.

politici4

Elena Cattaneo, neuroscienziata di fama mondiale e senatrice a vita

Il nuovo governo sarà in carica fino alle prossime elezioni che potrebbero avvenire il prossimo anno. L’incertezza continuerà. I partiti populisti e di protesta, in particolare il movimento 5stelle diretto dall’attore Beppe Grillo è probabile che faccia un grande passo avanti nelle prossime elezioni. Questi partiti non hanno una agenda scientifica importante. La senatrice a vita Elena Cattaneo , che è anche neuroscienziata presso l’Università di Milano, ha un atteggiamento di attesa:

“Uno o due dei componenti dei partiti populisti dell’attuale Parlamento hanno dimostrato di essere più aperti alle discussioni su temi scientifici dei membri dei partiti di maggioranza.”

L’articolo è scaricabile integralmente qui.

Per documentazione:

per conoscere meglio le posizioni di Parisi potete ascoltare questo filmato.

alcuni dati:

politici6politici7

Le molecole della pubblicità: l’anticalcare.1.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo  

a cura di Claudio Della Volpe

L’acqua che usiamo tutti i giorni è di fatto una soluzione diluita di vari ioni fra i quali predominano sodio e calcio (e magnesio) fra i cationi e il cloruro e il carbonato fra gli anioni; quest’ultimo viene anche da una sorgente praticamente inesauribile, quel medesimo diossido di carbonio atmosferico che è il nostro cruccio climatico basilare (è inesauribile perchè alimentata a sua volta dal discioglimento della piattaforma carbonatica nel ciclo del carbonio su scala geologica).

calcare1

Lee R. Kump,James F. Kasting,Robert G. Crane-The Earth System-Pearson (2009)

Perfino quando distilliamo l’acqua, se non usiamo protezioni, la ridissoluzione del CO2 avviene in tempi brevissimi, spostando il pH verso valori di 5.5-6 e rendendo l’acqua distillata una soluzione acidula. La evaporazione, anche parziale, di una tale soluzione contenente ioni calcio, magnesio e carbonato lascia un velo di materiale insolubile costituito principalmente di carbonato di calcio (e magnesio a volte).

Questo dipende dal fatto che il prodotto di solubilità per questa coppia di ioni è:

calcare25in moli2. Una concentrazione dunque dell’ordine di 10-4 mol/litro di entrambi è sufficiente a far precipitare il calcare.

In realtà dato che la concentrazione di ione carbonato dipende da quella del diossido e dal pH a causa dell’esistenza dello ione bicarbonato, anche la solubilità del calcare dipende dal pH; se indichiamo la costante di equilibrio del bicarbonato/carbonato con Ka2, allora abbiamo

solubilità= [Ca2+] =√ Kps ( [H+]/Ka2 + 1) 

Comunque si tratta di una situazione comune e basta un pò di evaporazione a mettersi nelle condizioni adatte alla precipitazione del calcare.

Il calcare, questo il nome comune del composto, si rideposita dunque su tutte le superfici bagnate da un velo di acqua, come i vetri, i metalli, i tessuti, la pelle, etc.

In alcuni casi questo deposito compatto, rappresentato qui sottocalcare2ingloba e aiuta a trattenere sporco, polvere, detriti batterici, altri materiali (per esempio capelli e grasso cutaneo) e forma un film duro e compatto difficile da eliminare che tende a ricoprire le superfici ed otturare i tubi, bloccare i meccanismi, opacizzare tutto, un disturbo non da poco e contro il quale ci sono pochi strumenti efficaci.

calcare3dalla pagina RCS: Gli effetti del calcare: un elemento riscaldante nuovo e

….uno con depositi di calcare

calcare4dal sito RCS: Immagine SEM di fibre senza depositi di calcarecalcare5

dal sito RCS: Immagine SEM di fibre con depositi di calcarecalcare6Ovviamente si può agire ab-initio per così dire, ossia usare delle resine a scambio ionico, dei materiali polimerici porosi contenenti ioni di sodio per esempio che vengono messe a contatto con l’acqua e scambiano gli ioni sodio con quelli calcio, il sistema funziona, ma abbisogna di investimento iniziale e di ricambi continui oltre ad essere un dispositivo da tenere ben pulito dai batteri; alternative esotiche pure ce ne sono: c’è chi promette di liberarci dalla precipitazione del calcare usando “campi magnetici” o trattamenti elettromagnetici vari; la cosa è considerata in genere altamente dubbia sebbene ci siano in letteratura degli esperimenti che vanno in questa direzione.

Rimangono i rimedi della nonna e gli anticalcare commerciali.

Il rimedio sovrano della nonna è di ripassare le superfici o sciacquare i tubi e i meccanismi con una soluzione calda acida e l’aceto possiede i requisiti giusti, non è un acido forte, non è costoso, non è pericoloso; dunque aceto a volontà; tuttavia l’aceto ha anche i suoi problemi: efficace al momento, non preventivo, relativamente inefficace su depositi vecchi, cattivo odore, etc.

Personalmente nei tubi degli scarichi (non in lavatrice!) trovo utile combinare trattamenti acido-base: aceto caldo e poi soda caustica, per attaccare sia calcare che grassi.

Ci sono invece una serie di prodotti commerciali, “furbi” di cui discuteremo qui due esempi: Viakal e Calgon (2 parte del post), uno usato per le superfici e l’altro per le lavatrici (tubi e parti meccaniche in genere):come funzionano?

calcare7 calcare8

Viakal, un prodotto Procter&Gamble, una azienda multinazionale base in USA fondata nel 1837 che ha 110.000 dipendenti in 70 paesi. Possiede marchi come Gillette, Pantene, Vicks, OralB, Lenor, Febreeze e tanti altri.

Viakal ha una composizione abbastanza semplice: è una soluzione in cui ci sono due acidi: citrico e formico, l’acido degli agrumi e quello delle formiche per capirci, (anche se credo siano entrambi di origine industriale) ed un tensioattivo non-ionico. Tutti fra 1 e 5% di concentrazione. Teniamo presente che l’acido citrico è prodotto con un processo di fermentazione industriale, è un prodotto batterico per quel che può valere agli occhi del pubblico, solido a temperatura ambiente.

calcare9

acido citrico

calcare10

acido formico

L’acido formico invece è un prodotto di sintesi, prodotto la prima volta nel 1670 distillando ….formiche, liquido a t ambiente.

Non so se sapete che il bagno di formiche è usato dalla ghiandaia (e dal corvo) per liberarsi dai parassiti; quando ha troppi parassiti l’intelligente uccello si adagia su un formicaio in posa di attacco e le formiche le spruzzano l’acido formico. (http://www.isaporidisicilia.com/iboschidibuccheri/ghiandaia.htm)calcare11 calcare12

con reciproca soddisfazione.

calcare13

Struttura dello ione citrato 3-.

Il ruolo dei due acidi è chiaro, reagiscono col calcare e lo sciolgono; sono acidi deboli entrambi (Ka (I ionizzazione) dell’acido citrico 7.4x 10-3e formico 1.8×10-4) notate che la costante acida è maggiore per il citrico e minore per il formico e il citrico è più concentrato nel limone che nel Viakal (5-7%). Sconsigliamo di mescolare il prodotto con la candeggina per il noto motivo riportato qui qualche post fa da Mauro Icardi. Entrambi sono acidi più forti dell’acido acetico (Ka=1.8×10-5). E’ da considerare che l’acido citrico, nella forma di citrato, che è presente in soluzione comunque in bassa concentrazione, dato che il citrico è un acido debole, è anche un “complessante” dello ione calcio, ossia è in grado di mantenere in soluzione lo ione formando un complesso tenuto insieme dalle diverse cariche elettriche (negativo il citrato, positivo il calcio) . Alla fine della reazione l’acido citrico sarà diventato in massima parte citrato e allora diventerà anche un complessante. Questo ovviamente aiuta il processo finale.

I tre atomi di ossigeno o anche solo alcuni (1 o 2) carichi negativamente possono interagire con lo ione tenuto al “centro” della struttura:calcare14Quindi l’acido citrico ha un doppio ruolo, prima reagisce con il calcare e poi mantiene in soluzione lo ione.

Ma a cosa serve allora il tensioattivo non ionico?

calcare15

C9 etossilato

Questa è una cosa sfiziosa anche perchè costituisce la base della pubblicità del prodotto: secondo la pubblicità il calcare non si riforma, cosa che non succede se usate solo aceto ovviamente, l’aceto va bene per curare non per prevenire.

Il motivo è che il tensioativo non ionico usato aderisce alle superfici delle mattonelle e forma un film idrofobico che rende più difficile la conservazione di un film d’acqua; di solito questo è più efficace su superfici inclinate come appunto quelle delle mattonelle del bagno o della doccia; l’acqua su una superficie idrofobica non viene trattenuta facilmente, il suo angolo di contatto è più elevato e quindi essa scivola via più facilmente; e l’effetto è più forte su superfici leggermente rugose (si veda nota*).

Alcuni tensioattivi non ionici e cationici funzionano da cosiddetti “rinsing aids” ossia aiutanti nel risciacquamento alla lettera; aiutano a far scivolare l’acqua dalle superfici.

Quando voi andate a pulire l’auto negli impianti automatici, non so se lo avete notato, ma usate DUE distinti tensioattivi nelle due fasi di pulizia: nella prima togliete lo sporco col classico tensioattivo anionico (testa negativa coda idrofobica e controione positivo) mentre nella seconda fase sulla superficie già pulita e che volete liberare dall’acqua e tenere asciutta e lucida, spruzzate un rinsing aid cosituito da un tensioattivo cationico (testa positiva, coda idrofobica e controione negativo) di solito un sale di tetraalchilammonio. Questo secondo si attacca alla superficie della vernice della vostra auto che il tempo e gli UV solari contribuiscono ad ossidare e che quindi ha un notevole potenziale “basico di Lewis” ossia è un po’ elettrondonatore e lasciano sgambettare liberamente le gambe idrofobiche all’aria, cosa che gli anionici non potrebbero fare; la superficie con un po’ di aiuto da uno spruzzo di aria rimane alla fine lucida e libera sia dallo sporco che dall’acqua; lo stesso fa il tensioattivo del Viakal; non so perchè usi un non ionico, ossia un tensioattivo senza carica netta, forse per motivi di costo. Se l’acqua scivola via non lascia calcare quando evapora (lo lascia altrove).

calcare16

Rappresentazione dei tensioattivi. Dall’alto verso il basso: non ionici, anionici, cationici, anfoteri.

Il tensioattivo non ionico in questione è un estere di acido carbossilico a catena intermedia 9-11 atomi di carbonio. Le sue code sono certamente idrofobiche e se il materiale si coordina bene, se le molecole si allineano bene come le gambe di un corpo di ballo, la superficie formata espone anche i terminali -CH3 finali non solo i metileni di catena.

Questo rende la superficie meno bagnabile ancora. Non esistono sostanze naturali comuni che imitino il comportamento “cerante” del tensioattivo nonionico o cationico e così comuni da usare in sostituzione. O se ci sono fatemelo sapere.

Abbiamo visto insomma che ogni sostanza ha un ruolo ben preciso, non ci sono componenti inutili.

per approfondire:

Sito misto RCS-Benckiser: http://www.rsc.org/learn-chemistry/resources/chemistry-in-your-cupboard/calgon/10

(continua)

*Nota. La condizione di scivolamento per una goccia non è una cosa banalissima da dimostrare scientificamente; in effetti lo scivolamento di una goccia da una superficie dipende da un aspetto della bagnabilità che è ignoto al grande pubblico e anche a molti colleghi: la cosiddetta isteresi, cioè la differenza fra l’angolo di contatto di avanzamento e di recessione. L’angolo di contatto è quello indicato in figura come θr e θa, recessione e avanzamento. C’è anche un equazione che si chiama equazione di Furnidge, la goccia che scivola è asimmetrica e lo scivolamento è tanto più favorito quanto meno sono diverse le due estremità la testa e la coda della goccia. Se sono diverse la differenza di componenti dovute alla tensione superficiale si oppone al peso e la goccia non scivola, se sono uguali la goccia scivola via; lo scivolamento è tanto più facile quanto più i due valori sono simili (bassa isteresi). In genere quanto più la superficie è idrofobica tanto più la differenza tende ad essere ridotta e gli angoli entrambi alti, ma ci sono casi in cui la differenza è alta nonostante la superficie sia idrofobica(cioè angolo maggiore di 90°) in avanzamento.

Infine anche questa è una approssimazione perchè la goccia sul piano inclinato di Furnidge è un corpo “rigido” mentre la goccia vera si deforma e la parte anteriore non trattenuta scivola via allungando e deformando la goccia trattenuta (“pinning” è il termine inglese) dalla sua coda idrofilica. Superfici superidrofobiche, ossia molto idrofobiche e con bassa isteresi che rimangono sempre asciutte si possono ottenere introducendo una modifica geometrica che renda la superficie già idrofobica, ossia con un angolo di contatto superiore a 90°, anche molto rugosa, e quindi trattenendo aria fra le rugosità: in natura esistono esempi noti, come il loto, e meno noti, come il cavolo cappuccio, di superfici superidrofobiche.

(continua).

Comunicazione finale IUPAC su nomi dei nuovi elementi.

In evidenza

reedijkDa: “Reedijk, J.” <reedijk@chem.leidenuniv.nl>

Data: 30 November 2016 20:08:14 CET

Oggetto: Grazie per i vostri commenti sui nomi e i simboli dei nuovi elementi.

Cari signore e signori:

Grazie ancora per i vostri commenti sul documento con i nomi e i simboli dei 4 nuovi elementi. Avevo già accusato ricevuta del vostro messaggio precedentemente durante l’anno, dato già ad alcuni di voi una risposta immediata, e promesso di dare una risposta più dettagliata più avanti dopo che i nomi fossero diventati ufficiali.

In effetti sto rispondendo adesso, con una risposta generale a voi e a molti altri, dato che è tecnicamente impossibile per me rispondere individualmente a ciascuno di voi in dettaglio.

Questa settimana IUPAC ha deciso, dopo una approfondita considerazione di tutti i commenti, di accettare i nomi e i simboli proposti , che sono ora definitivi; verificate sul sito IUPAC https://iupac.org/iupac-announces-the-names-of-the-elements-113-115-117-and-118/

Noi abbiamo ricevuto molte risposte, specie nei primi due mesi dopo la pubblicazione delle raccomandazioni provvisorie.

In questo messaggio darò un breve sommario di tutte le risposte avute durante i 5 mesi dall’8 giugno. E’ stato con vero piacere che abbiamo visto così tanto interesse dal mondo esterno, non solo in senso positivo, ma anche in modo critico circa le possibili alternative di nomi e simboli.

Per illustrare questo interesse mondiale, ricorderò alcuni casi specifici.

In un caso abbiamo ricevuto una petizione con oltre 160.000 firme che faceva un appello per un elemento il cui nome fosse intitolato alla star musicale dell’heavy metal Lemmy Kilmister morto inaspettatmente alla fine del 2015.

kilmister

Abbiamo ricevuto anche molte altre proposte di nome per onorare non-scienziati e proporre altri nomi. Tutte queste proposte sono state rifiutate per due motivi principali: 1) I nomi non rispettavano i criteri validi per dare nomi e 2) Solo gli scopritori hanno il diritto di proporre nomi secondo il regolamento attuale.

Abbiamo anche ricevuto molti suggerimenti da scienziati e dal pubblico per dare agli elementi il nome di scienziati famosi, come Berzelius, Lavoisier, Levi, Liebig and Moseley. In un caso abbiamo ricevuto una petizione con oltre 3000 firme per dare il nome in onore di Primo Levi.

leviulterioreAncora una volta queste proposte sono state rifiutate per il motivo 2 indicato sopra e a tutti i proponenti sono state ricordate o sono ricordate ora le regole vigenti su come dare i nomi agli elementi. Confidiamo che i proponenti di “nomi alternativi” capiranno che il diritto di proporre il nome di un nuovo elemento è riservato agli scopritori prima di tutto per l’enorme sforzo necessario per produrre e verificare l’esistenza di un nuovo elemento. Dato che ci sono pochi vantaggi per gli scopritori in questo settore della scienza il meno che si possa pensare è di dargli i diritto di propore il nuovo nome. Questo approccio è coerente in molti settori scientifici come le nuove specie o i nuovi oggetti astronomici.

Un certo numero di suggerimenti sono venuti da persone che non conoscevano le nostre raccomandazioni per la scelta dei nomi, che prevedevano che gli elementi del gruppo 17 terminassero in –ine (in inglese) e quelli del gruppo 18 in –on (in inglese).

Alcuni commenti hanno messo in discussione che i nomi del 117 e del 118 terminassero rispettivamente in “ine” e in “on” dato che non è sicuro affatto che tali elementi si comportino come gli alogeni, rispettivamente o i gas nobili.

Le regole correnti, comunque, non si riferiscono alle proprietà chimiche, ma solo ai gruppi 17 e 18 nella Tavola Periodica.

Alcuni altri hanno suggerito altri simboli diversi da quelli raccomandati, senza sapere che i loro suggerimenti sono stati in uso per altri elementi in passato, e perciò non possono essere usati di nuovo (come Ms, Tn). Altri hanno posto il problema dell’uso di Ts, che è uno delle due abbreviazioni correnti consentite da IUPAC per il tosile; l’altra è Tos. Dato che quasi tutte le abbreviazioni di due lettere hanno significati multipli – anche in chimica come Ac e Pr – la conclusione tratta è che il contesto in cui il simbolo dell’elemento è usato renderà sempre chiaro quale sia il senso della abbreviazione usata.

Infine, abbiamo ricevuto un certo numero di commenti e domande riguardanti la pronuncia di tennesinio e oganessio, e circa la possibile traduzione in altre lingue dell’elemento 117, tennessinio, e anche su nome dei loro composti.

A differenza dei nomi terminanti in “ium”, il nome “tennessine” potrebbe non essere automaticamente trasferibile in alcune altre lingue, dal momento che la terminazione –ine non è usata in molti linguaggi per gli elementi del gruppo 17. Per cloro e bromo questo non è stato un problema in passato ma in alcuni linguaggi anche per iodio e astato sono state usate delle traduzioni non immediate

Nel caso del tennessinio sono stati posti alla nostra attenzione problemi e soluzioni di analogo tenore.

Le radici dei nomi degli alogeni precedenti sono fluere (latino) e cloro, bromo e astato (greco) che in inglese sono diventati fluorine, chlorine, bromine, iodine and astatine mentre in molti altri linguaggi hanno nomi più brevi, come cloro in spagnolo e italiano, Chlor in tedesco and chlore in francese.

tanasiIl Tanasi monument.

Così la terminazione degli alogeni in inglese non è una regola in tutti gli altri linguaggi. Il nome Tennessee, d’altra parte deriva dalla lingua Cherockee e dal nome del villaggio Tanasi, come spiegato in letteratura. Ciascun linguaggio è perciò indipendente nell’effettuare le conversioni e le traduzioni, ma si spera che questo breve excursus etimologico sia di aiuto per le Organizzazioni Nazionali Aderenti per tradurre Tennessine in altri linguaggi. Questi problemi sono stati analizzati nella nostra pubblicazione finale in Pure and Applied Chemistry, che apparirà nei primi mesi del 2017.

Noi apprezziamo profondamente il tempo e gli sforzi che avete impegnato per pensare a nomi e simboli e per mandarci i vostri commenti e suggerimenti. Tutti i commenti sono stati registrati in modo opportuno e rimarranno negli annali dello IUPAC.

I migliori saluti,

Jan Reedijk, Presidente della Divisione di Chimica Inorganica, IUPAC.

Nota del blog master.

Dizionario irockese inglese: http://www.cherokeedictionary.net/

https://it.glosbe.com/chr/it/Tenasi

la pronuncia italiana è Tenasi non Tanasi e il significato della parola in Irochese non è del tutto chiaro perchè il termine veniva usato anche per altri villaggi. Al momento il luogo storico denominato Tanasi o Tenasi è stato inondato con la costruzione di una diga che ha portato alla formazione di un lago.

Il cemento potrebbe diventare un utile sequestrante di CO2?

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo     

a cura di Rinaldo Cervellati

(*Fonte: c&en news: Cement could be a helpful carbon sink, 22/11/2012)

Per cemento s’intende una varietà di materiali da costruzione, noti come leganti idraulici, che, miscelati con acqua, mostrano proprietà adesive e sono, come noto, largamente impiegati in edilizia.

Dal punto di vista chimico si tratta in generale di una miscela di silicati e alluminati di calcio, ottenuti dalla cottura ad alta temperatura di opportune miscele di calcare e argilla, oppure di marna, una roccia sedimentaria composta di una frazione argillosa e da una frazione carbonatica costituita generalmente da calcite (carbonato di calcio, CaCO3), oppure da dolomite (carbonato doppio di magnesio e calcio, MgCa(CO3)2).

fig-2-marna-6

Marna

fig-1-cemento-6 È quindi chiaro che la fabbricazione del cemento richiede grandi quantità di calore e rilascia grandi quantità di diossido di carbonio. Il calore infatti trasforma il calcare (carbonato di calcio) in ossido di calcio e la miscela che ne deriva viene denominata clinker[1]. Questo processo, chiamato calcinazione[2], è responsabile di circa il 5% delle emissioni di diossido di carbonio (CO2) dovute ad attività umane, che come noto possono alterare il clima del nostro Pianeta.

fig-3-antica-fabbrica-di-cemento-1895-6

antica-fabbrica-di-cemento-1895

fig-4--6

fabbrica-di-cemento-oggi

Tuttavia un recente studio riporta che il cemento stesso può aiutare a ridurre queste emissioni. Un team internazionale di 19 ricercatori guidato dal Dott. Zhu Liu del Resnick Sustainability Institute al Caltech, ha stimato che il 43% di CO2 rilasciata da calcinazione di cemento tra il 1930 e il 2013 è stato riassorbito dallo stesso cemento fabbricato durante quel periodo [1].

fig-5-dr-zhu-liu-6

Dr. Zhu Liu

Non solo la riduzione delle emissioni di CO2 ma anche la rimozione di questo gas dall’atmosfera è una parte significativa di quello che molti scienziati del clima sostengono si debba fare per evitare le gravi conseguenze derivanti dal cambiamento climatico. “Non è la piccola quantità di CO2 che può essere rimosso dall’atmosfera”, dice Phil Renforth, che studia il sequestro del carbonio all’Università di Cardiff, “ciò che è interessante di questo studio è che parte della richiesta di rimozione di CO2 dall’atmosfera può già essere soddisfatta dalla carbonatazione naturale del cemento[3]. La sfida è la progettazione di opportune procedure che tengano conto dell’influenza di questo fenomeno nel ciclo di vita del cemento “.

fig-6-dr-phil-renforth-6

Dr. Phil Renforth

La carbonatazione è il processo mediante il quale il cemento sottrae CO2: i composti idrati nel cemento (principalmente idrossido di calcio e silicati di calcio e alluminio) reagiscono con il CO2 nell’aria per formare carbonati. Gli ingegneri conoscono da tempo questo processo perché può influenzare la stabilità del cemento. Il team guidato da Zhu Liu ha voluto quantificare il livello di carbonatazione del cemento.

I ricercatori hanno raccolto i dati sulla produzione globale di cemento dal 1930 al 2013, i tipi di prodotti cementizi, la durata e i destini di questi prodotti e dei loro scarti. Hanno quindi utilizzato un modello analitico computerizzato per stimare la carbonatazione per i diversi prodotti cementizi, basato sulle proprietà del cemento misurate sperimentalmente o riportate in letteratura. Il loro modello suggerisce che il cemento ha sequestrato circa 4,5 miliardi di tonnellate di carbonio dal 1930. E il tasso di sequestro annuale è stato sempre più elevato, raggiungendo 0,25 miliardi di tonnellate di carbonio nel 2013. Il tasso di carbonatazione nel 2013 è equivalente al 22,7% della media annua del carbonio globale assorbito dalle foreste e a circa il 2,5% delle emissioni globali di carbonio da attività umane nello stesso anno.

In base al modello, la Cina è diventata prima nella carbonatazione del cemento a causa del boom edilizio. Dal 1994, il cemento cinese ha sequestrato più CO2 rispetto al cemento di tutte le altre parti del mondo. Prima di allora, la maggioranza della carbonatazione avveniva negli Stati Uniti e in Europa. Liu sostiene che gli studi precedenti sui sottrattori di CO2 si sono concentrati su riserve naturali mentre il messaggio importante del lavoro del suo gruppo è che anche un sistema umano come il cemento può essere visto come un sottrattore di biossido di carbonio.

Ma il Dott. Thomas Gasser, che lavora su modelli climatici presso l’International Institute for Applied Systems Analysis (Laxenburg, Austria), sottolinea che il cemento non si può considerare esattamente come un sottrattore convenzionale perché la sua fabbricazione rilascia CO2. Il modo migliore per riassumere il nuovo studio, dice Gasser, “è quello di dire che la produzione di cemento in realtà ha un minore impatto sul clima di quanto si pensasse, dal momento che al netto emette meno CO2.

fig-7-dr-thomas-gasser-6

Dr. Thomas Gasser

Aggiunge il Dott. Renforth: “Le stime di carbonatazione suggeriscono che la produzione di cemento potrebbe ipoteticamente diventare un processo al netto negativo per l’emissione di CO2 se i produttori utilizzassero una tecnologia di sequestro del biossido di carbonio dai gas di scarico dei loro impianti per rendere la produzione di cemento a emissioni zero.” Tuttavia, dice anche: “Ci vorrebbe una infernale mole di lavoro per ottenere questi risultati [e a un costo ragionevole] “.

[1] Fengming Xi et al. Substantial global carbon uptake by cement carbonation, Nature Geoscience, on-line 21 november 2016, DOI: 10.1038/ngeo2840.

[1] Al clinker vengono poi aggiunti altri materiali come gesso, sabbie, ecc. ottenendo vari tipi di cemento con diverse definite proprietà.

[2] Questa reazione, così esemplificata: CaCO3 ® CaO + CO2 alle alte temperature dei forni di fabbricazione del cemento, è molto veloce.

[3] La reazione di carbonatazione del cemento, così esemplificata: Ca(OH)2 + CO2 (dall’aria) ® CaCO3 + H2O a temperatura ambiente è un processo lento.

carbonate1

Chimica e creatività. 2.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Vincenzo Balzani, Professore emerito, Alma Mater

Prolusione in occasione dell’inaugurazione  dell’anno accademico 2017, tenuta in Bologna, venerdì 18 novembre 2016 nell’ Aula Magna di Santa Lucia

la prima parte di questo post è pubblicata qui.

Dendrimeri

Sono sistemi supramolecolari ramificati che possono svolgere due funzioni: antenne per la raccolta dell’energia solare e dispositivi per modificare la frequenza della luce; trovano applicazioni, rispettivamente, nella fotosintesi artificiale e come sensori luminescenti. Nello schema di Figura 14 (parte sinistra) sono evidenziate con colori diversi i tre tipi di componenti molecolari del sistema. L’energia luminosa assorbita dalle 32 molecole periferiche viene trasferita alle 8 molecole intermedie e successivamente alla molecola centrale, che emette luce di frequenza diversa.

creativita14

creativita14bFigura 14. A sinistra lo schema e il modo di funzionare di un dendrimero. A destra un dendrimero reale che si comporta nel modo schematizzato a sinistra.

 

Presa-spina

Presa-spina è un dispositivo molto usato nel mondo macroscopico. Per costruire un simile sistema a livello molecolare è necessario sintetizzare anzitutto due molecole di adatta struttura, poi è necessario trovare un modo reversibile per connetterle e separarle e, infine, disporre di un segnale che viene trasmesso dalla spina alla presa quando le due molecole sono connesse. I componenti utilizzati e lo schema di funzionamento sono illustrati nella Figura 15.

creativita15Figura 15. Sistema presa/spina molecolare per il trasferimento di un segnale luminoso.

Connessione e separazione di spina e presa sono ottenute mediante input acido/base. Quando presa e spina sono connesse, l’assorbimento di luce del componente presa causa emissione di luce dal componente spina. E’ stata fatta anche una versione del sistema presa/spina molecolare dove il trasferimento riguarda elettroni anziché segnali luminosi.

Basandosi sugli stessi concetti è stata costruita anche una prolunga molecolare.

 

Ascensore molecolare

L’ascensore molecolare è stato costruito a partire dai due componenti mostrati in Figura 16. Uno di essi è formato da tre fili molecolari uguali, congiunti. Su ogni filo ci sono due unità che hanno, in grado diverso, la stessa proprietà: sono elettron accettori. L’altro componente è costituito da tre anelli molecolari uguali, congiunti, ciascuno avente caratteristiche di elettron donatore. In soluzione, il tris-filo e la piattaforma formata dai tre anelli si assemblano spontaneamente e i tre anelli vanno a circondare le unità situate nella parte “alta” dei tre fili perché queste hanno carattere elettron accettore più spiccato delle tre unità nella parte “bassa”. Una volta che il sistema si è auto assemblato, mediante sintesi chimica si posizionano gruppi molto ingombranti nelle estremità dei tre fili per evitare che gli anelli possano sfilarsi.

 

creativita16Figura 16. Costruzione dell’ascensore molecolare.

La Figura 17 mostra un modello tipo lego del sistema supramolecolare così ottenuto e anche una sua rappresentazione schematica dalla quale appare chiaramente la localizzazione iniziale della piattaforma.

creativita17Figura 17. Dimensioni e modello della struttura dell’ascensore molecolare.

La Figura 18 nella parte alta mostra che per aggiunta di una base si possono togliere ioni H+ agli atomi di azoto (N) che si trovano nella parte “alta” dei tre fili, disattivando così l’interazione con i tre anelli elettron donatori che li circondano. In questa nuova situazione, i tre anelli preferiscono interagire con le unità nella parte “bassa” dei fili. La piattaforma quindi “scende”; poi può essere fatta “risalire” mediante aggiunta di acido, che ripristina la situazione iniziale. Studi dettagliati hanno mostrato che in realtà i tre anelli non scendono (e non salgono) simultaneamente, ma in successione, inclinando la piattaforma.

creativita18Figura 18. La parte alta mostra il funzionamento dell’ascensore molecolare in seguito all’aggiunta di base e di acido. In basso a sinistra è mostrato un fotogramma di uno schema animato.

Come è sottolineato nella Figura 18, l’energia per il movimento è fornita da reazioni chimiche (aggiunte di base/acido) che, ovviamente, generano “scorie”, come accade anche nelle macchine del mondo macroscopico alimentate da energia chimica (ad esempio, nei motori a combustione interna). Ci siamo chiesti, allora, se fosse possibile generare un movimento meccanico in un sistema supramolecolare senza formazione di scorie. La lunga esperienza nel campo della fotochimica ci ha suggerito di utilizzare un sistema alimentato dalla luce.

 

Nanomotore alimentato dalla luce solare

Siamo partiti dallo schema semplice mostrato in Figura 19. Poi, come diceva Edison, al lampo dell’ispirazione ha fatto seguito un lungo periodo di duro lavoro.

creativita19

Figura 19. Schema dell’idea di un nano motore a energia solare.

Quale tipo di reazione fotochimica usare? Quali componenti molecolari scegliere? In che ordine collegarli? Quali interazioni sfruttare? Dopo molte discussioni e ripensamenti abbiamo scelto il sistema illustrato nella Figura 20. Il “filo” del nano motore è formato da cinque componenti che, da destra a sinistra, sono: un gruppo ingombrante che impedisce all’anello di sflilarsi; due componenti (azzurro e rosso nella figura) che hanno, in grado diverso, la stessa proprietà: sono elettron accettori (il più forte è il componente azzurro e quindi l’anello, che è un elettron donatore, inizialmente sta attorno a questo componente); uno spaziatore rigido (arancione) e, all’estrema sinistra, un complesso Rutenio-tris-dipiridina (verde).

creativita20Figura 20. Nanomotore molecolare alimentato da energia solare. Parte alta: il sistema supramolecolare usato. In basso: un fotogramma di uno schema di animazione.

 

Il complesso di Rutenio è l’elemento più importante: quando assorbe un fotone di luce visibile espelle un elettrone che va sul componente più elettron accettore, quello azzurro, attorno al quale si trova l’anello. Con l’arrivo dell’elettrone questo componente perde le sue proprietà di elettron accettore, così che l’anello passa sul componente rosso. A questo punto, però, l’elettrone, che si era trasferito in seguito all’eccitazione fotonica dal complesso di Rutenio all’elettron accettore azzurro, torna indietro sul complesso di Rutenio così che si ripristinano le proprietà di elettron accettore del componente azzurro e, di conseguenza, l’anello torna alla sua posizione iniziale. Il complesso di Rutenio è ora in grado di assorbire un altro fotone iniziando così un nuovo ciclo. Il sistema supramolecolare sopra descritto è quindi in grado di convertire l’energia luminosa del sole in movimento meccanico a livello molecolare.

Come sopra descritto, tale sistema opera in quattro fasi che formalmente corrispondono alle quattro fasi di un motore a scoppio macroscopico, con il quale peraltro non c’è nessun’altra analogia: 1. Iniezione del carburante (fotone) e combustione (trasferimento di un elettrone); 2. Spostamento del pistone (anello); 3. Scarico (ritorno dell’elettrone sul complesso di rutenio); 4. Ritorno del pistone (anello) nella situazione iniziale.

Questa ricerca ha avuto molta risonanza nel mondo scientifico internazionale e anche sulla stampa italiana dove, con le solite esagerazioni, si è molto insistito sulle sue caratteristiche di motore a 4 tempi alimentato dalla luce (Figura 21)

 

creativita21Figura 21. Ritagli di commenti di stampa sul nano motore.

 

Riflessioni finali

Prima di chiudere vorrei fare un breve accenno ad un argomento molto importante. Prendo lo spunto dal libro sopra menzionato su dispositivi e macchine molecolari (Figura 13), nel quale abbiamo fatto una cosa del tutto inusuale: dopo aver descritto in 16 capitoli tutti gli aspetti scientifici e tecnologici di questa branca della scienza, abbiamo aggiunto un altro capitolo, il 17mo (Figura 22), come capitolo finale, nel quale abbiamo discusso il ruolo della scienza e degli scienziati nel nostro mondo così complesso e così fragile. Il perché di questa aggiunta l’abbiamo spiegato nell’introduzione del capitolo (Figura 22): “Questo è un libro scientifico, che tratta essenzialmente scienza di base. Quindi poteva (qualche lettore dirà: doveva) finire col capitolo precedente. Ma, oggi, può la scienza essere trattata come argomento separato, neutrale, asettico? Può uno scienziato ignorare i problemi della società e isolarsi in una torre d’avorio? Noi pensiamo di no. Noi pensiamo che ci sia molto bisogno di discutere il ruolo della scienza e degli scienziati nella società e crediamo che un libro scientifico offra un’opportunità, per farlo, che non deve andare perduta”.

creativita22Figura 22. Introduzione del cap. 17 del testo “Molecular Devices and Machines”.

In questo capitolo finale abbiamo così discusso la relazione fra scienza e società, con particolare riferimento alle limitate risorse del pianeta, al modello di sviluppo insostenibile, alle crescenti disuguaglianze, all’etica e alla solidarietà. Nei libri scientifici non si parla mai di questi argomenti. Noi l’abbiamo fatto per ricordare, anzitutto a noi stessi, poi a tutti i nostri colleghi, che la Scienza va usata per la pace e non per la guerra, per custodire il pianeta su cui viviamo e non per distruggerlo, per ridurre e non per aumentare le disuguaglianze fra paesi ricchi e paesi poveri e per fare patti e non per creare contrasti fra le generazioni. Tutte cose che sappiamo bene, ma delle quali forse non parliamo abbastanza ai nostri studenti e tanto meno alla gente che, dagli scienziati, vorrebbe sentire pareri autorevoli e ricevere messaggi chiari. Forse è ora di incominciare a farlo, con più forza.

 

Un grazie speciale

Infine, voglio mostrarvi questa bella immagine:

 

creativita23Il titolo è: lavoro di gruppo. Sotto c’è scritto: “I fiocchi di neve sono una delle cose più fragili della natura; ma guardate cosa possono fare quando si stringono insieme”. E’ un’immagine bellissima dei regali che ho ricevuto e per i quali voglio ringraziare la Divina Provvidenza e le tante persone che mi circondano col loro affetto, ad iniziare dalla mia famiglia. Un grazie particolare va poi ai colleghi e agli studenti del Gruppo di Fotochimica e Chimica Supramolecolare che hanno lavorato con me in tutti questi anni e che mi hanno spinto così in alto da permettermi di parlare qui, davanti a voi, questa sera.

Grazie per l’attenzione con cui mi avete ascoltato.

Chimica e creatività.1.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Vincenzo Balzani, Professore emerito, Alma Mater

Prolusione in occasione dell’inaugurazione  dell’anno accademico 2017, tenuta in Bologna, venerdì 18 novembre 2016 nell’ Aula Magna di Santa Lucia

Magnifico Rettore, autorità, gentili ospiti, colleghe, colleghi, studenti, signore e signori, buona sera.

Il titolo che ho dato al mio intervento può apparire un po’ audace: per molti, Chimica è quell’orribile materia scolastica di cui ci si vanta di non aver mai capito nulla; per altri, Chimica significa sofisticazioni, inquinamento ed incidenti. Quindi, accostare Chimica a Creatività può apparire una provocazione. Qualcuno potrebbe dire: la Chimica ha già fatto abbastanza danni, non ti provare a crearne altri. Se si facesse un referendum con una sola domanda: “Siete favorevoli ad abolire la Chimica?”, senza alcun dubbio vincerebbe il SI’. Ma, mi dispiace, la Chimica non si può abolire, per il semplice fatto che tutto quello che c’è al mondo, attorno a noi e anche in noi, è Chimica!

Nel mio breve intervento vorrei spiegare perché le ricerche sulle macchine molecolari, di cui si è molto parlato dopo l’annuncio del premio Nobel 2016, sono realmente un settore di punta della Chimica e della Scienza tutta.

Chimica e creatività, dunque, con riferimento alle macchine molecolari; ma gli scienziati possono essere creativi? O lo sono solo gli artisti? Si, è vero, spesso si pensa che uno scienziato sia una persona intelligente, ricco di idee originali: insomma, che sia un genio. Forse lo è, ma nel senso che intendeva Edison: “Genius is one percent inspiration and ninety-nine percent perspiration”. In effetti gli scienziati sono anzitutto gente che lavora sodo. L’idea creativa è un lampo: poi c’è da metterla in pratica.

Chimica e creatività, dunque. Ma cosè la creatività? E’ definita in molti modi, quasi tutti convergenti. Secondo Henri Poincaré “Creatività è unire elementi esistenti con connessioni nuove”. François Jacob ha scritto che “La creatività nasce da associazioni, prima mai considerate, di cose già note. Creare è ricombinare”. La definizione che più mi piace, però, è la seguente, che ho formulato modificando leggermente una famosa frase di Albert Szent-Györgyi: “La creatività consiste nel vedere ciò che tutti hanno visto e nel pensare ciò a cui nessuno ha mai pensato”.

Per spiegare cosa sono le macchine molecolari, mi servirò di questi suggerimenti: farò una connessione, un paragone, fra due cose apparentemente non collegate: la Chimica e il linguaggio.

Le molecole

Gli elementi fondamentali del linguaggio sono le lettere raccolte nell’alfabeto (Figura 1). Gli elementi fondamentali della chimica sono gli atomi, raccolti nella tavola degli elementi, il sistema periodico. Nel linguaggio generalmente non si usano le lettere singolarmente prese, ma combinazioni di lettere (le parole). Ugualmente, nella chimica non sono importanti gli atomi separatamente presi, ma loro combinazioni: le molecole. Le molecole, dunque, sono le parole della Chimica.

creative1Figura 1. Confronto fra la struttura del linguaggio e struttura della Chimica.

Nel linguaggio, ogni parola ha un ben preciso significato, un valore aggiunto rispetto all’insieme delle singole lettere che la compongono. Esempio: a, b, b, i, m, n, o; bambino. Allo stesso modo, ogni molecola ha proprietà specifiche e un’identità ben definita che rappresentano il valore aggiunto che la molecola ha rispetto all’insieme degli atomi che la costituiscono. Prendiamo, ad esempio, la molecola dell’acqua che posso rappresentare con la formula H2O, che indica da quali atomi è composta, oppure con H-O-H, che indica chi è legato a chi, oppure con un modellino tipo lego, come questo che ho in mano e che è mostrato nella Figura 2. Nella molecola gli atomi sono in relazione e dalla relazione emergono nuove proprietà, quelle specifiche della molecola, molto diverse dalle proprietà degli atomi che la compongono.

creative2Figura 2. Le molecole dell’acqua.

E’ bene notare che gli atomi, e quindi anche le molecole, sono oggetti molto piccoli: hanno dimensioni di miliardesimi di metro (1 miliardesimo di metro = 1 nanometro, 1 nm). Il modellino tipo lego della molecola d’acqua mostrato nella Figura 2 è in scala 1 a cento milioni. Quindi la sostanza che beviamo e che chiamiamo acqua è un insieme di tantissime molecole. Più in generale, qualsiasi “cosa” macroscopica che vediamo o tocchiamo è costituita da un numero enorme di “entità” piccolissime: le molecole. Per rendere meglio l’idea, in una goccia d’acqua ci sono 100 miliardi di miliardi di molecole H2O; per contarle al ritmo di una al secondo si impiegherebbero trenta mila miliardi di anni!

Ma chi ci crede? Eppure è vero! La scienza, spesso, va contro la comune intuizione: pone problemi. Li ha sempre posti: Goethe si opponeva all’uso del microscopio. Diceva che se c’era qualcosa che non si poteva vedere ad occhio nudo, non si doveva andarla a vedere, perché evidentemente era nascosta per qualche buona ragione. E’ esattamente il contrario di quanto pensa la scienza, che vuole vedere tutto. Oggi, infatti, con tecniche molto speciali si possono vedere o, meglio, si possono ottenere immagini anche di singole molecole.

Protagoniste della Chimica, dunque, sono le molecole: oggetti piccolissimi, ma caratterizzati da composizione, dimensione, struttura e forma (Figura 3) e quindi da proprietà specifiche tramite le quali hanno anche effetti diversi sugli organismi. Per cui accade che le molecole di caffeina ci tengono svegli, mentre le molecole di acido acetil salicilico abbassano la febbre.

creative3Figura 3. Formule chimiche e modelli delle molecole di caffeina e acido acetil salicilico.

I sistemi supramolecolari

Chiarito cosa sono le molecole, possiamo fare un passo avanti nel confronto chimica-linguaggio (Figura 4). Come ben sappiamo, il linguaggio non si ferma alle parole. Per esprimere un concetto è necessario usare combinazioni di parole, cioè una frase. Allo stesso modo la Chimica non si ferma alle molecole. Per avere proprietà interessanti, per compiere funzioni utili è necessario combinare fra loro più molecole in modo da ottenere sistemi complessi, supramolecolari: se le molecole sono le parole della Chimica, i sistemi supramolecolari sono le frasi della Chimica.

creative4Figura 4. Seconda parte del confronto fra la struttura del linguaggio e quella della Chimica.

Per capire meglio cos’é un sistema supramolecolare, consideriamo le tre molecole mostrate in Figura 5; queste molecole, quando sono messe in soluzione, si associano spontaneamente per dare un sistema supramolecolare.

creative5Figura 5. L’associazione fra molecole dà origine a sistemi supramolecolari.

Possiamo approfondire questo concetto, sempre sfruttando il paragone col linguaggio. Le parole necessarie per costruire una frase che abbia senso compiuto vengono scelte e messe in ordine, da chi scrive o da chi parla, secondo le regole del linguaggio. Nella frase il bambino va in bicicletta, il deve “interagire” (essere davanti a) bambino e in deve “interagire” con bicicletta. Usando termini informatici, si può dire che ogni parola contiene elementi di informazione, tramite i quali interagisce o non interagisce con altre parole. Nelle frasi, quindi, dalla combinazione degli elementi di informazione portati da ogni parola, emergono significati che non sono e non possono essere presenti nelle singole parole che le compongono. Analogamente, nei sistemi supramolecolari dalla combinazione degli elementi di informazione portati da ogni molecola emergono proprietà che non sono e non possono essere presenti nelle singole molecole che li compongono. Accade così che, nel sistema supramolecolare mostrato in Figura 5, quando un fotone colpisce il componente molecolare di sinistra (un complesso di Rutenio) viene espulso un elettrone che si va a collocare sul componente di colore azzurro a destra, cosa che non può accadere quando le tre molecole sono separate. Questa, appunto, è una delle proprietà emergenti.

La miniaturizzazione

Prima di parlare in modo esplicito di dispositivi e macchine molecolari, è opportuno introdurre il concetto di miniaturizzazione. La Figura 6 mostra, sulla sinistra, il primo computer elettronico (1944): era grande come un appartamento, pesava 30 tonnellate, aveva 19.000 valvole (dispositivi che i giovani non conoscono), consumava 200.000 W e ogni mezz’ora si rompeva. I computer di oggi sono enormemente più piccoli, più leggeri, più affidabili, hanno milioni di transistor e consumano molto meno.

creative6Figura 6. Computer di ieri e di oggi

Come è avvenuta questa rivoluzione? Attraverso la miniaturizzazione, il passaggio da circuiti elettrici macroscopici a microcircuiti (1 micron = 1 milionesimo di metro) (Figura 7). Un’ulteriore miniaturizzazione “dall’alto” fino a giungere a livello dei nanometri (miliardesimi di metro) presenta difficoltà. E’ più facile arrivarci “dal basso”, partendo dalle molecole, che sono già di per sé oggetti nanometrici.

creative7Figura 7. Miniaturizzazione dall’alto (top down) e dal basso (bottom up)

In effetti i chimici, oggi, sono molto bravi a mettere assieme molecole diverse per formare sistemi supramolecolari. Un esempio un po’ singolare è quello mostrato in Figura 8. Combinando una molecola a forma di calice (calixarene) e una molecola a forma di pallone da calcio (fullerene) si è ottenuto un sistema supramolecolare che richiama come forma la Coppa del Mondo di calcio.

creative8Figura 8. Un curioso sistema supramolecolare.

E’ un oggetto nanometrico curioso, forse bello; certamente inutile. Se si vogliono fare cose utili, è necessario che i componenti molecolari abbiano proprietà chimiche e fisiche ben precise in modo che nel sistema supramolecolare, grazie all’interazione fra le caratteristiche dei singoli componenti, emergano proprietà che permettano al sistema di svolgere una funzione interessante (Figura 9). In tal modo la Chimica supramolecolare diventa Ingegneria molecolare e, se fa cose di interesse applicativo, diventa Nanotecnologia.

creative9Figura 9. Sistemi molecolari capaci di svolgere una funzione.

Dispositivi e macchine molecolari

In sostanza, oggi i chimici possono lavorare allo stesso modo degli ingegneri, con la differenza che gli ingegneri usano componenti macroscopici, mentre i chimici utilizzano componenti molecolari (nanometrici) (Figura 10).

creative10Figura 10. Analogia fra il lavoro di un ingegnere e quello di un chimico per la costruzione di dispositivi o macchine.

Nel mondo macroscopico un dispositivo o una macchina è un oggetto materiale che usa energia per svolgere una funzione, cioè un “lavoro”, che può essere un movimento meccanico o l’elaborazione di un segnale. L’energia fornita può essere chimica, elettrica o luminosa, come illustrato nella Figura 11.

creative11Figura 11. Esempi di macchine o dispositivi del mondo macroscopico che utilizzano rispettivamente energia chimica, elettrica e luminosa.

Il concetto di macchina o dispositivo si può estendere al mondo nanoscopico, dove l’oggetto materiale dovrà essere un sistema supramolecolare capace di utilizzare energia (chimica, elettrica o luminosa) per svolgere una funzione (ad esempio, una reazione chimica, un segnale o un movimento meccanico) (Figura 12). Per molti motivi il modo migliore di fornire energia a un sistema supramolecolare è mediante la luce. Con un fotone di adatta frequenza si può, infatti, far giungere energia ad uno specifico componente di un sistema supramolecolare senza perturbare gli altri componenti e senza “toccare” (e quindi senza “sporcare”) in alcun modo il sistema.

creative12Figura 12. Fornendo energia è possibile far compiere una funzione a sistemi supramolecolari opportunamente progettati.

I dispositivi e le macchine molecolari sono dunque sistemi supramolecolari progettati per svolgere una funzione in conseguenza di uno stimolo energetico.

La Figura 13 mostra la copertina delle edizioni inglese e cinese dell’unico testo finora disponibile su dispositivi e macchine molecolari, adottato in università di tutto il mondo.

creative13Figura 13. Testo che riporta i concetti fondamentali e numerosi esempi di dispositivi e macchine molecolari.

I dispositivi e le macchine molecolari si possono dividere in due categorie, a seconda che la funzione svolta consista nell’elaborare segnali o nel provocare movimenti meccanici. Per ragioni di spazio riporteremo solo alcuni degli esempi più significativi.

(continua)

Le molecole della pubblicità: dentifrici ripara-smalto

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Tra le pubblicità che vengono trasmesse sui vari canali televisivi, quelle che riguardano i prodotti per l’igiene orale sono tra le più frequenti. Questo già dai tempi di Carosello.
Su questo blog l’argomento dentifrici è stato trattato già molto ben esposto nel post scritto da Gianfranco Scorrano:
https://ilblogdellasci.wordpress.com/2013/02/21/dentrifici/
Una pasta dentifricia può avere un gran numero di componenti. In genere più di una decina e in qualche caso anche venti.

dentifrici

La formulazione generale di un dentifricio prevede che esso debba contenere delle polveri abrasive che con una granulometria molto fine e disperse in maniera omogenea esercitino la funzione di pulizia dei denti senza produrre scalfitture o graffi. Tra queste possiamo trovare carbonati, fosfati e silicati.
Nel dentifricio si trova anche una percentuale di normalissima acqua potabile, percentuale che solitamente varia dal 30 al 45%. Si aggiungono prodotti come la glicerina o lo sciroppo di sorbitolo per evitarne l’essicamento, sostanze aromatizzanti per ridurre il sapore farinoso degli abrasivi, e agenti conservanti con funzione antibatterica (per esempio acido sorbico).

glicerina

Nelle formulazioni troviamo anche viscosizzanti come idrossietilcelluosa, e tensioattivi che generano schiuma durante lo spazzolamento (sodio lauril solfato) che viene usato anche per ridurre la placca batterica.
La pubblicità propone tipi di dentifrici che sbiancano i denti, altri efficaci contro la carie, ma ultimamente vanno per la m