Astrochimica: individuato ghiaccio sotto la superficie del pianeta nano Cerere

In evidenza

Rinaldo Cervellati

Il pianeta nano Cerere[1], che orbita nella fascia degli asteroidi tra Marte e Giove, ospita una grande quantità di ghiaccio sotto la superficie, afferma un team di scienziati guidati dal Dr. T.H. Prettyman del Science Planetary Institute nel corso del Convegno dell’American Geophysical Union il 15 dicembre scorso.[1]

fig-1-cerereIl ghiaccio, che probabilmente riempie i pori nel sottosuolo di roccia, si trova lì da miliardi di anni, confermando le previsioni fatte da alcuni astronomi 30 anni fa.

Thomas Prettyman

Thomas Prettyman

Gli scienziati hanno riferito questi e altri risultati raccolti dal veicolo spaziale Dawn[2] della National Aeronautics and Space Administration, in orbita attorno a Cerere, in una conferenza stampa il 15 dicembre scorso al convegno dell’American Geophysical Union a San Francisco.

Il veicolo spaziale è munito di uno spettrometro a neutroni e raggi gamma che fornisce informazioni sugli elementi che costituiscono la crosta del pianeta, tale strumento è stato già utilizzato nella missione Messenger che ha fornito informazioni su Mercurio. Uno schema semplificato del funzionamento dello spettrometro è mostrato in figura. In breve lo strumento misura il numero e l’energia dei neutroni e dei raggi gamma che raggiungono la sonda quando passa vicino al pianeta.

fig-3-spettrometro-a-neutroniI dati raccolti da Down nell’arco di cinque mesi hanno permesso una mappatura della composizione di Cerere rilevando la presenza di idrogeno anche alla profondità di appena un metro sotto la superficie del pianeta nano. Il ghiaccio è più concentrato ai poli di Ceres.

Norbert Schörghofer, uno scienziato della missione Dawn e astronomo presso l’Università delle Hawaii, ha infatti riferito che la sonda ha rilevato sacche di ghiaccio nei crateri permanentemente in ombra ai poli di Ceres, fenomeno che esiste anche su Mercurio e Luna [2].

fig-4-norbert-schorghofer

Norbert Schörghofer

Tutte le evidenze raccolte da Down stanno a indicare che un tempo Cerere aveva un oceano e che tracce di esso rimangono probabilmente ancora sotto la sua superficie ha detto Carol Raymond del Jet Propulsion Lab, vice ricercatore principale della missione.

fig-5-carol-raymond

Carol Raymond

Gli scienziati sono particolarmente interessati a corpi del sistema solare che possono contenere acqua allo stato liquido perché potrebbero essere ambienti in grado di ospitare la vita. Cerere, ha sostenuto Raymond, è probabilmente simile a Europa, una luna di Giove, o a Encelado, luna di Saturno, in termini di potenziale abitabilità.

Al convegno dell’American Geophysical Union è stata presentata un’altra ricerca, focalizzata su un corpo del sistema solare più vicino al nostro pianeta: Marte. Gli scienziati del Los Alamos National Laboratory hanno annunciato per la prima volta la scoperta di boro sulla superficie del pianeta rosso. La NASA ha individuato l’elemento in vene minerali di solfato di calcio. Se questo minerale è confrontabile con quello che si trova sulla Terra, ciò indicherebbe che molto tempo fa le temperature superficiali del pianeta erano 0-60 ° C, e che il terreno aveva un pH neutro-alcalino, in altre parole un ambiente abitabile.

Fonte: c&en Newsletters 21-12-2016

[1] T. Prettyman et al., Extensive water ice within Ceres’ aqueously altered regolith: Evidence from nuclear spectroscopy, Science  15 Dec 2016, DOI: 10.1126/science.aah6765

[2] T. Platz et al., Surface water-ice deposits in the northern shadowed regions of Ceres,

Nature Astronomy, 15 Dec 2016, DOI: 10.1038/s41550-016-0007

[1] Cerere è l’asteroide più grande della fascia principale del sistema solare, scoperto nel 1801, per mezzo secolo è stato considerato l’ottavo pianeta. Dal 2006 Cerere è l’unico asteroide del sistema solare interno considerato un pianeta nano, alla stregua di Plutone.

[2] La Missione Dawn è una missione basata su una sonda senza equipaggio sviluppata dalla NASA per raggiungere ed esaminare il pianeta nano Cerere e l’asteroide Vesta . Dawn è stata lanciata in settembre 2007 e ha raggiunto Cerere in marzo 2015.

I mondi di Primo Levi: una strenua chiarezza

In evidenza

Mauro Icardi.

(il post è illustrato da alcune foto scattate dall’autore medesimo)

La mostra dedicata alla vita e alle opere di Primo Levi è stata inaugurata il 21 Gennaio del 2015 a Torino, città natale dello scrittore. E’ una mostra itinerante ed ha avuto successivi allestimenti nel corso del 2015 e del 2016 in due città italiane (Cuneo e Ferrara) e anche in Belgio nella città di Liegi.

Particolarmente significativa l’esposizione tenuta al campo di concentramento di Fossoli in provincia di Modena, dove lo scrittore venne condotto dopo l’arresto in attesa di essere poi deportato ad Auschwitz, che è stata la seconda edizione (19 Aprile -30 Giugno 2015).

Attualmente la mostra, che è stata realizzata dal Centro Internazionale di studi Primo Levi di Torino, è allestita presso il Museo di Scienza e Tecnologia di Milano, in occasione della nuova edizione delle Opere Complete.

mostralevi1Prima di parlare della mostra occorre fare una prima, importante riflessione.

Per moltissimi anni Primo Levi, anche per ragioni che lui stesso aveva sempre evidenziato, cioè che si dedicasse alla letteratura come attività complementare a quella principale di chimico e direttore tecnico di una fabbrica di vernici era certamente molto apprezzato come scrittore memorialista, ma difficilmente classificabile dalla critica negli anni delle sue prime prove letterarie.

Nel 1975 Primo levi decide di andare in pensione e di dedicarsi a tempo pieno all’attività di scrittore. In quello stesso anno viene pubblicato “Il sistema periodico” l’altro libro che insieme a “Se questo è un uomo” è da considerarsi a tutti gli effetti un classico della letteratura italiana del novecento.

mostralevi2Dopo la morte di Levi avvenuta nell’aprile del 1987 inizia per lo scrittore un lento ma costante cambiamento di immagine e di valutazione da parte della critica letteraria.

Iniziative culturali, pubblicazione di diversi libri di biografie e studi critici hanno raggiunto dimensioni importanti e corpose.

Finendo per trasformare l’opera di Primo Levi come scrive Mario Barenghi nell’articolo uscito su “Doppiozero.com” in “un’intera galassia, che non ci si stanca di percorrere e di esplorare.”

(Mario Barenghi “La galassia Primo Levi” Doppiozero.com 04 Dicembre 2016”)

Ho voluto tornare a visitare la mostra a lui dedicata dopo essere già stato nel 2015 a quella di Torino. Per la fondamentale ragione che ero certo che avrei trovato nuovi stimoli, come in effetti è stato.

Nel museo di Milano, oltre alla sala dedicata alla mostra vera e propria si può fare un percorso della durata di circa un’ora dove brani dell’opera di Levi sono accostati agli spazi espositivi del museo, creando una suggestione ed un legame . Per esempio nella sezione dedicata alla chimica di base si trova esposto un brano tratto da “Racconti e saggi” cioè “La sfida della molecola”, oppure nella sezione dedicata alle macchine da calcolo un brano de “Lo scriba” uscito su “L’altrui mestiere” dove Levi racconta la sua esperienza nell’uso del suo primo elaboratore elettronico di testi ,ausilio ed aiuto nel suo lavoro di scrittore.

mostralevi3Nell’attesa dell’ingresso al museo ho avuto modo di scambiare qualche parola con altri visitatori. Accorgendomi come per il pubblico dei semplici lettori, o studenti sia ancora prevalente l’immagine del Levi scrittore e testimone dell’olocausto e che molti non sapessero che lo scrittore era un chimico.

mostralevi4All’interno della mostra ho spiegato ad alcune persone cosa rappresentasse la prima sezione della mostra, dove il racconto “Carbonio” viene illustrato con le parole scritte da Levi e con le tavole disegnate dall’artista giapponese Yosuke Taki. Il visitatore viene condotto a viaggiare nell’infinitamente piccolo, nel ciclo del carbonio.

Le sezioni della mostra prendono poi in esame l’esperienza del lager e della deportazione (Il viaggio verso il nulla/Il cammino verso casa) e le varie altre anime di Levi. “Cucire parole” per significare il lavoro di scrittore attento a evitare lo scrivere oscuro, “Cucire molecole” che invece ci mostra il Levi chimico ed i momenti più salienti del suo rapporto con la chimica.

Le sezione “Homo Faber” è dedicata al rapporto tra mano e cervello che Levi sviluppava costruendo sculture in filo di rame, quello che rivestiva con vernici e polimeri alla SIVA. Uno di questi, una farfalla si trova esposto alla mostra mentre altri si possono vedere in fotografia.

mostralevi6“Il giro del mondo del montatore Tino Faussone” personaggio de “La chiave a stella” è la sezione della mostra che si occupa del lavoro, tema centrale di questo romanzo. Dell’etica che ad esso si lega e del concetto che amare il proprio lavoro sia “la migliore approssimazione concreta della felicità sulla terra”.

La mia seconda visita come dicevo non è stata inutile. Come per la lettura dei suoi libri,anche rivedere la mostra ha avuto lo stesso effetto. Le sua opera anche se letta e riletta non stanca mai. Sia che si analizzi il versante memorialistico,sia che si analizzi quello propriamente dedicato alla chimica, o cosa significhi essere chimico, o quelle che sono esperienze comuni per chi la pratica, di soddisfazioni o di problemi lavorativi da affrontare e risolvere.

Levi è stato scrittore e chimico, ma sostanzialmente è stato un grandissimo uomo di cultura ed un divulgatore di primissimo ordine.

Tutti questi aspetti della sua vita e della sua opera non sono scindibili. Levi riesce a trasmettere in chi si accosta alla sua opera questa inesauribile curiosità.

Non saprei suggerire quale aspetto si possa considerare prevalente. Mi sento solo di suggerire per esempio che, pur essendo necessario far leggere soprattutto a scuola i suoi libri attinenti alla vicenda storica della deportazione e dell’olocausto, andrebbe fatto conoscere forse di più il Levi chimico.

mostralevi7

Levi è un autore che ci porta per mano nel XXI secolo dopo essere uscito vivo da una delle peggiori tragedie storiche e umane del ventesimo.

La sua poliedricità di temi ed argomenti è una vera costante scoperta. E visitare questa mostra ne è un importante tassello.

 

La saliva.

In evidenza

Luigi Campanella, ex Presidente SCI

La saliva è considerato un liquido biologico ed il suo ruolo è spiegato attraverso la chimica,ancora una volta scienza regina per interpretare i processi biologici e naturali,compreso anche il funzionamento dell’organismo umano-

La saliva, con le sue caratteristiche, esercita un’influenza diretta sulla salute dei denti, una parte del nostro corpo fondamentale ai fini delle attività di nutrizione e digestione. La sua composizione normalmente ha un pH neutro (valori da 6.5 a 7.5), ma varia quando si mangia o si beve. Un paio di ore dopo l’assunzione di cibo torna a livelli normali. Talvolta però questo non succede e un ambiente della bocca troppo acido, in cui l’acidità permane a lungo (valore pH inferiore a 6.5) contribuisce alla formazione di un eccesso di placca batterica che, indebolendo lo smalto dei denti, dà il via al processo cariogeno.

 

Al contrario, quando il pH sale a livelli basici o alcalini (superiore a 7.5), il calcio contenuto nella saliva tende a cristallizzarsi sui denti, andando a formare il tartaro, nocivo per le gengive. Da qui si comprende come un’alimentazione troppo ricca in cibi acidi o basici sia dannosa e come la saliva con la sua composizione aiuti l’organismo a difendersi. Ma non solo gli equilibri acido/base sono coinvolti nell’azione salivare. L’idrossiapatite che compone i denti potrebbe col tempo disciogliersi se la saliva fosse solo costituita da acqua; infatti anche i composti più insolubili finiscono per sciogliersi in un solvente che si rinnovi continuamente nel tempo. Ma la nostra saliva è invece un liquido iposmotico secreto dalle ghiandole salivari che contiene oltre ad oltre il 99% di acqua, numerose sostanze organiche ed inorganiche. Fra queste troviamo soprattutto sali minerali, in particolare cloruri e bicarbonati di Na,K,Ca. La frazione organica è invece rappresentata da enzimi (amilasi,mucina,lisozima) ed immunoglobuline.

saliva1

dalla presentazione Umich

Anche gli equilibri redox sono coinvolti. Le nostre ghiandole salivari accumulano attivamente i nitrati prelevandoli dal sangue e li secernono con la saliva nella bocca, dove alcuni batteri non dannosi (denitrificanti) possono ridurli a nitrito che in presenza di ambiente acido rimuove i batteri pericolosi costituendo per essi un veleno l’acido nitroso formato.

Ancora più complesso è il caso dell’assunzione di farmaci: in questo caso la composizione e di conseguenza le caratteristiche della saliva possono risultare molto alterate rispetto alle condizioni di normalità. Anche il flusso salivare può essere modificato indebolendo così la difesa naturale della bocca affidata alla grande quantità di saliva, capace di tamponare gli attacchi chimici e biologici. E’ proprio il diminuito flusso salivare notturno a consigliare di andare a letto avendo puliti accuratamente i denti.

img_qual_e_la_funzione_della_saliva_5717_orig

da asisccmaxilo.com

Il pH salivare viene generalmente misurato dai dentisti con le cartine al tornasole e generalmente, per accrescere la qualità e quantità di informazione, il test viene ripetuto sul paziente nel tempo durante sia una giornata sia l’arco di tutto un anno.

per documentazione:

Una presentazione della Università del Michigan

Wikipedia:

https://en.wikipedia.org/wiki/Saliva_testing#Evidence_and_current_research

Omega-3 e dintorni

In evidenza

Rinaldo Cervellati

Negli ultimi decenni gli omega-3 sono diventati sempre più popolari e richiesti come integratori alimentari per gli effetti benefici che questi prodotti avrebbero sulla salute umana, dalla diminuzione del rischio di disturbi cardiovascolari a quella dell’incidenza di demenza senile, insomma una panacea per tutti i mali. Ma cosa sono esattamente gli omega-3 e quanto sono veramente efficaci?

fig-1-pubblicita-omega-3Gli omega-3 sono sostanze appartenenti alla categoria chimica degli acidi grassi polinsaturi, costituiti da una lunga catena di atomi di carbonio, alcuni dei quali legati fra loro con un doppio legame, come mostra la struttura del composto principale, l’acido α-linolenico (ALA, Fig.1):

fig-2-acido-linolenicoSe si inizia a contare gli atomi di carbonio da quello terminale della catena (carbonio ω, in rosso), il primo doppio legame (=) si trova nella terza posizione, da cui il termine omega-3. Quindi il termine è solo una questione di nomenclatura chimica, niente di più[1]. A questo proposito il Dr. Nils Hoem, ricercatore capo della norvegese Aker Biomarine[2], dice: Quante persone sanno che omega-3 è solo nomenclatura chimica? Significa solo che un doppio legame si trova nella terza posizione dall’estremità omega, l’estremità opposta al gruppo carbossilico di un acido grasso polinsaturo. L’ultima lettera dell’alfabeto greco in sé non ha alcun significato.(NUTRAingredients newsletter, 12-12-2016)

La posizione dei doppi legami e dei gruppi metilenici conferiscono alle molecole di omega-3 una struttura spaziale elicoidale.

fig-3-struttura-spaziale-di-alaOltre all’acido linolenico altri due importanti omega-3 sono l’acido timnodonico (EPA, acido eicosapentaenoico) e l’acido cervonico (DHA, acido docosaesaenoico). Essi, insieme a ALA, intervengono infatti nel normale metabolismo umano. I mammiferi non sono in grado di sintetizzare gli acidi grassi omega-3, ma possono ottenere ALA (catena più corta, 18 C, 3 =) attraverso la dieta e utilizzarlo per formare il più importante EPA (20 C, 5 =) e infine da questo il fondamentale DHA (22 C, 6 =).

fig-4-struttura-spaziale-dhaTuttavia la capacità di trasformare ALA in DHA può calare rapidamente con l’età. Gli acidi grassi insaturi si ossidano all’aria fino all’irrancidimento, cioè la trasformazione in acidi grassi saturi dal caratteristico cattivo odore.

Fonti ricche di omega-3 sono gli olii vegetali (noce, lino, alga, ecc) e animali (pesci, plancton, ecc.).

fig-5-fonti-di-omega-3Fra gli olii di origine animale troviamo il ben noto olio di fegato di merluzzo, ottenuto dal fegato fresco del merluzzo (Gadus morhua) contenente anche vitamine A e D. Il prodotto grezzo viene raffinato e chiarificato a 0 °C e mantenuto in recipienti chiusi e scuri per evitare il contatto con l’aria e la luce. E’ un liquido di color giallo pallido con un lieve odore di pesce.

fig-6-olio-di-fegato-merluzzo-e-capsuleSecondo la USP (United States Pharmacopeia) 1.0 g di olio non deve contenere meno di 850 unità USP (225 µg) di vitamina A e non meno di 85 unità USP (2,125 µg) di vitamina D; possono essere aggiunte idonee sostanze aromatizzanti, in quantità non superiori all’1%.

L’olio è particolarmente ricco di omega-3, il contenuto in EPA e DHA va da un minimo del 7- 6 % a un massimo del 16-18 % in peso rispettivamente. Il contenuto massimo di questi e di altri omega-3 può raggiungere il 60 % in peso.

E’ stato riportato che l’assunzione di 5 ml di olio di fegato di merluzzo può soddisfare ampiamente la richiesta dietetica giornaliera di vitamina A e D nell’adulto e nel bambino. L’assunzione in forma liquida può risultare disgustosa a causa del cattivo sapore dell’olio (come ben sanno o ci hanno raccontato i nostri nonni o bisnonni), pertanto, e in particolare come integratore, viene commercializzato sottoforma di perle farmaceutiche da inghiottire.

fig-7-omega-3-capsuleIn passato l’olio di fegato di merluzzo è stato impiegato come lassativo e nella profilassi del rachitismo nei bambini e dell’osteoporosi negli adulti causa carenza vitaminica.

fig-8-olio-di-fegato-di-merluzzo-bambiniPassiamo in rassegna le principali proprietà terapeutiche attribuite a questo prodotto.

Cancro. Non sembra vi siano evidenze che a un maggior consumo di pesce sia associato un minor rischio per tutte le possibili patologie cancerose [1], lo stesso vale per l’integrazione con omega-3 [2]. In pazienti con tumori in stadio avanzato l’integrazione con omega-3 può essere di beneficio nel migliorare la qualità della vita [3]. Il tentativo di correlare l’assunzione di omega-3 a un minor rischio di cancro al seno e alla prostata ha fornito dati inconcludenti [4].

Malattie cardiovascolari. Non vi sono evidenze cliniche a sostegno della supplementazione con omega-3 per la prevenzione di malattie cardiovascolari, incluso infarto del miocardio e ictus [5]. Tuttavia, l’assunzione di un grammo o più al giorno per almeno un anno può avere effetti protettivi da infarti o ictus in persone che hanno già sofferto di disturbi cardiaci [6]. L’evidenza suggerisce che gli acidi grassi abbassano la pressione arteriosa (sistolica e diastolica) sia in soggetti con ipertensione sia in persone con pressione sanguigna normale [7]. Alcune evidenze suggeriscono che le persone con problemi circolatori, come le vene varicose, possono trarre beneficio dal consumo di EPA e DHA, che stimolano la circolazione sanguigna e aumentano la rottura della fibrina, una proteina coinvolta nella coagulazione del sangue [8].

Infiammazioni. Per l’artrite reumatoide (RA), una revisione sistematica ha trovato una correlazione positiva, anche se modesta, fra gli effetti dell’olio di pesce e sintomi come gonfiore, dolore, durata della rigidità mattutina, analoghi a quelli prodotti dall’uso di farmaci anti-infiammatori non steroidei [9]. L’American College of Rheumatology (ACR) ha dichiarato che si possono ottenere modesti benefici dall’uso di oli di pesce, ma che potrebbero essere necessari mesi per rilevarne effetti, e mette in guardia su possibili effetti collaterali gastrointestinali e la possibilità di supplementi contenenti mercurio o vitamina A a livelli tossici.

Disturbi del comportamento e dello sviluppo cognitivo. Anche se non sostenuta da prove scientifiche certe, una supplementazione con omega-3 è stata raccomandata a bambini che soffrono di deficit di attenzione/iperattività (ADHD), autismo o altri disturbi dello sviluppo [10].

Una meta-analisi ha concluso che tale supplementazione ha avuto esiti modesti nel ridurre i sintomi di ADHD, un altro studio afferma che “ci sono poche prove che la supplementazione di PUFA (Poly Unsaturated Fatty Acids) fornisca qualche beneficio nei bambini e negli adolescenti” [11]. Un’altra ricerca ha trovato evidenze inconcludenti per l’uso di acidi grassi omega 3 nei disturbi del comportamento e disordini neuropsichiatrici non-degenerativi come l’ADHD e la depressione [12].

Il legame tra omega-3 e la depressione è stato ipotizzato in base al fatto che alcuni prodotti della biosintesi di omega-3 svolgono un ruolo chiave nella regolazione delle infiammazioni, come ad es. la prostaglandina E3 che è stata collegata alla depressione [13]. Questo collegamento alla regolazione dell’infiammazione è stato confermato sia in vitro che in vivo come pure da studi di meta-analisi.

Il meccanismo esatto in cui gli omega-3 agiscono sul sistema infiammatorio è ancora controverso [14]. Ci sono alcune prove che gli acidi grassi omega-3 possano essere utili per il trattamento della depressione associata a disturbo bipolare. Tuttavia benefici significativi dovuti alla supplementazione di EPA sono stati osservati solo sui sintomi depressivi, non su quelli maniacali, il che suggerisce un legame tra omega-3 e il solo umore depresso [15]. Vi è,comunque, una significativa difficoltà di interpretazione dei risultati a causa di differenze sistematiche nelle diete dei soggetti coinvolti nella sperimentazione o addirittura di errori sistematici (bias) nel trattamento statistico dei dati.

Demenza senile. Gli studi epidemiologici su possibili effetti degli omega-3 sui meccanismi della malattia di Alzheimer sono inconcludenti [16]. Ci sono evidenze preliminari di un qualche effetto su problemi cognitivi lievi [17], ma nulla riguardo differenze fra persone sane e persone affette da demenza.

Dermatiti atopiche. I risultati di studi che hanno valutato il ruolo dell’integrazione di acidi grassi omega-3 nella prevenzione e terapia delle dermatiti atopiche (rinocongiuntivite allergica, dermatite atopica e asma allergica) sono controversi. Pertanto, allo stato attuale delle conoscenze, non si può affermare né che l’apporto nutrizionale di acidi grassi omega-3 abbia un ruolo preventivo o terapeutico né che l’assunzione di questi prodotti abbia un ruolo nella promozione di malattie atopiche [18].

Da quanto sopra esposto risulta chiaro che gli acidi grassi polinsaturi omega-3 non possono essere considerati una cura per il trattamento e prevenzione delle malattie prese in considerazione. Essi, al pari di altri integratori, sono utili nei casi di carenza di questi importanti fattori che intervengono nel corretto funzionamento dell’organismo umano mantenendolo in salute.

La deficienza si manifesta ovviamente in caso di malattie, l’integrazione avrà quindi il compito di ristabilire il normale equilibrio, riducendo nel contempo i sintomi del malanno che sarà curato con i farmaci appropriati.

fig-9Da ultimo, ma non meno importante, va detto che il mercato degli omega-3 ha un fatturato annuo di miliardi di dollari con enormi guadagni dato anche il basso costo della materia prima, non sorprende quindi il volume pubblicitario di persuasione su questo prodotto.

Riferimenti.

[1] Sala-Vila A. et al. Update on the relationship of fish intake with prostate, breast, and colorectal cancers. Critical reviews in food science and nutrition2011, 51, 855–71.

[2] MacLean C.H. et al. Effects of omega-3 fatty acids on cancer risk: a systematic review. JAMA: The Journal of the American Medical Association2006, 295, 403–15.

[3] Colomer R. et al. N-3 fatty acids, cancer and cachexia: a systematic review of the literature”, Br. J. Nutr., 200797, 823–31.

[4] Heinze V.M, Actis A.B. Dietary conjugated linoleic acid and long-chain n-3 fatty acids in mammary and prostate cancer protection: a review. International journal of food sciences and nutrition2012, 63, 66–78.

[5] Billman, George E. The effects of omega-3 polyunsaturated fatty acids on cardiac rhythm: a critical reassessment, Pharmacology & Therapeutics2013, 140, 53–80.

[6] Casula M. et al. Long-term effect of high dose omega-3 fatty acid supplementation for secondary prevention of cardiovascular outcomes: A meta-analysis of randomized, placebo controlled trials [corrected], .Atherosclerosis Supplements, 2013, 14, 243–51.

[7] Miller P.E., Van Elswyk M., Alexander D.D. (July 2014). Long-chain omega-3 fatty acids eicosapentaenoic acid and docosahexaenoic acid and blood pressure: a meta-analysis of randomized controlled trials, .American Journal of Hypertension2014, 27, 885–96.

[8] Morris M.C., Sacks F., Rosner B. (1993). Does fish oil lower blood pressure? A meta-analysis of controlled trials”Circulation, 1993, 88, 523–33.

[9] Miles E.A., Calder P.C. Influence of marine n-3 polyunsaturated fatty acids on immune function and a systematic review of their effects on clinical outcomes in rheumatoid arthritis. The British journal of nutrition. 2012, 107 , Suppl 2(S2), S171–84.

[10] Levy S.E., Hyman S.L., Novel treatments for autistic spectrum disorders. Ment Retard Dev Disabil Res Rev., 2005, 11, 131–42.

[11] Gillies D. et al. Polyunsaturated fatty acids (PUFA) for attention deficit hyperactivity disorder (ADHD) in children and adolescents, The Cochrane database of systematic reviews2012, 7: CD007986.

[12] Ortega R.M. et al., (June 2012). Effects of omega-3 fatty acids supplementation in behavior and non-neurodegenerative neuropsychiatric disorders. The British journal of nutrition. 2012, 107 Suppl 2(S2), S61–70.

[13] Ruxton C.H.S. et al. The impact of long-chain n-3 polyunsaturated fatty acids on human health. Nutrition Research Reviews2005, 18, 113–29.

[14] Bucolo C. et al., Omega-3 fatty acids and depression: Scientific evidence and biological mechanisms, Oxidative Medicine and Cellular Longevity2014: 1–16.

[15] Montgomery, P., Richardson A.J., Omega-3 fatty acids for bipolar disorder, Cochrane database of systematic reviews (Online), DOI: 10.1002/14651858.CD005169.pub2

[16] Cederholm T, Palmblad J. (March 2010). Are omega-3 fatty acids options for prevention and treatment of cognitive decline and dementia?”. Current Opinion in Clinical Nutrition and Metabolic Care2010, 13, 150–55.

[17]  Forbes, S.C. et al. Effect of Nutrients, Dietary Supplements and Vitamins on Cognition: a Systematic Review and Meta-Analysis of Randomized Controlled Trials., Canadian Geriatrics Journal, 201518, 231–45.

[18] Lohner S, Decsi T. Role of Long-Chain Polyunsaturated Fatty Acids in the Prevention and Treatment of Atopic Diseases. In: Polyunsaturated Fatty Acids: Sources, Antioxidant Properties and Health Benefits (edited by: Angel Catalá). NOVA Publishers. 2013. Chapter 11, pp. 1–24

[1] Nella nomenclatura standard IUPAC si inizia a contare a partire dal carbonio carbossilico da cui il nome acido octadecatrienoico, comunemente acido α-linolenico.

[2] Una gigante fra le più importanti industrie produttrici di omega-3.

Il chimico e l’arte della pazienza

In evidenza

Mauro Icardi

Spesso tra i motti di spirito ed i proverbi si cita quello che dice che “la pazienza è una virtu’”.
Mi trovo d’accordo con questa affermazione, ed in particolare se faccio come tutti un bilancio del 2016 appena trascorso e rifletto su come la pazienza sia una dote del chimico.
Molto del lavoro che un chimico svolge in un laboratorio che si occupa di controllo delle acque si esegue ormai con l’ausilio di strumenti e tecniche più o meno sofisticate (dalla gascromatografia alla spettrofotometria di assorbimento atomico).
Ma non sono state sostituite del tutto e credo non lo saranno mai le tecniche di base, quali la volumetria con le titolazioni per esempio della durezza dell’acqua, o la distillazione dell’ammonio sui campioni di acque reflue con il metodo messo a punto da Johan Kjeldhal nei laboratori della Carlsberg che risale al 1883.Kjeldahl.jpg

Ho già avuto modo di dire come queste tecniche e metodiche possano fornire una buona base di conoscenza per chi lavora in laboratorio.
Ma nella mia esperienza personale ho finito per rendermi conto che una dote come la pazienza sia necessaria.
Chi conosce il lavoro di laboratorio o lo pratica è portato a pensare che la si debba esercitare durante i delicati lavori di pesatura su bilancia analitica magari mentre si sta procedendo alla preparazione per esempio dell’eluente per il cromatografo ionico.
In effetti ricordo che a molte persone sia chimici che non, per esempio stagisti o tesisti universitari, questa era un’operazione che risultava piuttosto indigesta.
Anche la semplice accortezza per portare a volume un matraccio tarato o la necessità di effettuare la titolazione goccia a goccia sono attività che facevano sbuffare qualcuno.
Anche me prima che mi accorgessi invece che sono un’essenza del lavoro, della metodicità che occorre avere e che mi trovassi a riflettere per esempio su cosa avveniva ad ogni aggiunta di titolante nel campione che analizzavo.
Ma in fin dei conti se nel senso comune si è portati a pensare che occorra pazienza per lo svolgimento di analisi che prevedano tecniche analitiche “tradizionali”, non molti sanno oppure hanno sperimentato che ci si debba armare di pazienza anche nella pratica dell’analisi strumentale.
Tralasciando la messa a punto degli strumenti in fase di avvio, la messa a punto dei metodi e la costruzione di rette di taratura idonee, anche la semplice attività di routine può mettere alla prova il grado di pazienza di un chimico analista.
Ho già avuto modo di dire che la pazienza il chimico la deve avere con coloro che aspettano da lui i risultati delle analisi. La tendenza a pensare che la determinazione per esempio di un’analisi di metalli su un campione di fango sia quasi immediata è nota e consolidata. La mineralizzazione del campione e l’aspetto preparativo viene solitamente tralasciato.
Ma per esempio nell’esecuzione di una semplice analisi di routine di acque potabili può essere necessario esercitarla.
Qualche volta lo strumento sembra esserti nemico. Uno strumento analitico non è composto solamente da una parte ottica o da colonne di separazione nel caso della cromatografia.
Ci sono circuiti idraulici con molti tubicini capillari che, nonostante la manutenzione programmata e le procedure di qualità spesso decidono di rompersi o di ostruirsi ovviamente quando il numero di campioni è notevole e si è vincolati da urgenze.
Questa cosa mi è capitata facendomi pensare alla assoluta veridicità della “Legge di Murphy”.

legge-di-murphy

La legge di Murphy è un insieme di paradossi pseudo-scientifici a carattere ironico e caricaturale.
« Se qualcosa può andar male, andrà male. (o, in altra versione o forse traduzione più letteraria, “se qualcosa può andar male, lo farà“) »
Nel mio caso mi ha sempre colpito questa: « La probabilità che qualcosa accada è inversamente proporzionale alla sua desiderabilità. »
L’esperienza porta ad essere preparati e forniti di materiali di ricambio per far fronte a problemi di questo genere.
Diverso è il caso di malfunzionamenti che dipendono invece dal software dello strumento oppure da sbalzi di tensione che non dovrebbero capitare ma capitano. Nel primo caso si va con la memoria a ricordarsi di tutti i trucchetti che si conoscono nell’uso del pc, dal semplice riavvio a tutte le verifiche del caso.
Qualche volta i software sono ormai obsoleti, ma la resistenza a sostituirli (motivata da validissime ragioni economiche) può provocare inconvenienti molto fastidiosi. Caso verificatosi recentemente, lo spegnimento fortuito di un pc e il mancato arresto del software di un cromatografo ionico che ha lavorato fino ad esaurire i reagenti . Qui la fortuna ha aiutato il chimico, perché al mattino dopo rilevato l’inconveniente si è capito che lo strumento aveva lavorato poco senza eluente.
La pazienza è stata utilizzata successivamente ripreparando tutti i reagenti e verificando l’integrità del circuito idraulico, della tenuta dei vari pistoncini delle pompe e la capacità di risoluzione della colonna.
Questo è un episodio inusuale certamente, ma situazioni in cui ci vuole pazienza nel lavoro di laboratorio sono le più diverse. Anche la verifica della corretta posizione di un fornetto di grafite e dell’allineamento del dispensatore di un autocampionatore. Sono piccole battaglie giornaliere, sudate e vinte
E a pensarci bene non sono inutili. Gli inconvenienti aiutano a costruire un bagaglio di esperienze necessario. Anzi indispensabile.
E per concludere non si può che citare ancora una volta Primo Levi che nel racconto “Arsenico” fa dire al ciabattino che ha portato ad analizzare lo zucchero contaminato dall’Arsenico questa frase.
Bel mestiere anche il vostro: ci va occhio e pazienza. Chi non ne ha è meglio che se ne cerchi un altro.

Reinventare il ruolo della Chimica nella Società

In evidenza

 Vincenzo Balzani, Università di Bologna

Coordinatore del gruppo di scienziati energiaperlitalia

 La Chimica: ieri

Negli ultimi decenni, e in parte ancora oggi, sui mezzi di comunicazione la Chimica ha fatto e fa notizia principalmente in relazione a guerre, disastri ecologici, inquinamento e sofisticazioni. Ne consegue che, anche fra persone di una certa cultura, la Chimica è percepita come una scienza malvagia, di cui diffidare. Ma come accade per tutti gli strumenti che la scienza e la tecnica mettono nelle mani dell’uomo, da un semplice coltello all’energia nucleare, malvagio non è lo strumento in sé, ma chi lo usa senza le dovute cautele o, peggio, per fare del male deliberatamente.

Negli ultimi 100 anni la Chimica ha portato enormi benefici all’umanità. Ha fornito potenti fonti di energia, vaccini e farmaci capaci di prevenire e curare molte malattie, materiali con proprietà eccezionali come i polimeri, le materie plastiche e i semiconduttori, fertilizzanti per lo sviluppo dell’agricoltura e molto altro ancora. Si può dire che non c’è nulla di quello che usiamo che non sia stato fabbricato dai chimici o basato sui materiali che i chimici hanno ideato. La Chimica, però, deve anche riconoscere la sua responsabilità nell’aver creato strumenti di distruzione e di morte come esplosivi e armi chimiche e nell’aver contribuito, spesso senza volerlo, a volte addirittura senza saperlo, all’insorgere di gravi problemi a livello locale e globale. Nell’ultimo secolo, infatti, la grande accelerazione nell’attività dell’uomo ha coinvolto la Chimica in molti modi e con risultati spesso disastrosi, come il danneggiamento dello strato protettivo di ozono, il riscaldamento del pianeta, l’inquinamento atmosferico e lo sfruttamento senza limiti delle risorse naturali. L’effetto dell’attività umana degli ultimi decenni sulle caratteristiche del pianeta è ritenuto epocale, come dimostra il nome Antropocene ormai comunemente adottato per indicare l’epoca presente [1].

I chimici sono stati fra gli scienziati più attivi nel forgiare, nel bene e nel male, questa nuova epoca.

L’astronave Terra

Il pianeta Terra su cui viviamo è una specie di astronave che viaggia nell’infinità dell’Universo. E’ un’astronave del tutto speciale perché non potrà mai “atterrare” in nessun luogo per fare rifornimento, per essere riparata o per sbarazzarsi dei rifiuti che vi si accumulano. L’unico rapporto con l’esterno è la luce che riceve dal Sole, risorsa fondamentale per la vita dei 7,3 miliardi di passeggeri.

La prima cosa di cui essere consapevoli è che il pianeta Terra ha dimensioni “finite” [2]. Pertanto, le risorse di cui disponiamo sono limitate ed è limitato anche lo spazio in cui collocare i rifiuti. Si tratta di una realtà innegabile; eppure, spesso, anche i chimici non ne hanno tenuto conto. Molti economisti, poi, sembrano addirittura non saperlo.

Nel 1980, le risorse utilizzate estratte dalla Terra ammontavano a 40 miliardi di tonnellate; nel 2015 sono salite a circa 70 miliardi di tonnellate, pari a 27 kg per persona al giorno. Alle risorse utilizzate vanno aggiunte quantità da due a tre volte maggiori di risorse estratte, ma difficili da usare, rapporto che aumenta costantemente man mano che i depositi di risorse più ricchi si vanno esaurendo [3]. Ci si può chiedere: rimarrà qualcosa per le future generazioni?

Le dimensioni finite del pianeta hanno conseguenze anche per quanto riguarda la collocazione dei rifiuti che si producono ogni volta che si usano risorse [4]; non possiamo sbarazzarcene collocandoli in un inesistente “non luogo”. I rifiuti finiscono inesorabilmente sotto terra, sulla superficie della terra, sulla superficie o sul fondo dei mari e nell’atmosfera; in ogni caso, con conseguenze poco piacevoli. Le scorie di materie plastiche che si sono accumulate nell’Oceano Pacifico formano un’ “isola” grande come l’Europa. La quantità di anidride carbonica riversata in atmosfera supera i 30 miliardi di tonnellate all’anno e, come sappiamo, causa un aumento dell’effetto serra ed i conseguenti cambiamenti climatici. Il particolato fine generato dai motori a combustione ha causato nel 2012 più di 941.000 morti premature in Europa, 84.000 delle quali in Italia. Ci sono poi le scorie delle centrali nucleari, pericolose per decine di migliaia di anni, che nessuno sa dove collocare. Cosa diranno le prossime generazioni dei danni, in parte irreversibili, che abbiamo creato con i nostri rifiuti all’astronave su cui anche loro dovranno viaggiare?

Alla Conferenza COP21 tenutasi nel dicembre 2015 a Parigi [5], 185 nazioni hanno concordemente riconosciuto che il cambiamento climatico, causato dall’uso dei combustibili fossili, è il problema più preoccupante per l’umanità e nell’Enciclica Laudato si’ [6] papa Francesco ha ammonito: “Il ritmo di consumo, di spreco e di alterazione dell’ambiente ha superato le capacità del pianeta, in maniera tale che lo stile di vita attuale, essendo insostenibile, può sfociare solamente in catastrofi”.

La nostra è la prima generazione che si rende conto di questa situazione di crisi e quindi è anche la prima (qualcuno dice che potrebbe essere l’ultima) che può e deve cercare rimedi [4].

Economia lineare ed economia circolare

Dovrebbe essere ormai chiaro a tutti che non è possibile continuare con l’attuale modello di sviluppo basato sull’economia lineare (Figura 1) che parte dall’ingannevole presupposto [7] che le risorse siano infinite e che non ci siano problemi per la collocazione dei rifiuti.

antropocene21Figura 1. Schema del sistema economico lineare oggi adottato, basato sul falso presupposto che le risorse siano infinite e che non ci siano problemi per la collocazione dei rifiuti.

Non è possibile continuare col consumismo e con “l’usa e getta”. Questo tipo di economia ci sta portando sull’orlo del baratro ecologico [8] ed è la causa delle crescenti, insostenibili disuguaglianze [9]. Il papa, nell’enciclica Laudato si’ [6], lancia un appello accorato: “Di fronte al deterioramento globale dell’ambiente, voglio rivolgermi a ogni persona che abita questo pianeta. Ciò che sta accadendo ci pone di fronte all’urgenza di procedere in una coraggiosa rivoluzione culturale”.

Uno dei punti cardine della rivoluzione culturale, di cui c’è tanto bisogno, è il passaggio dall’economia lineare all’economia circolare. In questo modello di sviluppo alternativo (Figura 2), l’energia usata proviene da fonti rinnovabili e le risorse della Terra vengono usate in quantità il più possibile limitate (risparmio) e in modo intelligente (efficienza) per fabbricare oggetti programmati non solo per essere usati, ma anche per essere riparati, raccolti e riciclati per fornire nuove risorse.

antropocene22Figura 2. Schema di un sistema economico circolare basato sul concetto che le risorse naturali sono limitate ed è limitato anche lo spazio in cui mettere i rifiuti. Tutta l’energia usata è ricavata da fonti rinnovabili.

La differenza fondamentale fra economia lineare e economia circolare riguarda l’energia, che è la risorsa chiave di ogni sistema economico. L’economia lineare è basata sui combustibili fossili, una fonte in via di esaurimento, mal distribuita sul pianeta e causa di danni gravissimi all’ambiente e alla salute dell’uomo. L’economia circolare, invece, utilizza l’energia solare e le altre fonti di energia (eolica, idrica) ad essa collegate: abbondanti, inesauribili e ben distribuite. Gli ammonimenti degli scienziati [10], le direttive dell’Unione Europea, le decisioni prese alla Conferenza COP21 di Parigi sui cambiamenti climatici [5] e la bellissima enciclica Laudato si’ di papa Francesco [6] sostengono la necessità di accelerare la transizione dai combustibili fossili alle energie rinnovabili.

 

La Chimica: scienza centrale

La Chimica è una scienza centrale (Figura 3) che, col suo linguaggio, quello degli atomi e delle molecole, invade e pervade numerosi altri campi del sapere e fa da tramite per molte altre scienze. Ha quindi davanti a sé immensi territori da esplorare. Ha dato nuove prospettive alla biologia, che nella sua versione più avanzata, infatti, prende il nome di biologia molecolare e che a sua volta ha profondamente rivoluzionato il campo della medicina.

antropocene23Figura 3. La Chimica: una scienza centrale.

Solo la Chimica potrà dare risposte ad alcune domande fondamentali: come si è originata la vita? come fa il cervello a pensare? c’è vita su altri pianeti?

La Chimica è il fondamento di discipline di primaria importanza come la scienza dei materiali e l’ecologia. Solo con il contributo della Chimica si potranno trovare soluzioni ai quattro grandi problemi che l’umanità deve risolvere per continuare a vivere bene su questo pianeta, senza comprometterne l’uso alle future generazioni: alimentazione (cibo e acqua), salute e ambiente, energia e informazione.

La Chimica è la scienza che ha maggior impatto sulla società. Quindi, può e deve giocare un ruolo guida in questo periodo storico caratterizzato dall’inevitabile transizione dall’economia lineare all’economia circolare e dai combustibili fossili alle energie rinnovabili.

Innovazione

L’innovazione è e rimarrà sempre il motore della crescita e dello sviluppo. Ma oggi sappiamo che crescita e sviluppo devono essere governati non più dal consumismo, ma dalla sostenibilità ecologica e sociale [11]. Un’innovazione volta soltanto ad aumentare i consumi e ad accrescere le disuguaglianze, come è accaduto negli scorsi decenni, è la ricetta per accelerare la corsa verso la catastrofe di cui parla anche papa Francesco.

Le prime cose da innovare, quindi, sono istruzione e cultura. Bisogna far sapere a tutti i cittadini, in particolare ai giovani, quale è la situazione reale del mondo in cui viviamo riguardo risorse, rifiuti e disuguaglianze. L’istruzione è in gran parte di competenza dello Stato, ma anche a livello locale si può fare molto. Lo possono fare, con opportuni corsi di aggiornamento, i comuni, le regioni, le confederazioni degli industriali e degli artigiani. Lo possono fare le grandi e anche le piccole imprese con appositi stages per gli studenti. Possono contribuire con iniziative culturali le Fondazioni bancarie, le parrocchie e le associazioni di ogni tipo.

Un esempio di innovazione sbagliata è la conversione delle raffinerie di petrolio in bioraffinerie, anziché la loro definitiva chiusura con ricollocazione del personale in altri settori. Infatti: 1) le bioraffinerie sono alimentate con olio di palma proveniente in gran parte dall’Indonesia e dalla Malesia, dove per far posto alle piantagioni di palma vengono compiute estese deforestazioni con gravi danni per il territorio e per il clima; 2) i biocarburanti prodotti dall’olio di palma hanno un EROI (Energy Returned on Energy Invested) mai dichiarato, ma certamente minore di 1, cioè forniscono una quantità di energia minore di quella spesa per produrli; 3) fra pochi anni ci si accorgerà che anche le bioraffinerie sono ecologicamente ed economicamente insostenibili e si riproporrà il problema della ricollocazione del personale. Quindi, le bioraffinerie non aiutano a risolvere la crisi energetico-climatica e neppure quella occupazionale.

Un altro esempio di innovazione sbagliata è l’accordo fra Governo, Regione Emilia-Romagna e Audi (l’azienda tedesca che possiede la Lamborghini) per la produzione del nuovo SUV Lamborghini a Sant’Agata Bolognese; un accordo celebrato da alcuni politici ed industriali come straordinario esempio di innovazione [12]. Ma tutti sanno che c’è poco o nulla da innovare nei motori a scoppio, usati da più di un secolo. Se si vuol fare innovazione nel campo delle automobili, oggi la si può fare solo sulle auto elettriche: motori elettrici, batterie (settore che riguarda direttamente la Chimica), dispositivi di ricarica veloce, ecc. Oppure si può fare innovazione per produrre combustibili sintetici mediante elettrolisi dell’acqua (utilizzando elettricità da fonti rinnovabili) e successive reazioni fra l’idrogeno così ottenuto e CO2 [13].

Per capire quanto poco innovativo sia il SUV Lamborghini, che entrerà nel mercato presumibilmente nel 2018, basta pensare che nel 2025 Olanda, Norvegia e anche India prevedono di vietare la vendita ad auto con alimentazione a benzina o gasolio [14‎]. Con la sua mostruosa potenza di 600 CV, il SUV Lamborghini è un emblema del consumismo e della “civiltà” dell’usa e getta, dalla quale le vere innovazioni dovrebbero farci uscire. Col suo costo di 250.000 euro, è anche l’icona delle disuguaglianze, causa prima dell’insostenibilità sociale.

Alcuni campi di sviluppo dell’industria Chimica

 

Nuovi materiali

La caratteristica fondamentale della nostra epoca è il continuo aumento della complessità. Basti pensare che mentre fino al 1990 tutto ciò che c’era in una abitazione era costituito da meno di 20 elementi, oggi in uno smartphone ci sono più di quaranta elementi diversi. Da qualche tempo destano molto interesse elementi relativamente scarsi e finora trascurati, per i quali si prevede un crescente uso nei dispositivi ad alta tecnologia. Il Dipartimento dell’Energia degli Stati Uniti ha identificato sei elementi critici per le industrie americane: disprosio, europio, erbio, neodimio, ittrio e indio. Nell’Unione Europea, che è povera di risorse minerarie e ha industrie maggiormente diversificate, gli elementi critici sono più di venti. Per contrastare la scarsità di certi elementi si possono adottare varie strategie: 1) fare con meno; 2) riciclare; 3) individuare elementi più abbondanti che possano sostituire nei processi industriali quelli che scarseggiano; 4) reinventare i processi industriali sulla base dei materiali più facilmente disponibili.

E’ chiaro che in ciascuna di queste strategie c’è ampio spazio per la ricerca e l’industria chimica.

 

Energia

La transizione energetica, già avviata, dai combustibili fossili alle energie rinnovabili ha molto bisogno della Chimica. L’energia solare è abbondante, ma deve essere convertita nelle energie di uso finale: calore, elettricità e combustibili. Ad esempio, la quantità di energia elettrica ricavabile dai 170 Wm-2 di potenza solare media dipende dalla nostra capacità di costruire pannelli, accumulatori e altri dispositivi con le risorse della Terra. Spesso è necessario usare elementi chimici poco abbondanti, come litio, selenio e neodimio, per cui i “reagenti limitanti” nell’utilizzo delle energie rinnovabili spesso non sono i fotoni del Sole, ma gli atomi della Terra, con tutti i problemi prospettati nella sezione precedente. Accade così che mentre la transizione dall’economia lineare all’economia circolare deve fare fulcro sulle energie rinnovabili, la disponibilità di queste ultime è a sua volta legata all’uso delle materie prime secondo i principi dell’economia circolare: risparmio, efficienza e riciclo (Figura 2).

Chimica verde

L’industria chimica in passato aveva come unico traguardo un’alta resa di produzione, senza troppe preoccupazioni per la compatibilità ambientale dei prodotti, sottoprodotti, rifiuti, solventi e catalizzatori, nonché per i consumi idrici ed energetici; a volte, non si è valutata con cura neppure la potenziale pericolosità degli impianti. Nell’ultimo decennio sono stati fatti notevoli progressi, ma molto c’è ancora da fare per giungere ad un Chimica sostenibile, cioè che fornisca quello di cui abbiamo bisogno senza far danni al pianeta e ai suoi abitanti.

Chimica per il Terzo Mondo

Miliardi di persone vivono in paesi tecnologicamente sottosviluppati dove i sofisticati e costosi processi chimici dell’industria non si possono utilizzare. In questi paesi la Chimica deve inventare soluzioni tecnicamente accessibili ed economicamente sostenibili per risolvere problemi di base legati all’acqua, al cibo e all’energia.

 

Monitoraggio, raccolta di informazioni

Un campo particolarmente importante della Chimica è quello dei sensori per monitorare l’ambiente, i cibi, i materiali, le merci, la salute dell’uomo e la sicurezza pubblica. Per esempio, nella difesa contro il terrorismo la Chimica può dare un contributo fondamentale nel prevenire l’attacco, nel controllarlo e nel fornire prove sull’accaduto. In un mondo che diventa via via più complesso e globalizzato ci sarà sempre più bisogno di raccogliere ed elaborare informazioni anche per svelare truffe come, ad esempio, quella messa in atto dalle case automobilistiche, in particolare dalla Volkswagen, per quanto riguarda il livello di sostanze inquinanti prodotte.

Conclusioni

Negli ultimi decenni il mondo è profondamente cambiato. Siamo in una nuova era, l’Antropocene [1], che anche la Chimica ha contribuito a forgiare. Appare evidente che i progressi della scienza e della tecnologia e l’uso dei combustibili fossili [15] hanno rafforzato le mani dell’uomo, ma hanno aumentato la fragilità del pianeta. Scienziati e filosofi sono preoccupati per il futuro dell’umanità. Secondo Zygmunt Bauman, la scienza e la tecnica hanno fatto vincere all’uomo molte battaglie contro la Natura, ma ora rischiano di farci perdere la guerra causando l’irreversibile degrado del pianeta. Hans Jonas ha scritto che è lo smisurato potere che ci siamo dati, su noi stessi e sull’ambiente ad imporci di sapere che cosa stiamo facendo e di scegliere in quale direzione vogliamo inoltrarci. Umberto Galimberti è più pessimista: “L’uomo è impotente contro la scienza, perché la scienza è più forte dell’uomo. La domanda non è più cosa possiamo fare noi con la scienza e la tecnica, ma che cosa la scienza e la tecnica possono fare di noi”.

In questo quadro, è evidente che molte cose devono cambiare nella politica, nell’economia e nella scienza. La Chimica, la scienza che più interagisce con l’uomo e con l’ambiente, deve reinventare il suo ruolo in questo nuovo mondo. Ha il dovere di trovare soluzioni per i problemi che essa stessa ha contribuito a creare in passato e deve svolgere un compito di importanza fondamentale: mettere a disposizione dell’umanità energia, materiali e prodotti di sintesi senza compromettere l’integrità dell’ambiente e la salute dell’uomo. Il ruolo che la Chimica deve giocare, oggi e domani, è quindi addirittura più importante di quello che ha svolto in passato. Infatti, anziché sfruttare opportunità per un generico sviluppo industriale, deve contribuire a risolvere problemi urgenti, quali il cambiamento climatico, l’inquinamento, la conversione delle energie rinnovabili in energie di uso finale, la disponibilità di cibo e acqua, il recupero dei materiali, la preparazione di farmaci per le popolazioni del terzo mondo e la riduzione delle disuguaglianze. E non c’è dubbio che dall’impegno volto a risolvere questi problemi pratici nasceranno nuove idee e scoperte fondamentali.

C’è molto bisogno di una nuova Chimica e quindi di giovani che vi si dedichino, consapevoli della grande missione che li aspetta.

[1] V. Balzani, Sapere, agosto 10-15, 2015,

[2] N. Armaroli, V. Balzani: Energia per l’astronave Terra, Zanichelli, 2011.

[3] U. Bardi: Extracted: How the Quest for Mineral Wealth Is Plundering the Planet, Chelsea Green, White River Junction, Vermont (USA), 2014.

[4] V. Balzani, M. Venturi: Energia, risorse, ambiente, Zanichelli, 2014.

[5] http://www.accordodiparigi.it/

[6] Francesco: Laudato si’, Lettera enciclica sulla cura della casa comune, Paoline Editoriale Libri, 2015.

[7] http://www.scienzainrete.it/contenuto/articolo/La-fuga-dalla-realta-e-il-mito-della-crescita-infinita

[8] L.R Brown: World on the Edge: How to Prevent Environmental and Economic Collapse, Earth Policy Institute, Washington (DC), 2011.

[9] T. Piketty: Disuguaglianze, Università Bocconi Editore, 2014

[10] http://ar5-syr.ipcc.ch/

[11] V. Balzani, La Chimica e l’Industria, ottobre 2016 (in stampa)

[12] http://www.regione.emilia-romagna.it/notizie/2015/maggio/nuovo-suv-lamborghini-firmato-a-palazzo-chigi-protocollo-dintesa-tra-ministero-sviluppo-economico-e-regione

[13] N. Armaroli, V. Balzani, Chem. Eur. J., 22, 32–57, 2016

[14] www.huffingtonpost.it/…/auto-elettriche-olanda_n_9640970.html

[15] Nel 2015, su scala mondiale abbiamo consumato ogni secondo 250 tonnellate di carbone, 1000 barili di petrolio e 105.000 metri cubi di gas.

 

Perché il blog cambia nome.

In evidenza

“La Società Chimica Italiana (SCI) ospita l’accesso a questo blog dal proprio portale web nella convinzione di contribuire al rapporto fra chimica e società civile ed alla disseminazione della cultura chimica; al tempo stesso ne sancisce l’assoluta autonomia e sottolinea che nessuna responsabilità su quanto in esso pubblicato è ascrivibile alla SCI.”

a cura di Claudio Della Volpe.

Il blog della SCI è al suo quinto anno di lavoro; ha iniziato infatti a pubblicare il 14 novembre 2012 e da allora ha pubblicato oltre 600 fra post e pagine (150 all’anno, uno ogni due o tre giorni) con molte decine di autori diversi ricevendo fra 900 e 1000 contatti in media per ogni post, 14000 ogni mese; nell’ultimo anno sfiora i 160.000 contatti.

blogsci2017Dietro questa mole di lavoro c’è una redazione di meno di dieci persone che scrivono e discutono insieme e il contributo di tanti altri che ogni tanto inviano il loro testo o filmato.

Siamo partiti con un nome “il blog della SCI” che faceva riferimento all’ambiente da cui veniamo fuori in maggioranza, la SCI, anche perchè riteniamo che il blog sia un modo per comunicare fra di noi e con il grande pubblico che è uno dei compiti della Società Chimica; l’art. 2 del nostro statuto recita:scopo1Mentre tutti gli altri punti sono sostanzialmente al centro dell’impegno della SCI il secondo item del punto 1 dell’articolo 2

scopo2non vede al momento numerose le opportunità di realizzazione concreta; il blog ci sembrava e ci sembra dunque uno dei modi di realizzare concretamente questo obiettivo.

In effetti guardando dall’esterno la SCI si presenta come una associazione essenzialmente universitaria (sui 3500 soci attuali 2500 dichiarano al momento dell’iscrizione di essere in qualche modo legati all’università: docenti, studenti, dottorandi, precari); all’esterno della SCI, il mondo della chimica è molto più variegato, dato che l’università copre solo qualche percento dei quasi 100.000 chimici del nostro paese (un numero che non vuole essere una stima esatta) e fra i quali la maggioranza fa tutt’altro lavoro: industria, terziario, scuola. Si capisce dunque la difficoltà legata al compito a dir poco immane di stare legati fra chimici e di essere presenti fra la popolazione più in generale. Ora mentre al primo di questi obiettivi concorrono molte delle iniziative scientifiche come i congressi o le riviste, a quelle divulgative e didattiche sono dedicati molti meno sforzi, nonostante l’impegno notevole che la sezione didattica sta sviluppando meritoriamente in questi anni (si veda anche il nuovo sito in corso di costruzione). Per esempio è chiaro che anche una partecipazione massiva alle Olimpiadi della Chimica di per sé non può coprire le esigenze di formazione generalizzata verso la popolazione più in generale; ci vuole un’approccio che non può fare a meno oggi dell’uso dei media moderni, la rete prima di tutto, e che sia costante e che impegni risorse intellettuali adeguate.

Non si tratta qui di un desiderio personale (o perfino politicizzato come qualcuno ha detto di recente) ma di uno scopo statutario e direi anche di una esigenza basilare: la chimica o riacquista una immagine positiva presso il grande pubblico oppure scompare dal novero delle scienze affidabili per la popolazione, giusto mentre il suo ruolo di fatto diventa quello di uno strumento comune e necessario a tutti i rami della produzione, col rischio di divenire mezzo di controllo e dominio invece che mezzo di liberazione.

Abbiamo condotto varie battaglie in questi quattro anni e le rivendichiamo orgogliosamente: contro l’uso dei neonicotinoidi in agricoltura, per una presa di posizione sulla questione climatica, per la chiusura delle piattaforme estrattive marine, per il nome Levio ad uno dei nuovi elementi e altre ancora.

Si tratta di prese di posizione legittime, basate su argomenti scientifici, sulla letteratura pubblicata; qualcuno ci ha chiesto di non andare oltre, o ha perfino sostenuto che su argomenti di questo tipo la chimica non può parlare; noi pensiamo al contrario che sia nostro dovere come chimici parlare e far sentire il peso dell’argomentazione scientifica e razionale sul terreno delle scelte sociopolitiche, per l’energia e le risorse, un terreno sul quale spesso avviene il contrario: la scienza viene usata come strumento di potere o di giustificazione, non come strumento di comprensione e liberazione.

Il CC della SCI ci ha chiesto di cambiare nome per evitare ambiguità; qualcuno potrebbe fraintendere che le posizioni espresse da noi siano le posizioni della SCI e perfino usare legalmente questo argomento; anche se a malincuore obbediamo a questa richiesta; riconosciamo al CC un sostanziale equilibrio nella decisione che ci lascia le medesime possibilità di prima (lo stesso supporto globale da parte della SCI) col solo cambio del nome.

Contestiamo un punto; questo blog NON è una scelta personale, NON è uno strumento dei membri della redazione; esso è un luogo culturale e mentale necessario alla SCI per attuare il proprio statuto; si è fatto il paragone con i blog di alcune società chimiche estere, che sono o strettamente di comunicazione passiva oppure che sono i blog di alcuni singoli; la questione secondo noi dovrebbe essere posta diversamente, la SCI deve essere presente nell’agone pubblico e non si può sempre pretendere di avere posizioni univoche su tutto, ma non si può nemmeno evitare di prendere posizione, quando la scienza e la chimica sono poste in discussione, sono l’oggetto del contendere o lo strumento di decisione o di discernimento.

antropocene2Il nostro nuovo nome sarà diverso da quello della rivista storica: La Chimica e la Società; il nostro referente infatti è la società nel suo complesso, non una sua parte, e il nostro oggetto sarà la Chimica dell’Antropocene, intendendo con questo termine, proposto anche da alcuni Nobel per la Chimica, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo. La Chimica (come tutte le scienze applicate alla produzione, come una delle pochissime che dà il nome ad un settore produttivo indispensabile e che di fatto è supporto per tutti gli altri) ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e l’economia circolare. Produrre linearmente, consumando risorse non rinnovabili e riempiendo la biosfera di rifiuti è un modo inaccettabile di fare chimica.

D’altronde i due aspetti naturali e sociali non sono separabili, non è possibile una soluzione solo tecnica che lasci invariate le tensioni legate ad una ineguale distribuzione delle risorse e della ricchezza.

La Chimica non può continuare a guardarsi l’ombelico, ma deve prendere coscienza del proprio ruolo produttivo indispensabile e farsi valere; dobbiamo acquisire quella indispensabile coppia di autorevolezza culturale e di indipendenza di giudizio che sole possono farci superare la crisi di credibilità che la chimica moderna vive: “chemical free” senza chimica è l’impossibile richiesta di quella parte ahimè maggioritaria di popolazione che non vede soluzioni all’invadenza ambientale e sociale di una scienza ridotta a mero strumento di profitto. Sta a noi fargli cambiare idea.

Mentre il nome, il motto del blog e il disclaimer cambiano rimangono invariati altri aspetti come i meccanismi di lancio dei post, il link in pagina web della SCI e i link dei vecchi files, oltre al piccolo supporto economico (100 euro) che ci consente di usare lo spazio WP.

Come scoprire la materia oscura con lo spettroscopio.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Il giorno di Natale 2016 è morta Vera Rubin, una della più grandi astronome di tutti i tempi e con la sua morte si è chiusa la possibilità di assegnarle il premio Nobel per la fisica (il premio può essere assegnato solo a scienziati viventi) per aver contribuito alla scoperta della materia oscura.

Come vedete non solo noi italiani avremmo da lamentarci per il comportamento delle commissioni Nobel, ma anche le donne; infatti delle 50 donne che hanno ricevuto il prestigioso riconoscimento (il 4%) solo 18 lo hanno ottenuto nelle materie scientifiche e di queste solo due in fisica (Marie Sklodowska e Maria Goeppert), Vera sarebbe stata la terza; casomai lo avrebbe condiviso con Jan Oort e Fritz Zwicky, morti anche loro. Ma non lo hanno ricevuto.

Cosa ha fatto di importante Vera?

Abbiamo già parlato di questi temi. Era nata nel 1928 da una famiglia dell’Europa dell’Est immigrata in USA; studiò fisica e si laureò in astronomia a Cornell.

rubin1

Vera Cooper Rubin at the Lowell Observatory. Kent Ford has his back to us. © Bob Rubin. Cit. da http://www.learner.org/courses/physics/unit/text.html?unit=10&secNum=2

Dato che era affascinata dal moto delle galassie la sua tesi fu su questo tema e scoprì che esisteva quello che oggi chiamiamo il superpiano galattico ossia il piano equatoriale del nostro gruppo “locale” di galassie; successivamente durante il suo dottorato alla Georgetwon University studiò proprio l’argomento dei gruppi locali di galassie e finalmente incontrò Kent Ford che aveva costruito il migliore spettrofotometro dell’epoca per applicazioni astronomiche basato su un sensibilissimo tubo fotomoltiplicatore. Le possibili applicazioni erano moltissime, ma per vari motivi legati all’uso del tempo macchina sui grandi telescopi decisero di usarlo per analizzare il moto di Andromeda, uno dei più begli oggetti celesti visibili nell’emisfero occidentale, una galassia che è anche per inciso la più vicina a noi, la nostra più stretta compagna di viaggio.

Questo lavoro pubblicato nel 1970 (dal quale sono tratte le immagini seguenti) segnò definitivamente la sua vita scientifica. Vera era al tempo l’unica donna autorizzata a mettere le mani sul prezioso telescopio da 5 metri di Monte Palomar, all’epoca il maggiore del mondo e fece fruttare le sue capacità.

rubin2Esaminò il moto di numerose zone della grande galassia e trovò un risultato sconcertante; tutto sommato il metodo è semplice e si può realizzare anche in modo casalingo seppure non a questo livello di sensibilità. Per esempio si può sfruttare da casa per misurare la velocità di rotazione del Sole con buona approssimazione. Si tratta di sfruttare l’effetto Doppler applicato alle radiazioni luminose; se un oggetto che emette radiazioni si avvicina o si allontana da noi succede quello che avviene anche con le oscillazioni sonore; se il generatore si allontana la frequenza diminuisce mentre se si avvicina la frequenza aumenta; (questo corrisponde a sentire più acute le sirene delle ambulanze che si avvicinano a voi e più profonde quelle che si allontanano). Fateci caso la prossima volta che un’ambulanza vi sorpassa.

rubin3Con la luce questo corrisponde al fatto che le radiazioni si spostano rispettivamente verso il violetto (si avvicina) o verso il rosso (si allontana). Dato che è possibile apprezzare le bande di emissione e di assorbimento di oggetti come Andromeda con grande precisione, per esempio come vedete nella figura le radiazioni dell’idrogeno (Hα e Hβ a circa 656 nm, la quarta della serie di Balmer nel visibile) che ne costituisce buona parte della massa, si può capire a quale velocità relativa ruotino le diverse parti della galassia e le velocità relative (si possono apprezzare pochi chilometri al secondo di differenza) misurando lo spostamento delle righe dell’idrogeno nelle due direzioni; i risultati degli spettri precedenti sono alquanto “piatti”, ossia la velocità di rotazione di Andromeda è costante in qualunque zona la si consideri, come si vede anche nel grafico qui sotto; Andromeda ruota come un oggetto solido, come a volta fanno vedere nei film di fantascienza! Ma questo è in enorme conflitto con la legge di gravitazione universale; nel nostro sistema solare i pianeti più lontani dal Sole ruotano più lentamente e ci si aspetta che lo stesso facciano anche le galassie, ma non è questo il caso; la cosa sarebbe spiegabile solo se la massa di quelle galassie fosse molto maggiore di quella stimabile dalla loro luminosità.

rubin4Rubin e altri astronomi confermarono questo risultato su decine di altre galassie e la risposta costante fu che le galassie NON ruotano come ci si aspetterebbe; lo strumento fu prevalentamente lo spettroscopio, l’umile spettroscopio che usiamo anche noi ogni giorno in laboratorio.

Quali spiegazioni ci sono?

O la legge di gravitazione non funziona a grandi distanze, oppure esiste una massa “oscura” che non si vede, che non si può stimare con i metodi tipici dell’astronomia (che è in grado di correlare la massa di un oggetto stellare e la sua luminosità); questa seconda spiegazione è quella oggi accettata e che ha portato al fermento di studi sulla materia oscura; una massa ben più grande di quella visibile, ma costituita di particelle elementari debolmente interagenti con le altre e che si concentrerebbe sul piano galattico (e se è per questo sarebbe presente in ogni dove, anche attraverso il vostro corpo mentre mi leggete e la sua massa sarebbe varie volte maggiore della vostra). Un universo parallelo di materia oscura permea secondo questa teoria ogni parte dell’universo visibile; date le striminzite interazioni possibili fra la materia oscura e quella normale di cui siamo costituiti nulla di significativo avviene se non il reciproco effetto gravitazionale.

Vera non era entusiasta di questa interpretazione:

mi piacerebbe sapere che le leggi di Newton possano essere modificate in modo da descrivere correttamente le interazioni gravitazionali a grandi distanze. Questo è più attraente di un universo pieno di un nuovo genere di particelle sub-nucleari“. · ^ (EN) Michael Brooks, 13 things that do not make sense, in New Scientist, 19 marzo 2005;

Questa posssibilità è al momento esclusa e d’altronde recentemente sono state individuate galassie non lontane e composte quasi interamente di materia oscura.

Voi che ne dite?

Chimica e biologia : pensieri.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex Presidente SCI

La biomassa come materia prima rinnovabile prodotta per biosintesi è oggi oggetto di particolare interesse sia a fine di risorsa alimentare sia di substrato per processi biotecnologici produttivi. Una politica di produzione energetica basata su biomassa richiede grandi quantità di terra e di acqua e si combinerebbe assai bene con la crescita delle attività agricole, ma d’altra parte creerebbe problemi in termini di erosione del suolo, mancanza d’acqua e perdita di nutrienti. In aggiunta la conversione degli ecosistemi naturali in piantagioni finalizzate a produzioni agricole per biomassa altererebbe l’habitat naturale favorendo le monoculture più facilmente aggredibili da insetti.

biomasseLa produzione di etanolo da grano e materie alimentari per produrre gasolio contrasterebbe con elementi etici connessi al principio di bruciare cibo (si pensi alle campagne sulla “fame nel mondo”), per le automobili. Quali sarebbero gli impatti sulla conservazione delle specie per piante impiegate in processi biotecnologici perché ricche di zucchero o di amido?

La definizione della vita come un lasso di tempo che ne limita geneticamente la durata minimizza l’importanza dell’ambiente nel determinare tale durata. In più esso implica che le limitazioni genetiche siano immutabili, che i geni non possano essere modificati, il che è sostanzialmente falso. Le tecniche di ingegneria genetica sono largamente utilizzate per identificare e manipolare geni che controllano i processi di invecchiamento, e quindi di estinzione e rinnovamento, in un gran numero di organismi. Un certo numero di tali geni è stato identificato nei lieviti, il più semplice modello eucariota per studiare l’invecchiamento. Quando uno di questi geni è estromesso il tempo di vita si allunga del 50%. Quando poi si è visto che tale gene ha una sequenza genetica simile ad una di quelle che si ritrovano nell’uomo, l’interesse per questa scoperta si è amplificato.

621px-Schematic_relationship_between_biochemistry,_genetics_and_molecular_biology.svgLo stesso principio può essere applicato ad altre specie animali e vegetali con conseguenze determinanti ai fini della sopravvivenza e dei livelli di biodiversità.

La tecnica finora usata per la selezione delle nuove varietà di piante è basata sulla ricombinazione sessuale. Nei microrganismi, come anche nelle piante la ricombinazione origina nuove forme che vengono successivamente selezionate mediante coltivazione ed esame delle caratteristiche di ciascuna. E’ un lavoro lunghissimo, perché ogni fase richiede un ciclo di coltura e le piante per crescere richiedono molto tempo.

La possibilità di ottenere cellule vegetali in coltura, di trasformarle in protoplasti, di fonderli e di rigenerare quando si vuole la pianta, insieme con le possibilità offerte dall’ingegneria genetica, hanno destato molto interesse tra gli studiosi di genetica vegetale. Solo negli USA, sullo stimolo delle nuove tecnologie, sono sorte oltre 40 società di ricerca che si interessano di questi problemi. Si vedrà che, se le tecniche più specifiche come l’ingegneria genetica, pur avendo ottenuto apprezzabili risultati applicativi, sono ancora relativamente lontane da risultati applicativi,questi sono una realtà nel caso di tecniche più affermate quali la selezione di cellule mutate e la fusione di protoplasti.

fusioneprotoplastiLa possibilità di produrre facilmente piante con caratteristiche differenti è stata sfruttata selezionando tra le piante ottenute quelle dotate di caratteristiche utili. Ad esempio la canna da zucchero è attaccata da Helminthosporium sacchari, un fungo che produce una tossina dannosa alla pianta. Piante di canna da zucchero ottenute mediante rigenerazione di cellule indifferenziate sono state trattate con una soluzione di tossina prodotta dall’agente patogeno. Una percentuale molto elevata di esse (15-20%) era resistente alla tossina e tra queste un buon numero era resistente all’attacco del fungo. L’azione della tossina cominciava ad essere contrastata con una forma di “vaccinazione” metodologicamente esportabile ad altri casi ed ad altre situazioni. Strettamente correlato a questi esempi di biotecnologie vegetali è poi l’aspetto curativo delle cosiddette biotecnologie bianche applicate alla cura delle malattie con sempre maggior frequenza e che oggi trovano anche applicazione alla ricerca di ritardare l’invecchiamento e di modificare la durata della vita dell’uomo e di altre specie.

 

Etica della chimica e neoplatonismo.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

Luigi Campanella è stato recentemente eletto (con il maggior numero di voti) nello steering committee dello WP sull’Etica della Chimica di EuCheMS. Festeggiamo questa elezione ripubblicando un suo post recente sull’etica con una serie di aggiornamenti dell’autore.

a cura di Luigi Campanella, ex Presidente SCI

La trasformazione della società obbliga la chimica ad adeguarsi alle nuove richieste: da quelle di prima necessità a optional e specialità. In questi adeguamenti si sono presentate alla chimica sempre nuove sfide a in cui, proprio per contrastare l’impronta del peccato originale che la chimica pesante ha imposto purtroppo per lunghi decenni, il chimico ha cercato di innestare un comportamento sul quale i principi etici fossero ben presenti, e così nel tempo ha affrontato difficili situazioni che hanno richiesto l’assunzione di responsabilità, di codici di condotta, in definitiva di etica. Ripercorrendo gli ultimi 30 anni della storia della chimica sono molte le domande che più spesso il chimico si è dovuto imporre per salvaguardare l’etica della sua professione. Il brevetto è una forma di proprietà intellettuale, è un motore dell’economia; è giusto che lo sia anche quando conoscere il prodotto significa salvare vite innocenti?

etica2Quando si costruisce una molecola per un fine programmato giusto fa parte dell’etica scientifica prevedere i possibili altri usi della molecola inventata? È davvero accettabile che la sperimentazione animale sia assunta a metodo di riferimento per la valutazione di tossicità ed ecotossicità? La battaglia contro gli OGM su una base più culturale e politica che scientifica, è accettabile dinanzi allo spettro della fame nel mondo o non è più giusto battersi per una loro presenza controllata mettendo a comune metodi di valutazione? I risultati delle ricerche vengono sempre espresse in maniera responsabile e corretta o essi vengono influenzati dalla volontà di perseguire successi e di condizionare l’assegnazione di futuri finanziamenti? Siamo capaci come cittadini, ricercatori, chimici di sacrificare, sia pure in parte, le nostre libertà individuali in favore degli interessi più ampi della comunità sociale?

beckViviamo ormai nella “società del rischio” (un termine coniato da Ulrich Beck in un testo ormai classico con questo titolo che risale alla metà degli anni Ottanta), definita come la nuova fase della società industriale, in cui “il rapporto tra produzione di ricchezza e produzione di rischi s’inverte dando priorità alla seconda rispetto alla prima”. Secondo la formulazione che ne danno i due autori – Kourilsky e Viney – che per primi hanno affrontato la questione, “il principio di precauzione implica l’adozione di un insieme di regole finalizzate a impedire un possibile danno futuro, prendendo in considerazione rischi tuttora non del tutto accertati”. La precauzione occupa un atteggiamento intermedio fra quello in cui si applicano le procedure della prevenzione (cioè dell’attivazione di misure volte a evitare o a limitare le conseguenze di un agente di rischio accertato) e quello delle semplici congetture (che non giustificano la sospensione di uno sviluppo tecnologico utile del quale i futuri possibili effetti avversi, in assenza di evidenze anche parziali, possano soltanto essere ipotizzati). Qual è il livello di intermedialità ottimale? Tutte domande a cui non è facile dare risposte certe, ma noi cittadini e lavoratori (ricercatori scientifici nel mio caso) sappiamo che solo rispondendo con la nostra coscienza potremo contribuire alla crescita della Società, la cui trasformazione obbliga la politica ad adeguarsi alle nuove richieste: da quelle di prima necessità a optional e specialità. In questi adeguamenti si sono presentate sempre nuove sfide in cui sarebbe stato necessario innestare un comportamento sul quale i principi etici fossero ben presenti, per affrontare difficili situazioni che hanno richiesto l’assunzione di responsabilità, di codici di condotta, in definitiva di etica.

principiodiprecauzionePurtroppo l’esperienza vissuta ci insegna che purtroppo molto raramente tale richiesta è stata soddisfatta. Molti politici hanno tradito la fiducia in essi riposta per produrre il bene comune. In queste condizioni la democrazia affidata alle rappresentanze ha sofferto. Il politically correct è divenuta espressione a caratterizzare azioni e pensieri atipici, mentre tale carattere dovrebbe essere la norma.

In questo contesto la ricerca scientifica con i suoi pochi addetti, quindi depositaria di una modesta quota di voti, ha finito per non essere vista come un irrinunciabile strumento a cui affidare il bene comune (qualità della salute e dell’ambiente,sicurezza alimentare,beni culturali,sevizi),ma piuttosto come un esercizio autoreferenziato ed intellettuale.La politica dovrebbe essere l’applicazione del bene comune al fine di rimuovere gli ostacoli che si frappongono fra l’individuo e la sua completa realizzazione.

Qualsiasi diverso intendimento,per di più disconoscendo alleanza determinanti-mi riferisco proprio alla ricerca-è una politica del reale di tipo machiavellico,che finisce per giustificare con il fine il mezzo che si è scelto per raggiungerlo. La battaglia contro gli OGM su una base più culturale e politica che scientifica, è accettabile dinanzi allo spettro della fame nel mondo o non è più giusto battersi per una loro presenza controllata mettendo a comune metodi di valutazione? I risultati delle ricerche vengono sempre espressi in maniera responsabile e corretta o essi vengono influenzati dalla volontà di perseguire successi e di condizionare l’assegnazione di futuri finanziamenti? Siamo capaci come cittadini, ricercatori di sacrificare, sia pure in parte, le nostre libertà individuali in favore degli interessi più ampi della comunità sociale?

 

Le molecole della pubblicità: i saponi da barba.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo 

a cura di Mauro Icardi

La rasatura mattutina è un’operazione che molti uomini effettuano con regolarità. Per qualcuno a volte può diventare anche un fastidio, in particolare per chi si trova ad affrontare una barba cosiddetta “difficile”.
La barba come ogni altro tipo di pelo dell’essere umano è chimicamente composto da cheratina, una proteina filamentosa ricca di zolfo molto stabile e resistente. Viene prodotto negli strati profondi dell’epidermide e migra verso gli strati superiori fino ad addensarsi in cellule cornee che hanno perso il nucleo. Sono in sostanza cellule morte molto ricche di cheratina e quindi molto dure e resistenti.

schema-pelo

La stessa parola cheratina deriva dal greco kèratos che significa corno.
Tra gli uomini che si radono la percentuale di chi usa il rasoio elettrico, rispetto a chi preferisce il rasoio a mano e la schiuma da barba è sostanzialmente suddivisa al 50%. Dopo il grande successo del rasoio elettrico negli anni cinquanta, dai primi anni 60 si è assistito ad un graduale ritorno della rasatura ad umido.
Per questi ultimi a dispetto di quanto viene decantato negli spot pubblicitari e a fronte dell’aumento nel tempo del numero delle lame nei rasoi usa e getta, tagliare via peli molto corti dal volto non è un’operazione del tutto indolore.
Le cellule dei peli della barba non contengono alcuna struttura vivente che possa mandare stimoli dolorosi al cervello. Sfortunatamente non è così per le cellule epidermiche che si trovano vicino ai pori dai quali i peli fuoriescono. In realtà il pelo della barba viene scalfito ed inciso, prima di venire strappato via parzialmente. A consolazione degli uomini che si radono (tra cui chi scrive) bisogna ricordare che per le generazioni passate era anche peggio. Alessandro Magno voleva che i suoi soldati fossero rasati, in maniera che in combattimento i nemici non potessero afferrarli per la barba. Ma per rasarsi venivano offerti rudimentali pugnali di bronzo oppure pezzi di selce limati.

a-magno

I Romani non conoscevano unguenti o oli per il volto, e nel XV secolo Luigi XI promosse l’uso del rasoio a lama che fu molto presto ribattezzato tagliagola. La stessa etimologia della parola rasoio deriva da radère cioè “raschiare”.
La rasatura a secco è difficoltosa per la rigidità della cheratina, e per la presenza intorno al pelo di grasso e sporcizia. Quindi si ammorbidisce lo strato esterno del pelo con acqua e con prodotti che sciolgano il film lipidico e facciano rigonfiare la cheratina. La vecchia ciotola del barbiere conteneva di solito un sapone costituito da idrossido di sodio e di potassio con una miscelazione di stearina e olio di cocco.

savons20

Stearina

Erano comuni anche i saponi solidi di forma cilindrica (che ho personalmente utilizzato durante il servizio militare). I saponi da barba di alta qualità per la maggior parte sono triple-milled. Che vuol dire? Il sapone è un normale sapone ottenuto per reazione di saponificazione che viene poi finemente disperso con un’operazione di fresatura, schiacciato e amalgamato in un macchinario a rulli ottenendo una pasta, e la procedura viene ripetuta per tre volte. In questa maniera si distribuiscono uniformemente le eventuali fragranze e i profumi che possono essere presenti nella formulazione.

saponidabarbaQuesta lavorazione conferisce una migliore qualità e una durata di gran lunga superiore (un buon triple-milled usato senza sprechi può durare a lungo e compensare il maggior costo rispetto ad una crema o una schiuma da barba). L’origine di questo prodotto ça va sans dire è francese perchè il metodo della tripla macinazione proviene dai maestri saponieri di Francia.

Le creme da barba sono normalmente costituite da saponi potassici e trietanolamminici e spesso nella formulazione si trovano componenti che hanno il compito di proteggere lo strato grasso della pelle (vaselina e lanolina) e prodotti idratanti come la glicerina.
Anche le creme da barba non schiumogene hanno composizione simile, contengono eccipienti come gli alginati e sali a reazione alcalina quindi molto ammorbidenti come i fosfati.

I saponi da barba spray, cioè le schiume da barba contengono nella loro formulazione molta aria inglobata, ingrediente di fatto di bassissimo costo e che troviamo in moltissimi prodotti industriali, come gelati e dentifrici. Nel caso della schiuma da barba garantisce la spumosità, mentre nel caso dei gelati ad esempio agisce da cuscino termico rallentandone lo scioglimento. In ogni caso l’aria è utilizzata per aumentare il volume di un prodotto industriale, e qualunque ingrediente come questo rende decisamente redditizia la produzione.
Ma non solo, in una schiuma da barba possiamo trovare anche propellenti che di solito sono di solito butano, isobutano e propano che hanno la funzione di gonfiare la schiuma appena si preme il pulsante del barattolo per farla fuoriuscire.

isobutano

Ovviamente si trovano saponi come base nella formulazione per i rigonfiamento del pelo, di solido a base di acido palmitico e stearico.

Durante la rasatura se si verificano piccole perdite di sangue è diffuso l’uso dello stick emostatico che normalmente è allume, solfato di alluminio e potassio KAl(SO4)2 .12 H2O con l’aggiunta di agenti antibatterici.
Anche per la rasatura a secco possono essere usati prodotti prerasatura. Per esempio le polveri a base di talco, stearato di magnesio o di zinco e agenti neutralizzanti quali il carbonato di calcio vengono usate per la loro proprietà astringenti in caso di pelle umida o grassa. La stessa funzione viene espletata dai prodotti in gel che sono ad alta percentuale alcolica (per lo più composti da etanolo). L’etanolo ha azione rinfrescante e ovviamente disinfettante. Ma in questo tipo di prodotti compaiono anche le imidazoline, Imidazole_chemical_structure

composti eterociclici derivati dall’imidazolo che hanno azione vasocostrittrice e provocano la contrazione del muscolo erettivo pilifero.

crema-barba-eucalipto1-700x531

Al termine dell’operazione di rasatura solitamente si usano prodotti dopobarba perché date le premesse è improbabile che l’operazione di rasatura non abbia lasciato irritazione, cioè un parziale danneggiamento dello strato cutaneo esterno. I prodotti dopo barba devono quindi avere funzione lenitiva e ripristinare lo strato acido cutaneo danneggiato. La composizione di questi prodotti di solito prevede insieme all’etanolo anche percentuali di acidi deboli come lattico, citrico o tartarico che servono a ripristinare il normale valore del pH epidermico. Per aumentare la sensazione di freschezza vengono aggiunti estratti al mentolo o prodotti canforati che hanno anche un blando effetto anestetico, così come la benzocaina.

315px-benzocaina_struttura-svgCome si può vedere una semplice operazione di rasatura può diventare anche uno strazio, più che un piacere (e questo mi fa venire in mente i tormenti femminili per problemi di epilazione, tra creme depilatorie e cerette).

after-shaving

Ma se queste piccole mutilazioni quotidiane vanno oltre la sopportazione si può sceglier di fare come gli antichi romani. Essi per due secoli sopportarono l’uso di dure e ben poco affilate lame di ferro per radersi, fino a quando l’imperatore Adriano riuscì ad escogitare un’efficace stratagemma per ridurre le pene provocate dall’uso di queste lame. Si fece semplicemente crescere la barba, incoraggiando i sudditi a fare altrettanto!

La Chimica.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo 

a cura di Luigi Campanella, ex-Presidente SCI

La chimica è forse il più antico tra i saperi dell’uomo. Perché nasce, come pratica, centinaia di migliaia di anni fa, non appena la specie homo riesce a controllare il fuoco e le trasformazioni della materia che produce. La chimica come scienza, tuttavia, è molto più giovane e nasce, sostengono molti storici, solo nel XVII secolo dell’era cristiana. Quando il sapere chimico si affranca dall’esoterismo del sapere alchemico e si propone come scienza fondata sulle «sensate esperienze» e sulle «certe dimostrazioni», utilizzando come strumento principe la bilancia.

Ma di cosa si occupa questo nuovo eppure antico sapere? «La chimica è un’arte – scriveva nel 1610 il farmacista francese Jean Beguin in un libro, Tyrocinium Chimicum, che può essere considerato uno degli atti fondativi della nuova scienza – il cui oggetto è il corpo misto e composto, non in quanto mobile, per­ché sotto questo aspetto esso appartiene alla fisica, ma in quanto è solubile e coagulabile».

tyrocinium_chymicumJean Beguin individua uno spazio tra la scienza che studia i corpi e il loro moto, la fisica, e la scienza che studia la materia vivente, la medicina (oggi la chiameremmo biologia). Questo spazio riguarda i corpi misti e composti, cioè tutta la grande varietà di materia con la quale abbiamo a che fare nella nostra vita quotidiana, ma non in quanto mobile, cioè in quanto materia che si muove. Se si muove, dice, è un problema dei fisici. A noi interessa la materia solubile e coagulabile, cioè la materia che si trasforma. Come un albero, bruciando, diventa in parte gas (anidride carbonica) e in parte liquido (acqua). Come un acido aggressivo (l’acido solforico) reagisce con un metallo inerte, per esempio il rame, e insieme si trasformano in un sale: il solfato di rame, efficace nella lotta a un fungo, la peronospora, che attacca la vite.

Alla fine dell’Ottocento i chimici hanno già riconosciuto la natura atomica e molecolare della materia che manipolano. E i chimici conoscono le leggi fondamentali che regolano la struttura e le trasformazioni della materia. Riescono a predire l’esistenza e persino il comportamento degli atomi e delle molecole.

Ma non sanno ancora bene né cosa sia un atomo o una molecola, né quali siano le cause di quei comportamenti.

La svolta si realizza tra il 1916 – quando Gilbert Newton Lewis propone che il legame chi­mico consista in una coppia di elettroni condivisa da due diversi atomi – e la fine degli anni Venti, quando i fisici gettano le fondamenta fisico-matematiche della nuova meccanica quantistica, cioè della scienza che spiega il comportamento della materia a livello microscopico. Cosi nel 1939 il chimico americano Linus Pauling può pubblicare un libro, “The Nature of Chemical Bond“, dove può finalmente spiegare, in termini quantistici, che cos’è il legame chimico, ovvero come e, soprattutto, perché gli atomi si combinano tra loro per formare molecole.

Linus_Pauling_1962La chimica però si occupa anche delle proprietà collettive della materia. Ovvero di proprietà che non sono la semplice somma delle proprietà degli oggetti che la compongo.

L’acqua che beviamo, lo sanno tutti, è un liquido. Ma nessuna singola molecola d’acqua è liquida. La «liquidità» è una proprietà collettiva delle molecole d’acqua, una caratteristica che emerge quando molte molecole di acqua si riuniscono insieme in certe condizioni ambientali (tra 0 e 100 °C di temperatura alla pressione di un’atmosfera).

In questo secolo la chimica ha anche assunto il ruolo di scienza di base per molte altre discipline che si sono sviluppate partendo dai suoi principi. La conoscenza chimica è infatti uno strumento, un linguaggio, una filosofia naturale, utilizzata da tutte le altre scienze. In questo senso oggi la chimica è uno strumento per il lavoro scientifico, cosi come da tempo lo sono la matematica e la fisica.

Nelle scienze dei materiali e nelle cosiddette nanotecnologie, per esempio. Per tutto il XX secolo e, ancor più, adesso la chimica ha prodotto e continua a produrre nuovi materiali che hanno profondamente modificato e migliorato il nostro modo di vivere: dalla plastica alle gomme, dai fertilizzanti per l’agricoltura ai medicinali di sintesi, dalle nuove leghe metalliche, alle ceramiche, alle fibre di carbonio. Oggi le nanotecnologie sono considerate – insieme alle biotecnologie e alle tecnologie informatiche – il triangolo su cui si fonda la società (e l’economia) della conoscenza. Le nanotecnologie altro non sono che chimica applicata a livello atomico e molecolare.

La moderna biologia, peraltro, è biologia molecolare. E quest’ultima altro non è che un modo diverso di chiamare la “chimica biologica”, inaugurata da Lavoisier alla fine del XVIII secolo. D’altra parte le cellule sono delle vere e proprie fabbriche chimiche, in cui in maniera incessante le molecole vengono metabolizzate (distrutte) e sintetizzate (prodotte). Tutte le biotecnologie, pertanto, sono una speciale applicazione della chimica.

La verità è che troviamo la chimica – e i chimici – dappertutto. Nello spazio, per esempio. Dove una speciale disciplina, l’astrochimica, guarda al cosmo come a un produttore di sostanze chimiche semplici e complesse. Gli astrochimici hanno individuato centinaia di composti «fabbricati» sui pianeti, sulle comete e sugli asteroidi, persino nelle nuvole galattiche. Alcuni nuovi composti, come i cosiddetti “fullereni” sono stati poi sintetizzati sulla terra per ottenere nuove applicazioni.

astro2Ma la chimica la troviamo, eccome, anche sulla Terra. La “chimica ecologica” è uno stru­mento indispensabile per gli scienziati che cercano di capire le relazioni tra gli esseri viventi e l’habitat in cui vivono. E sempre la chimica è lo strumento indispensabile per capire come funziona il pianeta Terra e, in particolare, quella sua piccola ma decisiva parte che chiamiamo biosfera. È grazie ai lavori di grandi chimici – da Svante Arrhenius all’inizio del XX secolo a Crutzen, Molina e Rowland alla fine del secolo – che abbiamo capito come funziona il clima del pianeta Terra e come l’uomo, con i suoi comportamenti, ne sta accelerando le dinamiche.

fosforo25Certo, un uso improprio dei nuovi composti sintetizzati dai chimici, o dei metodi di pro­duzione troppo rivolti al profitto e poco attenti alle con­seguenze, hanno avuto ed hanno tuttora un forte impatto ambientale. Ma è anche vero che per limitare questo impatto c’è bisogno di tutto il sapere e di tutto l’impegno dei chimici, e di una maggiore conoscenza della chimica e consapevolezza del suo modo di operare da parte di tutta la società.

Le molecole della pubblicità: l’anticalcare.2.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo  

a cura di Claudio Della Volpe

la prima parte di questo post è pubblicata qui

Nella prima parte del post abbiamo parlato di anticalcare su superfici esposte (vetro, mattonelle). La situazione dei tubi delle lavatrici, lavastoviglie e in genere delle superfici metalliche di dispositivi che flussano acqua è molto diversa e qui la storia si fa più complessa ancora.

La quantità di calcio in acqua dipende dalla sorgente; storicamente viene indicata con il concetto di “durezza” dell’acqua; nel nostro paese ci sono zone ad acqua dura specialmente nel centro Italia: Lazio e Umbria classicamente ma anche alcune zone di Piemonte e Lombardia o di altre regioni con terreni vulcanici più limitatamente e l’acqua dura è un problema non solo in casa ma soprattutto nell’industria ed è a questo target che si rivolgeva il calgon.

Per durezza dell’acqua si intende un valore che esprime il contenuto totale di ioni di calcio e magnesio (provenienti dalla presenza di sali solubili nell’acqua) oltre che di eventuali metalli pesanti presenti nell’acqua. Generalmente con questo termine si intende riferirsi alla durezza totale; la durezza totale è somma della durezza permanente, che esprime la quantità di cationi rimasti in soluzione dopo ebollizione prolungata, e della durezza temporanea, che per differenza tra le precedenti durezze, esprime sostanzialmente il quantitativo di idrogenocarbonati (o bicarbonati) presenti nell’acqua prima dell’ebollizione.

mappadurezza

http://www.watermarket.it/test-addolcitore; per maggiori info: http://assocasa.federchimica.it/DUREZZAACQUA.aspx si tenga presente che i limiti “pratici” di uso sono puramente indicativi e che la maggior parte della mappe di questo tipo sono prodotte da chi vende gli addolcitori.

 

Calgon è un marchio che viene dalla frase inglese calcium gone, il calcio è andato.

calcare8Calgon è un marchio storico; l’invenzione è del 1933. Il Calgon un addolcitore dell’acqua (termine che indica la capacità di ridurre la concentrazione di calcio ione) fu introdotto sul mercato in quell’anno dalla Calgon, Inc. of Pittsburgh, Pennsylvania. Calgon, Inc. è stata poi acquistata da Merck nel 1968 e poi rivenduta. Oggi il marchio Calgon è della Reckitt Benckiser per l’Europa come addolcitore di acqua e della Ilex Consumer Products Group in USA dove è posizionato come prodotto di bellezza!!! Di fatto il termine Calgon è entrato nel linguaggio anglosassone ed americano non solo tramite gli slogan, ma anche perchè usato in film e spettacoli. (https://en.wikipedia.org/wiki/Calgon).

calcare18Renckitt Benckiser è una multinazionale di prodotti chimici per la casa e la persona con origini che risalgono al 1823 e un fatturato di oltre dieci di miliardi di dollari; marchi posseduti fra gli altri: Gaviscon, Durex, Calgon, Vanish.

Cosa è il Calgon allora per coprire settori così diversi come la cura della persona e della lavatrice?

E’ un agente complessante, ossia una molecola che interagisce con gli ioni di calcio bloccandone la disponibilità in soluzione e rendendo termodinamicamente sfavorita la formazione di un precipitato o comunque le sue reazioni con altre specie. La reazione più importante in ambito di detergenza è quella di formazione dei sali di calcio dei saponi; i saponi sono di fatto sali di sodio e di acidi grassi, RCOONa; ora se sostituiamo al sodio il calcio abbiamo un sale molto meno solubile e la potenza detergente del sapone ne soffre mentre il precipitato infeltrisce i tessuti.

Quindi il ruolo dell’addolcitore è di catturare, intercettare il calcio (e altri ioni di metalli) e impedirgli di formare sali insolubili del detergente o di qualunque altra cosa. I detergenti di massa, i saponi esistono da meno di mille anni (dal XII secolo) e sono diventati di uso comune solo negli ultimi due o tre secoli; la regina Elisabetta I di Inghilterra morta nel 1603 si lavava “una volta al mese, ne avesse bisogno o meno”; figuratevi gli altri!! Oggi ci laviamo tutti (beh quasi…nei paesi occidentali, nei paesi poveri l’acqua da bere (!!) è ancora un problema per centinaia di milioni di persone).

Originariamente si è usato e per certe applicazioni si usa ancora come complessante/addolcitore il sodio esametafosfato, un oligomero di NaPO3 che ha dato l’immagine al Calgon e da cui ha tratto il nome comune che si identifica col fosfato.

Il sodio (esa)metafosfato, chiamato anche impropriamente Calgon, per motivi storici, si ottiene per riscaldamento del fosfato monosodico ed è una polvere fine, abbastanza solubile in acqua, costituita da catene fino a 25 unità di NaPO3. E’ molto igroscopica.calcare19

Il sodio esametafosfato è universalmente usato per ottenere una immediata dispersione dei pigmenti nel settore delle pitture per esempio. In particolare il sodio esametafosfato ha il potere di mantenere in soluzione gli ioni dei metalli polivalenti, specialmente Ca, Mg e Fe anche in presenza di anioni ad azione precipitante con formazione di sali complessi solubili.

Esso agisce di conseguenza come inibitore della corrosione verso il ferro, il rame, lo zinco e l’alluminio e quindi è usato industrialmente.

calcare20L’uso di questo prodotto e dei suoi similari polifosfati in grandi quantità ha però un effetto devastante sull’ambiente, perché il fosforo è un elemento limitante nella crescita degi organismi e la sua aggiunta in grandi quantità alle acque di fiumi, laghi e del mare favorisce la crescita di organismi che alterano l’equilibrio ecologico; nel tempo ne è stata proibita l’aggiunta ai detersivi (e anche a molti alimenti sempre per problemi di chelazione degli ioni utili) proprio per evitare questo pericoloso effetto collaterale. E’ rimasta invece in altri settori come l’industria tessile, le vernici, il restauro, la protezione dei tubi metallici, etc

Al momento la composizione del Calgon (o Calfort ma solo in Italia per un certo tempo) nel settore detersivi è dunque diversa; il metafosfato è stato sostituito da altri agenti adsorbenti e complessanti: zeoliti e policarbossilati. Ci sono o ci possono essere altri ingredienti per scopi diversi( dare volume alla polvere: solfato di sodio; cellulosa: aiutare a rompere la polvere quando si bagna, la cellulosa si rigonfia; etc etc).

Come funzionano zeoliti e policarbossilati?

calcare21

Parte della struttura di una zeolite mostrante uno dei suoi ‘tunnels’. In Blu gli Al3+ e in rosso Si4+ (dalla pagina RSC – Courtesy of molecularsieve.org)

La zeolite è un minerale microporoso usato come catalizzatore in molti processi industriali come la purificazione dell’acqua e dell’aria. Le zeoliti sono alluminosilicati idrati e la loro composizioe generale è AlxSiyO2(x+y)  (senza molecole di acqua). Le zeoliti sono di due tipi: naturali e artificiali. Quella naturale che si usa per addolcire l’acqua è la gluconite mentre la permutite è la zeolite sintetica, la più usata nell’addolcimento con una formula del tipo: Na2O, Al2O3, nSiO2, xH2O. Questi materiali sono usati come scambiatori di ioni e per rimuovere odori essendo la permutite più porosa, vetrosa e con una maggiore capacità di addolcitore rispetto a quella naturale.

Le Zeoliti possono rimuovere Ca2+ and Mg2+ dall’acqua che le attraversa. Ma possono essere anche facilmente rigenerate e questo è stato il motivo di un grande successo commerciale.

Quando gli ioni di Ca2+ and Mg2+ presenti nell’acqua sostituiscono il sodio presente nella zeolite .

Na2Ze  + Ca(HCO3)2 → 2NaHCO3 + CaZe
Na2Ze  + Mg(HCO3)2 → 2NaHCO3 + MgZe
Na2Ze  + CaSO4  → Na2SO4 + CaZe
Na2Ze  + MgSO4 → Na2SO4 + MgZe

Quando tutti gli ioni sono sostituiti la zeolite diventa inattiva. A questo punto si può usare una salamoia per rigenerare la zeolite di partenza.

CaZe + 2NaCl → Na2Ze + CaCl2
MgZe + 2NaCl → Na2Ze + MgCl2

Nel caso del Calgon casalingo comunque l’uso del prodotto è a perdere o è comunque fatto una sola volta, la zeolite non viene ripristinata come potrebbe in un impianto a ciclo chiuso.

La formula del policarbossilato è mostrata qui di seguito, si tratta quindi di un polianione in grado di complessare gli ioni come il calcio o altri ioni metallici

calcare22

una parte di molecola di policarbossilato

Il policarbossilato cambia anche il pH dell’acqua e consente di gestire al meglio il ruolo della zeolite.

Esso può anche complessare ioni metallici e lavora esattamente come lavora il citrato, ma date le dimensioni maggiori della molecola di policarbossilato rispetto a quella di citrato la scala della sua attività è maggiore ed è attivo su particelle o quantità più grandi.

Questo meccanismo è mostrato grossolanamente nella seguente figura.calcare23pagina RCS: il polimero intercetta le particelle di calcare e ne previene la deposizione (in effetti intercetta gli ioni calcio)

Molte di queste immagini sono tratte da un sito gestito da Benckiser e da Royal Chemical Society, fatto veramente bene.

Per approfondire:

Sito Benckiser: http://www.rbeuroinfo.com/index.php?BRAND=Calgon&action=product_select.php&LANGUAGE=EN&COUNTRY=US#

Sito misto RCS-Benckiser: http://www.rsc.org/learn-chemistry/resources/chemistry-in-your-cupboard/calgon/10

Sito Benckiser Italia: http://www.prodottireckittbenckiser.it/flex/cm/pages/ServeBLOB.php/L/IT/IDPagina/234

 

Giudizi politici.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo  

a cura di Claudio Della Volpe

Con un articolo pieno di espressioni idiomatiche e quindi ben lontano dal gergo scientifico che la caratterizza Nature ha salutato le dimissioni di Matteo Renzi.

politici1Fa riflettere che la famosa rivista si sia impegnata nel raccogliere e pubblicare le opinioni di alcuni fra gli opinion leader della scienza italiana su questa questione, nel senso che fa capire l’interesse che il pubblico dei suoi lettori, in gran parte scienziati, ha per la situazione della scienza italiana, che pur impoverita dagli ultimi anni di disinvestimento continua tuttavia a svolgere un ruolo sia attivo che di preparazione di giovani leve che purtroppo se ne vanno all’estero a causa proprio dell’enorme disinvestimeno attuato finora (siamo ridotti a meno di 50.000 docenti universitari rispetto agli oltre 60.000 di pochi anni fa)(si vedano i dati in fondo al post).

L’articolo è intitolato: Gli scienziati italiani non sentiranno la mancanza del primo ministro Matteo Renzi.

Gli universitari dicono che il più giovane leader italiano ha sbagliato al momento di passare dalle parole ai fatti nel rafforzamento della ricerca.

L’autrice, Alison Abbott, lavora con Nature da oltre 20 anni e vanta un PhD in farmacologia, ma si è occupata spesso di politica della ricerca.

Inizia con un commento duro: “.. i ricercatori dicono di non essere particolarmente tristi per le dimissioni di Renzi. In quasi tre anni di governo Renzi che aveva promesso di migliorare lo stato dell’università e della scienza ha fallito nel migliorare lo stato della ricerca nel paese secondo gli scienziati, che si lamentano anche del fatto che egli abbia interferito direttamente in questioni di tipo accademico

Raccoglie al riguardo le opinioni di tre fra i più noti scienziati italiani:

politici2

Cesare Montecucco, professore ordinario di Patologia generale presso l’Università di Padova, esperto mondiale di neurotossine e vincitore del Premio Paul Ehrlich und Ludwig Darmstaedter nel 2011

“Renzi è diventato primo ministro durante una seria crisi economia e sociale e ha iniettato un senso di energia e di ottimismo nell’Università e nel settore della ricerca” “Le nostre aspettative sono aumentate, ma sono state in massima parte deluse.”

L’investimento procapite italiano in ricerca ed università è fra i più bassi d’Europa – sebbene il paese produca una quota maggiore dei lavori più citati rispetto alla media dell’Unione europea. Poco è cambiato in questo durante il governo renzi , dicono Montecucco ed altri scienziati. Renzi non ha partorito nulla di quello per cui questi scienziati si erano battuti a lungo: meno burocrazia per le istituzioni di ricerca e una nuova agenzia per il finanziamento sullo stile della US National Science Foundation.

L’articolo prosegue poi citando le varie decisioni che hanno contrassegnato l’azione del governo Renzi nel settore università e ricerca:

La decisione più controversa è stato il decreto Renzi del Novembre 2015 che ha creato un centro per la genomica a Milano con un investimento di 1.5 miliardi di euro (1.7 miliardi di dollari). Conosciuto come Human Technopole, esso si focalizzerà sulla medicina personalizzata e la nutrizione. Il nuovo progetto prevede un finanziamento annuo di 100 milioni di euro a partire dal 2018. Sebbene alcuni siano grati di questi fondi di ricerca , molti scienziati si lamentano che il maggiore investimento in un singolo nuovo progetto sia inappropriato mentre la maggior parte degli altri istituti di ricerca pubblici stanno letteralmente morendo di inedia. Essi obiettano anche al fatto che questo progetto di Renzi sia stato partorito col cotributo di pochi scienziati e a porte chiuse.

Nel settembre 2016 Renzi ha partorito l’idea di creare una elitè di professori conosciuta come cattedre Natta (dal nome del chimico e premio Nobel Giulio Natta), da assegnare principalmente a Italiani che lavorano all’estero. Essi sarebbero selezionati attraverso 25 commissioni di valutazione nominate dal primo ministro. Migliaia di professori hanno sottoscritto una lettera in ottobre lamentandosi del fatto che Renzi abbia deciso questo progetto senza discuterne con le Università e protestando per il coinvolgimento della politica nella selezione.

politici3

Giorgio Parisi, uno dei più noti fisici teorici del mondo, Medaglia Boltzmann per i suoi contributi alla fisica statistica, premio Dirac, premio Galileo, Premio Lagrange e Medaglia Max Planck; insegna meccanica statistica presso l’Università di Roma

“La nomina di commissioni da parte del primo ministro è assolutamente inaccettabile.” dice il fisico Giorgio Parisi della Università di Roma La Sapienza, uno dei principali critici del progetto. “E’ una scelta politica quella di fare le selezioni senza la partecipazione delle Università italiane, ma allora ci si potrebbe rivolgere ad organizzazioni universitarie estere, come quelle delle altre università Europee.”

Parisi è anche scontento su aspetti riguardanti il finanziamento 2017 delle università. In particolare una quota di 217 milioni di euro sarà riallocato ai dipartimenti che sono stati valutati dalla agenzia nazionale di valutazione ANVUR per aver avuto le migliori performances nella ricerca. Parisi pensa che i nuovi finanziamenti dovrebbero essere resi disponibili direttamente a coloro che hanno avuto queste elevate performances e non passare attraverso il finanziamento universitario generale, che è già particolarmente ridotto. “Questa riallocazione del governo significa che le università più deboli nel sud del paese perderanno ancora più denaro e questo sarebbe un disastro sociale”.

politici4

Elena Cattaneo, neuroscienziata di fama mondiale e senatrice a vita

Il nuovo governo sarà in carica fino alle prossime elezioni che potrebbero avvenire il prossimo anno. L’incertezza continuerà. I partiti populisti e di protesta, in particolare il movimento 5stelle diretto dall’attore Beppe Grillo è probabile che faccia un grande passo avanti nelle prossime elezioni. Questi partiti non hanno una agenda scientifica importante. La senatrice a vita Elena Cattaneo , che è anche neuroscienziata presso l’Università di Milano, ha un atteggiamento di attesa:

“Uno o due dei componenti dei partiti populisti dell’attuale Parlamento hanno dimostrato di essere più aperti alle discussioni su temi scientifici dei membri dei partiti di maggioranza.”

L’articolo è scaricabile integralmente qui.

Per documentazione:

per conoscere meglio le posizioni di Parisi potete ascoltare questo filmato.

alcuni dati:

politici6politici7

Le molecole della pubblicità: l’anticalcare.1.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo  

a cura di Claudio Della Volpe

L’acqua che usiamo tutti i giorni è di fatto una soluzione diluita di vari ioni fra i quali predominano sodio e calcio (e magnesio) fra i cationi e il cloruro e il carbonato fra gli anioni; quest’ultimo viene anche da una sorgente praticamente inesauribile, quel medesimo diossido di carbonio atmosferico che è il nostro cruccio climatico basilare (è inesauribile perchè alimentata a sua volta dal discioglimento della piattaforma carbonatica nel ciclo del carbonio su scala geologica).

calcare1

Lee R. Kump,James F. Kasting,Robert G. Crane-The Earth System-Pearson (2009)

Perfino quando distilliamo l’acqua, se non usiamo protezioni, la ridissoluzione del CO2 avviene in tempi brevissimi, spostando il pH verso valori di 5.5-6 e rendendo l’acqua distillata una soluzione acidula. La evaporazione, anche parziale, di una tale soluzione contenente ioni calcio, magnesio e carbonato lascia un velo di materiale insolubile costituito principalmente di carbonato di calcio (e magnesio a volte).

Questo dipende dal fatto che il prodotto di solubilità per questa coppia di ioni è:

calcare25in moli2. Una concentrazione dunque dell’ordine di 10-4 mol/litro di entrambi è sufficiente a far precipitare il calcare.

In realtà dato che la concentrazione di ione carbonato dipende da quella del diossido e dal pH a causa dell’esistenza dello ione bicarbonato, anche la solubilità del calcare dipende dal pH; se indichiamo la costante di equilibrio del bicarbonato/carbonato con Ka2, allora abbiamo

solubilità= [Ca2+] =√ Kps ( [H+]/Ka2 + 1) 

Comunque si tratta di una situazione comune e basta un pò di evaporazione a mettersi nelle condizioni adatte alla precipitazione del calcare.

Il calcare, questo il nome comune del composto, si rideposita dunque su tutte le superfici bagnate da un velo di acqua, come i vetri, i metalli, i tessuti, la pelle, etc.

In alcuni casi questo deposito compatto, rappresentato qui sottocalcare2ingloba e aiuta a trattenere sporco, polvere, detriti batterici, altri materiali (per esempio capelli e grasso cutaneo) e forma un film duro e compatto difficile da eliminare che tende a ricoprire le superfici ed otturare i tubi, bloccare i meccanismi, opacizzare tutto, un disturbo non da poco e contro il quale ci sono pochi strumenti efficaci.

calcare3dalla pagina RCS: Gli effetti del calcare: un elemento riscaldante nuovo e

….uno con depositi di calcare

calcare4dal sito RCS: Immagine SEM di fibre senza depositi di calcarecalcare5

dal sito RCS: Immagine SEM di fibre con depositi di calcarecalcare6Ovviamente si può agire ab-initio per così dire, ossia usare delle resine a scambio ionico, dei materiali polimerici porosi contenenti ioni di sodio per esempio che vengono messe a contatto con l’acqua e scambiano gli ioni sodio con quelli calcio, il sistema funziona, ma abbisogna di investimento iniziale e di ricambi continui oltre ad essere un dispositivo da tenere ben pulito dai batteri; alternative esotiche pure ce ne sono: c’è chi promette di liberarci dalla precipitazione del calcare usando “campi magnetici” o trattamenti elettromagnetici vari; la cosa è considerata in genere altamente dubbia sebbene ci siano in letteratura degli esperimenti che vanno in questa direzione.

Rimangono i rimedi della nonna e gli anticalcare commerciali.

Il rimedio sovrano della nonna è di ripassare le superfici o sciacquare i tubi e i meccanismi con una soluzione calda acida e l’aceto possiede i requisiti giusti, non è un acido forte, non è costoso, non è pericoloso; dunque aceto a volontà; tuttavia l’aceto ha anche i suoi problemi: efficace al momento, non preventivo, relativamente inefficace su depositi vecchi, cattivo odore, etc.

Personalmente nei tubi degli scarichi (non in lavatrice!) trovo utile combinare trattamenti acido-base: aceto caldo e poi soda caustica, per attaccare sia calcare che grassi.

Ci sono invece una serie di prodotti commerciali, “furbi” di cui discuteremo qui due esempi: Viakal e Calgon (2 parte del post), uno usato per le superfici e l’altro per le lavatrici (tubi e parti meccaniche in genere):come funzionano?

calcare7 calcare8

Viakal, un prodotto Procter&Gamble, una azienda multinazionale base in USA fondata nel 1837 che ha 110.000 dipendenti in 70 paesi. Possiede marchi come Gillette, Pantene, Vicks, OralB, Lenor, Febreeze e tanti altri.

Viakal ha una composizione abbastanza semplice: è una soluzione in cui ci sono due acidi: citrico e formico, l’acido degli agrumi e quello delle formiche per capirci, (anche se credo siano entrambi di origine industriale) ed un tensioattivo non-ionico. Tutti fra 1 e 5% di concentrazione. Teniamo presente che l’acido citrico è prodotto con un processo di fermentazione industriale, è un prodotto batterico per quel che può valere agli occhi del pubblico, solido a temperatura ambiente.

calcare9

acido citrico

calcare10

acido formico

L’acido formico invece è un prodotto di sintesi, prodotto la prima volta nel 1670 distillando ….formiche, liquido a t ambiente.

Non so se sapete che il bagno di formiche è usato dalla ghiandaia (e dal corvo) per liberarsi dai parassiti; quando ha troppi parassiti l’intelligente uccello si adagia su un formicaio in posa di attacco e le formiche le spruzzano l’acido formico. (http://www.isaporidisicilia.com/iboschidibuccheri/ghiandaia.htm)calcare11 calcare12

con reciproca soddisfazione.

calcare13

Struttura dello ione citrato 3-.

Il ruolo dei due acidi è chiaro, reagiscono col calcare e lo sciolgono; sono acidi deboli entrambi (Ka (I ionizzazione) dell’acido citrico 7.4x 10-3e formico 1.8×10-4) notate che la costante acida è maggiore per il citrico e minore per il formico e il citrico è più concentrato nel limone che nel Viakal (5-7%). Sconsigliamo di mescolare il prodotto con la candeggina per il noto motivo riportato qui qualche post fa da Mauro Icardi. Entrambi sono acidi più forti dell’acido acetico (Ka=1.8×10-5). E’ da considerare che l’acido citrico, nella forma di citrato, che è presente in soluzione comunque in bassa concentrazione, dato che il citrico è un acido debole, è anche un “complessante” dello ione calcio, ossia è in grado di mantenere in soluzione lo ione formando un complesso tenuto insieme dalle diverse cariche elettriche (negativo il citrato, positivo il calcio) . Alla fine della reazione l’acido citrico sarà diventato in massima parte citrato e allora diventerà anche un complessante. Questo ovviamente aiuta il processo finale.

I tre atomi di ossigeno o anche solo alcuni (1 o 2) carichi negativamente possono interagire con lo ione tenuto al “centro” della struttura:calcare14Quindi l’acido citrico ha un doppio ruolo, prima reagisce con il calcare e poi mantiene in soluzione lo ione.

Ma a cosa serve allora il tensioattivo non ionico?

calcare15

C9 etossilato

Questa è una cosa sfiziosa anche perchè costituisce la base della pubblicità del prodotto: secondo la pubblicità il calcare non si riforma, cosa che non succede se usate solo aceto ovviamente, l’aceto va bene per curare non per prevenire.

Il motivo è che il tensioativo non ionico usato aderisce alle superfici delle mattonelle e forma un film idrofobico che rende più difficile la conservazione di un film d’acqua; di solito questo è più efficace su superfici inclinate come appunto quelle delle mattonelle del bagno o della doccia; l’acqua su una superficie idrofobica non viene trattenuta facilmente, il suo angolo di contatto è più elevato e quindi essa scivola via più facilmente; e l’effetto è più forte su superfici leggermente rugose (si veda nota*).

Alcuni tensioattivi non ionici e cationici funzionano da cosiddetti “rinsing aids” ossia aiutanti nel risciacquamento alla lettera; aiutano a far scivolare l’acqua dalle superfici.

Quando voi andate a pulire l’auto negli impianti automatici, non so se lo avete notato, ma usate DUE distinti tensioattivi nelle due fasi di pulizia: nella prima togliete lo sporco col classico tensioattivo anionico (testa negativa coda idrofobica e controione positivo) mentre nella seconda fase sulla superficie già pulita e che volete liberare dall’acqua e tenere asciutta e lucida, spruzzate un rinsing aid cosituito da un tensioattivo cationico (testa positiva, coda idrofobica e controione negativo) di solito un sale di tetraalchilammonio. Questo secondo si attacca alla superficie della vernice della vostra auto che il tempo e gli UV solari contribuiscono ad ossidare e che quindi ha un notevole potenziale “basico di Lewis” ossia è un po’ elettrondonatore e lasciano sgambettare liberamente le gambe idrofobiche all’aria, cosa che gli anionici non potrebbero fare; la superficie con un po’ di aiuto da uno spruzzo di aria rimane alla fine lucida e libera sia dallo sporco che dall’acqua; lo stesso fa il tensioattivo del Viakal; non so perchè usi un non ionico, ossia un tensioattivo senza carica netta, forse per motivi di costo. Se l’acqua scivola via non lascia calcare quando evapora (lo lascia altrove).

calcare16

Rappresentazione dei tensioattivi. Dall’alto verso il basso: non ionici, anionici, cationici, anfoteri.

Il tensioattivo non ionico in questione è un estere di acido carbossilico a catena intermedia 9-11 atomi di carbonio. Le sue code sono certamente idrofobiche e se il materiale si coordina bene, se le molecole si allineano bene come le gambe di un corpo di ballo, la superficie formata espone anche i terminali -CH3 finali non solo i metileni di catena.

Questo rende la superficie meno bagnabile ancora. Non esistono sostanze naturali comuni che imitino il comportamento “cerante” del tensioattivo nonionico o cationico e così comuni da usare in sostituzione. O se ci sono fatemelo sapere.

Abbiamo visto insomma che ogni sostanza ha un ruolo ben preciso, non ci sono componenti inutili.

per approfondire:

Sito misto RCS-Benckiser: http://www.rsc.org/learn-chemistry/resources/chemistry-in-your-cupboard/calgon/10

(continua)

*Nota. La condizione di scivolamento per una goccia non è una cosa banalissima da dimostrare scientificamente; in effetti lo scivolamento di una goccia da una superficie dipende da un aspetto della bagnabilità che è ignoto al grande pubblico e anche a molti colleghi: la cosiddetta isteresi, cioè la differenza fra l’angolo di contatto di avanzamento e di recessione. L’angolo di contatto è quello indicato in figura come θr e θa, recessione e avanzamento. C’è anche un equazione che si chiama equazione di Furnidge, la goccia che scivola è asimmetrica e lo scivolamento è tanto più favorito quanto meno sono diverse le due estremità la testa e la coda della goccia. Se sono diverse la differenza di componenti dovute alla tensione superficiale si oppone al peso e la goccia non scivola, se sono uguali la goccia scivola via; lo scivolamento è tanto più facile quanto più i due valori sono simili (bassa isteresi). In genere quanto più la superficie è idrofobica tanto più la differenza tende ad essere ridotta e gli angoli entrambi alti, ma ci sono casi in cui la differenza è alta nonostante la superficie sia idrofobica(cioè angolo maggiore di 90°) in avanzamento.

Infine anche questa è una approssimazione perchè la goccia sul piano inclinato di Furnidge è un corpo “rigido” mentre la goccia vera si deforma e la parte anteriore non trattenuta scivola via allungando e deformando la goccia trattenuta (“pinning” è il termine inglese) dalla sua coda idrofilica. Superfici superidrofobiche, ossia molto idrofobiche e con bassa isteresi che rimangono sempre asciutte si possono ottenere introducendo una modifica geometrica che renda la superficie già idrofobica, ossia con un angolo di contatto superiore a 90°, anche molto rugosa, e quindi trattenendo aria fra le rugosità: in natura esistono esempi noti, come il loto, e meno noti, come il cavolo cappuccio, di superfici superidrofobiche.

(continua).

Comunicazione finale IUPAC su nomi dei nuovi elementi.

In evidenza

reedijkDa: “Reedijk, J.” <reedijk@chem.leidenuniv.nl>

Data: 30 November 2016 20:08:14 CET

Oggetto: Grazie per i vostri commenti sui nomi e i simboli dei nuovi elementi.

Cari signore e signori:

Grazie ancora per i vostri commenti sul documento con i nomi e i simboli dei 4 nuovi elementi. Avevo già accusato ricevuta del vostro messaggio precedentemente durante l’anno, dato già ad alcuni di voi una risposta immediata, e promesso di dare una risposta più dettagliata più avanti dopo che i nomi fossero diventati ufficiali.

In effetti sto rispondendo adesso, con una risposta generale a voi e a molti altri, dato che è tecnicamente impossibile per me rispondere individualmente a ciascuno di voi in dettaglio.

Questa settimana IUPAC ha deciso, dopo una approfondita considerazione di tutti i commenti, di accettare i nomi e i simboli proposti , che sono ora definitivi; verificate sul sito IUPAC https://iupac.org/iupac-announces-the-names-of-the-elements-113-115-117-and-118/

Noi abbiamo ricevuto molte risposte, specie nei primi due mesi dopo la pubblicazione delle raccomandazioni provvisorie.

In questo messaggio darò un breve sommario di tutte le risposte avute durante i 5 mesi dall’8 giugno. E’ stato con vero piacere che abbiamo visto così tanto interesse dal mondo esterno, non solo in senso positivo, ma anche in modo critico circa le possibili alternative di nomi e simboli.

Per illustrare questo interesse mondiale, ricorderò alcuni casi specifici.

In un caso abbiamo ricevuto una petizione con oltre 160.000 firme che faceva un appello per un elemento il cui nome fosse intitolato alla star musicale dell’heavy metal Lemmy Kilmister morto inaspettatmente alla fine del 2015.

kilmister

Abbiamo ricevuto anche molte altre proposte di nome per onorare non-scienziati e proporre altri nomi. Tutte queste proposte sono state rifiutate per due motivi principali: 1) I nomi non rispettavano i criteri validi per dare nomi e 2) Solo gli scopritori hanno il diritto di proporre nomi secondo il regolamento attuale.

Abbiamo anche ricevuto molti suggerimenti da scienziati e dal pubblico per dare agli elementi il nome di scienziati famosi, come Berzelius, Lavoisier, Levi, Liebig and Moseley. In un caso abbiamo ricevuto una petizione con oltre 3000 firme per dare il nome in onore di Primo Levi.

leviulterioreAncora una volta queste proposte sono state rifiutate per il motivo 2 indicato sopra e a tutti i proponenti sono state ricordate o sono ricordate ora le regole vigenti su come dare i nomi agli elementi. Confidiamo che i proponenti di “nomi alternativi” capiranno che il diritto di proporre il nome di un nuovo elemento è riservato agli scopritori prima di tutto per l’enorme sforzo necessario per produrre e verificare l’esistenza di un nuovo elemento. Dato che ci sono pochi vantaggi per gli scopritori in questo settore della scienza il meno che si possa pensare è di dargli i diritto di propore il nuovo nome. Questo approccio è coerente in molti settori scientifici come le nuove specie o i nuovi oggetti astronomici.

Un certo numero di suggerimenti sono venuti da persone che non conoscevano le nostre raccomandazioni per la scelta dei nomi, che prevedevano che gli elementi del gruppo 17 terminassero in –ine (in inglese) e quelli del gruppo 18 in –on (in inglese).

Alcuni commenti hanno messo in discussione che i nomi del 117 e del 118 terminassero rispettivamente in “ine” e in “on” dato che non è sicuro affatto che tali elementi si comportino come gli alogeni, rispettivamente o i gas nobili.

Le regole correnti, comunque, non si riferiscono alle proprietà chimiche, ma solo ai gruppi 17 e 18 nella Tavola Periodica.

Alcuni altri hanno suggerito altri simboli diversi da quelli raccomandati, senza sapere che i loro suggerimenti sono stati in uso per altri elementi in passato, e perciò non possono essere usati di nuovo (come Ms, Tn). Altri hanno posto il problema dell’uso di Ts, che è uno delle due abbreviazioni correnti consentite da IUPAC per il tosile; l’altra è Tos. Dato che quasi tutte le abbreviazioni di due lettere hanno significati multipli – anche in chimica come Ac e Pr – la conclusione tratta è che il contesto in cui il simbolo dell’elemento è usato renderà sempre chiaro quale sia il senso della abbreviazione usata.

Infine, abbiamo ricevuto un certo numero di commenti e domande riguardanti la pronuncia di tennesinio e oganessio, e circa la possibile traduzione in altre lingue dell’elemento 117, tennessinio, e anche su nome dei loro composti.

A differenza dei nomi terminanti in “ium”, il nome “tennessine” potrebbe non essere automaticamente trasferibile in alcune altre lingue, dal momento che la terminazione –ine non è usata in molti linguaggi per gli elementi del gruppo 17. Per cloro e bromo questo non è stato un problema in passato ma in alcuni linguaggi anche per iodio e astato sono state usate delle traduzioni non immediate

Nel caso del tennessinio sono stati posti alla nostra attenzione problemi e soluzioni di analogo tenore.

Le radici dei nomi degli alogeni precedenti sono fluere (latino) e cloro, bromo e astato (greco) che in inglese sono diventati fluorine, chlorine, bromine, iodine and astatine mentre in molti altri linguaggi hanno nomi più brevi, come cloro in spagnolo e italiano, Chlor in tedesco and chlore in francese.

tanasiIl Tanasi monument.

Così la terminazione degli alogeni in inglese non è una regola in tutti gli altri linguaggi. Il nome Tennessee, d’altra parte deriva dalla lingua Cherockee e dal nome del villaggio Tanasi, come spiegato in letteratura. Ciascun linguaggio è perciò indipendente nell’effettuare le conversioni e le traduzioni, ma si spera che questo breve excursus etimologico sia di aiuto per le Organizzazioni Nazionali Aderenti per tradurre Tennessine in altri linguaggi. Questi problemi sono stati analizzati nella nostra pubblicazione finale in Pure and Applied Chemistry, che apparirà nei primi mesi del 2017.

Noi apprezziamo profondamente il tempo e gli sforzi che avete impegnato per pensare a nomi e simboli e per mandarci i vostri commenti e suggerimenti. Tutti i commenti sono stati registrati in modo opportuno e rimarranno negli annali dello IUPAC.

I migliori saluti,

Jan Reedijk, Presidente della Divisione di Chimica Inorganica, IUPAC.

Nota del blog master.

Dizionario irockese inglese: http://www.cherokeedictionary.net/

https://it.glosbe.com/chr/it/Tenasi

la pronuncia italiana è Tenasi non Tanasi e il significato della parola in Irochese non è del tutto chiaro perchè il termine veniva usato anche per altri villaggi. Al momento il luogo storico denominato Tanasi o Tenasi è stato inondato con la costruzione di una diga che ha portato alla formazione di un lago.

Il cemento potrebbe diventare un utile sequestrante di CO2?

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo     

a cura di Rinaldo Cervellati

(*Fonte: c&en news: Cement could be a helpful carbon sink, 22/11/2012)

Per cemento s’intende una varietà di materiali da costruzione, noti come leganti idraulici, che, miscelati con acqua, mostrano proprietà adesive e sono, come noto, largamente impiegati in edilizia.

Dal punto di vista chimico si tratta in generale di una miscela di silicati e alluminati di calcio, ottenuti dalla cottura ad alta temperatura di opportune miscele di calcare e argilla, oppure di marna, una roccia sedimentaria composta di una frazione argillosa e da una frazione carbonatica costituita generalmente da calcite (carbonato di calcio, CaCO3), oppure da dolomite (carbonato doppio di magnesio e calcio, MgCa(CO3)2).

fig-2-marna-6

Marna

fig-1-cemento-6 È quindi chiaro che la fabbricazione del cemento richiede grandi quantità di calore e rilascia grandi quantità di diossido di carbonio. Il calore infatti trasforma il calcare (carbonato di calcio) in ossido di calcio e la miscela che ne deriva viene denominata clinker[1]. Questo processo, chiamato calcinazione[2], è responsabile di circa il 5% delle emissioni di diossido di carbonio (CO2) dovute ad attività umane, che come noto possono alterare il clima del nostro Pianeta.

fig-3-antica-fabbrica-di-cemento-1895-6

antica-fabbrica-di-cemento-1895

fig-4--6

fabbrica-di-cemento-oggi

Tuttavia un recente studio riporta che il cemento stesso può aiutare a ridurre queste emissioni. Un team internazionale di 19 ricercatori guidato dal Dott. Zhu Liu del Resnick Sustainability Institute al Caltech, ha stimato che il 43% di CO2 rilasciata da calcinazione di cemento tra il 1930 e il 2013 è stato riassorbito dallo stesso cemento fabbricato durante quel periodo [1].

fig-5-dr-zhu-liu-6

Dr. Zhu Liu

Non solo la riduzione delle emissioni di CO2 ma anche la rimozione di questo gas dall’atmosfera è una parte significativa di quello che molti scienziati del clima sostengono si debba fare per evitare le gravi conseguenze derivanti dal cambiamento climatico. “Non è la piccola quantità di CO2 che può essere rimosso dall’atmosfera”, dice Phil Renforth, che studia il sequestro del carbonio all’Università di Cardiff, “ciò che è interessante di questo studio è che parte della richiesta di rimozione di CO2 dall’atmosfera può già essere soddisfatta dalla carbonatazione naturale del cemento[3]. La sfida è la progettazione di opportune procedure che tengano conto dell’influenza di questo fenomeno nel ciclo di vita del cemento “.

fig-6-dr-phil-renforth-6

Dr. Phil Renforth

La carbonatazione è il processo mediante il quale il cemento sottrae CO2: i composti idrati nel cemento (principalmente idrossido di calcio e silicati di calcio e alluminio) reagiscono con il CO2 nell’aria per formare carbonati. Gli ingegneri conoscono da tempo questo processo perché può influenzare la stabilità del cemento. Il team guidato da Zhu Liu ha voluto quantificare il livello di carbonatazione del cemento.

I ricercatori hanno raccolto i dati sulla produzione globale di cemento dal 1930 al 2013, i tipi di prodotti cementizi, la durata e i destini di questi prodotti e dei loro scarti. Hanno quindi utilizzato un modello analitico computerizzato per stimare la carbonatazione per i diversi prodotti cementizi, basato sulle proprietà del cemento misurate sperimentalmente o riportate in letteratura. Il loro modello suggerisce che il cemento ha sequestrato circa 4,5 miliardi di tonnellate di carbonio dal 1930. E il tasso di sequestro annuale è stato sempre più elevato, raggiungendo 0,25 miliardi di tonnellate di carbonio nel 2013. Il tasso di carbonatazione nel 2013 è equivalente al 22,7% della media annua del carbonio globale assorbito dalle foreste e a circa il 2,5% delle emissioni globali di carbonio da attività umane nello stesso anno.

In base al modello, la Cina è diventata prima nella carbonatazione del cemento a causa del boom edilizio. Dal 1994, il cemento cinese ha sequestrato più CO2 rispetto al cemento di tutte le altre parti del mondo. Prima di allora, la maggioranza della carbonatazione avveniva negli Stati Uniti e in Europa. Liu sostiene che gli studi precedenti sui sottrattori di CO2 si sono concentrati su riserve naturali mentre il messaggio importante del lavoro del suo gruppo è che anche un sistema umano come il cemento può essere visto come un sottrattore di biossido di carbonio.

Ma il Dott. Thomas Gasser, che lavora su modelli climatici presso l’International Institute for Applied Systems Analysis (Laxenburg, Austria), sottolinea che il cemento non si può considerare esattamente come un sottrattore convenzionale perché la sua fabbricazione rilascia CO2. Il modo migliore per riassumere il nuovo studio, dice Gasser, “è quello di dire che la produzione di cemento in realtà ha un minore impatto sul clima di quanto si pensasse, dal momento che al netto emette meno CO2.

fig-7-dr-thomas-gasser-6

Dr. Thomas Gasser

Aggiunge il Dott. Renforth: “Le stime di carbonatazione suggeriscono che la produzione di cemento potrebbe ipoteticamente diventare un processo al netto negativo per l’emissione di CO2 se i produttori utilizzassero una tecnologia di sequestro del biossido di carbonio dai gas di scarico dei loro impianti per rendere la produzione di cemento a emissioni zero.” Tuttavia, dice anche: “Ci vorrebbe una infernale mole di lavoro per ottenere questi risultati [e a un costo ragionevole] “.

[1] Fengming Xi et al. Substantial global carbon uptake by cement carbonation, Nature Geoscience, on-line 21 november 2016, DOI: 10.1038/ngeo2840.

[1] Al clinker vengono poi aggiunti altri materiali come gesso, sabbie, ecc. ottenendo vari tipi di cemento con diverse definite proprietà.

[2] Questa reazione, così esemplificata: CaCO3 ® CaO + CO2 alle alte temperature dei forni di fabbricazione del cemento, è molto veloce.

[3] La reazione di carbonatazione del cemento, così esemplificata: Ca(OH)2 + CO2 (dall’aria) ® CaCO3 + H2O a temperatura ambiente è un processo lento.

carbonate1

Chimica e creatività. 2.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Vincenzo Balzani, Professore emerito, Alma Mater

Prolusione in occasione dell’inaugurazione  dell’anno accademico 2017, tenuta in Bologna, venerdì 18 novembre 2016 nell’ Aula Magna di Santa Lucia

la prima parte di questo post è pubblicata qui.

Dendrimeri

Sono sistemi supramolecolari ramificati che possono svolgere due funzioni: antenne per la raccolta dell’energia solare e dispositivi per modificare la frequenza della luce; trovano applicazioni, rispettivamente, nella fotosintesi artificiale e come sensori luminescenti. Nello schema di Figura 14 (parte sinistra) sono evidenziate con colori diversi i tre tipi di componenti molecolari del sistema. L’energia luminosa assorbita dalle 32 molecole periferiche viene trasferita alle 8 molecole intermedie e successivamente alla molecola centrale, che emette luce di frequenza diversa.

creativita14

creativita14bFigura 14. A sinistra lo schema e il modo di funzionare di un dendrimero. A destra un dendrimero reale che si comporta nel modo schematizzato a sinistra.

 

Presa-spina

Presa-spina è un dispositivo molto usato nel mondo macroscopico. Per costruire un simile sistema a livello molecolare è necessario sintetizzare anzitutto due molecole di adatta struttura, poi è necessario trovare un modo reversibile per connetterle e separarle e, infine, disporre di un segnale che viene trasmesso dalla spina alla presa quando le due molecole sono connesse. I componenti utilizzati e lo schema di funzionamento sono illustrati nella Figura 15.

creativita15Figura 15. Sistema presa/spina molecolare per il trasferimento di un segnale luminoso.

Connessione e separazione di spina e presa sono ottenute mediante input acido/base. Quando presa e spina sono connesse, l’assorbimento di luce del componente presa causa emissione di luce dal componente spina. E’ stata fatta anche una versione del sistema presa/spina molecolare dove il trasferimento riguarda elettroni anziché segnali luminosi.

Basandosi sugli stessi concetti è stata costruita anche una prolunga molecolare.

 

Ascensore molecolare

L’ascensore molecolare è stato costruito a partire dai due componenti mostrati in Figura 16. Uno di essi è formato da tre fili molecolari uguali, congiunti. Su ogni filo ci sono due unità che hanno, in grado diverso, la stessa proprietà: sono elettron accettori. L’altro componente è costituito da tre anelli molecolari uguali, congiunti, ciascuno avente caratteristiche di elettron donatore. In soluzione, il tris-filo e la piattaforma formata dai tre anelli si assemblano spontaneamente e i tre anelli vanno a circondare le unità situate nella parte “alta” dei tre fili perché queste hanno carattere elettron accettore più spiccato delle tre unità nella parte “bassa”. Una volta che il sistema si è auto assemblato, mediante sintesi chimica si posizionano gruppi molto ingombranti nelle estremità dei tre fili per evitare che gli anelli possano sfilarsi.

 

creativita16Figura 16. Costruzione dell’ascensore molecolare.

La Figura 17 mostra un modello tipo lego del sistema supramolecolare così ottenuto e anche una sua rappresentazione schematica dalla quale appare chiaramente la localizzazione iniziale della piattaforma.

creativita17Figura 17. Dimensioni e modello della struttura dell’ascensore molecolare.

La Figura 18 nella parte alta mostra che per aggiunta di una base si possono togliere ioni H+ agli atomi di azoto (N) che si trovano nella parte “alta” dei tre fili, disattivando così l’interazione con i tre anelli elettron donatori che li circondano. In questa nuova situazione, i tre anelli preferiscono interagire con le unità nella parte “bassa” dei fili. La piattaforma quindi “scende”; poi può essere fatta “risalire” mediante aggiunta di acido, che ripristina la situazione iniziale. Studi dettagliati hanno mostrato che in realtà i tre anelli non scendono (e non salgono) simultaneamente, ma in successione, inclinando la piattaforma.

creativita18Figura 18. La parte alta mostra il funzionamento dell’ascensore molecolare in seguito all’aggiunta di base e di acido. In basso a sinistra è mostrato un fotogramma di uno schema animato.

Come è sottolineato nella Figura 18, l’energia per il movimento è fornita da reazioni chimiche (aggiunte di base/acido) che, ovviamente, generano “scorie”, come accade anche nelle macchine del mondo macroscopico alimentate da energia chimica (ad esempio, nei motori a combustione interna). Ci siamo chiesti, allora, se fosse possibile generare un movimento meccanico in un sistema supramolecolare senza formazione di scorie. La lunga esperienza nel campo della fotochimica ci ha suggerito di utilizzare un sistema alimentato dalla luce.

 

Nanomotore alimentato dalla luce solare

Siamo partiti dallo schema semplice mostrato in Figura 19. Poi, come diceva Edison, al lampo dell’ispirazione ha fatto seguito un lungo periodo di duro lavoro.

creativita19

Figura 19. Schema dell’idea di un nano motore a energia solare.

Quale tipo di reazione fotochimica usare? Quali componenti molecolari scegliere? In che ordine collegarli? Quali interazioni sfruttare? Dopo molte discussioni e ripensamenti abbiamo scelto il sistema illustrato nella Figura 20. Il “filo” del nano motore è formato da cinque componenti che, da destra a sinistra, sono: un gruppo ingombrante che impedisce all’anello di sflilarsi; due componenti (azzurro e rosso nella figura) che hanno, in grado diverso, la stessa proprietà: sono elettron accettori (il più forte è il componente azzurro e quindi l’anello, che è un elettron donatore, inizialmente sta attorno a questo componente); uno spaziatore rigido (arancione) e, all’estrema sinistra, un complesso Rutenio-tris-dipiridina (verde).

creativita20Figura 20. Nanomotore molecolare alimentato da energia solare. Parte alta: il sistema supramolecolare usato. In basso: un fotogramma di uno schema di animazione.

 

Il complesso di Rutenio è l’elemento più importante: quando assorbe un fotone di luce visibile espelle un elettrone che va sul componente più elettron accettore, quello azzurro, attorno al quale si trova l’anello. Con l’arrivo dell’elettrone questo componente perde le sue proprietà di elettron accettore, così che l’anello passa sul componente rosso. A questo punto, però, l’elettrone, che si era trasferito in seguito all’eccitazione fotonica dal complesso di Rutenio all’elettron accettore azzurro, torna indietro sul complesso di Rutenio così che si ripristinano le proprietà di elettron accettore del componente azzurro e, di conseguenza, l’anello torna alla sua posizione iniziale. Il complesso di Rutenio è ora in grado di assorbire un altro fotone iniziando così un nuovo ciclo. Il sistema supramolecolare sopra descritto è quindi in grado di convertire l’energia luminosa del sole in movimento meccanico a livello molecolare.

Come sopra descritto, tale sistema opera in quattro fasi che formalmente corrispondono alle quattro fasi di un motore a scoppio macroscopico, con il quale peraltro non c’è nessun’altra analogia: 1. Iniezione del carburante (fotone) e combustione (trasferimento di un elettrone); 2. Spostamento del pistone (anello); 3. Scarico (ritorno dell’elettrone sul complesso di rutenio); 4. Ritorno del pistone (anello) nella situazione iniziale.

Questa ricerca ha avuto molta risonanza nel mondo scientifico internazionale e anche sulla stampa italiana dove, con le solite esagerazioni, si è molto insistito sulle sue caratteristiche di motore a 4 tempi alimentato dalla luce (Figura 21)

 

creativita21Figura 21. Ritagli di commenti di stampa sul nano motore.

 

Riflessioni finali

Prima di chiudere vorrei fare un breve accenno ad un argomento molto importante. Prendo lo spunto dal libro sopra menzionato su dispositivi e macchine molecolari (Figura 13), nel quale abbiamo fatto una cosa del tutto inusuale: dopo aver descritto in 16 capitoli tutti gli aspetti scientifici e tecnologici di questa branca della scienza, abbiamo aggiunto un altro capitolo, il 17mo (Figura 22), come capitolo finale, nel quale abbiamo discusso il ruolo della scienza e degli scienziati nel nostro mondo così complesso e così fragile. Il perché di questa aggiunta l’abbiamo spiegato nell’introduzione del capitolo (Figura 22): “Questo è un libro scientifico, che tratta essenzialmente scienza di base. Quindi poteva (qualche lettore dirà: doveva) finire col capitolo precedente. Ma, oggi, può la scienza essere trattata come argomento separato, neutrale, asettico? Può uno scienziato ignorare i problemi della società e isolarsi in una torre d’avorio? Noi pensiamo di no. Noi pensiamo che ci sia molto bisogno di discutere il ruolo della scienza e degli scienziati nella società e crediamo che un libro scientifico offra un’opportunità, per farlo, che non deve andare perduta”.

creativita22Figura 22. Introduzione del cap. 17 del testo “Molecular Devices and Machines”.

In questo capitolo finale abbiamo così discusso la relazione fra scienza e società, con particolare riferimento alle limitate risorse del pianeta, al modello di sviluppo insostenibile, alle crescenti disuguaglianze, all’etica e alla solidarietà. Nei libri scientifici non si parla mai di questi argomenti. Noi l’abbiamo fatto per ricordare, anzitutto a noi stessi, poi a tutti i nostri colleghi, che la Scienza va usata per la pace e non per la guerra, per custodire il pianeta su cui viviamo e non per distruggerlo, per ridurre e non per aumentare le disuguaglianze fra paesi ricchi e paesi poveri e per fare patti e non per creare contrasti fra le generazioni. Tutte cose che sappiamo bene, ma delle quali forse non parliamo abbastanza ai nostri studenti e tanto meno alla gente che, dagli scienziati, vorrebbe sentire pareri autorevoli e ricevere messaggi chiari. Forse è ora di incominciare a farlo, con più forza.

 

Un grazie speciale

Infine, voglio mostrarvi questa bella immagine:

 

creativita23Il titolo è: lavoro di gruppo. Sotto c’è scritto: “I fiocchi di neve sono una delle cose più fragili della natura; ma guardate cosa possono fare quando si stringono insieme”. E’ un’immagine bellissima dei regali che ho ricevuto e per i quali voglio ringraziare la Divina Provvidenza e le tante persone che mi circondano col loro affetto, ad iniziare dalla mia famiglia. Un grazie particolare va poi ai colleghi e agli studenti del Gruppo di Fotochimica e Chimica Supramolecolare che hanno lavorato con me in tutti questi anni e che mi hanno spinto così in alto da permettermi di parlare qui, davanti a voi, questa sera.

Grazie per l’attenzione con cui mi avete ascoltato.

Chimica e creatività.1.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Vincenzo Balzani, Professore emerito, Alma Mater

Prolusione in occasione dell’inaugurazione  dell’anno accademico 2017, tenuta in Bologna, venerdì 18 novembre 2016 nell’ Aula Magna di Santa Lucia

Magnifico Rettore, autorità, gentili ospiti, colleghe, colleghi, studenti, signore e signori, buona sera.

Il titolo che ho dato al mio intervento può apparire un po’ audace: per molti, Chimica è quell’orribile materia scolastica di cui ci si vanta di non aver mai capito nulla; per altri, Chimica significa sofisticazioni, inquinamento ed incidenti. Quindi, accostare Chimica a Creatività può apparire una provocazione. Qualcuno potrebbe dire: la Chimica ha già fatto abbastanza danni, non ti provare a crearne altri. Se si facesse un referendum con una sola domanda: “Siete favorevoli ad abolire la Chimica?”, senza alcun dubbio vincerebbe il SI’. Ma, mi dispiace, la Chimica non si può abolire, per il semplice fatto che tutto quello che c’è al mondo, attorno a noi e anche in noi, è Chimica!

Nel mio breve intervento vorrei spiegare perché le ricerche sulle macchine molecolari, di cui si è molto parlato dopo l’annuncio del premio Nobel 2016, sono realmente un settore di punta della Chimica e della Scienza tutta.

Chimica e creatività, dunque, con riferimento alle macchine molecolari; ma gli scienziati possono essere creativi? O lo sono solo gli artisti? Si, è vero, spesso si pensa che uno scienziato sia una persona intelligente, ricco di idee originali: insomma, che sia un genio. Forse lo è, ma nel senso che intendeva Edison: “Genius is one percent inspiration and ninety-nine percent perspiration”. In effetti gli scienziati sono anzitutto gente che lavora sodo. L’idea creativa è un lampo: poi c’è da metterla in pratica.

Chimica e creatività, dunque. Ma cosè la creatività? E’ definita in molti modi, quasi tutti convergenti. Secondo Henri Poincaré “Creatività è unire elementi esistenti con connessioni nuove”. François Jacob ha scritto che “La creatività nasce da associazioni, prima mai considerate, di cose già note. Creare è ricombinare”. La definizione che più mi piace, però, è la seguente, che ho formulato modificando leggermente una famosa frase di Albert Szent-Györgyi: “La creatività consiste nel vedere ciò che tutti hanno visto e nel pensare ciò a cui nessuno ha mai pensato”.

Per spiegare cosa sono le macchine molecolari, mi servirò di questi suggerimenti: farò una connessione, un paragone, fra due cose apparentemente non collegate: la Chimica e il linguaggio.

Le molecole

Gli elementi fondamentali del linguaggio sono le lettere raccolte nell’alfabeto (Figura 1). Gli elementi fondamentali della chimica sono gli atomi, raccolti nella tavola degli elementi, il sistema periodico. Nel linguaggio generalmente non si usano le lettere singolarmente prese, ma combinazioni di lettere (le parole). Ugualmente, nella chimica non sono importanti gli atomi separatamente presi, ma loro combinazioni: le molecole. Le molecole, dunque, sono le parole della Chimica.

creative1Figura 1. Confronto fra la struttura del linguaggio e struttura della Chimica.

Nel linguaggio, ogni parola ha un ben preciso significato, un valore aggiunto rispetto all’insieme delle singole lettere che la compongono. Esempio: a, b, b, i, m, n, o; bambino. Allo stesso modo, ogni molecola ha proprietà specifiche e un’identità ben definita che rappresentano il valore aggiunto che la molecola ha rispetto all’insieme degli atomi che la costituiscono. Prendiamo, ad esempio, la molecola dell’acqua che posso rappresentare con la formula H2O, che indica da quali atomi è composta, oppure con H-O-H, che indica chi è legato a chi, oppure con un modellino tipo lego, come questo che ho in mano e che è mostrato nella Figura 2. Nella molecola gli atomi sono in relazione e dalla relazione emergono nuove proprietà, quelle specifiche della molecola, molto diverse dalle proprietà degli atomi che la compongono.

creative2Figura 2. Le molecole dell’acqua.

E’ bene notare che gli atomi, e quindi anche le molecole, sono oggetti molto piccoli: hanno dimensioni di miliardesimi di metro (1 miliardesimo di metro = 1 nanometro, 1 nm). Il modellino tipo lego della molecola d’acqua mostrato nella Figura 2 è in scala 1 a cento milioni. Quindi la sostanza che beviamo e che chiamiamo acqua è un insieme di tantissime molecole. Più in generale, qualsiasi “cosa” macroscopica che vediamo o tocchiamo è costituita da un numero enorme di “entità” piccolissime: le molecole. Per rendere meglio l’idea, in una goccia d’acqua ci sono 100 miliardi di miliardi di molecole H2O; per contarle al ritmo di una al secondo si impiegherebbero trenta mila miliardi di anni!

Ma chi ci crede? Eppure è vero! La scienza, spesso, va contro la comune intuizione: pone problemi. Li ha sempre posti: Goethe si opponeva all’uso del microscopio. Diceva che se c’era qualcosa che non si poteva vedere ad occhio nudo, non si doveva andarla a vedere, perché evidentemente era nascosta per qualche buona ragione. E’ esattamente il contrario di quanto pensa la scienza, che vuole vedere tutto. Oggi, infatti, con tecniche molto speciali si possono vedere o, meglio, si possono ottenere immagini anche di singole molecole.

Protagoniste della Chimica, dunque, sono le molecole: oggetti piccolissimi, ma caratterizzati da composizione, dimensione, struttura e forma (Figura 3) e quindi da proprietà specifiche tramite le quali hanno anche effetti diversi sugli organismi. Per cui accade che le molecole di caffeina ci tengono svegli, mentre le molecole di acido acetil salicilico abbassano la febbre.

creative3Figura 3. Formule chimiche e modelli delle molecole di caffeina e acido acetil salicilico.

I sistemi supramolecolari

Chiarito cosa sono le molecole, possiamo fare un passo avanti nel confronto chimica-linguaggio (Figura 4). Come ben sappiamo, il linguaggio non si ferma alle parole. Per esprimere un concetto è necessario usare combinazioni di parole, cioè una frase. Allo stesso modo la Chimica non si ferma alle molecole. Per avere proprietà interessanti, per compiere funzioni utili è necessario combinare fra loro più molecole in modo da ottenere sistemi complessi, supramolecolari: se le molecole sono le parole della Chimica, i sistemi supramolecolari sono le frasi della Chimica.

creative4Figura 4. Seconda parte del confronto fra la struttura del linguaggio e quella della Chimica.

Per capire meglio cos’é un sistema supramolecolare, consideriamo le tre molecole mostrate in Figura 5; queste molecole, quando sono messe in soluzione, si associano spontaneamente per dare un sistema supramolecolare.

creative5Figura 5. L’associazione fra molecole dà origine a sistemi supramolecolari.

Possiamo approfondire questo concetto, sempre sfruttando il paragone col linguaggio. Le parole necessarie per costruire una frase che abbia senso compiuto vengono scelte e messe in ordine, da chi scrive o da chi parla, secondo le regole del linguaggio. Nella frase il bambino va in bicicletta, il deve “interagire” (essere davanti a) bambino e in deve “interagire” con bicicletta. Usando termini informatici, si può dire che ogni parola contiene elementi di informazione, tramite i quali interagisce o non interagisce con altre parole. Nelle frasi, quindi, dalla combinazione degli elementi di informazione portati da ogni parola, emergono significati che non sono e non possono essere presenti nelle singole parole che le compongono. Analogamente, nei sistemi supramolecolari dalla combinazione degli elementi di informazione portati da ogni molecola emergono proprietà che non sono e non possono essere presenti nelle singole molecole che li compongono. Accade così che, nel sistema supramolecolare mostrato in Figura 5, quando un fotone colpisce il componente molecolare di sinistra (un complesso di Rutenio) viene espulso un elettrone che si va a collocare sul componente di colore azzurro a destra, cosa che non può accadere quando le tre molecole sono separate. Questa, appunto, è una delle proprietà emergenti.

La miniaturizzazione

Prima di parlare in modo esplicito di dispositivi e macchine molecolari, è opportuno introdurre il concetto di miniaturizzazione. La Figura 6 mostra, sulla sinistra, il primo computer elettronico (1944): era grande come un appartamento, pesava 30 tonnellate, aveva 19.000 valvole (dispositivi che i giovani non conoscono), consumava 200.000 W e ogni mezz’ora si rompeva. I computer di oggi sono enormemente più piccoli, più leggeri, più affidabili, hanno milioni di transistor e consumano molto meno.

creative6Figura 6. Computer di ieri e di oggi

Come è avvenuta questa rivoluzione? Attraverso la miniaturizzazione, il passaggio da circuiti elettrici macroscopici a microcircuiti (1 micron = 1 milionesimo di metro) (Figura 7). Un’ulteriore miniaturizzazione “dall’alto” fino a giungere a livello dei nanometri (miliardesimi di metro) presenta difficoltà. E’ più facile arrivarci “dal basso”, partendo dalle molecole, che sono già di per sé oggetti nanometrici.

creative7Figura 7. Miniaturizzazione dall’alto (top down) e dal basso (bottom up)

In effetti i chimici, oggi, sono molto bravi a mettere assieme molecole diverse per formare sistemi supramolecolari. Un esempio un po’ singolare è quello mostrato in Figura 8. Combinando una molecola a forma di calice (calixarene) e una molecola a forma di pallone da calcio (fullerene) si è ottenuto un sistema supramolecolare che richiama come forma la Coppa del Mondo di calcio.

creative8Figura 8. Un curioso sistema supramolecolare.

E’ un oggetto nanometrico curioso, forse bello; certamente inutile. Se si vogliono fare cose utili, è necessario che i componenti molecolari abbiano proprietà chimiche e fisiche ben precise in modo che nel sistema supramolecolare, grazie all’interazione fra le caratteristiche dei singoli componenti, emergano proprietà che permettano al sistema di svolgere una funzione interessante (Figura 9). In tal modo la Chimica supramolecolare diventa Ingegneria molecolare e, se fa cose di interesse applicativo, diventa Nanotecnologia.

creative9Figura 9. Sistemi molecolari capaci di svolgere una funzione.

Dispositivi e macchine molecolari

In sostanza, oggi i chimici possono lavorare allo stesso modo degli ingegneri, con la differenza che gli ingegneri usano componenti macroscopici, mentre i chimici utilizzano componenti molecolari (nanometrici) (Figura 10).

creative10Figura 10. Analogia fra il lavoro di un ingegnere e quello di un chimico per la costruzione di dispositivi o macchine.

Nel mondo macroscopico un dispositivo o una macchina è un oggetto materiale che usa energia per svolgere una funzione, cioè un “lavoro”, che può essere un movimento meccanico o l’elaborazione di un segnale. L’energia fornita può essere chimica, elettrica o luminosa, come illustrato nella Figura 11.

creative11Figura 11. Esempi di macchine o dispositivi del mondo macroscopico che utilizzano rispettivamente energia chimica, elettrica e luminosa.

Il concetto di macchina o dispositivo si può estendere al mondo nanoscopico, dove l’oggetto materiale dovrà essere un sistema supramolecolare capace di utilizzare energia (chimica, elettrica o luminosa) per svolgere una funzione (ad esempio, una reazione chimica, un segnale o un movimento meccanico) (Figura 12). Per molti motivi il modo migliore di fornire energia a un sistema supramolecolare è mediante la luce. Con un fotone di adatta frequenza si può, infatti, far giungere energia ad uno specifico componente di un sistema supramolecolare senza perturbare gli altri componenti e senza “toccare” (e quindi senza “sporcare”) in alcun modo il sistema.

creative12Figura 12. Fornendo energia è possibile far compiere una funzione a sistemi supramolecolari opportunamente progettati.

I dispositivi e le macchine molecolari sono dunque sistemi supramolecolari progettati per svolgere una funzione in conseguenza di uno stimolo energetico.

La Figura 13 mostra la copertina delle edizioni inglese e cinese dell’unico testo finora disponibile su dispositivi e macchine molecolari, adottato in università di tutto il mondo.

creative13Figura 13. Testo che riporta i concetti fondamentali e numerosi esempi di dispositivi e macchine molecolari.

I dispositivi e le macchine molecolari si possono dividere in due categorie, a seconda che la funzione svolta consista nell’elaborare segnali o nel provocare movimenti meccanici. Per ragioni di spazio riporteremo solo alcuni degli esempi più significativi.

(continua)

Le molecole della pubblicità: dentifrici ripara-smalto

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Tra le pubblicità che vengono trasmesse sui vari canali televisivi, quelle che riguardano i prodotti per l’igiene orale sono tra le più frequenti. Questo già dai tempi di Carosello.
Su questo blog l’argomento dentifrici è stato trattato già molto ben esposto nel post scritto da Gianfranco Scorrano:
https://ilblogdellasci.wordpress.com/2013/02/21/dentrifici/
Una pasta dentifricia può avere un gran numero di componenti. In genere più di una decina e in qualche caso anche venti.

dentifrici

La formulazione generale di un dentifricio prevede che esso debba contenere delle polveri abrasive che con una granulometria molto fine e disperse in maniera omogenea esercitino la funzione di pulizia dei denti senza produrre scalfitture o graffi. Tra queste possiamo trovare carbonati, fosfati e silicati.
Nel dentifricio si trova anche una percentuale di normalissima acqua potabile, percentuale che solitamente varia dal 30 al 45%. Si aggiungono prodotti come la glicerina o lo sciroppo di sorbitolo per evitarne l’essicamento, sostanze aromatizzanti per ridurre il sapore farinoso degli abrasivi, e agenti conservanti con funzione antibatterica (per esempio acido sorbico).

glicerina

Nelle formulazioni troviamo anche viscosizzanti come idrossietilcelluosa, e tensioattivi che generano schiuma durante lo spazzolamento (sodio lauril solfato) che viene usato anche per ridurre la placca batterica.
La pubblicità propone tipi di dentifrici che sbiancano i denti, altri efficaci contro la carie, ma ultimamente vanno per la maggiore quelli che promettono di riparare i denti, o per meglio dire lo smalto.
Lo smalto dei denti è la parte esterna visibile, al di sotto della quale si trova la dentina. Lo smalto è costituito per la maggior parte da idrossiapatite Ca5(PO4)3(OH) anche se spesso viene indicata come Ca10(PO4)6(OH)2 in quanto la cella elementare del cristallo è costituita da due molecole. Quindi un fosfato, con una piccola componente organica . Presente, legata nei cristalli, anche un po’ di acqua(1-3%). La componente minerale, ha la caratteristica di essere suscettibile agli scambi ionici, quindi si possono trovare legati, assieme o al posto del Calcio, ioni Na, Mg, K ma anche in minime quantità Mn, Fe, Ni, Co, Zn, Cu, Pb, Sr.

sezionedentale

La suscettibilità allo scambio ionico è in qualche modo il fattore che comporta l’indebolimento dello smalto in presenza di acidi (es. l’acido lattico prodotto dalla fermentazione batterica degli zuccheri ).

Ca10(PO4)6(OH)2+ 8H+ → 10Ca2+ + 6HPO42- + 2H2O

Idrossiapatite in Ambiente acido = Lenta dissoluzione dei minerali

Diversi tipi di dentifrici in commercio promettono di riempire le microfessurazioni dello smalto, che, se molto profonde, potrebbero arrivare a contatto con la dentina e provocare sensibilità dentale.
L’idrossiapatite viene utilizzata da circa vent’anni nel settore delle protesi mediche e in odontoiatria ed è quindi accertata la sua biocompatibilità. Trattandosi però di un dentifricio il primo dubbio che può porsi è come si compensino contemporaneamente l’azione di spazzolamento e di rimozione dei residui di cibo, con quella di riparazione e di riempimento delle fessurazioni del dente. L’operazione di spazzolamento dei denti non è mai molto prolungata nel tempo dura generalmente qualche minuto. In questo periodo di tempo l’idrossiapatite che viene a riempire le fessurazioni deve rimanere ed evitare che esca con il risciacquo. L’equilibrio di mineralizzazione e demineralizzazione della struttura cristallina dei denti è regolato dalla saliva. La saliva rimane nella cavità orale 24 ore, il dentifricio come detto per pochi minuti.
Curiosando sui siti di diverse case produttrici la soluzione la soluzione al problema è quella di utilizzare idrossiapatite di sintesi, variamente sostituita e di dimensioni che variano dai 20 ai 50 nm, questo per massimizzare il rapporto superficie/volume.

image009

Un dentifricio in commercio da circa dieci anni è pubblicizzato non solamente per queste qualità, ma anche perché l’idrossiapatite sarebbe zinco sostituita, evitando così di inserire nella formulazione prodotti a base di fluoro che potrebbero produrre fluorosi. Va precisato che esistono lavori antecedenti sulla preparazione di molecole di nano idrossiapatite come questo.

Un dentifricio è pur sempre un prodotto cosmetico anche se nella sua formulazione vi possono essere componenti che in qualche modo aiutino la prevenzione di disturbi dentali.
L’idrossiapatite usata come riempitivo per protesi ossee e in odontoiatria è messa in commercio con diversi nomi brevettati (Radiesse©, Biorepair ©).
Effettuando ricerche in rete vi si trovano svariati studi, per esempio questa è la descrizione di una sperimentazione effettuata presso l’Istituto Stomatologico Toscano (Università di Pisa). Corredata di una ricca bibliografia.
http://www.amicidibrugg.it/rivista/201204/art2.asp.
L’efficacia dei prodotti dentifrici a base di idrossiapatite nanometrica è riconosciuta nei test in vitro, come in questo lavoro pubblicato sul “Journal of dentistry”. Ma rimane la necessità che si effettuino ulteriori studi a lungo termine per avere maggior quantità di dati e per trarre conclusioni più appropriate.
http://www.jodjournal.com/article/S0300-5712(11)00083-2/abstract?cc=y=
Occorre anche sottolineare che l’istituto di autodisciplina pubblicitaria ha ritenuto di intervenire sugli spot pubblicitari del dentifricio Biorepair ritenendoli fuorvianti.
In particolare. “il Comitato ha rilevato l’improprietà dell’espressione “I tuoi denti per tutta la vita”, che lungi dal porsi come meramente iperbolica, accredita il dentifricio pubblicizzato di un’efficacia che travalica le qualità riconoscibili ad un prodotto di natura cosmetica, pur avendo questo caratteristiche sussidiarie per la prevenzione di situazioni patologiche.”
https://www.testmagazine.it/2016/02/01/biorepair-una-pubblicita-decisamente-esagerata/5593/
Sul sito “Medici Italia” un medico alla domanda di un utente sull’effettiva validità di prodotti di questo tipo ricorda che “lo smalto dei nostri denti non ha capacità riparativa in quanto non è vitale a differenza di altri tessuti è quindi importante interpretare correttamente anche i messaggi pubblicitari con questo non voglio dire assolutamente che non serve”. Quindi si tratta oltre che di avere a disposizione nuovi studi, anche di terminologia. Rimineralizzazione e diminuzione della sensibilità dentale non possono essere sinonimi di riparazione dello smalto.
A me personalmente questo richiama alla mente la vecchia pubblicità di un altro dentifricio che si poteva vedere negli anni di messa in onda di Carosello cioè negli anni 60-70, dove si diceva di non esagerare nel decantarne virtù e proprietà, ma di definirlo più semplicemente un dentifricio buono, anzi ottimo ma non miracoloso.

Primario, secondario, terziario e altro in chimica organica

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

In un precedente post è stata riportata l’origine della nomenclatura orto−, meta− e para−. Qui riporteremo come hanno avuto origine i termini primario, secondario e terziario attribuiti a un atomo di carbonio legato rispettivamente a un solo altro atomo di carbonio, oppure a due o tre altri atomi di carbonio. Ricorderemo anche i prefissi iso− e neo−, ormai non più in uso.

Il primo a usare questi termini fu, nel 1856, il chimico Charles Gerhardt[1], per distinguere fra ammine risultanti dal primo, secondo e terzo stadio nella progressiva sostituzione dei tre atomi di idrogeno della molecola di ammoniaca (NH3) con diversi radicali alchilici. Scrive infatti Gerhardt:

Si potrebbero chiamare i composti dell’azoto primari, secondari o terziari in base ai tipi ottenuti per sostituzione di uno, due o tre atomi di idrogeno dell’ammoniaca.[1]

fig-1-charles-gerhardt

Charles Gerhardt

fig-2-aminesQuesta terminologia fu estesa nel 1864 alla descrizione di alcoli dal chimico Aleksandr Butlerov[2], che per primo preparò quello che oggi è conosciuto come 2-metil-2-propanolo, ma che può essere considerato come “alcol trimetil metilico” o “alcol butilico terziario”. In altre parole, il 2-metil-2-propanolo corrisponde alla terza fase della progressiva sostituzione dei tre atomi di idrogeno del gruppo metilico nel metanolo (CH3OH) così come le ammine terziarie corrispondono alla sostituzione dei tre idrogeni dell’ammoniaca.

fig-3-aleksandr-michajlovic-butlerov

Aleksandr Butlerov

struttura_del_2-metil-2-propanoloDa questo punto di vista, ciò che oggi è noto come 2-propanolo può essere rappresentato come la seconda fase del processo di sostituzione e quindi corrisponde a un alcool secondario, e l’etanolo derivato dalla prima fase della sostituzione corrisponde quindi un alcol primario.

Dal 1920 questa terminologia è stata trasferita dalla denominazione di specifiche classi di composti organici all’individuazione degli atomi di carbonio all’interno di una determinata catena di atomi di carbonio o di un anello, come primari (un collegamento C−C), secondari (due collegamenti C−C), terziari (tre C−C collegamenti) e, per estensione, quaternari (quattro collegamenti C−C).

fig-4c-prim-sec-terz-quatIl Dr. H.J. Wagner ha trovato un primo riferimento al carbonio quaternario in un articolo di A. von Baeyer[3] del 1866 sui prodotti di condensazione dell’acetone.

ibaeyer001p1

A. von Baeyer

Scrive Baeyer:

Per quanto riguarda il legame degli atomi di carbonio tra loro, questi composti sono notevoli perché contengono un atomo di carbonio legato a quattro altri atomi di carbonio…

Il nome alcol isopropilico con cui è talvolta ancora chiamato il 2-propanolo viene attribuito dallo storico della chimica Jensen al chimico Hermann Kolbe[4] che in un lavoro sulla struttura del composto (1862) si riferì a esso come “alcol propilico isomerico” (cioè isomero dell’alcol propilico “normale”, 1-propanolo).

fig-6-hermann_kolbe

Hermann Kolbe

Un altro storico, M.P. Crosland, sostiene però che il prefisso iso− per designare l’isomero di un dato composto era già usato prima che Kolbe lo applicasse agli alcoli e che ovviamente provocò ambiguità quando si scoprirono composti con più di un isomero.

Il prefisso neo−, dal greco neos, che significa “nuovo”, è stato usato in altre scienze prima che in chimica (ad esempio, neolitico, in paleontologia). Dal 1880 è diventato di uso comune in mineralogia come un modo per distinguere le (supposte) nuove varietà di minerali precedentemente noti (ad esempio, neocianite, neotestite, ecc). Sembra che sia stato applicato per la prima volta in chimica da Auer von Welsbach nel 1885, quando riuscì a separare la presunta terra rara didimio (dal greco “didimos” che significa gemello) in due nuove frazioni, una delle quali chiamò neodimio e l’altra praseodimio, nomi in seguito dati agli elementi presenti in tali frazioni.

W.B. Jensen riporta che il prefisso neo− è stato utilizzato per la prima volta in chimica organica nel 1898 dal chimico Martin Onslow Forster, che lo utilizzò per nominare i derivati di un isomero della bornilammina. Tuttavia, come con il prefisso iso-, l’uso del prefisso neo− per distinguere isomeri cadde presto in disuso quando divenne chiaro che potevano esistere più di due isomeri per lo stesso composto.

*Questo post è sostanzialmente una traduzione ragionata dalla rubrica del Journal of Chemical Education: “Ask the Historian”: W.B. Jensen, Origins of the Qualifiers Iso-, Neo-, Primary, Secondary and Tertiary, J. Chem. Educ., 2012, 83, 953-4.

[1] C. Gerhardt, Traité de chimie organique, Vol. 4, Didot Frères: Paris, 1856, p. 592.

[1] Charles Frédéric Gerardt (1816-1856) chimico francese, fu allievo e collaboratore di Justus von Liebig e di Pierre Auguste Dumas e fu tra i riformatori della nomenclatura e delle formule chimiche. Si occupò di acilazioni sintetizzando, fra l’altro, l’acido acetilsalicilico seppure in forma instabile e con impurezze. Notevole la sua opera magna: Traité de Chimie Organique, 4 vol, Paris 1853-56.

[2] Alexandr Michajlovic Butlerov (1828-1886) chimico russo realizzò numerosi nuovi metodi di sintesi organica, fra cui quella degli zuccheri a partire da formaldeide in presenza di idrossido di calcio come catalizzatore (reazione del formosio).

[3] Johann Friedrich Wilhelm Adolf von Baeyer (1835 – 1917) famosissimo chimico tedesco, autore di numerosissime sintesi fra le quali quella dell’indaco. Premio Nobel per la chimica 1905.

[4] Hermann Kolbe (1818-1884) famosissimo chimico tedesco è stato uno dei fondatori della chimica organica moderna. Autore di moltissime sintesi che ancora oggi portano il suo nome. Fu eletto membro dell’Accademia Svedese delle Scienze. Medaglia Davy della Royal Chemical Society.

Etica della Chimica

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex Presidente SCI

La trasformazione della società obbliga la chimica ad adeguarsi alle nuove richieste: da quelle di prima necessità a optional e specialità.

In questi adeguamenti si sono presentate alla chimica sempre nuove sfide in cui, proprio per contrastare l’impronta del peccato originale che la chimica pesante ha imposto purtroppo per lunghi decenni, il chimico ha cercato di innestare un comportamento sul quale i principi etici fossero ben presenti, e così nel tempo ha affrontato difficili situazioni che hanno richiesto l’assunzione di responsabilità, di codici di condotta, in definitiva di etica.

Ripercorrendo gli ultimi 30 anni della storia della chimica sono molte le domande che più spesso il chimico si è dovuto imporre per salvaguardare l’etica della sua professione. af59ce7f9d5b95db168372d305d69a47

Il brevetto è una forma di proprietà intellettuale, è un motore dell’economia; è giusto che lo sia anche quando conoscere il prodotto significa salvare vite innocenti?

Quando si costruisce una molecola per un fine programmato giusto fa parte dell’etica scientifica prevedere i possibili altri usi della molecola inventata?

È davvero accettabile che la sperimentazione animale sia assunta a metodo di riferimento per la valutazione di tossicità ed ecotossicità?

La battaglia contro gli OGM su una base più culturale e politica che scientifica, è accettabile dinanzi allo spettro della fame nel mondo o non è più giusto battersi per una loro presenza controllata mettendo a comune metodi di valutazione?

I risultati delle ricerche vengono sempre espresse in maniera responsabile e corretta o essi vengono influenzati dalla volontà di perseguire successi e di condizionare l’assegnazione di futuri finanziamenti?

ethicsSiamo capaci come cittadini, ricercatori, chimici di sacrificare, sia pure in parte, le nostre libertà individuali in favore degli interessi più ampi della comunità sociale?

Viviamo ormai nella “società del rischio” (un termine coniato da Ulrich Beck in un testo ormai classico con questo titolo che risale alla metà degli anni Ottanta), definita come la nuova fase della società industriale, in cui “il rapporto tra produzione di ricchezza e produzione di rischi s’inverte dando priorità alla seconda rispetto alla prima”. Secondo la formulazione che ne danno i due autori – Kourilsky e Viney – che per primi hanno affrontato la questione, “il principio di precauzione implica l’adozione di un insieme di regole finalizzate a impedire un possibile danno futuro, prendendo in considerazione rischi tuttora non del tutto accertati”. La precauzione occupa un atteggiamento intermedio fra quello in cui si applicano le procedure della prevenzione (cioè dell’attivazione di misure volte a evitare o a limitare le conseguenze di un agente di rischio accertato) e quello delle semplici congetture (che non giustificano la sospensione di uno sviluppo tecnologico utile del quale i futuri possibili effetti avversi, in assenza di evidenze anche parziali, possano soltanto essere ipotizzati). Qual è il livello di intermedialità ottimale?

chm-414-02-poster_updatedTutte domande a cui non è facile dare risposte certe, ma noi chimici sappiamo che solo rispondendo con la nostra coscienza di lavoratori e di scienziati riusciremo a rinsaldare quel legame con la società civile dal quale dipende il nostro futuro ed il successo nel nostro impegno sociale.

ethics2L’altro aspetto fondamentale è quello dell’immagine della Chimica nella società civile. La chimica è stata ed è una delle discipline più discusse, amate, contrastate. Spesso se ne confonde l’essenza con l’uso che ne viene fatto, spesso si individua nel chimico solo qualcosa di artificiale e quindi da contrapporre al naturale, spesso si parla di rischio chimico e di inquinamento chimico, mai di vigilanza chimica e di protezione chimica che pure esistono.

La chimica è disciplina altamente creativa, induttiva nel suo approccio alla conoscenza, rispettosa del metodo sperimentale ma al tempo stesso proprio per questo capace di uscire dal suo stretto campo di azione (la modificazione molecolare) per correlarsi con le altre scienze, sperimentali e non, esatte e non tecniche, umanistiche, strettamente scientifiche.'I find it harder and harder to get any work done with all the ethicists hanging around.'

Chimica e mafia. La storia di Adolfo Parmaliana.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Ieri si è conclusa in Cassazione una storia che ci riguarda, come chimici e come cittadini; quella del collega Adolfo Parmaliana, ordinario di Chimica Industriale presso UniMe, attivo politicamente a Terme Vigliatore, morto suicida il 2 ottobre di 8 anni fa.

parmaliana1La sua storia è stata raccontata da un giornalista siciliano Alfio Caruso nel libro “Io che da morto vi parlo”.Ed. Longanesi.parmaliana2

Qui ricordo a grandi linee cosa è successo ringraziando il collega Domenico Sanfilippo di averlo posto alla mia attenzione.

Nel testo troverete qualche link utile alla lettura dei documenti originali.

Adolfo nasce a Castroreale il 12 marzo 1958; si laurea in Chimica nel 1981 con una tesi su The system Benzene – Cyclohexane as a model for the storage and transportation of energy. Use of Pt/ g-Al2O3 honeycomb catalysts e diventa professore associato nel 1998 presso l’Università di Roma La Sapienza. Insegna poi al Dipartimento di Chimica Industriale e Ingegneria dei Materiali dell’Università di Messina, come ordinario di chimica industriale, coordinando il Dottorato di Ricerca in “Tecnologie Chimiche e Processi Innovativi” e come direttore del Master di II livello in “Tecnologie Energetiche Ecocompatibili”. Adolfo Parmaliana presiedeva la Montalbano Clean Energy Scarl e coordinava il “Catalysis Group” presso lo stesso Dipartimento di Chimica Industriale di Messina; era stato consulente per l’ambiente del sindaco di Roma, Veltroni. Autore di 120 pubblicazioni, 136 comunicazioni a Congressi nazionali ed Internazionali, 5 brevetti si è occupato a lungo della catalisi delle reazioni di ossidazione degli idrocarburi e poi più recentemente di energia rinnovabile.

Fin qui il Parmaliana chimico.

adolfo_parmaliana_11Ma esisteva in parallelo un Parmaliana cittadino, politicamente impegnato; Parmaliana fu in prima linea nella lotta contro la mafia: grazie anche alle sue denunce fu sciolto il Consiglio Comunale di Terme Vigliatore per associazione mafiosa.

Iscritto giovanissimo e per decenni all’allora Pci, ha difeso le ragioni della legalità, della correttezza, del buongoverno nella sua piccola patria, Terme Vigliatore, un paesino che si trova a pochissimi chilometri da Barcellona Pozzo di Gotto, zona sotto il dominio dei grandi boss di Cosa Nostra e dove confluiscono e s’intrecciano mafia, massoneria, alta finanza, pezzi rilevanti delle Istituzioni.
Scrive Caruso: Così il piccolo professore amante dei libri, dei vestiti eleganti, della Juve e idolatrato dai suoi allievi diventa, quasi a sua insaputa, un testimone scomodo da zittire, soprattutto dopo che le sue denunce hanno portato allo scioglimento del Comune di Terme per infiltrazioni mafiose. Emarginato dal suo stesso partito, subisce la vendetta di quel Partito Unico Siciliano (PUS) che lui per anni ha indicato quale connivente con il peggio della società. Il suicidio, spiegato da una terribile lettera d’accusa alla magistratura locale, appare, allora, l’unico strumento per non darla vinta ai persecutori e riaffermare la superiorità del Bene sul Male.

Barcellona Pozzo di Gotto è stata descritta ripetutamente come la “seconda Corleone” ossia come una delle basi storiche della mafia siciliana, come il terreno della “masso-mafia” ossia di una struttura intrecciata di massoneria e mafia che ha usato la massoneria per entrare in stretto contatto con le istituzioni, e qui sta il cuore del meccanismo che ha portato al lucido suicidio di Parmaliana. Parmaliana non si è semplicemente suicidato per disperazione, ma ha usato il proprio suicidio, avvenuto non nel territorio di Barcellona P.d.G., ma in quello di Patti come un’arma vera e propria, che gli ha fatto perdere la battaglia della vita ma che gli ha consentito di vincere una guerra molto più ampia. Si è suicidato in un territorio che sapeva essere meno provato dagli effetti della masso-mafia e nel quale le indagini sarebbero state più libere; e così è stato.

Un atto eroico che merita la nostra ammirazione.

Cosa era successo?

Adolfo era segretario dei Ds ed era stato candidato a sindaco alle amministrative del 2002 a Terme Vigliatore. Ma già prima di quel periodo, sulla base della sua conoscenza del territoro e del sistema di potere masso-mafioso, Parmaliana aveva portato fin davanti al CSM l’inazione della magistratura locale e delle istituzioni e in particolare del Procuratore Cassata, ma anche del sindaco eletto Cipriano. Parmaliana aveva presentato – già nel dicembre del 2001 – una nota al Consiglio superiore della magistratura, e Cassata fu sentito – nel marzo del 2002 – dall’organo di autogoverno dei giudici nell’ambito di un procedimento per incompatibilità ambientale poi archiviato. E questo non fa onore al CSM.

Il Procuratore Antonio Franco Cassata, presidente del circolo para-massonico barcellonese “Corda Fratres” (Cuori Fratelli), frequentato da mafiosi e amici di mafiosi (come riferito in Parlamento dall’onorevole Antonio Di Pietro e dal senatore Giuseppe Lumia), appariva già allora come il coordinatore della situazione di intreccio mafia-istituzioni.

Negli anni successivi Parmaliana tentò di contrastare il Consiglio eletto che di fatto rappresentava la mafia; erano talmente forti le ingerenze mafiose che dopo 4 anni di battaglie nel 2005 il Consiglio fu effettivamente sciolto per mafia, un colpo durissimo per la criminalità organizzata. Con i suoi esposti sul Piano regolatore, sull’abusivismo edilizio, su certe transazioni fatte dai politici del suo paese, Adolfo contribuì allo scioglimento per infiltrazione mafiosa del consiglio comunale.

A questo punto la risposta non si fece attendere, sotto forma di una azione di killeraggio, di calunnia della figura e dell’opera di Parmaliana. Parmaliana venne rinviato a giudizio per diffamazione, proprio per avere denunciato il malaffare dell’amministrazione locale e ovviamente capì che dietro a questo c’era il ferreo controllo sulla magistratura esercitato attraverso la figura del Procuratore Generale di Messina, il Cassata appunto.

Quel professore che non scendeva a compromessi finì con l’essere emarginato anche all’interno della sua parte politica. Al suo fianco era rimasto solo l’amico Beppe Lumia, tra i pochi – insieme a Claudio Fava e Sonia Alfano – che ne ha difeso la memoria dopo la scomparsa.

Lucidamente Parmaliana decise di rispondere con un atto estremo, che da una parte denunciava i suoi calunniatori, ma che dalll’altro metteva in gioco forze sane della magistratura, ambienti non toccati dalla mafia. Ecco perchè decise di suicidarsi , ma lo fece a Patti non nel suo letto.

Dopo la sua morte, il cui senso appare chiaro anche grazie ad una lettera che lasciò e in cui denunciava la situazione, la lotta continuò; arrivarono durante l’anno successivo dei dossier costruiti ad hoc per inquinare la memoria di Parmaliana ed arrivarono anche a Caruso, che stava scrivendo il libro, proprio come estremo tentativo di inquinare le prove.

Nel settembre 2009, a quasi un anno dalla morte un dossier anonimo – nel classico stile dei corvi – cerca di screditare la memoria di Parmaliana, mettendo in dubbio moralità e qualità professionali del professore. Il dossier venne inviato a numerosi destinatari, tra cui lo stesso senatore Lumia e lo scrittore e giornalista Alfio Caruso, a poche settimane dall’uscita del suo libro Io che da morto vi parlo (Longanesi, novembre 2009). Come accerterà in seguito la magistratura di Reggio Calabria, una delle finalità del dossier anonimo era proprio quella di ostacolare la pubblicazione del libro di Caruso.

La famiglia Parmaliana sporge denuncia contro ignoti, evidenziando la circostanza che allo scritto anonimo era stata allegata una sentenza della Cassazione inviata da una cartoleria di Barcellona Pozzo di Gotto alla segreteria personale del procuratore generale Antonio Franco Cassata

La Procura di Reggio Calabria avviò le indagini e il 17 novembre 2010 il sostituto procuratore reggino Federico Perrone Capano accompagnato dal capitano del Ros Leandro Piccoli – si recò negli uffici della Procura generale di Messina per interrogare i cancellieri in servizio in quell’ufficio.

A questo punto però il caso interviene in modo inatteso, il caso, ma anche la convinzione di impunità di sua eccellenza Cassata.

Il Procuratore generale Cassata fu molto ospitale con il suo giovane collega e l’ufficiale dell’Arma tanto da mettere a disposizione il suo ufficio per l’audizione dei testimoni. Durante la verbalizzazione delle dichiarazioni dell’ultima teste, Angelica Rosso, il capitano Piccoli nota in una vetrinetta una carpetta con un’annotazione manoscritta: “copie esposto Parmaliana”; appena più giù, la dicitura, sempre manoscritta, “da spedire”. Perrone Capano allora telefona al suo superiore Giuseppe Pignatone per riferirgli di quanto aveva visto. Pignatone telefona a sua volta a Cassata per spiegargli la necessità di procedere al sequestro.

La carpetta conteneva quattro copie del dossier anonimo – senza il timbro dell’ufficio con il numero di protocollo – e su due di queste erano attaccati due post-it con su scritto “Procura ME” e “Procura Reggio C.”. La Procura di Reggio Calabria iscrive Cassata nel registro degli indagati e, emerse le responsabilità del procuratore generale, lo rinvia a giudizio il 3 dicembre 2011 per diffamazione pluriaggravata in concorso con l’aggravante di aver addebitato alla presunta vittima fatti determinati e di aver agito per motivi abietti di vendetta.

Dunque un errore basato sulla convinzione di essere intoccabile che costa caro al Cassata.

cassata-franco-end

sua eccellenza l’ex procuratore generale di messina

La magistratura in tutti e tre i gradi di giudizio (culminati appunto negli atti pubblicati due giorni fa, ma la cui sentenza fu emessa già nel luglio di quest’anno) individua in lui il “corvo” e dunque anche il responsabile morale del suicidio di Parmaliana; da adesso in poi sarà ovviamente materia di risarcimento civile (per il momento l’unico risarcimento è di 800 euro), ma almeno giustizia è fatta nel senso che Cassata è ormai fuori gioco, scoperto come falso accusatore e di fatto coinvolto nelle mene masso-mafiose.

E’ da dire che già dalla prima condanna di primo livello nel 2013 sua eccellenza potentissima Cassata lasciò ingloriosamente la magistratura, una fine da basso impero venne definita, dopo 48 anni di dubbio e spesso disonorevole servizio.

Ricordiamo che esistono almeno due premi inititolati a Parmaliana; uno è il Premio antimafia, assegnato quest’anno a Graziella Proto e al Capitano Mario Ciancarella e l’altro è quello bandito dal GIC, Gruppo Interdivisionale di Catalisi, alla migliore tesi di dottorato sulla tematica”Catalisi per lo sviluppo sostenibile”.

Ed è giusto che sia così; quando Adolfo si è sacrificato aveva 50 anni, una famiglia con due figli e aveva due vite , una da scienziato ed intellettuale affermato, l’altra da coraggioso uomo politico; e due premi lo ricordano; due vite sacrificate non per disperazione, ma con un atto di coraggio, direi lucidamente sacrificate quel 2 ottobre 2008 sul viadotto Messina-Palermo per vincere una battaglia che è anche la nostra.

Adolfo non ti dimenticheremo. La tua storia si è conclusa in Cassazione, ma continua nella vita di ogni giorno.

Si vedano anche.

http://vittimemafia.it/index.php?option=com_content&view=article&id=445:2-ottobre-2008-patti-me-si-suicida-adolfo-parmaliana-suicidio-per-mafia-ma-non-solo&catid=35:scheda&Itemid=67

http://www.antimafiaduemila.com/home/di-la-tua/239-parla/61838-premio-adolfo-parmaliana-a-graziella-proto-e-al-capitano-mario-ciancarella.html

Le molecole della pubblicità: l’Acchiappacolore.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Acchiappacolore o Prendycolore o termini simili (in inglese Colour catcher è un brand, un marchio) sono diventati comuni con il diffondersi della lavatrice, l’elettrodomestico forse più osannato dopo il frigorifero.

acchiappa2 acchiappa1

Lavare la biancheria è certo l’attività domestica che, dopo il cucinare, ha assorbito più tempo umano nella storia; in tempi recenti l’uso della macchina lavatrice e il diffondersi dei detersivi sintetici ha cambiato completamente il panorama, contribuendo certamente non solo a migliorare il livello igienico (rendendo per esempio la stiratura inutile dal punto di vista igienico; pochi sanno che stirare, cioè sottoporre ad alta temperatura i tessuti era un modo per migliorare l’igiene e distruggere i parassiti umani o dei tessuti in mancanza di detersione effficace) ma anche alleviando il lavoro domestico ( fatto ancora oggi in gran parte dalle donne).

I vestiti sono fatti di tessuti e di pelli naturali o sintetici; entrambi tendono ad essere ampiamente colorati; tessuti colorati hanno un significato culturale ed un ruolo pratico ed economico enorme; e non devo aggiungere nulla per far comprendere la quantità di chimica che è presente in tutte queste attività: tessere e filare, colorare, lavare sono tutti processi con un elevato contenuto di processi chimico-fisici complessi e spesso non ben conosciuti.

Per comprendere come funziona l’acchiappacolore dobbiamo capire come vengono colorati i tessuti; esistono tre metodi principali di colorazione:

i coloranti (naturali o sintetici) possono essere legati/incorporati alle fibre con legami deboli o con legami covalenti a partire da una soluzione del colorante oppure meccanicamente intrappolati nelle fibre a partire da un colorante in fase solida (insolubile in acqua e più propriamente detto pigmento a questo punto) o generati da una sostanza comunque intrappolata nella fibra, per esempio rendendo insolubile un agente colorante solubile assorbito dalla fibra in soluzione (mediante l’azione di una terza molecola detta mordente).

Tutti questi diversi metodi di colorazione hanno vantaggi e svantaggi; di alcuni coloranti abbiamo accennato nei nostri post perchè i coloranti hanno fatto la storia della chimica.

In modo simile i trattamenti delle fibre naturali o la sintesi di fibre artificiali a partire dal petrolio costituiscono una parte significativa delle tecnologie chimiche moderne. L’introduzione delle fibre sintetiche ha modificato ovviamente le tecniche di colorazione a causa delle diverse proprietà chimiche dei materiali usati. La lana, che è essenzialmente una proteina, o il cotone che è essenzialmente un polisaccaride sono diversi ovviamente dalle fibre poliacriliche che sono polimeri a base di monoacrilato e dei suoi derivati modificati con altri monomeri (polimeri mod-acrilici).

acchiappa3

monomero di acido acrilico

Qualunque sia il metodo usato per colorare il tessuto, una parte del colore tende ad essere perso nel tempo; perfino quando si usano metodi stabili, come legami forti, covalenti o intrappolamento il processo di colorazione è solo parzialmente efficace; come risultato durante la fase di lavaggio una parte del colore tende ad essere perso nella soluzione di lavaggio. Questo fenomeno viene ad esser amplificato dall’uso di detersivi potenti o perfino di enzimi nei detersivi.

acchiappa4

The prevention of in-wash dye transfer Rev. Prog. Coloration vol. 30 2000 p. 63-66

Come conseguenza è normale lavare separatamente panni bianchi, panni colorati o perfino panni di diversi colori (e ovviamente fatti di tessuti diversi: lana e seta che sono proteine abbisognano di trattamenti più blandi per non essere alterate (denaturate) completamente dalle temperature o dalle sostanze detergenti usate per il cotone, il lino, che sono polisaccaridi, o le fibre sintetiche).

Mentre a livello industriale esistono vari metodi per minimizzare questo problema (sbiancamento dei capi ingrigiti, trattenere in soluzione i colori tramite polimeri disciolti in soluzione, uso di catalizzatori che li distruggano) a livello casalingo la separazione dei diversi tessuti è rimasto l’unico metodo fino all’introduzione negli anni 90 del secolo scorso dell’acchiappacolore.

L’acchiappacolore, in inglese Colour catcher, è costituito da strisce di tessuto naturale o artificiale (in questo caso si parla di tessuto-non tessuto, ossia fibre sintetiche, tipicamente fatte di polibutilentereftalato, PBT, pbt_chemica_struc-svgcalandrate a caldo, ossia pressate fra due cilindri di acciaio, una specie di carta di polimero) modificate in modo da fungere da materiale sacrificale, assorbendo il colore in soluzione e colorandosi a loro volta al posto dei tessuti in lavaggio. L’inventore fu Patrick McNamee, all’epoca alla Spotless Punch e attualmente capo del reparto sviluppo alla Henkel irlandese.

La Henkel è una grossa multinazionale con oltre 50.000 dipendenti, un fatturato di oltre 18 miliardi di euro e fondata nel 1866 (proprietaria di brand, di marchi come Dixan, Loctite, Testanera, che esemplificano i settori del suo mercato).

Esistono tuttavia parecchi brevetti, alcuni anche detenuti da una ditta italiana, la Lamberti che sono basati su supporti non sintetici, ma naturali (Lamberti è una multinazionale italiana con mezzo miliardo di fatturato, 1300 dipendenti, fondata nel 1911 ed attiva nella chimica fine).

acchiappa6

basic blue 9

acchiappa5 In linea generale le strisce sono fatte in modo da ospitare composti che funzionano da scavengers, cioè da catturatori, da trappole di coloranti carichi negativamente, anionici, ossia sali di coloranti “acidi”, che hanno perso il loro protone e sono quindi ioni negativi bilanciati da uno controione positivo, poniamo sodio.

I coloranti acidi sono dunque anionici, mentre gli scavengers le trappole fissate sull’acchiappacolore sono costituite da polimeri o comunque da materiali carichi positivamente e uno dei problemi pratici è di ancorare solidamente gli scavengers al supporto, perchè i polimeri cationici usati tendono ad essere a loro volta solubili in acqua. I coloranti acidi sono usati per colorare la seta, la lana e il nylon. Comunque anche i coloranti cosiddetti “diretti”, usati per la cellulosa e derivati possono essere sensibili a questo meccanismo

Queste le parole dell’inventore per spiegare il meccanismo.

The charge attracts it first and then you have a chemical reaction, so basically the dye cannot actually come off the sheet, it is stuck on to the sheet then so it can’t roam in the wash to transfer or to cross stain into your garments,” dice McNamee.

Giusto per chiarire i coloranti basici sono anch’essi sali di basi organiche ma sono chiamati anche cationici perchè la molecola base di colorante in soluzione si ionizza diventando uno ione positivo. Anche i coloranti basici sono usati per lana, seta ma anche per fibre acriliche o mod-acriliche, ossia copolimeri di acido acrilico e altri monomeri.

Il più comune gruppo anionico attaccato ai polimeri acrilici è il sulfonato

–SO3 , immediatamente seguito dal carbossilato –CO2. Essi sono introdotti o come risultato di una copolimerizzazione o come residui degli inibitori di polimerizzazione anionici (i gruppi che chiudono la catena) . E’ questa funzione anionica che rende gli acrilici adatti ad essere colorati con coloranti cationici , dal momento che così si forma una forte interazione ionica fra polimero e colorante (in effetti, questo è esattamente l’opposto della interazione colorante acido-proteina).

Quali molecole sono usate come scavengers e come sono fissate al supporto?

Rispondere alla domanda non è banale in quanto l’argomento è pochissimo analizzato nella letteratura scientifica ufficiale e occorre ricorrere alle risorse dei brevetti; sulle pagine di Google patents si trovano varie indicazioni a patto di leggere i brevetti ed analizzarli nel tempo.

Se si fa questo sforzo si vede che c’è stata una notevole evoluzione nel tempo delle tecniche chimiche e dei materiali.

Per esempio nel primo brevetto di McNamee si vede che la sostanza cationica adsorbita sul supporto è una molecola piccola, un composto di alchilammonio del tipo

acchiappa7come descritto nel testo del brevetto:

Patent number: 6117191

Abstract: A method for the production of a dye scavening substrate which comprises the steps of: (a) providing a cellulosic substrate; (b) passing the substrate through a bath containing an alkaline solution of an N-trisubstituted ammonium 2-hydroxy-3-halopropyl compound having general formula (I) or a salt of epoxy propyl ammonium having general formula (II), wherein X is a halogen radical, Y is a chloride, bromide, sulfate or sulfonate, and the R’s are methyl, ethyl, butyl or benzyl groups or an hydroxyl substituted derivative thereof; (c) subjecting the substrate to a pressure of between 0.69-1.37 MPa (100-200 psi); (d) heating the substrate to a temperature of approximately 35.degree. C.; (e) wrapping the substrate in a water impermeable material and rotating the material at a temperature of between 15.degree. C. and 100.degree. C.

Type: Grant

Filed: December 21, 1998

Date of Patent: September 12, 2000

Assignee: Little Island Patents

Inventor: Patrick McNamee

La molecola viene bloccata sul supporto grazie ad un trattamento termico.

Ma un approccio completamente diverso viene seguito nel brevetto Lamberti, molto più recente (2009).

Marco Luoni e Giuseppe LiBassi scrivono nel brevetto US2009/0137170A1 intitolato NON-WOVEN COLOUR-CATCHER FABRIC AND METHOD FOR ITS PREPARATION che “l’uso di polimeri cationici come agenti sequestranti è ben conosciuto come sono conosciuti i loro problemi”… “la solubilità in acqua”.

Siamo quindi passati nel tempo da molecole cationiche piccole adsorbite a polimeri cationici; cationicpolymers

per ovviare al problema della solubilità dei cationici si è ricorsi poi a linkare i polimeri cationici fisicamente o chimicamente (cross-linking) al supporto, ma la cosa si è manifestata molto complessa e allora i due propongono di usare un metodo ancora diverso:

It has now been found that it is possible to prepare a non-Woven colour-catcher fabric by treating a non-Woven fabric With a cationic sequestering agent, particularly a cationic polymer, and subsequently applying on its surface, by printing technique,an anionic polymeric dispersing agent.

Quindi bloccare con una pasta anionica il supporto cationico.

La Lamberti e lo stesso McNamee hanno successivamente anche introdotto il supporto “naturale” ossia non tessuti woven-nonwoven, ma fatti di fibre naturali e quindi veri e proprii woven fabrics, tessuti propriamente detti, con tutte le problematiche del cambio di supporto; attualmente questa sembra essere la nuova frontiera brevettuale, e quindi di ricerca.

La lettura dei brevetti offre uno scorcio sulla inventività industriale e anche nelle politiche di ricerca della chimica industriale che dovrebbero essere esplorate dagli storici della chimica. Fra l’altro come in tutti i campi gli italiani non sono secondi a nessuno.

In definitiva gli acchiappacolore sono un metodo furbo ed efficace per rimediare a problemi di coloranti fuggitivi anche in ambiente domestico, aiutando a ridurre la quantità di acqua necessaria e il numero di cicli e dunque il consumo energetico delle operazioni di lavaggio.

Si veda anche:

Formulation of colour-care and heavy-duty detergents: a review, Color Technol. 121 (2005) p.1-6

Read more: http://textilelearner.blogspot.com/2012/01/basic-dyes-properties-of-basic-dyes.html#ixzz4Q3tuOolu

L’immagine del chimico nei film

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Credo sia ormai risaputo per tutti i chimici che la nostra disciplina e noi stessi ci portiamo addosso come dei fardelli diversi stereotipi. Per quanto riguarda la chimica l’associazione tra questo aggettivo ed i concetti di nocivo o sintetico. Per quanto riguarda invece il chimico si possono trovare diversi tipi di immaginario comune che si ritrovano in alcune pellicole cinematografiche (si veda anche sul medesimo argomento il post di Giorgio Nebbia).

Andiamo con ordine. Possiamo dire che nell’immaginario collettivo di moltissime persone un chimico sia perfettamente rappresentato da un’immagine come questa.

film1L’industria cinematografica ha spesso prodotto pellicole dove il protagonista è appunto un chimico, completamente assorbito nei suoi strani esperimenti e dove nelle sequenze si mostrano a profusione matracci o becher riempiti di liquidi colorati dai quali immancabilmente vediamo levarsi fumi abbastanza persistenti.

Uno tra questi film è “Un professore tra le nuvole” del 1961 cui fece seguito il remake del 1997 “Flubber un professore tra le nuvole” che ebbe come protagonista Robin Williams.

mv5bmzkwzjmxntqtmwu0ms00ywi0lwe3ywmtmtg2othmzda0nmzkxkeyxkfqcgdeqxvymdmxmjqwmw-_v1_sy1000_cr007531000_al_ flubber-un-professore-tra-le-nuvole

Il protagonista principale il professor Brainard è un docente di chimica con la testa tra le nuvole appunto, talmente concentrato nel lavoro di laboratorio al punto di dimenticare svariate volte la data del proprio matrimonio e quindi non presentarsi all’altare suscitando le sacrosante ire della fidanzata.

Come risultato dei propri esperimenti Brainard riuscirà a produrre il Flubber , cioè una gomma capace di vincere la forza di gravità (la parola deriva da Flyng Rubber gomma volante). Nel remake il Flubber sarà invece un organismo vivente di color verde contenente una gran quantità di energia, praticamente indistruttibile e molto elastico.

Ovviamente come in moltissimi altri film l’esperimento chimico che darà origine al Flubber si concluderà con una comica esplosione nel laboratorio.

Il primo film del 1961 fu addirittura candidato a tre premi oscar per la miglior scenografia, fotografia ed effetti speciali.

E una foto di scena chiarisce quanto dicevo prima riguardo all’immaginario collettivo del lavoro del chimico.

Vi è ritratto Robin Williams nei panni del Professor Brainard.

film2Direi che il topos del chimico è pienamente raffigurato. I due film nel complesso sono divertenti e godibili. Ovvio non si debba cercarvi altro che del sano divertimento (che confesso di aver provato quando li ho visti) e niente di più.   Dal punto di vista prettamente chimico sono totalmente inverosimili, ma potrebbero forse risvegliare negli spettatori più giovani l’interesse per la chimica dei polimeri. E questo non è certamente un male. Una precisazione, il fantomatico Flubber servirà in entrambe le pellicole per creare automobili in grado di volare e da qui il doppio senso del “Professore tra le nuvole” , considerando anche il fatto che questo film è basato su un racconto di Samuel W. Taylor che si intitola “A situation of gravity”.

Un altro stereotipo che ho potuto notare in due film molto diversi, uno comico con Renato Pozzetto “E’ arrivato mio fratello” uscito nei cinema nel 1986, il secondo tratto dal romanzo di Beppe Fenoglio “La paga del sabato” che venne trasmesso in televisione nel 1975, riguarda il chimico al servizio della criminalità, che si occupa di valutare la purezza di dosi di sostanze stupefacenti da immettere nel mercato clandestino.

Nel primo film Pozzetto interpreta il doppio ruolo di due fratelli gemelli, uno Ovidio timido ed impacciato, ed il secondo Raffaele burlone e autore di piccole truffe. Raffaele sarà incaricato di nascondere una bustina di cocaina dal proprietario del night dove suona il pianoforte. Il locale è una copertura per traffici di droga. Per occultare la bustina di droga non troverà di meglio che nasconderla tra le bustine di eucaliptolo che Ovidio usa per le inalazioni contro il raffreddore. Ovidio farà quindi inalazioni di cocaina con esiti assolutamente esilaranti, mentre Raffaele riporterà al trafficante una bustina di Eucaliptolo. Sarà smascherato da un serissimo ed impassibile chimico che in una scena successiva vediamo prima agitare la polvere in un provetta classica (un comunissimo tubo da saggio), e poi assaggiare direttamente la polvere contenuta nella bustina portandosela alla lingua. Esprimendo poi con aria decisamente ieratica un verdetto inappellabile : “Polvere di eucaliptolo”.

film3Nel secondo film tratto dal romanzo di Fenoglio ( La paga del sabato un film di Sandro Bolchi, con Lino Capolicchio, Jenny Tamburi, Nino Pavese, 1977, )

11449_mini 3581_miniil protagonista è Ettore, ex partigiano che fatica a rientrare nella quotidianità del dopoguerra dopo avere vissuto con molta intensità le vicende della lotta partigiana. Deciso a consentire una vita economicamente dignitosa alla fidanzata Vanda ma insofferente all’idea di lavorare in fabbrica decide di collaborare con Bianco, ex partigiano anch’egli, dedito a traffici illegali, ponendogli però come condizione che le azioni che compiranno riguardino solamente coloro che dopo l’armistizio si fossero schierati con i nazifascisti. Ettore stanco della vita da malvivente abbandonerà Bianco e cercherà di riscattarsi iniziando a fare il camionista. Ma quando ormai tutto sembra rientrare nei binari della normalità, un banale incidente chiude in modo crudele, inaspettato, la vicenda. Palmo il vecchio compagno che lo ha seguito quando ha deciso di chiudere con gli affari illeciti , lo investirà accidentalmente con il suo stesso camion, guidato maldestramente. In questo sceneggiato mi ha colpito un dialogo che si svolge tra Bianco ed Ettore. Un dialogo che mette in luce lo stile narrativo di Fenoglio. Bianco ha deciso di entrare nel traffico di stupefacenti. Ma ha bisogno di qualcuno che sia in grado di capire se la cocaina che ha deciso di acquistare da trafficanti francesi sia pura e non tagliata. Ettore allora decide di contattare un chimico che conosce. Bianco ha bisogno di una persona fidata che non riveli nulla dei loro traffici. Ettore lo rassicura ricordandogli che Faraone (questo il nome di battaglia che il chimico aveva quando era partigiano) è ormai dipendente dall’alcol e quindi “starà buono e tranquillo e farà tutto quello che gli diremo noi”. Quando Bianco dice ad Ettore se non c’è nessun altro da poter coinvolgere Ettore gli risponderà: “Faraone è un alcolizzato come dici tu, ma nessuno conosce le materie come le conosce lui. Ci sono dei farmacisti già ricchi che si leccherebbero il gomito per avere la sua scienza da far fruttare

A quel punto Bianco risponde ad Ettore “Allora è quello che ci vuole per riconoscere se la cocaina che i francesi ci vogliono vendere è di prima qualità”.

kokain_-_cocaine-svg

cocaina

cache_13357406

idrato di terpina

film4A Faraone viene promessa una ricompensa di ventimila lire e visto che l’azione si svolge nel 1946 si tratta una cifra più che rispettabile. L’incontro con i contrabbandieri francesi avviene al confine del Monginevro. Con la medesima tecnica dell’assaggio cioè di fatto con l’utilizzo dell’analisi organolettica Faraone smaschererà la truffa dei contrabbandieri francesi sentenziando “Pas cocain, non è cocaina è idrato di terpina”. La figura del chimico qui assume una veste totalmente diversa da quella dell’esempio precedente. Forte della sua conoscenza della materia e dei suoi segreti è quasi seduto su uno scranno, e poco importa che metta la sua professionalità al servizio di contrabbandieri e trafficanti.

Non emette nessun referto analitico date le circostanze, ma ugualmente viene tenuto in altissima considerazione. E non ha bisogno nemmeno di servirsi di un laboratorio. Olfatto e gusto lo supportano adeguatamente. E’ depositario di una scienza che può far fruttare.

La chimica come la matematica a molte persone tende a creare una sorta di blocco perché ritenuta difficile e noiosa. L’immagine del chimico che viene descritta in questi film è per noi che di chimica ci occupiamo forse superficiale. Ma se ci riflettiamo un attimo potremo trovare, soprattutto nel chimico descritto nel film tratto dal libro di Fenoglio riferimenti che ci portano fino al ciabattino che, nel racconto arsenico del sistema periodico rimane ammirato dal piccolo laboratorio dove ha portato dello zucchero da fare analizzare (o meglio chimicare piemontesismo ormai conosciuto). E dopo aver ritirato il referto ammirato esce dicendo . “Bel mestiere il vostro: ci va occhio e pazienza. Chi non c’è la è meglio che se ne cerchi un altro”.

Ma perché solo occhio? Sappiamo usare anche gusto e olfatto…

Le piante: un chimico “verde” al servizio dell’ambiente

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Luigi Campanella, ex presidente SCI

Lo studio dell’impatto sull’ecosistema dell’immissione di sostanze inquinanti ha incrementato l’interesse per la realizzazione di metodi analitici affidabili, sensibili, accurati, economici, possibilmente automatici e continui, utilizzabili anche per misure in situ, per la determinazione di queste sostanze. L’applicazione al campo ambientale ha determinato l’utilizzazione di bioindicatori costituiti di sistemi biologici vegetali capaci di fornire informazioni sulla concentrazione nell’ambiente di inquinanti, attraverso modificazioni di caratteristiche fisiologiche come: la velocità di crescita, la capacità respiratoria e fotosintetica, la variazione del metabolismo e dell’attività enzimatica.

Le piante offrono notevoli possibilità come bioindicatori, perché hanno notevoli scambi gassosi con l’ambiente. Inoltre, avendo una minore complessità di sistemi di difesa, presentano una sensibilità maggiore nei confronti di molte sostanze inquinanti. I bioindicatori vegetali sono sufficientemente affidabili ed economici, permettono quindi l’allestimento di reti di biomonitoraggio capillari e consentono un’adeguata mappatura del territorio relativamente alle specie chimiche tossiche, inoltre forniscono informazioni sulla biodisponibilità dell’inquinante: ad esempio l’Egeria densa propagandosi rapidamente nel territorio, si rileva particolarmente adatta a questo fine.

egeria_densa_icelandFra le classi di inquinanti più ubiquitari e concentrati di certo ci sono i metalli pesanti. Per “metalli pesanti” di intendono gli elementi di transizione caratterizzati da una densità maggiore di 7,0 g/cm3. Per quanto concerne la provenienza dei metalli pesanti essa può essere esogena, causata da attività umane, o endogena, quando i metalli sono rilasciati dal substrato pedogenetico, in quest’ultimo caso i metalli sono denominati: “inquinanti geochimici”. La contaminazione esogena è dovuta a processi industriali come la vulcanizzazione, la concia, la galvanizzazione, la fusione di metalli, i quali producono fumi e scorie contenenti Zn, Cu, Pb, Cr, Ni, Cd, Hg. I metalli si accumulano nel suolo, ad elevate concentrazioni, in pochi anni, Attività civili come: impianti di riscaldamento, inceneritori, traffico motorizzato (combustione di carburanti, consumo di lubrificanti e pneumatici), liberano nell’ambiente Pb, Cd, Zn. L’agricoltura, mediante l’uso di antiparassitari, incrementa l’inquinamento da Cu, Hg, Mn, Pb, Zn; inoltre i processi industriali per la sintesi di fertilizzanti come i perfosfati, liberano nel suolo: Cd, Co Cr, Cu, Mn, Mo, Ni, Pb, Zn. La reattività di questi metalli, il potere inquinante e la tossicità per gli organismi sono determinate dalle seguenti proprietà:

  • la possibilità di assumere diversi stati di ossidazione e di conseguenza di formare composti intermedi;
  • le proprietà catalitiche;
  • la capacità di formare complessi utilizzando gli orbitali d incompleti;
  • la tendenza a dar origine a composti non stechiometrici con i solidi ionici;
  • l’elevata affinità per il gruppo SH (reazione acido-base di Lewis).

Le costanti di instabilità dei complessi formati dal metallo sono correlate al suo grado di tossicità: i metalli che hanno una tendenza maggiore a formare complessi con molecole organiche, hanno una capacità più elevata nel danneggiare le membrane biologiche. All’interno della cellula, tali metalli, inibiscono l’attività di alcuni enzimi, legandosi ai gruppi tiolici, carbossilici e amminici degli amminoacidi; in presenza di gruppi tiolici e di ossigeno, Cu, Co, Mn, Ni, inducono la formazione di radicali liberi e di ioni superossido, che producono dannose perossidazioni. Inoltre, il DNA risulta essere un bersaglio primario per i numerosi siti di interazione che presenta: infatti sono stati riscontrati, tra gli effetti biologici indotti dai metalli, l’azione mutagena, rilevabile attraverso anomalie cromosomiche e l’attività cancerogena.

I meccanismi con cui le piante captano i metalli pesanti sono: mediante secrezione radicale dei fitosiderofori e di metalloriduttasi e mediante estrusione di protoni. Il metallo, legato a peptidi e acidi, entra nella corrente xilematica e floematica. Nel citosol i metalli, inducono sintesi di fitochelatine, di metallotineine, di proteine ad alto peso molecolare da stress del tipo delle heat shock proteins. Le simbiosi batteriche e micorriziche incrementano questi processi. Le piante metallofite si distinguono in: “indicatrici”, nel caso in cui si riscontra un’uguale concentrazione di metallo nel suolo e nella pianta; “escluditrici” quando il metallo è  più concentrato nelle radici rispetto al suolo; “accumulatrici” quando il metallo è più concentrato nelle parti aeree rispetto alle radici e al suolo.

piante

Le ipotesi che possono derivare per un meccanismo di detossificazione sono per i metalli, una possibile compartimentalizzazione nel vacuolo in forma di complessi con acidi organici come malato, citrato o con peptidi ricchi di gruppi tiolici (glutamil-cisteinil-glicine o fitochelatine).

Nel caso invece di inquinamenti organici la captazione da parte delle piante è in relazione con il loro coefficiente di ripartizione ottanolo-acqua: composti con logKow>1,8, più idrofobiche, attraversano le membrane lipidiche radicali, ma alcune sostanze eccessivamente idrofobiche non entrano nello xilema. Le sostanze meno idrofobiche, logKow<1,8, non penetrano nelle radici. Un modello concettuale di detossificazione, per composti aromatici come l’acido 2,4-diclorofenossiacetico acido_24-diclorofenossiacetico_struttura-svge il pentaclorofenolo, 240px-pentachlorophenol-svg

prevede la captazione per traspirazione dello xenobiotico, reazioni di ossidazione, riduzione, idrolisi, la coniugazione con composti come il D-glucosio, il glutatione, aminoacidi o acido malonico. Infine l’inquinante viene compartimentalizzato nel vacuolo, o incluso nel materiale che costituisce la parete cellulare o nella lignina.

Captando questi inquinanti le piante finiscono per “sentirli” reagendo ad essi e su questo, come si diceva all’inizio, si basano i processi di bioindicazione. Dai bioindicatori la tecnologia ha derivato i biosensori con esiti e finalità più quantitativi rispetto a quelli più qualitativi dei bioindicatori.

I biosensori sono dispositivi costituiti di un trasduttore associato ad un catalizzatore biologico. Originariamente si tendeva ad usare un enzima purificato, recentemente si cercano nuovi materiali biocatalitici da associare a elettrodi ionoselettivi e a diffusione gassosa: piante, microrganismi, tessuti animali o vegetali. I vantaggi principali sono tempi di vita maggiori, bassi costi, una maggiore attività catalitica. Il regno vegetale è una fonte particolarmente ricca e varia di eventuale materiale biocatalitico, non solo per la varietà delle specie, ma anche perché le strutture specializzate per la crescita, la riproduzione, il deposito di nutrienti, recano un’attività biocatalitica altamente selettiva, concentrata e stabile. Durante la messa a punto del biosensore è necessario verificare se i processi metabolici siano rapidi, sensibili, selettivi.

fitodepurazione2Un ulteriore impiego dei vegetali quasi un’applicazione virtuosa dell’interazione “viziosa” fra sistemi vegetali e inquinanti, è costituito dal recupero ambientale di ecosistemi inquinati, secondo il concetto di phytoremediation, la cui applicazione si sta notevolmente diffondendo per la maggiore economicità, efficacia, la versatilità dovuta alla capacità di differenti specie di accumulare vari inquinanti anche presenti contemporaneamente, con un positivo impatto ambientale; le piante sono comunque indispensabili per la produzione   di biomassa ed energia. Quest’ultimo impiego, proposto da Cunningham nel 1995, può essere esteso alla decontaminazione di acque di scarico industriali.

La phytoremediation presenta diversi vantaggi: il basso costo, almeno il 25% in meno rispetto alla rimozione del terreno contaminato ed al suo stoccaggio in apposite discariche, la versatilità dovuta alla disponibilità di diverse specie vegetali accumulatrici di diversi inquinanti anche contemporaneamente presenti, il positivo impatto ambientale dato dal recupero paesaggistico del sito decontaminato.

Le foglie autunnali come fonte di utili sostanze naturali

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Fino ad oggi le foglie autunnali delle piante caduche, soprattutto alberi, sono state o compostate, o abbandonate in discariche, o peggio bruciate completamente aumentando così il carico di anidride carbonica nell’atmosfera. Il VTT Technical Research Centre della Finlandia, uno dei più importanti centri di ricerca tecnologica scandinavi, ha da qualche tempo avviato un progetto per l’uso sostenibile delle foglie nell’industria cosmetica, tessile, zootecnica e nutraceutica.

autumn-leaves-1

 autumn-leaves-nutra-1

Le foglie autunnali derivano il loro colore principalmente da carotenoidi arancioni e gialli, e antociani rossi.

carotenoidi-1

 (si veda anche https://ilblogdellasci.wordpress.com/una-alla-volta/astaxantine/ )

Oltre ai pigmenti, queste foglie contengono molte altre sostanze interessanti come polifenoli, lignina, carboidrati, proteine e composti che inibiscono la crescita di batteri dannosi. Come ho scritto in due precedenti post, polifenoli e antociani, per esempio, mostrano spiccate proprietà antiossidanti e possono avere effetti benefici sulla salute, per questo motivo vengono usati in nutraceutica.

Il VTT ha messo a punto un processo in cui le foglie raccolte in parchi e giardini vengono dapprima essiccate, poi macinate quindi vengono sottoposte a opportune estrazioni per ottenere le sostanze in esse contenute.

 

 Le fasi di lavorazione sono state sviluppate in laboratorio, il progetto è ormai entrato nella fase pilota, utilizzando grandi quantità di foglie raccolte nella zona di Otaniemi dalla società di smaltimento rifiuti Lassila & Tikanoja. Particolare attenzione è stata dedicata alla compatibilità ambientale del processo globale e alla sicurezza degli estratti prodotti.

La dottoressa Liisa Nohynek, senior scientist presso il VTT commenta: “In esperimenti di laboratorio abbiamo utilizzato vari metodi di estrazione dalle foglie. Sono ancora in corso esperimenti pilota per esaminare il funzionamento delle differenti metodologie estrattive e le relative quantità dei diversi composti attivi che possono essere isolati dagli estratti di foglie”.

I pigmenti ottenuti possono essere utilizzati anche in cosmetica e come coloranti naturali nell’industria tessile. La composizione chimica delle foglie varia ampiamente tra le diverse specie di alberi. Il valore aggiunto può essere ottenuto dalla lavorazione delle foglie solo di certi tipi di alberi.

Dopo l’estrazione, la biomassa residua ha un alto contenuto di sostanze nutritive e può quindi essere utilizzata come fertilizzante naturale in agricoltura, nei parchi pubblici, come pure nei giardini privati. D’altro canto questi rifiuti possono essere ulteriormente trattati per ottenere composti che inibiscono la crescita di battèri dannosi, un’altra caratteristica che potrebbe essere sfruttata in agricoltura.

antociani-1

Per le foglie autunnali si possono inoltre sviluppare ulteriori applicazioni. I composti ottenuti dalle foglie possono essere utilizzati anche come coloranti e conservanti alimentari, oltre che come supplementi nutrizionali. Inoltre, questi coloranti possono essere usati per migliorare le proprietà nutrizionali di cellule derivate da piante edibili, in fase di sviluppo presso la stessa azienda. Anche i carboidrati provenienti dal residuo di estrazione potrebbero essere utilizzati per la produzione di mangimi ricchi di proteine o come integratori in zootecnia. Infine, la biomassa residua ricca di sostanze nutritive può anche avere applicazioni domestiche, ad esempio nella coltivazione casalinga di funghi eduli.

Fonte: NUTRAIngredients newsletter – Botanicals and Herbals – 04-11-2016

La chimica e il nuovo presidente.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura  di Claudio Della Volpe

Pochi giorni fa gli USA hanno eletto un nuovo Presidente che rimarrà in carica almeno per 4 anni; lo scontro politico è stato durissimo come forse non era da parecchio tempo (sebbene già il caso Gore-Bush sia stato un sintomo che qualcosa stava cambiando nell’immagine almeno della strapotenza americana).

108761_gettyimages-621864896-heroQuesto ha avuto effetti anche in campo scientifico; gli USA sono da almeno 100 anni considerati il paese leader in praticamente tutti i settori scientifici di avanguardia ed in genere vanno fieri di questo primato, indipendentemente dal settore politico; tuttavia l’intellighenzia americana non fa eccezione alla regola generale che gli intellettuali siano di sinistra o comunque difficilmente siano di destra, e quindi il mondo scientifico americano tende ad essere democratico, piuttosto che repubblicano (d’altronde perfino gli artefici del potenziale nucleare americano caddero vittima del maccartismo, il caso Oppenheimer su tutti).

Alcune riviste divulgative ed informative di chimica, si sono schierate apertamente contro Trump, già nel corso della campagna elettorale; mi riferisco a Chemistry World, per esempio, espressione della prestigiosa Royal Society of Chemistry; e da questa rivista traggo un paio di commenti sulla elezione di Trump.

Mark Peplow, già chief editor di Nature, ha scritto un articolo durissimo (Trump scatenato), in cui ricorda le posizioni politicamente scorrette sui vari temi dal femminismo alla immigrazione manifestate da Trump ma cerca anche di capire cosa succederà in campo scientifico.

Peplow ricorda che Trump, contrario alla immigrazione, si pone agli antipodi di una politica aperta all’ingresso di ricercatori di altri paesi; con la sua retorica populista si pone in antitesi al pensiero critico; tuttavia ricorda anche che non ha fatto dichiarazioni specifiche contro la scienza, ma che ci si può aspettare che le richieste di un mercato “libero” siano in antitesi ai controlli più incisivi richiesti dal Toxic Substances Control Act (TSCA).

Il principale tema caldo riguarda tuttavia gli interventi in materia climatica; Obama ha giocato un ruolo essenziale nella ratifica di COP21 e anche nello sviluppo della nascente industria delle energie rinnovabili; le dichiarazioni di Trump sul mercato libero e la libertà di scelta del consumatore americano nei riguardi dell’energia fanno pensare che spingerà l’acceleratore sui fossili, ancora una volta; fra l’altro dovendo scegliere uno dei membri della Corte Suprema proprio mentre la Corte sta vagliando la proprosta di legge di Obama, il Clean Power Plan, per limitare le emissioni fossili, la cosa non sarà indolore.

Anche in campo educativo Trump ha espresso la posizione che debba essere il libero mercato a decidere gli orientamenti educativi senza che lo stato ci metta becco.

E conclude amaramente Peplow:

But it is a sad and worrying state of affairs when our best-case scenario is that the next US president is merely a mendacious, opportunist demagogue.”

In un altro articolo, a firma di Rebecca Trager, si legge:

Trump’s election sparks anxiety among scientists

ossia “L’elezione di Trump provoca ansietà fra gli scienziati”.

La Trager ricorda che mentre i democratici hanno ripetutamente espresso posizioni favorevoli all’ambiente della ricerca (per esempio proponendo di dare la cittadinanza americana a tutti coloro che si laureino o prendano il PhD in USA e promettendo di sostenere le agenzie di ricerca), Trump non ha fatto analoghe dichiarazioni, ma al contrario ha dato adito ripetutamente a sospetti opposti.

I democratici hanno fatto notare che Trump sarebbe ben felice di lasciare gli affari scientifici alle commissioni del congresso (a maggioranza repubblicana attualmente) e che se Trump decide di realizzare effettivamente i suoi piani di riduzione delle tasse e di investimento nelle infrastrutture americane (alquanto obsolete in alcuni casi) il costo di queste decisioni corrisponderebbe al taglio delle spese in ricerca; d’altronde Trump esprime direttamente gli interessi proprio dell’industria delle costruzioni, con un conflitto di interesse i cui effetti noi italiani ben conosciamo avendolo sperimentato direttamente con un altro famoso tycoon, leggermente più spelato.

Nell’articolo si fa notare come molti commentatori di ambito scientifico, biologi o fisici, concordino nel ritenere che gli obiettivi dichiarati di Trump siano in opposizione anche solo al mantenimento del livello di investimento in ricerca fatto finora e ci sia il timore sul mantenimento degli effettivi livelli di spesa in campo scientifico; questo per la prima volta da molti anni scalfirebbe il primato di investimento in ricerca degli USA, che hanno consentito a quel paese di costituire una solida base per il suo dominio politico; mai come per gli USA “Scientia potestas est!”.

C’è addirittura il timore che il brain-drain, l’attrazione che gli USA hanno avuto per molti decenni nei confronti delle migliori e più brillanti menti del pianeta sia vicina ad un punto di svolta; le idee politiche generali del nuovo presidente mettono in dubbio che si voglia continuare a sostenere questo processo che ha concentrato negli USA un potenziale umano incredibile e che ne ha reso possibile, ne ha concimato il potere economico e politico fin da prima della 2° guerra mondiale.

Mark Wilson, che dirige il dipartimento di chimica alla University of Durham in UK è d’accordo e sostiene che la situazione inglese sia analoga con Brexit: “The immigration stance would be worrying,’. ‘In a similar way to Brexit, it is a major problem to UK scientists because we rely on easy movement of scientists and easy scientific exchanges.

Ma i timori principali sono ancora una volta sui temi dell’ambiente con il blocco della TSCA e dell’accordo di Parigi sul clima. La cosa sarebbe tragica poichè altri paesi soprattutto emergenti potrebbero seguire la deriva trumpista.

Ovviamente le dichiarazioni delle associazioni padronali sono diverse; la SOCMA, l’equivalente della Federchimica per le piccole medie imprese, pur chiedendo di approvare il TSCA si dichiara certa dell’appoggio governativo dal punto di vista del controllo del mercato interno; in questo senso le industrie biotech e farmaceutiche per esempio che avevano ricevuto dalla Clinton una tirata di orecchi per le politiche troppo aggressive sul costo dei farmaci vedono di buon occhio la vittoria dell’antagonista Trump difensore del libero mercato. Non a caso il giorno dopo l’elezione il Nasdaq farmaceutico ha fatto un salto del 9%.

 

Le Toline precursori sintetici di molecole organiche nel Sistema Solare

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Diego Tesauro*

diegotesauroLa formazione di composti organici base della formazione della vita nel sistema solare è sempre stato oggetto di studio e di ipotesi da parte di astronomi. chimici e biologi. Questa ricerca ha le sue origini sia nella comprensione dell’evoluzione della vita sulla Terra che in una estensione della ricerca di forme di vita basate sulla chimica del carbonio verso altri sistemi planetari. In questo ambito va collocarsi anche un recente articolo pubblicato sulla rivista Nature (Nature 2016, 539, 65-68).

toline1

Plutone e Caronte (in secondo piano) in una imagine della NASA (NASA/JHUAPL/SwRI).

A seguito del flyby della sonda New Horizon del sistema Plutone-Caronte avvenuto nel luglio 2015 il team di New Horizons ha pubblicato un modello per spiegare la formazione del materiale di colore rosso scuro presente ai poli di Caronte. La materia rossa sarebbe costituita da Toline che quindi sono presenti su molti corpi del sistema solare, allargando la casistica, infatti inizialmente erano state ipotizzate sul satellite di Saturno Titano e sul satellite di Nettuno Tritone. Ma cosa sono le Toline? Perché rivestono tale importanza nella formazione di composti organici base per la vita?

toline2

New insights into the structure and chemistry of Titan’s tholins via 13C and 15N solid state nuclear magnetic resonance spectroscopy Derenne et al. Icarus 221 (2012) 844–853

Con il termine Toline il planetologo Carl Sagan, in un articolo apparso su Nature nel 1979 (Nature 1979, 277, 102- 9, 65-68), classificò una classe di macromolecole di formula generale CxHyNz presenti su Titano, unico satellite del sistema solare a presentare un’atmosfera costituita essenzialmente da azoto molecolare, per il 1.5 % da metano e tracce di idrocarburi a massa molecolare maggiore come acetilene ed etano. Il nome toline, coniato dallo stesso Sagan, viene dal greco θόλος (fango, sudiciume) ma anche θολός (volta, cupola) in quanto queste macromolecole presenti nello spazio si formano a seguito di scariche elettriche in ambiente di reazione contenente metano, acqua e ammoniaca o/e irraggiamento a lunghezza d’onda UV depositandosi come solido rosso scuro in fondo nel reattore.

Ottenute per la prima volta nel famoso esperimento di S.L. Miller (J. Am Chem Soc. 1955, 77, 2351-2361) in cui furono ottenuti per la prima volta amminoacidi da una miscela di metano, acqua, idrogeno e ammoniaca a seguito di una scarica elettrica nel reattore, negli ultimi trenta anni sono state riprodotte in laboratorio nelle più svariate condizioni ed analizzate mediante tecniche GC-MS e più di recente mediante spettrometria di massa ESI con analizzatore a trappola ionica ed a risonanza ionica ciclotronica a trasformata di Fourier. I risultati di queste analisi hanno permesso di dimostrare l’esistenza di queste macromolecole, che non possono dirsi polimeri, in quanto non hanno un’unità monomerica ripetitiva, anche a masse superiori alle 200 u.m.a. Inoltre una volta formatisi in assenza di ossigeno ed acqua , subiscono reazioni di ossidazione all’aria ed idrolisi se esposte all’acqua a temperatura intorno ai 100°C (J Am Soc Mass Spectrom. 2005, 16, 850 – 859). Recentemente, producendo in laboratorio Toline nelle condizioni che si verificano nell’atmosfera di Titano, analizzandole dopo averle esposte ad una soluzione acquosa ammoniacale per 2.5 anni, è stata ritrovata una composizione in amminoacidi simile a quella ottenuta nell’esperimento di Miller (Icarus 2014, 237, 182-189). Le toline pertanto sono uno step essenziale nella sintesi, nello spazio interstellare, di una serie di composti organici alla base della vita.

toline3La loro formazione può non essere limitata a determinate condizioni planetarie come quelle di Titano, ma formarsi anche nelle calotte polari di Caronte a seguito della combinazione di molteplici fattori che si verificano su questo satellite. Il suo asse di rotazione ha infatti un’inclinazione di 112° gradi sul piano dell’eclittica, per cui ha un polo che resta per lungo tempo non esposto alla radiazione solare ad una temperatura di 25K (basti pensare che la rotazione completa intorno al sole, a causa della distanza, avviene in 247,8 anni). Pertanto il metano e l ‘azoto emesso da Plutone e catturato da Caronte viene inglobato nei ghiacci e solo la successiva esposizione alla radiazione, terminato il lungo inverno permette la formazione delle toline prima che i reagenti volatili sfuggano all’attrazione gravitazionale di Caronte.

Ma le toline possono aver svolto un ruolo anche nella formazione di composti organici sulla Terra? Il dibattito è più che mai aperto, anche se le ipotesi più accreditate dalla comunità scientifica è che la l’atmosfera terrestre non abbia avuto un carattere riducente nelle prime centinaia di milioni di anni e che la materia organica sia arrivata da comete, meteoriti o comunque da oggetti provenienti dalle zone lontane e fredde del sistema solare. Ma le conferme devono essere ancora trovate e pur aggiungendo di anno in anno nuovi elementi al puzzle della nascita della vita, ancora la scienza necessita di molti dati per chiarire il quadro.

* Diego Tesauro è ricercatore confermato di Chimica generale ed Inorganica (CHIM03) presso l’Università degli studi Napoli “Federico II”. Dal 2013 afferisce al dipartimento di Farmacia. Si è occupato di complessi organometallici di metalli di transizione, di preparazione di polimeri di condensazione termosistenti. Negli ultimi quindici anni l’interesse si è spostato verso la progettazione, sintesi e caratterizzazione di coniugati peptidici. Ovviamente è anche da molti anni un astrofilo, afferente alla Unione Astrofili Napoletani (UAN).

Detergenti ed incidenti domestici. Conoscere qualche nozione di chimica è utile.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Gli incidenti domestici sono piuttosto frequenti in Italia. Negli incidenti in ambiente domestico le donne rappresentano la categoria più a rischio. Le donne, peraltro, rappresentano le figure chiave per la cura dei soggetti più vulnerabili (bambini e anziani).
Una donna su tre, che in età lavorativa ha avuto un infortunio in casa, lo subisce per attività di lavoro domestico.
Non sono peraltro infrequenti incidenti domestici dovuti all’uso non corretto o decisamente imprudente o esagerato di prodotti per la pulizia della casa. Un caso di questo genere successe anche a mia madre quando io andavo alle elementari. Ne parlerò in chiusura di questo articolo.
In Italia sono circa 397.000 ogni anno le donne le donne in età lavorativa cioè in età tra i 18 ed i 65 anni che si rivolgono ad un pronto soccorso per un incidente domestico, e di queste 110.000 stavano svolgendo un lavoro domestico non retribuito (si veda qui).
Per quanto riguarda incidenti legati all’utilizzo di prodotti usati per la pulizia della casa i problemi sono strettamente legati al soffocamento o all’ avvelenamento. Il 78% dei casi si riferisce a casalinghe.

trend_incidenti_domesticiQUALI SONO I PRODOTTI COINVOLTI?: Farmaci 32.1% Prodotti per la pulizia 27.6% Pesticidi 6.8%.

Fonti di rischio di avvelenamento, intossicazione e ustione sono soprattutto le sostanze chimiche contenute nei prodotti per la pulizia della casa, detersivi, disincrostanti, deodoranti, ecc. altamente nocivi se a contatto con la cute o con gli occhi.
Hanno tossicità alta gli antitarme (naftalina, canfora), i candeggianti (perborato di sodio o ipoclorito di sodio), i detergenti per il wc (benzalconiocloruro, acido fosforico e tensioattivi), i detersivi per lavastoviglie (soda caustica, sali di cloro e tensioattivi), gli anticalcare (acido cloridrico o solforico o fosforico o formico), disgorganti per lavandini e wc (soda caustica o acido fosforico), i prodotti per pulire il forno (soda caustica e butilglicole), gli smacchiatori (trielina, percloroetilene, acquaragia, acetone).

ebincolf-rischiochimicoL’impiego di prodotti di sintesi per la pulizia del vestiario e dell’ambiente domestico è cresciuto vertiginosamente negli ultimi decenni. La tendenza verso una maggior pulizia va spesso oltre le normali necessità estetiche ed igieniche assumendo in qualche caso anche aspetti decisamente nevrotici. Questo atteggiamento è rinforzato dall’incessante stimolo pubblicitario che è molto forte, visto che il mercato dei prodotti detergenti è caratterizzato da grande concorrenza tra i diversi produttori.
Nella formulazione dei tensioattivi non ionici troviamo alcoli a lunga catena, come i derivati poliossietilenici degli acidi grassi o gli APG (alchil-poli-glucosidi, etanolammidi, ammidi etossilate, etossilati amminici, acidi etossilati. I tensioattivi non ionici nelle determinazioni analitiche sono indicati come BIAS (Bismute Active Substances)
I tensioattivi anionici in genere sono sali costituiti da lunghe catene di atomi di carbonio, terminanti con un gruppo carbossilato o solfonato. Ad esempio numerosi saponi, il sodio lauril solfato (SLS), il lauril etossi solfatoo (LES), numerosi acidi alchil-benzen-solfonici (ABS).
Nelle determinazioni analitiche, i tensioattivi anionici sono generalmente indicati con l’acronimo MBAS (Methylen Blue Active Subtances) perché il blu di metilene non consente di distinguere tra i vari tipi di tensioattivi anionici.
I tensioattivi cationici usati principalmente negli ammorbidenti ma oggi presenti anche nei detersivi da bucato sono principalmente composti da sali d’ammonio quaternari.
Altri componenti che sono presenti nei prodotti di detergenza sono acidi quali l’acido citrico, sostanze candeggianti quali perborato o ipoclorito di sodio che possono essere presenti nei prodotti per la pulizia della casa e in quelli per il bucato o il lavaggio dei piatti.
Su questo tipo di prodotti sono presenti in etichetta il nome commerciale del prodotto, la tipologia (per esempio se detersivo per bucato o per piatti) la composizione e le eventuali frasi di rischio ed indicazioni di sicurezza per prodotti indicati come pericolosi.

simboli-rischio-chimico

E’ importante che le etichette non vengano mai rimosse e come regola generale non siano mai travasati in contenitori neutri come ad esempio le bottiglie di acqua minerale. Sono noti molti di casi di persone che hanno subito intossicazioni per avere bevuto per errore da bottiglie in cui erano stati travasati prodotti per la pulizia oppure che erano stati scambiati per errore (quindi è buona norma di prudenza non tenere le bottiglie di detergente nelle dispense o sotto i banconi dei bar).
http://www.lanazione.it/arezzo/2008/01/31/62206-cliente_intossicato_detersivo.shtml
Questi tipi di incidenti sono ovviamente quelli maggiormente pericolosi, ma va detto che l’uso dei detersivi può provocare allergie e sensibilizzazioni, oltre a dermatiti da contatto ed eczemi.
Nel caso di ingestione di un prodotto corrosivo come un detersivo per lavastoviglie l’effetto caustico danneggia il primo tratto del tubo digerente (bocca, faringe ed esofago).
Nel caso di ingestione accidentale solo l’acqua è adatta allo scopo di diluire il detergente eventualmente ingerito. Il latte che nella memoria collettiva è spesso associato ad una azione antiveleno peggiorerebbe la situazione perché essendo composto da grassi faciliterebbe l’assorbimento.
Ma uno dei casi abbastanza frequenti che si possono (purtroppo) ancora riscontrare è quello di mescolare prodotti per la pulizia che sono in commercio ma che hanno una tossicità più alta rispetto ai normali detergenti, per esempio la candeggina, i prodotti caustici in generale, come acido muriatico, ammoniaca, smacchiatori antiruggine, prodotti per disgorgare i tubi dei lavandini, acqua ossigenata.
Caso classico quello di acido muriatico commerciale (che può contenere dal 12 al 30-33% di acido cloridrico) mescolato con la candeggina e fu questo il caso che coinvolse mia madre che, nell’intento di pulire meglio la cucina li mescolò avventatamente. Successe quando io avevo dieci anni e frequentavo la quarta elementare. Fortunatamente mia madre non respirò troppo i vapori ed aprì immediatamente la porta finestra che dava sul balcone mentre io ero seduto al tavolo facendo i compiti ed assistetti all’incidente.
Il risultato fu solo un grande spavento per entrambi. Anni dopo fui in grado di spiegare a mia madre il rischio che avevamo corso.

NaClO+ 2 HCl—>NaCl+ Cl2+ H2O

La reazione tra candeggina (ipoclorito di sodio) ed acido cloridrico che aveva sviluppato cloro gassoso!
A me e a mia madre in quella occasione andò bene, ma negli anni ho sentito molte altre volte di incidenti similari avvenuti anche mescolando aceto e ipoclorito, oppure candeggina ed ammoniaca con sviluppo di clorammine.
Questi esempi dovrebbero essere sufficienti a scoraggiare ulteriori esperimenti di maldestra chimica domestica non controllata.
Nonostante questa disavventura mia madre non desistette mai per tutta la sua vita ed avemmo negli anni successivi molte discussioni su questa tendenza all’uso eccessivo dei detersivi, e questo successe quando già lavoravo nel campo della depurazione.
La sua giustificazione fu sempre la sua avversione per i piatti sporchi e la sensazione di untuosità dei piatti a suo giudizio non perfettamente sgrassati. Nonostante il sostegno di mio padre non riuscii mai ad averla vinta con lei.

schiume-cuneo

Da questo discendono due riflessioni principali: un chimico a volte non riesce ad essere profeta in patria, ed il martellamento pubblicitario può indurre una sorta di distorsione nel comportamento L’effetto poi può essere maggiore quando si passa dalla pulizia della casa a quella personale, nella quale si può instaurare anche il timore del giudizio o dell’esclusione sociale. Ma l’uso esagerato di prodotti per la pulizia e la detergenza ha come risultato una diffusione capillare di residui nell’ambiente con problemi importanti sullo stato di salute dei fiumi e dell’ecosistema.
E conoscere un po’ di chimica può essere in ogni caso un aiuto.

si veda anche: http://www.quotidianosicurezza.it/formazione/manuali/inail-quaderni-sicurezza-casa-biocidi-detergenti.htm

Le molecole della pubblicità: la biogenina e i suoi discendenti.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Continuando il nostro tentativo di presentare alcune delle molecole che si trovano in pubblicità, stavolta parliamo di quelle miracolose molecole che farebbero ricrescere i capelli.

La calvizie è una di quelle due o tre situazioni (come la miopia, le dimensioni degli organi genitali o la bellezza) a metà fra la malattia e la cultura e la cui soluzione ha sempre stimolato l’umana fantasia.

mikhail_gorbachev_1987

Alopecia androgenetica, con la cosiddetta”corona ippocratica” di capelli laterali.

In effetti esistono alcune molecole che sono in grado effettivamente di avere un effetto ormonale intenso sui bulbi piliferi di alcune zone del corpo e che sono farmaci veri e proprii con indicazioni e controindicazioni ben precise, con effetti misurati dalla letteratura internazionale; sto parlando di

Finasteride: 300px-finasteride-svgoriginariamente usata nell’ipertrofia prostatica inibisce l’enzima che trasforma il testosterone in diidrotestosterone, che a sua volta sembra essere all’origine della inefficienza o morte del bulbo pilifero. Efficace nella alopecia (nome scientifico della calvizie) androgenetica.

Alfatradiol:330px-alfatradiol_skeletal-svg

similmente alla finasteride, agisce come inibitore dell’enzima 5-alfa-reduttasi, con la differenza che la sua somministrazione avviene per via topica limitandone gli effetti sistemici; l’efficacia di questo farmaco innovativo sembra essere limitata alla capacità di arrestare (ma non invertire) la caduta dei capelli;

Minoxidilminoxidil_structure-svgscoperto nel 1980 come potente vasodilatatore e antipertensivo usato per via orale, se ne scoprì anche un effetto collaterale, l’irsutismo; ne seguì l’uso per via topica nell’alopecia.

Altre sostanze ad effetto farmacologico riconosciuto nell’alopecia sono la caffeina e la teobromina, che sembra funzionino attraverso il blocco della trasformazione di cAMP (AMP ciclico) che si accumula nei tessuti; in questo caso l’effetto si è ottenuto in vitro per via topica a concentrazioni relativamente basse (0.001%), ma che sono difficili da raggiungere e mantenere nel tessuto vivo.

In tutti i casi la sospensione del trattamento implica la scomparsa dell’effetto e dati i potenti effetti collaterali delle prime tre molecole ci sono dei problemi.

Si apre quindi un enorme mercato per l’invenzione di nuovi miracolosi risultati.

Se questi sono i farmaci riconosciuti per la alopecia in farmacologia cosa c’è nel prodotto di cui parliamo oggi?

La biogenina, cronobiogenina e sincrobiogenina sono alcuni dei componenti succedutici nel tempo del Bioscalin, che è un brand, un marchio della Giuliani, un produttore farmaceutico italiano che ha quasi 120 anni.

Chi, fra quelli della mia generazione, non conosce il famosissimo Amaro Medicinale Giuliani? Una soluzione idroalcoolica di Rabarbaro, Cascara, Genziana e Boldo, usato come stimolante della digestione.

2015-08-2415-17-25amaronew_1026La Giuliani fu fondata a Milano nel 1889 dal Dott. Germano Giuliani e da allora ha dato origine ad una serie di prodotti conosciuti nel nostro paese, come l’Amaro Medicinale, oppure i confetti lassativi, o appunto il Bioscalin, contro Capelli deboli e fragili con tendenza a cadere, capelli diradati e senza corpo, Problemi dei capelli con l’avanzare dell’età, Cuoio capelluto sensibile; la Giuliani è una azienda piccola, con meno di 100 dipendenti e un fatturato dell’ordine di 100 milioni di euro.

La biogenina è un brevetto Giuliani dei primi anni del millennio; non è facile capirne la esatta composizione; su internet si trovano vari siti che riportano di aver ricevuto notizie dirette dal produttore con la seguente formula (che do con beneficio di inventario)

Calcio D-pantotenato, ossia la vitamina B5,

acido_pantotenico

acido_pantotenico

N-(3-aminopropil)-tetrametilendiammina tricloridrato o spermidina cloridrato, una ammina presente nello sperma e in altri prodotti naturali,

300px-spermidine-3d-balls

spermidina

D-biotina (una vitamina, la vitamina H)

biotin_structure_jaLa presenza di spermidina o di un suo sale sembrerebbe confermata dal fatto che la Giuliani dal 2007 ha un brevetto in USA per l’uso di questa sostanza, insieme ad alcuni altri composti fra cui una almeno delle sostanze della futura sincrobiogenina.

Composition and a method for treating hair loss
US 7276538 B2

Estratto

The use of the polyamine known as spermidine, i.e., N-(3-aminopropyl) tetraminethylenediamine, as an active principle in the preparation of a composition for pharmaceutical or dietetic use in man for combating hair loss is disclosed.

capelli-crono-01Crono biogenina è definito come un integratore alimentare costituito da

Biogenina® con Zeaxantina (carotenoide)

zeaxanthin2-svge con Rutina (bioflavonoide)

255px-rutin

L’ultima versione del prodotto Bioscalin contiene la Sincrobiogenina che viene definita come la Cronobiogenina con aggiunta di Olea europea, Vitis vinifera e selenio.

Bioscalin nella sua versione più moderna è una lista lunga di prodotti estratti da sostanze naturali varie*.

E’ interessante notare che durante questa evoluzione la Giuliani si è scontrata con una serie di denunce delle associazioni di consumatori che denunciavano la pubblicità ingannevole del prodotto e ne è scaturita per la cronobiogenina una condanna al pagamento di una multa di 150.000 euro nel 2009 da parte dell’Autorità Garante della Concorrenza e del Mercato (AGCM) per pubblicità ingannevole.

Altroconsumo è tornato alla carica più di recente (2014) sulla sincrobiogenina e la procedura sembra ancora in corso.

altroconsumoletteraLa questione vera è che non ci sono prove indipendenti, ossia ottenute da ricercatori non stipendiati dalla Giuliani, sulla efficacia dei prodotti nella protezione e crescita o ricrescita dei capelli in condizioni di alopecia effettiva; dunque la biogenina nelle sue varie versioni non ha dato prove difendibili sul piano scientifico di una efficacia indiscutibile.

Si tratta in definitiva di una miscela di vitamine, antiossidanti vari e alcuni micronutrienti come il selenio, ma la loro efficacia nei casi in cui la finasteride o il minoxidil funzionano certamente è solo presunta o comunque non sostenuta da lavori pubblicati su riviste scientifiche di grande impatto o comunque da gruppi di ricercatori indipendenti. Le indicazioni per le quali viene propagandata sono descritte in modo generico; certamente non ha gli effetti collateriali di uno dei tre farmaci citati all’inizio ma nemmeno lontanamente l’efficacia nei casi di alopecia seri, non momentanei e casomai non dovuti a stress passeggeri; d’altronde occorre dire che chi è calvo completamente e da anni difficilmente avrà effetti realistici e duraturi anche con il più potente dei tre agenti citati all’inizio.

Quanto sono distanti dal placebo (che comunque può avere un effetto almeno psicologico) la biogenina o uno dei suoi discendenti? Visto il costo elevato e il risultato estremamente dubbio Altroconsumo sconsiglia di usarlo e noi ci associamo.

Personalmente ricordo con piacere che a volte mi facevano assaggiare in dose minima l’Amaro medicinale Giuliani e questo mi dava una sensazione di essere grande che non dimenticherò facilmente. Se avete un’alopecia e ci state male consolatevi con l’Amaro medicinale mentre vi fate impacchi di caffè diluito, oppure affrontate una terapia seria ma con potenziali seri effetti collaterali.

*Bioscalin con sincrobiogenina: composizione

Metionina

Vitamina C

Vitis vinifera seed dry extract

Vitamins E

Olea Europea The leaves dry extract

Pantothenic acid

Zinco

Rutina

Vitamina B6

Zéaxanthine

Rame

N-(3-ammopropil) tetramethylene trihydrochloride

Folic Acid

Selenio

d-Biotina

Other Ingredients: Bulking agent (microcrystalline cellulose), thickener (croscarmellose sodium), bulking agent (calcium phosphate, calcium D-pantothenate), coating agent (sodium alginate), anti-caking agents (magnesium stearate), silicon dioxide; agent coating (polyethylene glycol), coloring (titanium dioxide), coating agent (polyethylene glycol, hyaluronic acid), thickener (hydroxy-propyl-methylcellulose); dyes (cupric chlorophyllin, iron oxide yellow).

 

Sonicatori e Martini cocktail.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Michele Orsalla*

Inizio questo post con un ringraziamento alla redazione del blog della SCI per la grande opportunità concessami. E’ un onore poter condividere qua i frutti della mia “ricerca”, termine forse un po’ esagerato, ma che spero possa stuzzicare la Vostra curiosità.

Mi chiamo Michele Orsalla, ho ventinove anni, e ho conseguito la Laurea in Scienze Chimiche presso l’Università degli studi di Torino nel marzo 2010.hdmve25m6724-19072-kirc-u10901252906246eqg-1024x576lastampa-it(La Stampa Biella 20 otttobre 2016)

Forte della mia passione, mi diressi subito in Irlanda dove, presso la Dublin City University, ho potuto conoscere da vicino il mondo della ricerca in campo analitico strumentale, attraverso uno stage.
Fu un periodo molto travagliato del mio percorso, nel quale ho finalmente compreso che la mia strada mi avrebbe condotto dietro al bancone del Bar.

Da quel momento, quello che prima era un hobby e un piccolo mezzo di sostentamento, divenne professione; nel giro di pochi anni e qualche sosta qua e là per l’Italia, decisi di intraprendere il sentiero in solitaria, aprendo a Biella, mia città natale, un Cocktail Bar nel quale attualmente lavoro.

Tenni sempre presenti le mie radici, ed il mio istinto nel pormi domande su quanto vedevo o immaginavo; ed il giorno in cui un mio caro amico mi portò il suo piccolo sonicatore, subito iniziai a ragionare su come potessi utilizzarlo nel mio settore.
Un anno dopo mi accorsi del suo potenziale, quando feci dei test su distillati in purezza per capire se il degasing potesse in un qualche modo influire sul sapore del prodotto; basai il mio ragionamento sulla rimozione di CO2 ottenibile col sonicatore, e la conseguente riduzione di acidità che si sarebbe potuta riscontrare al palato.
Le mie molte “cavie” hanno potuto confermare: non vi erano cambiamenti strutturali sul sapore, ma fu evidente come la rimozione del “rumore acido di fondo” dovuto alla presenza di anidridi (carbonica e non), contribuisse ad un amplificazione complessiva del sapore effettivo del prodotto.

Sviluppai la tecnica e ne ottenni un “metodo”, sebbene la mia strumentazione fosse assolutamente povera e offrisse un potenziale ridotto.
La risposta che ottenni dalla clientela fu assolutamente positiva; le persone osservavano con interesse e mi domandavano cosa stesse succedendo al loro Bourbon mentre sentivano il brusio emanato dal sonicatore al lavoro.

ultrasound_range_diagram-svgIl confronto con altri colleghi ed ex compagni di studio mi portò ad esaminare un altra applicazione del trattamento ad ultrasuoni: le infusioni a freddo. Considerando, in maniera semplicistica, una bottiglia di distillato come un alcool titolato intorno al 40%, è semplice vederlo come un buon solvente per gli aromi ed i colori contenuti in piante e fiori.
Molti barman oggi preparano infusioni di erbe e spezie in distillati come Vodka o Gin al fine di ottenere prodotti elaborati per le loro creazioni; la tecnica erboristica di base prevede lunghi tempi di macerazione, a volte settimane, e per essere funzionale necessita di un’organizzazione più complessa del magazzino.

La frizione stimolata dagli ultrasuoni tra solvente e sostanza secca (erbe), può abbassare drasticamente le tempistiche di infusione senza ricorrere al calore, che rovinerebbe il distillato a causa dell’evaporazione dell’etanolo.
A questo pensiero seguì immediata la prova sul campo; il risultato fu immediato e grandioso.
La possibilità di lavorare per via “espressa” un drink dopo l’altro, permette non solo di eliminare lunghi tempi ed armadi traboccanti, ma anche di modulare a seconda del gusto del cliente, il grado di infusione desiderato.

Quando lessi La Stampa di giovedì 20 ottobre, compresi di aver stimolato l’interesse e, umilmente, ne fui molto soddisfatto. E’ bello poter guardare indietro, e notare che qualunque sia la strada percorsa, oggi lontana dalla chimica (davvero?), ogni passo, ogni momento ha concorso a questo traguardo per me molto importante.

http://www.lastampa.it/2016/10/20/edizioni/biella/il-chimico-che-prepara-cocktail-agli-ultrasuoni-5NHYJ5GxwjelNSn27DtmEI/pagina.html

La via da qui diviene impervia.

Sto cercando contatti nel mondo scientifico per poter elaborare meglio il progetto e dargli, finalmente, il carattere quantitativo che merita; in modo da poter offrire una panoramica di questi fenomeni precisa e fruibile da settori che, apparentemente, sembrano slegati dall’argomento in questione.
Le applicazioni che i trattamenti ad ultrasuoni possono avere al Bar o in cucina sono tantissime e rivoluzionarie.

Rinnovo il mio ringraziamento a tutti coloro che hanno letto e leggeranno questo post. Spero di non avervi tediato troppo, ma la cosa che più mi piacerebbe comunicare è che la scienza, in fondo, è il gioco più appassionante al quale l’uomo possa partecipare.

Un grande saluto a tutti, ed il mio migliore augurio per un buon lavoro.

*Michele Orsalla laureato in chimica gestisce L’Alchimista Cafè & Cocktail bar di Via Gorei 1, 13900 Biella (BI)

Si veda anche : http://www.food.actapol.net/pub/8_3_2007.pdf

http://www.sciencedirect.com/science/article/pii/S1350417710002385

https://www.hielscher.com/it/ultrasonic-cooking-basics-recipes.htm

John James Waterston: uno scienziato ignorato dai suoi contemporanei

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Il mondo delle verità fisiche, come di quelle matematiche, è chiuso come una sfera. Ogni nuova visione, se è profonda, è una fuga da questa specie di prigione. Si possono avere resistenze a fuggire, oppure non se ne può vedere proprio la ragione. (dal film “Morte di un matematico napoletano” di Mario Martone, 1992)

Il mio post sul modello di gas ideale aveva lo scopo principale di mostrare che l’immaginazione fa parte dell’abito mentale di tutti gli scienziati, non solo dei matematici come sembra sostenere qualcuno. Inevitabilmente ciò ha comportato un breve excursus sulla teoria cinetica classica dei gas, durante il quale ho notato che prima di Krönig e Clausius, uno scienziato scozzese poco noto, John James Waterston, aveva praticamente elaborato la stessa teoria rimanendo tuttavia ignorato dai suoi contemporanei. Mi sembra quindi opportuno ricordarne brevemente qui la vita e l’opera. Infatti, se da un lato è fuor di dubbio che si deve a Clausius l’aver stabilito che la teoria cinetica costituisce un ponte fra la teoria atomico-molecolare e la termodinamica [1], dall’altro né lui né Krönig fanno menzione del lavoro di John James Waterston, che circa un decennio prima era arrivato alla conclusione che la pressione di un gas è funzione del numero, della massa e della velocità quadratica media delle particelle che compongono il gas. Waterston giunse a questo risultato immaginando appunto il gas costituito da molecole infinitesime elastiche in continuo movimento, collidenti fra loro e con le pareti del recipiente[1].

John James Waterston, Scottish physicist

John James Waterston

Waterston propose dapprima la sua teoria nel 1843 in un libro dal titolo Thoughts on the Mental Functions (Oliver & Boyd Eds.) in cui tentava di applicare la teoria cinetica a funzioni biologiche e fisiologiche. Anche a causa del titolo fuorviante il libro presumibilmente non fu letto dai fisici e nessuno venne a conoscenza che conteneva i principi di base e alcune conseguenze della teoria cinetica sui gas. Il libro contiene anche una discussione sulla costituzione dell’atmosfera terrestre e il calcolo della velocità media delle molecole dell’aria a 60°C (2282 feet/s ≈ 2500 km/h) confrontata con quella del suono (1237 km/h), circa la metà in accordo con la stima di Waterston.[1]

rudolf-clausius

rudolf-clausius

Nel dicembre 1845 Waterston inviò una dettagliata memoria intitolata “On the physics of media that are composed of free and elastic molecules in a state of motion” alla Royal Society, che però si rifiutò di pubblicarla nei suoi Proceedings. Il manoscritto rimase dunque negli archivi della Royal Society e restò sconosciuto, anche perché presumibilmente a Waterston fu proibito di pubblicarlo in qualche altra rivista. Un riassunto apparve però nel 1846 nei Proceedings of the Royal Society e, successivamente nel 1851 apparve un altro riassunto nei Reports of the British Association che conteneva, fra l’altro, un primo enunciato del teorema di equipartizione dell’energia. Waterston cercò di far circolare un riassunto di dodici pagine della comunicazione del 1845 stampandolo privatamente, ma con scarso successo [1]. G. Brush riporta di aver trovato una sola citazione a Waterston in una review sulle teorie del calore pubblicata da Helmholtz nel 1855. La citazione fa riferimento a un articolo di Waterston del 1852 (“On a general law of density in saturated vapours”, Phil. Trans. 1852[2]) contenente note sulla teoria cinetica senza però entrare nei dettagli. A quei tempi i ricercatori pubblicavano i loro risultati e le loro teorie su giornali quali il Philosophical Magazine perché le Società Scientifiche come la Royal Society rifiutavano di pubblicare opere di autori privi di consolidata reputazione o ipotesi che mettevano in discussione le teorie stabilite, ciò che accadde appunto con il lavoro di Waterston[3]. Secondo l’opinione di John S. Haldane[4], “è probabile che nella sua lunga e onorevole vita, la Royal Society abbia commesso l’errore più disastroso rifiutando di pubblicare i lavori di Waterston, con le conseguenze che ciò ha avuto nel ritardare i progressi della scienza e offuscando la reputazione della scienza britannica” [2]

Ma chi fu John James Waterston? Nato a Edimburgo nel 1811, sesto di nove fratelli in una famiglia dai molteplici interessi culturali, ricevette l’educazione secondaria alla Edinburgh High School. Successivamente John James fu apprendista ingegnere sotto la direzione di Grainger & Miller ingegneri civili, frequentando nel contempo le lezioni universitarie di matematica e fisica di Sir John Leslie. Frequentò anche lezioni di chimica, anatomia e chirurgia. Il giovane John James si interessò al problema dell’interpretazione della gravità senza ricorrere all’”azione a distanza”. A 19 anni pubblicò un articolo in cui discusse le proprietà di un sistema costituito da particelle cilindriche collidenti, concludendo che esse potrebbero generare una forza gravitazionale. Alcune idee contenute in questo articolo furono poi utilizzate per sviluppare la sua teoria cinetica.

A 21 anni si recò a Londra dove trovò impiego come disegnatore e supervisore della rete ferroviaria che si stava rapidamente sviluppando in Inghilterra. Entrò a far parte dell’Istituzione degli Ingegneri Civili. Ottenne quindi un posto al Dipartimento di Idrografia dell’Ammiragliato, il cui direttore era il capitano (poi ammiraglio) Francis Beaufort[5] che più avanti comunicherà la memoria di Waterston sulla teoria cinetica alla Royal Society. Nel 1839, su suggerimento di Beaufort fece domanda e ottenne il posto di istruttore navale dei cadetti della East India Company, a Bombay. Waterston trovò questo incarico soddisfacente perché l’insegnamento di aspetti teorici della navigazione e dell’artiglieria nautica gli lasciavano tempo libero e l’accesso a libri e giornali nella biblioteca del Great College di Bombay. Fu durante il soggiorno in India che scrisse il libro pubblicato anonimo nel 1843 e diversi articoli scientifici (fra cui quello del 1845).

tn-beaufort

tn-beaufort

E’ comunque abbastanza strano che fra il 1856 e il 1860, periodo in cui Krönig, Clausius e Maxwell pubblicarono i loro fondamentali articoli sulla teoria cinetica, nessuno si sia accorto dei lavori di Waterston, neppure di quelli comparsi su Phil. Mag., nel 1858 sulla teoria del suono e nel 1861 riguardo una legge sull’espansione dei liquidi, specialmente tenendo conto che Waterston era vivente e pubblicava articoli che facevano riferimento alla sua teoria. Secondo l’opinione di Haldane: “Nel caso di un uomo di indole meno riservata e più combattiva di Waterston, l’errore dei revisori della Royal Society avrebbe avuto più importanza, ma in quel momento Waterston era lontano, in India, realizzò il significato del rifiuto ma era profondamente immerso nello studio della chimica fisica dei liquidi, e non aveva né l’inclinazione né il tempo per una polemica sul suo lavoro sui gas. Quando però fu rifiutato anche il suo articolo sulle densità di vapore, sembra si sia abbandonato alla disperazione”. [2]

john_scott_haldane_1910

john_scott_haldane_1910

Nel 1857 Waterston lasciò l’impiego in India e ritornò in Scozia, iniziando uno studio sperimentale sui liquidi che ebbe successo, una serie di suoi articoli furono pubblicati su Philosophical Magazine, l’ultimo dei quali apparve nel 1868. Apparentemente non ebbe contatti con gli scienziati che nel frattempo avevano rivalutato il suo contributo alla teoria cinetica, ad esempio Lord Kelvin (1824-1907) e James Clerk Maxwell (1831-1879).

Per il suo lavoro in India si trovò ad aver che fare con l’astronomia, il suo primo lavoro a carattere astronomico apparve nel 1842. Un suo articolo intitolato “Thoughts on the formation of the tail of a comet” venne pubblicato dalla rivista Monthly Notices of the Royal Astronomical Society nel 1859. Questo articolo ha una certa importanza perché, assumendo lo spessore di una molecola 1/200milionesimo di pollice (circa 10−8 cm ≈ 1 A), calcolò l’accelerazione che dovrebbe essere impartita a una molecola nell’ipotesi di completa trasformazione del calore in energia meccanica. L’ipotesi è errata, come riconosce anche Waterston nell’articolo, ma fornisce un valore di 800 miglia al secondo quadrato che almeno suggerisce l’ordine di grandezza.

Nel 1878 Waterston inviò altri due articoli alla rivista della Società Astronomica, entrambi gli furono rifiutati, a causa di ciò egli si dimise dalla Società di cui era stato membro fin dal 1852, continuando però a occuparsi di astronomia.

John James Waterston uscì dalla sua casa di Edimburgo la sera del 18 giugno 1883 e annegò in un canale vicino, forse cadendo nel canale a causa di stress da calore per le sue attività di osservazione astronomica.

La riscoperta e rivalutazione del lavoro di Waterston si deve soprattutto a Lord Rayleigh[6] che nel 1891 ebbe modo di leggere un articolo sulla teoria del suono, scritto da un autore sconosciuto, John Waterston, pubblicato nel 1858 su Phil. Mag. In questo articolo Waterston criticava le teorie del suono da Newton a Laplace poiché “incoerenti con le attuali idee sul calore e i gas di Clausius”[7]. Nell’articolo scriveva anche che “Negli Archivi 1845-46 della Royal Society si trova un manoscritto On the physics of media…che contiene la motivazione sintetica su cui poggia la dimostrazione di questi argomenti.”

Lord Rayleigh recuperò il manoscritto di Waterston dagli Archivi e si rese conto che conteneva uno sviluppo pressochè completo della teoria cinetica del gas ideale e delle sue conseguenze, compresa la trattazione dei calori specifici e forniva il primo enunciato del teorema di equipartizione dell’energia fra molecole diverse in equilibrio termico. La legge di Avogadro sui volumi ne seguiva consequenzialmente, così come pure quella di Graham sulla diffusione. Rayleigh ne fu talmente impressionato che lo fece stampare nelle Philosophical Transactions del 1892 [3].

waterstonpaperPer quanto ci riguarda più da vicino, Lord Rayleigh dice:

“Una gran parte dell’articolo [di Waterston] si occupa di chimica, e dimostra che anche le sue opinioni su questo argomento sono state molto in anticipo rispetto a quelle generalmente accettate all’epoca.”[3, Introduzione][8]

A sostegno di questa affermazione Rayleigh riporta una lunga lettera del Prof. McLeod[9], di cui qui ci limitiamo alle frasi inizali:

“Sembra una disgrazia che il manoscritto [di Waterston] non sia stato stampato quando è stato scritto, perché avrebbe chiarito molte idee della chimica… avrebbe potuto essere il mezzo per accelerarne il recepimento da parte dei chimici. L’autore mette a confronto le masse di volumi uguali di elementi e composti gassosi o volatili e, prendendo la massa di un volume unitario di idrogeno come unità considera la massa dello stesso volume degli altri elementi e composti volatili come rappresentanti il loro peso molecolare” [3 Introduzione]

A proposito del caso Waterston, Lord Rayleigh scrisse:

“La storia della memoria [di Waterston] suggerisce che le indagini altamente speculative, in particolare da parte di un autore ignoto, sono facilmente rese note al mondo attraverso qualche altro canale piuttosto che una società scientifica, la quale esita naturalmente ad ammettere stampati di valore incerto nei suoi Atti. Forse si può andare oltre, e dire che un giovane autore che si crede capace di grandi cose di solito farebbe bene a ottenere il riconoscimento favorevole del mondo scientifico con un lavoro di portata limitata, il cui valore è più facilmente giudicato, prima di arrampicarsi su vette più elevate.” [3, Introduzione]

A prescindere da questa opinione di Lord Rayleigh, potrebbe essere utile un esame storico del ruolo, dell’importanza e delle funzioni delle Società Scientifiche, in particolare la Royal Society, l’Académie des Sciences e la Berlin-Brandenburgische Akademie der Wissenschaften (già Kurfürstlich Akademie der Wissenschaften), fondate rispettivamente nel 1660, 1666 e 1700. A quanto pare dal presente caso riguardante gli anni dal 1840 al 1860 circa, per gli scienziati inglesi era molto importante pubblicare nei Proceedings della Royal Society, meno importante lo era per quelli tedeschi pubblicare negli Atti della loro Società, preferivano prevalentemente riviste tipo gli Annalen der Physik und Chemie.

 

Secondo S. Brush: “Waterston appare oggi come una figura tragica nella storia della teoria cinetica, un genio negato… che ha vissuto per vedere che altri hanno ricevuto credito per quello che egli aveva fatto prima e morto amareggiato dieci anni prima che il suo capolavoro fosse portato alla luce.” [1]

rayleigh

Infine, come fece notare Lord Rayleigh già nel 1892, il lavoro di Waterston ha ormai un valore solo poco più che storico, tuttavia chi volesse leggere l’articolo del 1845 ne trova il pdf al seguente link:

https://ia902609.us.archive.org/27/items/philtrans04661231/04661231.pdf

Bibliografia

[1] S.G. Brush, “John James Waterston and the kinetic theory of gases”, American Scientist, 1961, 49, 202–214

[2] J.S. Haldane, (editor) (1928) The Collected Scientific Papers of John James Waterston, including a biography by Haldane, 1928 Oliver & Boyd, Edinburgh

[3] J.J. Waterston, On the Physics of Media that are Composed of Free and Perfectly Elastic Molecules in a State of Motion. with an Introduction by Lord Rayleigh, Phil. Trans., 1892, 1-78. Contiene come Appendici I e II i due riassunti citati nel testo del post.

[1] In realtà questa ipotesi fu esposta nel 1821 da John Herapath (1790-1868) fisico inglese, che però ritenne che la vis viva (energia cinetica) dipendesse dalla velocità delle particelle invece che dal loro quadrato. Così il lavoro di Herapath fu dimenticato se non da Waterston, ma nel suo articolo On the Theory of Sound (1858).

[2] Anche questo lavoro fu rifiutato dai Proceedings of the Royal Society.

[3] Secondo il fisico e storico della scienza Stephen G. Brush, questo atteggiamento della Royal Society, suggerisce uno dei suoi fallimenti come organizzazione per far progredire la conoscenza scientifica. Rifiutando di pubblicare opere di autori senza reputazione o ipotesi in contrasto con teorie accettate, una società scientifica si sottrae a una delle sue funzioni più importanti. Non è un caso che la maggior parte delle grandi scoperte del 19°secolo furono pubblicate in riviste come Phil. Mag., inoltre la maggior parte dei Proceedings of the Royal Society erano di più difficile e noiosa lettura.

[4] John Scott Haldane (1860-1936), fisiologo scozzese fece importanti scoperte su funzioni del corpo umano e sulla natura dei gas. E’ stato un pioniere nella genetica delle popolazioni, investigò le cause di molte esplosioni in miniera, partecipò alla I Guerra Mondiale cercando di identificare i gas usati dai tedeschi, inventò il primo “respirator box”. Fu estimatore dei lavori di Waterston e curò una ristampa del suo libro uscito anonimo nel 1843 (v. rif. [2]).

[5] Sir Francis Beaufort (1774-1857), idrografo irlandese, Ammiraglio della Royal Navy noto per avere ideato la scala della forza dei venti che porta il suo nome.

[6] Lord Rayleigh (John William Strutt, 3° barone di Rayleigh, 1842-1919) fisico britannico. I suoi studi spaziarono in diversi rami della fisica, dalle dimensioni molecolari (fu il primo a calcolare un valore del Numero di Avogadro) alla fluidodinamica, dai gas (scoprì l’argon insieme a Ramsey) all’emissione di energia radiante. In acustica, va citato il suo importante Treatise on Sound, nel quale sono raccolti i suoi risultati in questo campo. Premio Nobel per la fisica 1904.

[7] Si pensi a quanto deve essere costata a Waterston questa ammissione ben sapendo che in larga misura la sua teoria era precedente a quella di Clausius.

[8] In particolare nel paragrafo 15, nella nota E e nelle pagine 63 e successive del rif [3], Waterston si occupa di chimica, giungendo a un passo dalla distinzione fra atomo e molecola di un elemento.

[9] Molto probabilmente si tratta di Herbert McLeod (1841–1923), chimico britannico, noto per l’invenzione del manometro di McLeod e per quella dell’eliofanografo.

Open Science e società scientifiche

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex Presidente SCI

La tavola rotonda aperta che si è tenuta in sede SCI sul tema OPEN SCIENCE: IL CONTRIBUTO DELLE SOCIETA’ SCIENTIFICHE (4 luglio 2016, Roma), organizzata dal gruppo Senior della SCI, con il supporto del gruppo Giovani, ha prodotto un’interessante discussione su un tema molto importante per i suoi aspetti scientifici, sociali, morali. Quanto un editore è padrone delle pubblicazioni dei suoi giornali tanto da poterne controllare ed impedire la diffusione? Quanto la comunità scientifica nel suo complesso può essere considerata il referente di questo patrimonio di conoscenza che essa stessa produce? Quanto le Società Scientifiche possono fare in favore di questa disseminazione?

Si parla nel nostro tempo con sempre maggiore frequenza di circolarità economica o di economia circolare nel senso che le risorse materiali ed immateriali devono essere fatte circolare affinché tutti ne possano usufruire riducendo gli scarti ed i residui al minimo. La Società Civile è il primo motore dell’innovazione in quanto essa pone i problemi che limitano la qualità di vita. La ricerca, la finanza, l’industria raccolgono questi SOS e li trasformano in prodotti dell’ingegno e delle tecnologie che se non tornassero alle origini sarebbero inutili, chiudendo così un cerchio virtuoso. La conoscenza scientifica, la scienza aperta sono componenti importanti di questo processo Alla strada per questo ritorno contribuisce sostanzialmente l’open access che però rappresenta per l’editore una perdita di guadagno.

benefits-and-practice-of-open-science-3-638   Una recente statistica economica ha dimostrato che gli editori (Springer, Elsevier, Urley) sono fra le imprese a maggiore profitto (si pensi intorno al 35-40% contro il 12% della BMW o il 22% della Coca Cola). Si potrebbe pensare di isolare questi editori, ma di fatto essi detengono il mercato delle riviste scientifiche a maggiore impact factor.Le riviste delle tre grandi forniscono altri servizi oltre alla pubblicazione: il referaggio. Tutti noi operatori abbiamo subito referaggi ai nostri lavori talvolta negativi. Ma sono tutti stati accettati come aiuto di colleghi per migliorare la presentazione dei nostri lavori. La ricerca di referee non è compito facile.

Le società chimiche europee hanno fuso i loro giornali scientifici firmando contratti che prevedono la non concorrenza: forse questo non permette molta libertà. Come associazione delle Società Chimiche però, si potrebbero fare alcune richieste: abbassare il costo di pubblicazione e rendere disponibile che i nostri lavori siano leggibili dai nostri soci e dopo un anno da tutti.

infographicIl futuro porterà molte altre novità (accogliere i lavori su tablet e potere inserire commenti, e già possibile)in buona parte derivanti dai progressi elettronici. Gli editori si sono mossi e sono organizzati. Se le Società restano con atteggiamenti passivi forse scrivono il declino della loro esistenza.

Come ha detto Carlos Moedas della Commissione Europea Ricerca, Scienze, Innovazioni Open Science genera ritorni economici e scientifici, produce eccellenze ed integrazioni, coinvolge in ciò per cui si paga.

openscienceEuchems prevede 3 livelli di Open Access gold, hybrid, green che corrispondono a livelli di accessibilità decrescenti affidati nella gestione all’editore, al sotto scrittore degli abbonamenti, agli autori (questo sembra la soluzione preferita dai chimici) e raccomanda la elevata qualità degli articoli accessibili liberamente, l’uguale opportunità rispetto a queste forme di comunicazione per tutti i ricercatori indipendentemente dalla loro collocazione geografica e di carriera, il monitoraggio dei processi in atto, il traguardo del costo zero per la comunità scientifica e del nessun svantaggio per gli autori.

Le Società Scientifiche Chimiche si sono mosse su questo tema:

l’American Chemical Society lanciando un sistema di pubblicazioni specifico per rapporti primari ed urgenti,

la Royal Society of Chemistry realizzando Chemical Science con IF ~ 9 e comunicato attraverso Open Science;

la Chem Pub Soc Europe (Wiley) con Chemistry Open pubblicato in regime Gold Open Access;

Elsevier ha introdotto la condivisione degli articoli come opzione utilizzabile dagli autori.

scienzascatolettaPassi significativi sono stati anche compiuti dalla società Chimica Olandese e Austriaca. Per l’Italia la Conferenza dei Rettori raccomanda……”l’adozione delle strategie coordinate per l’unificazione delle banche da gestire dal Ministero dei Beni e delle Attività culturali del Turismo (MIBACT) e dal Ministero dell’Istruzione, dell’Università e della Ricerca (MIUR). Tale raccomandazione nasce dalla convinzione che, per assicurare efficacia e operatività all’Open Access quale modalità di diffusione del sapere scientifico, sia necessario mettere parallelamente in atto le politiche volte a facilitare il reperimento e l’uso dell’informazione culturale e scientifica e ad ottimizzare le risorse e gli strumenti disponibili.

Nel Documento la CRUI e il CUN ribadiscono la necessità di rendere interoperabili e di integrare l’Anagrafe Nazionale dei Professori, dei Ricercatori e delle Pubblicazioni Scientifiche, i sistemi di gestione del deposito legale e della Bibliografia Nazionale Italiana, gli archivi istituzionali ad accesso aperto gestiti autonomamente dai singoli atenei e dagli enti di ricerca, consentendo l’identificazione univoca dei prodotti di ricerca, secondo gli standard internazionali di descrizione e codifica.

La Comunione Europea ha di recente annunciato la nascita di un Gruppo ad hoc composto da 25 membri a vario titolo coinvolti, compreso Euchemis.

Volendo sintetizzare vantaggi e non da sciogliere dalla Open Science fra i primi disseminazione più ampia, democratizzazione, trasferimento della conoscenza, educazione, partecipazione dei cittadini, sviluppo dei Paesi più poveri, fra i secondi politica dei brevetti, ricerca privata vs pubblica, efficienza del referaggio, preprints, diritti di autore.

openscience

Infine un altro studio statistico basato su questionari dimostra che i chimici non credono a benefici per la loro scienza derivanti dall’Open Science. Forse la SCI potrebbe cercare di aprire un dibattito che rappresenti l’ideale prosecuzione della tavola rotonda e soprattutto che cerchi di fornire elementi di valutazione chiari,che oggi mancano

Mozziconi biodegradabili, uno studio napoletano.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Su questo blog si è già affrontato grazie al bravo Giorgio Nebbia un argomento che è molto attuale, cioè il problema della diffusione ambientale dei mozziconi di sigaretta.
https://ilblogdellasci.wordpress.com/2016/06/08/mozziconi/
Il problema è a tutti gli effetti un problema ambientale emergente che purtroppo si lega a doppio filo ad un problema comportamentale quale quello del tabagismo.
Il secondo problema è stato affrontato ormai da decenni nell’ambito medico, i danni provocati dal fumo di sigaretta sono ormai noti. Ed è un problema che spesso provoca discussioni infinite con le persone che conosco e che fumano, purtroppo anche in ambito lavorativo. Il fumo di sigaretta è riconosciuto come cancerogeno. La valutazione di rischio da fumo passivo viene espressamente richiesta anche nel decreto legislativo 81/2008 che tutela la salute e la sicurezza nei luoghi di lavoro.
Per il problema della diffusione nell’ambiente dei mozziconi ho personalmente (purtroppo) un punto di vista molto particolare. La bicicletta è il mezzo di trasporto con cui mi sposto preferenzialmente anche per recarmi al lavoro. Mozziconi e residui di pezzi di vetro (i secondi i responsabili delle frequenti forature) sono senza dubbio i rifiuti che riscontro maggiormente sulle strade. E anche nei vari stadi di trattamento delle acque reflue. La maggior parte sono trattenuti dalle fasi di grigliatura, ma date le loro dimensioni hanno preso il post dei bastoncini cotonati come residui che sfuggono ai trattamenti di tipo meccanico, e che possono disturbare i trattamenti a valle, nonché provocare malfunzionamenti o intasamenti delle apparecchiature di processo.

mozziconi-sigarette

Il precedente articolo di Giorgio si concludeva con queste parole: “C’è bisogno di molta ricerca chimica sui mozziconi di sigarette, ma soprattutto c’è bisogno che le persone fumino di meno: ne trarrà vantaggio il loro corpo e il corpo comune di tutti noi, l’ambiente, le acque, il mare.
Qualcosa dal punto di vista della ricerca si sta iniziando a vedere. I mozziconi di sigaretta che non sono altro che i filtri delle sigarette sono composti da acetato di cellulosa, una fibra sintetica. La natura non ha il patrimonio enzimatico che sarebbe necessario per la sua degradazione e metabolizzazione, come invece avverrebbe se si trattasse solamente di cellulosa.
La cellulosa subisce per l’appunto una reazione di acetilazione nella quale vengono sostituiti gruppi acetili (COCH3) al posto di atomi di idrogeno. Questo tipo di modifica viene fatta per ottenere filtri maggiormente efficaci nel trattenere i prodotti di combustione del tabacco.

620px-cellulose_acetate-svg

 Ma questo trattamento rende i mozziconi inaccessibili all’attacco di microorganismi influenzandone in maniera negativa la biodegradabilità.
Dal punto di vista storico questa situazione ricorda quanto già avvenne con le molecole dei tensioattivi . Le molecole organiche ramificate resistevano alla degradazione batterica e quindi si dovettero mettere in commercio tensioattivi a catena lineare che garantissero biodegradabilità maggiore. Il termine biodegradabile all’80% divenne usuale nella pubblicità almeno per tutti gli anni settanta.
E per quanto riguarda i mozziconi la biodegradabilità aumenta se sottoposti a un trattamento di de-acetilazione idrolitica. In pratica smontare la molecola che si era costruita precedentemente.
Oltre a questo i mozziconi sono poco appetibili perché hanno basso contenuto di nutrienti ed in particolare di azoto.
Presso l’Università di Napoli “Federico II” è in corso una sperimentazione il cui scopo è quello di avere informazioni ulteriori sulla biodegradabilità dei mozziconi visto che i dati di letteratura risultano non ancora sufficienti e non si riferiscono a sperimentazioni che simulino situazioni reali.
Il gruppo di ricerca guidato da Giuliano Bonanomi agronomo e ricercatore ha intrapreso un percorso di ricerca impegnativo la cui durata è prevista in dieci anni, ma ha già pubblicato i risultati ottenuti nei primi due anni di lavoro
I risultati si possono visualizzare qui
http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0117393
Lo studio tende a verificare e a mettere a disposizione dati maggiormente significativi sulla reale biodegradabilità in condizioni reali e di differenti terreni dove i mozziconi vengono messi a decomporre.
E’ intuitivo pensare che in terreni meno ricchi di sostanza organica la biodegradabilità sia sostanzialmente inferiore. E non a caso sulle spiagge i mozziconi sono spesso i rifiuti che si rinvengono con disarmante frequenza.
Questo studio rappresenta un primo passo verso la comprensione di un problema dal punto di vista tecnico, ponendo le basi per una sua mitigazione o risoluzione. La possibilità per esempio di produrre filtri per sigaretta biodegradabili vista la difficoltà di degradazione di quelli attualmente in commercio.
E’ decisamente deludente invece dal punto di vista del comportamento umano. Del problema della dispersione incontrollata di rifiuti nell’ambiente sento parlare da più di quarant’anni.
Ma questo è un problema diverso. La tendenza a sottovalutare con superficialità i temi ambientali credo sia un tema che si stia spostando nel novero delle scienze che studiano il comportamento umano e che si intrecciano con le ricerche e gli sforzi che si fanno nel campo della chimica, della biologia e dell’ecologia.
Sia dal punto di vista della ricerca che di quello della divulgazione.

Le molecole della pubblicità: 2C.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

La chimica è nel nostro quotidiano e nella nostra vita di ogni giorno; anche la pubblicità la usa ma in un modo spesso deformato; questa nuova rubrica del blog vuole aiutare a vedere la chimica dietro i nomi e le maschere che la pubblicità appioppa alle cose a volte in totale dispregio delle convenzioni scientifiche e spesso raccontando bubbole; ma non sempre. Ci sono molecole, miscele con effetti utili e rinominate ad uso di chi le vende, ma ci sono anche molecole e miscele inventate o i cui effetti sono inventati ad hoc; vedremo alcuni casi.

Iniziamo parlando di 2C, una sigla inventata, pubblicitaria, che è entrata nel nostro quotidiano tramite la pubblicità e che si riferisce agli effetti di un noto deodorante; di che si tratta? Quale molecola o miscela si nasconde dietro questo simbolo?

Il prodotto è Infasil e il produttore è il gruppo Fater;

2c2 2c1

Fater è un gruppo molto grande e che vende prodotti molto diffusi: Ace, Pampers, Lines, Tampax, tutti “brand” ossia marchi, proprietà del medesimo gruppo Fater che fattura quasi un miliardo di euro l’anno, e occupa 1400 persone; come potrete capire è un gruppo che usa molto la chimica. Fater dichiara di investire il 4% del fatturato in ricerca.

Fondato a Pescara nel 1958 ad opera della famiglia Angelini, Fater è dal 1992 una joint venture paritetica fra il Gruppo Angelini e Procter&Gamble, ha sede a Pescara e stabilimenti di produzione in Italia (Pescara e Campochiaro), in Portogallo (Porto) e in Marocco (Mohammedia), si tratta quindi di una joint venture fra due gruppi che si occupano di chimica da molti anni e di una notevole dimensione economica.

Torniamo a Infasil.

Come funziona questo deodorante che proclama che “più sudi e più sai di fresco”, il che cattura l’attenzione del lettore a causa dell’ossimoro contenuto nella frase? Anche la musica della pubblicità è accattivante, essendo quella di “I’ve got you under my skin” di Cole Porter, ma cosa mettiamo sulla pelle?

2c3La ricetta del prodotto è descritta secondo le norme INCI ((International Nomenclature of Cosmetic Ingredients) una denominazione internazionale utilizzata per indicare in etichetta i diversi ingredienti presenti all’interno di un prodotto cosmetico), che, come probabilmente sapete, obbliga a mettere gli ingredienti in quantità decrescente e secondo la nomenclatura INCI che si trova sul sito. Al momento il sito è rinominato CosIng, Cosmetic Ingredients.

Diffiderei invece di quei siti tipo biodizionario.it che si arrogano il diritto di usare l’INCI ma per dare le opinioni personali di qualcuno, senza prove scientifiche, ma solo dichiarandosi chimico provetto. Per questo motivo non vi metto il link automatico, non voglio fare pubblciità a questo tipo di pseudoscienza.

Al primo posto si indica l’ingrediente contenuto in percentuale più alta, poi a seguire gli altri ingredienti, fino a quelli contenuti in percentuale più bassa. Al di sotto dell’1% gli ingredienti possono essere indicati in ordine sparso

Nella ricetta dell’Infasil* troviamo molte molecole tipiche usate nei cosmetici: le note affianco sono il ruolo della sostanza; il termine allergene del profumo corrisponde esattamente al ruolo dell’INCI: ossia permettere all’utente di sapere se la sostanza che sta usando è potenzialmente allergica per lui, non è una indicazione di tossicità.

L’additivo essenziale che corrisponde verosimilmente a “2C” sono le betaciclodestrine, indicate nell’INCI come cyclodextrin.

Di che si tratta?

Le ciclodestrine sono composti di origine naturale, presenti in natura e scoperte nel 1891 da Villiers; studiate poi da Schardinger tanto da essere conosciute come zuccheri di Schardinger nei primi anni del 900; solo nel 1946 si riconobbe che potevano formare complessi.

2c4Sono formate da un anello ciclico di molecole di zucchero e si originano da una reazione intramolecolare di trans-glicosilazione, tramite degradazione dell’amido, da parte dell’enzima ciclodestrina-glucanotrasferasi (CGTasi); quindi sono prodotti dal metabolismo batterico.

Ci sono tre tipi di ciclodestrine a seconda del numero di molecole nell’anello, da 6, 7 o 8 monomeri di D-(+)glucopiranosio (il glucosio) uniti tra loro con un legame α,1-4 glucosidico e chiusi ad anello. Si chiamano rispettivamente α, β e γbetaciclodestrine e la loro solubilità in acqua cresce nel medesimo ordine. Non sono metabolizzate dal nostro organismo e quindi la loro tossicità è trascurabile.

2c5Inoltre posseggono una caratteristica importante che le rende la base della chimica supramolecolare in soluzione acquosa: formano complessi includendo molecole idrofobiche che si possono poi liberare a seconda dell’ambiente esterno.

Vediamo come funziona questa cosa.

La struttura tridimensionale costringe i gruppi ossidrilici sui bordi esterni, mentre nella cavità sono presenti solo atomi di idrogeno e ponti ossigeno. Questo fa sì che la cavità centrale abbia natura idrofobica, mentre la parte esterna è idrofilica: ciò si traduce nella possibilità per le ciclodestrine di ospitare molecole idrofobiche all’interno della cavità e di essere solubili in acqua. Ne risulta anche l’abilità a indurre un incremento di solubilità delle sostanze idrofobiche ospitate nella cavità in acqua. Quando una molecola di polarità e dimensioni opportune viene ospitata nella cavità della ciclodestrina si forma un cosiddetto complesso di inclusione di tipo supramolecolare.

2c6

Process Biochemistry 2003 – E. M. Martin Del Valle

Higuchi and Connors hanno classificato i comportamenti dei complessi di inclusione delle ciclodestrine in due tipologie base denominate A e B e che sono mostrate nella figura che segue.2c7

2c8Le ciclodestrine meno solubili si comportano secondo uno dei profili di tipo B e come si vede consentono una concentrazione bassa ma costante della molecola inclusa fino ad un valore critico dopo il quale la concentrazione scende; viceversa ciclodestrine più solubili o naturalmente come le β, γ o sintetiche, modificate per incrementarne la parte idrofilica, si comportano come il tipo A e dunque incrementano la concentrazione di sostanza attiva al crescere della concentrazione di ciclodestrina.

Per questi motivi le ciclodestrine hanno trovato applicazione in medicina, per trasportare farmaci idrofobici e quindi poco solubili nel tessuto cellulare e rilasciarli in loco; le β-ciclodestrine sono il migliore compromesso fra costo e solubilità; oppure si possono usare delle ciclodestrine sinteticamente modificate per incrementare questa proprietà.

Il meccanismo delle ciclodestrine nell’Infasil è dunque di reagire alla crescita dell’acqua in loco liberando le sostanze deodoranti con maggiore regolarità o in maggiore quantità ; nulla di miracoloso, se non l’effetto che già era presente con i soli deodoranti, ma potendone avere una specie di scorta che dura nel tempo, essendo presenti in un deposito solubile.

Infatti le molecole con proprietà deodoranti sono spesso idrofobiche; potete anche considerare una seconda cosa della ricetta, la compresenza di solventi idrofilici come l’acqua e di solventi idrofobici come i ciclosiliconi o ciclosilossani (ciclopentasilossano e dimeticone) che sono appunto forme cicliche dei siliconi. Abbiamo dunque una miscela del tipo emulsione in cui una certa quantità di acqua (inferiore) è emulsionata nel solvente principale di tipo idrofobico; all’interno dell’acqua ci sono le β-ciclodestrine che contengono a loro volta incluse le molecole di deodorante (esempio il citronellolo o il limonene, terpeni ciclici) che vengono rilasciate lentamente.

Una ricetta simile si può avere anche usando una composizione “solida” e vendere quindi il deodorante come una pasta o emulsione con una certa capacità di essere splamata sulla pelle.

Questo tipo di cose non sono novità assolute; già in un testo del 1988 Cyclodextrin technology di J. Szejtli ed. Springer questo tipo di applicazioni erano considerate comuni in certi mercati come quello giapponese.

Una review disponibile è del 2002 http://journal.scconline.org/pdf/cc2002/cc053n03/p00185-p00191.pdf.  di Bushmann e Schollmeyer.

Una applicazione simile delle ciclodestrine si ha anche in un secondo prodotto che si trova nei nostri supermercati e che serve a deodorare i tessuti: Febreze.

2c9

Qui probabilmente si sfrutta anche la capacità di includere le molecole odorizzanti presenti. In questo caso la ciclodestrina usata è sintetica, la idrossipropil beta-cyclodextrin (HPβCD), la quale a stare alla dichiarazione del produttore Procter&Gamble assorbe e trattiene gli idrocarburi maleodoranti accumulati e rilascia le proprie fragranze. Ovviamente qui come nell’Infasil ci sono molti altri componenti: preservanti, profumi, etc.

Sul Febreze c’è stata una polemica di Altroconsumo sulla composizione, che in effetti si trova con fatica. Un elenco sia pur parziale sembra il seguente: acqua, alcool, ciclodestrina, polidimetilmeticone, olio di ricino idrogenato (castor oil è l’olio di ricino e probabilmente viene dal fatto che si usava al posto dell’estratto di ghiandola odorifera del castoro), alcanolammina, acido citrico, cloruro di ammonio, benzisotiazolinone, e varie fragranze.

330px-castor_oil

Il brevetto P&G per l’uso delle ciclodestrine nella deodorazione dei tessuti è del 1994, quindi ha oltre 20 anni.

Direi comunque che l’applicazione delle ciclodestrine nei cosmetici è secondaria rispetto a quella nel campo farmacologico, dove certo le ciclodestrine trovano la capacità di usare tutto il loro potenziale di trasportatore principale in ambiente acquoso e di molecole base della chimica supramolecolare acquosa, vista anche la loro capacità di formare complessi non di inclusione.

Si veda anche http://www.nononsensecosmethic.org/the-impact-of-cleansing-products-on-the-skin-surface-ph-by-sven-munke-e-altri/

*Composizione dell’Infasil.

BUTANE (propellente)
ISOBUTANE (propellente)
PROPANE (propellente)
CYCLOPENTASILOXANE (Silicone volatile)
ALUMINUM CHLOROHYDRATE (antisudorazione / deodorante)
DIMETHICONE (antischiuma / emolliente) anche questo è un silicone ciclico
CYCLODEXTRIN (additivo)
DISTEARDIMONIUM HECTORITE (stabilizzante / additivo reologico)
PARFUM
TRIETHYL CITRATE (antiossidante / deodorante / solvente)
AQUA (solvente) questa è proprio acqua nella terminologia INCI
HEXYL CINNAMAL (Allergene del profumo)
BENZYL SALICYLATE (Allergene del profumo)
LINALOOL (Allergene del profumo)
BUTYLPHENYL METHYLPROPIONAL (Allergene del profumo)
LIMONENE (Allergene del profumo)
ALPHA-ISOMETHYL IONONE (Allergene del profumo)
HYDROXYISOHEXYL 3-CYCLOHEXENE CARBOXALDEHYDE (Allergene del profumo)
CITRONELLOL (Allergene del profumo)
CINNAMYL ALCOHOL (Allergene del profumo)
CITRAL (Allergene del profumo)
GERANIOL (Allergene del profumo)
AMYL CINNAMAL (Allergene del profumo)
BENZYL ALCOHOL (Allergene del profumo / conservante / solvente)
COUMARIN (Allergene del profumo)

Sopravvivenza delle Società Scientifiche.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex Presidente SCI

campanellaDopo l’incontro tenuto a Roma e dedicato al futuro della SCI non molto è avvenuto.

Mi rendo conto delle difficoltà a trasformare le idee in atti concreti in una situazione spesso consolidata, ma credo sia necessario rimboccarsi le maniche per tornare a crescere.

La questione della sopravvivenza delle Società Scientifiche non è solo un problema della SCI. In una società in cui le risorse per la cultura sono sempre di meno e sempre più spesso quelle sacrificate, in una società in cui i giovani sempre più spesso cercano di realizzare un rapporto con la società civile soltanto attraverso gli strumenti telematici, in una società in cui di fatto c’è stato un salto generazionale nel processo di rinnovamento del quadro guida delle istituzioni, è abbastanza logico che l’associazione scientifica soffra. Cosa fare per cercare di mitigare e contrastare questa tendenza?

Creare situazioni eccezionali per interesse e qualità da stimolare l’adesione, ma per fare questo è necessario investire risorse e quando queste si riducono questa strada risulta difficilmente perseguibile a meno di non aumentare le quote di iscrizione, creando però – vista la situazione generale – una sorta di “resistenza economica” nei più giovani.

L’alternativa – puntando sull’incremento delle entrate – è aumentare il numero di soci cercando quasi di catturarli da comunità limitrofe a quelle tradizionali .

Aumento degli iscritti: come da più parti viene detto la SCI sempre più tende a divenire una Società accademica perdendo il suo connotato di Società Scientifica. La Scienza non è esclusiva dell’Accademia: l’Industria, gli Enti di Ricerca, le Accademie, i professionisti, le associazioni culturali, i servizi di Stato, gli insegnanti delle scuole hanno titolo e capacità per fare ed occuparsi di Scienza.

Come coinvolgerli nella SCI?

we-need-you-albert-einstein-pictureNon c’è una formula magica ma certamente l’articolazione divisionale basata su classificazioni accademiche non è forse quella ideale. Una riconsiderazione cercando una maggiore corrispondenza alle attività produttive e merceologiche, a riferimenti tematici più che disciplinari. Alcuni gruppi interdivisionali rappresentano questa esigenza (si pensi alla Sicurezza, si pensi alla Green Chemistry, si pensi alle Biotecnologie ai Biomateriali).
Credo però che l’operazione più necessaria sia quella del potenziamento del rapporto con il territorio, dove la promozione dell’arruolamento è diretta, dove si può svolgere un’attività significativa sul territorio indispensabile per nuove iscrizioni. È poi necessario che la Governance non sia esclusivamente accademica.

I casi di dirigenti industriali o di Enti di Ricerca o altri sono sempre più rari.  Altre azioni che possono intraprendersi o intensificarsi riguardano l’organizzazione di workshop tematici alternativi a congressi divisionali, la realizzazione di eventi da realizzare presso istituzioni non accademiche in una sorta di meeting itinerante, la creazione di uno sportello informativo per la scuola e in particolare per gli insegnanti (comunicazioni, informazioni, elaborazioni), la promozione di possibili occasioni per incontri fra soci dello stesso tipo di provenienza istituzionale.

 

Incidenti.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Lunedì 17 ottobre si sono verificati in Germania due incidenti in due diverse fabbriche chimiche della Basf, poste entrambe nel sud-est della Germania, in quella Renania-Palatinato che è il cuore della potenza industriale tedesca e anche della sua storia. Lungo il Reno si incontrano due cittadine che sono state teatro di due incidenti situate a pochi chilometri l’una dall’altra, più a Nord, Lampertheim, che è stata teatro della prima esplosione e dove verso le 9.30 è esploso un filtro in un impianto per la produzione di materiale plastico con 4 feriti; alle 11.30 l’incidente più grave a Ludwigshafen, una cittadina che si trova in un’ansa del Reno di fronte alla più nota Mannheim.

incidenti1

A sera il bilancio reso noto dalla portavoce dell’azienda, Silvie-Kristin Wemper, parla di due morti, sei feriti e due persone ancora non rintracciate. Le cause sono ancora da accertare, ma sembra che sia scoppiato improvvisamente un incendio in una tubazione tra l’area in cui i liquidi vengono scaricati e i serbatoi di stoccaggio. Poi l’esplosione, avvenuta nel porto nord sul Reno, e la colonna di fumo visibile a decine di chilometri.  La stessa Basf ha chiesto alla locale popolazione “di evitare gli spazi aperti e di lasciare chiuse porte e finestre delle abitazioni”.  E’ stato il 15esimo incidente verificatosi nella struttura solo negli ultimi 12 mesi, così riferisce il settimanale Focus sottolineando che le autorità cittadine – prima della tragedia odierna – avevano già convocato per il 26 ottobre i vertici della Basf proprio per l’alto numero di problemi nell’impianto.”

(Repubblica 18 ottobre)

Ma sembra che i morti accertati siano almeno 3 al momento.

Ovviamente la tensione legata al terrorismo ha fatto scattare tutti i media internazionali tenendo alta l’attenzione sui fatti. Occorre però dire che qui il terrorismo non c’entra nulla, ma c’entrano altri fattori.

Ludwigshafen non è un impianto qualunque, è la sede dal 1865, da oltre 150 anni, di uno dei maggiori stabilimenti chimici del mondo, con un’area di 10kmq e con 39.000 degli oltre 100.000 dipendenti di BASF SE.

Badische Anilin- und Soda Fabrik (Fabbrica di Anilina e Soda del Baden) è il nome del gruppo BASF che conta più di 200 tra filiali e joint venture e possiede siti produttivi in 50 paesi in Europa, Asia, Nord e Sud America. Alla fine del 2015, la società impiegava 112 430 persone, di cui più di 50 000 solo in Germania. BASF ha clienti in più di 170 paesi e fornisce circa 8 000 diversi prodotti in molti settori dell’industria.

Di incidenti Ludwigshafen ne ha visti parecchi.

Il primo fu anche il più famoso; 95 anni fa di questi tempi, il 21 settembre 1923, un silo contenente 4500 tonnellate di una miscela di nitrato di ammonio e di solfato di ammonio esplose uccidendo fra le 500 e le 600 persone e facendo 2000 feriti.

Qui sotto una immagine della distruzione causata, con in primo piano il cratere: l’esplosione fu stimata in 1-2 kilotoni e danneggiò gli edifici fino a 50 chilometri di distanza.

incidenti2

Abbiamo parlato già del potenziale esplosivo di questa molecola, il nitrato di ammonio, usato come fertilizzante e come esplosivo e la cui natura si è scoperta solo col tempo e dopo molti morti.

All’epoca si riteneva che mantenendo la percentuale del nitrato nella miscela sotto il 60% non potesse avvenire nulla di serio; in effetti la cosa è parzialmente vera, nel senso che i problemi iniziano quando la percentuale di nitrato raggiunge il 50% e crescono fino al limite critico del 60; all’epoca i miglioramenti nei metodi di produzione e la riduzione dell’umidità del prodotto ottenuto consentirono alla zona di stoccaggio di raggiungere il limite critico.

Nel silos di contenimento il materiale si ammassava e si induriva; per aprirsi la strada gli operai usavano piccolissimi cariche esplosive di dinamite; avete capito bene, dinamite usata “dentro” il silos di nitrato di ammonio. Tale procedura ripetuta per decine di migliaia di volte era relativamente sicura nelle circostanze in questione, ma non completamente; le modifiche dell’umidità relativa, e la non perfetta omogeneità della miscela probabilmente portarono a superare il limite pratico del 60% e si verificò l’esplosione.

Ma Oppau non fu l’unico incidente di quel sito.

Nel 1943 20 ton di butadiene e butilene esplosero; si era durante la guerra e l’incidente ebbe forse poco risalto in quanto tale. Si ritiene che in questo caso abbia avuto un ruolo il cosidetto fenomeno UVCE (Unconfined Vapor Cloud Explosion), che giocò un ruolo anche nel successivo incidente.

Nel 1948 un secondo gravissimo incidente provocò 245 morti e oltre 3000 feriti.

In questo caso lo stabilimento era denominato allora Farbenindustrie e produceva coloranti. Composto di 18 edifici fu completamente distrutto. Una cisterna contenente 30 ton di dimetiletere fu all’origine della tragedia

incidenti3

Francobollo commemorativo della dell’incidente del 1948

Nel 1953 ci fu una fuga di diossine alla BASF, il 17 novembre 1953 negli impianti di Ludwigshafen, su una linea di produzione di Triclorofenolo. Il primo incidente importante con diossine prima di quello di Seveso.

 Nel 2004 25 gennaio affondamento nel Reno di una chiatta che trasportava, per conto della BASF, 2400 tonn. di acido solforico da Ludwigshafen ad Anversa.

Il 29 ottobre 2014 esplosione durante uno scavo presso l’edificio dello Heartliner, a Ludwigshafen, durante lavori della Basf: 1 morto e 30 feriti.

Quest’anno il settimanale Focus sotto il titolo “La inquietante serie della BASF” riporta ben 15 incidenti avvenuti a Ludwigshafen con le critiche di Verdi e Linke locali che si chiedono se “l’impiego di aziende in subappalto” possa essere il motivo dei tanti guasti e la difesa dell’azienda che giustifica tale serie con “lavori di ammodernamento di diversi impianti.

L’elenco potrebbe essere più completo, ma concludo con questa riflessione finale sugli incidenti più recenti le cui cause esatte non si conoscono ancora:

Qualora nell’analisi sulle cause dell’incidente emergesse che tra le concause degli incidenti ci fossero state l’errata o mancata manutenzione, l’obsolescenza di parti d’impianto non sostituite nei tempi programmati saremmo di fronte ad un fatto nuovo per quanto riguarda l’immagine dell’industria chimica tedesca.

(http://www.diario-prevenzione.it/index.php?option=com_content&task=view&id=5096&Itemid=2)

Tuttavia, abbiamo visto come la storia insegni  non così nuovo.

I prefissi orto–, meta– e para– nella nomenclatura chimica

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati*

Sebbene i prefissi orto– (o-), meta– (m-) e para– (p-) siano ormai desueti, il loro uso è noto soprattutto per la loro applicazione ai vari isomeri disostituiti dei derivati benzenici, introdotta dal chimico Wilhelm Körner[1] a partire dal 1866. Il primo a impiegare il prefisso orto– fu il solito grande Jöns Jacob Berzelius nel 1830[2] a indicare l’acido fosforico (H3PO4) di cui aveva determinato la composizione elementare.

Nel 1833 Thomas Graham[3] suggerì il termine acido metafosforico per il prodotto di deidratazione HPO3. All’epoca infatti, nell’ambito della teoria dualistica (v. nota 2), gli acidi erano considerati idrati dei corrispondenti ossidi acidi sicchè Graham pensava l’acido metafosforico come monoidrato di P2O5 (P2O5H2O ≈ 2HPO3), derivato per disidratazione dal genitore acido fosforico, che egli considerava come il triidrato di P2O5 (P2O53H2O ≈ 2H3PO4).

guglielmo_koerner

Wilhelm Koerner

Nel 1859 William Odling[4] propose l’uso del prefisso orto- per designare l’acido corrispondente al più alto grado di idratazione e applicò la risultante nomenclatura orto-, meta- ai sali di vari ossiacidi inorganici, inclusi silicati e fosfati.

L’etimologia dei tre prefissi deriva dal greco (sappiamo che Berzelius oltre a essere un grande chimico era anche un fine umanista) infatti il prefisso orto- viene dal greco orto, che significa “vero” o “corretto”, come nella parole ortodosso o ortodonzia. Il prefisso meta- viene dal greco meta, che significa “segue” o “dopo”. Così la parola metafisica, ad esempio, è il risultato del fatto che i primi divulgatori delle opere di Aristotele disposero i suoi scritti in modo che quelli che trattavano temi speculativi seguissero o venissero dopo quelli che si occupavano di fisica. Allo stesso modo, il prefisso para- viene dal greco para, che significa “simile a” o “simili”, come nella parole parafrasi o parafarmacia. Va notato che, in questo contesto, i prefissi orto- e meta- hanno una certa logica, infatti i composti orto- sono visti come i composti “veri o originali” e i meta- quelli che “seguono o derivano” dalla disidratazione.

jons-jacobus-berzeliusdownload

jons-jacobus-berzelius

Tornando alla chimica organica, è chiaro che dato il significato abbastanza vago dei tre prefissi in tale contesto, l’attribuzione dei termini orto-, meta- e para- rispettivamente agli isomeri 1,2, 1,3 e 1,4 è essenzialmente arbitraria. Infatti Körner utilizzò originariamente il prefisso orto- per indicare l’isomero 1,4, il termine meta per designare l’isomero 1,2 e il termine para per designare l’isomero 1,3. Il rifiuto dei chimici successivi di adottare la scelta originale di Körner ha portato all’altrettanto arbitrario attuale utilizzo, comunque adottato per la prima volta ufficialmente dalla Chemical Society di Londra nel 1879.

o-m-e-p-xileneTuttavia, nonostante questa scelta apparentemente casuale, si può immaginare un’interpretazione semi-plausibile per l’uso corrente dei tre prefissi. Uno dei significati minori per para è infatti “accanto” o “lungo il lato di” e questo potrebbe essere interpretato come il fatto che nell’isomero para i due sostituenti si trovano lungo una linea che li congiunge. Allo stesso modo, dal momento che meta può significare anche “oltre”, si può pensare che la formazione dell’isomero meta comporti lo spostamento di uno dei sostituenti una posizione più avanti di quanto si trova nell’isomero 1,2 (orto). Purtroppo, non è noto se tali considerazioni linguistiche abbiano effettivamente avuto un ruolo nella revisione delle scelte originali di Körner.

I termini orto e meta continuano ad essere utilizzati in chimica inorganica per descrivere ossiacidi e loro sali formalmente connessi per disidratazione, anche se è ormai noto che in queste reazioni sono coinvolte differenze nella struttura e nel grado di polimerizzazione.

Come ricordato all’inizio, l’uso di questi prefissi per indicare vari isomeri è ora limitato quasi esclusivamente ai derivati disostituiti del benzene, anche se occasionalmente l’utilizzo della vecchia nomenclatura persiste per alcuni composti strettamente correlati, come ad esempio i termini paraformaldeide e paraldeide per indicare vari polimeri di formaldeide e acetaldeide.

Infine, esiste anche il prefisso piro– (dal greco pyro, che significa fuoco), ad esempio l’acido pirofosforico (e suoi sali), H4P2O7 che si ottiene riscaldando l’acido ortofosforico (2H3PO4 → H4P2O7 + H2O). Il nome IUPAC di questo acido è acido difosforico, si tratta di un solido cristallino bianco molto igroscopico. Il prefisso si ritrova anche in chimica organica, ad esempio il pirogallolo (1,2,3-triidrossibenzene) che si ottiene per disidratazione dell’acido gallico, chiamato per questo anche acido pirogallico[5].

metaphors_sample

*Questo post è sostanzialmente una traduzione ragionata dalla rubrica del Journal of Chemical Education: “Ask the Historian”: W.B. Jensen, The Origins of the Ortho-, Meta-, and Para- Nomenclature, J. Chem. Educ., 2006, 83, 356.

[1] Wilhelm (Guglielmo) Körner (1839-1925) chimico tedesco naturalizzato italiano, fu allievo di Kekulè a Giessen fino al 1866, nel 1867 fu assistente di Cannizzaro a Palermo e nel 1870 fu nominato professore di chimica alla Scuola Superiore di Agricoltura a Milano dove rimase fino alla morte. La sua attività scientifica fu rivolta in particolare allo studio dei composti aromatici naturali e sintetici. In questo contesto fu un pioniere nella determinazione della struttura dei derivati benzenici disostituiti.

[2] Un ampio resoconto delle monumentali ricerche pratiche e teoriche di Berzelius si trova in I. Guareschi, Jöns Jacob Berzelius e la sua opera scientifica, Unione Tipografico-Editrice Torinese, Torino, 1915. Scaricabile al sito:

http://www.liberliber.it/mediateca/libri/g/guareschi/jons_jacob_berzelius_etc/pdf/jons_j_p.pdf

[3] Thomas Graham (1805-1869) chimico scozzese, particolarmente noto per le sue ricerche sui colloidi fu il primo a separare i colloidi dai cristalloidi, usando un dispositivo che chiamò dyalizer, un rudimentale precursore della odierna macchina per la dialisi del fegato.

[4] William Olding (1829-1921), chimico inglese, contribuì allo sviluppo della Tavola Periodica e in chimica organica si occupò di idrocarburi.

[5] L’acido pirogallico fu ottenuto per la prima volta da Carl W. Scheele (1742-1786), chimico svedese, di cui abbiamo parlato a proposito del tungsteno (o wolframio).

Divagazioni sull’aglio e sull’aggettivo “chimico”

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Praticamente in tutti i libri divulgazione chimica si cerca di sfatare un mito piuttosto persistente. O per meglio dire si prova a fare in modo che la parola chimica, o chimico inteso come aggettivo, cioè inerente alla chimica e alle sue applicazioni non assuma una connotazione negativa. Che tende a trasformarlo di fatto nel sinonimo di nocivo o di sintetico, nel secondo caso contrapposto a naturale o biologico che invece suscita sensazioni decisamente più positive, e molto di moda oggi.
Quando mio padre con un certo orgoglio raccontava ad un vicino di casa che il mio lavoro era quello di chimico, questo signore invariabilmente ogni volta gli rispondeva in dialetto torinese che “Allora suo figlio è uno di quelli che ci avvelena tutti”. Io le prime volte tendevo a prendere un poco cappello, come si diceva una volta. Poi con il tempo sorridevo di questo siparietto e in qualche modo lo trovavo anche simpatico, ma solo perché conoscevo questo signore anziano, e sapevo che lo diceva senza nemmeno pensarci troppo su, influenzato dalle tante notizie di incidenti industriali che negli anni hanno offuscato l’immagine della chimica e di chi se ne occupa. Seveso e Bhopal su tutti.

impianto-chimico

Negli anni ho sempre cercato di parlare di chimica con chiunque mi chiedesse qualcosa, sia che non la conoscessero affatto, sia che invece l’avessero studiata o in qualche modo ne avessero avuto a che fare.
Con risultati altalenanti, ma rivendicando la mia passione per la materia e la sua divulgazione.
Recentemente è successa una cosa abbastanza simile e tutto sommato divertente con Valentina la mia collega (che è una biologa), con la quale lavoro ormai da quattordici anni nel laboratorio dove ci occupiamo entrambi di analisi di acque potabili e reflue.
Quando si lavora fianco a fianco per così tanto tempo ci si finisce per conoscere molto bene, si trova una naturale e non forzata divisione dei ruoli, e durante le ore di lavoro si chiacchiera di cose estranee al lavoro.
Con Valentina intraprendo spesso conversazioni che riguardano la cucina, il modo corretto di alimentarsi.
Si parla spesso anche di piatti tipici. Negli ultimi anni ci siamo anche aiutati a vicenda a ridurre il consumo di carne per motivi di salute, e sotto il mio martellamento anche per ragioni di sostenibilità, legate al consumo di acqua che l’allevamento intensivo richiede.
Quindi in pausa pranzo quando ci è possibile cerchiamo di recarci in posti di ristoro vegetariani o vegani.
La mia origine piemontese e il mio cognome di origine invece prettamente ligure (genovese per la precisione) fanno sì che tra le altre cose apprezzi piatti che nella loro preparazione prevedano l’uso dell’aglio. E che faccia fatica per esempio a considerare completo un sugo al pesto che non lo preveda tra gli ingredienti.

aglio

Valentina al contrario pur apprezzandolo non ne sopporta troppo l’odore e come molti fa una certa fatica a digerirlo.
Pochi giorni fa quando in pausa pranzo le è stata servita una porzione di spezzatino di soia con funghi ha subito domandato al cameriere se nella preparazione del piatto, e segnatamente nei funghi trifolati vi fosse l’aglio. La risposta del cameriere è stata affermativa. Quindi lei ha cominciato a chiedere qualche informazione in più pur mangiando poi tranquillamente la consumazione che aveva ordinato.
Il cameriere le ha spiegato che nel locale dove abbiamo mangiato, l’aglio viene usato per cucinare il misto di funghi, mentre non si usa per piatti per esempio di soli funghi porcini perché ne coprirebbe troppo il sapore. E che si usa aglio liofilizzato, quello che si trova in commercio.
Quando il cameriere si è allontanato abbiamo iniziato a chiacchierare e Valentina mi ha detto che in effetti l’aglio trattato in quel modo le sembrava molto diverso da quello fresco (che pure lei usa in cucina ma che rimuove a fine cottura ) e che le ricordava “qualcosa di chimico”.

L’aglio essiccato che si trova in commercio differisce dall’aglio fresco per una diversa attività antibatterica, nella composizione e nella qualità dell’allicina,  nel colore e sapore.

I risultati di uno studio condotto in India e pubblicato sull'”American Journal of Food Technology” che ha messo a confronto quattro diverse tecniche di essicazione dell’aglio (essicazione con aria calda, a microonde, su letto fluidizzato, e liofilizzazione) ha mostrato che la liofilizzazione riduce certamente la quantità di umidità e trattiene la maggior parte degli oli essenziali, ma a scapito delle caratteristiche organolettiche del prodotto e della sua qualità complessiva. In questo studio le tecniche sono state confrontate valutando la riduzione di umidità (moisture loss ML), la capacità di trattenere gli oli essenziali volatili (retention of volatile oils VOR) , e la minima riduzione delle caratteristiche organolettiche (sensory quality scores). Verificando questi parametri sui vari tipi di essicamento la liofilizzazione raggiunge il massimo di riduzione di umidità pari al 98%   e di capacità di trattenere gli oli essenziali fino al 93%.  Ma la variazione di caratteristiche organolettiche che deve essere la minore possibile raggiunge tra tutte le tecniche il punteggio massimo pari a 19 su un valore massimo di 20.

La conclusione a cui giunge lo studio che probabilmente il miglior compromesso sia quello di effettuare prima un trattamento di essicazione su letto fluido e successivamente la liofilizzazione per ottenere aglio liofilizzato con il miglior compromesso tra costi, riduzione massima di umidità e qualità complessiva.

bici-1

Ritornando alla mia chiacchierata con Valentina in pausa pranzo abbiamo riflettuto insieme sull’attribuzione di ogni tipo di negatività che si tende ad associare alla parola chimica o chimico.
Alla fine abbiamo convenuto entrambi sul fatto che sia una cosa di fatto sbagliata e non vera, ragionando su atomi e molecole, sui punti di contatto tra chimica e biologia, e su molte altre cose. Anche dei composti solforati dell’aglio come l’allicina, e delle proprietà benefiche che l’aglio ha. Le ho anche ricordato che veniva chiamato giglio fetido, ma che ha moltissime proprietà benefiche a cominciare dalle proprietà antibatteriche che ne fanno un antibiotico naturale, fino alle riconosciute proprietà di riduzione della pressione del sangue.

Tornando all’aggettivo chimico e al sostantivo femminile chimica non mi piace che siano utilizzati come sinonimi che riguardano qualcosa di sempre negativo.
Non è che mi sfuggano gli inconvenienti che alla chimica siano legati, ma sento l’esigenza di divulgarla, di scriverne, e di farla conoscere. Non per un tentativo di riabilitazione che  a mio giudizio non è affatto necessario.
Ma per fare in modo che non venga considerata la figlia minore delle scienze e si liberi di una nomea che fondamentalmente non merita. Più la si conosce e la si approfondisce, più la si apprezza.
Valentina sa della mia intenzione di scrivere questo articolo, ed ha apprezzato ed approvato. E ovviamente sa che il nostro non è una sorta di derby calcistico chimici contro biologi. L’episodio avvenuto è uno dei tanti spunti. Di discussione e di conoscenza di cose non banali.

Qui il link dell’articolo sulla comparazione delle tecniche di disidratazione.

Effect of Different Drying Techniques on the Quality of Garlic: A Comparative Study

Vinita Puranik, Puja Srivastava, Vandana Mishra and D.C. Saxena

Biosensoristica alimentare.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex Presidente SCI

Mentre il problema primario per l’uomo nei tempi passati era il vincolo quantitativo, cioè la quantità di cibo a disposizione, negli ultimi decenni nei paesi tecnologicamente avanzati il problema si sposta verso nuove frontiere di qualità della vita. Gli alimenti devono mantenere le proprietà qualitative di freschezza e sensoriali, ma innanzi tutto devono garantire le proprietà igienico-sanitarie e nutrizionali fino al momento del consumo. In aggiunta, il consumatore desidera una qualità di prodotto costante nel tempo e indipendente dalla stagionalità delle produzioni agricole e dalle annate.

Oltre al ruolo primario di approvvigionamento di nutrienti per soddisfare le esigenze metaboliche, e alle funzioni psicologiche e di benessere insite nel mangiare, recenti studi indicano come l’alimentazione sembri assumere un ruolo sempre più importante nella modulazione di certi equilibri metabolici utili a coadiuvare il mantenimento di un buono stato di salute. I fattori che influenzano in modo benefico gli equilibri fisiologici e psicologici sono costituenti secondari degli alimenti quali fibre, antiossidanti, vitamine ed altri composti minori. Essendo i prodotti alimentari tipici del Mediterraneo particolarmente ricchi di questi composti bioattivi, può essere affermato che tali prodotti costituiscono di per sè alimenti funzionali.

E’noto che esiste una correlazione tra alimentazione e mantenimento della salute. Il miglioramento del regime alimentare di una popolazione, attraverso l’offerta ai consumatori di prodotti alimentari industriali opportunamente formulati, trasformati e conservati, sembra contribuire a ridurre i fattori predisponenti manifestazioni patologiche. L’abbattimento dell’incidenza delle patologie cronico-degenerative più strettamente correlate all’alimentazione, aumenta il benessere sociale e riduce la spesa pubblica.

Vi sono numerosi studi epidemiologici sull’assunzione di grassi saturi, colesterolo, antiossidanti, fibre, sale, e altri, che indicano l’esistenza di una correlazione con l’insorgenza di patologie cronico-degenerative. Ad esempio, nei Seven Countries Studies degli anni ’50, ma anche in studi più recenti, è stata individuata l’esistenza di una correlazione tra l’assunzione di certi componenti alimentari e la manifestazione di patologie cronico-degenerative. Informazioni di questo tipo, anche se non arrivano a definire il meccanismo fisiologico, danno indicazioni importanti sullo sviluppo di linee guida per la preparazione e la conservazione di prodotti alimentari.

scs-logo-in-header2Una maggiore consapevolezza dell’importanza di una migliore alimentazione per la prevenzione di malattie collegate alle abitudini alimentari produrrà notevoli vantaggi sociali e sanitari, sia per i singoli cittadini che per specifici gruppi della popolazione. Inoltre le componenti potenzialmente dannose talvolta presenti nella catena alimentare pongono in costante discussione la sicurezza degli alimenti.

countries-thumbLa caratteristica nutrizionale della alimentazione mediterranea è stata negli ultimi anni valutata da studi scientifici. La maggiore conoscenza dei composti presenti nelle matrici alimentari mediterranee e il mantenimento della loro bioattività lungo la filiera fino al consumatore è un fattore importante nel sostegno dei prodotti alimentari italiani sui mercati esteri.

In campo agroalimentare anche in seguito ai recenti avvenimenti, il concetto di qualità si riveste di innumerevoli accezioni, tra cui quello dell’igienicità, che gioca un ruolo basilare, poiché la purezza e la sicurezza del prodotto sono considerate una conditio sine qua non, una caratteristica di base, essenziale affinché l’alimento stesso sia fruibile. A questa accezione elementare se ne accostano altre di non meno interesse, quali l’aspetto sensoriale: tipico di ogni prodotto, normalmente dipendente da una serie di fattori tra cui la composizione, gli aromi, le stagioni produttive, l’andamento climatico, parametri per natura non totalmente controllabili dall’uomo e dalle sue tecnologie. A questo si affianca l’aspetto nutrizionale, ossia la capacità dei costituenti del prodotto di apportare elementi fondamentali per una dieta alimentare equilibrata e bilanciata, e soprattutto per prevenire carenze o eccessi che possono sconfinare nel patologico. In effetti, l’interesse per le caratteristiche nutrizionali e salutistiche del bene è sempre più rilevante, nel tentativo di preservare peculiarità e specificità del prodotto stesso, perciò l’attenzione posta alla qualità della materia prima, alle modalità di trasformazione e di distribuzione è sempre più focalizzata a proteggere e garantire nel tempo le caratteristiche intrinseche del prodotto.

biosens1I recenti sviluppi scientifici hanno contribuito enormemente ad accrescere da una parte le conoscenze sulle possibilità e le fonti di inquinamento e contaminazione, dall’altra le competenze e le tecniche per prevenirle e/o porvi rimedio. Tuttavia, spesso i metodi tradizionali di rilevamento specifico delle componenti principali e loro caratterizzazione e di controllo della sicurezza del prodotto non sono totalmente affidabili; si incorre nel rischio di determinazioni imprecise, inesatte, non tempestive, di verifica ex-post e non ex-ante/in-fieri.

Nel tentativo di sopperire a tali mancanze e deficienze, la ricerca tecnologica ha condotto a definire nuove tecniche, e una delle metodologie più recenti ricorre all’uso dei biosensori.

biosens2L’applicazione in ambito agroalimentare, benché abbia dato buoni risultati, è piuttosto limitata e poco diffusa, probabilmente a causa della mancanza di un’evidenza applicativa, della fissità dei metodi tradizionali di rilevamento, dei problemi relativi all’uso di campioni non preparati, dei costi per la ricerca e l’attuazione nel campo specifico del biosensore, del non riconoscimento a livello ufficiale.

In alcune regioni italiane si è registrato negli ultimi decenni un notevole sviluppo nel settore delle attività agricole, da cui è scaturito un rilevante impulso per le industrie di trasformazione degli stessi prodotti. Ponendosi in linea con la domanda di prodotti alimentari caratterizzati da genuinità, igienicità e salubrità elevate, ci sarebbe l’esigenza del potenziamento delle strumentazioni e delle capacità analitiche di laboratori riconosciuti a livello regionale per una certificazione riconosciuta in ambito comunitario. L’obiettivo sarebbe quello di accertare e di definire la rispondenza ai parametri fissati dalla normativa nazionale e comunitaria vigente e per assicurare l’assenza di sostanze tossiche e nocive per la salute umana nei terreni, nelle acque di irrigazione e nei prodotti agroalimentari. Infatti, l’accresciuta articolazione dei mercati e la più attenta osservazione dei consumatori, ha imposto alle imprese del settore agro alimentare la necessità di operare in condizioni di “Certificazione di Qualità dei prodotti”.

Un primo risultato da raggiungere è anche quello di produrre un nuovo impulso fra gli operatori del comparto, grazie ad un notevole ampliamento della fascia, di per sé già significativa di prodotti ad elevata qualità intrinseca, dichiarata e certificata. Un’iniziativa, certamente utile, sarebbe quella di aprire uno sportello destinato a fornire informazioni sulle opportunità della certificazione di qualità e sui servizi disponibili agli operatori del territorio per qualificare e certificare i prodotti agroalimentari. Non dimentichiamo infatti, come esempio di riferimento, che nel nostro Paese, l’interesse sempre più accentuato verso il problema tossicologico, ha comportato a livello governativo l’esigenza di incentivare studi scientifici e formulare specifici protocolli analitici per certificare l’assenza di fitofarmaci nei prodotti destinati al consumo umano.

Si veda anche: http://www.daa.cnr.it/index.php/it/food/95-i-biosensori-ed-il-settore-agroalimentare?jjj=1476247913666

La perovskite e la rinascita accademica del fotovoltaico.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Federico Bella*

perov1Se il 2015 è stato l’anno internazionale della luce, il 2016 è l’anno che ha visto la rinascita della ricerca accademica nel settore fotovoltaico grazie all’interazione luce/perovskite. Quest’ultima è un materiale ibrido (organico e inorganico, con formula CH3NH3PbI3), non solo in grado di assorbire l’intero spettro solare meglio di qualsiasi colorante finora sintetizzato nel campo del fotovoltaico di terza generazione, ma anche di trasportare sia elettroni che lacune con dei tempi caratteristici invidiabili nel campo dei semiconduttori.

Contrariamente a quello che si legge sui canali media che stanno dando luce a questa tecnologia emergente, la perovskite in oggetto non è un minerale! A ciò si rifà soltanto il nome “perovskite”, coniato nell’Ottocento dal mineralogista tedesco Gustav Rose in onore del Ministro della Corte Imperiale russa Lev Perovskij, grande collezionista di minerali. Il minerale a cui si fece riferimento risultò essere un ossido doppio di Ca e Ti (CaTiO3) con una struttura cristallina così particolare da poter ospitare un ampio spettro di elementi e mostrare quindi una grande varietà di proprietà fisiche.

perov2

Ossido doppio di calcio e titanio.

Di questo scenario, la perovskite attualmente in voga nel fotovoltaico conserva solo la simmetria ortorombica, e i cristalli di CH3NH3PbI3 sono tipicamente ottaedrici.

perov3

Struttura cristallina della perovskite CH3NH3PbX3 p (X=I, Br e/o Cl). Il catione di metilammonio (CH3NH3+) è circondato da ottaedri di PbX6.

Le celle solari a perovskite hanno sestuplicato la loro efficienza negli ultimi sei anni: dal 3.5 al 22%, mediante ingegnerizzazione delle interfacce tra i vari componenti del dispositivo (vetro conduttivo/TiO2/perovskite/conduttore di lacune/Au). Mentre la gara al record di efficienza ha visto protagonisti svariati gruppi di ricerca su scala mondiale, un tema altrettanto rilevante è stato a lungo accantonato: la stabilità di questi dispositivi. Va infatti sottolineato che queste celle a perovskite hanno tre grandi nemici: la luce UV, l’umidità e il calore (sopra i 60 °C). Non di poco conto per una tecnologia che è pensata, tra le altre cose, per l’applicazione in finestra! E, paradossalmente, pioggia e sole (col suo 5% di raggi UV) ne provocano il degrado e la completa perdita di funzionalità in pochissimo tempo, nei casi migliori dopo pochi giorni.

Science ha pubblicato la settimana scorsa un lavoro di ricerca sperimentale condotto dal Politecnico di Torino insieme all’École Polytechnique Fédérale de Lausanne (EPFL), al Politecnico di Milano e all’Istituto Italiano di Tecnologia, dal titolo “Improving efficiency and stability of perovskite solar cells with photocurable fluoropolymers”. In questo lavoro viene proposto un rivestimento realizzato in un materiale polimerico innovativo in grado di contrastare efficacemente l’invecchiamento delle celle solari a perovskite. I ricercatori hanno realizzato un rivestimento fluorurato di spessore micrometrico che funge da efficace barriera contro l’umidità e garantisce in più caratteristiche autopulenti ai pannelli solari quando esposti agli agenti atmosferici. Il rivestimento è stato realizzato tramite fotopolimerizzazione, una tecnica di polimerizzazione estremamente rapida, economica ed a basso impatto ambientale (è usata comunemente per le otturazioni odontoiatriche e il fissaggio dello smalto sulle unghie). Per contrastare l’invecchiamento dei materiali indotto dalla luce ultravioletta, il rivestimento polimerico è stato inoltre potenziato con molecole luminescenti in grado di convertire la luce ultravioletta presente nella radiazione solare in luce non dannosa per la cella solare.

Con efficienze prossime al 19% ed un’eccezionale stabilità quando sottoposte ad una serie di test di invecchiamento anche in condizioni estreme per diversi mesi, le innovative celle solari a perovskite proposte su Science confermano le notevoli prospettive di questa nuova tecnologia di conversione dell’energia solare che potrà competere efficacemente con i classici pannelli al silicio in ambito edilizio, ma anche essere accoppiata al silicio stesso in dispositivi tandem ad elevatissime prestazioni.

perov4

* Federico Bella è ricercatore post-doc al Polito, dove si occupa principalmente di chimica dei materiali per la conversione energetica.

La chimica, l’acciaio e la nascita della rivoluzione industriale

In evidenza

 Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Giorgio Nebbia

L’acciaio, il re dei materiali da costruzione, 1400 milioni di tonnellate di produzione annua nel mondo, non avrebbe potuto diventare quello che è, indispensabile per ponti, scatole di conserva, edifici, cannoni, navi, pentole, automobili, eccetera, senza una buona chimica, dapprima impiegata empiricamente poi, col passare del tempo, applicata consapevolmente anzi arricchita a mano a mano che venivano inventati processi che permettevano di ottenere più acciaio, di migliore qualità a minor prezzo.

Benché il ferro sia uno dei metalli più abbondanti sulla Terra (https://ilblogdellasci.wordpress.com/2015/10/27/ferro-promesse-da-marinaio-e-piccole-storie-di-vita/), la chimica si è divertita a portarcelo via di mano trasformandolo dallo stato elementare in ossidi, idrati, carbonati, solfuri, attraverso il continuo contatto con l’ossigeno dell’aria e con le acque e i loro sali. Qualcuno deve avere scoperto, circa tremila anni fa, che scaldando in qualche modo quella terra rossastra si otteneva un materiale duro, un “metallo”, utile per frecce, corazze e spade, vanghe e martelli; più tardi i soliti abili cinesi e gli arabi avevano capito che la trasformazione degli ossidi in ferro era facilitata dal riscaldamento in presenza di carbone, ma soltanto nel 1600 si è cominciato a comprendere le reazioni chimiche che stanno alla base della siderurgia.

Tanto per cominciare, a capire che il carbone “portava via” l’ossigeno dagli ossidi liberando il metallo; l’operazione si poteva fare in piccole quantità per volta scaldando in piccoli forni fusori, i “bassi fuochi”, il minerale con carbone di legno, l’ingegnoso materiale ottenuto “copiando” quanto avviene durante gli incendi dei boschi. In pochi anni, nei primi decenni del Settecento, furono fatte le due scoperte fondamentali; nel 1709 Abraham Darby* (1677-1717) scoprì che si poteva condurre la stessa reazione di riduzione usando, al posto del fragile e costoso carbone di legna, il carbone coke che era ottenuto scaldando in assenza di aria il carbone fossile (lo stesso principio per cui la legna si trasforma in carbone di legna). La scoperta fu motivata anche dal fatto che i primi decenni della siderurgia avevano richiesto grandi quantità di legna e i boschi stavano rapidamente sparendo, un po’ come rischia di succedere oggi col petrolio.

330px-darby_furnace_uk

Il forno fusorio di Darby nel Coalbrookdale Museum of Iron

Del resto già nella metà del 1600 i birrai avevano scoperto che il carbone fossile usato come combustibile generava dei fumi che danneggiavano la qualità della birra e che il coke era invece un combustibile “pulito”. Il carbone coke, duro, privo di zolfo, resistente alla pressione, si prestava bene in siderurgia per la riduzione del minerale di ferro e Darby condusse la reazione in forni verticali, “altiforni”, in cui dall’alto era caricato coke e minerale e dal basso si soffiava l’aria necessaria per trasformare il coke in ossido di carbonio capace di trasformare gli ossidi di ferro in ferro fuso.

Gli altiforni furono ben presto perfezionati da Abraham Darby II* (1711-1763) quando prese in mano l’azienda del padre. L’altezza dell’altoforno fu aumentata, col che era possibile aumentare la produzione di ferro di ciascuna carica, e alla miscela fu aggiunto calcare che reagiva con le materie estranee del minerale formando una massa fusa di scorie, le “loppe”, che più tardi si sarebbero rivelati utili come ingredienti del cemento: al solito un rifiuto trasformato in materia prima.

altofornoNei primi decenni l’aria veniva insufflata fredda nell’altoforno; per diminuire il consumo di carbone, sempre nello spirito di fare di più con meno — una pratica che era ben presente agli imprenditori anche prima dell’ambientalismo — Jean Beaumont Neilson (1792-1865) nel 1828 brevettò l’idea di insufflare nell’alto forno aria preriscaldata col calore dei gas caldi che uscivano dall’altoforno. Per migliorare questo recupero di calore Edward Alfred Cowper (1819-1893) nel 1859 fece un’altra invenzione “verde” (https://ilblogdellasci.wordpress.com/2016/03/23/noterelle-di-economia-circolare-3-cowper/): dal fondo di un grande condotto metallico verticale, pieno di umili mattoni disposti in maniera alternata, i gas caldi provenienti dall’altoforno entrano, passano attraverso la massa dei mattoni, scaldandoli, e vengono fatti uscire freddi all’esterno; a questo punto i mattoni hanno immagazzinato gran parte del calore dei gas e il ciclo viene invertito; l’aria fredda esterna passa attraverso la massa di mattoni caldi, si riscalda e viene immessa, il “vento”, nell’altoforno, con cicli alternati. Con le “torri Cowper” (usate ancora oggi), fu possibile diminuire il consumo di carbone di 10 GJ per tonnellate di ghisa, un bel successo se si pensa che oggi il costo energetico della ghisa si aggira fra 15 e 20 GJ/t.

L’altoforno aveva l’unico inconveniente che il ferro assorbiva una grande quantità, fino al 5 percento, di carbonio per cui il prodotto fuso ottenuto era una lega ferro-carbonio, la ghisa o “ferraccio”, in inglese ha il dispregiativo nome di “pig iron”, meccanicamente fragile, adatta in molte applicazioni, ma non per la fabbricazione di lamiere e tubi per macchine utensili, navi e armi.

330px-reaumur_1683-1757

René Antoine Réaumur

A dire la verità un chimico, René Antoine Réaumur (1683-1757), aveva spiegato già nel 1722, che la differenza fra ghisa e acciaio dipende dal contenuto di carbonio che nell’acciaio è solo dell’1 percento; nei decenni successivi furono sviluppati vari processi di trattamento della ghisa fusa in grandi padelle metalliche scaldate all’aria mediante agitazione con pale azionate da speciali operai, il puddellaggio. La lenta e faticosa operazione di puddellaggio, scoperta e brevettata nel 1784 da Henry Cort (1740-1800), consisteva sostanzialmente nella combustione, per esposizione all’ossigeno dell’aria, del carbonio della ghisa; il calore di combustione teneva fusa la massa di acciaio, a mano a mano che si formava, essendo il punto di fusione dell’acciaio superiore a quello della ghisa. Una volta capito il meccanismo della reazione di decarburazione della ghisa si trattava di passare dalla lenta e costosa operazione di puddellaggio ad un sistema più rapido e meno costoso.

Il 14 agosto 1856 il quotidiano inglese “Times” pubblicò per intero la relazione presentata due giorni prima alla riunione dell’Associazione britannica delle Scienze a Cheltenham, da Henry Bessemer (1813-1898), scienziato, imprenditore e inventore del primo processo per la fabbricazione su larga scala dell’acciaio. I lettori non potevano immaginare che quell’articolo avrebbe aperto una pagina della rivoluzione chimica. Il convertitore consisteva in un recipiente a pera che poteva ruotare intorno a due perni; la ghisa calda fusa, così come usciva dall’altoforno, veniva versata nella bocca del convertitore e veniva attraversata da una corrente d’aria preriscaldata; l’ossigeno ossidava la maggior parte del carbonio; il calore di combustione teneva fusa la massa di acciaio così formato che poteva essere fatta uscire inclinando “la pera” sui suoi perni. In questo modo diminuiva il tempo di trasformazione della ghisa in acciaio e quindi il costo dell’acciaio anche perché non c’era bisogno di apporto esterno di calore.

Sir Henry Bessemer (1813-1898), ingŽnieur anglais. ©MP/Leemage AA094754 dbdocumenti 307 371 300 3630 4386 Scala di grigio

Sir Henry Bessemer (1813-1898) ©MP/Leemage

E’ difficile immaginare oggi l’effetto che l’invenzione ebbe sull’economia inglese e mondiale e si capisce che il principale quotidiano inglese dedicasse all’invenzione la propria prima pagina. Bessemer è stato un importante personaggio e il lettore curioso potrà trovare l’autobiografia, riprodotta in Internet https://archive.org/details/sirhenrybessemer00bessuoft (visitato 4-10-2016), che racconta anche come Bessemer arrivò alla sua invenzione. Un convertitore Bessemer, con cui era possibile ottenere da 10 a 20 tonnellate di ghisa per volta, fu presentato all’esposizione di Londra del 1862 e attrasse subito l’attenzione; un primo convertitore fu installato in Italia nel 1865 nelle “Officine Perseveranza” di Piombino dove esisteva un altoforno a carbone di legna. L’impianto funzionò però soltanto due anni.

Ben presto ci si accorse che il convertitore Bessemer aveva alcuni inconvenienti; il suo interno era rivestito con un materiale refrattario siliceo, acido, e non riusciva a ossidare le ghise provenienti da minerali di ferro contenenti fosforo, come quelli della Lorena. La soluzione fu offerta dai cugini Sidney Gilchrist Thomas (1850-1885) e Percy Gilchrist (1851-1935)(li abbiamo già conosciuti: https://ilblogdellasci.wordpress.com/2015/05/06/chi-gli-ha-dato-il-nome-s-g-thomas-1850-1885/), che nel 1878 brevettarono la sostituzione del rivestimento refrattario siliceo del convertitore Bessemer con un rivestimento refrattario basico di calcare il quale fissava chimicamente il fosforo e anzi, una volta recuperato, rappresentava una fonte di fosfati di calcio adatti come concimi; altro esempio di recupero commerciale di residui di lavorazione, quelli che oggi chiameremmo materie prime seconde.

Un altro inconveniente era che nei convertitori Bessemer il processo di ossidazione era “troppo” veloce: una carica trasformava la ghisa in acciaio in un quarto d’ora e in così poco tempo non era possibile prelevare campioni e analizzare e controllare e eventualmente correggere la composizione della ghisa. Infine il convertitore Bessemer non poteva trattare i rottami di ferro che, nella metà dell’Ottocento, cominciavano a diventare disponibili in grande quantità in seguito all’abbandono di molti manufatti di acciaio.

Per recuperare l’acciaio da questi rottami ci sarebbe voluto un forno fusorio capace di trattare insieme i rottami, la ghisa e eventualmente il minerale di ferro, in modo da ottenere acciaio e leghe di acciaio della qualità voluta. Wilhelm Siemens (1823-1883) in Inghilterra aveva inventato, nel 1857, un forno dotato di un recuperatore di calore costituito da una massa di mattoni scaldati dai gas di combustione, un po’ come il “cowper”. Il forno Siemens era stato pensato per la fusione del vetro, ma l’industriale francese, Emile Martin (1794-1871) pensò che avrebbe potuto essere applicato anche alla fusione dei rottami ferrosi e mise a punto il forno che porta il nome Martin-Siemens per la produzione dell’acciaio.

siemensmartin12nb

Illustrazione di un forno Martin-Siemens, tratta da “Manuel de la métallurgie du Fer” di Adolf Ledebur, 1895.

I primi forni entrarono in funzione in Francia nel 1863 e si rivelarono un successo. Il processo di trasformazione in acciaio dei rottami miscelati, in opportuna proporzione, con ghisa e con minerale, si svolgeva lentamente, in circa due ore, il che consentiva di prelevare periodicamente dei campioni del metallo fuso la cui composizione poteva essere corretta a seconda delle esigenze dei produttori; per le analisi furono sviluppati nuovi metodi rapidi il che fece fare dei progressi anche alla chimica analitica. I forni Martin-Siemens, ciascuno dei quali aveva una capacità produttiva molto maggiore di quella dei convertitori Bessemer, potevano così fornire leghe speciali e con essi l’acciaio passò dalla sua infanzia alla maturità industriale: la produzione mondiale annua di acciaio passò dalle 22.000 tonnellate del 1867 a un milione di tonnellate nel 1880 a 28 milioni di tonnellate nel 1900 (nel 2015 è stata di circa 1400 milioni di tonnellate). Il primo forno Martin-Siemens in Italia fu installato nel 1876 a Piombino.

Comunque anche il processo Martin-Siemens ebbe un suo declino e fu sostituito da due processi, quello elettrico per fondere i rottami e quello a ossigeno per decarburare la ghisa, tutti e due orientati ad un ulteriore risparmio energetico, ad una maggiore utilizzazione dei rottami e ad una minore utilizzazione dei minerali e della ghisa e dei relativi processi inquinanti. Ma ormai siamo nel XX secolo.

*(Nota: non ci sono ritratti dei due Darby perchè entrambi erano quaccheri e rifiutavano di farsi fare ritratti)

La sfida della molecola

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Il titolo di questo post è tratto da un racconto di Primo Levi contenuto nel libro uscito da Einaudi nel 1981 dal titolo “Lilit ed altri racconti” che raccoglie testi già pubblicati per la maggior parte su giornali e periodici.

lilithNel racconto viene descritta in maniera molto particolareggiata la gelificazione di una resina sintetica all’interno di un reattore industriale.

Primo Levi come ben si sa lavorò per la maggior parte della sua carriera presso un’industria di smalti e vernici a Settimo Torinese, nelle vicinanze di Torino.

La rilettura di questo racconto mi smuove molti ricordi e per diverse ragioni. A Settimo Torinese ho trascorso la mia giovinezza insieme alla mia famiglia, e successivamente dopo il mio trasferimento in provincia di Varese per tre anni ho lavorato anche io in una azienda dove venivano prodotte vernici e resine sintetiche.

levi21Mi ricordo perfettamente che il proprietario mi chiese se conoscessi il Dott. Levi (cosi si espresse) quando sostenni il colloquio di assunzione, visto che provenivo dalla stessa città dove lui aveva lavorato per molti anni, fino al pensionamento per poi dedicarsi a tempo pieno alla scrittura. Molto a malincuore dovetti dirgli di no. Era il febbraio del 1987. Levi era ancora in vita. La notizia della sua morte la sentii al giornale radio proprio mentre ero rientrato a casa dei miei genitori da Varese. Era l’undici di Aprile di quello stesso anno, un sabato. La notizia mi lasciò un profondo senso di malinconia. Non avevo ancora portato con me i libri che più amavo, e nella libreria guardai i risvolti di copertina dei suoi libri dove la data di morte ancora non compariva.

Nel racconto vengono descritte situazioni che ogni chimico che lavora nell’industria o in laboratorio ha potuto sperimentare personalmente. In particolare uno dei due protagonisti prova un fortissimo senso di delusione e frustrazione perché durante il suo turno di lavoro la reazione di polimerizzazione che gli è affidata non va a buon fine, e provoca la gelificazione dell’intera massa di reazione pari ad otto tonnellate di prodotto. E confida queste sue sensazioni con l’altro personaggio del racconto in cui si può riconoscere proprio Levi. Il racconto prosegue con la descrizione delle operazioni preliminari di caricamento e pesatura con le bilance automatiche, e il controllo del reattore durante le ore di turno.levi22

Non so se attualmente nell’industria chimica vengano ancora usati, ma quando vi ho lavorato io le rampe di temperatura della reazione venivano gestite tramite una camma eccentrica a punteria calettata su un orologio meccanico, e il procedere della reazione nel tempo veniva poi tracciato su un registratore rotante che può in qualche modo ricordare il tachigrafo di un camion.

nockenwelle_aniUn sistema sostanzialmente analogico che credo sia stato ormai sostituito da controlli computerizzati. Alla fine della reazione dopo i controlli di qualità che in sostanza erano controlli della viscosità a tempi prestabiliti si poteva procedere allo scarico del reattore al suo lavaggio ed alla predisposizione per le successive “cotture” (questo è il termine con cui si indicavano le reazioni di produzione delle resine, usato anche nell’industria della birra per indicare la reazione di fermentazione).

Analogamente a quanto Levi aveva già scritto riguardo alla distillazione: “Distillare è bello. Prima di tutto perchè è un mestiere lento, filosofico e silenzioso, che ti occupa ma ti lascia tempo ad altro, un po’ come l’andare in bicicletta.”, anche in questo racconto il protagonista nel tempo morto, prima che il procedere della reazione lo impegni con i primi controlli di viscosità inizia a pensare ad altro.

Ma non alle proprie cose o alla fidanzata. Inizia a pensare alle molecole roteanti all’interno di quel reattore.

Questo è un brano particolarmente significativo. “Insomma io me ne stavo tranquillo, non c’era motivo di preoccuparsi. C’era ancora da aspettare due ore prima di cominciare coi controlli e ti confesso che io pensavo a tutt’altro. Pensavo…beh si, pensavo a quella confusione di atomi e molecole che c’erano dentro quel reattore, ogni molecola come se stesse lì con le mani tese, pronta ad acchiappare la mano della molecola che passava lì vicino per fare una catena”.

Questa parte del racconto è quella fondamentale. Richiama alla mente i momenti in cui nel lavoro quotidiano ci formiamo un’immagine di quello che sta avvenendo in un reattore industriale come narrato in questo racconto, ma anche se stiamo lavorando in laboratorio in semplici operazioni di titolazione o nell’uso di strumentazioni di laboratorio più sofisticate.

levi23Nella nostra formazione di chimici abbiamo imparato a costruire dei modelli di molecole nelle loro varie rappresentazioni. Le più belle ed eleganti da questo punto di vista sono le formule di struttura. E poi le rappresentazioni spaziali di modelli molecolari che oggi si possono trovare in commercio per uso didattico.

Come chimici abbiamo sempre lavorato seguendo un filo rosso di conoscenza che parte da Democrito e attraversa i secoli per arrivare fino a giorni nostri. Cercando di penetrare le leggi della materia e verificando in maniera pratica quello che in tutto questo tempo si era teorizzato e poi verificato prima sperimentalmente, e poi nell’applicazione pratica del lavoro quotidiano.

Questa forma mentis è, a mio parere uno stimolo fondamentale. Negli anni del mio lavoro presso l’industria varesina di vernici mi veniva in mente mentre in laboratorio mi dedicavo alla produzione di piccole quantità di resina alchidica in un piccolo reattore da dieci chili, un tempo usato per le sperimentazioni su impianto pilota. Capitava anche a me di immaginare questa danza di molecole appena la prima molecola di acqua di condensazione veniva eliminata dalla massa di reazione. E sia pure per quantità di prodotto ridotte ho provato sensazioni molto simili a quelle del protagonista del racconto, Rinaldo. Cambiavano solo le dimensioni del problema, otto tonnellate di resina polimerizzata ed inservibile nel racconto, pochi chili nel mio.

Inutile dire che questo articolo è un invito a leggerlo questo racconto, per capire fino in fondo una ulteriore lezione ed una morale che si trova in chiusura di esso. In primo luogo l’etica del lavoro e l’impegno di narrare della chimica, sia essa di ricerca o di lavoro quotidiano. Ma anche la metafora su cui ognuno potrà riflettere del prevalere del caos sull’ordine che ci sforziamo di conseguire in ogni momento della nostra vita. Ancora una volta la chimica ci offre una chiave di lettura che va oltre il suo orizzonte di disciplina che studia composizione e trasformazioni della materia, per sfiorare argomenti di carattere filosofico. Con il suo vasto bagaglio di metafore.

 

Il concetto di gas ideale e la teoria cinetica classica

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Nel capitolo 0 del suo recente libro (Storia umana della matematica, Einaudi, 2016), Chiara Valerio[1] afferma che: “Tutto quello di cui Euclide parla, non esiste. Non esiste una retta senza spessore e non esistono circonferenze perfette….il punto…è ciò che non ha parti…I ragionamenti, i teoremi, le costruzioni e le dimostrazioni di Euclide si applicano solo a queste forme inesistenti…” Secondo l’autrice dunque ciò che maggiormente caratterizza il matematico è l’immaginazione. “Una immaginazione che non trasforma, ma crea”, riconoscendo comunque che quegli enti inesistenti “…sono gli elementi dell’unica grammatica che, oltre a descrivere e comunicare il mondo, ha permesso di costruire e gestire dispositivi che ci hanno mandato oltre le stelle fisse, e più in là.”

ideale1Insomma, estrapolando il ragionamento di Valerio, i matematici immaginano e creano, mentre fisici, chimici e naturalisti osservano, imitano e danno una rappresentazione della realtà usando peraltro quell’unica grammatica. Senza entrare in questioni di filosofia della scienza, di cui fra l’altro sono completamente ignorante, mi è venuto in mente un ente della fisica e della chimica del tutto inesistente ma che ha dato un contributo eccezionale alla descrizione di gran parte della realtà fisica, il gas ideale. Infatti, come dice l’aggettivo, il gas ideale non si può percepire, non si trasforma in liquido, insomma non esiste. È vero però che questo ente inesistente è stato immaginato per interpretare il comportamento dei gas “reali”[2]. Premetteremo quindi una breve storia dell’origine delle “leggi empiriche dei gas”. Queste leggi che stabiliscono le relazioni fra le grandezze macroscopiche di una determinata massa gassosa, pressione P, volume V e temperatura T, quando se ne variano due mantenendo l’altra costante, furono enunciate fra la seconda metà del XVII e la fine del XVIII secolo. La prima, che stabilisce la relazione fra pressione e volume di una massa gassosa a temperatura costante, fu enunciata per primo da Robert Boyle[3] nel 1662. Eseguendo molti esperimenti sull’aria contenuta in un tubo a forma di J chiuso all’estremità corta e in cui introdusse volta a volta quantità diverse di mercurio dall’estremità lunga[4] giunse a stabilire che “la pressione esercitata da una massa di gas è inversamente proporzionale al suo volume quando la temperatura viene mantenuta costante”[5]. Questa legge è stata la prima a essere espressa anche sottoforma di equazione. Il fisico francese Edme Mariotte (1620-1684) giunse alla stessa legge indipendentemente da Boyle ma più tardi, questo è il motivo per cui taluni testi si riferiscono a questa come legge di Boyle e Mariotte.

6-robert-boyle-1627-1691Fra il 1787 e il 1802 diversi scienziati, fra cui l’italiano Alessandro Volta (1745-1827), i francesi Guillaume Amontons (1663-1705), Jacques Charles (1746-1823) e particolarmente il fisico e chimico Joseph Louis Gay-Lussac[6], studiarono le variazioni di volume e pressione di una massa gassosa al variare della temperatura a pressione e volume costante rispettivamente. A Gay-Lussac viene generalmente attribuito il merito della formalizzazione di queste relazioni nel 1802, oggi note appunto come leggi di Gay-Lussac.

La prima, riguardante la variazione del volume al variare della temperatura a pressione costante, afferma che “il volume di una massa gassosa varia linearmente con la temperatura quando si mantiene costante la pressione”, matematicamente:

Vt = Vo(1 + αt)

dove Vo è il volume della massa gassosa a 0 °C, α è il coefficiente di dilatazione termica e t è la temperatura in gradi centigradi.

La seconda prende in esame la variazione della pressione con la temperatura e afferma che “la pressione di una massa gassosa varia linearmente con la temperatura quando si mantiene costante il volume”, matematicamente:

Pt = Po(1 + βt)

dove Po è la pressione esercitata dalla massa gassosa a 0 °C, β è il coefficiente di espansione e t è la temperatura in gradi centigradi.

Le due espressioni non sono solo formalmente analoghe ma fu trovato che, entro gli errori sperimentali, α = β ≈ 1/270.

gay-lussacLe leggi di Gay-Lussac furono enunciate parecchi decenni dopo quella di Boyle quando si ebbero a disposizione macchine pneumatiche e apparecchiature per la manipolazione dei diversi gas che si andavano via via scoprendo. Fu così possibile sperimentare su intervalli più ampi di volume e pressione e su gas diversi. Inoltre, ancora prima del 1824 era stato riconosciuto un limite inferiore per la temperatura (probabilmente per estrapolazione delle rette V o P vs temperatura), limite chiamato zero assoluto, e costruita una scala di temperatura basata su questo valore limite[7].

I tempi erano diventati maturi per costruire (immaginare?) un modello per interpretare il comportamento dei gas. Molti illustri nomi sono legati alla costruzione del modello di gas ideale, ad es. Daniel Bernouilli (1700-1782), Mikhail Lomonosov (1711-1765), Georges Louis La Sage (1724-1803), John Herapath (1790-1868), John James Waterston (1811-1883), tuttavia il primo e più semplice modello di gas ideale è stato creato da August Krönig[8] nel 1856 [1] e da Rudolph Clausius[9] nel 1857 [2].

Secondo tale modello:

1) il gas è costituito da particelle sferiche infinitesime indistinguibili, praticamente prive di volume, aventi però massa m (punti materiali);

2) le particelle sono in continuo moto traslazionale e occupano tutto il volume del recipiente che contiene il gas;

3) nel loro moto le particelle si urtano fra loro e urtano il recipiente che le contiene;

4) gli urti sono perfettamente elastici quindi conservano energia e quantità di moto;

5) il moto delle particelle avviene in tutte le direzioni in modo casuale, ma poiché il loro numero è molto grande, statisticamente il numero di particelle che si muove in una direzione è uguale al numero che si muove in qualsiasi altra direzione, inoltre il gran numero di urti mantiene inalterata la distribuzione delle velocità delle particelle;

6) sulle particelle non agisce alcuna forza se non durante una collisione, la durata di un urto è trascurabile;

7) dato che dalle leggi empiriche allo zero assoluto la pressione si riduce a 0, si suppone che l’energia cinetica delle particelle sia proporzionale alla temperatura assoluta: Ec = (1/2)m<v2>=kT, con <v2> velocità quadratica media.

Lo sviluppo formale di questo “ente inesistente” in base alla meccanica di Newton conduce alla seguente equazione per la pressione esercitata dal gas:

P = nm<v2>/3V

dove n indica il numero di particelle contenute nel recipiente, nota come equazione di Krönig e Clausius[10].

rudolf-clausiusL’equazione di Krönig e Clausius collega anzitutto le quantità macroscopiche pressione e volume alle grandezze microscopiche massa e velocità media delle particelle, inoltre se si moltiplica e divide il secondo membro per due e si sposta il volume al primo membro, si ottiene:

PV = (2/3)n(m<v2>/2) = (2/3)nkT

che è l’equazione di stato la quale regola la variazione simultanea delle tre grandezze macroscopiche che caratterizzano appunto lo stato di un gas. Questa equazione fu già ottenuta empiricamente da Benoit-Paul Emile Clapeyron nel 1834 combinando le leggi empiriche di Boyle e di Gay-Lussac: pv = C(267 + t) con t temperatura centigrada (nel 1850 R. Clausius la migliorò sostituendo il valore più preciso 273 a 267). L’equazione di Krönig e Clausius è però teorica, ottenuta dallo sviluppo formale del modello di gas ideale. Tale equazione contiene anche la conseguenza che uguali volumi contengono ugual numero di particelle (ipotesi di Avogadro, 1811) ma sembra che Krönig non ne diede molto peso, mentre questa implicazione fu sottolineata da Clausius con una certa enfasi.

L’equazione di Krönig e Clausius interpreta quindi il comportamento dei gas? Non proprio, perché essa (e tutte le sue conseguenze) sono rigorosamente valide solo per il gas ideale, cioè un qualcosa che non esiste.

Però…c’è un però. Fortunatamente per Boyle, Gay-Lussac (e per tutti noi) la Natura ha fatto sì che quasi tutti i gas, in condizioni non estreme di pressione e temperatura (segnatamente bassa pressione e temperatura al di sopra del punto di liquefazione) si comportano approssimando più o meno il modello ideale. La maggior parte dei gas a temperatura e pressione standard (298 K = 25 °C e 1) bar possono essere trattati secondo il modello ideale.

In figura sono riportate le isoterme per l’anidride carbonica.

ideale2Come si può notare, al disopra di 304 K (31 °C) il comportamento della CO2 approssima sempre meglio quello del gas ideale (l’isoterma 50°C segue praticamente la legge di Boyle).

I progressi successivi della teoria cinetica classica sono dovuti a J. C. Maxwell (1831-1879) e L. Boltzmann (1844-19069 ai quali si deve l’introduzione della meccanica statistica in fisica.

Questo post è nato con l’intento di mostrare che l’immaginazione non è prerogativa dei soli matematici. Ho riportato come esempio il modello di gas ideale, sono certo che qualcuno vorrà riportare altri esempi di oggetti chimici “immaginari” che hanno determinato il progresso della scienza.

[1] Krönig, A., Grundzüge einer Theorie der Gase, Annalen der Physik und Chemie, 1856, IX Band, 315–322

[2] Clausius, R., Ueber die Art der Bewegung, welche wir Wärme nennenAnnalen der Physik1857, X Band, 353–379.

[1] Chiara Valerio (Scauri, 1978) ha conseguito un dottorato in matematica all’Università Federico II di Napoli. Ha scritto diversi romanzi e racconti. Collabora con Radio3 e con un programma televisivo.

[2] Tutti i gas del mondo fisico sono “reali”. Purtroppo l’aggettivo è usato spesso per distinguere i gas reali dai gas ideali (!), un errore ricorrente in molti libri di testo di chimica e in rete.

[3] Robert Boyle (1627-1691) anglo-irlandese, filosofo naturale, fisico e chimico. Per quanto riguarda la chimica, l’opera più importante di Boyle è il trattato The Sceptical Chymist (London 1661), trad. it. Il chimico scettico (Theoria, 1985), in cui oltre una feroce e ironica critica delle procedure e delle teorie alchemiche, sono contenuti i concetti di elemento e composto insieme all’ipotesi della struttura atomica della materia. Fu il primo a affermare che l’aria è un miscuglio di gas.

[4] Lo storico Robert William Theodore Gunther (1869 – 1940) come pure altri studiosi, attribuiscono a Robert Hooke, assistente di Boyle, la messa a punto dell’apparato sperimentale.

[5] In realtà questo fenomeno era stato notato per la prima volta nel 1661 da Richard Towneley (1629-1707) matematico e astronomo inglese e Henry Power (1623-1668) fisico sperimentale, misurando la pressione dell’aria con un barometro di Torricelli a varie altitudini. Boyle menziona Towneley nel suo trattato sull’aria, è comunque indubbio che la formulazione e formalizzazione della legge sia dovuta a Boyle.

[6] Joseph Louis Gay-Lussac (1778-1850) fisico e chimico francese, noto, oltre per le due leggi sopra citate anche per la legge sulle combinazioni chimiche fra sostanze allo stato gassoso, per aver stabilito che l’acqua è costituita da due parti di idrogeno e una di ossigeno (insieme a A. von Humboldt) e per i suoi lavori sulle miscele acqua-alcool.

[7] Esiste una differenza di natura teorica fra scala assoluta della temperatura e scala termodinamica, la prima essendo essenzialmente empirica, la seconda basata sul Principio zero della termodinamica. Alla buona, la scala termodinamica assume lo zero assoluto come zero, la scala assoluta è arbitraria, ad es. nella scala Celsius lo zero assoluto vale -273.15 °C, se tale valore viene assunto come 0 allora le scale coincidono. In ogni caso l’unità di misura è il kelvin (K) in onore di sir William Thomson altrimenti noto come Lord Kelvin (1824-1807) matematico e ingegnere britannico che fu il primo a determinare il valore corretto dello zero assoluto a cinque cifre significative: 0 K = – 273.15 °C.

[8] August Karl Krönig (1822-1879) chimico e fisico tedesco è noto soprattutto per il suo articolo del 1856 sulla teoria cinetica del gas ideale.

[9] Rudolf Julius Emanuel Clausius (Rudolf Gottlieb, 1822 –1888) matematico e fisico tedesco è considerato uno dei fondatori della termodinamica classica, formulò il primo enunciato del 2° principio della Termodinamica e introdusse il concetto di entropia. Sua è la famosa massima: “L’energia dell’universo è costante, l’entropia dell’universo tende a un massimo”.

[10] Il lavoro di Clausius fu criticato dal meteorologo olandese cristo Buys-Ballot perché le velocità delle particelle gassose calcolate in base alla teoria risultavano esageratamente elevate. Buys-Ballot fu anche chimico, fisico e mineralogista. Sicché nel 1858 Clausius corresse il modello assumendo una “sfera d’azione” di diametro, d, per le particelle e introducendo il concetto di libero cammino medio, l, a indicare la distanza media percorsa fra un urto e il successivo. Per conservare l’idealità l deve essere abbastanza grande rispetto a d, ma piccolissimo rispetto alle dimensioni del contenitore.

Corruzione e fuga.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

 Giorni fa mi chiedevo su queste pagine quando la SCI dovrebbe prendere una posizione pubblica e mi pare che adesso ce ne sia l’occasione; di che si tratta? Ve lo spiego brevemente.

Pochi giorni fa su tutti i giornali sono comparse delle dichiarazioni del dott. Cantone, magistrato, Presidente dell’Autorità Nazionale Anticorruzione nel corso della tavola rotonda sul tema “I modelli organizzativi anticorruttivi tra pubblico e privato” tenutasi a Firenze. cantoneSiamo subissati di segnalazioni su questioni universitarie, soprattutto segnalazioni sui concorsi“.

E ancora

C’è un grande collegamento, enorme, tra fuga di cervelli e corruzione“.

Sull’università “proveremo a fare linee guida ad hoc, che non vogliono burocratizzare ma provare a consentire l’esercizio della discrezionalità in una logica in cui la discrezionalità però non diventi arbitrio, in cui discrezionalità significhi dare conto ai cittadini, non solo gli studenti ma tutti i cittadini perché l’università è il nostro futuro“.

L’università dovrebbe essere l’esempio, per rilanciare il nostro Paese. Le classifiche internazionali, purtroppo, in questo senso, e se non ci premiano una delle cause sta anche in una serie di vischiosità del sistema universitario. Non concordo che le università italiane sono baracconi burocratici; ma all’estero tutti credono che lo siano, e sappiamo bene quanto conti non solo il fatto di essere ma anche di apparire. E questo apparire costituisce un danno enorme per il nostro Paese“.

Ha detto anche altre cose su un caso specifico di corruttela e criticato la legge Gelmini, ma stiamo alle prime tre.

Le sue dichiarazioni hanno suscitato discussione e polemiche. In particolare Ciro Ciliberto, presidente della UMI, l’Unione Matematica Italiana, una associazione del tipo della SCI, ha scritto una lettera aperta in cui critica fortemente queste dichiarazioni e invita Cantone a correggerle o a precisarle.

ciro-cilibertoNella stessa lettera Ciliberto dice:

chiunque può segnalare quel che vuole e ”segnalare” non vuol dire un bel nulla, forse ”denunciare” vorrebbe dire qualcosa in più. Il grave è che le viene attribuita la deduzione che, da queste non meglio precisate ”segnalazioni”,  ne derivi che la corruzione dilaghi nelle università del nostro paese, al punto che, secondo lei, ci sarebbe ”un grande collegamento, enorme, tra fuga di cervelli e corruzione”. Dunque, la fuga dei cervelli sarebbe in gran parte motivata non dalla drammatica e ampiamente documentata carenza di fondi e investimenti per la ricerca che determina un enorme calo di competitività e attrattività del nostro sistema universitario, con conseguente mancanza di opportunità di lavoro decoroso per i nostri giovani più brillanti, ma semplicemente dalla casta baronale corrotta e inefficiente.

E inoltre:

il nostro ”corrotto” sistema universitario, questi giovani brillanti li produce, e sono bravi e tanto competitivi da trovare posto nelle migliori istituzioni di ricerca straniere. Questo vuol dire che, nonostante il vero e proprio accanimento dei vari governi che si sono succeduti negli ultimi circa dieci anni, nel tagliare fondi alla ricerca, il sistema incredibilmente funziona ancora, evidentemente grazie alla competenza e qualità dei docenti. I bravi ricercatori nascono sotto i cavoli, qualcuno deve aver loro insegnato qualcosa! O no?

E ancora: Quel che risulta a me, e che ormai è chiaro ai colleghi stranieri più attenti alle nostre cose, è che la situazione della ricerca in Italia è al limite della sostenibilità per le difficoltà economiche cui ho fatto cenno ed anche per le normative che alcuni politici hanno voluto appiopparci, che anche le dichiarazioni a lei attribuite sembrano giudicare viscose, paralizzanti e talvolta umilianti. Leggo infine che lei avrebbe annunciato per l’Università ”linee guida ad hoc, che non vogliono burocratizzare, ma provare a consentire l’esercizio della discrezionalità in una logica in cui la discrezionalità però non diventi arbitrio”, regole che servano a dar conto ”a tutti i cittadini, perché l’università è il nostro futuro”. Che l’università, la scuola, la cultura, siano il nostro futuro sono in molti ad affermarlo. Peccato che nessuno ne tragga l’unica conclusione sensata, e cioè che occorre investire meglio, e soprattutto molto di più di quanto non si faccia ora, investire quanto investono i paesi con cui vogliamo confrontarci e relazionarci.

Devo dire che condivido quasi completamente la valutazione di Ciliberto; è pur vero che il nostro paese è “ben piazzato” (cioè in fondo) nelle classifiche internazionali della corruzione e perfino della libertà di stampa, ma direi che il fatto che è ultimo in Europa per investimenti nella ricerca, nella didattica e nel numero di laureati siano una base materiale almeno altrettanto potente.

Luciano di Samosata (Contro un bibliomane ignorante) diceva: Una cosa terribile è l’ignoranza, fonte senza fine dei mali umani, diffonde una nebbia sui fatti, oscura la verità, e lancia un buio sulla vita individuale. Siamo tutti pedoni nelle tenebre

e noi ripetiamo in uno dei banner del blog:” Se pensi che l’istruzione sia costosa, prova con l’ignoranza” (Derek Bok -25° presidente dell’Università di Harvard).

Il nostro paese ha preso sul serio la sfida retorica di Bok e al contrario di TUTTI gli altri paesi europei ha ridotto di miliardi il già basso investimento in istruzione e ricerca, ha ridotto in 10 anni del 20% il numero di docenti universitari, ha bloccato il ricambio generazionale di fatto almeno dal tempo di Tremonti e della legge Gelmini; vi ricordate? Il primo miliardo lo abbiamo perso con loro, i ministri del tunnel dei neutrini!

Una delle scuse di questa strategia è stata la parentopoli, dimostrata dalle omonimie e denunciata in un famoso articolo da Stefano Allesina; peccato che l’articolo sia sbagliato. I casi di potenziale parentopoli denunciabili sulla base delle omonimie non superano l’1.36% del totale dei docenti.

Ma cosa è successo dopo? Nulla di diverso purtroppo.

Faccio due esempi recenti di come la riduzione di spesa e le regole burocratiche folli ci opprimono letteralmente e questo occorre dirlo ai giovani e a tutti. E su questo per fortuna Cantone la legge Gelmini la critica, in questo direi che si poteva cogliere l’unica sollecitazione giusta della sua perorazione (a parte ovviamente la PUNIZIONE a SEGUITO di DENUNCIA non di segnalazione dei casi di corruttela).

Il primo esempio è il PRIN; PRIN significa Progetti di ricerca di interesse nazionale e i fondi non venivano erogati da ben 4 anni, dal 2012; per qualche dato più ampio potete vedere qui. Ma la cosa che mi interessa far notare è che stiamo parlando di richieste per oltre 2 miliardi di euro e fondi per soli 91 milioni di euro; 4000 progetti di cui solo 300 sono stati finanziati, il 7.5% e con importi pari al 4% del totale richiesto, in definitiva ai progetti vincenti hanno dato comunque metà in media di quanto richiesto.

La corruzione cosa c’entra con questo?

Il secondo esempio sono le regole folli; la legge dice che il dottorato non può durare meno di tre anni; da questo si dedurrebbe che il percorso di dottorato che in tutti i paesi o quasi del mondo è superiore ai tre anni possa se le esigenze di formazione o di ricerca lo impongono essere in qualche modo supportato per OLTRE tre anni; ma invece l’ultimo ritrovato della burocrazia ministeriale è che l’interpretazione autentica è che la durata sia al MASSIMO tre anni; si veda qui in particolare art.8 comma 6.

Se ne deduce che se non finisce in tre anni giusti lo studente è fregato e i soldi spesi già sono persi. Nessuno sta chiedendo allo stato di metterci i soldi ma almeno di lasciarli usare quando ci sono.

Ovviamente si possono trovare trucchi perfettamente legali, l’Italia è “la patria del diritto” ma anche dei legulei e dei trucchetti, ma non credo che Cantone dicesse questo.

O forse no, dopo tutto anche Cantone si occupa di diritto.

Voi che ne dite?

Chimicappello.

In evidenza

a cura della Redazione del Blog

Cari colleghi,
da qualche giorno questo blog ha superato il traguardo dei 500.000 contatti da quando esiste (circa 4 anni); non è un numero enorme, ma da comunque il senso dell’impegno di chi ci ha lavorato e della presenza realizzata fra il pubblico; corrisponde a meno di 1000 contatti per ciascuno in media dei post pubblicati; tuttavia dobbiamo dire che siamo solo parzialmente soddisfatti perché soprattutto la partecipazione all’attività editoriale dei soci SCI e degli iscritti agli ordini, sebbene presenti è di gran lunga inferiore alle esigenze e anche alle aspettative. Come sapete si tratta di un blog non  speculativo, ma problematico e promozionale di forme di confronto e di partecipazione, di stimolo per i più giovani.
Se considerate che fra SCI ed Ordini abbiamo circa 13.000 persone raggiungibili vi fate subito un quadro della situazione; certamente il blog può cambiare e migliorare, ma d’altra parte c’è una situazione di base che diremmo manifesta. Ed è la solo parziale disponibilità dei chimici a partecipare alla divulgazione e al dibattito sui temi di chimica e società. Abbiamo altre volte indicato in circa 100.000 il numero di laureati della nostra disciplina in Italia, di questi una piccola parte, attorno al 10% sono organizzati in associazioni di qualche tipo e di questo 10% ancora il 10% partecipa in qualche modo alla vita culturale della chimica; sono numeri che si possono ottenere dal traffico nostro ma anche dai risultati di altri blog e siti; questa rozzissima regola del 10% mostra la difficoltà ad attrarre il grande pubblico, ma prima di tutto a coinvolgere perfino noi stessi. Dove sono i chimici che lavorano nell’industria, nelle dogane, nelle struttura sanitarie pubbliche e in tutte le altre istituzioni del paese? Si facessero vivi!

Facciamo allora un appello a voi tutti ad una maggiore partecipazione in termini di contributi scritti e in termini di discussione e diffusione; l’importanza della nostra disciplina dal punto di vista applicativo e sociale non è affatto diminuita, anzi: eppure questo non sembra stimolare la discussione; in parte si tratta di una tendenza presente nella nostra vita sociale, chiudersi nel proprio guscio, in parte di una tendenza specifica che l’ambiente dei chimici italiani vive da alcuni decenni. Più collaborazione si riesce ad ottenere, più il dibattito diventa uno strumento di approfondimento e confronto. Necessario anche per contrastare alcuni vecchi difetti italiani: preoccupante tendenza all’analfabetismo di ritorno, pigrizia nella lettura e di conseguenza un proliferare di leggende e inesattezze anche su temi di interesse generale.
Cerchiamo di uscirne; i problemi delle risorse e dell’energia chiedono una maggiore applicazione di una scienza e di una chimica volte al bene comune e non all’interesse economico di pochi; senza la partecipazione democratica e massiva alle discussioni e alle decisioni in corso non è detto che le cose migliorino.
Scienza e democrazia sono legate; scienza vuol dire conoscenza e conoscenza vuol dire partecipazione, un aspetto irrinunciabile della democrazia; se la democrazia al momento è la peggior forma di governo (eccettuate tutte le altre), la scienza è oggi, più che il mero tempo di lavoro, la principale forza produttiva; al di fuori della scienza spettacolo e di una scuola pubblica solo parzialmente efficace, le due cose si legano con difficoltà, eppure una scienza senza democrazia è un mero strumento di dominio sociale e una democrazia senza scienza è tecnicamente insostenibile in un mondo di quasi 8 miliardi di persone.
Siamo chiamati a contribuire a costruire un mondo basato su produzione circolare, energie rinnovabili, equità sociale, cultura critica diffusa; la chimica ha un ruolo enorme in tutto ciò; senza di essa, senza la scienza più in generale  e senza la cosciente partecipazione di chi la applica l’obiettivo è irrealizzabile; di più l’umanità va incontro a problemi crescenti.
Il blog è solo una goccia nel mare, ma almeno a questo la redazione sa di poter contribuire e vi esorta a fare altrettanto.

Tungsteno o Wolframio: due nomi per lo stesso elemento

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

(Per questo post ho ampiamente attinto alla rubrica del Journal of Chemical Education: “Ask the Historian”: W.B. Jensen, Why Tungsten Instead of Wolfram?, J. Chem. Educ., 2008, 85, 488-489.)

Il Tungsteno, simbolo W (da wolframio, appunto) è l’elemento 74 della Tavola Periodica. E’ un metallo di transizione e, per sue proprietà metalliche (alto punto di fusione 3422°C, conducibilità elettrica 1,89 × 107 S/m, durezza 7,5) ha trovato e trova molteplici applicazioni, dagli acciai rapidi alla pesca sportiva, dalla radiologia alle pale per turbine. Ma il suo uso più conosciuto è nei filamenti per le (ormai vecchie) lampadine a incandescenza. Abbastanza noto è il libro del medico scrittore Oliver Sachs, “Zio Tungsteno” (Adelphi, 2006), con i ricordi del giovane Sachs che nell’infanzia e adolescenza si interessò moltissimo alla chimica.

zio-tungstenoVediamo una breve storia del tungsteno (wolframio) per capire l’origine dei due nomi dati a questo elemento.

Nel 1747 il chimico e mineralogista (nonché farmacista e medico) svedese Johan Gottschalk Wallerius (1709 – 1785) descrisse un nuovo minerale presente in Svezia che, a causa della sua pesantezza, chiamò tung sten, che in svedese significa “pietra pesante” (oggi: wolframite[1]).

wolframite

wolframite

tunsteno-metallo

tungsteno-metallo

Nel 1781 il chimico Carl Wilhelm Scheele[2], anch’egli svedese, riportò la scoperta di un nuovo “ossido acido” in questo minerale che, a causa di ciò, chiamò ossido tungstico acido. Due anni più tardi, i fratelli Elhuyar (Fausto e Juan José, chimici spagnoli) isolarono lo stesso ossido dalla wolframite e si accorsero subito che si trattava dello stesso composto scoperto da Scheele il quale, in conformità alla nomenclatura francese in uso all’epoca, chiamò nel 1784 il metallo contenuto nell’ossido tungsten regulus.

Tuttavia, nella successiva riforma della nomenclatura chimica del 1787, Lavoisier e collaboratori rifiutarono l’uso del termine “regulus” per nominare i nuovi metalli poichè esso non si accordava con la proposta di nomenclatura per i composti binari[3]. Di conseguenza la parola regulus fu eliminata (allo stesso modo per molibdeno e manganese) e il termine accorciato in tungstène, rendendo così il nome del metallo identico al corrispondente nome comune (tung sten) del minerale da cui sarebbe stato estratto. Robert Kerr, traduttore e divulgatore della riforma lavoisierana in Gran Bretagna, tradusse in tungsten il termine tungstène.

Sebbene anche i chimici tedeschi adottarono infine la nomenclatura riformata di Lavoisier e colleghi, preferivano spesso usare vocaboli derivati dal greco antico, ad esempio Sauerstoff invece di ossigeno, Wasserstoff invece di idrogeno[4]. La letteratura chimica tedesca e scandinava di questo periodo fu anche più strettamente affine alla letteratura mineralogica rispetto a quella inglese e francese, ciò che provocò ulteriori problemi rispetto al termine tungsteno, perchè i mineralogisti cominciarono a favorire l’alternativa wolframio per il nuovo metallo in onore del suo isolamento dal minerale wolframite. La confusione aumentò con la proposta di chiamare scheelium il metallo, in onore del suo scopritore, Scheele.

carl-wilhelm-scheeleCosì nel 1791 la versione tedesca del famoso dizionario della chimica di Macquer elencò il metallo solo alla voce “Wolfram”, mentre il dizionario tedesco Remler del 1793 riportò wolfram, tungsten e scheelium come sinonimi. In netto contrasto, dizionari chimici inglesi e francesi di questo periodo non fanno menzione di queste alternative e utilizzano solo il nome adottato da Lavoisier e dai suoi collaboratori o il suo equivalente inglese.

Entrambi i nomi tungsteno e scheelium riflettono il fatto che l’elemento in questione è stato scoperto da uno svedese e quindi vi è una certa ironia apprendendo che il grande chimico svedese Jöns Jacob Berzelius raccomandò che, almeno nella letteratura chimica nord-europea, l’elemento dovesse essere indicato con il nome wolfram. Ciò anche a causa dell’introduzione di Berzelius del nostro attuale simbolismo chimico (intorno all’anno 1814), in cui ogni elemento è rappresentato da una o due lettere del suo nome latino o latinizzato (v. link in nota 3). Al fine di distribuire più equamente i simboli su tutto l’alfabeto, Berzelius insistitè su alcune scelte “inusuali”, molte delle quali suggerite dalla sua conoscenza dettagliata della letteratura mineralogica e la sua preferenza per il latino, come natrium invece di sodio, kalium invece di potassio, tantalio invece di niobio, e naturalmente, wolframium o wolfram invece di tungsteno.

Commentando quest’ultima scelta nel suo famoso libro di testo, Berzelius sostenne:

scheelite

scheelite

Anche se alcuni chimici hanno suggerito che dovrebbe essere chiamato scheelium in onore di Scheele, non solo questo nome non si adatta bene alla lingua svedese, ma l’immortalità del nostro connazionale non richiede un tale sostegno supplementare; così la mia preferenza è andata al nome wolfram[5].

Il simbolismo di Berzelius fu rapidamente adottato dalle comunità dei chimici tedeschi e scandinavi, ma l’impatto sugli inglesi e sui francesi è stato molto più lento. In effetti, i simboli di Berzelius erano rari nei libri di testo inglesi e americani precedenti il 1840, dopodichè la discrepanza tra il nome tungsten e il simbolo W è stata considerata solo un altro caso di un nome accoppiato con un simbolo sulla base di un latino alternativo (wolframium), non diversamente dal caso del sodio, Na per natrium. I chimici francesi, forse per spirito di rivalsa su quello che i tedeschi avevano fatto in precedenza con alcuni dei nomi proposti da Lavoisier, alterando alcuni dei suoi simboli, continuarono per un certo tempo a utilizzare Az per l’azoto e ovviamente Tu per tungsteno. Tuttavia, nell’interesse dell’universalità, prevalse il simbolo W per il tungsteno, anche se francesi e inglesi conservano ancora la scelta del nome originale di Lavoisier per questo elemento.

Infine, nel 1961 la IUPAC dichiarò ammissibili entrambi i nomi.

 

[1] In realtà la wolframite non è un vero e proprio minerale ma una miscela dei minerali ferberite e hubnerite, entrambi tungstati di ferro e manganese, il primo più ricco in ferro, il secondo in manganese. La wolframite ha una composizione variabile secondo la zona di provenienza. La wolframite, insieme alla scheelite (tungstato di calcio, CaWO4), rappresentano le principali riserve di tungsteno. La wolframite deve il suo nome al mineralogista irlandese Peter Woulfe (1727-1803) che nel 1779 dedusse che il minerale doveva contenere un nuovo elemento.

[2] Carl Wilhelm Scheele (1742-1786), chimico svedese, scoprì per primo l’ossigeno (ma la scoperta è accreditata a Joseph Priestley), il molibdeno, il tungsteno, il bario e il cloro (queste scoperte furono poi attribuite ad altri, fra i quali Humphrey Davy). Scoprì gli acidi organici tartarico, ossalico, urico, lattico e citrico, come pure gli acidi fluoridrico, cianidrico e arsenico. Parlava essenzialmente in tedesco, lingua utilizzata all’epoca dai chimici e farmacisti svedesi.

[3] Sulla riforma della nomenclatura di De Morveau, Lavoisier, Bertholet e De Furcroy abbiamo parlato in un precedente post: https://ilblogdellasci.wordpress.com/2016/07/20/lorigine-della-nomenclatura-e-della-simbologia-chimica-moderna/

[4] Non mi meraviglio perché fino a quando sono stato studente, negli anni ’70, nelle etichette delle bottiglie Merck per l’acido cloridrico e l’acido nitrico c’era scritto Salzsaure e Salzspetersaure rispettivamente. Provate a vedere cosa vi suggerisce anche oggi il traduttore google a questo proposito…

[5] Il contributo di Scheele fu poi ulteriormente riconosciuto col nome scheelite dato all’altro importante minerale del tungsteno (v. nota 1).

Automazione, microfluidica e analisi chimica.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, già Presidente SCI

L’automazione rappresenta oggi nel laboratorio una via per migliorare produttività e qualità.

I chips microfluidici stanno divenendo il nuovo paradigma per l’analisi chimica in laboratorio. Nanocapillari costruiti in substrati planari usando la tecnologia del silicio si avviano a sostituire beakers e tubature per il trasporto e la manipolazione dei liquidi a livello dei sub microlitri. Diametri ridotti significano anche ridotto uso di agenti e di reagenti, migliorata qualità analitica, tempi più brevi di analisi ed accresciuto campo applicativo.

Un altro sviluppo di questi anni riguarda l’uso di microstrutture quali i micro-reattori per la sintesi chimica per applicazioni varie, dalla chimica combinatoria alla produzione industriale su vasta scala. Nanoreattori a livello del singolo enzima ( volumi inferiori agli attolitri) consentono di realizzare reazioni enzimatiche con una sola molecola di enzima nel volume di misura. La nanofluidica è perciò una tecnologia potenzialmente in grado di cambiare in modo fondamentale la nostra percezione delle scienze chimiche e della vita.

nano1Un microdispensatore è fabbricato in silicio con un trasduttore piezo elettrico. Una piccola goccia del volume di 50 picolitri è capace, attraverso operazioni multiple, di provocare un arricchimento al quale corrisponde un segnale che può essere mediato attraverso l’uso di un cromatografo liquido annesso al dispensatore. Per muovere piccole quantità di liquido dai contenitori di conservazione al reattore si può applicare il principio della goccia acustica. Una grande varietà di solventi, DNA, proteine, cellule in un volume dell’ordine dei microlitri possono essere così trasportate senza apprezzabile perdita di attività o di vitalità. Un trasduttore è accoppiato al fondo di microcapsule per produrre ultrasuoni capaci senza contatto di provocare la formazione di una goccia di soluzione o, analogamente, di volumi maggiori per lavaggi, mescolamenti, aggiunta di reattivi, risparmiando anche sui volumi da smaltire.

Il LabCD è una piattaforma microfluidica centrifuga che usa la forza centrifuga su un disco rotante per pompare o somministrare liquidi.

nano3

JN Kuo Biomed Microdevices. 2014 Aug;16(4):549-58.

Uno dei grandi vantaggi di un test deve essere quello della velocità della risposta, soprattutto in medicina. Ciò spesso provoca un contrasto fra qualità e rapidità rinunciando alla prima per la per la seconda. Ci si chiede cosa sia meglio per il paziente. In effetti molto spesso la ridotta qualità analitica non deriva dalle caratteristiche del test ma dagli operatori non usi a tecnologie tanto innovative. Il dilemma suddetto pertanto merita come prima importante risposta quella di una più attenta formazione del personale addetto e descrizione molto più accurata e dettagliata dei relativi protocolli. Ci sono peraltro approcci per ridurre gli errori: un sistema qualità appropriato per le infrastrutture, metodi di controllo del sistema accurati, implementazione delle misure, computerizzazione dei dati; finora non molto si fa in questa direzione.

Lo scattering della luce di risonanza da parte di particelle è stato applicato a molti biotest. Queste particelle colloidali, per lo più metalliche, di nano-dimensioni irradiano energia come luce dispersa a seguito di illuminazione con luce bianca. Lo scattering della luce ha proprietà che sono controllate dalla dimensione delle particelle nonché dalla loro forma e composizione e sono prevedibili secondo appropriati algoritmi. Il segnale di luce prodotto da una singola particella è da 104 a 106 volte maggiore del segnale ottenuto attraverso i comuni fluorofori, con in più il vantaggio di non decadere né essere estinti. La superficie delle particelle può essere derivatizzata con differenti biomolecole che possono poi, legandosi con molecole bersaglio, produrre effetti specifici. Gli oggetti biologici vengono intrappolati mediante un metodo elettroforetico usando costrizioni geometriche fatte di materiali fabbricati mediante processi litografici. La costrizione è necessaria per costringere il campo elettrico in una soluzione conduttrice, come tamponi di forza ionica, cosi’ creando un gradiente di alto campo con un massimo locale. Cellule di batterio possono essere intrappolate e separate in flusso da cellule di sangue.

Il nanospray ( lo spray caratterizzato cioè da flussi molto bassi rispetto ai valori convenzionali) è tecnica poco robusta e poco riproducibile. Molto di questo comportamento risulta come una conseguenza dell’elevato numero di “spray modes” possibili a basse velocità. Quando queste tecnica è accoppiata alla cromatografia a gradiente la stabilità risulta in ogni caso complicata dalla variazione della tensione superficiale, della viscosità e della conducibilità della fase mobile. Piuttosto che usare la corrente ionica come monitor delle prestazioni dello spray vengono monitorate la geometria del cono, il getto e la coda ortogonalmente allo spettrometro di massa.nano2

Quelli descritti sono alcuni dei moderni sviluppi dell’analisi automatica dei quali quella finalizzata al controllo ambientale comincia a raccogliere i frutti in termini di prestazioni e di sofisticazioni strumentali.

Riferimenti:

K. Mawatari et al.   Anal. Chem. 2014, 86, 4068−4077

D.G. Haywood  Anal. Chem. 2015, 87, 172−187  (si può scaricare liberamente)

JN Kuo Biomed Microdevices. 2014 Aug;16(4):549-58.

Farmaceutica, nutraceutica, elettroceutica.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe.

La parola farmaceutica viene dal greco, probabilmente ha radici egiziane; è la scienza dell’uso del farmaco, parola di analoga origine che significa sia medicina che veleno, a conferma del fatto che il vecchio adagio del grande ParacelsoE’ la dose che fa il veleno” ha una tradizione millenaria; una nozione dialettica direi, nel senso hegeliano del termine, qualcosa che cambiando di quantità si trasforma nel suo opposto. Sembra un gioco di parole, ma in effetti è un risultato basilare della chimica applicata alla cura del corpo umano.

La farmaceutica tradizionale è stata uno dei maggiori successi della chimica, la pallottola magica che risolve i problemi medici, esemplificata dall’azione degli antibiotici nel risolvere la questione millenaria delle infezioni batteriche che mietevano milioni di vittime. Ma come l’uso sconsiderato degli antibiotici, sia nell’uomo che negli animali ci ha condotto ad una situazione estremamente rischiosa, per la quale oggi esistono batteri capaci di resistere a tutti i tipi di antibiotici conosciuti, così un po’ tutta l’impostazione tradizionale della pallottola magica segna il passo, perde splendore. Come abbiamo raccontato oggi si cerca di intervenire diversamente, destabilizzando la rete di contatti (Quorum Sensing )che i batteri se nocivi ed invasori stabiliscono all’interno dell’organismo umano attraverso il cosiddetto Quorum Quenching (https://ilblogdellasci.wordpress.com/2016/05/18/la-comunicazione-tra-batteri-1-parte/).

Le malattie croniche sembrano in molti casi difficilmente aggredibili in modo banale, con singoli farmaci, e contemporaneamente si è compreso il ruolo almeno in parte sia della genetica che dell’ambiente nella determinazione della malattia; il ruolo dell’inquinamento ambientale e della alimentazione nel favorire lo sviluppo dei tumori per esempio ha condotto all’idea che si può fare prevenzione o che si può perfino guarire da certi tipi di disturbi attraverso una alimentazione opportuna che elimini alcune componenti oppure che gestisca con equilibrio i diversi cibi o ancora come ci ha raccontato un recente post che introduca degli “integratori”, delle molecole che l’organismo possa sfruttare per combattere da solo gli effetti dell’invecchiamento o della degenerazione dei tessuti o dell’inquinamento. E’ il campo della nutraceutica.

Ma questa parola è a malapena entrata nel nostro vocabolario che un’altra “ceutica” fa il suo ingresso nel medesimo vocabolario, nel mercato e nella pratica clinica: la elettroceutica.

elettroceutica1Di cosa si tratta? Ne troviamo notizia nelle grandi riviste scientifiche ed una giustificazione nell’interesse che un colosso dell’industria farmaceutica GSK (che aveva fino a poco tempo fa un grande centro di ricerca in Italia, a Verona, dedicato allo sviluppo di farmaci per le terapie delle malattie nervose e mentali, poi chiuso), Google e grandi università statunitensi (come il MIT) e tedesche dimostrano sul tema, investendo massicciamente in questo nuovo settore con la convizione che entro pochi anni la medicina ne sarà rivoluzionata. Di che si tratta? Cosa è la elettroceutica?

L’idea base è relativamente antica; l’uso della corrente elettrica per guarire o uccidere ha una storia tutto sommato lunga e molte storie si potrebbero raccontare a partire dall’uso della “terapia anticonvulsivante”, volgarmente elettroshock. Nel 1870 il ricco Cornelius Vanderbilt cercava “dottori elettrici” per guarire e nelle prigioni americane la scarica elettrica è usata per i prigionieri condannati a morte (ancora una volta l’idea di Paracelso, è la dose che fa il veleno); d’altronde oggi è comune l’uso di apparecchi come il pacemaker cardiaco o il defibrillatore che usano potenziali elettrici per salvare la vita delle persone. Ma non solo: impianti neurali clinici come gli impianti cocleari per ripristinare l’udito, impianti retinici per ripristinare la vista, stimolatori del midollo spinale per alleviare il dolore o pacemaker cardiaci e defibrillatori impiantabili, non esterni, sono esempi di possibili applicazioni