Non c’è fumo senza arrosto. 1.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

La combustione è stata per la nostra specie (Homo) il principale metodo di ottenimento dell’energia da circa un milione di anni su questo pianeta; negli ultimi 200.000 anni Homo Sapiens è diventato un raffinato utilizzatore della combustione, anche se inevitabilmente con il crescente uso dei combustibili fossili i prodotti della combustione (ossidi di carbonio, di azoto, di zolfo) hanno piano piano alterato la composizione atmosferica in modo irreversibile (per esempio cambiando il peso molecolare medio dell’aria), provocando fra l’altro il global warming. Ma non voglio parlarvi di questo oggi.

La combustione è stata (insieme con l’astronomia) anche il principale banco di prova della scienza moderna; la teoria del flogisto è stata la prima teoria “scientifica” della chimica, contrapposta all’alchimia, ed ha permesso uno sviluppo notevole della nostra disciplina, compreso il salto di qualità che si verificò allorquando, con la sua critica ed il suo superamento da parte di Lavoisier, è iniziata la parabola della chimica moderna e la teoria atomica della materia.

La combustione è anche un esempio del comportamento dialettico del nostro appropriarci della realtà e della realtà medesima; per un milione di anni il fuoco, la fiamma è stato il simbolo del processo di combustione, casomai nella forma sferica di una fiamma in microgravità;

arrosto1

ma lo sviluppo della teoria della combustione ha consentito di comprendere che la più efficiente forma di combustione è una combustione senza fiamma, ossia ottenuta in uno spazio omogeneo in cui il mescolamento dei reagenti sia ottimale e continuo e senza quella separazione e quei gradienti tipici di una fiamma normale, che sono di fatto elementi dissipativi: la combustione priva di fiamma o flameless è diventata il punto di arrivo della combustione, e insieme la sua negazione dialettica.

Probabilmente il completo rovesciamento dialettico della combustione sarà costituito dall’uso delle celle a combustibile, in cui la produzione di elettricità avviene direttamente e senza passare attraverso alcuna fiamma o fumo. Al momento tuttavia la gran parte della nostra energia è ancora ottenuta dalla combustione diretta, con i problemi che ne derivano, che non sono nati oggi o ieri.

Questa trasformazione dialettica della combustione dalla fiamma gialla e fumosa dei nostri antenati cavernicoli alla fiamma azzurra e “pulita” della pubblicità, alla combustione senza fiamma nè fumo, flameless appunto, ed infine alla fuel cell, la cella a combustibile, è iniziata molto tempo fa ed ha una lunga storia.

Già Orazio nel I sec. a.C. si lamentava del fumo che anneriva i templi della sua Roma (Orazio Odi 3-6 trad. Mario Rapisardi 1883)

Delicta maiorum inmeritus lues,Romane, donec templa refecerisAedisque labentis deorum etFoed nigro simulacra fumo Le colpe avite non meritevole
Tu sconterai, Roman, se i tempi
E l’are cadenti e le statue
Non restauri dal fumo annerite.

 E ancora appena più avanti (Orazio Odi 3 – 29 trad. G. Zanghieri)

Fastidiosam desere copiam etMolem propinquam nubibus arduis:Omitte mirari beataeFumum et opes strepitumque Romae. Suvvia lascia quel lusso, che finiscePer generare sempre disgusto e sazietà,Ed il tuo bel palazzo che si innalzaquasi fino alle nubi…..e smetti di ammirare di continuo,il fumo che si leva,

il fasto ed il frastuono dell’opulenta Roma

E il fumo non era solo “esterno” ma perfino “interno” alle case romane; scrive Seneca in una lettera a Lucilio (Epistola 44,1-7: trad. Boella):

Non facit nobilem atrium plenum fumosis imaginibus L’atrio pieno di ritratti degli antenati anneriti dal fumo non rende l’uomo nobile

 

E più avanti (Epistola 104 6, trad. Zanichelli 2010):

Quaeris ergo quomodo mihi consilium profectionis cesserit? Ut primum gravitatem urbis excessi et illum odorem culinarium fumantium quae motae quidquid pestiferi vaporis sorbuerunt cum pulvere effundunt , protinus mutatam valetitudinem sensi. Mi chiedi come è andata questa idea di partire? Non appena ho lasciato la pesantezza della città e quell’odore di cucine fumanti che emanano vapori pestilenziali assieme alla polvere, ho subito cominciato a sentirmi guarire

 Oltre mille anni dopo la situazione non era cambiata, se, nel 1285, l’aria di Londra era così inquinata che Edoardo I dovette nominare una commissione che doveva controllare l’attività dei fabbri ferrai che usavano il carbone come fonte di energia.

Insomma la lotta all’inquinamento iniziò ben presto e la necessità di studiare i processi di combustione e filtrarne i sottoprodotti anche. Ma la situazione non ha cominciato a cambiare nei paesi occidentali fino al sopravvenire di situazioni di estrema gravità; Stefano Caserini di Polimi (http://www.leap.polimi.it/leap/images/Documenti/news/20140609_Bergamo/caserini_2_traffico_e_inquinamento_aria.pdf) ci racconta che nel 1952, durante il famoso episodio di smog a Londra che portò a più di 2000 vittime il numero di morti fu proprozionale alla concentrazione di inquinanti:

arrosto2

Solo negli ultimi decenni leggi severe hanno obbligato i produttori di combustibili e di dispositivi di combustione a rispettare parametri confacenti alla salute delle persone e dell’ambiente.

Ora è chiaro che l’applicazione di metodi di controllo è complessa e difficile e la soluzione non è dietro l’angolo. Lo sviluppo di metodi di controllo efficaci e scientificamente testati richiede ricerca ed investimenti molto importanti ed offre anche il verso a chi si inserisce nel mercato vantando virtù fuori dalla scienza conosciuta; il Tubo Tucker è stato un esempio significativo ma non è l’unico; nel solo settore dei filtri cosidetti “elettromagnetici” esistono in tutto il mondo circa una ventina di brevetti, che pretendono di risolvere il problema dell’efficienza delle combustioni e dell’inquinamento in modo definitivo senza dire come fanno veramente. D’altra parte l’esistenza di un brevetto non garantisce la bontà del dispositivo, ma solo che è stato inventato da Tizio e non da Sempronio.

Eppure metodi testati esistono; nella medesima presentazione Stefano Caserini ci fa vedere come la concentrazione di SO2 si sia ridotta nell’aria delle principali città italiane; e la stessa cosa è avvenuta per le famigerate PM10.

 arrosto3

arrosto4Sebbene non sia l’unica sorgente di particelle in atmosfera, certamente il traffico cittadino è una delle sorgenti principali di inquinamento e l’invenzione e la messa a punto dei cosiddetti Filtri Anti-Particolato (FAP o DPF) che vengono usati prevalentemete nei diesel (e sono aggiunti anche alle auto a benzina visto il loro enorme successo già dal 1 settembre 2014) è stata una delle cause della riduzione di questo tipo di inquinamento.

Come funzionano i FAP-DPF? Vale la pena di ripetere qui brevemente come funzionano anche perchè la loro efficacia è stata ripetutamente messa in dubbio dai mass media, da certi siti poco informati o in conflitto di interesse e da trasmissioni come Report, che hanno una certa autorevolezza, ma che in questo caso hanno preso un abbaglio.

Anzitutto diciamo che, anche se non è la sorgente unica del particolato e degli inquinanti atmosferici, la combustione produce un notevole numero di prodotti sia gassosi che condensati e che questi ultimi hanno un diametro medio variabile da qualche nanometro a qualche micron; i prodotti gassosi sono essenzialmente ossidi dei componenti del combustibile e del comburente: CO2, CO, NO, NO2, SO2, etc. alcuni dei quali continuano a reagire producendo altre sostanze come l’ozono; inoltre abbiamo una parte del combustibile che non ha reagito e particelle metalliche di varia provenienza; le particelle condensate o solide possono quindi essere distinte in “soot” (depositi carboniosi, fuliggine) e “ash” ossia ceneri, particelle già ossidate e prevalentemente metalliche provenienti dal motore o dal lubrificante o da altri additivi (ancora mi ricordo la vergogna che ho provato molti anni fa quando, ancora studente, davanti all’amico e docente, mio padre mi chiese, e non seppi rispondere, di cosa era fatta la cenere).

I filtri si dividono in varie classi che vanno da filtri costituiti da una sola struttura metallica o ceramica a quelli modificati aggiungendo un catalizzatore anch’esso di natura metallica sulla sua superficie; in un caso commerciale (il filtro del gruppo PSA, http://www.psa-peugeot-citroen.com/en/featured-content/diesel-technology/DPF-diesel-particulate-filter) si aggiunge a monte al carburante un composto del cerio che funge da catalizzatore, ma questa scelta (che come vedremo potrebbe avere conseguenze) non copre la maggioranza dei casi.

La mia auto diesel per esempio ha un filtro DPF catalizzato ma senza aggiunta di cerio.

Il limite imposto dalle attuali normative Euro 5 ed Euro 6 [1,2] sul numero di particelle totali in uscita dal filtro è di 6*1011 /km, ovvero numero di particelle solide, con diametro aerodinamico nel range 23 nm ÷ 2,5 µm, emesse al chilometro (tenete presente che le famose PMXX hanno un diametro dell’ordine dei MICRON; qua stiamo parlando invece di valori da 0.023micron in su) non superiore a 600 miliardi per chilometro.

Ricordate questi numeri di cui poi parleremo in seguito.

Un testo generale che ho trovato molto utile anche se non è aggiornatissimo è stato scritto da Avella e Faedo, due colleghi della Stazione Combustibili di S. Donato Milanese [3].

Da questo testo riprendo qui qualche immagine esplicativa.

I filtri dal punto di vista costruttivo si dividono in due tipologie differenti in base al criterio di filtrazione scelto: sistemi a flusso a parete (Wall-Flow Particulate Filter) e sistemi a flusso parzialmente libero (Flow-Through Diesel Filter).

 arrosto5

arrosto6Il filtro antiparticolato è in effetti una parte di un sistema complesso di gestione dell’inquinamento il cui schema è qui di sotto mostrato:

arrosto7

Fai clic per accedere a emissioni_autoveicolari_PV_2007.pdf

Il meccanismo lavora in questo modo: il filtro intrappola ceneri e fuliggine; la CPU analizza la situazione filtro attraverso i sensori di pressione e temperatura e, quando i parametri vanno oltre i valori critici, attiva un ciclo di rigenerazione in cui la temperatura viene innalzata e i residui fuligginosi bruciati trasformandoli in gas, vaporizzandoli. In questa fase, che avviene ogni alcune centinaia di chilometri, la produzione di particelle da parte del filtro che di solito è ordini di grandezza sotto quella dei motori senza filtro vi si avvicina almeno momentaneamente.

Un grafico che mostra l’andamento generale dell’emissione di particelle è mostrato in questo grafico che si riferisce ad un filtro Euro3 (siamo ad Euro6) tratto da un altro lavoro di Avella e fornito ad un blog di discussione sulle auto (http://put.edidomus.it/auto/mondoauto/attualita/foto/368642_4081_big_grafico-fap.jpg).

arrosto8

Come si vede solo durante la rigenerazione lo spettro delle particelle emesse si avvicinava a quello delle auto senza filtro GIA’ per gli euro3. Oggi siamo ad euro6.

Per amore di precisione vorrei citare anche un lavoro recentemente pubblicato su ENVIRONMENTAL SCIENCE & TECHNOLOGY  Volume: 47   Issue: 22   Pages: 13077-13085   Published: NOV 19 2013

(lo scaricate da http://kblee.rutgers.edu/wp-content/uploads/Environ.-Sci.-Technol._-2013.pdf)

Nel quale si parla degli effetti della cerina (un composto organico del cerio) aggiunta da alcuni produttori di filtri al carburante, ipotizzando che essa possa aumentare la quota di particelle molto piccole rispetto ad un motore diesel privo di filtro, almeno durante la fase di rigenerazione; la cosa ricorda le critiche sviluppate da alcuni contro i FAP-DPF e le misure effettuate sembrerebbero supportare questa posizione. Ma fate attenzione; a parte che questo lavoro contraddice altri risultati pubblicati, nel lavoro si usa come motore diesel un motore da laboratorio al cui carburante si aggiunge la cerina (composto organico di cerio) in uno dei formati usati nel mondo, pero’ leggendo con attenzione si apprende che il motore usato è molto diverso da quelli effettivi ed usati in Europa sulle auto; infatti il motore usato (da 400cc) produce con un consumo di 1.7 litri/ ora 5.5KW, mentre per esempio il mio (4 cilindri 1500cc 66KW) con una cilindrata solo 4 volte superiore produce (alla coppia massima) quasi 8 volte più potenza e con un consumo inferiore. Difficile fare paragoni dunque, i motori europei sono molto più efficienti di quelli usati nel lavoro citato; inoltre mentre un motore euro5 produce al massimo 6×1011 particelle/km e quindi in un’ora poniamo a regime di copia massima, a 100km/ora, produce all’incirca 60x 1012 particelle, il motore usato nel lavoro ne produce 5-10 volte tanto in qualunque condizione e quindi non è un motore euro5! Inoltre questo risultato non trova conferma nel resto della letteratura. Comunque è chiaro che la questione degli effetti del Cerio (ambientali e di salute) merita di essere approfondita, dato che si tratta di un nuovo elemento inserito nell’ambiente in quantità molto superiori alla sua concentrazione precedente.

Nella seconda parte discuteremo di alcuni dei dispositivi che sostengono di poter sostituire i filtri antiparticolato con metodi “elettromagnetici” che agirebbero sul combustibile attivandolo e il cui antenato, ossia il Tubo Tucker, (per carità antenato solo nel senso che ha preteso per primo di usare metodi “elettromagnetici” non meglio precisati, per il resto l’alone di mistero sui metodi ci impedisce altri confronti a costo di querela!) è stato ahimè bollato UFFICIALMENTE come una truffa. (continua)

Riferimenti.

[1] Regulation (EC) No 715/2007 of the European Parliament and of the Council of 20 June 2007 on type approval of motor vehicles with respect to emissions from light passenger and commercial vehicles (Euro 5 and Euro 6) and on access to vehicle repair and maintenance information (Text with EEA relevance)

[2] UNECE Regulation N. 83, Uniform provisions concerning the approval of vehicles with regard to the emission of pollutants according to engine fuel requirements, Revision 5, 22 January 2015.

[3] Francesco Avella e Davide Faedo LE TECNOLOGIE DI RETROFITTING

PER LA RIDUZIONE DELL’EMISSIONE DI PARTICOLATO DEGLI AUTOVEICOLI http://www.innovhub-ssi.it/c/document_library/get_file?uuid=381847a9-35ce-4cc7-9bcb-8ac4b258f8f5&groupId=11648

[4] approfondimenti su: http://www.climalteranti.it/2015/04/18/riduzione-delle-emissioni-di-black-carbon-funzionano-i-filtri-antiparticolato/#sthash.vLYbyFGB.dpuf

I metalli in Medicina

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex Presidente SCI

Il ruolo dei metalli in medicina risponde a differenti funzioni: la necessaria presenza come sentinella per la salute, l’impiego dei metalli nella diagnosi, infine il loro contributo in campo medico farmaceutico.

Per quanto riguarda il primo aspetto molti sono i metalli indispensabili alla vita dell’uomo: ferro,rame in primis.rame

I Come elemento essenziale in tracce il rame è un componente funzionale di varie importanti proteine intracellulari ed extracellulari e di enzimi come superossido dismutasi per esempio, che trasforma il radicale libero O2 in perossido di idrogeno ed ossigeno mediante la reazione 2 O2+ 2 H+ àO2 + H2O2, ed ancora citocromo ossidasi, metallotioneina, ceruloplasmina, ferrossidasi II, monoaminossidasi

Sebbene il rame sia frequentemente indicato come metallo tossico perché catalizza la formazione di specie reattive dell’ossigeno attraverso la sua partecipazione alla reazione di Fenton o per la sua formazione di complessi tossici, questo elemento in tracce è importante per mantenere l’omeostasi nel sistema nervoso centrale. Il rame legato alle proteine agisce come un cofattore o come un gruppo prostetico; in particolare i cuproenzimi rame, zinco – superossido dismutasi (Cu,Zn-SOD) e la ceruloplasmina sono importanti per preservare lo stato redox intracellulare ed extracellulare e per la protezione dal danno ossidativo. Dal momento che queste proteine dipendono dalla presenza di ioni rame e sono i principali sistemi antiossidanti nel cervello, è probabile che la somministrazione di rame ad animali possa essere neuroprotettiva, sotto certe condizioni sperimentali, attraverso l’attivazione di cuproproteine o l’aumentata emivita di apoproteine . Nei globuli rossi del sangue è richiesto per la sintesi del ferro, indispensabile al trasporto dell’emoglobina. Ha un ruolo nella respirazione perché partecipa alla sintesi dell’emoglobina, la sostanza che nel sangue trasporta l’ossigeno.

Attraverso l’enzima tirosinasi catalizza la formazione della melanina e attraverso la lisil-ossidasi ha un ruolo importante nella formazione del collagene, che è la proteina principale che si trova nella nostra pelle. Oltretutto il collagene è presente anche nelle ossa: alcune ricerche evidenziano che fratture, anomalie scheletriche e osteoporosi sono più frequenti se vi è carenza di rame. Partecipa ai processi di cicatrizzazione.

È coinvolto nella funzionalità del sistema immunitario.

È necessario per la sintesi dei fosfolipidi. Ha un ruolo nel processo di ossidazione della vitamina C e collabora con questa vitamina alla formazione dell’elastina, una componente fondamentale delle fibre elastiche dei muscoli del corpo; è necessario per la formazione di una buona struttura ossea. È necessario anche per la produzione dell’RNA. Attraverso la superossido-dismutasi, combatte l’ossidazione cellulare, aiutando a neutralizzare i radicali liberi che altrimenti causerebbero danni alle cellule stesse.

La carenza di rame provoca sintomi simili a quelli da carenza di ferro dei quali il più evidente è l’anemia. Tra gli effetti collaterali dovuti alla carenza di rame si registrano anche l’ingrossamento cardiaco, le arterie con muscolatura liscia degenerata e aneurismi alle arterie ventricolari e coronariche.

Il fabbisogno giornaliero nell’adulto è di circa 2-3 mg.Le fonti naturali sono: carne in genere, noci, cereali e pane integrale, legumi.

Function and Regulation of Human Copper-Transporting  Physiol Rev 87: 1011–1046, 2007; doi:10.1152/physrev.00004.2006ATPases SVETLANA LUTSENKO, NATALIE L. BARNES, MEE Y. BARTEE, AND OLEG Y. DMITRIEV

Function and Regulation of Human Copper-Transporting Physiol Rev 87: 1011–1046, 2007; doi:10.1152/physrev.00004.2006ATPases
SVETLANA LUTSENKO, NATALIE L. BARNES, MEE Y. BARTEE, AND OLEG Y. DMITRIEV

Il rame è un minerale in traccia presente in tutti i tessuti dell’organismo in quantità che vanno dai 75 ai 100 mg. Durante la crescita la percentuale più alta si trova nei tessuti in via di sviluppo.

Il rame influenza anche il metabolismo del colesterolo: adulti sottoposti ad una dieta povera di rame hanno registrato un aumento dei livelli del colesterolo LDL (quello ‘cattivo’) e una diminuzione del colesterolo HDL (quello ‘buono’). Basse assunzioni di rame influenzano negativamente il corretto metabolismo del glucosio e la pressione sanguigna.

La citocupreina (proteina citoplasmatica contenente rame) è una famiglia di metalloproteine distribuite nelle cellule e nei tessuti degli eritrociti (eritrocupreina), del fegato (epatocupreina) e del cervello (cerebrocupreina).

Dall’Ospedale Fatebene fratelli di Roma è giunta qualche anno fa una una notizia importante che riguarda questo metallo: attraverso una misura della concentrazione del rame nel sangue si può prevedere in persone che presentino qualche segnale di declino cognitivo se siano avviate a contrarre il morbo di Alzheimer. La determinazione riguarda il rame libero, cioè non complessato che può raggiungere il cervello e danneggiarlo (per le attività antiossidanti nell’uomo i complessi del rame con gli antiossidanti endogeni risultano più attivi delle stesse molecole antioossidanti libere).

Lo studio di verifica pubblicato su Annals of Neurology (Annals of Neurology Volume 75, Issue 4, pages 574–580, April 2014)  riguarda 140 pazienti con qualche iniziale problema di memoria. Sotto accusa, secondo l’articolo, sarebbe la capacità di questo metallo di stimolare la produzione di una proteina tossica, la beta-amiloide, e impedirne lo smaltimento.

In condizioni normali, la beta-amiloide viene rimossa dal cervello grazie all’azione di un’altra proteina, denominata proteina-1, collegata al recettore della lipoproteina (lipoprotein receptor-related protein 1, o LRP1) che si trova nell’epitelio dei capillari che arrivano al cervello. Legandosi alla beta-amiloide che si trova nel tessuto cerebrale, la LRP1 ne consente il trasporto all’interno dei vasi sanguigni e il successivo smaltimento. Se questo processo viene alterato, l’esito ultimo è l’accumulo della beta-amiloide è la formazione di placche nel sistema nervoso, caratteristiche della malattia di Alzheimer.Un’altra esigenza è quella delle parti scheletriche del nostro corpo, soddisfatta da materiali inorganici e dei compositi inorganici/organici, impiegati dagli organismi animali e vegetali, è quella di fornire le dovute proprietà meccaniche alle parti dure scheletriche ed ai denti. I composti inorganici cristallini, usati più diffusamente dagli organismi per conferire resistenza e durezza ai tessuti mineralizzati, sono la carbonato-apatite nel caso dello scheletro e dei denti dei vertebrati e i polimorfi del carbonato di calcio, calcite o aragonite, nel caso degli esoscheletri degli invertebrati.

Materiali derivati dai tessuti calcificati o dai loro modelli hanno trovato varie applicazioni nel settore biomedico ed altri potranno essere sviluppati, sfruttando il continuo accumulo di conoscenze sul meccanismo di formazione e sulla struttura dei tessuti calcificati. Sia il tessuto osseo, che i suoi componenti principali, collageno e carbonato-apatite, possono essere utilizzati come materiali biocompatibili. Il collageno viene largamente utilizzato nel settore chirurgico per la preparazione di fili di sutura, spugne emostatiche e protesi di varie forme e dimensioni. Inoltre il collageno estratto dal tessuto osseo, presenta delle evidenti proprietà osteoinduttrici e, quando inserito nel tessuto connettivo, induce la neoformazione di tessuto osseo.

1

Probabilità di rimanere in uno stato di deterioramento cognitivo lieve (MCI) durante il periodo di studio , in relazione ai livelli di rame non-legato alla ceruloplasmina  (non-Cp)  (cerchi aperti , ≤1.6;cerchi chiusi, >1.6). Metà dei pazienti nel gruppo con valori alti di rame non-Cp si è ammalato di Alzheimer (AD) dopo circa 4 anni. In un intervallo approssimativamente eguale  <20% dei pazienti MCI con valori bassi di rame  non-CP ha sviluppato la malattia. Annals of Neurology Volume 75, Issue 4, pages 574–580, April 2014

II) Un notevole interesse ha ricevuto negli ultimi anni lo studio di sistemi sintetici in grado di trasportare il ferro. Seguendo un approccio biomimetico si è cercato di sintetizzare una serie di leganti specifici per il ferro da utilizzare in diversi campi. I siderofori, chiamati così da Lankford nel 1973, dalla parola greca che indica i trasportatori di ferro, sono dei composti naturali prodotti da microorganismi cresciuti in condizioni di deficienza di ferro; essi generalmente si preoccupano di solvatare e trasportare il ferro nell’organismo.

Fin dai tempi antichi, la Medicina ha fortemente beneficiato dello sviluppo della Chimica e dei suoi numerosi sviluppi applicativi, soprattutto perché i chimici sono ora in grado di controllare i vari fattori che determinano la selettività nel riconoscimento di ioni e di progettare leganti capaci di conferire ai complessi la specifica funzione biologica desiderata.

Iron_electrolytic_and_1cm3_cube

Le patologie legate alla carenza di ferro sono, anche se non di grave entità per la salute dell’uomo, ampiamente diffuse ed interessano ampie fasce di pazienti per sesso ed età. Ciò comporta una particolare attenzione per questi tipi di farmaci per i quali solo ridotti effetti collaterali possono garantire l’utilizzo a lungo termine indispensabile a esercitare l’effetto terapeutico.

Dalle considerazioni sopra esposte, la individuazione ed il disegno di nuovi adduttori di ferro assorbibili per via orale dovrebbe essere basata sulla ricerca di:

Derivati capaci di legare ferro in modo da permettere il trasferimento a ligandi affini per le membrane epiteliali;

Derivati capaci di legare il ferro in modo da evitare la sua mobilizzazione in siti dove può agire come generatore di radicali liberi;

Derivati che presentino la massima solubilità nei siti dove l’assorbimento del ferro è favorito.

Le emoglobine modificate sono efficienti trasportatori di ossigeno e che su di esse vale la pena di concentrare gli sforzi per l’ottenimento di un prodotto sicuro ed efficace che possa sostituire validamente il sangue umano nelle trasfusioni. Allo stato attuale, le maggiori difficoltà da superare appaiono connesse più a una migliore conoscenza del destino metabolico e della tossicologia del prodotto e dei suoi cataboliti che non all’ottenimento di specie funzionalmente attive.

III) Per quanto riguarda invece l’impiego dei metalli in diagnostica,la tomografia NMR è una tecnica diagnostica recente e tuttavia in straordinaria crescita, la quale utilizza un campo magnetico e onde radio a bassa energia per generare immagini anatomiche di notevole risoluzione e contenuto di informazioni. Le immagini NMR dipendono dalla caratteristiche magnetiche dei nuclei e in particolare, data l’abbondanza naturale dell’acqua nei tessuti, è il protone che viene quasi esclusivamente utilizzato. La qualità di un’immagine dipende dall’intensità di contrasto ottenibile che a sua volta è legato alle differenze nel contenuto di acqua e nei tempi di rilassamento protonici esistenti tra i vari distretti corporei.

lab

CIMEC , UniTn

Lo studio degli agenti di contrasto si è sviluppato verso sostanze che avessero elettroni spaiati, come i complessi metallici di: Gd3+ , Mn2+ , Fe3+ e Cr3+ .

Per minimizzare la tossicità che questi ioni allo stato libero hanno in “vivo” essi vengono complessati con sostanze organiche (chelanti) che risultino non metabolizzabili. I complessi risultanti devono essere facilmente eliminabili dall’organismo.

Fra i traccianti dotati di luminescenza a lunga vita i più importanti sono i composti di ioni lantanidi, in particolare Eu3+ e Tb3+ . Questi ioni infatti, grazie alla presenza di elettroni di valenza in orbitali 4f fortemente schermati dagli elettroni esterni s e p, possiedono stati eccitati con tempi di vita particolarmente lunghi.

 IV) L’ultimo aspetto si riferisce all’impiego dei metalli in medicina ai fini della cura di patologie. Una malattia del nostro tempo è di certo lo stress ossidativo, prodotto da un eccesso non contrastato di radicali liberi, specie chimiche dotate di un elettrone dispari nella loro struttura e quindi molto reattive.

La riduzione monoelettronica dell’ossigeno è stata ampiamente studiata nei primi decenni di questo secolo.

E Michaelis mise in evidenza che i diversi stadi di riduzione, generando intermedi radicalici, potevano essere di notevole rilevanza per la chimica dei sistemi biologici.

Maggior attenzione ha attratto il radicale superossido O2 e la sua forma protonata HO2.. Il radicale peridrossilico HO2. ed il radicale HO. erano stati messi in evidenza da Haber e Weiss.

Recentemente un grande numero di contributi sono apparsi in letteratura sulla biochimica dell’attivazione dell’ossigeno e sul significato biologico delle diverse specie reattive dell’ossigeno.. Stress ossidativo si ha quando il sistema ossidante è insufficiente ed in questo caso il danno investe lipidi, proteine, carboidrati ed altre macromolecole, come il DNA.

Stressossidativo

Nel processo di trasformazione a quattro elettroni, da ossigeno ad acqua, gli ossiradicali sono rimossi soprattutto da metalloenzimi.

Numerosi sali e complessi metallici vengono usati in medicina nei più svariati campi terapeutici; al contrario solamente due composti metallici sono stati introdotti nella pratica clinica come agenti antitumorali: il cis-diclorodiammino platino (II) [cisplatino; CDDP] ed il diamminociclobutandicarbossilato platino (II) [carboplatino; CBDCA]. Il cisplatino (cui abbiamo dedicato un post https://ilblogdellasci.wordpress.com/2015/03/25/la-scoperta-e-la-memoria/) è stato introdotto sul mercato fino dal 1978 ed è uno degli agenti antitumorali più usati a livello internazionale; il carboplatino, un analogo del cisplatino di seconda generazione, ha avuto la approvazione dalla Food and Drug Administration nel 1989 per l’impiego nel trattamento di seconda linea del carcinoma ovarico. Dopo la scoperta del cisplatino la ricerca di nuovi complessi metallici come agenti antitumorali ha avuto un notevole impulso; sono stati sintetizzati migliaia di complessi metallici non solo di platino ma anche di numerosi altri metalli di transizione. Il Carboplatino (CBDCA), derivato dal Cisplatino (CDDP), è stato anche incapsulato in eritrociti umani. La scelta di utilizzare questo complesso di coordinazione del platino è stata dettata dalla notevole stabilità di questo farmaco in soluzione acquosa, conferitagli dal chelante ciclobutanodicarbossilato, rispetto al CDDP, il quale al contrario scambia rapidamente i suoi ligandi cloruro con gruppi nucleofili

Uno degli approcci più promettenti intrapresi nel tentativo di diversificare la ricerca sui complessi metallici, è stato quella di variare la natura del metallo, studiando composti di altri metalli di transizione i quali ovviamente presentano caratteristiche chimiche e strutturali differenti dal platino. Sono stati riportati moltissimi studi su complessi non-platino che hanno mostrato una significativa attività antitumorale nei modelli preclinici.

.

La Medicina Nucleare può essere definita come quella specialità della medicina che utilizza le proprietà nucleari di nuclide stabili e/o radioattivi per valutare le condizioni fisiologiche e anatomiche e provvede alla terapia con sorgenti radioattive e un radiofarmaco quella sostanza chimica contenente atomi radioattivi per scopi diagnostici e applicazioni terapeutiche.

A causa del numero limitato di radionuclidi disponibili, lo sviluppo dei radiofarmaci ha seguito due vie. La prima e più immediata consiste nella così detta marcatura isotopica, ossia la sostituzione di un atomo stabile in una molecola biologica (o farmaco) con il suo radioisotopo.

La seconda via consiste in quella che possiamo chiamare una marcatura non isotopica; essa consiste nell’introdurre in una molecola un radionuclide non presente precedentemente.

Di tutti i metalli che vengono oggi utilizzati nella formulazione di radiofarmaci il tecnezio è quello maggiormente impiegato grazie alle sue proprietà chimiche e caratteristiche nucleari quasi ottimali.

Più recentemente sono stati sviluppati studi sulla chimica di coordinazione del cogenero Renio allo scopo di fornire un’utile base per la comprensione ed espansione di questa nuova area.

In conclusione, riprendendo quanto già detto a proposito della medicina in generale, anche da queste ultime considerazioni emerge come anche la medicina nucleare abbia sempre più bisogno della chimica per nuovi chelanti che da un lato leghino in maniera stabile il metallo e dall’altro, grazie a caratteristiche biologiche predeterminate lo trasportino per spiare e misurare processi biochimici di interesse. La loro applicazione clinica è talmente ampia da contribuire a raggiungere i principali obbiettivi della medicina moderna

Articoli di riferimento

A.R. Fritzberg et al.: Technetium and Renium in chemistry and nuclear medicine-3, p. 615-622 (1990)

R.T. Dean et al.: Technetium and Renium in chemistry and nuclear medicine-3, p. 605-608 (1990)

Mann, J. Webb, R. J. P. Williams, Biomineralization: chemical and biomedical perspectives, (1989). Verlag Chemie, Weinheim.

G.W. Hastings, P. Ducheyne (1984) Macromolecular Biomaterials, CRC Press. Boca Raton

Ropars C, Chassaigne M and Nicolau C (Eds). Advances in Biosciences vol. 67, Pergamon Press, Oxford, 1987.

Green R and DeLoach JR (Eds) Advances in Biosciences vol.81, Pergamon Press, Oxford, 1991.

Magnani M and DeLoach JR (Eds). Advances in Experimental Medicine and Biology vol. 326, Plenum Press, New York, 1992.

Knox RJ, Friedlos, F, Lydall DA and Roberts JJ. Cancer Res. 46: 1972-1979, 1986.

Blasse, in K. A. Gschneider and L. Eyring, Eds., Handbook on the Physics and Chemistry of Rare Earths, Vol. 4, North-Holland, Amstredam, 1979, p.237.

Dew: Horrocks, Jr., and M. Albin, Prog. Inor. Chem. 31 (1984) 1.

C.E. Lankford, Crit.Rev.Microbiol. 1973, 2, 273

Società Chimica Italiana, I metalli in medicina,ISBN 88/86208/08/1 (1993)

Ve l’hanno mai detto che siete polisemici?

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Un potente esplosivo può essere prodotto mescolando in modo opportuno due sostanze molto comuni, acqua ossigenata ed acetone; si tratta del perossido di acetone; normalmente ci si riferisce al trimero di tale sostanza, qui rappresentato.

800px-Acetone_peroxide_trimerNon vi sto proponendo di sintetizzarlo, anzi vi sconsiglio caldamente di farlo data la estrema instabilità del composto, ma voglio solo raccontarvi una storia che lo riguarda con molte facce, come spesso avviene in Chimica, una storia ripresa dal blog di Michelle Francl-Donnay professoressa di Chimica al Bryn Mawr College e scrittrice

(http://cultureofchemistry.fieldofscience.com/2015/06/chemists-are-wildly-polysemous.html), uno dei blog di chimica più famosi del mondo anglosassone.

Il post si intitola I chimici sono terribilmente polisemi. Già ma che vuol dire?

Tutto comincia con questo articolo:

http://www.bbc.com/news/uk-england-manchester-31728807

sulla evacuazione di un edificio dell’Università di Manchester a causa della possibile esplosione di perossido di acetone; sotto una foto della sede del laboratorio la BBC ha scritto:

Some acetone peroxide was reported to have crystallised at the Paper Science Building……making it volatile

Ossia che il problema è sorto per aver cristallizzato del perossido di acetone, poichè questo lo rende volatile.

Ma come, si chiederà il lettore comune? Come può essere che si cristallizza una cosa e quella diventa più “volatile”? E poi volatile non significa mica esplosivo. E’ un controsenso!

In effetti la situazione sta così; quando sintetizzate il perossido di acetone mescolando in presenza di un acido forte acqua ossigenata ed acetone si forma essenzialmente il trimero del perossido; la molecola del trimero è molto instabile (come tutti i perossidi organici) ed esplode per urto, frizione o esposizione a fonti di calore.

Ora se voi lo sintetizzate e purificate bene a secco e lo mettete da parte, per esempio in un contenitore anche ben chiuso cosa avviene? La sostanza può evaporare (volatile in questo caso vuol dire non esplosivo ma ad elevata tensione di vapore) e ricristallizzare per bene formando grossi cristalli sulle pareti del vostro recipiente cristalli in cui il trimero si trasforma in parte nell’ancora più “sensibile” dimero) casomai al confine fra il coperchio e le pareti; al momento della riapertura del recipiente, l’operazione andrà a rompere uno di quei bei cristalli del “sensibile” materiale che esploderà all’istante tracsinandosi dietro il resto. E qualcuno si farà male.

Ecco qua; dietro la frase del giornale, ambigua e polivalente c’è un mondo di processi e reazioni; e questa frase ha scatenato su Twitter una serie di commenti sull’ambiguità dei termini che spesso hanno un significato in Chimica e un altro del tutto diverso nel linguaggio comune (https://twitter.com/MichelleFrancl/status/573127901115252736); questo fenomeno prende il nome di “polisemia” e Nature ha costruito un intero elenco (ovviamente in inglese) di termini chimici ambigui (http://www.nature.com/nchem/journal/v7/n7/extref/nchem.2288-s1.pdf)

 polisemo1

Ovviamente fra inglese ed italiano c’è una certa differenza ma ciononostante alcune ambiguità lessicali sono comuni:

  • molare non si riferisce ai nostri denti e questo lo sanno anche gli studenti delle medie
  • un composto avido di ossigeno non si arricchirà, ma certamente ne assorbirà molto
  • una reazione di attacco nucleofilo non corrisponderà ad una azione bellica
  • la temperatura o il punto di “flash” non si riferisce allo strumento fotografico
  • un acido grasso non è in sovrappeso
  • se vi chiedono un tempo di rilassamento non vi stanno invitando a stendervi sul divano
  • una retro sintesi non è una sintesi retrò, cioè vecchio stile nè un composto aromatico è necesssariamente dotato di un buon profumo

e potremmo continuare a lungo.

Il fatto è che il linguaggio ha molte sfaccettaure e questo si incrocia con le ambiguità e le sfaccettature della Chimica.

Il linguaggio comune e quello scientifico condividono termini omologhi (o omografi), ma questa omologia è polisemica ossia le parole identiche non significano le stesse cose; questa polisemia potrebbe essere anche simpatica e diventare non solo la sorgente di qualche gustoso erroraccio giornalistico (come la soda acida), ma un gioco da proporre agli studenti e alla popolazione per render meno astrusa, antipatica e malsopportata la nostra disciplina.

Che ne dite? Lo sapevate di essere polisemici?

(nota in calce suggerita da G. Nebbia:

“Quando uso una parola”, Humpty Dumpty disse in tono piuttosto sdegnato,
“essa significa esattamente quello che voglio – né di più né di meno.”
“La domanda è”, rispose Alice, “se si può fare in modo che le parole abbiano
tanti significati diversi.”
“La domanda è,” replicò Humpty Dumpty, “chi è che comanda – tutto qui.”
Lewis Carroll, “Alice nel paese delle meraviglie e Attraverso lo specchio
magico”)

Quel nostro dimenticato collega

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

 a cura di Giorgio Nebbia

Qualche tempo fa il prof. Benito Leoci ha scritto un interessante intervento sul costo energetico delle merci, ricostruendo anche la storia di tale idea che affonda le radici nel fisico Soddy e nello scrittore Wells agli inizi del Novecento https://ilblogdellasci.wordpress.com/2015/05/08/lenergia-3-il-costo-energetico-delle-merci/

Una ripresa dell’interesse per la valutazione — di “valore” si tratta — in unità energetiche dei processi e delle merci si ebbe negli Stati Uniti, negli anni trenta della grande crisi, come è stato ricostruito nel bel libro di Martinez Alier, “Ecological economics” (1), in realtà una trattazione più che dell’economia ecologica, della storia del concetto di valore in unità fisiche.

salvadori4 salvadori3

In quegli anni trenta sorse negli Stati Uniti il controverso e interessante movimento Technocracy (2) che proponeva di nuovo, come aveva fatto Wells, anni prima, transazioni in unità fisiche, anziché in unità monetarie. Il fondatore Howard Scott, in una conferenza del 1933 addirittura propose che uno stato, all’inizio di ogni anno, avrebbe dovuto distribuire ai cittadini del paese, in parti uguali, una quantità di “certificati energetici” (http://www.technocracy.org/energy-certificate-2/) la cui somma avrebbe dovuto equivalere al prevedibile consumo di energia totale della comunità. Ogni merce o servizio avrebbe avuto un suo prezzo in unità energetiche; se uno voleva acquistare una merce con elevato prezzo energetico doveva comprare da un altro cittadino una quota dei suoi certificati energetici e il venditore, naturalmente, avrebbe potuto acquistare soltanto meno merci o merci con più basso prezzo energetico, ma con i soldi guadagnati nello scambio, avrebbe potuto acquistare altre cose. Una idea un po’ intricata che fu accusata, a volta a volta, di fascismo, di marxismo o di bolscevismo ma che sollevò, in quei primi anni del New Deal rooseveltiano, animate e aspre discussioni.

Per inciso Technocracy attrasse l’attenzione e la collaborazione di personaggi di rilievo come gli economisti Thorstein Veblen e Stuart Chase e il geologo King Hubbert, che avremmo conosciuto, anni dopo, come quello che per primo avvertì il mondo che le riserve di petrolio sarebbero diminuite, dopo aver raggiunto un “picco” di produzione, ciò che negli Stati Uniti avvenne, come Hubbert aveva previsto, negli anni cinquanta del secolo scorso.

Negli stessi anni del movimento di Technocracy un dimenticato chimico, professore di Merceologia nell’Università di Firenze ha esposto alcune originali idee proprio sul costo energetico delle merci.

La vita di Roberto Salvadori (1873-1940) è stata dissepolta dall’oblio da Nicoletta Nicolini, dell’Università di Roma, una attenta storica della chimica e dei chimici, nell’articolo: “Roberto Salvadori: professore e merceologo”, Altronovecento, n. 13 (2007), http://www.fondazionemicheletti.it/altronovecento/articolo.aspx?id_articolo=13&tipo_articolo=d_persone&id=19

Roberto Salvadori, nato a Mantova, si era laureato in chimica a Padova nel 1896; nel 1899 si recò con una borsa di studio nell’Università di Gottingen nel laboratorio del prof. Nerst. Dopo due anni di insegnamento a Sassari, nel 1902 vinse il concorso di professore ordinario di chimica nell’Istituto Tecnico di Firenze e nello stesso anno ottenne la libera docenza. Dal 1926 al 1934 tenne per incarico il corso (allora biennale) di Merceologia presso la r. Scuola Superiore di Commercio (poi Facoltà di Economia e Commercio) di Firenze.

A cominciare dal 1930 Salvadori scrisse alcuni articoli sul costo energetico delle merci (3)(4), un concetto ampliato nei due libri pubblicati nel 1930 (5) e nel 1933 (6), probabilmente come “dispense” dei suoi corsi di Merceologia. “Energon” era in un certo senso la “moneta” energetica con cui misurare il vantaggio — il “valore” ? — di una merce o di un processo. Nel libro del 1933 Salvadori definiva il concetto di “energia-merce” come “la somma algebrica delle energie necessarie alla creazione di una entità merceologica, per cui si può stabilire il valore commerciale energetico”. Per “valore commerciale energetico” Salvadori intendeva “il valore assoluto dell’unità di misura di un prodotto merceologico, determinato dalle condizioni tecniche della sua preparazione. Ogni tipo di merce rappresenta, in definitiva, una somma di energie che è sempre superiore all’energia teorica che il prodotto ha in sé”.

Salvadori chiarì che somma dell’energia spesa per produrre una unità di peso di ciascuna merce è sempre superiore al ”contenuto energetico” della merce stessa e dipende dalle caratteristiche tecniche del processo. A Salvadori va quindi il merito di aver introdotto, anche se con un linguaggio talvolta poco chiaro, l’idea che esiste un consumo minimo teorico di energia per produrre ciascuna merce e che il consumo reale di energia dipende dalle maggiori o minori perdite e inefficienze. Per inciso lo stesso concetto per alcuni cicli produttivi è stato ripreso dall’americano Gyftopoulos nel 1974 (5).

salvadori1

Il libro di Salvadori applica i suoi concetti al ciclo produttivo dell’estrazione del carbone, della produzione del cemento, della produzione dell’idrogeno per elettrolisi e dal gas d’acqua, della produzione dell’acido nitrico col forno elettrico, della calciocianammide, dell’ammoniaca sintetica, dell’acido solforico, dell’industria saccarifera, insomma di molti dei cicli produttivi che si insegnano in un corso di merceologia.

Salvadori sosteneva che, quando esistono due alternative — acido solforico da zolfo o da piriti, idrogeno per elettrolisi o dal gas d’acqua, eccetera — il confronto fra i consumi energetici di ciascun processo, rispetto al minimo consumo teorico di energia, aiuta nelle scelte più del confronto fra i costi monetari. Un’idea abbastanza moderna, se si pensa che risale a circa ottant’anni fa e che viene da un modesto professore incaricato di Merceologia, del tutto ignorato da tutti.

Utili informazioni sulla storia dei tentativi di misurare il valore — il “valore d’uso” — delle merci e dei servizi in unità fisiche, e in particolare energetiche, si trovano nel libro già citato, di Martinez-Alier, e in quello dell’inglese Peter Chapman, “Il paradiso dell’energia” (6), oltre che nel documentato articolo di Leoci.

Un solo commento finale; l’attenzione per il costo energetico delle merci e dei servizi è destinato ad avere un ruolo crescente in vista dei problemi di scarsità delle risorse e dei danni degli inquinamenti. Ne è un esempio il fatto che la “qualità merceologica”, cioè il “valore d’uso” (7), degli autoveicoli viene ormai caratterizzata dal costo energetico del servizio mobilità, espresso, come si legge in caratteri microscopici in ogni pubblicità, in “litri per chilometro”, una pudica espressione per non parlare di “joule/km”, oltre che dal “costo ambientale” espresso in “grammi di CO2 per 100 chilometri”.

salvadori2

(1) Juan Martinez-Alier, “Ecological economics”, Oxford, Basil Blackwell, 1987; traduzione italiana col titolo: “Economia ecologica”, Milano, Garzanti, 1991

(2) W.E. Akin, “Technocracy and the American dream. The Technocrat movement, 1900-1941”, Berkeley, University of California Press, 1977. Un movimento “Technocracy” sopravvive ancora adesso.

(3) R. Salvadori, “Concetto merceologico dell’energia”, L’Industria, gennaio 1930

(4) R. Salvadori, “Concetto di energon-merce”, L’Industria, 44, n. 22, 1930; https://drive.google.com/file/d/0B6Lw1i0jrnFETTFfME8wNDlQV2M/edit

(5) R. Salvadori, “Merceologia generale”, Firenze, Poligrafica universitaria, 1930

(6) R. Salvadori, “Merceologia generale. Principi teorici. II. Le proprietà delle cose. III. Concetto merceologico dell’energia”, Firenze, Editore Cya, 1933

(7) E.P. Gyftopoulos e altri, “Potential fuel effectivenesse in industry”, Cambridge, Ballinger, 1974

(6) P. Chapman, “Fuel’s paradise. Energy options for Britain”, Harmondworth, Penguin Books, 1973. Traduzione italiana col titolo: “Il paradiso dell’energia. Introduzione all’analisi energetica”, Milano, Clup, 1982

(7) E’ stato Karl Marx, nel primo capitolo del “Capitale” (1865), a ricordare che del “valore d’uso delle merci si occupa una speciale disciplina, la Merceologia”.

 si veda anche:

http://myttex.net/forum/Thread-Elementi-di-Chimica-del-Salvadori

 salvadori5

Mi è caduto un antibiotico in acqua.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex Presidente SCI

Ormoni, antibiotici, antinfiammatori, antidepressivi sono consumati con crescente frequenza ed un recente allarme dell’Unione Europea ha fatto presente che continuando con questo trend in 30 anni si potrebbe passare, soprattutto per alcuni di essi, da concentrazioni dell’ordine di ng/L (nanogrammi/litro, ossia 1 miliardesimo di grammo per litro) a concentrazioni 1000 volte superiori misurate nelle acque superficiali (fiumi, laghi).

In Europa vengono usati più di 2000 diversi prodotti farmaceutici ,mentre i consumi annuali stimati dalle sole sostanze di tipo antibiotico sono simili per quantità a quelli di alcuni pesticidi.

A questi consumi corrispondono ovviamente altrettanti ricche produzioni: in Germania ad esempio 130.000 tonnellate di farmaci prodotti annualmente. Questa situazione di allarme richiede un continuo monitoraggio per garantirsi che in questa dissenata corsa non vengano superati i limiti di sicurezza rispetto agli effetti tossici secondari di questi principi sull’ecosistema.

Un farmaco, il diclofenac, è addirittura entrato nella lista preposta per le sostanze
da considerare prioritarie ai fini del loro controllo. I tradizionali metodi di trattamento delle acque non sono talora in grado di smaltire e/o degradare adeguatamente tutte le tipologie di  inquinanti a causa, soprattutto, dell’estrema recalcitranza di alcuni di essi. E’ proprio questo uil caso di molti farmaci.Così nell’ambito della Comunità Europea sono stati in passato svolti alcuni progetti di
ricerca (Eravmis, Rempharmawater, Poseidon) finalizzati alla valutazione dell’impatto ambientale dei farmaci smaltiti ed alla ricerca di adeguati trattamenti dei corpi idrici atti a ridurre questo ed altri “nuovi” tipi di inquinamento. Generalmente vengono assunti come ottimali i processi di ossidazione avanzata (AOPs) e, in particolare, la fotocatalisi eterogenea che consiste fondamentalmente
in una ossidazione avanzata attivata per via fotochimica (in genere con radiazione ultravioletta) catalizzata da composti chimici aventi proprietà di semiconduttori, fra i quali particolarmente efficiente è il biossido di titanio nella forma cristallina anatasio.
È importante osservare che la fotodegradazione di un composto organico non è un processo che garantisce, in sé, un miglioramento della qualità ambientale, in quanto si potrebbero formare prodotti di degradazione addirittura più tossici del prodotto di partenza; viceversa, attraverso il processo di mineralizzazione, si produce solo acqua, biossido di carbonio e acidi minerali volatili. La fotodegradazione costituisce, comunque, una condizione necessaria, ma non sufficiente, per ottenere una mineralizzazione.
Ricerche più recenti hanno voluto sperimentare l’effetto dell’assistenza catalitica delle microonde nell’abbattimento della concentrazione di alcuni inquinanti recalcitanti tramite fotocatalisi eterogenea, cercando di aumentare, nel contempo, l’efficienza dell’intero processo.

fotodegradazione
È stata progettata un’apparecchiatura sperimentale semplice ed economica in grado di combinare l’irradiazione UV con quella delle microonde. Fondamentalmente, l’apparecchiatura è costituita da due celle, collegate fra loro tramite un sistema di sottili tubi, su ognuna delle quali agisce una sorgente luminosa di opportuna lunghezza d’onda; una delle due celle è inserita in un mineralizzatore dove subisce l’irradiazione delle microonde.
Le sorgenti luminose utilizzate sono costituite da una lampada germicida caratterizzata da un massimo a 254 nm e da una lampada alogena dicroica survoltata in grado di simulare l’intero spettro solare.Una pompa peristaltica permette alla soluzione che riempie il circuito costituito dalle celle e dai tubi, di fluire da una cella all’altra.
L’applicazione ad alcune molecole di inquinanti recalcitranti consente di affermare che il sistema permette di ottenere percentuali di fotodegradazione superiori al 95% in tempi relativamente brevi (per alcuni composti marker 4 ore contro le 90 riportate in precedenti lavori); inoltre, è confermata l’ipotesi dell’assistenza catalitica delle microonde: l’incremento dell’efficienza fotocatalitica dovuto alla loro applicazione, diverso da caso a caso, è comunque sempre elevato quando la molecola è resistente al solo trattamento UV.

per approfondire: http://www.msfi.it/documenti/zuccato1.pdf

http://www.iss.it/binary/publ/cont/8%20Bottoni.1139576525.pdf

http://www.cma4ch.org/chemo/congress/cagliari05/poster_cagliari70x100.pdf

La Noce…… moscata

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

di Gianfranco Scorrano

nocem1

Noce moscata

nocem2

nocem3

                                        Noce moscata aperta (il seme; il rosso è una spezia, il macis)

La noce moscata è il frutto dell’albero Myristica Fragans , una pianta di 15-20 metri di altezza che vive in climi tropicali: il frutto è simile a una albicocca e quando maturo si apre per mettere in evidenza il seme (la noce moscata) coperto da macis rosso, che viene separato e seccato: a questo punto si rompe il guscio del seme e si recupera la noce. Questa può essere tritata oppure venduta intera e grattugiata al momento di trattarla nel piatto a cui si pensa di aggiungerlo (torte, gelati, carne, etc).

L’uso della noce moscata risale al secolo 11 quando veniva importata in Europa dagli arabi passando per Venezia. Non si sapeva da dove veniva né dove fosse l’isola Run dove nascevano le alte piante che avevano le noci moscate come frutto. Solo nel 1511 un’esploratore Portoghese scopri che l’isola di Run faceva parte delle isole della attuale Indonesia ed i portoghesi conquistarono il monopolio della noce moscata per circa 150 anni. In questo periodo vi furono grosse battaglie tra l’inglese East India Company e l’olandese Dutch East India Company per il possesso delle isole indonesiane, concluse con vari trattati di pace, tra cui citiamo quello del 1664 che si concluse con il seguente accordo: gli olandesi mantennero il controllo dell’isola Run e delle altre isole Banda mentre cedettero agli inglesi la proprietà della lontana, e poco utile, colonia New Amsterdam.

nocem4

Gli inglesi immediatamente rinominarono il nuovo possedimento New York : la maggioranza delle colonie della America del nord erano inglesi e così la lingua, il sistema legale, il linguaggio furono tutti derivati per quella parte del mondo dalla cultura inglese. E tutto ciò avvenne per le guerre delle noci.

Gli olandesi mantennero il monopolio della noce moscata per altri 150 anni finchè nel 1817 gli inglesi guadagnarono il controllo della isola Banda Besar e delle altre isole Banda e provvidero a trapiantare i semi della noce moscata a Ceylon, Grenada, Singapore e altre colonie inglesi. Questo ovviamente distrusse il monopolio delle isole Banda : anche il prezzo della noce moscata divenne più accessibile. Nei tempi moderni il paese che più ne produce è Grenada che nella sua bandiera riporta, a sinistra lo schema di una noce moscata appena aperta.

nocem5nocem6

Nei tempi moderni la noce moscata è usata come additivo di cibi: in piccole quantità, grattata al momento, viene addizionata sia a paste con ripieni di carne (tortellini, ravioli…) che per insaporire carni, patate e uova e anche punch e vin brulé.

Figura 1- Miristicina

Dal punto di vista chimico, l’olio ottenuto per spremitura della noce moscata contiene, in piccola quantità, la miristicina (contenuta anche in quantità minori in spezie come l’aneto e il prezzemolo): è un anticolinergico. Sopprime cioè l’azione del neurotrasmettitore acetilcolina, prevenendo così l’eccitazione dei nervi, in particolare quelli che controllano i movimenti dei muscoli presenti nell’intestino, nel tratto urinario, nei polmoni e in altre parti del corpo. Se questi muscoli non funzionano, si può arrivare a disordini come gastriti, diarrea, cistiti, asma, bronchiti, etc.

E’ questa la ragione delle raccomandazioni nella medicina popolare per l’olio della noce moscata per curare nausea, indigestione e anche mal di denti. Naturalmente nessuno di questi rimedi ha trovato una conferma medicale, tuttavia l’olio di noce moscata è usato in qualche sciroppo per la tosse, in qualche bibita (per esempio Coca Cola) e in dolcetti.

Il secondo composto che si può isolare dall’olio di noce moscata è l’elemicina: se si consumano i due composti insieme, diventano più potenti dei singoli composti assunti separatamente.

nocem7

Figura 2-Elemicina

La elimicina è stata usata come precursore per sintetizzare la mescalina mentre la miristicina è il precursore tradizionale per preparare la droga psichedelica MMDA (3-metossi-4,5-metilendiossi-amfetamina).

Ci sono note che suggeriscono che nel corpo la miristicina può essere trasformata in MMDA, ma non è ancora confermato.

nocem8

Figura 3- MMDA

Fortunatamente, quando la noce moscata viene usata per cucinare la quantità di ingredienti psicoattivi è troppo piccola per avere alcun effetto su chi la usa. Tuttavia, per illustrare il concetto che “è la dose che fa il veleno”, alte dosi (almeno due noci moscate) dopo almeno due ore dalla somministrazione producono allucinazioni, distorsioni visuali, paranoia, con persone che provocano stati di eccitazione, nausea e perdita di memoria. E questi effetti possono durare parecchi giorni.

Anelli al naso. 2: la vendetta.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

 Il primo post di questo tema ha assodato che non ci sono usi miracolosi dell’acqua come carburante .

Approfondisco il tema delle miscele acqua-carburante e riporto qui una esperienza fatta all’interno di una grande azienda italiana che però mantiene il suo anonimato e che ci racconta con una certa dovizia di particolari come si può usare vantaggiosamente il gas di Brown.

Cominciamo dalla questione di aggiungere acqua al carburante.

Si sa che una miscela acqua-carburante può in certe circostanze favorire le prestazioni anche se a costo di un danno almeno potenziale a lungo andare. Ma come è possibile?

L’umidità, cioè il vapore acqueo presente nell’aria, è una delle variabili che influiscono di più, oltre che la temperatura dell’aria, nel calcolo del rendimento e della potenza dei motori. L’aria può essere più o meno fredda, ma più l’aria è umida, cioè ricca di vapor acqueo, più è leggera (meno densa) rispetto ad una stessa quantità di aria secca; ricordiamo infatti che la pressione atmosferica “scende” quando il tempo è umido e foriero di pioggia (ovvio: il peso molecolare dell’acqua è 18 contro quello medio dell’aria che è appena inferiore a 30).
Il vapore, cioè acqua in stato gassoso, che quindi è un gas, sottrae O2 nella testa dei cilindri. Togliendo spazio all’aria, il vapor acqueo dà quindi anche un effetto sovrapponibile a quello di un aumento relativo del carburante nel cilindro, cioè è come se uno avesse arricchito la miscela; come se non bastasse, il vapor acqueo nei cilindri ostacola il propagarsi della fiammata dell’accensione, quindi corrisponde anche a una riduzione dell’anticipo dell’accensione (scendono i giri del motore) o, detto meglio,  la sua presenza richiede un incremento dell’anticipo di accensione (occorre dare più tempo alla miscela per detonare).

Tutto questo può compromette l’erogazione di potenza da parte del motore, anzichè favorirla.

Ma allora perchè si usa la iniezione di acqua? Le cose sono più complicate.

Nei motori esiste quello che potremmo definire un raffreddamento interno, dovuto al fatto che la miscela aria/carburante per essere effettivamente esplosiva deve prevedere un carburante allo stato gassoso non liquido; ora quando il carburante evapora sottrae calore al sistema perchè ha un calore latente di evaporazione. La riduzione di temperatura che ne viene causata da una parte riduce le sollecitazioni nel sistema pistone-cilindro e dall’altra aumenta la concentrazione della miscela esplosiva aumentandone l’efficacia. Ovviamente la riduzione di temperatura dipende dal carburante usato e può raggiungere decine di gradi.

In questo senso i motori a iniezione diretta sono avvantaggiati, dato che il carburante viene immesso all’interno del cilindro, e pertanto vaporizza tutto lì e non in larga misura nei condotti di aspirazione, come avviene con l’iniezione indiretta. Si ottiene in tal modo un miglior raffreddamento interno, il che agevola l’adozione di rapporti di compressione particolarmente elevati.

Come qualcuno dei lettori ha fatto notare l’idea di usare l’acqua a questo scopo fu sfruttata al principio del secolo scorso con motori d’aviazione sovralimentati di potenza elevata.

640px-BMW801_front

Motore BMW-801

L’aggiunta di acqua (che ha un elevato calore latente di vaporizzazione a causa dell’esistenza di legami idrogeno) migliorava notevolmente la resistenza alla detonazione e permetteva di adottare pressioni di sovralimentazione più elevate. I tedeschi (che alimentavano i loro motori impiegando sistemi di iniezione diretta e non carburatori, come i costruttori delle altre nazioni) impiegavano per la precisione una miscela di acqua e metanolo, con quest’ultimo che aveva fondamentalmente una funzione anticongelante. In tal modo era possibile ottenere incrementi di potenza che potevano anche essere superiori al 10%.

Un meccanismo analogo è stato impiegato nelle vetture da competizione. I risultati più significativi l’iniezione di acqua può fornirli se impiegata su motori sovralimentati e con un rapporto di compressione elevato. Recentemente la BMW che aveva fatto le sue esperienze proprio negli aerei da combattimento ha riproposto questa tecnologia nella BMW M4, una auto da alte prestazioni usata come safety car nelle corse automobilistiche.

m4safetycar

“L’acqua viene emessa sotto forma di fine spray nel polmone, posto a valle dell’intercooler, dal quale respirano i sei condotti di aspirazione. Vengono impiegati tre iniettori, ossia uno ogni due cilindri. L’acqua è contenuta in un serbatoio da cinque litri, piazzato nel bagagliaio, e viene inviata agli iniettori con una pressione di dieci bar. Il sistema non richiede manutenzione ed è adatto anche per un eventuale uso quotidiano. La soluzione permette di ottenere un miglioramento delle prestazioni (si parla di un incremento di potenza dell’8% circa) senza dar luogo a un aumento del carico termico al quale sono sottoposti i vari componenti; inoltre, può consentire anche una lieve diminuzione dei consumi. “(http://www.automoto.it/news/motori-con-iniezione-ad-acqua-dagli-aerei-alla-bmw-m4.html)

http://www.tecnicamotori.it/iniezione_acqua.html

Fra l’altro per ridurre il problema della potenziale corrosione la centralina elettronica controlla sistematicamente la quantità di acqua immessa basandosi sull’umidità esterna e cercando di evitare la rottura del velo di olio che protegge le parti metalliche. Nessun miracolo e nessuna offesa alla termodinamica.

E veniamo al gas di Brown.

E’ chiaro dal post scorso che una quantità elevata di idrogeno ed ossigeno immesso nei motore non è conveniente termodinamicamente, ma un loro ruolo di tipo catalitico non si può escludere, come avevo già scritto, anche se la letteratura scientifica è povera di richiami a riguardo e tutti quelli presenti sono negativi.

Un amico che lavora in una grande azienda italiana mi ha contattato e mi ha sottoposto la sua esperienza; ho avuto qualche resistenza ma devo dire che i suoi dati sono molto convincenti; certo non sono dati che ho raccolto personalmente e non ho nessuna intenzione di riportarli come dati definitivi; diciamo che possono costituire uno stimolo per chi volesse approfondire i meccanismi catalitici potenziali di questo sistema.

Dunque di che si tratta?

Due piccole unità di elettrolisi costruite di lastre di acciaio consumando qualche centinaio di watts (12V-30A, quindi 720W in tutto) forniscono una piccola quantità di una miscela di ossidrogeno ad un grande motore diesel, un dispositivo da 300 litri di carburante l’ora. A memoria la cella è composta da piastre in Bohler A100 (AISI 316 – cromo/nichel/molibdeno) tagliate al laser ed impacchettate con guarnizioni in teflon; i tubi sono normali condotti calibrati per pneumatica da 8 e 10mm in polipropilene. L’elettrolita usato è carbonato di potassio 300g/litro). Prima dell’ingresso turbine il fluido attraversa solo un breve tratto di tubo ed un piccolo filtro a feltro.

La temperatura di funzionamento delle celle resta praticamente quella ambiente. Questo gas viene miscelato all’aria in aspirazione a monte della turbina, perché a valle della stessa la pressione non è costante ed il sistema si complicherebbe molto e inutilmente.

Cosa avviene? Semplicemente che il consumo si riduce di circa il 7%; il sistema produce l’equivalente di 519kW di potenza costante consumando carburante che prima forniva potenza per 482kW; se si fa il rapporto e si sottrae la ridicola quota di consumo dell’elettrolizzatore (meno di 1kW, 0.72kW) si ottiene un risparmio del 7% circa (482/519=0.928).

Il sistema è costantemente monitorato in quanto a scarichi, produttività e consumi e quindi i numeri sono verificabili, sostiene il mio amico che chiameremo X e che pur non essendo un chimico si occupa di efficienza energetica nell’ambito di questa grande azienda.

Ho avuto una lunghissima ed accesissima discussione con X e mi sono convinto che pur non avendo fatto una serie sistematica di prove X ha testato il sistema per qualche giorno e poi ha deciso che, si, ne valeva la pena. Potrebbe essersi sbagliato ma la sua buona fede è fuori discussione; X sostiene che le sue prove sono consistite sostanzialmente nel misurare i consumi del motore a parità di OGNI ALTRO PARAMETRO accendendo e spegnendo l’elettrolizzatore in “tre giorni del condor” di prove originarie.

Come si spiega questo risultato? Ovviamente il contributo dell’idrogeno ed ossigeno NON è di tipo stechiometrico, basta considerare che la quantità di idrogeno immessa in circolo è al massimo di una mole l’ora contro i quasi 3 quintali di carburante tradizionale (ossia migliaia di moli); è chiaro che siamo di fronte ad un effetto catalitico di qualche tipo.

Cosa potrebbe essere? Occorrerebbe fare prove che certamente X non consentirebbe in quanto significherebbero modificare il funzionamento del motore e la sua opertività, ma possiamo rifletterci usando qualche dato di letteratura.

Ho cercato un gas massa del gas di Brown, ma non l’ho trovato, tuttavia in una versione non pubblicata di uno dei lavori di Santilli (che come ricorderete si è inventato le magnecole) che si recuperano in rete si vede questo spettro:

santilli

Le formule le ho aggiunte io cercando di interpretare lo spettro di massa; la presenza di monossido di carbonio dipende dall’elettrolita scelto e dalla composizione degli elettrodi e non so se ci sia nel caso di X, ma non credo perchè la letteratura escluderebbe lo sviluppo di CO in presenza del tipo di componenti dell’acciaio dei suoi elettrodi; tuttavia gli altri componenti ci potrebbero essere: oltre ad idrogeno ed ossigeno, ioni vari positivi e negativi che rivelerebbero la possibile presenza di acqua ossigenata, ozono e varie specie probabilmente ioniche e radicaliche che si potrebbero formare e potenzialmente utili come specie catalitiche nelle condizioni di impiego; queste specie (per esempio acqua ossigenata e ozono) si formano quando si fa l’elettrolisi dell’acqua a causa dei meccanismi cinetici presenti ed attivi quando ci si allontana molto dalle condizioni di equilibrio chimico; la dissipazione di grandi quantità di energia (il valore teorico del potenziale di ossidoriduzione dell’acqua è di 1.21V mentre qua usiamo un valore sensibilmente superiore) consente la produzione di molte altre specie oltre a idrogeno ed ossigeno in dipendenza dei dettagli del processo. Nulla di nuovo. Aggiungo per correttezza che X è convinto che l’idrogeno in piccola quantità potrebbe funzionare da acceleratore della velocità di propagazione della fiamma incrementando il consumo di molecole che rimarrebbero e rimangono di fatto incombuste in condizioni normali (ovviamente in lingua chimica e non motoristica anche questo è un effetto catalitico)

In letteratura si trovano molti lavori che discutono l’aggiunta di queste specie come tali e i risultati sono spesso interessanti, mai eccezionali, spesso inconclusivi; nel caso del gas di Brown aggiunto per elettrolisi di una soluzione acquosa elettrolitica potrebbero avere effetti utili; comunque il miglioramento atteso è dell’ordine di qualche percento e probabilmente nel caso di motori moderni (quello del mio amico è un diesel alquanto datato, ma funzionante) i vantaggi sarebbero probabilmente minori.

Ecco questo è tutto, mi sentivo di dover estendere ed approfondire la discussione; il gas di Brown non ha nulla di miracoloso, certamente non consente di usare l’acqua come carburante, certamente non consente risparmi energetici folli; forse in qualche caso, come in quello di X, riduce di un po’ i consumi (il 7% in meno non fa schifo a nessuno); la cosa avrebbe bisogno di essere approfondita da specialisti della combustione ed anche un gas-massa serio del gas di Brown sarebbe utile; qualcuno lo ha mai fatto? Giro la domanda e le altre che vengono in testa ai colleghi che si occupano di queste cose: basterebbero le specie come acqua ossigenata ed ozono e gli ioni e i radicali potenzialmente prodotti a consentire risparmi del genere? I dati di X sono ragionevoli?

A voi la risposta.

Riciclo integrale dell’acqua di fognatura e desalinizzazione.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Per parlare di riciclo integrale dell’acqua occorre partire dalla situazione ormai critica in diverse zone del pianeta per quanto riguarda l’approvvigionamento e la tutela delle risorse idriche. La siccità e il caldo record sono fenomeni ormai diventati usuali per esempio in Australia, dove a siccità ed i fenomeni estremi si stanno prolungando ormai dal 1995. Nel 2013 il primo ministro Julia Gilard ha riconosciuto il legame tra questi fenomeni ed il cambiamento climatico. Lo stato di Victoria nel sud dell’Australia ha deciso di affidarsi al consorzio Aquasure (che comprende la compagnia francese Suez e le australiane Thiess e Macquarie Capital) e far costruire un enorme impianto di desalinizzazione dell’acqua del mare in cui verranno investiti più di tre miliardi di dollari e in grado di fornire a tutto il paese almeno 150 miliardi di litri di acqua potabile all’anno. Il progetto è stato finanziato anche da un gruppo bancario italiano, Intesa San Paolo.

     acquar1

Il progetto è stato avversato per qualche tempo da un gruppo che si fece chiamare spartiacque, e che contrastava il progetto temendo che lo sfruttamento dell’acqua dell’oceano avrebbe finito per compromettere in maniera irreversibile gli equilibri dell’ecosistema marino della zona.

Lo stesso dilemma e probabilmente la stessa soluzione si sta riproponendo in California, stato americano che è alle prese con una grave crisi idrica che dura ormai da quattro anni. Le ridotte precipitazioni, il ridotto innevamento non riescono più ad alimentare il bacino del fiume Colorado. Il governatore della California Jerry Brown è stato costretto ad emanare un’ordinanza per il razionamento dell’uso dell’acqua il cui consumo dovrà essere ridotto del 25%. Sono previste multe salate e controlli capillari per far si che l’ordinanza venga rispettata. Si sono registrati episodi che sembrano appartenere al copione di un film di fantascienza post apocalittica. Furti d’acqua da cisterne dei vigili del fuoco, deviazioni non autorizzate di cascate, furti di acqua dagli idranti. Tutto questo deve far certamente riflettere. Sono i primi pesanti e dolorosi effetti del riscaldamento globale.

Per ovviare a queste situazioni di solito le scelte si orientano su due soluzioni tecnologiche: riciclo integrale dell’acqua reflua, e impianti di desalinizzazione di acqua di mare.

La sempre crescente richiesta di acqua sta portando a considerare l’utilizzo di molte fonti che solo pochi anni or sono sarebbero state ritenute assolutamente inutilizzabili.

acquar10

Gli Stati Uniti non sono nuovi all’adozione di tecnologie di questo tipo. Negli anni tra il 1952 ed il 1957 la cittadina texana di Chanute soffrì di una grave siccità. Il fiume Neosho dalla quale veniva prelevata l’acqua per le necessità della popolazione civile si essiccò completamente nell’estate del 1956. Non essendovi possibilità di collegarsi ad altri acquedotti, non essendovi pozzi di acqua da scavare, ed essendo più complicato di oggi risolvere il problema con l’ausilio di autobotti, non restò ai cittadini e alla municipalità per risolvere il problema che depurare e rimettere in circolazione l’acqua di fogna, o in alternativa andarsene . L’idea che la popolazione civile debba bere i propri rifiuti ovviamente sconta una fortissima repulsione psicologica. Ma possiamo pensare che nel bicchiere di acqua che beviamo alla mattina qualche molecola fosse presente ai tempi del diluvio universale, qualche altra abbia visto passare pescatori sul lago di Tiberiade, e qualche altra si sia arrossata di sangue sulle spiagge della Sicilia al tempo del secondo conflitto mondiale.

acquar2

A Chanute esisteva un impianto di depurazione biologica a filtri percolatori. L’effluente venne caricato nel serbatoio normalmente destinato alle acque prelevate dal fiume. Il serbatoio aveva un tempo di ritenzione piuttosto elevato, pari a 17 giorni e questo permetteva l’instaurarsi di un limitato processo autodepurativo. L’impianto di potabilizzazione delle acque del fiume Neosho comprendeva una fase presedimentazione di 26 ore, un trattamento a calce e soda, una filtrazione rapida, ed infine un trattamento di clorazione. Venne alimentato con i reflui di depurazione per cinque mesi e riciclò per tutto quel tempo le acque. Vista la situazione di emergenza venne effettuata una superclorazione, con dosaggio di cloro che arrivò fino al valore di 25 mg/lt. Dopo cinque mesi tornò la pioggia, risolvendo così una situazione che a detta degli stessi tecnici stava diventando ormai insostenibile. Questo episodio racconta di una situazione di assoluta emergenza. Ma la California ha poi costruito impianti di riciclo integrale di effluenti secondari. In pratica all’uscita di un impianto di depurazione convenzionale si realizza una fase di affinamento e di trattamento terziario. L’impianto di South Tahoe sulle rive del lago Tahoe in California per esempio, dove l’effluente di un impianto di depurazione a fanghi attivi veniva sottoposto ad ulteriori trattamenti. Trattato con calce fino a pH 11,5 –12 subiva poi uno strippaggio dell’ammoniaca in torre d’areazione. Nel basamento della torre si eseguiva una prima neutralizzazione dell’acqua con aggiunta di anidride carbonica fino a pH 9,3 e si raccoglievano i fanghi di carbonato di calcio. Seguiva una seconda fase di neutralizzazione sempre con anidride carbonica fino a pH 8,3 – 8,5. L’acqua veniva poi trattata con una soluzione di solfato d’alluminio e polielettrolita, filtrata su filtri di separazione contenenti diversi mezzi filtranti a granulometria decrescente nel senso del flusso. Infine l’acqua veniva pompata in otto colonne disposte in parallelo contenenti carbone attivo minerale granulare. Il carbonato di calcio proveniente come fango dalle operazioni di neutralizzazione veniva essiccato per centrifugazione e calcinato in forno. In questo modo veniva ricavato circa il 70% della calce occorrente per le operazioni di precipitazione e parte dell’anidride carbonica occorrente per le operazioni di neutralizzazione. L’effluente scaricava le acque tramite una condotta di 43 chilometri di lunghezza fino alla Contea di Alpine nella zona della Diamond Valley dove forma un lago artificiale destinato a scopi ricreativi ed irrigui. La qualità dell’acqua di questo impianto però e del tutto simile a quella di un’acqua potabile ricavata dal trattamento di acqua di fiume (come avviene a Firenze e a Torino, o nel caso di un lago a Como).

acquar7

La tecnologia oggi per ricavare acqua potabile da acqua di fogna a schemi di questo tipo può aggiungere anche trattamenti di microfiltrazione ed osmosi inversa, e tra le ultime tecnologie l’utilizzo di filtri a membrana. Per la sterilizzazione dell’acqua si utilizzano i raggi uv. E con quest’acqua si alimentano le falde freatiche. La California come l’Australia però sta guardando anche al mare. Nella contea di San Diego nel prossimo novembre verrà inaugurato un impianto di desalinizzazione del valore di un miliardo di dollari con una capacità di produzione di circa 200.000 metri cubi al giorno di acqua potabile.

acquar4

Gli impianti di dissalazione che possono essere di tipo evaporativo, oppure utilizzare lo scambio ionico o la permeazione hanno come fattore limitante il costo energetico, in particolare quello dell’energia elettrica.

 Infatti, l’energia richiesta nella desalinizzazione dell’acqua marina può spaziare da circa tre a sei kilowatt ora (kWh) per produrre un metro cubo di acqua potabile, rendendola uno dei processi di trattamento idrico a più alto consumo e, pertanto, uno dei più costosi.

Un promettente sviluppo potrebbe avere il  il progetto del Massachusetts Institute of Technology (Mit), vincitore del premio “Desal 2015” dedicato a nuove idee “verdi” promosso dall’Agenzia per lo Sviluppo Internazionale degli Stati Uniti (USAID). I pannelli solari alimentano un impianto di elettrodialisi.

acquar8

L’impianto standard di questo tipo potrebbe sopperire alle esigenze di una comunità di circa 2000- 5000 persone. Questo metodo tecnologico ha vinto, infatti, perché è riuscito ad abbattere molto i costi di dissalazione. Agli scienziati del MIT e della Jain sono andati 140.000 dollari, finanziati dallaSecuring Water for Food initiative della US Agency for International Development. Il denaro permetterà loro di realizzare concretamente il sistema.

Come si vede esistono le tecniche per sopperire alla ormai sempre più problematica scarsità di acqua dolce. Ma non credo che si possa essere troppo soddisfatti. Il problema idrico è legato direttamente al problema del riscaldamento globale, e più in generale all’uso dissennato e irrazionale delle risorse.

Dobbiamo fare qualche riflessione profonda. E riandare con il pensiero a ad un altro studio sempre proveniente dal MIT che ci aveva avvertito della possibilità del verificarsi di queste situazioni di scarsità e di crisi di risorse fondamentali come l’acqua. E riconoscere a distanza di più quarant’anni la validità predittiva e scientifica di quello studio. Quello che in Italia abbiamo conosciuto con il titolo “I limiti dello sviluppo”*

singapore-acqua-riciclo

Nota

* il titolo originale del saggio MIT era “Limits to Growth” ossia i Limiti della Crescita; lo sviluppo che in inglese si dice Developement è una cosa diversa dalla crescita,(growth) ma viene spesso confuso con essa; lo sviluppo umano non coincide con la crescita economica del PIL. In tutti i paesi d’Europa ci sono due termini per esprimere crescita e sviluppo, e in tutti i paesi il titolo del saggio fu tradotto correttamente ECCETTO che in Italia dove si confuse crescita e sviluppo; rifletteteci.

Anche la Regina del Sole era una chimica

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Giorgio Nebbia

“Regina del Sole”, Sun Queen, è stata chiamata Maria Telkes (1900-1995) per i suoi contributi all’utilizzazione dell’energia solare, fatti con successo proprio perché era una chimica. Maria Telkes era nata in Ungheria e si era laureata in chimica nell’Università di Budapest.

225px-Maria_Telkes_NYWTS

Dopo il dottorato, nel 1925 si trasferì negli Stati Uniti ed è stata assunta come biochimica presso la Cleveland Clinical Foundation dove ha messo a punto apparecchiature elettroniche per indagini cliniche. Nel 1937 fu assunta dalla Westinghouse Electric e nel 1939 passò al Massachusetts Institute of Technology (MIT). Qui ebbe l’incarico di collaborare alla costruzione di una abitazione “solare”, la Dover House, per la quale progettò il sistema di accumulo del calore solare. Per conservare il calore solare raccolto di giorno e nei mesi caldi e per renderlo disponibile di notte e nelle stagioni fredde, la Telkes propose un ingegnoso sistema consistente nel far circolare l’aria calda, raccolta nei pannelli solari, in adatti serbatoi isolati termicamente, pieni di solfato di sodio decaidrato.
Il sale di Glauber ha la proprietà di “fondere” nella propria acqua di cristallizzazione a temperature superiori a 32°C con assorbimento di circa 200 MJ/kg, e di tornare allo stato cristallino quando la temperatura si abbassa, con liberazione della stessa quantità di calore di fusione. La casa solare fu completata nel 1948 ed ebbe una certa risonanza.

solarhouse2

Durate la II Guerra mondiale il governo americano chiese alla Telkes di progettare un distillatore solare, un dispositivo in grado di trasformare l’acqua del mare in acqua dolce, utilizzabile dalle zattere dei naufraghi, la cui sopravvivenza dipendeva dalla disponibilità di anche modeste quantità di acqua dolce.

L’idea dei distillatori solari era antica; Ne aveva suggerito uno Giovan Battista Della Porta (1535-1615); nel 1886 nel Cile ne era stato costruito uno capace di fornire, ai minatori nell’altopiano delle Ande, 4000 litri di acqua dolce al giorno, distillando col calore solare l’acqua salina dei pozzi locali.

wilson-1

Un distillatore solare non fa altro che riprodurre, in uno spazio ristretto, il ciclo naturale di evaporazioni e condensazioni dell’acqua; è costituito da una scatola di legno o metallo nella quale viene immesso uno strato di alcuni centimetri di spessore dell’acqua marina o salmastra; la scatola è coperta da una lastra inclinata di vetro o di altro materiale trasparente che lascia passare la radiazione solare ma non la radiazione infrarossa e che quindi trattiene all’interno della scatola il calore solare che scalda l’acqua e ne fa evaporare una parte. Il tetto trasparente, a contatto con l’aria esterna più fredda, funziona anche da condensatore del vapore; una grondaia raccoglie l’acqua distillata che scivola sella superficie interna del tetto. In questo modo è possibile ottenere, nelle zone temperate e calde, fra tre e sei litri di acqua distillata al giorno per ogni metro quadrato di vasca esposta al Sole. Poco, ma sufficiente per sopravvivere se non c’è altra acqua.

dellaporta

Telkes propose una ingegnosa variante; si trattava di una specie di pallone di plastica gonfiabile; a metà del pallone era sospeso uno strato di tessuto spugnoso; il naufrago riempiva di acqua marina il pallone; lasciava drenare l’eccesso di acqua non trattenuta dalla spugna; poi gonfiava col fiato il pallone e lo faceva galleggiare; la parte inferiore del pallone era raffreddata dall’acqua di mare e fungeva da condensatore del vapore; l’acqua distillata, circa un litro al giorno, poteva poi essere estratto da una valvola sul fondo.

telkes

Il distillatore solare divenne di dotazione dell’aeronautica americana; pareche abbia salvato molte vite ed è descritto nella rara pubblicazione:
National Defense Research Committee, Office of Science Research and
Development, OSRD Report 5225, May 1945 (posso fornirne una copia a chi è
interessato), nella quale è anche esposto il bilancio termico del processo.

La Telkes descrisse poi il suo distillatore solare e la teoria deldispositivo in un articolo pubblicato nella rivista Industrial and Engineering Chemistry, 43, 1108-1114 (May 1953).  Ricordo bene la cosa perché il fascicolo, datato maggio, arrivò in biblioteca nel luglio, e nell’agosto 1953 il mio primo distillatore solare, fatto di plexiglas (vasca, superficie trasparente del tetto-condensatore e canale di raccolta del distillato), era già in funzione su una terrazza dell’Università di
Bologna. Una passione che non mi ha più abbandonato per molti decenni.

2015-06-07 Telkes figura 1

Il distillatore solare costruito da Giorgio Nebbia

Il lavoro della Telkes sull’energia solare è continuato, sempre ispirato all’idea originale, molto “ecologica” e ”sostenibile”, di “consumare” meno energia fossile e di risolvere problemi umani, di mancanza di beni essenziali, dall’acqua potabile al calore per cuocere; a lei si devono vari fornelli solari, molto semplici, per esempio costituiti da quattro pezzi di lamiera inclinati in modo da riflettere la radiazione solare su una pentola, posta nel “fuoco” di questo semplice collettore. I fornelli solari erano pensati per i paesi poverissimi, in cui le donne dei villaggi potessero
cuocere il cibo evitando di bruciare legno o carbonella in fornelli fumosi.

Negli anni quaranta e cinquanta del Novecento la Telkes aveva condotto anche interessanti ricerche, in parte brevettate, sulla termoelettricità. In quegli anni, prima della scoperta (1954) dei semiconduttori a base di silicio, per ottenere elettricità dall’energia solare si poteva contare soltanto sulle proprietà fotoelettriche del selenio, utilizzato negli esposimetri delle macchine fotografiche e in dispositivi per l’apertura automatica delle porte scorrevoli; quando la persona in entrata interrompeva un raggio di luce che colpiva appunto una cella fotoelettrica, si metteva in moto il comando elettrico dell’apertura. Il rendimento era però molto basso e l’effetto termoelettrico sembrava promettente per applicazioni solari.
Un’idea già proposta da Antonio Pacinotti (1841-1912).

Telkes studiò vari nuovi materiali adatti a trasformare il calore solare in elettricità; purtroppo il rendimento dei dispositivi termoelettrici aumenta con l’aumentare della differenza di temperatura fra le saldature “calde” e quelle “fredde” per cui, a fini pratici, è necessario concentrare la radiazione solare con specchi. La Telkes progettò e brevettò anche dei frigoriferi basati sull’effetto Peltier.

Gli anni di più intensa attività della Telkes furono quelli cinquanta e sessanta nei quali peraltro l’attenzione per l’energia solare si stava attenuando, un po’ per merito del petrolio abbondante a basso prezzo, un po’ per le promesse, poi deluse, dell’energia nucleare. Abbastanza curiosamente la Telkes un giorno predisse che l’interesse per l’energia solare sarebbe risorto partire dal 1975, ed è avvenuto proprio così, con la prima crisi petrolifera e poi con le prospettive della scarsità di petrolio e con la crisi climatica. Molti lavori di quella primavera dell’energia solare sono stati dimenticati e sarebbe forse utili disseppellirli dall’oblio perché forse contengono delle idee che potrebbero ancora tornare utili.

Solar-cooker-design-Maria_Telkes

Maria Telkes ha partecipato a innumerevoli congressi, sempre ambasciatrice delle soluzioni semplici per mettere il Sole al servizio delle necessità umane, soprattutto nei parsi arretrati. E’ stata attiva nei movimenti per i diritti della donne, ha avuto vari premi internazionali, anche come “donna” inventore (o si dice “inventrice” ?); nel 1952 ebbe il riconoscimento di prima donna ingegnere e ormai è ricordata, da quei pochi che la ricordano, col titolo, come si diceva all’inizio, di “Regina del Sole”. La Telkes è morta nel 1995 in Ungheria, il paese natale che era andata a visitare per la prima volta dopo l’emigrazione negli Stati Uniti.

Anelli al naso.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

La parola bufala secondo il dizionario della Accademia della Crusca (http://www.lessicografia.it/pagina.jsp?ediz=5&vol=2&tipo=3&pag=307, Pagina:307 – Volume:2 – Edizione:5) viene dall’espressione “Menare altrui pel naso come una bufala” oppure ancora “Non vedere una bufala nella neve”, ossia non vedere cosa facilissima da vedere.

P1010929-_Bin__MGTHUMB-INTERNA

Non ho trovato un bufalo con l’anello al naso, ma in compenso di bufale se ne trovano parecchie.

In inglese il termine equivalente è hoax, da non confondere con oaks (quercie);sembra che hoax venga da hocus, a sua volta abbreviazione di hocus pocus, incantesimo in latino maccheronico usato da maghi e illusionisti che cercavano di trarre in inganno gli spettatori.

Oggi la bufala è resa ancor più potente da Internet; e sulle bufale, da entrambi i lati della cosa, crearle e sbufalarle si esercita la fantasia e la capacità, educativa o diseducativa, di molti.

I comuni oggetti da bufala sono le cose che ci danno preoccupazione, l’ambiente o l’energia per esempio.

Le famose “scie-chimiche” sono di fatto una gigantesca bufala ma creduta vera da milioni di persone, ne abbiamo parlato più volte. (https://ilblogdellasci.wordpress.com/2014/06/06/sciecomiche-e-scietragiche-scienza-e-credulita-popolare/).

Anche l’energia è oggetto di ripetute bufale, ma qui si sconfina addirittura nella truffa; abbiamo di recente accennato al tubo Tucker e ai risparmiatori intelligenti (https://ilblogdellasci.wordpress.com/2015/05/18/bufale-energetiche-truffe-italiche-e-fregature-cosmiche/).

Ma non finisce qui, ce ne sono molte altre; e oggi vi vorrei accennare al gas di Brown o gas di Klein o HHO, sul quale perfino Nature ha avuto tempo, in passato di indignarsi (http://www.nature.com/news/2007/070914/full/news070910-13.html), ma che straborda dalla rete e da Youtube e mi risulta faccia anche vittime illustri, aziende serie che credono alla bufala e ci investono.

Su wikipedia c’è una pagina dedicata al tema: http://it.wikipedia.org/wiki/Ossidrogeno#cite_note-US_patent_4014777-4.

Dunque la ricetta è la seguente: prendete dell’acqua, fatene l’elettrolisi, mescolate i prodotti (idrogeno ed ossigeno) e poi sottoponeteli ad alcune procedure (arco elettrico per esempio) o non sottoponeteli a niente e mescolateli con un normale combustibile; ne avrete un effetto miracoloso su qualche aspetto: riduzione dei consumi, riduzione dell’inquinamento. Ora come si possa ottenere più energia dividendo e ricostituendo la molecola di acqua (cioè tornando al punto di partenza) non è dato sapere; certo non si potrebbero escludere effetti catalitici, ma non ne sono stati trovati di significativi a parte qualcosa che documento dopo.

Seriescellelectrolyzerdesign

Il modello con celle in serie di Yull Brown.

Ci sono aziende nel mondo che vendono siffatti dispositivi, che sono stati d’altronde brevettati sotto vari nomi, come poterte vedere su Wikipedia o leggere sui siti delle aziende che vendono questi dispositivi (http://www.eagle-research.com/browngas/whatisbg/watergas.php oppure http://fuel-efficient-vehicles.org/energy-news/?page_id=96). Le ultime pubblicità “virali” (questo è l’aggettivo moderno) le trovate su Youtube: https://www.youtube.com/watch?v=6OQwiOWwVqQ&list=PLTPuqKeKVFnVVP0jFuk57thyevCJC70jo

Il simbolo HHO (8.890.000 citazioni su Google) indica appunto che di fatto si tratta di acqua ma in realtà “diversa” dalla solita acqua; una miscela di ossidrogeno, ossia di idrogeno ed ossigeno in proporzione 2:1, ma contenente “qualcosa altro” allo stato “nascente” è l’interpretazione corrente.

Ora “nascente” è un aggettivo mutuato dalla alchimia e che nella scienza moderna viene usato per indicare (a volte) la esistenza di specie atomiche di un elemento; se si fa passare idrogeno in un arco elettrico si ottiene una quota di idrogeno atomico; tuttavia se ci si fa passare una miscela stechiometrica di idrogeno ed ossigeno si ritrova (magia della chimica) l’acqua di partenza e un po’ di calore/energia, in quantità tuttavia inferiore a quello speso EFFETTIVAMENTE nella produzione della miscela (magia del 2 principio); se si operasse in modo ideale se ne ritroverebbe la medesima quantità (1 principio), ma ahimè la cosa è veramente impossibile. Quindi qualcosa si perde per forza.

Ciò detto è chiaro che se HHO è diversa da una semplice miscela stechiometrica di idrogeno e ossigeno si può avere di tutto: le molecole di magnegas (Ruggero Maria Santilli, Ascar Kanapievich Aringazin, Structure and Combustion of Magnegases in Hadronic Journal, nº 27, 20 dicembre 2001, pp. 299-330.) per esempio.

In queste ipotesi fantasiose non c’è niente. A parte una enorme fantasia, appunto.

Tuttavia dietro questa fantasia ci sono dei fenomeni veri; per esempio che usando una emulsione di acqua e carburante o additivando idrogeno ad un carburante normale si possono avere dei risultati anche interessanti nella corrispondente combustione; alcune di queste tecniche sono sfruttate in casi reali e dipendono probabilmente dalla semplice riduzione di temperatura della miscela di combustione.

Un articolo serio a riguardo lo trovate qua (http://www.econologie.info/share/partager/1251395965azE1K3.pdf).

o qui (http://en.wikipedia.org/wiki/Water_injection_%28engine%29); si chiama water injection e alcune volte funziona.

E’ chiaro che queste modifiche sono conosciute dai grandi produttori di motori a scoppio o diesel, ma comportano dei problemi nella gestione del motore, come l’infragilimento dei metalli da parte dell’idrogeno aggiunto, oppure la corrosione del motore stesso, tanto è vero che oggi qualunque motore diesel che si rispetti ha un filtro per il carburante che separa l’acqua la quale specie con le aggiunte di bio-diesel, ossia di oli di origine naturale, tende a raggiungere valori non previsti nella miscela di combustione con effetti negativi.

Ora a parte che modificare la composizione del carburante presenta aspetti legali non banali, considerate che modificarla ha anche effetti negativi sul motore il quale, specie quello delle auto moderne, ha una centralina elettronica che potrebbe andare in tilt se arrivano cose impreviste ai suoi sensori.

Il problema dell’energia c’è, ma non lo risolveremo con l’acqua, o forse si, ma non con quella magica.

Ci vorrà tanta chimica e olio di gomito, probabilmente idrogeno, ma certo non HHO. Comunque se chi usa HHO è contento….., e come dice la pubblicità “fa girare l’economia”……

(http://www.ingannati.it/2013/07/05/io-ce-lhho-lauto-ad-acqua-un-anno-dopo/#comments)

Alla fine cosa mi manca? Perchè protesto?

Secondo me al fondo c’è la sfiducia per la scienza vista come una attività che è gestita da altri e che occorre fare da se; se usassimo la voglia di fare da se a scuola incrementando l’approccio scientifico e la comprensione del metodo, più che far imparare a memoria la struttura degli orbitali, non ci troveremmo poi con i blog pro-HHO o perfino le aziende (non sono autorizzato a dirne il nome) che ne usano qualche equivalente e sono come il nostro amico blogger convinte, anzi convintissime, di risparmiare; si sa il complotto è sempre in agguato, dalle sciecomiche ai persuasori occulti!

Ma dico io, con tutti problemi veri che abbiamo mette conto “inventarsene” di ulteriori? E’ questo che mi fa rabbia più di tutte, mentre stiamo andando a sbattere qualcuno si preoccupa di oliare il finestrino, qualcun altro di oliare le rotaie, c’è chi racconta barzellette, ma nessuno che tiri il freno.

Voi che ne dite?