Riflessioni estive di un chimico.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex Presidente SCI

Ieri 30 agosto Oliver Sacks ci ha lasciato; pensavo proprio a lui in questi giorni di vacanza in cui ho avuto l’opportunità di leggere molto di chimica e di  riflettere su alcune notizie, confermandomi nella convinzione che la nostra è una disciplina veramente affascinante per chi l’affronta senza pregiudizi e preconcetti.

sacks

Oliver Wolf Sacks è stato un neurologo scrittore e chimico inglese di fama mondiale. Trai suoi libri più celebri si deve  citare “Risvegli” da cui è stato tratto il film magistralmente interpretato da Robert De Niro. Nell’ultimo suo libro “On the move” Sacks, che è ammalato di tumore ,racconta come alla sua malattia il grande conforto lo trova nei minerali ed  in quei regali che riceve ad ogni  compleanno dai suoi amici con la tradizionale espressione “happy birthday” seguita da un campione dell’elemento di numero atomico corrispondente all’anno di compleanno. Così il tallio all’81esimo è motivo per dubitare di arrivare al polonio (numero atomico 84)-per fortuna aggiunge-,ma forse neanche al bismuto (83) ,per guardare con rimpianto all’anno del berillio, l’anno della sua infanzia,infine per confrontare lo  sviluppo del suo tumore attraverso un confronto fra gli elementi con il numero atomico corrispondente ai vari compleanni.

ziotungstenob

La chimica per Sacks è come una preghiera: il suo conforto diventa  la Tavola periodica di Mendeleev, da  lui definita “un mondo senza morte”. Sorprende che gli elementi chimici possano  essere tradotti in traguardi della vita: in fondo solo 6 di essi contano veramente fino a rappresentare il 99% del nostro corpo. Scrive Sacks:”ora che la morte non è più un concetto astratto,ma una presenza per  me sono tornato  a circondarmi di metalli e minerali,come quando ero ragazzo,piccoli emblemi di  eternità”.

Non tutti ugualmente accetti: così nella sua  attenzione per il bismuto si esplicita la sua predilezione di medico per i malati negletti e dimenticati.
Ho ripensato molto a Sacks quando mi è capitato di entrare in un blog gestito da  un chimico farmaceutico inglese Niraj Naik. Il nome del blog era già tutto un programma The Renegade Pharmacist: viene descritto uno studio chimico sugli effetti nell’ora successiva all’assunzione di una lattina di coca cola.

Che salto,ho pensato dalle stelle di Sacks! Ma non si tratta di scendere nelle stalle, come si potrebbe pensare: la descrizione è meticolosa e particolareggiata, con il solo dubbio della verifica sperimentale di quanto riportato. Nei primi 10 minuti entra in circolo una dose di zucchero pari a quella consigliata per un intera giornata, circa 10  cucchiaini. In 20 minuti si ha come conseguenza un picco insulinico nel sangue. Il fegato risponde trasformando ogni zucchero in grasso. Entro 40 minuti viene completato l’assorbimento di caffeina. Sale la pressione sanguigna ed il fegato scarica più zuccheri nel sistema circolatorio. Dopo 3 quarti d’ora aumenta la produzione di dopamina stimolando i centri del piacere situati nel cervello. In un’ora l’acido fosforico lega calcio, magnesio e zinco nell’intestino e questo accelera il metabolismo con il conseguente rilascio dei 3 metalli destinati alle ossa. Appena diminuisce l’eccitazione  crolla la glicemia e rischia di divenire antipatici o irritabili. Quante esperienze si devono o dovrebbero condurre per definire questo bio-percorso? Non credo sia facile dare una risposta. Credo però che la domanda più importante sia un’altra: per arrivare a conclusioni accurate su un processo così complesso le tecnologie  di cui disponiamo sono sufficienti? Anche questa risposta non è semplice da fornire, ma certo proprio questa incertezza  giustifica la massima attenzione che la comunità chimica deve prestare verso nuovi metodi di indagine  e di studio. coke1hr3-1024x1024

Proprio in questa direzione mi ha colpito una recente ricerca svolta presso il Dip.to di Chimica dell’Università di Oslo tesa a studiare i processi cellulari con un sistema innovativo di monitoraggio, definito a fluttuazioni. Tutti i processi cellulari sono governati dal moto browniano. Il movimento browniano delle proteine e delle particelle all’interno di una cellula o in prossimità di essa è regolato dalle proprietà fisiche del citoplasma della membrana cellulare e del mezzo extracellulare. Focalizzando in prossimità di una cellula in una ben determinata posizione vicino od  a contatto con essa una particella, questa può funzionare da antenna delle fluttuazioni della cellula essenziali a livello della microscala per comprendere i processi cellulari.

40369111__original

L’insieme di queste considerazioni mi riporta al punto di partenza: la chimica è affascinante, sta a chi la insegna farne comprendere ed apprezzare questo fascino. Ritorna prepotente il rapporto fra didattica della chimica e scuola. La Divisione di  Didattica della SCI è impegnata perchè questo rapporto si mantenga virtuoso ed il recente decreto legge ha posto alla nostra attenzione ulteriori elementi di riflessione. Come direttore del giornale Chimica nella Scuola cercherò di cogliere questa contingenza per contribuire al lavoro della DD-SCI per allargare il dibattito e per fare sentire nelle sedi decisionali la nostra voce.

CnS-la-chimica-nella-scuola-logo

La cicerchia: dottor Jekyll e mister Hyde tra i legumi

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Angela Rosa Piergiovanni

La cicerchia, il cui nome scientifico è Lathyrus sativus L., è un legume coltivato da millenni. La sua granella trova impiego sia per l’alimentazione umana che in zootecnia. Studi archeobotanici fanno risalire l’inizio della coltivazione (domesticazione) al periodo Neolitico (circa 7-8000 anni fa) localizzando nella penisola Balcanica l’areale in cui tale pratica ha avuto inizio. Dai Balcani la coltivazione della cicerchia si è progressivamente diffusa verso ovest nei paesi del sud Europa, a sud verso il corno d’Africa, ad oriente fino in India, Pakistan e Bangladesh. La cicerchia è una pianta annuale molto rustica che predilige climi temperati (Fig. 1).

Lathyrus_sativus

Fig. 1. Lathyrus_sativus

Rispetto alle leguminose più conosciute (cece, fagiolo, lenticchia, pisello, lupino) tollera meglio le condizioni di avversità climatiche come la siccità, si adatta meglio ai terreni poveri, ha buona resistenza alle infestanti, richiede scarse cure colturali e alcuni genotipi possono essere coltivati fino a 1500m di altitudine. Tutte queste caratteristiche garantiscono un buon raccolto anche in periodi di avversità, e, in paesi poveri dove i periodi di carestia non sono rari, questo legume può fare la differenza. Se a tutto questo si aggiunge il fatto che la granella (Fig. 2)

cicerchiabianca

Fig. 2a Semi di cicerchia bianca

cicerchiascreziata

Fig. 2b Semi di cicerchia screziata

ha un contenuto proteico compreso tra il 25 e il 30 %, quindi mediamente più alto delle leguminose di maggiore consumo, un profilo amminoacidico e livelli in macro e micro elementi comparabili con quelli degli altri legumi, una attività emoagglutinante fino a 10 volte inferiore a quella del fagiolo, non ci si può che chiedere come mai la cicerchia sia di fatto un legume negletto.

E’ noto che il valore nutrizionale della granella di ciascuna leguminosa è legato sia al contenuto dei nutrienti biologicamente disponibili che all’efficienza della rimozione o inattivazione dei composti antinutrizionali o tossici nelle fasi di processamento dei semi prima del consumo (ammollo, cottura, decorticamento). L’equilibrio tra queste due componenti assume nella cicerchia un aspetto paradossale poiché la sua granella è al tempo stesso molto interessante da un punto di vista nutrizionale, ma al contempo ritenuta pericolosa per la presenza di un significativo livello di acido ß-N-oxalyil-L-α, ß-diamminopropionico (ß-ODAP).

beta-ODAP

acido ß-N-oxalyil-L-α, ß-diamminopropionico (ß-ODAP)

Questo amminoacido non proteico, isolato per la prima volta nel 1964, è stato messo in relazione con l’insorgenza del neurolatirismo nei consumatori abituali di cicerchia. Si tratta di una patologia conosciuta sin dai tempi antichi come attestato dalla puntuale descrizione che ne dà Ippocrate. Il neurolatirismo si manifesta con movimenti incontrollati delle gambe dovuti ad una ipereccitazione dei motoneuroni, e in casi estremi, può causare la morte. La tossicità è associata al solo isomero beta, che è però quello prevalente nei semi di cicerchia. In realtà la tossicità dell’ODAP si manifesta in modo diverso nelle varie specie animali. Infatti, ne sono colpiti mammiferi e uccelli sia pure con livelli diversi, mentre gli insetti sono in grado di metabolizzare l’ODAP senza riportare alcun effetto avverso. Ricerche condotte a livello internazionale allo scopo di selezionare varietà di cicerchia con un contenuto in ODAP nullo o quanto meno inferiore allo 0.2% (soglia ritenuta sicura per il consumo umano) non hanno dato i risultati sperati. Questo ha portato alla emanazione di direttive volte a disincentivarne la coltivazione anche nei paesi in cui la cicerchia rappresentava un valido sostentamento per le fasce più povere della popolazione soprattutto nei periodi di carestia.

Ma come stanno veramente le cose? La cicerchia va veramente bandita perché pericolosa?

Studi molto approfonditi condotti in questi ultimi anni sul metabolismo dell’ODAP insieme a valutazioni epidemiologiche stanno portando alla luce una realtà diversa. Una rigorosa valutazione dell’insorgenza del neurolatirismo tra i consumatori abituali di cicerchia ha rivelato che meno del 4% sviluppa la malattia e che la sua incidenza è maggiore tra i giovani di sesso maschile. Inoltre, l’insorgenza della malattia avviene solo a seguito di una dieta basata sul consumo quasi esclusivo di cicerchia per alcuni mesi. Questi risultati ridimensionano notevolmente la fama negativa associata a questo legume. Lunghi periodi di carestia durante i quali le fasce più povere non possono accedere ad una alimentazione variata sono sicuramente condizioni favorevoli al manifestarsi di casi di neurolatirismo, ma in condizioni normali di accesso al cibo il rischio si riduce notevolmente. Inoltre, la malnutrizione è risultato essere un fattore molto importante nel favorire l’insorgenza del neurolatirismo. In condizione di malnutrizione si osserva, infatti, la riduzione del livello di metionina nel plasma. Questo rende le cellule nervose più sensibili al surplus di stress ossidativo che si produce in alcuni individui a causa della sovra-eccitazione dei motoneuroni dovuta al consumo continuativo di cicerchia. Studi condotti in questi ultimi anni suggeriscono che l’inserimento nella dieta quotidiana di alimenti ricchi di metionina può rappresentare una semplice ma efficace strategia per controbilanciare gli effetti negativi dell’ODAP sul sistema nervoso umano.

Se la presenza dell’ODAP nei semi non equivale alla certezza di contrarre il neurolatirismo, vi sono altri componenti potenzialmente interessanti nella granella di cicerchia.

Tutte le specie del genere Lathyrus che accumulano ß-ODAP immagazzinano nei semi anche elevati livelli di L-omoarginina.

L-omoarginina

L-omoarginina

Nella cicerchia circa il 90% della colorazione che si sviluppa mescolando gli estratti etanolici di semi con la ninidrina è attribuibile a questi due amminoacidi non proteici. All’omoarginina sono attribuiti una serie di ruoli contrastanti nella fisiologia umana. Infatti, è utile perché convertita in lisina dal fegato, è un modulatore della biosintesi dell’acido nitrico, modula la tossicità dell’ODAP, ma come rovescio della medaglia ha un ruolo attivo nei meccanismi di insorgenza di alcuni tipi di tumori. Prestando attenzione alle problematiche della cicerchia si può supporre che se l’omoarginina può controbilanciare, sia pure in parte, la tossicità dell’ODAP lo studio della sua variabilità tra i diversi genotipi di cicerchia ha una significativa rilevanza. Infatti, genotipi capaci di immagazzinare alti livelli di omoarginina sono molto interessanti poiché potenzialmente meno tossici. Studi condotti in questi ultimi anni in maniera indipendente da diversi gruppi di ricerca hanno confermato il legame tra i meccanismi di accumulo nei semi di cicerchia dell’ODAP e dell’omoarginina. Uno studio pluriennale su diversi genotipi ha infatti dimostrato l’esistenza di una correlazione positiva tra i livelli di questi amminoacidi nei semi. Sebbene questo risultato non equivalga alla identificazione di un meccanismo intrinseco di “auto-detossificazione” rappresenta comunque un interessante risultato nell’ottica di riconsiderare l’immagine della cicerchia. Inoltre, non andrebbe sottovalutato il potenziale effetto salutistico che l’omoarginina può avere come modulatore della biosintesi dell’acido nitrico.

Questa breve nota non ha certamente la pretesa di stabilire definitivamente se la cicerchia sia più dottor Jekyll o mister Hyde, ma può rassicurare sul fatto che un suo consumo occasionale non presenta alcun rischio per la salute e forse incuriosire qualcuno a riscoprire un legume che le generazioni precedenti sicuramente conoscevano e consumavano più di quanto si faccia oggi nel nostro paese.

Riferimenti:

BIBLIOGRAFIA

Dadi, L.H., Teklewold, H., Aw-Hassan, A., Abd El-Moneim, A.M., & Bejiga, G. (2003). The socio-economic factors affecting grass pea consumption and the incidence of lathyrism in Ethiopia. Integrated Natural Resources Management ICARDA, Technical Research Report Series 4, Aleppo, Syria.

Enneking, D. (2011). The nutritive value of grass pea (Lathyrus sativus) and allied species, their toxicity to animals and the role of malnutrition in neurolathyrism. Food Chemical Toxicology, 49, 694-709.

Fikre, A., Yami, A., Kuo, Y.H., Ahmed, S., Gheysen, G., & Lambein, F. (2010). Effect of methionine supplement on physical responses and neurological symptoms in broiler chicks fed grass pea (Lathyrus sativus) based starter ration. Food Chemical Toxicology, 48, 11-17.

Piergiovanni A.R., Bisignano V., Polignano G., Lioi L. 2013. Dark and bright facets of nutritional value of grass pea (Lathyrus sativus L.) seeds. In: Legumes. Types, nutritional composition and health benefits. H. Satou and R. Nakamura (eds) Nova Science Publish., pp. 179-192. (ISBN 978-1-62808-280-7).

http://www.nutrheff.cnr.it/?page_id=317

 

*Istituto di Bioscienze e Biorisorse (CNR-IBBR) via Amendola 165/a 70126 Bari;

e-mail angelarosa.piergiovanni@ibbr.cnr.it

L’Enciclica di Papa Francesco e l’ambiente

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Vincenzo Balzani, Giacomo Bergamini e Margherita Venturi*

venturibergaminiNell’ultbalzani1imo secolo, e in particolare negli ultimi 50 anni, l’uomo ha sfruttato senza limiti le risorse naturali [1]. Ha modificato profondamente la Terra e continua a trasformarla sempre più velocemente, con effetti disastrosi. Sembra quasi che l’uomo non si renda conto del fatto che il pianeta ha dimensioni “finite” e che, quindi, le risorse sono limitate così come limitato è anche lo spazio in cui mettere i rifiuti.

Nell’Enciclica Laudato si’ Papa Francesco ha pienamente recepito il messaggio della scienza sull’ambiente, un bene che i meccanismi del mercato non sono in grado di difendere (190)[2]: bisogna fermare il cambiamento climatico, non inquinare le acque, il suolo e l’aria, preservare la diversità biologica, custodire l’integrità della terra, salvaguardare le foreste e i mari. Nell’Enciclica il Papa afferma anche che un crimine contro la natura è un crimine contro noi stessi e un peccato contro Dio (8).

laudatosi

Sul problema energetico-climatico, l’Enciclica condivide tutte le preoccupazioni già da tempo espresse dagli scienziati: il clima è un bene comune che va assolutamente salvaguardato (23); il riscaldamento globale degli ultimi decenni è dovuto sostanzialmente alla grande quantità di gas serra generati dall’attività umana (23); i cambiamenti climatici hanno gravi implicazioni ambientali, sociali, economiche, distributive e politiche (25); le previsioni catastrofiche non si possono guardare con disprezzo e ironia (161); molti di coloro che detengono più risorse e potere economico o politico cercano di mascherare i problemi o nasconderne i sintomi (26).

Anche sul come risolvere il problema il Papa è in sintonia con quanto da tempo affermano gli scienziati: è urgente procedere in una coraggiosa rivoluzione culturale per guardare la realtà in un altro modo e raccogliere gli sviluppi positivi e sostenibili (114); i paesi ricchi, che hanno tratto enormi benefici inquinando il pianeta, hanno maggiore responsabilità nel risolvere il problema (170); il consumo di combustibili fossili deve diminuire senza indugio (165); la transizione dall’uso dei combustibili fossili alle fonti energetiche rinnovabili non va ostacolata, ma accelerata (26); la penetrazione delle energie rinnovabili nei paesi in via di sviluppo deve essere sostenuta con trasferimento di tecnologie, assistenza tecnica e aiuti finanziari (172).

bergoglio

Il giovane Jorge Mario Bergoglio diplomato all’Istituto professionale per i chimici aveva iniziato a lavorare in un laboratorio di analisi, diretto dalla dottoressa Esther Ballestrino, di origine paraguayana e di fede comunista, poi fatta sparire dai militari e verso la quale Bergoglio, che le era divenuto amico, ha mantenuto una grande ammirazione.

L’Enciclica sottolinea anche che, nonostante il ritmo di consumo, di spreco e di alterazione dell’ambiente abbia superato le possibilità del pianeta (161), ai centri di potere finanziari, economici e politici interessa solo estrarre dalla Terra tutto quanto è possibile (106).

Un esempio di questo comportamento, purtroppo, è evidente anche qui in Italia. Il Governo, infatti, col decreto Sblocca Italia e altri provvedimenti più recenti, ha stabilito di facilitare e addirittura incoraggiare le attività di estrazione delle residue, marginali riserve di petrolio e gas del nostro paese, mentre non si interessa di creare una cultura della sostenibilità ecologica e pone ostacoli allo sviluppo delle energie rinnovabili. Per contrastare questa politica energetica un gruppo di scienziati di Bologna [3] ha recentemente presentato alla Regione Emilia-Romagna un documento che dimostra, cifre alla mano, che l’estrazione dei combustibili fossili è un affare per l’industria petrolifera, ma non porta sostanziali benefici al nostro paese a causa della esiguità delle riserve, della pochezza dei diritti di concessione e della scarsa incidenza sull’occupazione. Per contro, le attività di trivellazione ed estrazione hanno un forte impatto ambientale (inquinamento, subsidenza, rischi per il sistema marino, occupazione del suolo e del mare) e, soprattutto, riducono (in caso di incidente, potrebbero addirittura compromettere) un’enorme fonte di ricchezza certa: quella derivante dalla consolidata economia turistica. Promuovere l’estrazione di idrocarburi, inoltre, significa fornire un messaggio diametralmente opposto alla necessaria rivoluzione culturale ed economica in tema di energia e ambiente.

energiaperlitalia

Gli scienziati propongono un patto per l’energia e la tutela del territorio, basato su tre punti: 1) ridurre il consumo di energia, attraverso incentivi fiscali e semplificazione normativa per l’efficienza energetica delle abitazioni e delle attività produttive; 2) ridurre attraverso opportune politiche fiscali l’uso dei combustibili fossili per contrastare i cambiamenti climatici e per limitare la nostra dipendenza energetica da altri paesi; 3) promuovere una strategia energetica basata su fonti energetiche rinnovabili, in particolar modo sull’energia solare. Il documento riporta l’ammonizione più volte ripetuta da Papa Francesco nei suoi discorsi e che pervade le numerose parti dell’Enciclica che trattano del problema ambiente: Dio perdona sempre, l’uomo perdona qualche volta, ma ricordatevi che la Terra non perdona mai.

[1] W. Steffen, et al., The Anthropocene: From Global Change to Planetary Stewardship, Ambio, 2011, 40, 739.

[2] I numeri fra parentesi tonda si riferiscono ai paragrafi dell’Enciclica

[3] energiaperlitalia.it

* Gli autori fanno parte del gruppo dei 22 docenti e ricercatori dell’Università e dei principali Centri di Ricerca di Bologna promotori dell’appello, posto sul sito energiaperlitalia.it, che possono firmare sia altri docenti e ricercatori che semplici cittadini.

Non c’è due senza tre: ancora glifosato.(parte 1)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Tutti i lettori di questo blog sanno che la mia personale posizione sulle questioni agricole è certamente non mainstream; ho scritto decine di articoli sottolinenando i diversi problemi dell’agricoltura contemporanea, tutti collegati alla crescita infinita perseguita dalla nostra attuale società (economica, demografica, etc.) con la conseguenza di sconvolgere i cicli degli elementi e contribuire al riscaldamento globale; tuttavia in essi come in tutti cerco di tenermi sempre disperatamente su quella linea sottile che separa la critica “scientifica”, ossia fatta secondo i criteri sperimentali e del metodo scientifico dalla posizione ideologica; probabilmente non ci sono riuscito, ma ci ho provato. Sono stato attaccato diverse volte da persone che sostenevano che ero ideologicamente “contro” il mainstream; adesso invece mi tocca scrivere un articolo di stampo opposto.

In due post recenti vi ho informato del fatto che il glifosato, l’erbicida più usato del mondo, è stato messo in categoria 2A fra i potenziali cancerogeni dallo IARC (http://wp.me/p2TDDv-1GK‎) e che uccide o danneggia organismi del suolo (https://ilblogdellasci.wordpress.com/2015/08/16/ancora-sul-glifosato/ ) ; ma fra queste cose che sono sostenute su basi chiare e scientifiche e le pretese antiscientifiche di alcuni ce ne corre. Vediamo di che si tratta.

Nei commenti al secondo di questi post la senatrice Elena Fattori di M5S mi ha criticato (minacciando sostanzialmente di querelarmi, almeno così ho capito) perchè ho definito non scientifici, da non leggere, da non additare al pubblico, alcuni articoli (che lei invece considera “dati scientifici”) che in modo giornalistico o da riviste sostanzialmente predone o poco affidabili hanno sostenuto che il glifosato ha come conseguenza la celiachia e altri disturbi connessi, blocca l’enzima p450 dei mammiferi etc. Tutte cose che non stanno nè in cielo nè in terra.

Premetto doverosamente che la senatrice Fattori, laureata in biologia e con un PhD a Zurigo ha pubblicato oltre 40 lavori (Web-ISI of science) e ha un H-index di 28. Non stiamo quindi facendo una discussione ideologica, ma stiamo cercando di capire come si distinguono gli articoli degni di fede (intesa qui come credibilità, dato che nessuno di noi può ripetere tutti gli esperimenti di cui legge si tratta di capire come facciamo a distinguere) dal resto delle cose che si trovano in rete. Ovviamente si può dare spazio a tutto, c’è libertà di pensiero, ma facendo così si fa una enorme confusione; occorre avere dei criteri saldi.

La medesima senatrice ha condiviso sul proprio blog di FB (https://www.facebook.com/Fattori.Elena.M5S/posts/1034766399869967) un articolo di “La Stella” scritto da Maurizio Blondet dal titolo “Ma quale celiachia. Chiamatela Roundup”.

La Stella è un sito che pubblica articoli su auto ad acqua, medicine che curano l’organo a cui assomigliano, perchè esiste l’anima spiegato da un fisico e via discorrendo (anche Tutto ciò che ci è stato insegnato sulle nostre origini è una bugia).

Ha ripreso un articolo di Blondet (http://www.maurizioblondet.it/chi-e-maurizio-blondet/) giornalista in pensione, che scrisse su giornali come, La padania, Il giornale, Gente e che attualmente si occupa di temi di stampo “complottista” sul suo blog personale dove l’articolo è comparso per la prima volta. Riporto qui una frase che descrive bene le idee di Blondet:
L’America non mira più a pacificare questi paesi per farne i suoi vassalli e suoi mercati, come ha fatto agli europei nel dopoguerra. Il fine nuovo, di stampo ebraico, è quello descritto nella Bibbi quando sarà instaurato il Regno d’Israele: “spargerò il terrore di te” sulle nazioni, abiterai “case che non tu hai costruito”, raccoglierai da “campi che non ha coltivato tu”. La sola concezione possibile di impero, per Israele, è il saccheggio e il terrore.
Cosa dice l’articolo? L’articolo sostiene che la celiachia e i disturbi connessi dipendono dal fatto che il glifosato è presente nei cibi che mangiamo in particolare nel grano; riprende le tesi svolte in tre articoli,

1) http://www.mdpi.com/1099-4300/15/4/1416   (Entropy)

2) http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3945755/ (Interdisciplinary Toxicology)

3) http://www.ncbi.nlm.nih.gov/pubmed/25883837

(Surg Neurol Int.)

pubblicati da Anthony Samsel e Stephanie Seneff ; il primo è un libero consulente e la seconda è una ricercatrice di informatica dell’MIT che si è dedicata da pochi anni a questo nuovo tema biologico del glifosato (e di altre molecole) e dei suoi effetti sulla salute umana, pubblicando una serie di articoli basati su mere ipotesi dato che lei stessa non è una biologa e non ha fatto mai nessuna misura di tipo biologico, nessun esperimento; la dott. Seneff ha pubblicato in tutto 39 articoli quasi gli stessi numericamente della senatrice Fattori, ma mentre la Fattori ha avuto quasi 4000 citazioni la Seneff ne ha avute 125 su ISI (H-index 7). Di questi articoli solo gli ultimi sono dedicati alla biologia.

I tre articoli citati che rappresentano i suoi più noti sul tema glifosato hanno ricevuto rispettivamente: 14, 0 e 0 citazioni su Web of Science che è una delle banche dati più accreditate. Su Google Scholar che è un data base meno considerato di ISI Web of Science ma molto più ampio i tre articoli hanno ricevuto 73, 23 e 3 citazioni.

Giusto per capire di cosa stiamo parlando il termine glyphosate viene indicizzato per 141000 citazioni su Google Scholar, ossia le tre pubblicazioni della Seneff sono state considerate per una percentuale di volte che è 99/141000= 0.07% del totale su Google e del 14/7469 su ISI web of Science, ossia dello 0.18% su ISI Web of Science, come si vede valori analogamente molto bassi.

Entropy (dove è stata pubblicata la prima delle tre pubblicazioni) è indicizzata su ISI mentre le altre due riviste no, sono riviste open source recenti di alcun peso scientifico al momento.

Finora abbiamo posizionato i quattro articoli, ed è importante farlo perchè quando si legge un articolo scientifico occorre anche chiedersi in che contesto esso è stato pubblicato, ossia se chi lo ha pubblicato segue le regole che la comunità scientifica si è data per pubblicare; questo fa anche da sfondo alla valutazione degli articoli da parte della comunità scientifica di riferimento, CHE E’ QUELLA CHE CITA GLI ARTICOLI STESSI.

Quando scriviamo un articolo e lo mandiamo ad una rivista, tipicamente non sappiamo cosa succederà, se verrà approvato o se no, se verrà citato o se no; ma il rapporto fondamentale è con la comunità dei lettori una comunità di riferimento che fa il nostro stesso mestiere e che nel tempo prima approverà o meno il lavoro e poi lo citerà se lo ritiene utile o lo criticherà.

Tuttavia attenzione; lo ho scritto altre volte in questo blog, i meccanismi del mercato sono entrati pesantemente in questa macchina ideale della scienza e la hanno ridisegnata almeno in parte; sorvoliamo sull’aspetto del publish-or-perish che ci porterebbe troppo lontano, editori che si fanno pagare non da chi compra le loro riviste ma da chi ci scrive sopra (su una delle riviste usate da Seneff, Entropy gli articoli costano un migliaio di euro l’uno) è il cosiddetto open-access, che a volte diventa una sorta di pay-per-publish, pagare per farsi pubblicare, invece che una lotta al controllo delle multinazionali dell’editoria, e questa è l’editoria predona; il controllo dei referees anonimi si fa inattivo, spesso la rivista chiede all’autore di indicare lui dei referees “anonimi” (sic!) e chi ti vieta di indicare gli amici? Infine succede anche che chi legge citi superficialmente; in questo momento , proprio in questi giorni mentre vi scrivo mi è stata approvata una review sul mio tema di ricerca, la bagnabilità in cui ho criticato pesantemente alcuni degli articoli più citati anche sulle riviste ad alto fattore di impatto a causa di errori “pacchiani”; e devo dire che la cosa che mi ha fatto felice è che i tre referees (effettivamente anonimi) mi hanno tutti scritto: ci voleva proprio, bravo; si vede che la situazione è arrivata ad un estremo, vi assicuro che non sono stato tenero, ho trovato errori anche su Science. Ma questo è il bello della scienza: sono i fatti a contare alla lunga; finora almeno è andata così; il metodo tiene ancora NONOSTANTE il mercato.

Ora il bassissimo numero di citazioni degli articoli della Seneff qualunque sia il database di riferimento che usiamo da parte di chi pubblica nel medesimo settore deve essere parte integrante del metodo di valutazione dei suoi articoli; se la comunità che si occupa del medesimo argomento non la cita vuol dire che quel che dice non ha molto senso; non la critica neppure badate o almeno non ci spreca articoli, ma post scritti da colleghi contro di lei si sprecano; è anche interessante notare che su ISI per esempio dei 14 che citano il suo articolo su Entropy (il primo) solo due sono a loro volta citati da altri; in pratica la gran parte di chi la cita (12 su 14) è ai margini del suo medesimo settore di lavoro. Questo completa la valutazione della comunità di riferimento.

Adesso entriamo nel merito dei quattro articoli.

Una informazione che è utile: cosa è la celiachia? Non c’è una risposta semplice, trovate varie informazioni qui:

http://www.salute.gov.it/imgs/C_17_pubblicazioni_2103_allegato.pdf

http://www.eufic.org/article/it/artid/celiachia-intolleranza-glutine/

Si tratta di una intolleranza alimentare alle proteine del glutine probabilmente su base autoimmune; nel celiaco il glutine contenuto nel cibo causa un danno alla membrana dell’intestino che a sua volta impedisce al cibo di essere digerito ed assorbito dal corpo in modo corretto. Il risultato è essenzialmente uno stato di malnutrizione cronica; il glutine è un complesso proteico contenuto in: grano tenero, grano duro, farro, segale, orzo e altri cereali minori. Lo si trova in pane, pasta, biscotti, pizza e in ogni altro prodotto derivato da tali cereali. La celiachia è una condizione con una forte componente ereditaria, infatti la concordanza tra gemelli veri (cioè dotati di identico patrimonio genetico) è di molto superiore rispetto all’attesa nella popolazione generale. Con crescente evidenza si tratterebbe di una patologia autoimmune, basata su una base genetica e scatenata dall’alimentazione.

glifo31

La sua importanza nella popolazione mondiale (che si chiama prevalenza) e in specie europea stimata inferiore all’1%. Si stima che la sua prevalenza sia aumentata negli ultimi 50 anni di varie volte (dallo 0.2% allo 0.8%, ma non se ne conoscono le ragioni (http://www.ncbi.nlm.nih.gov/pubmed/19362553).

Veniamo all’effettivo contenuto degli articoli

Blondet:

Sono almeno 12 mila anni che l’umanità mediterranea si nutre di frumento,  senza problemi. E di colpo, ecco sorgere la “intolleranza al glutine”, con relativo ipersviluppo degli affari relativi a questa “malattia”: paste senza glutine a 5 volte il prezzo   delle normali, prodotti bio dove l’etichetta dichiara “senza glutine”, cibi spesso a carico del servizio sanitario nazionale… Il glutine è un veleno? Si deve sospettare del grano geneticamente modificato? Per una volta no. Anche se c’entra il Roundup, il diserbante della Monsanto, specifiamente concepito dalla multinazionale per essere usato in abbondanza coi suoi semi geneticamente modificati (modificati appunto per resistere al diserbante, che uccide tutte le erbacce) . Come ha scoperto la dottoressa Stephanie Seneff, ricercatrice senior al Massachusetts Institute of Technology (MIT), da una quindicina d’anni gli agricoltori americani, nelle loro vastissime estensioni, hanno preso l’abitudine di irrorarle di Roundup immediatamente prima della mietitura.”

Questa è la parte iniziale dell’articolo che esprime una serie di come dire “profonde inesattezze”?

Non è vero che l’umanità si nutre di frumento senza problemi, né che l’intolleranza al glutine sia sorta di colpo; un disturbo con tutti i sintomi dell’intolleranza in senso lato è stato riportato fin dal 1 secolo dC da Areteo di Cappadocia, 2000 anni fa;

glifo32

che nel suo “Corpus Medicorum Graecorum II “ parlava di “diatesi celiaca” descrivendo pazienti con pallore, perdita di peso e diarrea cronica, ossia alterazione intestinale. La definizione ufficiale risale al 1888. In quel periodo Samuel Gee, medico del S. Bartholomew’s Hospital di Londra, fu il primo a descriverne magistralmente il quadro della forma tipica. Ma il merito principale di Gee è stato quello di aver intuito che la causa della malattia celiaca andava ricercata in un alimento, anche se non era riuscito ad identificare quello responsabile. Un forte interesse per la Celiachia riprese quando nel 1945 il pediatra dell’Ospedale di Utrecht Willem-Karel Dicke scoprì una forte riduzione della malattia in Olanda durante la seconda guerra mondiale legata al ridotto utilizzo di cereali.

Dopo di ciò affermare che la intolleranza al glutine o celiachia nelle sue varie forme sia sorta “di colpo” appare una pura invenzione.

L’altro aspetto citato da Blondet è l’uso del glifosato come essicante del grano che sarebbe fatto in Canada ma non da noi ma noi compreremmo quel grano canadese; ora questo modo di usare il glufosato è stato effettivamente sviluppato in USA e Canada ma purtroppo per tutte le altre fantasiose complottiste ipotesi del Blondet dal 2012 anche in Italia è ahimè possibile fare la medesima cosa. Non so come mai questo fatto che io personalmente considero una cosa alquanto grave, un uso del tutto inutile del glifosato sia stato permesso anche in Italia nonostante le proteste di alcuni dei nostri produttori di grano, probabilmente per favorire la concorrenza di altri produttori italiani; ovviamente si tratta di interessi contrapposti, ma di fatto ormai dal 2012 questo argomento del grano canadese “al glifosato”, (che è una parte sia pur ridotta delle recenti importazioni di grano in Italia, l’Italia importa poco meno della metà del grano che usa e le importazioni canadesi sono cresciute solo molto di recente) usato invece del nostro che sarebbe indenne non ha ragion d’essere dato che la medesima cosa si può fare anche in Italia; lo sapeva il Blondet? Lo sa la senatrice?

glifo33

Dal 19/11/2012 con regolamento Ministeriale n.14737, il prodotto commerciale Roundup Platinum della Monsanto Crop Protection (il più concentrato in glifosate p.a. 480g/l) è stato autorizzato dal Ministero della Salute per il trattamento pre-raccolta su grano ed orzo.

In realtà la preraccolta serve ad altro, serve a “seccare” le piante come racconta Blondet, ma come vedete si può fare benissimo anche da noi fin dal 2012; dopodichè che senso ha il racconto complottista di Blondet?

Veniamo alla ipotesi del collegamento fra celiachia e glifosato legata al numero di casi ed all’uso; Blondet usa il grafico che compare nel secondo dei lavori che ho elencato e che la medesima senatrice Fattori cita sul proprio sito FB come articolo con “dati scientifici”.

La correlazione non è provata da un meccanismo dettagliato testato in laboratorio e controprovato ma da una ricerca puramente numerica come può fare una ricercatrice di informatica come la Seneff. Fra l’altro notate che i dati usati dalla Seneff nel grafico che viene qua sotto sono di un’altra ricercatrice (la Swanson) che ci ha pubblicato un lavoro successivo del tutto numerico tentando di trovare molte altre correlazioni e riuscendoci.

glifo34

Questo grafico (come gli altri che trovate nei lavori della Seneff e della Swanson) è un ottimo esempio di ciò che viene indicato come “correlazione spuria”, un tema su cui sono stati scritti libri (http://www.tylervigen.com/spurious-correlations, che è anche un sito dove potete provare a correlare praticamente qualunque cosa) e c’è perfino un giornale a riguardo: http://www.jspurc.org/.

Guardate con attenzione:

-prima di tutto non si è in grado di recuperare i dati da una sorgente chiara;

-in secondo luogo ci dovrebbe essere una medesima zona da cui vengono i cittadini malati che vanno all’ospedale e in cui venga usato il glifosato ma non è così o comunque non si sa;

-i dati di una grandezza e dell’altra sono assoluti non sono riferiti al numero di ettari coltivati o alla percentuale di popolazione;

-si cerca una correlazione senza ritardo, come se l’effetto della causa, il glifosato, fosse immediato, senza alcun ritardo, mentre la malattia celiaca si manifesta lentamente dopo anni di esposizione

-e infine notate che mentre una delle grandezze parte da zero , il glifosato, l’altra NO, il numero di casi, proprio perchè la celiachia esisteva ben prima dell’uso del glifosato; se si vuole riconoscere questo considerando effettivamente l’incidenza della celiachia dovuta a glifosato (ossia il numero di NUOVI casi di celiachia dovuti supponiamo ad esso che prende il nome di incidenza) occorrerebbe anche sapere come sono variate le ALTRE cause, quelle che provocavano la celiachia PRIMA del glifosato. Insomma trucchi da prestidigitatore dei dati!

Non si possono trovare “correlazioni” significative se non si hanno i meccanismi; è possibile se no “provare” qualunque cosa; per esempio che l’autismo dipenda dal consumo di agricoltura biologica:

glifo35

e cose del genere. Sarebbe sciocchezzzaio puro.

L’articolo due della serie di Seneff, considerato dalla Fattori “dati scientifici” sul proprio blog è basato TUTTO su questo tipo di ragionamento: correlazioni numeriche priva di causazione, ossia tecnicamente correlazioni spurie.

http://www.tylervigen.com/spurious-correlations

Ma non basta ci sono altre “imprecisioni”:

1) “Celiac disease, and, more generally, gluten intolerance, is a growing problem worldwide, but especially in North America a Europe, where an estimated 5% of the population now suffers from it.”

Falso come detto prima la letteratura riporta valori di PREVALENZA dell’ordine dell’1% o meno.

2) “Glyphosate is known to inhibit cytochrome P450 enzymes.” Falso; Questo è vero solo nelle piante ma non nei mammiferi

McLaughlin LA et al. Functional Expression and Comparative Characterization of Nine Murine Cytochromes P450 by Fluorescent Inhibition Screening. DRUG METABOLISM AND DISPOSITION (2008) Vol. 36, No. 7 1322-1331.

3) “Deficiencies in iron, cobalt, molybdenum, copper and other rare metals associated with celiac disease can be attributed glyphosate’s strong ability to chelate these elements.” Che il glifosato sia un chelante non ci sono dubbi ma che questo comporti un effetto nelle condizioni effettive del tratto digestivo umano non è stato provato finora. Mera ipotesi della Seneff non provata.

Si potrebbe continuare ma sinceramente non ho nè tempo nè voglia di perderci energie.

Ma come fa una rivista a pubblicare cose così? Vorrei aggiungere qualcosa sulla rivista su cui è stato pubblicato: Interdisciplinary toxicology; si tratta di una rivista Open Access fatta così: l’editor e buona parte dell’editorial board sono slovacchi (e fin qui nulla di male, anche se si ritiene in genere che l’internazionalità ampia e ben rappresentata sia una garanzia di indipendenza di giudizio) e una frazione consistente è fatto da persone del medesimo istituto e della medesima associazione scientifica; una parte consistente delle loro pubblicazioni sono pubblicate sulla medesima rivista; insomma si tratta di una rivista che se fosse pubblicata in Italia sarebbe guardata con sospetto: la rivista di “quel gruppo là”, non una rivista scientifica internazionale; questa rivista è sulla lista costruita da un bibliotecario, Jeffrey Beall, dell’Università di Denver che cerca di commentare la qualità delle riviste Open Access (http://scholarlyoa.com/about/): questa è fra le peggiori.

(continua)

Recupero del fosforo da acque reflue e allevamenti

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Il tema della scarsità di fosforo o per meglio dire la fine del fosforo “facile” in termini di estrazione, è stato molto ben spiegato nei due articoli scritti da Claudio Della Volpe su questo blog e pubblicati nel Novembre 2014 (qui e qui). Il fosforo ha un picco del tutto paragonabile al più famoso e conosciuto picco del petrolio. Oltre a questo l’estrazione da giacimenti di sempre minore qualità ha fatto si che si verificasse un problema di contaminazione del minerale di fosforo con metalli dalla comprovata tossicità quali il cadmio.

Per il recupero del fosforo si sta rivolgendo l’attenzione alle acque reflue e ai residui degli allevamenti zootecnici.

Nel 1996 un’indagine condotta da Federgasacqua stimò che la concentrazione media di fosforo presente nelle acque reflue in ingresso agli impianti di depurazione in Italia fosse pari a 5,7 mg/lt. Questo dato fu ricavato prendendo in esame 85 impianti di depurazione presenti sul territorio italiano che trattavano reflui di tipo civile.

In realtà dopo la riformulazione dei detergenti per ridurne la quantità di fosforo il valore più attendibile si ridusse a valori che oscillano tra 1,7 e 2,9 mg/lt. Questo dato si ottenne considerando l’apporto giornaliero per abitante equivalente/giorno di fosforo pari a 1-1,4 g e fissando un valore di circa 350 lt/abitante equivalente di acqua scaricata in fognatura.

Un modo di recuperare fosforo da acque reflue e destinarlo al possibie riuso agricolo è quello di precipitarlo come struvite. Il processo è stato usato per abbattere l’azoto ammoniacale in particolare in reflui che ne contenessero concentrazioni elevate, per esempio il percolato di discarica. Il processo chimico produce un composto cristallino, costituito da ioni Magnesio, Ammonio e Fosfato (da qui l’acronimo MAP), che può essere utilizzato come fertilizzante fosfatico e/o azotato a lento rilascio. Questo trattamento chimico fisico ha mostrato però una maggior efficacia in termini di abbattimento del fosforo rispetto all’azoto (per il fosforo i rendimenti di abbattimento sono dell’ 80-90% per l’azoto spesso le condizioni operative reali raggiungono valori di abbattimento del 50-60%).

struvite1

La struvite è un fosfato esaidrato di ammonio e fosforo. (NH4MgPO4·6H2O).Magnesio, ammonio e fosforo sono presenti nella composizione della struvite in eguali concentrazioni molari. La cristallizzazione avviene secondo la seguente reazione :

Mg2+ + NH4+ +H2PO4+6H2O —à MgNH4PO4 .6H2O + 2H+

Negli impianti di depurazione biologica la struvite spesso cristallizza spontaneamente formando incrostazioni in areatori e scambiatori di calore.

La scarsa solubilità dei cristalli di questo prodotto è la caratteristica che lo rende un prodotto ad azione prolungata nel tempo se utilizzato come concime.

Nel settore del trattamento acque si stanno effettuando ricerche volte ad ottimizzare la precipitazione della struvite dal surnatante proveniente dalla sezione di digestione anaerobica, evitando così l’accumulo di fosforo nella sezione di sedimentazione primaria dove vengono di solito convogliati i flussi di acque di processo provenienti dal trattamento dei fanghi.

struvite2

In Olanda l’universita di Wageningen avviò un esteso programma di ricerca sul recupero del fosforo dagli effluenti che venne presentato nel novembre del 2010 al workshop internazionale sulla gestione dei reflui zootecnici.

In Danimarca la società municipale Aarhus Water Ltd ha installato un reattore separato nel proprio impianto nel quale vengono trattate le acque reflue e recuperata la struvite. In questo modo Il processo di precipitazione raffina il fosforo, eliminando i metalli pesanti e le sostanze nocive per l’ambiente. E’ il caso di dire che si sono presi i classici due piccioni con una fava: si è recuperato fosforo che si doveva comunque abbattere dall’acqua reflua e si sono quasi del tutto eliminati i problemi di sporcamento delle apparecchiature della linea fanghi. La stessa tecnologia è stata poi impiegata nell’impianto di recupero del fosforo progettato e costruito appositamente a questo scopo e inaugurato nel novembre 2013.

struvite3

Ida Auken, ex-Ministro per l’Ambiente danese, inaugura l’impianto di recupero di fosforo ad Aarhus, in Danimarca, nel Novembre del 2013

https://www.grundfos.com/about-us/news-and-press/news/-new-project-extracts-phosphorus-from-waste-water.html

La tecnologia di recupero di azoto e fosforo come struvite esiste dagli anni 80 ma ha avuto scarsa diffusione. L’aumento del prezzo del fosforo sul mercato e l’orientamento generale volto ad ottimizzare l’efficienza energetica ed il riutilizzo dei nutrienti ,hanno reso possibile e commercialmente conveniente la costruzione di questo tipo di impianti.

L’unione europea ha dato il via ad un altro progetto di recupero denominato PHOSFARM che prevede di recuperare da residui quali letame o digestato ( residuo del processo di digestione anaerobica) il fosforo sia organico che inorganico. La prima parte del processo utilizza l’enzima fosfatasi per digerire le molecole organiche dove i composti organici del fosforo sono presenti principalmente nella fase solida, o in quella particolata nel caso di acque reflue. La parte successiva del processo prevede la precipitazione del fosforo inorganico dalle frazioni liquide del digestato o dai reflui provenienti dalle acque di lavaggio delle stalle. La fase successiva prevede la miscelazione dei due tipi di ammendanti per ottenere miscele adatte a diversi tipi di piante o a particolari esigenze colturali.

E’ ormai sempre più evidente come la” materia seconda” stia diventando sempre più ricercata e su di essa si concentrino gli sforzi dei ricercatori, ma non solo. Anche di molte aziende operanti nel settore del trattamento rifiuti e di quello delle acque. Soprattutto le più avvedute. Perché la materia prima sta diventando ormai rara e costosa. Depuratori e discariche sono destinati a diventare le nuove fabbriche del futuro.

http://ec.europa.eu/environment/water/workshop_manure.html

http://cordis.europa.eu/result/rcn/165129_it.html

Periodic Report Summary 1 – PHOSFARM (Process for sustainable phosphorus recovery from agricultural residues by enzymatic process to enable a service business for the benefit of European farm community)

La flibanserina e le donne.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Ieri 18 agosto, dopo una battaglia durata 6 anni, la FDA ha approvato la flibanserina (Addyi o Girosa, Sprout Pharmaceuticals) come farmaco per “curare” la riduzione del desiderio sessuale nelle donne in premenopausa.

iga_anziani

Cosa è la menopausa? Dal greco la parola vuol dire letteralmente fine del “mese” ovvero del ciclo mensile che segna, nel corso della vita fertile, il fatto che centinaia e centinaia di ovociti, sotto la stimolazione dell’ormone iposifario follicolo-stimolante, inizino il loro percorso di sviluppo verso l’ovulazione; di tutti solo uno riuscirà ad arrivare a maturazione completa per essere fecondato. Ogni mese c’è quindi una vera e propria “distruzione di massa” degli ovociti che provoca il progressivo impoverimento della riserva ovarica di circa 1 – 2 milioni di ovociti, che ogni donna possiede; dopo i 45 anni il numero diventa piccolo e l’ovulazione diventa irregolare; la diminuzione dei cicli ovulatori provoca il calo degli ormoni ovarici (la premenopausa), ed infine la menopausa, perchè le ovaie non hanno più ovociti. Non si conosce la motivazione dell’esistenza della menopausa o se volete della scarsa consistenza del deposito ovarico. Probabilmente la menopausa è il risultato selettivo del fatto che la nascita è un evento troppo pericoloso per le donne al di sopra di una certa età, con conseguenze potenzialmente molto serie per la madre, ma una risposta completa non c’è.

La menopausa arriva dopo i 45-50 anni; attualmente in Italia in media le donne vanno in menopausa a 51 anni; è interessante notare che dunque per centinaia di mila anni le donne NON sono arrivate in menopausa; in Italia attualmente l’aspettativa media di vita per le donne alla nascita è di 85 anni, ma alla fine del 1800 nel nord d’Italia molte donne non raggiungevano l’età dei 40-45 anni, perché a quei tempi l’aspettativa di vita era solo di 43 anni

Dalla fine del secolo è salita molto rapidamente e già verso il 1940 era pari a 56 anni.

Nel 2015 l’ aspettativa di vita in Italia è di 80 anni per gli uomini e di 85 per le donne; oggi dunque tutte le donne vanno in menopausa nel nostro paese.

In altri paesi le cose sono diverse; per esempio in Africa la vita media è di 52 anni in Congo e valori analoghi si trovano in altri paesi di quel continente.

Insomma la menopausa non ha fatto parte della vita femminile (almeno per la massa delle donne) per quasi tutta la storia dell’umanità e ancora oggi non fa parte della vita di miliardi di donne.

Per loro sarebbe più importante controllare la fertilità nel senso di evitare per esempio le gravidanze indesiderate che vengono stimate ad almeno 80 milioni l’anno, e delle quali solo la metà finisce in un aborto.

Nei ricchi paesi occidentali l’allungamento della vita media ha comportato problemi legati alla potenza sessuale nei maschi e l’esistenza della menopausa nella donne.

Questo ha fornito la motivazione alla ricerca e alla scoperta di farmaci dedicati a questi aspetti, considerati dei “disturbi”; probabilmente la questione è solo che l’evoluzione non ha avuto modo di lavorarci.

Per i maschi la soluzione è stata una classe di molecole (sildenafil, tadalafil e vardenafil) che facilità il permanere del sangue nell’organo sessuale maschile inibendo la PDE5, un enzima, ossia una fosfodiesterasi specifica che promuove la degradazione del cGMP, che regola il flusso di sangue nel pene.

Per le donne in premenopausa o menopausa la cosa è più complicata, non basta una azione tutto sommato meccanica come negli uomini. Le donne si sa sono diverse dai maschi.

Il desiderio sessuale è regolato dall’azione di varie sostanze e zone del cervello; la molecola approvata dall’FDA agisce proprio su questo aspetto non-meccanico, ma in un certo senso psicologico, variando il bilancio fra inibizione e stimolo fra I vari enzimi, e in definitiva incrementando “modestamente” il numero di eventi che terminano in un atto sessuale soddisfacente. La flibanserina è un agonista del recettore 5-HT1A, un agonista/antagonista molto debole del recettore D4 ed un antagonista del recettore 5-HT2A . (Ma ridurre l’amore a questo si può?)

Flibanserin.svg

1-(2-{4-[3-(Trifluoromethyl)phenyl]piperazin-1-yl}ethyl)-1,3-dihydro-2H-benzimidazol-2-one

Sulla efficacia della molecola di flibanserina che è da prendere tutti i giorni, e che, come abbiamo detto, non è proprio l’equivalente del Viagra per l’uomo, c’è stata una dura polemica che è appunto durata 6 anni; la ditta che aveva provato per prima a far approvare il farmaco, la Boehringer Ingelheim trasferì i diritti nel 2010 alla Sprout Pharmaceuticals che ci è riuscita.

Trovate tutta la storia qui(http://www.fda.gov/downloads/AdvisoryCommittees/CommitteesMeetingMaterials/Drugs/DrugSafetyandRiskManagementAdvisoryCommittee/UCM449088.pdf) ed anche un interessante commento qui (http://www.forbes.com/sites/davidkroll/2015/06/14/the-true-significance-of-flibanserins-modest-boost-to-female-sexual-desire/print/).

Misurare il desiderio e quantificarne il risultato non è semplice e gli effetti collaterali dei farmaci esistono sempre; alla fine il numero di eventi favorevoli stimolati dalla flibanserina raddoppiano rispetto al gruppo di controllo, ma anche il gruppo di controllo ha spontaneamente incrementato i propri eventi “favorevoli” (scusate il gioco di parole, ma ……potenza del placebo!!) e quindi alla fine il vantaggio della flibanserina è di solo un evento al mese in più su 5; vedete voi se ne vale davvero la pena per le donne.

Ne varrà quasi certamente la pena per Sprout; la Sprout ha organizzato e finanziato un gruppo di lobbying, che come sapete è lecito negli USA, chiamato  Even the Score per fare pressione sulla FDA per approvare la flibanserina. Il gruppo ha enfatizzato che mentre per gli uomini esisteva un farmaco per trattare la difsunzione sessuale, non esisteva un farmaco per le donne.

Mio modestissimo parere, probabilmente sbagliato: Il dato di fatto è che le compagnie che hanno abbastanza fondi per fare pressione sulla FDA riescono ad approvare i loro farmaci anche se inizialmente trovano resistenza, che i farmaci servano o meno.

Per approfondire:

https://en.wikipedia.org/wiki/Flibanserin

http://www.fda.gov/downloads/AdvisoryCommittees/CommitteesMeetingMaterials/Drugs/DrugSafetyandRiskManagementAdvisoryCommittee/UCM449088.pdf

http://www.forbes.com/sites/davidkroll/2015/06/14/the-true-significance-of-flibanserins-modest-boost-to-female-sexual-desire/print/

Ancora sul glifosato.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Con poco meno di un milione di tonnellate all’anno di prodotto il glifosato è il più importante erbicida mondiale e quindi è giusto che ne discutiamo; in effetti ne abbiamo già parlato in un precedente post di pochi mesi fa , nel marzo 2015, quando lo IARC o meglio una commissione internazionale dello IARC, che è il braccio armato della OMS, l’organizzazione mondiale della sanità, nella lotta al cancro (quindi non è un ente operativo, ma solo un ente scientifico) ha prodotto una valutazione, una “metaanalisi”, una sorta di review di tutti i lavori scientifici privi di conflitto di interesse (in cui per esempio non figura la Monsanto, che il glifosato lo produce, come ente finanziatore) riguardanti non solo il glifosato ma anche altri prodotti usati in agricoltura, ed i risultati sono stati pubblicati sull’influente The Lancet (oncology) (http://dx.doi.org/10.1016/S1470-2045(15)70134-8) assegnando al glifosato la categoria 2A. In effetti la commissione analizzò 5 sostanze, due pesticidi— tetraclorvinfos e parathion — sono stati classificati come “possibly carcinogenic to humans”, categoria 2B. Gli altri 3 — malathion, diazinon e glifosato — sono stati valutati “probably carcinogenic to humans”, ossia categoria 2A, riservata alle sostanze con limitata evidenza di cancerogenicità per l’uomo e sufficiente evidenza per gli animali. (guardate il post precedente per I dettagli).

Ricordiamo che la sua molecola

glyphobis2

è quella di un derivato dell’amminoacido glicina, la N-(fosfonometil)glicina, C3H8NO5P, un analogo aminofosforico della glicina.

Ovviamente la cosa ha prodotto scandalo e reazioni in tutto il mondo; tenete presente che il grosso del glifosato è venduto insieme a semi OGM ossia con piante geneticamente modificate attraverso gli specifici metodi “non-naturali” ossia non presenti in natura ma realizzati dall’uomo, che ricadono nella definizione di Ogm come data dall’UE (Direttiva 2001/18/CE). (Qui in effetti occorre precisare che in almeno un caso (la patata dolce) è stato provato che piante comuni hanno subito in natura lo stesso procedimento di “infezione” da parte del medesimo batterio Agrobacterium usato da noi,si veda http://www.pnas.org/content/112/18/5844.abstract )

Cosa è successo di nuovo?

Sul problema specifico poco di più; il 15 luglio scorso il professor Christopher Portier, uno dei coautori dello studio di marzo dello IARC, partecipando a Londra ad un congresso organizzato dalla Soil Association, che si batte per una agricoltura “biologica”, ha dichiarato: “Glyphosate is definitely genotoxic. There is nothing else in my mind.

Ovviamente si tratta di una dichiarazione privata; non è una prova scientifica.

La Germania si è dichiarata a favore di un bando in Europa, l’autorità Danese per l’ambiente di lavoro lo ha dichiarato cancerogeno, El Salvador, e lo Sri Lanka lo hanno messo al bando e il governo colombiano ha proibito di spruzzarlo nelle piantagioni di coca.

I problema è che nei paesi dove si usa il glifosato esso si ritrova comunemente nel sangue e nelle urine delle persone e perciò se è effettivamente genotossico e potenzialmente carcinogeno non sembra molto saggio continuare ad usarlo; questo d’altra parte scardinerebbe un sistema produttivo basato su di esso (cosa che ci riguarda tutti) ed azzererebbe i profitti della Monsanto.

Ma ci sono altre prove che sono state nel frattempo pubblicate, seppur di tipo diverso e che gettano nuova luce sulle proprietà del glifosato.

Negli Scientific reports di Nature, liberamente accessibili al pubblico è stato pubblicato uno studio sugli effetti del glifosato sul suolo: Scientific RepoRts | 5:12886 | DOi: 10.1038/srep12886, a firma di 4 specialisti austriaci.

Glyphosate-based herbicides reduce the activity and reproduction of earthworms and lead to increased soil nutrient concentrations (http://www.nature.com/articles/srep12886)

Cosa dice questo lavoro?

Le principali conclusioni sono che:

“…the surface casting activity of vertically burrowing earthworms (Lumbricus terrestris) almost ceased three weeks after herbicide application, while the activity of soil dwelling earthworms (Aporrectodea caliginosa) was not affected. Reproduction of the soil dwellers was reduced by 56% within three months after herbicide application. Herbicide application led to increased soil concentrations of nitrate by 1592% and phosphate by 127%, pointing to potential risks for nutrient leaching into streams, lakes, or groundwater aquifers.”

gliphobis

In pratica i 4 ricercatori austriaci hanno confrontato l’effetto del glifosato su due sezioni di terreno in cui erano compresi organismi comuni nel suolo, tipologie di vermi che ne costituiscono l’ossatura organica e che attraverso la loro attività lo rendono una struttura viva e non semplicemente un supporto inorganico; queste tipologie di organismi sono fortemente danneggiati dall’uso dell’erbicida e una delle conseguenze è che alcuni componenti inorganici con ruolo di concime si perdono. Finora test del genere non erano stati condotti oppure erano stati condotti su organismi della medesima specie ma non comunemente ritrovati nel terreno.

Dato l’ampio uso del glifosato se ne può dedurre che esso danneggia o può danneggiare la componente organica del suolo.

Se queste conclusioni verranno confermate, si tratta di una ulteriore mattonella, che viene meno nell’uso del glifosato e che dovrebbe indurre a applicare una maggiore precauzione nell’uso così esteso di singole molecole, che se da una parte appaiono preziose per la produzione agricola come è concepita attualmente e per i profitti di alcune corporations chimiche dall’altra mostrano la corda ed usate in enormi quantità possono causare più danni che benefici sul lungo periodo.

Il suolo è un sistema complesso ed il cibo ne dipende sia in quantità che in qualità; la sua salubrità deve essere preservata attraverso un ripensamento dell’agricoltura che abbiamo sviluppato finora; la rivoluzione verde non è così verde come ci si aspettava.

Un ripensamento sull’uso del glifosato avrebbe anche effetti sull’uso degli organismi OGM ai quali il glifosato è attualmente molto legato.

Quanta chimica c’è nelle bombe atomiche? (2)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di C. Della Volpe

 Nella prima parte di questo post (https://ilblogdellasci.wordpress.com/2015/08/07/quanta-chimica-ce-nelle-bombe-atomiche-1-parte/) abbiamo brevemente illustrato alcune caratteristiche delle bombe atomiche del cui primo uso bellico è caduto il 70 anniversario pochi giorni fa. E ci siamo chiesti quale ruolo avesse avuto la chimica nello sviluppo e quale abbia ancora nella costruzione delle bombe atomiche di cui ahimè abbiamo fatto esplodere alcune migliaia di esemplari “per motivi sperimentali” e di cui conserviamo ancora decine di migliaia di esemplari ancora adesso, capaci di distruggere la nostra specie e anche buona parte del nostro ambiente.

Come se non bastassero gli effetti nefasti sul clima dell’uso dei combustibili fossili o le alterazioni dei cicli degli elementi legate alla moderna agricoltura ed entrambe a loro volta legate alla sovrappopolazione e all’uso incontrollato delle risorse, alla crescita continua della produzione, l’uso di armi di distruzione di massa rimane come un macigno sulla nostra testa. Oggi se ne parla meno di qualche anno fa a causa del fatto che la cosiddetta “guerra fredda” è sospesa; ma in compenso una serie di conflitti per le risorse, sia pur limitati, MA terribilmente caldi e condotti con spargimento di sangue e senza risparmio da varie parti nel mondo continuano indefessamente; la guerra sembra dunque l’unica attività umana che non è stata mai interrotta.

Siamo una razza di distruttori, o almeno questo sembreremmo ad un osservatore esterno, ad un osservatore galattico; quasi una malattia del pianeta, un virus planetario degno di essere eliminato per lasciare la Terra continuare nel suo tragitto per altri miliardi di anni senza godere dei “benefici” effetti della nostra presenza; a cosa possono servire e dove possono arrivare scimmie senza pelo, in grado di costruire strumenti extracorporei ma specializzate di fatto in quelli più micidiali? Possibile che il frutto dell’osannata intelligenza umana sia l’autodistruzione di massa? Strana genia! Un vero capriccio dell’evoluzione! Apparentemente solo una stupida razza di imbecilli creativi, la cui efficace corteccia può generare casualmente di tutto: dal David e dalle poesie di Keats alle bombe a fusione. Da una parte questo sembrerebbe una applicazione della dialettica hegeliana: l’intelligenza può creare la vita e la bellezza, ma anche la morte e il terrore: ma come si supera questa dicotomia?

Se non riusciremo a controllare la tendenza all’autodistruzione, allora lo spirito della vita e dell’evoluzione troverà modo di esercitarsi altrimenti, sia pur dopo di noi, sostituendo la corteccia di cui andiamo tanto fieri e tronfi, sostituendo la nostra intelligenza così esaltata e trionfalizzata, con qualcosa di meno distruttivo. Se l’autodistruzione ne è la conseguenza principale, l’intelligenza come la definiamo non può essere così utile: l’intelligenza potrebbe essere solo un vicolo cieco dell’evoluzione e allora l’idea spiraleggiante di Hegel, l’evolution creatrice di Bergson e perfino la trionfante e rivoluzionaria materia marxista sarebbero senza scopo.

Ma bando alle ciance! Esaminiamo lucidamente lo strumento di autodistruzione.

Una comune bomba atomica, del tipo usato nella 2 guerra mondiale, usa il processo di fissione per rilasciare l’energia di legame di certi nuclei meno stabili. I nuclei iniziali, grandi nuclei uranici o transuranici instabili, contengono più energia per nucleone di quelli finali, di medie dimensioni; i nuclei che si trovano nella zona centrale della tavola periodica sono quelli a più bassa energia per nucleone; il ferro per esempio, in cui l’Universo intero si potrebbe trasformare alla fine della sua parabola.

Il rilascio dell’energia è rapido e, a causa della enorme quantità di energia imagazzinata, violento. I principali materiali usato nelle armi a fissione sono 235U e 239Pu, che vengono chiamati materiali fissili perché possono spezzarsi in due frammenti di massa grosso modo uguale quando urtati da un neutrone di energia anche bassa. Quando una massa sufficientemente grande di uno di questi materiali viene messa insieme, si genera una reazione autosostenuta, una reazione a catena dopo il primo evento di fissione. La quantità minima di materiale fissile che può sostenere una reazione nucleare a catena è chiamata massa critica e dipende dalla densità, forma e dal tipo di materiale fissile come anche dalla capacità dei materiali che lo circondano (chiamati riflettori o tappi) di riflettere i neutroni indietro verso la massa che si fissiona.

Masse critiche di geometria sferica per materiali adatti a costruire armi.

.                                              235U                   239Pu

Sfera nuda:                          56 kg                    11 kg

Con tappo spesso:               15 kg                     5 kg

La massa critica del materiale fissile compresso diminuisce con l’inverso del quadrato della densità raggiunta. Dato che la massa critica diminuisce rapidamente al crescere della densità le tecniche di tipo implosivo possono essere realizzate con molto meno materiale nucleare di altri metodi come quello del “cannone”, usato nella bomba di Hiroshima. La bomba di Hiroshima fu assemblata col metodo del cannone ed usava 235U, 64 kg di uranio arricchito all’80%. Questo metodo è considerato il più semplice e sicuro per costruire una bomba nucleare, così sicuro che non venne testato, ma usato direttamente.

bombe21

La bomba che distrusse Nagasaki era invece costituita col metodo dell’implosione ed usava solo 6.2 chilogrammi di plutonio.

bombe22

Avvolgere la parte fissile con un riflettore di neutroni (fatto in genere di nuclei leggeri perchè se ricordate la teoria degli urti dalla meccanica elementare urti elastici con particelle di analoga massa sono in grado di riflettere le particelle urtanti esattamente all’indietro) può ridurre enormemente la massa critica. La riflessione neutronica, la compressione per via implosiva della parte fissile, l’uso di materiali leggeri nei quali i neutroni possono scatenare una reazione di fusione (booster a fusione) e i tappi che rallentano l’espansione della parte fissile consentono di ridurre la massa di materiale fissile necessaria. Fino al 1994 il Dipartimento dell’Energia (DOE) stimava che 8 kilogrammi di materiale fissile fossero necessari, ma ha poi ridotto questa stima a 4 e alcuni scienziati pensano che sia possibile usarne uno solo. E ovviamente solo una frazione piccola della massa partecipa poi effettivamente alla reazione.

La bomba termonucleare che rappresenta invece la più sofisticata forma di arma di distruzione di massa pensata dalla genialità della corteccia umana è costituita in due stadi; il primo stadio è una bomba a fissione al plutonio con un booster a fusione al trizio. Il secondo stadio è invece costituito da deuteruro di Litio, un idruro in cui l’idrogeno è sostituito da deuterio, così si usa un materiale solido e maneggevole invece di uno sfuggente gas di deuterio o trizio.

Il primario a fissione fatto come descritto è messo attorno ad un secondario a fusione che a sua volta contiene un altro core a fissione. Mentre la esplosione del primario comprime lo strato di fusione dall’esterno la parte centrale del secondario costituita da una zona di fissione esplode a sua volta iniziando la fusione anche all’interno. Infine uno strato di uranio che circonda il tutto inizia a sua volta la fissione a causa dell’intenso flusso di neutroni proveniente dall’interno; modificando le masse dei vari materiali si possono ottenere potenze di decine di Megatoni, ossia migliaia o perfino decine di migliaia di volte la potenza di Hiroshima (la più grande bomba mai esplosa era di 59 megatoni, quella di Hiroshima 15-20kilotoni, un guadagno(?!) di 4000 volte).

La domanda è: ma secondo voi le menti raffinate che hanno pensato queste genialità potrebbero applicare la loro creatività ad altro? E come mai lo hanno fatto alla autodistruzione? Oppure semplicemente è statistico che una parte della creatività umana, della corteccia che l’evoluzione ci ha regalato sia dedicata al David e alla poesia e un’altra all’autodistruzione? E come si fa a tenere a freno questa seconda? Si dice che Oppenheimer, il capo del progetto Manhattan fosse anche dotato di un IQ superiore a 220: caspita, a riprova che la genialità umana è votata all’autodistruzione.

Tre argomenti collegano abbastanza bene la chimica e le armi nucleari:

– i metodi di separazione isotopica,

– gli alti esplosivi usati nella loro costruzione

– e infine i materiali di sintesi, in se innocui, ma determinanti nella costruzione della bomba.

Per meglio comprendere i metodi di separazione isotopica introduciamo un concetto con il quale non siamo familiari, ossia l’unità di lavoro separativo, Separative work unit (SWU); esso costituisce la misura standard dell’attività necessaria all’arricchimento isotopico.

Si definisce SWU lo sforzo necessario nel separare una massa F di minerale di titolo xf in una massa P di prodotto più ricco di titolo xp ed un residuo di massa W e di titolo inferiore xw .

SWU = WV(xw) + PV(xp) – FV(xf)

dove la funzione V(x) è la “funzione di valore” definita come V(x) = (1 – 2x) ln((1 – x)/x).

Come si può capire dalla definizione le unità di misura della SWU sono quelle della massa. Facciamo un esempio: se trattiamo 102kg di uranio naturale (costituito essenzialmente di 238U con solo lo 0.7% di 235U) e ne otteneniamo 10 kg di uranio arricchito al 4.5% di 235U ci servono 62SWU se il titolo residuo è dello 0.3%. Il numero di SWU di lavoro separativo dipende dai metodi di arricchimento e ciascuno di essi necessita di una diversa quantità di energia; per esempio i moderni impianti a diffusione richiedono tipicamente 2500kWh o circa 9 GJ di energia elettrica per SWU, mentre i più efficienti impianti a centrifugazione richiedono solo 50-60kWh (ossia attorno a 200MJ) di elettricità per ogni SWU. Il seguente grafico da un’idea della situazione a seconda delle applicazioni, indicando anche la massa di uranio necessaria ad ogni caso. Energia e costi sono collegati: per esempio la produzione del materiale fissile da solo giustificò l’80% dei quasi 2 miliardi di dollari (a costi del 1945) spesi durante il progetto Manhattan.

bombe23

Considerate questo grafico con attenzione perchè in esso è nascosto il segreto della non proliferazione ed anche i suoi rischi.

Esso mostra come una tonnellata di uranio naturale in alimentazione possa produrre diversi prodotti a diverso grado di purezza; 120-130 kg di uranio per i reattori di potenza, 26 kg di uranio per i reattori di ricerca (per esempio autorigeneranti cosiddetti) ed infine 5.6 kg di uranio adatto per scopi bellici (all’incirca quello necessario per una bomba atomica “piccola”.

Notate come la curva si appiattisca al crescere della purezza, ossia come la richiesta di energia diminuisca al crescere della purezza PER QUESTA SINGOLA TONNELLATA; state lavorando sempre la medesima quantità di origine di 235U e la state concentrando; mentre per kg di prodotto la energia cresce esponenzialmente da qualche SWU a qualche centinaio di SWU per kg, la progressiva purificazione della MEDESIMA quantità richiede più energia inizialmente che dopo; questo è il motivo per cui queste tecnologie sono considerate “sensibili”; una quantità di uranio relativamente puro che arrivi dove può essere trasformato in arma richiede poca energia; in pratica se 130kg di uranio per reattori vengono persi in giro per il mondo se ne può ricavare una bombetta con solo la metà dell’energia che è servita per produrlo (4-500 SWU contro le iniziali 8-900). Adesso è chiaro perchè chi detiene la responsabilità di queste cose ha le vene e i polsi tremanti in continuazione?

I metodi di separazione isotopica sfruttano tutti la diversa massa degli atomi e delle molecole coinvolti e quindi la diversa tendenza a reagire o partecipare a processi elementari di diffusione. Mentre metodi basati su reazioni chimiche vere e proprie sono stati brevettati ed usati i metodi principali sono di tipo fisico ed usano la diffusione o l’effetto gravitazionale artificiale creato con la centrifugazione ad alta velocità e più recentemente il laser.

Un processo chimico è stato dimostrato fino alla costruzione di un impianto pilota ma non usato. Si tratta del processo Chemex che sfrutta una piccola differenza di due isotopi a partecipare ad una reazione di ossido riduzione ed utilizza fasi organiche ed acquose immiscibili. Un altro processo a scambio ionico basato su resine a scambio ionico proprietarie è stato sviluppato in Giappone dalla Asahi Chemical Company.

Secondo il mio personalissimo parere questa specie di blocco a favore dei metodi fisici sofisticati è anche una garanzia contro la proliferazione; i metodi chimici sono in genere “maturi”, più di quelli fisici e quindi una maggiore penetrazione della chimica in questo settore diventa un ostacolo alla non-proliferazione.

Tuttavia i metodi attualmente usati industrialmente o in procinto di esserlo sono basati essenzialmente sui tre processi che dicevo.

bombe24

Il processo di diffusione, che tende ormai a riguardare solo pochissimi grandi impianti è il più costoso in termini energetici; esso implica il forzare il gas esafluoruro di uranio UF6 , attraverso una serie di membrane o diaframmi. Dato che le molecole contenenti 235U sono più leggere di circa l’1% (349uma contro 352, ricordate la legge di Graham?) la loro diffusione è favorita e quindi quelle che passano la membrana sono arricchite in 235U mentre quelle che rimangono al di qua ne sono impoverite.

Questo processo ripetuto molte volte (alcune migliaia) attraverso una serie di elementi diffusivi in cascata costituiti da un compressore, un diffusore e uno scambiatore per rimuovere il calore in eccesso è la base del procedimento che porta ad un prodotto con una concentrazione finale di 3-4% invece dello 0.7 dell’uranio naturale.

Comunque al momento il procedimento che va per la maggiore è quello attraverso le centrifughe.

bombe25

Come il processo di diffusione, quello centrifugo usa UF6 gassoso sfruttando la piccola differenza di peso molecolare causato dai due isotopi 235U ed 238U.

Il gas alimenta una serie di tubi da vuoto ciascuno contenente un rotore alto 3-5 metri e largo 20cm. Quando i rotori girano rapidamente (fra i 50 e i 70.000 giri al minuto) le più pesanti molecole contenenti 238U aumentano la loro concentrazione nella parte esterna del tubo mentre quelle contenenti 235U si affollano al centro.

Una modifica molto importante di questo metodo è stato quella denominata Zippe; la centrifuga viene riscaldata dal basso e ciò causa un moto convettivo che spinge l’isotopo leggero ad uscire verso l’alto del dispositivo e quello più pesante ad uscire dal basso.

bombe26

In questo modo il flusso superiore va allo stadio successivo mentre quello inferiore torna allo stadio precedente.

Per ottenere una separazione efficiente le centrifughe ruotano a velocità molto alte con le loro pareti esterne che raggiungono 4-500 metri al secondo e quindi l’equivalente di un milione di volte la forza di gravità.

Sebbene il volume di una singola centrifuga sia molto inferiore a quello di un singolo stadio di diffusione la sua capacità di separazione è molto più elevata. Gli stadi di centrifugazione consistono quindi di un gran numero di centrifughe che lavorano in parallelo e poi gli stadi sono organizzati in cascata come nella diffusione, ma il loro numero è di alcune decine invece che di alcune migliaia.

Il fattore di separazione di una centrifuga è di 1.3 rispetto a quello di 1.005 di un dispositivo diffusivo.

I metodi che sono in sviluppo sono basati sull’uso del laser e sono di due tipi: atomici e molecolari.

Quelli di tipo atomico lavorano sulla base della fotoionizzazione; un laser molto potente è usato per ionizzare un particolare atomo presente nella fase vapore dell’uranio metallico. Un elettrone può essere emesso dall’atomo se assorbe luce di una certa frequenza e le tecniche laser per l’uranio sono scelte in modo da ionizzare gli atomi di 235U e non di 238U. Gli ioni di 235U positivi sono poi attratti da una piastra negativa e raccolti; questo tipo di tecnica può essere usata per una serie molto diversa di isotopi.

I metodi basati sulle molecole lavorano sul principio della fotodissociazione: da UF6 ad UF5+, usando un laser per rompere il legame molecolare di uno dei sei atomi di fluoro legati all’ 235U. Questo consente di separare gli ioni UF5+ così ottenuti dalle molecole di UF6 contenenti atomi 238U

Un principio analogo si può usare per arricchire atomi di litio mediante separazione magnetica che lascia l’isotopo 7 del litio praticamente puro.

Il principale metodo usato a questo scopo è il processo SILEX, conosciuto come Global Laser Enrichment (GLE).

Un altro metodo simile è CRISLA. In questo caso un gas irradiato con un laser ad una certa lunghezza d’onda che eccita solo l’isotopo 235U. Il gas è a bassa temperatura in modo da favorire la condensazione su una superficie fredda del gas non ionizzato. Le molecole eccitate dal laser sono meno portate a condensare e quindi la fase gassosa si arricchisce di 235U (metodo NeuTrek, USA).

I tre metodi di arricchimento descritti sono un misto di processi chimici e fisici a volte anche comunemente applicati nell’industria finora, ma hanno caratteristiche diverse.

La diffusione è flessibile in risposta a variazioni di domanda e di costo, ma è molto costosa in termini energetici. La tecnologia centrifuga è modulare e può aggiungere facilmente capacità aggiuntiva con una espansione modulare ma è poco flessibile e lavora meglio a piena capacità e con bassi costi operativi. La tecnologia laser è capace di ridurre la percentuale di isotopo attivo in uscita al minimo ed è anche capace di sviluppo modulare.

Questa descrizione dettagliata serve solo ad UNA cosa; farvi capire come insomma una quantità di creatività ed intelligenza enormi sono state usate per costruire perfetti strumenti di distruzione che pero’ dobbiamo sperare ed adoperarci non servano mai. Ma che senso ha tutto ciò?

Ovviamente questi stessi metodi si possono adoperare per l’energia nucleare, ma come già detto su questo blog e come saggiamente votato dalla maggioranza del nostro paese (e di fatto nel mondo) l’energia nucleare ha troppi problemi ed è comunque una energia non rinnovabile, quindi non fa parte (non dovrebbe far parte) del nostro futuro.

per approfondire si veda oltre che Wikipedia

http://www.world-nuclear.org/info/Nuclear-Fuel-Cycle/Conversion-Enrichment-and-Fabrication/Uranium-Enrichment/

Nella terza ed ultima parte di questo post vedremo gli altri due aspetti che collegano la chimica e le bombe atomiche.

(continua)

Nuove tecnologie e sperimentazioni per il recupero energetico nella depurazione.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Il recupero di energia negli impianti di depurazione si utilizza da tempo. Negli impianti centralizzati di medie-grandi dimensioni (indicativamente dai 50.000 fino ai 100.000 abitanti equivalenti) che solitamente effettuano il trattamento dei fanghi con il processo di digestione anaerobica, si effettuava un recupero del biogas per il riscaldamento dello stesso digestore, dopo avere filtrato il gas dalle impurezze, in particolare l’acido solfidrico, particolarmente aggressivo per le strutture metalliche, e la deumidificazione.

Questa non si può in senso stretto definire un’operazione completa di recupero energetico. In seguito si sono utilizzati per la combustione del biogas e la produzione di energia elettrica anche dei motori ciclo diesel opportunamente modificati. Per il loro funzionamento, è necessario fino al 10% di diesel o di olio combustibile per l’accensione, che viene iniettato direttamente nella camera di combustione, mentre il biogas viene iniettato insieme all’aria. Generalmente i motori possono funzionare anche solo con gasolio o petrolio.

Il vantaggio principale di questo tipo di motori consisteva nel fatto che potevano funzionare anche con basse percentuali di metano nel biogas (< 30-45%) quindi anche con biogas di scarsa qualità. Necessitano però di frequenti manutenzioni, oltre alla necessità del combustibile supplementare. Hanno anche una elevata emissione di NOx allo scarico.

Per il recupero energetico del biogas prodotto dagli impianti di trattamento dei fanghi residui si possono utilizzare anche sistemi anche sistemi cogenerativi a microturbina. Questo tipo di soluzione permette l’utilizzo del biogas anche senza necessità di installare nessun sistema di filtraggio degli inquinanti emessi.

Le emissioni di una microturbina risultano significativamente più basse di quelle di un motore alternativo che riesce ad ottenere il rispetto dei limiti di legge sulle emissioni con l’ausilio di un sistema catalitico sullo scarico fumi. Alcune microturbine in commercio hanno emissioni di NOx dell’ordine dei 10 mg/Nm3 contro un limite di legge che è pari a 20 mg/Nm3.

Lo svantaggio è da ricercarsi nel maggior costo di investimento iniziale. Altro limite per l’utilizzo di queste macchine è il rendimento elettrico inferiore, quindi l’utilizzo e la progettazione di un sistema di questo tipo deve prevedere lo sfruttamento del calore prodotto. Al contrario, i motori a combustione interna sono più adatti dove non ci sia elevato bisogno di sfruttare energia termica.

Ma nel tempo i gestori degli impianti, spesso in sinergia con le università, hanno sviluppato ulteriori progetti volti a migliorare ulteriormente il recupero energetico non solo di calore e di energia elettrica, ma anche di sottoprodotti utili dai reflui. In altre parole di mettere al lavoro i batteri che sono responsabili della depurazione delle acque reflue. Due sperimentazioni si sono avviate recentemente in due tra i più grandi impianti del nord Italia: quello del depuratore di Milano Nosedo, e quello del Po Sangone di Torino.

A Nosedo è stata effettuata una sperimentazione effettuata da RSE (Ricerca Sistema Energetico), Università di Milano. Il progetto è stato promosso da Regione Lombardia e Ministero dell’Istruzione, dell’Università e della ricerca con l’utilizzo di fondi europei.

L’idea è quella di sfruttare la capacità dei batteri di fermentare la sostanza organica e di trasferire gli elettroni derivanti dal processo di ossidazione tramite una corto circuitazione tra metallo e componente biologica. Questo permette di realizzare una pila a combustibile batterico. I batteri catalizzano le reazioni di ossidazione del combustibile e quindi il passaggio di elettroni dall’anodo al catodo. La pila microbiologica è costituita da due compartimenti, ciascuno contenente un elettrodo, l’anodo e il catodo. Le due camere, una in assenza e l’altra in presenza di ossigeno, sono separate da una membrana semipermeabile che consente lo scambio di protoni.

Normalmente i batteri presenti nelle acque nere trasferiscono gli elettroni prodotti durante il consumo del loro cibo (le sostanze organiche) all’ossigeno. Ma posti nel comparto dell’anodo, che si trova in assenza di ossigeno, sono costretti a cedere gli elettroni prodotti direttamente all’elettrodo, che li trasferisce al catodo. La differenza di potenziale tra un elettrodo e l’altro produce energia. Nella camera del catodo, gli elettroni si riuniscono ai protoni passati attraverso la membrana e combinandosi insieme all’ossigeno producono acqua come sottoprodotto.

depura3

http://www.focus.it/scienza/scienze/energia-pulita-dall-acqua-sporca Credit: Bruce Logan Pennsylvania State University

La fase sperimentale iniziata nella primavera del 2014 è terminata L’industrializzazione del processo secondo i responsabili della sperimentazione potrebbe avvenire nel medio periodo. In questo modo dalle biomasse si potrebbero ottenere non solo biogas o biocarburanti, ma anche energia elettrica.

Lo scorso marzo partecipando ad un convegno presso il depuratore in questione ho scoperto che non solo è stata effettuata questa sperimentazione, ma anche che l’impianto già effettua riscaldamento e raffrescamento degli edifici sfruttando il calore presente nelle acque reflue utilizzando le pompe di calore.

Nell’ottica di aumentare l’efficienza energetica e di ridurre l’utilizzo di combustibili fossili queste iniziative sono assolutamente lodevoli.

Anche al depuratore Po Sangone di Torino si è dato il via nel novembre del 2011 ad un progetto tendente a massimizzare il recupero energetico. Il progetto denominato Sofcom che significa  Solid Oxide Fuel Cell, una tecnologia di celle a combustibile ad ossidi solidi che funzionano alla temperatura di 800 ° C e sono alimentate a biogas. Il prototipo messo a punto presso l’impianto di Torino trasforma il biogas prodotto dal trattamento del fango attraverso il processo elettrochimico che avviene negli elettrodi di cella. Il biogas come per ogni altra sua applicazione viene depurato dallo zolfo e dagli altri contaminanti. Questa tecnologia permette di ottenere rendimenti di produzione di energia elettrica con un rendimento che può arrivare al 50% mentre le macchine termiche (di dimensioni analoghe) si attestano intorno al 30-35%. Gli esausti anodici del processo sono già privi di azoto, mentre la CO2 viene fatta passare in un fotobioreattore dove avviene la crescita di colture algali che si nutrono di essa. Questo passaggio completa il processo che parte dal biogas, produce energia elettrica e utilizza la CO2 nel fotobioreattore dove possono essere trattate anche parte delle acque reflue ricche di nitrati e fosfati. Per esempio per effettuare un trattamento terziario di finissaggio delle acque già trattate con il processo convenzionale a fanghi attivi.

depura5

Anche in questo caso la sperimentazione è terminata ma il politecnico di Torino si è aggiudicato un finanziamento per il progetto denominato Demosofc che dovrebbe occuparsi di realizzare la versione industriale del prototipo.

I due progetti sono indubbiamente il fiore all’occhiello di queste due grandi realtà impiantistiche, cioè uno dei tre depuratori di Milano (Nosedo), ed uno “storico” come quello del Po Sangone che come scritto in altri miei articoli è stato descritto in un libro non tecnico, bensì un romanzo di Piero Bianucci.

Questo è il futuro della depurazione. Ed è incoraggiante che queste sperimentazioni si siano iniziate finalmente anche in Italia. In paesi come Norvegia, Francia, Danimarca e Germania sono usuali.

Con la conclusione di queste sperimentazioni si intravede per i depuratori una vocazione “produttiva”.

Nello stesso tempo il sistema depurativo in Italia deve provvedere anche a massicci investimenti per l’adeguamento degli impianti ormai obsoleti, alla chiusura di quelli la cui gestione risulta antieconomica e che non riescono per limiti strutturali a garantire un’efficienza depurativa adeguata (i tantissimi piccoli impianti di potenzialità inferiore a 5000 abitanti equivalenti).

Ma questi studi dimostrano come si possa e si debba coniugare l’efficienza depurativa con quella energetica. Un bel segnale per il futuro.

La chimica è sempre più di moda, negli istituti tecnici (2 parte)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Sergio Palazzi

(la prima parte di questo post è leggibile qui)

2 parte;……. con qualche suggerimento per l’uso.

2014-047_02rpaginaDopo aver più o meno inquadrato l’indirizzo “Sistema Moda”, vorrei proporre qualche indicazione operativa sui corsi di chimica tessile e della nobilitazione. Partiamo dai contenuti, basandoci sulle tabelle riportate nelle già citate linee guida[1].

Per prima cosa si nota, come dicevamo, la notevole brevità dell’elenco di “conoscenze” e “abilità” rispetto alle indicazioni globali di obiettivi e competenze: è il docente di questa classe in questa scuola in questo “territorio” a decidere come gestire i dettagli della faccenda. E vorrei aggiungere: addirittura in questa stagione (usando il termine nel senso che ha nella moda). Perché il grosso della faccenda è immutato da decenni, o addirittura da secoli: ma sono i dettagli, la capacità di analisi e sintesi tra vecchio e nuovo, che fanno la differenza per un tecnico competente che si sta inserendo nel mondo del lavoro (o che lo farà pienamente tra pochi anni dopo l’ulteriore percorso universitario), e dovrà poi lavorare ben oltre la metà di questo secolo.

Per contro, si nota una apparente sproporzione tra le cose da fare al secondo biennio e quelle del quinto anno (a leggerle così, chi ha un po’ di pratica potrebbe dire che gli spazi andrebbero invertiti). Ma su questo torniamo dopo.

Il nucleo del secondo biennio, e non solo, sono le fibre tessili. Vita, morte e miracoli. Proprietà e possibilità di impiego, inclusi i temi di ambiente e sicurezza (che pure sembrano poco collegati al resto, ma vedremo che non è così).

cropped-bomba14.png textile

Con una certa dose di chimica organica per spiegarne la natura e correlarla alle proprietà. Attenzione: non il contrario. Perché un ipotetico insegnante con una convenzionale formazione accademica potrebbe pensare ad un bel corso di “elementi di chimica organica con richiami alle fibre tessili”. Ma se già era velleitario approfondire certi argomenti e in certe forme con i vecchi chimici tintori, qui è assurdo e controproducente voler fare il riassunto del riassunto del riassunto di un corso di chimica organica tradizionale. E ovviamente, sarebbe bello che in tre anni non venisse mai pronunciata la parola orbitale!

Quanto alla reattività chimica, a parte le ovvie reazioni di Brønsted, le linee guida sembrano suggerire poco più che alcune cognizioni di base per capire i meccanismi di polimerizzazione, con qualche richiamo alle reazioni di aggraffaggio in catena laterale: davvero miserelle, rispetto alla canonica chimica organica di base come tutti noi la intendiamo. E – rabbia, rabbia – non resta quasi spazio per gli amati esercizi di nomenclatura! Nella norma sono invece implicite, ma presenti, le indicazioni riguardo ai meccanismi di degrado, molto più utili per chi le fibre se le trova in mano e le deve lavorare.

Cruciale, come viene detto abbastanza chiaramente, capire che dell’organica interessano molto di più la stereochimica e le relazioni supramolecolari. Le fibre sono sostanze formate da lunghe catene di atomi di carbonio, associate tra loro in modi che vanno dal più banale “spaghetti model” all’estremamente complesso; con gruppi funzionali che contengono atomi di pochi altri elementi, inseriti nella cartella principale oppure no.

Queste strutture hanno proprie geometrie, topologie, distribuzioni di carica, ed è proprio da queste che derivano le proprietà delle fibre stesse.

Ne consegue che è dalle proprietà macroscopiche e tecniche che conviene partire per arrivare all’interpretazione data dalla chimica organica, e non viceversa; guardando ai legami intramolecolari ma assai di più a quelli intermolecolari, apolari, dipolari ed a idrogeno, perché è su questo che il tecnologo delle trasformazioni tessili va poi a influire.

Il che, credo, funziona meglio per un insegnante che ha studiato un po’ di scienza dei materiali. E torno a insistere su quella impostazione, che non solo a me pare datata, che spesso hanno i corsi elementari di chimica organica dell’università ma anche dei tre anni dell’indirizzo chimico. Novecentesca, assiomatica, slegata dalla pratica. Ripensando alle candele di Faraday, la chimica organica per il non professionista dovrebbe essere qualcosa di diverso dall’ipotizzare come costruire le molecole attraverso elaborati cicli di reazioni, come serve al tipico sintetista di chimica fine e farmacologica…

851645dfed16dc8d0a346ea09f7df3c7

Non a caso, sopra, ho usato un lessico affine a quello dei parametri di solubilità di Hansen noti a chi si occupa di solventi, vernici ed adesivi.

Con tutti i limiti chimico-fisici di quel modello, in modo qualitativo esso permette di capire – per dirla un po’ alla buona – come mai le fibre strettamente connesse ad idrogeno siano di solito più idrofile, non fondano ma piuttosto pirolizzino, e il contrario capiti per quelle in cui predominano le forze dipolari, fino a quelle tenute insieme solo da forze dispersive. Il che si ripercuote sulla struttura chimica delle classi tintoriali dei coloranti, sugli agenti di finissaggio, su come regolare le variabili fisiche e chimiche, cinetiche e termodinamiche dei cicli di lavorazione eccetera. E porta naturaliter a capire il ruolo onnipresente dei tensioattivi.

Sfuma pure la separazione tra “le fibre” e “i coloranti e gli ausiliari”; entra automaticamente in gioco l’attenzione alle materie prime: pensiamo alle annose e disastrose discussioni, più o meno ideologiche e chemofobiche, su ciò che è “naturale” e ciò che non lo è. Proprio in questo settore era nata quella distinzione tra artificiale e sintetico che, per quanto oggi sostanzialmente superata parlando di tecnofibre, metteva in luce la differenza solo di metodo tra la chimica di trasformazione delle biomolecole e, viceversa, quella di sintesi. Temi quantomai all’ordine del giorno, se pensiamo a tutto ciò che oggi riguarda l’argomento delle risorse rinnovabili o fossili, della “sostenibilità” e così via. Il mondo della moda, cui i nostri ragazzi dovranno riferirsi, ne trasuda a ogni angolo, ed è proprio qui che entra in gioco la nostra responsabilità di formatori.

Per me, come per molti colleghi della mia generazione che hanno esperienze di ciò che sta là fuori, i temi dell’ambiente, della sicurezza delle persone intese sia come produttori sia come utilizzatori, sono parti fondamentali del vivere. E proprio per questo trovo oltraggioso che i riferimenti a questi temi rientrino nel settore tessile in modo superficiale, come schematiche o mistificatorie mitologie – oggi si direbbe narrazioni.

moda-green--330x185

Non voglio dilungarmi tanto, mi limito a due rapide immagini.

Quanti sono, anche tra gli studenti, quelli ai quali se dico “poliestere” non scatta un riflesso pavloviano “è sintetico, viene dal petrolio quindi non buono”? Difficile spiegargli che il PLA è un poliestere sintetico ma che viene da materiali biotecnologici, o quanta sia la ricerca sui poliesteri di origine biologica… ma, ancora di più, sarà difficile spiegargli i grandissimi vantaggi cradle-to cradle della filiera del PET, e perché magari scegliere tra il riutilizzo del polimero o la depolimerizzazione / ripolimerizzazione.

L’altra immagine: la mitologia “naturistica” delle cosiddette fibre di bambù, trattandosi di tecnofibre cellulosiche che usano il bambù come biomassa (evidente il richiamo alle origini di Torviscosa), smontata come frode dalla FTC[2] ma con meno forza a livello europeo. Se va bene, vengono dal processo lyocell, ma più verosimilmente da quello viscosa, una maledizione ecotossicologica se fatto in modo “selvaggio”. E da qui, a sua volta: se uno dei maggiori produttori riesce a farlo con profitto nelle ovattate foreste austriache, ci mostra che una migliorata tecnologia chimica porta a un miglioramento generale del mondo…

Dopo questa lunga tirata, diventa chiaro perché ormai non credo abbia senso una impostazione didattica sequenziale lungo l’antico schema merceologico naturali (animali, vegetali, minerali) – artificiali (proteiche, cellulosiche) – sintetiche.

Non perché sia sbagliato: va saputo, per capire la storia e per saper interagire con gli altri settori della filiera tessile. Ma caspita, siamo nel XXI secolo. E nel primo biennio l’insegnante di biologia ti ha spiegato che i regni del vivente oggi non sono solo due ma almeno cinque: sapessi quanta roba c’è in giro, nel tessile, che viene da funghi, protisti e monere!

eurofibre-cotone02

Un’impostazione didattica può partire dalla struttura molecolare e supramolecolare, semplicissima, delle sintetiche da olefine, per poi passare a quelle da policondensazione e ai PUR. Giungendo poi alle cellulosiche – inquadrando e superando la distinzione tra naturali e artificiali – e infine alla complessità delle proteiche, tenendo conto delle enormi differenze tra lane e seta… ovvero, partendo dal fondo ed arrivando all’inizio, rispetto alla vecchia impostazione “cronologica”.

E, sopratutto, dando un peso bilanciato ai vari argomenti. Il mercato mondiale delle fibre di oggi non è quello di dieci anni fa e cambierà ancora prima che i nostri ragazzi ne siano protagonisti. Il solo PET, senza parlare degli altri poliesteri sintetici, in tempi prevedibili raggiungerà i due terzi del mercato complessivo delle fibre; il cotone, intruso tra le tecnofibre, mantiene il secondo posto solo perché, piaccia o no a qualcuno, le tecniche OGM permettono di renderlo una coltivazione più pulita e sicura. Le cellulosiche artificiali potranno esplodere, cosa impensabile vent’anni fa, se si abbineranno biomasse più ecocompatibili con le tecniche di produzione di quarta o quinta generazione, oggi solo sperimentali.

Se escludiamo la lana di pecora (e il gruppo juta-kenaf-cocco, usato quasi solo per scopi tecnici) tutte le altre fibre naturali hanno un volume di produzione insignificante[3]. Compresa la seta che dà il nome alla mia scuola; compresa la canapa cui è affezionata la metà ferrarese dei miei cromosomi, e molti studenti per ragioni extratessili. Certo, sono essenziali per la moda, per le produzioni artigianali, per il lusso che è la fortuna del Made in Italy, per chi le coltiva spesso valorizzando regioni marginali. E se facciamo un grafico non in tonnellate ma in euro, tra materie prime e valore aggiunto le proporzioni cambiano. Vanno conosciute: ma ha senso dedicare ad esse uno spazio largamente preponderante anche delle lezioni di chimica, quando poi molti dei nostri diplomati lavoreranno nei settori in vertiginosa crescita del tessile tecnico, dei materiali da riciclo, dei non tessuti, dei compositi ad alte prestazioni?

Fin qui ho parlato, apparentemente, solo del secondo biennio, pur essendo partito dal fatto che l’anno conclusivo pare molto più intenso. Dipende dal fatto che da tempo ho optato per una modalità didattica ricorsiva, in cui si parte dal fondo, si torna all’inizio, si riprendono e si approfondiscono i vari argomenti man mano che la formazione dello studente cresce in collegamento con le altre discipline[4]. Una delle chiavi (non voglio dire “la” chiave, anche se forse lo penso) è proprio quella di una didattica estremamente legata all’esperienza, per cui le preziose ore di laboratorio servono fin dai primi giorni della terza per prove di tintura e di finissaggio, con le quali pian piano mostrare come le fibre, diverse tra loro, interagiscano con i coloranti, con gli ausiliari, con l’acqua, con il calore. Imparando anche a dare un senso quantitativo alle cose, cominciando dalla composizione di un bagno o dall’analisi di una mista, se no poi – ad esempio – mancheranno pure gli strumenti per capire i capitolati di fornitura dei marchi “eco” tecnicamente fondati, per distinguerli da quelli mistificatori usati da un marketing spesso in malafede.

matryoshka

Così che, arrivati in quinta, si tratti di riordinare metodicamente queste conoscenze per finalizzarle alla comprensione dei cicli produttivi (tintura, stampa, finissaggio, manutenzione…). Svolgendo sì quanto elencato tra le “conoscenze”, ma sapendo che quasi tutti gli argomenti – da almeno due anni – sono già stati sfiorati, ripresi, confrontati con quanto visto nelle altre materie e nelle essenziali esperienze di alternanza. Cioè interiorizzati. E comunque, lo ripeto, stiamo formando dei modaioli molto interdisciplinari, non dei surrogati di piccoli tintori specialistici.

Una chiave di tutto sono i materiali di studio. Libri di testo, ce ne sono sempre stati pochissimi per gli indirizzi di chimica tintoria (nell’ultimo quarto di secolo l’unico bello ed autorevole era stato quello di Franco Corbani), e praticamente nessuno più light ma adeguato per l’indirizzo tessile. Questo cronico disinteresse per il nostro settore dell’editoria generale, e sopratutto di quella scolastica, è realmente clamoroso, e non sto qui a ripetere le analisi che ne avevo fatto in altre sedi[5].

Dico solo che non mi dispiace affatto, perché i vantaggi superano di molto gli svantaggi, e anzi consiglio agli studenti di stare lontani da certi prodotti editoriali, rimaneggiati stancamente da vecchie opere. Al limite, guardino gli originali in biblioteca!

Da sempre, la maggior parte delle conoscenze è trasmessa tramite dispense: magari approssimative, ma adattabili ed aggiornabili in tempi sostanzialmente brevi, anticipando quindi la logica che oggi la rete imporrebbe a qualsiasi sussidio scolastico. Meglio ancora se redatte insieme agli studenti, che imparano a superare il cut and paste.

Ci sono stati alcuni progetti più organici, sostenuti da aziende o associazione di categoria, per produrne collane spesso complete, da tenere a portata di mano come riferimenti, ma prive di un’autentica regia didattica; più adatte per l’approfondimento monografico e per tecnici già formati. Poco proponibili per una scuola così diversa da quella che conoscevamo noi.

internetmoda

http://revistapegn.globo.com/Revista/Common/0,,EMI246408-17192,00-A+VEZ+DA+MODA+ONLINE.html

Ma poi ci sono le millanta risorse di rete. Che rimpiazzano all’infinito quei pochi materiali originali che una volta circolavano quasi clandestinamente. Pubblicazioni accademiche, atti di convegni, cataloghi dei produttori. Filmati, blog[6], magari software. Da mettere a confronto per sviluppare il senso critico. E soprattutto, in inglese (o altre lingue). Questo fa anche superare il dilemma del CLIL, che dallo scorso anno è apparso a tutte le quinte come una nube minacciosa. L’uso veicolare della lingua per acquisire contenuti era già normale per i molti tra noi che, anziché i libri di testo, hanno sempre preferito assegnare materiali originali in inglese – diciamo, non le letturine ad usum delphini degli eserciziari linguistici! – oggi si tratta semplicemente di strutturarlo in modo più formale, organizzando le esperienze, senza sconvolgimenti.

Ho lasciato per ultimo l’argomento che forse preferisco, la scienza del colore. Come si è detto in altre occasioni, il tema cruciale per qualsiasi settore del “Made in Italy”, che potrebbe agire da filo conduttore per una intera programmazione chimica di base, e al tempo stesso il più trascurato nei nostri programmi scolastici e universitari[7]. Un tema che a prima vista potrebbe sembrare estraneo alla formazione di un chimico così come esce dalla nostra università (purtroppo!) ma che qui rientra immediatamente come sviluppo dei tradizionali corsi a indirizzo tintoriale, sia per la relazione struttura-colore, sia per la misurazione e della formulazione del colore stesso. Si presta anche per convincere le classi all’uso degli strumenti informatici per analizzare i dati, che è tra le competenze di base dell’indirizzo ma forse non tra quelle più gradite… anche in questo caso per fortuna ci si può basare su ampie risorse di rete in inglese[8]. E i nostri modaioli saranno poi i soli studenti della nostra scuola a poter vantare, e rivendere, queste competenze.

[1]   G.U. 30.3.12, s.o.60, p. 231-232

[2]   https://www.ftc.gov/news-events/press-releases/2009/08/ftc-charges-companies-bamboo-zling-consumers-false-product-claims

[3]   http://naturalfibres2009.org/en/index.html

[4]   S. Palazzi, La spirale delle competenze. Esperienze di didattica chimica ricorsiva negli Istituti Tecnici. XXV Congresso nazionale SCI, Cosenza 2014

[5]   S. Palazzi, Anilina in dispensa. La didattica della chimica in Italia, tra l’età di Perkin e quella dell’ink-jet, attraverso l’esame di testi e di alto materiale documentario. XI Convegno GNSFC, Torino 2005

[6]   http://www.setificio.gov.it/blogs/esercizi-risolti-di-chimica-applicata-tessile/

[7]   Ad es., S. Palazzi, Origine e metrica del colore – spunti didattici, X congresso nazionale DD-SCI, Verbania 1996; S. Palazzi: The colours of chemistry: There’s a new scent in the air, or old perchance?, ICCE-ECRICE 2012, Roma 2012. CnS XXXIV – 3

[8]   Ad es., http://www.cis.rit.edu/research/mcsl2/online/cie.php