Leggi e vivi felice

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo. a cura di Marco Taddia

Se chiedete in giro dove si trova la città di Incheon e perché, nel corso di quest’anno, è salita alla ribalta internazionale, può darsi che non da tutti avrete risposte precise. A parte gli specialisti e gli operatori economici, la gran parte di noi occidentali, anche di cultura media, ha una conoscenza molto approssimativa della geografia e della storia dell’Asia, men che meno della Corea. Ebbene, Incheon, o meglio la città metropolitana di Incheon, si trova sull’estuario del fiume Han ed è il porto più importante della costa occidentale coreana. Con più di due milioni e mezzo di abitanti è la terza città più grande della Corea, dopo Seul e Busan. Fu fondata nel 1883 e all’epoca contava meno di 5000 abitanti. Se pensiamo a quello che è diventata in meno di centocinquant’anni, abbiamo la misura della crescita di questa parte del mondo di cui, un po’ ingenuamente, conosciamo soprattutto le automobili e i gadget elettronici. Può darsi che alcuni di quelli a cui avete posto il quesito iniziale vi risponda giustamente che ad Incheon fu combattuta, nel settembre 1950, una storica battaglia tra una coalizione guidata dagli U.S.A., che si muoveva sotto l’egida delle Nazioni Unite, e le forze della Corea del Nord che avevano invaso il Paese. A questo punto però è probabile che la ragione dell’importanza odierna di Incheon sfugga a molti dei vostri interlocutori.

Incheon è stata proclamata dall’UNESCO capitale mondiale del libro per l’anno 2015 e pochi giorni fa (23 Aprile) si è celebrata la Giornata Mondiale del Libro e del Diritto d’Autore (World Book and Copyright Day, 2015). Il blog della SCI ha pubblicato per l’occasione un post di Laura Peperoni dedicato al Diritto d’Autore. A parte questa e poche altre eccezioni, l’evento, almeno in Italia, non ha destato particolare interesse. Questo è dovuto, almeno in parte, ai numerosi accadimenti delle ultime settimane che hanno avuto giusto e forte risalto sulle le prime pagine dei giornali. È naturale che le tragiche vicende dell’immigrazione, gli alti e i bassi dell’economia e anche la politica nazionale ricevano attenzione anche se, purtroppo, il ricambio delle notizie è così veloce da provocare una specie di assuefazione. In queste condizioni celebrare la Giornata del Libro sembra un lusso ma finisce di esserlo se si pensa che nel mondo ci sono 175 milioni di adolescenti, specialmente ragazzine e giovani donne, incapaci di leggere anche una sola frase. Il dato, davvero drammatico, è contenuto nel messaggio di Ms Irina Bokova, Direttrice Generale dell’UNESCO, diffuso per l’occasione. Vale davvero la pena di leggerlo interamente (http://www.unesco.org/new/en/wbcd), a cominciare dalle prime righe dove si dice: “World Book and Copyright Day is an opportunity to recognise the power of books to change our lives for the better and to support books and those who produce them”.

Occorre chiedersi se siamo ancora convinti che i libri abbiano il potere di cambiare in meglio le nostre vite ma soprattutto quanti giovani lo siano ancora. Può sembrare un’osservazione nostalgica ma sorgono parecchi dubbi in proposito se si osservano i viaggiatori dei treni o delle metropolitane nel corso dei loro spostamenti. In quanti hanno un libro in mano, sia pure in formato elettronico? L’attenzione è catalizzata dallo schermo dello smartphone, dagli sms e dai social networks. Qualche decennio fa era diverso e chi scrive ricorda bene la metropolitana di Londra, dove la maggioranza dei giovani trascorreva il tempo immersa nella lettura.

   A proposito di questi cambiamenti, domenica 19 Aprile, su “Il Fatto Quotidiano”, è comparso un bell’articolo a firma di Nando della Chiesa significativamente intitolato “Sulla metro solo telefonini. Il libro diventa clandestino”. Lascio a voi il piacere della lettura di un contributo che centra in pieno il tema qui sinteticamente trattato.

   Per finire, un ultima considerazione sul fatto che i libri cambino in meglio la vita. A parte la mia esperienza personale che lo conferma in pieno, vorrei citare una curiosità.

Molti libri dell’Ottocento si aprivano con un messaggio dell’Editore ai lettori che terminava con un incitamento-augurio abbastanza singolare, secondo la mentalità odierna: “…vivete felici!”.

Non c’era differenza, da questo punto di vista, tra i testi scientifici o divulgativi e gli altri:

catechismochimica086

Ho tra le mani il “Catechismo di Chimica Elementare” di Horsley, tradotto da Gorini e pubblicato da Gnocchi (Milano, 1858). Rivolgendosi al “Ai benevoli lettori”, l’Editore dichiara che il suo unico scopo è di allettare, con tale “operetta”, la solerte gioventù allo studio della fisica e della chimica, “la cui importanza non v’ha chi ignori”. Prosegue poi quasi scusandosi, con i lettori più severi, per la modestia del proprio lavoro e conclude in questo modo: “ procurate di cavare dalla presente il miglior partito che per voi si possa , e vivete felici”.

Vale anche per noi.

  Questo articolo uscirà prossimamente anche sul web journal www.scienzainrete.it Il Gruppo 2003 per la ricerca.                

Come diminuire gli incidenti sul lavoro?

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Ferruccio Trifirò

 

Alcuni anni fa è uscito anche in Italia, tradotto per iniziativa di Federchimica, un libro di Trevor Kletz, considerato uno dei massimi esperti mondiali sul tema della sicurezza negli ambienti di lavoro. Il libro s’intitola “ L’errore umano visto dall’ingegnere” (Federchimica, 2008) ed è comparso nella collana editoriale “Rischio Tecnologico”.

 lavoro1

 Lo riprendiamo in mano, in occasione della Giornata mondiale per la salute e la sicurezza sul lavoro 2015, perché offre alcuni importanti elementi di riflessione.

Dopo un attento esame, il libro arriva alle conclusioni che molti incidenti avvenuti nell’industria chimica ed in altre attività lavorative, formalmente attribuiti ad errore umano degli operatori , sono dovuti in gran parte ad errori di progettazione e di organizzazione del lavoro.

 lavoro2

Esamineremo solo le diverse tipologie di errore umano degli operatori, l’ultimo anello della catena della sicurezza, quelle che causano il maggiore numero di incidenti. Il libro tratta, comunque, anche degli errori e delle responsabilità nell’insorgere di incidenti dei manager, dei progettisti, dei costruttori degli impianti, degli addetti alla manutenzione, degli operatori che intervengono sugli impianti e di chi gestisce i controlli automatici con i microprocessori.

Nel suo libro Kletz evidenzia le seguenti quattro tipologie di errori umani degli operatori, cause di molti incidenti: per svista, per sbagli, per inabilità fisica e mentale e per violazione delle procedure canoniche e, come si vedrà, quegli errori dei lavoratori dovuti, in realtà, ad errori dell’organizzazione del lavoro.

L’ errore per svista o disattenzione è quello dell’operatore che dimentica di vedere un segnale d’allarme o di eseguire una manovra semplice ben nota o che la esegue in maniera sbagliata. Per Kletz, per diminuire gli incidenti dovuti a questi errori, si deve intervenire essenzialmente sulla modifica dei processi e sul metodo di lavoro, affinché la disattenzione degli operatori, dovuta anche alla stanchezza, non abbia effetto sulla sicurezza e l’efficienza dei processi. Per evitare incidenti dovuti a disattenzione si possono, per esempio, realizzare interventi sul processo che comportino blocchi per impedire l’esecuzione di azioni errate o inserire degli allarmi che ne indichino l’accadere o dei sistemi che prevengano conseguenze gravi dovute ad errori. Inoltre si deve cercare di aumentare l’automazione dei processi e ridurre lo stress da stanchezza o da frustrazioni che possono portare a distrazioni. Comunque, bisogna dire, che oramai nell’industria chimica in questi ultimi vent’anni, attraverso un’automazione spinta dei processi, si sono diminuiti in maniera significativa questi tipi di errore, che possono essere presenti, invece, in altre attività lavorative.

L’errore per sbaglio, ossia per mancanza di conoscenza delle procedure corrette è dovuto alla poca formazione ed informazione. La formazione serve a fare capire le mansioni e creare la capacità di dare un giudizio critico, le informazioni servono a descrivere le procedure, ossia quello che gli operatori devono correttamente fare. Per minimizzare gli incidenti dovuti a questi errori occorre migliorare la formazione con i seguenti interventi: preparare il personale interno, ma anche quello esterno, informare il personale di eventuali modifiche effettuate nelle apparecchiature e nelle procedure, presentare istruzioni chiare, comprensibili e verificare che siano facili da leggere, assicurarsi che queste descrivano sempre la pratica lavorativa aggiornata, evitare di dare procedure contraddittorie e che non corrispondano al modo in cui i lavoratori eseguono il lavoro, abituare le persone a riconoscere uno sbaglio e ad agire di conseguenza ed istruire su incidenti realmente avvenuti.

Gli errori dovuti a mancanza di abilità fisica e mentale avvengono quando si richiede agli operatori di fare di più di quello che questi sono in grado di svolgere, perché le mansioni attribuite richiedono un’abilità psico-fisica superiore a quella che hanno. Per minimizzare questi tipi di errori occorre intervenire nella progettazione dell’impianto e nel metodo di lavoro. Esempi emblematici di questi tipi di errore sono la presenza di valvole di sicurezza che non si riescono ad aprire perché troppo dure o inaccessibili, oppure richieste di chiudere una valvola ad un operatore, quando suona un allarme, mentre sta compiendo altre operazioni e per questo può essere per lui difficile mentalmente o impossibile eseguire quest’operazione o attribuire incarichi difficili a persone anziane o incarichi troppo complessi. Anche questo tipo di errore nell’industria chimica è stato fortemente ridotto in questi ultimi anni con l’automazione dei processi, il miglioramento degli impianti e la semplificazione delle procedure operative.

L’ultimo tipo di errore è quello per violazione delle regole ossia per deliberata scelta di fare o di non fare una cosa. Questi errori sono dovuti ad una non corretta valutazione delle procedure proposte, a violazioni vere e proprie o ad esecuzioni di azioni non in conformità. Un esempio è il lavoro lasciato a metà, dovuto a leggerezza dei lavoratori, motivata da una lunga consuetudine. In questo tipo di errore l’operatore decide di non svolgere una mansione o decide di non svolgerla secondo le regole proposte. Dal punto di vista legale in Italia si parla, a questo proposito, di negligenza o di disubbidienza. Questi errori sono dovuti al fatto che alle volte le persone preferiscono fare affidamento sulla propria esperienza e capacità o suppongono di sapere cosa contengono le regole, le interpretano a modo loro oppure pensano che se fossero eseguite alla lettera le indicazioni non sarebbe possibile eseguire un lavoro. Esempi emblematici di questo tipo di errore sono il non indossare l’abbigliamento antinfortunistico od utilizzare strumenti non appropriati al lavoro. Per ridurre gli incidenti dovuti a questi errori occorre intervenire con più azioni nel campo della formazione come: semplificare i compiti e, se possibile, svolgere controlli severi e verifiche continue. Occorre accertarsi che le regole siano eseguite e coinvolgere le persone nella loro preparazione,spiegando (o meglio discutendo con chi le deve adottare) quali sono le conseguenze del non seguire le procedure dettate dal progettista, spiegare le motivazioni delle regole e delle procedure ed accertarsi che ognuno le abbia capite, oltre a descrivere alcuni incidenti avvenuti per non averle. Discussioni con gli operatori sono alle volte più utili che lezioni o invio di relazioni scritte.

     Nel libro si arriva alla conclusione che si possono ridurre gli incidenti nei posti di lavoro minimizzando tutti i tipi di errore descritti intervenendo sulla gestione del metodo di lavoro e riducendo la possibilità che questi errori possano provocare incidenti con una progettazione intrinsecamente più sicura. In aggiunta, per quanto riguarda gli sbagli, si deve intervenire attraverso una continua ed efficace preparazione del personale mentre per gli errori dovuti a violazioni si deve cercare anche di persuadere oltre che insegnare.

Per diminuire il rischio di incidenti nell’industria chimica occorre prima essere in grado di identificare il pericolo, cercare di eliminarlo, poi se non é possibile intervenire per ridurne le conseguenze, ridurre le probabilità che avvenga l’incidente. Anche se l’industria chimica é la penultima nella scala del numero di incidenti avvenuti, dopo quella del petrolio, è interessante leggere il libro di Kletz, dove si sottolinea il ruolo del’errore umano, come causa di incidenti. La filosofia che sta alla base del libro è quella divulgata nel corso degli anni dall’autore ed é fondata sull necessità di realizzare processi più intrinsecamente sicuri, sfruttando la chimica e l’ingegneria, proprio per eliminare negli impianti anche gli effetti negativi di eventuali errori umani.

Il caso di Ciro Ravenna e di Leone Padoa

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Rinaldo Cervellati

Due professori universitari perseguitati dal fascismo.

Fra i molti interessi di ricerca di Giacomo Ciamician (1857-1922) a cui è intestato il Dipartimento di Chimica dell’Università di Bologna, spiccano quelli sulle sostanze contenute nelle piante. Ciamician era affascinato dal mondo vegetale, scrisse infatti che le piccole quantità di anidride carbonica, i sali che loro fornisce il suolo e l’acqua, costituiscono i soli materiali di cui abbisognano i vegetali a foglie verdi per comporre quella numerosa e svariata serie di sostanze che noi tanto a stento riusciamo a riprodurre “[1]. Sviluppò quindi un progetto di ricerche sui metaboliti secondari delle piante con uno dei suoi collaboratori, Ciro Ravenna, che condusse all’identificazione della genesi e al comportamento di numerosi alcaloidi contenuti nelle piante [2].

ravenna_ciroCiro Ravenna era nato a Ferrara nel 1878. Dal 1909 in avanti collaborò con Ciamician alle sue ricerche sulla chimica delle piante. Dopo la scomparsa di Ciamician, vinse nel 1923 il concorso alla cattedra di Chimica Agraria di Pisa, dove continuò i suoi studi sulla formazione e sul significato biologico degli alcaloidi e fece le prime esperienze di concimazione carbonica. Scrisse un libro sulla chimica vegetale, pedologica e bromatologica che divenne molto noto e diffuso (Chimica Agraria, UTET, Torino, 1936). Fu direttore della scuola Agraria Pisana dal 1924 e nel 1935, quando questa fu trasformata in Facoltà di Agraria, divenne Preside della Facoltà. Nel 1938 fu espulso dall’Università in seguito alle vergognose leggi razziali fasciste. In seguito si guadagnò da vivere con i proventi di lezioni private e dando un contributo fattivo alla scuola ebraica di Ferrara. Contribuì anche alle attività del Corso Universitario di Chimica istituito dalla comunità ebraica in via Eupili a Milano. Durante la Repubblica di Salò, Ravenna fu arrestato a Ferrara da italiani repubblichini nel 1943 e deportato nel campo di concentramento di Fossoli, poi trasferito dai tedeschi a Auschwitz il 22 febbraio 1944, dove fu assassinato il 26 febbraio 1944 [3,4]. Anche Primo Levi era in quel convoglio del 22.02.1944 con destinazione Auschwitz.

Giorgio Nebbia [3] riporta anche la vicenda, diversa ma altrettanto drammatica di Leone Maurizio Padoa, nato a Bologna, che fu assistente di Ciamician dal 1905 al 1920. Divenuto professore ordinario di chimica industriale a Bologna nel 1924, nel 1925 firmò il “Manifesto” redatto da Benedetto Croce, in risposta al “Manifesto” di Giovanni Gentile approvato al congresso degli intellettuali fascisti. Per questo gesto gli venne ritirata la tessera del partito fascista, ma nel 1931 non si sottrasse al giuramento di fedeltà al regime, sottoscritto da tutti i professori universitari ad eccezione di undici. Gli anni trenta furono segnati per Padoa da una lunga controversia amministrativa, relativa alla costruzione della nuova sede della Facoltà di Chimica industriale di Bologna, alimentata da un assistente, Celestino Ficai (1894-1971) “ottimo fascista”, protetto e sostenuto da Achille Starace. Nel 1936 Padoa fu sospeso dall’insegnamento; dopo una breve revoca fu poi dispensato dall’insegnamento nel 1938 dopo le leggi razziali, reintegrato di nuovo in servizio fu infine definitivamente sospeso dall’insegnamento nel 1941 e si dedicò alla famiglia e alla cura della sua campagna. Nei successivi anni visse a Bologna fino all’aprile del 1944 quando fu prelevato dalle SS naziste, trasferito nel campo di concentramento di transito di Merano poi in quello di Auschwitz dove fu assassinato.

Questi erano i tempi, questi erano gli uomini, queste le atrocità [4], con buona pace di qualche pennivendolo che si è improvvisato storico (revisionista).

***************************************************************************************************

[1] Ciamician G., 1908. La Chimica Organica negli Organismi, Attualità Scientifiche, n.11, Nicola Zanichelli, Bologna

[2] Ciamician G.; Ravenna C., 1909. Rend. R. Acc. Lincei, vol. XVIII, serie 5°, fasc. 12°, pp. 594-596; Ciamician G.; Ravenna C., 1911. Rend. R. Acc. Lincei, vol. XX, serie 5°, pp. 392-394; Ciamician G.; Ravenna C., 1911. Rend. R. Acc. Lincei, vol. XX, serie 5°, pp. 614-62; Ciamician G.; Ravenna C., 1911. Rend. Acc. Scienze Ist. Bologna, IV memoria, pp. 47-52; Ciamician G.; Ravenna C., 1912. Rend. Acc. Scienze Ist. Bologna, V memoria, pp. 71-76; Ciamician G.; Ravenna C., 1913. Rend. Acc. Scienze Ist. Bologna, VI memoria, pp. 143-153; Ciamician G.; Ravenna C., 1921. Attualità scientifiche, n. 28, Nicola Zanichelli, Bologna

[3] Nebbia, G., 2007. Gli allievi di Ciamician, in Ciamician, Profeta dell’energia solare, Venturi M. (a cura di), Fondazione Eni Enrico Mattei, Bologna, pp. 51-64; v. anche Nebbia,G., 2010. Sono nipote di Ciamician anch’io, http://www.pianetachimica.it

[4] Rosini, G., 2007. Ciamician e la chimica delle piante, in Ciamician, Profeta dell’energia solare, Venturi M. (a cura di), Fondazione Eni Enrico Mattei, Bologna, pp. 83-98

L’energia. 1.Evoluzione storica del concetto

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Benito Leoci

Cominciamo col ricordare che l’energia è anche una merce, sebbene molto strana e atipica. C’è chi la produce nelle varie forme utili, chi la vende e chi l’acquista. E che sia una merce atipica, indefinibile, in altre parole strana, ancora non vi sono dubbi. Infatti non c’è nessuno che la possa produrre, nessuno che la possa consumare, come è ben noto. Tutto ciò che si può fare e si fa in pratica è cercare una fonte bella e pronta (un lago in alto in montagna, un giacimento di petrolio o di gas o di carbone o semplicemente le radiazioni solari, i venti e così via) e utilizzare delle macchine per trasformare la forma energetica individuata (calore, movimento, radiazioni, ecc.) nella forma desiderata atta alla vendita o all’uso. E’ ben noto come l’uso dell’energia, nelle sue varie forme, è indispensabile per svolgere qualsiasi ciclo produttivo. La stessa vita degli organismi viventi, animali o vegetali che siano, non sarebbe possibile senza l’utilizzo di energia. Si può dire quindi che si è in presenza di una merce che può essere considerata la “madre di tutte le merci”. Se poi la vogliamo raffigurare nella nostra mente, l’impresa è impossibile, al contrario di quanto accade per altre merci.

Ma cos’è dunque l’energia? Questa è forse la domanda più insidiosa fra quelle che si possono formulare circa l’energia, alla quale si usa dare una risposta fuorviante che sollecita altri interrogativi: “capacità di un sistema a compiere un lavoro..” Ma da dove viene questa capacità? Siamo al punto di partenza! Le ambiguità connesse con questa “definizione” sono ben note e furono espresse brillantemente più di cento anni fa da Poincarè (1): “Il ne nous reste plus qu’un énoncé pour le principe de la conservation de l’énergie; il y a quelque chose qui demeure constant. Sous cette forme, il se trouve à son tour hors des atteintes de l’expérience et se réduit à une sorte de tautologie.” A complicare le cose ci pensò Albert Einstein con la famosa equazione dell’equivalenza massa–energia (1905), ovvero E = mc2, che, come è noto, non significa che la massa può essere convertita in energia, ma semplicemente che l’energia totale di un sistema può essere calcolata moltiplicando la sua massa per una costante. Qualche anno prima Planck (2) aveva collegato un’altra costante h al valore dell’energia E dell’onda elettromagnetica con la sua frequenza v (E = hν), esposta però per la prima volta dallo stesso Einstein (3). Non ci soffermeremo su questi ultime implicazioni dell’energia in quanto per i nostri scopi è sufficiente il ricorso al concetto classico prima ricordato, sebbene contestato e respinto (4), emerso come conseguenza della scoperta del “principio di conservazione” che può essere considerato come una fondamentale pietra miliare da porre fra le maggiori conquiste del pensiero umano. Una vetta raggiunta solo il 1847, dopo un faticoso, lungo e difficile cammino che aveva visto l’impegno delle menti migliori del genere umano: da Aristotele a Leonardo da Vinci, da Cartesio a Leibniz, a Huygens, a Carnot e così via, via, fino a Helmholtz. Prima di esaminare le implicazioni economiche dell’energia (con le Note 2 e 3) sarà conveniente dare una rapida occhiata allo sviluppo storico dell’idea connessa. Non sarà possibile seguire un preciso ordine cronologico perché, come si sa, le varie scoperte e le diverse teorie spesso si accavallano in un complesso intrigo di avvenimenti che, nell’insieme, formano un quadro eccezionalmente disordinato, molto distante da quello raffigurato sui libri di testo, utilizzati nelle aule scolastiche.

Andiamo indietro nel tempo perché il termine ha radici molto antiche e diamo uno sguardo al movimento filosofico che nel VII e VI secolo a.C. esplose nell’antica Grecia, sulle coste orientali del Mediterraneo. Fino allora, in Europa, in Asia, nelle Americhe, qualsiasi avvenimento naturale (dal fulmine alla pioggia, dai terremoti alle alluvioni, alle eclissi e così via) veniva attribuito alla volontà capricciosa di numerosi Dei. Fra il VII e il VI secolo a.C. invece un piccolo gruppo di persone, aderenti alla cosiddetta Scuola ionica (fra cui Talete, Anassimandro e Anassimene, tutti di Mileto), si mise a pensare in modo diverso e ad esaminare il mondo circostante con uno scopo ben preciso: cercare nel caos apparente un filo conduttore (l’unità nel molteplice, il permanente nel cangiamento). Pensavano costoro che dovevano esserci delle ragioni precise, delle leggi che regolavano i fenomeni naturali, che forse non avevano niente a che fare con gli Dei. In quei luoghi e in quel periodo, con quei primi pensatori nasceva dunque la Scienza moderna.

640px-Illustrerad_Verldshistoria_band_I_Ill_107

Talete di Mileto

Per gli antichi greci la parola energheja (ἐνέργεια) significava, come è ben noto, “in azione” (εν-ἐργον) e come tale venne utilizzata dai diversi filosofi, dai presocratici fino ad Aristotele. Quest’ultimo, con energheja voleva intendere la “realizzazione di un certo stato di potenzialità”. Il termine gli serviva per chiarire che la praxis ha caratteristiche ontologiche diverse sia da quelle della kinensis che da quelle dell’attività di Dio che è “energheja pura” (5). Per Aristotele, dunque, è bene ricordarlo, tutto nella natura “è moto e ogni moto presuppone un motore come causa: niente può muovere se stesso. Ciò che si muove è mosso a sua volta e così via via indietro fino al πρῶτον κινοῦν ἀκίνητον (primo motore o motore immobile)” (6). Aristotele poi al termine energia contrapponeva un altro termine, quello di Δύναμις (potenza), altrettanto carico di conseguenze e di significati fisici per noi del XX e XXI secolo. Ora ci si chiede, Aristotele aveva o non aveva dato al termine energheja il significato attribuito successivamente, circa 22 secoli dopo? Non sembra, anche se la tentazione di sostituire la parola “moto” con la parola “energia”, si fa irresistibile, con risultati stupefacenti: vorrebbe dire che tutti i concetti moderni di energia, conservazione della stessa, di entropia, ecc. erano già chiari ad Aristotele. Non sappiamo. Forse hanno ispirato Helmholtz, ma non sappiamo nemmeno questo. Questo gioco delle sostituzioni però non è nuovo ed è stato ripetuto anche per le affermazioni di altri filosofi. Il più noto riguarda Empedocle, per il quale, come è noto, le radici di tutto erano rappresentate dalla terra, l’acqua, l’aria e il fuoco, unificando così il pensiero di altri filosofi (Talete, Anassimene ed Eraclito). Effettuando le sostituzioni opportune e ribattezzando gli elementi in base alle loro caratteristiche scopriremmo che già i presocratici avrebbero classificato la materia secondo i suoi tre stati fondamentali (solido, liquido e gassoso), così come si ritiene attualmente. Anzi, se pensiamo che con la parola “fuoco” volessero intendere “energia”, le idee di Empedocle sarebbero di un’attualità impressionante. Ma non è così. L’analisi approfondita del pensiero e delle opinioni dei vari filosofi dell’antica Grecia porta alla conclusione che le idee possedute sull’argomento erano vaghe e molto lontane da quelle attuali.

MINOLTA DIGITAL CAMERA

Statua di Aristotele a Calcide

L’esame di tutti i filosofi dei secoli successivi non ci rivela nulla di più a questo riguardo anche perché le idee di Aristotele dominarono incontrastate per oltre un millennio. Per trovare le prime novità dobbiamo dunque risalire nel corso dei secoli, per giungere fino all’età rinascimentale (15-16° secolo d. C.), caratterizzato, come è noto, da una forma di indagine che andava sotto il nome di “magia”, connessa con l’alchimia e l’astrologia. Naturalmente nel Rinascimento l’indagine della natura era sollecitata anche dai bisogni sociali e politici. L’attività industriale e l’uso delle risorse naturali iniziava a svilupparsi senza soste, spinte dall’aumento delle popolazioni e dalle grandi scoperte geografiche. In questo clima si sviluppò l’opera di Leonardo da Vinci, di Galileo, di Cartesio e di altri.

 Leonardo_self

Leonardo da Vinci (1452-1519) era convinto, in piena conformità con quella che era l’intuizione centrale del meccanicismo, che “il moto è la legge universale della natura e che al moto è riconducibile ogni manifestazione delle energie fisiche, della luce, del suono, del magnetismo”. Del principio di inerzia diede un’enunciazione assai vicina a quella moderna (“ogni moto naturale e continuo desidera conservare suo corso per la linea del suo principio …”) (7). Le osservazioni di Leonardo rappresentano un altro passo verso l’intuizione dell’esistenza di “una qualche cosa” chiamata poi energia.

galileoCon Galileo Galilei (1564-1642), come è ancora ben noto, la meccanica diventa la scienza tipica, la “nuova scienza”, sicchè la realtà naturale viene assimilata ad un vasto meccanismo. L’universo viene concepito come un’immensa macchina il cui funzionamento si doveva scoprire attraverso il calcolo (8). Un altro piccolo passo verso il concetto unificante dell’energia.

descartesRené Descartes (1596-1650) a sua volta fece derivare i principi generali della fisica dai principi metafisici ovvero dall’idea di Dio e dei suoi attributi. Poiché Dio è immutabile deriva che la quantità della materia esistente nell’universo è costante, non può aumentare, né diminuire. Poiché i mutamenti del mondo fisico sono tutti dovuti al movimento che Dio impresse alla materia nell’atto della creazione, la quantità di movimento è immutabile. La costanza dell’azione divina si manifesta nel permanere d’una cosa nel suo stato di quiete o di moto, sicchè non intervenga una causa esterna a modificarlo (ancora il principio di inerzia) (9). Il moto, dunque, deve essere uno “stato”, anziché un processo e si inizia a credere che il moto, conservandosi, possa essere convertito in calore. Per il lettore di Cartesio il gioco delle sostituzioni si fa di nuovo allettante. Se invece di Dio si pone la parola energia, si ottengono concetti molto vicini a quelli attuali.

leibnitz

L’idea di Cartesio circa il movimento furono ben presto revisionate da Leibniz (1646-1716) che sostituì ad esso il concetto di forza. Non è la quantità di moto che nel mondo rimane costante, bensì la quantità di “forza viva” che è conatus o tendenza all’azione, possibilità di produrre un determinato effetto e quindi mancante al movimento che è semplice spostamento nello spazio (10). La forza viva è la vera realtà dei corpi. Dobbiamo ricordare che a Leibniz (e a Huygens) si usava attribuire il merito di aver introdotto in fisica il concetto di energia in senso moderno. La forza viva sarebbe l’energia cinetica. Questa tesi da tempo non viene più accettata. Per la verità Leibniz usa nei suoi scritti il termine energia ma in contesti totalmente diversi, avendo sempre in mente il significato aristotelico di energheja. Lo stesso può dirsi di Huygens (1629-1695) che si occupò a lungo del problema della conservazione della forza viva, applicando poi il principio alla risoluzione del problema dell’urto (11). Chi si avvicina maggiormente al concetto di energia è Thomas Young (1773-1829), che nel 1807, nelle Lectures on Natural Philosophy, affermava testualmente: “The product of the mass of a body into the square of its velocity may properly be termed its energy. … This product has been called the living or ascending force …(12)”. Young però non aveva, né poteva averla, alcuna idea di conservazione. Ma è evidente che un altro passo importante veniva compiuto.Young

Quasi contemporaneamente, negli stessi anni, un altro vecchio problema veniva definitivamente affrontato e risolto. Ci riferiamo all’impossibilità del “Perpetuum mobile”, già affermata da Leonardo da Vinci e confermata da Cardano e da Stevinus. Nel 1775 dunque l’Académie des Sciences di Parigi, dopo l’ennesimo esame di numerosi congegni costruiti con la speranza di ottenere lavoro dal nulla, dichiarava ufficialmente ed in maniera definitiva che tali tentativi erano inutili (13). E’ curioso ricordare il testo emesso in quell’occasione: “l’Académie ha approvato quest’anno la risoluzione di non esaminare alcuna soluzione di problemi sui seguenti argomenti: la duplicazione del cubo, la trisezione dell’angolo, la quadratura del cerchio (14) o alcuna macchina per dimostrare il moto perpetuo”.. Secoli di tentativi per realizzare il sogno del moto perpetuo venivano dunque ufficialmente sconfessati per sempre. Non tutti però conoscono questa bocciatura, sicchè i tentativi di preparare macchine che producono movimento dal nulla proseguono ancora.

Joseph_Louis_LagrangeNel frattempo vedevano la luce gli studi di Lagrange (1736-1813), matematico italiano, che pubblicava, nel 1788, la fondamentale Mécanique analytique (15), ove riporta le leggi dell’equilibrio e del movimento attraverso una formulazione matematica. Appronta un sistema di equazioni, che posseggono alcune proprietà notevoli (per esempio la loro invarianza rispetto a trasformazioni puntuali arbitrarie), oltre a rappresentare un principio differenziale di energia. Da queste si può dedurre il principio di conservazione della forza viva. Da non sottovalutare l’opera di Gaspard Gustave de Coriolis (1792-1843) che introduceva il fattore ½ nel calcolo della forza viva e definiva il lavoro come il prodotto di una forza per una distanza (16). Occorre anche ricordare le opere di ingegneria teorica di Lazare Nicolas Marguerite Carnot (1753-1823), padre di Sadi Carnot, ove cerca di applicare i concetti di forza viva e di lavoro per spiegare il funzionamento di macchine, considerate come mezzi per la trasmissione dell’attività meccanica (per noi da intendersi come energia) da un corpo all’altro (17). E’ stato messo in evidenza come Lazare Carnot si sia avvicinato molto al principio della conservazione dell’energia e alla definizione del lavoro, pur senza toccarli. Un altro che sfiorò la comprensione del principio di conservazione, senza coglierlo, fu Henry Cavendish (1731-1810), nel momento in cui stava elaborando una formulazione della teoria cinetica del calore. Occorre ricordare a questo proposito che il concetto di energia è anche collegato alla natura del calore che è stata svelata dopo secoli di studi e intuizioni.

Per diversi secoli due teorie, quella dinamica e quella materiale, si erano fronteggiate per spiegare la natura del calore che si sprigiona durante alcune operazioni: segando o perforando un metallo, battendo un chiodo con un martello, nel corso di alcune reazioni chimiche e naturalmente durante le combustioni. Era anche noto che il calore, quasi fosse un fluido, si propagava lungo i metalli ma non lungo altri materiali (legno, vetro, ecc.). La prima teoria, quella dinamica, vedeva come sostenitori Bacone (18), Boyle (19), Bernoulli (20), Sadi Carnot (25), Hooke e Locke, la seconda, quella materiale, annoverava come sostenitori Gassendi (22), Black (21), Laplace, Lavoisier (23), Davy (24). Fino a tutto il settecento entrambe godettero di uguale credito e bisogna giungere a Clausius per vedere trionfare la teoria dinamica in grado di spiegare qualsiasi aspetto o comportamento del calore. Non vi è dubbio che il grande Lavoisier, con l’idea del suo fluido, ovvero il calorico, contribuì non poco a mettere fuori strada gli altri sostenitori. Fra questi certamente Sadi Carnot, fondatore del 2° principio della termodinamica, che si riferì al calore in termini di calorico. Carnot morì comunque molto giovane (durante un’epidemia di colera), sicchè, si pensa, non ebbe il tempo di riflettere. Negli ultimi anni sembra infatti si fosse convertito alla teoria dinamica.

La scoperta del principio di conservazione

220px-SS-jouleSiamo dunque giunti agli anni 1840-50 e le idee per pervenire alla scoperta del principio di conservazione dell’energia e quindi al concetto di energia erano finalmente mature. Nel 1841 J. P. Joule (1818-1889) esponeva la legge che porta il suo nome, sulla produzione di calore sviluppato dal passaggio della corrente in un conduttore. Nel 1843 determinava l’equivalente meccanico della caloria ed enunciava il principio di conservazione dell’energia meccanica, introducendo il concetto di energia cinetica. Joule però, e questo è accertato, non si rese mai conto di aver scoperto il principio della conservazione dell’energia ovvero il fatto che la somma di tutti i tipi di energia in un sistema è costante. Joule a quanto pare sfiorò la vera e propria definizione del principio durante una conferenza dal titolo On Matter, Living force and Heat tenuta nella sala di lettura della chiesa di S. Anna a Manchester, il 18 aprile 1847 (26). In quell’occasione affermava, tra l’altro, che “you see, therefore, that living force may be converted into heat, and that heat may be converted into living force…”. “the same quantitative of heat will always be converted into the same quantity of living force”.

Hermann_von_HelmholtzSiamo dunque al 1847 quando la meta venne raggiunta, in maniera del tutto imprevedibile, da un altro giovane scienziato che in quel periodo si occupava prevalentemente di medicina. Il principio venne infatti descritto in tutto il suo significato, in termini matematici, da un medico tedesco, Herman von Helmholtz (1821-1894), in un saggio che è poi passato alla storia (27). Gli studi, le scoperte e le invenzioni di Helmotz, per la loro vastità e versatilità, non mancano di stupire chiunque abbia l’avventura o l’occasione di esaminarli (28). Fra le prime sue intuizioni, aveva solo 26 anni, fu appunto la descrizione del principio di conservazione dell’energia. Principio individuato quando era chirurgo presso lo squadrone degli Ussari a Potsdam e quindi distratto da altri compiti e afflitto da condizioni economiche poco floride. Si ritiene che, al contrario di molte altre scoperte e intuizioni di altri scienziati, questa non fu casuale. Helmholtz si trovava in quel momento ad essere l’unico studioso che combinava in sé tutti i requisiti necessari per pervenire alla formulazione del principio: profonda conoscenza della meccanica, possesso dei principi riduzionistici in fisiologia, abilità matematica, influenza della filosofia di Kant ovvero fede nell’esistenza di forse unificatrici in natura. Studiando, come fisiologo, il metabolismo muscolare, ebbe modo di verificare come durante la contrazione non si ha dispendio di energia, ma solo una sua trasformazione. Da qui l’origine dei suoi studi teorici sulle forze fisiche e la conseguente ben nota formulazione matematica (dUA = dQ – dW).

La legge si applica, come è noto, ai processi relativistici oltre a quelli descritti dalla meccanica quantistica. Si applica ai processi possibili in natura ma anche a quelli impossibili. Nel decennio 1850-60 questa consapevolezza fece del principio di Carnot, l’altra legge, la 2a della Termodinamica (che ebbe però anche altre formulazioni equivalenti). La prima legge implica l’impossibilità del moto perpetuo e la reciproca convertibilità di ogni forma di energia ma che non esclude processi impossibili in natura (macchine del moto perpetuo di secondo tipo). In breve non tiene conto che i processi naturali e spontanei presentano proprietà direzionali. Di quest’ultima si tiene conto in una delle altre formulazioni della 2a legge (quella di William Thomson, noto anche come Lord Kelvin).

Riassumendo, fino alla seconda metà del 19° secolo i concetti fondamentali della fisica erano lo spazio, il tempo, la massa e la forza. Da allora in poi diventano lo spazio, legato in maniera indissolubile al tempo, la massa e l’energia. La formulazione del principio della conservazione condusse alla scienza dell’energetica, ricca di tonalità metafisiche e persino religiose. Al meccanicismo tradizionale, che risolveva ogni fenomeno come forme speciali di movimento, si sostituisce l’energetismo che respinge il concetto di materia, prima contrapponendolo a quello di energia e poi assorbendolo e che guarda tutti i fenomeni fisico-chimici come variazioni di energia e tutte le realtà come manifestazioni di energia. Le masse inerti non sono altro che energia latente. In parole povere, la sensazione di solido che si prova toccando un corpo nasce in realtà dalle forze di repulsione che si manifestano. Nella materia, costituita da atomi, prevale il vuoto, ove agiscono forze di attrazione e repulsione in costante equilibrio. E da ricordare che anche le attività produttive, la stessa economia vengono reinterpretate in chiave energetica, come vedremo nelle prossime note.

Bibliografia

(1) J. H. Poincarè (1902), La Science et l’Hypothèse, Flammarion, Paris.

(2) K. E. L. M. Planck (1900), “Ueber die Elementarquanta der Materie und der Eletricität”, Annalen der Physik, vol. 2.

(3) A. Einstein (1905), “Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt”, Annalen der Physik, vol. 17.

(4) Si veda R.L. Lehrman (1973), “Energy is not the ability to do work”, The Physics Teacher, 1: 15-18. Secondo questo studioso una definizione accettabile, che asseconda contemporaneamente i primi due principi della termodinamica sarebbe: “Energy is a quantity having the dimensiono of work which is conserved in all interactions”.

(5) Si rimanda fra i tanti a F. Rivetti Barbò (1994), Lineamenti di antropologia filosofica, Editoriale Jaca Book Spa, Milano, p. 38 e segg.

(6) Si legga: Aristotele, Metafisica, a cura di C.A. Viano,Torino, Utet, 1974, p. 509 e segg.

(7) M. De Micheli (2008), Leonardo da Vinci. L’uomo e la natura, Feltrinelli, Milano.

(8) Galileo Galilei (1623), Il Saggiatore. Nel quale con bilancia squisita e giusta si ponderano le cose contenute nella Libra, Cap. VI, in Roma appresso Giacomo Mascardi.

(9) “Ciascuna cosa, in quanto è semplice rimane per quanto è in sé, sempre nel medesimo stato, e non è mai mutata se non da cause esterne.” Si veda: R. Descartes (1629-1633), Le Monde ou le traité de la lumière et des autres principaux objects des sens, pubblicato postumo il 1644 ad Amsterdam: Louis Elzevir. Gli studiosi sono concordi nell’affermare che non si può attribuire solo a Cartesio la paternità della scoperta del Principio di Inerzia.

(10) G. W. Leibniz (1686), “Essay de dynamique sur les loix du mouvement, où il est monstrè, qu’il ne se conserve pas la meême quantite de mouvement, mais la même force absolue, ou bien la même quantité de l’action motrice”, Mathematische Schriften, ed. C. I. Gerhardt, 9 vols. in 5 (Halle, 1860), Ser. II, Vol. II, pp. 215-231.

(11) C. Huygens (1667), “De motu corporum ex percussione”, “Appendice I”, in OC, XVI, p. 103 [Hug. 26A, f. 13v] (pubblicata postuma nel 1703).

(12) T. Young (1807), Course of lectures on Natural Philosophy and the Mechanical Arts, volume II, printed for J. Johnson by W. Savage, 1897, London, p. 52.

(13) Cfr. The Sciences in Enlightened Europe a cura di William Clark, Jan Golinski, Simon Schaffer (1999), The University of Chicago Press, Chicago, p. 254; R. Hahn (1969), Anatomie d’une institution scientifique, l’Académie royale des sciences de Paris, Archives contemporaines, Paris, 1969.

(14) La duplicazione del cubo, la trisezione dell’angolo e la quadratura del cerchio, utilizzando solo righello e compasso, costituirono, come è noto, i tre problemi classici della geometria greca. Nel 18° secolo, per risolvere il problema della quadratura del cerchio si era perfino istituito un premio, per cui l’Académie ritenne utile intervenire: “…l’Académie ayant été aux voix il a été décidé que désormais l’Académie ne recevrait ni n’examinerait aucun mémoire qui ait pour objet la quadrature du cercle”. Si veda per maggiori particolari: M. Jacob (2005), “Interdire la quadrature du cercle à l’Académie: une décision autoritaire des lumiéres ?”, Revue d’histoire des mathématiques, 11: 89–139.

(15) J.L Lagrange (1788), Mécanique analytique, Mme Ve Courcier, Paris.

(16) Coriolis introdusse i termini lavoro ed energia cinetica, attribuendo loro un significato simile a quello moderno, nella sua opera maggiore (Du calcul de l’effet des machines, Carilian-Goeury, Paris, 1829, ripubblicato postumo come Traité de la Mécanique des corps solides il 1844”).

(17) Lazare Carnot, Essai sur les machines en géneral, par un officier du Corps Royal du Géne, A. M. Defay, Dijon, 1783. Successivamente, il 1803, estese l’argomento intitolandolo Principes fondamentaux de l’Equilibre et du mouvement.

(18) F. Baconis (1650), De Verulamio, Summi Angliae Cancellarij, Novum Organum Scientiarum, LVGD. BATAV., Ex Officina Adriani Wyngaerden, Anno 1650.

(19) R. Boyle, De Mechanica Caloris, et Frigoris Origne. Experimenta, et Notae Circa Mechanicam caloris Et Frigoris originem, Seu Productionem, LONDINI. Impensis Samuelis Smith ad Insignia. Principis in Coemiterio D. Pauli. (Pubblicato postumo nel 1692).

(20) D. Bernoulli (1738), Hydrodynamica, sive De Viribus et Motibus Fluidorum Commentarii, Opus Academicum, I edition,, Johann Reinhold Dulsseker, Strasbourgh, 1738.

(21) J. Black (1803), Lectures on the Elements of Chemistry delivered in the University of Edinburgh, J. Robison, 2 vols., Edinburgh.

(22) P. Gassendi (1658), Opera omnia, Lyons.

(23) A.-L. Lavoisier, P.-S. La Place (1783), “Mémoire sur la chaleur”, lu à l’Académie royale des sciences, le 28 juin 1783, Gauthier-Villars, Paris.

(24) H. Davy (1799), On Heat, Light and the Combinations of Light, with a new Theory of Respiration and Observations on the Chemistry of Life, Beddoe’s West Country Collections, Bristol.

(25) Nicolas L. Sadi Carnot (1824), Réflexions sur la puissance motrice du feu, Mallet-Bachelier, Parigi.

(26) J. Prescott Joule (1847), “On Matter, Living Force, and Heat”, a Lecture at St. Ann’s Church Reading-Rom, pubblicato nel “Corriere” di Manchester (Manchester “Courier” newspaper), il 5 e 12 maggio 1847.

(27) Herman Ludwig Ferdinand von Helmholtz (1847), Über die Erhaltung der Kraft, eine physikalische Abhandlung, Druck und Verlag von G. Reimer, Berlin.

(28) Si occupò di acustica, ottica, fisiologia e matematica. Studiò il moto dei fluidi, l’elettromagnetismo, la percezione dei suoni e dei colori, la velocità di propagazione degli impulsi nervosi, i moti dell’atmosfera, pose le fondamenta dell’idrodinamica e svolse persino ricerche sulle trombe d’aria, temporali e ghiacciai. Formulò la teoria (detta appunto di Young-Helmholtz) secondo la quale le sensazioni cromatiche possono essere ricondotte alla combinazione di tre colori fondamentali (rosso, verde e blu ovvero oggi noti come RGB, iniziali dei corrispondenti termini inglesi) ciascuno dei quali risulta dalla stimolazione di tre differenti recettori. Sulla stimolazione da parte di elettroni di composti diversi in grado di provocare l’emissione di radiazioni RGB e delle loro combinazioni, si fondano attualmente tutti i monitor dei computer, TV, ecc

I libri nella tempesta perfetta

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Laura Peperoni*

 Brevi considerazioni sul concetto di copyright

La Giornata Mondiale del Libro e del Diritto d’Autore che si celebra ogni anno il 23 Aprile (http://www.unesco.it/cni/index.php/news/316-giornata-mondiale-del-libro-e-del-diritto-dautore-2015), è un evento patrocinato dall’UNESCO per promuovere la lettura, la pubblicazione dei libri e la protezione della proprietà intellettuale attraverso il copyright, con l’obiettivo di valorizzare il contributo degli autori al progresso sociale e culturale dell’umanità (28 C/Resolution 3.18 del 15 novembre 1995)

“Costruire una Società della Conoscenza inclusiva attraverso l’informazione e la comunicazione “ è uno degli obiettivi chiave della strategia di medio termine dell’UNESCO. Adottando un simile obiettivo, gli Stati membri riconoscono che la conoscenza riveste un ruolo fondamentale per la crescita economica, lo sviluppo sociale, l’arricchimento culturale e l’affermarsi dei principi democratici. Per questo, tra l’altro, l’UNESCO ha potenziato il suo programma a favore dell’Open Access, rivolto a migliorare la comprensione delle strategie dell’Accesso Aperto, da intendersi, come sostiene Peter Suber (2012), un “rivoluzionario modo di accesso “ a importanti fonti d’informazione quali i prodotti della letteratura scientifica.

Il rapporto tra proprietà intellettuale, gestione dei diritti dell’autore, copyright, vie dell’Open Access e modelli free di accesso all’informazione rappresenta una questione aperta, in particolare in ambito accademico dove, come rileva Antonella De Robbio, “ il 90% delle produzioni intellettuali generate dal sistema ricerca internazionale è chiuso entro piattaforme editoriali con accesso a pagamento” e “i margini di profitto detenuti attualmente dagli editori commerciali sfiorano anche il 50%”.

 copyright

Ampliando lo scenario, ineludibile è il riferimento ai cambiamenti introdotti nelle modalità di accesso all’informazione e elaborazione /diffusione della conoscenza dalla rivoluzione tecnologica digitale in corso rispetto ai paradigmi assestatisi con la precedente rivoluzione tecnologica della medesima portata, l’introduzione della stampa a caratteri mobili. La congiuntura in cui attualmente si trova l’editoria appare caratterizzata da dematerializzazione della copia, abbattimento dei costi fissi di produzione, deverticalizzazione, decentramento e dispersione delle funzioni autorali, editoriali e bibliotecarie. In breve, come suggerisce Roberto Caso, il mercato delle copie tangibili appare investito dalla “tempesta perfetta” e il dibattito intorno a proprietà intellettuale e copyright si è trasformato in una discussione su controllo dell’informazione, delle idee e della conoscenza tra sostenitori del rafforzamento del controllo e fautori della completa cancellazione del diritto d’autore.

Per individuare natura e portata delle effettive forze in campo, potrebbe risultare interessante ripercorrere lo sviluppo del concetto di copyright/diritto d’autore nella prospettiva metodologica Law and Technology proposta da Roberto Caso, che analizza l’evoluzione giuridica alla luce del progresso tecnologico al fine di comprenderne le importanti implicazioni giuridiche, economiche e sociali.

E’ attraverso la stampa a caratteri mobili che, tra la fine del Quattrocento e gli inizi dell’Ottocento, il sistema dei privilegi librari, strumento di trasferimento di tecnologia, incentivazione economica, controllo del mercato e censura, si trasforma nel diritto soggettivo, cedibile mediante contratto, di esclusiva su un’opera dell’ingegno. Tra i privilegi monopolistici finalizzati al trasferimento di tecnologia figura quello riguardante le macchine per la stampa a caratteri mobili, che si estende successivamente anche ai prodotti delle macchine, i libri. Il detentore del potere costituito concede allo stampatore il privilegio di poter stampare in monopolio (per un periodo limitato di tempo) singoli titoli o intere collane. In cambio, lo stampatore versa le tasse di concessione e agevola la censura. Col tempo gli stampatori si organizzano in potenti corporazioni capaci di svolgere una penetrante azione di lobbying e di dar vita a veri e propri ordinamenti privati. A questo livello, la regolamentazione e la tutela si basano sul carattere materiale dell’attività, dirigendo l’azione rimediale alla distruzione della stampa/riproduzione per intero non autorizzata. Autori e tutela contro il plagio, inteso come appropriazione della paternità o imitazione della forma espressiva di un’opera altrui, non sono ancora contemplati.

Il privilegio librario si trasforma nel diritto esclusivo di pubblicare e mettere in commercio libri quando le rivoluzioni politiche in Europa e Stati Uniti tra Seicento e Settecento modificano gli assetti istituzionali e favoriscono lo sviluppo di libertà di commercio e libertà di stampa. In questo periodo si avviano le prime rivendicazioni degli autori e il decisore pubblico matura la scelta di limitare il copyright, non occupandosi dei diritti morali, temporalmente e in ampiezza.

Nel confronto tra i diversi sistemi giuridici, all’interno dei quali successivamente si svilupperanno i modelli rispettivamente di copyright e diritto d’autore, emergono elementi comuni. In alcuni casi gli intermediari del mercato della creatività strumentalizzano le ragioni degli autori reclamando per questi ultimi un diritto di esclusiva perpetuo, ma cedibile mediante contratto. In altri l’esclusiva dell’autore non viene rifiutata radicalmente, ma viene rivendicata una limitazione temporale come strumento per raggiungere il fine della diffusione della conoscenza. Inoltre, tutte le prime regolamentazioni occidentali non consentono di governare la complessità del passaggio dal privilegio degli stampatori al diritto di esclusiva degli autori, esteso non solo all’attività materiale, ma anche alla forma espressiva dell’idea.

Nell’Ottocento fino al secondo dopoguerra il copyright ha subito numerosi adattamenti alle sfide tecnologiche che si sono succedute. Ma la risposta all’innovazione tecnologica si è generalmente concretizzata nell’estensione in ampiezza e durata del diritto d’autore. Ciò perché nella misura in cui l’autore trae guadagno dalla vendita delle copie attraverso il meccanismo delle royalties, lo stesso autore rimane uno strenuo difensore del diritto di riproduzione, come testimoniato dalla stretta connessione tra sviluppo delle tecnologie riproduttive ed inasprimento del dibattito sul plagio.

Nel mondo delle copie tangibili, l’alleanza tra autori ed editori si basa su solide basi economiche: costi fissi elevati di produzione e costi marginali di riproduzione bassi, nonché verticalizzazione delle funzioni editoriali con annesse economie di scala. La scelta del legislatore è una scelta di equilibrio. L’esclusiva non è perpetua, copre solo la forma espressiva e non l’idea; dopo la prima vendita della copia, il titolare dell’esclusiva esaurisce il diritto di controllare l’ulteriore distribuzione di quella medesima copia; esistono margini di libertà della fruizione grazie a meccanismi come le libere utilizzazioni e il fair use. La limitazione del diritto d’autore si basa sulla fondamentale natura cumulativa e incrementale dell’informazione, che è anche alla base dell’esistenza di “isole di conservazione e di libertà dei testi”, le biblioteche, in cui è possibile accedere gratuitamente non solo alla conoscenza caduta in pubblico dominio, ma anche al sapere coperto dall’esclusiva autorale e dove si può scambiare conoscenza.

Con l’avvento della rivoluzione digitale si sono progressivamente registrate due modalità di evoluzione del copyright. Da un lato, l’estensione in durata e in ampiezza del diritto, l’utilizzo di nuovi contratti – le “licenze d’uso”- finalizzati a contrastare il principio di esaurimento del diritto d’autore e l’applicazione delle misure tecnologiche di protezione (Digital Rights Management). La logica economica che sta alla base di tale strategia giuridica prevede che, se la tecnologia rende possibile a costi di transazione bassi il controllo di ogni fruizione, a ogni fruizione deve corrispondere un prezzo e che il flusso possa essere controllato. Dall’altro lato troviamo la negazione del diritto di riproduzione e una diversa concezione del diritto di paternità; escludendo la “pirateria”, il riferimento è al software libero, alle licenze Creative Commons, all’Open Source e all’Open Access come movimenti per la difesa a oltranza del diritto di riproduzione.

Essendosi i modelli commerciali spostati progressivamente verso la fruizione “da remoto” dei contenuti (cloud) e la fornitura di contenuti (copie digitali) trasformata in fornitura di servizi, risulta evidente l’opportunità di una ridefinizione giuridica del diritto di riproduzione e una riflessione approfondita del ruolo di editori e biblioteche.

Il diritto d’autore europeo ha avviato la disciplina di alcuni aspetti dello sfruttamento on-line delle opere dell’ingegno, facendo riferimento alla nozione di diritto di comunicazione al pubblico intesa come “diritto di mettere a disposizione del pubblico”. Tuttavia, oltre al copyright/diritto d’autore è urgente una revisione della regolamentazione complessiva del controllo delle informazioni digitali, con riferimento a diritto della concorrenza, diritto dei contratti e diritto della privacy.

Infine, non si può tralasciare la dimensione costituzionale, nell’ambito della quale il diritto d’autore deve essere bilanciato con altri diritti fondamentali, e l’analisi dell’influenza che etica e norme sociali hanno sul dibattito intorno al copyright, evitando che le differenze generazionali inneschino ulteriori conflitti.

*Laura Peperoni è laureata in Filosofia  e si è perfezionata in gestione e direzione di biblioteca nel 2001. Dal 2004 è bibliotecaria presso l’Università di Bologna, dove attualmente coordina la Biblioteca Interdipartimentale di Chimica.

Per saperne di più:

  1. Caso, Alle origini del copyright e del diritto d’autore: spunti in chiave di diritto e tecnologia. Trento: Università degli Studi di Trento. Facoltà di Giurisprudenza, 2010 (The Trento Law and Technology Research Group. Research Papers Series; 2), http://eprints.biblio.unitn.it/1918/ (ultima consultazione: 22/04/2015)
  2. Caso, I libri nella “tempesta perfetta”: dal copyright al controllo delle informazioni digitali. Trento: Università degli Studi di Trento. Facoltà di Giurisprudenza, 2013 (The Trento Law and Technology Research Group. Research Papers Series; 14), http://eprints.biblio.unitn.it/4131/ (ultima consultazione: 22/04/2015)
  3. De Robbio, Accesso aperto e diritti: un difficile equilibrio tra tutele e libertà. Bibliotime, a. XVI, n. 3 (novembre 2013), http://www.aib.it/aib/sezioni/emr/bibtime/num-xvi-3/derobbio.htm (ultima consultazione: 22/04/2015)
  1. De Robbio, La gestione dei diritti lungo le vie dell’accesso aperto: prospettive a dieci anni di distanza, Bibliotime, a. XVII, n. 3 (novembre 2014), http://www.aib.it/aib/sezioni/emr/bibtime/num-xvii-3/derobbio.htm ((ultima consultazione: 22/04/2015)

Uomini e batteri.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Claudio Della Volpe

Le “vulgate scientifiche” potrebbero essere considerate come le rappresentazioni spesso ideologiche che i mass media e la cultura fanno di quelli che Kuhn chiamava “i paradigmi dominanti”; rappresentazioni che perdono la ricchezza e le molteplici sfaccettature che i modelli e la ricerca costruiscono faticosamente e spesso contraddittoriamente; tali vulgate tuttavia sono anche, almeno in parte, ben dentro la divulgazione della scienza e anche, ahimè, perfino dentro una parte del discorso scientifico vero e proprio.

I settori più sensibili all’azione della vulgata, che potremmo considerare anche una versione (al limite) caricaturale dell’ortodossia scientifica, sono, a mio parere, quelli che riguardano i sistemi complessi; dove per sistema complesso intendo un sistema dove la modellazione del sistema medesimo si scontra col fatto che il concetto di causa-effetto così utile nei casi lineari, nei casi semplici, trova limiti consistenti altrove (organismi, ecologia, clima, società, etc robe che il positivismo avrebbe disdegnato).

Louis Pasteur in his laboratory. The great French chemist and microbiologist discovered and developed various vaccines, among them that against rabies. 1885. Oil on canvas, 1,54 x 1,26 cm DO 1986-16

Louis Pasteur in his laboratory. The great French chemist and microbiologist discovered and developed various vaccines, among them that against rabies. 1885. Oil on canvas, 1,54 x 1,26 cm DO 1986-16

La cosa non è affatto lontana da noi, nè è una mia invenzione; considerate per esempio cosa fanno i libri di termodinamica che tutti introducono (a partire dal mio amatissimo Callen) i sistemi “semplici”, escludendo dal principio cose come le superfici o i campi elettrici e magnetici e relegando a futuri corsi “avanzati” tutto il resto.

Il dato di fatto, almeno secondo me, è che dobbiamo scalzare la causa-effetto dal suo ruolo dominante e sostituirla con una scoperta settecentesca di tale Hegel (la dialettica) ma che noi chiamiamo oggi retroazione. Causa ed effetto sono spesso indistinguibili e la loro relazione è basata non su un principio di ordine ma di reciprocità; questa è una cosa difficile da digerire e già vedo schiere di colleghi che si mettono le mani nei capelli a sentire queste mie boiatine.

Ma penso d’altronde che chi convive con fenomeni come il negazionismo climatico (si veda il caso recente del Polimi con l’epocale scontro il big match in presenza del Rettore fra Caserini e Pedrocchi) può ben sopportare un po’ di polemica filosofica.

Sto partendo da lontano ma appunto le cose quasi mai sono lineari se non nel cervello di Giove o nei libri e trattati delle varie discipline.

Se chiamiamo secondo principio della termodinamica quello che è stato scoperto per primo (e peraltro in una forma che negava il primo principio), se dimentichiamo che la prima legge termodinamica ad essere scoperta è stata la trasmissione del calore, un fenomeno irreversibile e non i processi reversibili che ci intestardiamo a voler insegnare per primi, ritenendo che siano “più semplici”, allora ci meritiamo poi che le vulgate facciano la loro azione disinformativa portando ben dentro la comunità le pre-concezioni così ben radicate nel nostro mondo.

In quattro pregevoli puntate di questo blog Gianfranco Scorrano ha raccontato la storia degli antibiotici e sempre secondo il mio parere, il suo racconto, preciso e documentato, ha però sconfinato (solo qualche volta o rischiato di sconfinare) nella vulgata, soprattutto nella parte finale.

Questi eroici e geniali chimici che portano la pallottola magica all’umanità, quella capace di colpire a morte le malattie e i batteri cattivi. Ma Mr. X, l’uomo comune, come nel raccontino di Fleming, non capisce che se si usano gli antibiotici o si usano bene, in quantità sufficiente o non si usano (https://ilblogdellasci.wordpress.com/2015/02/02/batteri-chimica-e-altro-parte-iv/), in sostanza l’uomo comune e ignorante contrapposto al positivo (o positivista scienziato), questa l’idea di Fleming; oh tenete presente che Fleming quando scoprì la penicillina non era un signor nessuno: aveva già scoperto il lisozima; lo sapevate?

Fin qui la vulgata, che consiste nel trascurare i meccanismi sociali ed economici che hanno portato al problema delle resistenze, ma non solo, anche altri aspetti che oggi non possiamo ignorare della terapia antibiotica.

Cominciamo dal principio.

I batteri non sono nemici da distruggere.

Nel suo cammino millenario l’uomo si è portato appresso e se li porta ancora un numero di batteri pari a circa dieci volte quello delle cellule del corpo, con una massa dell’ordine del chilogrammo; un uomo in buona salute trasporta così nei vari distretti del suo corpo migliaia di specie di batteri che vivono in simbiosi con lui. Come tutte le convivenze anche questa presenta degli inconvenienti, ma presenta anche alcuni vantaggi. Solo da pochi anni è iniziata la classificazione del genoma e del ruolo di questi batteri, che sono oggi definiti microbioma, (una volta flora batterica, ma la flora non c’entra nulla) con riferimento essenzialmente alla loro componente genetica (http://it.wikipedia.org/wiki/Microbioma).

Skin_Microbiome20169-300

Alcuni di questi batteri e altri che convivono in altri ambienti o semplicemente in altri uomini, possono essere patogeni per l’uomo e gli antibiotici sono stati sviluppati come una strategia per lottare contro questo tipo di batteri, ma di fatto sono poi spesso attivi in modo generale contro tutti o quasi, “ad ampio spettro” ed una terapia antibiotica sconvolge l’equilibrio del microbioma, è come una specie di caccia all’uomo in cui però i poliziotti sparano nel mucchio.

Questo è uno dei limiti della strategia antibiotica, che per questo motivo viene spesso affiancata dalla somministrazione di “fermenti”, ma sinceramente dubito che la cosa sia effettivamente efficace. Solo di recente ci si è posti il problema in modo serio (http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3427468/ oppure http://www.pnas.org/content/108/13/5354.abstract).

Gli antibiotici cosa sono? Sono molecole a volte di origine naturale, come la penicillina, altre volte modificate, altre volte del tutto sintetiche, ma che rassomigliano ad altre di origine naturale che abbiamo scoperto (Fleming per primo) che vengono prodotte da alcuni organismi per combattere in modo analogo la lotta per la propria sopravvivenza. Questi organismi usano nella loro nicchia ecologica i loro antibiotici, ed è una battaglia difficile, che dura da milioni di anni in alcuni casi, nella quale mosse e contromosse si sono susseguite con continuità portando ad una omeostasi di forma complessa ed i cui risultati si sono accumulati nei codici genetici degli organismi.

Noi estraiamo queste molecole e le usiamo per i nostri scopi in altri distretti e la cosa spesso funziona; in un primo momento. Poi le cose fanno il loro corso e i nostri batteri imparano a convivere con questi nuovi antibiotici, che prima non erano presenti nel loro ambiente. I batteri sono capaci di tramandare le nuove (o riscoperte) abilità per via genetica diretta, ma anche di trasmettere il loro materiale genetico a specie del tutto diverse dalla propria con vari meccanismi, in un pastice genetico di cui ancora non vediamo tutte le implicazioni.

D’altronde il caso olivo-Xylella Fastidiosa è l’ultimo esempio in ordine di tempo degli effetti che ha il mescolamento disattento delle specie; nei secoli abbiamo condotto vari esperimenti in questo senso, a partire dalla peste bubbonica (il cui ingresso nell’ambito europeo fu causata da un atto di guerra durante l’assedio di Caffa), l’unificazione microbica del mondo è passata per le infezioni per noi “bambinesche” che hanno decimato le popolazioni del Sud America al tempo della conquista spagnola, fino ad arrivare alle coperte coscientemente infette di vaiolo, date ai nativi nordamericani dal civilissimo esercito di Sua Maestà britannica. Ma non sono state dissimili la introduzione del coniglio e del cane in Australia e dei topi e ratti dappertutto. L’unificazione microbica (ed ecologica, una vera iattura!!) del mondo (e che sconfina nella guerra biologica) è uno degli effetti della globalizzazione, un processo che è ben più antico degli anni 90 del secolo scorso quando la parola è stata coniata.

Accade così che le esigenze del mercato, della crescita necessariamente infinita che sarebbe (ma io non ci credo affatto) l’unico modo di fare e redistribuire la ricchezza abbiano portato ad un uso spropositato degli antibiotici nell’uomo e contemporaneamente alla ricerca di “nuovi” mercati, per esempio l’uso degli antibiotici negli animali da allevamento, con un consumo che totalizza la metà (!!) di tutto il mercato antibiotico; in un bell’articolo sul tema (http://www.rivistapaginauno.it/antibiotici-ricerca-farmaceutica.php) Giovanna Baer analizza e critica la situazione attuale. Fra l’altro nota che i nuovi detersivi antimicrobici con i quali le nuove baldanzose super-mamme della pubblicità (super-papà no, quelli guidano le super-auto casomai ecologiche) distruggono il 99.9% dei microbi cattivi fanno fare soldi ai produttori, ma inquinano l’ambiente lasciando come residuo uno 0.1% di batteri resistenti pure ai superdetersivi che prima o poi ce la faranno pagare.

Bisogna anche notare che i metodi per individuare nuovi antibiotici sono storicamente limitati.

Non tutti i batteri del suolo, che costituiscono la storica fonte di suggerimento molecolare per chi cerca nuovi antibiotici, sono coltivabili in vitro, per vari motivi (contenuto effettivo del terreno, ambiente anaerobico, scarsa velocità di crescita, etc.) ; questo limite era già stato notato in passato; recentemente la scoperta della teixobactina (https://ilblogdellasci.wordpress.com/una-alla-volta/teixobactina/) ha messo all’ordine del giorno questo settore inesplorato della comunità batterica del terreno, in cui solo l’1% dei batteri è di fatto coltivabile; il nuovo giacimento di potenziali antibiotici che con la teixobactina ha dato prova di essere molto interessante, potrebbe essere “coltivato” con nuovi metodi di indagine, come la cosiddetta proteomica, andando ad esplorare direttamente quali proteine sono espresse nei vari casi. Ma c’è di più.

Dato che i nostri antibiotici in un modo o nell’altro vengono dal “terreno” letteralmente e da specie viventi che nella loro nicchia ecologia hanno sicuramente sviluppato quelle armi e incontrato delle resistenze, c’è da aspettarsi che i batteri abbiano un arsenale veramente molto potente. In un articolo di pochi giorni fa (Sci. Adv. 2015;1:e1500183) gli autori dichiarano di aver trovato geni che codificano per la resistenza a moderni antibiotici nel microbioma di una popolazione umana che per almeno 11.000 anni è rimasta isolata e non ha avuto contatti con la terapia antibiotica.

In altre parole se questo è vero i batteri conoscono già la risposta alle nostre domande e i nostri attacchi hanno poche speranze di rimanere sempre vittoriosi.

Il rafforzamento della strategia antibiotica appare quindi come il rafforzamento di quella che non può essere un’arma definitiva. Certo si può e si deve fare, nel frattempo e quando serve e rispettando le regole, ma con la coscienza che non è detto sia la strategia vincente.

Ci sono alternative? Qualcosa esiste.

Tre strategie alternative sono da una parte: l’uso di giacimenti di sostanze antibatteriche di diversa origine, per esempio le endofite, l’uso di terapie antibiotiche mirate precedute da controlli molto veloci che consentano l’individuazione in tempi dell’ordine dei minuti dei batteri coinvolti e dall’altra strategie completamente non convenzionali di terapia basate non sugli antibiotici, ma sui fagi, ossia su quei virus che attaccano e distruggono i batteri.

Del primo argomento, che consiste di fatto nello sfruttare un giacimento “non rinnovabile” da questo punto di vista (http://www.sciencedirect.com/science/article/pii/S0944501309001128) si parla da un pò; esistono risorse “naturali”, giacimenti, miniere in un certo senso di risorse antibatteriche usate da altri esseri viventi diversi dai batteri del suolo; le endofite, sono organismi vegetali che vivono all’interno di un altro organismo. Alghe uni- o pluricellulari appartenenti a diversi gruppi, le quali si annidano negli strati esterni, più o meno mucillaginosi, delle membrane cellulari di altre alghe o di piante superiori, batteri che si trovano spesso nella guaina gelatinosa di varie Cianofite e Funghi per es., quelli delle micorrize endotrofiche.

Del secondo argomento abbiamo già accennato in un post (https://ilblogdellasci.wordpress.com/brevissime/pillole-di-raman/); la spettroscopia Raman consente di individuare con notevole precisione e grande velocità la componente batterica di un preparato; se questa tecnica si svilupperà al punto di essere usata in tempi ragionevoli potrebbe sostituire le tecniche tradizionali di cultura che richiedono giorni. Questo consentirebbe di usare non più antibiotici ad ampio spettro ma solo antibiotici mirati e certamente efficaci.

D’altronde esistono strategie del tutto originali, come quella dei fagi, sviluppata negli scorsi decenni nei paesi dell’ex-URSS e che oggi è diventata talmente interessante da meritarsi un progetto europeo dedicato, Phagoburn (http://www.phagoburn.eu/) e l’interesse delle principali riviste scientifiche (http://www.nature.com/news/phage-therapy-gets-revitalized-1.15348).

I fagi ossia i virus che attaccano i batteri furono scoperti durante gli anni della prima guerra mondiale da Frederick Twort nel 1915 e Felix d’Hérelle nel 1917. Successivamente un medico georgiano George Eliava fondò nel 1923 un istituto a Tbilisi, in Georgia, dove per decenni i russi hanno guarito pazienti che in occidente sarebbero morti o sarebbero stati amputati chirurgicamente.220px-Twort

Felix_d'Herelle

I fagi sono estremamente specifici ma devono essere individuati con precisione e questo richiede tempo e soprattutto una ampia esperienza che al momento esiste solo in pochissimi centri come quello di Tblisi.

I sistemi complessi come il corpo umano o in genere gli organismi non sono oggetti semplici su cui intervenire, sono sistemi molto lontani dall’equilibrio in cui il mantenimento dell’omeostasi è un obiettivo complesso e realizzato tramite meccanismi di retroazione che la scienza basata su causa-effetto non riesce ad affrontare ancora. Altri sistemi complessi sono il sistema climatico e la nostra stessa società.

Abbiamo bisogno di un’approccio basato sulla retroazione, e non solo per fare felice il vecchio Hegel, ma perchè senza di esso molti fenomeni “complessi”, non lineari, ci sfuggiranno per sempre.

Sapremo fare questo salto di qualità?

Il tesoro nascosto nelle fogne.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Mauro Icardi

Lo scorso 23 Marzo, in occasione del 249° meeting dell’ American Chemical Society è stato presentato un progetto di studio per valutare la possibilità economica e tecnica del recupero di metalli dai reflui fognari. Molti giornali hanno titolato in maniera a mio giudizio superficiale di “miniera d’oro nelle fogne” oppure più prosaicamente “La cacca è una miniera”. Effettivamente l’articolo che si trova sul sito della società chimica americana usa questa frase “ Sewage. Yes poop could be a source of valuable metals and criticals elements” Ma leggendo in maniera più approfondita si rivela meglio il senso dello studio.

Katlheen Smith dello United States Geological Services nel presentare il progetto spiega che recuperare metalli avrebbe il beneficio di ridurne la concentrazione nei fanghi di risulta (biosolids) provenienti dal trattamento delle acque reflue. In America (ma anche in Italia) i fanghi di risulta sono riutilizzati in agricoltura. Negli Stati Uniti si originano annualmente più di sette milioni di tonnellate di fanghi. La metà circa viene reimpiegata e sparsa nei terreni.

Questo è il primo approccio dello studio e della sperimentazione.

Il secondo approccio è invece totalmente orientato al recupero di metalli preziosi e rari che potrebbero avere un mercato. Tra questi il vanadio e il rame. Si legge che il gruppo di studio sta lavorando in collaborazione con l’industria mineraria, sperimentando per l’estrazione dei metalli dai fanghi gli stessi prodotti utilizzati per l’estrazione dei metalli dalle rocce, o per il recupero dei concentrati di miniera.

Il progetto prevede anche di raccogliere ed incrociare i dati provenienti dall’EPA (Environmental Protection Agency) ed altre agenzie simili, con quelli dell’USGS.

Esaminando fanghi di depurazione al microscopio elettronico il gruppo della Smith ha iniziato a scoprire metalli come platino, argento e oro. A loro giudizio le quantità di minerali presenti sia pure in quantità minime, sarebbero commercialmente redditizie se si trovassero in matrici rocciose. La presentazione dello studio prosegue dicendo che la convenienza economica del recupero di metalli da fanghi di depurazione andrà valutata caso per caso.

Nella foto si vedono particelle di piombo e di oro in un fango di risulta osservate al microscopio elettronico. Di dimensioni inferiori a dieci micron.

orofogne1

Credo ci siano alcune considerazioni da fare. La prima che mi viene in mente dopo avere letto alcuni anni fa il libro “La terra svuotata” di Ugo Bardi è che, dopo avere svuotato la terra, adesso vogliamo scavare anche nella latrina. E’ risaputo che ci sono problemi di approvvigionamento di metalli che saranno sempre più difficili e costosi da estrarre. Come ho già avuto modo di scrivere, non ho come chimico nessuna preclusione ad immaginare che si possano ricavare dai fanghi di depurazione. Anzi sono in generale un sostenitore del recupero di energia e materiali dagli impianti di trattamento delle acque.

Sarà ovviamente importante avere a disposizione dati certi ed attendibili per la corretta valutazione della convenienza al trattamento di estrazione

Il recupero di metalli da scarti di lavorazione come bagni galvanici, rifiuti elettrici ed elettronici, scarti dell’industria metallurgica, dei bagni radiografici si effettua usualmente da tempo. Le tecniche sono quelle di lisciviazione, la separazione solido liquido, l’elettrodeposizione, e i conosciuti e già applicati trattamenti chimico fisici. Per quanto riguarda il trattamento delle acque si tratta credo di una novità.

In quasi tutti i paesi che hanno regolamentato il ciclo idrico, esistono dei limiti di accettabilità per i reflui che vengono recapitati in fognatura e poi negli impianti di trattamento centralizzati. Per quanto riguarda poi i limiti allo scarico in acque superficiali, la tendenza è quella di raggiungere standard qualitativi sempre più elevati. Ovviamente maggiori standard raggiunti nelle acque reflue depurate significheranno maggiori concentrazioni di inquinanti nei fanghi residui. E di conseguenza maggiori difficoltà nel reperimento di siti per lo smaltimento, ed anche una modifica dello scenario del conferimento degli stessi.

Queste premesse sembrerebbero essere favorevoli ad intraprendere un cammino di questo genere. Mi fanno anche pensare alla necessità di investimenti e modifiche importanti nelle strutture degli impianti tradizionali. Un impegno anche in verifiche rigorose della funzionalità dei comparti presenti negli impianti. Oltre a tutto questo a stabilire sinergie con le industrie ed i comparti produttivi. La mia esperienza di lavoro è ormai arrivata ai venticinque anni (nozze d’argento con la depurazione…). E mi sono reso conto che gli scenari sono mutati. Cosi come negli anni sono mutate abbastanza spesso le caratteristiche qualitative dei reflui in ingresso agli impianti e di conseguenza dei fanghi prodotti dal trattamento. Quindi ci dovranno essere scambi di dati ed informazioni tra industrie, gestori, enti di controllo. E gli impianti futuri dovranno essere impianti molto modulari, capaci di adattarsi a mutamenti sia nel flusso idraulico dei reflui in ingresso, sia nelle variazioni di composizione degli stessi.

In futuro si potrebbero dover modificare i protocolli di analisi. Alcuni dei metalli che lo studio americano cita, non sono presenti nei protocolli analitici usuali. Oro e vanadio per esempio.

In Italia il decreto legislativo 99 del 1992 che regolamenta l’utilizzo dei fanghi di depurazione in agricoltura prevede di ricercare nei fanghi i valori di concentrazione di cromo, cadmio, nichel, mercurio, piombo rame e zinco, potassio.

L’ultima considerazione mi porta a considerare l’opera di Nicholas Georgescu Roegen e quello che definì il “quarto principio della termodinamica”. In sostanza un limite alle possibilità di riciclo infinito della materia.

Ma credo che ai ricercatori statunitensi debba andare il nostro sostegno ed incoraggiamento. Insomma le fognature come miniere sono la rappresentazione dei nostri tempi. Che ci vedranno impegnati nella modifica di molti processi produttivi. In tutto questo penso che la chimica ed i chimici saranno molto impegnati.

Chiudo con la citazione dello studio dell’USGS statunitense che in un recente environmental Science and Paper (2015, DOI: 10.1021 / es505329q) ha calcolato che il valore economico dei rifiuti prodotti da un milione di americani potrebbe valere 13 milioni di dollari in metalli.

Link della presentazione dello studio dell’American Chemical Society

http://www.acs.org/content/acs/en/pressroom/newsreleases/2015/march/sewage-yes-poop-could-be-a-source-of-valuable-metals-and-critical-elements.html

Astri, spettri e giornali: il fondatore di Nature

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Marco Taddia

Anche se talvolta è incappata, come quasi tutte le riviste scientifiche odierne, in qualche infortunio legato alla deprecabile research misconduct di personaggi privi di scrupoli, non vi è dubbio che la rivista Nature sia tuttora sinonimo di elevato prestigio editoriale e che la pubblicazione dei risultati di una ricerca sulle sue pagine ne garantisca quasi sempre originalità e qualità. Forse non tutti sanno chi fu il fondatore e il suo primo editor. Si tratta dell’astronomo Joseph Norman Lockyer (1836-1920), giustamente onorato con il titolo di Sir dai Reali inglesi. Lockyer è ben noto, oltre che agli astronomi, anche a coloro che si occupano di analisi spettrale. Di quest’ultima parleremo, semmai, un’altra volta. Qui l’enfasi è posta sulla straordinaria avventura editoriale che intraprese e che continua tuttora, inserita nel racconto della sua vita.

 nature1

 Joseph Norman Lockyer, figlio di Joseph Hooley e Ann Norman, nacque a Rugby in Gran Bretagna nel 1836. Il padre era farmacista e chirurgo, con spiccati interessi scientifici. Dopo pochi anni la famiglia si trasferì a Leicester e in questa città Ann Norman morì prematuramente nel 1845. Nel 1849 Norman, rivelatosi di salute cagionevole, fu rimandato nel Warwickshire presso parenti della madre. Frequentò la Kenilworth school. Il padre morì nel 1855 e così Norman cercò la protezione di Lord Leigh. Nel 1856 ottenne un impiego presso il War Office di Londra e andò a vivere a Wimbledon. L’anno successivo sposò Winifred James. Intanto studiava per conto suo, coltivava i suoi interessi scientifici e cominciò le sue osservazioni astronomiche nel giardino dell’amico George Pollock che aveva acquistato da Thomas Cooke, esploratore e fabbricante di strumenti, un telescopio rifrattore. Conquistato dall’astronomia, Lockyer acquistò il suo primo telescopio nel 1861 e cominciò a dedicarsi con serietà a questi studi. Si dedicava anche alla traduzione di testi scientifici francesi. La traduzione del testo di Guillemin “Le ciel” fu un grande successo; ne seguirono altre due che gli permisero di sostenere meglio il bilancio famigliare. Nel 1862 aderì alla Royal Astronomical Society e l’anno dopo comincia a spedire alcuni lavori. All’inizio del 1865 si trasferì da Wimbledon a West Hampstead, più vicino a Londra. I suoi rapporti sociali si espansero e si diversificarono. Cominciò anche render conto delle sue osservazioni astronomiche su The Reader e London Review. La collaborazione con il primo gli fece incontrare Thomas Huxley, al culmine della notorietà. Influenzato da questi, Lockyer si adoperò per dare più spazio e regolarità all’informazione scientifica nello stesso giornale. Verso la metà degli anni ’60, Lockyer maturò probabilmente l’idea di un giornale esclusivamente scientifico. Intanto, nel 1868, dava alle stampe il suo primo libro, un testo popolare di introduzione all’astronomia “Elementary Lessons in Astronomy“. Il commento di Lord Farrer, uno dei suoi sostenitori fu: “Siamo deliziati dalla chiarezza e semplicità delle tue lezioni elementari e specialmente dall’assenza di controversie ed ipotesi“. Ripreso il progetto di un giornale scientifico settimanale, ne discusse con Mcmillan. Con il concorso di Huxley, Foster e Sharpey, nacque Nature. Il primo numero uscì nell’autunno del 1869.

nature2

Lockyer fu editor del giornale fino a pochi mesi prima della morte. Nel 1870 Lockyer fu nominato segretario della Royal Commission on Scientific Instruction e, anche in questa veste, si adoperò per l’istituzione di un laboratorio di fisica solare nella zona londinese di South Kensington. Intanto continuava i suoi studi e le sue osservazioni astronomiche nell’ambito del College of Chemistry e pubblicava libri sull’astronomia e l’analisi spettrale. Nel 1881 divenne lecturer alla Normal School of Science e, nel 1887, primo professore di astrofisica. Lockyer sarà professore di astrofisica fino al 1901 e Direttore del Laboratorio di Fisica Solare fino al 1913. In tale anno il Laboratorio verrà trasferito da Londra a Cambridge. Lockyer si ritirerà con la moglie a Sidmouth, nella zona del Devon. Qui fondò un nuovo osservatorio solare che l’anno dopo la sua morte, avvenuta nell’agosto 1920, gli verrà intitolato. L’osservatorio esiste tuttora.

Per approfondire

Meadows A.J. , Science and controversy – A biography of Sir Norman Lockyer, Cambridge Mass., The MIT Press, 1972

Wilkins G. A., Sir Norman Lockyer’s Contributions to Science, Q.J.astr.Soc. (1994), 35, 51-57

Taddia M., Dai nani ai giganti: la spettroscopia stellare e le congetture di Norman Lockyer (1836-1920), ISA 2006, Giovinazzo (BA), 9-12 Aprile 2006

La premiata ditta Bossi

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Giorgio Nebbia

Il viandante che percorre, a Milano, Via Carducci si fermi all’angolo con Corso Magenta; se guarda verso S. Maria delle Grazie e il Palazzo delle Stelline si trova di fronte al sito in cui è nata l’industria chimica italiana e che è stato anche sede di una delle prime contestazioni ecologiche.

stelline

L’interessante storia è stata raccontata molti anni fa da Valerio Broglia, professore di chimica e storico appassionato, purtroppo scomparso, in due articoli dimenticati pubblicati nella rivista “Chimica”, ormai scomparsa anch’essa, e merita di essere dissepolta dall’oblio.

Alla fine del 1700 una fiorente industria chimica esisteva già in Inghilterra, Francia, Germania. Il processo di produzione dell’acido solforico dallo zolfo e dal salnitro era stato applicato su scala industriale intorno al 1750 in Inghilterra e ben presto erano sorte fabbriche simili in altri paesi europei. L’acido solforico era la materia essenziale per la produzione delle altre merci chimiche importanti. Trattando con acido solforico il sale era possibile ottenere il solfato di sodio e l’acido cloridrico. Dal solfato di sodio, per reazione con idrato di calcio, si otteneva l’idrato di sodio. Ossidando l’acido cloridrico si otteneva cloro. Questi prodotti erano richiesti dall’industria tessile e della carta, per il trattamento dei metalli, per la fabbricazione del vetro e del sapone.

Nel 1781 gli industriali inglesi avevano ottenuto l’abolizione dell’imposta sul sale, una pratica fiscale che poteva avere senso in una società agricola e arretrata, ma che ostacolava l’industria chimica che aveva bisogno del sale a basso prezzo come materia prima. Negli altri paesi europei l’imposta sul sale fu abolita poco dopo. In questo fervore produttivo internazionale l’Italia doveva acquistare all’estero i prodotti chimici di cui aveva bisogno e ciò spinse un certo Francesco Bossi a chiedere al governo, nel maggio 1799, l’autorizzazione ad installare una fabbrica di acido solforico e di altri prodotti chimici. In quell’anno Milano e la Lombardia, dopo una temporanea occupazione da parte di Napoleone, erano stati restituiti all’impero austriaco che li occupava dal 1748.

Il procedimento proposto da Bossi consisteva nel bruciare, in un apposito fornello, una miscela di zolfo e salnitro: i gas sviluppati dalla combustione venivano portati a contatto con acqua in una “camera”, una specie di recipiente, di piombo. In un documento del 13 maggio 1800 Bossi descrisse il processo chiedendo anche un monopolio per venti anni per i prodotti ottenuti. La richiesta fu esaminata dal padre Ermenegildo Pini (1742-1819), regio delegato alle miniere, che espresse un parere favorevole in data 30 maggio 1800. Pochi giorni dopo, il 14 giugno, in seguito alla battaglia di Marengo, al governo austriaco successe la Repubblica Italiana.

La pratica andò avanti col nuovo governo che nominò come perito Antonio Porati (1742-1819), “farmacista in del rion de Porta Ticines”; questi riferì di aver visitato il laboratorio di Bossi e di averlo trovato conforme a quanto descritto “nelle più recenti opere di chimica”. Il vicepresidente della Repubblica Italiana rifiutò però a Bossi il monopolio richiesto, probabilmente per non danneggiare gli interessi dell’industria francese.

Bossi allora chiese un dazio doganale sull’acido solforico importato dalla Francia e un prestito; non ottenne né l’uno né l’altro, ma solo la concessione dell’uso gratuito di alcuni locali dell’ex-convento di San Girolamo, confiscato dallo stato repubblicano e adibito a caserma e ad abitazione. Questo convento di San Girolamo si trovava nei pressi della porta Vercellina — l’attuale incrocio fra Via Carducci e Corso Magenta — lungo il naviglio oggi coperto e dava il nome all’attuale via Carducci. Prima dell’ingresso dei francesi l’edificio era stato un collegio o un seminario dei gesuiti ed è stato distrutto all’inizio del 1900.

Milano,_Naviglio_di_San_Gerolamo_01

Milano,_Naviglio_di_San_Gerolamo, attuale Via Carducci nella seconda metà dell’800.

Oltre all’acido solforico Bossi produceva anche acido cloridrico, acido nitrico, cloruro di ammonio, solfati di sodio, di potassio, di magnesio e di rame. L’acido nitrico era, fra l’altro, usato per la preparazione delle lastre per la stampa delle monete da parte della Zecca.

Ben presto la fabbrica fece sentire la sua presenza con la produzione di fumi e miasmi che provocarono la protesta dei coinquilini e dei gendarmi, ospitati nello stesso convento. E’ uno dei primi casi di protesta popolare e di lotta contro l’inquinamento dovuto a scorie industriale. Il 13 giugno 1802 fu emessa un’ordinanza che obbligava Bossi a smettere subito la produzione. Bossi cercò di opporsi accusando i concorrenti e gli importatori di acido di aver sobillato la protesta contro di lui. Ancora più arrabbiati, gli abitanti dell’edificio di San Girolamo ricorsero, il 16 giugno 1802, alla Commissione Sanità del Dipartimento dell’Olona (la struttura amministrativa che comprendeva Milano e provincia), qualcosa come l’assessorato regionale alla Sanità. La Commissione fece fare subito un sopralluogo e il 18 giugno 1802 — a giudicare dalle date i procedimenti amministrativi in difesa della salute pubblica erano più rapidi che adesso — diede a Bossi tre giorni di tempo per murare le finestre verso il cortile “onde togliere ogni comunicazione degli effluvi solforici col caseggiato”.

I guai non erano finiti. Il 10 luglio Bossi e un suo operaio furono “mezzi abbrucciati” dall’acido solforico; i due malcapitati con i vestiti in fiamme si gettarono in un sarcofago di pietra pieno d’acqua e Bossi dovette stare tre mesi in ospedale.

Con la ripresa del lavoro l’inquinamento e il puzzo continuarono fra le proteste dei soldati e dei coinquilini. Nel novembre dello stesso sfortunato anno 1802 il povero Bossi, pieno di debiti, dovette cedere la sua quota nell’impresa al socio L. Diotto e a un certo Michele (o Carlo o Francesco) Fornara (detto il Folcione), una specie di impiantista che aveva costruito le apparecchiature. I tre soci litigarono per qualche tempo e Bossi uscì definitivamente di scena proprio nel momento in cui, nonostante l’inquinamento, gli affari cominciavano ad andare meglio.

La produzione della nuova ditta continuò nei locali di San Girolamo, ma l’inquinamento e le nocività continuarono a destare le proteste dei gendarmi e del vicinato. Nel 1807 il prefetto del Dipartimento dell’Olona (la Repubblica italiana si era nel frattempo trasformata in Regno Italico) fece compiere un ennesimo sopralluogo nella fabbrica di acido solforico, ora della ditta Fornara & C.; ancora una volta venne constatata la nocività delle esalazioni gassose irritanti e il Prefetto ordinò il definitivo trasferimento della fabbrica.

Dapprima venne proposto il convento sconsacrato dei Cappuccini (dove più tardi venne installata un’altra fabbrica di acido solforico), ma poi nel 1808, dopo lunghe discussioni, la fabbrica Fornara si trasferì in San Vincenzo in Prato, altra chiesa sconsacrata dalle parti di Porta Genova (esiste ancora oggi Via S. Vincenzo), che sorgeva appunto in mezzo ai prati, abbastanza isolata.

DSC03725 chimicamilanese

La chiesa di S. Vincenzo venne venduta nel 1810 ai soci L. Diotto e F. Fornara per lire 10.193. Questi la vendettero poco dopo alla ditta di Giuseppe Candiani (1830-1910) e Biffi che vi installò una fabbrica di acidi e per questo nell’Ottocento era chiamata “casa del Mago”. La chiesa fu riaperta al culto di nuovo intorno al 1880.

In San Vincenzo la fabbrica Fornara riprese la produzione di acido solforico e derivati nella primavera del 1809, sollevando altre proteste dei nuovi vicini, ma ci fu anche allora un perito compiacente, ancora quel Porati che abbiamo incontrato all’inizio, pronto a testimoniare che non c’era nessun posto migliore per una fabbrica di acido solforico. Se può esserci qualche disturbo per le persone che devono respirare i vapori di acido da vicino — al più, tanto, si tratta degli operai — questi vapori anzi “diventano salubri quando si dilatano e si allontanano dalla loro sorgente”. Il mondo non cambia mai.

Questa pagina della storia minore — ma la storia del lavoro e dell’industria è proprio “minore” ? — di Milano meriterebbe di essere più conosciuta. Chi sa che qualcuno non voglia ricordare con una lapide i luoghi in cui è nata l’industria chimica e si sono sperimentate le prime contraddizioni fra produzione di merci, produzione di scorie e rifiuti e salute dei lavoratori e dei cittadini.

Acqueforti della “casa del Mago” di San Vincenzo in Prati, in: http://www.boscarol.com/blog/?p=8934

Questo articolo è già comparso in una forma un po’ diversa qui.

***********************************************************************************************

Nota del BlogMaster:

Dalle mappe che si trovano facilmente in rete si apprezza che la prima posizione della fabbrica di Bossi, il convento di S. Girolamo, nelle adiacenze dell’attuale palazzo delle Stelline era all’epoca di Napoleone una zona periferica ma ancora inserita nel sistema cittadino della mura, vicino ad una della porte maggiori di Milano, la Porta Vercellina; sebbene periferico il luogo non era affatto mal collegato anche perchè raggiunto dal Naviglio di S. Girolamo, che è poi diventata alla fine dell’800 la attuale Via Carducci, con il totale interramento del naviglio.

Il trasferimento successivo della fabbrica nella allora sconsacrata basilica di S. Vincenzo in Prato, come dice lo stesso nome corrispondeva ad un allontanamento effettivo al di fuori della vecchia cerchia delle mura, ma ancora non troppo lontano dal sistema dei navigli, anche perchè la nuova sede era ad un solo chilometro dalla precedente, un quarto d’ora a piedi. I navigli hanno fatto la ricchezza e la fortuna di Milano, ma molti sono poi stati interrati scomparendo di fatto entro i primi anni del 900 dalla vita della città.

Glifosato e altre storie

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Claudio Della Volpe

Oggi parliamo di glifosato, un erbicida molto diffuso che è stato posto dallo IARC, l’agenzia internazionale di ricerca sul cancro, nella classe 2A, probabile carcinogeno per l’uomo.

logoiarc

Con un mercato di quasi 6 miliardi di dollari all’anno (sei dollari al chilo corrispondono a circa 1 milione di tonnellate all’anno) il glifosato è il più comune e diffuso erbicida del pianeta; col nome commerciale di Roundup è probabilmente conosciuto anche da molti dei nostri lettori. Esso è anche il più importante erbicida associato ai prodotti OGM e quindi si capisce quale scontro di interessi titanico possa scatenare una dichiarazione come quella dello IARC.

754px-Starr_001026-9002_Lolium_perenne

il loglio, Lolium perenne, uno dei principali infestanti mondiali

Il 24 marzo Nature ha pubblicato su questa questione un articoletto, neutro ma interessante che potete scaricare qui.

Cominciamo dal principio. Il glifosato è un erbicida, in particolare è un erbicida ad ampio spettro che agisce sulle piante in crescita attiva; non funziona cioè sulle piante in pre-emergenza, ossia prima che spuntino; la sua molecola 200px-Glyphosate.svg

è quella di un derivato dell’amminoacido glicina, la N-(fosfonometil)glicina, C3H8NO5P, un analogo aminofosforico della glicina.

Il glifosato è un diserbante sistemico di post-emergenza non selettivo (è cioè attivo, fitotossico per tutte le piante). A differenza di altri prodotti, viene assorbito per via fogliare (prodotto sistemico), ma successivamente raggiunge ogni altra posizione della pianta. Questo gli conferisce la caratteristica di fondamentale importanza di essere in grado di devitalizzare anche gli organi delle erbe infestanti che, essendo sottoterra (ipogei) in nessun altro modo potrebbero essere devitalizzati, se non attraverso un duro lavoro manuale o meccanico.

Fu sintetizzato la prima volta nel 1950 dal chimico svizzero Henry Martin, che lavorava per la Cilag. (la storia completa la potete trovare qua (http://media.johnwiley.com.au/product_data/excerpt/10/04704103/0470410310.pdf). Fu poi riscoperto indipendentemente da Monsanto nel 1970. I chimici della Monsanto nel tentativo di sintetizzare delle sostanze per “addolcire” l’acqua, (chelanti, che riducono il calcio) ne scoprirono un paio che avevano anche attività erbicida e a John E. Franz, fu chiesto di trovare degli analoghi più potenti. Il glifosato fu il terzo ad essere sintetizzato. Franz ha ricevuto per questo la National Medal of Technology nel 1987 e la medaglia Perkin per la Chimica Applicata nel 1990.

220px-National_Medal_of_Technology_and_Innovation

Il glifosato è così potente e ad ampio spettro (uccide anche molti batteri) perché inibisce un enzima centrale nella vita delle piante, il 5-enolpiruvilshikimato-3-fosfato sintetasi (EPSPS), che catalizza la reazione fra shikimato-3-fosfato (S3P) e fosfoenolpiruvato per formare il 5-enolpiruvil-shikimato-3-fosfato (ESP).

lossy-page1-600px-EPSPreactionII.tif

Dal 1970 al 2000 è stato un brevetto della Monsanto; dopo quella data è stato prodotto anche da altri tanto che attualmente è prodotto essenzialmente in Cina e pensate che queste sole modifiche nella zona di produzione hanno portato dei problemi di mercato non banali con aumenti di prezzo per questo prodotto fino a 2-3 volte il suo valore attuale.

Figuriamoci cosa può produrre una notizia come quella che abbiamo dato all’inizio.

Attualmente poi la principale parte del glifosato viene usata in combinazione con i semi OGM, ossia con piante geneticamente modificate attraverso gli specifici metodi di laboratorio che ricadono nella definizione di Ogm come data dall’UE (Direttiva 2001/18/CE). Tale modifica genetica è legata proprio all’ampio spettro del glifosato; dato che tutte le piante o quasi sono suscettibili ad esso per potenziarne l’efficacia ma per renderne seletttivo l’uso si usano piante in cui l’enzima naturale è stato sostituito mediante i metodi sintetici sopraricordati dall’enzima di un batterio che è naturalmente resistente al glifosato, l’Agrobacterium del ceppo SP4; questa informazione genetica è stata trasferita mediante quei metodi prima nella soia e poi in altre piante; in questo modo, mentre le normali infestanti sono suscettibili all’azione del glifosato e muoiono, le piante OGM, che non lo sono, rimangono vitali.

L’uso del glifosato va incontro a un problema di resistenza significativo; il numero di infestanti che resistono o che superresistono oggi al glifosato è cresciuto velocemente (al momento l’elenco internazionale delle piante resistenti agli erbicidi elenca 239 specie resistenti al glifosato; mentre erano solo 1 nel 1996 e 211 nel 2014). Sono aumentate di 200 volte in 20 anni, ossia in media sono raddoppiate ogni due anni, anche se a ritmo decrescente. Come nel caso degli antibiotici usati troppo estensivamente e che stanno perdendo il loro potere antibatterico nell’uso comune, così anche nel caso degli erbicidi questa strategia di brutale attacco mostra quindi dei punti deboli.

Ma cosa ha detto lo IARC? Anzitutto cosa è lo IARC? Lo IARC è il braccio armato della OMS, l’organizzazione mondiale della sanità, nella lotta al cancro; non è un ente operativo, esso è solo un ente scientifico, tocca ad altri stabilire una quantificazione di accresciuto rischio cancerogeno di un prodotto o raccomandare livelli di esposizione più sicuri, ma è chiaro che i suoi studi possono avere una influenza.

In questo caso una commissione internazionale ha prodotto come risultato una valutazione, una “meta-analisi”, una sorta di review di tutti i lavori scientifici, privi di conflitto di interesse (in cui per esempio non figura la Monsanto come ente finanziatore), riguardanti non solo il glifosato ma anche altri prodotti usati in agricoltura, ed i risultati sono stati pubblicati sull’influente The Lancet (oncology) (http://dx.doi.org/10.1016/S1470-2045(15)70134-8) assegnando al glifosato la categoria 2A. In effetti la commissione ha analizzato 5 sostanze, due pesticidi— tetraclorvinfos e parathion — sono stati classificati come “possibly carcinogenic to humans”, categoria 2B. Gli altri 3 — malathion, diazinon e glifosato — sono stati valutati “probably carcinogenic to humans”, ossia categoria 2A.

Cosa vuol dire? LO IARC classifica i composti su una scala che comprende 5 livelli:

Gruppo 1 – “Cancerogeni umani”, riservata alle sostanze con sufficiente evidenza di cancerogenicità per l’uomo.

Gruppo 2 diviso in due sottogruppi, denominati A e B.

Sottogruppo 2A – “Probabili cancerogeni umani”

riservata alle sostanze con limitata evidenza di cancerogenicità per l’uomo e sufficiente evidenza per gli animali.

Sottogruppo 2B – “Sospetti cancerogeni umani” sostanze con limitata evidenza per l’uomo in assenza di sufficiente evidenza per gli animali o per quelle con sufficiente evidenza per gli animali ed inadeguata evidenza o mancanza di dati per l’uomo.

Gruppo 3 – “Sostanze non classificabili per la cancerogenicità per l’uomo”

le sostanze che non rientrano in nessun’altra categoria prevista.

Gruppo 4 – “Non cancerogeni per l’uomo” le sostanze con evidenza di non cancerogenicità sia per l’uomo che per gli animali.

Per il glifosato esistono dati che provano la cancerogenicità per gli animali e le evidenze per l’uomo sono limitate al linfoma non-Hodgkin (Int. J. Environ. Res. Public Health 2014, 11, 4449-4527; doi:10.3390/ijerph110404449); secondo gli autori dello IARC tali evidenze, assieme a quelle di tipo “meccanicistico” ossia ottenute in laboratorio sul danno prodotto alle molecole di DNA dal glifosato sono sufficienti a classificare il prodotto come 2A.

A questo punto spetta alle organizzazioni che hanno ruoli decisionali di emettere un verdetto; (in effetti alcuni paesi avevano già espresso perplessità: l’Olanda ha vietato la vendita del glifosato ai privati dal 1 gennaio 2016, la Francia nel 2013 ha riconosciuto danni per il glifosato ad un agricoltore professionista, il Brasile ha in corso una procedura di messa in mora).

Vedremo.

E’ da dire che sostanze con attività erbicida esistono anche in natura. Lo stesso glifosato è molto simile ad altri prodotti analoghi presenti già in natura come mostrato qui:

variorganofosforici

Tetrahedron 58 (2002) 1631-1646

e quindi i prodotti organofosforici come erbicidi non sono state inventati dall’uomo.

Il prodotto 5, Bialaphos, è un tripeptide estratto da uno Streptomicete e commmercializzato come Herbiace; mentre il prodotto 6 è venduto come sale di ammonio col nome di glufosinato da Bayer ma è uno dei componenti del tripeptide precedente.

Si nota che il 7, il glifosato è molto simile come struttura alle molecole precedenti, ma inibiscono enzimi diversi. 8 infine è la fosfonotrixina, anch’essa estratta da un’altro batterio, Saccarotrix.

Una serie di altre sostanze sono elencate in un bellissimo articolo di autori italiani in italiano (Ital. J. Agron. / Riv. Agron., 2007, 4:463-476 Sostanze di origine naturale ad azione erbicida di Mariano Fracchiolla e Pasquale Montemurro, ma si veda anche http://arnoldia.arboretum.harvard.edu/pdf/articles/473.pdf ma anche Tetrahedron 58 (2002) 1631-1646 da cui è tratta la figura precedente), in cui c’è un elenco di sostanze naturali ad effetto “allelopatico” ossia prodotte dalle piante ma non con effetti su se stesse ma con effetti sul proprio ambiente o su altre piante.

Fra le altre, due mi hanno colpito perchè conosco le piante che le producono, l’Ailanto, (Ailantus altissima) una specie altamente invasiva, l’albero del paradiso, cosiddetto, introdotto in Europa alla fine del 700 per farvi crescere la sfinge dell’ailanto un insetto simile al baco da seta e il comune Noce, (Jugland regia).

La prima, l’ailanto o albero del paradiso

ailanto1

produce l’ailantone

ailantone

e la seconda che tutti conosciamo, il Noce,

noce

produce lo Juglone

juglone

Juglone

Nel Noce lo Juglone è sintetizzato come naftoidrossichinone

idrochinone

naftoidrossichinone

 

che viene poi ossidato e modificato nell’ambiente

Due sostanze “allelopatiche” che rendono la vita difficile alle altre piante nelle vicinanze delle prime e che spiegano sia la capacità dell’Ailanto di crescere formando spettacolari boschetti di solo ailanto sia la difficoltà ben conosciuta dai nostri agricoltori di far crescere altre piante vicine al Noce.

Ma cosa differenzia queste abilità naturali delle piante dalla nostra capacità di fare altrettanto?

In fondo anche i batteri e le muffe usano gli antibiotici da milioni di anni così come l’Ailanto e il Noce usano gli allelopati, i loro erbicidi.

Noi con gli antibiotici abbiamo certo vinto una battaglia, per qualche decennio, ma rischiamo di perdere la guerra a causa della vorace esigenza di profitto di chi spinge ad usare gli antibiotici anche quando non servono nell’uomo e come adiuvanti nell’allevamento del bestiame; gli antibiotici in eccesso alterano perfino la composizione batterica delle acque di scarico ed hanno reso resistenti moltissimi batteri comuni; oggi la resistenza batterica rischia di diventare un problema serio in tutto il mondo come abbiamo già raccontato in questo blog (https://ilblogdellasci.wordpress.com/2012/12/18/una-pallottola-spuntata/ )(https://ilblogdellasci.wordpress.com/una-alla-volta/aspergillomarasmina-a/) (https://ilblogdellasci.wordpress.com/2015/02/02/batteri-chimica-e-altro-parte-iv/)

Allo stesso modo è la struttura “a senso unico” dell’agricoltura moderna, intensiva, monocolturale, votata non tanto all’eliminazione della fame nel mondo ma alla produzione di beni che garantiscano il massimo profitto che porta ad un uso improprio ed eccessivo delle sostanze di sintesi.

L’agricoltura moderna basata su un ristretto numero di piante, prevalentemente annuali (con un mercato dei semi sempre più strappato al controllo dei singoli produttori) è sempre più fragile e dipendente da prodotti di sintesi che garantiscono la produzione di sempre meno specie ma in sempre maggiore quantità, più interessata al profitto continuo che all’integrazione dei bisogni umani nell’ecosistema complessivo.

Gli erbicidi, o il sistema delle piante OGM resistenti ad essi, non mi sembrano tanto pericolosi per se stessi, (a parte il caso attuale ovviamente) non credo alle ipotetiche tossicità di qualche pomodoro “nero”, ma temo invece la fragilità di un sistema in cui sono state brutalmente abolite tutte quelle complesse relazioni fra specie che sono alla base della biosfera come unità vitale.

La agricoltura moderna non è un sistema permanente e stabile, una permacoltura come in parte l’agricoltura dei Romani basata più su piante permanenti che annuali, o perfino non è più la coltura a cinque livelli dell’agro aversano della mia infanzia, fecondato dalla grande eruzione ignimbritica del 37.000 a.C. e che produceva nel medesimo campo verdura, frutta (la vite), legna da ardere, cereali e consentiva la sopravvivenza degli animali da cortile; oggi quell’agro è trasformato nella terra dei fuochi!

L’agricoltura moderna invece di garantire la sopravvivenza della specie umana nella biosfera ed il ricambio delle sostanze che ci garantiscono la vita a partire dall’acqua, dall’azoto, dal fosforo, si trasforma sempre più in un improvvido e fragile metodo produttivo monocolturale che dipende dall’energia del petrolio e dai prodotti di sintesi in quantità crescenti e che dopo aver alterato il ciclo dell’acqua, dell’azoto e del fosforo e distrutto gran parte dell’ambiente naturale e delle specie in esso viventi si avvia a diventare uno dei nostri principali problemi.