Il DDT: origini, successo e declino

Rinaldo Cervellati

Nel post su Rachel Carson ho particolarmente insistito sul suo libro Silent Springs, denuncia scientificamente argomentata del disastro ambientale provocato negli USA dall’uso massiccio e indiscriminato di insetticidi organo clorurati, in particolare il diclorodifenil-tricloroetano (DDT) negli anni ’50 e ’60 del secolo scorso. Si è anche discusso l’uso di questo prodotto per debellare la malaria, malattia trasmessa da una zanzara della famiglia Anopheles*. In questo post intendo approfondire l’origine, il successo e il declino del DDT. Cominciamo dall’inizio.

Nella seconda metà del XIX secolo la sintesi dell’acido acetico effettuata da Kolbe decretò la fine della concezione vitalista sull’origine dei composti organici e lo sviluppo di un numero sempre crescente di sostanze organiche di sintesi[1]. Attorno al 1873, Othmar Zeidler[2] studente di dottorato nel laboratorio di Adolf von Baeyer[3] all’Università di Strasburgo, lavorando al progetto di tesi sui possibili prodotti di reazione fra il cloralio (tricloroacetaldeide) e cloro e bromo derivati del benzene ottenne, fra l’altro il composto che oggi chiamiamo p-diclorodifenil-tricloroetano (abbreviato DDT):

Sebbene i risultati del lavoro di Zeidler siano stati pubblicati [1], le proprietà del composto non furono oggetto di indagine fino al 1939.

A scoprirle fu il chimico svizzero Paul Herman Müller (1899-1965).

Müller cominciò a interessarsi di chimica durante il periodo liceale, lavorando come assistente in una azienda chimica, la Dreyfuss & Cie. Nel 1919 fu ammesso all’Università di Basilea, diplomandosi in chimica nel 1922. Continuò gli studi perfezionandosi in chimica organica e ottenne il dottorato summa cum laude nel 1925 discutendo una tesi sull’ossidazione chimica ed elettrochimica della m-xilidina e di suoi derivati metil sostituiti [2]. Nello stesso anno Müller trovò impiego come chimico ricercatore per la divisione coloranti dell’azienda Geigy AG a Basilea. I primi compiti assegnatigli riguardarono la ricerca di coloranti di origine naturale e sintetica e agenti concianti. Questo lavoro portò al brevetto e commercializzazione degli agenti concianti sintetici tannici[4] Irgatan G, Irgatan FL e Irgatan FLT.

Nel 1935 la Geigy diede inizio a un progetto di ricerca su agenti protettivi per le piante. Müller che aveva un grande interesse per il mondo vegetale, tanto da aver scelto botanica come materia complementare nel suo corso di studi per il diploma in chimica, partecipò quindi al progetto iniziando a sintetizzare personalmente fitosanitari chimici. Questa ricerca lo portò brevettare composti cianici e tiocianici che mostravano attività battericida e insetticida e, nel 1937 al graminone, un disinfettante per semi meno pericoloso di quelli a base di mercurio usati all’epoca.

Dopo il successo con gli agenti concianti e disinfettanti, Müller fu incaricato di sviluppare un insetticida. A quel tempo gli unici insetticidi disponibili erano prodotti naturali costosi o sintetici poco efficaci contro gli insetti, i soli composti che erano sia efficaci che poco costosi erano composti di arsenico, altrettanto tossici per gli esseri umani e altri mammiferi [3].

Nel corso della ricerca, Müller scoprì che gli insetti assorbivano le sostanze chimiche in modo diverso rispetto ai mammiferi. Ciò lo portò a supporre che probabilmente ci sono sostanze chimiche tossiche esclusivamente per gli insetti. Cercò quindi di sintetizzare l’insetticida di contatto ideale, che avrebbe avuto un effetto tossico rapido e potente sul numero più grande possibile di specie di insetti causando nel contempo poco o nessun danno alle piante e agli animali a sangue caldo. L’effetto di questo insetticida ideale avrebbe anche dovuto essere di lunga durata il che implica un alto grado di stabilità chimica, nonché facile e economico da produrre.

Studiò tutti i dati che poteva trovare sul tema degli insetticidi, e sulla base delle caratteristiche che aveva stabilito si mise alla ricerca di un composto adatto ai suoi scopi. Müller trascorse quattro anni su questa ricerca e fallì 349 volte prima del settembre 1939, quando infine trovò il composto che stava cercando. Spruzzò una gabbietta piena di mosche con questo composto e dopo pochissimo tempo non ne restò una viva [3]. Il composto in questione era il diclorodifeniltricloroetano[5], che il farmacista viennese Othmar Zeidler aveva sintetizzato per la prima volta nel 1873 [1].

Müller si rese presto conto che il DDT era la sostanza chimica che stava cercando. I test del DDT da parte del governo svizzero e del Dipartimento per l’agricoltura degli Stati Uniti confermarono non solo la sua efficacia contro insetti nocivi in agricoltura ma anche contro una vasta gamma di altri parassiti, tra cui zanzare, pidocchi, pulci e mosche della sabbia, che, rispettivamente, diffondevano malaria, tifo, peste e varie malattie tropicali. Questi test fecero pensare che il DDT fosse praticamente innocuo per gli umani e i mammiferi in generale.

Nel 1940 il prodotto fu brevettato in Svizzera, due anni dopo in Gran Bretagna e nel 1943 negli USA. La Geigy iniziò la commercializzazione di due prodotti, uno spray al 5% (Gesarol) e una polvere al 3% (Neocid). Il nome DDT fu impiegato per la prima volta dal Ministero britannico per l’approvvigionamento nel 1943 e il prodotto fu aggiunto alle liste di rifornimento dell’esercito statunitense nel maggio dello stesso anno.

Struttura del DDT

Durante la seconda guerra mondiale, le truppe alleate ne fecero un massiccio utilizzo su civili e militari. La prima volta fu per sconfiggere un focolaio di tifo a Napoli, in seguito fu largamente usato in Veneto e Sardegna per sconfiggere le zanzare anofele molto diffuse nelle zone paludose e responsabili della trasmissione della malaria*. Fu proprio il risultato conseguito in Italia nel periodo bellico a spingere l’Organizzazione Mondiale della Sanità (OMS) a lanciare una campagna planetaria per l’utilizzo del DDT con lo scopo di eradicare completamente questa malattia. Di certo si può affermare che il DDT ha consentito di debellare la malaria in Europa e in tutto il Nord America [4].

Nel 1946 Müller fu nominato vicedirettore della ricerca scientifica sulle sostanze per la protezione delle piante della Geigy. Nel 1948 gli fu assegnato il premio Nobel per la Fisiologia e la Medicina[6], con la seguente motivazione:

“per la sua scoperta dell’efficienza del DDT come veleno di contatto contro diversi artropodi”.

Paul Hermann Muller, Pemio Nobel 1948

Il fatto che gli sia stato accordato questo onore, anche se non era né un medico né un fisiologo ricercatore, riflette l’enorme impatto che il DDT aveva avuto nella lotta contro le malattie. Il Comitato per il Nobel dichiarò: “Il DDT è stato utilizzato in grandi quantità nell’evacuazione dei campi di concentramento, delle prigioni e dei deportati, senza dubbio questa sostanza ha già salvato la vita e la salute di centinaia di migliaia di persone”.

Sfortunatamente, come praticamente sempre accade, il suo abuso produsse, come si è detto nel precedente post su Rachel Carson danni ambientali molto gravi. Nel medio e lungo termine questi danni sono dovuti alle sue proprietà chimico fisiche.

Utilizzi indiscriminati del DDT

Anzitutto la sua alta stabilità lo rende scarsamente reattivo all’aria e alla luce sicchè esso si disperde nell’aria a lunghe distanze e penetra facilmente nel suolo con un effetto di accumulo a quantità pericolose molto duraturo. Una conseguenza è stata lo sviluppo di generazioni di parassiti nocivi sempre più resistenti all’insetticida. Gli insetti sono infatti molto più bravi di noi a adattarsi ai cambiamenti ambientali, forse solo i battèri sono ancora più bravi a sviluppare specie resistenti agli antibiotici…

La molecola del DDT è apolare, insolubile in acqua e soluzioni acquose ma solubile nei grassi. Esso quindi si accumula nei tessuti adiposi dell’uomo e degli animali fino a raggiungere concentrazioni critiche. E’ stato accertato che effetti mortali sono stati riscontrati negli uccelli per un’interferenza di questo composto con l’enzima che regola la distribuzione del calcio. Ne consegue un assottigliamento del guscio delle loro uova che finiscono per rompersi precocemente durante la cova [4].

A prescindere quindi dalla potenziale cancerogenità, questi effetti del prodotto ne hanno fatto vietare l’impiego per uso agricolo negli Stati Uniti e in Europa.

Tuttavia il DDT continua a essere impiegato contro il vettore della malaria in India e in gran parte dell’Africa. Secondo un rapporto della Stockolm Convention on Persistent Pollutants, nel  2008 solo 12 paesi utilizzavano il DDT a tale scopo, anche se il numero era previsto in aumento [5]. Non ho trovato dati più recenti ma certamente il dibattito fra fautori e oppositori del DDT è ancora acceso.

*Nota. Su questo argomento Claudio Della Volpe ha scritto qualche anno fa il dettagliato post “Chimica, zanzare e altre storie”.

https://ilblogdellasci.wordpress.com/2013/09/16/chimica-zanzare-ed-altre-storie/

Bibliografia

[1] O. Zeidler, Beitrag zur Kenntnisss der Verbindunngen zwischen Aldehyden und aromatische Kohlenwasserstoffen. (Contributo alla conoscenza dei composti tra aldeidi e idrocarburi aromatici), cit. in: Verzeichniss der an der Kaiser-wilhelms-universität Strassburg vom Sommer Semester 1872 bis Ende 1884 erschienenen Schriften., Heitz & Mündel, 1890, p. 11.

https://archive.org/details/verzeichnissder00stragoog?q=Othmar+Zeidler

[2] F. Fichter, P. Müller,  Die Chemische und Elektrochemische Oxidation des as. m-Xylidins und seines Mono- und Di-Methylderivates, Helv. Chim. Acta, 1925, 8, 290-300.

[3] Paul Hermann Müller Biography, in: K.L. Lerner, B. Wilmot Lerner (Eds.), The World of Anatomy and Physiology, Gale Group Inc. Farmington Hills, MI, 2002.

[4] F. Bagatti, E. Corradi, A. Desco, C. Ropa, Chimica, Zanichelli, Bologna 2012, Cap. 12.

[5] H van den Berg, Global Status of DDT and its Alternatives for Use in Vector Control to Prevent Disease, Stockolm Convention on Persistent Pollutants, Oct. 23, 2008.

https://www.webcitation.org/5uKxOub8a?url=http://www.pops.int/documents/ddt/Global%20status%20of%20DDT%20SSC%2020Oct08.pdf

[1] v. R. Cervellati, Fiedrich Wölher e gli albori della chimica organica di sintesi.

https://ilblogdellasci.wordpress.com/2016/05/30/friedrich-wolher-e-gli-albori-della-chimica-organica-di-sintesi/

[2] Othmar Zeidler (1850-1911) chimico austriaco, dopo il dottorato a Strasburgo lavorò per qualche tempo nel Laboratorio chimico dell’Università di Vienna poi fece il farmacista in un distretto della capitale austriaca.

[3] Adolf von Baeyer (1835-1917) chimico tedesco particolarmente noto per la sintesi dell’indaco, Premio Nobel per la Chimica 1905 con la motivazione: in riconoscimento dei suoi servizi per il progresso della chimica organica e dell’industria chimica, con il suo lavoro sui coloranti e sui composti aromatici.

[4] O tanninici, composti contenuti in diversi estratti vegetali in grado di combinarsi con le proteine della pelle animale trasformandola in cuoio. Sono sostanze polifenoliche presenti in moltissime piante. Un vino rosso contenente molti tannini lascia tipiche tracce colorate nelle pareti del bicchiere dove viene versato.

[5] Nome IUPAC: 1,1,1-tricloro-2,2-bis (4-clorofenil) etano.

[6] Questo particolare Premio Nobel viene assegnato da un comitato del Karolinska Institute contrariamente agli altri che vengono attribuiti dall’Accademia Reale Svedese delle Scienze.

Accanimento non terapeutico.

Mauro Icardi

Certamente non è una cosa che faccia piacere ai chimici pensare a come venga percepita, la Chimica, nell’immaginario dei non chimici. E questo atteggiamento preconcetto, io credo non deponga in generale a favore di una necessità evidente di contrastare la diffusione dell’analfabetismo di ritorno, delle fake news, e in generale della sovraesposizione a notizie banali, quali ad esempio quelle che si occupano di gossip.

Essere interessati alla propria professione, all’interesse mai interrotto per la scienza che è diventata strumento di lavoro e apprendimento, spesso espone a fraintendimenti che, personalmente trovo molto fastidiosi.

E tutto questo aumenta una sensazione di estraneità che qualche volta pesa.

L’ultimo episodio mi è capitato durante una degenza ospedaliera. In questa circostanza, oltre a pensare alla guarigione, è necessario pensare ad impiegare il tempo in maniera proficua.

Io ho chiesto a mia moglie di portarmi il libro di Marco Malvaldi “L’architetto dell’invisibile – ovvero come pensa un chimico”. Era sul comodino della stanza d’ospedale. Una sera, un’operatrice sanitaria lo ha adocchiato, preso in mano, e dopo aver guardato la copertina e letto il titolo, posato di scatto con un atteggiamento piuttosto plateale. Le ho chiesto il perché, ricevendo come risposta una sorta di borbottio, ed una molto generica spiegazione di idiosincrasia alla materia.

Ora, se una persona frequenta le librerie (purtroppo da proteggere come qualsivoglia animale in via d’estinzione), si può accorgere delle decine di libri che insegnano a vincere la paura della matematica, o della fisica.

Si trovano molti libri di divulgazione chimica, anche se a mio parere in numero leggermente minore, ma l’idea di scrivere un libro per vincere la paura della chimica potrebbe essere interessante.

Nelle pagine di questo blog si è scritto più volte in difesa della chimica, si è ripetuto quali siano i più diffusi luoghi comuni su questa scienza. Luoghi comuni che lo stesso Malvaldi riesamina, a partire da quello più diffuso che vede i termini “sintetico” o “chimico” come negativi, in contrapposizione a “naturale” che invece è percepito univocamente come positivo. Ma le aflatossine ad esempio, o la cicuta sono quanto di più naturale vi sia , eppure le prime sono molto tossiche e cancerogene, e l’estratto della seconda fu responsabile della morte che Socrate volle autoimporsi.

Altra riflessione che mi sento di fare è questa: occorre trovare un modo per appassionare le persone non solo alla scienza, ma in generale alla lettura, alla riflessione e allo sviluppo di capacità critiche. Tutte capacità ormai rare. La chimica ha nella sua dualità benefici/rischi già una sorta di peccato originale, una sorta di destino per il quale è tacciata di ogni nefandezza. E tutto questo fa dimenticare a troppi quanto invece le dobbiamo, e quanto del benessere (per altro da ripensare nei suoi aspetti maggiormente dissipativi) di cui attualmente possiamo ancora godere, sia dovuto alle scoperte dei laboratori o dei reparti di produzione.

Come dicevo i libri di divulgazione chimica ci sono. Sono disponibili credo nelle biblioteche di qualunque città o piccolo centro. Si possono acquistare così da averli sempre a disposizione per riguardarli. In rete ci sono innumerevoli siti per chi abbia il coraggio, la voglia e la curiosità di conoscere questa scienza. Basta avere un poco di quella che una volta veniva definita “buona volontà”. Per altro da estendersi a tutte le discipline scientifiche. Ma per la chimica almeno per tentare di modificare una cattiva reputazione decisamente immeritata. E sono convinto che una volta conosciuta, possa riservare sorprese a chi, per abitudine ne ha una visione negativa, ma non reale.

Scienziate che avrebbero dovuto vincere il Premio Nobel: Rachel Carson (1907-1964)

Rinaldo Cervellati

Secondo la biografa Linda Lear [1], Rachel Carson è stata probabilmente la più incisiva scrittrice del secolo scorso sulla Natura, ricordata più per aver contrastato l’idea che l’Uomo possa padroneggiarla a piacimento che per le sue ricerche di biologa marina sulla vita oceanica. Il suo sensazionale libro del 1962, Silent Spring [2] mise in guardia contro i pericoli per tutti i sistemi naturali dall’uso improprio di pesticidi come il DDT, denunciando le invadenze e gli intenti dell’industria dei pesticidi e, più in generale della tecnologia moderna, dando il via al movimento ambientalista contemporaneo.

Rachel Carson nasce il 27 maggio 1907 in una fattoria vicino alla cittadina di Springdale, Pennsylvania, USA, la più giovane di tre figli di Robert W. Carson, agente di assicurazioni e Maria McLean Carson. Rachel ereditò dalla madre uno straordinario amore per la Natura, da bambina esplorò con vivace attenzione i 26 ettari della fattoria di famiglia. Frequentò la scuola primaria di Springdale fino al decimo grado per passare poi alla high school a Parnassus dove si diplomò nel 1925 al primo posto nella sua classe di 45 studenti. Fra le sue letture preferite storie di scienze naturali particolarmente riguardo la vita acquatica.

Rachel Carson bambina

Dall’età di dieci anni cominciò a scrivere in giornali per bambini e ragazzi anche dopo essere stata ammessa al Pennsylvania College for Women (oggi Chatham University) dove si diplomò con lode in biologia nel 1929. Dopo aver frequentato un corso estivo nel Laboratorio di Biologia Marina, continuò gli studi di zoologia e genetica alla Johns Hopkins University nell’autunno 1929.

Dopo il primo anno di specializzazione, Carson divenne assistente part-time nel laboratorio di R. Pearl[1] occupandosi di problemi diversi utilizzando modelli animali, dai ratti alla drosofila. In questo modo guadagnò il denaro necessario per proseguire gli studi.

Rachel Carson nel 1929

Alla Johns Hopkins completò un progetto di tesi sullo sviluppo del pronefro (primo stadio di sviluppo dell’organo escretore) dei pesci, che le valse il titolo di M.Sc. in zoologia nel 1932. Era intenzione di Carson proseguire le ricerche per il dottorato, ma nel 1935 fu costretta a interrompere gli studi causa la morte del padre e conseguenti difficoltà economiche. Trovò un’occupazione presso lo United States Bureau for Fisheries (Ufficio USA per la Pesca) come redattore di una rubrica radiofonica intitolata Romance Under Water con lo scopo di suscitare interesse verso l’ambiente marino e il lavoro dell’Ufficio per la sua salvaguardia. La rubrica ebbe un notevole successo di ascolti, poco dopo Carson ottenne il posto fisso di assistente junior di biologia marina al Bureau, seconda donna assunta in questa carica.

Carson sul campo insieme ad un collega

Al Bureau for Fisheries, le principali mansioni di Carson erano di rilevare e analizzare dati sul campo delle popolazioni ittiche nonchè scrivere articoli e opuscoli divulgativi per il pubblico. Utilizzando i risultati delle sue ricerche e le discussioni con altri biologi marini scrisse regolarmente articoli per vari giornali. Nel luglio del 1937, la rivista Atlantic Monthly pubblicò un suo saggio col titolo Undersea, vivida narrazione di un viaggio lungo il fondo dell’oceano. La casa editrice Simon & Schuster contattò Carson suggerendole di espandere il saggio e trasformarlo in un libro. Dopo diversi anni di ulteriori ricerche sul campo, Carson pubblicò il suo primo libro, Under the Sea Wind [3]. Il libro ricevette ottime recensioni e il successo degli scritti di Carson aumentò rapidamente, tanto che essa tentò di lasciare il Bureau (trasformatosi in Fish and Wildlife Service) nel 1945 ma a quei tempi c’erano poche possibilità di lavoro per i naturalisti, la maggior parte dei fondi per le scienze venivano destinati a ricerche applicate e tecnologiche, sull’onda del “successo” ottenuto dal progetto Manhattan. E’ in questo periodo che Carson incontrò per la prima volta il tema DDT, un nuovo micidiale insetticida rivoluzionario (denominato “insect bomb”) che si stava imponendo rapidamente nei mercati anche in assenza di adeguati test sulla sicurezza per la salute e l’impatto ambientale. Tuttavia all’epoca il DDT non era che uno dei tanti interessi di Carson, gli editori lo consideravano un argomento di scarsa importanza.

Nel Fish and Wildlife Service, Carson ebbe la supervisione di un piccolo staff di scrittori e nel 1949 divenne capo redattore delle pubblicazioni del Servizio. Sebbene il nuovo status le permettesse sempre maggiori opportunità di ricerca sul campo e libertà nella scelta dei suoi progetti di scrittura, ciò comportò anche responsabilità amministrative sempre più noiose, tanto che già nel 1948 stava lavorando su materiale per un secondo libro, e aveva preso la decisione di iniziare a dedicarsi alla scrittura a tempo pieno. Assunse un agente letterario, con la quale stabilì una stretta relazione professionale che durò per tutta la sua carriera di scrittrice.

Nel 1951 pubblicò, con l’Oxford University Press il suo secondo libro, The Sea Around Us [4] che illustra la scienza e la poesia del mare dai suoi inizi primordiali alle scoperte scientifiche dei primi anni ‘50. Divenuto rapidamente un best seller, il libro vinse diversi premi sia da società scientifiche sia da istituzioni pubbliche e Carson ottenne anche due dottorati ad honorem. Insieme al successo arrivò anche la sicurezza finanziaria sicchè Rachel potè abbandonare definitivamente il lavoro per concentrarsi unicamente all’attività di scrittrice.

All’inizio del 1953, Carson iniziò la ricerca bibliografica e sul campo sull’ecologia e gli organismi della costa atlantica. Nel 1955, completò il terzo volume della sua “trilogia marina”, The Edge of the Sea [5], che tratta della vita negli ecosistemi costieri (in particolare lungo la costa dell’Atlantico orientale).

Rachel Carson, ricercatrice e scrittrice

Fra il 1955 e il 1956, Carson continuò a scrivere articoli divulgativi su riviste specializzate mentre lavorava al progetto di un libro sull’evoluzione, ma la pubblicazione del libro di Julian Huxley[2] Evolution in Action, insieme alla sua stessa difficoltà nel trovare un approccio chiaro e convincente all’argomento, la condussero a abbandonare il progetto. I suoi interessi si stavano infatti rivolgendo sempre più alla salvaguardia dell’ambiente terrestre.

I pesticidi di sintesi, in particolare composti clorurati di idrocarburi (ad es. il DDT, p-diclorodifenil-tricloroetano) e organofosfati vennero sviluppati con i fondi militari per la scienza (military funding of science) in USA dopo la fine della 2° Guerra mondiale.

Nel 1957, l’USDA (United States Department of Agriculture) diede il via al progetto di eradicazione di formiche rosse e altri insetti nocivi alle coltivazioni attraverso l’irrorazione aerea massiccia e diffusa di DDT e altri pesticidi che inevitabilmente coinvolgeva anche terreni privati non agricoli. Già Carson si era interessata alla pericolosità del DDT negli anni ’40, nel 1958 decise di impegnarsi a scrivere un libro sull’argomento. Secondo i biografi la decisione dipese anche da una lettera inviata nel gennaio 1958 da un’amica di Carson al The Boston Herald, che descriveva la morìa di uccelli intorno alla sua proprietà derivante dall’irrorazione aerea di DDT. Carson stessa in seguito scrisse che questa lettera (ricevuta in copia) la spinse a indagare a fondo i problemi ambientali causati dai pesticidi di sintesi.

Dopo quattro anni di intense ricerche bibliografiche e contatti con numerosi scienziati di istituzioni pubbliche come i National Institutes of Health e il National Cancer Institute, Carson fu in grado di provare la pericolosità del DDT e di altri pesticidi per l’ambiente e la correlazione pesticidi-cancro.

Rachel Carson nel suo studio

Tutto ciò nonostante l’opposizione aggressiva delle potenti industrie degli erbicidi chimici, che includeva testimonianze di esperti compiacenti e lobbisti nell’establishment che contraddicevano quanto riportato dalla maggior parte della letteratura scientifica che Carson stava studiando.

Nel 1961 le venne diagnosticato un cancro al seno, anche per questo motivo il libro denuncia, Silent Spring [1], venne pubblicato solo l’anno successivo, il 27 settembre 1962.

Il filo conduttore di Silent Spring è il potente, e spesso negativo, effetto che gli umani hanno sulla Natura. L’argomento principale del libro è la denuncia che l’uso indiscriminato dei pesticidi ha effetti dannosi sull’ambiente; Carson sostiene che dovrebbero essere più propriamente definiti “biocidi” perché i loro effetti sono raramente limitati ai parassiti bersaglio. Il DDT e altri pesticidi sintetici, molti dei quali soggetti a bioaccumulo, distruggono praticamente tutte le specie di insetti, compresi quelli utili all’uomo e necessari alla conservazione dell’ecosistema. L’industria chimica del settore viene accusata di diffondere intenzionalmente disinformazione fra pubblico e funzionari pubblici per fare accettare acriticamente le proprie posizioni (cioè i propri interessi).

Quattro capitoli del libro sono dedicati ai pericoli dei pesticidi per la salute umana. Vengono descritti numerosi casi di avvelenamento da pesticidi, insorgenza di tumori e altre patologie collegate. Riguardo al DDT e al cancro, Carson scrive:

In test di laboratorio su soggetti animali, il DDT ha provocato sospetti tumori epatici. Gli scienziati della Food and Drug Administration che hanno segnalato la scoperta di questi tumori erano incerti su come classificarli, ma ritenevano che ci fosse qualche “giustificazione per considerarli carcinomi epatici di basso grado”. Il Dr. Hueper* ora dà al DDT la valutazione definitiva del DDT come “agente cancerogeno chimico”.[1, p. 225]

*[autore del libro Occupational Tumors and Allied Diseases]

Carson prevede che queste conseguenze possano aumentare in futuro, soprattutto dal momento che i parassiti bersaglio possono sviluppare resistenza ai pesticidi e gli ecosistemi indeboliti potrebbero cadere preda di specie invasive non previste. Il libro si chiude con proposte di approccio biotico al controllo dei parassiti come alternativa ai pesticidi chimici, ad esempio: limitazione della popolazione di insetti nocivi mediante predatori specifici,vertebrati o invertebrati, “sterilizzazione” o cattura dei maschi attraverso segnali sonori o biochimici e opportune trappole. L’uso giudizioso di pesticidi dovrebbe essere lasciato come ultima risorsa.

Va ricordato che uno dei primi impieghi del DDT fu nella lotta al vettore della malaria, la zanzara anofele, inizialmente con successo. In Italia fu impiegato a questo scopo soprattutto in Sardegna, dove la malaria era endemica e fu effettivamente debellata. Il rovescio della medaglia sta però nel fatto che gli insetti (e in specifico le zanzare) sviluppano abbastanza rapidamente resistenza agli insetticidi.

In realtà Carson non chiese mai un divieto assoluto sul DDT. In Silent Spring ha solo espresso il concetto precedentemente esposto. Scrive infatti:

Nessuna persona responsabile sostiene che la malattia trasmessa dagli insetti debba essere ignorata. La domanda che ora si è presentata con urgenza è se sia saggio o responsabile attaccare il problema con metodi che stanno rapidamente peggiorando la situazione. Il mondo ha assistito alla guerra vittoriosa contro le malattie attraverso il controllo di insetti vettori di infezione, ma ha saputo poco dell’altro lato della medaglia – le sconfitte, i trionfi di breve durata che ora sostengono fortemente l’allarmante visione secondo cui l’insetto nemico è stato reso più forte dai nostri sforzi. Peggio ancora, potremmo aver distrutto i nostri stessi mezzi di combattimento [1, p. 266]

A proposito della malaria Carson ha esplicitamente affermato che i programmi per la malaria sono minacciati dalla resistenza acquisita dalle zanzare, citando il parere del direttore del Servizio fitosanitario olandese: Il consiglio pratico dovrebbe essere “Spruzzare il meno possibile” piuttosto che” Spruzzate al limite della vostra capacità”. La pressione sulla popolazione infestante dovrebbe essere sempre la meno drastica possibile.[1, p. 275].

Carson e lo staff editoriale coinvolti nella pubblicazione di Silent Spring si aspettavano aspre critiche e si preoccupavano addirittura della possibilità di essere citati in giudizio per diffamazione. In preparazione degli attacchi previsti, Carson e la sua agente cercarono sostenitori famosi prima della pubblicazione del libro. La maggior parte dei capitoli scientifici furono revisionati da scienziati con competenze specifiche, tra i quali Carson trovò un forte sostegno. Carson partecipò alla Conferenza della Casa Bianca sulla questione ambientale del maggio 1962, l’Editore Houghton Mifflin distribuì copie del libro a molti delegati e promosse l’uscita imminente sulla rivista New Yorker (che ne fece una recensione molto favorevole). Carson ne inviò una copia anche al giudice associato della Corte suprema William O. Douglas, un avvocato ambientalista che le aveva fornito a parte del materiale incluso nel suo capitolo sugli erbicidi.

William Orville Douglas (1898-1980)

Tuttavia critiche feroci provennero ovviamente dalle industrie produttrici di pesticidi: la Du Pont, la fabbrica principale di DDT, la Velsicol Chemical Company sola produttrice di clordano e eptacloro, quest’ultima promosse anche un’azione legale. Rappresentanti dell’industria chimica e lobbisti presentarono una serie di reclami non specifici, alcuni in forma anonima. Le aziende chimiche e le organizzazioni associate pubblicarono articoli in favore e difesa dell’uso di pesticidi.

Il biochimico dell’American Cyanamid, R. White-Stevens, giunse a affermare che:

Se l’uomo seguisse gli insegnamenti di Miss Carson, torneremmo al Medioevo, e gli insetti, le malattie e i parassiti erediterebbero ancora una volta la Terra“.

Molti attacchi misero in dubbio le qualità scientifiche di Carson, alcuni giunsero fino a accuse di ambiguità sessuale.

Dall’ambiente accademico arrivarono pareri contrastanti. La recensione del Dr. W. J. Darbin, direttore del Dipartimento di Biochimica alla Vanderbilt University[3] School of Medicine, pubblicata su Chemical & Engineering News in ottobre 1962 è una completa stroncatura del libro e dell’autrice [6]. Sul merito e la forma di questa questa recensione seguì un acceso e interessante dibattito fra sostenitori e oppositori [7].

Più obiettiva la recensione che apparve su Nature a firma C.W. Hume [8] che sostiene i dati relativi al disastro ambientale provocato dall’indiscriminata irrorazione di interi territori e riporta le alternative biotiche proposte nel libro. Secondo Hume la parte più controversa è quella riguardante l’effetto del DDT sull’uomo. Da buon britannico afferma che l’accumulo medio del pesticida negli abitanti del Regno Unito è di 2 ppm contro le 5.3-7.4 ppm negli USA con punte di 17.1 ppm nei lavoratori agricoli, ciò essendo dovuto ai migliori controlli effettuati in Gran Bretagna. In particolare stigmatizza l’atteggiamento di coloro che cercano di screditare scientificamente Carson che possiede invece tutte le carte in regola come ottima ricercatrice.

Il successo di pubblico fu enorme, secondo la biografa Linda Lear, la campagna diffamatoria dell’industria fu controproducente perché la polemica fece aumentare la consapevolezza dell’opinione pubblica sui potenziali pericoli dell’uso dei pesticidi. Lo speciale televisivo con il dibattito fra Carson e il Dr. White-Stevens fu seguito da dieci a quindici milioni di americani che in grande maggioranza simpatizzarono per Carson. Occorre anche dire che l’opinione pubblica era già stata sconvolta dallo scandalo della talidomide[4].

Dopo un anno dalla pubblicazione del libro la campagna denigratoria dell’industria si affievolì e il Congresso USA commissionò un rapporto pubblico sulla pericolosità dei pesticidi, di conseguenza la FDA, dichiarò: …che con tutta probabilità i rischi potenziali del DDT erano stati sottovalutati, e cominciò a porre alcune restrizioni al suo uso. Nel 1972 il DDT per uso agricolo venne proibito negli Stati Uniti, nel 1978 anche in Italia.

Ma il tumore aveva stroncato Rachel Carson nel 1964. Numerosissimi sono stati gli onori ricevuti postumi, dalla Medaglia Presidenziale della Libertà all’effige su un francobollo al ponte Rachel Carson a Pittsburgh fino ai nomi di due navi da ricerca marina. L’edificio della fattoria dove visse bambina è stato dichiarato monumento nazionale.

L’edificio della fattoria natale e il ponte di Pittsburgh che porta il suo nome

Infine vale la pena ricordare che il dibattito sull’uso del DDT per combattere la malaria dove è endemica, per es. in regioni dell’Africa e dell’India, è ancora acceso. L’OMS nel 2006 ha dichiarato che, se usato correttamente, il DDT dovrebbe comparire accanto ai medicinali e alle zanzariere in quelle regioni, affermazione peraltro mai contrastata da Carson come si evince dai due brani di Silent Spring sopra riportati.

Una biografia completa di Rachel Carson si trova in:

  1. Lear, Witness for Nature, Mariner Book Houghton Mifflin Harcourt, Boston New York, 2009
  2. https://www.amazon.com/Rachel-Carson-Witness-Linda-Lear/dp/0547238231

Biliografia

[1] L. Lear, The Life and legacy of Rachel Carson Biologist – Writer – Ecologist 1907-1964, http://www.rachelcarson.org/Bio.aspx

[2] R. Carson, Silent Spring, Houghton Miffin, 1962, reprinted in 1996 with an introduction by Al Gore.; trad ital.: Primavera Silenziosa, Universale Economica Feltrinelli, 1966, riproposto nel 1999 con una introduzione di Al Gore.

[3] R. Carson, Under the Sea Wind, Simon & Schuster Eds., 1941; ripubblicato da Penguin Group, 1996.

[4] R. Carson, The Sea Around Us, Oxford University Press 1st Ed, 1951; trad ital.: Il Mare intorno a noi, Feltrinelli, 2011.

[5] R. Carson, The Edge of the Sea, Houghton Mifflin, 1955; ripubblicato da Mariner Books, 1998.

[6] W. J. Darby, Silence, Miss Carson, C&EN News, 1962, 40(40), 60,63.

[7] Letters, C&EN News, 1962, 40(43), 5; Letters, C&EN News, 1962, 40(45), 4-5.

[8] C.W. Hume, An American Prophetess, Nature, 1963, 198, 117.

[1] Raymond Pearl (1879-1940), biologo americano, ricercatore eclettico e molto prolifico con interessi dalla zoologia all’agricoltura, dalla biometria alla genetica. Abilissimo comunicatore e divulgatore scientifico.

[2] Sir Julian Sorell Huxley (1887 – 1975) biologo britannico, genetista, evoluzionista e internazionalista. E’ stato figura di spicco nella sintesi moderna della teoria dell’evoluzione. Eccelllente scienziato, comunicatore e divulgatore, è stato il primo direttore dell’UNESCO e membro fondatore del World Wildlife Fund.

[3] La Vanderbilt University (Nashville, Tennessee) è un’Università privata fondata nel 1973 dal magnate Cornelius Vanderbilt con la donazione iniziale di 1000000 di dollari. Molto esclusiva è considerata una delle principali università del Sud degli USA, classificata al 17° posto nella classifica delle università USA.

[4] La talidomide è stato un farmaco utilizzato negli USA (ma non solo) come rimedio per i disturbi delle donne in gravidanza. Fu poi ritirato poiché molte donne sottoposte al trattamento davano alla luce neonati con gravi malformazioni fisiche degli arti superiori.

Standard, norme e certificazioni. 2. Il loro ruolo nell’economia circolare.

Marino Melissano

 

Economia circolare

Il nostro sistema economico attuale è “lineare”: dalle materie prime produciamo un prodotto finito, lo usiamo e poi lo smaltiamo: terminato il consumo, finisce il ciclo del prodotto, che diventa un rifiuto. Esempi eclatanti: esce un nuovo smartphone, lo compriamo e gettiamo via il vecchio; la lavastoviglie si rompe, ne compriamo una nuova ed eliminiamo la vecchia. In questo modo ci siamo allontanati dal modello “naturale”, “biologico”: lo scarto di una specie è alimento di un’altra; in Natura qualsiasi corpo nasce, cresce e muore restituendo i suoi nutrienti al terreno e tutto ricomincia. (www.ideegreen.it)

Per Economia circolare si intende appunto un sistema economico che si può rigenerare da solo. Rigenerazione, riciclo, riuso. Tante “ri”, che non devono rimanere solo prefissi che rendono virtuosi i verbi, riempiendo la bocca di chi non sa poi nella pratica cosa fare, dove mettere le mani.

Per esempio, pensiamo a prodotti, costruiti e trasportati usando energie rinnovabili e che, una volta usati, possano restituire i componenti a chi li ha fabbricati e le eventuali parti biologiche all’ambiente, incrementando la produzione agricola. Ciò significa ripensare un modello industriale che usi solo materiali sicuri e compostabili o, se materiali tecnici, riciclabili. Circolare, flusso continuo: dalla materia prima alla produzione del prodotto finito, uso, riuso o riciclo.


Ponendosi come alternativa al classico modello lineare, l’economia circolare promuove, quindi, una concezione diversa della produzione e del consumo di beni e servizi, che passa ad esempio per l’impiego di fonti energetiche rinnovabili, e mette al centro la diversità, in contrasto con l’omologazione e il consumismo L’idea in sé dell’economia circolare è nata nel 1976, quando spunta in una rapporto presentato alla Commissione europea, dal titolo “The Potential for Substituting Manpower for Energy” di Walter Stahel e Genevieve Reday. Le applicazioni pratiche dell’economia circolare fanno però capolino, concretamente, su sistemi moderni e su processi industriali, solo negli anni ’70.
I maggiori obiettivi dell’economia circolare sono:

– l’estensione della vita dei prodotti (Product Life Cycle o PLC) e la produzione di beni di lunga durata,

– la sostenibilità ambientale,

– le attività di ricondizionamento e

– la riduzione della produzione di rifiuti.

In sintesi, l’economia circolare mira a vendere servizi piuttosto che prodotti.
Lo sviluppo di un sistema di economia circolare indurrebbe un cambiamento epocale ambientale, economico, occupazionale e di stili di vita. Secondo il Ministro dell’Ambiente Galletti “fare economia circolare conviene alle imprese, oltre che all’ambiente, perché significa consumare meno materie prime, avere processi produttivi più performanti, produrre meno rifiuti, che sono un costo e potrebbero, invece, trasformarsi in risorse”.

Nel 2014 la Commissione europea ha approvato una serie di misure per aumentare il tasso di riciclo negli Stati membri e facilitare la transizione verso “un’economia circolare.

La Commissione Europea il 2 dicembre 2015 ha adottato un nuovo Piano d’azione per l’economia circolare che prevede importanti modifiche alla legislazione in materia di rifiuti, fertilizzanti, risorse idriche, per sostenere il passaggio da un’economia lineare ad un’economia circolare, a basse emissioni di carbonio e resiliente ai cambiamenti climatici.

Contestualmente all’adozione della comunicazione COM (2015) 614/2 (http://www.minambiente.it/sites/default/files/archivio/allegati/vari/anello_mancante_piano_azione_economia_circolare.pdf) contenente il Piano per l’economia circolare, sono state presentate quattro proposte di modifica delle direttive che ricadono nell’ambito del pacchetto di misure sulla economia circolare (tra cui la direttiva quadro rifiuti, la direttiva discariche, rifiuti da imballaggio).

 

Economia circolare nel settore rifiuti

Secondo l’economia circolare i rifiuti sono “cibo”, sono nutrienti, quindi in un certo senso non esistono. Se intendiamo un prodotto come un insieme di componenti biologici e tecnici, esso deve essere progettato in modo da inserirsi perfettamente all’interno di un ciclo dei materiali, progettato per lo smontaggio e riproposizione, senza produrre scarti. Rispettivamente, i componenti biologici in una economia circolare devono essere atossici e poter essere semplicemente compostati. Quelli tecnici – polimeri, leghe e altri materiali artificiali – saranno a loro volta progettati per essere utilizzati di nuovo, con il minimo dispendio di energia.

In un mondo in cui regna l’economia circolare si privilegiano logiche di modularità, versatilità e adattabilità, perché ciascun prodotto sia di più lunga durata, sia realizzato e ancora prima pensato per poter essere aggiornato, aggiustato, riparato. Un design sostenibile di nome e di fatto.
L’EXPO 2015, con il suo 67% di raccolta differenziata, è stato un buon esempio di economia circolare. I visitatori hanno potuto essere parte della sfida di Expo e viverne i risultati, passeggiando in un sito dove verde, acqua, energia e illuminazione, materiali e sistemi di mobilità, erano tutti pensati per essere il più “green” possibile. (http://www.ideegreen.it/economia-circolare-67689.html#b888jJUwMogrfb8k.99).

La CE ha annunciato, nella Comunicazione del 27.01.17 “Chiudendo il cerchio- un piano d’azione europeo per l’economia circolare”, l’intenzione di intraprendere un’analisi e fornire opzioni sulle connessioni tra prodotti chimici di sintesi, materie prime e legislazione sui rifiuti, che portino anche a come ridurre la presenza e migliorare il monitoraggio di prodotti chimici pericolosi nei composti; ciò significa sviluppare politiche che possono fornire economia circolare attraverso un flusso senza soluzione di continuità di materiali riciclati dai rifiuti come materie prime adatte all’economia. L’analisi prenderà in considerazione un certo numero di studi, incluso quello del 2014 che aveva lo scopo di identificare azioni potenziali per l’economia circolare, settori prioritari, flusso di materiali e catene di valore, nonché il recente studio condotto dalla CE su “Ostacoli normativi per l’economia circolare – Lezioni e studio di casi”. Il risultato della procedura legislativa copre le molteplici direttive rifiuti, inclusa la direttiva quadro sui rifiuti 2008/98, attualmente in discussione del Consiglio e del Parlamento europei. I risultati sono previsti per la fine dell’anno in corso.

Esempi di applicazione dell’economia circolare

Grandi aziende aderenti al GEO (Green Economy Observatory) stanno sperimentando e mettendo in pratica modelli di economia circolare: Barilla ha lanciato il progetto “Cartacrusca”: viene prodotta la carta dallo scarto della macinazione dei cereali (crusca), lavorato insieme alla cellulosa; la toscana Lucart produce carta igienica, tovaglioli e fazzoletti dal recupero totale del tetrapak; Mapei ha sviluppato un additivo, “Re-con Zero”, che trasforma il calcestruzzo fresco inutilizzato (scarto) in un materiale granulare, usato come aggregato per nuovo calcestruzzo.

Tutto questo potrebbe portare con sé la fine di uno dei meccanismi su cui si basa l’economia lineare: (l’obsolescenza programmata dei prodotti) e potrebbe introdurre anche una serie di cambiamenti a livello culturale. Quella circolare è una forma di economia più collaborativa, che mette al centro non tanto la proprietà e il prodotto in quanto tale, ma la sua funzione e il suo utilizzo. Se una lavatrice viene progettata per funzionare per 10 mila cicli e non per 2 mila, può essere utilizzata da più di un consumatore attraverso l’attivazione di una serie di meccanismi economici a filiera corta: affitto, riutilizzo o rivendita diretta.

Per diventare un modello realizzabile e dominante l’economia circolare dovrebbe naturalmente garantire ai diversi soggetti economici una redditività almeno pari a quella attuale: non basta che sia “buona”, deve diventare conveniente. Gli incentivi a produrre sul modello di un’economia circolare sarebbero essenzialmente due: un risparmio sui costi di produzione e l’acquisizione di un vantaggio competitivo (un consumatore preferisce acquistare un prodotto di consumo circolare piuttosto che lineare). Prolungare l’uso produttivo dei materiali, riutilizzarli e aumentarne l’efficienza servirebbe a rafforzare la competitività, a ridurre l’impatto ambientale e le emissioni di gas e a creare nuovi posti di lavoro: l’UE, facendo le sue proposte sul riciclaggio, ha stimato che nei paesi membri ne sarebbero creati 580 mila.

Economia circolare e standard

Anche l’economia circolare ha il suo standard.

         Dopo la creazione di ISO 20400 è arrivato il momento di regolamentare un modello a cui le aziende possano fare riferimento per attuare in modo performante e funzionale l’economia circolare all’interno della loro organizzazione.

 Nasce così il primo standard di economia circolare, che parla inglese. A lanciarlo è stata, l’1 giugno 2017, la British Standards Institution BSI), un’organizzazione britannica di standardizzazione sul cui lavoro si basa anche la prima serie di norme ISO 9000.

In una prima volta, unica a livello mondiale, l’Istituto apre le porte alle imprese intenzionate a sposare i principi della circular economy.

La BS8001, questo il nome della norma, servirà ad aiutare le aziende di ogni dimensione a integrare le tre R del nuovo modello economico (ridurre, riusare e riciclare) nelle loro attività quotidiane e nelle strategie societarie a lungo termine. (www.bsigroup.com)

BS 8001 è uno standard “guida”: fornisce consigli e raccomandazioni in un quadro flessibile. “Non si può certificare la propria organizzazione o prodotto/servizio a questo standard”, spiega Cumming della BSI, si è completamente liberi di decidere l’allineamento che si desidera con i principi fondamentali stabiliti dallo standard”.

Questa norma è destinata all’applicazione su scala internazionale e al conseguente sviluppo non solo come standard di efficienza organizzativa aziendale, ma anche come strategia di gestione dei costi e dei conseguenti ricavi.

Lo standard BS 8001 è quindi figlio dell’ISO 20400, primo standard internazionale sugli acquisti sostenibili, che ha visto la luce l’1 aprile 2017, dopo 4 anni di lavoro del Comitato di Progetto ISO/PC 277: anche questo standard è una linea guida che vuole aiutare le aziende e le amministrazioni a fare scelte d’acquisto economicamente, eticamente ed ecologicamente migliori lungo tutta la catena di approvvigionamento; vuole indurre una nuova strategia politica di acquisto sostenibile, introducendo principi quali la responsabilità, la trasparenza e il rispetto dei diritti umani.

Anche qui siamo di fronte a semplici raccomandazioni, ma, nel momento in cui la norma viene inserita nei capitolati di appalto, diviene obbligatoria.

E il cerchio si chiude: dallo standard alla norma, dalla norma alla legislazione europea e nazionale, dalla legislazione al superamento di questa attraverso l’economia circolare.

Rimane tuttavia che tale standard presenta ancora aspetti discutibili e migliorabili; in un recentissimo lavoro (Resources, Conservation & Recycling 129 (2018) 81–92) gli autori scrivono che la norma cerca di mettere d’accordo “ le grandi ambizioni della economia circolare con le forti e ben stabilite routine del mondo degli affari.” che il controllo sull’implementazione della strategia dell’economia circolare rimane vaga e che le organizzazioni che usano la norma dovrebbero tener d’occhio la crescita dell’effettivo stock in uso di un determinato bene per verificare il successo concreto della strategia.

 

Occorre anche considerare che di fatto nel passato e nel presente produttivo ed industriale la necessità economica di ridurre i costi ha già indotto in alcuni casi da molti decenni a riciclare i materiali con cifre di riciclo nel caso di acciaio, vetro, alluminio, oro, piombo che sono di tutto rispetto, ma che questo non ha fatto diminuire quasi mai in modo significativo la pressione sulla ricerca di nuove risorse, sia per l’ampiamento continuo dei mercati e dei consumi che per l’uso di tecnologia che privilegiano non tanto il riciclo in se quanto la riduzione dei costi di produzione e che quindi raramente raggiungono valori veramente elevati.

Un altro recente risultato che dovrebbe farci accostare criticamente alla mera enunciazione della questione riciclo è dato dalla stima energetica del risparmio indotto dall’economia circolare in termini energetici; anche qui una stima realistica della riduzione in assenza di regole forti non darebbe risultati eclatanti; nel lavoro Thermodynamic insights and assessment of the circular economy pubblicato in Journal of Cleaner Production 162 (2017) 1356e1367,

gli autori concludono che l’economia circolare ha un potenziale di riduzione energetica non superore al 6-11% e dunque è equivalente alle tecnologie tradizionali per la riduzione energetica nell’industria. Ma che comunque:

.” The circular economy approaches tend to reduce demand for energy efficient processes slightly more than those with low energy efficiency. Therefore, from an overall perspective, the circular economy approaches are unlikely to make further energy efficiency savings disproportionately harder to achieve.

ossia

Gli approcci dell’economia circolare tendono a ridurre leggermente la domanda di processi efficienti dal punto di vista energetico rispetto a quelli a bassa efficienza energetica.

Pertanto, da un punto di vista generale, è improbabile che gli approcci all’economia circolare rendano ancora più difficile ottenere ulteriori risparmi in termini di efficienza energetica.

Ed infine dati analoghi si trovano in una pubblicazione del Club di Roma sul tema del riciclo (The Circular Economy and Benefits for Society di Wijkman ed altri, marzo 2016) in cui riconfermando i valori diretti di riduzione del consumo energetico dovuti al solo riciclo si sottolinea l’effetto sinergico delle scelte di riciclo, riuso, e uso delle rinnovabili.

Insomma le cose non sono automatiche e probabilmente avremo bisogno di norme e di standard più stringenti ed efficaci come anche di scelte politiche coraggiose e ad ampio raggio.

Pericolose assuefazioni

Mauro Icardi

Durante gli anni abbiamo sentito spesso ripetere dai media, dagli enti deputati al controllo della qualità dell’ambiente quali l’Arpa, e dall’ istituto superiore di sanità la pericolosità degli ossidi di azoto, in particolare l’NO2. Componente naturale dell’aria che respiriamo, ma presente in concentrazione bassa (0,02 ppm). I processi di combustione legati alla produzione di calore ed energia ed al traffico autoveicolare (soprattutto veicoli diesel) contribuiscono notevolmente ad aumentare la concentrazione dell’NO2 nelle aree urbane, al punto che l’NO2 è ragionevolmente considerato un tracciante dell’inquinamento da traffico.

In ambiente urbano le concentrazioni medie annuali possono variare da 20 a 90 μg/m3, ma il limite che l’Organizzazione mondiale della sanità (OMS) suggerisce di non superare, a tutela della salute umana, è di 40 μg/m3 come media annuale e di 200 μg/m3 come concentrazione media oraria.

Gli effetti sulla salute umana di questo inquinante, desunti da sperimentazioni su animali, vanno dalle irritazioni delle vie aeree superiori, alla cronicizzazione di bronchiti ed asma. Più di recente sono stati definiti i possibili danni dell’NO2 sull’apparato cardio-vascolare come capacità di indurre patologie ischemiche del miocardio, scompenso cardiaco e aritmie cardiache.

Tutto questo è stato ribadito nella trasmissione “ Presa diretta” dove nella puntata del 5 Febbraio scorso è stato mostrato come l’associazione “Cittadini per l’aria” in collaborazione con la divisione di chimica dell’ambiente della Società Chimica Italiana abbia dato il via ad una capillare campagna di monitoraggio dell’NO2 a Roma. Campagna già effettuata anche a Milano con le stesse modalità.

Tramite il posizionamento di campionatori passivi che possono essere posizionati ad esempio sui pali dei segnali stradali, o dell’illuminazione pubblica si ha modo di raccogliere una quantità di dati che daranno una mappa dettagliata delle concentrazioni di questo inquinante.

L’iniziativa è certamente valida e lodevole. E’ un punto di partenza per monitorare uno dei numerosi inquinanti presenti nell’aria delle nostre città. E’ un’iniziativa che, a mio modo di vedere deve servire per renderci maggiormente consapevoli di cosa stiamo facendo al nostro ambiente, e a quali rischi per la nostra salute stiamo andando incontro. Le pericolose assuefazioni di cui parlo nel titolo, sono quelle a cui negli anni abbiamo finito per non opporci più. Pensando inconsciamente che smog ed inquinamento fossero il prezzo che occorreva pagare per garantire uno stile di vita moderno. Accorgendoci invece che questo prezzo ha limitato anche il nostro diritto a muoverci.

Sempre più frequentemente le autorità sanitarie raccomandano di non uscire in determinate ore del giorno, quando per esempio i livelli di smog non sono tollerabili e potrebbero danneggiare la nostra salute. Non si tratta solo del diossido d’azoto, ma penso anche all’ozono durante le giornate molto calde.Da sempre ho cercato di fare la mia parte. Sono purtroppo incappato in un incidente mentre ero in bici e mi stavo andando al lavoro.

Ma quando sarò ristabilito non credo che smetterò di utilizzarla. Ma quello che mi auguro e che si capisca quanto prima, che non è il gesto del singolo che può risolvere questo tipo di problemi. Occorre pensare e costruire (cosa certamente faticosa, ma necessaria) una nuova visione dei nostri bisogni e delle nostre reali priorità. Capire finalmente che stiamo correndo in direzione di una sorta di suicidio ecologico collettivo. Inerti ed incapaci di fare sforzi di cambiamento. Eppure i segnali di allarme che stiamo consapevolmente trascurando ci sono. Io penso sia un cambiamento da affrontare. Altrimenti continuare a far finta di nulla, è come quando da bambini ci si copre gli occhi per non vedere. Significa cullarsi in un sorta di pensiero magico di ritorno. Che è illusorio. Ma non dispero, e non mi arrendo.

http://www.cittadiniperlaria.org/

Prodotti di ieri e di oggi. 2. Formitrol.

Claudio Della Volpe

Questa settimana sono stato a casa con l’influenza; anche un po’ arrabbiato perchè ho fatto il vaccino, ma non è bastato; in realtà in molte regioni non si è usato il quadrivalente consigliato dall’ISS. Ma non in tutte. Nella mia si è usato.

Il fatto è che può succedere anche ai vaccinati di ammalarsi; perchè? Beh ne abbiamo parlato qualche mese fa: la sieroconversione è parziale e quella del vaccino antinfluenzale non supera il 70% nel migliore dei casi e dunque quello che avviene è che si riduce la probabilità, ma non c’è alcuna sicurezza; inoltre ci sono ceppi non coperti.

“La diffusione dell’influenza è superiore alle attese” avverte il presidente dell’Istituto Superiore di Sanità, Walter Ricciardi.

Influnet registra 3 milioni 883 mila contagi da inizio stagione, che cosa significa?

“Vuol dire che il virus sta circolando tantissimo, la peggiore epidemia influenzale degli ultimi 14 anni, a fine stagione ci saranno più allettati di quanto previsto”.

Le regioni dovevano somministrare vaccino quadrivalente. Hanno tirato al risparmio? 

“È una constatazione, senza spirito polemico. Che sia germe, microbo, virus o batterio, è nostro dovere garantire la maggiore copertura. Per il costo, questi vaccini derivano da investimenti importanti, da qui il prezzo”.

Quindi questa alta diffusione dei contagi a livello nazionale come si spiega?

“Le coperture vaccinali sono state modeste negli anziani, negli italiani in generale. E il vaccino quadrivalente, che fornisce copertura anche contro il ceppo, Yamagata di tipo B, è stato somministrato solo nel 40% dei casi. Il 60% dei vaccini era trivalente e copriva solo tre ceppi A-H1N1, A-H3N2 e un solo tipo di virus B”.

Ci sono poi le mutazioni, le forme influenzali particolarmente insidiose.

“Fortunatamente non abbiamo avuto la variante inglese, ancora più pericolosa. Loro hanno chiuso tutti gli ospedali, rinviato gli interventi chirurgici. Ma i virus non hanno confini, dobbiamo stare in guardia. Sono d’accordo per questo con le osservazioni di Cricelli della Simg e con Bernabei di Italia Longeva, tutelare e prevenire, con un occhio di riguardo verso bambini, anziani e fragilità”.

(https://www.quotidiano.net/cronaca/influenza-2018-1.3672810)

Insomma il mio mal di gola accompagnato da mal di testa, malessere generale durato una settimana mi ha obbligato ad usare dei farmaci sintomatici, come avviene per milioni di altre persone.

E così ho cominciato a ricordare che da ragazzo ne ho sofferto veramente parecchio; ogni anno avevo un mal di gola con febbre alta, fino a 14 anni, quando fu deciso che sarei stato operato, un intervento che si faceva senza alcuna anestesia, durava un po’ e aveva l’unico aspetto positivo che dopo, per un paio di settimane ricevevi, oltre ad indegne pappette morbide, tanti gelati e soprattutto NON andavi a scuola!!!!

Beh comunque sia per anni ho usato farmaci sintomatici contro il mal di gola (gli antibiotici arrivavano solo dopo un po’ e nei primi anni 60 erano cari e anche pochi). E quale era il farmaco preferito da tutti i ragazzi della mia età?

Il FORMITROL!!!

Era il più comune antisettico orale e uno tra i prodotti di punta dei laboratori Dr. Wander di Milano, che produceva anche l’Ovomaltina e il Cioccovo; ma sinceramente gli ultimi due li conoscevo per pubblicità ma non li ho mai mangiati (a casa mia in periferia di Napoli erano più comuni le uova fresche: quasi tutti avevano in casa una gallina o anche più, ovviamente sul terrazzo o sul balcone; ci credete?).

L’alternativa era il clorato di potassio, puro. Ma a me piaceva di più il Formitrol.

Dentro c’erano alcune cosette molto particolari:

http://vecchiestampe.blogspot.it/2013/11/formitrol-1957.html

La composizione la trovate nella foto sopra:1g di pastiglia: 10mg di formaldeide, 1 di mentolo e il resto: zucchero, acido citrico ed essenze non identificate che attiravano i bambini.

La formaldeide o aldeide formica fu sintetizzata per la prima volta nel 1867 da August Wilhelm von Hofmann, facendo reagire i vapori dell’alcol metilico su una lamina di platino molto calda.

Si tratta dell’aldeide più semplice e anche più piccola, che è un antibatterico potentissimo, ma viene anche impiegata nella produzione di vaccini (basati su microorganismi uccisi), nella conservazione dei campioni istologici, nell’imbalsamazione, nella produzione della bachelite, nelle schiume isolanti, come additivo alimentare nei prodotti affumicati (E240), nelle colle e in tantissimi altri modi (produzione mondiale oltre 20 Mton/anno)

Tuttavia nel 2004 lo IARC (Agenzia Internazionale di Ricerca sul Cancro) ha deciso di includerla nell’elenco delle sostanze cancerogene per la specie umana: classe 1.

La sua molecola è planare; l’atomo di carbonio ha ibridazione sp2 ed è al centro di un triangolo circa equilatero ai cui vertici si trovano i due atomi di idrogeno e quello di ossigeno.

paraformaldeide (1,3,5-triossano)

Gassosa a temperatura ambiente, si trova generalmente in due forme: come soluzione acquosa al 37% o come paraformaldeide in forma di 1,3,5-triossano, molecola ciclica formata dall’unione di tre molecole di formaldeide. La ciclizzazione è una reazione reversibile, la paraformaldeide può essere riconvertita in formaldeide.

In soluzione acquosa, la formaldeide è in equilibrio con la sua forma idrata, il glicole metilenico (o “metandiolo”, CH2(OH)2 CAS. 463-57-0 EINECS 207-339-5). Tale equilibrio a temperatura ambiente è quasi completamente spostato a destra (K > 1000); pertanto una “soluzione acquosa di formaldeide” è di fatto una soluzione acquosa di glicole metilenico.[3]

(da Wikipedia)

L’Unione Europea ha messo al bando la formaldeide eliminandola dai prodotti finiti, ed imponendo una soglia molto severa in tutti gli altri casi.

Anche il Formitrol ha dovuto cambiare composizone:

Oggi abbiamo il Formitrol e il Neoformitrol, la cui composizione vedete qui sotto:

NEO-Formitrol : Cetilpiridinio cloruro mg 1. Gli altri componenti sono: aroma di limone speziato (12689), saccarina, paraffina liquida,polivinilpirrolidone, polivinilpirrolidone vinilacetato, talco, saccarosio per compressione.

Il cetilpiridinio è un tensioattivo cationico, dotato di capacità disinfettanti, disgrega le membrane cellulari batteriche, e presente anche in molti dentrifici e collutori (colluttorio è SBAGLIATO!!).

Simile alle molecole di membrana, ma con cariche opposte ha una potente azione disgregatrice.

Formitrol: Ogni pastiglia contiene 8,75 mg di flurbiprofene Eccipienti con effetti noti Isomalto 2160 mg/pastiglia Maltitolo 383 mg/pastiglia Idrossianisolo butilato (E320) 0,013 mg/pastiglia

Il flurbiprofene è un’ antinfiammatorio potente, ma anche potenzialmente tossico, con vari effetti collaterali.

Molecola otticamente attiva, usata in miscela, è un classico dei FANS, antinfiammatori non steroidei, di cui condivide il meccanismo di azione (inibizione della sintesi di prostanglandine e quindi blocco della cascata infiammatoria).

Dubito che possano anche solo pallidamente bissare il successo del Formitrol presso i bambini della mia epoca. Pensateci, un agente cancerogeno conclamato venduto per anni come antisettico e consigliato a tutti i bambini (anche d’estate). Di sapore era buono, direi……pungente! E dopo tutto siamo una delle generazioni più longeve.

Voi che ne dite?

Standard, norme e certificazioni.1. Cosa sono e perché ne abbiamo bisogno?

Marino Melissano

L’importanza della standardizzazione e della normazione

Cos’è una norma? Ce lo dice la Direttiva Europea 98/34/CE del 22 giugno 1998: “norma” è la specifica tecnica approvata da un organismo riconosciuto a svolgere attività normativa per applicazione ripetuta o continua, la cui osservanza non sia obbligatoria.

Infatti:

  • le norme sono volontarie: costituiscono un riferimento che le parti interessate si impongono spontaneamente;
  • sono basate sul consenso e sulla trasparenza: devono essere approvate con il consenso di tutti coloro che hanno partecipato ai lavori e l’iter di approvazione è pubblicato e messo a disposizione degli interessati;
  • sono democratiche: tutte le parti interessate possono partecipare ai lavori e formulare osservazioni;
  • ogni cinque anni vengono sottoposte a riesame.

Quindi, le norme sono documenti che definiscono le caratteristiche di un prodotto, di un processo, di un servizio (dimensionali, prestazionali, ambientali, di qualità, di sicurezza, di organizzazione), secondo lo stato dell’arte e sono il risultato del lavoro di migliaia di esperti in Italia e nel mondo.

E ancora: «possiamo affermare che oltre a creare vantaggio per la comunità dei produttori e per la società economica nel suo complesso, le norme salvaguardano gli interessi del consumatore e della collettività.» Una norma è un documento che prescrive come fare bene le cose, garantendo sicurezza, rispetto per l’ambiente e prestazioni certe. (www.uni.com)

Norme e standard sono la stessa cosa?

 Spesso le due voci sono usate indifferentemente, considerato però che gli standard sono norme tecniche.

Alla voce “standard” dell’enciclopedia Treccani on line troviamo:

«Modello o tipo di un determinato prodotto, o insieme di norme fissate allo scopo di ottenere l’unificazione delle caratteristiche (standardizzazione) del prodotto medesimo, da chiunque e comunque fabbricato. Anche, insieme degli elementi che individuano le caratteristiche di un determinato processo tecnico

Tale concetto non è riferibile esclusivamente all’ambito tecnologico, ma in generale a tutto l’ambito della produzione manifatturiera e industriale. Si coglie quanto la possibilità di fare affidamento su uno standard generalmente riconosciuto e le cui caratteristiche siano pubbliche, agevoli la produzione industriale in due direzioni:

  • per chi progetta e produce, poiché, conoscendo tali informazioni, può evitare un dispendio di risorse e ha maggiori possibilità che il suo prodotto sia accolto dal mercato;
  • per i consumatori, poiché, ricevendo prodotti ideati sulla base di standard condivisi, avranno maggiori garanzie che tali prodotti possano funzionare tra di loro.

Ciò trova conferma in un passaggio del libro intitolato emblematicamente “Le regole del gioco”, prodotto da UNI (ente di standardizzazione italiano) con lo scopo di fare informazione e divulgazione in materia di normazione:

«applicare uno standard è: promuovere la sicurezza, la qualità della vita e la conservazione dell’ambiente, regolamentando prodotti, processi e servizi; migliorare l’efficacia ed efficienza del sistema economico, unificando prodotti, livelli prestazionali, metodi di prova e di controllo; promuovere il commercio internazionale, armonizzando norme e controlli di prodotti e servizi; facilitare la comunicazione, unificando terminologia, simboli, codici ed interfacce; salvaguardare gli interessi del consumatore e della collettività

Pari interesse desta la definizione più succinta presente nella sezione “Frequently asked questions” del sito web dell’ISO (autorevole ente di normazione a livello mondiale):

«[A standard is] a documented agreement containing technical specifications or other precise criteria to be used consistently as rules, guidelines, or definitions of characteristics to ensure that materials, products, processes and services are fit for their purpose.»

Come la precedente, anche questa definizione sembra dare per acquisito che l’idea di standard e di norma siano pressoché coincidenti. Si noti infatti l’accento posto sul concetto di “accordo documentato” contenente le specifiche tecniche o altri criteri per lo sviluppo di materiali, prodotti, processi e servizi.

Gli standard normativi servono ad assicurare la qualità e la sicurezza del contenuto o del trattamento di un’informazione o di un servizio.

Quando si tratta di documenti elettronici, la standardizzazione è cruciale, perché condiziona la diffusione e garantisce un accesso realmente aperto alle informazioni.

Standard de jure e de facto

Si parla di standard de jure quando lo standard è frutto di un regolare processo di analisi tecnica e di definizione, gestito da apposite organizzazioni, e quando è stato formalizzato e descritto in uno specifico documento chiamato comunemente “norma tecnica”, o anche più semplicemente “norma”; di conseguenza gli enti preposti a questo tipo di attività vengono denominati enti di formazione (o anche più genericamente di standardizzazione).

Le norme vengono formalizzate attraverso un complesso meccanismo di consultazione e analisi (Comitati di progetto, CP) che vede il coinvolgimento, da parte dell’ente di normazione, di esperti del settore industriale implicato (Comitati Tecnici, CT) e dei cosiddetti stakeholders, ovvero i soggetti potenzialmente interessati allo standard nascente, tra cui i rappresentanti dei consumatori. Ovviamente l’autorevolezza di una norma dipende anche (anzi, soprattutto) dalla presenza del maggior numero di tecnici, di stakeholders coinvolti nel processo e dalla loro autorevolezza. Una norma deve basarsi su comprovati risultati scientifici, tecnologici e sperimentali.

Ci sono modelli di riferimento che, solo per la loro elevata diffusione, vengono comunemente considerati standard, ma in realtà non sono mai stati riconosciuti come tali da apposite organizzazioni attraverso un regolare processo di standardizzazione: si parla in questo caso di standard de facto.

 

Norme e certificazioni

Fare norme non significa fare certificazione. Queste vengono effettuate da appositi enti accreditati: In base al Reg. CE 765/2008 (eur-lex.europa.eu) è Accredia, che garantisce la certificazione, in conformità alle norme UNI.

Norme tecniche e leggi

Tra normazione tecnica e legislazione esiste un rapporto stretto, ma anche complesso. Se infatti l’applicazione delle norme tecniche è volontaria, quando queste vengono richiamate nei provvedimenti legislativi può intervenire un livello di cogenza, delimitato pur sempre dal contesto di riferimento. La sinergia più corretta è quella della co-regolamentazione: il legislatore affida alla normazione la definizione degli elementi sufficienti al raggiungimento degli obiettivi di legge.
Sono infatti numerosi i provvedimenti di legge che fanno riferimento – genericamente o con preciso dettaglio – alle norme tecniche, a volte obbligatoriamente, altre solo preferenzialmente.

Uno dei casi più emblematici di sinergia tra norme e leggi è dato dalle direttive europee, cosiddette “Nuovo approccio” (GU dell’UE del 26.07.2016), che definiscono i requisiti essenziali di salute e sicurezza dei prodotti. La legislazione deve fissare solo i requisiti essenziali di sicurezza e non le specifiche tecniche della produzione. La stesura delle specifiche tecniche è demandata agli organismi di normazione europei.

I produttori possono liberamente scegliere come rispettare tali requisiti obbligatori, ma se lo fanno utilizzando le norme tecniche europee “armonizzate” (cioè norme elaborate dal CEN su richiesta della Commissione Europea e citate dalla Gazzetta Ufficiale) i prodotti beneficiano automaticamente della presunzione di conformità e possono dunque liberamente circolare nel mercato europeo.

In una economia di libero scambio, la normazione volontaria è la chiave di volta della governance del mercato unico: rappresenta una regolamentazione indispensabile per riequilibrare i rapporti di forza tra gli operatori, tutelare gli interessi dei consumatori e supportare le azioni regolamentative.

Uno dei grandi valori della normazione sta, dunque, nella sua funzione di supporto alla legislazione.

Le prescrizioni di legge possono trovare la loro concreta declinazione nelle norme tecniche, che semplificano il sistema e rendono più veloce e automatico l’aggiornamento del corpus legislativo.

Alcuni esempi più recenti e significativi del rapporto virtuoso tra norme e leggi:

  • Edifici scolastici: norme di prevenzione incendi
  • Acquisti sostenibili e criteri ambientali minimi
  • Verso la green economy: la legge 221/2015 cita le norme UNI
  • Direttiva EN-71: la sicurezza dei giocattoli
  • Salute e sicurezza sul lavoro: richiamo delle norme UNI nelle leggi del settore
  • UNI EN 1811:2011: norma armonizzata ai sensi del Reg. 1907/2006, conosciuto come regolamento REACH (Registration, Evaluation and Authorization of Chemicals). La norma specifica un metodo per simulare il rilascio di Ni, utilizzato per determinare la conformità degli articoli sottoposti al test all’allegato XVII, punto 27, del REACH.

Si cita, a questo proposito, la sentenza di primo grado sul caso Thyssen (Trib. Torino, Corte d’Assise, 15 aprile 2011), che, di fronte alle argomentazioni della difesa che lamentava le difficoltà legate al dare adempimento all’obbligo previsto dall’articolo 2087 c.c.( “il datore, per tutelare l’integrità psico-fisica del prestatore, ha l’obbligo di predisporre le cautele necessarie secondo la particolarità del lavoro, l’esperienza e la tecnica): dapprima premette che “la Corte non ignora una ipotizzabile difficoltà, per il datore di lavoro, di conoscere effettivamente come comportarsi […] a fronte di un dovere generale di solidarietà e di una espressione di ampio contenuto quale quella di cui all’art. 2087 c.c. […].” 

Ma poi aggiunge che “il dovere generale di tutela, derivante dalla Costituzione e dall’art. 2087 c.c., funge da – elementare, ma altrettanto fondamentale – criterio interpretativo per tutta la legislazione in materia di sicurezza e di salute dei lavoratori, a cominciare dal D.Lgs 626/94 (ora D.Lgs. 81/08), passando per i decreti ministeriali, per giungere alle norme “tecniche”, le quali ultime, riproducendo lo “stato dell’arte” (nel nostro caso, relativo alla materia di prevenzione antincendio), costituiscono il “contenuto” preciso del rinvio alla “tecnica” ed alle “conoscenze acquisite in base al progresso tecnico” come indicate all’art. 2087 c.c. all’art. 3 D.Lgs 626/94.” [Ora art. 15 c. 1 lett c).D.Lgs. 81/08.]

 

Dunque – secondo la sentenza torinese – le norme tecniche, riproducendo lo “stato dell’arte”, costituiscono il “contenuto” preciso del rinvio alla “tecnica”, operato dall’articolo 2087 del codice civile, ed anche del rinvio che l’attuale art. 15 del D.Lgs.81/08 (“misure generali di tutela”) fa alle “conoscenze acquisite in base al progresso tecnico”.

Direttiva EN-71: la sicurezza dei giocattoli

Le norme tecniche UNI EN 71, adottate e pubblicate in Italia dall’UNI (www.uni.com), stabiliscono i requisiti di sicurezza e i metodi di prova sui giocattoli destinati ai bambini fino ai 14 anni di età.

Dette norme sono rientrate nella DIR CE 2009/48, recepita in Italia dal Dlgs 54 dell’11.04.2011 e quindi sono diventate cogenti.

Molti giocattoli sono però di importazione cinese.

E’ obbligatorio rispettare gli standard EN 71 quando si importano giocattoli dalla Cina?

Sì. Non vi è alcuna differenza tra il realizzare il prodotto in Europa o l’importarlo da un altro paese: bisogna comunque rispettare gli standard EN 71. Il problema è che a volte è difficile capire se un dato prodotto sia da considerarsi un “giocattolo” o meno ai sensi della direttiva EN 71. La definizione più comune è la seguente: se un prodotto può venir usato per giocare ed è destinato ai minori di 14 anni, allora deve essere conforme alla direttiva EN 71. Sembra che solo il 12% dei fornitori di giocattoli presenti su portali commerciali dichiari di poter produrre giocattoli conformi alla direttiva EN 71.

Come se non bastasse, molti fornitori cinesi tendono a mentire sui certificati in modo da assicurarsi il maggior numero possibile di clienti europei o americani. Quindi, siccome sappiamo per esperienza che buona parte dei certificati dichiarati sono falsi o scaduti, ci sentiamo di affermare che solo il 3-5% dei fornitori cinesi di giocattoli sia qualificato per esportare in Europa.

D’altronde, è l’importatore ad essere legalmente responsabile – sia a livello civile che penale – per il rispetto delle direttive europee, non certo il fornitore cinese. (https://cinaimportazioni.it)

Chi si occupa di standardizzazione

La standardizzazione è effettuata a livello internazionale dall′International Organization for Standardization (ISO), mentre a livello europeo è effettuata dal Comitato Europeo di Normazione (CEN) ed a livello italiano dall’Ente nazionale italiano di unificazione (UNI), mentre negli USA l’ente di standardizzazione è l′American National Standards Institute (ANSI), membro dell’ISO. La CEI è un’associazione di normazione tecnica in campo elettrotecnico ed elettronico, che partecipa, su mandato dello Stato italiano, ai lavori del CENELEC e dello IEC. In base alla L 186/1968, tutti i materiali, le apparecchiature, i macchinari, le installazioni e gli impianti elettrici ed elettronici, devono essere realizzati e costruiti a regola d’arte, e quelli prodotti secondo le norme CEI si considerano costruiti a regola d’arte.

L’UNI è un’associazione privata senza scopo di lucro, che partecipa, in rappresentanza dell’Italia, all’attività normativa degli organismi internazionali di normazione ISO. Riconosciuto dal Reg. 1025/2012 UE (art. 27), nel 2016 ha pubblicato 1.702 norme. L’attività di normazione è svolta da una struttura multilivello, articolata in circa 1.100 organi tecnici (OT) e 7 organizzazioni esterne indipendenti (Enti federati), sotto la supervisione della Commissione Centrale Tecnica (CCT), che coordina i lavori di normazione e approva, su proposta dell’OT competente, il recepimento delle norme ISO.

In ambito alimentare è da citare anche il Codex Alimentarius, insieme di regole e normative adottate da 181 Paesi ed elaborate dalla Commissione del Codex, istituita nel 1963 dalla FAO e dall’OMS. Gli standard del Codex si basano su dati e considerazioni oggettive, confortate da acquisizioni scientifiche, provenienti da organismi di ricerca indipendenti e/o su consultazioni internazionali ad hoc, organizzate dalla FAO e dall’OMS. Pur se costituiscono solo raccomandazioni, gli standard del Codex sono spesso usati come base per le legislazioni sanitarie, tecniche e commerciali dei vari Paesi.

Occorre qui citare anche l’ANEC, (European consumer voice in standardization), che difende gli interessi dei consumatori nei processi di standardizzazione e certificazione, collaborando in tal senso con la CE, nella stesura e nell’implementazione delle norme.

Le sigle che caratterizzano le norme

Le norme, oltre che da numeri, sono indicate da sigle. Dalla sigla si può risalire a chi l’ha elaborata e alla sua validità.

Le principali sigle che caratterizzano una norma sono:

  • UNI: contraddistingue tutte le norme italiane e, se è l’unica sigla presente, significa che la norma è stata elaborata direttamente dalle commissioni UNI o dagli enti federati;
  • EN: identifica le norme elaborate dal CEN (Comité Européen de Normalisation). Le norme EN devono essere obbligatoriamente recepite dai Paesi Membri. La loro sigla di riferimento diventa, nel caso dell’Italia, UNI EN. Queste norme servono ad uniformare la normativa tecnica in tutta Europa;
  • ISO: individua le norme elaborate dall’ISO, che sono un riferimento applicabile in tutto il mondo. Ogni Paese può decidere se rafforzarne il ruolo adottandole come proprie norme nazionali; in questo caso, in Italia, la sigla diventa UNI ISO o UNI EN ISO, se la norma è stata adottata anche a livello europeo.

ALCUNI ESEMPI

Per percepire quanto questa tematica influisca sulla vita di tutti noi (pur inconsapevoli), basta avanzare alcuni esempi:

  • i fogli A4 su cui uffici pubblici, aziende, professionisti e privati stampano i loro documenti rispondono ad un preciso standard dimensionale di 210 per 297 millimetri: da ciò deriva che se utilizziamo quel tipo di carta, siamo pressoché certi che riusciremo ad inserirla in qualsiasi modello di stampante, di fotocopiatrice, di rilegatrice presenti sul mercato;
  • la tastiera alfanumerica comunemente detta “QWERTY” dalle prime lettere in essa presenti (da sinistra in alto), è il tipo di tastiera ormai universalmente utilizzato, da noi, su computer, palmari, smartphone, macchine da scrivere e altri dispositivi simili. Molte persone sono ormai così avvezze alla posizione delle lettere che possono digitare ampie porzioni di testo senza nemmeno guardare direttamente la tastiera; e questo indipendentemente dal tipo di dispositivo che si sta utilizzando. Si provi a immaginare il disorientamento e il disagio in cui ci troveremmo se ciascun produttore di dispositivi elettronici utilizzasse un proprio diverso ordine nella disposizione delle lettere.

Scienziate che avrebbero dovuto vincere il Premio Nobel: Hertha Ayrton (1854-1923)

Rinaldo Cervellati.

I primi di gennaio del 1902 il Segretario della Royal Society ricevette una breve lettera dal membro John Perry[1], contenente in allegato la proposta di nomina a membro di Mrs. Hertha Marks Ayrton.

Era la prima volta che veniva richiesta l’elezione di una donna alla Royal Society. Nonostante il supporto di nove membri, la nomina venne rifiutata dopo un lungo iter che è stato poi definito “un episodio imbarazzante nella storia della Royal Society” [1].

Hertha Marks Ayrton

Ma, chi è stata e cosa ha fatto Hertha Marks Ayrton ?

Nasce Phoebe Sarah Marks il 28 aprile 1854 a Portsea (contea di Hampshire, Inghilterra) terza figlia di Levi Marks, immigrato giudaico polacco di professione orologiaio e di Alice Teresa Moss, sarta, figlia di un commerciante di vetro. Nel 1861 la madre divenne vedova con sette figli e un ottavo in arrivo, due anni dopo la piccola Phoebe Sarah fu invitata dagli zii, Marion e Alphonse Hartog, a andare a vivere con loro e i suoi cugini a Londra. La famiglia Hartog, che gestiva una scuola nel nord-ovest di Londra, le assicurò una ampia educazione comprendente lingue antiche e moderne e musica. I cugini la introdussero alla matematica e alle scienze. Alla scuola degli Hartogs, Sarah si fece conoscere sia come eccellente negli studi, sia come combattente per la causa dei diritti civili alle donne. Furono questi principi che in seguito portarono al suo coinvolgimento nel movimento delle “suffragette”.

A 16 anni iniziò a lavorare come istitutrice, potendo così aiutare anche economicamente madre e fratelli. E’ probabilmente in questo periodo che l’amica Ottilie Blind Hancock[2], cominciò a chiamarla Hertha (dal nome della protagonista di un poema di Swinburne[3] sulla dea scandinava della Terra, Erda), forse a causa della sua vitalità. Fatto è che Phoebe Sarah Marks mantenne questo nome per tutto il resto della vita. Cominciò anche a studiare per l’esame per donne dell’università di Cambridge, aspirando a frequentare il College femminile fondato da Emily Davies, trasferitosi nel 1873 a Girton (Cambridge) come Girton College. In questo fu aiutata da Barbara Bodichon[4], co-fondatrice del Girton College che divenne sua amica e benefattrice. Attraverso Bodichon conobbe George Eliot[5] che in quel momento era impegnata a scrivere il suo ultimo romanzo Daniel Deronda. I biografi sono concordi nell’affermare che molte caratteristiche di Mirah, personaggio principale del romanzo, siano comuni a quelle di Hertha.

Ritratto di Hertha Ayrton

Superato l’esame con onori, Hertha fu ammessa al College nel 1877 e sostenne l’esame del Progetto Scientifico Tripos nel 1880, ma l’Università di Cambridge non le rilasciò un diploma accademico perchè all’epoca concedeva alle donne solo certificati. Durante il college Hertha ideò e costruì un apparecchio per misurare la pressione del sangue (sfigmomanometro) e uno strumento per disegno tecnico in grado di dividere una linea in un numero qualsiasi di parti uguali e per ingrandire o ridurre le figure, quest’ultimo fu molto utilizzato da ingegneri, architetti e artisti. I due strumenti ottennero il brevetto nel 1884. I suoi biografi sostengono che Hertha ereditò queste capacità manuali dal padre, costruttore di orologi.

Al Girton, Hertha formò, insieme alla compagna Charlotte Scott un club matematico per “trovare problemi da risolvere e discutere eventuali questioni matematiche che possono sorgere”. Formò anche la Girton Fire Brigade, un gruppo di ragazze addestrate come vigili del fuoco e fu tra le leader del locale Coro.

Indispettita dall’atteggiamento antifemminista dell’Università di Cambridge, superò con successo un esame esterno ottenendo il B.Sc. dall’Università di Londra nel 1881.

A Londra Hertha lavorò come insegnante privata di matematica e altre materie fino al 1883. Fu anche attiva nel progettare e risolvere problemi matematici, molti dei quali furono pubblicati nella rubrica “Mathematical Questions” e “Their Solutions” dell’ Educational Times. J. Tattersall e S. McMurran [2] scrivono: Le sue numerose soluzioni indicano indubbiamente che possedeva una notevole intuizione geometrica ed era un’eccellente studentessa di matematica.

Continuò a studiare scienze, nel 1884 seguì il corso serale sull’elettricità al Finsbury Technical College[6], avendo come docente il professor William (Bill) Ayrton[7]. L’anno successivo sposò il professore diventando così Hertha Ayrton. Per qualche tempo dopo il matrimonio, le responsabilità domestiche assorbirono gran parte delle energie di Hertha, tuttavia mantenne vivo l’interesse per le scienze e nel 1888 tenne una serie di conferenze per donne sull’elettricità.

Il testamento di Barbara Bodichon, morta nel 1891, contemplava un generoso lascito a Hertha, ciò che le permise di assumere una governante e dedicare la sua attenzione in modo più completo alla ricerca scientifica. Tuttavia un altro episodio fu determinante a convincere Hertha a approfondire le indagini sperimentali sull’arco elettrico. Infatti Bill Ayrton che si occupava di questo tipo di ricerca non collaborava con la moglie, consapevole del fatto che lavori in collaborazione sarebbero comunque stati attribuiti solo a lui dalla comunità scientifica. Ma nel 1893 il testo in copia unica di una sua conferenza tenuta a Chicago sulla dipendenza della differenza di potenziale dell’arco elettrico da diversi fattori andò accidentalmente distrutto, da quel momento Bill Ayrton decise di occuparsi di altri problemi. Quindi Hertha potè proseguire le indagini sull’arco elettrico con sue proprie ricerche.

Hertha Ayrton durante una dimostrazione

Verso la fine del diciannovesimo secolo, l’arco elettrico era ampiamente utilizzato per l’illuminazione pubblica. La tendenza degli archi elettrici a tremolare e sibilare era però un grosso problema. Nel 1895, Hertha Ayrton scrisse una serie di articoli per la rivista The Electrician, stabilendo che questi fenomeni erano il risultato dell’ossigeno che veniva a contatto con le barre di carbonio usate per l’arco. Nel 1899 fu la prima donna a esporre il proprio lavoro all’Institute of Electrical Engineers (IEE, attualmente IET, Institute of Engineering and Technology).

Il suo articolo, intitolato “The Hissing of Electric Arc” [3] fu determinante per il miglioramento della tecnologia degli archi. Poco dopo, Ayrton fu eletta membro dell’IEE, prima donna a ottenere quel riconoscimento. Come detto all’inizio non andò così con la Royal Society a causa del suo sesso[8] e la sua comunicazione “The Mechanism of the Electric Arc” [4] fu letta in sua vece da John Perry nel 1901.

Alla fine del XIX secolo, il lavoro di Hertha Ayrton nel campo dell’ingegneria elettrica fu ampiamente riconosciuto a livello nazionale e internazionale. Al Congresso internazionale delle donne tenutosi a Londra nel 1899, presiedette la sezione di scienze fisiche. Ayrton intervenne anche all’International Electrical Congress tenutosi a Parigi nel 1900 con un comunicazione dal titolo: L’intensité lumineuse de l’arc à courant continu. Il suo successo ha portato l’Associazione Britannica per l’Avanzamento della Scienza a consentire alle donne di far parte a comitati generali e settoriali.

Nel 1902, Ayrton pubblicò il volume The Electric Arc [5], una sintesi delle sue ricerche e lavori sull’arco elettrico, comprendente le origini dei suoi primi articoli pubblicati su The Electrician tra il 1895 e il 1896. Con questo volume, il suo contributo nello sviluppo dell’ingegneria elettrica fu definitivamente riconosciuto. Scrivono Tattersall e McMurran [2] in proposito:

The text included descriptions and many illustrations of her experiments, succinct chapter reviews, a comprehensive index, an extensive bibliography, and a chapter devoted to tracing the history of the electric arc. Her historical account provided detailed explanations of previous experiments and results involving the arc and concluded with the most recent research of the author and her colleagues…The book was widely accepted as tour de force on the electrical arc and received favorable reviews on the continent where a German journal enthusiastically praised if for its clear exposition and relevant conclusions.

Dopo l’uscita e il successo del libro sull’arco elettrico, Hertha Ayrton rivolse la sua attenzione all’origine, alla forma e al movimento delle increspature nella sabbia e nell’acqua esposte al vento, compresa la formazione di vortici. Nel 1904 fu la prima donna a esporre una comunicazione alla Royal Society. In questo lavoro presentava evidenze sperimentali e interpretazioni teoriche per la forma di due differenti strutture per le increspature sabbiose, la pubblicazione del lavoro nei Proceedings Transactions fu posposta al 1910 su richiesta dell’autrice [6].

Nel 1906, fu insignita della prestigiosa Medaglia Hughes della Royal Society “per le sue indagini sperimentali sull’arco elettrico e anche sulle increspature di sabbia”. Fu la quinta persona (prima donna) a vincere questo premio, assegnato annualmente dal 1902 in riconoscimento di un scoperta originale nelle scienze fisiche, in particolare elettricità e magnetismo o loro applicazioni, per la seconda (Michele Dougherty) sono dovuti passare 102 anni.

Caricatura di Ayrton “signora dei fulmini”

Dopo la morte del marito nel 1908, Ayrton proseguì le ricerche sulle increspature utilizzando apparecchiature costruite appositamente in proprio [7]. Una serie di esperimenti convalidò la teoria matematica dei vortici di Lord Rayleigh. Inventò anche un particolare ventilatore che avrebbe potuto creare vortici a spirale in grado di respingere gli attacchi coi gas [8]. Diventarono noti come ventilatori di Ayrton; secondo J. Mason [9] ne furono impiegati circa 100000 sul fronte occidentale, un altro biografo sostiene però che non furono praticamente impiegati [10].

Partecipò a tutte le principali marce per l’emancipazione femminile negli anni 1910, 1911 e 1912, fu malmenata e rischiò il carcere. Successivamente Ayrton contribuì a fondare l’International Federation of University Woman (1919) e la National Union of Scientific Workers (1920).

Muore per avvelenamento del sangue, causato da una puntura d’insetto, il 26 agosto 1923 a New Cottage, North Lancing, Sussex.

Bibliografia

[1] F. Henderson, Almost a Fellow: Hertha Ayrton and an embarrassing episode in the history of the Royal Society, https://blogs.royalsociety.org/history-of-science/2012/03/08/almost-a-fellow/

[2] J. Tattersall, S. McMurran, Hertha Ayrton: A Persistent Experimenter., Journal of Women’s History, 1995, 7, 86-112.

[3] Mrs. Ayrton, The Hissing of Electric Arc., Journal of the Institution of Electrical Engineers, 1899, 28, 400-436.

[4] Mrs. Ayrton, On the Mechanism of the Electric Arc., Philosophical Transactions of the Royal Society A, 1902, 199, 299-336.

[5] H. Ayrton, The Electric Arc., D. Van Nostrand Co., New York, 1902 (1 vol. di xxv+479 pp)

https://ia802604.us.archive.org/21/items/electricarc00ayrtrich/electricarc00ayrtrich_bw.pdf

[6]Mrs. H. Ayrton, The Origin and Growth of Ripple Marks, Proceedings of the Royal Society of London. Series A, 1910, 84, 285-310.

[7]Mrs. H. Ayrton, Local Differences of Pressure Near an Obstacle in Oscillating Water., Proceedings of the Royal Society of London. Series A, 1915, 91, 405-410.

[8] Mrs. H. Ayrton, On a New Method of Driving off Poisonous Gases., Proceedings of the Royal Society of London. Series A, 1919, 96, 249-256.

[9] J. Mason, Hertha Ayrton (1854-1923) and the Admission of Woman to the Royal Society of Chemistry, Notes. Rec. R. Soc. Lond., 1991, 45, 201-220.

[10]L. Riddle, Hertha Marks Ayrton, Biographies of Women Mathematicians, Agnes Scott College, Atlanta, Georgia. https://www.agnesscott.edu/lriddle/women/ayrton.htm

[1] John Perry (1850-1920) ingegnere e matematico irlandese, allievo di Lord Kelvin, poi professore di ingegneria meccanica al Finsbury Technical College di Londra, è noto per la disputa con il suo vecchio maestro sulla valutazione dell’età della Terra. Fu Presidente dell’Institution of Electrical Engineers e della Physical Society of London.

[2] Ottilie Blind, poi sposata Hancock, figlia di Karl Blind (1826-1907) rivoluzionario tedesco dopo i moti del 1848 e un periodo di prigione rifugiatosi con la famiglia in Inghilterra nel 1852, divenne attivista del movimento femminista inglese. Il padre mantenne costanti rapporti di amicizia con Mazzini, Garibaldi e Louis Blanc.

[3] Algernon Charles Swinburne (1837-1909) poeta britannico di epoca vittoriana, rivoluzionario fustigatore dei costumi e dell’ipocrisia dei suoi tempi, più volte candidato al Premio Nobel per la Letteratura fra il 1906 e il 1909.

[4] Barbara Leigh Smith Bodichon (1827-1891) britannica, leader del movimento per i diritti civili alle donne co-fondò finanziandolo, il primo College femminile, insieme alla altrettanto famosa leader Emily Davies (1830-1921).

[5] Pseudonimo di Mary Anne (Marian) Evans (1819-1880), una delle principali scrittrici dell’epoca vittoriana. Come molte altre scelse uno pseudonimo maschile sia per “essere presa sul serio”, sia per la sua situazione di compagna di un uomo sposato (cosa scandalosa all’epoca). Mantenne lo pseudonimo anche dopo aver rivendicato di essere l’autrice dei romanzi.

[6] Nel 1926 il Finsbury Technical College è incorporato nell’Imperial College London (The Imperial College of Science, Technology and Medicine).

[7] William Edward Ayrton (1847-1908) fisico e ingegnere inglese, oltre ai suoi studi pionieristici sull’arco elettrico, ha inventato, insieme a John Perry diversi strumenti per misure elettriche fra i quali un amperometro e un wattmetro. Hanno contribuito all’elettrificazione della linea ferroviaria.

[8] In sintesi la motivazione fu: Married women could not be made eligible by Statutes (Una donna sposata non può essere eleggibile per Statuto) [1].

Insegnare la chimica in inglese?

Enrico Prenesti*

Insegnare la chimica in inglese? La deriva anglofila dell’università e le sue conseguenze per docenti, studenti e cittadini italiani

Introduzione

Il momento storico-sociale nel quale ci troviamo è particolare – soprattutto per la velocità di cambiamento cui le persone sono sottoposte sul lavoro come nella vita privata – ma alcuni fenomeni che sembrano legati alla novità della globalizzazione si sono già visti nel corso della storia e ora, semplicemente, si ripresentano attualizzati rispetto ai mezzi impiegati per sostenerli e propagarli. Per quanto d’interesse specifico per l’area accademica, la globalizzazione include il fenomeno dell’anglicizzazione dell’università, con ossequio reverenziale ingravescente per la lingua e la cultura del mondo britannico o statunitense. Dopo aver minato la qualità della didattica con il passaggio da corsi di laurea a orientamento disciplinare a corsi di laurea a orientamento tematico, dopo aver frazionato i corsi di laurea in due cicli (salvo casi di lauree a ciclo unico) dilaga ora l’orientamento esterofilo dei corsi di laurea erogati in lingua inglese. Ormai da alcuni anni gli atenei italiani si sono organizzati per erogare interi corsi di laurea in lingua inglese, con l’aggravante che i docenti sono, nella stragrande maggioranza, madrelingua italiani con conoscenza della lingua inglese perlopiù autoreferenziale. Un’eccezione, in tal senso, è rappresentata da qualche raro docente madrelingua inglese, al quale è offerta una docenza temporanea a contratto, oppure da qualche individuo che rientra dall’estero dopo qualche esperienza tipicamente di ricerca scientifica. Dato lo sfinimento/svilimento finanziario degli atenei italiani, il fine dell’operazione menzionata è meramente mercantile, ovvero aumentare le iscrizioni – agendo su un bacino di utenza più ampio – e, quindi, le entrate.

L’anglofilia si manifesta in Italia in tantissimi ambiti e l’uso della terminologia inglese caratterizza svariate tipologie di ambienti. Purtroppo, gli italiani sono inguaribili esterofili, in tanti casi anche solo per adesione acritica a delle mode. Imitare è più comodo che impegnarsi per creare il proprio prodotto, il proprio prototipo di qualcosa da esibire con orgoglio e fierezza al mondo. Eppure, i riscontri mondiali della valentia italiana sono numerosi e distribuiti in tanti campi, incluso quello dell’istruzione, che vanta un’antica tradizione di eccellenza ancora oggi riconosciuta in tutto il mondo. Cesare Marchi (scrittore, giornalista e autore del libro “Impariamo l’italiano” [1]) rilevava che esterofilia e nazionalismo autarchico sono «le facce della stessa medaglia: l’inguaribile provincialismo. Il provinciale è un insicuro, che dubita della propria identità e si arrocca nella fortezza del nazionalismo xenofobo, oppure spalanca le porte a tutto ciò che viene da fuori». A quale fine dire (o scrivere) match per incontro, reporter per giornalista, team per squadra, step per passo, target per bersaglio, corner per angolo, ticket per biglietto, partner per compagno, endorsement per approvazione, commitment per impegno, performance per prestazione, ecc.? Per non parlare dei tanti anglismi (o anglicismi o inglesismi [2]) quali, implementare, settare, testare, monitorare, plottare, chattare, mixare, loggare, performante e via scrivendo. Per proseguire, infine, con gli sconclusionati connubi tra italiano e inglese: ne è un esempio il nome dato al sito web Verybello.it per promuovere gli eventi culturali italiani nel periodo dell’Expo2015. Qual è il vantaggio psicologico che le persone raggiungono con un tale comportamento linguistico? Il bisogno di distinguersi dagli altri? Il bisogno di ostentare cultura (o presunta tale)? Il bisogno di sentirsi cittadini del mondo? Il bisogno di allearsi con il più forte? Eppure, il mondo anglosassone ci deride: un articolo di Tom Kington, apparso su The Times il 19 ottobre 2016, era emblematicamente intitolato “Reinassance for the Italian language… everywhere but Italy”. In un articolo apparso su The New York Times, Beppe Severgnini [3] affronta l’interessante questione del turpiloquio e, nel contempo, dibatte sull’invasione di termini inglesi nella lingua italiana degli ultimi 30 anni. Giacomo Leopardi (linguista, oltre che poeta) già metteva in guardia dai barbarismi linguistici, ammettendo, tuttavia, l’uso di un vocabolo straniero quando non esisteva il corrispettivo italiano. L’autarchia lessicale è insensata tanto quanto l’esterofilia lessicale: entrambe le posizioni ostacolano lo scambio pacifico di idee imponendo spostamenti eccessivi di baricentro linguistico. Da un lato è ben noto che le lingue sono oggetti fluidi e mutevoli e risentono di diversi influssi e del cambiamento che caratterizza inevitabilmente l’umanità in evoluzione, dall’altro un risveglio di vigilanza sull’imposizione egemonica dell’inglese mi pare indispensabile. L’imposizione di una lingua diversa da quella in uso in un dato territorio è un atto di soggiogamento, perché sovverte la stabilità dei vinti imponendo la visione del mondo dei vincitori. Preservare il proprio patrimonio culturale e linguistico è opporsi con fierezza al pensiero unico omologante [4]: l’inglese, infatti, è una lingua di conquista, di dominio, parlata da un popolo esperto e consumato colonizzatore. Secondo Claude Hagège (linguista francese): «Una lingua non si sviluppa mai grazie alla ricchezza del suo vocabolario o alla complessità della sua grammatica, ma perché lo Stato che la utilizza è potente militarmente» e «Soltanto le persone poco informate pensano che una lingua serva unicamente a comunicare. Una lingua costituisce e rafforza una certa visione del mondo. L’imposizione dell’inglese è funzionale non solo a fini coloniali, ma equivale a imporre i propri valori». Dell’importanza rivestita dal fattore linguistico in una strategia di dominio politico era ben consapevole lo stesso Sir Winston Churchill, il quale dichiarò senza sottintesi (6 settembre 1943): «Il potere di dominare la lingua di un popolo offre guadagni di gran lunga superiori che non togliergli province e territori o schiacciarlo con lo sfruttamento. Gli imperi del futuro sono quelli della mente». Tale affermazione mostra competenza socio- e geopolitica entro la prospettiva storica, oltre a lucida e irriducibile spregiudicatezza. La lingua latina si diffuse in tutto l’impero romano: man mano che i Romani conquistavano nuove terre imponevano agli abitanti delle nazioni vinte l’uso del latino. Ancora, basta pensare allo spagnolo (pur nelle sue varianti) e al portoghese in Sud America, imposti dai conquistadores durante la colonizzazione delle Americhe dal XVI secolo.

Torre di Babele, dipinto di Pieter Bruegel del 1563

Forzare l’introduzione di una lingua straniera in settori chiave di un paese, quale è l’istruzione con i suoi corsi, significa agevolare l’intromissione di culture e poteri estranei alla tipicità e alla sovranità nazionale, rinunciando a diventare, invece, esportatori di cultura e di prodotti che sono espressione della creatività tipicamente italiana, riconosciuta e apprezzata in tutto il mondo. Si tratta, in sintesi, di un’operazione di svendita del Paese.

Lingua, diritti, istruzione e apprendimento

Non è solo questione di lingua, ma di cultura in generale. Tutte le lingue sono portatrici di cultura specifica, la lingua di istruzione non è mai neutra rispetto alla scelta dei contenuti. «Appare dunque evidente che nessuna lingua, per quanto eletta veicolo di comunicazione internazionale, può essere appresa al pari di un sistema segnaletico o di un codice artificiale, come quello della navigazione, ma deve essere insegnata secondo un approccio che ponga al centro del rapporto comunicativo e didattico tanto la vitalità della lingua quanto le peculiarità e le esigenze affettive e umane del soggetto in formazione» [5]. Nel 1999 la Conferenza generale dell’Unesco ha istituito per il 21 febbraio la Giornata internazionale della lingua madre, con «l’auspicio di una politica linguistica mondiale basata sul multilinguismo e garantita dall’accesso universale alle tecnologie informatiche» [6]; nel 2007 la Giornata internazionale della lingua madre è stata riconosciuta dall’Assemblea Generale dell’ONU.

Come la Confindustria vede la scuola e usa l’inglese.

Con la sigla L1 si indica la lingua nativa (o madre o materna o di acquisizione) dell’apprendente, qualunque altra lingua è generalmente indicata con la sigla L2. Secondo Heidi Dulay, Marina Burt e Stephen Krashen [7], con L2 si intende ogni lingua appresa in aggiunta alla propria lingua materna e usata come mezzo di comunicazione nel Paese in cui viene acquisita; una lingua appresa, di solito in un contesto scolastico, in un Paese in cui non serve come normale mezzo di comunicazione non è da considerarsi L2 ma lingua straniera. Il concetto stesso di lingua madre, e i diritti umani ad essa connessi, sono ancora oggetto di studio [8]. La modalità di apprendimento di una lingua diversa da quella nativa (diciamo, in generale, L2) è oggetto di molti studi. Un bambino, infatti, non incomincia mai ad apprendere la lingua materna studiando alfabeto o grammatica: tali procedure caratterizzano, invece, le prime fasi di apprendimento di L2. Mentre lo sviluppo di L1 ha inizio con l’uso libero e spontaneo del discorso, e culmina nella realizzazione consapevole delle forme linguistiche, in L2 lo sviluppo ha inizio con una realizzazione consapevole della lingua e culmina poi nel discorso. L’appropriazione di L1 avviene in modo inconsapevole e senza mediazione dell’intenzione e dell’impegno (quindi, senza sforzo), mentre l’apprendimento di L2 (salvo casi di crescita in contesto bilingue) richiede la mobilitazione di risorse cognitive e affettive che fanno capo allo sforzo guidato dalla motivazione. Pertanto: L1 è acquisita, L2 è appresa.

È centrale il fatto che l’apprendimento è strettamente connesso alla capacità di concettualizzazione e di astrazione che passano per pensiero e linguaggio [9]. In linguistica, l’ipotesi di Sapir-Whorf – altresì conosciuta come ipotesi della relatività linguistica – afferma che lo sviluppo cognitivo di ciascun essere umano è influenzato dalla lingua che parla. Siamo esseri linguistici, ovvero articolazione ontologica nel linguaggio. Secondo Rafael Echeverrìa (sociologo e filosofo cileno, fondatore dell’ontologia del linguaggio), il linguaggio è in se stesso azione: «Gli individui hanno la possibilità di creare se stessi attraverso il linguaggio. Nessuno è in una forma di essere data e immutabile che non permetta infinite modificazioni» [10]. Quindi, i migliori risultati di apprendimento delle discipline si ottengono con la lezione in L1. Erogando corsi in una lingua diversa da quella nativa, l’apprendimento disciplinare è a rischio, con conseguente diminuzione della qualità della didattica e, quindi, delle prospettive lavorative. Gli studenti che cadranno nella trappola dei curricula di studi in inglese (attratti da miraggi millantati da abili persuasori):

  • avranno minori possibilità di apprendere la chimica in modo approfondito (rispetto ai compagni che studiano in italiano) e, inoltre, individueranno con maggiori difficoltà i collegamenti esistenti tra i vari ambiti della scienza perché le lezioni, molto probabilmente erogate da docenti madrelingua italiani, perderanno di nitidezza e di profondità a scapito della scorrevolezza, dell’efficacia e dell’ampiezza di vedute resa possibile da una lezione fluida, appassionata, che esplora con accattivante destrezza gli stretti dintorni del tema in esposizione/dibattito;
  • incontreranno difficoltà ad argomentare la chimica in italiano e, quindi, porteranno un ridotto valore professionale in Italia;
  • perderanno l’opportunità di potenziare le loro competenze linguistiche di italiano e, quindi, di evolvere interiormente (sia per l’apprendimento disciplinare che per la capacità riflessiva e inferenziale che permette l’accesso allo sviluppo personale [9, 10]) e comunicativamente.

In seguito a un siffatto percorso di studi, gli studenti svilupperanno un modello mentale della chimica incompleto (comunque peggiore dell’attuale, già scadente rispetto a quello che ci si poteva formare con la laurea quinquennale) e saranno poco capaci di costruirsi modelli mentali plastici (scientifici o di altri ambiti) con i quali operare per affrontare e risolvere problematiche tecniche e sfide esistenziali [11]. In ogni caso, si può riconoscere un valore educativo al multilinguismo, ma l’adozione di una lingua straniera come veicolo linguistico unico nell’ambito dell’istruzione di un dato paese può solo produrre intralcio all’apprendimento con disorientamento degli studenti, appesantimento del lavoro dei docenti (con sollecito di abilità impreviste dalle condizioni di assunzione e dalla remunerazione) e disgregazione sociale e dovrebbe essere configurata tout court come vilipendio alla Repubblica. Certamente, si tratta di un’eccellente idea per chi volesse strumentalmente colpire l’istruzione italiana per promuovere l’ignoranza, con tutti i vantaggi di governabilità che ne possono derivare.

Comunicazione vs istruzione: università e lingua

La polarizzazione degli interessi delle università verso la ricerca scientifica (inclusa la valutazione dei docenti – anche in sede di reclutamento e avanzamento – basata quasi esclusivamente sulla produzione scientifica e i suoi dintorni stretti) sta conducendo a trascurare il diverso ruolo del linguaggio nei suoi campi d’azione. È innegabile che la lingua inglese abbia saputo imporsi nel mondo come lingua franca (o lingua veicolare), cioè come lingua passe-partout che permette la comunicazione tra parlanti di diversa nazionalità. Impiegare l’inglese come lingua di istruzione unica tra studenti e docenti madrelingua italiani, però, significa ignorare i concetti di linguistica, neuroscienze, antropologia, psicopedagogia e pedagogia interculturale che riferiscono dell’importanza della lingua materna nel processo educativo e di apprendimento delle discipline. Insegnare una disciplina in una lingua diversa dalla propria nel proprio Paese non è un cambiamento di prassi didattica ma è il sovvertimento di un paradigma e rappresenta un inganno per gli studenti italiani, poiché comporta una deriva al ribasso dell’apprendimento disciplinare e culturale in genere, tanto più in un momento in cui si è abbassata la competenza linguistica sull’italiano. Sostiene l’uso dell’inglese nell’istruzione chi ignora le relazioni esistenti tra lingua e apprendimento e, in generale, i fondamenti della psicopedagogia.

L’impegno linguistico è diverso se si considera la comunicazione tra pari che impiegano una lingua veicolare (come è nel caso dell’uso dell’inglese su riviste scientifiche o nei congressi internazionali) oppure il processo di insegnamento-apprendimento, nel quale il discente è sollecitato all’uso di risorse cognitive e affettive che risultano potenziate dalla lingua materna e depotenziate da altri linguaggi. Una cosa è parlare tra esperti per condividere un concetto, un’altra è spiegare a dei novizi per guidare l’apprendimento di un concetto. Il miglior metodo didattico è quello che mira a riprodurre e assecondare i percorsi di apprendimento spontanei; in tal senso, è noto dalla letteratura biologica [12] e psicopedagogica che la competenza linguistica può realizzarsi pienamente solo se l’apprendimento di una data lingua abbia luogo prima della pubertà: ciò implica che l’inglese – se gli si vuole riconoscere il ruolo di lingua passe-partout nell’istruzione italiana – va appreso entro la scuola dell’obbligo. Chi arriva a studiare all’università l’inglese lo deve già conoscere e padroneggiare, mentre la lingua di istruzione nei corsi di insegnamento accademici italiani deve essere l’italiano.

Agevolare lo scambio di idee e di persone a livello mondiale può essere un obiettivo condivisibile, nondimeno l’operazione che porta a identificare l’internazionalizzazione degli atenei con l’erogazione in inglese dei relativi corsi di insegnamento è frutto di un’interpretazione discutibile e animata da preconcetti estranei all’equazione dell’apprendimento. Da capire se la radice di tale interpretazione sta:

  • nell’assenza di volontà di procurarsi la documentazione bibliografica di linguistica, psicopedagogia e neuroscienze, di studiarla, di capirla e di usarla per assumere decisioni fondate (con quello che costa l’attuale mastodontica produzione scientifica, qualcosa di pertinente si potrebbe anche leggere (e capire), prima di imporre modifiche epocali (e nocive) di impostazione);
  • nell’imitazione acritica di comportamenti adottati da altri e ritenuti non già utili ma inevitabili;
  • nella necessità di aumentare le iscrizioni di studenti – con un’offerta formativa appetibile anche per studenti stranieri – per il bene delle finanze e, quindi, dei bilanci.

In generale, quindi, si tratta di capire se si lavora per l’apprendimento delle discipline o per l’aumento del numero di immatricolazioni (al quale può essere connessa la sopravvivenza di un’istituzione nel momento in cui si lasci mano libera al liberismo economico a tutto tondo, con annullamento progressivo della funzione super partes dell’istituzione pubblica). Docenti madrelingua italiani che insegnano le più disparate materie in inglese a studenti italiani e/o a studenti stranieri (di diversa madrelingua nella stessa aula) rappresentano il prodotto di chi si presta al proposito degli atenei di far cassa esibendo una facciata di apertura multiculturale verso il mondo.

Aspetti giuridici

Dal tempo della legge 240/2010 (c.d. legge Gelmini) sul riordino del comparto universitario, controversie legali sul tema dell’inglese in università infiammano questo scenario conflittuale, con coinvolgimento di TAR nel 2013 («È una soluzione che marginalizza l’italiano. Obbligare studenti e docenti a cambiare lingua è lesivo della loro libertà») [13], del Consiglio di Stato («L’attivazione generalizzata ed esclusiva di corsi in lingua straniera, non appare manifestamente congruente, innanzitutto, con l’articolo 33 della Costituzione») [14] e della Corte costituzionale nel 2017 («L’obiettivo dell’internazionalizzazione […] deve essere soddisfatto […] senza pregiudicare i principî costituzionali del primato della lingua italiana, della parità nell’accesso all’istruzione universitaria e della libertà d’insegnamento») [15]. Scontri di opinioni stanno animando tribunali, articoli di giornali e riviste, libri [16], convegni e petizioni. La sentenza definitiva del Consiglio di Stato del 2018 ha confermato la sentenza del Tar Lombardia n. 1348/2013 [13] e ha bocciato la decisione del Politecnico di Milano (promotore, dal maggio 2012, dell’internazionalizzazione degli atenei attraverso i corsi universitari erogati solo in inglese) di organizzare, nella sola lingua inglese, interi corsi di laurea magistrale e di dottorato di ricerca. Sono ora ammessi i corsi in inglese solo se affiancati dai corrispondenti in italiano. In ogni caso, occorre vigilare e procedere con riflessioni e azioni, poiché il fenomeno dell’intromissione della lingua inglese nell’istruzione italiana è oncogeno e metastatico: negli ultimi concorsi per insegnanti, dalla scuola materna alla superiore, è richiesta la certificazione B2 di inglese e questo è un segnale di degrado del tessuto linguistico e culturale in genere di questo Paese (per quanto esista una visione costruttiva e innocente di questa richiesta, se la si pensa in chiave di generale potenziamento culturale dei futuri docenti operanti in una società liquida [17] e ad alta mobilità). Inoltre, a livello universitario molti libri sono scritti in inglese senza un valido corrispettivo in italiano, questo anche perché scrivere libri di testo è un’attività didattica e l’impegno speso su tale fronte non è conteggiato per la valutazione dei docenti universitari italiani, e questo polarizza il loro impegno sul versante della ricerca scientifica (progettualità, reperimento fondi e, soprattutto, redazione di articoli scientifici per accrescere il proprio archivio di pubblicazioni, vera moneta della sopravvivenza accademica odierna) [18].

Atenei e internazionalità

L’inglese che si parla nel mondo ha poco a che spartire con quello delle élite londinesi, è un inglese di comodo, semplificato, che qualcuno denomina, non a caso, globish (dalla fusione delle parole globe e english): questo circola principalmente nelle aule universitarie italiane, non l’inglese. Per gli studenti stranieri che si vogliono istruire in Italia, poi, ci sono le università per stranieri (con varie sedi). Inoltre, uno studente straniero che scegliesse di frequentare l’università in Italia dovrebbe comunque apprendere l’italiano per integrarsi nel Paese; se non lo facesse si ritroverebbe socialmente isolato fuori dalle aule universitarie e, soprattutto, perderebbe gran parte dell’esperienza di crescita psicosociale e socioculturale connessa alla sua scelta di studi. Inoltre, non è scontato che uno studente straniero non madrelingua inglese preferisca una lezione in inglese (ovvero in globish, da un docente madrelingua italiano) a una in italiano: francofoni e ispanofoni, per esempio, potrebbero di gran lunga preferire l’italiano.

L’obiettivo dell’internazionalità è perseguito dagli atenei italiani ormai da vari anni, secondo modi improvvisati – didatticamente e pedagogicamente infondati – e scopi sociopolitici discutibili. Si rende oggi indispensabile lavorare per addivenire a un modello ecologico di internazionalizzazione degli atenei che preservi il primato della lingua italiana evitando l’operazione che porta a identificare l’internazionalizzazione degli atenei con l’erogazione in inglese dei relativi corsi di insegnamento. L’internazionalizzazione potrà essere declinata con esperienze di studio all’estero, che hanno il vantaggio di aprire le menti al cosmopolitismo, all’incontro, all’accoglienza delle diversità; se, però, resta centrale l’acquisizione della lingua inglese, coerenza vuole che solo i Paesi anglofoni siano considerati idonei a tale scopo, diversamente l’apprendimento soffrirà di un medium linguistico scadente.

L’insegnamento accademico si sta riducendo a un mero atto di trasferimento di informazioni e di tecnicismi (soprattutto nelle lauree di primo livello, fondate su un modello operazionale del sapere), con predilezione per gli aspetti procedurali a svantaggio di quelli concettuali; aggiungere a ciò l’introduzione dell’inglese nelle lezioni implica velocizzare il processo di scadimento di qualità della didattica a svantaggio degli studenti e di tutta la società entro la quale agiranno come laureati. Erogare insegnamenti universitari in inglese per aiutare i giovani a trovare lavoro all’estero (tale formula è molto usata dalla propaganda dei vertici accademici italiani), poi, implica aver rinunciato a risanare il mercato italiano del lavoro e condannare all’emigrazione i costosi e, talora, qualificati prodotti dell’istruzione pubblica italiana. Si tratta di un programma di smantellamento, svuotamento e impoverimento del Paese: entro un tale sciagurato paradigma, infatti, basato sullo sciupio degli investimenti e delle risorse umane, chi ha studiato in Italia a spese dei contribuenti italiani renderà i suoi servigi lavorativi in paesi stranieri, che ne usufruiranno e beneficeranno a costo zero, e questo è semplicemente autolesionistico.

Conclusioni

È innegabile che la lingua inglese abbia saputo imporsi nel mondo come lingua franca. Livellare nella lingua, però, non è favorire scambi di merci e circolazione di persone, non è agire per il bene del globo ma per accrescere l’appiattimento e l’asservimento nella gleba con il fine di semplificare le metodologie di detenzione del potere su scala mondiale, a fronte di tecnologie che agevolano la circolazione di informazioni nel mondo che minano la tenuta dei regimi dominanti. È pressoché impossibile dimenticare che l’inglese è lingua egemone per ragioni politiche e ci si mostrerebbe decisamente ingenui a ignorarlo come dato di fatto. Tuttavia, come ha scritto Claudio Magris, «La proposta di rendere obbligatorio l’insegnamento universitario in inglese rivela una mentalità servile, un complesso di servi che considerano degno di stima solo lo stile dei padroni» [19]. Ora, anche alla luce del recentissimo orientamento giuridico espresso dal Consiglio di Stato, mi auguro (ma già le dichiarazione del rettore del Politecnico di Milano, Ferruccio Resta, sono nel segno opposto) che le conventicole di potere ai vertici degli atenei italiani siano capaci di rivedere le loro decisioni in materia di istruzione e lingua e, soprattutto, di revisionare i pilastri della loro mentalità servile, gregaria e antipatriottica la quale, agita su larga scala, assoggetta il Paese a poteri forti e lo espone alla predazione e al disfacimento.

Il fondamento di una civiltà non è la scienza, è l’educazione, [20-22] e dall’educazione muove l’istruzione, che è veicolata dal linguaggio, vettore della storia e dell’identità di una comunità nazionale. La lingua è il fondamento di una civiltà, è il collante che tiene insieme un popolo, è la prima arma che si sfodera in un conflitto, preservarla e promuoverla con orgoglio è un dovere di tutti, dei docenti universitari di più.

Infine – partendo dai tanti reati impuniti che sono commessi di prepotenza nelle pieghe delle leggi e con l’ignavia, la distrazione o l’ignoranza della maggior parte dei soggetti coinvolti -, ricordo che:

  • il Regio Decreto 31 agosto 1933, n. 15924 (Testo Unico delle leggi sull’istruzione superiore), art. 271 (Capo I – Disposizioni Generali, al Titolo IV – Disposizioni generali, finali, speciali e transitorie), recita: «La lingua italiana è la lingua ufficiale dell’insegnamento e degli esami in tutti gli stabilimenti universitari» (nota: il decreto del Rettore del Politecnico di Milano del 2011, ordinava l’avvio in inglese di tutti i corsi locali di laurea magistrale in piena inottemperanza della legge);
  • l’articolo 33, 1º comma, della Costituzione Italiana sancisce che: «L’arte e la scienza sono libere e libero ne è l’insegnamento» (nota: nessuno può costringere un docente italiano a tenere una lezione in una lingua che non è la sua nativa);
  • la legge 15 dicembre 1999, n. 482 (“Norme in materia di tutela delle minoranze linguistiche storiche”) stabilisce (art. 1): 1. «La lingua ufficiale della Repubblica è l’italiano. 2. La Repubblica, che valorizza il patrimonio linguistico e culturale della lingua italiana, promuove altresì la valorizzazione delle lingue e delle culture tutelate dalla presente legge»;
  • il riconoscimento esplicito dell’italiano come lingua ufficiale della Repubblica non è sancito dalla Costituzione ma è comunque espresso nello Statuto del Trentino-Alto Adige (art. 99: «Nella regione la lingua tedesca è parificata a quella italiana che è la lingua ufficiale dello Stato. La lingua italiana fa testo negli atti aventi carattere legislativo e nei casi nei quali dal presente Statuto è prevista la redazione bilingue») che, formalmente, è una legge costituzionale dello Stato Italiano.

__________________________________________________________

*Enrico Prenesti si è laureato in chimica nel 1991 e ha conseguito il Dottorato di ricerca in Scienze Chimiche presso l’Università degli Studi di Torino, dove ricopre oggi il ruolo di professore associato di Chimica dell’ambiente e dei beni culturali. Tiene diversi insegnamenti relativi al suo settore, alla chimica degli alimenti e alla qualità. I temi di ricerca scientifica riguardano lo sviluppo di modelli di simulazione relativi agli equilibri chimici in soluzione, ai biomateriali funzionalizzati nonché alla chimica clinica e bromatologica. Si occupa, inoltre, di qualità, di didattica, di divulgazione scientifica e di sviluppo personale.

Bibliografia

[1] Cesare Marchi, “Impariamo l’italiano”, Biblioteca Universale Rizzoli, 1990

[2] Tullio De Mauro, “È irresistibile l’ascesa degli anglismi?”, Internazionale, luglio 2016

[3] Beppe Severgnini, “Swearing, Italian Style”, The New York Times, 15 febbraio 2017

[4] Robert Phillipson, “Myths and realities of ‘global’ English”, Lang Policy, 2016

[5] Patrizia Mazzotta, “Sulla questione dell’inglese come lingua franca”, Scuola e Lingue Moderne, Garzanti Scuola, 5, 2001, pp. 12-16

[6] http://www.unric.org/it/attualita/15143

[7] Heidi C. Dulay, Marina K. Burt, Stephen D. Krashen, “Language two”, Oxford University Press, 1982

[8] Tove Skutnabb-Kangas, “Linguistic Genocide in Education – or Worldwide Diversity and Human Rights?”, Taylor & Francis, 2000

[9] Lev S. Vygotskij, “Pensiero e linguaggio”, Laterza, 2008

[10] Rafael Echeverrìa, “Ontología del Lenguaje”, J. C. Saez Editor, 2003

[11] Jeremy Holmes, “La teoria dell’attaccamento. John Bowlby e la sua scuola”. Raffaello Cortina Editore, 2017

[12] Eric Lenneberg, “Fondamenti biologici del linguaggio”, Bollati Boringhieri, 1982

[13] TAR Lombardia, sentenza del 23/05/2013 n. 1348/2013

[14] Ordinanza del Consiglio di Stato del 22/01/2015

[15] Sentenza n. 42 del 2017 della Corte Costituzionale (depositata in Cancelleria il 24/02/2017)

[16] Maria Luisa Villa, “L’inglese non basta. Una lingua per la società”, Mondadori Bruno editore, 2013

[17] Zygmunt Bauman, “Liquid modernity, Cambridge (UK), 2000

[18] Enrico Prenesti, “Le distorsioni della ricerca scientifica attuale: variabili, conseguenze, responsabilità e rimedi”, La chimica e l’industria Web, 3(1), gennaio 2016

[19] Claudio Magris, “L’università in inglese pericolo per l’italiano” (L’uso delle lingue straniere va promosso ma senza rinunciare alla nostra identità), Corriere della sera, luglio 2012

[20] Avram Noam Chomsky, Heinz Dieterich, “La società globale. Educazione, mercato e democrazia”, La Piccola editore, 1997

[21] Avram Noam Chomsky, “Democrazia e istruzione. Non c’è libertà senza l’educazione”, EdUP editore, 2005

[22] Enrico Prenesti, “Sapere per essere. Dizionario di crescita personale”, Aracne editore, 2017

La vita, l’entropia e la rottura della simmetria.

Claudio Della Volpe

Accolgo l’invito di Luigi Campanellla (e le osservazioni di Alfredo Tifi) che pur non essendo un termodinamico ha sentito l’esigenza di introdurre questo argomento nel blog.

Oggi vorrei parlarvi della vita e di come la termodinamica può interpretarla e per fare questo vorrei discutere con voi l’argomento dell’entropia del corpo umano.

Il corpo umano non è un sistema all’equilibrio e dunque non è banalmente soggetto alla lettera delle regole che valgono per i sistemi approssimabili come di equilibrio; inoltre la seconda legge è scritta classicamente per un sistema isolato mentre il corpo umano è un sistema aperto, scambia materia ed energia con l’ambiente che lo circonda e nel fare questo attraversa un complesso insieme di stati che gli consente di nascere, crescere e svilupparsi; dopodichè, dopo un percorso che temporalmente dura circa 100 anni, nei casi più fortunati (o sfortunati, dipende dalle circostanze), ossia all’incirca 3×109 sec, il corpo umano va incontro ad una fase che si avvicina moltissimo a quello che definiamo equilibrio; comunemente, nell’inesatto linguaggio comune, tale fase prende anche il nome di morte.

Per parafrasare una antica poesia egiziana:

La morte non è che l’inizio, ma della fase di equlibrio.

– Antica Preghiera Egizia –

(XXV sec. a.C.)

La morte non è che la soglia di una nuova vita…
oggi noi viviamo, e così sarà ancora…
sotto molte forme noi torneremo.

http://www.miezewau.it/anonimo_egiziano.htm

Una prima osservazione che possiamo fare è che la massa di atomi che costituisce un corpo umano non è poi molto grande, circa 70-80kg di carbonio, idrogeno, ossigeno, azoto, zolfo, calcio, sodio, fosforo ed alcuni metalli; lo stato di massima simmetria (ed anche il più probabile) di tale insieme di atomi non è certo un corpo umano; piuttosto sarebbe quella di un gas di tali atomi completamente ed uniformemente mescolati.

Se dispersi nello spazio, lontano da qualunque sorgente di gravità e di calore esso costituirebbe uno stato simmetrico e verosimilmente di equilibrio; in ogni direzione un tale gas avrebbe le medesime proprietà e rimarrebbe così mescolato per un tempo indefinito se lo isolassimo in un contenitore senza che nulla potesse interagire con esso.

Di tutti i possibili stati che tale sistema di atomi potrebbe occupare, il corpo umano (e se è per questo quello di qualunque altro organismo vivente) rappresenta uno stato la cui probabilità di esistenza spontanea è sostanzialmente nulla. Di più, nonostante nel linguaggio comune si tenda ad attribuire a tale corpo una notevole simmetria e bellezza, di fatto, a stare alle definizioni correnti della fisica, e rispetto a quello stato di mescolamento ipotetico, il corpo umano di simmetrie ne avrebbe perse molte; tecnicamente il confronto del sistema di atomi del corpo nell’ipotetico stato gassoso mescolato e in quello ordinario porta a concludere che nella trasformazione (gasà corpo umano) si sarebbe ottenuta una “rottura di simmetria” del medesimo tipo di quella che si ottiene in una transizione di fase fra un gas ed il solido o liquido corrispondente; anche in quel caso la simmetria del gas viene ridotta passando ad un cristallo, certamente più bello ai nostri occhi ma dotato di un numero nettamente inferiore di elementi di simmetria, ossia di operazioni di traslazione di vario tipo nello spazio/tempo rispetto alle quali esso mostrasse invarianza.

In soldoni, l’ordine del corpo umano che spesso si beatifica è sostanzialmente il corrispondente di una grossa perdita di simmetria, di una conservazione ridotta dell’elevata simmetria corrispondente ai medesimi atomi casualmente mescolati; l’uomo di Vitruvio è bello (e forse per molti una donna di Vitruvio sarebbe il massimo) ma tecnicamente è meno simmetrico del corrispondente gassoso. La vita può essere vista come un fenomeno di rottura di simmetria se paragonata al materiale di partenza.

Per fare questa trasformazione di fase serve usare una enorme quantità di informazione che è contenuta in una lunghissima molecola polimerica costituita da un ristretto numero di monomeri (4) e che prende il nome di DNA, scoperta da meno di 100 anni, meno dunque della vita di un uomo ed una copia della quale è immagazzinata in ciascuna cellula del corpo umano.

Casualmente il numero di basi monomeriche necessarie, che è di circa tre miliardi, eguaglia la durata della vita media umana in secondi: si tratta di una combinazione del tutto casuale, ma sono certo che un poeta potrebbe scriverci qualche verso. Noto di passaggio che ogni base è appaiata in una struttura accoppiata (sono 6 miliardi di basi appaiate a due a due).

Dunque una transizione di fase, una rottura di simmetria estremamente improbabile e che necessita per essere portata a termine di un complesso sistema di reazioni chimiche autocatalitiche, in base alle quali coppie di esseri umani analoghi ma non identici (indicati di solito come maschio e femmina) reagiscono fra di loro e si riproducono, in quella che costituisce una delle più complesse reazioni autocatalitiche che conosciamo: il sesso, anche detto amore (ma solo nelle sue manifestazioni più estreme).

Si incomincia ad intravedere la possibilità di eliminare questa serie così primitiva di reazioni, mai innovata negli ultimi milioni di anni, per affidare la generazione umana a sistemi altamente automatici. Sfortunatamente non si conoscono al momento le conseguenze dell’eliminazione dell’amore come ambiente di reazione.

L’idea di stimare l’informazione contenuta in un messaggio venne nel 1948 a Claude Shannon che ci scrisse un libro, “Teoria matematica dell’informazione”. Claude Shannnon racconta:

« La mia più grande preoccupazione era come chiamarla. Pensavo di chiamarla informazione, ma la parola era fin troppo usata, così decisi di chiamarla incertezza. Quando discussi della cosa con John Von Neumann, lui ebbe un’idea migliore. Mi disse che avrei dovuto chiamarla entropia, per due motivi: “Innanzitutto, la tua funzione d’incertezza è già nota nella meccanica statistica con quel nome. In secondo luogo, e più significativamente, nessuno sa cosa sia con certezza l’entropia, così in una discussione sarai sempre in vantaggio »

 

Shannon definisce l’informazione come I=-log2P, dove P è la probabilità che si verifichi un dato evento; tale equazione permette di ottenere un valore misurato in bit. 1 bit equivale ad esempio all’informazione ottenibile dal lancio di una moneta (P = 0,5).

Usando l’equazione S= log2P si ottiene invece la entropia del medesimo sistema; ne segue che I=-S. In pratica a un aumento di entropia corrisponde una perdita di informazione su un dato sistema, e viceversa

Per il DNA umano nel quale ogni lettera può avere 4 valori (ossia 2 bit in quanto 22=4) si può calcolare che il contenuto informativo è dell’ordine di 6 Gbit, ossia circa 750Mbytes, fate il paragone con il contenuto informativo del vostro hard disk attuale o con quello di un CD musicale o un DVD.

Ma al di là delle quantità di informazione in gioco la questione è come un corpo umano o un altro organismo opera per realizzare l’informazione contenuta nel DNA; o meglio se la vita del corpo umano e di altri organismi è un processo spontaneo come esso può realizzarsi in apparente contrasto con la tendenza dei sistemi isolati ad un massimo di entropia e dunque di disordine, di minima informazione?

La risposta è che il corpo umano NON è un sistema isolato ma è un sistema aperto che scambia energia e materia con l’ambiente esterno; tale apertura, tale scambio consente di resistere attivamente alla tendenza espressa dalla seconda legge della termodinamica e che a rigore è valida solo per sistemi isolati.

Il problema di come misurare l’entropia del corpo umano appare veramente complesso ed in realtà potrebbe anche non avere senso dato che un corpo umano non è all’equilibrio, ma è anzi lontanissimo dall’equilibrio (almeno fino al momento della morte).

Si può invece stimare, anche se con qualche difficoltà, il flusso entropico del sistema costituito dal corpo umano, dunque non misurare il valore assoluto dell’entropia del sistema uomo, ma il valore della sua variazione, ossia del flusso entropico in entrata ed in uscita da esso.

Si tratta di un calcolo non particolarmente complesso eppure pubblicato solo in tempi recenti.

In particolare dobbiamo la forma comunemente accettata di tale calcolo ad Aoki.

Usando i dati sperimentali ottenuti in uno speciale calorimetro da Hardy e Dubois nel 1938, Aoki calcolò il flusso entropico dei corpi sottoposti agli esperimenti di Hardy e Dubois. Il risultato è espresso in questo grafico, in cui abbiamo a destra l’input di entropia e a sinistra l’output.

Come si interpreta questo grafico?

Semplice.

Anzitutto è stato ottenuto sulla base di dati sperimentali raccolti mettendo in uno speciale calorimetro il corpo del volontario e misurando poi gli scambi termici fra corpo del volontario e calorimetro.

Dallo schema si vede che i tre flussi di calore e dunque i tre flussi di entropia maggiori sono:

  • quello radiante dal calorimetro al volontario 3.16 J/sec K; ottenuto usando l’equazione dell’entropia della radiazione ( dove β è la costante di Stefan Boltzmann, V il volume del corpo del volontario e T la sua temperatura assoluta (273.15+27.4); l’equazione è stata riadattata al sistema in cui c’è una superficie di scambio e il flusso entropico è per unità di superficie; la superficie tipica del corpo umano è fra 1.5 e 2metri quadri.
  • quello radiante in uscita dal corpo del volontario che ammonta a 3.34 J/sec K, calcolato nel medesimo modo;
  • la produzione metabolica di calore di 0.26 J/sec K; se vi fate due conti un uomo che si nutra con 1800 grandi calorie al giorno, ossia circa 7-8Mjoule, negli 86400 secondi di una giornata dissipa come una lampadina da 80-90W; dividete questo valore per la temperatura corporea in kelvin ed otterrete un valore molto simile (80/310=0.26).

Ci sono poi gli scambi di entropia dovuti alla respirazione ed alla evaporazione di acqua, e agli scambi di materia, ma sono minimi. In totale il flusso netto abbassa l’entropia corporea del volontario, ossia il corpo del volontario si “ordina” per circa 0.32 J/sec K, emette un flusso netto di 0.32 J/sec K, abbassando la propria entropia e lottando disperatamente per conservare la propria struttura interna.

Come si vede gli scambi sono dominati dal flusso radiante di energia, non dallo scambio diretto di calore per conduzione; la convezione sarebbe più efficace, ma è impedita poi dai nostri vestiti; tuttavia è da dire che la pelle è un buon isolante termico e che i vestiti sono una invenzione relativamente recente. A conferma dell’importanza della radiazione nella nostra vita, una cosa che molti non sospettano nemmeno, stanno le copertine isotermiche metallizzate usate dalla protezione civile, basate sul fatto che uno strato metallico anche sottile intercetta le radiazioni infrarosse efficacemente (potete provare a isolare termicamente la parete dietro un termosifone mettendoci un sottile strato di alluminio da cucina) .

Dunque grazie a questo scambio entropico con l’esterno la struttura unica ed improbabile del corpo umano ordinata sul comando del DNA (ma vale lo stesso per qualunque altro essere vivente) combatte la sua battaglia quotidiana contro il secondo principio; è una battaglia che in una forma biologica o in un’altra, dura da circa 4 miliardi di anni su questo pianeta e che ha visto milioni di miliardi di caduti ma ci ha dato come risultato la biosfera e la coscienza come le conosciamo.

Da questo particolare punto di vista la necessaria e certa sconfitta di ciascuno di noi esseri viventi, la resa incondizionata all’equilibrio, che chiamiamo volgarmente morte, corrisponde alla vittoria di un processo che trova la sua origine nel Sole come sorgente di calore e di energia libera sotto forma di energia radiante e trova come assorbitore finale di questa radiazione l’infinito vuoto dello spazio esterno pieno solo della radiazione di fondo, che assicurò il Nobel a Wilson e Pentzias.

Ognuno di noi arrendendosi all’equilibrio, passa la bandiera ai suoi simili e grida la vittoria della coscienza contro “la materia stupida, neghittosamente nemica come è nemica la stupidità umana, e come quella forte della sua ottusità passiva.”(Primo Levi).

La radiazione, i fotoni hanno potenziale chimico nullo e la loro trasformazione da radiazione centrata sul visibile, a 0.5 micron quando emessa dal Sole a radiazione riemessa dalla Terra nell’infrarosso e centrata attorno a 10 micron non fa che aumentare esponenzialmente il numero di fotoni ma lascia intatta l’energia totale (il potenziale chimico è nullo proprio per questo dU/dN=0). Di fatto è questo il senso dell’equilibrio radiativo del pianeta.

Analogamente si può stimare il flusso entropico della Terra e della biosfera, ma sarà l’oggetto di un prossimo post in cui racconterò come fa la biosfera ad ordinarsi dissipando la propria entropia a spese del flusso di energia solare.