La Giornata mondiale dell’ambiente 2018.

In evidenza

Luigi Campanella, già Presidente SCI

Nel 1972 l’Assemblea Generale delle Nazioni Unite proclamava la Giornata Mondiale dell’Ambiente ,che sarebbe stata festeggiata da quel momento in poi il 5 giugno di ogni anno. Quella di quest’anno è stata ospitata alcuni giorni fa in India, con il tema l’inquinamento dei mari e degli oceani. L’Italia è stata nazione ospitante nel 2015. In ogni caso eventi paralleli si svolgono per la celebrazione in 150 Paesi.

Tornando all’oggi il pericolo maggiore per oceani e mari è rappresentato dalla plastica, un pericolo di vecchia data (si pensi che sono stati ripescati pezzi datati 1950!) in linea con il fatto che ogni minuto nel mondo si acquistano un milione di bottiglie di plastica e solo una piccola parte viene riciclata e che 8 milioni di ton di rifiuti plastici finiscono in mare distruggendo l’habitat sottomarino. A tale distruzione contribuiscono anche le buste di plastica: si pensi che se ne acquistano 500 miliardi l’anno e che ovviamente una parte di esse non può non finire in mare.

La scelta dell’India da questo punto di vista è esemplare in quanto si tratta del Paese con il più alto tasso di riciclaggio. Lo slogan dell’evento è per l’appunto: Combatti l’inquinamento da plastica; se non puoi usare lo stesso pezzo più volte rifiutala.

L’UNEP l’organizzazione mondiale contro l’inquinamento ha giustamente riconosciuto questi meriti all’India, peraltro anche impegnata contro i cambiamenti climatici. L’Italia ha celebrato la Giornata con alcuni eventi, fra i quali di notevole rilievo l’Eataly Lingotto dedicato a valorizzare le eccellenze locali in fatto di letteratura,cucina e musica.

Durante la giornata il WWF Italia ha lanciato le borse della spesa riutilizzabili. A Palermo gli universitari hanno organizzato la festa ribattezzata da Fiorello “Aricugghiemu ‘a plastica” , durante la quale i rifiuti plastici dispersi nell’ambiente sono stati raccolti ed avviati al riciclo.

Ancora in Sicilia è stato lanciato un video “Spiagge plastic free”. A Roma è stato organizzato un incontro pubblico sul ciclo di vita dei materiali

Malgrado questi segnali di rinsavimento viviamo ancora in un mondo nel quale c’è un’”isola” (in realtà un ammasso galleggiante) chiamata Great Pacific garbage patch, fra la California e le Hawaii, costituita completamente da rifiuti di plastica , valutati in 8mila tonnellate. Anche le previsioni non aiutano: nel 2050 secondo alcune proiezioni mangeremo plastica, visto che essa avrà colonizzato le nostre risorse alimentari, soprattutto marine.

Qualche dato incoraggiante c’è e viene anche dal nostro Paese dove il consumo dei sacchetti di plastica si è ridotto del 55% dal 2012, quando ne eravamo i primi produttori.

Il cocktail micidiale fatto di aumento dei consumi individuali e crescita della popolazione mondiale sta facendo saltare il banco, cioè il sistema climatico che garantisce le condizioni di sopravvivenza. Il fatto che dinnanzi a questi pericoli si registrino ritardi di correzione di rotta fa riflettere: forse bisognerebbe più che allarmare educare dando immediata speranza di un restituito equilibrio ai teritori, intervenendo sugli aspetti geopolitici, allineando ragioni ambientali e sociali.

Per finire un altro recente allarme: oltre la plastica gli abitanti della terra, o almeno di parti di essa, sono anche potenti smaltitori di mozziconi di sigaretta nella sabbia, sebbene sia vietato.

I ricercatori che studiano il sito del Golfo Persico hanno rilevato in alcune sue zone livelli di ferro, cadmio, arsenico, nichel, rame, zinco e manganese. I filtri di sigaretta – composti da acetato di cellulosa- fanno da mezzo di trasporto ai metalli negli ambienti marini con effetti disastrosi su piante ed animali e la possibilità di ingresso anche nella catena alimentare.

REACH: ultima chiamata.

In evidenza

Luigi Campanella, già Presidente SCI

Il prossimo 31 maggio il regolamento europeo REACH completerà la sua ultima fase e diverrà esecutivo a tutti gli effetti. Non sempre si percepisce questa importante scadenza nell’atteggiamento assunto dal sistema industriale nei riguardi di essa,.Vale la pena ricordare alcuni elementi, più direttamente correlati agli aspetti chimici del regolamento, di una storia durata 10 anni, tanti essendo stati necessari per completare le fasi attuative del REACH.

L’art. 3 della Direttiva 92/32/CEE del 30 aprile 1992, che disciplina la classificazione, l’imballaggio e l’etichettatura delle sostanze pericolose commercializzate negli Stati dell’Unione Europea, regola la “determinazione e valutazione delle proprietà delle sostanze” attraverso test tossicologici che prevedono esperimenti su animali. In funzione del risultato degli esperimenti, una sostanza verrà classificata in una delle seguenti categorie:

  • molto tossica
  • tossica
  • nociva
  • non pericolosa.

Un protocollo-tipo prevede lo studio di:

  • Tossicità a breve termine, che si articola nello studio di:
  • Tossicità acuta effettuata normalmente sul ratto o il topo, attraverso la LD50.
  • Studi di irritabilità degli occhi, della pelle e delle mucose solitamente effettuati sui conigli albini in ambito cosmetologico, attraverso i “Draize test” e miranti alla valutazione della tollerabilità della sostanza in esame a contatto con la cute o con le mucose.
  • Studi di sensibilizzazione normalmente eseguiti sul porcellino d’India per valutare la capacità della sostanza chimica di indurre risposte allergiche o immuni in seguito a somministrazioni multiple.
  • Tossicità ripetuta la cui valutazione avviene attraverso lo studio di:
    • tossicità sub-acuta, sub-cronica, cronica, solitamente effettuata su due specie di cui una roditrice (normalmente si usano il topo e la scimmia o il cane). La durata degli studi varia dai due ai quattro anni; la via di somministrazione è quella di esposizione.
  • Studi di tossicità riproduttiva e di teratologia per evidenziare le eventuali interferenze della nuova sostanza sulla sfera riproduttiva e sulla prole, suddivisi in tre gruppi:
    • Studi di fertilità e riproduzione.
    • Studi di teratologia.
    • Studi di tossicità peri-post natale.

Per quanto riguarda la tossicità a breve termine (effetto acuto) il livello di tossicità è definito a partire da test basati sulla quantità di composto chimico letale in funzione della via di esposizione; i limiti della Dose Letale 50 e Concentrazione Letale 50 utilizzate per classificare un prodotto come molto tossico, tossico o nocivo sono riportati nella tabella seguente [2]:

Categoria LD50 orale

mg/kg

LD50 cutanea

mg/kg

LC50 inalatoria

mg/litro/4 ore

Molto tossiche <25 <50 <0,5
Tossiche 25-200 50-400 0,5-2
Nocive 200-2000 400-2000 2-20

LD50: è la dose di una sostanza che, somministrata in una volta sola, provoca la morte nel 50% degli animali da esperimento; indica la tossicità di una sostanza solo a breve termine (tossicità acuta); non a lungo termine (cioè dovuta a contatto con modiche quantità di una certa sostanza per lunghi periodi); viene espressa di solito come quantità di sostanza somministrata rispetto al peso dell’animale usato come campione (es.: milligrammi (mg) di sostanza per 100 grammi (g) per piccoli animali o per chilogrammi (kg) per animali più grandi); va definita anche la via (orale, cutanea, etc.). Una LD50 maggiore di 2000 mg/kg permette di considerare non particolarmente pericolosa la sostanza testata.

Per la LD50 orale la normativa UE prevede come animale da esperimento l’uso del ratto, mentre per la LD50 cutanea è previsto anche l’impiego del coniglio.

LC50: è la concentrazione in aria che provoca la morte nel 50% degli animali da esperimento, se inalata per un determinato periodo di tempo.

Per la LC50 la normativa UE prevede l’uso del ratto come animale da esperimento con una esposizione di 4 ore.

Sostanze da NON registrare: Sostanze escluse completamente dal REACH; Medicinali (esclusi anche da Valutaz. e Autorizz.); Sostanze presenti in alimenti e alimenti per animali, anche usate come additivi o aromatizzanti (esclusi anche da Valutaz. e Autorizz.); Sostanze incluse in Allegato IV; Sostanze incluse in Allegato V; Polimeri (esclusi anche da Valutaz.). Alcuni esempi sostanze in allegato V. Idrati di una sostanza o ioni idrati, formati da associazione di una sostanza con H2O. – Sostanze che non sono esse stesse fabbricate, importate o immesse sul mercato, risultanti da una reazione chimica che ha luogo quando una sostanza (agente stabilizzante, colorante, antiossidante, plastificante, antischiuma, legante, agglomerante, disidratante, neutralizzatore pH, coagulante, ignifugo, chelante, ecc) agisce nel modo previsto. Alcuni esempi sostanze in allegato IV. (Reg. 987/2008 – 8 ottobre 2008 ) acido ascorbico – glucosio – saccarosio puro – acido oleico puro – CO2 – calcare – Ar – C – N2 – acqua distillata – grafite – olio girasole – soia – lino – ricino -colza ecc. – amido – vitamina A.

I metodi o le procedure che conducono alla sostituzione di un esperimento sull’animale o alla riduzione del numero di animali richiesti, nonché all’ottimizzazione delle procedure sperimentali, allo scopo di limitare la sofferenza animale sono i metodi alternativi alla sperimentazione in vivo. Questo concetto corrisponde alla definizione delle “3R” di Russel e Burch [3], dall’inglese replace, reduce, refine laddove:

  • replacement identifica la sostituzione, ove possibile, degli animali superiori con materiali biologici di minore complessità (batteri, colture cellulari, organi isolati, colture in vitro), modelli computerizzati, video, film;
  • reduction implica la maggiore riduzione possibile del numero di animali usati per un particolare esperimento pur conseguendo risultati di studio altrettanto precisi. Ciò può essere ottenuto standardizzando la popolazione animale, fattore principe della variabilità dei risultati;
  • refinement si riferisce alla ricerca di procedure sperimentali sempre più specifiche in grado di ridurre al minimo la sofferenza e lo stress causato agli animali, comunque impiegati.

I metodi del primo tipo consentono di ottenere una determinata informazione sperimentale senza ricorrere all’utilizzazione di animali; i metodi del secondo tipo sono idonei ad ottenere livelli comparabili di informazione utilizzando un minor numero di animali e consentono di ricavare il massimo numero di informazioni con un solo saggio su animali; i metodi del terzo tipo sono tutte le metodologie idonee ad alleviare sofferenze e danni imputabili alle pratiche sperimentali. Tra i metodi del primo tipo si distinguono i “metodi sostitutivi biologici” e i “metodi sostitutivi non biologici”, i primi sono i “metodi in vitro”, ed utilizzano materiale biologico di diverso tipo (di origine animale o umana); mentre i secondi si avvalgono dei contributi di scienze quali la matematica, l’informatica, la statistica, eccetera.

Un nuovo approccio sperimentale, per essere considerato alternativo alla sperimentazione animale tradizionale, deve essere riproducibile, affidabile, rapido e non più costoso di quello che si vuole sostituire. Il centro europeo preposto alla verifica del rispetto dei suddetti parametri da parte del nuovo metodo (cosiddetta “validazione”) è l’ECVAM (European Centre for Validation of Alternative Methods), istituito dalla Commissione Europea nel 1991 su proposta del Parlamento dell’Unione, nell’ambito del “Joint Research Centre” di Ispra in provincia di Varese. L’ECVAM coordina la validazione dei metodi alternativi a livello comunitario, e costituisce un punto di riferimento per lo scambio di informazioni sullo sviluppo di questi metodi, attraverso una banca dati dei metodi disponibili (già validati o in corso di validazione) impostata e gestita dal centro medesimo.

Attraverso il processo di validazione viene stabilita l’affidabilità e la rilevanza di un metodo. L’affidabilità descrive la riproducibilità dei risultati nel tempo e nello spazio, cioè, nello stesso laboratorio e tra laboratori diversi (cosiddetta “standardizzazione”); la rilevanza descrive la misura dell’utilità e della significatività del metodo per un determinato scopo. I test di validazione sono molto lunghi (possono durare anche anni) ed hanno lo scopo di verificare se un nuovo metodo fornisce, per determinate sostanze, risultati simili a quelli in precedenza ottenuti attraverso la sperimentazione sugli animali. L’approdo finale di un nuovo metodo è il suo accoglimento entro la regolamentazione internazionale, con l’introduzione dei test alternativi nelle linee guida dell’OECD (Organization for Economic Cooperation and Development). L’OECD raccoglie non solo i paesi membri dell’Unione Europea ma anche Stati Uniti, Giappone ed altri; ha il compito di armonizzare i differenti protocolli sperimentali, recependoli sotto forma di linee guida. Le linee guida dell’OECD vengono periodicamente modificate per adeguarle alle nuove conoscenze scientifiche nonché alle modifiche legislative eventualmente intervenute.

Un Libro Bianco della Comunità Europea invita la comunità scientifica a fare il più possibile allo scopo di mettere a punto dei test chimici, che non ricorrano alla sperimentazione animale, in grado di dare informazioni – specialmente avvisi di pericolosità – in tempo reale o quasi reale riguardo la tossicità di un composto. A partire dalla mia presidenza in SCI la Società Chimica Italiana ha periodicamente inventariato gli avanzamenti della ricerca nel campo dei metodi chimici di valutazione della tossicità:molte dei nostri Dipartimenti chimici sia universitari che di enti di ricerca sono impegnati in questa direzione. Le soluzioni proposte sono molto diverse fra loro e risentono ovviamente della formazione specifica dei proponenti:

test di screening mediante desorbimento termico ed analisi dello spazio di testa

fotosensori di tossicità

metodi biochimici e biomolecolari

studi in silico e chemiometrici,metodi predittivi volti alla determinazione di proprietà ed attività delle molecole in base alla loro struttura; metodi computazionali e chemoinformatici;rappresentazioni molecolari strutturate;

test in vitro su sistemi cellulari diversi (in particolare innovativi:nematode del terreno e copepode marino)

test di effetto sub letale

studio di scenari di esposizione

studi epidemiologici

Si tratta di Gruppi di Ricerca autorevoli ed accreditati che potranno costituire una preziosa risorsa per le molteplici strutture pubbliche coinvolte nel REACH,dalle autorità di controllo territoriali all’autorità competente nazionale,fino alla stessa Agenzia Europea per le sostanze chimiche

http://www.reach.gov.it/reach-sintesi

La qualità dell’aria negli ambienti confinati.

In evidenza

Luigi Campanella, già Presidente SCI

(altri post sull’ argomento:

https://ilblogdellasci.wordpress.com/2017/11/01/strategie-contro-linquinamento-indoor/

https://ilblogdellasci.wordpress.com/2017/08/25/inquinamento-ospedaliero/)

L’espressione ‘ambiente indoor’ è riferita agli ambienti confinati di vita e di lavoro non industriali, ed in particolare, a tutti i luoghi chiusi adibiti a dimora, svago, lavoro e trasporto. Secondo questa definizione, il termine ‘indoor’ comprende: le abitazioni, gli uffici pubblici e privati, le strutture comunitarie (ospedali, scuole, uffici, caserme, alberghi, banche, etc.), i locali destinati ad attività ricreative e/o sociali (cinema, bar, ristoranti, negozi, strutture sportive, etc.) ed infine i mezzi di trasporto pubblici e/o privati (auto, treno, aereo, nave, etc.).

Negli ultimi decenni, con l’eccezionale sviluppo del settore terziario, la popolazione dei paesi industrializzati trascorre una parte sempre maggiore del proprio tempo (fino al 90%) negli ambienti confinati; contemporaneamente, si sono verificati profondi mutamenti nella qualità dell’aria indoor a causa di un progressivo aumento delle sostanze inquinanti. Lo scadimento della qualità dell’aria interna è dovuto in parte agli alti livelli esterni di inquinamento ma, soprattutto, alle numerose sorgenti interne che determinano concentrazioni di inquinanti a volte superiori a quelle presenti all’esterno.

In seguito alla crisi delle risorse energetiche mondiali, si sono imposti nuovi criteri tecnico-progettuali per gli edifici ad uso civile: la necessità di contenere i consumi per il riscaldamento e per la ventilazione ha imposto un migliore isolamento degli edifici, con conseguente tendenza a sigillare gli ambienti interni. Alle modifiche strutturali degli edifici si sono accompagnate modifiche rilevanti degli arredi (nuovi materiali per mobili, rivestimenti, etc.) e degli strumenti di lavoro (crescente impiego di fotocopiatrici, videoterminali, stampanti, etc.).

L’attenzione dei paesi industrializzati è stata rivolta già da tempo allo studio dei fenomeni di inquinamento dell’aria ‘esterna’, di cui ben presto sono state identificate le cause (traffico automobilistico, impianti industriali, impianti di riscaldamento domestico), gli effetti (preoccupante crescita della incidenza di malattie polmonari e neoplastiche) e le eventuali misure di contenimento (lotta all’inquinamento dell’aria urbana). Di contro, solo negli anni più recenti, dall’acquisizione di informazioni ed esperienze sui danni alla salute causati da una scadente qualità dell’aria interna, è emersa l’esigenza di un approfondimento delle conoscenze relative alle fonti di inquinamento indoor, nonché dei rapporti di causa-effetto tra esposizione e salute dell’uomo.

L’inquinamento dell’aria negli ambienti confinati rappresenta un problema importante per la sanità pubblica, con grandi implicazioni sociali ed economiche: in primo luogo la prolungata permanenza della popolazione negli ambienti interni di varia natura implica una continua esposizione a inquinanti indoor; inoltre, il rischio espositivo non è limitato a categorie ben definite. Tale rischio, infatti, non è esclusivamente di tipo professionale od occupazionale, ma è di particolare gravità per alcuni gruppi più suscettibili quali bambini, anziani e persone affette da patologie croniche (malattie cardiache, respiratorie, asma bronchiale, allergie), che trascorrono negli ambienti chiusi una percentuale di tempo particolarmente elevata.

La presenza di numerosi inquinanti (es. fumo passivo) e il clima caldo-umido delle abitazioni (che favorisce la crescita degli acari e di funghi nella polvere domestica), hanno sicuramente contribuito all’aumento della incidenza di patologie respiratorie croniche, come ad esempio l’asma, ed all’incremento della loro evoluzione verso forme persistenti, gravi ed invalidanti.

Recenti studi scientifici hanno evidenziato come alcuni inquinanti siano in grado di contribuire all’aumento dell’incidenza di tumori maligni: un maggior rischio di cancro ai polmoni è stato associato all’esposizione al “fumo di tabacco ambientale” ed ai prodotti di decadimento del Radon. Quest’ultimo è un gas radioattivo incolore, estremamente volatile, prodotto dal decadimento di tre nuclidi capostipiti che danno luogo a tre diverse famiglie radioattive: il Thorio 232, l’Uranio 235 e l’Uranio 238. Il Radon viene generato continuamente da alcune rocce della crosta terrestre, in particolar modo da lave, tufi, pozzolane, alcuni graniti, ma anche da rocce sedimentarie come i marmi. Come gas disciolto, esso viene veicolato anche a grandi distanze dal luogo di formazione nelle falde acquifere ed è nota, inoltre, la sua presenza in alcuni materiali da costruzione. Generalmente, tale gas giunge all’interno delle abitazioni attraverso fessure e piccoli fori delle cantine e dei piani seminterrati degli edifici.

Molti composti chimici presenti nell’aria indoor sono causa, sospetta o accertata, di stimolazione e/o irritazione dell’apparato sensoriale e possono dare vita a senso di disagio e ad altri sintomi comunemente presenti nella cosiddetta “Sindrome da Edificio Malato” (Sick Building Syndrome). Studi condotti in uffici ed in altri edifici destinati ad uso pubblico in diversi paesi hanno rivelato una frequenza di disturbi tra gli occupanti compresa tra il 15 e il 50% .

Un altro acronimo che deve la sua nascita in massima parte proprio all’inquinamenti indoor è la SCM (sensibilità chimica multipla,MCS in inglese).La prolungata presenza in ambienti indoor caratterizzati da inquinamenti combinati,complessi e variabili ha comportato la sensibilizzazione di alcuni individui, immunologicamente più deboli, verso questa nuova patologia,riconosciuta ormai come malattia sociale,anche in PaesiEuropei,primo fra tutti la Germania

Breve storia dell’aspirina.

In evidenza

Luigi Campanella

FANS è l’acronimo dell’espressione “farmaci anti-infiammatori non steroidei” e individua una classe di farmaci dall’effetto anti-infiammatorio, analgesico ed antipiretico.

L’aspirina e il salicilato di sodio sono stati i primi FANS ad essere introdotti nella pratica clinica ai primi del ‘900. Infatti l’aspirina è considerata il prototipo dei FANS nonostante l’introduzione di nuovi congeneri. E’ tuttora il farmaco analgesico-antipiretico-antinfiammatorio più usato e rappresenta il termine di paragone per la valutazione e il confronto con altri analgesici periferici.

Le origini dell’aspirina vanno ricercate nella natura ed esaminando le tappe della scoperta e dell’applicazione delle proprietà dell’acido salicilico, si può paragonare la nascita dell’Aspirinaâ alla composizione di un puzzle, in cui diversi studiosi, con le loro  scoperte, hanno messo un tassello dopo l’altro.

La storia dell’aspirina, che è poi la storia della corteccia e della foglia del salice, incomincia nel 400 a.C.  anche se le  sue virtù terapeutiche vengono menzionate già nel papiro di Ebers, all’incirca 2000 anni prima di Cristo.

Già Ippocrate  di Kos (460-377 a.C.), il padre della medicina, si accorse delle proprietà antidolorifiche contenute nella corteccia e nelle foglie di salice e consigliò ai suoi pazienti afflitti dai più svariati dolori, di curarsi con un infuso di quelle foglie.  Troviamo infatti segnalata negli scritti del medico ateniese (“Corpus Hippocraticum”, V secolo a.C.) l’azione analgesica della linfa estratta dalla corteccia di salice che conteneva, come oggi sappiamo, l’acido salicilico.

Ur III, è un testo medico della Terza Dinastia di Ur

Dall’epoca della grande intuizione di Ippocrate gli uomini per secoli hanno fatto uso del salice per combattere mali di testa, febbri, reumatismi. Ancora oggi i contadini greci masticano le sue foglie per combattere e addirittura prevenire i dolori reumatici.

Le proprietà della corteccia del Salix alba vulgaris contro febbri e dolori in genere furono celebrate un secolo dopo Cristo dal medico greco Dioscoride e, ancor prima, dagli Egizi con infusi a base di corteccia.

Anche Plinio, nel I secolo d.C. concorda nell’attribuire agli infusi a base di Salice proprietà febbrifughe ed analgesiche.

Nel Medioevo, pur essendo dimenticato dai medici, l’uso della cottura della corteccia del salice si mantenne nell’ambiente contadino: le venditrici di erbe aromatiche e medicinali facevano bollire la corteccia di salice e somministravano l’amaro decotto alle persone afflitte da dolori. In seguito, la raccolta dei rami di salice venne proibita, perché questo materiale era necessario per la fabbricazione dei cesti, data l’elevata flessibilità dei giovani rami. Il medicamento naturale cadde così in disuso.

Nello stesso periodo, ma in altri continenti, perfino in popolazioni primitive quali gli Ottentotti del Sud Africa o le popolazioni indiane d’America, il valore terapeutico del Salice era ben conosciuto.

La vera storia dell’aspirina avrebbe avuto inizio nel XVIII secolo grazie alle fortuite associazioni mentali di un pastore della contea di Oxford.

Un giorno passeggiando in un bosco, il reverendo Edward Stone, esperto botanico, assaggiò, per caso, un pezzetto di corteccia di un salice. Trovandola particolarmente amara richiamò nella sua mente l’amaro sapore della cinchona, pianta dalla quale veniva estratto il chinino, conosciutissimo anti-malarico, importata dal Perù.

Il reverendo, esperto anche di questioni mediche, iniziò a pensare che la scorza di salice poteva essere utile per combattere le febbri malariche, pur essendo stupito del fatto che, paradossalmente, questo albero crescesse proprio nelle regioni più umide e insalubri.

Il 2 giugno 1763, Edward Stone lesse una relazione alla riunione della Royal Society di Londra, in cui venivano presentati i successi ottenuti, nella lotta alle febbri malariche, con il decotto di scorza di salice su 50 soggetti febbricitanti. Nella sua ricerca intitolata: “Sulla corteccia di salice nella cura delle febbri malariche” avviò sulla scena terapeutica i salicilati e quindi l’aspirina.

Il decotto di corteccia di salice tanto esaltato da questo ecclesiastico di Chipping Norton nell’Oxfordshire agiva effettivamente nelle febbri malariche. Poco importava se l’azione antifebbrile non era associata a quella anti-malarica effettiva del chinino.

Napoleone Bonaparte, a sua insaputa, diede una svolta storica negli studi sul Salice,  imponendo, il 20 giugno del 1803, il blocco all’importazione di qualsiasi merce proveniente dalle colonie inglesi e dall’Inghilterra sul continente.

Con tale decisione venne bloccata l’importazione dall’America anche della corteccia di China (originaria dell’America meridionale, un tempo utilizzata, dato l’elevato contenuto in alcaloidi, principalmente come antipiretico); questo spinse la ricerca di un valido sostituto farmacologico autoctono europeo.

Fu in questo periodo che ci si ricordò dell’azione medicamentosa della linfa di salice e, in particolare, delle sue proprietà antipiretiche.

Iniziarono nei primi decenni del XIX secolo indagini serrate in punti disparati dell’Europa nel tentativo di ottenere allo stato puro quella che veniva ritenuta la sostanza attiva del salice.

Nel 1828 il professor Johann Andreas Buchner di Monaco di Baviera ne ricavò, mediante ebollizione, una massa gialla che chiamò salicina.

L’anno seguente il farmacista francese Henri Leroux isolò la salicina, principio composto da glucosio ed alcool salicilico in forma cristallina:
30 grammi di “salicina” vengono estratti da 500 grammi di scorza di salice.

Nel 1835, in Svizzera, in diversi vegetali come nei fiori di ulmaria e nell’olio di gualteria (essenza di Wintergreen) si trova una sostanza simile: viene chiamata “spirsauro” e qualche anno dopo ci si accorge che è acido acetilsalicilico allo stato puro. Si deve però, a Raffaele Piria, chimico Napoletano, il merito di aver scoperto che dalla salicina si poteva giungere all’acido salicilico. Piria ne dette comunicazione in due articoli, “Ricerche sulla salicina ed i prodotti che ne derivano” (1838) e “Ricerche di chimica organica sulla salicina” (1845).

Nel 1853 il chimico Charles Frédéric Gerhardt di Strasburgo produsse per la prima volta l’acido acetilsalicilico, in forma tuttavia chimicamente impura e quindi non stabile. Il procedimento di acetilazione risultò così complesso da scoraggiare le aziende farmaceutiche, tanto da ritardare di circa 44 anni il passo successivo.

Al prof. Hermann Kolbe di Marburgo va invece il merito di aver scoperto la struttura dell’acido salicilico e di averlo sintetizzato.

Sintesi di Kolbe

Nel 1874 si poté così avviare la produzione industriale dell’acido salicilico, il cui prezzo era dieci volte inferiore a quello del prodotto naturale.
Questa sostanza aveva tuttavia un gusto sgradevole e spesso aggrediva la mucosa gastrica, costringendo le persone afflitte da dolori a scegliere tra due mali.

Felix Hoffmann, era un giovane chimico dell’industria chimica tedesca Bayer di Leverkusen, in Renania. Il padre di Felix, affetto da una grave forma di malattia reumatica, assumeva il salicilato di sodio che gli conferiva un grande giovamento, nonostante il sapore sgradevole e l’effetto gastrolesivo. Nel tentativo di  migliorare la qualità di vita del padre, Felix Hoffmann iniziò a condurre indagini sistematiche alla ricerca di un composto efficace e tollerabile, alternativo al salicilato di sodio. Muovendo dalle esperienze di Gerhardt, Hoffmann tentò di nobilitare l’acido salicilico per migliorarne la tollerabilità e riuscì nel suo intento mediante l’acetilazione. Il 10 agosto 1897 egli descrisse nelle sue note di laboratorio l’acido acetilsalicilico (ASA), da lui sintetizzato in forma chimicamente pura e stabile.

 

Sintesi dell’acido acetilsalicilico

Il vero scopritore dell’aspirina non è stato lo scienziato cui da sempre viene attribuita l’impresa, ma il suo superiore, ebreo tedesco, Arthur Eichengruen, il cui ruolo è stato cancellato con l’ascesa al potere dei nazisti in Germania>>

Questa rivelazione è stata fatta di recente da Walter Sneader, vicecapo del dipartimento di scienze farmaceutiche all’Università di Strathclyde, a Glasgow a seguito di alcune ricerche che gli hanno permesso di trovare una descrizione della scoperta dell’aspirina di Hoffmann nella Storia della Tecnologia Chimica datata 1934 (un anno dopo la presa del potere di Adolf Hitler). Sneader sostiene che:
– Hoffmann era una delle 10 persone che lavoravano sotto Eichengruen ai tempi dellasoperta.
– un procedimento messo a punto da Eichengruen è stato seguito negli esperimenti che hanno portato all’aspirina

Secondo il professore scozzese, Eichengruen non aveva condizioni di contestare Hoffmann nel 1924 perché stava lottando contro la marea di antisemitismo e contemporaneamente sperava di salvare la Eichengruen Lavori Chimici, l’azienda che aveva fondato dopo aver lasciato la Bayer nel 1908.
Eichengruen non ce la fece. La sua azienda e gran parte dei suoi averi sono stati sequestrati e, a 75 anni, è stato mandato al campo di concentramento di Theresienstadt nell’attuale Repubblica Ceca. E’ sopravvissuto, ma non è stato in grado di pubblicare le sue rivendicazioni sulla scoperta dell’aspirina fino al 1949. Lo ha fatto in un allora oscuro giornale scientifico tedesco chiamato Pharmazie, un mese prima di morire.

La Bayer, da un lato smentisce tali affermazioni, ma proclama che, se davvero fosse Eichengruen lo scopritore, non avrebbe avuto problemi ad assegnargliene il merito, anche perché lui possedeva altri 47 brevetti, che non gli furono molto utili a Teresienstadt.

Prima della sua registrazione, l’ASA fu sottoposto dalla Bayer a sperimentazione clinica – una prassi fino ad allora sconosciuta. I risultati furono così positivi che la direzione dell’azienda non esitò ad avviare la produzione del farmaco.

Fotografia dell’epoca.

Quando l’1 febbraio 1897 la Bayer mette in commercio l’aspirina il nome non è scelto a caso: la “a” è l’abbreviazione di acido acetilsalicilico, “spir” viene da “spirsäure” che in lingua tedesca sta per “acido della spirea”, la pianta da cui per la prima volta venne
estratto l’acido. Il nome “aspirina”, dunque, è una testimonianza precisa di quanto di utile può essere contenuto nelle erbe ma costituisce anche il punto di arrivo di una lunga ricerca scientifica.

Il 1° febbraio 1899 venne depositato il marchio Aspirinaâ che un mese dopo, il 6 marzo, fu registrato nella lista dei marchi di fabbrica dell’Ufficio Imperiale dei Brevetti di Berlino.
Iniziava così una marcia trionfale: l’affermazione dell’aspirina fu da questo punto un crescendo.

 

L’aspirina ® o acido acetilsalicilico (ASA) o, più correttamente secondo la nomenclatura IUPAC, acido 2-acetossibenzoico, è il capostipite della famiglia dei FANS.

Struttura dell’acido acetilsalicilico

Questa lunga storia dovrebbe insegnare 2 cose:l’importanza nella ricerca di partire sempre da quanto già si conosce,e la necessità di salvaguardare la Storia della Scienza,in questo caso della Chimica, all’interno dei curricula universitari.

*******************

Fra i siti consultati oltre a wikipedia,  http://www.minerva.unito.it/Storia/aspirina/Aspirina.html

Su argomento analogo:https://ilblogdellasci.wordpress.com/2016/04/04/aspirina-breve-storia-di-un-farmaco-pluripotente/

Una riflessione sulle Università (ed i loro musei).

In evidenza

Luigi Campanella, già Presidente SCI

L’attuale situazione dell’Università è caratterizzata da problemi nazionali relativi sia agli aspetti giuridico-istituzionali che a quelli economico-finanziari sia infine a quelli di rete, quella degli Atenei essendo caratterizzata da troppe macroscopiche differenze fra i suoi poli per essere un Sistema.

In più la riforma dei cicli didattici-sulla quale pesano ancora alcuni dubbi circa il suo reale interesse verso le esigenze del Paese, degli studenti, e soprattutto del territorio- non ha rinforzato il legame di questo con gli Atenei che su di esso insistono, mentre tale legame sarebbe una garanzia ad una visione articolata del suddetto Sistema.

Si pensi alle specificità locali in termine di differenza di impegno industriale, tradizioni sociali e culturali, di risorse endogene.

Quanto detto riguarda anche la Chimica ed i suoi corsi di laurea, ma rivendico per essi un risveglio culturale che credo dovrebbe essere assunto anche in altri settori. Se andiamo ad osservare la trasformazione della lauree in chimica e chimica industriale negli ultimi 60 anni possiamo affermare che essa ha soprattutto riguardato lo sforzo di coniugare un’impostazione precedente prevalentemente disciplinare con una tematica, nella convinzione che la conoscenza non possa essere smembrata in informazioni; da qui l’impegno ad aggregare queste attorno alle tematiche sociali e culturali del nostro tempo.

Questa impostazione punta a creare nei giovani una sensibilità nuova. Un esempio recente riguarda il riconoscimento della laurea in chimica fra quelle di interesse sanitario: mai ciò sarebbe potuto avvenire solo 30-40 anni fa, a quel tempo prevalendo un’impostazione di colonizzazione della scienza e della ricerca. Vorrei che tale processo sia sostenuto dalle forze industriali e sindacali, che si riapproprino di una visione della formazione e dell’educazione dei giovani che non sia solo strettamente didattica, ma anche culturale.

Peraltro il recupero delle esigenze culturali è di certo una delle caratteristiche del nostro tempo. Tale recupero è avvenuto, e sta avvenendo, non in chiave elitaria – se così fosse esso resterebbe un fenomeno tanto limitato nel tempo, nello spazio e nei riflessi di costume da costituire oggetto di studi piuttosto che di interesse sociale – ma con una dimensione di partecipazione e di iniziative che ha coinvolto non soltanto le istituzioni “pertinenti”, ma anche istanze del lavoro e della società.

In questo senso un ruolo particolare assumono, o meglio dovrebbero assumerere, le proiezioni di queste in quelle; ed allora quando ci si muove all’interno di strutture culturalmente avanzate ci si viene a trovare nella condizione ideale per concretizzare tali proiezioni.

Questo dovrebbe essere colto da chi si trova in questa fortunata situazione. Con tali premesse si comprende come, dinnanzi alle novità che l’attuale contingenza prevede e consente con la rivoluzione telematica, con i totem di Industria 4.0 e web 3.0, con le nuove capacità di rete e partecipazione, sia forse giunto il momento di una vertenza “cultura”, con un coordinamento scientifico attorno ad iniziative su Arte e Scienza, superando la discrasia fra Facoltà Scientifiche ed Umanistiche, su Ambiente e Territorio superando quella fra discipline soft e discipline hard, su tecnologie ICT integrando piuttosto che tagliando il rapporto con alcune istituzioni anche universitarie, telematiche, sui musei universitari e cultura,superando la visione storicamente solo artistica del ns Paese.

http://news.mytemplart.com/it/arte-e-scienza-le-universita-investono-musei-e-gallerie-scientifiche/

I Musei Universitari rappresentano una preziosa risorsa culturale e scientifica del nostro Paese. La qualità di collezioni, strumenti, pezzi unici in essi raccolti è riconosciuta dagli addetti, ma soltanto di recente intorno ad essi si è andato costituendo un notevole interesse civile e sociale. Al tempo stesso si assiste ad un altro fenomeno: il turismo sempre più assume connotati anche culturali ed i tour operator sempre con maggiore frequenza inseriscono- a richiesta dei loro utenti- la visita di musei scientifici, oltre che di arte, come nella tradizione più riconosciuta del nostro Paese,all’interno dei loro programmi ed itinerari. In tale doppio contesto una rete di musei universitari attiva in tutto il territorio nazionale può rappresentare preziosa occasione di diffusione della cultura delle nostre tradizioni artistiche e scientifiche ed al tempo stesso una fonte di risorse.

Ministri e commissari.

In evidenza

Luigi Campanella, già Presidente SCI

In Italia si dice che ci siano parecchi commissari tecnici della nazionale di calcio, nel senso che molti parlano come se occupassero quella posizione.

Credo che questa immagine possa tranquillamente trasferirsi, mutatis mutandis, ad altri settori, per esempio l’ambiente di cui molto parlano non sempre a proposito, proprio come avviene per la nostra nazionale dello sport più popolare. Voglio anche io per una volta tanto adeguarmi a questa aspirazione: cosa farei se fossi il nuovo Ministro dell’Ambiente (siamo alla soglia di una nuova legislatura)?

Partirei dalla constatazione che la pressione umana sulla natura ed i conseguenti modelli economici devono essere modificati nel rispetto di un maggiore equilibrio fra società e generazioni diverse. Il capitale umano e quello naturale, alternativi a quello materiale, sono risorse che devono essere esaltate e valorizzate.

Il secondo punto importante lo individuo nel fatto che il nostro Paese fa parte di comunità mondiali all’interno delle quali ha siglato impegni ed accordi,in particolare applicazione Agenda 2030 ed Accordo di Parigi sui cambiamenti climatici. Il terzo punto riguarda quanto è stato avviato: credo che sia profondamente sbagliato applicare il metodo della lavagna bianca, cioè del ricominciare sempre da zero. La Strategia Nazionale per lo Sviluppo Sostenibile, il Piano Nazionale per l’Adattamento ai cambiamenti climatici, la nuova Strategia Energetica Nazionale (SEN), l’introduzione nel codice penale dell’ecoreato, la legge n. 221/2015 che ha introdotto alcuni strumenti per consentire allo Stato di raggiungere l’obbiettivo di un modello economico più sostenibile, istituendo il Comitato Nazionale per il capitale naturale ed il Catasto dei Sussidi ambientalmente favorevoli e sfavorevoli, l’individuazione degli indicatori BES, di benessere equo e sostenibile sono tutti passi importanti che sono indice di una, sia pure lenta, maturazione del sistema ed apparato pubblici, ma che necessitano di un consolidamento e di un rafforzamento, a partire da un’integrazione fra le Strutture Centrali preposte a contrastare l’emergenza quotidiana: si pensi alle strutture di Missione Italia Sicura e Progetto Casa Italia. La green economy – si deve assolutamente comprendere – non è una camicia di forza all’economia,ma un’opportunità, peraltro già colta da oltre 350.000 mila imprese che hanno investito su prodotti e tecnologie green,sulla sostenibilità ed efficienza energetica. Questi dati indicano l’urgenza di abbandonare la vecchia idea che l’ambiente e la salute siano variabili indipendenti dalla politica e dai piani dei Grandi Industriali.

Ritengo queste le premesse alle prime iniziative che dovrà assumere il nuovo Ministro dell’Ambiente, o che per lo meno io assumerei se lo fossi:

1)regolamenti e norme per dare attuazione alla fuoriuscita dall’utilizzo del carbone nella trasformazione di energia a partire dal 2025;

2)rigorosa definizione delle aree per le attività di prospezione,ricerca e sfruttamento di idrocarburi sia a mare che a terra;

3) varo di uno strumento legislativo quadro che armonizzi e sancisca l’obbiettivo di decarbonizzazione dell’economia;

4)aggiornamento del Piano Generale dei Trasporti del marzo 2000 attraverso un Piano Nazionale della Mobilità;

5)applicazione della VINCA, valutazione di incidenza,a protezione della Rete Natura 2000;

6) riproposizione eventualmente aggiornata del ddl sul consumo del suolo ed il suo riuso gia’ discusso nel 2016;

7) introduzione della cauzione sugli imballaggi monouso;

8) iniziative legislative in favore di chi investe in natura con agevolazioni fiscali,in particolare per le giovani imprese che investono in green jobs;

9) promozione di un’azione interministeriale (Mibaact,Mipaaf,MinAmb) per definire una strategia integrata per i territori, la natura, il paesaggio facendo riferimento ai molteplici strumenti messi a punto a tal fine negli altri Paesi (Carte del Paesaggio o del Territorio in Francia,Statuto dei Luoghi in Gran Bretagna);

10) introduzione dell’educazione ambientale e per la sostenibilità nei piani di studio della Scuola .

Queste le prime urgenze da affrontare. Nel corso della legislatura poi non mi dimenticherei di biodiversità, mare e montagna, agricoltura, turismo.

Cosa c’entra in tutto ciò la Chimica?

Credo che le risposte siano molteplici sia perché le competenze necessarie ad affrontare i problemi indicati sono sì, come sempre del resto, inter- e multi-disciplinari, ma la chimica gioca al loro interno un ruolo primario e poi perché qualsiasi iniziativa innovativa a qualunque campo la si voglia riferire richiede la conoscenza del presente e la conoscenza dell’ambiente è settore ampiamente a carattere chimico.

Ricordo che da studente…

Luigi Campanella, già Presidente SCI

Ricordo quando ero studente in Chimica che in una delle prime lezioni di Fisica, il prof. Marcello Beneventano, che era il titolare del corso stesso, chiese quale secondo noi studenti fosse la disciplina scientifica più importante. Alcuni risposero subito Fisica per rispetto al professore, altri Chimica pensando al proprio corso di laurea, qualcun altro Matematica. Dopo le risposte il prof Beneventano disse: no, la disciplina scientifica più importante è la termodinamica, in effetti un settore della Fisica e della Chimica, ma a suo dire quello che consente di capire “come funzionano le cose” nella nostra vita di tutti i giorni. A distanza di 50 anni durante i quali ho spiegato a me stesso ed ai miei studenti fenomeni e processi differenti arrivo alla conclusione che aveva ragione lui.

I principi della termodinamica consentono di spiegare ed interpretare le trasformazioni che comportano cambiamenti delle variabili di stato, quindi la maggior parte di quelle di cui siamo spettatori nella nostra vita. Gli scambi di energia possono avvenire sotto forma di calore o lavoro. In un sistema isolato una trasformazione può avvenire ugualmente anche senza tali scambi, ma tramite l’effetto che anche fluttuazioni di energia possono avere su sistemi in stati metastabili: questa è la ragione ben nota ai conservatori e restauratori per cui un materiale di un Bene Culturale cellulosico o lapideo subisce un invecchiamento anche in un oggetto conservato isolato dal contesto ambientale (armadi chiusi di sicurezza, oggetti interrati, presenza di protezioni). I principi termodinamici introdotti da Rudolf Clausius nel 1850 determinano se un processo sia spontaneo e favorito oppure no; inoltre consentono di prevedere quale sia la stabilità o la instabilità di un sistema, intendendo per sistema una qualunque porzione dell’universo a cui ci si sta interessando come oggetto di indagine o un materiale o anche un organismo vivente.

In questo ultimo caso l’esempio più comune riguarda il processo di crescita di tale organismo, durante il quale il disordine, l’entropia in termini termodinamici, è ridotta dal momento che le molecole del nutriente, spesso di struttura molto complessa ed ordinata (o in altri casi il flusso intenso di energia luminosa) vengono assimilate ed usate per sintetizzare macromolecole e strutture cellulari. Questo non viola i principi della termodinamica sulla base dei quali l’entropia cresce durante i processi naturali spontanei: ad esempio l’apertura di una bibita gassata produce spontaneamente un suono perché l’anidride carbonica intrappolata si espande rapidamente nell’atmosfera aumentando l’entropia del gas ed inducendo una veloce espansione dei gas circostanti.

Questo principio non è messo in discussione da quanto detto sopra a proposito dei sistemi viventi in quanto la crescita negli animali è associata al meccanismo messo in luce da E. Schroedinger (nel famoso What is life?) e sviluppato ulteriormente da Y. Prigogine dello scambio con l’ambiente di entropia negativa, neghentropia, attraverso la nutrizione o il meccanismo fotosintetico basato sull’assorbimento di luce; in entrambi i casi c’è una notevole spesa energetica, che i chimici chiamano energia libera, che contrasta l’aumento spontaneo di entropia del metabolismo. Il calore corporeo, dissipato da un uomo di medie dimensioni è di 100W; questo contributo di energia libera viene fornito dalla luce nelle piante o dall’energia ottenuta dal cibo negli animali ed applicata a costruire ordine corporeo (a partire comunque da molecole già di una certa complessità).

Fa riflettere il fatto che nel tempo molte specie si siano estinte anche se le condizioni termodinamiche erano favorevoli:condizione quindi necessaria quella termodinamica non sufficiente a garantire rispetto a cause quali, in questo caso,predatori e malattie.

Da una prospettiva biochimica processi energeticamente sfavoriti come la disidratazione nell’anabolismo ,è il contemporaneo aumento di entropia dovuto alla conversione dell’ATP in ADP e fosfato che consente a tali reazioni di procedere spontaneamente. La variazione totale positiva di entropia è dovuta alla randomizzazione della materia nei prodotti. Analogamente la crescita delle piante avviene attraverso la cattura della CO2 atmosferica e dell’acqua e la sua conversione in acido fosfoglicerico nella fotosintesi. La cattura del gas corrisponde ad una diminuzione di entropia, ma il processo è comunque favorito. Ci si può domandare perché: la risposta sta nell’ossigeno rilasciato in atmosfera nelle fotosintesi e nelle idrolisi dell’ATP a trasformare energia oltre a ADP e fosfato secondo il ciclo di Calvin applicato alle reazioni metaboliche. Il processo è complessivamente energeticamente favorito con una variazione negativa di energia libera (variazione negativa di entalpia e positiva di entropia).

Passando ad esempi più vicini alla chimica la dissoluzione di un sale fa aumentare l’entropia del sistema dopo la dissociazione in ioni che spinge il processo in avanti. Una soluzione satura non consente ulteriori dissociazioni. Al pari di quanto detto per specie biologiche che non crescono a dispetto della variazione di entropia favorevole l’aggiunta di altro sale non produce ulteriore dissoluzione, anche in questo caso malgrado l’atteso aumento di entropia. Una possibilità è anche che la repulsione elettrostatica degli ioni blocchi l’ulteriore dissociazione senza comportare una diminuzione dell’entropia nell’ambiente. In questo modo ulteriore sale solido aggiunto rimane solido. E’ da considerare che il solvente non è inerte; la sua struttura, nel caso dell’acqua, muta significativamente e la libertà di moto delle molecole d’acqua cambia dato che esse si legano agli ioni in sfere di idratazione. Dal momento che la variazione di entropia in questa condizione vale zero resta valido il dettato termodinamico che richiede una variazione positiva di entropia (ad energia costante) perché possa avvenire un processo che comporta una modificazione della composizione del sistema.

E’ da notare che il processo è dinamico: in realtà sebbene la soluzione satura di un sale non modifichi la concentrazione degli ioni in soluzione, tuttavia ioni si sciolgono dal sale solido aggiunto ed altri in uguale quantità precipitano dalla fase liquida alla stessa velocità. Questi scambi avvengono senza variazioni di entropia, sono “reversibili” come tutti gli scambi alle interfacce, anche elettriche quando il flusso netto di materia è nullo.

La maggior parte dei sistemi in equilibrio contengono processi che vanno avanti come questo ora descritto. Sistemi in equilibrio statico contengono materiali a concentrazioni fisse senza uno scambio netto di massa, come un contenitore chiuso di un liquido o di un gas. Le molecole sono in uno stato dinamico di vibrazione, rotazione e traslazione. In un sistema in equilibrio dinamico le concentrazioni non cambiano nel tempo eppure gli stessi composti sono scambiati come in un contenitore di liquido o gas aperto che è drenato e riempito alla stessa velocità. La concentrazione del gas o del liquido non cambia, ma le molecole presenti nel contenitore sono continuamente rinnovate.

Analogamente per riferirsi ad un sistema vivo la costanza della concentrazione del glucosio nel sangue è uno stadio di equilibrio dinamico dove il cibo ingerito è concomitante con il metabolismo e l’ingresso di acqua si confronta con la produzione di urina cosicché la concentrazione di glucosio ed acqua rimangono costanti. Nei diabetici si crea una condizione metabolica dove i livelli stazionari di glucosio non sono mantenuti a causa dell’eccessivo carico. Diverso è il discorso del sangue venoso ed arterioso: anche in questo caso abbiamo un flusso in entrata ed uno in uscita in un sistema in equilibrio, ma le molecole che entrano e che escono non sono le stesse.

La legge zero della termodinamica indica che per ogni 2 oggetti in contatto aventi temperature diverse indipendentemente dal contenuto di calore di ciascuno di essi, il calore passa dall’oggetto più caldo a quello più freddo e lo farà finché la temperatura dei 2 oggetti non sarà divenuta uguale.

Poiché le orbite della Terra intorno al sole producono una emisfero che si riscalda durante l’estate ed un emisfero che si raffredda durante l’inverno avremo la fusione dei ghiacci alternata alla solidificazione dell’acqua a meno, come sta avvenendo, di aumenti significativi della temperatura terrestre media. La fusione e la solidificazione alternate dell’acqua del mare non alterano i livelli del mare perché il ghiaccio è acqua marina che aumenta di volume e con una densità più bassa fluttua per 1/10 circa del suo volume al di sopra dell’acqua.

Emissioni di acque marine profonde calde, geotermiche, eruzioni vulcaniche riflettono la quantità massiccia di calore che continuamente raggiunge la superficie della terra dalle reazioni termiche profonde. Sebbene queste abbiano ovviamente una elevata variazione totale di entropia, siano quindi molto favorite e l’energia di attivazione richiesta per iniziarle sia stata raggiunta, il processo è protratto a lungo nel tempo dal momento che il calore raggiunge la superficie durante tutto il tempo per cui gli eventi possono essere osservati. Ciò è dovuto all’aumento di entropia associato al mescolamento e randomizzazione dei materiali delle placche tettoniche in movimento e/o in collisione fra loro.

Passando all’ambiente l’attività umana genera elevati livelli di anidride carbonica in molte località con conseguenti danni ambientali e di salute. Sebbene questi siano considerati come capaci di aumentare significativamente la capacità termica dell’atmosfera, tuttavia il contenuto di entropia standard dell’ossigeno è solo di poco inferiore a quello dell’anidride carbonica (205 rispetto a 214 J/K) che lo sostituisce e non è questa differenza che può giustificare il riscaldamento globale (che dipende invece dall’incremento di effetto serra). In effetti le differenze di temperatura fra oceano ed atmosfera comportano scambi di calore: quando questi scambi sono sbilanciati si produce un eccesso di calore ceduto alla Terra dall’oceano e si creano le condizioni per danni sulla terra con enormi quantità di lavoro da smaltire in situazioni anche catastrofiche.

Ho deciso di scrivere queste mie riflessioni sulla termodinamica stimolate da quanto ci disse a suo tempo il nostro prof di Fisica.Oggi con una lunga esperienza di Chimica sulle spalle voglio trasmetterle per suscitare, spero, altre riflessioni la cui elaborazione contribuisca non forse alla conoscenza ma all’esercizio della creatività della chimica.