Dalla coppa di Licurgo a Nanoinnovation 2018

In evidenza

Luigi Campanella, già Presidente SCI.

Di nanotecnologie e delle loro numerose applicazioni si parlerà in occasione di NANOINNOVATION 2018 l’evento previsto a Roma, presso la Facoltà di Ingegneria della Sapienza dall’11 al 14 settembre.

Si tratta di una delle rivoluzioni scientifiche del nostro tempo. Si pensi che a livello delle comuni attivitá si parla in termini di quantità che comprendono miliardi di miliardi di milioni di molecole fra loro indifferenziabili per comportamento e con le nanotecnologie all’interno di queste comunità si riesce invece a discriminare fino al miliardesimo individuando comportamenti molecolari specifici e diversi.

Le ricadute applicative diventano moltissime: si pensi alla medicina ed alla possibilita di individuare comportamenti anomali di singole molecole o cellule preliminari a malattie e disfunzioni. Per fare una similitudine è come in un coro di miliardi di voci scoprirne una stonata: con le macro e microtecnologie  non sarebbe possibile ciò che invece è possibile con le nano-tecnologie. Accanto a questo aspetto più strettamente analitico le nanotecnologie hanno potenzialitá applicative derivanti dalla nanodimensione delle particelle, dimensione che conferisce ai composti proprietà chimiche e fisiche assolutamente specifiche e spesso superiori rispetto alla macro e microdimensione.

Con riferimento ancora al campo delle scienze mediche si pensi alla minore invasività e la maggipre precisioni rispetto al bersaglio di colpire di agenti nanodimensionati

Ma le potenzialità delle nanotecnologie sono molte altre e continuamente ne vengono esaltate delle nuove. Ecco che un congresso internazionale diventa una sede di dibattito scientifico, ma anche un palcoscenico per non  addetti “stretti” per seguire gli avanzamenti delle tecnologie in termini di applicazione alla nostra vita di tutti i giorni. La partecipazione dei cittadini si basa sulla conoscenza ed insieme sono condizioni necessarie per ottenere il sostegno politico. Il mercato delle nanotecnologie ha registrato un’impennata esponenziale grazie ai settori industriali a cui si rivolge e che riguardano direttamente o indirettamente la vita di milioni di persone.

Dal  punto di vista più strettamente scientifico con il termine Nanoscienze si intende l’insieme  delle competenze derivanti da discipline diverse che vanno dalla fisica quantistica alla chimica supramolecolare, dalla biologia molecolare alla scienza dei materiali, utilizzate con il fine di indagare i fenomeni e le potenzialità applicative di materiali su scala atomica e molecolare. In passato é talvolta avvenuto che fra queste discipline il dialogo è stato difficile e questa difficoltà si è trasferita alla relazione fra domanda ed offerta tecnologica.

Se la storia delle nanotecnologie è relativamente recente (nel 1965 Rychard Feynman ricevette il premio Nobel per la Fisica, ma già nel 1959  aveva  intuito le potenzialità di questa innovativa tecnologia) in effetti si conoscono applicazioni delle nanotecnologie in tempi molto antichi, quando non erano certamente conosciute come tali.

La coppa di Licurgo (British Museum) è una coppa diatreta di vetro di epoca romana, risalente al IV secolo. La coppa è costruita con vetro dicroico e mostra un colore diverso a seconda del modo in cui la luce passa attraverso di essa: rosso quando illuminata da dietro e verde quando illuminata frontalmente. La coppa di Licurgo è l’unico oggetto romano integro completamente costituito da questo tipo di vetro e quello che maggiormente esibisce l’effetto cangiante. (wikipedia)

I casi più noti sono quelli di coppe di età romana costruite con vetri dicroici e di alchimisti medioevali che costruirono vetri con effetti cromatici basati sulla presenza in essi di nanoparticelle. Le stesse nanoparticelle sono oggi ben presenti nella nostra vita di tutti i giorni con i materiali di cui sono costituiti oggetti di uso comune come racchette da tennis, sci, isolanti, luci a LED.

Tutto ciò fa pensare che questo settore possa divenire uno di quelli da cui l’economia sia destinata a dipendere.

Acqua su Marte.

In evidenza

Luigi Campanella, già Presidente SCI

L’acqua è di certo il composto più studiato.

Non c’è branca della Scienza che non abbia fatto i conti con questa piccola molecola,importante per la vita,essenziale per l’alimentazione,fortemente correlata con storia,archeologia,clima. Dal punto di vista strettamente chimico si caratterizza per la presenza contemporanea di diversi tipi di legame fra l’idrogeno e l’ossigeno, ma è soprattutto il suo ruolo nei processi alla base della vita che da un lato affascina e dall’altro ne esalta il valore economico a danno dei più deboli meno ricchi di risorse. La presenza dell’acqua per quanto detto è da sempre stata correlata alla possibilità di vita nei sistemi che la contengono. La recente conclusione di una ricerca in atto da tempo circa la presenza di questo composto su Marte ha rappresentato una definitiva conferma di quanto in altre occasioni e sedi è stato ripetutamente ipotizzato.

In questo ultimo caso la ricerca si deve a Giovanni Picardi scomparso 3 anni fa ed alla collaborazione fra CNR, INAF, ASI e Università. Rispetto a precedenti contributi questo contiene una importante novità: il bacino idrico (assimilabile ad un lago terrestre) su Marte si trova ad una profondità di 1500 metri (sotto i ghiacci di CO2 del polo Sud) quindi al riparo dalle radiazioni e, soprattutto, in ambiente compatibile con la vita dei batteri che potrebbero funzionare da preziosi testimoni di una vita che al suolo si è estinta.

La scoperta è stata resa possibile utilizzando l’eco delle onde lanciate dal radar MARSIS che equipaggia la sonda europea MARS Express decollata da Bajkonur ben 15 anni fa, in volo orbitale fino a 250 km di altezza dalla terra di Marte. Marsis è dotato di due antenne che grazie allo spettro di frequenze disponibili sono in grado di raccogliere segnali che provengono da una profondità massima di 5 km. Le temperature dovrebbero fare ipotizzare che l’acqua fosse allo stato solido,contrariamente ai dati della ricerca che invece la definiscono allo stato liquido, quindi caratterizzata da un abbassamento crioscopico dovuto alla presenza nell’acqua di sali (forse clorato di potassio).

Parlando di acqua su Marte non si può omettere un ricordo di Giovanni Schiaparelli che credette di individuare canali scavati un tempo dall’acqua su Marte e della missione Exomars che permise di trapanare il suolo di Marte fino alla profondità di 2 m anche in quell’occasione con lo scopo primario di evidenziare la presenza di acqua e,correlata ad essa,di vita sul pianeta Marte. Queste accresciute conoscenze sono la base per programmare ulteriori spedizioni spaziali,ma anche per collegare il presente di Marte con il futuro della nostra Terra,se non sapremo rispettare le sue risorse.

Polo Sud di Marte nel 2000; è costituito di strati di CO2

La cultura nell’era post-industriale.

In evidenza

Luigi Campanella, già Presidente SCI

Il mondo cambia e con esso l’organizzazione civile e sociale. Anche la cultura ed i suoi servizi dovrebbero rinnovarsi per rispondere ad una richiesta sempre più pressante ma anche diversificata per situazione abitativa, livelli di formazione, possibilità di spese.

Che cosa dire del museo tradizionale? Centralità, linearità, rigidità, nella migliore tradizione gerarchica. Rigidità dovuta al fatto che un museo è stato lungamente identificato con un preciso modello, museo tradizionale come blocco monolitico indipendente dall’esterno, che offre una o poche chiavi di lettura in quanto lineare e rigido.

La cultura non può essere inglobata in un museo onnicomprensivo, esaustivo, assoluto, ma devono essere tenute in conto tutte le interdipendenze fra le numerose branche e ciò può essere attuato soltanto con un modello reticolare che abiliti il maggior numero di connessioni possibili. Dinamicità e flessibilità, quindi, in quanto ad ogni esigenza imprevista la struttura può adeguarsi aggiungendo nodi e connessioni, forgiando quindi nuovi percorsi che agevolino anche le periferie e tutte le zone della città. Il museo del futuro, come tutti i sistemi configurati secondo il modello distribuito della rete deve tendere a privilegiare le possibili connessioni fra i suoi poli elementari, piuttosto che un singolo ambiente centralizzato che raccolga tutto lo scibile umano. La differenza è notevole.

Reputazione e referenze: le carte vincenti del lavoratore post-industriale Ivana Pais Università degli Studi di Brescia 3 febbraio 2009.

Società nell’ Era Post-Industriale

Non stiamo vivendo uno sconvolgimento temporaneo, una congiuntura negativa per economia e politica, ma piuttosto i sintomi di un cambiamento radicale, il passaggio fra due epoche, quella industriale, nata nel diciottesimo secolo in seguito alla spinta ideale dell’illuminismo e quella Post-Industriale.

Era Post-Industriale significa affermazione di un nuovo concetto di capitalismo, nettamente diverso da quello tradizionale. Nel secolo scorso Marx ed Engels svilupparono una critica molro dettagliata del capitalismo, in base ad un’accurata analisi delle condizioni delle masse lavoratrici. Un capitalismo ingiusto, a loro parere, perché incentrato sulla concorrenza spietata, su un profitto che avvantaggiava pochi fortunati a scapito di una maggioranza insoddisfatta ma necessaria per generare il profitto stesso.

Le soluzioni alternative prospettate dai pionieri del comunismo non hanno tuttavia condotto ai risultati attesi, la Storia lo dimostra, tutti gli esperimenti più o meno seri sono falliti miseramente, Unione Sovietica, in primis. Il capitalismo criticato da Marx sta subendo lo stesso destino, se è vero che tutte le strutture e le organizzazioni che hanno sposato i suoi insegnamenti ora stanno attraversando un momento di crisi profonda.

Cosa ci riserverà l’Era Post-Industriale?

Prima di tutto l’internalizzazione, il dissolvimento di qualsiasi frontiera, che sia territoriale o semplicemente simbolica. L’Era Industriale ha concorso a creare le infrastrutture e la tecnologia per eliminare le distanze fra i popoli, per rompere le diversità, per edificare una mentalità universale basata su principi comuni, validi per qualsiasi individuo indipendentemente dal suo luogo di origine. L’Era Post-Industriale sarà segnata da un nuovo cosmopolitismo, da una maggiore libertà di movimento, dalla condivisione dei patrimoni informativi.

La crisi di alcuni principali gruppi industriali del nostro tempo è riconducibile ad una serie di cause più o meno influenti, fra cui senz’altro l’incapacità di motivare il singolo, di farlo sentire in qualche modo importante. L’uomo del futuro sceglierà lavori stimolanti, attività che contribuiranno a far aumentare la fiducia in se stesso, e scarterà le strutture tradizionali, destinate ad un’ingloriosa estinzione.

Era Post-Industriale significherà anche rivalutazione della qualità della vita, ricerca di lavori diversi, occupazioni più innovative per minimizzare gli sforzi e massimizzare i risultati.

L’Era Post-Industriale, per riassumere, combatterà strenuamente le divisioni rigide, le strutture soffocanti per la personalità umana, le situazioni di staticità, per favorire il dinamismo globale, l’interattività e l’etica.

La Giornata mondiale dell’ambiente 2018.

In evidenza

Luigi Campanella, già Presidente SCI

Nel 1972 l’Assemblea Generale delle Nazioni Unite proclamava la Giornata Mondiale dell’Ambiente ,che sarebbe stata festeggiata da quel momento in poi il 5 giugno di ogni anno. Quella di quest’anno è stata ospitata alcuni giorni fa in India, con il tema l’inquinamento dei mari e degli oceani. L’Italia è stata nazione ospitante nel 2015. In ogni caso eventi paralleli si svolgono per la celebrazione in 150 Paesi.

Tornando all’oggi il pericolo maggiore per oceani e mari è rappresentato dalla plastica, un pericolo di vecchia data (si pensi che sono stati ripescati pezzi datati 1950!) in linea con il fatto che ogni minuto nel mondo si acquistano un milione di bottiglie di plastica e solo una piccola parte viene riciclata e che 8 milioni di ton di rifiuti plastici finiscono in mare distruggendo l’habitat sottomarino. A tale distruzione contribuiscono anche le buste di plastica: si pensi che se ne acquistano 500 miliardi l’anno e che ovviamente una parte di esse non può non finire in mare.

La scelta dell’India da questo punto di vista è esemplare in quanto si tratta del Paese con il più alto tasso di riciclaggio. Lo slogan dell’evento è per l’appunto: Combatti l’inquinamento da plastica; se non puoi usare lo stesso pezzo più volte rifiutala.

L’UNEP l’organizzazione mondiale contro l’inquinamento ha giustamente riconosciuto questi meriti all’India, peraltro anche impegnata contro i cambiamenti climatici. L’Italia ha celebrato la Giornata con alcuni eventi, fra i quali di notevole rilievo l’Eataly Lingotto dedicato a valorizzare le eccellenze locali in fatto di letteratura,cucina e musica.

Durante la giornata il WWF Italia ha lanciato le borse della spesa riutilizzabili. A Palermo gli universitari hanno organizzato la festa ribattezzata da Fiorello “Aricugghiemu ‘a plastica” , durante la quale i rifiuti plastici dispersi nell’ambiente sono stati raccolti ed avviati al riciclo.

Ancora in Sicilia è stato lanciato un video “Spiagge plastic free”. A Roma è stato organizzato un incontro pubblico sul ciclo di vita dei materiali

Malgrado questi segnali di rinsavimento viviamo ancora in un mondo nel quale c’è un’”isola” (in realtà un ammasso galleggiante) chiamata Great Pacific garbage patch, fra la California e le Hawaii, costituita completamente da rifiuti di plastica , valutati in 8mila tonnellate. Anche le previsioni non aiutano: nel 2050 secondo alcune proiezioni mangeremo plastica, visto che essa avrà colonizzato le nostre risorse alimentari, soprattutto marine.

Qualche dato incoraggiante c’è e viene anche dal nostro Paese dove il consumo dei sacchetti di plastica si è ridotto del 55% dal 2012, quando ne eravamo i primi produttori.

Il cocktail micidiale fatto di aumento dei consumi individuali e crescita della popolazione mondiale sta facendo saltare il banco, cioè il sistema climatico che garantisce le condizioni di sopravvivenza. Il fatto che dinnanzi a questi pericoli si registrino ritardi di correzione di rotta fa riflettere: forse bisognerebbe più che allarmare educare dando immediata speranza di un restituito equilibrio ai teritori, intervenendo sugli aspetti geopolitici, allineando ragioni ambientali e sociali.

Per finire un altro recente allarme: oltre la plastica gli abitanti della terra, o almeno di parti di essa, sono anche potenti smaltitori di mozziconi di sigaretta nella sabbia, sebbene sia vietato.

I ricercatori che studiano il sito del Golfo Persico hanno rilevato in alcune sue zone livelli di ferro, cadmio, arsenico, nichel, rame, zinco e manganese. I filtri di sigaretta – composti da acetato di cellulosa- fanno da mezzo di trasporto ai metalli negli ambienti marini con effetti disastrosi su piante ed animali e la possibilità di ingresso anche nella catena alimentare.

REACH: ultima chiamata.

In evidenza

Luigi Campanella, già Presidente SCI

Il prossimo 31 maggio il regolamento europeo REACH completerà la sua ultima fase e diverrà esecutivo a tutti gli effetti. Non sempre si percepisce questa importante scadenza nell’atteggiamento assunto dal sistema industriale nei riguardi di essa,.Vale la pena ricordare alcuni elementi, più direttamente correlati agli aspetti chimici del regolamento, di una storia durata 10 anni, tanti essendo stati necessari per completare le fasi attuative del REACH.

L’art. 3 della Direttiva 92/32/CEE del 30 aprile 1992, che disciplina la classificazione, l’imballaggio e l’etichettatura delle sostanze pericolose commercializzate negli Stati dell’Unione Europea, regola la “determinazione e valutazione delle proprietà delle sostanze” attraverso test tossicologici che prevedono esperimenti su animali. In funzione del risultato degli esperimenti, una sostanza verrà classificata in una delle seguenti categorie:

  • molto tossica
  • tossica
  • nociva
  • non pericolosa.

Un protocollo-tipo prevede lo studio di:

  • Tossicità a breve termine, che si articola nello studio di:
  • Tossicità acuta effettuata normalmente sul ratto o il topo, attraverso la LD50.
  • Studi di irritabilità degli occhi, della pelle e delle mucose solitamente effettuati sui conigli albini in ambito cosmetologico, attraverso i “Draize test” e miranti alla valutazione della tollerabilità della sostanza in esame a contatto con la cute o con le mucose.
  • Studi di sensibilizzazione normalmente eseguiti sul porcellino d’India per valutare la capacità della sostanza chimica di indurre risposte allergiche o immuni in seguito a somministrazioni multiple.
  • Tossicità ripetuta la cui valutazione avviene attraverso lo studio di:
    • tossicità sub-acuta, sub-cronica, cronica, solitamente effettuata su due specie di cui una roditrice (normalmente si usano il topo e la scimmia o il cane). La durata degli studi varia dai due ai quattro anni; la via di somministrazione è quella di esposizione.
  • Studi di tossicità riproduttiva e di teratologia per evidenziare le eventuali interferenze della nuova sostanza sulla sfera riproduttiva e sulla prole, suddivisi in tre gruppi:
    • Studi di fertilità e riproduzione.
    • Studi di teratologia.
    • Studi di tossicità peri-post natale.

Per quanto riguarda la tossicità a breve termine (effetto acuto) il livello di tossicità è definito a partire da test basati sulla quantità di composto chimico letale in funzione della via di esposizione; i limiti della Dose Letale 50 e Concentrazione Letale 50 utilizzate per classificare un prodotto come molto tossico, tossico o nocivo sono riportati nella tabella seguente [2]:

Categoria LD50 orale

mg/kg

LD50 cutanea

mg/kg

LC50 inalatoria

mg/litro/4 ore

Molto tossiche <25 <50 <0,5
Tossiche 25-200 50-400 0,5-2
Nocive 200-2000 400-2000 2-20

LD50: è la dose di una sostanza che, somministrata in una volta sola, provoca la morte nel 50% degli animali da esperimento; indica la tossicità di una sostanza solo a breve termine (tossicità acuta); non a lungo termine (cioè dovuta a contatto con modiche quantità di una certa sostanza per lunghi periodi); viene espressa di solito come quantità di sostanza somministrata rispetto al peso dell’animale usato come campione (es.: milligrammi (mg) di sostanza per 100 grammi (g) per piccoli animali o per chilogrammi (kg) per animali più grandi); va definita anche la via (orale, cutanea, etc.). Una LD50 maggiore di 2000 mg/kg permette di considerare non particolarmente pericolosa la sostanza testata.

Per la LD50 orale la normativa UE prevede come animale da esperimento l’uso del ratto, mentre per la LD50 cutanea è previsto anche l’impiego del coniglio.

LC50: è la concentrazione in aria che provoca la morte nel 50% degli animali da esperimento, se inalata per un determinato periodo di tempo.

Per la LC50 la normativa UE prevede l’uso del ratto come animale da esperimento con una esposizione di 4 ore.

Sostanze da NON registrare: Sostanze escluse completamente dal REACH; Medicinali (esclusi anche da Valutaz. e Autorizz.); Sostanze presenti in alimenti e alimenti per animali, anche usate come additivi o aromatizzanti (esclusi anche da Valutaz. e Autorizz.); Sostanze incluse in Allegato IV; Sostanze incluse in Allegato V; Polimeri (esclusi anche da Valutaz.). Alcuni esempi sostanze in allegato V. Idrati di una sostanza o ioni idrati, formati da associazione di una sostanza con H2O. – Sostanze che non sono esse stesse fabbricate, importate o immesse sul mercato, risultanti da una reazione chimica che ha luogo quando una sostanza (agente stabilizzante, colorante, antiossidante, plastificante, antischiuma, legante, agglomerante, disidratante, neutralizzatore pH, coagulante, ignifugo, chelante, ecc) agisce nel modo previsto. Alcuni esempi sostanze in allegato IV. (Reg. 987/2008 – 8 ottobre 2008 ) acido ascorbico – glucosio – saccarosio puro – acido oleico puro – CO2 – calcare – Ar – C – N2 – acqua distillata – grafite – olio girasole – soia – lino – ricino -colza ecc. – amido – vitamina A.

I metodi o le procedure che conducono alla sostituzione di un esperimento sull’animale o alla riduzione del numero di animali richiesti, nonché all’ottimizzazione delle procedure sperimentali, allo scopo di limitare la sofferenza animale sono i metodi alternativi alla sperimentazione in vivo. Questo concetto corrisponde alla definizione delle “3R” di Russel e Burch [3], dall’inglese replace, reduce, refine laddove:

  • replacement identifica la sostituzione, ove possibile, degli animali superiori con materiali biologici di minore complessità (batteri, colture cellulari, organi isolati, colture in vitro), modelli computerizzati, video, film;
  • reduction implica la maggiore riduzione possibile del numero di animali usati per un particolare esperimento pur conseguendo risultati di studio altrettanto precisi. Ciò può essere ottenuto standardizzando la popolazione animale, fattore principe della variabilità dei risultati;
  • refinement si riferisce alla ricerca di procedure sperimentali sempre più specifiche in grado di ridurre al minimo la sofferenza e lo stress causato agli animali, comunque impiegati.

I metodi del primo tipo consentono di ottenere una determinata informazione sperimentale senza ricorrere all’utilizzazione di animali; i metodi del secondo tipo sono idonei ad ottenere livelli comparabili di informazione utilizzando un minor numero di animali e consentono di ricavare il massimo numero di informazioni con un solo saggio su animali; i metodi del terzo tipo sono tutte le metodologie idonee ad alleviare sofferenze e danni imputabili alle pratiche sperimentali. Tra i metodi del primo tipo si distinguono i “metodi sostitutivi biologici” e i “metodi sostitutivi non biologici”, i primi sono i “metodi in vitro”, ed utilizzano materiale biologico di diverso tipo (di origine animale o umana); mentre i secondi si avvalgono dei contributi di scienze quali la matematica, l’informatica, la statistica, eccetera.

Un nuovo approccio sperimentale, per essere considerato alternativo alla sperimentazione animale tradizionale, deve essere riproducibile, affidabile, rapido e non più costoso di quello che si vuole sostituire. Il centro europeo preposto alla verifica del rispetto dei suddetti parametri da parte del nuovo metodo (cosiddetta “validazione”) è l’ECVAM (European Centre for Validation of Alternative Methods), istituito dalla Commissione Europea nel 1991 su proposta del Parlamento dell’Unione, nell’ambito del “Joint Research Centre” di Ispra in provincia di Varese. L’ECVAM coordina la validazione dei metodi alternativi a livello comunitario, e costituisce un punto di riferimento per lo scambio di informazioni sullo sviluppo di questi metodi, attraverso una banca dati dei metodi disponibili (già validati o in corso di validazione) impostata e gestita dal centro medesimo.

Attraverso il processo di validazione viene stabilita l’affidabilità e la rilevanza di un metodo. L’affidabilità descrive la riproducibilità dei risultati nel tempo e nello spazio, cioè, nello stesso laboratorio e tra laboratori diversi (cosiddetta “standardizzazione”); la rilevanza descrive la misura dell’utilità e della significatività del metodo per un determinato scopo. I test di validazione sono molto lunghi (possono durare anche anni) ed hanno lo scopo di verificare se un nuovo metodo fornisce, per determinate sostanze, risultati simili a quelli in precedenza ottenuti attraverso la sperimentazione sugli animali. L’approdo finale di un nuovo metodo è il suo accoglimento entro la regolamentazione internazionale, con l’introduzione dei test alternativi nelle linee guida dell’OECD (Organization for Economic Cooperation and Development). L’OECD raccoglie non solo i paesi membri dell’Unione Europea ma anche Stati Uniti, Giappone ed altri; ha il compito di armonizzare i differenti protocolli sperimentali, recependoli sotto forma di linee guida. Le linee guida dell’OECD vengono periodicamente modificate per adeguarle alle nuove conoscenze scientifiche nonché alle modifiche legislative eventualmente intervenute.

Un Libro Bianco della Comunità Europea invita la comunità scientifica a fare il più possibile allo scopo di mettere a punto dei test chimici, che non ricorrano alla sperimentazione animale, in grado di dare informazioni – specialmente avvisi di pericolosità – in tempo reale o quasi reale riguardo la tossicità di un composto. A partire dalla mia presidenza in SCI la Società Chimica Italiana ha periodicamente inventariato gli avanzamenti della ricerca nel campo dei metodi chimici di valutazione della tossicità:molte dei nostri Dipartimenti chimici sia universitari che di enti di ricerca sono impegnati in questa direzione. Le soluzioni proposte sono molto diverse fra loro e risentono ovviamente della formazione specifica dei proponenti:

test di screening mediante desorbimento termico ed analisi dello spazio di testa

fotosensori di tossicità

metodi biochimici e biomolecolari

studi in silico e chemiometrici,metodi predittivi volti alla determinazione di proprietà ed attività delle molecole in base alla loro struttura; metodi computazionali e chemoinformatici;rappresentazioni molecolari strutturate;

test in vitro su sistemi cellulari diversi (in particolare innovativi:nematode del terreno e copepode marino)

test di effetto sub letale

studio di scenari di esposizione

studi epidemiologici

Si tratta di Gruppi di Ricerca autorevoli ed accreditati che potranno costituire una preziosa risorsa per le molteplici strutture pubbliche coinvolte nel REACH,dalle autorità di controllo territoriali all’autorità competente nazionale,fino alla stessa Agenzia Europea per le sostanze chimiche

http://www.reach.gov.it/reach-sintesi

La qualità dell’aria negli ambienti confinati.

In evidenza

Luigi Campanella, già Presidente SCI

(altri post sull’ argomento:

https://ilblogdellasci.wordpress.com/2017/11/01/strategie-contro-linquinamento-indoor/

https://ilblogdellasci.wordpress.com/2017/08/25/inquinamento-ospedaliero/)

L’espressione ‘ambiente indoor’ è riferita agli ambienti confinati di vita e di lavoro non industriali, ed in particolare, a tutti i luoghi chiusi adibiti a dimora, svago, lavoro e trasporto. Secondo questa definizione, il termine ‘indoor’ comprende: le abitazioni, gli uffici pubblici e privati, le strutture comunitarie (ospedali, scuole, uffici, caserme, alberghi, banche, etc.), i locali destinati ad attività ricreative e/o sociali (cinema, bar, ristoranti, negozi, strutture sportive, etc.) ed infine i mezzi di trasporto pubblici e/o privati (auto, treno, aereo, nave, etc.).

Negli ultimi decenni, con l’eccezionale sviluppo del settore terziario, la popolazione dei paesi industrializzati trascorre una parte sempre maggiore del proprio tempo (fino al 90%) negli ambienti confinati; contemporaneamente, si sono verificati profondi mutamenti nella qualità dell’aria indoor a causa di un progressivo aumento delle sostanze inquinanti. Lo scadimento della qualità dell’aria interna è dovuto in parte agli alti livelli esterni di inquinamento ma, soprattutto, alle numerose sorgenti interne che determinano concentrazioni di inquinanti a volte superiori a quelle presenti all’esterno.

In seguito alla crisi delle risorse energetiche mondiali, si sono imposti nuovi criteri tecnico-progettuali per gli edifici ad uso civile: la necessità di contenere i consumi per il riscaldamento e per la ventilazione ha imposto un migliore isolamento degli edifici, con conseguente tendenza a sigillare gli ambienti interni. Alle modifiche strutturali degli edifici si sono accompagnate modifiche rilevanti degli arredi (nuovi materiali per mobili, rivestimenti, etc.) e degli strumenti di lavoro (crescente impiego di fotocopiatrici, videoterminali, stampanti, etc.).

L’attenzione dei paesi industrializzati è stata rivolta già da tempo allo studio dei fenomeni di inquinamento dell’aria ‘esterna’, di cui ben presto sono state identificate le cause (traffico automobilistico, impianti industriali, impianti di riscaldamento domestico), gli effetti (preoccupante crescita della incidenza di malattie polmonari e neoplastiche) e le eventuali misure di contenimento (lotta all’inquinamento dell’aria urbana). Di contro, solo negli anni più recenti, dall’acquisizione di informazioni ed esperienze sui danni alla salute causati da una scadente qualità dell’aria interna, è emersa l’esigenza di un approfondimento delle conoscenze relative alle fonti di inquinamento indoor, nonché dei rapporti di causa-effetto tra esposizione e salute dell’uomo.

L’inquinamento dell’aria negli ambienti confinati rappresenta un problema importante per la sanità pubblica, con grandi implicazioni sociali ed economiche: in primo luogo la prolungata permanenza della popolazione negli ambienti interni di varia natura implica una continua esposizione a inquinanti indoor; inoltre, il rischio espositivo non è limitato a categorie ben definite. Tale rischio, infatti, non è esclusivamente di tipo professionale od occupazionale, ma è di particolare gravità per alcuni gruppi più suscettibili quali bambini, anziani e persone affette da patologie croniche (malattie cardiache, respiratorie, asma bronchiale, allergie), che trascorrono negli ambienti chiusi una percentuale di tempo particolarmente elevata.

La presenza di numerosi inquinanti (es. fumo passivo) e il clima caldo-umido delle abitazioni (che favorisce la crescita degli acari e di funghi nella polvere domestica), hanno sicuramente contribuito all’aumento della incidenza di patologie respiratorie croniche, come ad esempio l’asma, ed all’incremento della loro evoluzione verso forme persistenti, gravi ed invalidanti.

Recenti studi scientifici hanno evidenziato come alcuni inquinanti siano in grado di contribuire all’aumento dell’incidenza di tumori maligni: un maggior rischio di cancro ai polmoni è stato associato all’esposizione al “fumo di tabacco ambientale” ed ai prodotti di decadimento del Radon. Quest’ultimo è un gas radioattivo incolore, estremamente volatile, prodotto dal decadimento di tre nuclidi capostipiti che danno luogo a tre diverse famiglie radioattive: il Thorio 232, l’Uranio 235 e l’Uranio 238. Il Radon viene generato continuamente da alcune rocce della crosta terrestre, in particolar modo da lave, tufi, pozzolane, alcuni graniti, ma anche da rocce sedimentarie come i marmi. Come gas disciolto, esso viene veicolato anche a grandi distanze dal luogo di formazione nelle falde acquifere ed è nota, inoltre, la sua presenza in alcuni materiali da costruzione. Generalmente, tale gas giunge all’interno delle abitazioni attraverso fessure e piccoli fori delle cantine e dei piani seminterrati degli edifici.

Molti composti chimici presenti nell’aria indoor sono causa, sospetta o accertata, di stimolazione e/o irritazione dell’apparato sensoriale e possono dare vita a senso di disagio e ad altri sintomi comunemente presenti nella cosiddetta “Sindrome da Edificio Malato” (Sick Building Syndrome). Studi condotti in uffici ed in altri edifici destinati ad uso pubblico in diversi paesi hanno rivelato una frequenza di disturbi tra gli occupanti compresa tra il 15 e il 50% .

Un altro acronimo che deve la sua nascita in massima parte proprio all’inquinamenti indoor è la SCM (sensibilità chimica multipla,MCS in inglese).La prolungata presenza in ambienti indoor caratterizzati da inquinamenti combinati,complessi e variabili ha comportato la sensibilizzazione di alcuni individui, immunologicamente più deboli, verso questa nuova patologia,riconosciuta ormai come malattia sociale,anche in PaesiEuropei,primo fra tutti la Germania

Breve storia dell’aspirina.

Luigi Campanella

FANS è l’acronimo dell’espressione “farmaci anti-infiammatori non steroidei” e individua una classe di farmaci dall’effetto anti-infiammatorio, analgesico ed antipiretico.

L’aspirina e il salicilato di sodio sono stati i primi FANS ad essere introdotti nella pratica clinica ai primi del ‘900. Infatti l’aspirina è considerata il prototipo dei FANS nonostante l’introduzione di nuovi congeneri. E’ tuttora il farmaco analgesico-antipiretico-antinfiammatorio più usato e rappresenta il termine di paragone per la valutazione e il confronto con altri analgesici periferici.

Le origini dell’aspirina vanno ricercate nella natura ed esaminando le tappe della scoperta e dell’applicazione delle proprietà dell’acido salicilico, si può paragonare la nascita dell’Aspirinaâ alla composizione di un puzzle, in cui diversi studiosi, con le loro  scoperte, hanno messo un tassello dopo l’altro.

La storia dell’aspirina, che è poi la storia della corteccia e della foglia del salice, incomincia nel 400 a.C.  anche se le  sue virtù terapeutiche vengono menzionate già nel papiro di Ebers, all’incirca 2000 anni prima di Cristo.

Già Ippocrate  di Kos (460-377 a.C.), il padre della medicina, si accorse delle proprietà antidolorifiche contenute nella corteccia e nelle foglie di salice e consigliò ai suoi pazienti afflitti dai più svariati dolori, di curarsi con un infuso di quelle foglie.  Troviamo infatti segnalata negli scritti del medico ateniese (“Corpus Hippocraticum”, V secolo a.C.) l’azione analgesica della linfa estratta dalla corteccia di salice che conteneva, come oggi sappiamo, l’acido salicilico.

Ur III, è un testo medico della Terza Dinastia di Ur

Dall’epoca della grande intuizione di Ippocrate gli uomini per secoli hanno fatto uso del salice per combattere mali di testa, febbri, reumatismi. Ancora oggi i contadini greci masticano le sue foglie per combattere e addirittura prevenire i dolori reumatici.

Le proprietà della corteccia del Salix alba vulgaris contro febbri e dolori in genere furono celebrate un secolo dopo Cristo dal medico greco Dioscoride e, ancor prima, dagli Egizi con infusi a base di corteccia.

Anche Plinio, nel I secolo d.C. concorda nell’attribuire agli infusi a base di Salice proprietà febbrifughe ed analgesiche.

Nel Medioevo, pur essendo dimenticato dai medici, l’uso della cottura della corteccia del salice si mantenne nell’ambiente contadino: le venditrici di erbe aromatiche e medicinali facevano bollire la corteccia di salice e somministravano l’amaro decotto alle persone afflitte da dolori. In seguito, la raccolta dei rami di salice venne proibita, perché questo materiale era necessario per la fabbricazione dei cesti, data l’elevata flessibilità dei giovani rami. Il medicamento naturale cadde così in disuso.

Nello stesso periodo, ma in altri continenti, perfino in popolazioni primitive quali gli Ottentotti del Sud Africa o le popolazioni indiane d’America, il valore terapeutico del Salice era ben conosciuto.

La vera storia dell’aspirina avrebbe avuto inizio nel XVIII secolo grazie alle fortuite associazioni mentali di un pastore della contea di Oxford.

Un giorno passeggiando in un bosco, il reverendo Edward Stone, esperto botanico, assaggiò, per caso, un pezzetto di corteccia di un salice. Trovandola particolarmente amara richiamò nella sua mente l’amaro sapore della cinchona, pianta dalla quale veniva estratto il chinino, conosciutissimo anti-malarico, importata dal Perù.

Il reverendo, esperto anche di questioni mediche, iniziò a pensare che la scorza di salice poteva essere utile per combattere le febbri malariche, pur essendo stupito del fatto che, paradossalmente, questo albero crescesse proprio nelle regioni più umide e insalubri.

Il 2 giugno 1763, Edward Stone lesse una relazione alla riunione della Royal Society di Londra, in cui venivano presentati i successi ottenuti, nella lotta alle febbri malariche, con il decotto di scorza di salice su 50 soggetti febbricitanti. Nella sua ricerca intitolata: “Sulla corteccia di salice nella cura delle febbri malariche” avviò sulla scena terapeutica i salicilati e quindi l’aspirina.

Il decotto di corteccia di salice tanto esaltato da questo ecclesiastico di Chipping Norton nell’Oxfordshire agiva effettivamente nelle febbri malariche. Poco importava se l’azione antifebbrile non era associata a quella anti-malarica effettiva del chinino.

Napoleone Bonaparte, a sua insaputa, diede una svolta storica negli studi sul Salice,  imponendo, il 20 giugno del 1803, il blocco all’importazione di qualsiasi merce proveniente dalle colonie inglesi e dall’Inghilterra sul continente.

Con tale decisione venne bloccata l’importazione dall’America anche della corteccia di China (originaria dell’America meridionale, un tempo utilizzata, dato l’elevato contenuto in alcaloidi, principalmente come antipiretico); questo spinse la ricerca di un valido sostituto farmacologico autoctono europeo.

Fu in questo periodo che ci si ricordò dell’azione medicamentosa della linfa di salice e, in particolare, delle sue proprietà antipiretiche.

Iniziarono nei primi decenni del XIX secolo indagini serrate in punti disparati dell’Europa nel tentativo di ottenere allo stato puro quella che veniva ritenuta la sostanza attiva del salice.

Nel 1828 il professor Johann Andreas Buchner di Monaco di Baviera ne ricavò, mediante ebollizione, una massa gialla che chiamò salicina.

L’anno seguente il farmacista francese Henri Leroux isolò la salicina, principio composto da glucosio ed alcool salicilico in forma cristallina:
30 grammi di “salicina” vengono estratti da 500 grammi di scorza di salice.

Nel 1835, in Svizzera, in diversi vegetali come nei fiori di ulmaria e nell’olio di gualteria (essenza di Wintergreen) si trova una sostanza simile: viene chiamata “spirsauro” e qualche anno dopo ci si accorge che è acido acetilsalicilico allo stato puro. Si deve però, a Raffaele Piria, chimico Napoletano, il merito di aver scoperto che dalla salicina si poteva giungere all’acido salicilico. Piria ne dette comunicazione in due articoli, “Ricerche sulla salicina ed i prodotti che ne derivano” (1838) e “Ricerche di chimica organica sulla salicina” (1845).

Nel 1853 il chimico Charles Frédéric Gerhardt di Strasburgo produsse per la prima volta l’acido acetilsalicilico, in forma tuttavia chimicamente impura e quindi non stabile. Il procedimento di acetilazione risultò così complesso da scoraggiare le aziende farmaceutiche, tanto da ritardare di circa 44 anni il passo successivo.

Al prof. Hermann Kolbe di Marburgo va invece il merito di aver scoperto la struttura dell’acido salicilico e di averlo sintetizzato.

Sintesi di Kolbe

Nel 1874 si poté così avviare la produzione industriale dell’acido salicilico, il cui prezzo era dieci volte inferiore a quello del prodotto naturale.
Questa sostanza aveva tuttavia un gusto sgradevole e spesso aggrediva la mucosa gastrica, costringendo le persone afflitte da dolori a scegliere tra due mali.

Felix Hoffmann, era un giovane chimico dell’industria chimica tedesca Bayer di Leverkusen, in Renania. Il padre di Felix, affetto da una grave forma di malattia reumatica, assumeva il salicilato di sodio che gli conferiva un grande giovamento, nonostante il sapore sgradevole e l’effetto gastrolesivo. Nel tentativo di  migliorare la qualità di vita del padre, Felix Hoffmann iniziò a condurre indagini sistematiche alla ricerca di un composto efficace e tollerabile, alternativo al salicilato di sodio. Muovendo dalle esperienze di Gerhardt, Hoffmann tentò di nobilitare l’acido salicilico per migliorarne la tollerabilità e riuscì nel suo intento mediante l’acetilazione. Il 10 agosto 1897 egli descrisse nelle sue note di laboratorio l’acido acetilsalicilico (ASA), da lui sintetizzato in forma chimicamente pura e stabile.

 

Sintesi dell’acido acetilsalicilico

Il vero scopritore dell’aspirina non è stato lo scienziato cui da sempre viene attribuita l’impresa, ma il suo superiore, ebreo tedesco, Arthur Eichengruen, il cui ruolo è stato cancellato con l’ascesa al potere dei nazisti in Germania>>

Questa rivelazione è stata fatta di recente da Walter Sneader, vicecapo del dipartimento di scienze farmaceutiche all’Università di Strathclyde, a Glasgow a seguito di alcune ricerche che gli hanno permesso di trovare una descrizione della scoperta dell’aspirina di Hoffmann nella Storia della Tecnologia Chimica datata 1934 (un anno dopo la presa del potere di Adolf Hitler). Sneader sostiene che:
– Hoffmann era una delle 10 persone che lavoravano sotto Eichengruen ai tempi dellasoperta.
– un procedimento messo a punto da Eichengruen è stato seguito negli esperimenti che hanno portato all’aspirina

Secondo il professore scozzese, Eichengruen non aveva condizioni di contestare Hoffmann nel 1924 perché stava lottando contro la marea di antisemitismo e contemporaneamente sperava di salvare la Eichengruen Lavori Chimici, l’azienda che aveva fondato dopo aver lasciato la Bayer nel 1908.
Eichengruen non ce la fece. La sua azienda e gran parte dei suoi averi sono stati sequestrati e, a 75 anni, è stato mandato al campo di concentramento di Theresienstadt nell’attuale Repubblica Ceca. E’ sopravvissuto, ma non è stato in grado di pubblicare le sue rivendicazioni sulla scoperta dell’aspirina fino al 1949. Lo ha fatto in un allora oscuro giornale scientifico tedesco chiamato Pharmazie, un mese prima di morire.

La Bayer, da un lato smentisce tali affermazioni, ma proclama che, se davvero fosse Eichengruen lo scopritore, non avrebbe avuto problemi ad assegnargliene il merito, anche perché lui possedeva altri 47 brevetti, che non gli furono molto utili a Teresienstadt.

Prima della sua registrazione, l’ASA fu sottoposto dalla Bayer a sperimentazione clinica – una prassi fino ad allora sconosciuta. I risultati furono così positivi che la direzione dell’azienda non esitò ad avviare la produzione del farmaco.

Fotografia dell’epoca.

Quando l’1 febbraio 1897 la Bayer mette in commercio l’aspirina il nome non è scelto a caso: la “a” è l’abbreviazione di acido acetilsalicilico, “spir” viene da “spirsäure” che in lingua tedesca sta per “acido della spirea”, la pianta da cui per la prima volta venne
estratto l’acido. Il nome “aspirina”, dunque, è una testimonianza precisa di quanto di utile può essere contenuto nelle erbe ma costituisce anche il punto di arrivo di una lunga ricerca scientifica.

Il 1° febbraio 1899 venne depositato il marchio Aspirinaâ che un mese dopo, il 6 marzo, fu registrato nella lista dei marchi di fabbrica dell’Ufficio Imperiale dei Brevetti di Berlino.
Iniziava così una marcia trionfale: l’affermazione dell’aspirina fu da questo punto un crescendo.

 

L’aspirina ® o acido acetilsalicilico (ASA) o, più correttamente secondo la nomenclatura IUPAC, acido 2-acetossibenzoico, è il capostipite della famiglia dei FANS.

Struttura dell’acido acetilsalicilico

Questa lunga storia dovrebbe insegnare 2 cose:l’importanza nella ricerca di partire sempre da quanto già si conosce,e la necessità di salvaguardare la Storia della Scienza,in questo caso della Chimica, all’interno dei curricula universitari.

*******************

Fra i siti consultati oltre a wikipedia,  http://www.minerva.unito.it/Storia/aspirina/Aspirina.html

Su argomento analogo:https://ilblogdellasci.wordpress.com/2016/04/04/aspirina-breve-storia-di-un-farmaco-pluripotente/