Integratore antialcoolico.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Luigi Campanella, ex Presidente SCI

 A fronte dell’emergenza legislativa, sanitaria e sociale legata all’uso delle bevande alcoliche si vanno delineando alcune soluzioni biotecnologiche e nutraceutiche che appaiono in grado di neutralizzare parte dei rischi connessi al consumo di bevande alcoliche di qualità che minano la sicurezza individuale e stradale e la salute dei consumatori.

alcool

Il Citoethyl, integratore alimentare di cui si è discusso di recente in un convegno a San Pietro Infine grazie ad una originale formula chimica con meccanismi chimici da decifrare, appare in grado di attivare tra gli altri gli enzimi alcool-deidrogenasi e aldeide-deidrogenasi, accelerando la rimozione dell’alcool dal sangue e dell’acetaldeide che è la responsabile dell’effetto sbronza che mina la lucidità dell’individuo e la sua sicurezza.

531px-Acetaldeide_struttura.svg

Acetaldeide

Nel fegato l’etanolo viene ossidato ad acetaldeide. L’ossidazione dell’etanolo per dare acetaldeide può avvenire in diversi modi. Il primo sistema è mediato da un enzima chiamato alcoldeidrogenasi (ADH) e presente, oltre che a livello epatico, anche a livello gastrico, specie negli uomini. L’ADH è in grado di ossidare anche altri alcol, compreso il metanolo (nel 1986 una partita di vini adulterati con questa sostanza causò la morte di 19 italiani).

alcool-quantita

L’alcol deidrogenasi è presente nel corpo umano in 9 isoforme differenti a seconda del tessuto dove vengono espresse. Nel fegato è in grado di catalizzare la trasformazione dell’etanolo in acetaldeide:

CH3CH2OH + NAD+ → CH3CHO + NADH + H+

Fin qui tutto bene, se non fosse che anche l’acetaldeide è un composto tossico e potenzialmente cancerogeno. L’enzima aldeide deidrogenasi spinge verso la produzione di acetato:

CH3CHO + NAD+ + H2O → CH3COO + NADH + 2H+

Dopo questi primi due passaggi l’acetato esce dal fegato e viene veicolato dal sangue ad altri tessuti dove, specialmente a livello cardiaco, viene attivato ad acetil-CoA. A sua volta questa molecola può entrare nel ciclo di Krebs e produrre energia- oppure, se presente in eccesso a causa di un’ubriacatura-essere trasformata in corpi chetonici. A partire dall’acetil-CoA possono formarsi anche acidi grassi che, uniti al glicerolo, formano trigliceridi da depositare come riserva energetica.

giovani alcol - 29 marzo 2013

Batteri, chimica e altro (parte III)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Gianfranco Scorrano, già Presidente della SCI

la seconda parte di questo post è stata pubblicata qui

Nella memoria popolare la scoperta di Fleming è quella che è rimasta più impressa anche se il contributo di Florey e Chain, assieme a quello di molti altri ricercatori, è quello che poi ha reso questi farmaci disponibili per combattere gravi malattie.

Dopo il premio Nobel del 1945, Chain si guardò intorno cercando una collocazione universitaria indipendente ma senza grande successo. Dall’estero ebbe offerte dal Weizman Institute in Israele e successivamente dall’Italia. Nel 1947 venne in Italia per un ciclo di conferenze (sotto gli auspici del British Council) e discusse a lungo con Domenico Marotta, Direttore dell’Istituto Superiore di Sanità (ISS). Marotta lo informò che nel 1945 l’Italia aveva accettato una offerta dell’UNRRA di un piccolo impianto di produzione di penicillina e $ 300.000 della Fondazione Rockfeller per la costruzione di un istituto. In risposta a una richiesta di consiglio Chain ritenne interamente non economicamente utile un’impianto così antiquato suggerendo che i fondi fossero utilizzati per costruire un centro di ricerca in microbiologia chimica con un annesso impianto pilota. Aggiunse che la mancanza in Europa di un centro di questo tipo aveva portato alla perdita degli antibiotici finiti nelle mani degli americani.

Chain rimase impressionato da Marotta ed accettò di venire a Roma nell’ottobre del 1948, per un anno. Prima di partire sposò Anne Beloff che poi lo seguì anche collaborando alle ricerche chimiche. Dopo due anni, rinunciò alla posizione a Oxford e rinnovò il contratto con l’Istituto Superiore di Sanità per ulteriori 10 anni, per dirigere il centro internazionale di ricerca per la microbiologia chimica dell’ISS.

Il centro di ricerca dell’ISS fu inaugurato nel giugno del 1951 alla presenza del Presidente del Consiglio Alcide De Gasperi e del Direttore Generale del WUO.

Nel periodo in cui Chain fu a Roma, instaurò un numero di contatti tra chimici inglesi e l’Italia, con visite anche sponsorizzate dal Bristish Council che furono di grande importanza per aprire la chimica italiana alle influenze inglesi. Ovviamente organizzò un gruppo di ricerca che produsse con lui dal 1959 al 1967: è interessante leggere i nomi dei collaboratori che furono poi particolarmente attivi nella chimica italiana. Tra essi voglio citare F.Arcamone e A.Ballio, quest’ultimo purtroppo da poco mancato.

La presenza di Chain fu segnalata anche attraverso l’attenzione della comunità scientifica che, tra l’altro, gli assegnò la Medaglia Marotta della Società Chimica Italiana, la nomina alla Accademia nazionale dei Lincei, la nomina alla Accademia dei XL e la laurea honoris causa all’Università di Torino.

Marotta andò in pensione, raggiunto il limite d’età, nel 1961.

Riprendendo in parte il racconto fatto da Paoloni (Giovanni Paoloni in Domenico Marotta in Il Contributo italiano alla storia del Pensiero: Scienze, ed-Treccani ), citato tra virgolette:

“Tra il 1963 e il 1964, in un complesso periodo di ridefinizione istituzionale del sistema della ricerca nella fase di avvio dell’alleanza di centrosinistra fra Partito socialista italiano e Democrazia cristiana, la comunità scientifica italiana fu scossa da una serie di indagini giudiziarie che evidenziavano l’inadeguatezza italiana in materia di politica e amministrazione della ricerca stessa. A farne le spese furono in primo luogo il Comitato nazionale per l’energia nucleare e l’ISS, due istituzioni nelle quali, per ragioni diverse, vi erano situazioni di conflittualità interna.”

“Nel caso dell’ISS, gli attriti erano legati soprattutto alle scelte del governo per la successione di Marotta. L’8 aprile 1964 l’ex direttore fu arrestato nell’ambito di un’indagine, originata dalle accuse di un impiegato amministrativo, in cui era imputato per peculato, falso ideologico e violazione di varie norme sulla contabilità di Stato.”

Nella stessa occasione fu indagato per corruzione e appropriazione indebita di fondi pubblici anche il successore di Marotta, il prof.Giacomello.

“Rimesso in libertà il 15 aprile, Marotta rifiutò di presentarsi in aula, dichiarando che una persona della sua età, che aveva reso importanti servigi al proprio Paese, non meritava di essere trattata in quel modo. Giudicato in contumacia, in primo grado fu condannato a sei anni e otto mesi di reclusione ( nota: e a una pena pecuniaria di 1,5 milioni di lire).”

Prigione e multa anche comminata, in misura minore, a Giacomello in particolare per aver amministrato un finanziamento a Chain del U.S.Department of Agricolture.

“ La comunità scientifica fu ampiamente solidale, in Italia e all’estero. L’Accademia dei XL respinse le dimissioni da presidente di Marotta subito presentate. Chain espresse giudizi molto critici sul procedimento, pubblicati dalla rivista «Science»”

Chain era accusato di avere venduto all’estero un brevetto di cui non era proprietario. Si offrì di venire a testimoniare a favore di Marotta, ma l’offerta non fu accettata. Inviò allora un telegramma al PM protestando vibratamente contro le accuse avanzate anche a lui. I documenti vennero passati al Tribunale di Velletri per accertare le eventuali offese alla magistratura romana. Il magistrato di Velletri nell’autunno del 1965 dichiarava di non aver trovato l’indirizzo di Chain (spostatosi a Londra) e nel febbraio del 1966 lo stava ancora cercando.

Altri dettagli si trovano in E.Abraham, Ernst B. Chain in Biographical Memoirs of Fellows of the Royal Society 29, 42-91 (1983).

“Nel giugno 1969 la sentenza d’appello escluse finalità di profitto personale nella condotta di Marotta, e ridusse la pena a due anni e undici mesi; nel 1971, infine, la Cassazione, pur confermando alcune imputazioni, dichiarò la condanna di Marotta estinta in seguito all’amnistia emanata nel 1966, per il ventennale della Repubblica.”

Nel 1957 fu pubblicata la sintesi chimica della penicillina da J.C.Sheehan,JACS, 79, 1262 (1957):

 batteri31

1) NaOAc, EtOH, H2O, RT, 10 h, 24 %; 2) NH2NH2 Diossano , H2O, RT, 24 h, 82 %

3) Et3N, CH2Cl2, 0 °C, 22 h, 70 % 4) HCl,CH2Cl2,0-5 °C, 30 h, 94 % 5) DCC, NaOH,Diossano , H2O,RT, 33 h,

Da notare le molte invenzioni sintetiche fino all’uso della cicloesilcarbodiimide (DCC) per la formazione del legame ammidico (stadio 5) in assenza di acidi e basi.

E’ più conveniente effettuare una semisintesi, partendo dall’acido 6 – aminopenicillanico (6-APA, II da Cerruti http://www.minerva.unito.it/Storia/Penicillina/La%20penicillina.html ) costituito da due aminoacidi (cisteina e valina) fusi in un anello beta lattamico tiazolidinico. L’acilazione dell’azoto in 6 porta a vari derivati della penicillina (I)

batteri32

molti dei quali preparati con il metodo suddetto ed usati in medicina.

Dalle origini e finora, il ruolo dei chimici (Pasteur, Chain, Hogdkin e le centinaia di partecipanti al progetto penicillina) è stato assai rilevante. E’ curioso notare che, nella cultura da internet, le biografie di questi chimici sicuramente rilevanti e, a mio parere, benemeriti per l’umanità, non vengono citate, spesso, con la loro laurea formativa: in chimica.

La lotta per la salute dell’uomo continua e continuerà.

L’uso degli antibiotici si è sviluppato fortemente. Purtroppo, l’organismo batterico con il tempo è capace di identificate l’antibiotico e neutralizzarlo. Ma questo è un altro argomento che affronteremo nel prossimo post.

Il Manifesto della vergogna

 Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Marco Taddia

Oggi è raro che qualcuno si dichiari pubblicamente razzista ma l’esistenza di un razzismo latente e diffuso, accompagnato da sottili distinguo e mascherato con giri di parole più o meno eleganti, è una realtà. Pochi giorni fa, il vicesegretario dell’ONU Jan Eliasson ha dichiarato: “L’antisemitismo è in preoccupante aumento in Europa” aggiungendo un monito contro l’inasprirsi della «retorica contro l’immigrazione, nonostante i contributi dei migranti alle nostre società”. Giova quindi, in occasione della Giornata della Memoria, riflettere sulle conseguenze del razzismo anche per sviluppare gli anticorpi verso una malattia che, come italiani ed europei, rischia di colpirci ancora. La storia si studia con la ragione, s’interpreta con l’intelligenza e si rivive con il cuore. Proviamoci!

La maggior parte dei lettori di questo blog non ha vissuto direttamente gli eventi che seguirono la pubblicazione, in forma anonima, sul Giornale d’Italia del 14 luglio 1938, dell’articolo intitolato Il Fascismo e i problemi della razza tristemente noto come Manifesto della razza oppure Manifesto degli scienziati razzisti. Chi li ha vissuti da bambino ne conserva, forse, un ricordo sbiadito ma sarebbe egualmente importante avere la sua testimonianza anche in questa sede. Parlando di chimici ricordo, con commozione, quella di Paolo Edgardo Todesco, già professore di chimica organica a Bologna e morto nel 2013, il quale non solo li visse ma ne pagò duramente le conseguenze. Poiché fatti del genere non si dimenticano, è facile che i nati nel primo Dopoguerra abbiano ascoltato dai propri cari la rievocazione di episodi connessi alle persecuzioni antiebraiche. Sarò grato per sempre a mia madre che, senza retorica, ma solo con poche e tristi parole, mi raccontava l’odissea di una famiglia ebrea che aiutava nei lavori domestici, costretta a scappare di notte dalla propria casa per sfuggire alla persecuzione che si annunciava vicina. Pare ancora di vedere quelle persone braccate e trepidanti, impegnate in una fuga silenziosa verso il confine svizzero, con pochi effetti personali e gli oggetti preziosi con i quali acquistare la salvezza. La fuga notturna di quella famiglia ebrea della Bassa bolognese, comune a chissà quante altre, aveva un precedente di cui ho letto con raccapriccio sui libri di storia e che continua ad interrogare dolorosamente la mia coscienza di cristiano. E’ un avvenimento che anticipa l’Olocausto, scopre le radici dell’antigiudaismo che poi si trasformò in antisemitismo e suona come condanna inappellabile di qualsiasi forma di fanatismo religioso di ieri e di oggi.

razzismo1

Auguste Migette (1802-1844): Il massacro dei Giudei a Metz durante la Prima Crociata

I fatti risalgono al 1096 e sono legati alla Prima Crociata, indetta da Papa Urbano II alla fine del 1095. Ascoltiamo Alberto D’Aix (Historia Hierosoymitana, p. 292) il quale riferisce sulle stragi degli ebrei che anticiparono la spedizione verso la Terrasanta: “…asserendo che questo era il modo giusto di cominciare la spedizione e ciò che i nemici della fede cristiana meritavano. Questa strage di Ebrei cominciò a opera dei cittadini di Colonia che, gettatisi d’un tratto su un piccolo gruppo di essi, ne ferirono moltissimi a morte: poi misero sottosopra case e sinagoghe, dividendosi il bottino. Vista questa crudeltà circa duecento [Ebrei] di notte, in silenzio, fuggirono con delle barche a Neuss; ma i pellegrini e i crociati, imbattutisi in essi, li massacrarono fino all’ultimo e li spogliarono degli averi.

Non c’è molto da aggiungere a questa terrificante cronaca di Alberto D’Aquisgrana (dodici libri, scritta tra il 1125 ed il 1150), contestata in alcuni punti ma non per quanto riguarda la sostanza dei tragici fatti ricordati.**

Tornando ad avvenimenti a noi più vicini e all’articolo di giornale che in Italia diede il via all’antisemitismo di Stato, subito ripreso da tutta la stampa nazionale, occorre dire che l’analisi storiografica del Manifesto del razzismo italiano è stata condotta da vari Autori. Esula dagli scopi di questo post approfondire il contributo di ciascuno di essi ma si debbono citare, almeno di corsa: le varie edizioni dei libri di Renzo De Felice, L’ideologia del fascismo di Gregor (1974), quello di Giorgio Israel e Pietro Nastasi (Scienza e razza nell’Italia fascista, 1998), gli articoli di Gillette (The origin of the “Manifesto of racial scientist”, 2001 ecc…) e l’ottimo lavoro di Tommaso Dell’Era (“Scienza, politica e propaganda. Il Manifesto del razzismo italiano: storiografia e nuovi documenti”, 1969) reperibile in rete.

Non mancano le divergenze sui nomi, gli autori e i sottoscrittori del Manifesto. L’antropologo Guido Landra (Roma, 1913-1980) che, a parere di molti storici, ne fu il principale estensore, lo chiamerà Manifesto del razzismo italiano. Questo è il nome preferito, in base a considerazioni condivisibili, da Tommaso dell’Era. Ma vediamo cosa c’è scritto nel Manifesto, un documento che all’analisi storica risulta confuso e pasticciato nei suoi contenuti pseudoscientifici ma che ai nostri occhi appare soprattutto delirante.

Si articola in dieci punti, ciascuno accompagnato da una breve spiegazione. Eccoli:

  1. Le razze umane esistono.
  2. Esistono grandi razze e piccole razze.
  3. Il concetto di razza è concetto puramente biologico.
  4. La popolazione dell’Italia attuale è nella maggioranza di origine ariana e la sua civiltà ariana.
  5. È una leggenda l’apporto di masse ingenti di uomini in tempi storici.
  6. Esiste ormai una pura “razza italiana”.
  7. È tempo che gli italiani si proclamino francamente razzisti.
  8. È necessario fare una netta distinzione fra i mediterranei d’Europa (occidentali) da una parte e gli orientali e gli africani dall’altra.
  9. Gli ebrei non appartengono alla razza italiana.
  10. I caratteri fisici e psicologici puramente europei degli italiani non devono essere alterati in nessun modo.

Si è detto che apparve in forma anonima ma l’autore materiale sembra soprattutto il citato Landra il quale lo stese mettendoci del suo ma seguendo, soprattutto, le indicazioni di Mussolini. Questi, secondo la testimonianza di Bottai (6 ottobre 1938) disse: “Sono io, che, praticamente, l’ò dettato”. Dieci giorni dopo la pubblicazione, un comunicato del PNF del 25 luglio 1938, riferì dell’incontro tra il Segretario del Partito e il Ministro della Cultura Popolare da una parte e dieci “scienziati” che avevano redatto e approvato il tutto.

Chi erano i dieci? Eccoli in ordine alfabetico: Lino Businco, Lidio Cipriani, Arturo Donaggio, Leone Franzi, Guido Landra, Nicola Pende, Marcello Ricci, Franco Savorgnan, Sabato Visco ed Edoardo Zavattari. Chiamare “scienziati” la maggior parte di loro è troppo anche se avevano una posizione nell’Università. Erano figure di secondo o anche di terzo piano (sia come assistenti che come ordinari, ignote ai più. Le uniche eccezioni erano costituite da Nicola Pende (Direttore dell’Istituto di Patologia Speciale Medica dell’Università di Roma) e Sabato Visco (Direttore dell’Istituto di Fisiologia Generale dell’Università di Roma, Direttore dell’Istituto Nazionale di Biologia presso il Consiglio Nazionale delle Ricerche). Va doverosamente precisato che i nomi di Pende e Visco comparvero in calce al Manifesto come membri dell’Ufficio Razza, nonostante i due avessero espresso pubblicamente e alla presenza delle Autorità fasciste il loro dissenso.

Intanto la lista dei sottoscrittori si allungò. In rete ce n’è più d’una ma bisogna fare attenzione perché non tutte sono attendibili e qualcuna è stata ufficialmente smentita.

Dopo la pubblicazione del Manifesto iniziò un violenta campagna contro gli ebrei e il 5 agosto partì la pubblicazione de “La difesa della razza”, diretta da Interlandi che già nel 1934 e nel 1936-37 aveva condotto su “Il Tevere” alcune campagne antisemite.

 razzismo2

Razzismo biologistico o spiritualistico? Intorno a questo dilemma fiorirono i contrasti all’interno del regime e più tardi (fino al 1942) il Manifesto subì una revisione. A partire dal mese di settembre 1938 si susseguirono provvedimenti legislativi razzisti, tristemente noti, oltre a circolari ministeriali e di pubblica sicurezza, che rincaravano la dose. Nonostante il fascismo volesse solo “discriminare” (cioè isolare) e non “perseguitare” gli ebrei (Gran Consiglio del 6 ottobre), sappiamo come finì. Scuola e l’Università furono pesantemente interessate dai provvedimenti (http://www.scienzainrete.it/contenuto/articolo/marco-taddia/quando-scuola-italiana-caccio-gli-ebrei/febbraio-2014).

A conclusione di questo articolo, in cui si è solo sfiorato il tema dei rapporti fra intellettuali e razzismo italiano, restano da capire le ragioni profonde dell’avallo che larga parte di essi diedero alle politiche del Duce. Se ne riparlerà, anche a proposito dei chimici. Purtroppo, rileggendo i discorsi di alcuni professori universitari sostenitori della Dittatura, restano pochi dubbi sul fatto che anche le menti più limpide corrano il rischio di restare obnubilate dalla retorica del potere.

Questo articolo viene pubblicato anche dal web journal   http://www.scienzainrete.it/

Per saperne di più:

  1. Israel, Pietro Nastasi, Scienza e razza nell’Italia fascista, Il Mulino, Bologna, 1998, pp. 210 e segg

http://www.osservatorioantisemitismo.it/articoli/secondo-jan-eliasson-vice-segretario-generale-dell-onu-lantisemitismo-e-in-preoccupante-aumento-in-europa/

http://rm.univr.it/didattica/strumenti/cardini/testi/03.htm

file:///C:/Users/Marco/Desktop/Le%20leggi%20razziali%20-%20Manifesto%20degli%20scienziati%20razzisti.html

http://eprints.sifp.it/25/2/Dell%27Era_Manifesto.pdf

https://www.youtube.com/watch?v=Rx5ecEP7hgw#t=268

sulla questione razze:

http://www.raiscuola.rai.it/articoli/telmo-pievani-spiega-perch%C3%A8-non-esistono-le-razze/24994/default.aspx

http://online.scuola.zanichelli.it/saracenibiologia-files/Approfondimenti/Zanichelli_Saraceni_Razze.pdf

** sulla cosiddetta Crociata dei tedeschi: http://it.wikipedia.org/wiki/Crociata_dei_tedeschi

Chimica da….. Titano!

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Guido Barone

Nei mesi scorsi l’attenzione dei media si era concentrata sull’impresa di Philae, il lander depositato dalla sonda Rosetta, vanto entrambe della tecnologia anche italiana, sulla cometa 67/P Churyumov-Gerasimenko. L’altro anno tutta l’attenzione dei media era stata a lungo attratta dal successo della missione Mars Express e dall’inizio dell’attività di ricerca della strumentazione portata in giro sulla superficie di Marte dal rover Curiosity.

All’inizio del 2015 vorremmo anche celebrare il decennale di un’altra impresa spaziale: il 14 gennaio del 2005 infatti, dopo un viaggio durato 7 anni e un miliardo e mezzo di km percorsi, la sonda Cassini, dopo aver sfiorato l’atmosfera di Giove, raggiunse il sistema di Saturno, posizionandosi in orbita intorno al satellite gigante Titano (Saturno VI) e inviando il lander Huygens sulla superficie dello stesso attraverso la sua densa atmosfera.

L’interesse per Titano (scoperto dall’olandese Huygens nel lontano 1665) si era acceso da molti anni per la presenza della densa foschia giallastra che lo avvolge, evidenziata dalle sonde Voyager che avevano sfiorato il sistema di Saturno prima di proseguire nello spazio profondo. I risultati che Huygens ha trasmesso nella sua breve vita sono stati davvero entusiasmanti per astrofisici e astrochimici: Titano, per cominciare, è l’unico altro oggetto del sistema solare, oltre alla Terra, a essere dotato di una superficie cosparsa di grandi laghi liquidi, costituiti però da idrocarburi. Ma la sorpresa maggiore venivano dalla complessa composizione della sua atmosfera che presuppone una attività chimica e fotochimica in atto di grande interesse. Tra l’altro questa chimica gettava nuova luce su tutta la tematica dell’evoluzione chimica prebiotica dell’atmosfera terrestre primordiale ipotizzata da Oparin, Haldane e altri nei primi decenni del secolo scorso. Queste ipotesi furono suffragate, a partire dal 1953, dai primi esperimenti di laboratorio di S.L. Miller, H.C. Urey e J. Orò e proseguiti e confermati anche di recente.

Titano e la sua atmosfera.

Titano è un gigante, è il secondo dei satelliti più grandi del sistema Solare: ha un diametro di 5150 km; lo si confronti con quello della Luna (3700 km) e addirittura con quello di Mercurio (4878 km). Se Titano non si fosse formato nel forte campo gravitazionale di un pianeta gigante (come i quattro satelliti “medicei” di Giove), ma in una zona del sistema solare libera da intensi campi, sarebbe stato classificato come pianeta. D’altra parte le ridotte densità e gravità di Titano rispetto a quelle di un pianeta roccioso come Mercurio hanno fatto ipotizzare che sotto l’atmosfera e la coltre di idrocarburi e sedimenti organici vi fosse (separato da uno strato di ghiaccio 1h) un oceano di acqua liquida, reso possibile dal calore endogeno. Nel 1985 inoltre Lunine e Stevenson ipotizzarono che i clatrati idrati di metano e di altri gas avessero potuto giocare un ruolo importante durante il processo di accrezione di Titano. Questi autori suggerirono che tali composti di inclusione stabilizzino tuttora l’Oceano multi-fasico esistente sotto la superficie gelata del satellite, fungendo da intercapedine con i mari e i laghi di idrocarburi (G.Barone Rend. Accad. Scienze Fisiche e Matematiche, Napoli, LXXX. 41-50, 2013 e le citazioni ivi riportate).

Il lander Huygens fu sganciato dopo la messa in orbita di Cassini e dopo 22 giorni entrò nella densa atmosfera di Titano a circa 1300 km di altezza e alla velocità di circa 20.000 km all’ora. Il paracadute pilota si aprì a circa 170 km di altezza e quello principale dopo 5 min a 155 km; dopo 30 sec fu sganciato lo scudo termico. La temperatura era discesa rapidamente a -120 °C, consentendo le prime trasmissioni radio e l’apertura di un terzo paracadute stabilizzatore. La velocità di discesa si era ridotta a 20 km/ora ed erano cominciate le trasmissioni verso Cassini (e da qui alla Terra) delle prime immagini della superficie e della foschia provocata dall’aerosol di composti azotati ad alto peso molecolare (le cosiddette Toline). Più in basso furono individuate nubi di azoto e metano. A 50 km di altezza (dopo 43 min di discesa) la temperatura era ridotta a -200 °C per risalire a circa -110 °C al suolo indicando un debole flusso di calore dall’interno del satellite. La pressione era salita a 1500 millibar (poco meno di 1,5 Atm standard).

Titan2

. Struttura interna di Titano: nello strato di esistenza del ghiaccio ad alta pressione le condizioni chimico-fisiche sarebbero favorevoli alla formazioni di idrati cristallini di metano e di altri semplici gas.

Cassini Spacecraft

Il veicolo spaziale della missione Cassini: al centro seminascosto si intravede il lander Huygens rilasciato nella atmosfera di Titano.

I dati trasmessi dal lander all’orbiter venivano decriptati e inviati alle centrali d’ascolto a Terra. Una gran varietà di molecole sono state così individuate nei vari strati dell’atmosfera (R.I. Kaiser, A.M. Mebel Chem. Soc .Rev, 41, 5490–5501, 2012, F. Raulin, C. Brassé, O. Poch, P. Coll, Chem. Soc .Rev, 41, 5380–5393, 2012): metano, etano, propano (CH3-CH2-CH3), etilene (etene: CH2=CH2), allene (CH2=C=CH2), acetilene (etino: CH≡CH), metilacetilene (CH3-C≡CH), diacetilene (CH≡C-C≡CH), benzene, HCN, HNC, cianogeno (NC-CN), cianoacetilene (HC≡C=CN), dicianodiacetilene (NC-C≡-C-C≡C-CN), tracce minori di C≡Oδ+, CO2, H2CO. Vi sono indizi anche della presenza di altre specie oligomeriche contenenti carbonio, idrogeno ed eventualmente azoto, che vanno sotto il nome complessivo di “toline”: la molteplicità di questi prodotti insaturi deriverebbe dalla reazioni di etilene o acetilene o butadiene con i radicali etinile (HC≡C• ). Ciò spiegherebbe anche la presenza di molecole come benzene, fenilacetilene e loro derivati.

Il CH4 è diffuso in tutta l’atmosfera, costituita principalmente da N2, ed è il più abbondante tra i composti organici presenti. Data la grande sovrabbondanza dell’idrogeno nel cosmo e nel sistema solare, composti come CH4, NH3, HCN sono componenti normali delle atmosfere dei quattro pianeti esterni giganti (Giove, Saturno, Urano, Nettuno). Titano ha una massa insufficiente per trattenere l’H2, che viene risucchiato da Saturno, e la sua temperatura è tale che l’acqua potrebbe esistere solo allo stato solido. Mancando lo strato di ozono e lo stesso ossigeno, l’atmosfera superiore di Titano è sottoposta all’azione della radiazione e del plasma solare e dei raggi cosmici; almeno durante tutti i periodi della sua rotazione intorno a Saturno, quando emerge periodicamente dalla magnetosfera del pianeta.

Una cascata di reazioni si possono allora innescare a partire dalla formazione del radicale CH3:

CH4 + hν → CH3+ H

CH3+ CH4 → CH3CH2 + H2

CH3CH3 + hν → CH3CH2 + H

CH3CH2+ hν → CH2= CH2 + H

CH2= CH2 + hν → CH2= CH+ H

CH2= CH+ hν → CH≡CH + H

CH≡CH + hν → CH≡C(radicale etinile) + H

Quest’ultimo radicale innesca la catena di reazioni di formazione degli idrocarburi insaturi, ricchi di doppi e tripli legami, che abbiamo visto prima.

D’altra parte la presenza dell’acido cianidrico HCN in queste atmosfere è dovuta ad una complessa sintesi a partire da CH4 e N2. L’HCN può produrre per fotoscissione il radicale ciano (C≡N ) e questo, reagendo con idrocarburi insaturi, può produrre cianoacetilene, cianoallene, nonché piridina e cianobenzene. Non solo ma reagendo a catena con altre molecole di HCN il radicale ciano C≡N può innescare per oligomerizzazione la base purinica adenina H5C5N5.

Ci si è chiesto quanto sia stabile l’attuale atmosfera di Titano? In particolare In quanto tempo tutto il metano presente sarebbe stato fotoscisso e trasformato in idrocarburi solidi o in un ammasso di carbonio elementare. Questo è stato il destino della NH3 che in milioni di anni è stata trasformata in N2. La prima risposta è stata che la presenza di grandi laghi o mari di metano ed etano avrebbero funzionato da corpo di fondo, rifornendo in continuazione l’atmosfera di CH4 gassoso. Ma una volta riusciti ad avere una stima, dai dati di Huygens e da altri raccolti successivamente dalla stessa sonda Cassini, sulla estensione e profondità dei grandi laghi di idrocarburi presenti in superficie, ci si è resi conto che la massa di metano liquido presente verrebbe consumata nel giro di alcune centinaia di milioni di anni. La seconda risposta è stata fornita dagli stessi lavori di Lunine (J.I. Lunine, D.J. Stevenson, Astrophys J., 58, 493-531, 1985): Il corpo di fondo che fornisce metano all’atmosfera di Titano sarebbe rappresentato da grandi quantità di clatrati idrati di metano solidi, presenti tra la superficie e l’oceano d’acqua sottostante profondo centinaia di chilometri e a sua volta sovrastante il ghiaccio ad alta pressione presente negli strati immediatamente più profondi del satellite. Metano gassoso verrebbe introdotto nell’atmosfera da fenomeni di criovulcanesimo: Cassini in uno dei suoi passaggi ha infatti individuato la presenza, tra gli altri, di Sotra Patera, una formazione alta oltre 1000 metri che si staglia sulla superfice de Titano. La presenza di un oceano di acqua liquida al disopra del ghiaccio ha richiesto una ulteriore ipotesi che sembra suffragata da segnali raccolti da Cassini. Infatti il calore endogeno che provoca il criovulcanesimo non può provenire dal decadimento di isotopi radioattivi presenti nel nucleo roccioso più profondo: questo infatti è troppo piccolo per aver assicurato un riscaldamento sufficiente nei miliardi di anni e inoltre la temperatura dovrebbe aumentare in profondità e non si giusticherebbe la presenza di acqua liquida al di sopra di ghiaccio solido. Il calore endogeno verrebbe invece prodotto dal riscaldamento mareale provocato dall’attrazione gravitazionale di Saturno durante il moto di Titano intorno ad esso.

Alcuni astrobiologi (ad esempio Mc Kay 2005) hanno avanzato tutta un’altra ipotesi, che cioè si posso sospettare che su Titano sia presente una forma di vita alternativa che utilizzi il metano come la vita sulla Terra utilizza l’ossigeno. Ciò sarebbe suffragato anche dalla esistenza di fasi liquide sulla superficie del satellite. Si tenga presente che i laghi e i mari di idrocarburi presenti su Titano sono poco profondi, come sarebbero state alcune pozze e lagune primordiali sulla Terra in cui avrebbero lasciato tracce fossili (le stromatoliti) i primi microoragnismi anaerobi. Non vi sono però al momento ulteriori evidenze che appoggino questa ipotesi.

La presenza di benzene e altri composti diffusi in tutta l’atmosfera del satellite suggerisce che la sede principale delle traformazioni fotochimiche è nell’alta atmosfera stessa, maggiormente esposta alle radiazioni U.V. o altre più energetiche provenienti dal Sole o dal cosmo. La formazione di idrocarburi o di composti azotati più pesanti li porterebbe a piovere verso la superficie formando quelle nubi di ‘’toline’’ e quella ‘’fanghiglia’’ di aerosol sospeso nella bassa atmosfera e responsabili della caratteristica foschia.

Accanto alla formazione di tale varietà di radicali, alcuni segnali spettroscopici hanno indotto di recente a sviluppare calcoli quanto meccanici che dimostrerebbero la presenza di cationi (HCNH+, CH5+, C3H3+ ) e di anioni (CN, NH2, C6H5) ma anche di altri ioni di massa molto più grande e più stabili presenti nelle toline.

In conclusione <l’atmosfera di Titano si sta rivelando uno dei luoghi più intrigani della chimica del cosmo> (Steve Miller ‘’La chimica del cosmo’’ ed. Dedalo 2014).

per approfondire:

http://en.wikipedia.org/wiki/Atmosphere_of_Titan

Batteri, chimica e altro (parte II)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Gianfranco Scorrano, già Presidente della SCI

la prima parte di questo post è stata pubblicata qui

Il 3 settembre 1928, al ritorno dalle vacanze estive Fleming ritrovò il cumulo di capsule petri che aveva lasciato alla partenza: ma una di queste aveva un aspetto strano. Il fungo messo a reagire aveva distrutto tutta la parte circostante di stafilococci; stranamente, altri stafilococci più lontani apparivano non toccati. Fleming crebbe la muffa in una cultura pura e notò che produceva una sostanza che uccideva un vasto numero di batteri causa di varie malattie. Identificò la muffa come appartenente al genus Penicillium e dopo un po’ assegnò alla sostanza trovata il nome di penicillina (7 marzo 1929).

batteri21

Per molti anni, purtroppo non ci fu un grande interesse per questo ritrovato. Finchè Florey, dal 1936 direttore del Sir William Dunn School of Patology a Oxford non decise di costituire una squadra di ricercatori giovani ed abili e non assunse tra gli altri Ernest B.Chain. Dopo uno studio sul lisozima, Florey e Chain affrontarono il problema della penicillina: capirne la struttura, prepararne quantità robuste per una adeguata sperimentazione, magari sintetizzarla. Tutte imprese molto ragguardevoli.

Del gruppo ci interessa in particolare, per ragioni che vedremo tra poco, Chain, il terzo della foto che

batteri22

riunisce i primi tre (assegnatari del Premio Nobel per la Fisiologia o Medicina del 1945) da sinistra: Fleming, Florey, Chain con il collaboratore Hathley.

Nato nel 1906 a Berlino ove seguì gli studi per ottenere, seguendo il padre che era un chimico industriale, la laurea in chimica dalla Università Frederich-Wilhelm (Berlino) nel 1930. Dopo aver lavorato 3 anni nell’ospedale Charite Hospital di Berlino, nel 1933 emigrò in Inghilterra, dove sperimentò i problemi dell’esule con non molte risorse. Nel 1935 fu invitato alla università di Oxford e nell’anno successivo venne nominato dimostratore e lettore di patologia chimica nella Sir William Dunn Scool of Patology. Ma di cosa si interessò in maniera specifica? Qui ci viene in aiuto il sito del premio Nobel ( http://www.nobelprize.org/ ) dove oltre alle notizie biografiche dei vincitori, sono anche riportate le Nobel lectures presentate dai medesimi a Stoccolma. Quella di Chain, datata 20 marzo 1946, è intitolata :”The chemical structure of the penicillins” un lavoro certamente da chimico descritto in qualche dettaglio nelle 44 pagine del lavoro. Si apprende così che, come atteso, l’impresa aveva coinvolto, a Oxford, un gruppo di ricercatori inglesi piccolo all’inizio (Florey, Chain, Abraham, Baker (e il non citato Hathley), allargatosi successivamente ai chimici di altre università inglesi (Robinson, per esempio) e di aziende chimiche (Glaxo, Burroughs Wellcome, Imperial Chemical Industries) oltre a circa 200 ricercatori universitari e industriali degli Stati Uniti che hanno anche contribuito al lavoro di ricerca: Chain si qualifica come il rappresentante del gruppo iniziale.

Il lavoro presentato è un puro lavoro di chimica organica destinato a risolvere il problema della struttura della molecola penicillina: con le tecniche e le conoscenze, ovviamente disponibili ai tempi degli anni 1942-46. Ad esempio, per la penicillamina, un prodotto di degradazione della penicillina, vennero proposte due strutture (giusta la prima):

batteri27

La scelta sarebbe oggi semplicissima essendo sufficiente uno spettro NMR per differenziare le due strutture (il gruppo di-metilico nel primo composto appare come singoletto, mentre nel composto di destra il gruppo etilico terminale è un tripletto-quadrupletto sdoppiati dall’accoppiamento con il CH) . Siamo però negli anni 40, l’NMR non esiste ed allora bisogna tornare ai vari metodi chimici (la difficoltà di ossidare il gruppo gem-dimetilico della formula di sinistra) e provvedere poi alla sintesi del composto per verificarne la uguaglianza con quello ottenuto per decomposizione della penicillina (lo schema di sintesi è anche descritto).

Tutta la lettura della relazione di Chain è interessante e ci fa vedere un chimico in azione in questa impresa che si conclude con la polemica sulla struttura della penicillina correttamente proposta da Chain e Abraham benché avversata da Robinson e finalmente confermata della struttura con i raggi X da parte della chimica strutturista  Dorothy Crowfoot Hodgkin. Nata nel 1910 al Cairo, a 18 anni cominciò gli studi in chimica all’Università di Oxford, proseguì con il PhD a Cambridge ritornò poi a Oxford dove nel 1936 fu nominata fellow e tutor in chimica posizioni che tenne fino al 1977. Strutturista, usò i raggi X per definire la struttura di: uno steroide (colesteril ioduro,1945) penicillina (1945, pubblicata nel 1949), vitamina B12 (1955) insulina (cominciata nel 1934, definita nel 1969). Nel 1964 le fu attribuito il premio Nobel per la chimica.

batteri24

Dorothy Crowfoot Hodgkin

Dunque la struttura della penicillina è quella di un beta lattame, mai prima trovata per un composto naturale ma che è la struttura poi capace di legarsi alla superficie dei batteri, aprendo l’anello a 4 atomi, e distruggere così le cellule batteriche.

batteri25

La penicillina entrò subito nell’uso ospedaliero per la protezione delle infezioni e servì a salvare innumerevoli vite umane; entrò anche, come capostipite dei farmaci antibiotici, nella fantasia popolare tanto che il servizio farmaceutico nazionale si è recentemente premurato di raccomandare l’uso degli antibiotici solo quando necessari, senza abusi che possono poi favorire l’insorgere nei batteri di β-lattamasi, cioè enzimi che catalizzano l’idrolisi dell’anello lattamico e quindi la distruzione dell’antibiotico.

batteri26

2014: più CO2, più caldo. Più chimica.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di C. Della Volpe

Ormai i conti sono stati fatti praticamente da tutte le organizzazioni internazionali di clima e meteorologia e il risultato è univoco: il 2014 è stato l’anno in cui la temperatura media del pianeta Terra è stata la più alta da quando si fanno le misurazioni.

In effetti occorre precisare che non c’è accordo sulla definizione di temperatura media aria-superficie (http://data.giss.nasa.gov/gistemp/abs_temp.html oppure https://www2.ucar.edu/climate/faq/what-average-global-temperature-now) e, anzi, dato che tale grandezza risulta concettualmente utile, ma concretamente difficile da usare, si preferisce usare il concetto di anomalia media della temperatura, ossia si misura la differenza di temperatura di una certa stazione rispetto ad un momento di riferimento e poi si fa la media di tali differenze fra tutte le stazioni di un certo insieme, cercando di pesare anche ogni stazione dato che la superficie terrestre non è coperta omogeneamente.

Si seguono quindi le variazioni della temperatura più che i suoi valori assoluti. Questa anomalia, questa differenza media risulta molto ben correlata anche fra stazioni meteo molto lontane.

Di solito si usa come campo dati quelli dal 1880 ad oggi e la anomalia medesima viene riferita ad una media; in concreto rispetto al valor medio del XX secolo la temperatura del 2014 è stata più alta di 0.69±0.09°C, o ancora tale è stato il valore medio della anomalia.

2014.1

Come si vede dal grafico la temperatura delle terre emerse si è incrementata notevolmente più di quella degli oceani, che stanno funzionando da termostato planetario. La temperatura delle terre emerse si è ormai incrementata di quasi un grado rispetto alla media del XX secolo, e come vedremo poi in alcuni paesi, fra cui il nostro, l’incremento medio della temperatura rispetto al XIX secolo supera perfino i 2°C.

Gli ultimi anni sono stati densi di record di aumento delle temperature medie della Terra, come si vede da quest’altro grafico in cui si riportano i valori medi annui e le medie decennali.

2014.2

Come si vede non vi è stata alcuna “stasi” dell’incremento di temperatura su periodi di tempo di questa portata, portata decennale che è a sua volta inferiore a quella necessaria per stimare le variazioni climatiche (almeno trent’anni). Durante il 2014 per la prima volta da circa 3-4 milioni di anni il valore di concentrazione della CO2 in atmosfera è stato sopra 400ppm per oltre tre mesi (dati nel cerchio rosso), e la cosa si incrementerà certamente durante l’anno in corso.

2014.3

L’importanza della CO2 dipende dal suo essere un gas serra, ossia che assorbe l’emissione infrarossa del suolo riemettendola verso di esso e rallentando il raggiungimento dello stato stazionario di temperatura del pianeta (il che ne incrementa il valor medio). L’acqua, il metano, il protossido di azoto, sono altri gas serra; ma l’anidride carbonica, a causa della sua non condensabilità, del suo tempo di permanenza in atmosfera, del suo ruolo predominante nella stratosfera (il vapor d’acqua è sostanzialmente assente sopra la troposfera) gioca un ruolo determinante.

Purtuttavia non esiste una relazione “lineare” fra la concentrazione di CO2 e la temperatura media del pianeta, in quanto il sistema climatico è un sistema complesso e retroazionato, ossia che cerca di reagire agli stimoli mantenendo l’omeostasi, la stabilità; ma come succede al nostro corpo, che è anch’esso un sistema complesso e retroazionato, quando uno dei parametri biologici sfora i valori medi , anche piccoli disturbi possono avere effetti significativi; è il motivo per cui certe sostanze possono funzionare da “veleni”, ossia alterare il funzionamento globale, anche in piccola concentrazione.

Come diceva Paracelso:

« Tutto è veleno: nulla esiste di non velenoso. Solo la dose fa in modo che il veleno non faccia effetto. »
(Paracelso, Responsio ad quasdam accusationes & calumnias suorum aemulorum et obtrectatorum. Defensio III. Descriptionis & designationis nouorum Receptorum.)

In altre parole, la medesima preziosa CO2 che fa da scheletro alla fotosintesi e da supporto all’effetto serra benefico, diventa pericolosa per il sistema climatico sopra una certa soglia.

Per questo stesso motivo di non linearità, si verificano fenomeni apparentemente contraddittori; in passato, per esempio nel secondo dopoguerra, la concentrazione di CO2 è aumentata, ma la temperatura media è addirittura diminuita a causa del ruolo del microparticolato atmosferico emesso in grande quantità da combustibili fossili troppo ricchi di zolfo. Un ruolo importante gioca attualmente l’oceano come scudo termico che si sta molto lentamente scaldando (ed acidificando) e il ciclo delle oscillazioni climatiche come El Niño, il cui effetto può rallentare l’incremento di temperatura in modo significativo.

La relazione fra CO2 e temperatura media può essere meglio visualizzato riferendosi a tempi molto lunghi; dai dati estratti dalla composizione dei gas trattenuti nelle calotte glaciali, un ingegnere aerospaziale (quindi un non-climatologo, ma molto molto attento) Bernard Etkin, morto l’anno scorso, ha estratto il seguente grafico (che si riferisce alle temperature antartiche):

2014.4

Come si vede la relazione, pur caotica e non lineare, si è mantenuta per centinaia di migliaia di anni nella nuvola a sinistra (comprese le glaciazioni più recenti); ma durante il periodo industriale si è spostata verso destra.

Potete notare una cosa; la inclinazione relativa, ossia il rapporto fra concentrazione di CO2 e temperatura si è ridotta, spostandosi verso valori maggiori di CO2; in altre parole il sistema è effettivamente un sistema retroazionato e omeostatico, cerca “disperatamente” di mantenere la stabilità termica, ma si è comunque distaccato dall’attrattore sistemico che lo ha trattenuto per centinaia di migliaia di anni, avviandosi ad esplorare territori climatici inesplorati DA QUANDO ESISTE LA SPECIE UMANA!

E questo è il punto.

Ogni anno depositiamo in atmosfera una quantità di gas serra, e in particolare di CO2 che si incrementa a causa della combustione dei combustibili fossili che rappresentano la nostra principale sorgente di energia (alcune decine miliardi di tonnellate in più all’anno). Tali combustibili d’altronde non sono eterni, si riproducono ad una velocità migliaia di volte inferiore a quella con la quale li consumiamo e dovremo giocoforza sostituirli con altre fonti.

Dato che non esiste un pianeta di riferimento, una Terra alternativa in cui fare esperimenti , l’unico modo di fare previsioni è di costruire complessi programmi numerici basati sulle nostre conoscenze più recenti e provare a vedere cosa succederebbe alla temperatura “media” se… scegliamo un certo scenario; al momento stiamo procedendo lungo lo scenario peggiore, uno scenario in cui la nostra produzione di gas serra aumenta senza tema e con esso la temperatura media.

Tuttavia qualcosa sta cambiando, almeno nella coscienza del problema. Nel primo numero di Nature del 2015 (The geographical distribution of fossil fuels unused when limiting global warming to 2 °C, Nature 517, p. 187, 2015) Christophe McGlade e Paul Ekins dello UCL scrivono:

“…these results demonstrate that a stark transformation in our understanding of fossil fuel availability is necessary. Although there have previously been fears over the scarcity of fossil fuels, in a climate-constrained world this is no longer a relevant concern: large por- tions of the reserve base and an even greater proportion of the resource base should not be produced if the temperature rise is to remain below 2 °C.”

In sostanza essi dimostrano che dobbiamo lasciare sottoterra il grosso delle riserve fossili se vogliamo mantenere l’incremento di temperatura ormai inevitabile, sotto un limite accettabile per il nostro tipo di organizzazione produttiva e sociale.

Ma dato che noi siamo una società di “libero mercato”, una società di enormi differenze di ricchezza e di reddito, in cui una piccola percentuale di popolazione possiede il grosso del patrimonio (in Italia (dati Banchitalia) il 10% della popolazione possiede il 50% della ricchezza, nel mondo nel suo complesso è ancora peggio), e le maggiori concentrazioni di ricchezza sono proprio legate alla produzione e alla gestione dell’energia, senza la quale non si può fare letteralmente nulla, tali concentrazioni di potere e di ricchezza resistono a qualunque trasformazione.

In una recente lettera interna, il governatore della banca di Inghilterra, Mark Carney, (http://www.parliament.uk/documents/commons-committees/environmental-audit/Letter-from-Mark-Carney-on-Stranded-Assets.pdf) scrive:

2014.5

In pratica la Banca di Inghilterra, teme una “bolla del carbonio”, il fatto che diventino terra sporca le proprietà di riserve fossili mondiali con effetti travolgenti sul mercato finanziario e sull’economia mondiale.

E’ un timore fondato. Storiche famiglie di investitori del petrolio come i Rockfeller hanno abbandonato il settore. E lo stesso stanno facendo molte aziende come la tedesca E-On.

Il fatto è che in molti paesi, fra cui il nostro, le condizioni climatiche sono variate perfino più velocemente che altrove e la cosa è manifesta:

Variazione in falsi colori rispetto alla media mondiale 1951-1980.

2014.6

Decennio 1880-1889

2014.7

Decennio 2000-2009

2014.8

Come si vede l’emisfero Nord si è riscaldato molto più velocemente di quello Sud; la macchia fredda dell’emisfero Sud fra l’altro è dovuta verosimilmente alla fusione dei ghiacci antartici dell’Antartide Occidentale che procede ad un ritmo inaspettato. Secondo i dati meteo locali l’Italia ha visto un incremento dalla prima metà dell’800 di quasi 2.4°C (dati ISAC-CNR)!

2014.9

E ci sono paesi come la Finlandia dove l’incremento è arrivato a 2.8°C.

Ma nonostante questo, nonostante eventi travolgenti come le recentissime improvvise piene che hanno travolto per due volte di seguito la citta di Genova, il nostro governo insiste nella liberalizzazione delle misere risorse fossili del nostro mare e del nostro entroterra e taglia invece i contributi alle energie rinnovabili, che vanno si razionalizzati, ma non eliminati e non contrasta affatto la politica di conservazione dei profitti delle vetuste industrie energetiche basate sui fossili, che hanno fatto strame dei fondi pubblici tramite per esempio il famigerato CIP6.

Il 2015 è stato scelto dall’ONU come Anno internazionale della Luce e dalla luce del Sole viene alla Terra un contributo energetico che al momento è circa 10.000 volte superiore alle nostre necessità (200 volte sul territorio italiano); queste sorgenti sono le sorgenti del futuro e nel loro sviluppo la Chimica ha un ruolo enorme da giocare.

Noi chimici dobbiamo essere all’avanguardia in tema di lotta al surriscaldamento climatico, come in tema di lotta all’inquinamento ambientale e in tema di riciclo dei materiali; sono tre temi che si saldano tra loro.

La concezione di una Chimica che inevitabilmente porta all’inquinamento, di una tecnologia ed una scienza che non sono amiche dell’ambiente devono lasciare il posto ad una Chimica che invece di fare terra bruciata, invece di lasciare, come nel nostro paese, 10.000 kmq di territorio irreversibilmente inquinato si trasformi nella tecnologia principe del riciclo dei materiali, e diventi la scienza della trasformazione intelligente e della conservazione del pianeta.

I temi della ricerca che interessano la Chimica in questo frangente sono certamente: la riduzione dei costi di produzione dei generatori fotovoltaici tramite la messa a punto di nuovi materiali e processi, la invenzione e il perfezionamento di metodi di accumulo energetico efficaci (nuovi vettori energetici, nuovi materiali, nuovi dispositivi), sviluppo di nuovi materiali per i generatori eolici (superfici antighiaccio, materiali ultra resistenti e ultra leggeri per nuovi tipi di superfici aeronautiche), riduzione dei consumi energetici nel condizionamento degli edifici e nel trasporto di merci e persone, riciclo dei materiali industriali sia inorganici che organici, incremento di efficienza dei concimi sintetici e riciclo di N, P e K di produzione animale e dai terreni; recupero dei terreni inquinati; riduzione dei consumi di acqua e suo riciclo; recupero delle dead-zone oceaniche inquinate da P e N. Sicuramente ce ne sono molte altre.

Dobbiamo costruire l’idea che la Chimica può lasciare alle sue spalle, se applicata in modo razionale ed umano, un mondo altrettanto pulito di come lo ha trovato. Chimico non è una parolaccia.

Voi che ne dite?

Batteri, chimica e altro (parte I)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Gianfranco Scorrano, già Presidente della SCI

 

“Meravigliarsi di tutto è il primo passo della ragione verso la scoperta.”   Louis Pasteur

batt11Antoni von Leuwenhoek (1632-1723) era un commerciante di tessuti, senza alcuna educazione superiore, che si dilettava a disegnare e costruire microscopi, arrivando a produrne con capacità di ingrandimento fino a 270 volte. Operava a Delft, Olanda e usava, senza commercializzarli, i suoi microscopi per esaminare qualunque sostanza. Tra queste nel 1676 inviò alla Royal Society di Londra una lettera (non pubblicò mai un lavoro o un libro scientifico ma comunicò con più di 300 lettere con la Royal Society descrivendo tutte le sue osservazioni) in cui riportava organismi mono cellulari che si muovevano in acqua, descrivendo così protozooi e batteri.
Sappiamo ora che i batteri sono microrganismi, esseri viventi piccolissimi con dimensioni nell’ordine del millesimo di millimetro. Non li possiamo vedere ad occhio nudo, ma si trovano ovunque, nel nostro corpo e in tutto l’ambiente che ci circonda; alcuni di essi vivono addirittura negli ambienti più inospitali, come i fondali oceanici o i ghiacciai. Oltre ad essere onnipresenti, i batteri sono anche le forme viventi più diffuse sulla Terra, tanto che in un solo cucchiaio di terreno se ne possono trovare fino a 10.000 miliardi.
Quando nacque Louis Pasteur (1822-1895, meno di duecento anni fa!) credenza comune, tramandata nei secoli, era che le malattie, in particolare le epidemie, derivassero da una qualche punizione divina. Pasteur, chimico, sperimentatore provetto, dimostrò che in realtà molte malattie sono provocate dai batteri e che, come tali, possono essere combattute.

batt12

Louis Pasteur

Pasteur dapprima (a 26 anni) dimostrò, esaminando l’acido tartarico al microscopio, che esistevano due forme del composto, l’una l’immagine speculare dell’altra, non sovrapponibili. Era nata la stereochimica.

A 34 anni, studiando al microscopio le miscele di fermentazione della ditta di un amico di famiglia, scoprì che la fermentazione produceva talvolta vino ma altre volte acido lattico e che in questo caso, le cellule del lievito erano accompagnate da altre cellule a forma di bastoncino: i microbi. Scoprì anche che, riscaldando brevemente il liquido prima della fermentazione, i microbi venivano completamente distrutti. Nacque così la famosa “pastorizzazione” ancora oggi in uso specialmente per i prodotti come il latte e derivati.

100px-Phenol-2D-skeletal

Fenolo

La scoperta dei batteri da parte di Pasteur attirò l’attenzione del medico inglese Joseph Lister (1827-1912), chirurgo, impressionato dal numero altissimo di decessi post operatori nel suo ospedale (50%!). Convinto che le infezioni post operatorie derivassero dalla reazione tra le ferite e i microbi nell’atmosfera, si convinse a trattare le ferite con fenolo, un prodotto chimico da poco scoperto: nel 1867 potè annunciare alla British Medical Association che il suo ospedale non aveva avuto nessun caso di sepsi negli ultimi nove mesi, essendo stati tutti i pazienti operati trattati con il fenolo! Quasi nello stesso periodo, il medico tedesco Robert Koch fu un grado di dimostrare che l’antrace era causato dall’omonimo bacillo e che erano il vibrione del colera e il microbatterio della tubercolosi causa, rispettivamente, delle due gravi malattie.

batt13

Joseph Lister

batt14

Robert Koch

Lister

batt15

Paul Ehrlich

Per suoi lavori Koch ottenne il premio Nobel per Fisiologia o Medicina nel 1905.

Con la convinta dimostrazione che i batteri potevano essere combattuti nacque e si sviluppò la lotta alle infezioni. Paul Ehrlich (premio Nobel, insieme a Ilya Ilyich Mechnikov per Fisiologia o Medicina nel 1908) fin dalla sua tesi di laurea aveva espresso il concetto, sviluppato successivamente, che va sotto il nome di “proiettile magico” (magic bullet): una sostanza che vada direttamente ad attaccare il batterio responsabile della malattia. Saggiò migliaia di composti: per esempio il 606esimo composto arsenicale che provò, chiamato salvarsan, si rivelò adatto a curare la sifilide e successivamente fu sostituito dal neosalvarsan:

batt16

La struttura del salvarsan (A) è stata recentemente rivista (B e C)

Il neosalvarsan (vedi sotto)

batt17

neosalvarsan

batt18

prontosil rosso

batt19

Gerhard Domagk

era più solubile, anche se un po’ meno efficace del predecessore, e fino all’arrivo della penicillina fu il più efficace medicinale per curare la sifilide.

In questa rapida carrellata di scienziati non possiamo dimenticare Gerhard Domagk che lavorando alla I.G.Farbenindustrie, rivolse i suoi studi alla scoperta di un mezzo per combattere lo Streptococco emolitico, un batterio associato con le infezioni alla gola, proponendo il prontosil rosso, un colorante che conteneva anche un gruppo solfonamidico aprendo così la via ai derivati sulfamidici (per il prontosil fu assegnato a Domagk il Premio Nobel per Fisiologia o Medicina nel 1939).

E’ da notare che Domagk fu sempre un dipendente industriale e che per decisione del regime nazista, irritato per l’assegnazione nel 1935 del premio Nobel per la pace a Carl von Ossietzky, un oppositore del regime, aveva impedito a tutti i tedeschi di ritirare l’eventuale premio Nobel. Infatti solo nel dopoguerra potè andare a Stoccolma, ma senza poter ritirare il premio in denaro, considerato il lungo tempo trascorso dalla nomina.

E’ da ricordare che nel 1941 ricevette a Roma la Medaglia Paternò della SCI.

Si stava però avvicinando il periodo della scoperta e dell’uso della penicillina. Ma questa è un’altra storia che racconteremo nella prossima puntata (continua).

L’Anno Internazionale della Luce. Luce, energia, fotochimica e fotofisica (parte II)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

la prima parte di questo post è comparsa qui

L’intero articolo è comparso in inglese su  EPA Newsletter, December  2014, 11-23.

a cura di Vincenzo Balzani (Dip. di Chimica “Giacomo Ciamician” Università di Bologna)

Fotochimica e fotofisica

In natura avvengono molti processi chimici e fisici generati dalla luce o capaci di generare luce. La vita dipende dalla fotosintesi, un processo chimico molto complesso che ha inizio con l’assorbimento della luce solare da parte di particolari molecole presenti nelle piante. Le più importanti informazioni sullo spazio che ci sta attorno le otteniamo mediante processi fotochimici e fotofisici che avvengono nei nostri occhi.

Reazioni fotochimiche artificiali sono state osservate e descritte prima ancora che la chimica diventasse una scienza. La maggior parte di queste reazioni, tuttavia, erano eventi accidentali e rimasero senza spiegazione. La fotochimica è uscita dallo stadio di scienza empirica quando la fisica moderna ha stabilito che la luce può essere vista come un fascio di fotoni e che l’assorbimento di luce corrisponde alla cattura di un fotone da parte di un atomo o una molecola, che passa così dallo stato elettronico fondamentale ad uno stato elettronico eccitato.

Dopo la Prima Guerra Mondiale, la fotochimica fu sviluppata particolarmente dai chimico-fisici che erano interessati all’assorbimento di luce e alla successiva fotolisi di piccole molecole allo stato gassoso. Il concetto di competizione fra processi fotochimici (nei quali uno stato eccitato è coinvolto in una reazione) e fotofisici (che disattivano lo stato eccitato in modo radiativo, luminescenza, o non-radiativo) ha poi fatto strada rapidamente e fra il 1930 e il 1950 lo sviluppo della teoria degli orbitali molecolari ha permesso l’interpretazione degli spettri di assorbimento elettronico delle molecole organiche e la razionalizzazione dei risultati ottenuti per serie omogenee di tali composti [4,5]. Pochi anni dopo, erano già disponibili anche i concetti fondamentali per interpretare gli spettri di assorbimento dei complessi metallici. Dal 1960, incominciarono ad essere gettate le basi per interpretare la reattività degli stati elettronici eccitati e per mettere in relazione struttura elettronica, reattività fotochimica e luminescenza, prima per molecole organiche [6-8] e poi per i complessi metallici [9]. A partire dal 1970, divenne sempre più evidente che la fotochimica (termine che comunemente include anche la fotofisica) è una nuova dimensione della chimica [9-14], perché non riguarda lo stato fondamentale delle molecole (che è quello coinvolto nelle reazioni chimiche “normali”), ma gli stati elettronici eccitati che, a tutti gli effetti, sono specie chimiche diverse dallo stato fondamentale (Figura 2). Negli stessi anni, un forte miglioramento delle tecniche spettroscopiche e fotochimiche (flash photolysis) e lo sviluppo di metodi computazionali incominciò a fornire notizie dirette sulle proprietà degli stati eccitati a più bassa energia di parecchie classi di molecole.

 luce2

Figura 2. Gli stati elettronici eccitati sono specie chimiche diverse dallo stato elettronico fondamentale

Verso il 1990, si incominciarono a studiare specie supramolecolari [15] e la fotochimica incominciò a giocare un ruolo sempre più importante sia nella chimica organica [16-18] che nella chimica dei composti di coordinazione [18]. In pochi anni, la fotochimica creò numerose applicazioni (ad esempio, sintesi chimiche mirate, analisi ambientale) e pose le basi a nuovi campi di ricerca di grande interesse, come quello delle macchine molecolari azionate dalla luce [19] (Figura 3) e di dispositivi molecolari capaci di elaborare informazioni sotto forma di segnali luminosi (fotonica molecolare) [20].

Negli anni più recenti, un forte sviluppo delle tecniche per produrre ed usare fasci di luce (laser, single photon techniques, ecc.) ha permesso di studiare processi fotochimici che avvengono a livello di singole molecole e in tempi brevi fino al limite del principio di indeterminazione [21, 22]

 luce3

Figura 3. Schema di una pompa molecolare azionata dalla luce. L’assorbimento di luce causa la traslazione unidirezionale di una molecola ad anello attraverso una molecola lineare [19b].

 

La letteratura scientifica corrente mostra che le frontiere della fotochimica continuano a dilatarsi mediante lo sviluppo di nuove molecole, nuovi materiali e nuovi processi. La luce è usata in molti laboratori chimici come un potente “reagente” per formare sostanze non ottenibili con reazioni termiche [23], mentre in altri laboratori processi fotochimici sempre più sofisticati sono utilizzati per esplorare la possibilità di giungere ad inattese applicazioni [18-25].

Stiamo avviandoci verso un futuro dove energia ed informazione saranno due caratteristici aspetti della civiltà. Saremo costretti ad utilizzare la luce solare come nostra definitiva sorgente di energia, convertendola in forme utili di energia (calore, elettricità, combustibili) mediante processi fotochimici e fotofisici [26]. Continueremo a miniaturizzare, fino al livello molecolare, dispositivi per le tecnologie dell’informazione e della comunicazione e useremo sempre più frequentemente segnali luminosi per trasferire, immagazzinare, leggere ed elaborare informazioni [18-22, 24, 25] (Figura 4). Non c’è dubbio, dunque, che fotochimica e fotofisica giocheranno un ruolo sempre più importante nello sviluppo della scienza e della tecnologia.

 luce4

Figura 4. Uso di molecole intelligenti per elaborare segnali luminosi (e anche di altra natura) per processi informatici.

Il ruolo dello scienziato in un mondo fragile e complesso

Qual’è il ruolo dei fotochimici, e più in generale degli scienziati, nel mondo d’oggi? Quali sono i loro doveri? Cosa si aspetta da loro la società? [27] Non siamo più nei vecchi tempi, quando la scienza poteva essere sviluppata per divertimento e gli scienziati potevano vivere in torri d’avorio. Parecchi anni fa Hannah Arendt [28] osservava che “La realtà ha la sconcertante abitudine di metterci di fronte all’inatteso, per cui non siamo preparati”. Ciò è ancor più vero oggi perché la complessità del mondo aumenta anno dopo anno. Un esempio molto semplice dell’aumento della complessità ce lo offre la chimica: venticinque anni fa, i prodotti contenuti in un tipico appartamento dipendevano da meno di 20 elementi della Tavola Periodica; oggi, lo smart phone che abbiamo in tasca contiene più di 60 elementi diversi [29]. La complessità è anche la caratteristica principale dei problemi che dobbiamo risolvere.

Diversi scienziati sottolineano che lo sviluppo della scienza aumenta la fragilità del nostro mondo. Nel libro Our last hour Martin Rees [30] ha scritto che le probabilità che la nostra civiltà sopravviva fino alla fine di questo secolo non superano il 50% a causa di un cattivo uso della scienza o un incauto utilizzo dei più recenti sviluppi della tecnologia. Anche altri studiosi mettono in guardia sugli sviluppi della scienza: “There is not much time to decide what we should do and what we should not do” [31]. Più in generale, gli scienziati sono preoccupati per il consumo, sempre in aumento, delle risorse naturali [32], i cambiamenti climatici [33], la crisi energetica [26] e la degradazione dell’ambiente [34-36]. Alcuni hanno recentemente sottolineato che il nostro pianeta non può sopportare una crescita senza limiti [26, 34-37]) e che dovremmo considerare le restrizioni ecologiche non come un ostacolo, ma come una fonte di sicurezza economica nel lungo termine [38].

Finora, l’umanità si è appropriata di enormi quantità di risorse della Terra [39]. E’ giunto il momento di rovesciare questo andamento [40]. Dobbiamo riuscire a creare nuove risorse. La fotochimica e la fotofisica possono aiutarci, permettendoci di sfruttare l’energia solare. Il fatto che il processo fotovoltaico, inventato dall’uomo, converta l’energia solare in energia utile con efficienza più di cento volte superiore alla fotosintesi naturale [41] testimonia che questo è possibile. Partendo dall’acqua del mare e dai componenti fondamentali dell’atmosfera (azoto, ossigeno, diossido di carbonio), utilizzando la luce solare dovremo produrre non solo elettricità, ma anche combustibili, acqua potabile, polimeri, cibo e le altre risorse di cui abbiamo bisogno [42] (Figura 5). Forse le generazioni future arricchiranno la Terra con un capitale generato dalla capacità dell’uomo di usare l’unica, abbondantissima, inesauribile e ben distribuita risorsa su cui possiamo far conto: l’energia solare.

 luce5

Figura 5. Con l’aiuto di foto sensibilizzatori e catalizzatori, l’utilizzo dell’energia solare permetterà all’uomo di convertire sostanze abbondanti e a basso contenuto energetico in prodotti ad alto valore aggiunto.

 Riferimenti.

 

[4] E. J. Bowen, The Chemical Aspects of Light, Clarendon Press, Oxford, 1946.

[5] H. H. Jaffé, M. Orchin, Theory and Applications of Ultraviolet Spectroscopy, Wiley, New York, 1962.

[6] N. J. Turro, Molecular Photochemistry, Benjamin, New York, 1965.

[7] J. G. Calvert, J. N. Pitts Jr., Photochemistry, Wiley, New York, 1966.

[8] C. A. Parker, Photoluminescence of Solutions, Elsevier, Amsterdam, 1968

[9] V. Balzani, V. Carassiti, Photochemistry of Coordination Compounds, Academic Press, London, 1970.

[10] J. P. Simons, Photochemistry and Spectroscopy, Wiley-Interscience, London, 1971.

[11] G.B. Porter, V. Balzani, L. Moggi, “Primary processes and energy transfer: consistent terms and definitions”, Adv . Photochem., 9, 147–196, 1974.

[12] J. A. Barltrop, J. D. Coyle, Principles of Photochemistry, Wiley, Chichester, 1975.

[13] P. Suppan, Chemistry and Light, The Royal Society of Chemistry, Cambridge, 1994.

[14] C. E. Wayne, R. P. Wayne, Photochemistry, Oxford University Press, Oxford, 1996.

[15] V. Balzani, F. Scandola, Supramolecular Photochemistry, Horwood, New York, 1991.

[16] P. Klán, J. Wirz, J., Photochemistry of Organic Compounds: From Concepts to Practice, Wiley, Chichester, 2009.

[17] N. J. Turro, V. Ramamurthy, J. C. Scaiano, Modern Molecular Photochemistry of Organic Molecules, University Science Books, Sausalito, 2010.

[18] V. Balzani, P. Ceroni, A. Juris: Photochemistry and Photophysics: Concepts, Research, Applications, Wiley-VCH, 2014.

[19] (a) V. Balzani, A. Credi, M. Venturi, Molecular Devices and Machines: Concepts and Perspectives for the Nanoworld, 2nd ed., Wiley-VCH, Weinheim, 2008; (b) G. Ragazzon, M. Baroncini, S. Silvi, M. Venturi, A. Credi, Nat. Nanotech., in press, DOI: 10.1038/nnano.2014.260

[20] A. P. De Silva, Molecular Logic-Based Computation, RSC Publishing, Cambridge, 2013.

[21] See, for example: T. Fukaminato, T. Doi, N. Tamaoki, K. Okuno, Y. Ishibashi, H. Miyasaka, M. Irie, “Single-molecule fluorescence photoswitching of a diarylethene-perylenebisimide dyad: non-destructive fluorescence readout”, J. Am. Chem. Soc., 133, 4984–90, 2011.

[22] L. Möckl, D. C. Lamb, C. Bräuchle, Super-resolved Fluorescence Microscopy: Nobel Prize in Chemistry 2014 for Eric Betzig, Stefan Hell, and William E. Moerner, Angew. Chem. Int. Ed., 2014, doi: 10.1002/anie.201410265.

[23] (a) C. K. Prier, D. A. Rankic, D. W. C. MacMillan, “Visible Light Photoredox Catalysis with Transition Metal Complexes: Applications in Organic Synthesis”, Chem. Rev. 113, 5322−5363, 2013; (b) D. M. Schultz, T. P. Yoon, “Solar Synthesis: Prospects in Visible Light Photocatalysis”, Science 343, 2014. doi: 10.1126/science.1239176.

[24] B. Feringa, W.R. Browne, (eds), Molecular Switches, 2nd ed., Wiley-VCH, Weinheim, 2011.

[25] J. Zhang, Q. Zou, H. Tian, “Photochromic materials: more than meets the eye”, Adv. Mat., 25, 378-379, 2013.

[26] N. Armaroli, V. Balzani, Energy for a Sustainable World, Wiley-VCH, 2011.

[27] V. Balzani, “The role of science and scientists in a complex and fragile world”, Toxicological & Environmental Chemistry, 2014, DOI:10.1080/02772248.2014.984716

[28] H. Arendt, Crises of the Republic, Houghton Mifflin Harcourt, Boston, 1972.

[29] R. G. Eggert, “Minerals go critical”, Nature Chemistry, 3, 688, 2011.

[30] M. J. Rees, Our Final Hour, Basic Books, New York, 2003.

[31] S. Greenfield, Tomorrow’s People, Pinguin Books, 2003.

[32] U. Bardi, Extracted: How the Quest for Mineral Wealth is Plundering the Planet, Chelsea Green, 2014.

[33] Climate Change 2013: The Physical Science Basis, http://www.ipcc.ch/report/ar5/wg1/; Climate Change 2014: Impacts, Adaptation, and Vulnerability http://www.ipcc.ch/report/ar5/wg2/

[34] E. O. Wilson, The Creation: An appeal to save life on Earth, Norton, New York, 2006.

[35] L. R. Brown, World on the Edge: How to Prevent Environmental and Economic Collapse, Norton, New York, 2011.

[36] P. R. Ehrlich, A. H. Ehrlich, “Can a collapse of global civilization be avoided?” Proc. R. Soc. B, 280, 20122845, 2013

[37] B. McKibben,. EAARTH: Making a Life on a Tough New Planet, Henry Holt, New York, 2011.

[38] T. Prince, The Logic of Sufficiency, MIT Press, Cambridge (MA), 2005.

[39] F. Krausmann, K.-H. Erb, S. Gingrich, H. Haberl, A. Bondeau, V. Gaube, C. Lauk, C. Plutzar, T. D. Searchinger, “Global human appropriation of net primary production doubled in the 20th century”. Proc. Natl. Acad. Sci., 110, 10324–10329, 2013.

[40] L. Roberts, R. Stone, A. Sugden, A., “The rise of restoration ecology”, Science, 325, 555, 2009.

[41] V. Balzani, Sapere, giugno 2014, 16-21

[42] H. B. Gray, “Powering the planet with solar fuel”. Nat. Chem., 1, 7, 2009.

La prima parte di questo articolo è stata pubblicata qui.

Dove è sepolto il corpo di Antoine Lavoisier ?

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Roberto Poeti**

La Francia ha sempre onorato i suoi cittadini che sono stati grandi nelle scienze, nelle arti , nonché nella politica e nella guerra .

Ha tributato loro i massimi onori e dedicato un tempio, il Pantheon, dove sono sepolti . Troviamo nelle sue cripte le tombe dei coniugi Curie, Lagrange, Voltaire, Rousseau e di tante altre decine e decine di illustri personaggi. La tomba di Pasteur si trova in un maestoso mausoleo all’interno dell’Istituto Pasteur.

Ma la tomba di uno dei più grandi scienziati che la Francia onora non si trova né al Pantheon né in nessun altro mausoleo . Dove sono allora i resti mortali di Antoine Lavoisier?

Prima di dare una risposta è necessario che ci  introduciamo nel sottosuolo parigino .

immagini1

A. Dumas, Le Mohicans de Paris, 1863, Cospirazioni nelle catacombe.

Fino dall’età romana , dal  sottosuolo dove ora sorge Parigi , veniva estratta la pietra calcarea, che forniva materiale utilizzato nell’ edilizia. L’estrazione durò fino alla metà dell’ottocento. Mano a mano che la città si espandeva la rete di gallerie e grotte , prodotte dall’attività estrattiva, che veniva a trovarsi sotto la città, cessava di essere sfruttata ed era poi abbandonata. Si stima che la lunghezza di questa rete di tunnel, che si estende principalmente su sette dei venti dipartimenti della città, raggiunga più di cento chilometri. La maggior parte di queste gallerie non è più accessibile, ampi tratti sono stati riempiti per garantire stabilità alla città che vi stava sorgendo sopra. E’ rimasta una piccola parte ancora agibile , si estende per circa due chilometri , ad una profondità di venti metri . Vi si accede da un ingresso posto al margine della Piazza Denfert Rochereau nel quartiere di Montparnasse .

Si scende nelle gallerie attraverso una stretta e ripida scalinata. Si presenta al visitatore una scena impressionante e di grande impatto emotivo. Ai lati delle gallerie, per novecento metri , sono ammassate cataste di ossa umane dietro pareti fatte di ossa sovrapposte in modo ordinato da costituire una facciata decorativa. Si stima che le ossa siano i resti di circa sei milioni di persone. Ma da dove provengono? I numerosi cimiteri costruiti durante i secoli a ridosso delle chiese entro i limiti della città, a causa della intensa crescita urbana, non erano più in grado di espandersi. Venne deciso di utilizzare nel dodicesimo secolo un ampio terreno posto vicino al futuro quartiere di Le Halle, dove le sepolture avvenivano in fosse comuni, destinate soprattutto alle persone indigenti. Il cimitero prese il nome di Cimitero degli Innocenti, dalla chiesa che sorgeva nelle vicinanze. La pratica delle sepolture di massa si estese anche ad altri cimiteri.

Il cimitero fu usato fino alla fine del diciottesimo secolo, divenendo uno  dei più grandi cimiteri di Parigi. Le condizioni igieniche erano divenute talmente gravi che le autorità decisero, soprattutto in seguito alle proteste della popolazione, la sua chiusura, la riesumazione dei corpi e lo spostamento delle ossa nel luogo che venne individuato per accoglierle, proprio le vecchie cave della zona di Montparnasse, che da allora vennero chiamate “Le Catacombe“. Il trasporto dei resti iniziò nell’aprile del 1786 e continuò fino al 1788. Tutte le sere, al calare della notte, le ossa, trasportate su carri, venivano accompagnate in processione all’ossario. Si riprese poi fino al 1814 a trasportare le ossa da tutti i cimiteri parrocchiali e degli ospedali della città fino alle catacombe a seguito delle norme emanate dal governo sulla inumazione dei morti che vietavano le sepolture in luoghi situati entro le mura cittadine e accanto alle chiese.

Deorum Manium jura sancta sunto
Duodecim tabulae

      All’ombra de’ cipressi e dentro l’urne
confortate di pianto è forse il sonno
della morte men duro?

Con l’avvento della Rivoluzione furono necessari nuovi spazi che accogliessero le spoglie di coloro che erano stati processati dal tribunale straordinario e giustiziati tramite ghigliottina . Il cimitero degli Errancis (gli storpi ) venne costruito per questo scopo. Esso accolse i corpi di 1119 persone, vittime del terrore tra l’anno 1794 e l’anno 1795 . Vennero sepolti in fosse comuni.

Lavoisier fu giustiziato l’8 maggio 1794 e trasportato lo stesso giorno al cimitero degli Errancis. Due giorni dopo veniva giustiziata la sorella del re e gettata nella stessa grande fossa. Ma, per ironia del destino, si vennero a trovare vicini, nello stesso fossato, i corpi delle vittime e dei carnefici. Così nella stesso luogo venne portato il corpo di Maximilien de Robespierre, giustiziato due mesi dopo, il 28 luglio. Aveva preceduto quest’ultimo, di pochi mesi un altro protagonista del periodo del terrore, Georges Danton, giustiziato il 30 maggio 1794 e poi anch’egli trasportato nel cimitero degli Errancis . Subì la stessa sorte il grande  accusatore del Tribunale rivoluzionario Antoine-Quentin Fouquier-Tinville che aveva richiesto e ottenuto, nei diciassette mesi che occupò la carica, la morte di duemila persone, tra queste vi era Lavoisier. Dopo che venne emessa contro di lui la condanna a morte, Lavoisier chiese a Fouquier una proroga per permettergli di terminare un esperimento che aveva in corso. Gli fu risposto:« La repubblica non ha bisogno né di scienziati né di chimici, il corso della giustizia non può essere sospeso»*. Fouquier fu giustiziato il 6 maggio 1795 e il suo corpo gettato nella stessa fossa delle sue vittime . Il cimitero di Errancis venne chiuso quattro anni dopo la sua apertura, nel 1797. Il terreno su cui era sorto si trovava proprio a ridosso delle mura che la Ferme Générale ( una compagnia di finanzieri incaricata dal re della riscossione delle imposte), aveva fatto costruire dal 1784 al 1791. Le mura erano lunghe ventiquattro chilometri e circondavano completamente Parigi. Consentivano alla Ferme di controllare i beni che entravano in città e garantirsi la riscossione delle imposte. Questi balzelli furono molto impopolari, la ferme veniva vista come una istituzione dell’Ancien Régime , si diceva in versi “Ce mur murant Paris rend Paris murmurant “, che si traduce “Questo muro cinge Parigi e rende Parigi mormorante“. Sarà questo odio del popolo verso la Ferme e il suo muro la causa della condanna a morte di Lavoisier. Venne giustiziato insieme a ventotto Fermiers généraux. Pur essendo stato un amministratore onesto e rigoroso della Ferme, sarà condannato per il ruolo di Fermier généreau che aveva rivestito. Finito il periodo del Terrore, il cimitero aveva terminato la sua funzione. Per quasi cinquanta anni rimase abbandonato. Finché le ossa dal cimitero non vennero traslocate tra il 1844 e il 1859 nelle Catacombe. Il terreno, su cui era situato il cimitero, doveva essere usato per costruirvi il Boulevard de Courcelles . Finisce qui il viaggio delle spoglie di Lavoisier. I suoi resti si trovano in questo immenso ossario   “Le Catacombe”.

Nella presentazione in PDF , all’indirizzo seguente , troverete una documentazione per immagini della storia che ho raccontato in questo articolo .

http://www.robertopoetichimica.it/images/allegati/Lavoisier-ilsepolcro/lavoisier.pdf

*https://it.wikisource.org/w/index.php?title=Pagina:Chi_l%27ha_detto.djvu/572&action=edit

Chi_l'ha_detto.djvu

 **Roberto Poeti, Chimico di Firenze ha anche studiato medicina all’Università di Siena ed è stato per quattro anni responsabile del laboratorio di chimica ambientale presso una industria aretina. Ha poi insegnato Chimica nella scuola media superiore. Attualmente cura un sito di storia e didattica della chimica:   www.robertopoetichimica.it

L’Anno Internazionale della Luce. Luce, energia, fotochimica e fotofisica (parte I)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

Questo articolo è comparso in inglese su  EPA Newsletter, December  2014, 11-23.

a cura di Vincenzo Balzani (Dip. di Chimica “Giacomo Ciamician” Università di Bologna)

 

 e Dio disse, “Sia la luce” e la luce fu.

E Dio vide che la luce era cosa buona”

(Genesi, 1, 3-4)

Cos’é la luce?

IYL_Logo_ColorVertQuasi tutte le persone danno per scontato il fatto che ci sia la luce. Non si chiedono mai: “cos’é la luce?” Se lo fanno, capiscono subito che non è possibile definire questa onnipresente entità in modo semplice e conciso. Lo stesso accade nel caso di altre entità fondamentali, come il tempo. Sant’Agostino diceva: “Cos’è il tempo? Se nessuno me lo chiede, lo so; ma se lo devo spiegare a chi me lo chiede, non lo so più”.

La luce è una “cosa” veramente straordinaria. La spiegazione più comune, la luce è energia, non ci permette di capirne meglio l’essenza perché anche l’energia è un’entità misteriosa. In una famosa conferenza, il premio Nobel Richard Feynman disse: “E’ importante rendersi conto che oggi, in fisica, non sappiamo cosa sia l’energia” [1]. L’equivalenza fra energia, E, e massa, m, stabilita dalla famosa equazione di Einstein E = mc2, aggiunge un’ulteriore aura di mistero alla natura della luce.

Il culto reso alla luce dai popoli primitivi mostra quale fondamentale significato le sia stato attribuito fin dall’inizio della storia dell’uomo. La Bibbia racconta che la luce fu la prima cosa creata da Dio: “…e Dio disse, “Sia la luce” e la luce fu. E Dio vide che la luce era cosa buona” (Genesi, 1, 3-4). Nell’Antico Testamento la luce è considerata un attributo di Dio. Nel Nuovo Testamento “luce” è presente 72 volte, di cui 33 negli scritti dell’apostolo Giovanni. In Matteo 17,5 la nube luminosa è il segno della presenza di Dio. Nel vangelo di Giovanni, Gesù Cristo è “la vera luce che illumina ogni uomo” (Gv 1, 9) e Gesù stesso dice “Io sono la luce del mondo” (Gv 8, 12). Nella prima lettera, Giovanni afferma che “Dio è luce; in Lui non ci sono tenebre” (1 Gv 1, 5).

Le attuali teorie della fisica sono basate sull’accadimento di una misteriosa, gigantesca esplosione (Big Bang) che diede origine a luce, spazio, tempo e materia. Queste quattro fondamentali entità dell’Universo e la quinta, la più importante, la vita, sono interconnesse e non possono essere ridotte a, o definite per mezzo di qualcosa di più semplice. Da molti secoli, però, l’uomo ha fatto ipotesi e ricerche per capire la natura della luce, questo straordinario fenomeno che illumina il mondo e che permette la vita sulla Terra..

Breve storia delle teorie sulla luce

Col passare del tempo, le nostre idee sulla luce sono cambiate profondamente. Le prime teorie sulla natura della luce furono proposte dagli antichi filosofi greci. La luce era considerata un “raggio” che si muove in linea retta da un punto ad un altro. Secondo Pitagora, il fenomeno della visione è dovuto a raggi di luce che escono dagli occhi di una persona e colpiscono un oggetto. Epicuro, invece, la pensava in modo opposto: sono gli oggetti che emettono raggi di luce, che poi viaggiano fino all’occhio. Altri filosofi greci, ad esempio Euclide, illustrarono con diagrammi il “rimbalzo” della luce quando incontra una superficie liscia e il cambiamento di direzione quando passa da un mezzo trasparente ad un altro.

L’ottica geometrica, con l’uso di specchi, lenti e prismi, fu sviluppata molto più tardi da studiosi arabi. Fra questi, Ibn al-Haytham, che visse nell’odierna Iraq fra il 965 e il 1039, è considerato il padre dell’ottica e dell’oftalmologia. Descrisse la visione come un processo dovuto a raggi di luce che rimbalzano da un oggetto all’occhio e identificò i componenti dell’occhio coinvolti nel processo.

Nel 1690, il matematico, astronomo e fisico olandese Christiaan Huygens  (1629-1695) pubblicò il Traité de la Lumière, che è considerato il documento fondativo della teoria ondulatoria della luce. In questa teoria, Huygens assunse l’esistenza di un mezzo invisibile (luminiferous aether, poi chiamato semplicemente etere) che riempie tutto lo spazio “vuoto” fra gli oggetti. La luce si forma quando un corpo luminoso causa una serie di onde o vibrazioni nell’etere. Queste onde poi avanzano finché non incontrano un oggetto. Se questo oggetto è l’occhio, le onde stimolano la visione.

Nel 1704, invece, Isaac Newton giunse alla conclusione che la natura geometrica della riflessione e della rifrazione della luce possono essere spiegate solo se la luce è costituita da corpuscoli.

Se la luce era un fascio di “corpuscoli”, le domande a cui bisognava rispondere erano: che tipo di corpuscoli? di quale materia? di quali dimensioni? di che forma? E se la luce era “onda”, bisognava capire che tipo di onda fosse. Un’onda del mare non è una “cosa”, è una proprietà dell’acqua, un fenomeno generato dall’acqua. Se non c’è acqua, non c’è onda. Quindi, se la luce era un onda, che “cosa” ondeggiava? Queste erano le domande alle quali i fisici cercavano di rispondere. E prima che arrivassero risposte adeguate, si capì che in realtà la luce doveva essere descritta sia come corpuscolo che come onda. Ma come poteva esserlo? Era il primo di molti paradossi che cominciarono a mettere in dubbio il nostro modo di capire come funziona l’Universo , basato sul senso comune.

La teoria corpuscolare di Newton rimase in auge per più di 100 anni. Quando si sperimentò che non riusciva a spiegare in modo soddisfacente fenomeni come l’interferenza e la polarizzazione della luce, la teoria corpuscolare fu abbandonata e si tornò alla teoria ondulatoria di Huygens. Nel 1847 Michael Faraday suggerì che la luce fosse una vibrazione elettromagnetica di alta frequenza capace di propagarsi anche in assenza di un mezzo come l’ipotizzato etere. Il suo lavoro ispirò James C. Maxwell che scoprì che le onde elettromagnetiche che si propagano nello spazio viaggiano a velocità costante e uguale a quella, già in precedenza misurata, della luce. Dedusse quindi che la luce è una forma di radiazione elettromagnetica (1862) e fornì poi (A Treatise on Electricity and Magnetism, 1873) le descrizioni matematiche, tutt’ora note come equazioni di Maxwell, del comportamento dei campi elettrici e magnetici

Nel 1900 Max Planck, nel tentativo di spiegare la radiazione del corpo nero, suggerì che la luce, pur avendo un carattere ondulatorio, potesse acquistare o perdere energia solo in quantità definite, collegate alla frequenza dell’onda. Planck chiamò queste quantità “pacchetti” o “quanti” di energia luminosa. Nel 1905, Albert Einstein fece uso dell’idea dei quanti di luce, poi chiamati “fotoni”, per spiegare l’effetto fotoelettrico.

Il concetto di fotone permise alla fotochimica di uscire dal suo stadio di scienza empirica. Quando fu chiaro che l’assorbimento di luce corrisponde alla cattura di un fotone da parte di una molecola, Johannes Stark e Albert Einstein fra il 1908 e il 1913 formularono indipendentemente la legge detta della foto equivalenza*, oggi descritta nel primo capitolo di ogni libro di fotochimica.

Concetti fondamentali

Numerosissimi esperimenti eseguiti negli ultimi cento anni hanno dimostrato, al di là di ogni ragionevole dubbio, che la luce ha realmente una duplice natura. In molti casi conviene considerarla in una forma corpuscolare, cioè costituita da pacchetti discreti di energia (fotoni). La proprietà fondamentale di un fotone è la sua energia, E. In altri casi, è necessario considerare la luce come un fenomeno elettromagnetico ondulatorio, caratterizzato dalla sua lunghezza d’onda, λ, frequenza ν, e velocità c. Queste tre quantità sono collegate dall’equazione

λν= c

Il valore di c è costante (2.998 x 108 m s-1 nel vuoto), mentre λ (e ν) possono coprire un ampio intervallo di valori (spettro elettromagnetico).

Le due nature, corpuscolare e ondulatoria, della luce sono collegate da una semplice relazione fra energia di un fotone e frequenza corrispondente di quel fotone:

E = hν

dove h è la costante di Planck (6.63 x 10-34 Js). Le due equazioni sopra riportate permettono di convertire le lunghezze d’onda (o le frequenze) dei fotoni nelle loro energie e viceversa.

Le proprietà ondulatorie della luce (λ e ν) possono essere misurate, cosa che fa della luce un segnale molto utile. Allo stesso tempo, la luce è energia. Quindi la luce può essere definita come un modo (molto veloce!) di trasferire segnali (informazioni) ed energia attraverso lo spazio. Le proprietà informatiche e energetiche della luce sono usate in modo esteso sia in Natura che nella scienza. La Natura ha fatto uso della luce per creare le prime forme di vita sul nostro pianeta, per guidare l’evoluzione e per far sì che le specie viventi possano riconoscersi e possano monitorare l’ambiente. L’uomo dal canto suo ha utilizzato le proprietà della luce per una grande varietà di scopi e di applicazioni.

Luce e materia

Il Big Bang ha generato un’enorme quantità di energia che, con l’espandersi e il raffreddarsi dell’Universo, ha dato origine alla materia. La conversione di energia in materia è rimasto un fenomeno misterioso fino all’inizio del secolo sorso, quando Einstein, con la sua famosa equazione E = mc2, mostrò che energia e materia sono forme differenti della stessa cosa. In fisica, l’ equivalenza massa-energia comporta che la massa di un oggetto o di un sistema è una misura del suo contenuto energetico. Per esempio, aggiungendo 25 kWh (90 MJ) di qualsiasi forma di energia a qualsiasi oggetto, la massa dell’oggetto aumenta di 1 μg (un milionesimo di grammo). Durante l’espansione dell’Universo enormi quantità di energia sono state convertite in materia. L’opposto accade nelle esplosioni nucleari. Nell’ambito della US Strategic Defense Initiative (1983), si studiò la possibilità di usare laser a raggi-X alimentati da esplosioni nucleari per applicazioni militari.

Ogni volta che un atomo o una molecola emettono un fotone, una quantità molto piccola (non misurabile!) di massa viene convertita in una quantità misurabile di energia. L’opposto accade quando un fotone viene assorbito.

La luce oggi

La luce gioca un ruolo fondamentale nella nostra vita di ogni giorno e oggi è alla base di tutte le discipline scientifiche. L’uso della luce ha rivoluzionato la medicina, ha facilitato enormemente le comunicazioni per mezzo di Internet e continua ad essere il collante che tiene assieme gli aspetti culturali, economici e politici della società globale. L’importanza della luce va anche ben al di là della vita sulla Terra: grazie a scoperte scientifiche e progressi tecnologici, la luce ci aiuta a vedere e a capire meglio l’immenso Universo di cui facciamo parte.

La luce ci fornisce protezione e sicurezza, rende possibile molte attività dell’uomo fra le quali la trasmissione della conoscenza e l’istruzione, aumenta la qualità della vita. Nei paesi sviluppati consideriamo la luce come cosa dovuta e ci rendiamo conto del suo valore solo quando viene a mancare. Per più di 1,5 miliardi di persone del mondo, però, notte significa ancora buio o la debole fiamma di una candela; una situazione che ha drammatiche conseguenze sulla qualità della vita.

Mentre l’elettrificazione ha creato e re-inventato un gran numero di industrie, le lampade a incandescenza sono state per lungo tempo immuni a questi cambiamenti. Si è dovuta attendere l’invenzione di LED capaci di emettere luce bianca per scalzare la lampada ad incandescenza, icona della elettrificazione. La straordinarietà di questi cambiamento è stata riconosciuta col conferimento del premio Nobel 2014 agli scienziati Isamu Akasaki, Hiroshi Amano, e Shuji Nakamura per i loro studi sui LED [2] (Figura 1a).

 luce1

Figura 1. Applicazioni della fotonica: (a) Light Emiting Diode (LED, un dispositivo che converte l’elettricità in luce con alto rendimento; (b) fibre ottiche: una tecnologia che usa fili di vetro o di plastica per la trasmissione di informazioni; (c) dispositivo molecolare basato sull’assorbimento ed emissione di luce per elaborare informazioni.

Con il termine fotonica si intende quella parte della scienza e della tecnologia che studia e utilizza la luce. Oggi la fotonica è dappertutto: nell’elettronica di consumo (scanner di codici a barre, apparecchi per DVD, controllo TV remoto), nelle telecomunicazioni (Internet), in medicina (chirurgia oculare, strumenti di uso medico), nell’industria manifatturiera (laser per tagliare e forgiare i materiali), negli apparati di difesa e sicurezza (camere fotografiche sensibili a luce infrarossa, monitoraggio a distanza), nell’intrattenimento (olografia, luci laser), ecc. Le fibre ottiche (Figura 1b) permettono l’uso della luce per trasmettere grandi quantità di informazioni e di esplorare zone altrimenti irraggiungibili all’interno del nostro corpo. Per il 21mo secolo la fotonica sarà ancor più importante di quanto non lo sia stato l’elettronica per il 20mo secolo. La fotonica molecolare (Figura 1c), una branca emergente della fotochimica e della fotofisica [3] rimpiazzerà l’elettronica molecolare in molte applicazioni. (continua)

 

Riferimenti

[1] J. Gleick, Genius: The Life and Science of Richard Feynman, Pantheon Books, New York, 1992.

[2] P. Von Dollen, S. Pimputkar, and J. S. Speck, “Let there be light – with gallium nitride: the 2014 Nobel Prize in Physics”, Angew. Chem. Int. Ed., 53, 2-5, 2014. doi: 10.1002/anie.201410693.

[3] V. Balzani, A. Credi, M. Venturi: “Processing Energy and Signals by Molecular and Supramolecular Species”, Chem. Eur. J., 14, 26-39, 2008.

La seconda ed ultima parte di questo articolo uscirà venerdì prossimo.

* si veda http://it.wikipedia.org/wiki/Legge_di_Stark-Einstein