Esiste una chimica della materia oscura? (parte 2)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Claudio Della Volpe

(la prima parte di questo post è qui)

La letteratura precorre spesso la Scienza. In effetti fu John Milton ad usare per primo il termine di “materia oscura”; nel 1667  ne il “Paradiso perduto” :

« In questo abisso selvaggio,
Il grembo della natura e forse la sua tomba,
Né di mare, né terra, né aria, né fuoco,
Ma tutti questi al concepimento mischiati
Confusamente, e quindi sempre in conflitto,
Finché il creatore onnipotente ordini loro
Da queste oscure materie di creare altri mondi,
In questo abisso selvaggio il cauto demonio
Sta ai margini dell’inferno e intanto osserva,
Ponderando la sua traversata… »

La frase “queste oscure materie” viene ripresa nel romanzo fantasy dall’omonimo titolo, (His dark materials) scritto da Philip Pullman; in una Terra che assomiglia molto alla nostra, ma dominata da una dittatura teocratica, la fisica viene trattata come una teologia sperimentale; la “polvere”, ossia una gran massa di particelle aliene penetra nel mondo del romanzo provenendo da mondi paralleli fra cui il nostro, e queste particelle sono il vero protagonista. Esse rendono certe persone capaci di avere idee originali che mettono in crisi il potere. Ma costituiscono anche il tramite della consapevolezza, e alla fine si scoprirà che sono connesse con le “anime” dei morti.

oscura21

Il romanzo ha avuto un certo successo ed è stato anche trasformato in un film (La bussola d’Oro); il suo titolo in effetti richiama sapientemente l’idea di materia oscura che si era venuta sviluppando dai lavori della Fisica ed esprime tutto il fascino che questa scoperta provoca in noi.

Esistono altri romanzi di FS che hanno affrontato un tema analogo: La fisica del Karma (The Karma affair, Darsen Arnay, 1978), in cui le anime degli uomini sono i neutrini; nel libro si affronta il problema di chi potrà gestire i depositi di materiale radioatttivo generati dall’uso del nucleare e si conclude che solo un ordine religioso ha la possibilità di durare tanto tempo quanto serve; la teoria è che dopo la morte i neutrini tenderebbero a reincarnarsi in altri esseri viventi più e più volte. (E i neutrini sono fra l’altro effettivamente dei non-barioni come vedremo, quindi molto diversi dalla materia comune).

Nella saga letteraria dello scrittore di fantascienza italiano Valerio Evangelisti dedicata a Nicolas Eymerich, è descritta la presenza di una forma di particelle sconosciuta, dette psitroni. Tali entità sarebbero in grado di interagire con la mente umana e viceversa, rendendo difficile la misurazione del mondo subatomico, fornendo così una spiegazione fantasiosa al principio di indeterminazione di Heisenberg.

Ma, se queste sono alcune delle idee fantasiose sulla materia oscura, nella realtà di cosa è fatta effettivamente la materia oscura?

Abbiamo visto nella prima parte che non può essere costituita in modo predominante da materia comune, da quelle che i fisici chiamano particelle barioniche, ossia tutta la materia che conosciamo normalmente, costituita essenzialmente di protoni, neutroni ed elettroni (che a rigore non sono barioni), mentre col nome di materia non barionica si indica tutta quella materia (ad es. i neutrini) che non è composta da barioni: in particolare la cosiddetta materia oscura è quasi sicuramente una forma di materia non-barionica.

Attenzione: per capire bene questa cosa dobbiamo penetrare un territorio per noi chimici selvatico, ma abitato da quegli strani esseri pensanti che sono i fisici teorici, plasmatori di interi universi con foglio e matita e che hanno gentilmente aperto la strada alla Chimica già una volta, con la MQ.

I fisici teorici vedono il mondo diversamente da un Chimico; per noi l’Universo è fatto essenzialmente di materia e di luce e la materia è classificata nel Sistema periodico; per loro è fatta di un vuoto “quantistico” che non è vuoto affatto e che crea in continuazione un bestiario di particelle strane (e delle corrispondenti anti-particelle), che hanno una loro chimica ed una loro struttura, descritta dall’equivalente del Sistema periodico, una costruzione altrettanto meravigliosa, il cosiddetto Modello standard. Il Modello standard non prevede di per se la materia oscura (anche se ne prevede di fatto alcuni potenziali costituenti) e quindi le scoperte di Zwicky e di Rubin mettono in crisi anche il mondo dei fisici teorici, come riducono il nostro, di cui siamo andati orgogliosamente fieri fino a ieri, a un “misero” 4% dell’Universo.

oscura22

Nella tabella che precede l’equivalente del sistema periodico per i fisici teorici: ad ogni colore corrisponde una classe di sub-particelle che poi potranno o meno combinarsi tra di loro per dare le comuni particelle della chimica e del resto della fisica.

I barioni sono le particelle elementari costituite da tre quarks; i quarks sono oggetti veramente strani perché non esistono da soli, non potete separarli senza distruggere tutto; i mesoni sono fatti da due quarks (uno dei quali anti-); gli elettroni non sono né barioni né mesoni, ma leptoni come i neutrini ma a differenza di questi ultimi interagiscono fortemente con gli altri grazie alla forza di Coulomb; tutte le particelle fatte di quarks sono soggette anche alla forza nucleare forte (che tiene insieme il nucleo dell’atomo nonostante le cariche elettriche dei protoni) e si chiamano adroni.

Adroni === barioni (tre quarks) e mesoni(due quarks)

Non si conoscono al momento particelle fatte da più di tre quarks. In quest’altro schema vediamo come sono correlate le varie classi di sub-particelle e come interagiscono.

oscura23

A destra e sinistra i leptoni e i quarks, gli attori base che “interagiscono” scambiandosi particelle denominate bosoni, fotoni e gluoni. Quando interagiscono cosituiscono il bestiario delle particelle più comuni che conosciamo, fra cui protoni e neutroni e sui cui è basato (anche) il mondo del 4%, ossia il mondo della Chimica.

C’è una ulteriore complicazione; questa rappresentazione delle cose non mostra le antiparticelle, che sono eguali alla particelle già indicate ma hanno una carica elettrica opposta; dell’antimateria, di cui sono state prodotte recentemente piccole quantità in laboratorio (qualche migliaio di atomi di antiidrogeno, nucleo di antiprotoni e una nuvola di positroni, che sono stati immobiizzati in una speciale trappola per un quarto d’ora (http://www.scientificamerican.com/article/antiatoms-alpha-1000-seconds/)) si sa poco, c’è perfino il dubbio che possa essere respinta piuttosto che attratta dalla forza di gravità; ma rimane che non può essere responsabile della materia oscura; la materia oscura coesiste tranquillamente con la materia normale, mentre l’antimateria reagisce violementemente con essa producendo energia radiante, raggi gamma e questo avviene continuamente attorno a noi; dai satelliti si vede che nell’atmosfera terrestre si producono lampi di radiazione gamma che verosimilmente provengono dagli intensi campi elettrici presenti nelle tempeste che possono funzionare come giganteschi acceleratori naturali e produrre anche antiparticelle, che poi si annichilano con la materia ordinaria.

Quindi l’antimateria è esclusa, non può essere lei la materia oscura, troppo diversa e presente in troppo poca quantità; il che fra l’altro è un ulteriore mistero in quanto secondo le teorie del Big Bang la materia e l’antimateria sono state prodotte in uguale quantità all’epoca del Big Bang e quindi che fine ha fatto l’antimateria? Mistero.*

Torniamo ai barioni. I barioni più comuni sono appunto i costituenti del nucleo, protoni e neutroni, la cui massa dell’ordine di una unità di massa atomica. I fisici, seguendo il suggerimento di Einstein tengono conto che la massa della particelle è equivalente ad una certa quantità di energia; la equazione più famosa di Einstein:

E=mc2

può essere usata per misurare la massa delle particelle nella loro energia equivalente; la massa di una particella sarà quindi espressa in unità di Energia/il quadrato della velocità della luce, m=E/c2;

dato che la velocità della luce è una costante universale, ci si può ridurre a considerare la massa come se fosse espressa in unità di energia (anche se in realtà l’unità da considerare è energia/velocità2).

La unità di misura tipica dell’energia delle particelle è l’elettronvolt, che corrisponde all’energia accumulata in un elettrone, la cui carica e massa sono a loro volta costanti, quando sottoposto ad un potenziale elettrico di 1V; dato che come ricordato la volta scorsa un potenziale è una energia diviso una carica abbiamo=

1 eV= 1V x 1.602176565 x 10-19C =

1J/1 C x 1.602176565 x 10-19C = 1.602176565 x 10-19J per l’energia in Joules di un elettrone di 1eV ed una mole di elettroni di 1 eV corrisponderà ad una energia di 6.023 x 1023 x 1.602176565 x 10-19C, quindi 96485.33 J.

Questo numero (senza unità di misura) “magico” è anche il rapporto fra un Faraday ed un Coulomb.

Su questa nuova scala un protone o un neutrone hanno una massa rispettivamente di 938.28 e di 939.565   MeV/c2 abbreviato MeV (1 MeV=1 milione di eV)mentre nella unità tradizionale del chimico (unità di massa atomica, uma) le due masse sarebbero di 1.007 e 1.008. L’elettrone ha una massa di soli 0.510 MeV, circa 1/2000 di uma.

Esistono particelle elementari molto pesanti; il famoso bosone di Higgs, recentemente scoperto, ha una massa di quasi 126 GeV (1GeV=1 miliardo di eV), pari a 135 uma, quindi da sola pesa fra un atomo di Cesio ed uno di Bario o quasi quanto una molecola di benzene!

Invece un neutrino, che è un non-barione che conosciamo bene, prodotto nelle reazioni nucleari nel Sole, pesa solo 0.05 eV; questa massa è così piccola (circa 10 milioni di volte inferiore a quella dell’elettrone) che non riuscirebbe a risolvere il problema della massa mancante nelle galassie.

E quindi esistono altre particelle che costituiscono la materia oscura.

Per accettare la nuova venuta però il Sistema periodico e il Modello standard devono fare i conti con una nuova costruzione ancora più gigantesca e grandiosa, la Supersimmetria.

Per capire di cosa stiamo parlando occorre ritornare alle tabelle del Modello Standard e operare una nuova classificazione: i leptoni e i quark sono anche fermioni.

In pratica la proprietà di obbedire o meno al principio di esclusione di Pauli (cosa che dipende dallo spin, dal momento magnetico intrinseco, se sia intero o semi-intero) si traduce matematicamente nel fatto che i bosoni seguono la statistica di Bose-Einstein mentre i fermioni la statistica di Fermi-Dirac.

Per i non chimici questo vuol dire che i bosoni si comportano come un branco di pecore, tendono ad essere tutti eguali ad andare tutti insieme, mentre i fermioni devono essere tutti diversi, e si comportano invece come le persone che entrano a sedersi in uno scompartimento di treno e si siedono ciascuna lontana dall’altra.

Le conseguenze più tecnicamente sono che bosoni e fermioni presentano proprietà diverse di simmetria sotto lo scambio di due particelle: un sistema composto di particelle identiche della classe bosonica si trova sempre in uno stato globale completamente simmetrico sotto lo scambio di due particelle, mentre un sistema composto di fermioni identici, al contrario, si trova sempre in uno stato anti-simmetrico sotto lo scambio di due fermioni. La funzione d’onda totale di un sistema costituito da fermioni identici è perciò completamente antisimmetrica e cambia segno sotto lo scambio di due fermioni qualsiasi.

Bene, la SuperSimmetria o SuSy è una teoria di simmetria secondo la quale ad ogni fermione e ad ogni bosone corrispondono rispettivamente un bosone e un fermione di uguale massa e quindi al modello standard SuSy sostituisce un panorama raddoppiato:

oscura24

In pratica il panorama dell’Universo apparirebbe un po’ come nel seguente:

oscura25

 

Particelle oscure con una massa pari a quella di grossi atomi e pesanti molecole potrebbero essere con voi nella vostra stanza o perfino dentro di voi.

Dice la pagina del CERN (http://home.web.cern.ch/about/physics/dark-matter):

“Dark matter candidates arise frequently in theories that suggest physics beyond the Standard Model, such as supersymmetry and extra dimensions. One theory suggests the existence of a “Hidden Valley”, a parallel world made of dark matter having very little in common with matter we know. If one of these theories proved to be true, it could help scientists gain a better understanding of the composition of our universe and, in particular, how galaxies hold together.”

Uno dei candidati più accreditati per questo scopo è il cosiddetto neutralino, una particella non- barionica particolarmente stabile in cui tutte le altre ricadrebbero, di massa pari a circa 10-100 GeV, quindi fra la massa del Boro e quella del Rutenio. Tale particella non è stata ancora individuata, ma potrebbe esserlo presto. Questa particella avrebbe una sezione di interazione con la materia ordinaria e quindi potrebbe “reagire” sia pur debolmente con essa; una interazione che non avverrebbe attraverso le forze cui siamo abituati ma attraverso la cosiddetta “forza debole”, che è comunque una delle 4 interazioni fondamentali, insieme con gravità, elettricità, forza “forte”, quella che tiene insieme i nucleoni del nucleo atomico.

Secondo la SuSy esistono altre particelle analoghe e capaci di interagire, sia pur debolmente, anche fra di loro; tutte sono collettivamente chiamate WIMP, ossia Weakly Interacting Massive Particles; se tale interazione esiste allora esisterà una “chimica” di queste particelle della materia non barionica che comunque sono ampiamente agglomerate nelle galassie ordinarie e quindi anche nella nostra galassia.

Formeranno esse dei composti o rimangono sempre isolate o invece associate solo dalla forza di gravità? In realtà non lo sappiamo ancora, esistono solo ipotesi a riguardo, ma teniamoci pronti, perché potremmo essere costretti a ricominciare daccapo e a scoprirne il comportamento quanto prima.

Più informazioni qui (http://cdms.berkeley.edu/posters/edu-poster.jpg) o qui http://home.web.cern.ch/about/physics/dark-matter

http://www.lnf.infn.it/edu/stagelnf/2012/delduca_sm2012.pdf

(continua)

*************************************************************************************************

*L’antimateria è il risultato della simmetria dell’Universo; se si invertisse la carica, la chiralità e il tempo si avrebbe un Universo indistinguibile dall’originale (la cosiddetta simmetria CPT). Questo in realtà è la proprietà che corrisponde allo scorrere indietro nel tempo dell’antimateria.

Esiste una chimica della materia oscura?(parte 1)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Claudio Della Volpe

 Nel prossimo mese di marzo 2015 il Large Hadron Collider, LHC, il più grande dispositivo sperimentale del mondo si rimetterà in funzione dopo una pausa di due anni in cui è stato aggiornato per lavorare ad energie più elevate; si spera che ci dia nuovi risultati come ci ha consentito di scoprire il bosone di Higgs; potrebbero questi nuovi risultati cambiare o estendere anche la Chimica? Probabilmente si.

Tutti i chimici e tutti coloro che studiano chimica sono familiari con la tabella del sistema periodico; da quella tabella si parte per introdurre gli elementi basilari della meccanica quantistica (MQ) e delle proprietà atomiche.

oscura11

Tuttavia questa concezione della Natura (la MQ) è molto più ampia e pervasiva di quanto si immagini e soprattutto è stata poi ampliata e approfondita da successive osservazioni, provenienti da campi diversi.

Il chimico ha una immagine dell’Universo diviso fra luce e materia e vivificato dalla loro interazione. Ma la visione moderna dell’Universo, che si va facendo strada è un pò diversa da questa e prevede altre due componenti fortemente innovative rispetto al panorama tradizionale, che sono la cosiddetta materia oscura e la cosiddetta energia oscura.

Sono due entità non ancora ben definite, ma che secondo i più recenti risultati costituiscono la gran parte degli oggetti dell’universo (http://science.nasa.gov/astrophysics/focus-areas/what-is-dark-energy/).

oscura12

La cosidetta energia oscura sembra essere una componente che su grandissima scala impone una specie di repulsione universale al tessuto dello spazio tempo, qualcosa che giustifica addirittura una “accelerazione” della espansione dell’Universo, ormai ampiamente entrata nell’immaginario collettivo. Già Einstein aveva introdotto nelle sue equazioni un termine che aveva il medesimo effetto, ma adesso sappiamo che la espansione come noi la misuriamo sta addirittura accelerando, o almeno lo sta facendo da circa 7.5 miliardi di anni (http://www.nobelprize.org/nobel_prizes/physics/laureates/2011/press.html) che è circa metà dell’età dell’Universo.

Mentre la energia oscura appare alquanto esotica rispetto alla chimica e probabilmente (non si sa mai!) non ha con essa un rapporto diretto, la materia oscura è veramente intrigante per un chimico; dato che sembra essa rappresenti oltre l’80% della materia dell’universo c’è da chiedersi se questa materia porterà o meno ad una nuova chimica; questa è la domanda che si pone questo post.

Anzitutto come si è arrivati alla conclusione che esiste una materia “oscura” e cosa vuol dire in questo contesto l’aggettivo “oscura”?

 oscura13

La cosa nasce al principio del 900 con le osservazioni astronomiche di Fritz Zwicky; Zwicky, di origine bulgara, studiò in Svizzera all’ETH, lo stesso di Einstein, ma si trasferì quasi subito in USA al Caltech, dove il suo primo lavoro fu sulle caratteristiche chimico-fisiche dei cristalli, quindi un lavoro di Chimica; l’autore faceva notare che la resistenza a frattura di un cristallo è di molto inferiore a quella calcolabile teoricamente a causa dell’esistenza di difetti, una idea già proposta da Griffith pochissimi anni prima (Physics:F, 15, 253-259 (1929)).

Ma tutta la sua vita fu poi dedicata all’astronomia dove mietè un incredibile numero di successi contribuendo a costruire la moderna immagine dell’Universo. Grazie ai soldi della famiglia di sua moglie, contribuì alla costruzione del telescopio di Monte Palomar, per molti anni il maggiore del mondo. Fra l’altro notò per primo (1933, Helvetica physica acta, vol. 6, p. 110 trad. Inglese qui: http://spiff.rit.edu/classes/phys440/lectures/gal_clus/zwicky_1933_en.pdf) che alcune caratteristiche dinamiche dell’universo, in particolare della dinamica delle galassie apparentemente non rispettavano le leggi della meccanica ed in particolare una regola molto importante denominata Teorema del viriale.

oscura14

L’ammasso galattico della Chioma, visibile in direzione della costellazione della Chioma di Berenice, è alla base della proposta di Zwicky dell’esistenza della materia oscura. Si osserva nella direzione del Polo Nord galattico, a oltre 300 milioni di anni luce da noi.

Il teorema del viriale è un teorema avanzato di meccanica che anche i chimici conoscono, perchè viene usato nell’analisi del comportamento del gas ideale. In linea generale il Teorema (dimostrato da Clausius, RJE (1870). “On a Mechanical Theorem Applicable to Heat”. Philosophical Magazine, Ser. 4 40: 122–127 mentre lavorava sulla teoria cinetica dei gas) afferma che se la forza fra due particelle di un sistema risulta da una interazione di potenziale V(r) = αr n, che è proporzionale a una qualche potenza ennesima della distanza fra le particelle, allora vale

2 x Energia Cinetica Media = n x Energia potenziale media.

Ora si da il caso che ci siano due potenziali importanti dove n=-1, ossia le cui forze corrispondenti dipendono dall’inverso del quadrato della distanza: quello gravitazionale e quello coulombiano (fra particelle cariche elettricamente).

Il potenziale, detto per qualche non-chimico che passi da questa pagina, è uguale al lavoro necessario a trasportare l’elemento di prova (una massa o una carica) dall’infinito fino al punto che ci interessa diviso l’elemento stesso (quindi ha le dimensioni di un’energia/una carica o una massa); se il lettore ricorda la semplice forza di interazione (gravitazionale o) coulombiana, essa prende la forma:

F= k((q xq1)/r2)

Per ottenere il lavoro occorrerà moltiplicarla per una distanza e per ottenere il potenziale dividerla per la carica (o per la massa) e quindi rimarrà una cosa del tipo:

V=k(q/r)

Ecco perchè il -1.

Se n=-1 il teorema del viriale acquista la familiare forma:

                       Energia cinetica = ½ x Energia potenziale

Quando si parla di gas ideale il teorema del viriale ritorna; infatti (si veda per esempio qua http://www2.pv.infn.it/~icarus/Pavia/Rinaldo/cinetica.pdf) in un gas ideale si può dimostrare che il contributo al viriale degli urti fra molecole (le uniche interazioni ammesse nel gas ideale) è nullo mentre quello degli urti contro le pareti no; ne discende la equazione di Kroenig-Clausius, grazie alla quale si può dimostrare che l’energia cinetica media delle molecole di un gas ideale e ́ proporzionale alla temperatura assoluta.

Per le stelle la emissione luminosa è collegabile alla massa; le stelle brillano grazie ad una reazione nucleare che è tanto più veloce quanto maggiore è la loro massa; esiste quindi una relazione fra la luminosità delle stelle e la loro temperatura e da questa si può estrarre mediante modelli fisici della stella la sua massa (la relazione temperatura-luminosità è conosciuta come diagramma H-R o di Hertzsprung-Russell),

oscura15

per cui in soldoni dalla luminosità si deduce la massa; conoscendo la massa e la velocità si calcola l’energia cinetica; ma la massa è anche alla base del calcolo del potenziale gravitazionale e quindi dell’altro termine della equazione del viriale.

Zwicky si aspettava che la relazione del viriale valesse, ma trovò un disavanzo di parecchi ordini di grandezza (400 volte) fra la massa stimata dalla luminosità e quella stimata dalla dinamica; in pratica c’era quindi una componente di massa che non si vedeva o come la chiamò lui una dunkle Materie o ‘dark matter‘, materia oscura, che non si vedeva, ma aveva effetti gravitazionali. In realtà Zwicky era molto attento: fece altre 3 ipotesi: che le stelle si comportassero diversamente nell’ammasso della Chioma rispetto a quelle della nostra galassia, che l’ammasso non fosse in equilibrio meccanico, che le leggi della fisica fossero diverse.

Dati più precisi hanno esteso la validità delle osservazioni a tutti gli ammassi di galassie, ridotto il disavanzo e altri lavori hanno escluso le altre tre ipotesi; al momento l’unica ipotesi che regge è che il caso della Chioma (e degli altri ammassi) dipenda dalla massa che non si vede, oscura, quindi.

oscura16

Dopo Zwicky il lavoro fu proseguito da un’altra personalità degna di menzione, una donna, Vera Rubin, la prima donna a cui fu affidato l’uso del telescopio di 5 metri; quando da ragazza provò ad iscriversi a Princeton le risposero che non accettavano ragazze nel programma di astronomia (una politica che durò fino al 1970!!). Senza scomporsi Vera provò a Cornell dove studiò fisica con Philip Morrison, Richard Feynman e Hans Bethe. Prese poi un Ph.D. a Georgetown con Gamow. Vera era una ricercatrice originale, come Zwicky. Già prima di laurearsi aveva concluso che le galassie di un gruppo non si muovevano a caso ma ruotavano attorno ad un centro comune; durante il suo PhD concluse che il moto delle galasie è turbolento una conclusione che supportava l’idea del Big-Bang. In seguito con il collega Ford analizzò la luce delle stelle delle singole galassie, usando il fenomeno dell’effetto Doppler, la variazione di frequenza di una emissione ondulatoria (suono o luce) emessa da un oggetto in movimento, un metodo per calcolare la velocità di rotazione delle stelle nelle galassie.

oscura19

L’effetto Doppler è un fenomeno comune che tutti noi sperimentiamo quando udiamo una autoambulanza che si avvicina e si allontana; mentre si avvicina la sirena è più acuta mentre quando si allontana è più grave; in modo equivalente se ci avviciniamo ad una sorgente acustica in auto la sua frequenza ci appare più acuta di quando ce ne allontaniamo. L’effetto Doppler funziona altrettanto bene con la radiazione luminosa ed è stato usato per rivelare l’espansione dell’Universo.

(http://www.physics.utah.edu/~jui/3375/Class%20Materials%20Files/y2007m09d26/Vera%20Cooper%20Rubin.pdf)

Vera qui trovò un effetto inaspettato, simile a quello trovato da Zwicky; le velocità di rotazione delle stelle nelle galassie erano così alte che se quello che le vincolava era la semplice attrazione dovuta alla massa delle stelle visibili allora le stelle avrebbero dovuto volar via da tempo!

In pratica anche questo risultato confermava l’idea di Zwicky; c’era massa oscura in TUTTE le galassie conosciute!

Ovviamente tale massa oscura avrebbe potuto essere costituita semplicemente da stelle morte, esaurite, troppo deboli per emettere luce visibile a grande distanza, buchi neri o altri oggetti esotici dello spazio profondo. E ancora oggi non possiamo escludere che una parte significativa della materia oscura sia semplicemente materia ordinaria ma presente in stelle troppo deboli.

Tuttavia c’è un limite importante a questo tipo di materia oscura; ed è costituito dal fatto che la teoria del BigBang, la teoria della formazione dell’Universo che oggi sembra la più accreditata, contiene una parte che modella con successo le quantità relative degli elementi e quindi la loro abbondanza; la tavola periodica di fatto corrisponde anche ad abbondanze cosmiche legate alle caratteristiche dei nuclei atomici che sono previste con successo e con precisione. In particolare, stelle molto in avanti nella loro vita hanno una composizione di elementi completamente diversa da quella di stelle giovani con grande abbondanza di elementi più pesanti e con riduzione di quegli elementi leggeri della tavola periodica che invece si sono formati in maggiore abbondanza; dato che le abbondanze corrispondono a quelle che vediamo nell’Universo “visibile” se quello oscuro fosse costituito con abbondanze diverse sarebbe in contraddizione con la teoria della nucleosintesi del Big Bang. Ne segue che una parte abbondante e maggioritaria della materia oscura deve essere costituita di cose diverse.

La materia oscura non potrebbe nemmeno essere fatta di antimateria, per il buon motivo che l’antimateria se a contatto con la materia ordinaria si annichila con essa producendo enormi quantità di energia; l’antimateria a differenza della materia oscura interagisce fortemente con la radiazione.

oscura17

Estimated abundances of the chemical elements in the Solar system. Hydrogen and helium are most common, from the Big Bang. The next three elements (Li, Be, B) are rare because they are poorly synthesized in the Big Bang and also in stars. The two general trends in the remaining stellar-produced elements are: (1) an alternation of abundance in elements as they have even or odd atomic numbers (the Oddo-Harkins rule), and (2) a general decrease in abundance, as elements become heavier. Iron is especially common because it represents the minimum energy nuclide that can be made by fusion of helium in supernovae.

oscura18

Già ma allora di cosa è fatta la materia “oscura”? (continua)

La Scuola di Specializzazione, REACH, ECHA.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Gianfranco Scorrano, già Presidente SCI

Nei primi mesi di quest’anno sono stati annunciate due scuole di Specializzazione in Valutazione e Gestione del Rischio Chimico (VGRG): dal titolo si capisce solo in parte il contenuto ma niente della loro storia che è quella delle prime scuole di specializzazione promosse dai chimici e dalla Società Chimica Italiana.

Nel dicembre 2006 il Parlamento europeo e il Consiglio hanno approvato il regolamento “REACH” (acronimo di “Registration, Evaluation, Authorisation and restriction of CHemicals“), che prevede la registrazione di tutte le sostanze chimiche prodotte o importate nell’Unione europea in quantità maggiori di una tonnellata per anno, nonché l’istituzione dell’Agenzia europea per le sostanze chimiche (ECHA, localizzata a Helsinki).

echa2 echa1

Il regolamento REACH si prefigge, tra l’altro, i seguenti obiettivi: 1) migliorare la conoscenza dei pericoli e dei rischi derivanti da prodotti chimici in modo da assicurare un elevato livello di protezione della salute umana e dell’ambiente; 2) promuovere lo sviluppo di metodi alternativi a quelli che richiedono l’utilizzo di animali vertebrati per la valutazione dei pericoli delle sostanze; 3) mantenere e rafforzare la competitività e le capacità innovative dell’industria chimica dell’UE. I fabbricanti o gli importatori hanno l’obbligo di registrare i prodotti, in particolare quelli commercializzati per 1 tonnellata o più, presentando all’ECHA alcune informazioni di base sulle sue caratteristiche e, in mancanza di dati disponibili, con l’esecuzione di test sperimentali per caratterizzare le relative proprietà fisico-chimiche, tossicologiche e ambientali. Sulla base di tali dati l’ECHA valuta se i rischi di ciascuna sostanza per la salute umana e l’ambiente siano adeguatamente controllati. In questo caso l’ECHA da la sua autorizzazione ovvero classifica le sostanze “estremamente preoccupanti”, come le sostanze Cancerogene, Mutagene e tossiche per la Riproduzione (CMR), le sostanze Persistenti, Bioaccumulabili e Tossiche (PBT), le sostanze molto Persistenti e molto Bioaccumulabili (vPvB) e gli Interferenti Endocrini (IE) il cui uso è ristretto o vietato.

L’ECHA promuove anche le attività volte a garantire la sostituzione delle sostanze estremamente preoccupanti con sostanze o tecnologie meno pericolose.

Subito dopo l’entrata in vigore del REACH abbiamo cominciato ad interessarci come Società Chimica Italiana di appoggiare le iniziative che stavano nascendo da varie parti per poter fornire ai laureati chimici quelle informazioni che non sempre venivano dai corsi di laurea, in particolare rilevanti per il regolamento REACH. E’ stata una utile coincidenza avere come Presidente della SCI Luigi Campanella, da sempre interessato a queste problematiche. Creò una commissione nel 2008 che si allargò subito dopo l’incontro con il dott. Pietro Pistolese, chimico del Ministero della Sanità, nominato come rappresentante Italiano nel Member State Committee dell’ECHA, il quale ricordava il grave disagio delle aziende italiane, non solo chimiche ma anche fruitrici di prodotti chimici nel momento in cui dovranno attivarsi per giustificare di fronte al REACH l’uso di prodotti chimici pure necessari per le loro produzioni.echa3

Una attenta riflessione, ripassando tutti i corsi di laurea approvati dal CUN nei miei circa nove anni di rappresentanza dei chimici in quell’organismo, ci condusse facilmente a pensare che i corsi di chimica non fornivano quelle conoscenze tossicologiche e legali necessarie per operare con successo nell’ambito delle normative REACH, e spesso erano anche carenti dal lato ambientale. Era necessario inventarsi un corso post-laurea. L’esame di quanto era presente nelle Università italiane mostrò che erano partiti alcuni corsi master espressamente dedicati al REACH: per esempio a Padova-Venezia, ma anche a Napoli, Pavia e Genova. I corsi master sono “liberi” nel senso che non vengono modellati su schemi approvati dal ministero, ma lasciati alla libera iniziativa delle università e, per questo, privi di un valore legale. Diversa era la situazione delle Scuole di specializzazione: però non esisteva nessuna scuola di specializzazione chimica e sembrava difficile riuscire in tempi brevi a farne approvare una.

Decidemmo allora di optare per un master approvato dal ministero e procedemmo a studiare una bozza “Master in REACH” che fu trasmessa (nell’ottobre del 2009) al ministero dalla Società Chimica Italiana perché venisse inviata al Consiglio Nazionale Universitario(CUN) per essere approvato. Purtroppo, i rapporti interministeriali tra il Ministero della Salute (dr. Pistolese) e il Ministero dell’Università, MIUR) (Dr.ssa Teresa Cuomo, Dirigente Ufficio IX) furono piuttosto competitivi, credo per ragioni di competenza.

Si cercò di aggiustare la situazione ottenendo, dopo avere avuto l’approvazione del CUN (5-11-2009), con l’aiuto del nostro rappresentante allora prof. Ettore Novellino, anche l’approvazione del Consiglio Superiore di Sanità (4-5-2010) e finalmente la firma dei due ministri Mariastella Gelmini (MIUR) e Ferruccio Fazio (Salute) il 16 giugno 2010.

Nel frattempo erano apparse alcune scuole di specializzazione non mediche e, d’altra parte, si era visto che nei master, il tempo di insegnamento era limitato per fare un corso veramente di specializzazione. Ancora, era diventato anche più pesante la difficoltà che vedevano molti chimici, che operavano nelle ASL, Arpa, INAIL e altre comunità statali e regionali, che non riuscivano a raggiungere posizioni dirigenziali per la mancanza del requisito richiesto di essere in possesso di una Specializzazione.

Ripartimmo così con l’idea della Scuola di Specializzazione, ancora appoggiati dal nuovo presidente SCI, Prof. Vincenzo Barone, con l’aiuto della stessa commissione e di quella creata nel Ministero Sanità, preparammo una bozza di Scuola di specializzazione che venne ampiamente discussa e in particolare ebbe problemi alla Sanità, che desiderava forse seguire una strada come quella seguita per il master, ma di cui il MIUR non voleva sentire parlare, essendo le scuole di specializzazione di competenza, esclusivamente, del MIUR. Passò del tempo. Ma infine il CUN approvò (13-4-2012) la Scuola di Specializzazione in “Valutazione e Gestione del Rischio Chimico” e il relativo DM del 19-6-2013 fu firmato da Maria Chiara Carrozza e appare nella GU148 del 26/6/2013.

echa4

Qualche tempo di maturazione e dopo circa 6 anni (due soli ministri MIUR) siamo arrivati al traguardo: auguri al Prof. Andrea Tapparo, che è stato per tutto il tempo nelle varie commissioni di cui sopra, che ora dirige la Scuola di Specializzazione di Padova e al prof. Bruno Botta, che dirige quella di Roma, La Sapienza. Buon lavoro! E auguri a coloro che faranno l’esame di ammissione nel mese di marzo.

Naturalmente lo schema della scuola di specializzazione è dedicato a problemi che ricadono sul REACH ma anche a tutti i problemi che la chimica deve affrontare quando decide di mettere “sul mercato” prodotti ancora non esistenti, utili per tante attività umane, ma che certamente debbono essere opportunamente provati per la sicurezza ambientale.echa5

Per saperne di più:
http://www.chimica.unipd.it/ssvgrc

http://www.uniroma1.it/didattica/offerta-formativa/corsi-di-specializzazione/elenco-dei-corsi

La permanenza dei dati nell’era digitale (parte 2)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

la prima parte di questo post è stata pubblicata qui

a cura di Stefano Ottani* e Gustavo Filippucci**

Una questione attualmente assai dibattuta riguarda la pubblicazione di articoli scientifici, in particolare la disponibilità dei dati sperimentali ad essi collegati e dei metodi utilizzati per elaborarli. In una prima fase il dibattito ha riguardato soprattutto articoli pubblicati già da alcuni anni, i cui dati originali siano ancora conservati dagli autori. Col passare del tempo il mezzo su cui tali dati sono registrati (tipicamente supporti magnetici) rischiano di diventare illeggibili, sia per il deterioramento dei materiali che per la dismissione e l’eliminazione delle procedure e dei programmi con cui i dati sono stati ottenuti e/o elaborati. Inoltre è diventato assai difficile o anche impossibile rileggere supporti magnetici contenenti i tracciati di curve sperimentali ottenuti con vecchi modelli di strumenti scientifici, qualora lo strumento stesso sia stato smantellato. Dato che uno dei pilastri su cui poggia il sistema della ricerca è la verificabilità del dato pubblicato, è prevedibile che, in mancanza di soluzioni adeguate, questo requisito possa andare perduto in tutto o in parte. Per quanto riguarda la velocità di sparizione dei dati scientifici ci si può riferire a questa URL: http://www.rsc.org/chemistryworld/2014/01/scientific-data-disappearing-alarming-rate.

Per il presente ed il futuro molti editori di riviste scientifiche si stanno attrezzando creando o ampliando gli archivi contenenti i cosiddetti materiali di supporto dell’articolo, in cui gli autori possono includere tutti quegli elementi che, pur sostenendo la validità del contenuto dell’articolo, lo avrebbero appesantito in modo eccessivo se inseriti nel testo stesso. Attualmente tali archivi si stanno arricchendo anche di elementi multimediali, supportando quindi metodi di comunicazione che vanno ben oltre il testo scritto. Un aggiornato approfondimento su questi temi è dato dall’articolo Bibliotime, XVII, 3 – Paolo Manghi, Sfide tecnologiche per l’accesso aperto a tutti i prodotti della ricerca.

Sempre in questo ambito considerazioni più specifiche vanno fatte per gli articoli che presentano un marcato carattere computazionale. Assume qui grande rilevanza quanto detto in precedenza sulla relazione forte fra la struttura di un dato archiviato e il metodo utilizzato per produrre il dato stesso. Infatti, dal punto di vista computazionale, la riproducibilità del dato pubblicato dipende dalla disponibilità dei file di input, di output e dei codici dei programmi utilizzati nel calcolo. Se, con Popper, ammettiamo che un requisito fondante di ogni affermazione scientifica sia la possibilità di confutarla, dobbiamo inevitabilmente fornire assieme al dato il metodo di misurazione. Nel caso di procedure computazionali (quali ad esempio i calcoli ab initio, il molecular modeling e la cheminformatica), la rigorosa aderenza al requisito di Popper non è quasi mai soddisfatta da una descrizione semplificata del metodo e della procedura, che pur includa tutti gli opportuni riferimenti. In molti casi occorrerebbe fornire i codici sorgente dei programmi di calcolo utilizzati ed eventualmente anche i compilatori utilizzati per ottenere il codice eseguibile. La questione non è affatto semplice e ha dato origine a un dibattito esteso.

Supponiamo, per esempio, che il produttore di un codice non aperto e protetto da copyright decida di ritirare completamente tale programma. Si giungerà ad un punto in cui tutti i dati ottenuti con tale codice non saranno più riproducibili. Addirittura la detenzione di copie non più licenziate del programma, anche da parte di istituzioni senza scopo di lucro (biblioteche, banche dati aperte etc.), potrebbe costituire una violazione di copyright. Un articolo sulla rivista Science propone di risolvere la questione obbligando tutti i lavori finanziati da contributi pubblici ad includere il codice sorgente o un metodo equivalente per garantire la semplice e immediata riproducibilità di quanto pubblicato (A. Morin, J. Urban, P. D. Adams, I. Foster, A. Sali, D. Baker, P. Sliz “Shining Light into Black Boxes”, Science, Vol. 336 no. 6078 pp. 159-160, DOI: 10.1126/science.1218263). Una discussione approfondita sul problema della riproducibilità in questo tipo di lavori è riportata in un articolo del 2013 di W. Patrick Walters (W. P. Walters “Modeling, Informatics, and the Quest for ReproducibilityJournal of Chemical Information and Modeling 2013, 53, 1529, DOI: 10.1021/ci400197w)

Nella vastità e complessità delle problematiche connesse alla preservazione accenniamo ora brevemente ad alcune importanti iniziative che si collegano alla conservazione dei dati digitali.

Il concetto di Digital preservation circoscrive un insieme di pratiche e progetti consolidatisi nel tempo; in Italia il tema è oggetto di attività legislativa da almeno 15 anni (decreto legge 445/2000). L’espressione è usata in ambito anglo-sassone per indicare le problematiche di immagazzinamento, mantenimento e accesso nel lungo periodo degli oggetti digitali con l’obiettivo di assicurare il contenuto intellettuale di un documento, rendendolo accessibile per le generazioni future, sia nel caso di informazioni native digitali, sia nel caso di conversioni digitali di materiale analogico.

dati3

Per un primo approccio alla sterminata bibliografia disponibile in rete segnaliamo l’interessante sito web della Library of Congress: http://digitalpreservation.gov/about e la pagina del sito italiano “Rinascimento Digitale” dedicata ai progetti europei: http://www.rinascimento-digitale.it/digitalpreservation.phtml.

Quest’ultima segnala, a sua volta, la preziosa attività del PREMIS workgroup (Preservation Metadata: Implementation Strategies) in cui convergono l’Online Computer Library Center (OCLC) e il RLG (Research Library Group). Da citare anche la versione italiana http://dpworkshop.org/dpm-ita/resources.html del tutorial sviluppato dalla Cornell University Library, ospitato dall’Inter-university Consortium for Political and Social Research (ICPSR) dal 2007-2011, e successivamente dal MIT Libraries.

Fra le organizzazioni internazionali più attive troviamo l’UNESCO che ha raccolto in un insieme di raccomandazioni i processi atti ad assicurare l’accessibilità e la fruibilità nel tempo dei materiali digitali.

Altre istituzioni internazionali si occupano dei temi legati alla conservazione, tra queste è utile ricordare il ruolo svolto da istituzioni bibliotecarie quali l’IFLA (International Federation of Library Associations and Institutions) attraverso il suo Strategic Programme on Preservation and Conservation (PAC) attivo fin dal 1984. L’IFLA, tramite l’attiva partecipazione del suo Presidente e altri di altri suoi membri, aderiscec a Congressi dedicati al tema (segnaliamo l’importante Convegno UNESCO sul tema: The Memory of the World in the Digital age: Digitization and Preservation, 26-28 September 2012, Vancouver, Canada, 2012).

Anche l’American Library Association (ALA), la più importante associazione nazionale di bibliotecari, è da lungo tempo attiva con gruppi di interesse sui temi oggetto della nostra analisi.

Esistono iniziative a livello nazionale quali ad esempio la Digital Preservation Coalition, che si occupa di raccogliere le più importanti istituzioni culturali del Regno Unito intorno al comune sforzo di preservazione dei dati, o come il progetto australiano PANDORA – chiamato anche PANDAS – (Preserving and Accessing Networked Documentary Resources of Australia), sviluppato dalla National Library of Australia a partire dal lontano 1996, che basa il proprio lavoro sull’assegnazione di identificatori persistenti agli oggetti digitali delle proprie collezioni.

Una significativa funzione è assegnata a livello accademico ai cosiddetti Institutional Repositories, questi depositi svolgono il ruolo di biblioteche digitali secondo il modello dell’Open Access. Come le biblioteche, conservano e disseminano i documenti archiviati, li organizzano e ne gestiscono le procedure per l’indicizzazione dei metadati. I metadati sono degli identificativi persistenti che i Repositories utilizzano per conservare permanentemente i documenti archiviati. Presso gli Institutional Repositories troviamo depositati e conservati materiali digitali che altrimenti non troveremmo in altri contesti digitali, si pensi in particolare alla produzione scientifica che non rientra nel circuito della pubblicazione, convenzionalmente definita grey literature (tesi, rapporti tecnici, ecc.).

In Italia, l’assegnazione di identificativi persistenti agli oggetti digitali è considerato uno standard di riferimento almeno per quanto riguarda la produzione di dati/oggetti digitali nel settore pubblico. I requisiti specifici sono dettagliati nella legge denominata “Codice per l’amministrazione digitale”, approvata nel 2005 e aggiornata nel 2010. Alcuni dei principali standard recepiti nelle differenti legislazioni provengono dal lavoro dell’Open Archival Information System (OASIS), il modello si pone l’obiettivo di standardizzare la pratica della preservazione digitale fornendo un insieme di indicazioni (attraverso un reference model) per l’attuazione di un programma di conservazione. La norma ISO 14721:2003 ne è alla base e definisce gli aspetti tecnici che presiedono al ciclo di vita di un oggetto digitale: immissione e stoccaggio, infrastruttura di conservazione, gestione, accessibilità e distribuzione. Riguardo ai metadati, la norma prevede cinque associazioni all’oggetto digitale: il riferimento (identificazione), la provenienza (cronologia), il contesto, la fissità (che deve garantire l’autenticità) e la rappresentazione (formato, struttura del file, ecc.).

I temi connessi alla conservazione/permanenza dei dati nell’era digitale sono, come si è visto, molteplici e coinvolgono aspetti tecnologici, politico-organizzativi, comportamenti sociali e, come nel caso del concetto di fissità, anche elementi di carattere legale: è bene ricordare che un aspetto strettamente connesso alla conservazione e alla fruizione dei dati è quello relativo al mantenimento della loro integrità e autenticità. La conservazione non è quindi solo un problema tecnologico “dal momento che i materiali digitali possono essere documenti aventi valore legale” (G. Marzano, Conservare il digitale, 2011, p. 53). Inoltre, il riconoscimento o l’attribuzione di paternità di un opera digitale può generare ulteriori problematiche a seconda del contesto – architettura software o ambiente/applicativo – nel quale è stato prodotto/depositato.

Di certo, quando si parla di dati digitali, è sempre bene circoscriverne il contesto. Limitandoci a titolo esemplificativo al solo campo della cosiddetta letteratura grigia, una cosa è parlare di dati depositati in un archivio istituzionale o in server di grande tradizione quale ad esempio il NASA Technical Reports Server, altra cosa ai fini della persistenza sono i documenti pubblicati su un blog o disponibili nelle biblioteche clandestine di internet. In questi casi, per i dati digitali è valida la stessa relazione che si stabilisce tra web e deep web: tanto è tendenzialmente infinita la massa (rumore) di dati prodotti direttamente in formato digitale, tanto più potranno divergere le strategie di conservazione nei differenti contesti culturali e scientifici.

Per i dati digitali il tradizionale luogo di conservazione dovrebbe posizionarsi su una scala di livello superiore, sia per il grado di coordinamento e standardizzazione che le procedure richiedono, sia per sostenere finanziariamente nel tempo progetti molto onerosi. Le attività di gestione come la migrazione e la replicazione dei dati – in qualche modo riconducibili alle strategie di refreshing, migration, replication (ridondanza) ed emulation (pietre miliari della digital preservation) – non possono ricadere sulle spalle delle singole istituzioni deputate alla conservazione del patrimonio culturale in modo granulare. Se, a maggior ragione, pensiamo all’archiviazione in un contesto cloud (e alla ridondanza che ad esso si richiede) non si può prescindere dalla collaborazione aperta agli operatori commerciali della rete.

Come annotazione conclusiva possiamo rimarcare che sia la cancellazione (almeno temporanea) di particolari contenuti o pagine web o interi siti sia la permanenza programmata degli stessi per un periodo di tempo molto lungo, se non indefinitamente, costituiscono le due facce della stessa medaglia. Per quanto possa sembrare relativamente più facile ottenere cancellazioni o blocchi, in realtà, in entrambi i casi la vera difficoltà consiste nel raggiungere il livello necessario di organizzazione e integrazione degli sforzi congiunti da parte di entità e istituzioni assai differenti che talvolta non hanno gli stessi obiettivi.

*************************************************************************************************

*Stefano Ottani è ricercatore presso l’Istituto per la Sintesi Organica e la Fotoreattività (ISOF) di Bologna. Ha svolto ricerche soprattutto nell’ambito dei sistemi macromolecolari di origine sintetica e naturale. Parte della sua attività di ricerca è dedicata allo sviluppo di modelli e metodi computazionali per l’interpretazione dei risultati sperimentali. Attualmente studia il comportamento di amminoacidi e molecole d’interesse farmacologico, utilizzando metodi di chimica computazionale e calcoli quanto-meccanici. Si occupa inoltre della messa a punto di procedure computazionali su sistemi per il calcolo ad alte prestazioni, quali grid e cluster.

**Gustavo Filippucci è responsabile bibliotecario della biblioteca del Dipartimento di Chimica “Giacomo Ciamician” dal 2000. E’ stato membro del comitato di biblioteche della rete nazionale NILDE per due mandati. In tale contesto ha partecipato a diversi comitati organizzativi di convegni dedicati a temi bibliotecari. Partecipa a gruppi di lavoro tematici promossi dal Catalogo collettivo Nazionale di Periodici ACNP, in particolare sui temi connessi alle pubblicazioni periodiche elettroniche.E’ coordinatore del gruppo di lavoro nazionale ALPE (Archivio Licenze Periodici Elettronici), che coinvolge importanti istituzioni nazionali nelle creazione di un database di pubblico accesso alle ‘License Agreement’ stipulate con i principali editori nazionali ed internazionali

La permanenza dei dati nell’era digitale (parte 1)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Stefano Ottani* e Gustavo Filippucci**

In un articolo de “Il Sole 24ORE” dal titolo “Vincent Cerf lancia l’allarme: i dati memorizzati oggi? Rischiamo di perderli”, pubblicato il 18 giugno del 2013, viene sollevato il problema della continuità, intesa come disponibilità nel tempo, dei metodi di lettura e decodifica dei testi e più in generale dei dati prodotti in passato. L’articolo sottolinea che quindici anni possono essere un tempo soggettivamente breve, ma, in termini digitali, corrispondono a cambiamenti di tecnologia (sia hardware che software) talmente importanti da rendere la decodifica di alcuni documenti estremamente difficile. Cerf, il cui nome è Vinton, non Vincent, è vice presidente di Google e uno dei progettisti del protocollo alla base di Internet, il TCP/IP. Egli sottolinea che un oggetto digitale ha significato se esiste un metodo per interpretarlo. In Internet l’informazione è strutturata e quindi occorre un’applicazione, un programma specifico per accedervi. Se l’informazione è su un disco, “noi non perderemo il disco, ma possiamo perdere la capacità di leggere il disco”. La questione sollevata da Cerf più di un anno fa è stata discussa a partire da altri punti di vista. In questo articolo cercheremo di approfondire aspetti più vicini alla ricerca e alla letteratura scientifica, particolarmente in campo chimico e delle scienze della vita. Nella seconda parte tratteremo più in dettaglio l’insieme di iniziative che vanno sotto il nome di Digital Preservation, cercando di fornire un quadro dei riferimenti bibliografici e delle attività, quali le strategie di identificazione e catalogazione delle risorse digitali, che si sono sviluppate in relazione al tema.

Un primo aspetto da considerare è la permanenza dei supporti fisici per l’archiviazione dell’informazione. I supporti del passato (pietra, terracotta, papiro, pergamena, carta …) sono oggi sostituiti da plastica, metalli rari, materiali magnetici e magnetizzabili, nella forma di dischi (dischi rigidi, DVD, CD-ROM, dischi a stato solido), memorie flash e altro, in un insieme che Cerf chiama “digital vellum” (pergamena digitale). Questi supporti sembrano presentare una maggiore stabilità e affidabilità rispetto al passato, anche se ciò dipende dall’evento che si prende a riferimento. Per fare un esempio, un’esplosione nucleare non era un evento possibile nel passato remoto, mentre un tale evento è entrato pesantemente nella progettazione di un protocollo di rete come il TCP/IP. Alcuni anni fa Umberto Eco ha pubblicato sul settimanale “L’Espresso” una “Bustina di Minerva” in cui si poneva l’accento sulla maggiore permanenza dei supporti moderni rispetto agli antichi. Eco sosteneva che la scelta di un supporto molto più stabile di altri può distorcere in modo significativo la permanenza temporale dell’informazione contenuta. I posteri potrebbero formarsi un’idea profondamente distorta della civiltà attuale semplicemente perché certi supporti (CD-ROM, DVD), usati preferenzialmente per determinate categorie di contenuti, potrebbero sopravvivere molto meglio rispetto ad altri quali i dischi magnetici o semplicemente la carta stampata. In generale questo tipo di problemi è stato affrontato, anche nel lontano passato, aumentando la ridondanza nei sistemi di archiviazione dati, ovvero generando più copie dei supporti, e differenziando e delocalizzando i supporti stessi. Di fatto la ridondanza è un tema pervasivo quando si considera la completezza e la correttezza dell’informazione.

Attualmente la questione dell’affidabilità dei processi di archiviazione dei dati si pone in termini diversi. La virtualizzazione dei supporti (virtual storage) e la successiva introduzione dei sistemi cloud hanno portato alla progressiva smaterializzazione dei supporti fisici. In questo ambito smaterializzazione significa che il legame, la corrispondenza fra il dato e il supporto fisico su cui è scritto è diventata evanescente. Il dato viene spostato, frazionato e duplicato su supporti diversi, ricollocato a seconda delle esigenze globali del sistema di archiviazione. Le procedure che regolano questo tipo di gestione acquistano una preminenza assoluta nell’affidabilità del dato. Il fallimento di una di esse può portare alla distruzione dell’archivio nel senso di renderlo anche totalmente irrecuperabile, perfino in assenza di danni fisici ai supporti.

Possiamo ora mettere meglio a fuoco il problema sollevato da Cerf. Per fissare le idee, supponiamo di avere un documento archiviato su un CD-ROM e supponiamo che il programma di lettura/scrittura usato per produrlo diventi improvvisamente introvabile. Tuttavia, se mantenessimo la capacità di leggere il supporto a basso livello, ovvero i singoli bit scritti sul CD-ROM, potremmo ancora essere in grado con metodi logico-statistici di ricostruire in tutto o in parte il significato del testo. Certamente si tratta di procedure lunghe e laboriose, ma con una buona percentuale di successo. Un’analogia in questo senso potrebbe essere trovata nella decifrazione del lineare b, il sistema di scrittura della lingua micenea.

Supponiamo invece di avere un documento archiviato in un sistema cloud e che il programma che gestisce la lettura/scrittura di un documento, nonché la sua collocazione, duplicazione, salvataggio periodico etc. fallisca. In tal caso il recupero del documento sarebbe estremamente difficile, quasi irrealizzabile in tempi utili. E’ molto più efficace proteggersi dalla perdita catastrofica dei dati tramite la duplicazione ripetuta dei documenti su sistemi diversi. Più in generale, è l’aumento significativo della ridondanza, esteso a tutti i livelli dell’archiviazione del dato, che aumenta i livelli di protezione e non solo nei confronti di questo tipo di perdite.

 dati1

Il rapporto fra ridondanza e informazione può essere illustrato da un esempio tratto da un semplice gioco enigmistico. Si ricorderà la tabella composta da sequenze di numeri e spazi. Ad ogni numero è associata una lettera dell’alfabeto e alcune delle lettere sono espresse in chiaro. Dalla conoscenza della lingua in cui il testo è scritto e dalle conseguenti regole grammaticali e sintattiche è possibile, con gli elementi minimi d’informazione forniti, risalire al testo in chiaro. Lo schema è risolto quando tutti i numeri sono stati sostituiti dalla lettera corrispondente e il testo diventa completamente leggibile. In termini di teoria dell’informazione potremmo dire che tutte le lettere non in chiaro, ovvero espresse da numeri nel testo, sono ridondanti rispetto all’informazione contenuta nel testo stesso. Chi risolve questo tipo di schemi sa benissimo che raggiunto un certo livello nella procedura di soluzione non occorre neanche più sostituire materialmente i numeri con le lettere corrispondenti; quelle già inserite sono sufficienti per ricostruire completamente le parole incomplete o mancanti. Ma allora che necessità c’è di utilizzarle? Immaginiamo che una o più delle lettere in chiaro o degli spazi fossero andati perduti o sostituiti da un elemento sbagliato: il messaggio, o parti consistenti di esso sarebbero incomprensibili. La ridondanza rappresenta proprio la risposta a questo problema: grazie alle lettere o alle parole in eccesso possiamo rimediare alla perdita di dati e al deterioramento del messaggio.

Da quanto detto fin qui emerge una caratteristica fondamentale dei sistemi di archiviazione attuali: la predominanza del metodo sia esso di lettura, scrittura, cifratura, gestione del dato, rispetto al dato stesso. Vi è ancora un’altra caratteristica da considerare: la struttura che il dato assume in un archivio è determinata dal livello di conoscenza nel campo cui il dato si riferisce e dai metodi d’indagine utilizzati nel campo stesso. Per proporre un esempio possiamo considerare la relazione che intercorre fra la sequenza dei nucleotidi del mRNA e la struttura primaria di una proteina. Lo stato delle nostre conoscenze ci dice che fra i due dati esiste una corrispondenza biunivoca e quindi in linea di principio possiamo utilizzare un metodo di generazione automatica della sequenza primaria delle proteine basato su archivi che contengono solo le sequenze del mRNA corrispondente. Anche la struttura secondaria può essere generata in automatico dal nostro metodo di lettura. Supponiamo ora, in via del tutto ipotetica, di vivere in un ecosistema in cui la suddetta corrispondenza biunivoca non valga, che una sequenza di mRNA possa generare proteine diverse, magari in funzione degli intervalli di variazione di diversi parametri ambientali. La nostra realtà fisica sarebbe quella di un sistema ad alto tasso di mutazione ed il nostro archivio dovrebbe essere profondamente modificato, associando ad un mRNA diverse proteine ed il set di parametri che ne definiscono il campo di esistenza.

Finora abbiamo trattato la permanenza del dato in termini di eventi o incidenti più o meno casuali che ne comportino l’alterazione o la perdita. Vi è un aspetto altrettanto importante da considerare: l’alterazione, la perdita (o l’anomala sopravvivenza) del dato dovuta a scelte determinate, a selezioni programmate e ripetute. In questo ambito sono i motori di ricerca ad avere un’influenza significativa sull’organizzazione, la replicazione e quindi la persistenza dell’informazione. La raccolta d’informazioni tramite motori di ricerca costituisce infatti lo stadio preliminare per la stesura di articoli d’informazione, di ricerca scientifica, per lo svolgimento di attività didattiche, per la stesura di opere di narrativa e questo per limitarsi solo a campi più legati all’attività culturale. La posizione in cui viene a trovarsi un risultato nella lista ottenuta da un quesito posto al motore di ricerca è determinante per la citazione, per l’utilizzo del dato stesso e quindi per la sua sopravvivenza e propagazione. Non abbiamo qui lo spazio per fare più che un semplice accenno alla questione. Di fatto sono stati sollevati parecchi interrogativi sugli algoritmi alla base dell’ordinamento dei risultati in queste liste (il cosiddetto page ranking), nonché sulla trasparenza di tali risultati e sull’eventuale intervento di operatori umani. Una trattazione più completa la si può trovare in questa voce della Stanford Encyclopedia of Philosophy

Possiamo ricordare altre due questioni anch’esse legate ai motori di ricerca. La prima riguarda la persistenza del dato (peggio ancora se si tratta di un dato errato): basta accennare alle richieste e anche alle cause legali nei confronti di alcuni motori di ricerca e di social network per la cancellazione di profili indesiderati e di dati non più voluti o raccolti in modo illegale. La seconda questione è un po’ il rovescio della medaglia della questione del page ranking e riguarda ciò che non viene mai indicizzato dai motori di ricerca, entità a cui ci si riferisce comunemente con il termine invisible web o deep web.

dati2

E’ convinzione comune che nel deep web si trovino prevalentemente dati illegali, ma la definizione d’illegalità è correlata a situazioni statuali-politiche localizzate, e tale/i definizione/i nell’ambito dell’Internet globale sono molto spesso inadeguate. Che dire infatti di uno o più paesi i cui sistemi informatici bloccano determinati elementi d’informazione (articoli, libri, blog etc.) che in altri paesi sono totalmente legali e che puniscono, anche severamente, coloro che detengono o accedono a tali informazioni? Come potremo preservare una biblioteca clandestina?

Si può anche ammettere che oggigiorno la capacità globale di archiviazione sia tale da consentire di memorizzare praticamente tutto ciò che l’umanità intera produce in un determinato arco temporale. Il Grande Fratello sembra quindi sovrastarci. Tuttavia, per quanto abbiamo detto, questa immensa collezione si distingue dal puro rumore di fondo solo se esistono metodi adeguati per estrarne informazione in tempi utili. Al di là della capacità di calcolo richiesta, la vera sfida sono i metodi d’intelligenza artificiale da applicare, nel cui ambito si stanno registrando enormi progressi. Una logica di tipo tradizionale si rivela normalmente inadeguata ad estrarre significati semantici complessi da grandi moli di dati. In termini più generali potremmo dire che lo spazio logico, ossia l’insieme delle proposizioni distinte che usiamo per connetterci alla nostra realtà e navigare nel mondo, viene manipolato nell’ambito di logiche diverse, non solo quella vero-funzionale a due valori di tipo tradizionale, ma usando una varietà di metodi quali, ad esempio, quelli della logica sfumata (fuzzy).

********************************************************************************************************

*Stefano Ottani è ricercatore presso l’Istituto per la Sintesi Organica e la Fotoreattività (ISOF) di Bologna. Ha svolto ricerche soprattutto nell’ambito dei sistemi macromolecolari di origine sintetica e naturale. Parte della sua attività di ricerca è dedicata allo sviluppo di modelli e metodi computazionali per l’interpretazione dei risultati sperimentali. Attualmente studia il comportamento di amminoacidi e molecole d’interesse farmacologico, utilizzando metodi di chimica computazionale e calcoli quanto-meccanici. Si occupa inoltre della messa a punto di procedure computazionali su sistemi per il calcolo ad alte prestazioni, quali grid e cluster.

**Gustavo Filippucci è responsabile bibliotecario della biblioteca del Dipartimento di Chimica “Giacomo Ciamician” dal 2000. E’ stato membro del comitato di biblioteche della rete nazionale NILDE per due mandati. In tale contesto ha partecipato a diversi comitati organizzativi di convegni dedicati a temi bibliotecari. Partecipa a gruppi di lavoro tematici promossi dal Catalogo collettivo Nazionale di Periodici ACNP, in particolare sui temi connessi alle pubblicazioni periodiche elettroniche.E’ coordinatore del gruppo di lavoro nazionale ALPE (Archivio Licenze Periodici Elettronici), che coinvolge importanti istituzioni nazionali nelle creazione di un database di pubblico accesso alle ‘License Agreement’ stipulate con i principali editori nazionali ed internazionali

La stereochimica in una botte di vino !

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Roberto Poeti , http://www.robertopoetichimica.it/

roberto-poetiHo conservato per molti anni una vecchia botte nella cantina della mia casa prima di decidermi a farne legna per il camino . Le sue pareti interne , nella cantina poco illuminata, sembravano ricoperte di un deposito nerastro e amorfo . Ma quando la portai fuori e fu illuminata dalla luce del sole provai l’emozione della scoperta.

stereo1

Quello strato amorfo ora appariva fatto di formazioni cristalline rosse dalla forma di conchiglie , su cui erano incastonati gruppi di cristalli prismatici , incolori trasparenti che brillavano come diamanti . Era uno spettacolo unico .

stereo2

Ho cercato a lungo , senza successo, in internet immagini simili a queste formazioni cristalline; la loro composizione all’analisi ai raggi X risulta costituita da un aggregato di lamine sottili di singoli cristalli di potassio idrogeno tartrato . E queste lamine traslucide si possono osservare se si guarda il campione di lato . Il colore naturalmente è dato dalle antocianine, mentre i cristalli prismatici , incolori e trasparenti sono costituiti da tartrato di calcio .

Seguiremo brevemente le vicende di questi cristalli che sono stati protagonisti dei progressi della chimica nella prima metà dell’ottocento . Per una serie di coincidenze , come vedremo , gli acidi tartarici , paratartarici e i loro sali sono stati indispensabili per le scoperte che brevemente descriverò .

Dovevano essere comuni queste praterie di cristalli quando la vinificazione veniva fatta con metodi tradizionali. Infatti Lucrezio e Plinio il Vecchio avevano familiarità con il cremor tartaro ( nome del deposito nelle botti costituito in prevalenza da tartrato acido di potassio ) : aveva un sapore aspro e bruciava con una fiamma violacea . A quel tempo era utilizzato in una dozzina di rimedi . Attrasse l’attenzione anche del grande chimico Carl Scheele che ne ricavò e purificò l’acido tartarico nel 1769 .

Agli inizi dell’ottocento la storia di questi cristalli si intreccia con quella della luce . C’è un periodo della storia della chimica , che possiamo collocare nella prima metà dell’ottocento, che riveste una straordinaria importanza perché vennero gettate le basi di quella che negli anni successivi diverrà “La chimica nello spazio“ , come titolerà un suo saggio Jacobus van’t Hoff nel 1875. Lo strumento di indagine, che rivoluzionò l’immagine della struttura della materia, fu la luce polarizzata. La sua scoperta avvenne ad opera di Etienne Malus nell’anno 1808, e pochi anni dopo la luce polarizzata iniziò ad essere impiegata come una sonda per “osservare” la struttura della materia. Esaminando dei cristalli di quarzo , Francois Arago e Jean-Baptiste Biot, allievi di Malus, scoprirono che esistevano due tipi di cristalli emiedrici speculari e non sovrapponibili che ruotavano il piano di polarizzazione della luce (Molti cristalli della stessa sostanza possono variare di habitus nelle loro relative dimensioni e nello sviluppo di piani simili , tuttavia ogni modifica del valore degli angoli tra le facce o gli spigoli è riprodotto nelle facce e angoli simmetricamente disposti . Nei cristalli emiedrici ciò non accade, perciò possiedono una simmetria incompleta).  Biot completò l’indagine osservando che anche soluzioni di sostanze organiche tra cui per esempio lo zucchero , la canfora, l’acido lattico e i tartrati ruotavano il piano di polarizzazione , cioè erano otticamente attive . Poichè il quarzo perdeva la sua proprietà quando fuso o disciolto, Biot acutamente ipotizzò che l’attività ottica delle sostanze organiche , che si manifestava anche nelle loro soluzioni ,

stereo3

A causa della doppia rifrazione di un cristallo di calcite , si sdoppia un raggio laser che lo attraversa. Malus scopre la luce polarizzata indagando il fenomeno della doppia rifrazione .

 

stereo4

Cristalli di quarzo speculari della mia collezione

 

risiedeva nelle molecole , mentre nel quarzo dipendeva dall’intero edificio cristallino .

Ma è sull’acido tartarico , che veniva ricavato dai depositi di tartrati , lasciati dal vino nelle botti , che si concentrerà in seguito l’indagine . Perchè furono scelti i tartrati?

L’acido tartarico si poteva ottenere puro con relativa facilità seguendo il procedimento impostato   da Carl Scheele. Il tartaro grezzo o cremor tartaro estratto dalle botti veniva disciolto in acqua calda ; con l’aggiunta di polvere di carbonato di calcio avveniva la precipitazione di una metà del tartrato acido di potassio come tartrato di calcio , seguiva per l’altra metà una seconda precipitazione con cloruro di calcio. Il tartrato di calcio precipitato era raccolto , lavato e poi decomposto da una eccesso di acido solforico . Il solfato di calcio , prodotto dalla reazione era poi separato per filtrazione e la soluzione di acido tartarico che si otteneva era fatta evaporare per ottenere il deposito di cristalli di acido tartarico . I cristalli erano purificati ridisciogliendoli in acqua calda , decolorando con carbone la soluzione , e ricristallizzandoli. Si ottenevano dei grossi cristalli se si aggiungeva anche acido solforico. E’ straordinario come questo procedimento con una sequenzialità così razionale possa essere stato impostato da Scheele nel 1768 , in una epoca ancora tanto incerta sulle conoscenze di chimica . Alla fine il risultato era per un cristallografo quanto di meglio si potesse sperare : cristalli grandi, regolari, e in gran quantità.

L’habitus dei cristalli di acido tartarico e dei suoi diversi sali era sempre emiedrico e nello stesso verso, così come nella stessa direzione veniva ruotato il piano della luce polarizzata .

Questo è quanto vide quell’osservatore acuto di Louis Pasteur , che vedeva confermata la sua ipotesi di una stretta correlazione tra morfologia dei cristalli e potere rotatorio, come era stato scoperto anche per i cristalli di quarzo . Ma dobbiamo fare un passo indietro prima di continuare con Pasteur .

Nella regione di Thann in Francia accadde qualcosa che condizionerà il corso delle ricerche :

L’acido tartarico e i suoi sali avevano una larga diffusione , entravano come ingredienti di molti cosmetici e rimedi come il sale di Rochelle e i tartari emetici , erano anche richiesti dall’industria tessile . Così molte aziende vinicole si erano convertire in industrie per la produzione di acido tartarico. Tra il 1822 e il 1824 Paul Kestner , proprio uno di questi   industriali del tartaro di Thann ( Francia ) aveva ottenuto assieme all’acido tartarico un’altra sostanza che aveva ritenuto fosse acido ossalico. La sostanza cristallizzava per prima dalle soluzioni di acido tartarico, così si potevano separare attentamente i cristalli . Aveva notato infatti che la presenza della sostanza nella fase successiva di purificazione dell’acido tartarico rendeva irregolare la cristallizzazione di quest’ultimo. La sostanza prodotta venne messa da parte, immagazzinata, perché non si riteneva avesse un valore commerciale. Scoperta in seguito la natura della sostanza, per quanti tentativi Kestner facesse, non riuscì più ad ottenerla. Si erano verificate una serie di condizioni favorevoli che non fu più in grado di riprodurre.

Da questa incredibile vicenda lo sviluppo della cristallografia chimica ebbe un insperato aiuto. La sostanza in questione era l’acido paratartarico . Gay – Lussac nel 1826 stabilì che aveva la stessa composizione dell’acido tartarico.

L’acido tartarico e il paratartarico assieme ai loro sali furono investigati , prima degli studi di Pasteur, da Biot e Eilhard Mitscherlich perchè erano sostanze isomere che presentavano lievi differenze chimiche e spesso i loro cristalli risultavano isomorfi . Per comprendere la radice delle loro differenze Mitschelich si mise a indagare sulla simmetria dei cristalli . Di tutti i sali esaminati , due di essi il tartrato di sodio e ammonio e il paratartrato di sodio a ammonio si presentavano con un habitus cristallino identico . Così si esprimeva Mitschelich in una nota presentata all’Accademia delle Scienze nel 1841 :

….qui la natura e il numero degli atomi , la loro disposizione e le loro distanze , sono le stesse nei due corpi tra loro comparati “.

stereo5

Campioni di acido paratartarico etichettati da Pasteur , ricevuti dall’industriale Kestner . Si trovano nel suo laboratorio presso l’Istituto Pasteur a Parigi .

Il tartrato ruotava il piano della luce polarizzata e il paratartrato era indifferente . Sorpreso e confuso per il risultato del suo lavoro , per ben dieci anni esitò a renderli pubblici. Pasteur ricorda nella sua lezione tenuta il 1860 alla Società Chimica di Parigi che ciò che aveva trovato Mitschelich metteva in discussione la stessa definizione di specie chimica , ma che forse Mitschelich non si era accorto che la forma cristallina del suo tartrato era emiedrica come quella di tutti gli altri tartrati, mentre non lo era quella del paratartrato .   Se questo veniva confermato la nota di Mitschelich non aveva più nulla di straordinario, perché le due forme cristalline non sarebbero state identiche. Pasteur dopo il diploma alla Scuola Normale ottenuto nel 1847, viene chiamato a Strasburgo come assistente alla cattedra di chimica . Ha venticinque anni quando si cimenta in questa ricerca che si protrarrà fino al 1853 e i cui esiti avranno l’effetto di un terremoto. Lavorerà usando campioni di acido paratartarico che l’industriale Kestner gli aveva fatto avere .

Trovò che i cristalli di tartrato di potassio e ammonio presentavano emiedria, la stessa che aveva trovato per gli altri tartrati da lui esaminati , ma nei cristalli di paratartrato di sodio e ammonio che aveva cristallizzato constatò che si erano separati due distinti tipi di cristalli emiedrici con le faccette orientate ora a destra ora a sinistra . Risultavano immagini speculari ma non sovrapponibili. Trovò che i cristalli emiedrici destri ruotavano il piano di polarizzazione a destra, mentre quelli orientati a sinistra ruotavano il piano a sinistra . I primi erano identici a quelli dell’acido tartarico fino allora noto .

Era un risultato talmente inatteso che Il suo maestro Biot incredulo gli chiese di ripeterlo davanti a lui , prima di renderne conto all’Accademia . Soltanto un acuto osservatore e una mente preparata poteva giungere a questi risultati, tuttavia Pasteur è stato aiutato dalla fortuna due volte:

stereo6

Modelli semplificati di cristalli di acido tartarico destro e sinistro secondo Pasteur che ottenne risolvendo l’acido paratartarico . In rosso le faccette emiedriche

Primo perché il paratartrato di sodio e ammonio è l’unico , con la possibile eccezione del tartrato di sodio potassio, che può essere risolto nei due isomeri ottici con la cristallizzazione .

Secondo, la temperatura alla quale aveva operato era quella della fredda Parigi piuttosto di quella mite mediterranea . Solo operando al di sotto di 26°C si ottiene la separazione .

Ma Pasteur non solo è stato un abilissimo sperimentatore, ha saputo dare ai risultati delle sue ricerche un significato rivoluzionario per quel tempo. Sebbene fosse prematuro parlare di legami tra gli atomi e la percezione delle molecole nelle loro tre dimensioni fosse ancora molto incerta se non osteggiata, immaginò che tra gli atomi vi fossero relazioni spaziali definite , e usò questo criterio per distinguere due sostanze tra loro isomere . Le conclusioni che trasse dalle sue ricerche sono espresse nella sua lezione

“ Noi in effetti sappiamo che, da una parte, le disposizioni molecolari dei due acidi tartarici sono dissimmetriche, dall’altra, che essi sono rigorosamente gli stessi con la sola differenza di offrire delle dissimmetrie di sensi opposti . Gli atomi  dell’acido destro sono riuniti secondo le spire di un’elica destrorsa , o situati alle sommità di un tetraedro irregolare , o disposte secondo questa o quell’altra determinata somiglianza dissimmetrica ? A queste domande noi non sapremmo rispondere . Ma ciò che non può essere oggetto di dubbio è che esiste una disposizione di atomi secondo un ordine dissimmetrico a immagine non sovrapponibile “.

Leggendo queste parole ci viene subito in mente il tetraedro di van’t Hoff e l’elica del DNA di James Watson e Francis Crick . Proprio con il tetraedro di van’t Hoff , dopo ben venticinque anni, nascerà la stereochimica . Nella storia della scienza coincidenze , fatalità, fortunate circostanze accompagnano spesso le grandi conquiste; il caso che ho esaminato rientra proprio in quello delle grandi scoperte assistite da una serie di fortunate circostanze. Ci hanno accompagnato in questo sintetico viaggio nella storia della chimica due protagonisti principali : la luce polarizzata e i cristalli di una botte di vino invecchiato . Entrambi sono stati i protagonisti della nascita della chimica in 3D .

stereo7

Dionisio ci ha fatto un inverosimile regalo: la stereochimica !

Polemiche di s…..picco!

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

Questo è un post un po’ speciale; a più voci; nello scorso numero de “La Chimica e l’Industria” il primo di quest’anno 2015, il vicedirettore Ferruccio Trifirò ha esordito con un lungo editoriale intitolato “Ormai è chiaro che non siamo alla fine dei combustibili fossili“; e questo ha stimolato almeno due risposte; la prima di Vincenzo Balzani una lettera aperta che vedete qui sotto; e una seconda a firma del Comitato Scientifico di Aspo Italia (la sezione italiana dell’associazione che studia il picco del petrolio); trovate questa seconda lettera dopo quella di Balzani;  l’editoriale originale di Trifirò, col permesso di CI e dell’autore è pubblicata in fondo; ma appena prima c’è una ulteriore brevissima risposta di Trifirò alla lettera di Balzani. Tutti questi testi sono in edicola sulla rivista della SCI, La Chimica e l’Industria, che però non è aperta al pubblico, ma solo agli iscritti; dato il loro interesse e col permesso della rivista  La Chimica e l’Industria (che è oggi inviata a tutti i chimici italiani,  insieme all’altra rivista dei chimici, Il Chimico Italiano, il periodico degli Ordini)  ripubblichiamo i vari testi.

Speriamo che queste diverse posizioni siano lo stimolo per un ampio dibattito; abbiamo bisogno di chiarire a noi stessi quale sia la situazione dell’energia nel nostro paese e nel resto del mondo; lo dobbiamo prima di tutto al nostro ruolo di scienziati e di cittadini di paesi democratici; discutere dei temi importanti è d’obbligo, prima di sentire le canzoni del festival di Sanremo; e, se ci pensate, anche quelle cose lì senza l’energia, che corre a fiumi perfino su quel palco, non potremmo permettercele.

Speriamo di ospitare quanto prima anche i commenti di Sergio Carrà, che come ci anticipa Trifirò non si faranno attendere, almeno su CI; e date le posizioni anti-picco e perfino anti-global-warming del prof. Carrà ci aspettiamo una ghiotta occasione di dibattito.

Oggi poi 13 febbraio è la Giornata del Risparmio energetico e quindi quale occasione migliore per discutere di energia e petrolio?

Buona lettura.

Claudio Della Volpe

***************************************************************************************************************

(pubblicata su CI di questo mese)

Lettera aperta al Direttore di La Chimica e l’Industria
Bologna, 25 gennaio 2014
Caro Trifirò,
Qualche giorno fa, mentre davo un’occhiata al numero settembre/dicembre della Chimica e l’Industria appena giunto sulla mia scrivania, nel quale è pubblicato il lavoro Energia: risorse, offerta, domanda, limiti materiali e confini planetari scritto con Margherita Venturi e Nicola Armaroli [1], sul computer mi è giunta la segnalazione della pubblicazione on line del numero 1/2015 della rivista. Una rapida scorsa all’indice di questo ultimo numero mi ha fatto sobbalzare: c’è un articolo intitolato Oramai è chiaro che non siamo alla fine dei combustibili fossili, scritto proprio da te, il direttore [2]. Mentre cercavo di collegarmi al sito, mi chiedevo: ma che novità è? Possibile che qualche scienziato abbia scritto che siamo alla fine dei combustibili fossili e che ora ci sia bisogno di un articolo del direttore di C&I per controbattere? Che scopo ha un articolo con un tale titolo?
Quando ho aperto il file dell’articolo, ho capito che, ovviamente, non volevi parlare di “fine dei combustibili fossili”, ma del famoso “picco del petrolio”. Già questa confusione semantica mi ha infastidito. Non voglio entrare nel dibattito sul picco del petrolio perché so che su questo punto ti hanno già risposto o ti risponderanno in modo esauriente i colleghi di ASPO. Voglio solo notare che quando si parla di argomenti importanti [3] bisogna usare le parole giuste, altrimenti c’è il rischio non solo di dire cose inesatte, ma, peggio, di ingannare il lettore. Ad esempio, come abbiamo già avuto modo di segnalare [1], è non solo sbagliato, ma ingannevole parlare di “Produzione sostenibile di idrocarburi nazionali” come fa il documento del Governo sulla Strategia Energetica Nazionale, quando tutti sanno che gli idrocarburi sono una fonte energetica non rinnovabile e, per di più, causa di seri problemi ambientali, climatici e sanitari. Ugualmente fuorviante è quanto ha scritto Romano Prodi in un articolo sul Messaggero del 18 maggio scorso: “sotto l’Italia c’è un mare di petrolio”. Il titolo del tuo articolo è sulla stessa linea perché convoglia lo stesso messaggio, così caro alle lobby petrolifere: “usate pure i combustibili fossili, perché ce n’é in abbondanza”
Confesso che anche altri punti del tuo articolo mi hanno disturbato. Parlare di “messaggi non ben documentati dei catastrofisti” in relazione al picco del petrolio suggerisce che,
come hanno notato i colleghi dell’ASPO, sei tu a non essere adeguatamente documentato e aggiornato. In effetti, l’unica dimostrazione che riporti a favore del fatto che il picco del petrolio è lontano è che il prezzo del petrolio è crollato. Ebbene, tu stesso in precedenti articoli [4-7] hai sostenuto che, come poi tutti sanno, il prezzo del petrolio dipende da una varietà di fattori incontrollabili, non di natura tecnica e scientifica.
A proposito di documentazione, voglio informarti che anche lo shale gas americano, tanto esaltato da alcuni economisti, si sta già avvicinando al suo picco (vedi figura) nonostante i più di 800.000 pozzi trivellati, tanto da far dire ad alcuni scienziati americani “We are setting ourselves up for a major fiasco” [8].

balzani1
Altra cosa strana. Nel tuo articolo [2] non nomini mai le “energie rinnovabili”, ma parli solo di non meglio precisate “fonti alternative”: forse con qualche nostalgia per il mancato ritorno dell’Italia al nucleare [6]? Non fai cenno della grande espansione in tutto il mondo di fotovoltaico ed eolico [1], ma elogi la trasformazione di due raffinerie di petrolio in raffinerie ad olio vegetale proveniente dalla Malesia (!). Tutto ciò senza far cenno a centinaia di studi che dimostrano, sulla base di ragioni etiche, sociali, ecologiche, energetiche ed economiche, “The nonsense of biofuels” [9] e il fatto che “The production of biofuels constitutes an extremely inefficient land use” [9, 10]. E’ vero che con la raffinazione dell’olio di palma della Malesia si sono salvati, per il momento, posti di lavoro, ma col tempo si capirà che si tratta di una decisione insensata per le molte ragioni sopra accennate. Tu stesso nel dicembre 2001 avevi scritto “se si utilizzassero materie prime agricole si abbandonerebbero al loro destino, per mancanza di cibo, milioni di abitanti in Africa e nel Far East” [4]. Certo, non bisogna lasciare nessuno senza lavoro e, per questo, occorre creare reti che ammortizzino lo shock e prendere altri provvedimenti in campo sociale ed economico (ad esempio, ridurre le disuguaglianze [11]); il problema non si risolve lasciando in funzione impianti inutili (molte delle odierne raffinerie e centrali termoelettriche) o convertirli in altri non solo inutili, ma anche dannosi per l’equilibrio del pianeta. Fra non molti anni ci sarà presentato il conto di questa e altre operazioni dei nostri illuminati petrolieri.
Ovviamente, non condivido il tuo entusiasmo per le “lungimiranti e preveggenti critiche rivolte da Sergio Carrà ai catastrofisti che insistono sottolineare i danni causati dall’uso dei combustibili fossili”. Ricordo solo che questi catastrofisti sono gli scienziati dell’’Intergovernmental Panel on Climate Change (IPCC) nel quale anche l’Italia, per fortuna, è rappresentata da persone competenti ed esperte.
Infine, vorrei concludere con un semplice ragionamento che sarei curioso sapere se condividi. Come dici tu, “non siamo alla fine dei combustibili fossili”; d’altra parte sarebbe insensato affermare il contrario. Ammetterai però che da diversi anni il costo energetico di estrazione dei combustibili fossili, espresso dal rapporto EROEI (Energy Return On Energy Investment) è in forte aumento: da un EROEI 10-20:1 per il petrolio convenzionale, si è passati a 4-7:1 per il petrolio ottenuto con ultra deepwater drilling, 3- 6:1 per le tar sands, 3-5:1 per heavy oil, 1,5-4:1 per oil shale (kerogen) [3]. Quindi è fuori di dubbio che nei prossimi decenni potremo ottenere sempre meno energia dai combustibili fossili, ed è anche fuori dubbio che il loro uso continuerà a causare danni all’ambiente, al clima e alla salute. Se è così (sei d’accordo?), più velocemente sviluppiamo le energie rinnovabili e meglio è per custodire il pianeta ed i suoi abitanti. Questo mi sembra debba essere il messaggio da diffondere in una rivista scientifica nel 2015, non quello di abbondanti riserve di combustibili fossili.
[1] V. Balzani, M. Venturi, N.Armaroli, Energia: risorse, offerta, domanda, limiti materiali e confini planetari, La Chimica e l’Industria, sett/dic 2014, 15-21. [2] F. Trifirò, Oramai è chiaro che non siamo alla fine dei combustibili fossili, La Chimica e l’Industria – ISSN – 2015, 2(1), gennaio 2283-5458.
[3] C. Rhodes, Peak oil is not a myth, Chemistry World, March 2014, 43. [4] F. Trifirò, Il petrolio: problema tecnico o politico? Chimica e Industria, 2001, 83(10), 11.
[5] F. Trifirò, Per fortuna s’innalza il prezzo del petrolio, Chimica e Industria, 2006, 88(8), 5. [6] F. Trifirò, E’ raddoppiato il prezzo del petrolio: cosa è successo nel frattempo? Chimica e Industria, 2008, 90(7), 4.
[7] F. Trifirò, Occorrre prepararsi all’alto prezzo del petrolio più che alla sua fine, Chimica e Industria, 2008, 90(9), 4.[8] M. Inman, The Fracking Fallacy, Nature, 2014, 516, 28-30. [9] H. Michel, The Nonsense of Biofuels,Angew. Chem. Int. Ed., 2012, 51, 2516. [10] V. Balzani, Qual’è il modo più efficiente per utilizzare l’energia solare? Sapere, 2014, giugno, 16-21.
[11] F. Fubini, Drastico allargamento delle distanze sociali: il patrimonio delle dieci famiglie più ricche è uguale al patrimonio dei 20 milioni di italiani più poveri, La Repubblica, 19 gennaio 2015.
Vincenzo Balzani
Università di Bologna

*****************************************************************

Lettera del Comitato scientifico di ASPO Italia. (pubblicata su CI di questo mese)

logoaspoitalia_lowresNon capire cosa sia il picco del petrolio, ma parlarne comunque.

(ASPO-Italia, gennaio 2015.)

Nel suo recente articolo su C&I Ferruccio Trifirò da prova di non aver capito cosa sia il Picco del petrolio né quali siano i segnali che, ragionevolmente, ne indicano l’approssimarsi. Il picco del petrolio non è la fine del petrolio. Come abbiamo ripetuto fino alla noia per anni, il picco del petrolio è il massimo di produzione ed è dunque, paradossalmente, ma altrettanto ovviamente, il momento di sua maggiore disponibilità. Il problema si verifica nel momento in cui la produzione comincia a scendere. Abbiamo già avuto un picco e i suoi effetti sono stati piuttosto dirompenti. Secondo l’IEA il petrolio convenzionale ha raggiunto e superato il picco nel 2005- 2006 come previsto da Campbell e Laherrere nel 1998 nel loro articolo su Le Scienze intitolato “la fine del petrolio a buon mercato”. piccopardi3Il petrolio convenzionale è il petrolio più facile da estrarre e, dunque, meno costoso. Che l’analisi di questi due specialisti del settore possa essere definita catastrofismo è un fatto, per noi ricercatori, del tutto irrilevante ai fini del dibattito scientifico sulla questione energetica. Il tentativo di rivitalizzare la produzione del petrolio convenzionale, andando a sfruttare giacimenti fino ad allora subeconomici ha avuto, non sorprendentemente, un costo considerevole. Sappiamo che a partire dal 2005 i costi di estrazione sono aumentati ad una media dell’11% ogni anno, per un costo totale a carico delle compagnie petrolifere di 2500 miliardi di dollari e il risultato è stato un mero rallentamento del loro declino di 1 milione di barili al giorno (Mb/d). Vale la pena di dire che dal 1998 al 2005, con una spesa di 1500 miliardi di dollari, si aggiunsero alla produzione 8,6 Mb/d. L’ulteriore sforzo per la produzione di petrolio di scisto, che non è convenzionale, attraverso la tecnica del fracking ha vaporizzato altre centinaia di miliardi di dollari. Qualcosa di profondo deve essere cambiato. Secondo le stime di vari autori l’EROEI (Energy Return on Energy Investment) del petrolio-gas USA è diminuito da valori prossimi a 100:1 (significa che con l’equivalente di 1 barile se ne estraggono 100) nella prima metà del secolo XX a valori nell’intervallo 40-20 negli anni ’70, fino alla situazione attuale in cui ha raggiunto valori inferiori a 20 e spesso molto più bassi. Questa breve discussione del tema dovrebbe convincere il lettore che è tecnicamente sbagliato considerare la produzione di liquidi combustibili come una mera somma di volumi dato che i diversi volumi, o per caratteristiche intrinseche, o per diversi valori di EROEI hanno contenuti energetici differenti. Tale prassi semplificatoria veicola un messaggio ingannevole e nasconde la reale dinamica della disponibilità di energia da idrocarburi. E passiamo ad esaminare la questione del prezzo. Una prima fase inflattiva si è verificata in prossimità e subito dopo il picco del petrolio convenzionale. La crisi economica che è seguita ha ucciso la domanda facendo precipitare il prezzo in modo sostanziale nel biennio 2008- 2009. Senza mai farlo tornare al minimo pre crisi di 20 $/b (corretto per l’inflazione). In seguito il prezzo medio si è assestato e dal 2010 è rimasto abbastanza alto da indurre i consumatori occidentali all’autocontrollo, ma non abbastanza da rendere totalmente redditizi i progetti estrattivi più complessi. Questa dinamica era già pienamente dispiegata alla fine della primavera scorsa quando con il petrolio appena sotto i 100 $/b le compagnie petrolifere iniziavano già a tagliare sugli investimenti. Il crollo del prezzo iniziato a settembre ha chiaramente messo fuori mercato la maggior parte della produzione ad alto costo, ma siccome i costi sono generalmente già stati sostenuti la produzione non inizierà a calare immediatamente. Le imprese petrolifere più deboli stanno affrontando tempi difficili mentre le più solide stanno provvedendo ad annullare o mettere in standby progetti di estrazione futuri. Il che prefigura un calo futuro della produzione. Se questo possa essere definitivo o innescare un nuovo ciclo di rialzo è materia di contesa alla quale volentieri ci sottraiamo sicuri che il futuro mostrerà quello che deve. Il fatto è che con il picco del petrolio convenzionale siamo entrati in una era completamente nuova dal punto di vista energetico, una fase di instabilità dei prezzi e della fornitura. In pratica il prezzo basso mostra si un’abbondanza di materia prima, ma l’abbondanza è determinata da una domanda debole e quindi indica un generale debolezza dell’economia globale. Da scienziati riteniamo irresponsabile fare propaganda di ottimismo quando sappiamo benissimo che la dipendenza della nostra società dal petrolio e dalle risorse fossili in generale, è tale che non prepararci per il declino per tempo, cioè con anni di anticipo, è un rischio enorme. A questo si dovrebbe aggiungere un vasto capitolo sulla necessità di uscire dal paradigma fossile per motivi strettamente ambientali, ma questa non è la sede in cui introdurre questo aspetto.

Il comitato scientifico di ASPO-Italia

24 gennaio 2015

*****************************************************************************************************

Risposta di Ferruccio Trifirò comparsa in questo numero di CI

Nel mio articolo ci sono già le risposte alla tua lettera ed è bene rendersi conto che ci sono settori diversi che hanno bisogno di energia: industria, trasporto e riscaldamento domestico. Il petrolio è utilizzato quasi tutto per il trasporto e solo un 10% per materie prime per la chimica, per questo quando si parla di petrolio che sta per finire occorre
pensare alle alternative ai carburanti ed in minor misura a quelle per la chimica.
Per quanto riguarda il riferimento a Sergio Carrà mi limito a segnalare la correttezza della sua previsione dell’assenza di un incombente depauperamento delle risorse di idrocarburi,
mentre per quello che concerne le sue opinioni sulle conseguenze di tale fatto ti rimando all’articolo che sarà pubblicato in uno dei prossimi numeri de La Chimica e l’Industria, dove
mostra oltre alla lungimiranza e preveggenza anche un cartesiano buon senso.

*****************************************************************************************************

Editoriale originale di Ferruccio Trifirò comparso nello scorso numero di CI:

ORAMAI È CHIARO CHE NON SIAMO ALLA FINE DEI COMBUSTIBILI FOSSILI
di Ferruccio Trifirò
In questa nota sarà ricordato che non esiste a breve tempo nessun picco del petrolio e saranno esaminati gli aspetti positivi dell’aumento del prezzo del petrolio e gli aspetti negativi della sua diminuzione

     trifi1
Con il prezzo del petrolio che è sceso a 50 dollari al barile, valore cha aveva più di dieci anni fa, oramai è chiaro che non abbiamo raggiunto il picco del petrolio né tantomeno quello degli altri combustibili fossili ed abbiamo riserve per molti anni a venire. Tuttavia possiamo affermare che l’elevato prezzo del petrolio negli anni passati ed i messaggi non ben documentati dei catastrofisti sul raggiunto picco del petrolio hanno avuto come effetto positivo la ricerca di nuovi pozzi in zone diverse, di fonti alternative,    l’aumento    della    resa dell’estrazione del petrolio dai pozzi, un aumento dell’efficienza energetica nei diversi settori di utilizzo dei combustibili fossili, una diminuzione degli sprechi e delle emissioni tossiche nelle diverse combustioni che ha fatto diventare il loro effetto negativo sull’ambiente meno pressante. Infatti molte raffinerie sono state chiuse per la diminuzione del consumo di petrolio in questi ultimi anni in Europa ed in Italia; in particolare quella di Marghera che per fortuna (per la manodopera locale) è stata trasformata in raffineria ad olio vegetale e quella di Gela che sarà trasformata ad olio vegetale per salvare l’occupazione locale, sviluppando una nuova tecnologia messa a punto dall’eni, dando anche un sostegno economico alla Malesia, che ha grandi quantità di olio di palma inutilizzato, invece che ai soliti Paesi produttori di petrolio. L’utilizzo dello shale gas e la produzione di petrolio da parte degli Stati Uniti che ha raggiunto lo scorso ottobre quella dell’Arabia Saudita, senz’altro sono stati altri fattori che hanno contribuito all’abbassamento recente del prezzo del petrolio.
Ma se nel passato l’aumento del prezzo del petrolio poteva non essere considerato negativo, l’abbassamento attuale può, come ricercatori, non essere ritenuto positivo, anche se diminuiscono i soldi che escono dalle nostre tasche, perché potrebbe bloccare tutte le ricerche su fonti alternative e fare chiudere gli impianti delle tecnologie alternative sviluppate in questi ultimi anni e concentrare i nostri soldi solo nei Paesi arabi. La ricerca di fonti alternative è il più utile deterrente per evitare un ulteriore aumento del prezzo del petrolio. Per spiegare meglio questa posizione che può sembrare nichilista (che si preoccupa per un suo ribasso e si rallegra per un suo rialzo), ho ritenuto utile ricordare alcuni editoriali che ho scritto su questa rivista diversi anni fa sul petrolio, che mi pare possano essere validi tutt’ora, e che riporterò integralmente di seguito1,2,3,4,5, e i due articoli e la conferenza tenuta all’Accademia Nazionale dei lincei sul petrolio di Sergio Carrà nel 20136,7,8, che era stato lungimirante e preveggente, criticando la posizione dei catastrofisti sulle riserve di petrolio e sui suoi effetti negativi sull’ambiente.
In ogni caso, per il principio di precauzione, diminuire il consumo di combustibili fossili può avere un effetto positivo sui cambiamenti climatici e, come aveva suggerito Benedetto XVI ai partecipanti al convegno di Durban, che non avevano trovato un accordo sull’abbattimento dei gas serra, la soluzione vincente è quella di cambiare gli stili di vita.
La Chimica e l’Industria    – ISSN 2283-5458- 2015, 2(1), gennaio
Attualità
trifi2Dicembre 2001 – Il petrolio: problema tecnico o politico?
Dopo l’11 settembre scorso, il petrolio è diventato di nuovo centrale nelle analisi dei media, nei commenti degli opinionisti e nelle preoccupazioni della gente. Ma non è chiaro se il problema sia tecnologico o politico, se siamo al declino dell’era petrolio e se si può ipotizzare, adesso, una terribile guerra per il suo controllo.
I grandi consumatori di petrolio, ciascuno utilizzante circa il 27% della produzione mondiale, sono oramai tre: il Nord-America, l’Europa (Occidentale e Orientale) e il Far-East. Tra l’altro è prevedibile che essi in futuro consumeranno maggiori quantità di carburanti per trazione e meno olio combustibile. La produzione attuale di petrolio è coperta per il 27% dai paesi del Golfo Persico, per il 15% dal Nord-America e per circa 8% da ciascuna delle altre geografiche (Sud-America, Europa, ex Urss, Far-East e Africa). Non si può dire che ci sia qualcuno, in questo momento, che possa dettare leggi nel mondo del petrolio. Le industrie petrolifere, grandi accusate del cinismo più sfacciato, sono responsabili
solo del 20% della produzione di petrolio, mentre l’altra accusata, l’Opec ne copre il 40%. È solamente per le riserve di petrolio che si nota la schiacciante predominanza dei paesi del Golfo e in particolare dell’Arabia Saudita. Questi paesi possiedono il 67% delle riserve note, contro il 10% del Sud America e meno del 5% per ciascuna delle altre aree (L. Maugeri, Il petrolio, Sperling & Kupfer e http://www.OPEC.org). Bisogna inoltre aggiungere, e questo aspetto viene spesso dimenticato, che nei paesi del Golfo Persico il costo di estrazione del petrolio è inferiore ai quattro dollari al barile, mentre in altre zone può raggiungere i quindici dollari. Infine in molti paesi arabi, da più di vent’anni, non si scavano più nuovi pozzi e quindi le loro riserve di petrolio potrebbero essere molto maggiori di quelle conosciute, mentre le industrie petrolifere si stanno svenando da anni in costose ricerche in tutte le parti del mondo. È vero che è stato trovato petrolio nel Kazakhstan e soprattutto nel mare Caspio e anche in Siberia, ma non è in gran quantità, come si è creduto, e i costi d’estrazione e di trasporto sono elevati. Ci sono diverse ipotesi sui possibili oleodotti che dovrebbero veicolare questo petrolio verso i consumatori, nel giro di cinque anni: una di queste ipotesi che in questi giorni è molto attuale, è il passaggio attraverso l’Afghanistan, ma questo paese non è per nulla la porta di un nuovo Eldorado. Quindi è bene non illudersi: nei prossimi vent’anni i paesi del Golfo saranno la sola fonte di petrolio a basso prezzo per l’umanità. Solo una stabilizzazione del suo prezzo, sopra i 30 dollari al barile, potrebbe spingere la ricerca di nuovi pozzi in altre aree geografiche o a utilizzarne altri già scoperti, ma il cui sfruttamento adesso è antieconomico.
Dopo la prima grande crisi petrolifera, quella del 1974, che ci aveva spinti a ripensare al carbone, a ristudiare la Fischer-Tropsch ed a riflettere seriamente sulla nostra debolezza strategica nei riguardi del reperimento delle materie prime, molte cose sono cambiate. A fine ottobre il prezzo del Brent (estratto nel Mare del Nord), uno dei petroli di riferimento, che è anche fra i più pregiati, è di venti dollari al barile, fra i valori più bassi dal 1974. Inoltre sulla base delle riserve accertate, sappiamo che si può andare avanti tranquillamente, ai consumi attuali di petrolio, almeno per trent’anni. In aggiunta sono stati messi a punto processi di sintesi di diesel a partire da gas naturale al prezzo equivalente di ventidue dollari al barile e nuovi processi catalitici di trasformazione di frazioni pesanti, così da poter creare raffinerie destinate solo ai carburanti e quindi ottimizzare meglio l’uso del petrolio. Sono state sviluppate tecniche di estrazione di petroli viscosi, che permettono di “raschiare” il fondo dei pozzi e recuperare il petrolio residuo. Infine il gas naturale oramai è entrato nella produzione di energia e gli alcani leggeri ad esso associato possono essere utilizzati per produrre materie prime e direttamente intermedi per la chimica. Non siamo quindi alla difesa dell’ultimo pozzo di petrolio, nessuno ci sta strozzando con gli alti prezzi o ci lesina il petrolio che desideriamo e abbiamo alternative, sia per la produzione di energia sia per quella di carburanti sintetici. Ma allora perché il petrolio è considerato così centrale e strategico nelle analisi fatte dopo l’11 settembre scorso? È il timore che potremmo dipendere nel prossimo futuro, se i prezzi rimarranno bassi, da un solo paese o area geografica per il rifornimento del petrolio, situazione che non si è mai verificata nel passato.
È consigliabile, quindi, ridurre i consumi di petrolio, utilizzare fonti alternative per la produzione di energia e produrre carburanti sintetici a partire da gas naturale. Altre vie alternative saranno difficili: se si
La Chimica e l’Industria    – ISSN 2283-5458- 2015, 2(1), gennaio
Attualità
consumasse più carbone, si andrebbe contro il protocollo di Kyoto; se si utilizzassero materie prime agricole si abbandonerebbero al loro destino, per mancanza di cibo, milioni di abitanti in Africa e nel Far East; se si ritornasse massicciamente sul nucleare, chi li sentirebbe i cittadini vicini agli impianti! Dovremo quindi ancora rimanere sul petrolio e spostarci sul gas naturale, sperando di non dover convivere nel prossimo futuro, con una spada di Damocle sulla testa, per l’unicità dei fornitori di materie prime. Noi chimici le soluzioni le abbiamo trovate. Il problema oramai è solo politico.
Ottobre 2006 – Per fortuna s’innalza il prezzo del petrolio. Così la chimica riparte Quando il prezzo di un barile di petrolio aveva raggiunto il prezzo di 30 dollari, mi ero sentito in dovere di scrivere un articolo, commentando che quel valore avrebbe dovuto portare a trasformazioni epocali. Infatti, era noto, che con il petrolio a 35 dollari al barile sarebbe diventato economico produrre carburanti sintetici a partire da gas di sintesi provenienti da metano o carbone. In realtà non sono avvenuti molti cambiamenti, salvo due iniziative per produrre diesel sintetico da gas naturale (GTL) in Qatar e Nigeria, l’annuncio della realizzazione di un impianto pilota dimostrativo di GTL a partire da gas di sintesi realizzato dall’Eni a Sannazzaro de’ Burgondi, la possibile realizzazione di un impianto di MTO (methanol to olefins),
concorrente agli steam cracking di frazione petrolifere, in Nigeria, di un impianto di produzione di acido acetico da etano, di formaldeide da metano in Arabia Saudita e di acrilonitrile da propano in Giappone. Questi progetti sottolineavano che l’era degli alcani leggeri come materie prime per la chimica era arrivata. In questi mesi è stato raggiunto il valore di 74 dollari al barile (sceso a 61 dollari in questi ultimi giorni) e, con lo spettro dei 100 dollari alle porte, mi chiedo ancora una volta quali cambiamenti dovremmo aspettarci.
L’alto prezzo del petrolio è senz’altro un forte incentivo al risparmio energetico e all’utilizzo di materie prime rinnovabili, anche se queste ultime non potranno che sostituire una modesta frazione, tuttavia significativa in quantità assoluta (10-20%), di quelle fossili. Per prevedere quali potrebbero essere i prossimi cambiamenti è però necessario capire che l’innalzamento del prezzo del petrolio non è dovuto, secondo quanto affermato da esperti Eni, né alla mancanza di petrolio a bassa densità e con poco zolfo (quello che in Europa chiamano Brent e negli USA Wti) né a quella di petrolio denso e con zolfo (quello chiamato non convenzionale), perché per entrambi si stimano riserve per almeno cinquant’anni, bensì alla mancanza sia di ricerca di nuovi giacimenti sia di capacità di raffinare petrolio non convenzionale. Eni, per esempio, come altre industrie, è già in possesso delle tecnologie necessarie per trasformare petrolio non convenzionale, di provenienza, tra l’altro, diversa dal Medio Oriente, in combustibile e quindi proprio l’innalzamento del prezzo del petrolio potrebbe favorirne l’entrata in massa, incentivando gli investimenti in questa direzione. L’elevato prezzo del petrolio dovrebbe, inoltre, far riflettere gli utilizzatori finali delle materie prime fossili sul loro uso ottimale: sarebbe meglio preservare il petrolio per il trasporto e per la chimica, il gas naturale per il riscaldamento domestico e per la chimica ed il carbone per l’energia.
La chimica ha sempre ha avuto un rilancio con la comparsa di nuove materie prime; è stato così nel passato, prima, quando furono disponibili enormi quantità di aromatici sottoprodotti della distillazione del carbone per ottener coke per l’industria metallurgica e, poi, per le olefine ottenute dagli scarti della raffinazione del petrolio.
Quindi risparmio energetico, utilizzo di petrolio non convenzionale, valorizzazione degli alcani leggeri presenti nel gas naturale ed utilizzo di materie prime rinnovabili, avranno un rilancio da un alto prezzo del petrolio e così la chimica potrà di nuovo ripartire. La catalisi accompagnata da nuove tecnologie reattoristiche sarà il motore di questa trasformazione.
Non possiamo cha augurarci che il prezzo del petrolio superi i 100 dollari al barile!
La Chimica e l’Industria    – ISSN 2283-5458- 2015, 2(1), gennaio
Attualità
Settembre 2008 – È raddoppiato il prezzo del petrolio cosa è successo nel frattempo? In un editoriale di due anni fa mi ero augurato che il petrolio raggiungesse il prezzo di 100 dollari al barile, perché prevedevo che così sarebbe ripartita la chimica e sarebbero stati realizzati nuovi investimenti nel settore. Adesso che il petrolio ha raggiunto i 147 dollari al barile e punta ai 200, è giusto chiedersi che cosa sia cambiato nel mondo e nel nostro Paese.
Occorre sottolineare che il petrolio è legato direttamente ed in maniera quasi totalizzante ai carburanti liquidi, mentre influenza indirettamente e marginalmente la produzione di energia. Il petrolio è legato all’energia indirettamente perché il suo prezzo trascina quello del gas naturale e direttamente per l’utilizzo dei residui di distillazione che
possono venire bruciati o gassificati, ma queste due fonti sono importanti per la produzione di energia elettrica solo nel nostro Paese, risultano, invece, marginali per gli altri Paesi. Anche se il petrolio non è centrale per l’energia elettrica e termica, in realtà il maggiore numero di novità in questi ultimi due anni è arrivato proprio da questo settore, sotto la spinta emotiva del suo prezzo elevato e dei cambiamenti climatici e quindi dall’esigenza di abbattere la CO2 emessa. L’innalzamento del prezzo
petrolio è coinciso, infatti, con il rilancio del nucleare in Italia e nel resto del mondo e con il coinvolgimento anche di aziende petrolifere, come l’Eni e la Total, alla loro costruzione. In Italia il governo ha deciso che saranno costruite centrali nucleari di terza generazione, quelle più moderne, a più basso costo e più sicure, anche se non si sa dove saranno costruite e conservate le relative scorie. Ci sono 13 centrali nucleari tutte intorno alle Alpi, entro un raggio di 250 km dal nostro confine… fa sorridere l’aver chiuso le nostre centrali per problemi legati alla sicurezza. Il nucleare però non è per il domani, ma per il dopodomani, non risolve i problemi attuali dell’energia e neanche quelli dell’immediato futuro. Il nostro Paese attualmente dipende per l’energia in maniera preponderante dal gas naturale e ci si è accorti finalmente che non è più possibile, per motivi economici e soprattutto strategici, rimanere legati per il suo rifornimento solo a due gasdotti provenienti dall’Algeria e dalla Russia. La buona notizia è che saranno costruiti 4 o 5 terminali per metano liquefatto nei prossimi anni. Un’altra buona notizia è che è entrata in marcia la centrale a carbone pulito di Civitavecchia che utilizza una tecnologia di ultima generazione, un impianto unico in Europa, la cui apertura è stata osteggiata per molti anni e che produrrà il 4% dell’energia nazionale e sarà a regime nel 2009. Si è parlato, nel nostro Paese, anche di aquiloni e di palloni di elio o ad idrogeno che si muovono ad alta quota utilizzando le correnti e che producono energia a basso prezzo, in maniera continua, senza deturpare il paesaggio. Inoltre sono state costruite nel frattempo nuove centrali fotovoltaiche, per esempio una è stata costruita vicino a Bologna, una delle più grandi in Italia, costituita da 450 pannelli, e sono previsti nella sola Emilia Romagna altri 200 progetti di questo tipo. Un’altra buona notizia, dopo lo scempio dei rifiuti di Napoli, è che saranno costruiti dei termovalorizzatori che, oltre alla distruzione pulita dei rifiuti, produrranno calore ed energia elettrica. Infine l’ultima notizia raccolta è che l’Enel costruirà entro il 2012 al largo delle coste siciliane una centrale eolica con 150 turbine, la prima nel Mediterraneo. Ci si sta quindi muovendo, anche nel nostro Paese, nella diversificazione delle fonti di energia e di produzione di calore per il riscaldamento domestico, strategia che è l’unica vincente.
Cosa è successo di nuovo nel settore dei carburanti liquidi? Ci sono stati diversi eventi che hanno evidenziato che questo settore è quello che dipende di più dal petrolio, come hanno dimostrato i numerosi scioperi che si sono svolti in tutta Europa da parte di operatori nel settore dei trasporti ed anche i problemi economici che sono emersi nel trasporto pubblico ed in quello aereo, dove sono stati ridotti il numero di voli e si è manifestato interesse a cambiare la flotta con aerei a minore consumo di carburanti. Ma qui il problema è puramente politico, occorre detassare le attività lavorative che sono influenzate molto dal prezzo dei carburanti, ricordando che il 65% del suo prezzo è dovuto a tassazione e solo il 17% al prezzo del petrolio. Non ci sono state, invece, novità, in quello che si era augurato nel precedente editoriale e che avrebbe fortemente coinvolto la chimica, ossia nella sintesi di combustibili liquidi a partire dal gas naturale o dal carbone; anche l’impianto previsto da gas naturale in Nigeria dell’Eni non è stato realizzato. Probabilmente i costi sono ancora elevati, il prezzo del petrolio non è stabile e la richiesta di forti
trifi3La Chimica e l’Industria    – ISSN 2283-5458- 2015, 2(1), gennaio
Attualità
investimenti richiede più tempo per decidere. Ma è arrivata, però, la notizia che l’Eni ha costruito due impianti pilota, uno a Milazzo e uno a Mantova, per provare la tecnologia CPO (ossidazione parziale di metano) per produrre gas di sintesi in maniera alternativa e successivamente combustibili liquidi più economici, via reazioni Fischer-Tropsch o via metanolo. Inoltre l’Eni ha realizzato a Taranto un impianto dimostrativo da 1.200 barili al giorno di trattamento di frazioni pesanti e ha intenzione di realizzare un impianto da 23.000 barili al giorno della stessa tecnologia a San Nazzaro de’ Burgondi in Lombardia. A integrazione di questa scelta strategica l’Eni sarà probabilmente coinvolta nella caratterizzazione e forse anche nello sfruttamento del più grande giacimento al mondo di petrolio pesante nella valle dell’Orinoco in Venezuela.
È utile ricordare che le riserve di petrolio pesante, scisti e sabbie bituminose, quasi per nulla utilizzate adesso, ammontano a 2.000 miliardi di barili, circa come quelle di petrolio convenzionale. Si può, quindi, concludere che il nostro Paese si sta preparando anche a difendersi dagli effetti negativi sui carburanti liquidi dell’innalzamento del prezzo del petrolio ed anche al declino delle sue riserve, cercando alternative al petrolio convenzionale.
Non ci sono stati, invece, nuovi sviluppi nella produzione di biocarburanti, se non la notizia che tre autobus viaggiano alimentati da bioetanolo a La Spezia: c’è stata anzi una levata di scudi contro queste scelte ritenute responsabili dell’aumento del prezzo dei prodotti agricoli per l’alimentazione ed è stata questa la più grossa novità. C’è in aggiunta un’accusa della Banca Mondiale contro quei Paesi che danno sostegni economici alla produzione di biocarburanti ed inoltre non si è più sentito parlare della costruzione a Livorno da parte di Eni e UOP di un impianto di idrogenazione di oli vegetali per produrre “green diesel”.
Nel settore chimico l’unica novità di rilievo è arrivata dalla Cina, dove sarà costruito un impianto gigante di MTP (methanol to propylene) per produrre propilene da trasformare in polipropilene a partire dal carbone, via gassificazione a gas di sintesi e successiva produzione di metanolo. Il propilene attualmente viene ottenuto da frazioni di petrolio e gas naturale. Non ci sono, invece, molte notizie su nuove iniziative di risparmio energetico e di carburante e di aumento dell’efficienza energetica nei diversi settori, ed è, invece, proprio su questo che occorre intervenire subito. Questo, però, è più difficile perché comporta cambiamenti di stile di vita.
In conclusione con l’aumento del prezzo del petrolio trasformazioni stanno avvenendo in tutti i settori, eccetto che sul risparmio, anche se per il momento, l’effetto più marcato e macroscopico è quello sulle nostre tasche, sui mercati finanziari e sulla borsa.
Ottobre 2008 – Quale futuro per la chimica?
Su quali materie prime utilizzare in futuro, c’è un grande dibattito in tutti i Paesi e su tutte le riviste tecniche e non, ma questo dibattito coinvolge essenzialmente il problema della produzione di carburanti e di energia, toccando marginalmente la sintesi di prodotti chimici. È opinione diffusa che fra vent’anni l’utilizzo dei combustibili fossili per la produzione di energia elettrica e termica sarà fortemente ridotto e che metano, idrogeno e etanolo saranno i carburanti maggiormente utilizzati; quindi il petrolio potrebbe essere conservato per la chimica. In aggiunta la produzione chimica si differenzia da quella dei carburanti, perché è di due ordini di grandezza inferiore, possiede un maggiore valore aggiunto, e quindi c’è sempre un vantaggio economico ad entrare in chimica, e i processi di produzione sono più complessi, quindi non facilmente realizzabili da tutti i
Paesi. Inoltre la chimica di base (polimeri e fertilizzanti) ha una produzione di due ordini di grandezza superiore rispetto a quella della chimica secondaria, perciò per questo settore, a maggior ragione, non ci saranno problemi di reperibilità di materie prime nel prossimo futuro. Le materie prime che si possono prendere in considerazione in una strategia futura per l’industria chimica sono quelle già adesso utilizzate e cioé: il petrolio convenzionale (con riserve a basso costo di estrazione), il gas naturale, il carbone, le biomasse. Queste materie prime hanno attualmente un peso diverso a seconda della zona geografica e del tipo di prodotto ottenuto, però si può senza esitazioni affermare che la maggior parte del carbonio e dell’idrogeno presente nei prodotti chimici che utilizziamo tutti i giorni, proviene dal
trifi4La Chimica e l’Industria    – ISSN 2283-5458- 2015, 2(1), gennaio
Attualità
petrolio. Altre materie prime che potrebbero anche essere prese in considerazione nel futuro sono il petrolio non convenzionale (scisti e sabbie bituminose e petrolio pesante), gli idrati di metano, il metano presente nelle miniere di carbone: le riserve di queste materie prime sono molto superiori di quelle utilizzate attualmente (anche se sono molto elevati i costi energetici di estrazione) e si potranno anche prendere in considerazione sia la CO2 recuperata dagli impianti di combustione, sia l’idrogeno proveniente
dalla dissociazione dell’acqua, sia i rifiuti plastici. Perfino Mendeleev caldeggiava che il petrolio non fosse utilizzato per la combustione perché è un prodotto di valore troppo elevato. A conferma di questa scarsa preoccupazione nel mondo chimico circa i limiti all’approvvigionamento delle materie prime, si può constatare che grandi cambiamenti nell’industria chimica finora non sono avvenuti, nonostante diversi anni fa si dicesse che il prezzo del barile di petrolio che avrebbe innescato il cambiamento era di 35 dollari. Questo valore limite è stato spostato a 50, poi a 80, in seguito a 100: ora siamo arrivati a 147 e la chimica non ne sembra traumatizzata. Forse si aspetta che si stabilizzi il prezzo del petrolio, infatti è gia sceso in meno di un mese sotto quota 90, ma quello che frena ogni possibile cambiamento è il fatto che non siamo in realtà vicini alla sua fine o a una diminuzione della sua offerta e i costi di produzione dei primi intermedi con le nuove materie prime sono ancora molto costosi. Per potere utilizzare nuove materie prime occorre abbassarne il prezzo e l’ideale sarebbe ottenerle come sottoprodotti di altre industrie, in particolare di quella dei carburanti, come succede attualmente per il petrolio, o che vengano prodotte in grandi impianti per il loro utilizzo, per esempio come carburanti, come si verifica per l’etanolo. Per la chimica non c’è nessun limite a breve termine al reperimento delle materie prime, ci sono solo opportunità diverse che localmente possono essere sfruttate, per produrre prodotti a ridotto impatto ambientale ed anche a minor prezzo.
trifi5Novembre 2008 – Occorre prepararsi all’alto prezzo del petrolio più che alla sua fine Appena due mesi fa in un editoriale, commentando il fatto che in due anni il prezzo del petrolio era raddoppiato raggiungendo il valore di 147 dollari al barile e che secondo il parere di molti esperti stava puntando a 200, avevo scritto che non c’era assolutamente da preoccuparsi, almeno per la produzione di energia elettrica e per il riscaldamento, perché oramai diverse erano le alternative, rinnovabili e non, al petrolio sviluppate nel mondo ed anche nel nostro Paese. Un mese fa, in un numero dedicato ai limiti delle risorse e quindi al previsto raggiungimento del picco del petrolio, ancora nell’editoriale, avevo ricordato che anche per la chimica non c’era assolutamente da preoccuparsi per l’approvvigionamento futuro
delle materie prime, perché le quantità di petrolio utilizzate sono molto inferiori di quelle destinate alla produzione di carburanti ed inoltre è possibile sfruttare altre fonti fossili con tecnologie già ben collaudate o fonti rinnovabili per le quali, per le quantità in gioco, non c’è grande concorrenza con l’alimentazione. Adesso, solo dopo due mesi, ci troviamo con il prezzo del petrolio più che dimezzato a 61 dollari, invece che puntare sui 200 come molti catastrofisti avevano profetizzato, e ci si chiede se possiamo scrivere di non preoccuparsi anche per la produzione di carburanti, l’utilizzo principale di questa materia prima fossile, e se possiamo sperare che il famoso picco del petrolio, che avverrà inesorabilmente, si stia però allontanando nel tempo.
La prima cosa che risulta evidente è che l’alto prezzo del petrolio fosse dovuto solo a speculazione finanziaria, che non fosse condizionato dalla domanda e dall’offerta, e che quindi il petrolio non si sta affatto esaurendo, così come tutte le altre fonti fossili attualmente utilizzate. L’aumento del prezzo, infatti, non era coinciso con una diminuzione della sua offerta, ma solo con un aumento della sua domanda da parte di India e Cina. Anzi alcuni mesi fa l’Arabia Saudita aveva acconsentito ad aumentarne la produzione e solo ora che il prezzo si è dimezzato l’OPEC (l’associazione di produttori che copre il 40% della produzione mondiale di petrolio) ha deciso di diminuirla, così come Iran e Venezuela avevano richiesto, già quando era andato sotto i 100 dollari. L’estrazione del petrolio costa circa 5 dollari al barile nel Golfo Persico, 20 dollari nel mare Nord e 35 dollari in giacimenti di petrolio pesante, quindi per i Paesi produttori i margini di guadagno sono ancora abbondanti. Proprio questo dovrebbe spingere alla ricerca di nuovi giacimenti, al
trifi6La Chimica e l’Industria    – ISSN 2283-5458- 2015, 2(1), gennaio
Attualità
migliore sfruttamento di quelli esistenti, a trovare alternative per la produzione dei carburanti e a migliorare l’efficienza energetica dei motori. E quindi, in definitiva, è proprio l’elevato prezzo del petrolio che aiuta a prepararsi con saggezza ed in largo anticipo alla sua inesorabile fine. È bene ricordare che le riserve accertate di petrolio convenzionale sono 1.028 miliardi di barili, mentre quelle di altre fonti fossili in miliardi di barili di petrolio equivalente sono 1.080 per il gas naturale, 1.950 per il petrolio non convenzionale, 6.100 per gli idrati del metano, 1.000 per il metano associato al carbone e 5.000 per il carbone. Il mondo consuma circa 30 miliardi di barili all’anno, quindi è facile verificare quanti anni dobbiamo aspettare per la scomparsa del petrolio, tuttavia ci sono anche altre riserve fossili prevedibili. Infatti, quelle riportate sono le riserve accertate, ma le stime recenti dell’AIE hanno valutato riserve di almeno altri 1.600 miliardi di barili. Basti pensare che in Italia abbiamo trovato petrolio in Basilicata a 4.000 metri di profondità ed a Trecate (BG) a 6.000 metri e questi sono tra i pozzi più profondi al mondo. Esplorazioni a tappeto sono state fatte solo negli Stati Uniti ed in Canada, ma pochissime negli altri Paesi ed alcune sono iniziate solo dopo il 2006 con l’innalzamento del prezzo del petrolio, un forte incentivo a cercarne dell’altro. Le stime accertate di riserva di petrolio attualmente sono superiori a quelle di trent’anni fa ed il picco di petrolio ipotizzato da Hubbert si è spostato nel corso degli anni. Secondo Leonardo Maugeri, direttore “Strategie e sviluppo” dell’Eni, cercare la cifra definitiva delle riserve di petrolio è un mistero come il santo Gral, perché è realmente difficile valutare con sicurezza la quantità di petrolio nel sottosuolo: infatti non ci sono dei laghi sotterranei, facili da caratterizzare, ma in gran parte ci sono strati di roccia imbevuti di petrolio e non ci sono ancora tecniche affidabili per la valutazione accurata di tali quantità.
Secondo il presidente dell’Opec, l’algerino Chakib Khelil, di riserve di petrolio ce ne sono per almeno 50/100 anni e che più che il picco del petrolio ai Paesi produttori fa paura il picco della domanda, ossia la riduzione delle richieste di petrolio, perché si sarà passati ad altre fonti energetiche, e per il petrolio succederà come per il carbone, del quale sono rimaste ancora enormi riserve, da quando è stato soppiantato dal petrolio. Khelil inoltre crede che la teoria del picco del petrolio proposta da Hubbert sia vanificata dal fatto che quest’ultimo non ha tenuto conto del progresso tecnologico che ha aumentato le riserve ed ha permesso di trovare petrolio in posti prima mai pensati (per esempio al largo in fondali marini) e di sfruttare meglio i giacimenti ora attivi.
C’è attualmente un grande impegno delle industrie petrolifere, compresa l’Eni, nella ricerca per aumentare l’efficienza di estrazione ed il recupero dei giacimenti in esaurimento, nel mettere a punto nuove tecniche per individuare e sfruttare giacimenti collocati in profondità, nel trasportare gas naturale da lunghe distanze e nel trasformarlo in situ in prodotti liquidi ed infine nell’estrarre in maniera economica petrolio pesante e trasformarlo in petrolio convenzionale. Solo il 35% di petrolio può essere estratto dai giacimenti con le tecnologie attuali, ma nel futuro questa cifra aumenterà senz’altro; inoltre solo il 30% dei bacini sedimentari dove può essere trovato petrolio è stato accuratamente investigato. Quindi è chiaro che un giorno il petrolio finirà, ma questo momento sembra ancora molto lontano. Non solo le riserve di petrolio sono maggiori di quanto previsto, ma possiamo ottenere carburanti liquidi da gas naturale, da carbone, da rifiuti, da biomasse e da sabbie e scisti bituminosi con tecnologie ben collaudate e potranno essere messi sul mercato carburanti meno inquinanti alternativi al gasolio ed alla benzina, come il metano, l’etanolo, il DME, il biodiesel e l’H2. È dunque importante razionalizzare da subito i consumi di carburante e per questo
dobbiamo tenere conto anche delle ipotesi di chi vede il picco del petrolio molto vicino, perché questi messaggi possono essere una forte spinta al risparmio. È utile ricordare che nei progetti di sostenibilità di molte industrie chimiche c’è proprio l’impegno di mettere a punto nuovi materiali che rendano gli autoveicoli più leggeri per ridurre i consumi di energia e di utilizzare trasporti più leggeri per i loro prodotti. Avvicinandosi al picco del petrolio non solo occorre risparmiare sulle quantità di carburanti utilizzate, ma anche investire nella ricerca di nuovi carburanti alternativi o in nuove vie di sintesi a partire da materie prime non tradizionali, perché questa e l’unica via per calmierare il prezzo del petrolio. Il vero prezzo del petrolio è quello dei prodotti alternativi che possiamo mettere a punto. Non è alla fine del petrolio che dobbiamo prepararci, in maniera prioritaria, ma al suo elevato prezzo. Così, come teme il presidente dell’OPEC, se troveremo alternative ai carburanti attuali e alle loro vie di sintesi, potranno rimanere in futuro enormi quantità di petrolio non vendute, che, se il prezzo sarà accettabile, potremo utilizzare per la chimica.
La Chimica e l’Industria    – ISSN 2283-5458- 2015, 2(1), gennaio
Attualità
Adesso, però, la paura è nell’abbassamento del prezzo del petrolio perché questo frena i progetti sui carburanti alternativi.
Conclusioni
Molte delle previsioni che erano state fatte nel passato non si sono avverate. Sembrava che dovesse ripartire il nucleare in Italia ed in Europa ma non è ripartito. Sembrava che dovesse partire la sintesi di carburanti liquidi da gas naturale ed una chimica da paraffine e non sono partite. Sarebbe dovuta partire una nuova centrale a carbone a Porto Tolle, la più avanzata al mondo con sequestrazione della CO2, ma non è stata autorizzata. Si sarebbero dovuti realizzare molti rigassificatori ma sono stati realizzati solo i due di Adria e Livorno. Sarebbe dovuto arrivare altro gas naturale con nuovi gasdotti ma la loro costruzione non è ancora terminata. Sta per partire la realizzazione delle due bioraffinerie di Marghera e Gela a partire da olio vegetale, ma solo perché la Comunità Europea ha imposto di utilizzare una percentuale ben definita di biocarburanti per il 2020. In campo chimico ci sono stati diversi utilizzi di biomasse come materie prime, ed il nostro Paese ha dato un contributo significativo, ma non perché costassero di meno o fossero più disponibili, ma per la migliore qualità dei prodotti e per la semplificazione dei processi di trasformazione. Solo in Italia si è sviluppata una produzione significativa di energia elettrica mediante fotovoltaico a seguito di notevoli incentivi statali. Per il futuro, per adesso, non si possono fare previsioni.
BIBLIOGRAFIA 1 F. Trifirò, Chimica e Industria, 2001, 83(10), 11. 2F. Trifirò, Chimica e Industria, 2006, 88(8), 5. 3F. Trifirò, Chimica e Industria, 2008, 90(7), 4. 4F. Trifirò, Chimica e Industria, 2008, 90(8), 4. 5F. Trifirò, Chimica e Industria, 2008, 90(9), 4. 6S. Carrà, Chimica e Industria, 2013, 95(7), 72. 7S. Carrà, Chimica e Industria, 2013, 95(8), 87. 8S. Carrà, Convegno “La sfida del Terawatt: quale ricerca per l’energia del futuro?”, Accademia Nazionale dei Lincei, Roma, 5-6 novembre 2013.
La Chimica e l’Industria    – ISSN 2283-5458- 2015, 2(1), gennaio

Bitul B’shishim (una parte in sessanta) (parte 2)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

Bitul B’shishim (una parte in sessanta)”, gli antichi colleghi … talmudici?

a cura di Federico Maria Rubino, Federico.Rubino@unimi.it

la prima parte di questo articolo è stata pubblicata qui

fmrubino

Sorge la curiosità di capire quando e come questa specifica proporzione abbia fatto ingresso nelle tradizione ebraica, e quale significato questa informazione possa ricoprire nella reinterpretazione della storia dell’Antico Mediterraneo. La codificazione dell’ebraismo nelle sue forme quali sono state trasmesse e conservate per oltre venti secoli è un prodotto storico complesso, cresciuto nel dibattito interno, spesso tutt’altro che pacifico, e attraverso la convivenza, pacifica o tragicamente conflittuale, con gli altri popoli dell’Antico Mediterraneo. In particolare, l’interazione (più spesso conflittuale che pacifica) del giudaismo con l’ellenismo ne ha agevolato, o consentito la conservazione, anche nelle forme sincretiche e nei mutamenti strutturali che lo rendono ancor oggi peculiare, e ciò a differenza di altre culture antiche, di cui non è rimasta quasi traccia. Un evento particolare sembra abbia caratterizzato alcune di queste perdite: Lucio Russo ha recentemente riesaminato un passaggio poco noto della storia antica, focalizzato intorno al 143-142 BCE, ed essenzialmente corrispondente alla contemporanea distruzione di Cartagine e di Corinto da parte dei Romani. Russo trae le conseguenze di questo evento in due saggi, uno recentemente posto anche all’attenzione di questo blog [12].

La sua tesi [12-14] è che, con la sostanziale e rapida distruzione dei centri dell’esperienza ellenistica, sia stata altrettanto rapidamente distrutta e dimenticata anche un’elaborata esperienza intellettuale, quella della fioritura ellenistica, quale l’Occidente non ha potuto ricostruire se non dall’inizio dell’Età Moderna. Il patrimonio intellettuale distrutto, parte del quale Russo ricostruisce nell’ambito della matematica, della fisica [13] e delle conoscenze geografiche [14], appare di livello confrontabile con quello dell’Europa agli albori dell’Illuminismo, peraltro responsabile, sempre secondo Russo, di aver rapidamente dimenticato e distrutto quanto di quelle conoscenze ancora rimaneva, con l’obiettivo ideologico di far nascere ex-novo, “per solo Lume di Ragione” le proprie scoperte.

Per le scienze “immateriali”, quale la “matematica” e la “fisica” (comunque si voglia distribuire tra esse il patrimonio metodologico e conoscitivo quale a noi appare oggi), quanto è stato tramandato anche in forma lacunosa, incomprensibile spesso agli stessi intermediari, risulta spesso sufficiente per trarre ipotesi speculative sulla natura e sul livello delle conoscenze degli Antichi, quelli “prima del crollo”. Al contario, per altre forme di conoscenza della realtà materiale, tra cui la manipolazione cosciente della materia (vulgo, la “chimica” nelle sue accezioni più ampie), questa ricostruzione appare maggiormente lacunosa nella disponibilità di fonti e più dubbia, in particolar per quanto riguarda la transizione “Dal Mondo del pressappoco all’universo della precisione” (come suona il titolo del saggio di Alexandre Koyrè [15], la cui tesi di fondo Russo intende ridimensionare), ovvero nell’adozione di criteri quantitativi e dei modelli teorici che li giustificano.

La tesi che può essere sviluppata a partire dalla prescrizione rituale degli Ebrei antichi e contemporanei “una parte in sessanta” è che anche le conoscenze “chimiche” (continueremo a utilizzare d’ora in poi termini quali chimico, biologico, farmacologico, per quanto apparentemente in modo anacronistico, nella loro forma estensiva di manipolazione cosciente e finalizzata delle proprietà della materia) dell’Antico Mediterraneo erano basate su criteri quantitativi di complessità confrontabile con quelli che la tecnologia chimica e l’immagine chimica dei fenomeni biologici hanno posseduto fino alla “rivoluzione analitica” di metà ‘900. Ipoteticamente, in sostanza, nella prescrizione halachica “uno in sessanta” rivive una traccia “fossile” di un sapere chimico e farmacologico basato sulla consapevolezza dell’esistenza di criteri di proporzionalità misurabile tra le quantità di materia e alcune almeno delle loro proprietà o conseguenze e sul suo impiego consapevole nelle applicazioni pratiche. Questa consapevolezza quantitativa era parte dell’apparato conoscitivo degli Antichi “prima del crollo” ed è sopravvissuta in forme empiriche, conservata in ambiti, quale appunto quello dell’osservanza rituale ebraica, anche quando delle sue ragioni e della sua esatta formulazione era venuto meno il ricordo.

Innanzitutto, operare per rapporti costanti, piuttosto che per quantità assolute, semplifica molte operazioni tecnologiche, specie in assenza di unità di misura condivise, costanti, riproducibili, come sarà, e tuttora solo in parte, solamente attraverso l’introduzione di una base universale e delle unità metriche decimali da parte degli uomini della Rivoluzione francese e dell’Impero napoleonico. Russo suggerisce che alla misura della circonferenza terrestre da parte di Aristarco di Samo (Eratostene) e alla sua espressione come 252.000 “stadi” corrisponda in realtà non solamente la misura geodetica in quanto tale, ma anche l’adozione quale unità di lunghezza una basata appunto sulla circonferenza equatoriale terrestre (anziché dell’arco di meridiano, come scelto da Delambre e Méchain alla fine del XVIII secolo) e sulla definizione di un suo comodo sottomultiplo (il numero 2.520 è divisibile per tutti gli interi compresi tra 2 e 10) quale grandezza campione.

La stechiometria dopotutto garantisce la possibilità, oggi del tutto ovvia e conseguente alla struttura della materia alla scala atomica e molecolare, ma in precedenza basata su assunti empirici di solidissimo buon senso, di aumentare o ridurre la scala delle operazioni chimiche, mantenendo la garanzia del risultato atteso, a condizione di mantenere sotto controllo i rapporti reciproci degli ingredienti. Questo procedimento svincola dalla necessità, altrimenti non eludibile, di fissare anche per la quantità di materia unità di misura condivise, specialmente in assenza (o nel perimento) di istituzioni stabili per la loro custodia e il controllo della rispondenza degli strumenti di misura pratici ai campioni di riferimento.

Il numero “60” è la base del sistema sessagesimale, introdotto dagli antichi Sumeri e babilonesi e tuttora impiegato per la misura degli intervalli di tempo e degli angoli. Per questa ragione esso rappresentava anche per gli Ebrei di Babilonia, che costituivano la componente maggioritaria della popolazione diasporica al tempo delle prime redazioni della tradizione orale, una base familiare per il calcolo. Esso appare inoltre possedere il valore di un numero preciso, piuttosto che alludere a una quantità “indefinitamente alta”, affidata fin dal Genesi ad espressioni legate al numero sette.

Lamech, discendente di Caino, rivendica: “Ho ucciso un uomo per una mia scalfittura e un ragazzo per un mio livido. Sette volte sarà vendicato Caino, ma Lamech settantasette” (Gen 4,23-24).

e l’espressione veterotestamentaria “settanta volte sette” è a sua volta citata nella “Parabola del servo senza pietà”: In quel tempo, Pietro si avvicinò a Gesù e gli disse: “Signore, quante volte dovrò perdonare al mio fratello, se pecca contro di me? Fino a sette volte?” E Gesù gli rispose: “Non ti dico fino a sette, ma fino a settanta volte sette.” (Matteo 18,22,).

Il numero “60” è espresso in fattori primi come 22 * 3 * 5, e possiede un’impressionante serie di ben 12 divisori, che lo rende agevole l’impiego come base per unità di misura con multipli e sottomultipli. Meglio ancora, i suoi tre fattori primi costituiscono la più piccola terna pitagorica (ovvero: 32 + 42 = 52), ampiamente nota, almeno su base empirica, anche nell’Antico Oriente, e per questa ragione altrettanto largamente impiegata per il tracciamento di allineamenti perpendicolari sul terreno.

1601Una corda lunga 12 unità arbitrarie di lunghezza, annodata ai capi, consente di individuare con certezza la direzione perpendicolare a un allineamento dato, sul quale è identificato a turno ciascun cateto: utilizzando l’ipotenusa lunga 5 unità per definire univocamente la posizione del terzo vertice del triangolo e ripetendo due volte il procedimento, si identifica sul terreno anche la lunghezza del segmento unitario. Utilizzando la base sul terreno per costruire i triangoli rettangoli simmetrici, si identifica anche l’allineamento parallelo alla base originaria. La medesima corda consente anche di disegnare sul terreno triangoli equilateri, ad esempio nel numero di sei, fino a tornare all’allineamento di partenza. Generazioni di praticanti il “gioco di Kim” hanno ripercorso il cammino dei geodeti (arpedonapti, tenditori di funi) e degli architetti “empirici” (?) che edificarono ziggurat, piramidi, templi Maya e altre strutture edilizie macroscopiche.

1602La medesima proprietà della terna pitagorica fondamentale rende semplice dimensionare in modo “esatto” una coppia di recipienti i cui volumi stiano tra loro come 1 sta a 60. Il minore è un “cubetto” di lato unitario, quale che sia la lunghezza arbitrariamente assunta come unità. Il maggiore è un parallelepipedo retto le cui dimensioni sono, appunto, 3, 4 e 5 unità. Ora è sufficiente diluire “un volume” del prodotto incriminato, versato dal recipiente minore, nel recipiente maggiore per avere la certezza di una diluizione 1:60, con una singola operazione.

La Jewish Encyclopaedia ricostruisce le unità di misura impiegate nell’antico Israele, nelle quali si alternano i sistemi delle due principali aree geopolitiche di riferimento, quella babilonese e quella egizia. Per le misure di capacità, il sistema ebraico coincide con quello babilonese, sessagesimale, la cui unità fondamentale (maris, in ebraico mina) aveva come multipli i fattori 12, 24, 60, 72 (60 + 12), 120, 720 [16]. Al contrario, il sistema egizio adottava per i multipli dell’unità fondamentale di capacità la progressione geometrica regolare di ragione 2: 1, 10, 20, 40, 80, 160 [17].

Successivamente, il Talmud (composto tra il II secolo E.V. a Babilonia, Talmud Babilonese o Talmud Bavli, e il V secolo, in Palestina, Talmud Palestinese) fa menzione di una unità di capacità per liquidi, il log, e dei suoi sottomultipli, il mezzo, il quarto, l’ottavo, il sedicesimo e il sessantaquattresimo di log.

1603Il divisore “64” è assai prossimo a “60” e, al contrario del fattore di diluizione per il bitul, è esprimibile attraverso la progressione geometrica delle potenze di 2 come 2 6. La diluizione 1:64 può essere raggiunta per diluzione successiva (6 volte) di un volume del prodotto da saggiare con un egual volume di diluente, alla sola condizione di disporre di un recipiente “di riferimento” (o di 2 uguali, un misurino per il prodotto e uno per il diluente) e di 7 recipienti di volume almeno doppio. La tecnica è semplice: versiamo “un misurino” del prodotto da saggiare nel primo recipiente grande e, (con il medesimo misurino, ben lavato –siamo kosher o pasticcioni?- o anche con uno perfettamente uguale) un egual volume del diluente. Riprendiamo dal primo recipiente grande un misurino della miscela alla prima diluizione (1 a 2) e versiamola nel secondo recipiente grande, seguita da un misurino di diluente, per ottenere la seconda diluizione (1 a 4), e così proseguendo fino alla sesta diluizione (1 a 64).

Senza abbandonarsi agli anacronismi e senza voler scorgere precursori là ove non ne possono esistere, non è inverosimile pensare che il sapere scientifico distrutto con le civiltà mediterranee ellenistiche sia sopravvissuto nei termini empirici resi indispensabili dalla necessità pratica di fornire beni e servizi, e è verosimile che essi restino radicati alla periferia, nelle pratiche degli artigiani, affidate alla tradizione orale ed acquisite con l’affiancamento dei neofiti ai veterani. Ciò può essere accaduto, nel medesimo teatro storico, per la memoria di antiche rotte oceaniche nell’Atlantico centrale (le ipotesi avanzate da Russo su viaggi transoceanici fino alle isole caraibiche tra il IV e il II secolo a.C., continuate da navigatori gaditani anche oltre l’età del grande crollo) e settentrionale (nei Grandi Banchi, ove i Baschi si rifornivano di enormi merluzzi per il Venerdì di magro dell’Europa medievale [18]).

[…] Il vecchio Cometto aggiunse che la vita è piena di usanze la cui radice non è più rintracciabile […] Io … mi accinsi a raccontare la storia della cipolla nell’olio di lino cotto. Quella era infatti una mensa di verniciai … raccontai che in un ricettario stampato verso il 1942 avevo trovato il consiglio di introdurre nell’olio, verso la fine della cottura, due fette di cipolla, senza alcun commento sullo scopo di questo curioso additivo. […] si giudicava della temperatura della cottura […] immergendo nell’olio una fetta di cipolla infilata sulla punta di uno spiedo: quando la cipolla cominciava a rosolare, la cottura era buona. Evidentemente, col passare degli anni, quella che era stata una grossolana operazione di misura aveva perso il suo significato e si era trasformata in una pratica misteriosa e magica. [19]

Questo meccanismo di trasmissione della conoscenza è notoriamente di limitata affidabilità, o meglio il suo scopo è, in termini pragmatici, di mantenere apprezzabilmente affidabile il processo, piuttosto che di capirne le ragioni. Quando esse vengono ricostruite a posteriori, può essere venuta a mancare la conoscenza dei presupposti conoscitivi originari, ed essi possono essere sostituiti da altre spiegazioni, anche arbitrarie, ma che apparentemente forniscono il medesimo risultato.

La tecnica delle diluizioni progressive è antica ed ampiamente utilizzata, ed è durata anche nelle scienze empiriche, almeno dall’avvento della fisiologia e della farmacologia quantitativa, a metà dell’800. Da allora, essa ha costituito la base operativa per l’identificazione di sostanze biologicamente attive nelle miscele complesse, quali gli estratti vegetali e gli omogenati di tessuti, e per seguirne l’arricchimento nelle procedure di frazionamento, fino all’isolamento dei principi attivi. Ancora fino a pochi anni fa, i risultati di alcuni saggi analitici con valore di diagnosi clinica, quale la presenza e la concentrazione di allergeni e di anticorpi, venivano espressi in unità di diluizione (maggiore è la diluizione, maggiore la concentrazione iniziale nel campione saggiato). Un’applicazione attuale del medesimo principio è la misura dell’odorosità delle emissioni (da camini, impianti, sorgenti diffuse) con il metodo dell’olfattometria dinamica, standardizzato dalla norma europea EN 13725.

Che la cultura ellenistica possedesse un sapere biomedico tutt’altro che elementare, e che esso fosse basato su osservazioni di natura quantitativa e su presupposti teorici basati su modelli fisici interpretati in veste geometrica e matematica, è stato ricostruito anche in base alla reinterpretazione di quanto pervenuto “dopo il grande crollo” attraverso la mediazione romana (Galeno e Celso) e successivamente bizantina e araba. Seguendo la ricostruzione di Russo, l’ottica geometrica era alla base di una fisiologia dell’occhio e della visione sorprendentemente “moderna” (al contrario: i “moderni” hanno dovuto faticare per oltre quindici secoli, per ricostruire quanto perduto in pochi decenni di guerra di annientamento).

Le ricostruzioni storiche della medicina antica mantengono un rapporto assai ambiguo sulla questione se e come gli “Antichi” abbiano affrontato la questione della sperimentazione diretta delle ipotesi fisiologiche su organismi viventi, animali e umani. L’evidenza che ad Alessandria questa pratica fosse accettata e praticata, almeno nelle forme della sperimentazione cruenta su individui viventi è fornita dal fatto che i medici sperimentatori Ierofilo ed Erasistrato poterono identificare alcune funzioni, quali la differenziazione tra nervi motori e nervi sensori nell’uomo, attraverso la loro dissezione in soggetti viventi, esperimento evidentemente inutile in un cadavere.

Mitridate IV, re del Ponto, nell’odierna Turchia, vissuto tra il 134 e il 63 A.C., è passato alla Storia per essere riuscito a scampare attentati alla propria vita compiuti con l’uso di veleni (essenzialmente l’ossido di arsenico o miscele di alcaloidi vegetali) facendosi somministrare dai propri medici un trattamento cronico preventivo basato sull’assunzione di dosi dei veleni sub-tossiche, ma che erano tuttavia in grado di potenziare i naturali meccanismi biologici di detossificazione. Il trattamento lo rese in grado di tollerare l’assunzione acuta di dosi che sarebbero risultate tossiche o mortali in individui privi del trattamento preventivo (mitridatismo), al punto che, sconfitto dai Romani, dovette ricorrere per il proprio suicidio ad un’arma piuttosto che al veleno. Anche questo episodio, documentato da storici Romani successivi, rispecchia la padronanza, da parte dei suoi medici, di nozioni di farmacologia quantitativa piuttosto complesse, utilizzate per l’aggiustamento della dose nel tempo e per il mantenimento della “forza” (attività biologica) delle preparazioni lungo parecchi anni di trattamento. “Sbagliare” accidentalmente la dose di pozione in eccesso avrebbe significato causare nel re un’intossicazione acuta, verosimilmente non fatale e in grado, quindi, di scatenare la reazione dell’illustre paziente dotato di poteri assoluti di rappresaglia nei confronti dei suoi infedeli servitori; somministrare, per prudenza, il trattamento a dosi insufficienti a mantenere l’effetto protettivo avrebbe reso il re vulnerabile, ma in caso di fallimento dell’attentato, i medici avrebbero dovuto pagare le conseguenze della loro malpractice. Non è inverosimile che le preparazioni dovessero essere “titolate” all’atto della loro manifattura e a intervalli regolari, per assicurarsi della loro costante efficacia negli anni, e specialmente quando, esaurito un lotto, occorreva premunirsi di preparare il successivo.

Un saggio ormonale per diagnosticare lo stato di gravidanza è riportato in un papiro egizio datato al 1350 a.C. (Papiro di Berlino), ed è basato sull’osservazione dell’effetto dell’urina di una donna gravida nel promuovere la germinazione dei semi di orzo e di grano. Questa osservazione è ripetuta, in forma modificata, in un papiro demotico successivo, che utilizza quale organismo indicatore un’erba palustre del Nilo. Un articolo del 1939 [20] era già in grado di ipotizzare che l’esito positivo del saggio proposto fosse dovuto agli ormoni gravidici che venivano isolati dagli endocrinologi proprio in quel periodo. Queste osservazioni sono state riesaminate anche recentemente, verificandone la sostanziale rispondenza alla realtà [21-25].

Il Giuramento di Ippocrate, base dell’etica medica fin dal IV secolo A.C., contiene un esplicito impegno a non somministrare un agente tossico ad alcuno, se richiesto, e a non prestarsi a dar consigli in proposito. Come altre prescrizioni proibitive, anche questa fa ipotizzare che un coinvolgimento in tale senso di figure professionali esperte fosse se non frequente, almeno possibile, e forniva al medico, ma non ad altri esperti, un modo socialmente lecito per estraniarsene.

L’ambiente nel quale venne a svilupparsi, in poco più di un secolo e mezzo di storia ellenistica, il patrimonio conoscitivo, in termini di metodi e di conoscenze, che comprendeva metodi di misura relativa di “attività biologica” è identificato da Russo nell’Alessandria trilingue (greco-egizio-ebraica) del Museo e della Biblioteca, considerate le prime istituzioni a finanziamento pubblico (ovvero da parte dei Tolomei, i successori ellenistici dei Faraoni d’Egitto) e interamente dedite alla produzione di nuova conoscenza, alla formazione e al perpetuarsi di una classe professionale di studiosi e a guidare la loro applicazione nel contesto produttivo. Quanto resta noto di questa tradizione è stato mediato prevalentemente nella forma deformata del pensiero alchemico, e più per quanto riguarda i metodi di preparazione di sostanze e prodotti utili che per i metodi di riconoscimento e di saggio, che pur dovevano consentire di identificare materie di partenza e prodotti desiderati da tentativi di sofisticazione e impurezze indesiderate. È noto (da Vitruvio, De Architectura IX, 9-13) l’episodio in cui Archimede siracusano (post-doc ad Alessandria, da Eratostene, contemporaneo di alcuni dei Settanta traduttori in greco della Bibbia ebraica) riconobbe che il serto d’oro donato da Dionigi II agli dei conteneva circa un terzo in peso d’argento, effettuando una misura di densità (Oro 19.30 g·cm−3; Argento 10.49 g·cm−3) (Eureka!) [26]. La meraviglia con la quale il fatto (ovvero l’analisi non distruttiva del pregevole e sacro manufatto) venne tramandato implica che, se esso avesse potuto essere manomesso e il metallo saggiato, tale controllo sarebbe stato assai più agevole, in quanto sarebbero esistiti metodi consolidati per farlo: nel caso dell’oro e dell’argento, essi avrebbero implicato non solo una conoscenza delle proprietà, che oggi diremmo chimiche, dei due metalli, ma anche la disponibilità di acidi minerali forti.

Russo avanza la congettura che almeno questo possa essere avvenuto, anche sulla base del racconto riportato da Tito Livio, secondo cui Annibale avrebbe rimosso grandi massi, nel suo attraversamento delle Alpi, aggredendoci con “aceto”, ovvero con acidi minerali forti.

Nessuna di queste informazioni e considerazioni è in grado, per se, di farci immaginare il Museo di Alessandria (o le altre Scuole, a Rodi e a Pergamo) trasformato nel Collége de France, al tempo di Claude Bernard. È inoltre indimostrato (e forse anche improbabile), che studiosi di confessione mosaica abbiano potuto, o voluto far parte del personale scientifico del Museo. Non è però inverosimile che la titolazione di miscele farmacologicamente attive, colà prodotte per scopi sperimentali o quali rimedi, potesse avvenire, per assicurarne la costante attività, attraverso saggi in animali (ed eventualmente nell’uomo). In questo caso, il metodo delle diluizioni successive di ragione 2 sarebbe stato facilmente compatibile anche con la scala delle unità di misura familiari agli Egizi ellenizzati e agli Ebrei ellenistici di Alessandria.

Questi ultimi verosimilmente affrontavano con frequenza il problema del bitul, e in qualche momento adottarono il criterio della diluizione come un espediente pragmatico nel risolvere la questione, in particolare per accertare quando la presenza del componente inaccettabile era inavvertibile. In Alessandria, adottare per la diluizione la progressione geometrica di ragione 2 sarebbe apparso non solo facilmente applicabile, ma anche congruente con la scala di unità di misura adottate localmente. A mano a mano che, con il ridimensionamento del Museo (il cui direttore fu, dal 145 a.C., un Cida, ufficiale dei lanceri), iniziava a venir meno dapprima la catena di trasmissione del sapere professionale e, subito dopo, la comprensione dei fondamenti razionali delle operazioni svolte, anche il controllo sulle unità di misura diveniva erratico ed opinabile. L’unica comunità i cui componenti avevano ragione di spostarsi erano gli Ebrei, tra cui mercanti e studiosi potevano viaggiare tra Alessandria e la Babilonia, ove viveva la comunità ebraica ancora di maggior prestigio. In qualche momento, si perde la ragione di adottare il criterio di diluizione progressiva di ragione 2, “fino all’assenza di percezione”, e si tenta di uniformare la diluizione a uno specifico valore numerico, che risulta di più immediata comprensione. Lo specifico valore di “uno in sessanta” è il primo per il quale le due scale, quella egizia e quella mesopotamica, risultano sufficientemente prossime; un ulteriore vantaggio potrebbe essere stato rappresentato dalla relativa facilità con la quale può essere riprodotto su una scala arbitraria un recipiente di volume esattamente sessanta volte superiore a quello di un recipiente cubico di lato assegnato. Forse per queste ragioni il valore venne adottato, introdotto nei criteri del kasherut e da allora mai più modificato. È anche possibile che questo specifico valore venne accettato perché appariva “sufficientemente tutelativo” (come verrebbe da esprimersi nel linguaggio normativo contemporaneo) nei confronti di quelle contaminazioni involontarie cui non facevano seguito modificazioni percepibili nell’aspetto o nel gusto dei cibi, evento questo che poneva in essere un criterio differente, e più stringente, di inaccettabilità di quanto preparato.

Quanto sopra ricostruito non ha preso in esame se non un riassunto divulgativo della più recente delle fonti normative ebraiche (il tardo Shulchan Aruch), dal quale non è possibile desumere a partire da quale periodo di redazione, mishnaico, toraico, precedente o successivo, nel kasherut abbia fatto la sua comparsa il criterio quantitativo. Quanto, poi, la definizione di tale criterio abbia potuto realmente beneficiare dell’ambiente sincretico (ma tutt’altro che idilliaco) dell’Alessandria ellenistica e delle sue eccellenze scientifiche, potrà solamente essere desunto da analisi ad hoc della scarsa documentazione esistente. Le storie ebraiche scritte da autori ebrei, anche contemporanei [27], sono esplicite nel conservare la memoria negativa dei continui tentativi di assimilazione, e specialmente di ellenizzazione, compiuti in particolare a partire dal V secolo a.C., e della resistenza svolta da parte delle classi dirigenti e, nella maggioranza, dalla popolazione in patria e nell’emigrazione, volta a non rinunciare alla propria identità nazionale.

Sussiste inoltre l’argomento di Gaunilone, ovvero che se anche in antico fosse stato in linea di principio possibile integrare tutti i passi conoscitivi necessari a costruire una teoria farmacologica di cui la prassi rituale dell’ ”uno in sessanta” costituisce un’applicazione empirica, non per questo i fatti reali avrebbero dovuto svolgersi così come ipotizzato, almeno sulla base dell’assenza di evidenze oggi disponibile. Rimane tuttavia, di questo complesso tentativo di ricostruzione degli eventi di un mondo lontano nel tempo e cancellato dalla memoria storica, l’evidenza del criterio da allora radicato nella legge rituale ebraica, e da allora osservato.

Riferimenti.

La tragedia di Bari e la nascita della chemioterapia

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Gianfranco Scorrano, già Presidente SCI

Siamo alla fine del 1943, l’Italia è spezzata in due, con il Sud occupato e sotto gestione britannica. Bari è un porto importante come centro di rifornimento per l’esercito alleato. E infatti è interamente pieno di navi cargo e le operazioni di sbarco sono impegnate anche di notte: addirittura non c’è neanche la precauzione di avere il coprifuoco.

I tedeschi, che occupavano il nord del paese, seguivano, con ispezioni aeree, il lavorio di scarico delle navi: si trattava sicuramente di materiali necessari per la successiva avanzata al Nord delle truppe alleate. Così organizzarono una squadriglia di aerei (105 Junker Ju 88 di cui almeno 85 arrivarono su Bari alle ore 19,30 del 2 dicembre 1943. Le luci del porto erano accese, i bengala lanciati dagli aerei contribuivano ad illuminare la scena, non vi erano aerei alleati a contrastare i tedeschi.

bari1

Alle 19,45 l’attacco cessò: 28 navi erano affondate, 12 erano state danneggiate. Il bombardamento era stato reso più efficace dal fatto che le navi erano una vicino all’altra e quando una era colpita, subito l’incendio di bordo si trasmetteva a quelle vicine. Erano cariche di esplosivi e questi ovviamente esplodevano. In più, le bombe avevano spezzato un oleodotto, e nelle acque del mare si erano anche raccolti abbondante quantità di olio. I marinai che, caduti o buttatisi dalle navi, cercavano di raggiungere la riva dovevano attraversare questa superficie acquosa oleosa. Tra le navi affondate c’era l’americana SS John Harvey che portava un carico non denunciato e noto a nessuno, tranne il capitano della nave: 2000 bombe M47 ognuna da 30 kg di iprite. 200px-Sulfur-mustard-3D-balls

L’iprite è il bis(2-cloroetil)solfuro, un liquido che bolle a 217°C, incolore se puro ma di solito giallastro, di odore pungent, tanto da meritare il nome di gas mostarda per il suo odore di aglio o senape. L’iprite prende il suo nome da Ypres, la città del Belgio presso la quale i tedeschi la usarono come arma nella prima guerra mondiale. Infatti, essa provoca gravi lesioni: per esempio sulla pelle si aprono devastanti piaghe. Concentrazioni di 0,15 mg d’iprite per litro d’aria risultano letali in circa dieci minuti; concentrazioni minori producono gravi lesioni, dolorose e di difficile guarigione. La sua azione è lenta (da quattro ad otto ore) ed insidiosa, poiché non si avverte dolore al contatto. È estremamente penetrante ed agisce sulla pelle anche infiltrandosi attraverso gli abiti: nell’episodio sopra citato, i marinai che cercavano di guadagnare la riva, vennero a contatto con la massa oleosa in cui era sciolta l’iprite fuoriuscita dalla SS John Harvey bombardata e affondata. Ricoperti di olio, si recarono negli ospedali ma nessuno sapeva che avevano avuto contatto con l’iprite. Vennero così trattati superficialmente, senza essere lavati e senza cambiare i loro vestiti.

bari2

Fu difficile per le autorità inglesi e americane tacere sull’origine del disastro, oltre al bombardamento tedesco. Con l’aiuto del Colonnello Stewart Alexander, inviato da Eisenhower, esperto anche di avvelenamento da iprite, furono iniziati adatti trattamenti e migliori precauzioni. Tuttavia oltre 600 vittime dell’avvelenamento da iprite, provenienti dalla zona del porto, vennero trattate e di queste 83 morirono. Circa 1000 cittadini di Bari morirono; non si può sapere quanti per avvelenamento e quanti per bombardamento.

Le distruzioni umane furono assai rilevanti.

(NdB: Il colonnello Stewart Alexander nella sua relazione finale notò che dalle autopsie dei morti per iprite si notava una notevole soppressione dei linfomi e dei mielomi. Questo rinforzò l’ipotesi che solo un anno prima Goodman e Gilman avevano fatto sull’impiego di derivati dell’iprite)

Negli stessi anni erano in corso studi sulle proprietà antitumorali dell’iprite e suoi derivati*. Fu notato che l’iprite poteva reagire con il DNA secondo lo schema sotto riportato e portare alla distruzione del medesimo:

bari4

Furono fatti esperimenti e in effetti si vide che l’iprite poteva portare a riduzione dei tumori: era la prima volta che veniva trovato un prodotto chimico che poteva essere adoperato come antitumorale. Fino ad allora, contro i tumori vi erano solo le armi dell’intervento chirurgico o dei raggi X. Entrambi piuttosto poco efficaci.

bari3

Tra i prodotti simili all’iprite fu sintetizzata l’iprite azotata (Bis(2-cloroetil)metilamine)

bari5

Molto più efficace dell’iprite, questo prodotto divenne, con il nome di murina, il primo farmaco antitumorale. Forma, per attacco nucleofilo dell’azoto sul legame carbonio cloro, con schema analogo al derivato solforato, uno ione aziridinio che facilmente reagisce con i siti basici del DNA. Il DNA modificato non è più capaci di replicarsi

Purtroppo questi farmaci erano capaci di diminuire le dimensioni del tumore, che però dopo poco tornava a ricrescere. Però, dimostrato questo attacco possibile, aprirono, con la chimica, alla medicina nuove armi riassunte con l’aggettivo chemioterapico

Più informazioni si possono ricavare dal libro Veterans at Risk: The Health Effects of Mustard Gas and Lewisite ( 1993 ) http://www.nap.edu/openbook.php?record_id=2058&page=9

*Allen B. Weisse, Medical Odysseys: The Different and Sometimes Unexpected Pathways to Twentieth-Century Medical Discoveries, Rutgers University Press, 1991, p. 127, ISBN 0-8135-1616-1.

Bitul B’shishim (una parte in sessanta) (parte 1)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

Bitul B’shishim (una parte in sessanta)”, gli antichi colleghi … talmudici?

a cura di Federico Maria Rubino, Federico.Rubino@unimi.it

fmrubinoColgo l’occasione che mi ha fornito la pubblicazione, il 25 Luglio scorso, di un post sulla “Chimica nella Bibbia” [1] da parte del Prof. Nebbia, per ampliare la portata del mio brevissimo commento, che ha preso spunto dalla pratica degli antichi Ebrei e dei loro attuali discendenti in merito alle restrizioni dietetiche, ancora oggi una delle forme più caratteristiche di identificazione, per indagare su quanto possiamo considerare una delle più antiche testimonianze di “chimica analitica”.

Gli Ebrei nel mondo (comunque definiti in termini demografici, religiosi o culturali) sono oggi 14-15 milioni, in particolare concentrati nello Stato di Israele e negli USA, ciascuno con oltre 5 milioni di presenze, e rappresentati da minoranze, ciascuna inferiore in numerosità a 500.000 persone, in almeno altri 18 Stati e territori. Gli studi statistici in merito, ad esempio quello pubblicato con cadenza annuale dal Berman Institute (World Jewish Population [2]), identificano criteri differenti di inclusione, in particolare per gli effetti dei fenomeni di assimilazione culturale e di perdita identitaria che ad essi sono connessi. Un criterio tradizionale di inclusione è rappresentato dall’aderenza consapevole e più o meno assidua ai precetti dettati dall’osservanza religiosa, tra cui quelli relativi all’alimentazione e ad altri aspetti della cultura materiale quotidiana.

Hechsher_Safed_Rabbinate

Marchio kosher del Rabbinato di Safed

Il termine “kosher” (conforme alla legge, adatto, consentito, nello slang statunitense contemporaneo anche regolare, in senso estensivo, senza riferimento alla purità dei cibi o all’ortodossia ebraica; prevalentemente in senso contrario: not kosher, torbido) nell’ambito delle abitudini alimentari indica specificamente l’obbligo di astensione dal consumo, o dal semplice contatto, con determinati alimenti e addirittura con gli animali vivi. Un passo biblico della lettura liturgica della Torah (parashà) (Deut. 14:1-26) elenca gli animali proibiti sia in termini morfologici (tra quelli terrestri è consentito cibarsi solo di quelli con gli zoccoli spaccati e con un doppio tratto digestivo, i pesci permessi sono solo quelli con pinne e squame, i rettili, ovvero tutto ciò che striscia, sono proibiti) sia elencando specificamente le specie di gallinacei proibite (14:12-18); vieta inoltre il consumo di carne non dissanguata (12:16) e pone divieto di consumare carne e latte insieme.

In particolare, l’astensione dal consumo della carne di maiale è divenuto, dal Mediterraneo greco-romano all’Europa “cristiana”, tra quelle maggiormente emblematiche dell’identità ebraica, e la sua deliberata violazione vi è connessa come uno degli atti di antisemitismo più diffusi e odiosi. Denuncia Shylock (The Merchant of Venice, Act I Scene 3):

BASSANIO (32) If it please you to dine with us.

SHYLOCK (33-37) Yes, to smell pork; to eat of the habitation which / your prophet the Nazarite conjured the devil into. I / will buy with you, sell with you, talk with you, / walk with you, and so following, but I will not eat / with you, drink with you, nor pray with you.

La produzione di alimenti kosher, oltre a servire le necessità delle comunità ebraiche, ha assunto di recente un’importanza commerciale che supera la ristretta numerosità del gruppo di riferimento, al punto che, negli USA, solo il 25% circa degli acquirenti consapevoli di prodotti kosher (in misura preponderante, di carne macellata) è attualmente rappresentato da praticanti l’Ebraismo, mentre sempre maggiore è la quota di quanti la acquistano, nonostante il maggior prezzo, per ragioni differenti, tra cui la percezione di una qualità commerciale maggiore. Il loro attuale pregio deriva in parte dalla fiducia dei consumatori nel fatto che l’idoneità degli alimenti al consumo da parte dell’ebreo osservante (“kosherut”) è attribuita ad essi in funzione dell’adesione a specifiche di processo e di prodotto, verificata da addetti specificamente a questo addestrati e vincolati al rispetto delle norme da una specifica consapevolezza ancorata al credo religioso.

the jungleQuesta tendenza commerciale è particolarmente diffusa negli USA, il Paese nel quale minore è stata tradizionalmente l’attenzione all’igiene dell’ambiente e del cibo. Fu necessaria, all’inizio del ‘900, la pubblicazione, da parte dell’intellettuale progressista Upton Sinclair, di un romanzo-shock (The Jungle) [3], ambientato a Chicago e che rivelava, tra l’altro, episodi di incuria criminale nell’industria della macellazione (agghiacciante quello in cui un operaio cade e annega nella vasca d’acqua bollente per la sgrassatura del carniccio –il rendering– e viene convertito nel Puro Lardo Durham) e i rischi per la salute che questo causava, perché venisse costituita nel 1906 il Bureau of Chemistry, divenuto nel 1930 la Food and Drug Administration (FDA).

Sempre negli USA, l’interesse dei grandi produttori ad assicurarsi il mercato costituito da famiglie del ceto medio ebraico, con abitudini e capacità di spesa commercialmente appetibili, rese persino necessario l’adeguamento ai requisiti delle leggi alimentari ebraiche di prodotti ormai entrati in forma leggendaria nello stile dell’American way of life. La Coca-Cola Corporation di Atlanta, gelosa depositaria fin dal 1892 della formula segreta del farmacista Pemberton, dovette accettare nel 1935 di consentire a Rav Tobias Geffen di ispezionarne i costituenti per accertare se essa fosse adatta al consumo da parte degli Ebrei osservanti. La miscela conteneva, e contiene, una piccola quantità di glicerina, allora ottenuta da grassi animali, e quindi che rendeva la bevanda potenzialmente inaccettabile. Solamente in quell’occasione la Corporation dovette accettare di sostituire un ingrediente: da allora e tutt’oggi, la glicerina presente è di origine vegetale. Non è senza orgoglio che Carl Djerassi menziona l’episodio, facendolo narrare da Melanie Laidlaw, la protagonista del suo “Benjamin’s Seed”, convertitasi per amore a una forma estremamente liberale di ebraismo statunitense, al suo interlocutore, l’ebreo secolare Frankenthaler [4].

cocacolakosherAncora di recente, l’azienda ha dovuto modificare la provenienza del dolcificante zuccherino della bevanda, derivato dello sciroppo di mais (corn syrup), in quanto il vegetale di origine è definito “legume” dai criteri di classificazione della legge religiosa, e per questa ragione gli ebrei Askenaziti non la possono consumare durante la Pasqua (Passover): in quel periodo vengono messi in commercio lotti prodotti e imbottigliati a parte, il cui tappo giallo con la dicitura OU-P ne garantisce l’idoneità kosher ai consumatori.

A questo proposito, nel kosherut è emersa spesso la necessità di adattare alle specie viventi di nuova identificazione, quali quelle che giungeranno in Europa dal Nuovo Mondo, lo schema di classificazione dell’Antico Mediterraneo: la Bibbia elenca minuziosamente le categorie di cibi che non sono kosher, tra cui alcuni animali, uccelli e pesci (come il maiale e il coniglio, l’aquila e la civetta, il pesce gatto e lo storione), la maggior parte degli insetti e qualsiasi crostaceo o rettile. Il tacchino riuscirà ad assimilarsi all’oca e all’anatra [5], surrogati kosher dell’abominabile suino, e ad assumere il suo ruolo gastronomico, specie nella fascia padana settentrionale, in cui la Controriforma avrà confinato i relitti della popolazione ebraica italiana, talvolta una minoranza diffusa e radicata.

anisakisL’accettabilità della presenza di parassiti invertebrati (i nematodi Anisakis, presenti nel pesce crudo e capaci di costituire un rischio per la salute dei consumatori) nei pesci pescati è stata di recente oggetto di un infuocato dibattito, nel corso del quale sono state invocate le più recenti tecniche di indagine biologica e genetica, e la cui soluzione è ancora lontana dall’essere condivisa tra i principali enti di certificazione kosher negli USA [6]. Che il criterio adottato prescinda dalla pericolosità per la salute umana dei parassiti, ma sia dettato solo dalla preoccupazione di aderire al decreto dell’antica Legge è dimostrato dal fatto che una parte almeno dei partecipanti al dibattito si è dichiarata soddisfatta dalla constatazione che la presenza dei nematodi nel pesce non proviene da un fenomeno di contaminazione (inaccettabile in termini rituali) ma in quanto uno stadio “naturale” dello sviluppo del parassita in un organismo ospite.

Tra gli aspetti maggiormente peculiari della legge religiosa ebraica nei confronti del cibo, un antico precetto, le cui origini erano incomprensibili già agli Ebrei dell’Antico Mediterraneo, proibisce la mescolanza di sangue e di latte, basar bechalav, nella preparazione e nella consumazione dei cibi (niente cheeseburger, quindi): “Non cuocerai il capretto nel latte di sua madre”. (Es. XXIII, 13 – XXXIV, 26: Deut. XIV, 21).

Esodo 23, 13: Il meglio delle primizie del tuo suolo lo porterai alla casa del Signore, tuo Dio. Non farai cuocere un capretto nel latte di sua madre.

Esodo 34, 26: Porterai alla casa del Signore, tuo Dio, la primizia dei primi prodotti della tua terra. Non cuocerai un capretto nel latte di sua madre».

Deuteronomio 14, 21: Non mangerete alcuna bestia che sia morta di morte naturale; la darai al forestiero che risiede nelle tue città, perché la mangi, o la venderai a qualche straniero, perché tu sei un popolo consacrato al Signore tuo Dio. Non farai cuocere un capretto nel latte di sua madre.

Il precetto, reiterato quanto generico nella formulazione, ha sempre destato questioni interpretative volte ad adattarne l’osservanza negli scenari quotidiani di una storia oltre bi-millenaria [7]. Esso è privo di spiegazioni apparenti di carattere adattativo [8], mentre altre delle prescrizioni ebraiche di carattere dietetico ed igienico hanno mostrato di averne, pur non essendo quella adattativa la ragione autentica dell’osservanza “ne varietur” dei precetti nel pensiero religioso.

Secondo il precetto, quindi, gli alimenti e le materie prime per la loro preparazione sono pertanto necessariamente classificate in “carne” (basar), in “latte” (chalav), che costituiscono categorie tra loro del tutto incompatibili, e in alimenti che possono essere CONSAPEVOLMENTE mescolati con l’una o con l’altra categoria (alimenti neutri, o “parve”): il pesce, i latticini, le uova, la frutta e la verdura. Il fatto che i cibi parve devono essere (ed effettivamente sono) totalmente privi di latte è stato utilizzato per realizzare standard quantitativi per l’immuno-dosaggio delle proteine allergeniche del latte in prodotti come i gelati a base di “latte” di soya, destinati a consumatori sensibilizzati a questi potenti allergeni [9].

L’idoneità delle materie prime per la preparazione dei cibi ai fini dell’osservanza religiosa può essere in linea di principio garantita dall’attento controllo assicurato dal sistema comunitario (acquisto della carne dalle macellerie kosher, di cibi preparati recanti l’idonea etichettatura); al contrario, la preparazione domestica dei cibi oppure incidenti inavvertiti nella loro preparazione industriale possono comportare la contaminazione accidentale di quanto preparato.

“… la donna mi raccontò il fatto:

il mio ragazzo è appena tornato da scuola; si è scaldato nel tostapane un trancio di pizza col formaggio, avvolgendolo nella stagnola, poi lo ha scartato per mangiarselo. Io avevo messo sul fuoco una bella pentola di brodo di pollo per la festa. Il mio ragazzo ha appallottolato la stagnola e la ha lanciata in direzione della pattumiera … e la palla è atterrata nella pentola! Devo sbatter via tutto e ricominciare a preparare?”

“Mi ci faccia pensare, le risposi, e iniziai a scribacchiare un calcolo, il volume della pentola, quanto formaggio può essere rimasto attaccato alla stagnola … Muttar! (conforme) esclamai, e all’altro capo udii il sospiro di sollievo.” [10]

In questo caso, l’eventualità della presenza ACCIDENTALE di alimenti mutuamente non compatibili in una preparazione alimentare venne presa in esame e risolta nell’Antico Mediterraneo in vari modi. Ad essi corrispondono alcune delle discussioni più dettagliate, complesse ed estese della normativa rituale ebraica.

Il consolidamento della tradizione ebraica, nelle forme attraverso le quali essa è pervenuta al presente, rappresenta il frutto di un processo plurisecolare, assai complesso nel suo articolarsi tra “centro” giudaico e “periferie”, babilonesi, egiziane ed ellenistiche e strettamente intrecciato alla storia dell’Antico Mediterraneo. Secondo quanto appartiene alla memoria storica ebraica, ed è stato ricostruito sulla base dell’evidenza documentale sopravvissuta, la prima codifica scritta delle prescrizioni rituali, fino ad allora trasmesse, parallelamente al consolidamento dei testi scritturali (quelli che, in forme testualmente differenti, fanno anche parte dell’Antico Testamento delle Chiese cristiane), in forma orale attraverso una successione di maestri e di allievi, risale al II secolo della nostra era. Con la definitiva perdita della relativa compattezza “nazionale” basata sull’esistenza, a Gerusalemme, del Tempio e del suo personale religioso, distrutto l’uno durante la repressione della rivolta da parte dell’imperatore Tito (sono le rovine corrispondenti al Muro del Pianto), uccisi o dispersi gli altri, studiosi e commentatori si assunsero l’onere di mantenere la compattezza nazionale, basandola sul mantenimento delle pratiche rituali possibili anche nelle terre di emigrazione, ove Ebrei erano storicamente presenti, dalla Spagna all’India e alla Cina. Essi, gli amoraim, oratori, successori dei tannaim, ripetitori, erano in termini intellettuali i discendenti diretti del partito farisaico (di evangelica, quanto fraintendente memoria), più popolare rispetto all’aristocrazia sadducea e di conseguenza il candidato naturale alla leadership nelle nuove condizioni. Lunghe genealogie di studiosi produssero, nel corso di oltre dieci secoli, commenti e interpretazioni, adeguamenti alla realtà loro contemporanea e richiami alla memoria del passato, che ne fanno oltretutto una delle fonti di indizi sui costumi e sulle conoscenze dell’Antico Mediterraneo più completa ed ininterrotta.

199px-Shulchan_Aruch

Frontespizio dello Shulchan Aruch, pubblicato a Venezia nel 1574

Nel 1300 Rabbi Jacob ben Asher compilò un massiccio e fondamentale trattato di legge ebraica, halacha, sotto il nome di Arba’ah Turim. Esso venne successivamente incorporato nello Shulchan Aruch (“La Tavola Apparecchiata”), una codificazione assai recente (nella scala dei tempi della tradizione ebraica), in quanto redatta e pubblicata a stampa a Venezia nel 1565 dal rabbino sefardita Yosef Caro. La sezione Yoreh De’ah di quest’ultimo contiene la materia relativa alle proibizioni rituali in materia alimentare. Un riassunto in inglese accessibile in rete [11] si rivela utile per cogliere alcuni aspetti tecnici (chimici!) dell’antica discussione, mentre i dettagli del testo originale, o delle sue versioni nelle lingue moderne, sono più difficilmente accessibili in lingua moderna, e solamente tramite le biblioteche. I capitoli di più immediato interesse per la purità rituale degli alimenti, per quanto riguarda il controllo delle vie di contaminazione dei cibi e l’assenza in essi di sostanze proibite, sono trattati nei capitoli 6-9 del riassunto citato.

bibbia1

Il Capitolo 6 considera il criterio della separazione fisica tra le sostanze tra loro incompatibili e con quelle “parve” come sufficiente a garantire la conformità rituale. Il Capitolo 7 prende in esame l’assorbimento di sostanze proibite, e in particolare vengono esaminati come criteri che modificano l’entità dell’assorbimento il tempo e l’estensione della superficie di contatto, e la natura chimica della fase liquida coinvolta. Qui per la prima volta emergono indicazioni di carattere quantitativo: il tempo di immersione massimo consentito è di 24 ore, ma nel caso di salamoie è limitato a 18 minuti e la proporzione massima della superficie del cibo che può restare immersa è di un sessantesimo. Nel Capitolo 8, questa specifica proporzione è indicata anche per consentire o negare l’accettabilità del cibo a seguito dell’accidentale mescolanza, ovvero dopo aver rimosso quanto macroscopicamente evidente della sostanza indesiderata: la presenza di un residuo nella proporzione di una parte su sessanta (in volume, pari all’1,5% circa) di una sostanza alimentare non consentita in una preparazione non la rende inaccettabile sotto il profilo rituale.

Shulchan Aruch Part II: Yoreh De’ah (http://www.torah.org/advanced/shulchan-aruch/archives.html)

prescrizione Rif.
If forbidden food (or an object that has absorbed forbidden food within the past 24 hours) is in contact even momentarily with hot liquid in a utensil that has been on a fire, or with salty liquid for 18 minutes, or with any liquid for 24 hours, permissible food that was in contact with the liquid for that period of time becomes forbidden unless the forbidden components are less than 1/60 of the total. 69:1,9,11,15,18; 70:6;98:4; 104:1-2; 105:1-3
In estimating 1/60 only food below the surface of the liquid is considered 94:1; 98:4; 99:1,4; 105:1
If the components are near a fire and hot but not in contact with liquid, and an object that has absorbed forbidden food touches permitted food, it becomes forbidden unless the forbidden components are less than 1/60 of the total; 68:4,9; 105:4-5,7-8
Even in cases where the forbidden component is less than 1/60 of the total, if it can be recognized or separated it must be removed; and if it is attached to or first entered a permitted component, that component is forbidden and must be removed if it can be recognized 69:11; 72:2-3; 73:6;90:1; 92:2-4; 94:3; 98:4; 106:1-2
If forbidden and permitted foods are mixed together thoroughly the mixture is permitted if no one forbidden component is more than 1/60 of the total 98:1,6,9; see 99:1-2,4
In defining a component, things that have the same name are regarded as the same whether or not they taste the same; see 98:2.
For some types of forbidden foods amounts different from 1/60 are required; for other types any amount makes a mixture forbidden see 98:7-8
If an intrinsically forbidden component can be detected by its taste or by its effect on the mixture or if a forbidden component can be recognized but cannot be removed

the mixture is forbidden even if the component is less than 1/60 e.g., 87:11; 102:1104:1,3

98:8; 105:14It is forbidden to mix forbidden food with permitted food to produce a permitted mixture;94:5-6;101:6It is forbidden to use a utensil that has absorbed forbidden food if the utensil is sometimes used for less than 60 times as much permitted food 99:7;122:5If food that is only temporarily forbidden or that can be made permitted without much effort is mixed with any amount of permitted food of the same type, the mixture is forbidden until the forbidden component becomes permitted; but if it is mixed with permitted food of a different type, or is not intrinsically forbidden, or became forbidden only after it was mixed, or can be recognized and removed, the mixture is permitted if the forbidden component is less than 1/60 of the total 102:1-4If they were cooked together the result is forbidden unless the forbidden food is less than 1/60 of the total of the food that is in doubt 109:2, and see 111:7a person is allowed to add permitted food to the mixture before cooking it to ensure that the forbidden portion is less than 1/60). If a piece of forbidden food becomes mixed up with pieces of permitted food of a different type and cannot be distinguished, it is not regarded as permitted unless it is less than 1/60 of the mixture 109:1but if it is more than 1/60 the mixture is not regarded as entirely forbidden, and if more permitted food is added to it until the forbidden portion becomes less than 1/60 the mixture becomes permitted 92:4In cases involving a Biblical prohibition we rule stringently when doubt arises, but we rule leniently in certain cases of “double doubt” see 110:4,8-9If the prohibition is only rabbinical we rule leniently even in cases of “single doubt” when it is possible that the thing in question is not forbidden at all 111:1-6A mixture is forbidden if the amounts are in doubt; see 98:2-3.(References to chapter and paragraph numbers (x:y) in the Shulchan Aruch are given throughout.) Shulchan Aruch, Copyright (c) 1999 Project Genesis, Inc. 

Un ruolo importante nella verifica dell’accettabilità rituale dei cibi ricoprono i criteri organolettici e sensoriali, mentre non appaiono indicati metodi diretti di saggio per le diverse sostanze alimentari. Secondo questi criteri organolettici, una diluizione sufficiente a “perdere” il segnale sensoriale della presenza, “il gusto” di un componente inammissibile, se esso proviene da fonti spurie quali il lavaggio delle stoviglie consente di effettuare il bitul, ovvero la nullificazione della traccia di cibo incompatibile ancora presente, ad esempio di latte in una preparazione di carne, o destinata ad essere consumata con un cibo a base di carne.

E’ verosimile che questa prescrizione rappresenti la più antica –o tra le più antiche- testimonianza di un approccio “quantitativo” alla composizione delle sostanze complesse, che ne fa la prima testimonianza di “chimica analitica”, almeno per quanto riguarda il nostro antenato intellettuale, l’Antico Mediterraneo.

A conti fatti, tuttavia, la proporzione di uno in sessanta appare elevata, in particolare per quanto riguarda la principale interdizione, ovvero la mescolanza di carne e di latte, o di latte con cibo parve: basta verificare empiricamente che il rapporto di 1:60 tra latte (2 mL) e caffè (lungo, 120 mL) rende la miscela immediatamente distinguibile allo sguardo da un caffè “senza latte” (in questo caso, tuttavia, rimane comunque l’interdizione halachica, che rende la miscela proibita se il componente proibito, quale che ne sia la proporzione, la rende palesemente differente, per gusto o per altre proprietà, dal componente maggioritario, consentito). Vale la pena però di considerare che la sensibilità del saggio bromatologico di Villavecchia-Fabris, impiegato da fine ‘800 per distinguere dagli oli alimentari gli oli industriali (dal 1929 denaturati attraverso l’aggiunta obbligatoria del 5% di olio di sesamo) consente di cogliere un’adulterazione di circa una parte su 20 (il 5%, pari a una parte su 400 di olio denaturante).  (continua)

Riferimenti.

  1. https://ilblogdellasci.wordpress.com/2014/07/25/chimica-nella-bibbia/
  2. http://www.jewishdatabank.org/
  3. Upton Sinclair, The Jungle (1906) at: https://archive.org/details/jungle00sincgoog (trad. It. La Giungla. NET, 2003)
  4. Carl Djerassi, Menachem’s Seed (1998) Penguin Paperbacks.
  5. http://www.kashrut.com/

http://www.kashrut.com/articles/turk_intro/

http://www.kashrut.com/articles/turk_part1/

http://www.kashrut.com/articles/turk_part2/

http://www.kashrut.com/articles/turk_part3/

http://www.kashrut.com/articles/turk_part4/

http://www.kashrut.com/articles/turk_part5/

http://www.kashrut.com/articles/turk_ref/#ID=218

  1. http://forward.com/articles/160736/a-kosher-can-of-worms/ 10/
  2. e-brei.net/uploads/Halacha/BasarVeChalav.pdf]
  3. Alcune spiegazioni avanzate: Perché la Legge vietava di cuocere un capretto nel latte di sua madre? (http://wol.jw.org/it/wol/d/r6/lp-i/1200003059):

Sotto la Legge mosaica era proibito cuocere un capretto nel latte di sua madre. (De 14:21) Questo divieto è menzionato due volte in relazione all’offerta delle primizie a Geova. —Eso 23:19; 34:26. È stato ipotizzato che ciò avesse qualche nesso con usanze pagane, idolatriche o magiche. Ma al presente non esistono prove valide a sostegno di questa tesi.

Un’altra ipotesi è che questa legge sottolinei la necessità di aderire al giusto e appropriato ordine delle cose. Dio ha provveduto il latte materno per nutrire i piccoli. Usare il latte per cuocere il capretto al fine di mangiarlo sarebbe a danno del piccolo e quindi l’opposto di ciò che Dio si era proposto nel provvedere il latte.

Una terza possibilità è che questo comando avesse lo scopo di incoraggiare la compassione. Ciò sarebbe in armonia con altri comandi che vietavano di sacrificare un animale se prima non era stato con la madre almeno per sette giorni (Le 22:27), di scannare un animale e il suo piccolo nello stesso giorno (Le 22:28) o di prendere dal nido la madre insieme alle uova, o ai suoi piccoli (De 22:6,7).

[…] secondo la tradizione, infatti, il motivo per cui il latte non va mescolato alla carne è che il primo è un alimento creato per dare la vita, mentre la seconda proviene da un animale morto. (http://www.ucei.it/giornatadellacultura2012/default.asp?cat=6&cattitle=ebraismo&pag=4&pagtitle=la_kasherut)

  1. Hefle SL, Lambrecht DM. Validated sandwich enzyme-linked immunosorbent assay for casein and its application to retail and milk-allergic complaint foods. J Food Prot. 2004 Sep;67(9):1933-8.
  2. e adatt. Da: http://www.star-k.org/kashrus/kk-ABISSELBITUL.htm
  3. http://www.torah.org/advanced/shulchan-aruch/archives.html