Le risorse genetiche vegetali viste da un chimico.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Angela R. Piergiovanni* ( angelarosa.piergiovanni@ibbr.cnr.it)

L’importanza della salvaguardia delle risorse genetiche vegetali (RGV) è da tempo riconosciuta come una priorità a livello planetario. A partire dagli anni venti del XX secolo, un’intensa attività di raccolta condotta nei cinque continenti, ha permesso l’acquisizione di migliaia di campioni (semi, tuberi, bacche, ecc.) rappresentativi della biodiversità sia delle specie di interesse agrario che di quelle selvatiche affini. cnr ibbrParallelamente al reperimento dei campioni, è stata progressivamente costituita una rete mondiale di strutture (gene-bank) deputate sia alla conservazione dei materiali raccolti che al mantenimento nel tempo della loro capacità riproduttiva. Non si deve però incorrere nell’errore di intendere la salvaguardia delle RGV semplicemente come la necessità di conservare campioni delle diverse specie vegetali. Infatti, la variabilità genetica intra-specifica, sebbene meno evidente di quella tra specie, è un tassello essenziale delle attività di salvaguardia. Peraltro, le varietà sviluppate negli ultimi decenni ed oggi largamente coltivate, non sono certo identiche a quelle del passato. Se si ha la fortuna di osservare un appezzamento di terreno coltivato con una vecchia varietà di frumento, ad un osservatore attento, non sfuggirà una certa variabilità morfologica delle piante. Cosa del tutto assente nei campi coltivati con le moderne varietà. In questo contesto è ovvio che il campionamento del materiale rappresentativo di ciascuna specie, coltivata o selvatica che sia, debba seguire precisi criteri perché possa essere raggiunto l’obiettivo di tramandare alle generazioni future non solo le singole specie ma anche la variabilità associata a ciascuna di esse. E qui i punti di vista cambiano.

Un agronomo focalizzerà la sua attenzione sulla variabilità morfologica presente in maniera più o meno marcata all’interno di ciascuna specie. Ad esempio, provate a pensare a quanti tipi di fagioli conoscete: a tegumento bianco, crema, nocciola, nero, borlotti con vari tipi di striature; a seme tondeggiante, reniforme o ovale. Se poi prendete in esame la pianta esistono tipi nani e rampicanti, diverse forme del baccello e del colore del fiore e così via. Un genetista obietterà che campioni morfologicamente molto simili possono differenziarsi apprezzabilmente a livello del genoma ed anche questa diversità, sia pure non visibile in modo immediato, è preziosa e va conservata. Un fitopatologo avrà come obiettivo preservare i biotipi di ciascuna specie che presentano un diverso grado di resistenza agli attacchi di malattie e insetti.

piante1

Fig. 1. Variabilità morfologica intra-specifica.

Ma quale sarà il punto di vista di un chimico? Prendere in considerazione le parti della pianta che l’uomo utilizza a scopo alimentare, zootecnico, industriale, farmaceutico e così via, e focalizzare l’attenzione sui livelli di accumulo nei diversi tessuti vegetali (foglie, frutti, semi, ecc.) delle molecole direttamente correlate ai diversi usi.

Qualche esempio esplicativo sarà utile a capire questo approccio.

Se parliamo di usi alimentari, è immediato pensare che il valore nutrizionale sia il parametro determinante. Valore nutrizionale vuol dire quantificare il contenuto in macro e micro costituenti (proteine, amido, fibra, minerali, ecc.) delle parti eduli. Accanto a questi componenti vi è però una miriade di altre molecole che possono assumere a loro volta un ruolo di rilievo. Le proteine del frumento, ad esempio, non hanno solo una valenza nutrizionale, poiché le diverse frazioni proteiche che costituiscono il glutine sono determinanti per conferire a ciascuna varietà una maggiore o minore attitudine alla trasformazione. Questo è un aspetto fondamentale poiché il grano, duro o tenero che sia, è alla base dell’alimentazione di gran parte dell’umanità sotto forma di prodotto trasformato (pane, pasta, prodotti da forno, ecc). La presenza o assenza di particolari frazioni proteiche conferisce al glutine proprietà viscoelastiche molto diverse e quindi prodotti finali più o meno appetibili. Questo è ben noto alle industrie di trasformazione sempre alla ricerca del mix varietale ottimale per la preparazione di prodotti di qualità per ciascuna tipologia. La conoscenza del profilo proteico del glutine ha dunque un ruolo rilevante nella salvaguardia della diversità del frumento.

piante2

Fig. 2. Variabilità del profilo elettroforetico delle gliadine, una classe di proteine del glutine di frumento.

Per valutare il valore nutrizionale delle leguminose (ceci, fagioli, lenticchie, fave, piselli, soia, ecc.) è certamente importante il contenuto proteico della granella, ma in aggiunta vanno considerati una serie di composti minoritari, in gran parte sconosciuti ai più ma non certo ad un chimico. La presenza di inibitori dei principali enzimi digestivi (tripsina, chimotripsina, amilasi) nella granella delle leguminose è nota tempo. Questi composti sono stati studiati a lungo mettendoli in relazione sia con la loro capacità di ridurre il valore nutrizionale della granella, aspetto non secondario in campo zootecnico, che con la capacità di conferire ai semi una intrinseca resistenza ai parassiti da magazzino. In tempi recenti, sono emerse interessanti proprietà anti-infiammatorie e anti-cancerogene degli inibitori della tripsina. Questo ha portato ad ipotizzare che un consumo adeguato di leguminose possa avere un effetto positivo sulla salute. Sebbene il livello di questi inibitori nei semi dei legumi sia influenzato dall’andamento climatico stagionale (principalmente stress idrico sofferto dalle piante durante il loro sviluppo), i fattori genetici giocano un ruolo importante nella capacità di accumulo. Semplificando il concetto, all’interno di ogni specie vi sono genotipi che tendenzialmente accumulano alti livelli di inibitori ed altri che si comportano in modo opposto. In presenza di un quadro così complesso è necessario conservare, per ciascuna specie, campioni appartenenti alle due opposte tipologie. Le varietà a basso contenuto di inibitori possono essere privilegiate in ambito zootecnico, mentre vanno opportunamente ponderati i livelli interessanti in ambito alimentare in conseguenza delle predette potenzialità nutraceutiche.

220px-Crambe_Maritima_Estonia

Un esempio di specie coltivata per uso no-food è il crambe. I semi di questa pianta sono molto ricchi in olio (30-40% del peso) la cui particolarità è un contenuto in acido erucico (acido cis-13-docosenoico) compreso tra il 50 ed il 60% degli acidi grassi. Questa composizione rende l’olio di crambe inadatto ad usi alimentari, ma molto utile in ambito industriale. Infatti, la sua composizione è adatta per un impiego nella produzione di emollienti, tensioattivi, lubrificanti e oli biodiesel. In aggiunta l’acido erucico è il precursore dell’erucamide che trova largo impiego nel campo dei polimeri. Come si potrà facilmente intuire, poiché il composto target per il crambe è l’acido erucico, va tutelata la diversità capacità dei vari biotipi di accumularlo nei semi .

Tanti altri esempi potrebbero essere elencati, ma questi pochi, illustrati in modo estremamente sintetico e semplificato, sono esplicativi di come le strategie per la salvaguardia delle RGV abbiano diverse chiavi di lettura e di quale sia l’approccio di un chimico che opera in questo campo.

*Istituto di Bioscienze e Biorisorse (IBBR-CNR) via Amendola 165/a 70126 Bari (Italy) tel 080 5583400

http://ibbr.cnr.it/ibbr/info/people/angela-rosa-piergiovanni

Università sostenibile.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Luigi Campanella, ex Presidente SCI

Su EA (Energia Ambiente) è comparso un interessante articolo dedicato alla stima delle emissioni di CO2 nelle università. Il caso studiato è quello del Politecnico di Milano ma i risultati meritano un’attenta considerazione sia sul piano dei contenuti che della metodologia.

caserini

Per quanto riguarda quest’ultima le emissioni sono state attribuite a riscaldamento, elettricità, veicoli di proprietà dell’Ateneo, spostamenti motorizzati di accesso, spostamenti motorizzati per missioni, spostamenti motorizzati degli studenti Erasmus. La CO2 è stata l’unico gas serra considerato in quanto costituisce oltre il 90% delle emissioni totali. Il risultato più significativo riguarda la distribuzione delle emissioni fra le varie voci: circa il 50% deriva dal consumo elettrico e circa il 30% dagli spostamenti motorizzati per accesso al campus rispettivamente circa pari a 10000 e 6500 tCO2/anno (di cui 4/5 attribuiti agli studenti e 1/5 ai docenti). Anche interessante rilevare che il maggiore contributo delle emissioni da trasporti deriva dall’uso di autoveicoli, anche se il treno è il mezzo più utilizzato. Circa il confronto con altri Atenei lo studio condotto da Caserini, Scolieri e Perotti conclude con una valutazione medio alta nel panorama italiano,ma tali emissioni risultano nettamente inferiori a quelle delle università europee ed extraeuropee. E’ anche importante focalizzare le proposte di intervento migliorativo concentrate sul risparmio, sull’efficienza, sulla minimizzazione degli spostamenti motorizzati. Per ottenere questi risultati si indicano soluzioni tecniche e gestionali quali l’introduzione di una centrale di autogenerazione (acqua calda, condizionamento, energia elettrica), la riqualificazione degli impianti, l’utilizzo di videoconferenze, il maggiore uso del treno, la sensibilizzazione degli studenti verso l’uso dei mezzi pubblici. Il vantaggio complessivo dovrebbe aggirarsi intorno al 25% entro il 2020, così rispettando l’obbiettivo ormai da tempo individuato

La stima delle emissioni di CO2 delle Università
Il caso del politecnico di MIlano
S. Caserini, S. Scolleri e E. Perotto
Energia Ambiente n. 14 2014 p 52-55

http://energia-plus.it/sfogliabile/?pid=68202

Api e pesticidi: una conferma autorevole.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Andrea Tapparo ( andrea.tapparo@unipd.it )
 

tapparoQuesta che segue è una breve sintesi delle conclusioni dello studio realizzato dalla Task Force on Systemic Pesticides, che sarà a breve pubblicato (8 review) dalla rivista “Environmental Science and Pollution Research”. In coda il più ampio comunicato ufficiale in inglese della Task Force on Systemic Pesticides (http://www.tfsp.info/ )

 taskforce

 A livello internazionale si riscontra una crescente preoccupazione nei confronti degli insetticidi neonicotinoidi e del fipronil, sostanze ad azione neurotossica ampiamente impiegate in agricoltura nella profilassi e nel trattamento di molteplici parassiti in svariate colture. Oltre ad avere effetti diretti anche su organismi “non target”, quali ad esempio gli insetti impollinatori come le api, il rischio ambientale associato all’uso di questi insetticidi è relazionabile alla perdita di biodiversità, nonché di funzionalità e ruolo degli ecosistemi contaminati.

La Task Force on Systemic Pesticides, ha presentato il 24 giugno il frutto del più ampio approfondimento bibliografico sull’argomento: il Worldwide Integrated Assessment (WIA, 8 articoli, che costituiranno un numero speciale della rivista Environmental Science and Pollution Research di imminente pubblicazione) rappresenta infatti il primo tentativo di sintetizzare lo stato delle conoscenze sui rischi associati a tali insetticidi attraverso l’esame critico di oltre 800 pubblicazioni scientifiche (tutte sottoposte a revisione tra pari).

Questi insetticidi possiedono proprietà fisiche, chimiche e biochimiche che ne allargano il raggio d’azione ben oltre la specie coltivata/trattata e il luogo di somministrazione. Essi infatti agiscono a livello sistemico (penetrano e si distribuiscono all’interno della pianta), mostrano una discreta persistenza ambientale (mesi o anni) ed una elevata solubilità in acqua, tutti fattori che contribuiscono ad estendere la contaminazione al suolo, alle acque sotterranee e superficiali e alla vegetazione, sia quella specificatamente trattata che quella esterna all’area coltivata. In alcuni situazioni le concentrazioni ambientali dei neonicotinoidi più persistenti possono crescere nel tempo, ad esempio nei suoli o nei tessuti di alcune piante, a causa dei ripetuti trattamenti.

Sono attualmente note molteplici vie di esposizione a questi insetticidi per gli organismi “non target”, sia croniche che acute. Ad esempio le api possono venir direttamente contaminate in volo dalle polveri emesse dalle seminatrici pneumatiche durante la semina delle sementi conciate: la pellicola di insetticida che ricopre il seme si erode nel corso delle operazioni di semina producendo (è il caso della semina del mais) un particolato letale per le api bottinatrici che si trovassero a volare nei pressi della seminatrice. Più in generale si può osservare che, in relazione alla modalità di utilizzo e alle proprietà dell’insetticida, gli organismi sia terrestri che acquatici sono spesso ripetutamente esposti a concentrazioni tutt’altro che trascurabili. Tra questi vi sono importanti (sotto il profilo ecologico) organismi che vivono nei corsi d’acqua (incluse le zone ripariali, le zone umide, gli estuari e i sistemi marini costieri) e che ne garantiscono la qualità.

L’esame della letteratura esistente evidenzia inoltre che, a livello globale, l’attuale uso consentito (ed in ottemperanza delle prescrizioni) degli insetticidi neonicotinoidi e del fipronil ha portato a livelli di contaminazione ambientale spesso eccedenti le concentrazioni tossicologicamente rilevanti per un ampio spettro di organismi “non target”, quindi con prevedibili impatti negativi sulla qualità degli ecosistemi interessati.

Sebbene queste sostanze siano state utilizzate per decenni (a partire dagli anni 90) e mostrino propriètà così peculiari (sono sistemici, persistenti e mobili nell’ambiente) il quadro delle valutazioni che emerge dalla WIA è senza precedenti. Esso indica con chiarezza che l’attuale impiego su larga scala di tali insetticidi non è ecologicamente compatibile e non può costituire una strategia sostenibile di lotta ai parassiti delle coltivazioni. In altre parole, è evidente che le correnti pratiche agricole, sempre più vincolate all’uso esteso di tali prodotti, pongono seri rischi ad un gran numero di organismi e alle funzioni ecologiche che essi svolgono.

Semina Mais 3

Misure sul campo per determinare la concentrazione di pesticida durante la semina.

Ed è anche sempre più evidente che l’attuale uso di neonicotinoidi e fipronil risulta incompatibile con i principi che sono alla base della lotta integrata (integrated pest management, IPM): essi sono infatti spesso routinariamente applicati (come nel caso delle sementi conciate, che è un classico uso profilattico) anche in assenza di specifici parassiti o dei loro effetti misurabili sulla produttività agricola. Più moderne, sostenibili ed efficaci strategie di gestione dovrebbero invece essere valutate e introdotte, alternative che si richiamano ai principi delle produzioni biologiche e/o della lotta integrata.

A conclusione delle WIA si auspica anche che “la politica” riconosca l’entità dei rischi ambientali che, a livello globale, comporta l’uso di tali insetticidi e che agisca di conseguenza (rapidamente e in coerenza con il principio di precauzione) per promuovere una loro più consona regolamentazione.

WIA e Task Force on Systemic Pesticides

Questo studio (WIA) è stato realizzato dalla Task Force on Systemic Pesticides (TFSP), un gruppo di lavoro internazionale e multidisciplinare costituito da circa 50 studiosi. Il gruppo ha operato attraverso una serie di workshop specificatamente dedicati all’argomento: Paris (2010), Bath (2011), Cambridge (2012), Montegrotto-Padova (2012), Louvain-la-Neuve (2013), Padova-Legnaro (2013). I componenti della Task Force, che operano sull’argomento in assenza di confitti di interesse, appartengono ad agenzie o enti di ricerca pubblici (principalmente Università) o ad associazioni che si dedicano esclusivamente alla conservazione/protezione delle risorse ambientali.

TFSP 1

La Task Force al lavoro

La Task Force ha operato grazie alle risorse istituzionali dei singoli componenti, al libero contributo di alcuni cittadini e al supporto di alcuni enti finanziatori che, si sottolinea, non hanno avuto alcun ruolo nella progettazione, nella realizzazione e nella pubblicazione degli studi realizzati:

– Triodos Foundation’s Support Fund for Independent Research on Bee Decline and Systemic Pesticides (donations by Adessium Foundation – The Netherlands)

– Act Beyond Trust (Japan)

– Utrecht University (Netherlands)

– Stichting Triodos Foundation (The Netherlands)

– Gesellschaft fuer Schmetterlingsschutz (Germany)

– M.A.O.C. Gravin van Bylandt Stichting (The Netherlands)

– Zukunft Stiftung Landwirtschaft (Germany)

– Study Association Storm (Student Association Environmental Sciences Utrecht University)

– Deutscher Berufs- und Erwerbsimkerbund e.V. (Germany)

– Gemeinschaft der europäischen Buckfastimker e.V. (Germany).

Per approfondire:

gli altri articoli del blog:

https://ilblogdellasci.wordpress.com/2013/02/04/tonio-le-api-e-la-chimica/

https://ilblogdellasci.wordpress.com/2013/05/08/salviamo-le-api-ma-senza-demagogia/

un filmato youtube

http://www.youtube.com/watch?v=3QceID-Vb64

e qui di seguito il testo in inglese del comunicato della Task Force:

*******************************************************************************

MEDIA BRIEFING NOTES

 taskforce

WORLDWIDE INTEGRATED ASSESSMENT ON SYSTEMIC PESTICIDES

Concern about the impact of systemic pesticides on a variety of beneficial species has been growing over the last 20 years. While attention has mainly focused on the economically important honey bee, scientists and others have also registered growing alarm about the decline in many other insect species.

The main focus of this concern has been the group of chemicals called neonicotinoids (neonics), which were introduced as pesticides to agriculture in the 1990s and have now become widespread. Although a few restrictions have been put in place, for example, by the EU Commission, governments have wavered over whether the science is conclusive enough to indicate action.

The Worldwide Integrated Assessment (WIA) undertaken by the Task Force on Systemic Pesticides set out to provide a comprehensive, independent analysis of these chemicals and their impact on ecosystems and biodiversity, in order to inform appropriate action in the future.

The findings will be published in the peer-reviewed Journal Environment Science and Pollution Research shortly (expected in the next week/s). The conclusions of the analysis as they appear in the Journal are published today (24.6.14)

WIA

This is the first meta-analysis to be undertaken on two groups of systemic insecticides, neonics and fipronil and the first time that all the relevant information from studies all over the world has been pulled together in one place.

Some aspects of this analysis have been broadly acknowledged before (e.g. risks to honeybees), but some have not (e.g. risks to birds, earthworms, other pollinators and aquatic invertebrates).

Individual studies have focussed on impacts on particular organisms, habitats or locations (e.g. bees in France, waterways in the Netherlands, birds in the US) and relatively few have specifically focused on biodiversity and ecosystem impacts, so this analysis moves our understanding forward in a much more holistic and extensive way.

Where the available data enables this, the analysis extends consideration of the risks beyond individual species and groups, to whole communities and ecosystem processes.

Undertaken by 29 independent scientists from numerous disciplines, the WIA considered over 800 peer-reviewed publications.

KEY FINDINGS

Harm

  • Neonics persist – particularly in soil – for months and in some cases years and environmental concentrations can build up over the years. This effectively increases their toxicity by increasing the duration of exposure of non-target species.
  • The metabolities of neonics (the compounds which they break down into) are often as or more toxic that the active ingredients.
  • The classic measurements used to assess the toxicity of a pesticide (short-term lab toxicity results) are not effective for systemic pesticides and conceal their true impact. They typically only measure direct acute effects rather than chronic effects via multiple routes of exposure.  In the case of acute effects alone, some neonics are at least 5,000 to 10,000 times more toxic to bees than DDT.
  • The effects of exposure to neonics range from instant and lethal to chronic. Even long term exposure at low (non-lethal) levelscan be harmful. They are nerve poisons and the chronic damage caused can include: impaired sense of smell or memory; reduced fecundity; altered feeding behaviour and reduced food intake including reduced foraging in bees; altered tunneling behaviour in earthworms; difficulty in flight and increased susceptibility to disease.

Ecosystems

  • Neonics impact all species that chew a plant, sip its sap, drink its nectar, eat its pollen or fruit and these impacts cascade through an ecosystem weakening its stability.
  • The combination of persistence (over months or years) and solubility in water has led to large scale contamination of, and the potential for accumulation in, soils and sediments, ground and surface water and treated and non-treated vegetation.
  • In addition to contaminating non-target species through direct exposure (e.g. insects consuming nectar from treated plants), the chemicals are also found in varying concentrations outside treated areas. They run off into surrounding soil and aquatic habitats easily. This polluted water, along with the dust created during the drilling of treated seeds, can contaminate wild plants growing in agricultural field margins and hedgerows providing the potential for major impacts on a broad range of non-target herbivorous invertebrates living in or near farmland.
  • This provides multiple routes for chronic and acute exposure of non-target species. Organisms inhabiting farmland are being chronically exposed and so are aquatic organisms living downstream of farmland, including inhabitants of riparian zones, estuarine and coastal marine systems.
  • The large scale bioavailability of these insecticides in the global environment at levels that are known to cause lethal and sub-lethal effects on a wide range of terrestrial, aquatic and soil beneficial microorganisms, invertebrates and vertebrates, poses risks to ecosystem functioning and services provided by terrestrial and aquatic ecosystems including soil and freshwater functions such as litter break down and nutrient cycling, food production, biological pest control, and pollination services.

Species

  • Neonics and fipronil have impacts that extend far beyond the intended crop, plant and pest species.
  • They are causing significant damage and pose a series risk of harm to a wide range of beneficial invertebrate species in soil, vegetation, aquatic and marine habitats and are affecting ecosystem services as a result.
  • There is a lack of research into the impact on vertebrate species though the assessment revealed sub-lethal impacts of concern across a range of species including birds.
  • The risk of harm occurs at field exposure levels (ie. the amounts used in agriculture) and lower.
  • It is clear that present day levels of pollution with neonics resulting from authorized uses, frequently exceed ‘lowest observed adverse effect concentrations’ for a wide range of non-target species and are thus likely to have large scale and wide ranging negative biological and ecological impacts.
  • The evidence is also clear that neonics pose a serious risk of harm to honey bees and other pollinators.
  • In bees, field-realistic concentrations adversely affect individual navigation, learning, food collection, longevity, resistance to disease and fecundity. For bumblebees, irrefutable colony-level effects have been found, with exposed colonies growing more slowly and producing significantly fewer queens. Field studies with free-flying bee colonies have proved difficult to perform, because control colonies invariably become contaminated with neonicotinoids, a clear demonstration of their pervasive presence in the environment.

The most affected groups of species are:

Terrestrial invertebrates

Terrestrial invertebrates such as earthworms are exposed to potential contamination via all four routes (air, water, soil, plants) with:

  • high exposure through soil and plants
  • medium exposure through surface water and leaching
  • low exposure via air (dusts)

The assessment found that both individuals and populations can be adversely affected by low or acute (i.e. ongoing) exposure making them highly vulnerable at field realistic concentrations – i.e., the concentrations which can be found in agriculture. These effects range from behaviour modification such as feeding inhibitions to mortality.

These species provide a myriad of ecosystem services, including the regulation and cycling of nutrients, carbon storage, and support for plant growth and are dependent on the diverse and complex biological communities that are present in soils.

Insect pollinators

Insect pollinators such as bees and butterflies are exposed to contamination through all four routes with:

  • high exposure through air and plants
  • medium exposure through water.

The assessment found that both individuals and populations can be adversely affected by low or acute exposure making them highly vulnerable.

Pollinators exposed to contaminated pollen, nectar and water are harmed at field realistic concentrations.

Aquatic Invertebrates

The next most affected group are aquatic invertebrates such as freshwater snails and water fleas which are exposed via water and potentially plants, are vulnerable to low and acute exposure and which can be affected at the individual, population and community levels.

The moderate to high water solubility of neonicotinoids enables them to contaminate both surface and groundwater and hence leach into waterways, where high concentrations have depleted aquatic insect abundance and diversity.

The impacts identified on this group are reduced feeding behaviour, impaired growth and mobility.

Birds

Birds are the next most vulnerable with low and medium exposure via all four routes and affected at medium levels of exposure for both individuals and populations.

Others

Fish, amphibians and microbes were all found to be affected after high levels of or prolonged exposure. Samples taken in water from around the world, have been found to exceed ecotoxicological limits on a regular basis.

There is insufficient data to assess whether or not there is an impact on mammals or reptiles but in the case of the latter, the researchers concluded that it was probable.

taskforce2

Gaps

  • Almost as concerning as what is known about neonics, is what is not. There is little data about the quantities of systemic pesticides being applied, nor is there much screening of concentrations of neonics in the environment. Where screening has been carried out neonics and fipronil are often detected.
  • Toxicity to most organisms has not been investigated. E.g. toxicity tests have only been carried out on four of the approximately 25,000 known species of bee, and there have been hardly any studies of toxicity to other pollinator groups such as hoverflies or butterflies.
  • Toxicity to vertebrates (such as granivorous mammals and birds which are likely to consume dressed seeds) has only been examined in a handful of species.
  • Sub-lethal effects have not been studied in most organisms, yet they are known to be profound in bees, and for those few other species where studies have been done, sub-lethal doses of these neurotoxic chemicals have been reported to have (mostly) adverse impacts on behaviour at doses well below those that cause death.

Conclusions

  • The present scale of use of neonics is not sustainable
  • Their continued use can only accelerate the global decline of important invertebrates and, as a result, risk reductions in the level, diversity, security and stability of ecosystem services.
  • The findings of the WIA demonstrate that the current extensive use of this group of persistent highly toxic chemicals is affecting global biodiversity:
  • The large scale, prophylactic use of broad-spectrum systemic insecticides must be reconsidered.
  • The authors strongly suggest that regulatory agencies apply more precautionary principles and further tighten regulations on neonicotinoids and fipronil and start planning for a global phase-out or at least start formulating plans for a strong reduction of the global scale of use.

BACKGROUND

Neonicotinoid/fipronil Pesticides

 

Neonicotinoids are a class of neuro-active, nicotine-based insecticides which were developed in 1991 and brought into commercial use in the mid-1990s. Fipronil is also neuro-active and was developed at the same time.

Unlike other pesticides, which remain on the surface of the treated foliage, systemic pesticides, including neonicotinoids and fipronil, are taken up by the plant and transported to all the tissues (leaves, flowers, roots and stems, as well as pollen and nectar).  Products containing neonicotinoids/fipronil can be applied at the root (as seed coating or soil drench) or sprayed onto crop foliage.  The insecticide toxin remains active in the soil or plant for many months (or years), protecting the crop season-long.

Neonicotinoids/fipronil act on the information processing abilities of invertebrates, affecting specific neural pathways that are different from vertebrates. This makes them popular as broad-spectrum insecticides, as they are considered less directly toxic to vertebrate species including humans.

These systemic insecticides have become the most widely used group of insecticides globally, with a market share now estimated at around 40% of the world market.  Common compounds include acetamiprid, clothianidin, dinotefuran imidacloprid, nitenpyram, nithiazine, thiacloprid, thiamethoxam and fipronil, with global sales of over US $2.63 billion in 2011.

The market for seed treatments is expanding even more rapidly, growing from €155 million in the 1990s to €957 million in 2008, at which point neonicotinoids made up 80% of all seed treatment sales worldwide.

Neonicotinoids are still toxic even at very low doses. They have a higher persistence in soil and water than conventional pesticides remaining in situ for months on average, and this results in sustained and chronic exposure of non-target organisms, such as invertebrates. Because they are relatively water-soluble, they run off into aquatic habitats easily. Growing concern about their connection to bee colony collapse disorder has led to restrictions on their use in EU Countries. Concern about their impact on other non-target species including birds, has been growing for the last five years.

 

Task Force On Systemic Pesticides

The Task Force on Systemic Pesticides is the response of the scientific community to concern around the impact of systemic pesticides on biodiversity and ecosystems. Its intention is to provide the definitive view of science to inform more rapid and improved decision-making.

NOTES

Press Conferences releasing the findings will be held in Manila and Brussels on the 24th June, Ottawa on the 25thand Tokyo on the 26th.

For further information please contact:

(insert local details)

Mirella von Lindenfels (UK) + 44 7717 844 352

Storie di macromolecole ed energia.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Giorgio Nebbia

Che cosa lega il Texas, la Lombardia e il Gujarat ? Il galattomannano. L’estrazione di metano dagli scisti consiste, come è ben noto, nell’iniettare negli strati di scisti, mediante pozzi orizzontali, acqua sotto pressione contenente in sospensione circa il 10 % di sabbia e altre sostanze capaci di sgretolare e di decomporre le rocce degli scisti. L’acqua viene resa più viscosa con agenti addensanti fra cui si è visto che si prestava bene la gomma di guar ottenuta da una pianta coltivata soprattutto in India e nel Pakistan.

220px-Galactomannan

Il guar, dal nome botanico Cyamopsis tetragonoloba, è una pianta erbacea leguminosa che produce dei semi simili ai piselli che, da tempi antichissimi, venivano macinati e trasformati in una farina alimentare. Successivamente si è visto che dalla farina greggia era possibile separare, con una resa di circa il 30 percento, una polvere, impropriamente chiamata “gomma”, di colore da giallastro a chiaro, che, aggiunta all’acqua, ne faceva aumentare la viscosità.

Il principale componente della gomma di guar è una macromolecola di galattomannano 1,2, costituita da catene di molecole di mannosio unite da legami 1,4; ogni due molecole di mannosio una è unita con una molecola di galattosio con un legame 1,6; il galattomannano 1,2 ha peso molecolare di circa 150.000-250.000 dalton. La gomma di guar è utilizzata da tempo per aumentare la compattezza dei gelati e di molti altri prodotti ed è ammessa come additivo alimentare addensante con la sigla europea di E412. La gomma di guar è stata utilizzata anche per prodotti cosmetici e in altri campi e veniva normalmente prodotta in ragione di circa un milione di tonnellate all’anno.

220px-DL-Mannose.svg 361px-DL-Galactose_num.svg

Nel 2000 il suo prezzo era di circa 1000 euro alla tonnellata; con l’aumento del numero dei pozzi che estraggono metano per fracking degli scisti, molti dei quali nel Texas, è aumentata la richiesta mondiale e la speculazione sulla gomma guar il cui prezzo è aumentato bruscamente arrivando nel 2012 a circa 10.000 euro alla tonnellata, con riflessi negativi sui fabbricanti italiani di gelati e prodotti alimentari, molti in Lombardia. Come reazione subito i coltivatori indiani, molti nello stato del Gujarat, hanno aumentato la coltivazione di guar, ma anche gli industriali petroliferi hanno cercato altri additivi addensanti per le perforazioni e il prezzo della gomma guar è crollato nel 2014 al valore più ragionevole di circa 2000 euro alla tonnellata.

Ma il metano da fracking degli scisti è tutt’altro che tranquillo. Gli agricoltori vicini ai pozzi protestano perché gli altissimi consumi di acqua portano via acqua all’irrigazione; gli ambientalisti protestano perché le acque che ritornano in superficie dai pozzi sono inquinate e devono essere sottoposte a processi di depurazione prima di essere immesse nei fiumi o nel sottosuolo. Ci sono stati anche dubbi che le operazioni di fracking delle rocce sotterranee e l’asportazione del metano possano provocare subsidenza del suolo o provocare terremoti.

Questa breve storia dei rapporti fra agricoltura, industria agroalimentare e industria energetica in così lontane terre del pianeta è un esempio degli effetti della globalizzazione, i cui vantaggi sono anche fragilissimi perché spesso la speculazione non rende a lungo. Infine insegna che ogni impresa “economica”, che è sempre basata su risorse naturali, merci e processi tecnico-scientifici, in cui la chimica entra sempre, deve essere valutata con attenzione per evitare di uscire da una trappola per cadere in un’altra.

per approfondire:

http://www.lucidcolloids.com/pdf/8617_glimpses-of-galactomannans.pdf

http://tribune.com.pk/story/622071/corporate-results-pakchems-profit-binge-ends-with-crash-in-guar-price/

http://timesofindia.indiatimes.com/city/jaipur/Guar-prices-expected-to-rise-in-January/articleshow/27050056.cms

http://articles.economictimes.indiatimes.com/2012-05-21/news/31800809_1_guar-prices-commodity-futures-futures-market

http://www.forbes.com/sites/christopherhelman/2012/07/17/fracking-boom-means-good-times-for-indias-guar-farmers/

L’impronta dei mondiali

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Marco Taddia

mondi1mondi2Il clamore e il tifo sportivo che in Italia e in altri Paesi suscitano le partite per la conquista della Coppa del Mondo di calcio 2014 non può farci dimenticare la realtà brasiliana. Non è un mistero che da settimane, in molte città, si svolgono manifestazioni per protestare contro le ingenti spese sostenute dal Governo Brasiliano per organizzare il Campionato 2014 e costruire dodici stadi, un terzo dei quali, sostengono i critici, non sarà in pratica sfruttato una volta terminato il Mundial. Gli organizzatori delle proteste chiedono alle autorità di destinare maggiori investimenti al sistema sanitario, all’istruzione, alla sicurezza e alle infrastrutture di cui necessita il Paese. Importanti agenzie di stampa internazionali come The Associated Press hanno fornito informazioni sui costi delle opere gonfiati in corso d’opera a causa della corruzione, nonché sui disordini in atto (http://bigstory.ap.org/article/high-cost-corruption-claims-mar-brazil-world-cup). Apprendiamo, ad esempio, che il costo dello stadio di Brasilia è praticamente triplicato, giungendo a 900 milioni di dollari. Secondo l’agenzia Reuters U.S. (http://www.reuters.com/article/2014/06/13/us-brazil-worldcup-megaevents-analysis-idUSKBN0EO0CJ20140613) il costo totale dell’evento è valutabile in ben 11,3 miliardi di dollari. I ricavi dovuti al turismo e al resto si vedranno in seguito. Sono cifre che destano impressione e sfuggono, in pratica, al metro dell’uomo comune. Detto ciò, bisogna chiedersi anche quale sarà il costo ecologico dell’evento per il nostro fragile pianeta. In pratica cosa significherà in termini di CO2 emessa in atmosfera. Cerchiamo di capire come stanno le cose, tentando di districarci tra previsioni, annunci e critiche di vario genere. Un importante documento che riguarda l’impronta di “carbonio”, emesso dalla Fédération Internationale de Football Association (FIFA) è disponibile da tempo, anche in rete (http://www.mgminnova.com/web/summaryofthe2014fwccarbonfootprint_neutral.pdf).

mondi3

S’intitola “Summary of the 2014 FIFA World Cup Brazil™ Carbon Footprint”. A p. 15 c’è una tabella, molto dettagliata, da cui risulta una previsione di ben 2,7 milioni di tonnellate di CO2 (tCO2e), comprendente non solo l’evento in sé ma anche i preparativi, i trasporti ecc.. Nel testo si legge: “The carbon footprint for the 2014 FWC Brazil shows that the overall event is expected to generate just over 2.7 million tCO 2e, inclusive of Preparation, FCC Staging, and FWC Staging. FWC Staging accounts for the vast majority (90.8%), followed by FCC Staging, which contributes a significant fraction (7.8%), as well.

   Pochi giorni fa, il Ministro brasiliano per l’Ambiente Izabella Teixeira ha tenuto una conferenza stampa per dimostrare invece che si tratta della Coppa del Mondo più verde in assoluto. I dubbi rimangono e un illuminante articolo di Fiona McDonald (ABC Environment – Australian Broadcasting Company), pubblicato online il giorno 12 giugno, li elenca insieme alle fonti d’informazione (http://www.abc.net.au/environment/articles/2014/06/11/4023378.htm). Il Ministro ha dichiarato che l’evento in sé scaricherà in atmosfera 59.000 tonnellate di CO2 specificando che il tutto è stato ampiamente compensato dai “crediti” in CO2 ceduti da aziende che otterranno in cambio pubblicità. Coppa verdissima quindi? Mah… Il Ministro ha convenuto che la stima effettiva rimane di 1, 4 milioni di tonnellate, inferiore comunque a quella della FIFA. Comprende i viaggi e la sistemazione di atleti, staff, spettatori e le trasmissioni televisive delle partite. Chissà se il sistema dei “crediti” compenserà, almeno in parte, anche questo? Altro discorso riguarda gli sforzi che il Brasile ha fatto per rendere più sostenibile l’evento con il ricorso alle energie rinnovabili, in primo luogo al solare. Si calcola che i pannelli fotovoltaici della ricopertura dei due stadi interessati, totalmente alimentati con questi sistemi, produrranno circa 2,5 MW. Qualcuno ha fatto notare che il valore è addirittura superiore alla potenza nazionale fotovoltaica di 11 delle 32 nazioni partecipanti. E’ stato un investimento gigantesco che indubbiamente ha giovato allo sviluppo dell’industria locale e al PIL ma a che pro? Nei giorni scorsi ci sono stati tumulti in appoggio a 200 professori scesi in sciopero contro gli stipendi troppo bassi. In un mese guadagnano meno del costo del biglietto per la partita inaugurale. Questo la dice lunga sulle contraddizioni in cui si dibatte il Brasile. Ma rispetto ai grandi eventi sportivi del passato come stanno andando le cose? Il bravo Stefano Cosimi lo ha spiegato per www.wired.it. I Mondiali del Sud Africa sono stati fra i peggiori da questo punto di vista perché spararono in cielo 900.000 tonnellate di anidride carbonica ma, come ricorda lui, “nel conteggio sudamericano sono invece state inserite, oltre al mese di partite, anche i lavori realizzati negli anni precedenti”. Concordiamo con Cosimi che quello del Brasile è un risultato migliore anche se, “solo il traffico aereo sprigionerà l’equivalente di 560mila automobili in viaggio costante per un anno. E dunque i conti andranno fatti alla fine, come sempre”. Le emissioni sudafricane furono dieci volte superiori a quelle della precedente manifestazione che si tenne in Germania, inferiori comunque a quelle delle Olimpiadi di Londra che in sette anni produssero un impatto da 3,4 milioni di tonnellate di CO2.

Ci si può chiedere allora se, nonostante gli sforzi fatti, il pianeta pagherà un costo troppo alto in termini di diossido di carbonio. É un bilancio complesso e le semplificazioni non sono utili alla verità. Come riportato in uno degli interventi registrati da Fiona: “il calcio è un gioco da cui la gente si attende piacere e gioia”. Si può aggiungere che l’incontro di tanti popoli diversi, nel nome della passione e degli ideali sportivi, può favorire la convivenza pacifica tra le nazioni. Pensate che basti per un pareggio fra costi e benefici?

Articolo ripreso, con lievi modifiche, da www.galileonet.it

Video da vedere: http://video.corriere.it/brasile-muntari-distribuisce-soldi-strada/cb66fec2-fa04-11e3-88df-379dc8923ae4

Quale Strategia Energetica per l’Italia?

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Nicola Armaroli, Vincenzo Balzani, Enrico Bonatti, Marco Cervino, Maria Cristina Facchini, Sandro Fuzzi, Luca Gasperini, Cristina Mangia, Alina Polonia, Leonardo Setti

 armaroli vincenzobalzaniEnrico-Bonatti-199x30020081115211343_cervinosidebar_cristina1IMG_FUZZI7_548x345gasperinicristinamangia alinapolonia setti_foto-150x150

In un articolo sul Messaggero del 18 maggio, il Presidente Prodi ha sollecitato lo sfruttamento di giacimenti di petrolio e gas che si trovano nel Mare Adriatico. Questo articolo, ripreso da molti giornali ed agenzie, è stato positivamente commentato dal ministro Guidi che si è detta preoccupata dai ritardi che comporta il recepimento della Direttiva europea del 2013 sulla sicurezza delle operazioni in mare nel settore degli idrocarburi: “Bisogna evitare che questa moratoria ci faccia perdere ulteriori opportunità. Dato che tutto il mondo lo fa, non capisco perché dovremmo precluderci la possibilità di utilizzare queste risorse, pur mettendo la tutela dell’ambiente e della salute al primo posto”.

Data la sua esperienza internazionale e la sua autorevolezza, ci saremmo aspettati dal Presidente Prodi un appello affinché le nazioni del mondo trovino un accordo per limitare l’uso dei combustibili fossili e anche un invito al Governo italiano, e a quello della Croazia, a non intraprendere attività estrattive che possano compromettere l’incommensurabile valore paesaggistico, culturale ed economico di un bacino chiuso, e quindi particolarmente vulnerabile, come l’Adriatico. La scienza, oggi, sa che l’estrazione e l’uso degli idrocarburi comportano rischi e danni molteplici per l’uomo e per l’ambiente, tra cui la contaminazione di acque ed ecosistemi, l’inquinamento atmosferico e il riscaldamento climatico. Da approfondire ulteriormente vi sono poi le connessioni fra processi di estrazione e induzione di terremoti, argomenti su cui si sta concentrando l’attenzione della comunità scientifica e dell’opinione pubblica.

L’idea di sfruttare l’Adriatico era già contenuta nel documento di Strategia Energetica Nazionale del marzo 2013. La stima era di estrarre 123 Mtep di riserve certe che, spalmate su 15 anni, corrispondono al 6% del consumo annuale italiano, una quota del tutto marginale. Già allora ci fu chi suggerì di rinunciare alle estrazioni, proponendo come misura alternativa di diminuire i consumi del 6%, una quota che può essere raggiunta con azioni minime di educazione al risparmio e all’efficienza energetica. E’ noto a tutti che nel 2020 l’Europa raggiungerà gli obiettivi che si era prefissati riguardo il risparmio energetico, la riduzione di immissioni di CO2 e lo sviluppo delle energie rinnovabili, che il Parlamento europeo ha già votato l’obbligo di ridurre i consumi del 40% al 2030 e che la roadmap europea prevede un taglio delle emissioni di CO2 dell’80 – 95% entro il 2050.

Nel suo articolo, Prodi afferma che “Gli esperti sono concordi nel dire che non vi è nessun rischio” nell’estrarre petrolio dall’Adriatico. A parte il fatto che molti autorevoli esperti affermano il contrario, l’esperienza dimostra che in imprese tecnicamente complesse, compiute con l’unico scopo di ricavarne profitti, errori e disastri sono sempre in agguato e non è proprio il caso di rischiare di inquinare le coste dell’Adriatico, che sono un’ingente e consolidata fonte di sicuro reddito turistico sia per l’Italia che per la Croazia. L’unica cosa certa è che la trivellazione dell’Adriatico porterebbe profitti a un ristretto gruppo di colossi dell’energia, ben lieti di lavorare in un Paese come l’Italia, che ha un regime fiscale e di royalties tra i più vantaggiosi al mondo.

Col referendum del 2011 gli italiani si opposero al ritorno del nucleare e molte persone autorevoli, fra cui Prodi, affermarono che l’Italia aveva perso un treno. In realtà oggi sappiamo con certezza di aver fatto la scelta giusta. Le prime centrali nucleari sarebbero state pronte (?) non prima del 2025, mentre alla fine del 2011 il fotovoltaico installato in Italia produceva già l’equivalente di una centrale nucleare e attualmente, con oltre 18000 MWp installati, produce l’equivalente di due centrali da 1600 MW.

Oggi la situazione si ripete: si parla della necessità di non perdere il treno dello sfruttamento dei giacimenti di idrocarburi in Adriatico, senza capire che anche in questo caso si tratta di un treno in ritardo. I tecnici sono concordi nell’affermare che ci sono molte difficoltà da superare tanto che, secondo le stime più ottimistiche, lo sfruttamento non potrebbe iniziare prima di almeno 10 anni. A parte i già ricordati aspetti negativi riguardanti l’estrazione e l’uso di idrocarburi, bisogna prendere atto che siamo nel pieno di una transizione energetica. Fra un decennio le energie rinnovabili, anche se poco amate dalla politica e da grandi gruppi economici, ci forniranno, senza lasciare alle prossime generazioni scorie radioattive e senza contribuire all’aumento della CO2 in atmosfera, tutta l’energia che ci avrebbero fornito le quattro centrali nucleari previste dal governo Berlusconi nel 2011 e i 123 Mtep di energia fossile nel sottosuolo dell’Adriatico, indicate nella Strategia Energetica Nazionale del ministro Passera del 2013.

Risparmio energetico, efficienza e sviluppo delle energie rinnovabili sono l’unica via percorribile se vogliamo raggiungere l’indipendenza energetica e custodire il pianeta Terra. L’incremento delle rinnovabili in Italia ha mostrato un trend di crescita medio di oltre 1,7 Mtep/anno, secondo soltanto a quello della Germania, che ci pone tra le Nazioni leader mondiali in questo settore industriale. Per questo motivo, oltre che per la crisi economica, le centrali termoelettriche italiane sono passate oggi da 5000 ore a 2000 ore lavorative anno, mettendo in grave difficoltà i piani industriali di decine di impianti, autorizzati in modo poco lungimirante negli ultimi 15 anni da vari governi. Purtroppo però, nonostante questo straordinario successo, in Italia le energie rinnovabili sono oggetto di un violento attacco che non ha alcun fondamento scientifico ed economico e che ha già causato la chiusura di centinaia di aziende e la perdita di migliaia di posti di lavoro.

E’ sulle energie rinnovabili, quindi, che si dovrebbe investire: energia idrica, eolica, geotermica e, soprattutto, energia solare. Ad esempio, basterebbe coprire con pannelli fotovoltaici lo 0.8% del territorio, poco più dei 2000 km2 occupati dai 700.000 capannoni industriali italiani e loro pertinenze, per ottenere tutta l’energia elettrica che ci serve.

Il futuro economico, industriale ed occupazionale del nostro Paese può essere basato solo sullo sviluppo delle energie rinnovabili, non sulla ricerca spasmodica delle ultime gocce di petrolio.

Purtroppo, una larga parte della classe dirigente italiana continua a guardare indietro, senza comprendere quale opportunità di vero sviluppo ci offre la rivoluzione economica e industriale già in atto. Invitiamo il governo a prendere decisioni lungimiranti riguardo l’energia, che è la risorsa più importante per la vita e lo sviluppo della civiltà.

NB: le foto si succedono nel medesimo ordine della lista di autori.

La lettera di R. Prodi per l’uso del fossile adriatico è comparsa su Il Messaggero del 18 maggio us: http://economia.ilmessaggero.it/economia_e_finanza/prodi-quel-mare-di-petrolio-che-giace-sotto-l-amp-rsquo-italia/697134.shtml

Il buonsenso è morto affatto!

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di C. Della Volpe

Giuseppe Giusti è stato uno dei piu’ popolari poeti italiani e molti dei suoi stroncanti versi sono diventati patrimonio popolare.

Oggi, mentre scrivo queste due righe, mi viene in testa la seguente strofa:

bell6     “Il Buonsenso…. è morto affatto,

l’ha ucciso la Scienza, sua figliuola,

per veder com’era fatto”.

(Epigrammi)

Ma perchè direte voi?
Stavo leggendo un recente articoletto di Nature (http://www.nature.com/news/quanundrum-1.15415) dall’indicativo titolo di Quanundrum, una parola inglese che viene dalla fusione di due termini: quandary e conundrum due termini che vogliono entrambi dire: dilemma insolubile.

Quale sarebbe il dilemma in questione e perchè faccio riferimento al senso comune contrapposto alla Scienza?

Ve lo spiego subito; prima della Meccanica Quantistica (MQ) certi assunti del senso comune erano anche assunti della Scienza; dice Nature:

Il primo assunto è la “località” – l’idea che una misura fatta a Londra non possa essere influenzata da come si è usato un dispositivo di misura a New York. La seconda è il “realismo” – e cioè che ci sia una realtà che è indipendente da quello che si misura o si osserva

Al momento invece, mentre questi due assunti rimangono assunti del senso comune ed anche di parecchie discipline scientifiche essi non sono più assunti della Scienza in generale e in particolare della MQ, mentre è chiaro che le applicazioni della MQ, (questa per esempio sul giornale di ieri http://www.repubblica.it/scienze/2014/06/05/news/teletrasporto_quantistico_cos_viaggeranno_le_informazioni_ultra_sicure_del_futuro-88112559/?ref=HRERO-1) sono ormai all’ordine del giorno e noi chimici lo sappiamo bene, ma lo sanno bene anche i fisici e perfino certi ingegneri e certi biologi.

bell5

Per capire qualcosa di più partiamo dal motivo occasionale dell’articolo di Nature; si tratta della celebrazione del cinquantennio di pubblicazione di uno degli articoli più importanti per la meccanica quantistica: le cosiddette disuguaglianze o teorema di Bell (J. S. Bell, On the Einstein Podolsky Rosen Paradox, Physics 1, 195-200 (1964)) che insieme al teorema di Kochen–Specker (http://en.wikipedia.org/wiki/Kochen%E2%80%93Specker_theorem) rappresentano una sorta di colonne d’Ercole per le interpretazioni della Meccanica quantistica. E’ da dire che la pubblicazione avvenne alla fine del 1964, e l’articolo di Nature è un po’ in anticipo.

Non sono un esperto, come al solito, e mi tocca fare una fatica boia per cercare di non raccontarvi sciocchezze o cose scontate e raccontarle in linguaggio piano e il più possibile esente da errori. Secondo me le cose stanno così e spero che qualche esperto mi confermi. Se no correggetemi, non mi vergogno.

La scoperta del quanto di Planck (1900), ossia che l’energia non poteva essere assorbita o ceduta in quantità grandi a piacere, ma solo multiple di una molto piccola, e le successive applicazioni di questa idea con la formalizzazione matematica che ne è seguita sono state veramente rivoluzionarie.

bell4E lo sono state per gente che non si metteva paura di usare questo termine; nel decennio 1900-1910 si sono gettate le basi di meccanica quantistica e della relatività ed Albert Einstein è stato protagonista di entrambe; eppure…..

Eppure nel 1935 Albert Einstein scriveva, dopo la affermazione della cosiddetta “interpretazione di Copenhagen” della MQ e insieme a Podolsky e Rosen un articolo (Physical Review, 47 (777-789) 1935 Can Quantum-Mechanical Description of Physical Reality Be Considered Complete’ ?) che ne metteva in dubbio la validità.

bell3

Il ragionamento era semplice tutto sommato ed è condensato nell’abstract che qui riporto:

In una teoria completa c’è un elemento corrispondente a ciascun elemento di realtà. Una condizione sufficiente per la realtà di una quantità fisica è la possibilità di predirla con certezza, senza disturbare il sistema. Nella MQ nel caso di due quantità fisiche descritte da operatori che non commutano (NdT e che sono per questo legate alle relazioni di indeterminazione di Heisenberg) la conoscenza dell’una preclude quella dell’altra. Allora o 1) la descrizione della realtà data dalla funzione d’onda in quanto meccanica è incompleta, oppure 2) queste due quantità non sono reali simultaneamente. Considerando il problema di fare predizioni sul sistema sulla base di misure fatte su di un altro sistema che era stato fatto interagire precedentemente con esso (NdT e che quindi rimane ad esso correlato, o come si dice entangled) porta al risultato che, se la condizione 1) è falsa, è falsa anche a 2). Così siamo costretti a concludere che la descrizione della realtà come data dalla funzione d’onda è incompleta.”

L’ articolo dei tre criticoni conclude:

While we have thus shown that the wave function does not provide a complete description of the physical reality, we left open the question of whether or not such a description exists. We believe, however, that such a theory is possible.”

Il cuore del problema è che usando il fenomeno della correlazione fra particelle (entanglement) si arriva all’inaspettato risultato che è come se le particelle correlate si scambiassero informazioni a velocità superiori a quelle della luce, ma questo viola la relatività; l’interpretazione di Copenhagen usa il concetto del collasso della funzione d’onda, un fenomeno un po’ misterioso, lo confesso per spiegare il problema. Ma non convince tutti. Questo risultato, conosciuto come “paradosso EPR” ha dato filo da torcere fino al 1964, quando fu pubblicato il lavoro di Bell.

Il ricercatore irlandese (come “chiaramente” esemplificato dai suoi capelli rossi) era anch’egli convinto che qualcosa non andava nella MQ, (fu Bohmiano fino alla morte) ma gli toccò la sorte di ricavare con grande precisione quali risultati si sarebbero avuti sperimentalmente facendo esperimenti del tipo di quelli proposti da Einstein e colleghi; la sua conclusione fu che tali risultati sarebbero stati diversi nei due casi: se valeva la MQ o se valeva l’idea di Einstein che ci fossero della variabili nascoste, delle quantità non ancora misurate e considerate; nel corso degli anni tali condizioni, espresse come diseguaglianze e ulteriormente confermate dall’altro set di condizioni (il teroema di Kochen–Specker) sono state verificate sperimentalmente da molti gruppi di ricercatori, con una precisione estremamente elevata; e così la conclusione è la seguente: l’ipotesi di Einstein dell’esistenza di variabili nascoste non regge alla verifica sperimentale; ma di conseguenza anche le idee del buonsenso.

Però, però, le cose non sono mai semplici; ci sono tre condizioni di “buonsenso” che usiamo di solito nei nostri ragionamenti: il “localismo”, ossia non esistono azioni magiche e spettrali, ”spooky” come diceva Einstein, istantanee e a distanza, il “realismo”, se mi giro da un’altra parte e non interagisco con le cose che mi stanno davanti, non ci faccio una “misura” direbbe Bohr, quelle continueranno ad esistere ed infine la “completezza” della conoscenza; la nostra conoscenza della natura può essere completa o incompleta, darci certezze o solo probabilità; badate non probabilità dipendenti da errori ma proprio probabilità e basta, come se il mondo giocasse a dadi ogni volta che funziona, un processo nelle medesime condizioni può avvenire ma anche no, capricciosamente. Noi di solito pensiamo che la Natura sia completamente conoscibile.

Ma le relazioni di Bell ci dicono che TUTTE E TRE queste condizioni insieme NON POSSONO VALERE; dobbiamo rinunciare ad una di esse.

E ci sono quindi tre possibilità, come ci racconta in un bell’articolo di stampo divulgativo il collega Nicrosini** in una rivista tutta ITALIANA di fisica teorica:

-se rinunciamo alla completezza della conoscenza stiamo fondamentalmente dicendo che la Natura si comporta come nella relazione fra Meccanica statistica e Termodinamica, si comporta come noi pensiamo ma solo in media, ma POTREBBE comportarsi diversamente, essere capricciosa; anche perchè non in tutti i casi abbiamo a che fare con grandi numeri che nel caso della Meccanica statistica ci assicurano dei risultati della Termodinamica;

– se rinunciamo al principio di realtà, abbiamo a che fare col neopositivismo, che oggi è la posizione ortodossa, quella sostenuta da Bohr e Heisenberg a Copenhagen nell’ormai lontano 1927. Le cose della MQ che è la scienza di base della materia corrispondono a risultati di esperimenti, non necessariamente a oggetti “materiali” con proprietà intrinseche; la Scienza non ci dice come sono fatte le cose del mondo, MA come è fatta la nostra conoscenza delle cose; le cose del mondo sono diverse dalla nostra conoscenza. (concettino mica da ridere ammetterete!)

– ed infine, terza possibilità, diventata realistica quando nel 1952 un signore chiamato Bohm decise che era venuto il momento di dimostrare che si poteva bell2costruire un punto di vista diverso da quello di Copenhagen, ma in tutto sperimentalmente coincidente con esso; abbandoniamo l’idea della località, la magica azione istantanea a distanza è possibile! La sua idea partiva da una cosa che tutti noi studiamo, le onde di De Broglie, le onde materiali associate ai corpuscoli materiali. In pratica sia i corpuscoli che le onde esisterebbero e i corpuscoli hanno un comportamento che è dominato dalla loro onda associata; in questo modo il localismo si perde, non ci sono comportamenti locali, l’atomo è infinito, noi e il mondo siamo tutt’uno, come raccontava in un famoso romanzo di fantascienza degli anni 40 il gioviano Aarn Munro.

bell1

Le variabili nascoste non possono esistere sul piano locale, lo dimostra Bell, MA, ma lo possono sul piano non-locale. Detto in parole molto povere: in un certo senso è come se lo stesso spazio-tempo vibrasse dappertutto, manifestandosi localmente come un corpuscolo, ma i corpuscoli, gli atomi famosi non esistono, se non come manifestazione di tale oscillazione. Su questa idea pochi sono d’accordo e Bohm non è un idolo dei fisici. D’altronde la sua posizione non era tanto quella di costruire una nuova teoria, ma di dimostrare che c’era una alternativa al neopositivismo dell’interpretazione di Copenhagen.

Ovviamente io sono Bohmiano, o meglio essendo ribelle per natura mi entusiasma questa visione alternativa! Ma non sono il solo! In un recente esperimento macroscopico Yves Couder (2005), un fisico francese ha fatto vedere come una goccia di liquido possa risuonare con una superficie del medesimo liquido senza coalescenza e la goccia e la superficie oscillante esistano stabilmente; il filmato è spettacolare e mostra che l’associazione onda corpuscolo è un fenomeno che esiste anche in altri campi della conoscenza.

http://youtu.be/W9yWv5dqSKk

https://www.youtube.com/watch?v=nmC0ygr08tE

bell7

Mettere così in correlazione le onde di De Broglie e quelle di Faraday mi ha fatto sciogliere, letteralmente, anche perchè le onde di Faraday le avevo usate anche io per misurare l’angolo di contatto (http://www.sciencedirect.com/science/article/pii/S0927775702000729)

Voi che ne dite?

Per approfondire:

**http://people.na.infn.it/~santorel/docs/mq1/EPR&Bell.pdf Paradosso EPR e Teorema di Bell di Oreste Nicrosini, Quaderni di Fisica Teorica 1991

 http://www.europhysicsnews.org

Quanto è chimico il potenziale chimico? (V)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Claudio Della Volpe

Siamo quasi alla fine di questa lunga corsa attraverso il potenziale chimico e la meta, una descrizione per quanto possibile dettagliata del potenziale elettrochimico, ma senza la necessità di ricorrere alla matematica sofisticata a cui si ricorre di solito, è vicina.

Tiriamo le fila.

Quando si parla di elettrochimica occorre rispolverare almeno alcuni dei concetti della fisica, dell’elettromagnetismo, il voltaggio, la carica, la corrente; ma quali significati prendono adesso nel nuovo contesto che stiamo esplorando?

Le cariche sono per noi ioni ed elettroni, le loro cariche sono tutte multiple di quella del protone e/o dell’elettrone che sono uguali fra loro ma di segno opposto; la carica viene espressa in coulomb in Fisica, ma in Chimica, dove l’unità base è la mole, si usa una mole di cariche elementari che prende il nome di Faraday .

Il voltaggio, innanzitutto; si tratta di energia per unità di carica, ossia 1 Volt = 1Joule/1 Coulomb; dato che 1 Coulomb è una unità di misura della carica molto piccola rispetto alle grandezze della Chimica, basta ricordare che 1 mole di cariche elementari, ossia 1 Faraday, corrisponde a poco meno di 100.000 coulomb (per la precisione 96.450). Quindi per ogni mole di cariche processate in una reazione la cui differenza di voltaggio è 1 Volt, si spendono o si ottengono circa 100.000 J. Ma questo valore è proprio quello tipico della variazione di energia di una reazione in cui si rompa o si formi un legame forte, quindi 1V è un voltaggio sufficiente ad una tipica reazione chimica, anzi non ci aspetteremo mai valori di voltaggio tipici molto più grandi di questi, qualche Volt è il massimo che possiamo aspettarci. Valori molto maggiori devono farci sospettare processi diversi.

E la corrente? Quale è il senso “chimico” della corrente?

Gli Ampere sono coulomb al secondo; quindi cariche che passano al secondo; dato che in elettrochimica le cariche sono elementi reattivi stiamo parlando di una vera e propria velocità di reazione; la corrente è una velocità di reazione.

Ma per quello che abbiamo detto prima 1 coul/sec equivale a 10-5moli di cariche al secondo; quindi una velocità piccola; c’è una cosa importante da ricordare; questa velocità di reazione è riferita comunque alla sezione attraverso cui le cariche passano: il filo del circuito, ma anche l’elettrodo del nostro sistema di reazione, una batteria, un elettrolizzatore. Di solito quindi in elettrochimica si parla non tanto di corrente ma di “densità” di corrente, ossia di una corrente riferita ad una sezione unitaria, per esempio un cm2 di elettrodo. I cavi che portano la corrente in una fabbrica elettrochimica o la superficie degli elettrodi delle celle, sono enormi; e le correnti in gioco sono enormi, centinaia di migliaia di amperè in ogni sito produttivo, solo così si hanno le produzioni che si hanno; 50Mton anno di alluminio primario corrispondono a circa 1800 miliardi di moli e dato che ciascuna mole richiede 3 moli di elettroni secondo la reazione:

Al+3 + 3e == Al

occorrono quindi 5400 miliardi di Faraday; ossia 5.4*1017 coulomb; dato che la produzione di alluminio è continua e in un anno ci sono 3.15 *107 secondi dividiamo i due numeri uno per l’altro. Stiamo parlando di poco meno di 18 miliardi di Ampere usati costantemente in ogni istante per produrre solo il nuovo l’alluminio di cui abbiamo bisogno. Le correnti usate sono così alte in questo tipo di fabbriche che inducono potenti campi magnetici in tutta la zona di produzione, impedendovi di usare orologi meccanici, schede magnetiche, e ogni altro oggetto sensibile ai campi magnetici intensi.

     potchim5aLe celle elettrochimiche corrispondenti sono lunghe molti metri e disposte in serie di centinaia. E’ in pratica l’effetto del rapporto fra il coulomb e il faraday!

In pratica tenendo presente che il voltaggio di lavoro di una cella è superiore ai 4V, che la potenza in (W) watt = corrente (A) x tensione (V), nel mondo si impiega una potenza continua di circa 100GW per produrre solo l’alluminio nuovo, il che corrisponde a poco più dello 0.7-1% della potenza media mondiale primaria e grosso modo al 2-4% di tutta la potenza elettrica costantemente impiegata nel mondo. L’alluminio è certamente un metallo molto energivoro e questa che viviamo potrebbe anche metallurgicamente definirsi l’età dell’alluminio.

potchim5b

Avrete notato che il voltaggio di lavoro della cella è di quasi 4-5volts, mentre l’analisi teorica basata sui potenziali di ossidoriduzione della reazione usata che è

potchim5c

dà 340 kJ/mole a 1000°C, ossia in regola con il calcolo che abbiamo fatto prima:

1 Volt corrisponde a circa 100 kJ (96.45) per mole di cariche elementari, qui abbiamo 3 moli di cariche elementari per ogni mole di alluminio quindi il potenziale sarà

340/96.45/3=1.18V da spendere, almeno in linea teorica; la differenza fra la teoria 1.18V e la pratica che viaggia sui 4-5 Volts ci introduce nel cuore dell’elettrochimica.

Questa è la stima della spesa energetica nella cella nelle sue varie parti:

pothim5d

(da Industrial Electrochemistry di C. Pletscher e F. Walsh, 2 ed Kluwer ed)

Da questo riquadro vediamo che il grosso dell’incremento del voltaggio, ossia della spesa di energia per unità di carica viene dalla resistenza fornita al flusso della corrente dagli elettrodi, fatti in questo caso di grafite, e dall’elettrolita stesso ed infine che c’è una quota significativa di “sovratensione” all’anodo, ossia per la semireazione   2O2-+C –>CO2 + 4e- (la semireazione è da moltiplicare per tre per trovarsi con la stechiometria precedente ma questo non altera il conto per mole di cariche o di alluminio).

La resistenza offerta da elettrodi ed elettrolita produce per effetto joule l’energia necessaria a mantenere la temperatura di cella a 1000°C e quindi può essere considerato un effetto voluto ed utile.

Mentre la resistenza degli elettrodi o della soluzione sono un concetto che anche uno studente liceale può comprendere ed accettare, (la definizione comune di resistenza che viene data è R=V/I e si badi che non è del tutto esatta), quello di sovratensione è un concetto nuovo sul quale converrà fermarsi un momento.

Dobbiamo ripartire dall’equazione fondamentale del potenziale elettrochimico che abbiamo scritto fin dalla prima parte del post:

μ + V zF = 0       μ =- V zF

Questa espressione vale all’equilibrio, ossia quando l’energia libera disponibile è nulla, quando il massimo lavoro di non-espansione da svolgere (che nel nostro caso è elettrochimico) è zero e abbiamo solo fluttuazioni fra i due stati di equilibrio che si fronteggiano: reagenti e prodotti o se si vuole stati ossidati e ridotti o anche semplicemente come nell’esperimento di Volta due diversi metalli a contatto: il gap di potenziale chimico equivale e bilancia la differenza di potenziale elettrico che si crea e il sistema è stabilmente all’equilibrio, non ci sono flussi di corrente NETTI o in pratica non accade nulla (a parte semplici fluttuazioni, ossia la corrente di scambio).

Nel caso dell’alluminio se applichiamo alla cella industriale un potenziale del genere anche in assenza delle resistenze di elettrodi ed elettrolita NON ACCADE NULLA, non passa corrente, l’alluminio non si forma.

Ma se vogliamo che un processo avvenga cosa dobbiamo fare allora?

In linea di principio e guardando l’equazione precedente dobbiamo creare uno sbilancio fra i due termini, incrementandone uno mentre l’altro rimane fermo o riducendone uno mentre l’altro rimane fermo. Creeremo quindi un gap, una differenza o come si dice un gradiente o di potenziale chimico o di voltaggio rispetto a quello di equilibrio, (V-Vequ) o (μ-μequ) una differenza, un gradiente che funzionerà da forza spingente del processo lontano dall’equilibrio.

Nel caso della produzione di alluminio per allontanarci dall’equilibrio, e dato che questo è un processo in cui energia elettrica si trasforma in energia chimica, dobbiamo semplicemente spendere più energia elettrica, aumentare l’energia per unità di carica ossia in definitiva il voltaggio applicato.

Per comprendere il motivo di questa necessità riflettiamo sul fatto che mentre al catodo il processo può essere immaginato in termini di pura e semplice attrazione fra lo ione positivo Al+3 e gli elettroni, un processo interpretabile in termini di pura attrazione elettrostatica e senza problemi particolari, nel caso invece del processo anodico, abbiamo del C che deve rompere i suoi legami forti ed accettarne di nuovi con lo ione O2- presente in soluzione; si tratta quindi di una vera e propria reazione chimica, dotata di un suo meccanismo e di una sua “energia di attivazione”, ossia della necessità di modificare sia pur minimamente i reagenti perchè siano pronti ad entrare nel loro nuovo stato; questa forma più attiva di reagenti, definita non a caso “stato attivato” implica una trasformazione che non è a costo energetico nullo; e per realizzarla occorre quindi dell’energia in eccesso rispetto a quella necessaria al processo come tale; tale “energia di attivazione” in eccesso, (necessaria anche in processi che alla fine produrranno energia) può essere fornita proprio dal campo elettrico e quindi un’aumento di voltaggio, ossia di energia per unità di carica può fare la differenza; ecco perchè quell’input aggiuntivo di 0.5V nel processo anodico per fabbricare l’alluminio.

potchim5e

In questa immagine del Bianchi e Mussini – da “Elettrochimica” 1976 editore Masson non più in commercio, uno dei classici libri dell’elettrochimica, scritto da due grandi della scienza italiana – si rappresenta proprio questo fenomeno nel caso della ossidazione di un metallo, ma il concetto è sempre il medesimo, la reazione si svolge da sinistra a destra per l’ossidazione e da destra a sinistra per la riduzione; la curva tratteggiata descrive la situazione all’equilibrio e quella continua dopo aver cambiato il potenziale anodico; nel primo caso la quota descritta come Watt,A è la quota di energia di attivazione necessaria, mentre nella nuova curva continua tale dislivello si riduce; il contrario avviene per la quota

Watt,C ossia per l’energia di attivazione necessaria per il processo inverso; quindi l’ossidazione viene favorita e la riduzione sfavorita, come se si fosse introdotto un catalizzatore solo nella prima direzione.

Ecco a cosa servono quegli 0.5V di “sovratensione”: a vincere le barriere di energia potenziale nella distruzione dei legami fra atomi di carbonio nell’anodo della cella per l’alluminio.

In pratica per lasciare l’equilibrio, lo stato prediletto della termodinamica classica ed entrare nel mondo vero e reale dei fatti dobbiamo “dissipare” energia! Un concetto assolutamente formidabile che ha introdotto la termodinamica del ‘900. Questo avviene anche in un processo isotermo; il criterio di Carnot così utile nella comprensione delle macchine termiche qui non servirebbe più a nulla e si dimostra impotente a comprendere i fatti; invece la sovratensione reintroduce il secondo principio, reintroduce la dissipazione, reintroduce la irreversibilità; anche i processi elettrochimici hanno il loro tallone di Achille, pagano cioè il prezzo al secondo principio della termodinamica, attraverso i numerosi meccanismi che creano “sovratensione”. Infatti non esiste solo la barriera di energia di attivazione, ma processi diffusivi, altre reazioni che precedono o seguono l’atto elettrochimico vero e proprio e così via: e tutti questi sono processi che danno “sovratensione” o dissipazione.

Nel caso della trasformazione da energia elettrica ad energia chimica, la sovratensione si manifesta in questa necessità di aumentare il voltaggio oltre il valore di equilibrio se vogliamo avere una velocità significativa di reazione, ossia un amperaggio decente; ma cosa succede nel caso inverso? Quando trasformiamo energia chimica in energia elettrica, per esempio in una batteria?

Una cosa perfettamente analoga e per certi versi speculare.

Quando usiamo una batteria avremo un utilizzatore che avrà un certa resistenza ESTERNA alla batteria e di cui saremo ben consci; ma qui dobbiamo riferirci alle dissipazioni INTERNE alla batteria, dissipazioni dovute al fatto che quando chiudiamo il circuito di uso e la reazione si allontana dall’equilibrio inviando corrente nel circuito esterno entrano in funzione meccanismi analoghi a quelli che abbiamo invocato nel caso precedente; per esempio avremo una energia di attivazione nel processo INTERNO alla batteria, energia da spendere in più e che ridurrà la spinta di energia libera iniziale della batteria stessa ad un valore di voltaggio inferiore all’atteso; qui allora avremo come risultato che la differenza di potenziale che la batteria ci fornirà ai suoi estremi sarà INFERIORE a quanto programmato, di solito tanto più bassa quanto maggiore è la corrente richiesta, ossia la velocità della reazione interna alla batteria medesima.

In questo caso quindi l’equazione sarà giocata alla rovescia; avremo una specie di sovratensione “negativa”, meno voltaggio di quanto ci aspettavamo di avere, quanto maggiore sarà la velocità di reazione, ossia la corrente richiesta alla batteria; una buona batteria ha una bassa resistenza interna e quindi una bassa sovratensione negativa, ma comunque arrivata al massimo delle sue capacità di corrente di solito crollerà nelle sue prestazioni, un comportamento che potrebbe essere espresso dal grafico seguente:

potchim5f

http://tesi.cab.unipd.it/22946/1/tesina.pdf

Di solito la variazione iniziale del voltaggio è attribuibile alla sovratensione di “barriera”, quella centrale (dove la riduzione è più lenta e costante) è l’effetto della resistenza dell’utilizzatore che ha un valore pari alla tangente alla curva in ogni punto, mentre il crollo finale è attribuibile alla sovratensione cosiddetta di “diffusione”.

Che relazione passa fra il gradiente di voltaggio o di potenziale che avremo imposto nella equazione e il risultato che otterremo in termini di flusso di cariche, di corrente? Quanto potremo andare lontano dall’equilibrio? Purtroppo non c’è una regola generale, o se c’è non l’abbiamo ancora scoperta; tuttavia se siamo abbastanza vicini all’equilibrio vige una proporzionalità fra causa ed effetto, fra gradiente del potenziale (chimico od elettrico) ed i suoi effetti, che poi è il flusso della corrente; questa regola della proporzionalità lineare fra causa e effetto caratterizza la cosiddetta zona lineare dei fenomeni irreversibili.

Il risultato sono una serie di leggi empiriche che vanno ben al di là del caso in questione, anzi nel caso in questione, come in tutta la Chimica, il valore è tutto sommato limitato; la relazione di Fourier per il trasporto del calore, la relazione di Fick della diffusione, la legge di Darcy per i mezzi porosi, e la legge di Ohm dei resistori metallici ed elettrolitici sono leggi lineari valide nel regime lineare, poco lontano dall’equilibrio; in Chimica invece non esiste una legge analoga che dica che per avere una certa velocità di reazione ci vuole un certo gradiente di potenziale chimico; anche il termine di sovratensione di barriera che abbiamo visto è esponenziale quasi sempre; perchè?

Legge di Fourier:  flusso di calore = k * Δ T

Legge di Fick:  flusso di materia = k * Δ C

Legge di Ohm:   flusso di cariche = k * Δ V

Legge di Darcy:   flusso di liquido = k * Δ P

ma in genere

velocità di reazione   ≠ k * Δ G

Il motivo non è banalissimo da spiegare, ma è più semplice dire quando una tale approssimazione, che sarebbe molto utile, può essere usata anche in Chimica: può essere usata ed è valida solo a condizione che il gradiente di energia libera della reazione considerata (Δ G) sia di molto inferiore al termine RT (non è l’unica condizione, ma questa è la parte più semplice); diciamo che vicino all’equilibrio nel caso di un processo chimico significa che il gradiente di energia libera deve essere parecchio inferiore a 2.5kJ/mole a t ambiente (RT=8.31*298 J/mol); si tratta di un numero veramente molto piccolo; in pratica tutte le reazioni chimiche che implicano rotture di legami forti sono fuori da questa condizione, ecco perchè il normale studente di Chimica ed i libri di Chimica non ne parlano; ma si può dimostrare teoricamente che la relazione è vera all’equilibrio e “molto vicino” ad esso. In effetti molti libri di Chimica generale sottolineano che all’equilibrio la velocità della reazione diretta è uguale a quella della reazione inversa; se abbiamo a che fare con una reazione semplice di cui possiamo usare la stechiometria come meccanismo di reazione, allora questo ci permette di collegare la costante di equilibrio e il rapporto delle velocità di reazione diretta ed inversa:

reazione: A–> B

all’equilibrio: v(diretta)=kA* [A]  e v(inversa)=kB * [B]

kA *[A] = kB * [B]

e la costante di equilibrio diventa così un rapporto di costanti di velocità

kA/kB = [B]/[A] =Keq.

Si tratta di un fatto da non sottovalutare: questa eguaglianza gioca un ruolo importante in altri fenomeni (con il nome di principio del bilancio dettagliato o della reversibilità microcopica) e in Chimica è addirittura una cosa “elementare” per così dire; però, di converso, in Chimica, la sua validità è ristretta all’equilibrio e al vicinissimo equilibrio e quindi in pratica non riusciamo ad usarlo per collegare gradiente di energia libera e velocità di reazione IN GENERALE.

Finisce così la storia del potenziale elettrochimico; ho tentato di darne una descrizione non formale, usando esempi non standard e pochissime equazioni, solo algebriche. Spero di essere riuscito nell’intento di renderlo meno ingestibile e misterioso di quanto non sia in media. Ci siamo fermati al limitare dell’oscuro reame dei processi irreversibili, cioè della realtà, ma ci siamo arrivati senza equazioni differenziali. Fatemi sapere la vostra opinione.

Gli altri post di questa serie sono:

https://ilblogdellasci.wordpress.com/2013/10/10/quanto-e-chimico-il-potenziale-chimico-1-parte/

https://ilblogdellasci.wordpress.com/2013/10/17/quanto-e-chimico-il-potenziale-chimico-2-parte/

https://ilblogdellasci.wordpress.com/2013/10/25/quanto-e-chimico-il-potenziale-chimico-3-parte/

https://ilblogdellasci.wordpress.com/2014/04/28/quanto-e-chimico-il-potenziale-chimico-iv/

L’eredità di Rosalind Franklin.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Consiglia Tedesco**

rosalindfranklinRosalind E. Franklin (1930-1958)

Il 2014 è stato dichiarato dalle Nazioni Unite Anno Internazionale della Cristallografia e la storia della scoperta della doppia elica del DNA può essere considerata emblematica del contributo della diffrazione dei raggi X per la determinazione della struttura della materia a livello atomico.

Fisica, chimica e biologia si intrecciano per disegnare una delle molecole più affascinanti e importanti nella storia dell’umanità.

Tra i protagonisti della scoperta oltre a James Watson, Francis Crick e Maurice Wilkins, vincitori del Premio Nobel per la Medicina nel 1962 ci sono anche Rosalind Franklin e Linus Pauling.

Il ruolo di Rosalind Franklin nella scoperta è stato reso noto in molti scritti.

franklin3

Nel 1968 James Watson nel suo best-seller “La doppia elica” ne fece un ritratto caricaturale e funzionale allo sviluppo del suo racconto: se il lupo è cattivo, allora è accettabile che il cacciatore gli spari, mentre dorme.

La replica di Anne Sayre qualche anno dopo, pur non avendo lo stesso successo editoriale, contribuì a presentare un altro punto di vista.

Più recentemente nel 2002 Brenda Maddox, in un libro il cui titolo inglese,“The dark lady of DNA”, è molto più evocativodi quello italiano, fornisce un ritratto assai esauriente di una scienziata, che senza volerlo, è diventata un’eroina femminista. Un resoconto della vita di R. Franklin da un punto di vista privilegiato è il libro recentemente pubblicato dalla sorella minore, Jenifer Glynn.

Non intendo commentare le vicende che portarono alla scoperta della struttura del DNA, ma voglio soffermarmi sull’eredità di Rosalind Franklin.

R. Franklin ebbe una carriera scientifica, che va al di là della gara per il DNA, una gara a cui tra l’altro non sapeva nemmeno di partecipare.

Nel 1952 una volta trasferitasi al Birkbeck College, diretto da J. D. Bernal, organizzò la sua attività di ricerca nel campo della biologia strutturale dei virus, dando vita ad un gruppo di cui facevano parte Aaron Klug (Premio Nobel per la Chimica 1982), Kenneth Holmes, John Finch e Donald Caspar.

Nel 1955 pubblicò su Nature il primo di una serie di articoli sulla struttura del virus del mosaico del tabacco (R. E. Franklin, Nature 1955, 175, 379-381) in cui evidenziò che il virus ha la forma di un bastoncello lungo 300 nm e le subunità proteiche sono identiche.

appunti di laboratorio

appunti di laboratorio

Tale affermazione ebbe come diretta conseguenza quella di determinare la fine del finanziamento da parte dell’Agricultural Research Fund, nel cui comitato per l’assegnazione dei fondi vi erano autorevoli personalità nel campo della biologia dei virus, fieri sostenitori del fatto che il TMV non potesse avere una lunghezza definita.

Tuttavia “I fatti sono fatti” e le sue bellissime immagini di diffrazione ai raggi X del virus del mosaico del tabacco dimostravano al di là di ogni dubbio che le sue affermazioni erano corrette.

E, come dicono le nonne, se si chiude una porta si apre un portone e a R. Franklin venne suggerito di presentare una richiesta di finanziamento ai National Institutes of Health negli USA, ottenendo così 10000 sterline all’anno per tre anni, un finanziamento smisurato, inimmaginabile nell’Inghilterra post-bellica.

Questo le permise di assicurare il futuro del suo gruppo di ricerca, anche oltre la sua prematura scomparsa, avvenuta nel 1958 prima di avere compiuto 38 anni.

Nello stesso anno il suo modello del virus del mosaico del tabacco venne esposto nel Padiglione delle Scienze alla Esposizione Internazionale di Bruxelles.

Aaron Klug, figlio di un ebreo lituano trasferitosi in Sud Africa, beneficiò di un lascito da parte di R. Franklin, che gli permetterà di continuare la sua attività di ricerca in Inghilterra senza avere preoccupazioni economiche.

Nel 1982 nel suo discorso per il conferimento del Premio Nobel la ricorderà con questeparole “It was Rosalind Franklin who set me the example of tackling large and difficult problems. Had her life not been cut tragically short, she might well have stood in this place on an earlier occasion.” (http://www.nobelprize.org/nobel_prizes/chemistry/laureates/1982/klug-lecture.html)

L’eredità di Rosalind Franklin arriva fino ai nostri giorni: Ada Yonath (Premio Nobel per la Chimica 2009) in un’intervista presso la Nobel Foundation riconoscerà proprio il supporto di A. Klug e K. Holmes nelle fasi pionieristiche della sua attività di ricerca sulla struttura del ribosoma.

E così un filo rosso unisce la signora del DNA alla signora del ribosoma. (http://www.nobelprize.org/mediaplayer/index.php?id=1226)

 

E tu onore di pianti, Ettore,avrai,

ove fia santo e lagrimato il sangue

per la patria versato, e finché il Sole

risplenderà su le sciagure umane.

(Dei Sepolcri U. Foscolo)

Bibliografia

A. Sayre Rosalind Franklin and DNA Sagebrush 1975.

B. Maddox Rosalind Franklin Arnoldo Mondadori editore 2004

B. Maddox The dark lady of DNA Harper Collins 2002

J. Glynn My syster Rosalind Franklin Oxford University Press 2012

roaslindfranklin 

Il modello del TMV esposto all’Esposizione Internazionale del 1958 con James Watt, John Finch e Kenneth C. Holmes.

consigliatedesco**Consiglia Tedesco è ricercatore universitario in Chimica Fisica presso il Dipartimento di Chimica e Biologia dell’Università di Salerno

E’ membro del consiglio direttivo del Gruppo Interdivisionale di Chimica Strutturale della SCI.

E’ segretaria dell’Associazione di cristallografia per il triennio 2012-2014.

per approfondire: http://it.wikipedia.org/wiki/Rosalind_Franklin

http://profiles.nlm.nih.gov/ps/access/KRBBJV.pdf

i lavori della Franklin:

http://janus.lib.cam.ac.uk/db/node.xsp?id=EAD%2FGBR%2F0014%2FFRKN

http://profiles.nlm.nih.gov/ps/retrieve/Narrative/KR/p-nid/188/p-docs/true

La biochimica di Paracelso

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Luigi Campanella, ex Presidente SCI

220px-Paracelsus

Omnia venenum sunt: nec sine veneno quicquam existit. Dosis sola facit, ut venenum non fit

Figlio di un medico, Paracelso nasce nel 1493 a Einsiedeln, nel cantone svizzero di Schwyz. In realtà, il suo vero nome è Philipp Theophrast Bombast von Hohenheim; tuttavia, egli stesso lo muta in Philippus Aureolus Paracelsus Theophrastus Bombastus ad indicare la sua volontà di incarnare completamente la figura del “medico perfetto” esperto in ogni ramo dello scibile in quanto iniziato al segreto ultimo dell’intera realtà. Infatti l’appellativo “Paracelsus” si riferisce forse al grande medico romano Aulo Cornelio Celso, vissuto nel I secolo, considerato uno dei padri della medicina antica, e noto anche per la sua notevole cultura in ogni ambito del sapere. A proposito dell’arte medica, Paracelso era convinto che si debbano derivare “le cose della natura, non dall’autorità ma dall’esperienza propria”, così rifiutando l’approccio dogmatico allo studio e alla pratica della medicina. Sul piano della scienza moderna ha il merito di isolare l’idrogeno, di scoprire l’etere solforico e di negare che l’aria sia un “corpo semplice”. Per comprendere le novità introdotte da Paracelso in campo medico, occorre rilevare il suo spiccato interesse per l’alchimia, definita una “scienza di trasformazioni”. Egli considera il corpo umano come un sistema chimico, in cui svolgono un ruolo centrale i due principi tradizionali degli alchimisti, il mercurio e lo zolfo, cui si aggiunge anche il sale. Date queste premesse, secondo Paracelso la salute può essere ristabilita attraverso medicinali di natura minerale, e non più di natura organica. Inoltre, egli sostiene che le malattie sono processi specifici per i quali occorrono rimedi altrettanto specifici, mentre in quel periodo, molti pensavano che esistessero rimedi, contenenti parecchi elementi, efficaci per tutte le patologie.
Alcune sue frasi rimaste famose:
“Non sono né il diavolo né il medico a guarire, ma solo Dio attraverso la medicina”
“Nel mondo c’è un ordine naturale di farmacie, poiché tutti i prati e i pascoli, tutte le montagne e colline sono farmacie.”
“Ma è proprio vero che nella terra ci sono ancora molte cose che non conosco [……] che Dio farà manifestare cose mai viste e mai rilevate che non abbiamo mai saputo. Perciò qualcuno verrà dopo di me […..] e le spiegherà.”
“Ho osservato tutti gli esseri: pietre, piante e animali e mi sono sembrate come lettere sparse rispetto alle quali l’uomo è parola viva e piena.”

paracelso_fig_vol2_017480_001Il nono libro del trattato di Paracelso Sulla natura delle cose s’intitola “De signatura rerum naturalium”:l’idea che tutte le cose portino un segno che manifesta e rivela le loro qualità invisibili è il nucleo originale dell’episteme paracelsiana. In questo senso, se – come scrive Paracelso – “tutte le cose, erbe, semi, pietre, radici dischiudono nelle loro qualità, forme e figure ciò che è in esse”, se “vengono tutte conosciute attraverso il loro signatum”, allora “la signatura è la scienza attraverso cui tutto ciò che è nascosto viene trovato e senza quest’arte non si può fare nulla di profondo”.

nociecervello
In questa logica e prospettiva secondo Paracelso è quasi possibile prevedere in medicina quali alimenti possano essere consumati per preservare il nostro organismo da malattie: ( fra parentesi eventuali conferme o problemi delle idee di Paracelso…..se ci sono)

Fagioli: Curano e aiutano a mantenere sane le funzioni renali…..somigliano proprio a dei reni umani.

Le noci secche somigliano ad un piccolo cervello, con un emisfero sinistro, un emisfero destro e il cervelletto. Anche le “rughe” o “pieghe” della noce sono simili alla neo-corteccia. Solo adesso sappiamo che le noci servono a sviluppare le funzioni celebrali. ( Neurology February 4, 2014 vol. 82 no. 5 435-442 dedicato agli acidi grassi da pesce, ma quelli delle noci hanno composizione analoga, sostiene che nelle donne una alimentazione ricca di omega-3 aiuterebbe a mantenere la dimensione e la funzionalità cerebrale, prevenendo l’atrofia cellulare )

Β-Carotene

Β-Carotene

La sezione traversale di una carota somiglia all’occhio umano. La pupilla, l’iride e le linee radianti sembrano proprio come quelle dell’occhio umano. La scienza ha dimostrato solo ora che le carote aumentano notevolmente il flusso di sangue agli occhi e apportano un beneficio generalizzato al sistema visivo umano fornendo il carotene che è un precursore della Vitamina A (Tuttavia anche se mangiare regolarmente carote fa bene agli occhi, non regalerà una supervista come sperato e ci sono alimenti ancora più ricchi di precursori della vitamina A, come i cavoli o l’insalata o (ma la forma chimica e l’assorbimento sono diversi)  il fegato animale; si tenga presente che l’assorbimento e il metabolismo di queste pro-vitamine è complesso, tanto che supplementi ad alte dosi di beta-carotene sarebbero un fattore di rischio per i fumatori (L’evidenza di rischio è per studi che utilizzavano 20 mg/giorno di beta-carotene). Le ipotesi principali sono che certe sostanze antiossidanti diventino proossidanti ad alte dosi o in condizione di elevata pressione parziale di ossigeno, oppure che dosi troppo alte di antiossidanti possano impedire meccanismi di morte cellulare programmata (apoptosi) che sfruttano vie ossidative.)

All-trans-Retinol2.svg

trans-retinolo

Il sedano somiglia alle ossa. Il sedano è particolarmente indicato per fortificare le ossa. Esse sono composte al 23 per cento di sodio e questo cibo contiene esattamente il 23 per cento di sodio. Se nella vostra dieta c’è carenza di sale, il corpo se lo procura dalle ossa, rendendole deboli. Gli alimenti come il sedano vanno a soddisfare le esigenze scheletriche del corpo.(Come tante altre verdure ed alimenti  in effetti)

Avocado: migliora la salute e le funzioni del seno e della cervice femminile…..ed in effetti somiglia proprio a questi organi. L’avocado aiuta le donne a bilanciare gli ormoni, a perdere il peso acquisito in gravidanza e a scoraggiare la possibilità di carcinomi al collo dell’utero. Ci vogliono esattamente nove mesi per far crescere un avocado dal fiore al frutto maturo.

I fichi sono pieni di semi e penzolano in coppia dall’albero quando maturi. Aumentano la mobilità dello sperma maschile e il numero di spermatozoi.

Le olive forniscono beneficio alle ovaie

Una dieta ricca di uva si è dimostrata utile per ridurre il rischio di tumore polmonare: in effetti un grappolo di uva assomiglia ai nostri polmoni costituiti da cunicoli sempre più piccoli di vie aeree che vanno a formare gli alveoli polmonari permettendo il passaggio dell’ossigeno dal polmone al flusso sanguigno. (Alimenti ricchi in quercetina (che è un antiossidante naturale) come uva rossa e vino rosso, cipolle (soprattutto rosse), the’ verde, mirtilli, vegetali appartenenti alla famiglia delle crucifere e mele sono un fattore protettivo ma di limitata evidenza. Tuttavia Thorax 2003;58:11 942-946 doi:10.1136/thorax.58.11.942 sostiene che la sostanza benefica potrebbe essere qui il resveratrolo, che si trova nel vino rosso, ma si badi non rispetto ai tumori ma alla broncopneumopatia cronica ostruttiva)

  resveratrolo

(Nota del blogmaster: In realtà la cosa che impressiona di più sono le innumerevoli citazioni delle idee di Paracelso, a loro volta riprese da idee ancora più antiche, nella letteratura grigia e nella pubblicità commerciale, ma con rari e spesso erronei legami con le ricerche della biochimica e della medicina moderna, che tuttavia ne ha a volte confermato l’ìintuizione.)