Una coppia di plastiche riciclabili

Rinaldo Cervellati

In luglio e agosto sono apparsi su Chemistry & Engineering news due articoli su polimeri facili da riciclare. Ne riporto qui una traduzione debitamente adattata.

Realizzazione di un polimero riciclabile con una struttura ad anello

Anche se molte materie plastiche sono riciclabili, la maggior parte non viene riciclata a causa del costo e della manodopera necessari. Per rendere più facile il riciclaggio della plastica, i chimici intendono trovare nuovi polimeri che richiedono meno lavoro per essere riutilizzati, ma che abbiano le stesse proprietà meccaniche e fisiche che rendono utili le comuni plastiche.

Per raggiungere quest’obiettivo, Junpeng Wang e il suo gruppo dell’Università di Akron (Ohio, USA) hanno sviluppato un polimero che si può scomporre in monomeri e quindi riassemblare per essere riutilizzato [1]. Questi composti sono altamente versatili, nel senso che i chimici possono modificare le loro proprietà cambiando i gruppi funzionali sulla catena principale del polimero. A causa di questa variabilità, i ricercatori pensano che questi polimeri potrebbero trovare molteplici usi, anche come plastiche o gomme.

Junpeng Wang

Wang e collaboratori hanno sintetizzato polimeri da monomeri di cicloottene, con un anello di ciclobutano a quattro membri unito all’anello di otto membri (Fig. 1).

Figura 1

I chimici possono polimerizzare il composto cicloottene al di sotto della temperatura ambiente con una resa del 67% e quindi riportare il 90% del monomero a 50 °C, utilizzando lo stesso catalizzatore al rutenio. Dice Wang: ”La reazione è controllata dalla concentrazione: a alta concentrazione, si forma il polimero e a bassa concentrazione, si forma il monomero. Il polimero è stabile fino a 370 ° C e polimerizzerà o depolimerizzerà solo quando è presente il catalizzatore Ru.”

Questi polimeri reversibili hanno una struttura carbonio-carbonio, il che significa che la loro resistenza, elasticità e stabilità termica sono paragonabili a quelle delle attuali materie plastiche, come il polietilene. Per creare i legami carbonio-carbonio da monomeri con doppi legami, il gruppo ha utilizzato una reazione chiamata polimerizzazione metatesi con apertura dell’anello. Se i monomeri contenessero solo il cicloottene, l’energia dovuta alla deformazione dell’anello sarebbe sufficientemente elevata da impedire al polimero di riciclarsi in monomeri, rendendo la reazione irreversibile. Wang sostiene che l’aggiunta di ciclobutano al cicloottene modifica l’energia sia del monomero sia del polimero e rende reversibile la reazione di polimerizzazione.

Afferma Wang: “La tensione dell’anello è davvero un termine relativo”. In sostanza, è la differenza di energia tra la forma ciclica chiusa del monomero e la forma polimerizzata aperta che determina se la reazione è reversibile o meno. Attraverso studi computazionali, il gruppo ha scoperto che il ciclobutano blocca il polimero e il monomero in configurazioni simili, in modo che entrambe le forme abbiano energie comparabili. Dice Wang: “Il ciclobutano non riduce la tensione dell’anello del cicloottene stesso, ma in realtà aumenta l’energia del polimero. Poiché una forma non è più stabile dell’altra, la reazione di polimerizzazione diventa reversibile”.

La produzione di poliolefine riciclabili è una sfida enorme e l’approccio di Wang è molto promettente, afferma Colleen Scott, chimico dei polimeri presso la Mississippi State University. La prospettiva di definire le proprietà dei polimeri riciclabili in modo che corrispondano a quelle degli attuali polimeri commerciali è particolarmente entusiasmante.

Il gruppo di Wang ha scoperto questo polimero reversibile durante la pandemia di COVID-19, quando i laboratori di chimica di tutto il mondo erano chiusi. Incapace di lavorare sulle reazioni di sintesi in laboratorio, Wang e il suo team si sono concentrati su studi computazionali sull’anello in una serie di ciclootteni. Uno studente ha scoperto che un composto di cicloottene fuso con ciclobutano pubblicato in precedenza aveva una deformazione dell’anello sorprendentemente bassa. “Non potevo crederci“, dice Wang. “L’ho ripetuto io stesso diverse volte e ogni volta ci ha dato una tensione dell’anello molto bassa.” Il gruppo si è reso conto che questo polimero, che già avevano, doveva subire una depolimerizzazione: “L’abbiamo testato e ha funzionato molto bene”.

Un polimero da imballaggio semplice da riciclare

Un modo per incoraggiare il riciclaggio è produrre plastica da polimeri che possono essere riciclati chimicamente o scomposti in monomeri che possono essere recuperati e trasformati in nuovi polimeri. Alla riunione dell’autunno 2021 dell’American Chemical Society, il chimico della Cornell University, Geoffrey W. Coates, ha presentato un polimero che può essere scomposto in monomeri e recuperato da una miscela di materie plastiche.

Geoffrey W. Coates

Parlando in una sessione della Divisione di chimica dei polimeri, Coates ha fatto notare che il polimero poliacetale, utilizzato negli imballaggi, è stabile fino a 325 °C. Tuttavia, una volta che i ricercatori combinano questa plastica con un forte catalizzatore acido e la riscaldano a una temperatura superiore a 73 °C, il polimero si scompone nei suoi costituenti monometrici, Fig. 2.

Figura 2

I monomeri, tra cui 1,3-diossolano e derivati, sono liquidi a questa temperatura. Ciò rende facile separare i monomeri da una miscela di materiali che non si decompongono in queste condizioni.

Brooks A. Abel, un chimico dei polimeri dell’Università di California, a Berkeley, che ha contribuito a sviluppare la nuova plastica, afferma di aver sperimentato a casa i contenitori per il riciclaggio.

Brooks A. Abel

Il gruppo ha tritato questo mix di plastica, che conteneva ancora etichette, colle, e probabilmente un po’ di Gatorade, e l’hanno posto in un pallone con un catalizzatore fortemente acido, riscaldando poi sopra 73 oC, riuscendo a distillare fino al 98% del monomero [2].

Quindi il polimero dopo l’utilizzo come materiale di imballaggio potrebbe essere raccolto, scomposto in monomeri e quindi riutilizzato nella stessa fabbrica che lo produce.

Il polimero può essere riciclato chimicamente solo se riscaldato in presenza di un acido forte, ha affermato Coates.

Non solo il polimero è facile da riciclare, ha affermato, ma si possono anche controllarne le proprietà meccaniche valutando attentamente le lunghezze dei polimeri. La chiave è stata l’aggiunta di una trappola protonica piridinica per catturare l’acqua in eccesso dalla reazione. L’acqua può fermare la polimerizzazione prima che le catene polimeriche raggiungano la lunghezza desiderata. Per collegare i monomeri, viene usato un catalizzatore di ioduro di indio che strappa un anione bromuro dall’estremità della catena, creando un carbocatione. Questa specie reattiva attacca quindi un altro monomero, aggiungendolo all’estremità della catena. Inoltre, il materiale monomerico 1,3-diossolano è un solvente comunemente usato che può essere facilmente ottenuto da glicole etilenico e formaldeide, due molecole che sono molto abbondanti.

Craig Hawker, di Scienza dei Materiali all’Università della California, Santa Barbara, ha definito la ricerca rivoluzionaria. Ha affermato: “questo lavoro sfrutta un approccio innovativo: combinare blocchi di costruzione noti e starter commerciali con un nuovo catalizzatore di indio per produrre materiali ad alto peso molecolare“. Il metodo di depolimerizzazione è un importante passo avanti e consente un ciclo di vita sostenibile e circolare, ha anche detto Hawker.

Coates e il suo team stanno attualmente lavorando per determinare se il polimero è biodegradabile e per ottimizzare la reazione di polimerizzazione con un catalizzatore allo zinco, poiché il metallo è più abbondante e meno costoso dell’indio.

Opere consultate

L. K. Boerner, Chemists make a recyclable polymer with the help of ring strain.,Chem. Eng. News,

July 23, 2021

L. K. Boerner, Potential packaging polymer simple to recycle., Chem. Eng. News, August 25, 2021.

Bibliografia

[1] D. Sathe et al., Olefin metathesis-based chemically recyclable polymers enabled by fused-ring monomers., Nat. Chem. 13, 743–750 (2021). https://doi.org/10.1038/s41557-021-00748-5

[2] Brooks A. Abel, Rachel L. Snyder, Geoffrey W. Coates, Chemically recyclable thermoplastics from reversible-deactivation polymerization of cyclic acetals.,Science,  2021, 373 (6556), 783-789

DOI: 10.1126/science.abh0626

Recensione – Oltre la fragilità di Antonio Calabrò

Luigi Campanella, già Presidente SCI

ANTONIO CALABRO’

OLTRE LA FRAGILITA’

LE SCELTE PER COSTRUIRE LA NUOVA TRAMA DELLE RELAZIONI ECONOMICHE E SOCIALI

ed. UBE pag 208 euro 16.15

Alla ricerca di qualche lato positivo pure nelle situazioni più drammatiche nel nuovo saggio di Antonio Calabrò “Oltre la fragilità” si evidenzia come dinnanzi al pericolo virale ed alla connessa pandemia si sia registrata una crescita della fiducia nella scienza e della conoscenza dei meccanismi sanitari e sociali.

Questo è un cambiamento-dice l’autore-rispetto al pre covid quando l’informazione degradata dalle fake news e dalle incompetenze di giudizio aveva spesso dato la sensazione di divenire il punto di riferimento.della nostra società. Dunque se di nuovo si considera la scienza un.bene comune ciò richiede investimenti pubblici di grande respiro e di lungo periodo su formazione,ricerca,innovazione e trasferimento tecnologico, orientando in questa direzione parte significativa della quota del Recovery Fund che spetterà all’Italia.

C’è poi il tema dell’economia.Abbiamo vissuto per anni nella convinzione che il trend positivo non si sarebbe arrestato e che quello che viviamo è, per dirla con Voltaire “il migliore dei mondi possibili”.Oggi ci siamo convinti che così non.è, che non ci sono nè vincitori nè vinti il che obbliga a reinventare le regole e l’autore si cimenta anche nella definizione di un algoritmo che deriva da una sorta di illuminismo digitale. Il crollo percentuale del PIL stimato dalla Banca d’italia al -9% e il crollo dei consumi valutato in 84 miliardi, il 5% del PIL sono i dati obbiettivi dei danni subiti dalla pandemia. L’intervento pubblico però non.deve rappresentare un condizionamento alle strategie di impresa da qui la scelta delle forme di intervento: finanziamento a fondo perduto non solo credito; rimborsi nel lungo periodo, governance indipendente ed autorevole per riportare l’impresa dentro il mercato, un mercato però che richiede una riconsiderazione da parte della politica per contrastarne alcuni fallimenti. Il farmaceutico italiano, pure criticato per certe delocalizzazioni, merita questa attenzione con una produzione di oltre 30 miliardi di euro, pure nelle difficoltà strutturali ben rappresentate dalla % di energia primaria consumata in Italia proveniente dall’estero e pari all’80%. Un’ancora a cui aggrapparsi è di certo la cultura con le imprese di questo settore che valgono quasi 100 miliardi, che occupano 1.5 milioni di persone e che per un terzo investono in sostenibilità.

È vero che in alcuni sorge il sospetto di un impegno interessato: a parte che non si può colpevolizzare un’impresa che valuta in primis le ricadute economiche delle sue politiche. C’è poi la oggettiva difficoltà a valutare queste attività. In molte sedi si tende a finalizzare la valutazione confinandola alla contrapposizione fra economia ed ecologia dimenticando che i valori delle due entità si intrecciano in modo complesso a causa della mancanza di normalizzazione fra la scala economica e quella ecologica. Si stanno in questa direzione compiendo dei passi in avanti: ad esempio l’inquinamento da traffico è stato valutato in 1450 euro /anno di danno economico per ogni italiano; ed ancora una tonnellata di CO2 è stata valutata 50 euro al relativo mercato. Un altro problema nasce dalla mancanza di indicatori della sostenibilità.Ne sono stati proposti tanti: % di materie prime secondarie rispetto alle primarie, impronta ecologica, cinetica di crescita del verde o della raccolta differenziata. Nessuna soddisfa completamente e la ricerca è aperta: la Chimica potrebbe contribuire forse più di quanto noi stessi pensiamo.

Il riscaldamento globale ha diverse velocità

Rinaldo Cervellati

Dal 1948, la temperatura media annuale del pianeta è aumentata di 0,8 gradi. In Canada[1] questo valore è doppio  (+1,7 °C) e nell’estremo nord quasi triplo: +2,3 °C (Figura 1).

Questa è la conclusione del rapporto commissionato dal governo canadese sui cambiamenti climatici [1].

Non c’è da stupirsi per un paese situato ad alte latitudini. Più ci si avvicina all’Artico, più diventa caldo, ha affermato Steven Guilbeault su Radio Canada. Questo ecologista co-presiede l’Advisory Council on the Fight Against Climate Change, un’organizzazione istituita dal governo canadese afferma: “Più si arriva a nord dall’Ecuador, più velocemente le temperature aumentano. Nell’Artico, non è solo due volte più veloce della media planetaria, è 4 anche 5 volte più veloce! È un fenomeno planetario, è legato alla nostra geografia”.

“Se tutti i paesi rispettassero [i loro impegni] alla Conferenza di Parigi [sul clima] potremmo evitare 1°C di riscaldamento. Sarebbe un fatto enorme “.

Le conseguenze sono già molteplici per il Canada: innalzamento del livello degli oceani che lo costeggiano, aumento delle precipitazioni annue (con riduzione delle nevicate nel Canada meridionale). Nell’estremo nord, la durata e l’estensione delle assenze di ghiaccio marino nelle regioni canadesi dell’Oceano Artico e dell’Oceano Atlantico sono in aumento.

C’è anche un impatto sugli eventi meteorologici estremi, spiegano gli esperti che hanno scritto il rapporto: “Ciò aumenterà la gravità delle ondate di calore e contribuirà ad aumentare il rischio di siccità e incendi boschivi. Anche se le inondazioni interne sono il risultato di molteplici fattori, precipitazioni più intense faranno aumentare il rischio di inondazioni nelle aree urbane “.

L’azione umana è la principale responsabile.

Questo voluminoso rapporto rileva che le variazioni naturali del clima possono aver contribuito al riscaldamento osservato in Canada, ma specifica che il fattore umano, cioè le emissioni di gas serra, è dominante. Gli esperti canadesi affermano che: “È probabile che più della metà del riscaldamento osservato sia causato dalle attività umane”.

Il riscaldamento globale continuerà in Canada, ma la sua entità dipenderà dagli sforzi compiuti in tutto il mondo per ridurre le emissioni di gas serra, soprattutto nei prossimi due decenni. Il rapporto delinea diversi scenari per la fine del secolo. I più ottimisti prevedono un aumento di 1,8°C (rispetto al periodo di riferimento dal 1986 al 2005). Il più pessimista, se non si fa nulla, + 6,3 °C. Per il ministro federale dell’ambiente Catherine Mckenna, questo rapporto è un allarmante promemoria della necessità di agire.

Possiamo, dobbiamo e lo faremo. Il prezzo dell’inquinamento in Canada, oggi effettivo in tutto il paese, è un modo per agire e proteggere il nostro ambiente.

Questo rapporto è stato commissionato dal governo liberale di Justin Trudeau nel bel mezzo di un dibattito sull’introduzione di una carbon tax sulla benzina ma anche su olio combustibile, propano e gas naturale. Il risultato è stato la Carbon tax, ovvero l’aumento del prezzo del carburante per i contribuenti. Il principio è aumentare il prezzo di questi combustibili fossili che emettono molta CO2 per incoraggiare i privati ​​e le aziende a rivolgersi ad altre fonti di energia, a modi di trasporto e riscaldamento più ecologici.

Questa tassa sui prodotti fossili e derivati è entrata in vigore lunedì 1 aprile 2019 in quattro province canadesi: Ontario, Saskatchewan, Manitoba e New Brunswick. Tassa imposta dal governo federale, contro il parere dei vertici delle province interessate. A livello nazionale, il leader dell’opposizione, del partito conservatore, Andrew Scheer, è decisamente contrario a questa “tassa aggiuntiva”.

Il governo di Ottawa promette di restituire il 90% delle entrate di questa tassa al contribuente sotto forma di rimborso. Il resto dei fondi sarà investito in programmi di efficienza energetica. Non abbastanza da convincere il Premier della provincia del Saskatchewan, che annuncia di voler sporgere denuncia contro il governo canadese.

Il Canada è andato ieri, lunedì 19 al voto anticipato, a due anni dalle precedenti elezioni.

Opere consultate

[1] Sandy Dauphin, Au Canada, le réchauffement climatique va deux fois plus vite que sur le reste de la planète, France inter, 2 aprile 2019

https://web.archive.org/web/20190410152640/https://www.franceinter.fr/environnement/au-canada-le-rechauffement-climatique-va-deux-fois-plus-vite-que-sur-le-reste-de-la-planete


[1] Il Canada è un Paese del nord America compreso tra gli Stati Uniti a sud e il circolo polare artico a nord. È stato dominio inglese fino al 1931. Le sue dieci province e tre territori si estendono dall’Atlantico al Pacifico e verso nord nell’Oceano Artico, coprendo 9,98 milioni di chilometri quadrati. Le due lingue principali sono inglese e francese, ma essendo un Paese multietnico si parla il cinese, l’hindi, il tedesco, lo spagnolo, l’italiano e altre lingue.  Per esperienza personale desidero dire che il tasso di razzismo in Canada è prossimo a zero.

Un sottoprodotto della carta contro i batteri resistenti.

Rinaldo Cervellati

Il post di Claudio sulla resistenza battèrica agli antibiotici, ben documentato, ha suscitato molti commenti. In effetti l’aumento dei ceppi di batteri resistenti agli antimicrobici è un problema di salute pubblica globale a causa della loro capacità di aumento della morbilità dei pazienti e un maggiore onere per il sistema sanitario. Secondo la stima di un’organizzazione sanitaria statunitense i batteri reagiscono costantemente mutando il loro DNA e trovando nuovi modi per resistere agli antibiotici fin troppo utilizzati.

In uno speciale di settembre di Chemistry & Engineering news, Benjamin Plackett riporta un nuovo studio che propone una tattica alternativa agli antibiotici tradizionali che eviterebbe di promuovere questa resistenza [1]. Un gruppo di ricercatori di Singapore ha lacerato le membrane batteriche con lignina chimicamente modificata, un sottoprodotto abbondante ed economico della produzione di carta.

I polimeri sintetici si sono dimostrati promettenti come antibatterici perché sono in grado di distruggere intere membrane cellulari, piuttosto che attaccare obiettivi più specifici contro i quali è più facile per i batteri sviluppare meccanismi di difesa. Tuttavia, spesso presentano problemi di biocompatibilità, come tossicità o risposte infiammatorie e immunitarie indesiderate.Al contrario, la lignina, un biopolimero vegetale altamente ramificato e contenente ossigeno, costituito principalmente da fenoli, è stata elogiata in studi precedenti per il suo potenziale di biocompatibilità. Questo è stato uno dei motivi per cui Rajamani Lakshminarayanan, della National University of Singapore, e Dan Kai e Xian Jun Loh, dell’Institute of Materials Research and Engineering, hanno deciso di vedere se potevano usare la lignina per combattere le infezioni batteriche (Figura 1)[2].

I ricercatori hanno aggiunto sui gruppi idrossilici della lignina catene polimeriche caricate positivamente, che sono attirate nei gruppi fosfato caricati negativamente sulla membrana esterna di un batterio. Contemporaneamente, i gruppi idrofobici all’interno della lignina sono respinti dalla membrana cellulare. Quando queste due interazioni avvengono contemporaneamente, il polimero apre dei buchi nella membrana, uccidendo i batteri (Figura 2).

I ricercatori hanno testato il polimero applicandolo alle cornee di conigli infettati da Pseudomonas aeruginosa per simulare la cheratite, un’infezione oculare comune negli esseri umani, spesso causata dall’uso continuo di lenti a contatto. I risultati hanno mostrato che i polimeri a base di lignina sono in grado di sradicare i batteri entro 72 ore.

I ricercatori hanno anche condotto esperimenti per valutare se due ceppi di Escherichia coli potessero sviluppare resistenza al nuovo trattamento. Anche dopo 20 cicli di esposizione, la dose del polimero necessaria per prevenire la crescita visibile dei batteri non è aumentata, il che implica che i batteri hanno sviluppato poca resistenza. Quando gli esperimenti sono stati condotti invece con l’antibiotico polimixina B, i risultati sono stati significativamente differenti. Entro il 18° ciclo di esposizione, uno dei ceppi di E. coli ha richiesto un aumento di 128 volte della concentrazione dell’antibiotico per limitare la sua crescita, mentre l’altro, trattato con il polimero, ha richiesto un aumento di sole due volte.

Tutto ciò ha impressionato Orlin D. Velev, un ingegnere biomolecolare della North Carolina State University: “Sarà molto difficile per i batteri sviluppare resistenza a questo polimero perché dovrebbero ricaricare l’intera membrana in modo che la sostanza non si leghi, un compito molto difficile per i batteri”.

Mentre i risultati dello studio dimostrano che il polimero è efficace se applicato localmente, gli scienziati mirano a svilupparlo come farmaco orale o endovenoso, ampliando così i tipi di infezioni che potrebbe combattere.  Kai afferma: “Probabilmente non è tossico nell’uso sistemico, ma avremmo bisogno di molte più prove prima di poterne essere sicuri.”

Opere consultate

B. Plackett, A by-product of papermaking helps kill bacteria while avoiding antibiotic resistance, C&EN special, September 1, 2011

Pei Lin Chee et al., Cationic Lignin-Based Hyperbranched Polymers to Circumvent Drug

Resistance in Pseudomonas Keratitis., ACS Biomater. Sci. Eng., 2021

DOI: 10.1021/ascbiomaterials.1c00856

Scienza e società

Vincenzo Balzani

(ripreso col permesso dell’autore da Bo7 del 12 settembre 2021)

Quando nel 1088 è stato fondato il più antico ateneo del mondo occidentale, l’Università di Bologna, le conoscenze scientifiche erano molto limitate. Con una battuta ovvia, che però ha un profondo significato, si può dire che a quei tempi gli scienziati sapevano quasi niente di quasi tutto. Essi, infatti, si limitavano a contemplare la Natura, nel tentativo di capirne le leggi. Poi verso il 1600, particolarmente con Galileo e Newton, si capì che, oltre ad osservarne i fenomeni naturali, si può interrogare la Natura mediante esperimenti, costringendola a rivelare i suoi segreti. Ha avuto così origine l’impressionante sviluppo della scienza e, col passare degli anni, il campo del sapere, allargandosi, si è frammentato in discipline diverse. Oggi, per scoprire o inventare qualcosa di nuovo è necessaria un’alta specializzazione, per cui, contrariamente a quanto accadeva un tempo, gli scienziati sanno quasi tutto, ma di quasi niente. E a volte accade che, per parlare di quel quasi niente che conoscono in modo così approfondito, usano parole che quasi nessuno capisce.

L’espandersi della conoscenza ha avuto, ovviamente, conseguenze molto positive, ma ha anche causato problemi. Si sono create fratture fra le varie branche della scienza,perché ogni disciplina è stata costretta a elaborare un proprio linguaggio, rendendo più difficile la collaborazione fra scienziati di ambiti diversi. Si è poi creata una frattura fra cultura scientifica e cultura umanistica, sintetizzabile nella frase dello studioso inglese Charles P. Snow: “Gli umanisti hanno gli occhi rivolti al passato, mentre gli scienziati hanno, per natura, il futuro nel sangue”. È una frattura che deve essere ricomposta perché la complessità del mondo deve essere affrontata con saperi diversi: il progresso, infatti, nasce solo dall’incontro, dal confronto e dalla collaborazione fra diversità.

Un’altra frattura pericolosa che va evitata è quella fra scienza e società, perché se è vero che la società non può fare a meno della scienza, è anche vero che la scienza avulsa dalla società non solo è poco utile, ma può anche diventare pericolosa. C’è una responsabilità che deriva dalla conoscenza: lo scienziato ha il dovere di occuparsi dei problemi della società e deve contribuire a risolverli. Ha molti modi di farlo: con le sue ricerche, l’insegnamento, la divulgazione della scienza e anche partecipando attivamente al governo della sua università, città, o nazione. Questo impegno è oggi più che mai importante, perché viviamo in un momento cruciale della storia, caratterizzato dal manifestarsi di due gravi problemi che rischiano di compromettere la vita delle prossime generazioni: l’insostenibilità ecologica, che ha il suo culmine nella crisi energetico-climatica, e l’insostenibilità sociale, causata dal continuo aumento delle disuguaglianze di reddito economico e di diritti. Come ha scritto il premio Nobel Richard Ernst: “Chi altro, se non gli scienziati, ha la responsabilità di stabilire le linee guida verso un progresso reale, che protegga anche gli interessi delle prossime generazioni?”

Nuovi materiali per la fotonica per l’IA.

Luigi Campanella, già Presidente SCI

Sempre più spesso si sente affermare che il futuro prossimo è un mondo nel quale intelligenze artificiali e realtà si integreranno ai fini di una migliore qualità della vita.Il settore dell’IA e in forte sviluppo nel mondo, ma anche in Italia nel 2020, pure nelle difficoltà da Covid 19, ha segnato una crescita del 15% per un valore pari a 300 milioni di euro.

La differenza sta nelle applicazioni: all’estero il settore è già visto come un surrogato a tutte le attività umane, mentre in Italia trova impiego soprattutto per le funzioni di assistenza vocale nelle richieste telefoniche e per aiutare gli utenti nella navigazione suo siti di e-commercio.

Il problema più grande che si trova oggi davanti il settore sta nella precisione degli algoritmi utilizzati, tanto che gli errori non sono così rari. Per migliorare la situazione la strada è solo una: fornire più dati. Più dati vuol dire più efficienza, ma anche significa insegnare alle macchine (e quindi alle aziende che le posseggono) tutto di noi, della nostra vita, del nostro modo di pensare. Replicare il ragionamento umano, come da molti si aspira a realizzare, significa perciò superare gli accettabili limiti di privacy e riservatezza:e questo è il problema numero 1 dello sviluppo dell’IA: e forse è un bene perchè alcuni drammarici errori dell’IA (si pensi all’auto mobile Tesla a guida automatica) ci fanno capire che delegare certi compiti che richiedono una umana dose di buon senso può essere prematuro.

Le intelligenze artificiali scambiano enormi quantità di dati e per fare questo richiedono reti ultraveloci che consumano energia in misura crescente con il loro diffondersi: si pensi che dal 2017 al 2019 i modelli di rete neurale prevedevano 100 milioni di variabili ed oggi ne prevedono un miliardo e che è stato valutato al 10% dell’utilizzo mondiale di elettricità l’energia consumata dai Data Center, i sistemi dotati di intelligenza artificiale.Per progettare ed addestrare una rete neurale a trovare la soluzione si produce CO2 in quantita circa 5 volte maggiore a quella emessa in tutta la sua vita da un autovettura e circa 50 volte superiore a quella emessa in un anno da un essere umano. La componene più rilevante si riferisce all’energia spesa per il raffreddamento dei sistemi di calcolo. Un altro aspetto riguarda l’impatto ambientale:questi processori potenti richiedono minerali rari estratti da miniere con conseguente distruzione del territorio e poi alla fine del loro vita sono smaltiti nell’ambiente costituendo un rischio al degrado.

Alla Sapienza di Roma un gruppo di ricerca guidato dal fisico Claudio Conti ha elaborato un sistema a favore della sostenibilità dell’intelligenza artificiale. Tale sistema si basa sulla fotonica in luogo dell’elettronica. La fotonica,nata negli anni 70, impiega raggi laser per tante applicazioni,dalla medicina alla matematica.Per alcuni anni i suoi costi elevati non la rendevano vantaggiosa rispetto alla elettronica,ma oggi non è più cosi:un raggio luminoso,in particolari i fotoni che lo costituiscono, sostituisce la corrente elettrica per elaborare e veicolare le informazioni, ad esempio un’immagine, codificate attraverso un modulatore di luce. La macchina fotonica può, analogamente a quanto avviene per l’elettronica, essere addestrata all’intelligenza artificiale (machine learning). I vantaggi principali del nuovo processore fotonico rispetto all’elettronico sono la superiore capacità elaborativa di informazioni in quanto i laser possono intrecciarsi e sovrapporsi senza interferenza di segnale e nel fatto che il fascio laser,al contrario della corrente,non scalda sprecando così energia: si valuta un’efficienza energetica superiore del processore fotonico rispetto a quello elettronico di circa 10mila volte. Infine se il raggio laser viene fatto propagare in aria non è necessario costruire una scheda di contenimento con un ulteriore vantaggio di semplificazione. Di fatto siamo dinnanzi ad una superintelligenza artificiale che non inquina. Una delle integrazioni più applicate dell’IA avviene con i sensori. Quando si parla di sensori si pensa sempre a dispositivi di carattere analitico finalizzati a monitorare ambiente,alimenti,organismi viventi. Oggi però integrati con l’intelligenza artificiale hanno trovato applicazioni nella riabilitazione di persone colpite da malattie neuromotorie con prospettive di sviluppo in campi correlati come lo sport e la mobilità sostenibile, una volta che i costi saranno abbattuti e la miniaturizzazione avrà fatto i passi in avanti che oggi promette.

Un altro gruppo di Ricerca di Sapienza sta lavorando ad una innovazione nella elettromiografia oggi basata su elettrodi commerciali e caratterizzata da costi elevati ( circa 10000 euro),ma purtroppo non personalizzabile per rispondere alla variabilità delle conformazioni muscolari. L’innovazione consiste in sensori realizzati con la stampa a getto di inchiostro utilizzando una comune stampante nella quale le cartucce sono state invece caricate , anziché con l’inchiostro tradizionale, con inchiostro a nanoparticelle di argento. I sensori sono stampabili su carte flessibili in plastica commerciali personalizzabili in base alle esigenze dell’utente usando software molto comuni ed in ogni scheda ne possono essere montati fino ad 8.

https://www.uniroma1.it/en/notizia/printable-sensors-patient-oriented-approach

La matrice di sensori viene collegata al computer mediante un componente elettronico commerciale che in futuro sarà miniaturizzato. Anche per i materiali dei sensori ci sono state innovazioni: rispetto a quanto usato tradizionalmente oggi (grafene, nanofili di argento e nanotubi di carbonio): l’inchiostro a nanoparticelle di argento infatti ne supera i limiti di conduttività, riproducibilità, stabilità e costi (200 euro in tutto,stampante compresa).

Si punta a dispositivi indossabili trasferibili all’ambito clinico e sportivo

Raffreddare per irraggiamento, una tecnica anti GW.

Claudio Della Volpe

Il mio primo incontro con l’idea che vi racconto oggi fu da studente quando sentii parlare di questo lavoro che vi cito adesso:

https://www.sciencedirect.com/science/article/abs/pii/0038092X75900626

Vittorio Silvestrini

Vittorio Silvestrini un fisico, ma insegnò anche al Politecnico di Napoli (che è il più antico d’Italia, 4 marzo 1811), una poliedrica personalità come spesso la mia città sa produrre: scienziato e politico, fondatore di Città della scienza di Napoli, di cui ha presieduto il consiglio d’amministrazione. Nel 2006 ha ricevuto il Premio “Descartes” per la comunicazione scientifica diventando di fatto l’unico italiano ad aver vinto tale premio.

L’idea di questo lavoro, il raffreddamento passivo è stato uno dei concetti che più mi hanno colpito nella mia vita; allora ero un giovane studente e mi occupavo di altro, ma ci ho pensato spesso. Il dipartimento di Fisica era ancora a via Tari e noi chimici a via Mezzocannone, altri tempi. Silvestrini ed i suoi collaboratori realizzarono un semplice radiatore passivo stendendo un sottile strato (pochi micron) di polivinilfluoruro (Tedlar) su una lastra di alluminio con ottimi risultati.

L’idea di Silvestrini e collaboratori è semplice ed efficace: siamo circondati da scambi radiativi importantissimi ma tendiamo a sottovalutarne il ruolo perché non li vediamo; ma esistono. La temperatura del nostro corpo è assicurata in effetti proprio da questi scambi radiativi, ne abbiamo parlato in dettaglio qui per esempio, parlando di entropia del corpo umano, ma difficilmente ce ne rendiamo conto.

Possiamo bloccarli per conservare il calore, ma possiamo anche facilitarli per ridurre la temperatura delle cose. Semplice e potente, come tutte le grandi idee.

Possiamo anche intendere queste cose pensando che come il riscaldamento globale è causato da un aggravamento dell’effetto serra noi possiamo usando meccanismi analoghi rovesciare l’effetto dei medesimi scambi radiativi: è come fare la lotta giapponese con la radiazione, rovesciarne l’effetto usando ed assecondando i suoi punti di forza.

Da allora sono passati oltre 45 anni e questa idea ha fatto proseliti e si è sviluppata; esistono vernici termoriflettenti per esempio ma ci sono anche molti interessanti sviluppi recenti, due dei quali vi racconto oggi.

https://pubs.acs.org/doi/pdf/10.1021/acsami.1c02368

Il primo è l’uso di un comune materiale inorganico opportunamente tarato; il gruppo diretto da Xiulin Ruan alla Purdue University scrive: 

In questo lavoro, dimostriamo sperimentalmente le notevoli prestazioni di raffreddamento sotto la temperatura ambiente per l’intera giornata sia con le nanoparticelle di un film di BaSO4 che con vernici nanocomposite di BaSO4. BaSO4 ha un elevato gap di banda degli elettroni e una risonanza fononica a 9 μm con una notevole emissività verso lo spazio. Con una dimensione delle particelle appropriata e un’ampia dimensione di distribuzione, il film di nanoparticelle BaSO4 raggiunge una riflettanza solare ultraelevata del 97,6% e un’emissività della finestra del cielo elevata di 0,96. Durante i test sul campo, il film BaSO4 rimane più di 4,5°C al di sotto della

temperatura ambiente o raggiunge una potenza di raffreddamento media di 117 W/m2. La vernice acrilica di BaSO4 è sviluppata con una concentrazione in volume del 60% per migliorare l’affidabilità nelle applicazioni esterne, raggiungendo una riflettanza solare del 98,1% e un’emissività della finestra del cielo di 0,95. I test sul campo indicano prestazioni di raffreddamento simili a quelle del film di BaSO4.

Come si vede siamo ad una performance circa tre volte superiore a quella del film proposto da Silvestrini 45 anni fa, un bel progresso con un materiale semplice  ma anche una conferma della geniale idea del fisico napoletano e del suo gruppo di ricerca.

L’altra ricerca è ancora più interessante dato che riguarda addirittura i tessuti per i vestiti, ma con lo stesso scopo, una sorta di condizionamento personale. In questo secondo caso i colleghi cinesi, del laboratorio di Optoelettronica di Wuhan (proprio la città del virus), scrivono:
L'integrazione di strutture di raffreddamento radiativo passive nelle tecnologie di gestione termica personale potrebbe difendere efficacemente gli esseri umani dall'intensificarsi del cambiamento climatico globale. Mostriamo che i “metatessuti” tessuti su larga scala possono fornire alta emissività (94,5%) nella finestra atmosferica e alta riflettività (92,4%) nello spettro solare a causa del design gerarchico-morfologico degli scatterer dispersi casualmente in tutto il metatessuto. Attraverso percorsi di produzione tessile industriale scalabili, i nostri metatessuti mostrano resistenza meccanica, impermeabilità e traspirabilità desiderabili per l'abbigliamento commerciale, pur mantenendo un'efficiente capacità di raffreddamento radiativo. Test pratici di applicazione hanno dimostrato che un corpo umano coperto dal nostro metatessuto potrebbe essere raffreddato a ~4.8°C in meno rispetto a uno ricoperto da un tessuto di cotone commerciale. L'economicità e le elevate prestazioni dei nostri metatessuti presentano vantaggi sostanziali per indumenti intelligenti, tessuti intelligenti e applicazioni di raffreddamento radiativo passivo.
Mi rimane solo da ricordare cosa sia un metatessuto o più in generale un metamateriale:

Un metamateriale è un materiale creato artificialmente con proprietà elettromagnetiche peculiari che lo differenziano dagli altri materiali. Le sue caratteristiche macroscopiche non dipendono solo dalla sua struttura molecolare, ma anche dalla sua geometria realizzativa. In altri termini, un metamateriale guadagna le sue proprietà dalla sua struttura oltre che direttamente dalla sua composizione chimica. Il termine fu coniato nel 1999 da Rodger M. Walser dell’Università del Texas ad Austin. Egli definì i metamateriali come:

Compositi macroscopici aventi una architettura tridimensionale cellulare periodica e sintetica progettata per produrre una combinazione ottimizzata, non disponibile in natura, di due o più risposte a una specifica sollecitazione.

Nel nostro caso si tratta di fibre di polimero, acido polilattico addizionate di particelle di politetrafluoroetilene (teflon) e di particelle di biossido di titanio. La combinazione delle loro proprietà di diffusione e di assorbimento della luce dovute sia alla composizione che alla dimensione conduce alle caratteristiche finali.

Si tenga presente che una combinazione di materiali del genere serve a trattenere come a evitare l’ingresso del calore e dunque costituisce un metodo principe per il condizionamento degli edifici e dei corpi umani senza spesa energetica se si esclude quella dovuta alla produzione e messa in opera dei manufatti usati

Possiamo vantarci di avere avuto grandi maestri; facciamone tesoro perché senza questo il futuro sarà ancora più difficile.

Organoidi e test in vitro, il caso clorpirifos.

Luigi Campanella, già Presidente SCI

Quando nel 2008 si cominciò a parlare in termini concreti di regolamento REACH, uno dei punti caldi fu di certo la sperimentazione animale: confermarla o no fra i metodi per pervenire alla certificazione Reach di un materiale che ne sanciva l’accesso al mercato garantito da regolarità in termini di stabilità, tossicità, bioaccumulabilità?

La soluzione adottata fu di confermarne l’adozione (anche perché molti dei dati disponibili facevano riferimento ad essa come metodo di acquisizione) stemperata da una direttiva, quella delle 3 R (replacement,reduction,refinement).

Proprio a seguito  di tale Direttiva in moltissime sedi di ricerca, anche in Italia ( si veda il testo della Società Chimica Italiana del 2010: Innovative methods alternative to animal experiments) equipe di ricerca si dedicarono allo studio e messa a punto di metodi innovativi ed alternativi agli esperimenti con animali. Successivamente la spinta a metodi alternativi si è indebolita soltanto affidata a gruppi scientifici dichiaratamente contrari ad essa e quindi spinti da motivazioni in primis etiche. Oggi possiamo registrare un significativo passo in avanti con la tecnologia degli organoidi.

Gli organoidi sono repliche in miniatura di organi e tessuti umani: derivano da cellule staminali pluripotenti indotte (iPSC) o da cellule e tessuti adulti, anche di tipo tumorale. Al contrario dei metodi classici di coltura in 2D, un organoide riproduce l’esatta struttura tridimensionale dell’organo originale. Questi modelli hanno trovato largo impiego nella ricerca biomedica, per testare nuovi farmaci o per studiare i processi dell’organogenesi o della cancerogenesi. Nonostante la loro rapida espansione, però, gli organoidi hanno attraversato negli anni più di una crisi di identità. Non è ancora chiaro, neanche tra gli scienziati, cosa può essere definito “organoide” e cosa sicuramente non lo è. 

Senza regole precise, fino ad ora chiunque era libero di chiamare organoide qualsiasi modello cellulare a tre dimensioni. Secondo la nuova definizione, invece, molti di quelli che in passato venivano classificati come organoidi, oggi non lo sarebbero più. Gli organoidi cerebrali, che riproducono cioè il cervello umano, sono stati applicati allo studio del potenziale ruolo della interazione fra genetica ed ambiente nelle situazioni di disordine autistico.

La ricerca svolta presso la Johns Hopkins  School  di Salute Pubblica ha evidenziato che la suddetta interazione può portare a disturbi nello sviluppo del sistema nervoso. L’impiego degli organoidi cerebrali apre anche la strada verso sperimentazioni meno costose, più rapide e più rilevanti per il genere umano rispetto ai tradizionali studi su animali. Il modello di organoide cerebrale sviluppato dalla Johns Hopkins  School  consiste di gruppi di cellule che si differenziano dalle culture di cellule staminali umane e mimano lo sviluppo del cervello umano. I ricercatori in particolare nella loro ricerca hanno trovato che il clorpirifos, un comune pesticida,contribuisce allo sviluppo di condizioni di neurotossicità e di rischio di autismo, in quanto in grado di diminuire drammaticamente negli organoidi i livelli di proteina CHD8, un regolatore dell’attività genica durante il processo di sviluppo del cervello.

Le mutazioni nel gene che riducono l’attività della proteina sono tra i più forti fattori di rischio per l’autismo mai identificati. La ricerca è stata pubblicata sul fascicolo del 14 luglio di Environmental Health Perspectives ed è la prima a mostrare in un modello umano che i fattori di rischio ambientale possono amplificare gli effetti di quelli di rischio genetico rispetto all’insorgere dell’autismo, un disordine nervoso che, molto raro fino a 40 anni fa , è purtroppo oggi presente nel 2% dei soggetti nati vivi.

Questo aumento nelle diagnosi di autismo e difficile da spiegare poiché  non può esserci stata in così breve tempo una modificazione genetica della popolazione né -affermano i ricercatori- è stato possibile rilevare un’esposizione ambientale che lo possa giustificare. Come fattori ambientali e suscettibilità genetica interagiscono per aumentare il rischio per i disordini mentali dell’autismo rimane ancora non definito, in parte perché queste interazioni sono difficili da studiare in parte perché la tradizionale sperimentazione animale è costosa e di limitato rilievo per il genere umano nel caso di patologie del disordine mentale. I progressi nei metodi con cellule staminali hanno permesso ai ricercatori nella passata decade di utilizzare cellule di pelle umana che possono essere trasformate prima in cellule staminali e poi in qualsiasi altro tipo di cellula e studiate in laboratorio. In anni recenti gli scienziati hanno allargato la ricerca oltre le culture in laboratorio per arrivare, come si diceva più sopra, ad organoidi a 3 dimensioni che meglio rappresentano la complessità degli organi umani.

CHD8, una Chromodomain-helicase-DNA-binding protein 8 codificata dal gene CHD8.

Per la loro ricerca il team, attraverso un intervento di modificazione genetica, ha combinato gli effetti di un interferente del gene che codifica per la proteina CHD8 con quelli dell’esposizione al pesticida clorpirifos, sia pure a concentrazioni e condizioni più aggressive di quelle che si possono avere nella vita di tutti i giorni. Il livello della presenza del gene a seguito della presenza dell’interferente risultava diminuito di un terzo, valore che con il trattamento con  clorpirifos si abbassava drasticamente. A complemento del loro studio i ricercatori hanno compilato una lista di sostanze  presenti nel sangue o nel tessuto cerebrale delle persone autistiche verificando se fossero capaci di abbattere il livello della proteina in organoidi già geneticamente modificati con una riduzione del contenuto di questa ed hanno così confermato il risultato circa la interazione sinergica fra ambiente e genetica nei casi di disordine autistico. Le  prospettive diagnostiche operando con organoidi possono trovare applicazioni nello studio dell’lnterazione fra organismo umano e sostanze che siano in attesa di ricevere la certificazione REACH di compatibilità con un’immissione nel mercato che sia  sicura per l’utenza, quindi con un contributo sostanziale alla riduzione della sperimentazione animale nel rispetto della Direttiva 3R

Resistenza batterica agli antibiotici: la prossima pandemia?

Claudio Della Volpe

Come sapete Nature è oggi un brand, non più solo una rivista scientifica; in particolare alcune delle sue iniziative non sono del tutto autonome, ma pur rivendicando libertà editoriale sono “supportate” da marchi altrettanto prestigiosi. Nell’ottobre 2020 Nature ha dedicato un Nature outlook, ossia una sorta di numero speciale alla questione della resistenza antibiotica.

Il numero era supportato da un marchio sconosciuto in Italia ma non nel mondo, un marchio giapponese Shionogi, che non distribuisce col suo nome ancora alcun farmaco in Italia, ma che si sta organizzando per farlo.

Detto questo cosa diceva il numero di Nature outlook?

Beh parecchie cose su questo problema che è uno dei maggiori e che per il suo impatto sulla salute e la società si avvicina molto a quello di una pandemia come la attuale.

L’uso estensivo ED IMPROPRIO di antibiotici sia nella terapia umana che animale, e, ancor meno giustificabile, nell’allevamento del bestiame, dove l’antibiotico sostituisce un allevamento “fatto come si deve”, guidato essenzialmente da ragioni di profitto, ha fatto si che al momento esistano batteri, specie in ambito ospedaliero, che sono resistenti a TUTTI, ripeto tutti gli antibiotici conosciuti. Antibiotici vengono rilasciati in ambiente dai nostri depuratori che non sono spesso in grado di gestirli e il rischio di diffondere specie di batteri comuni ma resistenti a tutti gli antibiotici e portarci dunque in un’era pre-antibiotica è altissimo.

Al momento la resistenza antibiotica fa 700mila vittime all’anno nel mondo secondo i dati dell’ONU e questo numero, se non si fa nulla, potrebbe crescere moltissimo fino ad arrivare a parecchi milioni all’anno nei prossimi decenni; dato che una soluzione non è banale da trovare e la ricerca di nuovi antibiotici è costosa e lunga non è sbagliato porre il problema adesso per il futuro.

Per capire di cosa parliamo nel concreto facciamo qualche esempio dalla pagina

https://labtestsonline.it/articles/batteri-resistenti-agli-antibiotici

Nel 2013 l’ente statunitense CDC ha identificato i 18 microrganismi più pericolosi presenti negli Stati Uniti, classificandoli in 3 categorie: urgenti, seri e preoccupanti. Nelle prime due categorie rientrano i microrganismi per i quali è necessario un monitoraggio ed una prevenzione più stringente, mentre nell’ultima categoria rientrano i microrganismi per i quali è necessario un monitoraggio occasionale, nell’eventualità di epidemie.

Enterobacteriacee resistenti ai carbapenemi (CRE): le infezioni operate da Escherichia coli e Klebsiella stanno aumentando, diffondendosi perlopiù negli ospedali e negli istituti di ricovero e con una resistenza a quasi tutti gli antibiotici disponibili. Per quanto riguarda Klebsiella, la percentuale di resistenza in Italia è del 34%, una delle percentuali più alte in Europa insieme a Grecia e Romania.

Gonorrea farmaco resistente: si tratta di un’infezione sessualmente trasmessa resistente alla cefalosporina, il farmaco di elezione per il trattamento di questa patologia. L’impossibilità di utilizzare la cefalosporina comporta l’inizio di un protocollo terapeutico più complesso e lungo. Negli Stati Uniti, degli 820.000 casi di gonorrea stimati annualmente, 246.000 sono resistenti a tutti gli antibiotici disponibili.

Secondo i dati raccolti dall’Istituto Superiore di Sanità, in Italia, la resistenza agli antibiotici per le specie batteriche sotto sorveglianza, si mantiene tra le più elevate d’Europa ed interessa perlopiù le specie batteriche Escherichia coli e Klebsiella pneumoniae, resistenti a quasi tutti gli antibiotici disponibili, Pseudomonas aeruginosa e Acinetobacter spp, responsabili soprattutto di multiresistenze, Staphylococcus aureus, resistente alla meticillina e, Streptococcus pneumoniae, responsabile di polmoniti e sepsi in pazienti ospedalizzati.

Quali sono i motivi di questa situazione e cosa fare per gestirla?

La descrizione più comune della antibiotico resistenza è quella “microscopica” per così dire focalizzata sui batteri e descritta in questa immagine:

Secondo questa descrizione, peraltro giusta sul suo livello “micro”, la resistenza ad un attacco chimico pertiene al batterio come tale che può selezionarsi od acquisire la resistenza da altri batteri, ed è un comportamento tipico degli esseri viventi non solo dei batteri, virus, ma anche piante o insetti si selezionano e perfino esseri umani; tuttavia una analisi più complessiva, più olistica del problema ne può sottolineare la natura sistemica, descritta invece nella seconda figura, in cui si sottolineano gli aspetti ecologici e sistemici del problema.

L’origine di questa più complessa concezione può essere fatta risalire ad un bell’articolo che lessi molti anni fa sulla EST Mondadori, “L’unificazione microbica del mondo”, pubblicata insieme alla prima versione di “Limits to growth”, al principio degli anni 70.

Fu infatti nel 1973 che Emmanuel Le Roy Ladurie inventò il concetto di malattie della globalizzazione, dovute all’”unificazione microbica del mondo”. In effetti già nel 1347 dodici navi portarono dalla Crimea a Messina grano, topi e appestati portando la peste in Europa. Nel 1493 la caravella Niña, proveniente dal Nuovo Mondo, sbarcava a Lisbona la sifilide che in tre anni portò alla prima unificazione dell’Europa cinquecentesca, quella sessual-treponemica. (https://www.avvenire.it/opinioni/pagine/lironica-rivincita-dei-piccoli-mondi-antichi_200904300815015000000 )

La formidabile spinta economica umana alla crescita globale, alla globalizzazione è alla base della massiccia distruzione di biodiversità non solo fra gli animali superiori, ma anche fra i batteri e i virus. L’articolo de L’avvenire che citavo si intitola: L’ironica rivincita dei piccoli mondi antichi; in definitiva la rete naturale è fortemente glocale, ossia è globale si ma è in realtà l’unione di forti strutture locali in una rete globale che ne mantiene un isolamento relativo. La nostra economia o meglio la nostra attuale forma economica, il capitalismo, porta invece ad una unificazione profonda e dunque al superamento dell’antico isolamento “naturale”; la scelta umana di poche specie di piante ed animali più “utili”, più “produttive” concorre da una parte a ridurre la diversità complessiva e dall’altra accresce il numero di ospiti suscettibili, uomini compresi. Quel che segue è la formazione di “sistemi” resistenti non solo di batteri o virus ma ambienti di ogni tipologia, ospedali, persone, comunità genetiche, batteri singoli e geni resistenti, strutturati come scatole cinesi. Il flusso della resistenza è bidirezionale dal gene alla comunità e dalla comunità al gene.I nativi americani non resistenti alle malattie importate dagli europei morirono come le mosche e il loro potenziale genetico fu distrutto come avviene con la popolazione batterica del nostro intestino quando arrivano antibiotici “ad ampio spettro”. Alla fine l’intero continente americano fu europeizzato quanto a malattie, così come i topi portatori della peste ci asiatizzarono durante le potenti pandemie a partire dal 1300

A differenza dei batteri noi non siamo capaci di scambiarci geni così velocemente e soprattutto lo facciamo solo tramite il sesso, mentre i batteri e i virus lo fanno anche in altri modi tramite scambi diretti di materiale genetico non con riproduzione sessuale.

Inoltre la riproduzione umana viaggia su scale di decenni mentre quella batterica o delle piante o degli insetti può essere molto più veloce, su scala perfino di minuti od ore. Tutto ciò ci aiuta comprendere che  si tratta di fenomeni naturali ma che non comprendiamo ancora completamente e che al momento governano le  nostre attività e preparano per noi situazioni impreviste.

Gli antibiotici come strategia antibatterica non sono unica, si può pensare come minimo ad altre due strategie:

-i batteriofagi, ossia i virus specifici dei batteri, un’idea sviluppata dai Russi a cavallo fra le guerre mondiali (si veda la pagina dell’istituto Eliava di Tbilisi o anche https://it.wikipedia.org/wiki/Terapia_fagica)

-oppure gli inibitori del Quorum -sensing, ossia molecole che interferiscono con le comunicazioni fra batteri specie nelle fasi avanzate di infezione in cui gli antibiotici sono in difficoltà.

Mentre la nostra cultura medica è dominata dagli antibiotici queste alternative iniziano a farsi strada anche da noi e trovano applicazioni in alcuni paesi o casi specifici.

Se ci limitiamo agli antibiotici, e sottolineo ci limitiamo, possiamo notare i fatti seguenti:
– l’elemento determinante è il costo di sviluppo degli antibiotici, calcolato nell’ordine di alcuni miliardi di euro ognuno e il tempo necessario alla loro messa  a punto: 10-15 anni ;

-le conseguenze del costo elevato e del tempo lungo sono a loro volta duplici: da una parte chi sviluppa l’antibiotico  deve rifarsi delle spese e dunque tende a venderlo in ogni dove “ad ampio spettro” come si dice anche quando sarebbe medicalmente logico non farlo e dunque ogni infezione , ma perfino OGNI specie uomo od animale viene curato con quell’antibiotico ed in ogni parte del mondo eventualmente per ridurre le spese di sviluppo con piccole modifiche non cruciali o realmente  innovative, ma solo finalizzate a superare i vincoli brevettuali ed a minimizzare le spese private ed a massimizzare i profitti, senza riguardo alla logica naturale che vorrebbe un uso non globalizzato, da “piccole patrie”, solo nei casi necessari, solo nelle comunità batteriche dove l’efficacia è maggiore.

– questo ha portato al fatto che il numero degli antibiotici in sviluppo si è ridotto fortemente proprio mentre si sviluppano in maniera crescente le resistenze a quelli che possediamo già.

Per superare questi problemi si propone da parte di alcuni di finanziare la ricerca privata (da parte dello stato, da parte di associazioni benefiche o da parte dei futuri utenti (il cosiddetto modello Netflix, in pratica pagare un abbonamento per la terapia antibiotica(sic!)) che ovviamente è una strategia che non risolve affatto il problema di fondo, aiuta le grandi multinazionali ma non l’umanità nel complesso, che necessita invece di strategie culturali nell’uso degli antibiotici che ne riducano la globalizzazione e casomai di tecnologie di analisi ed individuazione rapida dei batteri responsabili di un’infezione specifica; ma al momento serve troppo tempo per fare questo, una coltura batterica è semplice da realizzare ma può arrivare nel concreto a vari giorni e nel frattempo il paziente può andare incontro a gravi complicazioni.

In un altro articolo Nature commenta i recenti metodi per accelerare il processo di analisi batterica: Nature | Vol 596 | 26 August 2021 | 611 ; un metodo molto veloce è quello basato sull’analisi genomica dei batteri che si può attuare in ore; il problema è capire dal gene quale meccanismo di resistenza il batterio possegga o se lo possegga. ; questo implica che il metodo si possa usare in casi specifici; per esempio la Neisseria Gonorreae di cui si diceva prima per individuare i batteri resistenti alla ciprofloxacina, un antibiotico molto maneggevole ed usatissimo nel campo.

Un’altra idea italiana è la seguente: Nel 2013, Giovanni Longo, del Consiglio Nazionale delle Ricerche d'Italia a Roma, e i suoi colleghi hanno scoperto che quando hanno legato l'Escherichia coli patogeno a strutture in miniatura simili a un trampolino chiamate cantilever che sono parte integrante del microscopio a forza atomica, una sorta di punta di giradischi molto piccola, e li hanno esposti ad antibiotici, il cantilever ha oscillato su e giù a causa di piccoli movimenti dei batteri viventi attaccati. I movimenti cessavano se i microbi erano sensibili agli antibiotici. Il movimento era visibile al microscopio a forza atomica in pochi minuti, molto prima che i microbi si replicassero, il che significa che il test può identificare i batteri vivi molto più velocemente di quanto sia possibile con un test.
Il problema è avere il microscopio e saperlo usare, non è un metodo facile da automatizzare anche in un ospedale periferico di una città non grandissima.
Altre idee le trovate nell’articolo.
A me era sembrata eccezionale e semplice l’idea invece di usare la spettroscopia RAMAN per fare il lavoro di individuazione, idea che si era sviluppata anni fa. Si veda per esempio qui.

Rimane che la resistenza batterica non è un problema (solo) tecnico, ma più profondo, ecologico e culturale; fateci caso l’industria chiama i vari tipi di prodotti per l’agricoltura “fitofarmaci”; e i fitofarmaci (o come li chiamano gli ambientalisti “oltranzisti e radical chic”“(la nuova definizione di Cingolani) i pesticidi” (erbicidi inclusi))  sono usati per fare un deserto e chiamarlo agricoltura industriale (o a volte agricoltura razionale, il che mi fa ridere).  Come per i fitofarmaci i farmaci umani o veterinari hanno una logica precisa: usarli per fare un deserto e chiamarlo guarigione.

Tacito aveva capito questo meme raccontando la storia dei rapporti fra Romani e Britanni nel De Agricola: facendo dire a Calgaco, il capo dei valorosi, ma sfortunati, Calédoni: Ubi solitudinem faciunt, pacem appellant.

Occorre studiare meglio il senso del nostro esistere come esseri individuali e contemporaneamente parte di un complesso sistema di relazioni ecologiche ed ambientali (o come si dice un olobionte, un termine che sarei curioso di sapere se Cingolani conosce, ma scommetto di no e la cui invenzione si fa risalire  ad Alexander von Humboldt nel suo famoso viaggio in America, forse durante l’ascesa al Kimborazo): questo non l’abbiamo ancora digerito.

E Cingolani e tutti noi dovremmo ricordare che dopo la vittoria di Agricola nella battaglia di Monte Graupio i romani rinunciarono ad occupare la Caledonia (delimitata dei fiumi Forth e Clyde). La logica del deserto-chiamato-pace non funziona o in altri termini le vittorie degli antibiotici o dei pesticidi sono “vittorie di Pirro”, non durano.

Roma: fra cultura e musei

Luigi Campanella, già Presidente SCI

In vista delle elezioni per il Sindaco di Roma i candidati hanno cominciato a parlare di quanto vorrebbero fare nel caso risultassero vincitori. Per quanto riguarda la cultura, uno dei temi più caldi, come Roma merita, la comune opinione è che la nostra capitale sia la ideale sede dell’agenzia dell’UE.

Il fatto che a novembre dell’anno scorso 45 sindaci di Città in tutto il mondo, da Città del Messico a Barcellona, abbiano firmato un protocollo che prende il nome dalla nostra città-la Carta di Roma 2020-è il segno dell’attenzione mondiale verso Roma e le sue risorse culturali.

Una chiave della ripartenza post-Covid sarà la capacità di valorizzare in modo innovativo  il nostro patrimonio culturale e turistico e tutta l’economia ad esso legata. Si dice che la bellezza salverà il modo: forse l’economia della bellezza potrà contribuire significativamente alla ripresa in Italia. I fondi del PNRR rappresentano di certo una straordinaria occasione che sarebbe imperdonabile mancare. Abbiamo assistito ad un nuovo rapporto fra pubblico e privato sui Beni Culturali ed anche il pubblico è finalmente più collaborativo. Roma che non per caso è stata scelta come sede del G20 della cultura che si e svolto pochi giorni fa con tanto di inaugurazione spettacolare al Colosseo merita di ospitare l’agenzia europea in forma definitiva, finora con sede a Bruxelles, guidata da un italiano, Roberto Carlini, succeduto alla direzione belga. G20 a Roma: «Tutti più poveri senza cultura»- Corriere.it

Il G20 della cultura ha prodotto un documento finale in 32 punti: sviluppare d’intesa con UNESCO forze nazionali a tutela del  patrimonio culturale, azioni forti e coraggiose contro l’impatto dei cambiamenti climatici, progetti a sostegno della formazione e delle imprese giovanili operanti nella cultura.

Tornando alla tornata elettorale per il Sindaco di Roma ed al dibattito in atto fra i candidati mi sarei immaginato che un tema caldo fosse il Museo/Città della Scienza di cui Roma soffre la mancanza e discute da quasi 50 anni. Invece al tema, a parte la generale ovvia considerazione che Roma come Capitale della Scienza e Ricerca del nostro Paese merita il Museo, poco viene dedicato.

In ambito museale il tema più discusso è quello del Museo di Roma, intendendo per esso ogni manifestazione museale in cui si parla e si tramanda la storia della nostra Città e il grande percorso della Civiltà Romana attraverso i secoli: dalle grandi famiglie romane alla Roma antica, dalla Roma rinascimentale a quella risorgimentale, dalla Roma barocca a quella moderna.

A Roma già esistono Musei che sono rivolti a questi fini (Museo di Roma, Museo Nazionale Romano, Museo della Civiltà Romana, Musei Capitolini) ed il dibattito si è incentrato sulla proposta formulata da uno dei candidati circa la possibilità di aggregare i contenuti dei differenti Musei all’interno di un unico Grande Museo di Roma da insediare in un’area strategica per la quale sono anche state indicate possibili collocazioni al centro della Città ( via dei Cerchi, edificio comunale exPantanella).

Il passaggio perciò è da quello che viene indicato come il modello diffuso al modello di Museo Unico e Centrale, il processo inverso a quello che in mancanza della realizzazione di un Museo della Scienza si è invece concretizzato in questi 50 anni: per sopperire a questa mancanza si sono sviluppati progetti ed iniziative (MUSIS, Settimana della Ricerca, Notte dei Ricercatori, Laboratori Aperti), basandosi sulla ricchezza di centri espositivi scientifici nella nostra città.

Il pericolo che vedo è rappresentato dalla politicizzazione del tema che può rappresentare un freno alla chiarezza del dibattito ed un freno a qualsiasi innovazione, oltre al rischio di escludere nella definizione delle scelte proprio la comunità che, venendo dal sistema culturale diffuso di oggi, è forse quella con maggiore esperienza e titoli per fornire utili suggerimenti.

Abbiamo purtroppo già vissuto. negli anni ’70 con i progetti del Museo della Scienza questa esperienza, in cui il dibattito per arrivare ad un modello ideale di Museo della Scienza per Roma si è trasformato in un confronto più politico che tecnico-scientifico.

È chiaro quali siano le caratteristiche dei due modelli: più vicino al territorio, più culturale, più economico uno, più fruibile, più rappresentativo, più propositivo il secondo. Un elemento di novità – ma quanto pertinente? – riguarda l’ipotesi di indirizzare il Museo diffuso verso compiti di protezione e conservazione, una sorta di policlinico del patrimonio culturale integrando quindi il sistema museale con università, Enti di Ricerca, parchi scientifici, Soprintendenze, candidando Roma ad essere la sede di una grande sperimentazione scientifica. Forse una pretesa troppo grande in relazione alle risorse e che invece potrebbe rivolgersi verso la creazione di un Centro Regionale di tale natura da realizzare a partire dal Distretto Tecnologico Culturale già esistente.

Da questa prospettiva si può invece certamente evidenziare la funzione didattica e formativa che l’organizzazione diffusa e decentrata di certo può agevolare, avvicinandosi ai cittadini anche di aree non centrali della città. Credo in definitiva che il problema sia un altro: come rendere un Museo Diffuso come se fosse un Museo Unico, il che vuol dire mantenere l’unità progettuale, pensare ad un sistema per coordinare gestione, promozione, comunicazione e fruizione di Musei ed aree archeologiche appartenenti a soggetti diversi (Stato, Roma Capitale, Accademie, Centri Culturali, Istituzioni private),facilitare la visitazione attraverso percorsi ed itinerari guida, supportati anche da mezzi di mobilità organizzata, istituire biglietteria integrata di accesso ai vari poli museali, disporre di una sede dove il patrimonio disponibile venga illustrato complessivamente lasciando poi al visitatore la scelta di come fruirne. Le tecnologie dell’informazione e della comunicazione sviluppatesi prepotentemente in questi anni ci danno una mano a patto di non farle divenire un limite al necessario passaggio-promozione dall’informazione ai livelli superiori della conoscenza e della cultura.