Category Archives: Articles

Le stelle della morte

Pubblicato su Tutti Dentro

In Guerre stellari, la famosa saga cinematografica creata da George Lucas negli anni Settanta, la Death star era una gigantesca stazione spaziale realizzata dall’Impero Galattico per rafforzare il proprio dominio sulla galassia. La Morte Nera, questo il suo nome nella fuorviante traduzione italiana, disponeva di un’arma potentissima in grado di distruggere qualsiasi pianeta in pochi secondi.
Il recente articolo di S. Rappaport (Massachusetts Institute of Technology), pubblicato su ArXiv.org, ci mostra uno scenario molto simile. Un mondo roccioso, con una massa pari a due volte quella di Mercurio, sta letteralmente evaporando, trasformandosi in una nube di gas e polveri. I dati delle occultazioni stellari forniti dal satellite Kepler mostrano, infatti, che la distanza media tra il pianeta e la stella KIC-12557548 è pari a 1/100 di quella tra il Sole e la Terra, ovvero circa 1,5 milioni di km. La temperatura è quindi molto elevata, essendo quella superficiale dell’astro pari a oltre 4000 °C.

L’idea che un pianeta possa sublimare non è nuova, ma questa è la prima volta in cui un corpo di tipo terrestre viene distrutto in questo modo. Enormi quantità di roccia vaporizzate dal calore elevato stanno formando una densa nube, la cui densità dovrebbe variare nel corso del tempo. Questo spiega, tra l’altro, la variazione osservata nella quantità di luce proveniente da KIC-12557548.

Il lavoro presentato pochi giorni fa su ArXiv.org da A. Lecavelier des Etangs (Institut d’Astrophysique de Paris) presenta un quadro esauriente delle osservazioni e dei modelli teorici riguardanti l’evaporazione dei pianeti extrasolari. Si pensi, ad esempio, al caso di GJ876d e Corot-7b, che dovrebbero essere costituiti dai resti non vaporizzati di alcuni pianeti giganti troppo vicini alle loro “stelle della morte”.

FONTI
Rappaport et al. (2012), Possible Disintegrating Short-Period Super-Mercury Orbiting KIC 12557548.
http://arxiv.org/abs/1201.2662v1

Lecavelier des Etangs (2012), Evaporation of extrasolar planets.
http://arxiv.org/abs/1201.4637

Se l’inquinamento luminoso è utile

Pubblicato su Scienza in Rete

http://www.scienzainrete.it/contenuto/news/se-linquinamento-luminoso-e-utile

Come ci ricorda CieloBuio, l’associazione per la salvaguardia del firmamento notturno, “Troppa luce spegne le stelle“. Eppure, paradossalmente, le luci artificiali potrebbero aiutare nella ricerca di civiltà extraterrestri. E’ quello che propongono in un recente articolo pubblicato sulla rivista Astrobiology, i ricercatori Edwin Turner della Princeton University e Abrahm Loeb dell’Harvard-Smithsonian Center for Astrophysics.  I due studiosi presuppongono che ogni forma di vita intelligente, che si sia evoluta alla luce della stella più vicina, utilizzi l’illuminazione artificiale durante le ore di oscurità.

Nella sua orbita attorno al proprio astro, un pianeta ci apparirebbe dotato di fasi, proprio come accade con Venere. L’inquinamento luminoso prodotto dal lato-notte sarebbe visibile dalla Terra più di quanto sia la luce riflessa dal lato-giorno, permettendo l’identificazione del pianeta. Già oggi potremmo osservare la luce prodotta da una città grande come Tokyo alla distanza della Fascia di Kuiper, la regione situata tra 30 e 50 Unità Astronomiche dal Sole (1 UA = circa 150 milioni di chilometri) e occupata da Plutone, Eris e altri corpi minori. Gli strumenti ottici di nuova generazione potrebbero rendere la tecnica operativa, a meno che non si osservino oggetti come Kalgash, immaginato da Isaac Asimov nel racconto di fantascienza Notturno. Su un pianeta come questo, abitato da esseri intelligenti e illuminato da sei soli, non ci sarebbe mai la notte, rendendo di fatto questa tecnica poco efficace…

Nuova terapia genica contro l’emofilia B

Una nuova tecnica sperimentale, testata con successo su sei pazienti americani, sembra offrire una soluzione a lungo termine per le persone affette da emofilia B, un disturbo genetico caratterizzato da una grave insufficienza nella coagulazione del sangue. I risultati di questo studio sono stati presentati durante il  53° congresso annuale dell’American Society of Hematology. Andrew Davidoff, uno degli autori dello studio e direttore del dipartimento di Chirurgia dell’ospedale St. Jude Children Research di Memphis (Usa), ha spiegato che i pazienti affetti da una forma grave della malattia sono costretti a ricorrere a frequenti trasfusioni di sangue, al fine di prevenire episodi di sanguinamento spontaneo. In futuro, grazie alla terapia genica, tutto questo non sarà più necessario, con un conseguente miglioramento della qualità della loro vita. La terapia, nello specifico, agisce sul gene responsabile della coagulazione, correggendone i difetti. L’emofilia colpisce una persona su 10 mila ed è diffusa in tutto il mondo. Al momento sono circa 400 mila le persone interessate. Secondo i dati raccolti dal Registro Nazionale delle Coagulopatie Congenite, in Italia sono circa 7900 i pazienti affetti da emofilia. Tra questi, il 9% è costretto a convivere con l’emofilia B. Si tratta di 700 pazienti, di cui 267 di forma grave. I rimanenti sono invece colpiti da emofilia A, malattia di Von Willebrand e altre patologie legate ad una coagulazione difettosa. Garantire una vita migliore a tutte queste persone è un dovere a cui non è possibile sottrarsi, nonostante i costi per la ricerca siano elevati. Al momento sono 11 le regioni italiane che hanno istituito a livello legislativo la possibilità di ricevere il trattamento a domicilio per la cura dell’emofilia. In alcune regioni, invece, non sono nemmeno presenti i centri di assistenza, così pazienti sono costretti a spostarsi, con costi e disagi non accettabili. Massimo Morfini, vice presidente dell’Associazione Italiana Centri Emofilia ha recentemente ricordato i risultati di un’analisi condotta a livello europeo sulla relazione tra tipo di trattamento e frequenza di emorragia. I pazienti trattati on demand hanno un rischio 3-4 volte più alto di incorrere in un versamento all’interno dell’articolazione, in un periodo di 6 mesi, rispetto a quelli trattati in profilassi. Anche la qualità della vita dei pazienti emofiliaci, misurata in termini di benessere fisico, vitalità, integrazione sociale, salute mentale e benessere emotivo, risulta significativamente superiore nei pazienti trattati in profilassi. Anche in Italia devono essere recepiti al più presto i principi adottati dalla Commissione Europea, che garantiscono livelli minimi di assistenza, trattamento e cura dell’emofilia. Solo un anno fa, nel corso della tavola rotonda “La Profilassi nel paziente emofilico in Italia: conviene?”, svoltasi a Roma, si era stabilito un vero e proprio decalogo per affrontare seriamente il problema. Questo l’appello di Gabriele Calizzani, Presidente FedEmo, oggi ancora valido: “Chiediamo a tutte le autorità e istituzioni nazionali e regionali un impegno concreto per garantire a tutti i pazienti emofilici e alle loro famiglie trattamenti efficaci sulla base delle evidenze scientifiche e un’assistenza omogenea sul territorio nazionale”. A distanza di un anno è ancora in corso una valutazione HTA (Health Technology Assessment) nell’ambito della terapia per l’emofilia, vale a dire un approccio che non consideri solo i costi della terapia, almeno  400 milioni di euro ogni anno, ma valuti soprattutto l’impatto che questa ha su paziente, sanità pubblica e società.

È stata un’ottima cura, ma abbiamo perso il paziente

«In quel manicomio esistevano gli orrori degli elettroshock. Ogni tanto ci assiepavano dentro una stanza e ci facevano quelle orribili fatture. Io le chiamavo fatture perché non servivano che ad abbrutire il nostro spirito e le nostre menti. La stanzetta degli elettroshock era una stanzetta quanto mai angusta e terribile; e più terribile ancora era l’anticamera, dove ci preparavano per il triste evento. Ci facevano una premorfina, e poi ci davano del curaro, perché gli arti non prendessero ad agitarsi in modo sproporzionato durante la scarica elettrica. L’attesa era angosciosa. Molte piangevano. Qualcuna orinava per terra. Una volta arrivai a prendere la caposala per la gola, a nome di tutte le mie compagne. Il risultato fu che fui sottoposta all’elettroshock per prima, e senza anestesia preliminare, di modo che sentii ogni cosa. E ancora ne conservo l’atroce ricordo».

Alda Merini, la famosa poetessa scomparsa nel 2009, descrive così, nel libro «Elettroshock», la terribile esperienza del manicomio. Eppure, la terapia elettroconvulsiva è stata a lungo considerata una tecnica efficace per la cura dei casi più gravi di psicosi e depressione. Basata su convulsioni indotte nel paziente per mezzo di una corrente elettrica fatta fluire attraverso il cervello, questa terapia fu introdotta alla fine degli anni Trenta dai neurologi italiani Ugo Cerletti e Lucio Bini, che proseguirono le ricerche del premio Nobel austriaco Julius Wagner-Jauregg.

Come ci ricorda l’articolo «La terapia elettroconvulsiva: revisione critica del suo utilizzo in Italia» di Abbiati et al. (2010), la reazione della società fu inizialmente favorevole, visti i buoni tassi di guarigione. In seguito, però, questo trattamento venne sempre più rappresentato in tutto il mondo come un vero e proprio atto coercitivo, con un sensibile aumento della sfiducia della popolazione.

È il caso, ad esempio, dello scenario rappresentato nel famoso film di Miloš Forman «Qualcuno volò sul nido del cuculo» (1975), tratto dall’omonimo romanzo di Ken Kesey (1962), in cui l’elettroshock e la lobotomia vengono utilizzati per tenere sotto controllo o punire i pazienti.

Anche Lou Reed, il famoso cantautore statunitense che negli anni Sessanta fece discutere per i suoi atteggiamenti effeminati e provocatori, fu sottoposto, a soli 17 anni, a una serie di elettroshock. In quegli anni, l’omosessualità era purtroppo ancora considerata pericolosa e destabilizzante per la società. La presunta terapia si rivelò traumatizzante e devastante, oltre che, naturalmente, inutile.

Questa invece la disperazione di Ernest Hemingway, a cui venne somministrato più volte l’elettroshock nel tentativo di curarne la depressione, causando però frequenti amnesie: «Che senso ha avuto distruggere la mia mente e cancellare la mia memoria, che costituiscono il mio capitale, e senza di loro sono disoccupato? È stata un’ottima cura, ma abbiamo perso il paziente».

Abbiati et al. ci ricordano che negli anni ‘60 e ‘70 nel nostro paese si diffuse sempre più l’idea della psichiatria sociale  e  l’elettroshock fu presentato come uno strumento utilizzato  contro i pazienti che creavano disordine in ospedale. Un grande movimento di contestazione portò nel 1978 alla promulgazione della legge 180, che produsse un’importante revisione nell’ordinamento degli ospedali psichiatrici e promosse notevoli miglioramenti nei trattamenti dei pazienti.

L’ispiratore della legge, il neurologo e psichiatra Franco Basaglia, scomparso nel 1980, aveva già avviato da alcuni anni le prime esperienze anti-istituzionali nell’ambito della cura dei malati di mente. In particolare, egli trasferì il modello della comunità terapeutica all’interno delle strutture ospedaliere, vietando gli elettroshock e aprendo anche i  reparti al pubblico. Fu l’inizio di una fondamentale riflessione sociopolitica sul ruolo e sulla effettiva utilità dell’ospedale psichiatrico.

L’elettroshock deve essere oggi somministrato in condizioni controllate e da personale altamente specializzato. La grande sfiducia verso questa pratica “scientifica” ha portato a rivalutarne l’uso, limitandolo fortemente, solo nei casi di provata utilità, ossia nel trattamento delle forme più gravi di depressione e psicosi, dopo che gli antidepressivi e la psicoterapia non si sono rivelati efficaci nel lungo periodo.

La circolare del Ministero della Salute del 15.02.1999 risponde in modo coerente alla diffidenza e alle perplessità dei cittadini, rassicurandoli. La norma stabilisce, infatti, che l’elettroshock «deve essere somministrato esclusivamente nei casi di episodi depressivi gravi con sintomi psicotici e rallentamento psicomotorio, dopo avere ottenuto il consenso informato scritto del paziente, al quale devono essere esposti i rischi ed i benefici del trattamento e le possibili alternative. L’applicazione dello shock deve avvenire su paziente incosciente per l’effetto di anestetici e trattato con rilassanti muscolari per controllare le contrazioni muscolari».

Il disastro di Chernobyl – Analisi del Corriere della Sera

Il 26 aprile 1986 il reattore numero 4 della centrale nucleare Lenin di Chernobyl (Ucraina, Urss), esplode durante un test di sicurezza. Le autorità sovietiche smentiscono l’accaduto, ma due giorni dopo ecco il primo allarme in Europa, proveniente da Stoccolma e Helsinki.

Come fu trattata questa vicenda, così drammatica, dal Corriere della Sera (CdS)? Nel 1986 il giornale, diretto da Piero Ostellino, era controllato da Mediobanca e dalla finanziaria Gemina, una holding di proprietà della famiglia Agnelli, con la partecipazione del colosso della chimica Montedison.

Il 29 aprile il CdS va in stampa con il titolo «Sciagura nucleare in Urss». Il corrispondente Scabello informa che «la formazione di una commissione d’inchiesta governativa lascia intuire che si è trattato di una vera e propria catastrofe». La dichiarazione di Naschi, direttore della divisione sicurezza e protezione sanitaria dell’Enea (Ente per le Nuove tecnologie, l’Energia e l’Ambiente), ha una funzione compensativa, in quanto rassicura la popolazione in merito alla variazione di radioattività in Italia: «Credo che non troveremo molto: tutto dipende dalle correnti atmosferiche».

Il giorno seguente il CdS titola in prima pagina: «Paura nucleare sull’Europa». L’iniziale cautela lascia dunque spazio alla preoccupazione che il disastro non sia limitato all’Urss. L’apertura del 1 maggio spazza via ogni dubbio: «La nube radioattiva sfiora l’Italia», anche se Altissimo, il Ministro dell’Industria, tende a sdrammatizzare.  Il giornale fornisce al lettore un quadro esauriente sulla posizione presa dai diversi schieramenti politici. La Dc ribadisce, ad esempio, la volontà di non modificare il piano energetico nazionale.

Il 3 maggio ecco «L’Italia coperta dalla nube» e «Pioggia nucleare, emergenza in Italia». Si pone l’attenzione sullo Iodio 131, informando la popolazione sui possibili rischi. Da segnalare l’appello di Zamberletti, Ministro per il Coordinamento della Protezione Civile, che invita a lavare bene le verdure prima del consumo. Il CdS sensibilizza i cittadini al problema, fornendo al lettore le nozioni basilari per affrontare in modo efficace e consapevole il problema.

Il CdS inserisce anche una nota di colore: «Tutto esaurito al Cristallo Palace di Bergamo, unico albergo in Europa dotato di un capace e sofisticato rifugio a prova di atomica». La scelta di alleggerire un po’ i toni, in mezzo a tanti articoli dal contenuto cupo, è condivisibile.
Dal 4 maggio in poi i titoli sono contrastanti. Il governo continua a rassicurare che la radioattività in Italia non ha mai superato i valori limite («La nube fa meno paura», «Il vento disperde le radiazioni»), ma il CdS insiste sui possibili rischi legati ai cibi contaminati («Vietata la verdura a foglie», «Via la nube, aumenta la radioattività a terra», «Le campagne ancora ricoperte dalla brina nucleare», «Troppo radioattivi per la Cee alcuni prodotti italiani»). Il giornale deve riferire quanto detto dal governo, ma risulta evidente l’intento di continuare a informare correttamente i cittadini. I giornalisti del CdS scelgono bene il proprio padrone: il lettore, come ammoniva spesso Montanelli.
Un’alta nota di colore, il 5 maggio: «Strip-tease antinucleare con Cicciolina e Ramba in piazza del Popolo a Roma: si sono spogliate rimanendo solo con alcuni carciofi in mano. Traffico paralizzato, sono intervenuti i carabinieri.» Anche in questo caso, una piccola notizia che fa sorridere non stona all’interno del contesto.
Dall’11 maggio in poi l’allarmismo si attenua. Il CdS inizia a dare maggiore spazio all’analisi delle conseguenze su salute ed economia, piuttosto che ai fatti di cronaca. È il momento degli approfondimenti.

Il 21 maggio, il CdS interviene nel dibattito sul nucleare: «Un sondaggio misura l’effetto Chernobyl. Si profila un referendum». Il giornale ha già individuato quale sarà il tema principale nei mesi successivi. Oltre a informare, il CdS invita il cittadino a riflettere sin da subito sull’uso dell’energia nucleare.

Morire di traffico

„Siamo nati per camminare“, il gioco di educazione alla mobilità sostenibile promosso dai Genitori Antismog di Milano, quest’anno non è stato realizzato per mancanza di fondi. L’obiettivo era quello di ridurre l’uso delle auto nei percorsi casa-scuola, al fine di far crescere i propri bambini in un ambiente con meno smog, traffico e rumore. Tutto rinviato al 2012, ma intanto cosa siamo costretti a respirare? Il progetto europeo Aphekom (Migliore Conoscenza e Comunicazione per l’Adozione dei Provvedimenti per la Salute in Europa) quantifica l’impatto dell’inquinamento atmosferico in 25 città europee, tra cui Roma. Dopo due anni e mezzo di ricerche, con più di 60 scienziati impegnati, ecco i risultati: se i livelli delle polveri sottili si riducessero a quelli raccomandati dall’ dall’Organizzazione Mondiale della Sanità (OMS, 10 μg/m3) si avrebbe un incremento dell’aspettativa di vita, con una sensibile riduzione dei costi sanitari e sociali. Ad esempio, se a Roma la concentrazione media annuale di particolato PM 2.5 si riducesse a 10 μg/m3, si avrebbero oltre 1200 morti in meno. Chi ha oggi 30 anni guadagnerebbe un anno di vita, con un risparmio superiore ai 2 miliardi di euro. Lo scenario si ripete anche nelle altre grandi città. L’ultimo Rapporto annuale di Legambiente, Ambiente Italia e Sole 24 Ore sulla eco-sostenibilità dei centri urbani ci ricorda che annualmente a Milano i decessi legati allo smog sono oltre 800. In totale, l’OMS calcola che ogni anno in Italia almeno 8500 persone muoiono prematuramente per gli effetti a lungo termine delle polveri sottili o per l’esposizione ad alti livelli di ozono. La densità automobilistica costituisce uno degli elementi più critici, ma il tasso medio di motorizzazione dei comuni capoluogo italiani rimane molto elevato, con 63.7 auto ogni 100 abitanti (rispetto alle 32 di alcune grandi capitali europee). Una mobilità sostenibile è un obiettivo irrinunciabile. Poche automobili e più trasporto pubblico? Questa la soluzione?

I test genetici direct-to-consumer sono sempre più diffusi. Possiamo fidarci?

„Conosci te stesso… per soli 99 dollari!!!“. Il famoso motto greco iscritto sul tempio dell’Oracolo di Delfi ed attribuito a Talete e Socrate ammoniva a conoscere i propri limiti. Oggi possiamo spingerci molto più a fondo, grazie ad aziende che da alcuni anni permettono di svolgere analisi genetiche inviando per posta campioni di saliva. Una di queste è la famosa 23andMe, fondata nel 2006 da Linda Avey e Anne Wojcicki, moglie del co-fondatore di Google Sergey Brin. Agendo su base statistica, 23andMe è in grado di mettere in rapporto le nostre caratteristiche con quelle medie della popolazione, evidenziando così potenziali pericoli connessi ad eventuali mutazioni genetiche. Nel 2008, lo stesso Brin ha scoperto di avere una chiara predisposizione genetica allo sviluppo del Parkinson. In merito a questa scoperta, Brin ha dichiarato sul suo blog: «la cosa mi lascia in una posizione unica. Conosco in anticipo ciò a cui sono predisposto. Ora ho l’opportunità di aggiustare la mia vita per ridurre questo rischio. Ho anche l’opportunità di aiutare la ricerca su questa malattia fino a quando eventualmente non mi colpirà. […] Mi sento fortunato in questa posizione». In effetti gli investimenti di Google a favore di 23andMe sono ogni anno sempre più ingenti, ma quanti possono ritenersi davvero fortunati, una volta venuti in possesso di informazioni così delicate? Le ripercussioni possono essere sociali, legali o economiche. Scoprire di avere una predisposizione a contrarre malattie mortali o invalidanti può costituire uno shock difficile da superare. Da questo punto di vista sarebbe quindi necessaria una normativa nazionale, o ancora meglio europea, che regolamenti il mercato: infatti, è auspicabile la presenza costante di un consulente genetico che aiuti a decifrare le informazioni e a quantificare la portata dei rischi cui siamo soggetti, ovvero una figura professionale qualificata a cui chiedere consiglio riguardo alle informazioni da comunicare ai propri familiari. Come comportarsi, infatti, con i propri figli minorenni? Sottoporre il test anche a loro o aspettare che raggiungano la maggiore età? Se ben utilizzati, i dati forniti dai test genetici possono incentivare la prevenzione, migliorando ad esempio dieta e stile di vita e arrivando in futuro a dar luogo a una medicina personalizzata. Ci sono, tuttavia, ancora diversi problemi: le previsioni di 23andMe e Navigenics, le aziende più quotate tra quelle che offrono test genetici direct-to-consumer, sono spesso in contrasto tra loro, con percentuali di rischio molto variabili per uno stesso soggetto. La scelta degli SNP da analizzare (Poliformismi a Singolo Nucleotide, ovvero le piccole mutazioni riscontrabili nel DNA delle persone) può infatti influenzare sensibilmente il calcolo del rischio, rendendo di fatto poco omogenei i risultati dei vari test. Inoltre, come garantire il diritto alla privacy a quei cittadini che vivono in paesi il cui sistema sanitario nazionale è di tipo assicurativo, come ad esempio in Germania? Una maggiore probabilità di contrarre una malattia non implicherebbe un costo/premio maggiore, dato per scontato l’obbligo del cliente di fornire un quadro veritiero sulle proprie condizioni di salute? Infine, a chi spetta regolamentare il mercato? Non è possibile eliminare i test direct-to-consumer, ma bisogna spingere le aziende di personal genomics ad offire un servizio sempre migliore, dal punto di vista della qualità scientifica, della trasparenza e della comunicazione al cliente. Solo così potremo disporre di un utile strumento per “conoscere” davvero noi stessi

A cosa serve la scienza

Il 21 luglio 1969, Neil Armstrong divenne il primo essere umano a camminare sulla Luna, pronunciando la celebre frase «Questo è un piccolo passo per un uomo, ma un grande balzo per l’umanità». E fu in effetti un grande balzo, soprattutto economico. Gli analisti della Nasa hanno stimato che ogni dollaro investito nel programma Apollo ne ha generati almeno tre in termini di ricadute economiche e pratiche, moltissime nella vita di tutti i giorni. I brevetti legati alla conquista della Luna sono stati oltre 150000 (ad esempio il trapano senza fili, il tessuto Gore-Tex, i sensori di parcheggio per automobili, il Teflon, il Kevlar). La corsa allo spazio fu un aspetto determinante della guerra fredda e gli investimenti pubblici di USA e URSS furono ingenti, sia per le possibili applicazioni militari che per i benefici psicologici sul morale della propria nazione derivanti dalla propaganda. La scienza fu quindi per lungo tempo al servizio dei governi e la spinta al progresso fu di tipo ideologico. Oggi la situazione è radicalmente cambiata. I finanziamenti vengono sempre più da soggetti privati, come, ad esempio, nel caso dell’industria farmaceutica, che investe ogni anno diversi miliardi di euro. Secondo John Ziman, il famoso filosofo della scienza scomparso nel 2005, al giorno d’oggi le potenti organizzazioni che finanziano la ricerca e ne controllano i prodotti sfruttano le loro capacità tecnoscientifiche per ampliare le risorse tecniche, per condizionare il mercato, per competere ancora, per citare in giudizio altre imprese, per guadagnare l’approvazione del pubblico. In sostanza per favorire i proprio interessi particolari. La scienza diventa quindi un mezzo per avere sempre più potere e influenza? Non necessariamente. Per gran parte dell’opinione pubblica, la  scienza deve anche e soprattutto costituire un metodo efficace per migliorare le condizioni di vita della popolazione. I cittadini pongono domande pragmatiche: «Quali sono le ricadute pratiche?» «Cosa cambia per noi dopo questa scoperta?» «Come spendi i nostri soldi e perché dovremmo dartene altri?» Ed ecco che la scienza diventa, in questo contesto, un mezzo per migliorare la propria condizione,  per fare del bene a se stessi e alle generazioni future. I finanziamenti, se ben utilizzati, servono a garantire la qualità dei risultati e delle innovazioni. Queste ultime producono a loro volta un guadagno per l’indotto e nuovi posti di lavoro. Purtroppo, la recente crisi finanziaria rende necessario stabilire delle priorità, tagliando i “rami secchi” e definendo un sostegno adeguato alla ricerca senza sacrificare l’eccellenza. A chi spetta decidere quali settori o ambiti della scienza vadano supportati? Ai singoli governi nazionali, all’Unione Europea oppure ai soggetti privati? Si tratta di una grande responsabilità. Come ha detto il filosofo tedesco Fichte, “dal progresso delle scienze dipende in modo diretto il progresso complessivo del genere umano. Chi frena il primo frena anche il secondo”.

Inventiamo il nostro futuro

“Le preghiere non cureranno l’AIDS. La ricerca sì.” Questo slogan, utilizzato diversi anni fa dall’American Foundation for AIDS Research, ci ricorda che le soluzioni ai problemi più grandi si trovano solamente grazie agli studi ed alle indagini dei vari gruppi di ricerca nel mondo. La recente crisi finanziaria impone un’attenta riflessione per quanto riguarda l’aspetto dei finanziamenti a cui questi soggetti possono accedere. Se davvero si vuole scoprire qualcosa di veramente utile e innovativo bisogna spendere molti soldi, ma il contribuente che paga le tasse ha il diritto di sapere come questi vengano investiti, a maggior ragione in un periodo di forte recessione mondiale come quello attuale. E’ possibile ottimizzare i costi, non rinunciando alla ricerca pura, i cui benefici non sono spesso immediati? I tagli sono davvero inevitabili? Alcuni giorni fa la rivista Science si è posta queste domande e nel suo  editoriale Alan I. Leshner (chief executive officer dell’American Association for the Advancement of Science) ha affermato che bisogna ripensare completamente il modo con cui si fa scienza. Non è infatti accettabile che gli scienziati  americani debbano impiegare per gli atti amministrativi ben il 42% della quota di tempo prevista per la ricerca. Lo stesso sistema  di proposals e peer reviewers andrebbe fortemente snellito in modo da garantire maggior tempo per lo studio e le analisi. Inoltre non è affatto detto che i previsti tagli portino realmente ad un effetto positivo. Fare di più con meno è un cliché che non può valere in questo caso. I finanziamenti, se ben spesi, servono a garantire la qualità dei risultati e delle innovazioni. Queste ultime producono a loro volta un guadagno per l’indotto e nuovi posti di lavoro. Il governo ed il Congresso degli Stati Uniti hanno deciso di stabilire delle priorità e di tagliare i “rami secchi”, cercando di definire una cifra adeguata per la ricerca senza sacrificare l’eccellenza. Queste scelte forzate porteranno quindi alla chiusura di parecchi programmi, non senza polemiche o proteste, ma la spinta all’innovazione rimarrà sempre irrinunciabile. Gli americani stanno cercando di reagire, ma cosa sta succedendo in Italia? Quali sono le politiche del MIUR, il Ministero  dell’Istruzione, dell’Università e della Ricerca? Il recente ddl Stabilità ha fissato i fondi per le università nel 2012. Sono in arrivo 400 milioni di euro. Per quelle private sono previsti 20 milioni. Per le scuole paritarie arriveranno 242 milioni. Per i policlinici universitari non statali 70 milioni. Si tratta di una risposta realmente adeguata? I dati ISTAT del Rapporto “Noi Italia” (link: http://noi-italia.istat.it) ci forniscono il rapporto tra spesa per ricerca e sviluppo e PIL. Nel 2008, l’indicatore italiano era all’1.23% e per il 2020 è previsto il raggiungimento dell’1.53%. In relazione al rapporto con i PIL regionali, spicca il Piemonte con l’1.88% (soprattutto ricerca privata) ed il Lazio con l’1.79% (per lo più enti pubblici). Nel Nord-ovest, ad investire di più sono le imprese medio-grandi (0.98% del PIL). Cosa succede vicino a noi? Svezia e Finlandia sono già oggi oltre il 3.5% mentre Danimarca, Austria e Germania spendono intorno al 2.5%. Si tratta proprio delle nazioni che stanno affrontando meglio la crisi e questo porta necessariamente a riflettere sull’assoluta necessità degli investimenti per la ricerca. Come ha detto Alan Kay, un famoso informatico, “Il miglior modo per predire il futuro è inventarlo”.