Autore Hilary Rose
CoautoreSteven Rose
Titolo Geni, cellule e cervelli
SottotitoloSperanze e delusioni della nuova biologia
EdizioneCodice, Torino, 2013 , pag. 402, cop.fle., dim. 13,5x20x3,8 cm , Isbn 978-88-7578-377-8
OriginaleGenes, Cells and Brains. The Promethean Promises of the New Biology [2012]
TraduttoreEva Filoramo
LettoreRenato di Stefano, 2014
Classe biologia , medicina , scienze cognitive , scienze sociali , scienza , natura-cultura , movimenti












 

| << |  <  |  >  | >> |

Indice


    Introduzione
  3 Prometeo liberato?

    Capitolo 1
 35 Dalla piccola genetica alla grande genomica

    Capitolo 2
 73 La teoria dell'evoluzione nell'era della post-genomica

    Capitolo 3
113 Prima gli animali: l'etica entra in laboratorio

    Capitolo 4
163 Dall'eugenetica di Stato all'eugenetica consumistica

    Capitolo 5
205 La bolla del Nordatlantico

    Capitolo 6
235 La mercificazione globale della bioinformazione

    Capitolo 7
279 Medicina rigenerativa: i dolori della crescita

    Capitolo 8
315 L'incredibile ascesa delle neurotecnoscienze

    Capitolo 9
355 Le promesse prometeiche: chi ci guadagna?

395 Ringraziamenti
397 Indice analitico


 

 

| << |  <  |  >  | >> |

Pagina 3

Introduzione

Prometeo liberato?


Secondo il mito, il titano Prometeo creò dall'argilla il primo essere umano, e dopo aver rubato il fuoco agli dei lo regalò agli uomini. Per punizione fu incatenato a un palo e il suo fegato, divorato da un'aquila durante il giorno, di notte ricresceva. Mary Shelley attinse a questo mito chiamando Victor Frankenstein, il creatore del suo mostro, Il Prometeo moderno; ma non si trattava più di un dio, bensì di uno scienziato. Perché però Frankenstein fugge via, disgustato dall'essere che lui stesso ha creato? L'impresa era cominciata con le più nobili intenzioni: usare la nuova scienza dell'elettricità per ottenere la vita a partire da tessuti morti. Nelle sue stesse parole: «In uno slancio di folle entusiasmo ho dato vita a una creatura razionale, a cui sono legato per assicurarle, finché è in mio potere, la felicità e il benessere». Il mostro risponde a Frankenstein rimproverandolo di averlo rifiutato, di avergli negato l'amore e di non essersi assunto la responsabilità morale della sua creazione: «In me c'è un amore tale che tu non hai mai visto. In me c'è una rabbia a cui non riuscirai mai a sfuggire. Se non sono soddisfatto in uno, mi concederò di assaporare l'altra».

Ancora più forti si alzano le voci dei prometei contemporanei, che sostengono la fusione della biomedicina e delle biotecnologie per spiegare, curare, manipolare e trasformare l'esistenza di una ricca minoranza globale; sono diventate parte integrante delle nostre vite. La teoria dell'evoluzione offre la spiegazione dell'origine dell'uomo; la genomica si propone di spiegare le somiglianze e le differenze; le terapie geniche e le cellule staminali assicurano di curare o prevenire le malattie, o addirittura di migliorare il corpo e la mente; le neuroscienze promettono di prevedere i comportamenti, di spiegare la coscienza e, con le teorie sull'organizzazione del cervello, di "ri-essenzializzare" le differenze di genere. La genetica, con buone intenzioni anche se le conseguenze non lo sono altrettanto, ha cercato ancora una volta di "ri-razzializzare" le differenze umane.

Nel corso di questo processo, le scienze della vita si sono trasformate in una mastodontica biotecnoscienza, in cui i confini tra scienza, tecnologia, università, imprese biotecnologiche e Big Pharma sono sfumati. La conoscenza diventa proprietà intellettuale; la tecnoscienza diventa parte di un'economia globale, resa possibile dalla digitalizzazione estesasi dagli antichi centri euro-americani della cultura scientifica fino ai giganti emergenti come Cina, Singapore e India. I protagonisti principali di questi cambiamenti sono stati le grandi industrie farmaceutiche, i capitali di investimento, le società biotecnologiche, lo Stato – con i suoi interessi nella sorveglianza e nel controllo – e, come sempre, l'esercito. Le biotecnoscienze detengono poteri nuovi e formidabili che non soltanto ricostruiscono la vita, ma la costruiscono dal nulla. L'oncomouse – topolino creato dai biologi di Harvard perché sviluppi un cancro umano – è diventato l'icona della riconfigurazione dei confini, soltanto apparentemente fissati, tra natura e cultura. Il brevetto di questo essere vivente è detenuto dalla DuPont, ma l'oncomouse non è né soltanto natura né soltanto cultura: ormai solo il neologismo cultura/natura rende giustizia alle tecnoscienze della vita nel ventunesimo secolo, un "mondo nuovo" dove la vita nasce ed è creata dal nulla.

Nei capitoli che seguono racconteremo le storie che si stanno tuttora scrivendo sulla biotecnoscienza della genomica, della medicina rigenerativa e delle neuroscienze – da qui il titolo del libro: Geni, cellule e cervelli – nel quadro della cultura e dell'economia globale neoliberista del ventunesimo secolo. La genomica prende il via dal progetto più ambizioso e costoso nella storia delle scienze della vita: il sequenziamento del DNA del genoma umano. Quando ancora il Progetto Genoma Umano (Human Genome Project, HGP) muoveva i primi passi, negli anni novanta, già si progettava la creazione di immense banche dati di DNA, con l'intenzione di collegare i dati sanitari della popolazione al DNA dei singoli per individuare i "geni delle malattie" e sviluppare una medicina personalizzata. Le speranze che questo avrebbe portato a scoperte sensazionali, nella forma di nuovi farmaci, naufragarono con il fallimento, da parte di chi si occupava del sequenziamento dei geni, nel riconoscere la complessità degli uomini in quanto creature biosociali, modellate sia dalla storia evolutiva sia da quella sociale. Inoltre non è stato facile, per la genomica, fare i conti con la propria stessa storia, e in particolare con gli inestricabili legami con l'eugenetica. A mano a mano che diminuivano le speranze della genetica, emergeva una nuova prospettiva: il potenziale quasi magico delle cellule staminali umane di far camminare gli storpi e ridare la vista ai ciechi. E dopo le cellule staminali è arrivata la promessa delle neuroscienze, come terapia per curare le menti malate e disturbate e come cultura per costruire l'identità umana. Da «genes'R'us» a «neurons'R'us» nel giro di vent'anni.

Questo è un territorio nuovo, con minacce e promesse nuove. La nostra generazione è cresciuta negli anni del boom economico, quando tutti avevano un lavoro e la sicurezza fornita da un servizio sanitario pubblico era controbilanciata dalla minaccia della bomba atomica. A quell'epoca, la possibilità di una guerra nucleare – i cui effetti genetici, ammesso che ci fosse risparmiato l'annientamento completo, sarebbero durati per generazioni – conferiva a questa quotidianità apparentemente sicura un senso di precarietà.

I tumultuosi eventi del 1956 – il "discorso segreto" di Krusciov con la denuncia dello stalinismo e l'invasione dell'Ungheria da parte dei sovietici – scatenarono la più grande crisi del comunismo occidentale; soltanto nel Regno Unito, furono diecimila i membri che abbandonarono il Partito Comunista. In quello stesso anno ci fu la crisi di Suez: Francia e Regno Unito, le antiche potenze imperialistiche, con la collaborazione di Israele invasero l'Egitto come ultimi colonizzatori bianchi. Avevano però sbagliato di grosso le previsioni sulla reazione dell'opinione pubblica. Nel Regno Unito la risposta immediata e scandalizzata non arrivò soltanto dalla sinistra, dai sindacati e dai religiosi; anche l'ala destra del Partito Laburista si oppose. Da quel fermento ebbe origine una "nuova sinistra", la New Left, alla ricerca di un nuovo tipo di politica, che si radicò sul territorio con un gran numero di sezioni dove anziché indicare la strada giusta da seguire, tutte le idee erano messe in discussione. La stessa voglia di sperimentare vide la New Left stringere un'alleanza con i pacifisti, da cui nacque e crebbe la Campaign for Nuclear Disarmament (CND), il primo di molti nuovi movimenti sociali.

Θ stato come membri di questo movimento, con i suoi dibattiti, le sue dimostrazioni e le sue marce, che noi, gli autori, ci siamo incontrati per la prima volta al New Left Club di Londra, in una sede alquanto improbabile, in un locale al numero 100 di Oxford Street. Θ raro che scienziati sociali e scienziati naturali scrivano insieme, nonostante entrambi lottino con la complessità e l'incertezza; in ogni caso, il salto epistemologico richiede particolare attenzione, e la gerarchia tra le scienze è alquanto irritante. Nel nostro caso, a generare ulteriore complicazione è il fatto che viviamo insieme in una relazione eterosessuale: nonostante le conquiste del femminismo siamo fin troppo consapevoli del fatto che «la tradizione di tutte le generazioni passate pesa come un incubo sul cervello dei vivi». Il fatto che condividiamo un impegno nei confronti della democrazia e della giustizia sociale, che siamo stati influenzati dal pensiero marxista, che abbiamo preso parte a molte lotte sociali e culturali e che, tra noi, abbiamo discusso lo studio della biologia, così come della vita stessa, ha portato ben presto l'una a riconoscere la materialità del corpo e l'altro la realtà del sociale. Eppure è stato soltanto dopo aver pubblicato il nostro primo libro scritto insieme, Science and Society, nel 1969, che abbiamo capito di non avere imparato la lezione: il libro avrebbe dovuto chiamarsi Science in Society and Society in Science. La scienza non è separabile dalla società, ma ne è parte integrante.

| << |  <  |  >  | >> |

Pagina 7

Chi ci guadagna?

Marx ha chiesto: «Cui bono?». Nel mezzo di questa crisi così profonda, la domanda su chi siano i beneficiari politici ed economici del capitalismo – e ora, delle tecnoscienze capitalistiche – risuona più forte che mai. Per i banchieri, l'uno per cento della popolazione, la risposta è chiara, ma per il restante novantanove per cento? Chi trae beneficio dal Progetto Genoma Umano, dalle banche del DNA, dalla ricerca sulle cellule staminali e dalla grande espansione delle neuroscienze?

La scienza – intesa come conoscenza del mondo fisico e biologico – un tempo era percepita come indipendente dalla società e dalla cultura, sebbene nata al loro interno e come loro componente. Gli stessi Marx ed Engels vedevano la scienza come una forza portatrice di progresso all'interno della società, e allo stesso tempo riconoscevano la conoscenza prodotta come un riflesso degli interessi e dell'ideologia della classe capitalista. Questa visione fu portata avanti con entusiasmo dalla neonata Unione Sovietica, e nel 1931 Boris Hessen, membro della delegazione sovietica, all'International Congress of the History of Science che si svolse a Londra, elettrizzò una nuova generazione di giovani scienziati – già su posizioni radicali a causa delle sofferenze inflitte alla classe operaia dalla Grande depressione – con la sfida a una delle pietre miliari della fisica moderna. Il suo articolo sulle radici socio-economiche dei Principia di Newton sosteneva che il più arcano dei trattati matematici e la fisica in esso contenuta si erano sviluppati come risposta ai bisogni dell'emergente capitalismo mercantile del diciassettesimo secolo.

Tra quanti trassero ispirazione da Hessen si annovera il poliedrico cristallografo Desmond Bernal , il cui volume The Social Functions of Science, pubblicato nel 1939, diventò il testo fondamentale del movimento per il rapporto tra scienza e società. Bernal credeva che la scienza potesse portare, di per sé, al progresso sociale, ma che fosse stata corrotta dal modello produttivo capitalista. Una vera scienza per la classe operaia — una scienza proletaria, che liberasse pienamente il proprio potenziale — si sarebbe realizzata soltanto con il socialismo. Questa visione di una scienza proletaria tramontò negli anni quaranta, quando in Unione Sovietica il fraudolento agronomo Trofim Lysenko attaccò la "genetica borghese" ed ebbe il sostegno di Stalin, con il conseguente annientamento della genetica sovietica (e di molti genetisti). Con questo ingresso in laboratorio della guerra fredda, Bernal, come altri scienziati comunisti in Occidente, ritornò sui propri passi e si rivolse all'idea conservatrice della scienza come ricerca neutrale, che la società può usare o della quale può abusare. Rivolse la sua attenzione politica al grande squilibrio tra le risorse economiche destinate all'esercito e quelle per scopi civili, e cominciò una lunga campagna per la "scienza per la pace". Questo non significa che abbia abbandonato dal giorno alla notte la domanda teorica sul rapporto tra scienza e società: il suo contributo più raffinato e meno positivista doveva ancora essere pubblicato, e arrivò nel 1952 con il pamphlet Marx and Science.


L'emergere del movimento scientifico radicale

L'identità politica della scienza fu nuovamente messa in discussione durante le proteste contro la guerra in Vietnam; una frangia del movimento pacifista includeva quei biologi moralmente indignati dal fatto che la loro disciplina fosse stata reclutata per muovere una guerra mostruosa a una povera società contadina. La ricerca sugli ormoni vegetali era stata ripresa dagli scienziati militari per produrre defolianti chimici, nuove armi di distruzione biologica dirette contro le foreste, le coltivazioni e i cittadini del Vietnam. Sul finire degli anni sessanta, la rabbia dei biologi contro quello che ritenevano un uso improprio della loro scienza ribollì fino ad arrivare sulle pagine delle più importanti riviste scientifiche, nei dibattiti che avevano luogo nei campus universitari, nelle occupazioni dei laboratori (soprattutto, e in modo spettacolare, in Giappone e in Italia) e nelle manifestazioni pubbliche. Da questa rabbia nacque un nuovo movimento scientifico radicale, in parte legato alle controculture e in parte alla New Left, che sfidò l'ideologia della neutralità della scienza, richiedendone la democratizzazione: bisognava sviluppare una scienza per il popolo.

Il movimento era fluido, con legami internazionali, ma radicato nel contesto dei singoli paesi. In Italia, una forte tradizione marxista fece sì che lo scoppiettante attivismo delle occupazioni dei laboratori si accompagnasse alla forza teorica del movimento; al fisico Marcello Cini (tra i fondatori del "Manifesto"), con la sua critica alla mercificazione della scienza, fece seguito l'intervento di Giovanni Berlinguer , medico e filosofo, fratello dell'allora leader del Partito Comunista Italiano, Enrico. Gli stessi argomenti erano dibattuti all'interno di Lotta Continua e Potere Operaio. Gli scienziati francesi non furono da meno; durante gli eventi del maggio 1968, i laboratori parigini erano vuoti. Come gli italiani, anche loro si intendevano di marxismo: il fisico Jean-Marc Lévy Leblond scrisse sulla doppia ideologia, quella della scienza e quella nella scienza. La fisica Monique Couture-Cherki e la sociologa della scienza Liliane Stéhelin discussero il problema del sessismo in ambito scientifico, la prima criticando l'esclusione delle donne e la seconda rendendo esplicita l'ideologia androcentrica della scienza, in cui le donne che cercano di diventare scienziate devono mascolinizzarsi.

Negli Stati Uniti e nel Regno Unito, al contrario, nella generazione più giovane di attivisti erano pochi ad avere familiarità con il marxismo o con il movimento per il rapporto tra scienza e società. Negli Stati Uniti, l'opposizione all'escalation americana nella guerra in Vietnam voluta dal presidente Johnson nel 1965 nacque in seno al gruppo californiano Scientists and Engineers for Social and Political Action e al gruppo della costa orientale Science for the People; gli studenti fecero propaganda contro il gran numero di contratti stipulati dalle università con l'esercito, e scoprirono che il complesso militare-industriale di Eisenhower era diventato un complesso militare-industriale-scientifico, con il quale le università americane erano solidamente intrecciate. I biologi erano molto importanti nella lotta contro il razzismo scientifico e la confutazione fornita dal pamphlet collettivo Biology as a Social Weapon fu molto potente. Persone come il paleontologo Stephen Jay Gould e il genetista Richard Lewontin , entrambi marxisti, erano al contempo biologi di punta e brillanti contestatori.

Allo stesso tempo, il movimento globale per la liberazione della donna stava affinando la consapevolezza delle scienziate, in particolare delle biologhe già coinvolte nel movimento scientifico radicale in veste di scrittrici e attiviste. Queste campagne attaccavano la discriminazione in atto nelle istituzioni scientifiche nei confronti delle donne e le dannose rivendicazioni culturali fatte sulla base di una biologia sbagliata e viziata che vedeva il sesso femminile come naturalmente inferiore. La psicologa Ethel Tobach, la biologa molecolare Rita Arditti, la biochimica Ruth Hubbard e la fisiologa Ruth Bleier pubblicarono testi fondamentali in cui sfidavano la scienza patriarcale.

Nel 1969 due giovani biologi molecolari, attivi a livello politico, aprirono un nuovo fronte, che questa volta riguardava i rischi umani e ambientali prospettati dalla biologia molecolare. Entrambi genetisti ad Harvard, Jon Beckwith e James Shapiro erano gli autori più anziani di un articolo pubblicato su "Nature" sull'isolamento del primo gene, l'operone lattosio, anche detto operone lac, un'unità del cromosoma batterico. Anziché accogliere festosamente il proprio trionfo scientifico e tecnico, Beckwith e Shapiro sfruttarono l'occasione per attirare l'attenzione sui rischi intrinseci alla ricerca, in particolare sulla possibilità di manipolare i geni modificando il DNA (DNA ricombinante) e il rischio che i batteri trasformati in questo modo si diffondessero nell'ambiente, con conseguenze imprevedibili per piante, animali ed esseri umani.

La genetica molecolare, secondo i due scienziati, avrebbe offerto alla società moderna la potenzialità senza precedenti di manipolare la vita: dal punto di vista di un novello Prometeo, questo poteva risultare in un beneficio (e in un profitto) per gli esseri umani, mentre per uno scettico si trattava di una pericolosa minaccia. L'avvertimento di Beckwith e Shapiro, pertanto, alimentò la lenta crescita di un'ondata di ansie pubbliche nei confronti dei rischi posti dalle nuove biotecnologie. I National Institutes of Health (NIH, i servizi sanitari nazionali degli Stati Uniti), per tutta risposta, istituirono un comitato consultivo sul tema del DNA ricombinante, rapidamente copiato nel Regno Unito dal governo Wilson con un comitato consultivo sulla manipolazione genetica. Il comune di Cambridge, sede dell'università di Harvard, ne aveva avuto abbastanza: decise di bandire questo tipo di ricerche entro i confini cittadini. Di fronte a questa ostilità e a questo allarmismo, i biologi molecolari più importanti si preoccuparono sempre di più, anche se non era affatto chiaro se fossero più preoccupati per i rischi ecologici oppure per il futuro del loro lavoro.

Come risultato, nel 1974 Paul Berg (che presto avrebbe vinto il Nobel per le sue ricerche sul DNA) organizzò ad Asilomar, in California, un convegno unico nel suo genere a cui invitò ricercatori che si occupavano di genetica. Durante il convegno fu proposta una moratoria volontaria sulla manipolazione genetica e furono stilate le linee guida sulle strutture di contenimento, per prevenire furti e fughe di notizie. Fu inoltre un'occasione, per gli scienziati, per discutere il potenziale commerciale delle proprie ricerche. A questo fece seguito, nel 1976, la nascita della prima società di biotecnologie californiana, Genentech, fondata da un esperto di DNA ricombinante insignito del premio Nobel, Herbert Boyer, anche lui presente ad Asilomar, insieme al venture capitalist Robert Swanson. L'era dei genetisti-imprenditori stava vedendo la luce.

Anche nel Regno Unito i primi moti del movimento scientifico radicale si svilupparono in opposizione alla guerra in Vietnam. Nel 1967 i biologi, compreso Steven, partecipavano ai dibattiti che si tenevano nei campus, attaccando l'eco-genocidio messo in atto dai militari americani che usavano i defolianti come armi e l'abuso del gas lacrimogeno di tipo CS, che può avere conseguenze letali. Un'indagine compiuta da Hilary sui vietnamiti scappati a sud per sfuggire ai defolianti portò subito l'attenzione sulla probabilità (più tardi confermata) che provocassero il cancro e deformità ai feti. Un'altra ricerca studiava gli effetti dell'uso del gas CS nel Regno Unito nei tardi anni sessanta per tenere sotto controllo le insurrezioni dei nazionalisti nordirlandesi: si cominciò a fare caso al fatto che mentre gli effetti collaterali sui rivoltosi (giovani e di robusta costituzione) erano marginali, il gas provocava notevoli disagi fisici ai vecchi e ai bambini, più vulnerabili. Il gas CS, in questo contesto civile, più che un'efficace tecnologia di controllo delle masse era una questione politica fine a se stessa.

Gli scienziati della "vecchia sinistra" appartenenti al movimento per i rapporti tra scienza e società, la generazione della "scienza per la pace", accolsero a braccia aperte i nuovi attivisti, in particolare gli scienziati naturali. Inizialmente sostennero la nuova British Society for Social Responsibility in Science (BSSRS), ma poi se ne allontanarono a causa dell'impegno del movimento a favore di nuove forme organizzative non gerarchiche e per la sua posizione sulla non neutralità della scienza.

Come negli Stati Uniti, anche le femministe britanniche, a metà degli anni settanta, si risentirono per l'androcentricità del movimento e se ne allontanarono per formare dei gruppi indipendenti. Il Brighton Women and Science Group produsse Alice Through the Microscope, il gruppo di Londra pubblicò un numero speciale al femminile della rivista della BSSRS, "Science for People", e altre ancora diedero il via a una lunga campagna di critica contro le nuove tecnologie riproduttive. Nonostante ciò, le figure centrali della New Left, e soprattutto la sua rivista più importante, la "New Left Review", rimasero intrappolate in quello che il fisico (poi divenuto romanziere) Charles Percy Snow ha notoriamente definito Le due culture. La "New Left Review" ignorava la scienza sia come cultura sia come concreta forza costitutiva dell'incessante perseguimento dell'innovazione portato avanti dal capitalismo. Il più importante teorico della rivista, Perry Anderson, respinse le idee di Bernal in quanto piene di «fantasie e falsa scienza», qualcosa «che si sarebbe disperso al primo soffio del forte vento internazionale».

La giovane BSSRS era alle prime armi, senza una vera preparazione per affrontare i dibattiti teorici sulla scienza che avevano infuriato nei decenni precedenti. Si occupò più che altro di incoraggiare l'attivismo — campagne sui rischi industriali, sul quoziente intellettivo, sul cibo sicuro, sull'inquinamento — e costituì dei "science shops" in cui riunire le comunità locali e gli scienziati. Il "Radical Science Journal", di cui lo storico della scienza Robert Young era una figura di spicco, divenne, senza una precisa pianificazione, la rivista cui il movimento si ispirava a livello teorico. Secondo Young, la scienza sarebbe stata riducibile alle sue relazioni sociali — un relativismo filosofico ontologico molto al di sopra del relativismo storico e sociale — e la sua posizione fu messa in discussione con fervore sulle pagine della rivista di Ralph Miliband e John Savile, il "Socialist Register". La nuova preoccupazione teorica per la natura sociale della produzione della conoscenza scientifica diventò un problema fondamentale sia all'interno sia al di fuori del mondo accademico; molti degli scienziati sociali e naturali che erano stati coinvolti nel movimento scientifico radicale trasformarono il loro interesse in una vera e propria professione, diventando parte di una comunità accademica — in continua crescita — di sociologi della scienza e della tecnologia.

| << |  <  |  >  | >> |

Pagina 15

L'ascesa dei verdi

Nel 1962 il libro di Rachel Carson , Primavera silenziosa, aveva fatto sì che la politica internazionale cominciasse a occuparsi dell'effetto sull'ambiente dei pesticidi chimici. La Carson, quasi senza nessun aiuto, riuscì a stimolare una nuova consapevolezza politica e sociale del rischio, e a dar vita a un nuovo movimento ecologista. Le campagne che seguirono (di grande richiamo e di portata pressoché globale) videro ambientalisti abbracciare alberi e fare a pezzi OGM, e costrinsero governi e società di biotecnologie a prendere provvedimenti. Mentre succedeva tutto questo, l'opposizione alle tecnoscienze biomediche rimase relativamente silenziosa.

Furono i verdi tedeschi, negli anni settanta, a diventare leader dell'opposizione alla "genetizzazione" della medicina; erano, tra i loro omologhi europei, quelli con una base più ampia, che comprendeva ambientalisti, marxisti, femministe e varie confessioni religiose. Per gli europei in generale — e i tedeschi in particolare — l'idea di usare la genetica per individuare feti con "anormalità" sollevava lo spettro dell'eugenetica. Molte femministe, allo stesso modo, vedevano le nuove tecnologie riproduttive come un modo di aumentare il potere della scienza e della tecnologia patriarcali sul corpo delle donne; la loro opposizione faceva capo al Feminist International Network of Resistance to Reproductive and Genetic Engineering. Il Parlamento Europeo (all'epoca più progressista di oggi), incitato dai verdi tedeschi, riuscì a bloccare il programma della Commissione Europea sulla genomica umana dal nome del tutto trasparente "Predictive Medicine". La Commissione riconfezionò il progetto, mettendo da parte il concetto provocatorio di predittività, e negli anni novanta il Progetto Genoma Umano europeo fu approvato.

Trent'anni dopo Primavera silenziosa, il sociologo weberiano Ulrich Beck sviluppò la propria teoria della società del rischio, in cui questo nuovo rischio per la natura e la società si sostituiva ai vecchi rischi della precarietà sociale, che secondo lui erano stati risolti con l'introduzione del welfare, lo Stato sociale. Se l'ipotesi di Beck poteva essere valida per il solido Stato sociale tedesco, ereditato da Bismarck, si applicava molto meno bene – o non si applicava proprio – a quei paesi in cui lo Stato sociale stava retrocedendo a grande velocità. In questi paesi i nuovi rischi, anziché sostituirsi ai vecchi, si aggiungevano. Molti sociologi, tuttavia, ritennero la teoria di Beck talmente bella ed elegante da dimenticarsi di controllare se stava in piedi.

| << |  <  |  >  | >> |

Pagina 16

Il cambiamento nel sistema di produzione della conoscenza scientifica

Nell'attuale fusione di riduzionismo biomedico e tecno-ottimismo, le distinzioni storiche fra scienza e tecnologia, scienza pura e applicata, ricerca accademica, industriale e militare oggi si reggono a malapena in piedi. Nell'ambito delle biotecnoscienze, i ricercatori si muovono con scioltezza dall'una all'altra come consulenti, imprenditori, manager e azionisti; alcuni di loro potrebbero essere definiti tanto scienziati quanto capitalisti, senza timore di sbagliarsi. Con questa trasformazione nella macroeconomia politica e nei processi di produzione della conoscenza sono cambiati i valori degli scienziati: nel passato erano in gran parte "disinteressati", ossia si concentravano sulla conoscenza delle entità naturali, speravano in un riconoscimento e magari sognavano di ricevere il Nobel, ma puntavano, in fin dei conti, a ottenere uno stipendio adeguato e assicurarsi la pensione. In questo nuovo mondo invece si vuole ottenere ciò che un premio Nobel definì con entusiasmo «una vagonata di soldi», oppure diventare uno scienziato famoso, avere degli anticipi consistenti per un libro di divulgazione scientifica, avere una propria serie TV, maturare degli "interessi"... il demone tentatore della ricchezza è stato accolto con entusiasmo nei laboratori.

Gli scienziati non sono più disinteressati, e di questo problema si è molto scritto sulle pagine delle più importanti riviste scientifiche. I segreti commerciali non possono essere condivisi; alcuni ricercatori sono stati portati in giudizio per aver trasferito campioni biologici da un laboratorio universitario a un altro; gli studenti di dottorato possono lavorare su un progetto per mesi prima di scoprire di non poter andare avanti perché sono incappati in un brevetto. La competizione ha indebolito quello che un tempo era il valore della collaborazione nella comunità accademica. Gli articoli di ricerca e le richieste di fondi presentano nuove difficoltà: come si può mantenere l'oggettività della valutazione quando l'interesse commerciale di un valutatore può essere in conflitto con quelli degli scienziati esaminati? Le riviste scientifiche specializzate combattono per mantenere alti i propri standard insistendo perché gli autori rendano pubblici i propri conflitti di interesse; ma la sorveglianza non è cosa facile.

Anche le riviste hanno interessi economici: per la maggior parte infatti sono proprietà di società commerciali. La rivista "Nature", leader nel settore, è di proprietà della Macmillan, e il gigante anglo-olandese Reed-Elsevier possiede diverse centinaia delle più prestigiose riviste accademiche. "Science" porta guadagni al suo proprietario, che è la American Association for the Advancement of Science. Le biblioteche universitarie, obbligate ad acquistare queste riviste, sono appesantite dai loro costi esorbitanti; inoltre la concorrenza è spietata – si pensi al progetto editoriale open access Public Library of Science (PLoS), dove però sono gli stessi scienziati a dover pagare per essere pubblicati. Ne risulta che gli scienziati che lavorano in paesi poveri e in istituzioni poco potenti oggi possono leggere le riviste, ma le loro probabilità di riuscire a pubblicare restano molto basse.

La riscoperta dell'importanza delle norme e dei valori della comunità scientifica ha, in parte, riportato la storia e la sociologia della scienza alla tesi di Robert Merton , che aveva dominato il campo a metà del ventesimo secolo ma era stata abbandonata a partire dagli anni settanta. Merton era interessato ai modi in cui la struttura culturale della scienza garantisce un'obiettività scientifica, ossia ai valori della scienza come istituzione anziché ai valori degli scienziati come individui. A quel tempo il suo punto di vista – oggi dato per scontato – secondo cui gli scienziati, come individui, non avrebbero avuto una moralità maggiore o minore di chiunque altro, era sconvolgente. Merton, tuttavia, vedeva le regole condivise all'interno della comunità scientifica come una cosa fondamentale.

Merton individuò quattro valori chiave: il comunitarismo, in cui gli scienziati condividono le loro scoperte in ottica collaborativa, in cambio di un riconoscimento (inizialmente chiamò questo aspetto comunismo, ma per ragioni abbastanza ovvie ben presto ritoccò il termine); l' universalismo, il fatto di assicurarsi che le asserzioni siano valutate in modo imparziale, indipendentemente da fattori come la nazionalità, la razza o la religione; lo scetticismo organizzato, che richiede che tutte le asserzioni scientifiche siano sottoposte al giudizio della comunità scientifica; il disinteresse, ossia l'ipotesi che gli scienziati non siano influenzati da un guadagno materiale personale, ma che la ricompensa sia la stima dei pari.

Gli atteggiamenti contemporanei nei confronti della proprietà intellettuale minano alla base il comunitarismo, e sono radicalmente in contrapposizione al concetto iniziale di "comunismo". L'universalismo è stato messo sotto assedio da quelli che sono stati chiamati nuova giustizia sociale e nuovi movimenti identitari. Questi nuovi movimenti hanno combattuto per spirito di giustizia allo scopo di allargare la partecipazione a gruppi fino ad allora esclusi; parte integrante di questa battaglia è stata un'insistenza sull'importanza della conoscenza dal basso, inizialmente intesa come conoscenza di classe, poi anche di genere e di razza. Questo punto di vista nasce dall'appello per una scienza proletaria lanciato dai marxisti degli anni trenta, seguito più tardi da una richiesta degli scienziati radicali degli anni sessanta di una scienza per il popolo e, ancora oltre, negli anni ottanta, di una scienza femminista, una scienza nera e una scienza islamica.

Tra le teoriche del punto di vista femministe ci sono state la politologa americana Nancy Hartsock, la filosofa Sandra Harding e la sociologa inglese Hilary Rose. Ben presto sono state seguite dalla sociologa afroamericana Patricia Hill Collins, che ha messo l'accento sulla specificità delle femministe nere e, di conseguenza, del pensiero delle femministe nere. Tutte queste «conoscenze situate», come le ha definite Donna Haraway , minacciavano la dichiarazione di universalità delle scienze naturali sia come neutralità sia come oggettività. Le conoscenze situate fanno aumentare la sofisticatezza e la complessità delle scienze umane e sociali, ma per le scienze naturali sono fonte di difficoltà.

Lo scetticismo organizzato resta valido, ma con le tecnoscienze così tanto avvolte dal segreto industriale, che fa sì che i dati non possano essere condivisi e discussi apertamente, e con le grandi industrie farmaceutiche che censurano molti dati negativi o scomodi dai test svolti sui farmaci, anche questo aspetto è molto vincolato. Analogamente, non può più essere assicurato neanche il disinteresse. Non vi sono dubbi sul fatto che le norme e i valori della comunità scientifica sono cambiati fino al punto che l'obiettività, che Merton credeva fosse garantita dalla vecchia struttura della scienza, sta passando dei guai. Lo storico della scienza Steven Shapin, nella sua "storia morale di una vocazione tardo-moderna" (la scienza), pensa che il disinteresse sia sempre meno presente nell'ambiente accademico ma sia ancora presente in alcuni laboratori biotecnologici privati. Se Merton fosse ancora in vita, si sarebbe sicuramente chiesto cosa fosse successo alla garanzia di obiettività in un contesto in cui la struttura culturale e le regole della scienza sono cambiate così radicalmente con le tecnoscienze dell'era della globalizzazione.

La tesi di Merton, tuttavia, presentava dei problemi già quando è stata proposta, perché era incentrata sulla scienza accademica – e soltanto su questa. La scienza che nasce nelle università era ed è ancora la punta dell'iceberg della scienza che spunta dal pelo dell'acqua; ciò che succede al di sotto è invisibile e, spesso, è la parte più consistente. Già negli anni sessanta, quando il paradigma di Merton era particolarmente in voga, più del settanta per cento della ricerca, nel Regno Unito, era portato avanti dalle industrie o dall'esercito. Uno studio unico nel suo genere, che si proponeva di studiare le regole e i valori presenti nei laboratori industriali, scoprì che le regole mertoniane scarseggiavano; lo studio, dal titolo The Scientific Worker, fu svolto da Norman Ellis, un dottorando che lavorava con lo storico della scienza di Leeds Jerry Ravetz. Non c'era alcuna vocazione weberiana così come pensava Shapin; i ricercatori industriali non svolgevano altro che un lavoro, per quanto interessante e ragionevolmente ben pagato. Questi scienziati non erano altro che una fascia di proletariato altamente specializzata.

Anche questo riassunto suggerisce che la questione di come la società ottiene le proprie scienze e di come queste si sviluppano è molto più complicata di come volevano farci credere i filosofi della scienza classici. Ancora negli anni settanta dominava il punto di vista di Karl Popper sullo sviluppo della scienza attraverso congetture e confutazioni, basato fondamentalmente su un'interpretazione progressivistica della storia della fisica che evocava un'immagine lusinghiera molto gradita agli scienziati. Eppure, questa visione internalista non prendeva in alcuna considerazione il contesto sociale in cui la scienza si era sviluppata e aveva preso forma. Ignorare il Progetto Manhattan e la sua conclusione – il bombardamento di Hiroshima e Nagasaki – significava fare qualcosa di più che chiudere un occhio sulle dimensioni politiche legate allo sviluppo della fisica. Nei decenni che seguirono il 1945, sollecitata dalle esigenze militari legate alla guerra fredda, la spesa pubblica e privata per ricerca e sviluppo crebbe in modo esponenziale negli Stati Uniti, in Europa e nell'Unione Sovietica, e poi anche in Giappone, prima di assestarsi negli anni ottanta a circa l'1,7-2 per cento del PIL. In questi lunghi anni di crescita, un'espertocrazia appositamente incaricata controllava i budget dedicati a progetti scientifici e decideva quali fossero le priorità, nonostante un'antica tradizione volesse che, per quanto la ricerca fosse in gran parte finanziata con soldi pubblici, lo Stato e il governo stessero alla larga dalle università e dalla ricerca scientifica accademica. Non vogliamo qui descrivere le modifiche e gli assalti successivi alla teoria popperiana di Thomas Kuhn e Paul Feyerabend , ma comprendere come sia accaduto che gli scienziati – e soprattutto i fisici, che per portare avanti i loro progetti avevano bisogno di molti soldi – si siano assicurati le risorse finanziarie necessarie. Le esigenze degli Stati, dell'industria e degli eserciti: come hanno plasmato la direzione che ha preso la scienza?

La globalizzazione – industriale, economica, politica, mediatica e culturale, con la sua virtuale abolizione delle distanze spaziali e temporali – è stata centrale per la crescita delle biotecnologie nel ventesimo e nel ventunesimo secolo. Così come il fenomeno di una società del rischio emerso dallo sviluppo scientifico e tecnologico ha preceduto la sua teorizzazione da parte delle scienze sociali, come ci ricorda l'economista Amartya Sen , lo stesso è successo con la globalizzazione. La scala temporale di Sen è più lunga, e il suo intervallo di differenze geografiche e culturali è più ampio. Sulla lunga durata, sottolinea l'economista, gran parte delle prime globalizzazioni nate a oriente si è spostata a occidente; ma l'era di una globalizzazione capitanata dagli Stati Uniti sta volgendo al fine; intanto Brasile, Singapore, India e Cina stanno cominciando a mostrare i propri muscoli tecnoscientifici. Negli ultimi cinque anni, la Cina ha superato Regno Unito e Stati Uniti come più grande e più veloce sequenziatore di genomi al mondo.

La genomica non sarebbe stata possibile senza la rivoluzione informatica, a sua volta portata avanti dall'esercito statunitense, alla ricerca di una connettività su scala mondiale. Alla fine del ventesimo secolo non c'era un solo angolo della Terra, nessun aspetto della vita, che non fosse stato catturato dalla trasformazione resa possibile dalla fusione del world wide web sviluppato da Tim Berners-Lee , un civile, con il prodotto dell'esercito statunitense noto come Internet. Per inciso, oggi la Cina non è competitiva soltanto nel campo della genomica, ma anche nella cosiddetta cyber-guerra. Le scienze della vita sono state incentivate, da questa rivoluzione, a creare una nuova forma ibrida, situata in uno spazio nuovo a metà tra l'università e l'industria; le vecchie discipline della scienza e della tecnologia mutano e si fondono insieme; l'ibridismo prolifera ovunque; i laboratori industriali, con tutte le loro esigenze di segretezza, sempre più spesso sono situati all'interno dei campus universitari, con i parchi scientifici costruiti per gli spin-off universitari comodamente a due passi.

Le biotecnologie molecolari di oggi sono estremamente dipendenti dal settore informatico, con la sua capacità di confrontare e analizzare istantaneamente sequenze di proteine e di geni, progettare strutture chimiche e fare ricerche su articoli e brevetti presenti in centri di ricerca sparsi ovunque. La proliferazione internazionale delle banche del DNA è assicurata dall'informatica, e a mano a mano che le biobanche hanno bisogno di fonti di dati sempre più grandi, anch'esse promuovono strutture conoscitive sempre più globalizzate. Nell'era della globalizzazione, l'informazione biomedica, così come la stessa biologia, è mercificata.

La globalizzazione è anche la chiave del successo del complesso industriale noto come Big Pharma: le dodici più grandi aziende farmaceutiche hanno insieme un giro d'affari annuo di oltre quattrocentocinquanta miliardi di curo, e una portata globale che, continuamente, rilocalizza le attività di ricerca e le prove cliniche. La situazione tipica dell'Occidente, con costi dei test clinici in continua crescita e la costante difficoltà di trovare soggetti non ancora trattati con farmaci analoghi, ha portato le società farmaceutiche a esternalizzare i test, appaltandoli ai paesi più poveri. Questo comportamento è stato ben accolto dai governi dell'Europa dell'Est, che stanno abbracciando economie neoliberiste e hanno bisogno di capitali. L'Estonia, per esempio, presenta la propria popolazione, istruita e aperta nei confronti della scienza, come un soggetto ideale per testare dei farmaci. I dilemmi etici e politici associati agli studi sulla riproduzione umana hanno dato una nuova svolta ai problemi relativi al dove portare avanti le ricerche sulle cellule staminali embrionali umane. In questo caso, l'alternativa è tra i paesi in cui le regole sono poche o addirittura nulle e quelli in cui le regole etiche ci sono ma non sono troppo stringenti.

Gli inglesi, desiderosi di essere leader in questo settore dal punto di vista tecnico e commerciale, hanno scelto la seconda strada. Negli Stati Uniti è del tutto normale che le scelte federali possano essere in conflitto con quelle dei singoli Stati: durante la presidenza Bush era illegale l'uso di fondi federali per la ricerca sulle cellule staminali embrionali umane, ma i singoli Stati e le società private potevano fare ciò che volevano. La California non soltanto acconsentì alla ricerca sulle cellule staminali embrionali umane, ma destinò più finanziamenti di quelli che gli stessi ricercatori avrebbero potuto impiegare in modo utile. Il Texas è andato addirittura oltre, autorizzando la presenza di cliniche che fanno uso di cellule staminali, anche se il governo federale si rifiuta di approvare le procedure; e in aggiunta non ci sono impedimenti alla ricerca privata sulla clonazione umana. Nonostante l'inversione di rotta decisa da Obama rispetto al proibizionismo di Bush, la battaglia legale che ne è seguita non ha interrotto questa situazione di instabilità.

| << |  <  |  >  | >> |

Pagina 23

Democratizzare la tecnoscienza?

Il progetto politico di democratizzazione della scienza ha visto il susseguirsi di tre ondate. Nella prima, che coincise con il movimento per i rapporti tra scienza e società degli anni trenta, il progetto naufragò grazie alla guerra fredda e agli inganni di Lysenko. La seconda ondata fu costituita dal movimento scientifico radicale degli anni sessanta e settanta, parte di una più vasta ondata di movimenti sociali che chiedevano a gran voce democrazia e responsabilità, rifiutando di inchinarsi automaticamente agli esperti. Impegnati con la New Left e con il movimento scientifico radicale, credevamo che la democratizzazione sarebbe stata possibile, e che la nostra generazione avesse intrapreso una lunga marcia attraverso le istituzioni – comprese quelle scientifiche e tecnologiche. Per democratizzare la scienza, gli stessi scienziati avevano bisogno di essere più rappresentativi della popolazione nel suo insieme – soprattutto non dovevano essere in numero così schiacciante maschi e bianchi – e i processi decisionali delle politiche scientifiche dovevano aprirsi ed essere esaminati democraticamente. L'ingresso nelle istituzioni, anche scientifiche e tecnologiche, della generazione degli anni sessanta (che si fece portatrice di questi valori) provocò grossi cambiamenti.

Il movimento femminista costrinse le istituzioni a includere un numero maggiore di donne, e la loro presenza estese il processo: ne seguì che laddove la scienza biomedica si era in precedenza soffermata sui corpi maschili come rappresentanti universali della razza umana, prendendo in considerazione le donne soltanto nei contesti della riproduzione e della psicologia, si incominciarono a studiare i corpi femminili, con i loro cicli differenti. I cuori femminili, fino ad allora considerati solo come metafora dell'amore e dell'accudimento, divennero organi veri e propri da studiare insieme a quelli maschili. La globalizzazione fece sì che i grandi laboratori europei e americani diventassero multinazionali e multiculturali, ma ciò non comportò comunque un'apertura significativa nei confronti dei cittadini di colore.

La terza ondata cominciò con i verdi tedeschi nei primi anni ottanta. L'ingegneria genetica, in particolare l'uso di OGM in ambito alimentare, era vista dai verdi come la negazione delle nuove politiche che stavano cercando di costruire. Vale la pena ricordare che molti dei fondatori del partito facevano parte della generazione del 1968 e si erano confrontati in modo radicale con il passato nazista della Germania e la scienza eugenetica. Così facendo, i verdi avevano portato all'attenzione dei politici sia la questione della fiducia nella scienza sia la democrazia come risposta al problema. Punto in seguito ribadito da Beck.

| << |  <  |  >  | >> |

Pagina 28

La scienza nella nuova precarietà

Anche mentre erano in corso questi esperimenti per ristabilire la fiducia nella scienza aprendone i processi decisionali al coinvolgimento della cittadinanza, uno dopo l'altro i governi sostituirono con entusiasmo la politica economica dello Stato sociale con quella del neoliberismo. L'emergere delle società multinazionali, in grado di dividere i processi produttivi tra più paesi minimizzando i costi e massimizzando i profitti, e l'attacco contro la sindacalizzazione cominciarono a minare le stesse fondamenta su cui era costruito lo Stato sociale. Ciò che era stato prefigurato nelle crisi degli anni settanta aveva a mano a mano preso velocità: con la globalizzazione, l'indebolimento dell'ideologia collettivista e gli assalti ai risultati raggiunti dal multiculturalismo.

Con la lenta scomparsa dello Stato sociale è stato intaccato il senso di sicurezza della quasi totalità dei cittadini ed è aumentata la precarietà, dalla quale soltanto i più ricchi sono rimasti immuni. L'Europa è entrata in una nuova era di dirigismo sempre crescente, dove le priorità della ricerca sono sempre più stabilite dai programmi quadro multimiliardari dell'Unione Europea. Mentre la retorica politica urla a gran voce che le tecnoscienze biomediche porteranno immensi guadagni per la salute, la creazione di ricchezza è oggi dichiaratamente formalizzata – e senza alcuna vergogna – come l'obiettivo principale delle politiche scientifiche e tecnologiche.

La precarietà sociale è stata rafforzata dai rischi di degrado ambientale e dall'attacco ai diritti civili con cui gli Stati hanno risposto all'intensificazione degli attentati terroristici nelle città e della protesta sociale, dall'attacco alle torri gemelle alle bombe sui treni a Madrid e a Londra (che derivano direttamente e prevedibilmente dalla cosiddetta guerra preventiva in Iraq e dalla situazione stagnante in Afghanistan). Le tecnologie di queste guerre asimmetriche sono state adottate per sorvegliare le città europee e americane. Quelle che i teorici militari descrivono come "operazioni a bassa intensità" richiedono soprattutto informazioni: tutti noi sappiamo che esiste un commercio dei dati ed è impossibile non aver notato la proliferazione delle telecamere a circuito chiuso; molti però sono diventati indifferenti, mentre i più giovani resistono apertamente (le loro felpe col cappuccio un mezzo di autodifesa e i telefoni con videocamera una forma di contro-sorveglianza della polizia).

Le tecnologie emergenti, meno pubblicizzate, sono costruite al confine tra informatica e biotecnologie, tra elettronica e biologia. Sono arrivati per primi i marcatori biometrici, come i sistemi per il riconoscimento dell'iride (un dispositivo di sicurezza ormai presente in molti aeroporti). Nonostante un grosso investimento nella ricerca nel campo delle tecnologie di riconoscimento dei volti non è ancora successo granché. La richiesta degli Stati di avere informazioni sui propri cittadini è andata ben oltre la semplice registrazione delle transazioni commerciali e dei movimenti tra una città e un'altra.

L'incarnazione high-tech del Panopticon di Jeremy Bentham oggi non soltanto osserva e registra le nostre abitudini di acquisto, i movimenti e le misure biometriche, ma raccoglie i nostri dati biometrici e, soprattutto, il nostro DNA. La banca dati britannica del DNA dei criminali, la più grande al mondo, è stata limitata dalla Corte di Giustizia Europea, ma i dati elettronici sulla salute del servizio sanitario nazionale inglese, comprese le informazioni sul DNA, sono state silenziosamente mercificate, infilandole in una legislazione su argomenti sanitari di più vasta portata. Le neurotecnoscienze non stanno perdendo tempo, con le loro promesse di riuscire a leggere e a manipolare la mente, la memoria e l'intenzionalità con una scansione cerebrale. I più entusiasti affermano che le finestre sull'attività cerebrale in tempo reale aperte dall'elettroencefalografia (EEG) e dalla risonanza magnetica funzionale (fMRI) possono portare al riconoscimento di potenziali psicopatici, criminali e terroristi prima che abbiano compiuto un atto criminale. I neuroscettici mettono in discussione queste affermazioni; purtuttavia, la ricerca in questi settori è molto ben finanziata, con un esempio su tutti, dal Dipartimento della Difesa statunitense.

| << |  <  |  >  | >> |

Pagina 30

Identità e tecnoscienze biomediche

Con l'epoca moderna, le scienze della vita hanno definito – avendo ricevuto l'autorità per farlo – la "natura umana", anche se nell'ambito di questa universalità la biologia ha una storia lunga e deplorevole di individuazione nei cervelli e nei corpi umani di caratteristiche disposte in ordine gerarchico. Fin dai tempi di Darwin, la scienza intesa come cultura ha cercato di spiegare il nostro senso dell'identità. I biologi molecolari a capo del progetto di sequenziamento del genoma umano hanno ripetutamente dichiarato che il genoma completo costituirebbe l'identità umana. La storica della scienza Donna Haraway ha espresso il concetto satiricamente come «genes'R'us».

Il grande clamore pubblicitario che ha seguito il Progetto Genoma Umano sia al suo lancio nel 1990 sia al suo culmine nel 2003, ci ha accompagnato in un'era di determinismo genetico e di promesse degne di Prometeo. I discorsi sui geni hanno invaso i mezzi di comunicazione anche grazie alla brillante penna di Richard Dawkins , con la sua convinzione che non saremmo altro che robot, guidati dai nostri geni, che si muovono con difficoltà; l'azione è stata attribuita ai geni, e non è più di pertinenza degli esseri umani. La sinistra, le femministe e gli anti-razzisti hanno combattuto contro questo determinismo biologico, ma da quando John Kennedy Jr. ha sostenuto che il suo essere alcolizzato era dovuto all'avere i geni dell'alcolismo, e il genetista Dean Hamer ha dichiarato di aver trovato il marcatore genetico dell'omosessualità – immediatamente, quanto incautamente, battezzato gene dell'omosessualità o gene gay – la genetizzazione della cultura ha fatto molta strada. Ben presto sono arrivati i geni di qualsiasi cosa, dalla criminalità allo shopping compulsivo. Sul finire della prima decade di questo secolo, i genetisti comportamentali hanno sostenuto di aver trovato geni responsabili di tutta una serie di cose, dall'orientamento sessuale alla modestia femminile alle intenzioni di voto, fino al rispetto per la famiglia reale, all'«arte di Battersea Road» e all'inevitabilità di un'economia neoliberista.

Queste dichiarazioni sono entrate a far parte della cultura popolare, amplificate da mezzi di comunicazione per la maggior parte acritici. Il chiacchiericcio sui geni, con il costante riferirsi a un gene per ogni cosa, è cresciuto esponenzialmente; oggi che tutti sanno che i geni sono fatti di pezzi di DNA, la metafora ha preso il volo: si trova nei progetti dei motori BMW, nei valori principali dei conservatori di Cameron e, più recentemente, nei russi sostenitori di Putin: «Siamo un popolo vittorioso: è nei nostri geni, nel nostro codice genetico che si trasmette di generazione in generazione», ha dichiarato Putin nel suo discorso presidenziale del 2012. Θ ormai raro trovare un politico o un esperto che non invochi questa metafora quasi in qualsiasi concetto immaginabile in cui si invochino dei valori immutabili.

Le neuroscienze non sono rimaste indietro; le loro pretese di spiegare il sé, l'amore e la coscienza come localizzati in regioni cerebrali ben specifiche – una sorta di frenologia interna – sono state articolate in una serie di libri per il grande pubblico. Joseph Ledoux ha scritto Il sé sinaptico, Antonio Damasio L'errore di Cartesio; Semir Zeki , professore di neuroestetica, nel suo Splendori e miserie del cervello dice che l'amore romantico sarebbe il prodotto di un'attività neurale nel putamen e nell' insula, mentre Francis Crick , in La scienza e l'anima, sostiene che la nostra intenzionalità e le nostre azioni come esseri umani sarebbero un'illusione e che, in "realtà", non saremmo nulla se non un mucchietto di neuroni, con la coscienza racchiusa nel claustrum e il libero arbitrio nel solco cingolato anteriore. Jean-Pierre Changeux ha scritto L'uomo neuronale: considerate le attuali sensibilità nei confronti del potere direttivo del linguaggio, questa espressione fa rabbrividire, ma è stato l'esperto di autismo Simon Baron-Cohen l'ultimo a insistere, in Questione di cervello, su ciò che lui stesso definisce una differenza essenziale: l'esistenza di una donna neuronale e di un uomo neuronale, con le differenze fissate da un'ondata di ormoni che si spande nel cervello dei feti. Queste affermazioni essenzialiste sono state profondamente criticate non soltanto per la metodologia ma per le premesse sottostanti; le critiche più recenti sono state avanzate da due esponenti di una nuova generazione di neuroscienziate femministe: Cordelia Fine in Maschi=Femmine e Rebecca Jordan-Young in Brainstorm.

Oltre un secolo fa, Jean-Paul Sartre rifiutò tali affermazioni: «Non c'è una natura umana [...] l'uomo non è altro che ciò che si fa». In Il secondo sesso, Simone De Beauvoir insiste che «non si nasce donna, ma lo si diventa». Hannah Arendt parlò di «condizione umana»; anche se oggi molti preferirebbero parlare di condizioni umane, al plurale. In Il 18 brumaio di Luigi Bonaparte, Marx scrisse che «gli uomini costruiscono la loro storia, ma non come vogliono; non la costruiscono nelle circostanze che scelgono, bensì in quelle che a loro si presentano direttamente, lasciate loro in legato, trasmesse dal passato». I loro bisogni si estendono; queste circostanze «lasciate loro in legato, trasmesse dal passato», che vincolano le azioni di uomini e donne, comprendono sia la storia umana sia le attuali condizioni sociali a cui Marx si riferisce, ma anche, come insisteva il suo contemporaneo Darwin , la storia della biologia umana. Entrambi questi giganti delle teorie sociali e biologiche del diciannovesimo secolo erano radicalmente indeterministi (fatte salve la stranezza dell'idea degli stadi del progresso storico di Marx e alcune delle speranze progressivistiche di Darwin). Noi condividiamo questo indeterminismo: gli uomini possono costruirsi la propria storia, ma lo fanno in circostanze che comprendono sia la loro esistenza sociale corporea sia la loro esistenza biologica incorporata nella società.

Le voci dominanti delle scienze molecolari del ventunesimo secolo non sono soddisfatte da una tale complessità e si ritirano in una semplice narrativa biologica. I loro discorsi sono insieme essenzialisti e prometeici; vedono la natura umana come qualcosa di fissato, mentre allo stesso tempo propongono di trasformare la vita degli uomini per mezzo dei poteri reali e immaginari delle biotecnoscienze. Questi sono gli argomenti che esamineremo criticamente nei capitoli che seguono, incominciando con il Progetto Genoma Umano.

| << |  <  |  >  | >> |

Pagina 35

Capitolo 1

Dalla piccola genetica alla grande genomica


Nel 1992, all'inizio di un decennio che sarebbe stato caratterizzato da una corsa sorprendentemente breve verso il sequenziamento del genoma umano, uno dei padri dell'impresa, il genetista Walter Gilbert, tirò fuori da una tasca un CD scintillante e lo mostrò al suo pubblico annunciando: «Ben presto sarò in grado di dire: "Qui c'è un essere umano; qui ci sono io"». Al gesto teatrale di Gilbert fecero eco molti altri importanti biologi molecolari nella campagna per stimolare l'interessamento e il sostegno del pubblico nei confronti del Progetto Genoma Umano, un ambizioso sforzo congiunto, a livello internazionale, volto al sequenziamento dei tre miliardi di nucleotidi che costituiscono il genoma umano, al costo all'epoca stimato di tre miliardi di dollari (un dollaro a nucleotide). Nessuno sembrava curarsi di quante volte il coup de théβttre fosse messo in scena, che ciò avvenisse in California o all'Institute for Contemporary Arts di Londra: brandire un CD davanti a un pubblico incantato e dire che si trattava niente meno che della vita umana era un'immagine di sicura presa. Il CD, ormai del tutto familiare ai membri della società high-tech anni novanta, era stato adottato come simbolo dell'unione di cui il Progetto Genoma Umano si faceva messaggero, quella della molecolarizzazione e della digitalizzazione della ricerca biomedica. La genomica umana, nel frattempo, offriva una nuova definizione di natura umana e nuovi poteri, degni di Prometeo, di riparare se non addirittura riprogettare quella natura.


La doppia elica: riconoscimenti conferiti e dimenticati

Era trascorso molto tempo dal 1953, quando i biologi di Cambridge Francis Crick e James Watson avevano descritto l'ormai famosa struttura a doppia elica del DNA, composta di lunghe catene di quattro piccole molecole, i nucleotidi (o basi) adenina, citosina, guanina e timina (A, C, G e T). Al King's College di Londra anche il biofisico Maurice Wilkins e Rosalind Franklin, esperta di cristallografia a raggi X, stavano lavorando sulla struttura del DNA. Grazie alle scarse capacità gestionali del loro direttore di dipartimento, era stato assegnato a entrambi, separatamente, lo stesso problema su cui lavorare. Wilkins era convinto di essere il responsabile, e passò i dati fondamentali raccolti dalla Franklin alla coppia di Cambridge; lei era all'oscuro del fatto che le sue immagini dei cristalli di DNA fossero state "condivise" (o, per dirla più brutalmente, rubate) a sua insaputa e senza il suo consenso.

Con l'ultima frase del dirompente articolo di Crick e Watson pubblicato su "Nature", la carriera del DNA era iniziata: «Non è sfuggito alla nostra attenzione che la struttura specifica che abbiamo postulato suggerisce, immediatamente, un possibile meccanismo di copiatura del materiale genetico». Mentre la portata di tutto questo fu immediatamente riconosciuta dalla comunità scientifica internazionale, l'interessamento da parte del pubblico fu limitato; i media non avevano percepito l'importanza della cosa e ci vollero decenni prima che gli scienziati imparassero a usare il megafono per comunicare contenuti scientifici, impilando iperbole su iperbole e facendosi messaggeri della nascita del Progetto Genoma Umano.

Θ stato La doppia elica di Watson, nel 1968 – dopo la morte della Franklin e dopo il conferimento del premio Nobel ai tre uomini nel 1962 –, a dare il DNA in pasto al pubblico. Nel discorso di accettazione del premio, tenuto durante la cerimonia di consegna dei Nobel, nessuno aveva parlato del contributo della collega scomparsa. Il libro di Watson rivela, senza mezzi termini, l'arroganza e le ambizioni della coppia di Cambridge, le rivalità, le manovre "politiche" a proprio uso e consumo, l'appropriazione indebita di dati e la totale mancanza di correttezza nei confronti della Franklin, scienziata le cui fondamentali competenze nel campo dei raggi X avevano reso possibile l'elaborazione del modello. Molti scienziati videro in quel libro una cattiva pubblicità per la comunità scientifica, rivelando più cose sulla loro nostalgia per un'"età dell'oro" ormai perduta che sulla loro conoscenza della storia della scienza: avevano cancellato dalla memoria un numero enorme di accanite dispute del passato, fra cui la battaglia di Newton contro Leibniz per aggiudicarsi lo scettro di inventore del calcolo infinitesimale, sicuramente tra le più importanti.

| << |  <  |  >  | >> |

Pagina 43

Mappare o sequenziare?

Il DNA ha due funzioni distinte nella vita dell'individuo e della specie. Come Watson e Crick capirono immediatamente, la sua struttura a doppia elica implica che, quando l'elica si srotola, ogni filamento serve come modello per costruire l'altro, dando come risultato due molecole di DNA identiche. Questo rende possibile il trasferimento dell'informazione genetica, codificata nei filamenti di DNA, da una generazione all'altra durante la riproduzione. La seconda funzione è il ruolo nell'economia cellulare. Il codice, scritto in sequenze uniche di A, C, G e T, è letto dalla cellula tramite un intermediario, l'RNA (una molecola simile al DNA), che dirige la sintesi delle proteine. Ai tempi dell'articolo di Watson e Crick si supponeva che ogni gene codificasse una proteina specifica. Crick lo chiamava il dogma centrale della genetica molecolare: «Il DNA fa l'RNA che fa le proteine che fanno noi»; descriveva il DNA come la macromolecola dell'informazione e vedeva il flusso che va dal DNA alla proteina come un trasferimento di informazione a senso unico. Citando ancora le laconiche parole di Crick: «Una volta che l'informazione è entrata nella proteina, non può più uscirne». I biologi molecolari credevano che la conoscenza delle sequenze di DNA non avrebbe fornito soltanto la chiave per comprendere i meccanismi genetici, ma anche per intervenire su di essi, manipolando sia il metabolismo cellulare sia l'ereditarietà. Va detto che a quei tempi, ossia negli anni settanta, il sequenziamento presentava problemi tecnici enormi. Esisteva tuttavia un approccio molto più promettente: la mappatura.

Le ventitré coppie di cromosomi presenti nel nucleo di ogni cellula del corpo umano sono fatte di DNA, a sua volta formato da geni; ogni membro di ogni coppia di cromosomi è ereditato da uno dei genitori. I cromosomi sono riconoscibili uno per uno al microscopio grazie alla loro forma caratteristica. Maschi e femmine si differenziano per una coppia di cromosomi: le femmine hanno due cromosomi X, i maschi un cromosoma X e uno Y; le altre coppie sono numerate da uno a ventidue. Molto tempo prima che si sapesse che i cromosomi sono fatti di DNA, erano state elaborate tecniche pionieristiche di mappatura dei geni lungo i cromosomi nell'organismo che a lungo è stato il preferito dai genetisti, ossia il moscerino della frutta. Mappare e individuare i geni nei cromosomi umani era tecnicamente molto più difficile, ma l'interesse clinico legato all'individuazione di geni associati a malattie fece sì che questo diventasse una priorità per la ricerca degli anni settanta, nel corso dei quali sono stati mappati in particolari regioni cromosomiche numerosi geni di questo tipo.

Nei decenni che seguirono la formulazione del suo dogma centrale, l'elegante chiarezza degli slogan di Crick diventò sempre più confusa: non soltanto i flussi di informazione erano meno unidirezionali di quanto lui avesse immaginato, ma era ormai chiaro che i geni che codificano proteine sono soltanto una percentuale minima (meno del due per cento) del DNA del genoma umano. Il restante novantotto per cento di DNA fu soprannominato con spregio dai biologi molecolari "DNA spazzatura", perché si pensava che avesse poche funzioni biologiche, o addirittura nessuna. Perché allora sequenziare l'intero genoma – come proponeva il Progetto Genoma Umano – se gran parte della sequenza era "spazzatura"? La definizione si dimostrò essere profondamente ingannevole, con conseguenze dolorose per chi sperava che il Progetto Genoma Umano sarebbe diventato il "libro della vita" (come vedremo nel prossimo capitolo). Ai tempi in cui si stava contemplando il progetto, tuttavia, erano i geni e non la "spazzatura" a offrire speranze cliniche e aumentare le probabilità di ottenere in futuro dei brevetti.

All'incirca settemila patologie diverse sono trasmesse per ereditarietà mendeliana; alcune di queste sono estremamente rare e colpiscono soltanto alcune famiglie in tutto il mondo, altre sono comuni, come la fibrosi cistica che colpisce in Europa un neonato su tremila, o altre ancora più gravi, come l'anemia falciforme che colpisce due neonati africani su cento. Queste patologie sono trasmesse attraverso una singola mutazione che colpisce uno dei molti geni coinvolti nei processi biochimici disturbati dalla malattia. In alcuni casi, il gene mutato è dominante: una copia (allele) è sufficiente a causare la patologia; in altri, il gene è recessivo e sono necessarie due copie, una ereditata da ciascun genitore. Una persona è detta omozigote se possiede due copie identiche del gene, ed eterozigote se ne ha soltanto una. Alcuni difetti come il daltonismo, e malattie come la distrofia di Duchenne sono trasmessi da un gene recessivo che è presente nelle donne XX, ma si manifesta soltanto nei maschi XY.

Laboratori in tutto il mondo erano alla ricerca di questi geni associati alle malattie, con uno scopo immediato: una volta trovato, o almeno mappato, il gene in questione, sarebbe stato possibile produrre un test (brevettabile) per la diagnosi o le analisi, cosa che avrebbe portato profitti immensi alle imprese biotecnologiche.

| << |  <  |  >  | >> |

Pagina 69

Il fallimento e alcune delle ragioni per cui si è verificato sono ben riassunti in un articolo del genetista molecolare Eric Lander, una delle figure chiave nella storia del Progetto Genoma Umano, in un articolo celebrativo pubblicato su "Nature":

La nostra conoscenza dei contenuti del genoma umano, nel 2000, era sorprendentemente limitata. La stima del numero di geni che codificano le proteine era troppo variabile. Si pensava che l'informazione per codificare le proteine fosse molto più significativa di quella regolatoria e che quest'ultima fosse costituita per la maggior parte da una manciata di promotori e di enhancers per ciascun gene. Il ruolo dell'RNA non codificante era in gran parte confinato a pochi, classici processi cellulari [...]. Un decennio più tardi, sappiamo che tutte queste affermazioni sono false. Il genoma è di gran lunga più complesso di quanto si immaginasse, ma anche molto più comprensibile, perché le nuove scoperte ci aiutano a immaginare come potrebbe evolvere e funzionare.

Nonostante questo, Lander rimane ottimista su alcune cose: sebbene nell'ultimo decennio i benefici per la salute abbiano tardato ad arrivare (nella migliore delle ipotesi), è convinto che i genetisti abbiano imparato la lezione giusta, che acquisiremo una migliore comprensione di malattie comuni come il diabete di tipo 2, il cancro, le patologie renali e i disturbi psichiatrici, e che la medicina genomica si stia davvero muovendo «dalle coppie di basi ai letti d'ospedale».

Questo riconoscimento tardivo di ciò che non fu compreso dieci anni fa sarebbe una vera e propria sorpresa per quei biologi che a lungo hanno sostenuto che, a loro rischio e pericolo, i genetisti molecolari stavano ignorando tutti gli altri aspetti della biologia e in particolare l'evoluzione, la selezione naturale darwiniana e lo sviluppo. Genetisti evolutivi e delle popolazioni di rilievo come Ernst Mayr, Francisco Ayala, Stephen Jay Gould e Richard Lewontin, biologi dello sviluppo come Anne McLaren e persino sociobiologi come E.O. Wilson da tempo sono critici nei confronti di questo tipo di riduzionismo molecolare che vede il progetto complessivo delle scienze della vita come volto alla disaggregazione: frazionare la natura in parti costituenti sempre più piccole, spiegando fenomeni macroscopici, di "alto livello" – come lo sviluppo o il comportamento –, con gli strumenti di scienze specializzate su livelli più bassi, come la biochimica. Come avrebbe detto Michel Foucault, la genomica non ha esteso e intensificato lo sguardo biomedico: è successo invece (come vedremo meglio nel prossimo capitolo) che il progetto di disaggregazione ha perso di vista l'organismo in quanto tale, per non parlare del suo essere connesso nel tempo all'intero sistema socio-ecologico (sia nel ciclo di vita di un dato individuo, sia per quanto riguarda l'evoluzione della specie nel suo complesso). Finché le scoperte del Progetto Genoma Umano, per quanto forti siano gli interessi economici che le circondano, non saranno integrate a queste prospettive, i benefici per la salute resteranno nella migliore delle ipotesi vaghi, e nella peggiore soffriranno della ripartizione dei fondi che questa frammentazione comporterà.

Eppure i normali libri di testo di biologia molecolare continuano a ignorare questi "livelli più alti" di organizzazione biologica. Il riferimento di Lander all'evoluzione è in contrasto con l'influente Biologia molecolare del gene, di Watson e colleghi, che menziona Darwin soltanto una volta, in un capitolo intitolato La visione mendeliana del mondo, e non fa alcun cenno alla selezione naturale. Biologia molecolare della cellula di Bruce Alberts cita la selezione naturale soltanto una volta in milleseicento pagine. Questa comune tendenza a ignorare l'evoluzione ha dato forma al riduzionismo – sia in quanto metodo, sia come atteggiamento filosofico – di molte generazioni di biologi molecolari. A partire da Crick e Watson, i biologi molecolari hanno avuto una fiducia incrollabile nel fatto che disaggregare organismi e cellule avrebbe portato a conoscere la vita, un passaggio che possiamo paragonare soltanto a quello da fisica atomica a subatomica. Il loro programma, che metteva il DNA al centro di tutto, ha trionfato non soltanto fra gli scienziati ma, tramite loro, anche fra i politici, i finanziatori, le fondazioni di ricerca e le grandi industrie farmaceutiche che hanno fornito le risorse economiche fondamentali per il progetto di "molecolarizzare la vita".

Il Progetto Genoma Umano non si è semplicemente appoggiato alle tecnologie molecolari e all'informatica: questo tipo di sguardo sulla natura della vita ne è una parte costituente, perché il progetto dipendeva da una visione fortemente riduzionista degli organismi viventi. Gli esseri umani e le altre creature sarebbero comprensibili riducendoli ai loro costituenti molecolari e questi, su tutti il DNA, sono descritti come macromolecole di informazione. Sviluppatasi contemporaneamente alla biologia molecolare, la tecnologia informatica, con gli apporti della teoria dell'informazione, non ha fornito solo la strumentazione e la potenza di calcolo, ma anche le metafore organizzative all'interno delle quali sono stati analizzati i dati e create le teorie. Come in molti altri casi è stato Richard Dawkins a dirlo nel modo più chiaro: la vita è digitale e non analogica. Crick può aver coniato la metafora informatica, ma è stato Dawkins a portarla alla sua logica conclusione. Consideriamo per esempio l'euforia che pervade questo passaggio dell' Orologiaio cieco, in cui l'autore descrive un salice che sparge i semi fuori dalla sua finestra: «Sta piovendo DNA [...] Stanno piovendo istruzioni, là fuori; stanno piovendo programmi; stanno piovendo algoritmi contenenti istruzioni sulla crescita degli alberi, sulla propagazione di semi contenuti in soffici batuffoli di cotone. Non è una metafora, è la pura verità. La cosa non potrebbe essere più evidente se stessero piovendo dei floppy disk».

Se Dawkins avesse scritto una decina di anni più tardi, negli anni novanta, avrebbe fatto piovere i CD di Gilbert. Il suo stile è ottimo, divertente da leggere e ha trovato un suo spazio nelle antologie di prosa scientifica; tuttavia, per un lettore che preferisca evitare la retorica, queste frasi sono problematiche. Dichiarare che una metafora non sarebbe una metafora, e che anzi si tratta della pura verità ha il sapore di quella certezza quasi religiosa che, in qualsiasi altro contesto, lo stesso Dawkins ritiene così discutibile. Il dogma centrale di Crick era stato pronunciato con una certa dose di prudente ironia, ma Dawkins non è ironico: insiste sulla verità pura e semplice dell'"Illusione del DNA".

Il prezzo di questa illusione, per la teoria biologica e per le speranze e le montature del Progetto Genoma Umano, diventerà più chiaro nel prossimo capitolo.

| << |  <  |  >  | >> |

Pagina 282

Nel corso del trentennio trascorso da quando è stata ventilata l'ipotesi di usare cellule staminali embrionali umane per riparare danni causati da ferite e malattie, i dibattiti etici e religiosi sono stati intensi. I pro-vita, siano cattolici o evangelici fondamentalisti, insistono che un embrione ha lo stesso status morale di un bambino, e quindi l'uccisione di un embrione, per mezzo dell'aborto come nell'ambito di una ricerca, è un vero e proprio omicidio. Molte femministe laiche sono contrarie alla ricerca, ma su basi completamente diverse: sono preoccupate per la libertà riproduttiva della donna e non dello status morale dell'embrione. Per il network femminista internazionale Hands Off Our Ovaries ("giù le mani dalle nostre ovaie"), il nodo della questione sta nel fatto che gli embrioni provengono — e non c'è scampo — soltanto dai corpi delle donne, che in questo modo sono sfruttati come produttori di materiale per la ricerca. Nei gruppi di ricerca sulle cellule staminali embrionali umane si ripropone l'alleanza tra i due personaggi che, per primi, hanno praticato la fecondazione in vitro: l'embriologo Robert Edwards e il ginecologo Patrick Steptoe (il custode degli embrioni). Il problema etico è se sia sufficiente la barriera esistente tra la cura clinica della paziente-donna e la stessa donna vista come fornitrice di un prezioso ovulo. Una donna che vuole a tutti i costi un bambino si sente obbligata nei confronti del suo ginecologo? Il suo consenso informato è volontario come vuole il Codice di Norimberga?

Per alcuni anni, come risultato di un'alleanza efficace tra i religiosi, i verdi, le femministe e i laici contrari, e con il sostegno del noto filosofo Jόrgen Habermas, la Germania ha mantenuto una posizione di totale opposizione alla ricerca sulle cellule staminali, considerandola incompatibile con la dignità umana. Questo concetto morale fondamentale è incastonato nella Costituzione della Germania federale — in gran parte dettata dagli Alleati dopo la fine della guerra — che echeggia la Dichiarazione universale dei diritti umani del 1948 dell'ONU nel mettere al centro la dignità umana e i diritti umani. Recentemente ci sono stati dei tentativi di aggirare questo divieto, ma sono stati bloccati. Quando il Presidente dei ministri della Renania settentrionale-Vestfalia, nel 2001, visitò Israele per istituire una collaborazione in materia di ricerca su cellule staminali embrionali tra Bonn e Haifa, dove le leggi sono molto meno restrittive, non incontrò il favore dell'opinione pubblica e l'iniziativa fu rifiutata con fermezza dal Parlamento. Negli anni successivi, la Germania — spinta dai ricercatori, incoraggiata da chi era a favore della creazione di ricchezza e sempre più legittimata da una nuova generazione di bioeticisti meno concentrati sull'idea della dignità umana — lentamente passò da una posizione di opposizione totale a una di sostegno della ricerca sulle staminali umane. Queste "trattative" sono state analizzate dalla sociologa Barbara Prainsack e dai suoi colleghi come un processo in cui «i discorsi etici sono stati trasformati in discorsi strumentali sul valore della ricerca. Domande che si pensava fossero proprietà di tutti sono diventate, in altre parole, tematiche riservate a un'élite di tecnici». Il nuovo criterio, alla fine dei conti, è stato quello della "buona scienza".

I sociologi non colgono il patetico ripetersi della storia: continuare a insistere sul fatto che gli embriologi stavano semplicemente facendo della "buona scienza", come qualsiasi altro ricercatore biomedico ovunque nel mondo, è una riproposizione della difesa dei medici nazisti durante il processo di Norimberga. Non sembra sia stato ancora compreso che Norimberga, e in seguito Helsinki, hanno stabilito che senza ragioni estremamente serie non dovrebbero mai essere compiuti esperimenti su esseri umani che non siano già stati testati sugli animali. E per molti dei disturbi che i ricercatori sulle cellule staminali embrionali si sono offerti di studiare, come le malattie del motoneurone – uno dei primi progetti di ricerca sulle cellule staminali embrionali avviati nel Regno Unito – c'erano già buoni modelli animali che sarebbe stato opportuno sfruttare prima di fare esperimenti sugli embrioni umani. I ricercatori hanno parlato apertamente di quanto, nelle discussioni con i politici, avessero sottolineato che, considerata la forza del movimento animalista, sembrava meno problematico dal punto di vista politico lavorare su esseri umani. Di conseguenza, i ricercatori che lavoravano su cellule staminali animali si sono lamentati di aver avuto più difficoltà a trovare fondi rispetto a quanti lavoravano su cellule staminali embrionali umane.

[...]


Sul finire degli anni duemila, dal momento che nonostante le molte dichiarazioni la genomica non aveva ancora trasformato la sanità, le speranze e le spinte promozionali che dieci anni prima ammantavano il Progetto Genoma Umano erano state trasferite sulle cellule staminali embrionali umane.


Perché le cellule staminali embrionali umane?

La "promessa" delle cellule staminali embrionali umane ha preso forma dall'unione di tre aree di ricerca e sviluppo in campo biomedico che risalgono a più di un secolo fa: lo studio dei processi dello sviluppo dell'embrione; lo sviluppo delle tecniche di coltura dei tessuti prima per preservare e poi per clonare le cellule; le possibilità di curare ferite o tessuti malati con i trapianti. Le tecniche di coltura dei tessuti e quelle di trapianto sono state messe a punto sugli animali e poi trasferite nelle cliniche umane. L'embriologia, invece, è stata per i primi cinquant'anni una scienza di base: la ricerca era svolta nell'ambito di un appassionato dibattito filosofico tra i vitalisti e i meccanicisti, con i primi che sostenevano che nello sviluppo sarebbe stato in azione uno specifico processo vitale, uno "slancio vitale" non riducibile a meccanismi fisici e chimici. All'inizio degli anni venti del Novecento, tuttavia, i meccanicisti avevano vinto la partita: lo sviluppo embrionale, conclusero, era un processo fisico e chimico. Avevano trionfato a tal punto che negli anni novanta il noto biologo dello sviluppo Lewis Wolpert sosteneva che l'embrione sarebbe stato computabile, ossia riducibile a un insieme di istruzioni iscritte nel programma del suo DNA. Se le cose stessero davvero così, il Progetto Genoma Umano avrebbe dato tutti i risultati invocati dai suoi sostenitori.

Ripercorrere le scoperte di questa scienza (solo apparentemente) di base mostra come essa sia diventata il progenitore dell'industria delle cellule staminali di oggi. La domanda degli embriologi era semplice da porre, ma difficile da trattare in ambito sperimentale. Se una lucertola perde la coda ne può crescere una nuova (proprietà nota come plasticità), ma gli esseri umani non possono far crescere arti nuovi: gli sforzi di trovare un modo di riparare tessuti danneggiati hanno una storia lunga. Perché i mammiferi non sono come gli anfibi o i rettili? Nei mammiferi, come negli anfibi, le cellule embrionali hanno il potenziale di svilupparsi in una qualsiasi cellula adulta, ma questa capacità, parzialmente conservata negli anfibi, nei mammiferi adulti si perde completamente. Θ vero che alcuni tessuti del corpo umano, come la pelle o il fegato, possono auto-medicarsi se il danno non è eccessivo, e cellule nuove possono sostituire quelle danneggiate o morenti; nella maggior parte dei casi, tuttavia, i danni sono permanenti (è così per il cuore e per il cervello ad esempio). Ecco perché la causa immediata di molte patologie e disturbi è insita nella morte o nel danneggiamento di cellule specifiche: gli attacchi di cuore danneggiano le cellule del cuore; il morbo di Parkinson origina dalla morte di un gruppo di cellule nervose in una regione sepolta nelle profondità del cervello, la substantia nigra; la distruzione dei nervi nel midollo spinale risulta in vari livelli di paralisi che cambiano a seconda del punto del midollo in cui ha luogo la lesione; le cellule morte sono sostituite da tessuto cicatriziale.

Per comprendere come mai si verifichi questa perdita di plasticità, i biologi della fine del diciannovesimo e dell'inizio del ventesimo secolo si misero a studiare il processo dello sviluppo, inizialmente in cellule uovo vive dei ricci di mare e poi in rane e rospi, dove le trasformazioni da uovo fecondato a girino ad adulto pienamente sviluppato sono facilmente osservabili al microscopio e possono essere compiute manipolazioni sperimentali rimuovendo con delle pinzette singole cellule durante i vari stadi dello sviluppo. Le regole generali derivate da questi esperimenti dicevano che, poco dopo il concepimento (la fusione di cellula uovo e spermatozoo), l'ovocita fecondato comincia a dividersi, e dopo circa cinque giorni (negli esseri umani) è ormai una pallina contenente alcune centinaia di cellule embrionali chiamata blastocisti – il precursore dell'embrione. Nei primissimi stadi della divisione cellulare è possibile prelevare una singola cellula senza influire sullo sviluppo delle rimanenti in un adulto pienamente funzionale – risultato che i vitalisti portavano a sostegno della propria tesi: l'organismo, apparentemente, aveva il potere di superare la ferita. Per contro, se le cellule erano rimosse in fasi successive dello sviluppo, il feto risultava danneggiato in modo permanente – risultato che piaceva ai meccanicisti perché implicava che l'embrione ferito non sarebbe stato in grado di riorganizzarsi. Ci vollero molti anni di pazienti esperimenti per mettere d'accordo queste scoperte apparentemente incompatibili. La risposta, come spesso accade in biologia, è che "tutto dipende", tra le altre cose, dallo stadio in cui è compiuta l'ablazione e dall'organismo scelto per gli esperimenti. Un'attenzione che i biologi condividono con quanti studiano i sistemi sociali umani.

La conclusione che mise d'accordo tutti fu – ed è ancora – che nei primissimi stadi dello sviluppo una singola cellula della blastocisti può generare ogni tipo di cellula adulta, in altre parole è totipotente. Queste sono le cellule staminali. A mano a mano che si dividono, aumenta gradualmente il numero di vincoli al modo in cui possono svilupparsi: da totipotenti diventano pluripotenti e si consacrano infine ai propri destini di nervo, muscolo o quant'altro. Per inciso, sebbene destino sia un termine tecnico usato dai biologi dello sviluppo, la sua risonanza ben più ampia riflette ancora il dibattito tra vitalisti e meccanicisti. Nel corso dei nove mesi dal concepimento alla nascita, le cellule inizialmente indifferenziate della blastocisti si trasformano nelle molte cellule specializzate (più di duecento) contenute nel corpo umano – fegato, muscoli, cervello...

| << |  <  |  >  | >> |

Pagina 315

Capitolo 8

L'incredibile ascesa delle neurotecnoscienze


Due decenni

Gli anni novanta non furono soltanto il decennio del genoma umano. Silenziosamente, senza troppi squilli di tromba, i National Institutes of Health americani annunciarono che sarebbe anche stato il decennio del cervello. Sempre qualche passo indietro rispetto agli Stati Uniti, le agenzie europee adottarono lo stesso slogan solo a metà degli anni novanta. Su entrambe le sponde dell'Atlantico, tuttavia, mancava un obiettivo preciso: nessun equivalente, per quanto riguarda il cervello, del sequenziamento del genoma da parte del Progetto Genoma Umano; nessuna conferenza stampa di Clinton e Blair alla fine del decennio per annunciare che il cervello era stato "risolto". Si registrò solo (cosa probabilmente più significativa per i neuroscienziati, sempre più numerosi) un notevole aumento dei finanziamenti da parte degli Stati, delle case farmaceutiche, delle fondazioni e dell'esercito; il risultato fu che, al volgere del millennio, i ricercatori affermavano che le neuroscienze stavano entrando nel "decennio della mente" e i cataloghi delle case editrici pullulavano di libri che proclamavano il neuroessenzialismo (o riduzionismo neurobiologico). Eppure il 2011, anno in cui disturbi mentali e nervosi furono diagnosticati a livelli mai raggiunti prima, fu anche l'anno in cui le più grosse case farmaceutiche che facevano ricerca e sviluppo e mettevano in commercio farmaci psicotropi dichiararono che si stavano ritirando da quel campo per concentrarsi su patologie più docili, e in particolare sul cancro, dove i guadagni erano sicuri.

Questo capitolo parla di questo ventennio e si chiede come mai le neuroscienze siano state tanto favorite. Per i neuroscienziati si è trattato del raggiungimento dell'ultima frontiera della biologia: comprendere il cervello umano e, attraverso il cervello, la mente. Per la psichiatria, i progressi nella genomica e nelle neuroscienze hanno alimentato la promessa fatta negli anni cinquanta di fornire agli psichiatri le basi scientifiche che da tempo cercavano, per essere finalmente su un piano paritario rispetto a medici e chirurghi. Fin dalla nascita di questa nuova psichiatria biologica, negli anni cinquanta, l'industria farmaceutica è stata parte integrante del processo. A mano a mano che le malattie mentali si diffondevano e diventavano più costose, i nuovi farmaci promettevano ai pazienti terapie di una forza ineguagliata, e ai governi un enorme potenziale di arricchimento. Oggi, anche se le grandi industrie farmaceutiche hanno riconosciuto che la neurofarmacologia non ha mantenuto le sue promesse, apparecchi neurali finora neanche immaginati sono stati introdotti sul mercato da società neurotecnologiche appena nate dall'ibridazione tra mondo accademico e industria, proprio come è stato per le società di biotecnologie.

Sul finire del "decennio del cervello" dei National Institutes of Health, gli incontri annuali dell'American Society for Neuroscience (ASN) attiravano circa trentacinquemila partecipanti da tutto il mondo (l'equivalente europeo non superò mai gli ottomila), non soltanto dai laboratori di ricerca universitari o dalle case farmaceutiche, ma anche i rappresentanti delle neonate imprese neurotech e alcuni militari, per certi versi un po' più defilati. Per inciso, i rapporti esistenti fra questi settori erano così intricati che era possibile trovare ricercatori di altissimo livello con mani, piedi, stipendi e fondi per la ricerca in tutti e quattro gli ambiti allo stesso tempo. Le neuroscienze, ora diventate una tecnoscienza in piena regola, continuarono a espandersi nel corso del decennio successivo, comparendo al fianco dell'illustre genomica nelle priorità delle agenzie nazionali e internazionali e nell'immenso programma quadro dell'Unione Europea. Esercizi di perimetraggio come il Foresight Report nel Regno Unito ravvisarono in questo settore uno dei principali ambiti di crescita, maturo per cominciare a produrre ricchezza. Negli Stati Uniti il National Research Council sottolineò il potenziale delle neuroscienze cognitive e delle tecnologie ad esse collegate, anche se il Congresso accantonò la proposta di istituire un'iniziativa per le neurotecnologie a livello nazionale. L'industria delle neurotecnologie raggiunse un alto livello di organizzazione e nel 2010 Zack Lynch, fondatore della statunitense Neurotechnology Industry Organisation, dichiarava di essere il portavoce di più di un centinaio di società. Lo stesso anno il Neurotech Business Report calcolò che il settore aveva un giro d'affari di 4,3 miliardi di dollari, destinati a salire a 10,2 nel 2014.

Nel decennio della mente, le dichiarazioni dei neuroscienziati si fecero sempre più esagerate, molto più di quelle fatte da Koshland all'inaugurazione del Progetto Genoma Umano (sul fatto che avrebbe risolto ogni cosa, dalla schizofrenia al problema dei senzatetto) e più ancora di quelle dell'editorialista del "Guardian" secondo cui le cellule staminali avrebbero consentito allo zoppo di camminare e al cieco di vedere. Le neuroscienze, secondo i loro sostenitori, non soltanto avrebbero sconfitto le malattie psichiatriche e neurologiche, ma avrebbero affrontato l'ultimo, grande mistero della vita lasciato irrisolto dal neodarwinismo, quello della coscienza umana. Avrebbero spiegato la moralità, il senso del sé e le origini dell'esperienza religiosa, e fornito un nuovo schema in cui l'amore romantico, l'etica, il diritto e persino l'esperienza estetica e la critica letteraria avrebbero avuto una propria localizzazione all'interno del cervello. Sembrava che si stesse costituendo una nuova frenologia interna.

Per i neuroscienziati di punta, non c'era più un problema mente-cervello. Francis Crick disse: «Non siamo niente se non una manciata di neuroni». Il premio Nobel Eric Kandel — un tempo psicoanalista, ma oggi ricercatore arci-riduzionista che si occupa della memoria il cui organismo di riferimento è una lumaca di mare californiana — ha dichiarato in modo analogo: «Siamo il nostro cervello». Per un neurofilosofo come Patricia Churchland, l'agenda dei riduzionisti è chiara; il linguaggio di quella che chiamano, in modo dispregiativo, psicologia popolare, deve essere spazzato via e sostituito dalla precisione della neurocomputazione. In modo non dissimile, lo psicoanalista Mark Solms suggerisce che le neuroscienze siano progredite così tanto che è giunto il momento di tornare al progetto freudiano originale, biologico, di localizzare i problemi della psiche nei processi cerebrali. Persino il Dalai Lama ha accolto con entusiasmo gli sforzi dei suoi seguaci americani neuroorientati di dimostrare l'efficacia della meditazione producendo immagini dei processi cerebrali coinvolti. Per molti filosofi ed esperti di etica, i progressi delle neuroscienze hanno fatto insorgere nuovi problemi e, con essi, la possibilità del nuovo campo (o forse, anche in questo caso, dell'impresa) della neuroetica. Se le neuroscienze hanno dimostrato che la mente non è altro che il prodotto epifenomenico dei processi cerebrali, che ne è dei concetti di libero arbitrio e autonomia? Sia gli esperti di etica sia i neuroscienziati continuano a inquadrare la questione nel linguaggio della filosofia tradizionale anziché in quello più nuovo, contestualizzato sociologicamente, della human agency.

Se le azioni umane sono il prodotto di specifici processi cerebrali, che ne è del concetto giuridico di responsabilità? Alcuni neuroscienziati sono a proprio agio con quello che è stato felicemente descritto nei termini di un "riduzionismo senza pietà", che relega la coscienza ai processi molecolari che hanno luogo in specifiche regioni della corteccia cerebrale. Altri hanno truccato le carte, un po' come ha fatto Dawkins con la tirannia del gene egoista. Per Gerald Edelman, premio Nobel e immunologo che ha cominciato a fare ricerca sulla coscienza: «Siamo il nostro cervello — più il libero arbitrio». Il neurofisiologo Benjamin Libet, che ha dimostrato che la decisione di agire è "presa" dal cervello diversi decimi di secondo prima che il soggetto dichiari di aver coscientemente scelto quella strada, escogita una scappatoia, ipotizzando che, anche se il libero arbitrio non esiste, una persona abbia da qualche parte nel proprio campo mentale conscio un "potere di veto"' in grado di revocare le decisioni del cervello.

Avendo apparentemente risolto il problema mente-corpo, le neuroscienze erano fiduciose che, con più risorse per la ricerca, avrebbero potuto scoprire nuove terapie efficaci per il numero sempre crescente di individui a cui erano diagnosticati disturbi mentali e neurologici, dalla depressione all'Alzheimer; quest'ultimo già allora affliggeva settecentomila individui soltanto nel Regno Unito, e le proiezioni suggerivano che nel 2020, con l'invecchiamento della popolazione, il numero sarebbe raddoppiato. L'OMS annunciò una pandemia mondiale di depressione e, nel 2011, riportò che i disturbi mentali e del sistema nervoso costituivano il tredici per cento delle malattie a livello mondiale. Nonostante i notevoli sforzi di Big Pharma, sembra che il mondo stia diventando sempre più mentalmente disturbato. Quella che trent'anni fa era una diagnosi rara, il disturbo bipolare, oggi affligge un americano su quaranta. Nel Regno Unito la sindrome da deficit di attenzione e iperattività (attention deficit hyperactivity disorder, ADHD), che affliggeva forse un bambino su cinquecento negli anni ottanta, oggi è, secondo le stime, venticinque volte più comune. Nel 2011 lo European Brain Council ha calcolato che in Europa il trentotto per cento della popolazione (centosessantacinque milioni di persone) ogni anno sviluppa un disturbo mentale, con un costo annuale di ottocento miliardi di euro (il ventiquattro per cento del budget sanitario europeo); è stato ammesso, tuttavia, che molti di questi centosessantacinque milioni di casi non saranno riconosciuti e non saranno trattati.

| << |  <  |  >  | >> |

Pagina 323

Neuroscienza o neuroscienze?

Nonostante il nome, le società statali e le riviste scientifiche internazionali, la neuroscienza non esiste in quanto scienza singola, come la genomica: il termine fu coniato negli anni sessanta da alcuni scienziati visionari (il più importante dei quali è il neurofisiologo del MIT Francis Schmidt) con la precisa intenzione di riunire sotto lo stesso cappello i molti modi diversi in cui si stavano studiando il cervello e il sistema nervoso, dalla neurologia alla psicologia, dalla farmacologia alla fisiologia e all'anatomia, dalla biologia molecolare alla genetica.

Furono due le tecnologie che, più di tutte, aiutarono le neuroscienze negli ultimi decenni: la genomica e l'informatica, la prima affrontando il cervello dal basso, la seconda dall'alto. Dal basso, i progressi nella genomica umana hanno aperto la possibilità di dare la caccia non soltanto ai geni responsabili delle malattie, ma anche a quelli associati a caratteristiche umane come il carattere, l'ansia e la fiducia in se stessi. I geni possono essere inseriti o tolti dai topi, più o meno come si vuole, per costruire modelli animali che imitino patologie psichiatriche e neurologiche tipiche degli esseri umani. Le neuroscienze molecolari stanno tracciando una mappa delle intricate interazioni delle proteine complesse che si autoassemblano a dare le centinaia di miliardi di neuroni e le centinaia di milioni di miliardi di connessioni che li uniscono tra loro e costituiscono il cervello dell'uomo adulto. Progressi straordinari nel campo della microscopia consentono ai ricercatori di osservare direttamente la dinamica della crescita e del ritiro di queste connessioni e addirittura il passaggio di molecole di segnalazione in un cervello umano vivo.

Dall'alto, le finestre sul cervello umano aperte dalle tecniche di imaging della risonanza magnetica funzionale (fMRI), della tomografia a emissione di positroni (PET) e della magnetoencefalografia (MEG) possono essere sfruttate non soltanto per localizzare regioni del cervello danneggiate o ammalate, ma anche per rilevare i cambiamenti nell'attività cerebrale in persone che svolgono compiti che variano dal risolvere un problema di matematica al guardare la fotografia di una persona cara. I passi da gigante compiuti dalla tecnologia dell'informazione stanno incoraggiando i ricercatori più ambiziosi a costruire un modello completo del cervello umano. Nonostante lo scetticismo di altri neuroscienziati, Henry Markham, a Losanna, ha persuaso la IBM a finanziare il progetto Blue Brain, un supercomputer ideato per fare proprio questo. Per qualcuno che si trovi ad essere paralizzato, elettrodi impiantati nelle regioni del cervello preposte al movimento possono trasmettere dei messaggi a un computer, che a sua volta può controllare un robot che esaudisce i desideri espressi dal soggetto, aggirando i problemi biologici apparentemente irrisolvibili legati alle paralisi che la terapia con le cellule staminali non è ancora in grado di risolvere.

Le nuove tecnologie, tuttavia, non hanno fatto molto per risolvere problemi teorici radicati da tempo: i vecchi concetti duali (neurologico/psicologico; natura/cultura; cognizione/emozione), derivanti dai dibattiti filosofici di lunga tradizione che costellano la storia del pensiero occidentale, continuano a intralciare un nuovo modo di pensare. Le strategie di avvicinamento al cervello riflettono ancora le problematiche e le metodologie delle discipline da cui discendono, riunite sotto il prestigioso cappello delle neuroscienze. Non c'è ancora nessuna vera integrazione, nessuna teoria del cervello che faccia il paio con il dogma centrale di Crick o con la logica darwiniana della selezione naturale. A parte quando si radunano in sessione plenaria in uno stadio ad ascoltare un importante premio Nobel che parla, i trentacinquemila membri dell'ASN partecipano a sessioni specialistiche multiple non molto legate tra loro. Anche quando si trovano a studiare lo stesso argomento (come nel caso della memoria) gli psicologi cognitivi, i biologi molecolari e gli esperti di imaging hanno pochi punti di contatto e lavorano con una diversa comprensione del fenomeno che studiano, pur usando esattamente le stesse parole. Due libri di testo sulla memoria, per esempio, ognuno scritto da un esperto nel suo campo – rispettivamente un biologo molecolare e uno psicologo cognitivo – non hanno quasi nessun riferimento bibliografico in comune. Per il primo la memoria a breve termine è un processo che dura parecchie ore, durante il quale la memoria si fissa attraverso l'alterazione di connessioni tra i neuroni; per il secondo si tratta di un fenomeno transitorio e fluttuante che dura una manciata di secondi, durante i quali il cervello si mobilita per intraprendere compiti specifici.

| << |  <  |  >  | >> |

Pagina 328

La mente disturbata e il cervello danneggiato

Fino agli anni cinquanta, gli psichiatri con un debole per la biologia avevano a disposizione un ridotto numero di trattamenti, che oltre ad essere pochi erano brutali, poco raffinati e non specifici: elettroshock, convulsioni indotte da metrazolo, coma indotto da insulina e, come ultima risorsa, la lobotomia. L'invenzione dei farmaci psicotropi ha trasformato la situazione. Indirizzati a specifici sistemi biochimici cerebrali, sembravano offrire non soltanto una cura ma anche una spiegazione della patologia che stavano trattando. Il problema però era, e rimane, l'assenza di marcatori biochimici e fisiologici evidenti dei disagi psichici: nessuna misura come la pressione sanguigna o elevati livelli di zuccheri nel sangue, nessuna specifica anormalità del cervello. Se soltanto si scoprisse un simile biomarcatore, gli psichiatri sarebbero in grado di andare oltre la diagnosi basata sull'osservazione dei comportamenti e le descrizioni fenomenologiche, e potrebbero basarsi invece su test biochimici. A livello ideale, si vorrebbe qualcosa che si basi su un semplice cambiamento di colore o sulla comparsa di un simbolo, come nel caso dei test di gravidanza da tempo in commercio. Per un certo periodo, gli psichiatri hanno pensato che un equivalente di questi test — per rilevare l'attività degli enzimi coinvolti nel metabolismo della serotonina nelle piastrine — sarebbe stato in grado di diagnosticare la depressione, ma ben presto le speranze svanirono. Decenni trascorsi a provare a individuare sostanze specifiche nel sangue o nelle urine di pazienti a cui era stata diagnosticata la schizofrenia hanno dato vita solo ad artefatti illusori, come nel caso del metabolita presente nelle urine che, si scoprì poi, era prodotto dalla quantità eccessiva di tè che i pazienti psichiatrici bevevano in ospedale. L'"urina schizofrenica" riduzionista della psichiatria biologica ha avuto vita breve.

In assenza di tali misure tangibili, l'American Psychiatric Association (APA) ha sviluppato una "bibbia" per gli psichiatri: un manuale diagnostico e statistico dei disturbi mentali (il Diagnostic and Statistical Manual of Mental Disorders o DSM) — dalle cui vendite l'APA ricava profitti ingenti. Θ stato pubblicato per la prima volta nel 1952 e, al momento, sta andando in stampa la quinta edizione rivista; si tratta essenzialmente di un catalogo di segnali e sintomi che formano la base della classificazione delle malattie mentali e del sistema nervoso, categorie spesso basate sui "valori" degli stessi psichiatri, per lo più razzisti e sessisti.

Non è raro che tutto ciò sia risultato in diagnosi e prescrizioni inappropriate: un caso notevole fu la classificazione delle donne in menopausa come patologicamente ansiose e depresse, cosa che portò a un diffuso eccesso di prescrizioni di diazepam, farmaco che causa dipendenza; l'omosessualità, inizialmente classificata dal DSM come disturbo, fu declassificata soltanto nel 1973, grazie alle rivendicazioni dei movimenti per i diritti dei gay e delle lesbiche, e fu rimossa dalle edizioni successive. Con il passare del tempo, antichi disturbi scompaiono o cambiano nome: la disfunzione cerebrale minima è diventata sindrome da deficit di attenzione e iperattività; il disturbo della personalità multipla è diventato disturbo dissociativo della personalità; la depressione maniacale è diventata disturbo bipolare. Compaiono nuove diagnosi, come il disturbo da attacchi di panico o il disturbo post-traumatico da stress. A seconda delle caselle contrassegnate, si fa una diagnosi e si prescrive un farmaco. La peculiarità del manuale statunitense non sta soltanto nelle categorie sempre in espansione, sviluppate dalla ricerca in campo psichiatrico, ma nelle richieste di un sistema medico sempre più inserito nel mercato, in cui i dottori possono prescrivere una cura soltanto se i sintomi presentati dal paziente sono classificati come rimborsabili dall'assicurazione medica.

[...]

Ci sono prove del fatto che l'aumento delle diagnosi psichiatriche possa essere in parte una conseguenza dell'uso prolungato di farmaci. Quando patologie come la depressione e la schizofrenia furono diagnosticate per la prima volta nel secolo scorso, si trattava tipicamente di episodi di breve durata, con remissioni e assenza di ricadute. Oggi sono di solito condizioni persistenti e croniche, che spesso si verificano per la prima volta nell'infanzia e ricorrono nell'arco di tutta la vita. Alcuni critici, come il professore di medicina psicologica di Cardiff, David Healy, sostengono anche che le case farmaceutiche starebbero espandendo il proprio mercato lavorando con l'American Psychiatric Association per estendere il numero e la varietà di condizioni diagnostiche e, successivamente, creare farmaci a cui associarle; un farmaco, quando scade il brevetto per una certa patologia, può essere rinominato e brevettato per un altro utilizzo. Healy sottolinea in particolare l'aumento delle diagnosi di disturbo da attacchi di panico negli Stati Uniti dopo l'attacco alle torri gemelle, cosa che ha portato a riclassificare vecchi farmaci come ansiolitici.

| << |  <  |  >  | >> |

Pagina 351

Neuroentusiasmo

Per i giuristi, le problematiche sollevate dalle neuroscienze sono meno legate alle nuove tecnologie e più alla questione, di più ampio respiro, sul punto in cui un atteggiamento che riduce la mente al cervello posiziona il tema della responsabilità giuridica. Il concetto giuridico fondamentale di mens rea è sfidato dall'affermazione: "La mia mente mi ha costretto a farlo". I bambini sono immuni da responsabilità giuridica, così come chi è stato giudicato incapace di intendere e di volere a causa di un danno cerebrale o di "pazzia". Alcuni neuroscienziati dello sviluppo sostengono che il cervello degli adolescenti è ancora tanto immaturo da renderli propensi al rischio e, pertanto, non pienamente responsabili delle proprie azioni. Come ha sottolineato il giudice Stephen Sedley, «la legge sulla responsabilità dell'uomo per atti che danneggiano gli altri è un insieme di compromessi storici e morali». Nel Regno Unito è inammissibile che un imputato si difenda sostenendo di avere agito sotto l'effetto di droghe o farmaci. Cambierebbe qualcosa se si potesse scoprire un marcatore che predispone la persona all'attività criminale? Potrebbe essere ad esempio l'alterazione di un allele in un enzima del metabolismo dei neurotrasmettitori, o un'alterazione delle connessioni tra diverse regioni del cervello. Questo tipo di difesa è stato tentato – e rifiutato – negli Stati Uniti, e probabilmente si tratta di qualcosa che i tribunali continueranno a respingere.

Questo scetticismo non ha smorzato il neuroentusiasmo altrove: critici d'arte, letterari e musicali – così come artisti, scrittori e musicisti – si offrono di spiegare la popolarità di opere d'arte, musica e romanzi sulla base di come influiscono su particolari regioni cerebrali, anch'esse prodotto di una lunga storia evolutiva. Queste affermazioni risalgono al sociobiologo E.O. Wilson che ha ipotizzato che siamo evolutivamente predisposti a reagire a paesaggi che contengono erba, alberi e acqua – affermazione che è stata impietosamente decostruita dal critico dell'architettura Charles Jencks, che ha definito il paesaggio descritto da Wilson «arte di Battersea Road». Θ possibile però che l'intervento più forte delle neuroscienze nella vita quotidiana provenga da un campo ancora più frammentato: la neuroeducazione.

Per i neuroeducatori le modalità di apprendimento degli animali sono viste sempre più come esempi del modo migliore per educare i bambini. "Palestre mentali" e integratori di dubbio valore che affermano di migliorare il QI, hanno oggi un notevole giro d'affari, alimentato dalle televendite e da personaggi famosi privi di qualsiasi nozione in ambito neuroscientifico.

Nei test di laboratorio, creature diverse come il moscerino della frutta e il topo possono essere allenate a riconoscere ed evitare odori particolari, o a cambiare il proprio comportamento quando stanno per subire un elettroshock. Normalmente ci vogliono molte prove, per i moscerini e per i topi, prima che comincino a comportarsi regolarmente nel modo insegnato dallo sperimentatore, ma imparano più velocemente se ci sono gruppi di prove in rapida successione seguite da un periodo di riposo (massed training) rispetto a quando lo stesso numero di test è diluito nel tempo in modo regolare (spaced training). Come è stato scritto sui giornali, la scoperta ha persuaso un preside del nord dell'Inghilterra a rivoluzionare gli orari scolastici. Le sessioni di insegnamento duravano dieci intensi minuti, seguiti da un periodo di riposo e da una nuova sessione. L'applicazione all'educazione dei bambini dei risultati ottenuti dallo studio delle modalità di apprendimento di animali e insetti fa sorgere gli stessi problemi etici e tecnici sull'uso e l'efficacia sugli esseri umani di farmaci che si sono dimostrati validi sugli animali.

Un problema ancora più fondamentale è la crescente fusione di istruzione ed educazione. Anche se i due concetti si possono sovrapporre per quanto riguarda l'acquisizione di certe capacità specifiche e di specifici comportamenti, l'educazione cela in sé ancora un altro senso, interpretabile solo alla luce dell'intraducibile concetto tedesco di Bildung: esso si riferisce sia alla dimensione dell'insegnamento sia a quella dell'apprendimento – non soltanto conoscenze e abilità, ma valori, costumi, personalità, autenticità e umanità. Qui, gli scopi dell'educazione si raggiungono tramite attività pratiche che promuovono lo sviluppo dei propri talenti e delle capacità individuali, che a loro volta portano allo sviluppo della società di cui l'individuo fa parte. In questo modo, la Bildung non si limita ad accettare lo status quo sociopolitico, ma include la capacità di estendersi a critica della propria società di appartenenza e, infine, a sfidarla per realizzare i propri più alti ideali. La cultura anglofona, più pragmatica, respinge un linguaggio così fiorito, ma molti educatori e genitori direbbero di desiderare che i loro allievi e figli sviluppino queste qualità preziose – un ideale che è difficile da raggiungere se i bambini sono contestualizzati come se fossero moscerini della frutta o topi da laboratorio.

Nonostante ciò, i neuromiti educativi proliferano. Gli insegnanti rivelano di ricevere fino a settanta comunicazioni pubblicitarie all'anno che promuovono una grande varietà di neurosciocchezze: periodi critici nello sviluppo, bambini che apprendono con l'emisfero destro o sinistro, visuale vs. verbale. Gli imprenditori dell'olio di serpente stanno cercando di venderlo agli insegnanti, privi della rete protettiva delle prove cliniche e del NICE, di cui possono avvalersi invece i medici che prescrivono le cure. Per contrastare tutto questo, negli ultimi anni sono stati elaborati dei rapporti (prodotti dall'Economic and Social Research Council, dall'OCSE e, più di recente, dalla Royal Society) che riuniscono i pareri di neuroscienziati ed educatori per contrastare le leggende metropolitane, resistere ai ciarlatani e, in senso più positivo, considerare neuroscienziati ed educatori come collaboratori che stanno allo stesso livello sul piano della ricerca.

La debolezza di questi rapporti sta nel fatto che evitano di parlare dell'elefante nella stanza: gli scienziati universitari che fanno proseliti offrendo, come prima di loro hanno fatto genetisti e ricercatori sulle cellule staminali, le loro promesse prometeiche. Tuttavia, laddove genetisti e biologi delle staminali potevano parlare all'unisono, il cappello delle neuroscienze comprende strategie completamente diverse, dalla ricerca invasiva svolta da neurochimici e neurofisiologi ai ricercatori che utilizzano le tecniche non invasive della risonanza magnetica funzionale, e le scatole nere degli psicologi. I neuroscienziati non parlano all'unisono, ma in una babele di dichiarazioni e linguaggi contraddittori inseriti in una molteplicità di lobby, in un'economia di mercato in cui la speranza di profitto ha la meglio sulle prove scientifiche.

| << |  <  |  >  | >> |

Pagina 355

Capitolo 9

Le promesse prometeiche: chi ci guadagna?


Nel 1818 la fervida immaginazione gotica di Mary Shelley trasformò il titano Prometeo nello scienziato Victor Frankenstein. Da allora gli immaginari della fine del ventesimo secolo e dell'inizio del ventunesimo hanno promosso un'altra trasformazione: i titani sono diventati cavalieri di Re Artù alla ricerca del Graal. I genetisti molecolari sono stati i primi ad autonominarsi cavalieri, e il loro Graal era il genoma umano. Come disse il ricercatore di Harvard Walter Gilbert, al lancio del Progetto Genoma Umano nel 1991, «la ricerca del santo Graal del chi siamo ha ora raggiunto la sua fase culminante». Per il fondatore di Genentech, Herbert Boyer, la sequenza era «il santo Graal della genetica». Altri ricercatori in biologia molecolare fecero lo stesso e non ci volle molto prima che questa immagine fosse adottata da tutti, reclutata in ogni ambito, dalla genetica delle piante ai geni suscettibili di essere responsabili del cancro al seno.

E così si andò ancora oltre, dai geni alle cellule e, da lì, al cervello.

| << |  <  |  >  | >> |

Pagina 367

Come documenta il capitolo precedente, oggi le grandi industrie farmaceutiche prevedono che le prospettive di trovare nuovi farmaci psicotropi efficaci siano sconfortanti. Tutto il clamore che, insieme alle speranze, ha accompagnato il lancio del Progetto Genoma Umano relativamente al fatto che la genomica avrebbe reso possibili cure per la schizofrenia e altri gravi disturbi mentali è svanito, e molte tra le più importanti case farmaceutiche stanno abbandonando questa linea di ricerca — nonostante la pandemia globale di infelicità (depressione e ansia) non faccia che aumentare di anno in anno. Mentre i farmaci psicotropi possono aiutare un paziente durante un episodio psicotico acuto, oppure per la gestione quotidiana della depressione, il loro utilizzo sul lungo termine è problematico, dal momento che produce un circolo vizioso di perdita di risposta al farmaco e di cambiamenti cerebrali quasi irreversibili. Come sostengono i critici della psichiatria biologica, "il tuo farmaco potrebbe essere il tuo problema", e questo potrebbe essere ancora più vero quando si tratta di cocktail di farmaci. Anche tra quanti in precedenza erano impegnati nel campo della psichiatria biologica, stanno cominciando a spargersi voci sul fatto che trattare i disturbi e le patologie mentali come se potessero essere curate o alleviate manipolando la chimica del cervello è un approccio di per sé fuorviante — un altro paradigma che va in pezzi.

| << |  <  |  >  | >> |

Pagina 371

Chi paga il prezzo del determinismo biologico?

Nel corso dell'ultimo secolo, la genetica e l'eugenetica sono state gemelli siamesi e le loro storie si sono intrecciate. L'ingenuo determinismo genetico della prima parte del Novecento, secondo cui la degenerazione morale, la debolezza mentale e la criminalità sarebbero localizzate in singoli geni, perse forza sul finire degli anni trenta e, a metà degli anni cinquanta, fu abbandonato a favore della genetica tradizionale. Tuttavia, anche mentre i genetisti universitari cercavano di separarsi con un'operazione chirurgica netta e precisa dalla loro gemella condannata a morte, la pratica medica eugenetica della sterilizzazione obbligatoria persistette – negli Stati Uniti rivolta principalmente agli afroamericani, in Scandinavia alle donne "non adatte ad essere madri"; al contempo, inglesi e olandesi continuarono a praticare la segregazione sessuale e l'incarcerazione.

Con la pubblicazione del testo di E.O. Wilson, Sociobiologia, il determinismo genetico riapparve, questa volta non come eugenetica bensì come giustificazione ideologica dell'ordine sociale esistente, con tutte le sue ingiustizie. Il clamore che seguì, con Wilson — dichiaratosi conservatore — contrapposto ai suoi critici radicali e aderenti al femminismo, rese impossibile non considerare quantomeno controverse le sue affermazioni.

La psicologia evoluzionistica, che si considera un passo avanti, scientificamente, alla sociobiologia, venne in aiuto al determinismo biologico sostenendo che la natura umana sarebbe stata "fissata" nel Pleistocene, e che da allora il tempo evolutivo non sarebbe stato sufficiente per poterla cambiare ulteriormente. Una modifica importante introdotta dalla psicologia evoluzionistica è l'aver insistito sull'unità del genere umano, abbandonando le differenze razziali. Nonostante gli psicologi evoluzionisti dichiarino di essere darwinisti, la loro linea determinista è direttamente in conflitto con la radicale indeterminatezza della teoria dell'evoluzione di Darwin.

Al volgere del millennio, mentre le tecniche di neuroimaging fiorivano, andando oltre il loro utilizzo principale di strumento diagnostico, le scoperte fatte entrarono sempre più nel dibattito, mentre gli psicologi evoluzionistici e i neuroscienziati cognitivi univano le forze all'interno di una nuova neuroscienza sociale. Costoro, assegnando attributi mentali a luoghi precisi del cervello, diedero l'impulso a una frenologia interna in cui i nostri pensieri, i nostri sentimenti e le nostre decisioni non sono altro se non i prodotti epifenomenici di processi cerebrali, anch'essi sottoposti alla selezione naturale. Siamo così tornati ad alcune delle prime preoccupazioni della teoria dell'evoluzione di Darwin: le origini dell'altruismo, del giudizio morale, dell'arte, della musica, del razzismo, dell'amore e della coscienza. Secondo i neuroscienziati sociali, sono tutti prodotti di una selezione naturale e sessuale che ha avuto luogo circa duecentomila anni fa. Il significato della storia — intesa come passaggio del tempo e come disciplina che studia e interpreta la cultura e le società umane — è completamente cancellato. Θ come se la psicologia evoluzionistica affermasse non soltanto di dire la verità, ma di dire tutta la verità.

Parte di questa frenologia interna, come per esempio la localizzazione da parte di Francis Crick del libero arbitrio nel solco cingolato anteriore, o quella di Semir Zeki dell'amore romantico nell' insula e nel putamen, è neutrale dal punto di vista del genere. Altrove, nelle neuroscienze, il sessismo scientifico sta facendo un inquietante ritorno, con un rinnovato focus, oggi concentrato sulle interazioni tra ormoni, cervello e genere. Tra gli ormoni scoperti all'inizio del secolo scorso, due erano visti come sessualmente specifici: testosterone ed estrogeni. L'allusione contenuta nei nomi, che segnalavano esplicitamente che i due ormoni riguardavano la determinazione di mascolinità e femminilità, non è esattamente raffinata e oggi sappiamo anche che non è veritiera. Negli anni settanta tutto ciò fu ingigantito da dichiarazioni biopolitiche secondo cui il testosterone avrebbe portato gli uomini a inseguire il successo, mentre le donne sarebbero state alla mercé degli estrogeni. Questa dichiarazione suscitò immediatamente critiche da parte delle biologhe e delle decostruzioniste attive nel movimento delle donne, che misero in discussione la conoscenza delle teorie ormonali da parte di questi deterministi. La biologa Gail Vines li denunciò per calunnia, avendo ridotto le interazioni corporee a un semplice «questo o quello», mentre Nelly Oudshoorn, una decostruzionista, sottolineò che ci si trovava di fronte all'ennesimo falso dualismo che determinava una condizione di superiorità e una di inferiorità.

Negli ultimi dieci anni o poco più, questo conflitto è stato riaperto dallo psicologo Simon Baron-Cohen che è ritornato al dualismo ormonale celebrando la «differenza essenziale» tra uomini e donne, basandosi sulla «teoria dell'organizzazione cerebrale». Questa differenza essenziale, secondo Baron-Cohen, deriva da minuscole differenze nella struttura del cervello, codificate dai geni e fissate da una «sorgente di testosterone, durante il terzo trimestre di vita di un feto di sesso maschile, cosa da cui dovrebbero risultare le maggiori capacità linguistiche ed emotive delle donne e le più accurate abilità spaziali e di sistematizzazione degli uomini.

Le neuroscienziate femministe Rebecca Jordan-Young e Cordelia Fine sono state tra quelle che hanno sfidato queste ultime manifestazioni di essenzialismo maschilista. La Fine, psicologa, costringe vasti ambiti delle neuroscienze ad affinare la metodologia critica e rifiuta le conclusioni sessiste ed essenzialiste. La Jordan-Young si occupa di teoria dell'organizzazione del cervello: femminista, con un solido retroterra di studi sulla scienza, critica la metodologia adottata dai ricercatori sulla teoria dell'organizzazione del cervello, ma ancora più radicalmente rifiuta il dualismo semplicistico natura/cultura, su cui l'essenzialismo si basa. Senza voler rimettere in piedi un dibattito teorico di vecchia data, le teoriche femministe di oggi — nel campo delle scienze sociali e in quello delle scienze della vita — vedono sempre più i limiti di natura/cultura come oggetto di continua rinegoziazione. Sicuramente l'ultima parola non spetta né alla biologia né alla sociologia.

| << |  <  |  >  | >> |

Pagina 390

La nottola di Minerva

Hegel osservò che la saggezza, come la nottola di Minerva, si alza in volo al crepuscolo; lo stesso accade alla più recente svolta nella saggezza della bioetica, che invoca "solidarietà" quando le condizioni politiche, etiche e pratiche per questa solidarietà sono già scomparse. La solidarietà, come afferma un recente rapporto del Nuffield Council, ha due dimensioni principali: come valore morale e come pratica.

Il valore morale della solidarietà sostiene la partecipazione pubblica alla ricerca biomedica su vasta scala, come nel caso di fornire campioni di tessuti e dati sulla salute e sullo stile di vita. Ma come si raggiunge, concretamente, il valore morale della solidarietà? Le pratiche collettiviste di welfare sono state incessantemente erose nel corso degli ultimi trent'anni, dal collasso dello Stato sociale svedese – un tempo archetipo dello Stato sociale in quanto tale – alla più recente British Attitude Survey, che riporta una resistenza da parte della società all'idea stessa di solidarietà. L'assottigliarsi della linea che separa i ricchi dai poveri verificatosi mentre lo Stato sociale era stabile e forte è stato sostituito oggi da una situazione in cui per alcuni c'è una ricchezza estrema e per altri – la maggioranza – una sempre maggiore precarietà. L'abuso di benefici e le frodi – pratiche promosse dalla concordia esistente tra i tabloid e le classi politiche – hanno fatto la loro parte; in questo contesto, le esortazioni alla solidarietà da parte dei bioeticisti non possono sostituirsi alla visione politica.

L'aumento della riluttanza a partecipare altruisticamente a ricerche su larga scala in area biomedica, a dare senza avere niente di materiale in cambio, è espressione di una società dei consumi in cui le relazioni mercificate si sono sostituite al collettivismo. La biosolidarietà non sarà morta fintanto che si continuerà a donare sangue, ma questa pratica solitamente è considerata dai donatori un regalo fatto allo scopo di curare, non di fare ricerca. Pubblicizzando la scelta consumistica, un autoritarismo di Stato sempre crescente si è allontanato dalla decisione di coinvolgere il pubblico nelle politiche scientifiche, come era stato proposto dal rapporto del 2000 della Camera dei Lord e dalle consultazioni europee, che si impegnavano a trasformare i rapporti tra la scienza e la società. Nella primavera del 2012, la HFEA ha annunciato una consultazione pubblica sui temi etici e sociali sollevati da un progetto proposto dall'unità di ricerca mitocondriale dell'università di Newcastle, che richiede l'uso di cellule staminali embrionali umane e pertanto necessita di un'approvazione formale. Il nucleo delle cellule uovo di donne a rischio che vogliono un figlio senza malattie mitocondriali sarebbe inserito in una cellula staminale embrionale donata da un'altra donna. I mezzi di comunicazione individuarono immediatamente il problema etico al centro della questione, e accolsero con entusiasmo questo concepimento con tre genitori. Il coinvolgimento del pubblico tuttavia fu possibile soltanto dopo che la Wellcome Trust ebbe finanziato l'istituto con 4,6 milioni di sterline – un comportamento non troppo lontano da quello tenuto nei confronti della UK Biobank. Non esattamente un modo esemplare di coinvolgere il pubblico.

Gli investitori, gli scienziati del mondo accademico e Big Pharma, non interessati alle chiacchiere sulla solidarietà e alla sua dubbia capacità di far crescere i tassi di partecipazione, sono invece sostenitori di un accesso automatico ai dati medici registrati in formato elettronico. Al Panopticon di cui lo Stato già dispone grazie alle telecamere a circuito chiuso e a quello di cui gode il mondo commerciale grazie a Google e alle carte di credito dei supermercati, si aggiunge la registrazione dei dati più intimi della nostra vita fisica e psichica – DNA, dati sulla salute, scansioni cerebrali: tutte risorse fondamentali per un settore pubblico e privato alla continua ricerca di dati.

Fin dalla crisi bancaria del 2007-2008, i leader neoliberisti europei e americani sono stati d'accordo sul fatto che uno Stato sociale dedicato alla maggioranza – e soprattutto ai più poveri – deve essere sostituito dal fatto di pagare per il proprio benessere direttamente ai banchieri: il fatto che pagare per la propria salute accresca la sicurezza psicologica di chi riceve i soldi è dimostrato in modo esemplare dall'assenza di suicidi e di cadute in disgrazia tra la generazione di banchieri avari e incompetenti di oggi paragonata a quanto accaduto con la crisi del 1929. Continuando a chiedere senza sosta un obolo dopo l'altro mostrano tutti i segni della dipendenza dallo Stato sociale che così tanto deplorano nei più poveri.

L'unica eccezione a questa storia sconfortante è la piccola Islanda, dove ha avuto inizio la storia delle banche del DNA. La combinazione di opposizioni politiche, etiche e scientifiche, consolidata dalla decisione della Corte Suprema, ha distrutto il progetto commerciale di una banca dati elettronica nazionale sulla salute legata al genoma del paese. L'opposizione ha sfidato e sconfitto sia la deCode sia il suo principale alleato, il governo neoliberista con a capo David Oddsson – che aveva dichiarato pubblicamente che avrebbe spazzato via personalmente ogni vincolo che potesse impedire il progresso di questa nuova tecnologia. Allo stesso tempo la speculazione senza sosta delle banche islandesi è proseguita e Oddsson è oggi a capo della banca centrale islandese.

Il crash bancario, seguito dalla solita idea che la gente debba sopportare i costi delle azioni di politici e banchieri, si è scontrato con una sollevazione popolare: è stata scritta una nuova costituzione da cittadini selezionati in modo randomizzato ed è stato istituito un comitato per la verità dei fatti che ha incolpato quattro politici, compresi Oddson e Geir Haarde, premier all'epoca del crollo. Il Parlamento islandese ha deciso di perseguire Haarde per colpa grave e nell'aprile 2012 è stato dichiarato colpevole per uno dei capi d'accusa.

Una lezione da cui imparare qualcosa.

| << |  <  |