|
|
| << | < | > | >> |Indice3 Introduzione. Tecnologie di massa e ignoranza nella società della conoscenza I. Le tecnologie dell'informazione in un'organizzazione aziendale democratica 31 1. Scopo e funzione del lavoro 34 2. Criteri di definizione di un'organizzazione democratica 40 3. Gli ostacoli alla realizzazione e al mantenimento di un'organizzazione democratica 44 4. I vincoli 46 5. L'apporto delle tecnologie dell'informazione 63 6. Lo sviluppo del metodo democratico 67 7. I costi e i rischi II. Informatica, lavoro, intelligenza, democrazia 71 1. Fuori tempo il tema della qualità del lavoro? 73 2. Č la rivoluzione informatica che impone si riparli di qualità del lavoro 77 3. L'ambiguità (risolvibile) dell'informatica 86 4. L'intelligenza informatica presupposto di un'informatica per l'intelligenza 91 5. L'ipotesi di un rapporto tra qualità del lavoro e democrazia III. Il decisore tecnologico 95 1. Per una concezione evolutiva della tecnologia 96 2. L'idea di «conseguenze sociali» della tecnologia: un errore di prospettiva 99 3. La coevoluzione di popolazioni umane, sistemi tecnologici e sistemi socioculturali 101 4. Tra sistemi tecnologici e reificazioni culturali: l'individuo come decisore 107 5. Tecnologia, sopravvivenza e riproduzione di sé e degli affini biologici 112 6. Tecnologia, sopravvivenza e riproduzione di sé e degli affini culturali 119 7. Tecnologia, sopravvivenza e riproduzione dell'identità personale 124 8. L'evoluzione della tecnologia da mezzo a sistema autotelico IV. I decisori tecnologici tra razionalità locale e irrazionalità globale 132 1. La tecnologia come mezzo di adattamento 135 2. Il risparmio di forza lavoro, scopo ultimo dei decisori tecnologici 138 3. I segnali dell'approssimarsi di una possibile irrazionalità globale 147 4. Creare nei decisori tecnologici l'interesse a modificare il proprio agire 151 5. Nuovi indicatori per una tecnologia orientata alla sopravvivenza 157 6. Concetti e strumenti per costruire ed esplorare scenari globali 163 7. Alcune strade fra cui scegliere V. Sulla possibilità di costruire modelli operativi adeguati per accrescere la razionalità del policymaking tecnologico 167 1. I termini della questione 176 2. L'evoluzione dei sistemi considerati: strategie cognitive 179 3. Le possibilità di collasso o transizione caotica 182 4. Tipologia, localizzazione, gravità, probabilità di incidenti 185 5. La valutazione dei danni alla popolazione come prerequisito alla modellizzazione 190 6. Sulla responsabilità sociocognitiva di scienziati e policymaker VI. Critica della ragione tecnologica 195 1. Il disagio della tecnologia 198 2. Quali fini per la tecnologia – se mai debba averne 204 3. Gli agenti sin qui individuati per perseguire i fini della tecnologia – pur in assenza di questi 206 4. Tempo, emergenza e auto-disorganizzazione nei sistemi sociotecnici VII. Tecnologie della cultura, società in rete: una sfida per la formazione universitaria 214 1. I presupposti della formazione universitaria in via di corrosione 216 2. All'origine della crisi dei presupposti della formazione universitaria 220 3. Il ruolo della società in rete nei mutamenti in atto 222 4. La ricostruzione dei presupposti della formazione universitaria. Il possibile contributo della rete VIII. La conoscenza come bene pubblico globale nella società delle reti 233 1. Proprietà che definiscono la conoscenza come bene pubblico globale (BPG) 235 2. La costruzione sociale del BPG «conoscenza» 237 3. Il BPG «conoscenza» nel contesto attuale di Internet e del web 242 4. Il BPG «conoscenza» nel prossimo contesto della computazione a griglia (grid computing) e delle reti ubiquitarie 243 5. Alternative nella costruzione sociale del BPG «conoscenza»: il caso della formazione 248 6. Nuove forme di azione e di associazione per la costruzione e distribuzione del BPG «conoscenza» IX. Politiche della scienza nella società mondo 252 1. L'aspra via della scienza verso lo statuto di bene pubblico globale 258 2. Scienza globale e sistemi di conoscenza tradizionali 265 3. Politica mondiale della scienza e politiche nazionali 271 4. L'ambivalente mondializzazione della scienza tramite la tecnologia 276 5. Manipolazioni della scienza per fini politici 283 6. Manipolazioni della scienza per fini economici 290 7. Costo dei beni pubblici globali e ruolo della scienza |
| << | < | > | >> |Pagina 3Introduzione
Tecnologie di massa e ignoranza nella società della conoscenza
ALFRED DÓBLIN,
Giganti,
1932.
MENONE E per qual modo, o Socrate, potrai far ricerche su ciò che non sai assolutamente cosa sia? Quale singolo problema sarà argomento dell'indagine, a proposito di tutti questi fatti che tu ignori? E supponiamo anche: t'imbatti nella risoluzione che cerchi. Come lo saprai, se non conosci il singolo fatto? SOCRATE Capisco ciò che vuoi dire, Menone. Ma non t'accorgi quale contenzioso argomento mi stia proponendo? L'uomo, tu dici, non può cercare né ciò che sa, né ciò che non sa. Infatti non cerca ciò che sa, per il fatto che lo sa; e non c'è il minimo bisogno di tale ricerca. D'altra parte, nemmeno ciò che non sa: in qual modo potrà conoscere l'oggetto della sua ricerca?
PLATONE,
Menone,
IV secolo a. C.
Espressione progredita della cultura e dell'evoluzione sociale, la tecnologia contemporanea, che incorpora volumi senza fine crescenti di conoscenza scientifica, ha acquisito un potere determinante sull'esistenza umana e sui sistemi naturali che la sostengono. Possiede la capacità provata di migliorare grandemente la qualità dell'esistenza, almeno per chi può disporre di essa in quantità adeguate, e di prolungarne di decenni la durata. D'altra parte è atta a operare anche in senso diametralmente opposto, a carico nostro o dei nostri discendenti, o di altre popolazioni. Qualcosa di analogo vale per i sistemi sostenenti la vita. La tecnologia è capace tanto di mantenerli in buono stato, quanto di comprometterli. Le due cose non vanno insieme, non nello spazio e nemmeno nel tempo. Č possibile che i miglioramenti considerevoli che la tecnologia ha recato a noi, in questa parte del mondo, contribuiscano a peggiorare già nel presente le sorti di altre popolazioni, cosí come i guadagni di qualità e di durata dell'esistenza goduti dalle nostre generazioni potrebbero essere pagati da peggioramenti dell'esistenza di quelle future, perché i sistemi sostenenti la vita sono stati da noi compromessi. Considerate le dimensioni della posta in gioco, alcune domande parrebbero imporsi. Se non dovremmo, per esempio, adoperarci maggiormente per comprendere in modo approfondito il potere della tecnologia scientificizzata; le sue origini; i suoi effetti a lungo periodo; quali possibilità sussistono di governarlo e indirizzarlo piú efficacemente a scopi umani. O se non ci converrebbe cercar di usare maggiori dosi di democrazia per governare la tecnologia e la scienza che incorpora. E, al tempo stesso, provare a orientare verso nuovi usi la tecnologia per migliorare il funzionamento della democrazia, a cominciare dai processi di decisione nelle organizzazioni. Infine, se la tecnologia e la scienza attuali, con le loro ricadute sui sistemi che sostengono la vita, siano esse stesse sostenibili. I saggi qui raccolti propongono, prendendo a riferimento varie situazioni della società contemporanea, una serie di circostanziate risposte a tali domande. Il filo di esse, che questa introduzione vuoi estesamente riassumere, può cosí descriversi: quanto a sviluppi della tecnologia e della scienza non abbiamo mai saputo che cosa stessimo facendo, a noi stessi, alle generazioni future e all'intero pianeta. Non di meno, i successi di qualità e durata della vita conseguiti da una parte del pianeta - quella cui siamo grati di appartenere - ci spingono a insistere con maggior vigore in quel che, senza saperlo, stiamo facendo. Ai compiti che le domande di cui sopra presuppongono - ossia, piú concretamente, alle politiche della tecnologia e della scienza che occorrerebbe elaborare e porre in essere - si oppongono al momento, sul piano delle idee, sia una concezione diminutiva, improvvidamente fatta propria dalla politica, di che cosa sia una «società della conoscenza»; sia la sottovalutazione della smisurata ignoranza che al presente circonda la tecnologia e la scienza dinanzi al tentativo di comprendere le conseguenze delle loro proprie azioni e creazioni. Mentre sul piano degli interessi reali si ha a che fare con gli ostacoli derivanti sia dalla valorizzazione economica, sia dall'utilizzo politico della conoscenza scientifica e tecnologica, che si frappongono l'una e l'altro al suo riconoscimento quale bene pubblico globale. Da varie fonti ci viene assicurato che ormai viviamo nella società della conoscenza. O, quanto meno, che ci stiamo avvicinando a essa, ma dobbiamo accelerare il ritmo dell'avvicinamento: è stato questo il perentorio messaggio del vertice di Lisbona del 2000. Dicono gli esperti che quella della conoscenza sia una società avente caratteristiche senza pari, mai osservate prima. Possiamo quindi cancellare senza rimpianti, dalla nostra memoria come da quella del PC, i predicati che usavamo apporre alla magmatica società contemporanea per cercare di conferirle un senso d'insieme. «Post-industriale», «post-moderna», «post-fordista» sono predicati obsoleti. Anche etichette come «società dell'informazione» - in auge appena ieri - e «società delle reti» sono giudicate non piú aderenti ai contenuti reali. Premesso che fra questi, ovviamente, resta in primo piano la diffusione universale delle ICT, le onnipresenti tecnologie dell'informazione e della comunicazione. Ma insieme con le ICT la società della conoscenza è caratterizzata, si asserisce, da novità ben piú innovative. La conoscenza scientifica e tecnologica - poiché a ben vedere è questa e non altra la conoscenza che il nuovo lemma designa o sottintende - sarebbe giunta a permeare tutti i campi dell'organizzazione sociale. Sempre piú la politica - si afferma - decide fondandosi su di essa: è il tempo delle politiche «fondate sull'evidenza». Riforme della sanità, grandi opere, biotecnologie, politica energetica, protezione civile, ambiente: le scelte relative a questi ambiti sono costruite e deliberate al lume di tutte le conoscenze scientifiche di cui si arriva a disporre. Per quanto riguarda l'economia, la conoscenza è diventata un fattore di produzione, inestricabilmente connesso con i fattori tradizionali - lavoro e capitale fisso (macchine, impianti) - sí da immettere nuova linfa nell'uno come nell'altro. In tal modo la conoscenza ha acquisito il ruolo di fattore primario dell'innovazione, della crescita economica, della competitività internazionale delle imprese e dell'economia nazionale. Interagendo con il lavoro e il capitale in reti che passano dentro e fuori le imprese - coinvolgendo pure i centri di ricerca degli atenei - la produzione di conoscenza è stata industrializzata, mentre la produzione industriale si è scientificizzata. Le industrie che furono ad alta intensità di lavoro (labor intensive) sono diventate ad alta intensità di conoscenza (knowledge intensive). Questo vale anche per la produzione e distribuzione di servizi, diretti alle famiglie come alle imprese: anch'essi tendono a essere in misura crescente knowledge intensive. I beni che contano, perché apportano a un tempo profitti privati e benessere collettivo, sono quelli che incorporano le maggiori dosi di conoscenza scientifica. In un simile incorporamento di conoscenza in beni e servizi - prosegue la descrizione ricevuta della società della conoscenza - consiste oggi il valore aggiunto, il differenziale che assicura il massimo di competitività nell'economia globalizzata. La duplice interazione che associa la conoscenza scientifica e tecnologica alla produzione, e la produzione alla conoscenza, si realizza massimamente nelle attività di ricerca e sviluppo. Dalle dimensioni di queste ultime si valutano le imprese. L'accumulazione e la diffusione di conoscenza scientifica favoriscono l'emergere di «organizzazioni che imparano», nonché di professioni capaci di gestire la conoscenza stessa con le piú avanzate tecnologie dell'informazione, dalle banche dati al web 3.0 (3, non 2: il web 2.0, ci dicono, è ormai storia). Ecco il contesto nel quale si affermano i manager della conoscenza. In conseguenza di tutto ciò, il ruolo dominante che fu degli operai - si afferma inoltre - è stato assunto dai «lavoratori della conoscenza». Dalla loro moltiplicazione deriva anche la crescente rilevanza assunta dall'istruzione superiore, dal possesso di titoli di studio elevati per chi cerca lavoro, dalla formazione permanente - con la tendenza a estenderla all'intero arco della vita. Questo repertorio sintetico di caratteristiche definitorie della società della conoscenza, ripreso da una quantità di dichiarazioni, rapporti, articoli di politici ed esperti, risente palesemente di un'impostazione economica e anzi economicista. Bisogna dire che, almeno in via di prima approssimazione, all'idea di una società in cui la conoscenza scientifica e tecnologica sia patrimonio comune tale repertorio non sembra nuocere. Ci permette intanto di stabilire che delle caratteristiche definitorie che esso riporta, ben poche si osservano nella società e nell'economia italiana, e quelle poche in misura modesta. Č noto che gli investimenti in ricerca e sviluppo dell'industria italiana sono tra i piú bassi della UE. Il numero di domande di brevetto (stimato, come si usa, per milione di abitanti) pone anch'esso l'Italia al fondo delle classifiche europee, con l'aggravante che i tre quarti di esse hanno contenuti tecnologici tutt'altro che high tech. In termini di numero di ricercatori e di risorse disponibili, negli ultimi lustri parecchi grandi istituti di ricerca facenti capo a imprese private sono stati ridimensionati, oppure sono stati chiusi, in nome del principio per cui la ricerca o produce esiti trasferibili sul mercato a breve termine, oppure non vale i suoi costi. Il sistema pubblico di ricerca, dopo ripetuti quanto maldestri tentativi di riforma diretti alla sua aziendalizzazione, è in stato di grave sofferenza. Il numero di laureati in materie scientifiche e tecnologiche, anche qui per milioni di abitanti, appare inferiore a quindici anni fa, seppure con segni di ripresa dopo il 2003-2004. Nel settore pubblico come nel privato i ricercatori sono sottopagati. Si aggiunga che le forze di lavoro, compresa la fascia critica tra i 20 e i 40 anni, continuano ad avere un grado medio di istruzione inferiore di parecchi anni a quello dei paesi vicini. Le imprese domandano in maggior copia operai generici piuttosto che operai specializzati, mentre i lavori offerti ai giovani nei luoghi che si vorrebbero canonici della «società della conoscenza», sul genere dei «call center», sembrano discendenti stretti della catena di montaggio fordista, di cui era stata dichiarata la scomparsa. In realtà quest'ultima continua a essere la struttura portante dell'industria metalmeccanica, ed è stata introdotta in vari altri settori (per esempio l'agrindustria). Le nostre esportazioni, notevolmente diminuite sul totale mondiale negli ultimi lustri, sono formate per la maggior parte da beni tradizionali o dal made in Italy, il cui valore aggiunto dipende dallo stile e dalla qualità della lavorazione piuttosto che dalla conoscenza scientifica che incorporano. A fronte di simili dati, sembra prematuro presentare la società italiana come una società della conoscenza, compiuta o in formazione. Ma quanto meno, riportandoli, si intravvedono quali sono le strade lungo le quali bisognerebbe muoversi, le carenze da colmare per realizzarla. Bisogna però vedere se codeste strade non siano un po' troppo strette, se non addirittura cieche. Infatti nella definizione di società della conoscenza ricostruita sopra le nozioni complementari di una tecnologia piú democratica, e di una democrazia che sappia meglio sfruttare ai propri fini diversi aspetti della tecnologia, non sono in alcun modo presenti. Assente è anche l'idea che una società della conoscenza dovrebbe disporre di tecnologie scientifiche, e/o di scienze tecnologiche, che si propongono come dichiaratamente sostenibili, sí da far parlare di una società della conoscenza sostenibile - possibilmente in un senso più ampio di quello illustrato da iniziative quali la «Carta dei diritti umani per società della conoscenza sostenibili», presentata ai vertici mondiali della Società dell'informazione del 2003 (Ginevra) e 2005 (Tunisi), che si concentrano in special modo sulle ICT ovvero sulla sostenibilità degli ambienti elettronici. Meno che mai si intravvede fra le suddette caratteristiche un richiamo alla rilevanza strategica, ove si intendano elaborare politiche democratiche della tecnologia e della scienza, che viene attribuita oggi al concetto, risalente nientemeno che a Platone, di ignoranza; applicata qui a ciò che la tecnologia e la scienza non sanno, e riferita primariamente agli effetti passati e futuri delle loro invenzioni materiali e immateriali. L'ignoranza tecnico-scientifica, che propongo di chiamare per brevità tecno-ignoranza, designa ciò che gli addetti ai lavori - ricercatori, scienziati, tecnici, esperti - per primi non sanno, al meglio delle loro collettive conoscenze professionali; non già quella del pubblico che ignora, o si suppone ignori, quasi tutto di tecnologia e di scienza. Si riferisce a due grandi aree: l'area in cui i tecno-esperti non sanno nemmeno che cosa non conoscono (ignoranza a-specifica), e l'area in cui essi posseggono invece una nozione, pur vaga, di quel che non si conosce (ignoranza specifica). Ambedue queste aree di ignoranza abbracciano tanto il passato - il caso in cui quel che non si conosce è già accaduto - quanto il futuro: in questo caso quel che non si conosce deve ancora accadere. La tecno-ignoranza non va confusa con le usuali nozioni di rischio e di incertezza. Il rischio designa la probabilità, accertata su basi statistiche, che qualcosa accada a una determinata popolazione. Č corretto dire, per esempio, che i forti fumatori corrono un rischio definito di contrarre un cancro ai polmoni, poiché le statistiche mediche dicono che il 10 per cento di essi incorre sicuramente in tale patologia. Ma stabilire chi esattamente, su 100 fumatori, sono quei 10 che contrarranno il cancro è materia di notevole incertezza, poiché le variabili in gioco sono numerose e interdipendenti: età, sesso, professione, ereditarietà, ecc. | << | < | > | >> |Pagina 8Allo scopo di illustrare la nozione di tecno-ignoranza può valere il caso oggi ampiamente studiato dei clorofluorocarburi (CFC). Questi composti chimici sono stati utilizzati industrialmente come refrigeranti sin dal 1930. Ancora quarant'anni dopo, nessun esperto (con poche inascoltate eccezioni) sapeva che essi stavano provocando un notevole assottigliamento dello strato dell'ozono. Avrebbero potuto scoprirlo, già con i mezzi di allora, ma essi non sapevano di non sapere che un possibile effetto della diffusione nella stratosfera dei CFC era un danno all'ozono presente nell'atmosfera. La scoperta a posteriori di questo effetto, ovvero il suo riconoscimento consensuale da parte della comunità scientifica, avvenne a metà degli anni Settanta. Verso la fine del decennio i governi si mossero per vietare l'impiego dei CFC. Poiché la produzione industriale non si può né arrestare né sostituire con un fiat, l'utilizzo a scalare dei CFC si protrasse per un altro decennio. Dal 1930 erano trascorsi sessant'anni; mentre l'assottigliamento dello strato di ozono permane ancora oggi, a ottant'anni di distanza, e nessun esperto può sapere se, come e quando potrebbe ridursi.I casi analoghi a quello dei CFC sono numerosi. Essi dovrebbero schiudere la porta a una discussione pubblica intorno all'ignoranza tecnico-scientifica che circonda al presente le conseguenze passate e future della recente diffusione di tecnologie per le masse, quali - tra molte altre - le biotecnologie, le nanotecnologie, le radiotecnologie che supportano i telefoni cellulari e il web. Sono tecnologie che vengono giustamente considerate dalla maggior parte della popolazione come beni pubblici globali. Č sicuramente possibile che abbiano in sé le potenzialità per diventarlo. Sussiste però il sospetto che a causa dell'ignoranza delle conseguenze di cui il loro utilizzo nella società della conoscenza è avvolto, esse rechino in sé anche le potenzialità per convertirsi in mali pubblici globali. Il problema risiede dunque nel trovare il modo di combattere i secondi per far emergere i primi. Ciò richiederebbe un approccio innovativo alla produzione, diffusione, valutazione e regolazione delle tecnologie di massa. Punto di partenza dovrebbe essere la constatazione che le tecnologie citate, attraverso la loro diffusione - straordinaria per entità e velocità - hanno dato origine, nel volgere di pochi lustri, a processi assimilabili a una rete di sperimentazioni globali d'un ordine di grandezza senza precedenti. Rispetto a questo le attuali procedure di valutazione delle conseguenze possibili (cui rinviano espressioni correnti quali technology assessment, évaluation des technologies, Technikbewertung o Technikfolgenabschätzung), si presentano essenzialmente inadeguate. E ciò tanto sotto il profilo metodologico quanto sotto il profilo del processo sociotecnico dal quale, alla fine, dovrebbero emergere politiche regolative. Si tratta di tecnologie che solamente nella UE coinvolgono centinaia di milioni di persone, e per quanto riguarda l'Italia e i paesi dell'Europa occidentale l'intera popolazione. A tali sperimentazioni su larghissima scala i governi nazionali e la Commissione europea hanno deciso da anni o tacitamente consentito di dare largo spazio, anzitutto per motivi economici. Laddove le conoscenze realmente disponibili per supportare le decisioni stesse riguardano, nel migliore dei casi, un insieme esiguo di variabili, e, per quanto attiene alle conseguenze, un orizzonte temporale insignificante. Le suddette sperimentazioni si stanno quindi svolgendo senza che nessuno sappia quali possano essere le conseguenze a medio-lungo termine sulle persone e — soprattutto nel caso delle bio- e nano-tecnologie — sui sistemi di supporto alla vita, connesse alla diffusione massiccia di queste tecnologie. Ignote sono le conseguenze che già si sono determinate, al pari di quelle che si potrebbero determinare in tempi medi (qualche decennio), lunghi (alcune generazioni), o lunghissimi (parecchie generazioni). Nessuno può saperlo, perché il velo di ignoranza sotto il quale gli esperti operano non consente loro di formulare nemmeno domande appropriate circa le conseguenze che potrebbero già essersi verificate in passato, ma che non si sanno dove cercare, o quelle che potrebbero verificarsi in futuro. | << | < | > | >> |Pagina 10Paradigmatico, al riguardo, è il caso delle biotecnologie — piú specificamente di quel loro comparto che è la genomica, lo studio della struttura e della funzioni dei geni — applicate alla produzione di organismi geneticamente modificati o «ingegnerizzati» (OGM). Numerose analisi effettuate sin dagli anni Novanta, tanto dalle società produttrici quanto da enti indipendenti, ivi compresi istituti nazionali della sanità, nonché la World Health Organization, sono arrivate alla conclusione che gli alimenti contenenti OGM, inclusi i transgenici (nei quali il DNA originario è stato modificato con l'inserimento d'un segmento di DNA di un'altra specie) non sono nocivi per l'uomo né per gli animali, per le piante o l'ambiente in generale.Č su tali basi che diversi governi europei, tra i primi quello britannico, nonché la Commissione europea e il Parlamento di Strasburgo, hanno autorizzato, pur imponendo certi limiti, la sperimentazione e in vari casi l'impiego di OGM in agricoltura, nella confezione di alimenti e nella gestione delle foreste (in questo caso piantando alberi geneticamente modificati). Si può aggiungere che anche nei paesi in cui il consenso delle autorità è stato particolarmente cauto e circoscritto, nel frattempo esso è divenuto di fatto irrilevante. Infatti l'industria e l'agricoltura statunitensi e di altri paesi producono e vendono nel mondo milioni di tonnellate di sementi e prodotti agricoli OGM, e nessuna procedura di confinamento riuscirà mai a bloccarne gli effetti entro gli spazi originari. Da millenni batteri e pollini, con il DNA che contengono, hanno scoperto il modo di viaggiare low cost ovunque per il mondo. Ciò che dovrebbe essere oggetto di maggior discussione pubblica sono i metodi impiegati per effettuare tali rassicuranti analisi sugli effetti della diffusione degli OGM; le modalità che le autorità adottano per diffondere i risultati delle ricerche; il perimetro ridotto entro il quale si ricercano, ai fini d'una valutazione, le possibili conseguenze; il cortissimo orizzonte temporale in cui la maggior parte degli studi sugli OGM si collocano. Sul piano del metodo, la maggiore lacuna è insita nella consolidata tendenza degli esperti a interpretare l'assenza di conoscenze, o l'impossibilità di dimostrazione, come la prova che non esistono conseguenze negative di una certa biotecnologia. Il non sapere che cosa precisamente non si sa, l'ignoranza relativa al campo dei fenomeni che non si conoscono, vengono in tal modo trasformati, da situazioni che suggerirebbero una severa applicazione del principio di precauzione, in argomenti a favore dell'accelerazione della produzione industriale e/o della diffusione commerciale di OGM. La suddetta tendenza viene altresí rafforzata dalla composizione anomala di molti comitati di consulenza di governi, parlamenti e organizzazioni internazionali. Di essi fanno frequentemente parte, e non di rado li presiedono, rappresentanti delle industrie i cui prodotti biotech dovrebbero venire criticamente valutati da tali organi nell'interesse pubblico. La dubbia indipendenza di tali comitati rappresenta a sua volta un fattore selettivo dei rapporti di valutazione, o delle parti di essi, che vengono portati a conoscenza del pubblico. I rapporti o le loro parti che appaiono favorevoli alla diffusione degli OGM vengono trasmessi al pubblico, non solo per mano delle società direttamente interessate, ma pure dei governi, in proporzione ben piú elevata, e con investimenti mediatici sostanzialmente maggiori, dei rapporti che esprimono dubbi o critiche al riguardo. Applicato all'ingegneria genetica, la nozione di perimetro della valutazione si riferisce alla tipologia e al numero delle variabili prese in esame, e parallelamente allo spazio fisico coperto dall'osservazione. Ancor piú che in altri campi emerge qui la ristrettezza di orizzonti in cui avviene di solito la valutazione degli OGM. In merito a una singola specie di mais geneticamente modificato, per esempio, le variabili da esaminare possono variare da una dozzina ad alcune centinaia. A un estremo si indagheranno, di quel neo-mais, la resistenza al freddo e agli insetti; la sua eventuale tossicità per tre o quattro specie animali che si usa alimentare con grandi quantità di mais; la tossicità per l'uomo che trova il neo-mais in prodotti alimentari o che si ciba della carne di quegli animali, e poche altre variabili. Verso l'altro estremo le variabili diventano innumerevoli: oltre a quelle indicate, bisognerebbe osservare, di quelle stesse specie e per numerose altre a esse collegate, e per piú generazioni, che cosa accade nel sistema immunitario; nella formazione di cellule del sangue e del fegato; nello sviluppo di singoli organi; nell'apparato digestivo, nei tessuti polmonari, nell'apparato riproduttivo, ecc. Nonché che cosa accade alla flora intestinale degli esseri umani, a sangue, fegato, milza e reni, ai feti - che il DNA reingegnerizzato può raggiungere attraverso la placenta - e via continuando. Inutile aggiungere che nella realtà la maggior parte delle ricerche vengono effettuate su poche variabili, sia perché a ogni variabile che si aggiunge al campo da indagare aumentano le risorse tecniche e umane necessarie, sia perché i tempi di osservazione si allungano a dismisura. Riguardo poi al perimetro di osservazione e sperimentazione inteso come spazio fisico, è indicativa dell'ignoranza (del non-sapere) che circonda questa materia, la decisione delle autorità - realmente presa in piú occasioni in Gran Bretagna e in Francia - di aumentare di alcune decine di metri la fascia non coltivata da lasciare attorno a un campo sperimentale di mais GM, allo scopo di evitare la contaminazione di colture vicine. Un ecobiologo non può che sorriderne, posto che insetti, microbi e animali selvatici (a cominciare dai topi di campo) non sono per definizione confinabili. Né lo sono i pollini e i semi, come ha ricordato la FAO, chiedendo nel 2005 una moratoria sulla commercializzazione di alberi GM, milioni dei quali sono già stati piantati in Europa, in Asia e in Nordamerica, a fronte di esperimenti il cui perimetro si limita ai pochi metri quadrati di un campo o di un laboratorio. Piú critico ancora è il problema dell'orizzonte temporale. L'industria e il commercio di OGM datano da metà degli anni Novanta, e di poco piú lungo è il periodo cui si riferiscono le osservazioni in ordine alle possibili conseguenze, per di piú riferite come si diceva a poche specie e a un ridotto numero di variabili. Ma i sistemi di geni oggi esistenti discendono da miliardi di anni di coevoluzione di milioni di specie animali e vegetali. Affermare di essere in grado di valutare le conseguenze complessive dell'immissione nell'ambiente di nuove strutture geniche come quelle degli OGM, facendo riferimento a fenomeni banali quali la tossicità o la nocività, e prendendo in conto un arco di tempo che va da pochi giorni a pochi anni, equivale ad affermare di poter studiare la termodinamica millenaria degli oceani osservando quel che succede nella piscina di casa. Nell'insieme, occorre dunque ammettere che non solo gli OGM, ma - per ragioni analoghe - le biotecnologie in generale, sono circondati in realtà da oceani di tecno-ignoranza. | << | < | > | >> |Pagina 13Un caso per certi versi simile al precedente è quello delle nanotecnologie. La similitudine tra queste ultime e le biotecnologie, sovente richiamata nella letteratura sulla valutazione degli effetti della tecnologia, si fonda sul fatto che ambedue operano su grandezze nanometriche (i nanometro = i miliardesimo di metro; un capello è diecimila volte piú spesso). Strutture molecolari di siffatte dimensioni minime, costruite artificialmente, sono atte a penetrare agevolmente in strutture naturali aventi «pori» di dimensioni assai maggiori, come la parete delle cellule. Nel caso delle nanotecnologie codesta proprietà può essere sfruttata per finalità mediche. Si parla al proposito di nanomacchine capaci di deporre un medicamento all'interno di un tessuto malato; di eliminare formazioni trombotiche o aterosclerotiche dalle arterie; come pure di tessuti o organi sviluppati da nanomolecole che imitano le strutture del vivente - una linea di ricerca su cui lavora la cosiddetta «nanomimetica». Ma vastissime sono le applicazioni delle nanotecnologie indirizzate a processi propri dell'industria manifatturiera, dal trattamento delle superfici alla costruzione di parti meccaniche «dal basso»: quasi fossero tessuti di coltura che crescono, piuttosto che venire scavati o perforati o sagomati «dall'alto» come fanno le tradizionali macchine utensili.Un'incognita dischiusa dalle nanotecnologie, designante ma non delimitante una nuova area di tecno-ignoranza specifica, riguarda quel che può succedere quando miliardi di nanoparticelle vengono di proposito immesse in organismi viventi, a cominciare dall'organismo umano; oppure quando vengono casualmente assorbite da essi perché si sono disperse nell'aria, magari entro lo stabilimento che le produce o le utilizza. Si noti che le cosiddette «polveri sottili», prodotte dal traffico automobilistico - che per questo motivo viene limitato nelle città - e considerate minacciose per le ridotte dimensioni delle molecole che le compongono, sono formate da molecole di diametro assai superiore a quello medio delle nanoparticelle. Esperti di salute e ambiente sospettano quindi che l'inalazione accidentale di nanoparticelle possano provocare problemi respiratori e cardiaci, e altri a carico del sistema immunitario. Ma queste sarebbero già linee di ricerca definite, conseguenti all'aver stabilito che si comincia a conoscere quel che non si conosce - un passo avanti verso la riduzione dell'area della tecno-ignoranza. Quanto invece quest'ultima sia vasta, nel campo delle nanotecnologie, si può desumerlo da un impegnativo saggio apparso a fine 2006 su «Nature». In esso quattordici scienziati di fama internazionale indicano cinque «grandi sfide» da affrontare per rendere sicure le nanotecnologie. Sarebbe necessario sviluppare: 1) strumenti per misurare l'esposizione ambientale a nanomateriali; 2) metodi per valutare la tossicità dei nanomateriali; 3) modelli per predire l'impatto potenziale di nuovi nanomateriali ingegnerizzati (sviluppati cioè al punto di poter essere prodotti su scala industriale); 4) modi per valutare l'impatto di nanomateriali attraverso tutto il loro ciclo di vita; 5) programmi strategici per mettere in piedi ricerche focalizzate sui rischi. Si interpelli al proposito un esperto di nanotecnologie. Quasi certamente sarà in condizione di dire che per portare a efficace compimento queste cinque sfide, tutte palesemente rivolte a conferire contenuti e dimensioni alla tecno-ignoranza propria del settore, occorrono da alcuni anni a parecchi decenni. A onta di ciò la tecnologia non può attendere. Né lo possono le industrie che hanno pesantemente investito nel settore - 10 miliardi di dollari in totale nel mondo al 2005 - e meno che mai i ricercatori la cui carriera dipende dalle domande di brevetto orientate al mercato che riescono a depositare, né gli accademici che si attendono sostanziose commesse pubbliche e private per i loro dipartimenti, e congrui scatti di notorietà per le loro persone. Di conseguenza, già nel 2005 le vendite globali di prodotti per il consumatore contenenti nanomateriali hanno superato globalmente i 32 miliardi di dollari, e circa 300 tipi di tali prodotti sono già in circolazione - senza che quasi nessuno dei metodi, strumenti, modelli, programmi per valutare l'impatto delle nanotecnologie, prospettati dal citato gruppo di scienziati ma anche da altri, sia stato messo in opera. E senza che il quadro delle incognite che esse lasciano intravvedere si possa dire completo. Le preoccupazioni espresse dagli autori di «Nature» riguardano infatti, in prevalenza, il consumatore finale e l'ambiente, mentre restano largamente sconosciuti i pericoli derivanti dall'esposizione a processi coinvolgenti nanotecnologie negli ambienti di lavoro. | << | < | > | >> |Pagina 15Passiamo ora a considerare un'altra tecnologia di massa. Sin dagli anni Novanta, a fronte della rapidissima diffusione dei telefoni cellulari, furono espresse preoccupazioni in merito ai loro possibili effetti negativi sulla salute. I cellulari utilizzano frequenze radio, un sottoinsieme delle radiazioni elettromagnetiche, presenti in piccole dosi anche in natura. Quando riceve o trasmette una chiamata, l'apparecchio genera attorno a sé un campo elettromagnetico (CEM) del diametro di parecchi centimetri, abbastanza - se il cellulare è tenuto all'orecchio - perché il CEM si estenda in profondità al cervello, alla bocca e agli occhi. Di qui il sospetto, affacciato in diversi paesi da gran numero di famiglie, medici, biologi, associazioni di consumatori e ONG ambientaliste, che l'uso del cellulare per decine di minuti o ore al giorno, protratto per anni, potesse favorire l'insorgere di formazioni cancerose sia nel cervello, incluso tra queste il cancro del nervo uditivo, sia in organi contigui.Le preoccupazioni pubblicamente manifestate hanno dato impulso a copiose ricerche ad hoc, attinenti a popolazioni via via piú ampie e a periodi tendenzialmente piú lunghi. Uno degli studi di maggior ampiezza e rigore mai condotti a giudizio degli esperti si è svolto in Danimarca ed è stato pubblicato a fine 2006. Riguarda 420 000 adulti che da molti anni usavano il cellulare, incluso un certo numero che ne facevano uso sin dal 1982, e altri che lo usavano da oltre un decennio. Confrontati con i casi di cancro del registro nazionale danese, gli utenti di cellulari non presentano un rischio superiore di contrarre un cancro al cervello o al sistema nervoso centrale, né di sviluppare tumori alle ghiandole salivari o agli occhi, o di ammalarsi di leucemia. Conclusione: non c'è alcuna evidenza che i telefoni cellulari causino il cancro. Il caso parrebbe quindi chiuso, o in procinto di chiudersi. In realtà è piú aperto che mai, è diventato se possibile piú complicato, e appare circondato da oceani ancora piú vasti di ignoranza tecnologica e scientifica. Hanno contribuito a riaprirlo e complicarlo da un lato lo straordinario successo commerciale dei cellulari, il cui numero nei maggiori paesi dell'UE è prossimo o supera quello degli abitanti; dall'altro, la rapida diffusione delle tecnologie wifi (Internet senza fili) e wi-max (Internet senza fili ad alta velocità), le cui reti coprono oggi non solo università o aeroporti, ma intere città. L'attività simultanea di decine di milioni di cellulari e milioni di pc e notebook connessi a Internet senza fili richiede decine di migliaia di antenne, trasmettitori, router, parabole. La presenza ubiquitaria di tali apparecchiature e il loro ininterrotto funzionamento nell'arco del giorno, ha fatto salire il livello di fondo delle radiazioni elettromagnetiche, nelle città, di centinaia di migliaia di volte rispetto a soltanto dieci anni prima. E tale esponenziale aumento dei GEM che ha fatto parlare di inquinamento elettromagnetico o smog elettronico. A esso è esposto evidentemente pur chi non fa uso di cellulari, mentre chi ne fa uso moltiplica, sommando il livello di fondo con quello individuale, la dose di radiazioni che assorbe. Diversamente da quanto accadeva sino a poco tempo fa, vari gruppi di scienziati - almeno quelli che non hanno rapporti diretti o indiretti con le telecom internazionali - si stanno muovendo. Cominciando con il sottolineare quanto sia grande l'area del «non sapere che cosa non si sa» circa gli effetti delle tecnologie che hanno alla base l'impiego di radiazioni elettromagnetiche. Significativa al riguardo è la «Deliberazione di Benevento», firmata da una trentina di ricercatori, tra cui parecchi italiani, dopo un convegno organizzato nel febbraio del 2006 nella città campana dalla International Commission for Electromagnetic Safety (ICEMS). I punti principali del documento, diffuso nel settembre del 2006, recitano: 1) Ulteriori evidenze accumulate suggeriscono che, ai livelli attuali di esposizione, vi sono effetti avversi alla salute derivanti dalle esposizioni della popolazione e delle lavoratrici e dei lavoratori ai campi elettrici, magnetici ed elettromagnetici, o CEM. Č necessaria, poiché non ancora realizzata, un'ampia, indipendente e trasparente disamina delle evidenze di questo potenziale problema emergente di salute pubblica. 2) Le risorse disponibili per accertare tale realtà sono fortemente inadeguate, malgrado l'esplosiva crescita delle tecnologie relative alla comunicazione «senza fili» e gli enormi continui investimenti nella costruzione di linee elettriche. 3) Vi è evidenza che le attuali fonti di finanziamento influenzano l'analisi e l'interpretazione dei risultati della ricerca nella direzione di rifiutare l'evidenza dei possibili rischi per la salute pubblica. 4) La tesi che i campi elettromagnetici di bassa intensità non possono avere effetti sui sistemi biologici non rispecchia l'attuale spettro di opinioni scientifiche. 5) Sulla base della revisione da noi effettuata degli studi scientifici, appare che effetti biologici possono essere dovuti all'esposizione sia ai campi elettromagnetici di bassa frequenza (ELF), sia a quelli in radiofrequenza (RF). Evidenze sperimentali epidemiologiche, in vivo e in vitro, dimostrano che l'esposizione a specifici campi elettromagnetici a bassa frequenza (ELF) può aumentare il rischio di cancro nei bambini ed indurre altri problemi di salute sia nei bambini che negli adulti. [...] 6) Noi incoraggiamo i governi ad adottare linee guida per la esposizione della popolazione e delle lavoratrici e dei lavoratori basate sul «principio di precauzione» come già alcune nazioni hanno fatto. Questi scienziati difficilmente otterranno quello che chiedono - soprattutto maggiori investimenti in ricerche indipendenti - senza l'appoggio della società civile. A tale scopo sarebbe necessario istituire forme innovative di relazione tra questa e la scienza, una sorta di nuovo contratto sociale, in presenza dei condizionamenti politici ed economici cui la scienza è esposta. Tornerò su questo punto nelle conclusioni (ma si veda anche, in questo volume, il capitolo IX). | << | < | > | >> |Pagina 17Quando il poliziotto arresta il cattivo, nei film americani, gli recita la formula di rito: «Hai il diritto di tacere. Se parli, quel che dici potrà venire usato contro di te». Potrebbe essere utile far comparire una formula analoga sulla prima schermata, ogni volta che si accede al web. Ben sapendo che con il web tacere è quasi impossibile. Per prima cosa, il codice di identificazione del computer che si sta usando viene trasmesso automaticamente al server di ogni sito che andiamo via via consultando. In secondo luogo, per compiere qualsiasi operazione su un sito occorre inserire una password, che abbiamo scelto noi, ma è inevitabilmente legata ai dati personali che abbiamo dovuto comunicare al sito. Questo vale sia per i rapporti del consumatore con operatori economici privati (la sfera dell'e-commerce), sia per i rapporti del cittadino con l'amministrazione pubblica (la sfera dell'e-government). Tutte le operazioni che si effettuano su questo o quel sito — spedire una e-mail, comprare un libro, ottenere un certificato, acquistare un biglietto ferroviario, prenotare un posto a teatro o una visita presso la ASL, consultare un periodico, scaricare un file... — vengono da esso memorizzate per mesi o anni. Lo stesso accade con gli strumenti di pagamento che utilizziamo. Naturalmente non c'è solo il web in senso stretto a memorizzare tutto. Ci sono anche i circuiti e le banche dati delle carte di credito, del sistema sanitario, delle catene alberghiere, delle società che forniscono servizi di sorveglianza o sicurezza, delle banche, delle compagnie di assicurazione, della polizia, del fisco, del ministero degli interni, del ministero della giustiza, dei comuni — e alcune dozzine di altri.I primi studi sulla «morte del privato» a causa del web, condotti in prevalenza da un punto di vista giuridico, sono apparsi già alla fine degli anni Novanta. Dopo di allora si sono registrati immensi sviluppi tanto nell'estensione del web quanto nell'integrazione delle tecnologie informatiche con tecnologie audio e video, e nel numero degli utenti. Alla funzione originaria di mezzo di comunicazione senza confini, Internet e il web hanno finito per assommare quella di intricatissimi canali collettori e distributori di informazioni personali raccolte, oltre che attraverso gli accessi effettuati dall'utente, mediante una miriade di altri mezzi: dispositivi di identificazione con radiofrequenze (RFID: microprocessori che trasmettono informazioni su chi li porta); carte di identità elettroniche; lettori di impronte digitali; navigatori satellitari, gli onnipresenti telefoni portatili (di cui è possibile rilevare la posizione anche se sono in stand-by); software per impedire lo scaricamento di file non consentiti (digital rights management); apparati di sorveglianza installati in luoghi pubblici e privati. Contemporaneamente sono aumentati di n volte il numero e la tipologia di informazioni pro capite che in modo consapevole o meno gli utenti immettono in rete. Vi hanno contribuito sia l'aumento degli acquisti di beni e servizi in rete, sia la proliferazione dei blogs, lo scambio di foto e clip video, i network associativi, i metodi «wiki» che permettono agli utenti di modificare direttamente un testo presente nella rete — tutto ciò che al momento va sotto il nome generico di web 2.0, in attesa del futuribile web 3.0. Codesti sviluppi hanno fatto nascere due industrie dalle finalità contrapposte. La prima si occupa pubblicamente di «estrazione di dati» (data mining) dal web e dalle banche dati o circuiti che in vari modi sono collegati o - per mano di qualche esperto - collegabili a esso. Ovviamente i «minatori di dati» non si limitano ad andare su Google o Yahoo, anche se già per il solo tramite di questi motori di ricerca è ora possibile accedere agevolmente, e senza violare alcun sito riservato, a una quantità smisurata di informazioni. I minatori esplorano ogni possibile database che abbia una homepage nel web e vedono che cosa possono ricavarne. Se è ben protetto da firewall, verificano se per caso qualche canale in entrata o in uscita, o qualche altro nodo o giuntura della rete, non presenti perdite di «liquido informativo». Alle informazioni ricavate dal web e da diverse banche dati e circuiti viene poi aggiunto valore incrociando e tabulando i dati tra loro. Č questa l'operazione che possiede il massimo potenziale lesivo della privatezza. Ognuno, per dire, può essere contento di mostrare la sua cartella clinica al medico o magari al partner; un po' meno di sapere che essa è finita, anche solo in parte, al datore di lavoro o all'assicuratore. I principali clienti di questa nuova industria estrattiva sono notoriamente le grandi imprese, che utilizzano i dati per costruire profili analitici di gruppi e sottogruppi di potenziali consumatori, in modo da confezionare iniziative pubblicitarie sempre piú mirate. In posizione più defilata si collocano i governi, che in ogni caso operano anche intensamente in proprio come minatori e incrociatori di dati, di solito adducendo che lo fanno per ragioni di sicurezza nazionale, o tributarie. Infine chiunque può rivolgersi a una ditta di data mining per sapere, al prezzo di poche decine di dollari (prezzi USA: nella UE è da vedere) per ciascun tipo di informazione, quali sono i titoli, gli studi, i viaggi, le letture, le vicende matrimoniali, il reddito, le proprietà, le abitudini alimentari, gli eventuali problemi avuti con l'alcol o la droga, l'orientamento politico, ecc. di una determinata persona. Per cominciare bastano pochi dati: il nome, il codice postale, l'anno di nascita, anche approssimativo. I tempi per ricevere il file completo? Due o tre giorni. Per tali vie si sta sperimentando la realizzazione della società della sorveglianza totale e dei diritti denegati o lesi in ogni settore della vita sociale. Gli operatori dell'industria di estrazione dei dati si difendono asserendo che una volta soltanto i ricchi potevano permettersi di raccogliere tante informazioni in merito ad altre persone. Oggi la cosa è praticamente alla portata di tutti. La seconda industria, che vede coinvolti in diversi paesi anche dipartimenti universitari, è nata dalla volontà di rendere difficile la vita alla prima. Essa fa ricerca su sistemi informatici capaci di assicurare la segretezza delle informazioni che transitano per Internet, l'inaccessibilità dei dati personali memorizzati, e l'anonimità di questi quando debbano essere utilizzati, da enti legittimamente autorizzati, in forma statistica. Quindi mette a disposizione la tecnologia software a tal fine elaborata di enti pubblici e privati, e anche di singole persone (se non hanno troppi problemi di costo) che intendano garantire la privatezza dei dati dei loro utenti. Si è soliti formulare varie obiezioni all'ipotesi che attraverso il web stia arrivando la società della sorveglianza totale. Se c'è un problema, si sostiene, la politica e la legislazione vi porranno rimedio. Bisogna far rispettare in misura maggiore le leggi vigenti. Esistono già enti nazionali che si occupano efficacemente della questione, come in Italia il Garante per la protezione dei dati personali. Si farà in modo di formare gli utenti affinché usino maggiori cautele nell'accesso al web. In ogni caso i database pubblici sono adeguatamente protetti, ecc. Si tratta purtroppo di obiezioni che non colgono il punto, né sembrano aver presente la storia e l'evoluzione del web. Proprio nel paese dove il data mining si è maggiormente sviluppato, gli Stati Uniti, esistono fin dai primordi severe leggi a tutela dei dati personali digitalizzati. Una di esse è lo Health Insurance Portability and Accountability Act del 1996, che consente l'accesso ai dati per condurre ricerche di mercato ma vieta qualsiasi riferimento alle identità delle persone. Chi sa che ne pensano i datori di lavoro che in un paio di giorni al massimo sono in grado, negli Stati Uniti, di procurarsi un file medico completo di un qualsiasi dipendente o candidato all'assunzione. Si può aggiungere che una legge è sempre locale, mentre il web per sua natura è globale. Quanto alla sicurezza dei database pubblici, val la pena di notare che una rivista specializzata nella difesa informatica della privacy, il «Journal of Privacy Technology», pubblicato dalla facoltà di informatica della Carnegie Mellon University di Pittsburgh, ha lanciato a fine 2006 un concorso per il miglior articolo sulla privacy. Nel bando, allo scopo di orientare i concorrenti, vengono indicati oltre cinquanta temi da considerare per una trattazione, quasi tutti attinenti ad altrettanti punti di vulnerabilità dei dati che circolano nel web. I firewall sono soltanto uno di tali punti. Per quanto utili, non è soltanto a loro che si può affidare la salvezza del fondamentale complesso di libertà civili che il concetto di privacy sottintende. E nemmeno, piú in generale, ai software per la protezione dei dati. Lo sviluppo della società della sorveglianza totale dovrebbe essere contrastato anzitutto sul piano delle politiche della tecnologia e della scienza. A una conclusione simile perviene anche un'indagine condotta dall'ufficio del Technology Assessment del Parlamento europeo sui rapporti tra ICT e privacy in sette paesi (sei della UE piú la Svizzera), pubblicata a fine 2006. | << | < | > | >> |Pagina 21Lo scopo primario di politiche del genere, per tornare all'insieme delle tecnologie richiamate nei paragrafi precedenti e agli esperimenti fisici, biologici e sociali di massa alla cieca cui hanno dato inconsultamente origine, dovrebbe essere quello di ristrutturare l'area di ignoranza tecnica e scientifica che le circonda. Bisogna puntare a sapere che cosa non si conosce, e a valutare le conseguenze a lungo termine che quanto via via si giunge a conoscere può avere a carico della piú ampia tipologia possibile di proprietà degli esseri umani e dei sistemi di supporto alla vita. Un impegno tanto generale andrebbe convenientemente articolato in compiti piú specifici. Fra di essi metterei in primo piano:
– Trarre partito dalle lezioni tardive degli avvertimenti precoci,
come suggerisce un rapporto della European Environment Agency (EEA).
Altamente istruttivo a questo proposito è il caso dell'amianto (o asbesto). Che
le polveri d'amianto sospese nell'aria siano gravemente nocive per chi le inala
fu notato da un'ispettrice di fabbrica inglese ne 1898.
Lucy Deane ne aveva pure individuato la causa: la natura
vetrosa, tagliente delle particelle di polvere d'amianto,
da lei osservate al microscopio. Nel 1906 un altro ispettore di fabbrica,
questa volta francese, redige un rapporto dettagliato sulla morte di cinquanta
operaie tessili e le collega all'amianto presente nell'ambiente di lavoro. Dal
1935 in avanti tra gli operai delle fabbriche di
amianto cominciano a essere rilevati numerosi e differenti casi di cancro al
polmone e di mesotelioma, un tumore maligno che oltre alla
pleura può colpire altri tessuti di cavità sierose (peritoneo, ecc.). Negli anni
Sessanta un tasso eccezionalmente alto di mesoteliomi viene
osservato sia tra i lavoratori dell'amianto di molti paesi, sia tra i loro
parenti e in persone residenti nei pressi delle fabbriche. Negli anni Ottanta
sindacati, associazioni ecologiste e altri gruppi premono
sui governi affinché introducano controlli piú stringenti sull'amianto. L'Italia
ha il merito di essere stata il primo paese europeo a vietare, nel 1993,
l'impiego dell'amianto in qualsiasi prodotto. Seguirono Francia e Regno Unito,
nel 1997-98, e l'anno dopo la UE in quanto tale. Nei cento anni trascorsi dal
primo avvertimento, i decessi causati dall'amianto nei soli paesi dell'Europa
occidentale sono stati milioni. Secondo il rapporto dell'EEA, altri 250-400 000
casi di cancro sono attesi di qui al 2035 a causa dell'esposizione pregressa a
tale sostanza. Di certo, al presente nessuno può affermare che biotecnologie,
nanotecnologie e campi elettromagnetici siano pericolosi quanto l'amianto. Ma
dagli studi compiuti su di esse provengono
comunque avvertimenti precoci, che converrebbe non lasciar degradare in lezioni
tardive. Un modo per farlo consisterebbe nel prendere maggiormente sul serio il
principio di precauzione (un basso livello di prova a indicare effetti nocivi
dovrebbe essere giudicato sufficiente per intervenire, quando sussiste il
pericolo di danni gravi o irreversibili), ed estenderlo ad ambiti molto piú
vasti.
– Tenere nel debito conto le esperienze e competenze dei portatori di
interesse.
Mi riferisco qui alle persone che entrano durevolmente in
contatto, per vie dirette e indirette, con una determinata tecnologia.
Per il fatto che con essa ci lavorano, in fabbrica o in ufficio, o conoscono per
mestiere le condizioni di chi ci lavora, tipo gli ispettori del
lavoro; oppure perché incontrano, in un ospedale o nello studio del
medico di base, persone che di essa sono state vittima o temono di
esserlo; o, ancora, perché vivono in zone del territorio su cui una tecnologia
ha prodotto o produrrà il suo impatto, come gli abitanti della Val di Susa
dinanzi alla prospettiva della linea ferroviaria ad alta
capacità. Anche questa è una lezione suggerita dal citato rapporto
dell'EEA, che però a differenza della precedente è applicabile direttamente a
tutte le tecnologie su cui ci siamo soffermati. Può succedere che i portatori di
interesse arrivino ad anticipare, talora di molti anni, l'opinione degli
esperti. Da ciò deriva l'importanza di dare peso alle loro osservazioni,
avviando indagini appropriate.
– Destinare una quota importante di investimenti a programmi di
ricerca sul lungo periodo.
Č un imperativo da opporre al «breve-periodismo» che domina la ricerca sugli
effetti delle bio-, nano- e radiotecnologie, derivante dalla cultura del mercato
che assedia la scienza. Esso dovrebbe valere sia nel campo del monitoraggio che
della valutazione di una tecnologia. Peraltro, mentre impostare
programmi del genere è indispensabile, bisogna affiancarli (re)introducendo
incentivi economici o di carriera per i ricercatori che
vorrebbero far ricerche sul lungo periodo. Al presente chi voglia
occuparsi di lungo periodo stenta a trovare finanziamenti, e se lavora in un
ente pubblico di ricerca, o all'università, le sue probabilità di vincere un
concorso scendono a zero.
– Cercare le conseguenze probabilmente già intervenute di una tecnologia, ma
insospettate o invisibili.
Questo impegno sarebbe da perseguire con la stessa tenacia, e con volumi di
investimento paragonabili, che si usa destinare alla ricerca delle conseguenze
future.
– Guardarsi dalle estrapolazioni uno-molti derivanti da campioni
inappropriati
(di tempi, fasi d'un processo, popolazioni, quantità o altro). Sono espresse di
solito con lunghe argomentazioni. Però si trovano anche utilmente compendiate in
battute di esperti, pubblicate in rapporti o articoli inerenti la valutazione di
questa o quella tecnologia. Per esempio: «I pessimisti avevano torto. Non è
ancora successo nulla». Questa ricorda la riflessione che fa un uomo buttatosi
dal centesimo piano di un grattacielo quando è a circa venti piani da
terra. Un altro caso comune di estrapolazione si riassume nella frase: «Guardate
quelle persone: lo fanno da decenni [qualsiasi cosa stiano facendo] e stanno
tutti bene». Qui siamo davanti a un campione
errato di popolazione: di norma quelli che non stanno bene non sono presenti. Un
caso ancora: «Quando si esagera [con l'uso di una
data sostanza o tecnologia] si corrono pericoli, ma a dosi minime gli
effetti negativi sono inesistenti». Ognuno di noi potrebbe agevolmente
costruirsi un folto dossier raccogliendo analoghe dichiarazioni estrapolative
rilasciate ai media da ricercatori o politici, concernenti le piú varie
tecnologie, dichiarazioni di cui molti studi han dimostrato da tempo
l'inconsistenza metodologico-statistica.
- Allargare l'orizzonte delle ricerche alle interdipendenze tra sistemi
viventi e tra tecnologie.
Quali precise interdipendenze esistano
tra i sottosistemi di supporto alla vita, o tra i sottosistemi
dell'organizzazione sociale, fa parte delle cose che gli esperti non sanno
di non sapere. Č dato presumere che una situazione analoga sussista in ordine
alle interdipendenze tra tecnologie in rapido sviluppo. Per altro, nel caso di
alcune di queste, per esempio le bio- e nanotecnologie, l'ipotesi che talune
interdipendenze esistano è già stata formulata ed è oggetto di ricerche - che
però non riguardano i pericoli derivanti da una reciproca ibridazione. Per altre
si naviga invece nell'ignoranza a-specifica.
- Non sottovalutare la «competenza collettiva», ossia la capacità di vasti
gruppi di non esperti di formulare valutazioni aggregate che alla fine risultano
corrette in misura pari o superiore a quelle di un esperto.
Per averla sottovalutata, uno scienziato inglese, Francis Galton (1822-1911),
padre degli studi sulla misurazione dell'intelligenza, rimediò una brutta
figura. Capitato in una fiera agricola dove si giocava a «indovina il peso del
bue», giurò che mai la folla dei presenti sarebbe riuscita a indicare con
precisione, a occhio, il peso dell'animale. Alla fine risultò invece che la
folla lo aveva stimato con una approssimazione dello 0,1 per cento (un decimo
di un punto percentuale). L'efficienza della competenza collettiva
è stata comprovata da numerose osservazioni sul campo e sperimentali. Le
politiche relative alle tecnologie di massa potrebbero trovare in essa una
risorsa di sicura utilità.
- Sviluppare teoria e pratica della conoscenza «socialmente robusta».
La conoscenza scientifica e tecnologica è stata tradizionalmente fabbricata in
laboratorio sulla base d'una ferrea opzione di metodo. Essa consiste nel
restringere il piú possibile il
rango dei fattori esterni capaci di influire sia sull'orientamento
delle osservazioni e della sperimentazione, sia sui loro esiti. In
altri termini il campo osservativo-sperimentale viene concepito
e strutturato come un'isola rigorosamente confinata e sorvegliata, dove nulla
può entrare o uscire senza il controllo dell'osservatore. Seguendo questo
procedimento «isolazionista» la conoscenza tecnoscientifica ha storicamente
acquisito l'elevata attendibilità e affidabilità che sono alla base dei suoi
successi.
D'altra parte il medesimo procedimento la rende socialmente debole. I valori, le
aspettative, gli interessi, gli scopi, le prospettive epistemiche, le conoscenze
tradizionali che sono stati esclusi
dall'isola del ricercatore si trasformano in resistenze, fraintendimenti,
critiche talora precostituite, ma sovente fondate. La conoscenza fabbricata nel
laboratorio può quindi diventare socialmente (piú) robusta se valori,
aspettative, interessi, ecc. entrano a far parte del processo di fabbricazione.
Č il processo noto, negli studi sociali sulla scienza, come
contestualizzazione.
I contesti esterni, pubblici, invadono il mondo dianzi privato della
scienza e della tecnologia e modificano le condizioni in cui obiettività e
attendibilità sono dichiarate. Questo, in realtà, è già
parzialmente avvenuto nel corso dell'industrializzazione e commercializzazione
della ricerca scientifica. Ne sono però rimasti
esclusi ampi strati della società civile, portatori di altri interessi, che ora
chiedono di essere rappresentati anch'essi nella produzione di conoscenza e, piú
in generale, nella formulazione di politiche scientifiche e tecnologiche.
- Sviluppare teoria e pratica delle ricerche transdisciplinari. Un grande biochimico, Erwin Chargaff (1905-2002), ebbe a scrivere che a causa dell'avanzatissima specializzazione l'ermeticità è diventata un carattere distintivo dell'identità del ricercatore scientifico. Un ricercatore ammette di riconoscere un interlocutore come scienziato soltanto se non arriva a comprendere nulla di quello che dice. All'epoca in cui le tecnologie sono atte a mettere in pericolo l'esistenza stessa dei sistemi di supporto alla vita, l'ermeticità che separa le discipline può comportare un prezzo molto alto. Confini, componenti e funzioni di tali sistemi non coincidono affatto con i confini delle discipline accademiche; ciascuna di queste è dunque in condizione di coglierne, a fini sia di diagnosi che di prevenzione, solo aspetti assai limitati. Da questo timore è derivato il rilancio in anni recenti dell'antico tema della transdisciplinarità. Quest'ultima si distingue dalla interdisciplinarità perché non si limita a postulare un dialogo tra le discipline, bensí propone un rimescolamento dei confini delle medesime guidato da bisogni, priorità e aspettative sociali. Ma la transdisciplinarità non è riducibile a un impegno; richiede metodi, strumenti e deliberazioni. | << | < | > | >> |Pagina 26Per far fronte ai suddetti compiti, siano essi riferiti alle tecnologie di massa che ho introdotto quali casi esemplari, oppure ad altre, sono necessarie profonde innovazioni, al tempo stesso politiche, sociali e culturali, dei processi di valutazione della tecnologia. Il loro comune denominatore dovrebbe essere un tasso sostanzialmente piú elevato di partecipazione democratica alla valutazione. Ciò comporta che quest'ultima sia estesa alla scienza che una data tecnologia incorpora. Il technology assessment va ampliato e trasformato in science assessment. Come ha scritto uno specialista degli studi sulla tecno-ignoranza:Scopo del science assessment non può piú essere esclusivamente il miglioramento della conoscenza in merito alle conseguenze della scienza e della tecnica. Deve piuttosto proporre e verificare strategie di approccio all'ignoranza [Nichtwissen] scientifica o indotta dalla scienza, nonché al dissenso normativo (relativo cioè a valori). Questo implica che il science assessment deve venire allargato in modo sostanzialmente piú robusto oltre l'orizzonte del sapere degli esperti, e deve includere altre forme di conoscenza e di attori sociali. Occorre sottolineare con enfasi che la partecipazione democratica alla valutazione della tecnologia e della scienza, alla cui necessità qui si rimanda, non è semplicemente identificabile con un miglioramento della comunicazione al pubblico (portatori di interessi, laici interessati o pubblico generico) dei risultati delle ricerche svolte dagli esperti, e tanto meno si esaurisce in esso. Per certi versi, anzi, si tratta di approcci opposti. L'approccio comunicativo si fonda sul presupposto che gli unici depositari del sapere utilizzabile per valutare una tecnologia siano gli esperti (tecnici, accademici, ricercatori, scienziati, ecc.) o i politici (i responsabili del policymaking tecnologico) da essi informati. Dato che il pubblico è considerato per definizione ignorante, non sotto il profilo epistemologico bensí nel senso ordinario del termine, e motivato da tale ignoranza può opporre resistenza alla diffusione di una tecnologia perché non ne comprende l'utilità e le conseguenze, gli esperti e i politici debbono sobbarcarsi l'onere di comunicare a esso con maggior chiarezza i termini reali della questione. Per contro l'approccio partecipativo si fonda sul presupposto che il pubblico, qualora gli sia dato modo di discutere ed esprimersi in forme e luoghi appropriati, sia atto a orientare gli esperti verso ciò che non sanno - l'area della tecno-ignoranza specifica - o non sanno nemmeno di non sapere - la tecno-ignoranza a-specifica. In tal modo la partecipazione contribuisce ad arricchire, complessificare e rendere cognitivamente piú robusta la valutazione, conforme a quanto indicato sopra, oltre che socialmente legittimata. Per potersi realizzare, la partecipazione democratica alla valutazione della tecnologia e della scienza richiede strutture idonee. A questo riguardo meritano attenzione le esperienze internazionali. Dagli anni Novanta in poi, Regno Unito, i paesi scandinavi, Austria, Belgio, Francia, Germania e Svizzera hanno provveduto a moltiplicare, spesso per iniziativa dei governi, numerose forme di strutturazione del discorso tecnologia-scienza-pubblico, sia a tempo che permanenti. Per mezzo di esse la scienza parla al pubblico in riferimento a temi e problemi specifici; il pubblico parla alla scienza, e questa sta a sentire. Sono comitati «ibidi», formati da esperti laici ed esperti tecnici con uguale diritto di parola; giurie di cittadini che folmulano giudizi circa l'impatto locale di una tecnologia; fori di discussione on line cui partecipano migliaia di persone; simposi, conferenze, consigli etici; centri di ricerca e dipartimenti universitari specializzati negli studi sociali sulla scienza e la tecnologia; accademie che combinano la valutazione della tecnologia con studi sull'etica della scienza; fondazioni per le «scienze cittadine»; uffici parlamentari già preposti all'ordinaria valutazione delle conseguenze della tecnologia, fondata sul parere esclusivo di gruppi di esperti, che si aprono alla prassi della partecipazione pubblica. Al momento nulla di paragonabile sembra esistere in Italia. Nel nostro Parlamento esiste un Comitato per la valutazione delle scelte scientifiche e tecnologiche, formato in tutto da dieci deputati, che ogni tanto si riunisce (per la precisione nove volte in totale, per una giornata, nell'intera legislatura 2001-2006) onde ascoltare «esponenti autorevoli» di istituzioni scientifiche pubbliche e private: una pratica di technology assessment che era da considerare superata almeno mezzo secolo fa. D'altra parte i dibattiti e le manifestazioni che da alcuni anni si sono svolti in numerose regioni, su temi che vanno dalla TAV alle centrali per la produzione di energia, dalle radiazioni elettromagnetiche ai rigassificatori, spesso sbrigativamente liquidate dai media e da molti politici quali espressioni della sindrome «non nel mio cortile», attestano l'esistenza d'una domanda di partecipazione della società civile alle politiche scientifiche e tecnologiche che per ampiezza e spessore non è seconda a quella di alcun altro paese. Toccherebbe ora da un lato alla politica, dall'altra alla comunità dei ricercatori, trovare le modalità per strutturare tale domanda in forme atte a consolidare l'interazione sociale e discorsiva fra i tre mondi. In effetti le iniziative citate, là dove esistono, si muovono verso l'orizzonte di un'istituzionalizzazione politica del discorso tra scienza, tecnologia e società civile. E a questo proposito che si parla di un nuovo contratto sociale tra le prime e la seconda. Secondo il contratto tradizionale, la scienza era intesa produrre in modo affatto autonomo conoscenze attendibili e affidabili; l'unico problema riguardava la sua capacità di comunicarle e farle comprendere al pubblico. Un nuovo contratto dovrebbe prevedere che la conoscenza scientifica — in primo luogo quella incorporata nella tecnologia — sia socialmente robusta, perché contestualizzata, e sia prodotta con modalità che la società civile reputa trasparenti e partecipative. Se intende diventare un oggetto culturalmente piú sostanziale di quanto non sia una formula in voga per dire che va accresciuta la competitività economica, la società della conoscenza ha bisogno di far crescere, nei suoi molteplici e complessi significati, la democrazia della conoscenza scientifica e tecnologica. | << | < | > | >> |Pagina 252Capitolo nono
Politiche della scienza nella società mondo
1. L'aspra via della scienza verso lo statuto di bene pubblico globale. La società mondo viene rappresentata dalla teoria sociologica come un'unica società priva di confini, differenziata in sottosistemi funzionali - economia e politica, riproduzione socioculturale e comunità - il cui carattere specifico consiste nel non avere al di fuori di sé, nel proprio intorno, alcun «ambiente sociale», ossia nessun'altra società con cui interagire. L'unico ambiente che ha intorno è il sistema biofisico del pianeta. Tra i principali sottosistemi che nel loro stato attuale distinguono la società mondo, e per certi versi la costituiscono, molti sono orientati a includere la scienza. Tale impostazione ha un doppio debito nei confronti dell'approccio teorico di Niklas Luhmann. Da un lato Luhmann è stato uno dei primi a proporre di concepire la società mondo come un unico sistema sociale differenziato in sottosistemi di estensione planetaria. Successivamente, in Die Wissenschaft der Gesellschaft (1990) egli ha inteso, sin dal titolo, offrire un'analisi della scienza non come «un osservatore del mondo sospeso nell'aria, bensí come un'impresa della società che alimenta il sapere, piú precisamente come un sistema funzionale della società». Nel modello di società mondo elaborato da Luhmann la scienza assume la configurazione d'un sistema unico di produzione di conoscenza empiricamente fondata. Un sistema che travalica i confini nazionali e di fatto è, dal punto di vista comunicativo, del tutto autonomo rispetto a essi: è la scienza mondo, la scienza globale. Entro lo stesso quadro, l'idea dell'unicità planetaria della scienza, della sua avvenuta e incontrovertibile universalizzazione, è rafforzata dalla constatazione del suo essere un sistema mondo non confrontato da alcuna eterodossia, ovvero da alcuna alternativa plausibile. Al livello piú comune di osservazione, tale condizione parrebbe sin da ora definitivamente acquisita in forza dell'universalità dei codici e delle pratiche degli scienziati, a prescindere dal paese in cui operano, e delle reti di comunicazione transnazionali che fra di loro si sono sviluppate. Tale conclusione osservativa è rafforzata dalla convinzione diffusa che in molti ambiti di ricerca si siano compiuti tali passi avanti da poter considerare come residuali i problemi che ancora rimangono aperti. Ne segue che per molti osservatori la scienza è uno dei pochi, se non anzi l'unico candidato che possa pretendere fuor di discussione allo statuto di globalità di un sistema funzionale. Inoltre nel caso della scienza la diagnosi di validità e rilevanza mondiale viene condivisa in ugual misura tanto da osservatori interni [ovvero dagli scienziati stessi] quanto da soggetti esterni. In effetti a molti la globalità della scienza sembra una circostanza scontata. Malgrado ciò, sussistono varie ragioni che consigliano di problematizzare l'apparente globalità della scienza. La principale è che una scienza realmente globale, una scienza mondo, dovrebbe presentarsi di per sé con lo statuto di bene pubblico globale (d'ora innanzi BPG). Capita invece che da un simile statuto la scienza contemporanea si prospetti alquanto lontana. Ciò a causa tanto di sue caratteristiche interne, quanto dei condizionamenti politici ed economici cui è esposta. Nelle sezioni successive saranno delineate alcune di tali caratteristiche e condizionamenti. In questo paragrafo proverò a delimitare i contorni dell'idea di scienza - intesa a un tempo come fabbrica di conoscenza e cumulo di conoscenze empiricamente quanto metodicamente validate da essa prodotte - quale bene pubblico globale. Un bene, categoria che include i servizi, si può definire «pubblico» quando si verificano due condizioni: il suo consumo da parte di A non riduce la possibilità di B di consumarlo a sua volta, né si può escludere chicchessia dal farne consumo. In via di principio un tipico bene pubblico è la conoscenza, che include ovviamente la conoscenza scientifica. Se il giovane A acquisisce conoscenza frequentando una biblioteca civica, non la sottrae al giovane B. E nessuno può legittimamente escludere A, B o C dall'acquisizione di conoscenza tramite una biblioteca civica — a parte l'eventuale insorgere di problemi di sovraffollamento. Un bene pubblico cosí definito merita il predicato «globale» allorché tende all'universalità, nel senso che di esso sono in grado di potenzialmente beneficiare tutti i paesi e tutti i gruppi della popolazione, soddisfacendo i bisogni delle generazioni presenti senza compromettere quelli delle generazioni future. Anziché «globale», un bene pubblico viene denominato «internazionale» quando esso sembra potersi efficacemente o utilmente estendere a un certo numero di paesi, ma non a tutti. Un corollario ormai usuale della definizione resa sopra precisa che i BPG sono beni o servizi che possono venire prodotti ed erogati con efficienza piú a livello internazionale, mediante azioni collettive di governi o paesi, che a livello nazionale. Per dire, la riduzione del buco dell'ozono è un BPG. Nessun paese può farvi fronte da solo. Dagli anni Ottanta del secolo scorso in poi, i processi di globalizzazione hanno contribuito a rafforzare oggettivamente la suddetta tendenza a concepire su basi universalistiche vari generi di beni pubblici. Un punto di partenza è stata l'osservazione della presenza crescente di mali pubblici globali, intanto che gli studi su di essi sollecitavano una loro sistemazione teorica. Va qui subito menzionata, poiché sta nello sfondo di questo saggio, una nozione che negli studi sui beni pubblici ha via via assunto maggior peso: la natura «pubblica» di un bene dipende, non meno che da certe sue caratteristiche intrinseche, da decisioni sociali, politiche ed economiche. In astratto, la scienza contemporanea sembra già possedere tutte le caratteristiche per essere definita un bene pubblico globale. Nella letteratura che tratta specificamente di questo tema, in realtà alquanto scarsa, le definizioni convergono quasi tutte in tal senso. Un loro campione rappresentativo potrebbe essere questo: La conoscenza scientifica nella sua forma relativamente pura è l'epitome di un bene pubblico globale. Di norma è liberamente disponibile a tutti e l'uso non ne diminuisce il volume – è anzi possibile che con l'uso questo aumenti. Inoltre, grazie ai miracoli dei moderni sistemi di comunicazione, può essere trasmessa quasi istantaneamente in ogni parte del mondo. Non altrettanto univoche sono le ulteriori specifiche della concezione della scienza come BPG. Essa viene trattata in prevalenza come un BPG intermedio o strumentale, un bene utile per produrre benefici che vanno al di là di esso, ovvero per generare altri BPG. Tra i BPG che la scienza dovrebbe contribuire a generare figurano in primo piano la crescita economica e, piú di recente, lo sviluppo sostenibile; l'innovazione tecnologica; la produzione e diffusione di conoscenza (cfr. in questo volume il capitolo VII); la riduzione della povertà estrema; la salute collettiva ovvero l'eliminazione del rischio malattia; il controllo del cambiamento climatico; la qualità dell'ambiente. Seguono, come frequenza, beni quali la conservazione della biodiversità e delle risorse idriche. Meno comuni delle designazioni della scienza come BPG strumentale o intermedio risultano invece le designazioni della scienza come BPG finale o primario, un bene la cui disponibilità reca di per sé benefici. In questo caso, essi hanno veste di crescita intellettuale delle persone, diffusione di forme d'argomentazione razionale, sollecitazioni al mutamento trasmesso ad altri settori del sottosistema culturale e del sistema sociale in genere. Fissate queste prime definizioni, occorre stabilire quale sia la misura reale della diffusione della scienza come BPG intermedio e finale e, ove si constati che tale misura è insufficiente, nel senso di non essere ancora globale, quali ne siano le cause. Non v'è dubbio che la diffusione della scienza come BPG intermedio o strumentale abbia contribuito allo sviluppo economico, all'aumento del livello di vita e al notevole allungamento della speranza di vita osservati tra il 1950 e gli anni 2000 in almeno due terzi dei paesi del mondo. A fronte di essi non mancano gli indicatori di segno contrario. Per limitarsi ad alcuni: quattro decimi della popolazione mondiale - oltre due miliardi e mezzo di persone, secondo i dati della Banca mondiale - sopravvive con consumi valutabili in parità di potere d'acquisto a due dollari al giorno o meno; in numerosi paesi, dagli anni Novanta in poi, la speranza di vita risulta stagnante o in diminuzione; 5 milioni di persone muoiono ogni anno di AIDS, malaria e tubercolosi; 800 milioni di persone soffrono la fame; poco meno di un miliardo vivono in slum; 25000 bambini sotto i cinque anni muoiono ogni giorno per patologie che sarebbero prevenibili o curabili con una spesa esigua pro capite; 1,2 milioni di persone muoiono ogni anno in incidenti d'auto. La World Health Organization stima che senza interventi incisivi questi aumenteranno del 65 per cento nei prossimi vent'anni, portando il totale a circa 2 milioni di decessi annui (cfr. in questo volume il capitolo IV). Sono situazioni simili a essere talora designate mali pubblici globali. Quanto all'uso della scienza come BPG finale, esso è notevolmente cresciuto tra la popolazione dei grandi paesi emergenti - Brasile, Cina, India - ma in interi continenti come l'Africa esso rimane un privilegio di pochi. L'obiezione che non spetta alla scienza far arrivare a chi può giovarsene i suoi esiti applicativi come bene strumentale, o a chi vi è interessato il suo uso come bene finale, poggia su basi fragili. La ragione principale che si possa addurre, a dimostrazione della fragilità di tale argomentazione, è che lo stato di gran parte del mondo occupa ben poco spazio nell'agenda della scienza. Infatti, a livello mondiale, la scienza contemporanea destina oltre il 90 per cento del proprio bilancio a linee di ricerca che sono suggerite dalle condizioni di vita; dagli interessi materiali e ideali; dai modelli di produzione e di consumo; dai problemi individuali e collettivi del 20 per cento piú affluente della popolazione mondiale, quel 1,2 miliardi di persone che già alla fine del Novecento producevano e si spartivano l'86 per cento del PIL del mondo, mentre al quintile piú povero andava poco piú dell'1 per cento. Per esempio, la spesa globale per la ricerca sanitaria si è aggirata nel 1998 sui 70 miliardi di dollari, ma di essi soltanto 300 milioni sono stati dedicati a vaccini anti-HIV e 100 milioni a vaccini antimalarici. HIV-AIDS e malaria sono tra le principali cause di morte in età giovanile nei paesi poveri. Indicatori del tipo sopra richiamati, e la asimmetricità dei suoi impegni di ricerca, mostrano che la tendenza all'universalità o globalità dei benefici inter-popolazione e inter-paese che la scienza dovrebbe arrecare ha ancora un lungo cammino da compiere. Va altresí notato che la globalità della scienza come BPG, sia intermedio che finale, mostra, almeno in alcuni campi, evidenti segni di regressione pur nei paesi in cui essa si era in passato maggiormente affermata. In sintesi, il mondo risulta afflitto da una sovraproduzione di mali pubblici globali, accanto a una sottoproduzione di beni pubblici globali che parrebbero capaci di curarli, quali appunto la scienza. Con tutto ciò, ancor piú degli indicatori in ordine sparso, a far dubitare che la scienza abbia già raggiunto lo statuto di BPG è la constatazione della insostenibilità dell'attuale stato del mondo, per produrre il quale è stato paradossalmente determinante appunto il concorso della scienza e delle sue ascendenze e discendenze tecnologiche. Al riguardo, cosí si è espresso un ampio gruppo di scienziati appartenenti a varie discipline: La via allo sviluppo che al presente il mondo sta seguendo non è sostenibile. Gli sforzi che si compiono per soddisfare i bisogni di una popolazione crescente in un mondo interconnesso ma diseguale, dominato dalla specie umana, stanno compromettendo i sistemi essenziali che sostengono la vita sulla Terra. La straordinaria complessità delle sfide che ci attendono è suggerita dalle interazioni che oggi emergono tra cambiamenti climatici globali e le profonde trasformazioni che sono in corso nella vita sociale ed economica. Un corollario tratto dagli stessi autori citati è che per affrontare le suddette sfide si rende necessario sviluppare una «scienza della (o per la) sostenibilità». Essa risulterà differente in misura considerevole, quanto a struttura, metodi e contenuto, dalla scienza come la conosciamo oggi. Un cambiamento di struttura, di metodi e di contenuti all'insegna della sostenibilità, ovvero del riconoscimento della insostenibilità del mondo attuale, farebbe compiere alla scienza un passo significativo verso lo statuto di BPG. A questo proposito un mutamento di paradigma, nel senso kuhniano del termine, appare indispensabile. Esso dovrebbe essere combinato con la rimozione di vari ostacoli di rilievo che provengono dalle attuali politiche della scienza, non meno che dagli intenti manipolativi che si sono affermati nei rapporti tra politica e scienza, e ancor piú tra economia e scienza. Sono ostacoli descritti nelle successive sezioni. Tuttavia, al fine di far emergere e dare riferimenti concreti alle suaccennate differenze che la «scienza della/per la sostenibilità» verrebbe a presentare rispetto alla scienza consolidata — analizzate da una crescente letteratura, ma lungi dall'essere universalmente accolte — è utile un confronto, soprattutto sul terreno dell'ecologia, con i sistemi di conoscenza tradizionali, preesistenti alla scienza quale istituzione formale. | << | < | > | >> |Pagina 2714. L'ambivalente mondializzazione della scienza tramite la tecnologia.A onta del suo essere incompleta come scienza mondo, e dei numerosi ostacoli che si frappongono al completamento di essa in tale ruolo, rimane lecito affermare che la scienza è divenuta negli ultimi decenni piú «mondiale» di quanto non sia mai stata. Lo attestano il numero crescente di ricercatori attivi nei paesi in via di sviluppo, nonché di laureati in materie scientifiche; il flusso di domande di brevetto che da tali paesi provengono; la proliferazione in ogni paese di riviste scientifiche vieppiú specializzate; la nascita ovunque nel mondo di nuovi centri di ricerca. Sotto questo profilo, la mondializzazione della scienza è stata sospinta dalla tecnologia piú che da ogni altro fattore. Ancora una volta intendo qui per tecnologia semplicemente l'insieme di macchine, strumenti e altre strutture materiali e immateriali che vengono progettate e costruite per ottenere scopi pratici. Rispetto per esempio ai capitoli III e IV è però diversa la finalità argomentativa: oggetto non è qui il contributo della tecnologia alla sopravvivenza estesa di individui e sistemi sociali, bensí l'importanza della tecnologia per l'esistenza stessa della scienza. La tecnologia ha diffuso nello spazio planetario la scienza, sistema di prassi e conoscenza, attraverso due processi interagenti, che si sovrappongono per natura e nel tempo: sono l'accelerazione del tasso di (a) tecnologizzazione della scienza e (b) scientificazione della tecnologia. La modellizzazione che qui adotto dei rapporti tra scienza e tecnologia si contrappone alla nozione della tecnologia come scienza applicata, concettualmente distinta dalla scienza di base. Nonostante ricorra ancor oggi in libri di testo, progetti di ricerca e decreti governativi, l'identificazione di tecnologia e scienza applicata è mal riposta, al pari della separazione tra scienza applicata e scienza di base già criticata sopra. Essa appare superata anzitutto a causa delle sue vetuste origini, di per sé implicanti che essa ignora i rivoluzionari cambiamenti intervenuti nei decenni successivi in campo tecnologico e scientifico. Risalendo nel tempo, una sua nitida definizione si può trovarla in un rapporto del direttore dello US Office of Scientific Research and Development trasmesso al presidente degli Stati Uniti nientemeno che sessant'anni fa. Esso diceva: La ricerca di base conduce a nuova conoscenza. Fornisce il capitale scientifico. Crea il fondo da cui debbono essere ricavate le applicazioni pratiche della conoscenza. [...] Oggi è piú vero che mai che la ricerca di base è il battistrada del progresso tecnologico. Vista a posteriori, tale nozione meccanico-lineare delle relazioni tra scienza e tecnologia non soltanto risulta superata dai successivi sviluppi e reciproche ibridazioni: va aggiunto che essa poggiava, già alla sua epoca, su scarsi supporti storici ed empirici. Dal punto di vista storico, la nozione di tecnologia uguale scienza applicata non regge. Di fatto la tecnologia in molti casi ha preceduto la scienza, piuttosto che seguirla. Come dicono gli storici della scienza: la scienza - nel caso specifico la termodinamica - è in debito con il motore a vapore assai piú di quanto quest'ultimo non lo sia con la scienza. Supporti adeguati per tale nozione non sono nemmeno reperibili sul piano sincronico della prassi empiricamente osservabile di costruzione e incorporazione della conoscenza. In realtà sin dagli esordi la costruzione della conoscenza scientifica è avvenuta per mezzo di o con riferimento a strumenti, il che vuol dire per mezzo di o con riferimento a una data tecnologia. E una volta costruita, al fine di poter essere memorizzata, trasmessa, verificata, riprodotta, perfezionata, la conoscenza deve essere necessariamente inclusa in un mezzo materiale. Perciò lo strumento non è un mero ausilio della scienza; piuttosto esso la incorpora. Un dato strumento reca in sé modalità uniche di osservazione, di sperimentazione o di altra attività trasformatrice della realtà; sicché uno strumento diverso porta a impiegare, e in pari tempo a costruire, conoscenze differenti. Č questa l'ipotesi denominata incorporamento tecnologico della scienza, che oltre agli strumenti abbraccia la prassi dei ricercatori nel laboratorio. A sua volta l'importanza determinante assegnata agli strumenti ha accresciuto sia il tasso di conoscenze scientifiche investito nel loro sviluppo, sia l'intensità della strumentazione che si rende necessaria per costruirle e diffonderle. Intanto che la scienza diventava sempre piú tecnologica, la tecnologia diventava sempre piú scientifica. Questi processi di reciproca ibridazione e incorporamento si sono immensamente accelerati negli ultimi decenni, in parallelo con lo sviluppo di Internet e del web. Un centro di ricerca del paese B, scientificamente e tecnologicamente meno avanzato, che acquisisce dal paese A un microscopio elettronico a effetto tunnel per osservare eventi di scala nanometrica non entra semplicemente in possesso di quel nuovo strumento. Acquisisce anche le conoscenze nel campo delle nanoscienze relative alle nanotecnologie in esso incorporate. Dopodiché tenderà a espanderle connettentosi in rete con altri centri, e ricercando nel web altre conoscenze in esso circolanti. Così facendo contribuirà ad accrescere lo sviluppo di Internet, del web, delle banche dati scientifiche - gli strumenti tecnologici da cui, alla nostra epoca, dipende la comunicazione scientifica. Affiora qui il carattere ambivalente della mondializzazione in corso della scienza attraverso la tecnologia. Possediamo ora i mezzi che potenzialmente offrono una disponibilità immediata e distribuita di conoscenze scientifiche, su base mondiale. Al tempo stesso sono cresciuti gli ostacoli di varia natura che si oppongono all'attuazione di quelle potenzialità, e quindi alla loro conversione in BPG. Ostacoli economici: sappiamo come nei paesi sviluppati esistano oggi delle tecnologie mediche che in quanto incorporano conoscenze scientifiche avanzatissime, permettono interventi e cure di efficacia inimmaginabile anche solo dieci-quindici anni addietro. Succede però che il loro costo sia tale da imporre sgradevoli scelte: o lasciarle alla logica del mercato, ciò che in pratica finisce per renderle accessibili solamente a una quota ristretta di popolazione, su base privata; oppure rischiare di compromettere il bilancio dei sistemi sanitari nazionali ove si voglia erogare a tutti i loro benefici. Nei paesi in via di sviluppo, i costi elevati e crescenti della scienza tecnologizzata comportano serie difficoltà per acquisire regolarmente gli apparecchi piú aggiornati per la ricerca. Inoltre i costi locali dell'uso di Internet, in specie delle linee a banda larga, sommati al costo elevato dell'accesso a banche dati e alla letteratura scientifica, impediscono a molti ricercatori di far uso delle conoscenze prodotte in altre parti del mondo nel loro stesso campo di ricerca. Vi sono pure crescenti ostacoli di natura legale a ostacolare l'accesso e la comunicazione della scienza. Il rafforzamento di varie forme di protezione della proprietà intellettuale (PPI), generata congiuntamente dalla commercializzazione della scienza, da opzioni politiche conservatrici, e da una cultura giuridica in ritardo dinanzi all'evoluzione della scienza e della tecnologia, genera mostri. Tra di essi si colloca l'impossibilità di accedere a conoscenze scientifiche depositate in banche dati, privatamente gestite, da parte degli stessi ricercatori che in precedenza le avevano prodotte grazie a fondi pubblici, come quelli su cui si reggono le università statali. Né mancano gli ostacoli di tipo tecnologico-informativo. Se una ricercatrice chiede al web informazioni concernenti un processo biochimico relativo ai seco carotenoidi, e questo le propone in 0,10 secondi 12 000 riferimenti alla letteratura del ramo, una simile alluvione informativa risulta, nella prassi della ricerca, pressoché equivalente all'assenza di informazione. Quando capitano simili casi, oggi comuni, diventa infatti impossibile consultare, vagliare criticamente, organizzare in ordine di rilevanza, la massa a-strutturata di dati che le tecnologie della comunicazione mettono a disposizione. Allo scopo di alleviare o rimuovere gli ostacoli di natura economica, legale e tecnologica che si frappongono all'uso libero e distribuito della conoscenza scientifica, presupposto della sua ascesa allo statuto di BPG, sono state intraprese nel mondo numerose iniziative. Le prime a concretarsi su scala relativamente ampia sono state quelle che riguardano l'accesso libero (open access) a riviste elettroniche e banche dati, offerto da associazioni scientifiche, accademie - tra le quali si distinguono le accademie delle scienze degli Stati Uniti - e università. Del 2005 è il progetto «Science Commons», volto ad applicare alla letteratura e ai dati scientifici archiviati in forma digitale il principio dei creative commons, dittico che sta per «beni comuni nell'ambito della creazione intellettuale». In forza di codesto principio gli autori possono strutturare i loro diritti privati per conferire alle loro opere, in una certa misura, il carattere di beni pubblici. Le opere create originalmente sono quindi rese disponibili a titolo gratuito per determinati usi e classi di utenti - per esempio insegnanti, studenti, ricercatori - in conformità con l'intento specifico dell'autore. All'incirca alla stessa epoca risale l'idea di sviluppare un «web semantico», designato anche con la sigla web 3.0. In concreto dovrebbe trattarsi della combinazione d'un software intelligente, capace di reperire e soprattutto organizzare in modo utile per il ricercatore l'informazione presente nel web, con un linguaggio dichiarativo di tipo «ontologico»; capace, cioè, di individuare il contenuto significativo di un testo indipendentemente dal linguaggio naturale o tecnico in cui si trova espresso, e quindi indicizzarlo in tale forma, in luogo della veneranda forma delle parole chiave. Ciascuna delle iniziative indicate appare promettente per far compiere alla scienza ulteriori passi sulla via per diventare un autentico BPG. Tuttavia le difficoltà che a esse si oppongono sono immense. L'ulteriore diffusione dell'accesso libero, che pure va coprendo dopo pochi anni uno spazio non trascurabile, ha contro di sé anzitutto gli interessi dei potenti editori internazionali di testi scientifici. A essi si aggiungono gli interessi della gran maggioranza dell'establishment giuridico e politico, posto che questo scorge nella scienza anzitutto un fattore di competitività economica nazionale; un'opzione che cozza frontalmente con l'idea di accesso libero, su scala mondiale, alla conoscenza scientifica. A sua volta il percorso scelto per i science commons trova i ricercatori divisi tra la speranza di poter accedere liberamente alle scoperte altrui, e il desiderio di tenere per sé le proprie, anche per trarne un ritorno economico. Una divisione che passa, oltre che tra gruppi e comunità scientifiche, entro le singole persone. Infine lo sviluppo di un linguaggio «ontologico» o contenutistico e del software «organizzatore di conoscenza», prefigurati dall'idea di web semantico o web 3.0, potrebbe richiedere decine di anni. Considerate tali difficoltà, è assai probabile che il cammino della scienza verso lo statuto di BPG sia ancora bloccato a lungo dalla gabbia tecnologica che essa medesima ha costruito in sé e attorno a sé. Al punto di non poterne piú fare a meno, poiché è parte costitutiva della sua stessa identità. | << | < | > | >> |Pagina 2765. Manipolazioni della scienza a fini politici.Sul futuro prossimo della scienza come BPG, inclusa la sua trasformazione in scienza della sostenibilità, non s'incontrano soltanto gli ostacoli d'ordine generale, sebbene di diversa provenienza, sin qui delineati. Gravano anche pesanti interventi diretti che premono in direzione esattamente opposta all'idea di BPG. Esponenti dell'establishment scientifico non esitano a definirli minacce rivolte alla scienza. Lo ha fatto, tra gli altri, il presidente allora in carica della National Academy of Sciences statunitense, Bruce Alberts, nell'incontro annuale dei suoi rappresentanti svoltosi nel 2002. Le minacce allo statuto di BPG della scienza possono suddividersi in due grandi gruppi: uno ha che fare con le manipolazioni della ricerca scientifica a fini politici; l'altro — riprendo le parole del cennato presidente — con lo scontro tra la cultura scientifica e la cultura del mercato, da cui è derivata una crescente commercializzazione della scienza. Si parla di manipolazione della scienza a fini politici quando un governo o una maggioranza parlamentare operano per via legislativa, o con pressioni dirette e indirette, oppure negando i finanziamenti necessari, in modo da ottenere uno o piú di questi effetti: impedire che si compiano ricerche su un dato tema perché temono che i risultati sarebbero di ostacolo alla loro politica o nuocerebbero alla loro immagine; ritardare l'esecuzione delle ricerche stesse fino a renderle inutili; nel caso in cui le ricerche siano state comunque effettuate, ostacolare la diffusione dei loro risultati o altrimenti farli diffondere in maniera distorcente mediante appropriate operazioni selettive. Le probabilità che si verifichino le suddette forme di manipolazione della scienza da parte del potere politico aumentano allorché sono in gioco «politiche fondate sull'evidenza» (evidence-based policies). Realizzazione di grandi opere, investimenti nella sanità, regolazione delle biotecnologie, tipologia degli impianti energetici: per prendere decisioni in simili ambiti i governi richiedono sempre piú spesso alla scienza di fornire analisi e basi adeguate di dati. Quel che avviene è che a mano a mano che agenzie statali, centri accademici, e i ricercatori con essi affiliati forniscono una quota crescente della base scientifica da utilizzare per le decisioni di policy, esse sono anche oggetto di sforzi intesi a politicizzare o mettere a tacere la ricerca scientifica obiettiva. Dette azioni impiegano in misura crescente strategie sofisticate e complesse che pongono a rischio le politiche fondate sull'evidenza. Una nuova forma di manipolazione della scienza da parte del potere politico è insita nella possibilità di restrizioni eccessive alla pubblicazione e circolazione di testi e dati scientifici, sia in veste cartacea sia attraverso Internet, motivate inizialmente da preoccupazioni per la sicurezza. Č una ricaduta perversa del terrorismo e delle contromisure adottate dopo l'11 settembre, già toccata sopra (paragrafo 4). Alcuni osservatori temono che tali contromisure possano venire estese dai governi, ben al di là delle legittime motivazioni originarie, nell'intento di sottoporre a censura la scienza e quindi ridurre la disponibilità di conoscenze scientifiche come bene pubblico. Il procedimento piú semplice, di cui il governo Bush negli Stati Uniti ha usato e abusato, è quello della classificazione o secretazione. In altre parole si stabilisce mediante una legge, anche retroattiva, e per periodi sempre piú lunghi, che una data materia o linea di ricerca o insieme di risultati è segreto di stato, per cui è vietato comunicare i dati a chicchessia. Un divieto che può forse esser utile per combattere il terrorismo, ma può anche essere un modo per strangolare la ricerca su temi non graditi al governo, o per deviarla verso finalità illegittime oppure eticamente insostenibili. Si parla a sua volta di manipolazione della scienza per fini economici quando effetti analoghi a quelli sopra ricordati sono perseguiti da grandi imprese, associazioni di categoria, federazioni industriali, e anche gruppi professionali, che paventano ricadute negative sul loro volume di affari, nonché sui profitti, qualora determinate ricerche venissero compiute e rese integralmente note al pubblico. Mentre gli effetti cercati sono da ultimo gli stessi, i mezzi impiegati per ottenerli differiscono. In questo caso si lascia maggiore spazio a flussi di denaro che prendono forma di commesse a centri di ricerca amici; consulenze d'oro; borse di studio; finanziamenti della campagna elettorale di candidati e partiti affidabili, e compensi sottobanco. Un altro mezzo di manipolazione, che solo le maggiori società o gruppi economici possono permettersi, consiste nel commissionare grandi ricerche intese a dimostrare, ancor prima di avere inizio, l'opposto di quanto acquisito da precedenti ricerche non gradite. Pare doversi evidentemente desumere da questi intrecci che nè le manipolazioni della scienza da parte di attori politici, né quelle promosse da attori economici, sarebbero possibili senza l'attiva cooperazione, talora forzata dalle circostanze ma spesso consensuale, di attori interni al sistema scienza. In effetti la letteratura sulle minacce alla scienza riporta numerosi casi di dipartimenti universitari, interi atenei, accademie nazionali, centri di ricerca pubblici e privati, editori di riviste scientifiche, nonché una quota non trascurabile di singoli scienziati e docenti universitari, i quali hanno ceduto alle lusinghe o alle pressioni della politica e dell'economia. Prestandosi quindi a falsare, occultare, distorcere di fatto o presentare in modo distorto, per scopi privati, i risultati di ricerche che sarebbero utili alla collettività, e quindi a promuovere lo statuto della scienza come bene pubblico globale. Quanto detto sopra vale inoltre a notare che in realtà le manipolazioni della scienza per fini politici e quelle rivolte a fini economici sovente si sovrappongono, integrandosi in un unico processo. Ancor prima di essere eletti molti uomini politici lasciano intendere che il partito, ed entro di esso la loro corrente e loro stessi, sono favorevoli a una certa legge vista con favore da una data categoria o associazione economica. Se fossero eletti — ma le campagne elettorali sono costose — la probabilità di far passare quella legge aumenterebbe. Quanto a loro, i soggetti economici esercitano pressioni e suasioni quotidiane per orientare a loro favore l'attività dei corpi legislativi. Non a caso le lobby delle corporation costituiscono, a Bruxelles come a Washington, il maggior datore di lavoro privato. D'altra parte vale anche la prospettiva inversa: proprio l'intervento della politica può essere necessario ove si vogliano contrastare le manipolazioni aventi finalità economiche. Esso viene richiesto, ad esempio, per invertire la tendenza a una eccessiva privatizzazione delle risorse della scienza, che riduce il perimetro del dominio pubblico nei paesi sviluppati, e ritarda la crescita della cultura scientifica nei paesi in via di sviluppo.
A onta di tali sovrapposizioni, per maggior chiarezza le due forme di
manipolazione della scienza saranno tratteggiate separatamente. In questo
paragrafo vengono riportate alcune forme di manipolazioni della scienza a fini
prevalentemente politici, lasciando
al successivo l'esame di quelle in cui prevalgono fini economici.
|