Autore Francesco Sylos Labini
Titolo Rischio e previsione
SottotitoloCosa può dirci la scienza sulla crisi
EdizioneLaterza, Roma-Bari, 2016, Sagittari 198 , pag. 248, cop.fle., dim. 14x21x2 cm , Isbn 978-88-581-2340-9
LettoreRiccardo Terzi, 2016
Classe scienza , economia , astronomia , fisica , economia politica , economia finanziaria , universita' , storia della scienza , storia della tecnica












 

| << |  <  |  >  | >> |

Indice


Prefazione                                                      VII

Introduzione                                                     XI

I.    Previsioni                                                  3

- 1.  Sul metodo scientifico, p. 3
- 2.  Anomalie e crisi, p. 5
- 3.  Paradigmi ed epicicli, p. 10
- 4.  Esperimenti e osservazioni, p. 14
- 5.  Gli imperi del tempo, p. 16
- 6.  Dal determinismo all'effetto farfalla, p. 19
- 7.  Probabilità e sistemi a molti corpi, p. 26
- 8.  Previsioni e decisioni, p. 29
- 9.  Che tempo farà?, p. 32
- 10. Prepararsi all'inaspettato, p. 44
- 11. Ricorrenze e big data, p. 54
- 12. Scienza, previsioni e politica, p. 61

II.   Crisi                                                      65

- 1.  Rigore e realismo, p. 65
- 2.  La domanda della regina, p. 67
- 3.  Quale crisi?, p. 69
- 4.  Ci sarà crescita in primavera, p. 75
- 5.  La scomparsa del tempo, p. 79
- 6.  I tre pilastri dell'equilibrio, p. 82
- 7.  Il mito dell'equilibrio, p. 85
- 8.  Efficienza e imprevedibilità, p. 88
- 9.  La matematica come ornamento, p. 91
- 10. Cent'anni di solitudine, p. 93
- 11. Fuori dall'equilibrio, p. 96
- 12. Il volo degli uccelli e il panico dei mercati, p. 98
- 13. Il selvaggio mondo dei mercati finanziari, p. 101
- 14. I mostri matematici, p. 104
- 15. Paradigmi e previsioni, p. 109
- 16. Complessità economica, p. 111
- 17. La dittatura neoclassica, p. 114
- 18. Il furto di un marchio di successo, p. 118
- 19. Economia è politica, p. 121
- 20. Egemonia culturale, p. 123
- 21. Economia, politica, previsioni, p. 127

III.  Ricerca                                                   131

- 1.  La crescita delle disuguaglianze, p. 131
- 2.  L'era della tecno-valutazione, p. 135
- 3.  Valutazione e creatività, p. 141
- 4.  L'equivoco della competizione, p. 144
- 5.  La storia insegna ma non ha scolari, p. 148
- 6.  Il tempo dei grandi navigatori, p. 154
- 7.  Woodstock della fisica, p. 156
- 8.  Spazi per fare e correggere errori, p. 160
- 9.  Giocando con il nastro adesivo, p. 162
- 10. Numeri primi 'take away', p. 165
- 11. Selezionare i diamanti rosa, p. 166
- 12. Il falsario scientifico, p. 169
- 13. La punta di un iceberg?, p. 173
- 14. Il dogma dell'eccellenza, p. 177
- 15. Il modello 'Harvard here', p. 183

IV.   Politica                                                  189

- 1.  La ricerca alla radice dell'innovazione, p. 189
- 2.  Il ruolo dello Stato e il rischio nella ricerca, p. 199
- 3.  Diversificazione e capacità nascoste, p. 210
- 4.  Europa: Robin Hood al contrario, p. 217
- 5.  Hanno scelto l'ignoranza, p. 234

      Indice dei nomi                                           241


 

 

| << |  <  |  >  | >> |

Pagina VII

Prefazione



Il mondo è nella morsa della più grande crisi economica avvenuta da più di ottant'anni. Quasi tutti i paesi sono colpiti, anche se, naturalmente, alcuni lo sono più di altri. La questione politica fondamentale di oggi è: «Che cosa dovrebbe essere fatto per portare questa crisi alla fine?».

In questo libro il fisico Francesco Sylos Labini ha un approccio originale alla crisi, mettendola in relazione alla situazione nel campo della scienza. In che modo la crisi economica può essere legata alla ricerca scientifica? Una breve riflessione mostra che questo collegamento è in realtà molto stretto. Le politiche economiche neoliberiste, che hanno dominato negli ultimi trenta o più anni, si basano sull'economia neoclassica. Questa sembra essere una scienza come la fisica, poiché si compone di equazioni e modelli matematici. Tuttavia, è davvero scientifica? Dovremmo fidarci delle previsioni dell'economia neoclassica nello stesso modo in cui abbiamo fiducia in quelle della fisica? Sylos Labini fornisce buoni motivi per pensare che non si dovrebbe e che l'economia neoclassica è più simile a una pseudo-scienza, come l'astrologia, che a una vera e propria scienza, come l'astronomia.

Sylos Labini inizia la sua tesi analizzando le previsioni nelle scienze naturali. In alcune aree, come ad esempio le posizioni future dei pianeti e delle comete, le previsioni possono essere fatte con straordinaria accuratezza; ma questo non è sempre possibile. Le previsioni del tempo di domani, o di quando si verificheranno le eruzioni vulcaniche o i terremoti, sono molto meno certe. Prendiamo in considerazione la meteorologia. Le leggi che regolano il comportamento dell'atmosfera sono precise e consolidate, ma vi è una difficoltà, il cosiddetto «effetto farfalla»: un piccolo disturbo, come una certa farfalla che sbatte le ali in Brasile, può essere ingrandito e causare un uragano negli Stati Uniti. Ciò porta a quello che è chiamato «comportamento caotico», una teoria che è stata ampiamente studiata matematicamente e in cui Sylos Labini è un esperto. Nonostante le difficoltà causate dal caos, le previsioni meteo possono essere – e sono state – migliorate attraverso una migliore raccolta di osservazioni, modelli matematici più accurati e l'uso di computer più potenti.

Se da questo passiamo all'economia neoclassica, vediamo che la situazione è completamente diversa. Come rileva Sylos Labini, non conosciamo le leggi dello sviluppo economico nello stesso modo in cui conosciamo le leggi che governano l'atmosfera. Tuttavia l'effetto farfalla sembra applicarsi all'economia mondiale poiché il fallimento di alcuni mutui subprime in una regione degli Stati Uniti ha portato a una recessione economica mondiale. Eppure gli economisti neoclassici non tengono conto della matematica del caos, il cui uso è ormai standard nelle scienze naturali. Anche se ci possiamo fidare delle previsioni del tempo fino a un certo punto, poco credito deve essere dato a quelle dell'economia neoclassica; tuttavia, come rileva Sylos Labini, l'economia neoclassica ha comunque raggiunto un'egemonia culturale. Al fine di spiegare come questo sia stato possibile, Sylos Labini passa a considerare l'organizzazione della ricerca e, più in generale, delle università.

Ciò che è interessante è che le politiche neoliberiste hanno lo stesso effetto generale nelle università come nella società nel suo insieme. Nella società la loro tendenza è stata quella di concentrare la ricchezza nelle mani di un numero sempre più ristretto di persone. L'uno per cento più ricco della popolazione è diventato sempre più ricco, a scapito non solo della classe operaia, ma anche della vecchia classe media. Analogamente, nel settore universitario sempre più fondi sono dirottati verso alcune università privilegiate e verso i loro ricercatori, a scapito degli altri. Ciò è giustificato dal fatto che, essendo queste università e ricercatori migliori degli altri, sarebbe più efficiente concentrare i finanziamenti su di loro. Per scoprire quali università e ricercatori sono migliori, sono condotte valutazioni periodiche della ricerca, che vengono poi utilizzate per guidare l'assegnazione dei fondi. Tuttavia, quanto accurate sono queste valutazioni della ricerca nell'individuare i ricercatori migliori rispetto ad altri che non sono così bravi? Sylos Labini ci dà buoni motivi per pensare che queste valutazioni della ricerca, lungi dall'essere precise, siano molto fuorvianti.

Un risultato sorprendente, che egli cita, è conosciuto come «la domanda della regina». Il collasso della Lehman Brothers nel settembre 2008 ha dato inizio alla grande recessione. Nel novembre dello stesso anno la regina Elisabetta visitò la London School of Economics per inaugurare un nuovo edificio, e qui formulò la famosa domanda: «Perché nessuno ha previsto la crisi economica in arrivo?». Naturalmente gli economisti neoclassici della London School of Economics non solo non hanno previsto la crisi, ma hanno sostenuto le politiche neoliberiste che hanno portato ad essa. Nel dicembre 2008, l'istituzione che si occupa della valutazione della ricerca nel Regno Unito pubblicò i suoi risultati, dai quali emerse che la disciplina che aveva ottenuto il punteggio più alto di qualsiasi altra nel paese era proprio l'economia, che nel Regno Unito era ormai diventata quasi esclusivamente l'economia neoclassica. Se si prendessero in seria considerazione i risultati di tale valutazione, quindi, l'economia sarebbe la disciplina in cui era stata fatta la migliore ricerca nel Regno Unito nei precedenti cinque anni – migliore delle ricerche nei campi della fisica, dell'informatica, o delle scienze bio-mediche. Ovviamente questo dimostra che qualcosa è andato molto male con la valutazione della ricerca.

Sylos Labini è uno dei membri della redazione di Roars, un blog attivo nell'opporsi ai tentativi del governo italiano di introdurre nel paese un sistema di valutazione della ricerca sul modello di quello operante nel Regno Unito. Nel suo libro egli illustra le carenze di tali sistemi di valutazione della ricerca, e uno degli argomenti che propone riguarda alcune delle principali scoperte nel campo della fisica e della matematica fatte negli ultimi decenni. In fisica si discute della superconduttività ad alta temperatura, del microscopio a effetto tunnel e del grafene; in matematica della dimostrazione, da parte di Yitang Zhang, di un teorema importante nella teoria dei numeri primi. Tutte queste scoperte sono state fatte da scienziati poco noti in istituzioni di basso rating, vale a dire da ricercatori che avrebbero avuto il finanziamento dei loro progetti tagliato dalla rigorosa attuazione degli esercizi di valutazione della ricerca. Il punto è che la scoperta scientifica è imprevedibile, e si ha una migliore possibilità che avvengano importanti scoperte distribuendo fondi in modo più uniforme, piuttosto che concentrandoli nelle mani di una piccola élite.

Nella parte finale del suo libro, Sylos Labini pone l'accento sul fatto che la stessa spinta neoliberista verso l'ineguaglianza si riscontra in Europa nel suo complesso. I fondi di ricerca sono più concentrati nell'Europa settentrionale e meno nell'Europa meridionale. Sylos Labini sostiene – fornendo argomentazioni molto solide a sostegno del suo punto di vista – che occorra non solo una distribuzione più egualitaria dei fondi per la ricerca e lo sviluppo, ma anche un aumento globale dei finanziamenti: è questa la strategia in grado di produrre quelle innovazioni che possono rivitalizzare le economie e portarle su un percorso di crescita.

Ci auguriamo che una nuova generazione di politici sia disposta e sia in grado di attuare le sue idee. Nel frattempo il suo libro è caldamente consigliato a tutti quelli che cercano di capire l'attuale crisi e le sue ramificazioni.

    Donald Gillies
    professore emerito di Filosofia della scienza e della matematica,
    University College London
    gennaio 2016

| << |  <  |  >  | >> |

Pagina XI

Introduzione



Ho il privilegio di passare gran parte del mio tempo cercando di risolvere problemi di fisica teorica che sono piuttosto lontani dalla vita di tutti i giorni. Vivo però in un paese, l'Italia, che si trova immerso in una serie di crisi che mi toccano da vicino come scienziato e, soprattutto, come cittadino, ed è per questo che mi sono proposto di apportare alla discussione pubblica elementi dal mondo della ricerca scientifica: sono convinto che questo sia un compito essenziale nel nostro tempo, in cui l'ideologia e gli interessi economici non solo determinano l'agenda pubblica e dei governi, ma permeano anche la scuola, l'università e la cultura in genere.

Stiamo assistendo a una crisi economica che ha messo in ginocchio l'economia di tutto il mondo e che si somma a una crisi economica che ha caratteristiche tutte italiane. Questa situazione si sovrappone, essendone conseguenza, a una crisi politica, che di nuovo ha diverse connotazioni, ragioni e sviluppi a livello internazionale, europeo e italiano. Tuttavia, prima di tutto, c'è una crisi culturale, e anch'essa ha un respiro globale. Sembrano essere scomparse le grandi utopie che hanno dominato il recente e prossimo passato. Uguaglianza, libertà, fratellanza, fino a qualche decennio fa parole guida, hanno perso rilevanza in un periodo storico in cui le disuguaglianze sono molto più marcate che in passato, la libertà si è ridotta progressivamente in nome dell'emergenza terroristica per garantire la sicurezza, e la solidarietà è sopraffatta dalla prepotenza o dall'indifferenza. Inoltre, la possibilità di migliorare la propria situazione appare sempre più remota proprio a causa di disuguaglianze diventate insormontabili, ed è così decaduto anche il ruolo dell'istruzione superiore come volano per la mobilità sociale. La grande crisi che stiamo attraversando, prima di essere economica e sociale, è dunque una crisi politica e culturale che ha investito tutta la nostra società.

La ricerca scientifica non è esente da questa crisi, ma anzi la subisce in modo particolare. Da una parte la penuria di risorse è diventata un problema strutturale in molti paesi, in particolare dell'Europa meridionale, con tanti giovani scienziati che hanno risibili possibilità di continuare a svolgere l'attività di ricerca in modo stabile. Dall'altra parte l'esasperata competizione sta drogando e stravolgendo il lavoro dei ricercatori, e la ricerca scientifica sta cambiando completamente il suo corso, negativamente, per effetto di questa pressione.

La maniera in cui è stata gestita la crisi economica, attraverso le politiche di austerità, proprio nei paesi più in dissesto da un punto di vista finanziario, ha dato luogo a un soffocamento della ricerca scientifica che, generando un circolo vizioso, inibisce a sua volta la possibilità di sviluppare quelle ricerche innovative che potrebbero contribuire a guidarci fuori dalla crisi stessa. Soprattutto, per effetto della crisi, le forze intellettuali che dovrebbero fornire nuove idee ed energie sono state marginalizzate in un limbo di precarietà da cui non si vede l'uscita: a causa dell'assenza di catalizzatori le nuove generazioni si trovano atomizzate e senza una prospettiva, né individuale né comune.

La scienza può fornire degli strumenti chiave utili non solo per comprendere i problemi della nostra epoca, ma anche per tracciare delle prospettive che possono rappresentare una solida e valida alternativa alla dilagante legge del più forte – un malinteso darwinismo sociale – oggi in auge. Questo saggio, muovendosi sull'interfaccia tra divulgazione scientifica e politica scientifica, con alcune incursioni nella storia e nella filosofia della scienza, si propone dunque di mostrare come le idee sviluppate nell'ultimo secolo nell'ambito delle scienze naturali – dalla meteorologia alla biologia, alla geologia e, soprattutto, alla fisica teorica – giochino un ruolo chiave per la comprensione dei problemi alla radice della crisi attuale, apparentemente diversi e non connessi, e possano suggerire soluzioni possibili e originali.

Uno dei fili conduttori del nostro percorso nella scienza moderna si propone di rispondere a questa centrale domanda: qual è l'utilità pratica, economica e culturale della ricerca fondamentale? Mi concentrerò in particolare sulla ricerca che riguarda le cosiddette scienze esatte, che hanno un più immediato impatto sulla tecnologia. Ciò non toglie che molti dei ragionamenti sviluppati nel corso del saggio si possano riferire alla scienza in senso lato, includendo anche le scienze sociali e le discipline umanistiche. La cultura, di cui la scienza rappresenta una parte importante, ma pur sempre una piccola parte, è il cemento fondante della nostra società.

    F.S.L.
    Roma, gennaio 2016

| << |  <  |  >  | >> |

Pagina 3

I
Previsioni



1. Sul metodo scientifico

Richard Feynman si autodefiniva «fisico premio Nobel, insegnante, cantastorie, suonatore di bongos», ed è stato senza dubbio un personaggio originale ed eccentrico. È ricordato come uno dei più celebri fisici teorici del secolo scorso, l'indimenticabile autore di Le lezioni di fisica di Feynman — tra i testi di fisica più studiati al mondo —, e come il brillante oratore che così spiega, durante una memorabile lezione, il funzionamento della ricerca scientifica:

Ora vi spiego come cerchiamo nuove leggi. In genere cerchiamo nuove leggi attraverso il seguente processo. Prima di tutto formuliamo un'ipotesi. Poi calcoliamo le conseguenze di questa ipotesi, ottenendo le implicazioni di questa legge se fosse giusta. Infine confrontiamo i risultati di questi calcoli con la natura, con gli esperimenti e con le osservazioni per vedere se funziona. Se i risultati teorici non si accordano con gli esperimenti, l'ipotesi è sbagliata. In questa semplice affermazione c'è la chiave della scienza. Non è importante quanto sia elegante la tua ipotesi, non è importante quanto tu che hai formulato questa ipotesi sia brillante, o quale sia il tuo nome. Se non si accorda con gli esperimenti, è un'ipotesi sbagliata. [...] Non possiamo mai essere sicuri che abbiamo la teoria giusta, ma solo che non abbiamo la teoria sbagliata.

In maniera semplice ed efficace Feynman ha così spiegato il concetto di falsificabilità di una teoria scientifica, formulato in maniera più organica dal filosofo austriaco, naturalizzato britannico, Karl Popper. Secondo Popper le osservazioni sperimentali a favore di una teoria non possono mai provarla definitivamente, ma possono solo mostrare che non sia sbagliata ed è sufficiente solo una smentita sperimentale per confutarla.

Il criterio di Popper è stato però criticato dai filosofi della scienza nel corso del XX secolo poiché, quando si considera una teoria scientifica di un campo maturo in cui i fenomeni osservati sono molto distanti dalle previsioni teoriche, nel senso che sono mediati da diversi passi inferenziali, allora il rifiuto di una singola congettura può non implicare la confutazione della teoria stessa. Come ha notato per primo il fisico e storico della scienza Pierre Duhem all'inizio del Novecento, nel caso di una disciplina molto evoluta, come ad esempio la fisica, non è possibile testare una singola ipotesi in isolamento, poiché per derivarne le conseguenze empiriche è necessario assumere anche un certo numero di ipotesi ausiliarie. Per questo motivo, una teoria molto elaborata e di alto livello può essere confutata solo per gradi da una serie di sconfitte sperimentali, piuttosto che da un singolo esperimento la cui previsione è risultata errata.

Un buon criterio per definire una teoria scientifica consiste perciò nel verificare che essa sia sperimentalmente confermabile: ovvero se la teoria sia capace di acquisire un certo grado di sostegno empirico attraverso il confronto delle sue previsioni con l'esperimento. Una teoria, per essere confermabile, deve essere espressa in forma logica e deduttiva, tale da partire da un asserto universale per ricavarne, in maniera rigidamente concatenata, una o più conseguenze particolari, controllabili empiricamente.

Tradizionalmente, dunque, il lavoro dello scienziato consiste nel congetturare delle ipotesi teoriche, cercando così di costruire un quadro logico coerente che sia in grado di interpretare le osservazioni sperimentali. Queste ipotesi sono naturalmente espresse nella «lingua della natura», la matematica, come aveva per primo sostenuto Galileo Galilei nel suo libro Il saggiatore, del 1623. La precisione e il rigore matematico nella descrizione teorica e l'accuratezza delle misure sperimentali sono due facce della stessa medaglia. In fisica possiamo, infatti, distinguere le teorie corrette da quelle errate proprio perché le prime si fanno sempre più nette all'aumentare della precisione sperimentale. Inoltre, come vedremo in seguito, via via che si procede a misure più accurate, si ha accesso a una crescente quantità di informazioni che permettono una sempre più profonda comprensione dei fenomeni.

Poiché le leggi di natura sono per definizione universali e immutabili — in altre parole, sono le stesse in qualsiasi luogo dello spazio e in qualsiasi tempo —, la loro conoscenza permette di formulare previsioni verificabili con esperimenti realizzati in condizioni controllate per eliminare o minimizzare gli effetti di fattori esterni non contemplati dalla teoria. Il risultato di questi esperimenti è, a parità di condizioni, universale: ripetibile in ogni altro luogo o momento.

La corroborazione di una teoria attraverso previsioni confermate da esperimenti riproducibili rappresenta dunque uno dei pilastri del metodo scientifico. Una teoria fisica, attraverso una formulazione matematica, determina il valore di alcuni parametri che caratterizzano un certo sistema e che possono essere misurati. Se il valore dei parametri derivato dalla teoria concorda con il valore osservato nei limiti dell'errore sperimentale, la teoria fornirà una spiegazione del fenomeno. Facciamo qualche esempio storico per inquadrare l'uso delle previsioni nella verifica della correttezza di una teoria scientifica.

| << |  <  |  >  | >> |

Pagina 54

11. Ricorrenze e big data

Ci si chiede ora se studiando una grande quantità di dati che descrivono l'evoluzione di un sistema – proprio come avevano fatto i Maya con il sistema Terra-Luna-Sole – si possano comprendere caratteristiche utili per conoscere il suo stato in un tempo futuro; cioè utili per eseguire una previsione affidabile. L'idea essenziale è applicare a questi dati il cosiddetto «metodo degli analoghi» che permette di inferire lo stato futuro dalla conoscenza dello stato del sistema fino a un tempo abbastanza remoto nel passato. In altre parole, si vorrebbero scoprire delle regolarità dai dati delle serie storiche cercando nel passato una situazione «vicina» a quella di oggi, e da quella inferire l'evoluzione del sistema domani. Dunque, se nella serie temporale che descrive la passata evoluzione si trovasse una situazione simile a quella attuale, si potrebbe sperare di imparare qualcosa sul futuro del sistema anche in assenza di un modello teorico che ne catturi la dinamica. Tuttavia, non è per nulla ovvio che si trovi un analogo: come aveva notato il celebre fisico scozzese James Clerk Maxwell verso la metà del XIX secolo,

Il fatto che dagli stessi antecedenti seguano le stesse conseguenze è una dottrina metafisica. [...] Ma non è molto utile nel mondo in cui viviamo, ove non avvengono mai gli stessi antecedenti e nulla accade d'identico a se stesso due volte. [...] L'assioma della fisica che ha, in un certo senso, la stessa natura è che da antecedenti simili seguono conseguenze simili.

Da un punto di vista matematico, Henri Poincaré ha dimostrato che un sistema deterministico (cioè che segue leggi deterministiche), con uno spazio delle fasi limitato, dopo un certo tempo ritorna vicino alla sua condizione iniziale. Questo teorema è dunque strettamente alla ricerca dell'analogo: se questo esiste in teoria, il problema pratico è quanto indietro nel tempo bisogna andare per trovarlo. Ad esempio, ogni tentativo di previsione meteorologica basata sul metodo degli analoghi è stata disastrosa, come notò proprio lo scopritore del caos, Edward Lorenz , negli anni Sessanta. Il motivo per cui, in questo caso, il metodo degli analoghi non funziona, neppure avendo enormi quantità di dati in cui ricercare l'analogo, è stato prima intuito dal fisico Ludwig Boltzmann e infine spiegato da un risultato dovuto al matematico polacco Mark Kac che, nella seconda metà del XX secolo, ha mostrato che la lunghezza della serie temporale in cui si può trovare l'analogo cresce esponenzialmente con il numero di gradi di libertà efficaci di un sistema: ad esempio, per il caso dell'atmosfera la sequenza temporale diventa troppo lunga anche per i big data ipotizzabili in un lontano futuro, e dunque in pratica non si osserva alcuna ricorrenza.

D'altra parte ci sono dei sistemi più semplici per i quali è possibile applicare con successo il metodo degli analoghi e dunque per i quali ha senso studiare le serie storiche allo scopo di prevederne il futuro. Ad esempio, nel caso delle maree il numero di gradi di libertà efficaci (ovvero i componenti indipendenti del sistema) è piccolo, fatto che rende possibile usare íl metodo degli analoghi per fare previsioni. Il fenomeno delle maree non è regolato solo dall'influenza della Luna e del Sole. Infatti, mentre l'innalzamento e l'abbassamento del livello del mare possono essere descritti, in prima approssimazione, da una semplice curva periodica (sinusoidale) in fase con i movimenti della Luna, una descrizione più accurata dell'andamento del livello del mare è più complessa poiché il fenomeno non dipende soltanto dalle condizioni astronomiche ma anche da fenomeni locali, come le caratteristiche del fondale marino, la presenza di fiumi nella zona, ecc. In questo caso la conoscenza delle serie storiche può rilevarsi molto utile e, infatti, per i principali porti sono redatte delle tabelle, dette tavole di maree, che riportano i livelli del mare giornalieri calcolati combinando i dati astronomici con i dati storici delle maree precedenti.

Il caso della previsione delle maree è interessante perché lega la conoscenza delle cause gravitazionali che determinano le maree con l'uso delle serie storiche delle maree nelle località specifiche. Quanto possiamo spingere l'uso delle serie storiche per effettuare previsioni?

[...]

Non si possono dunque negare le potenzialità dei big data, e le ingenti risorse investite sia nel settore pubblico sia in quello privato per studiarli testimoniano la loro importanza. Tuttavia se i big data sono indubbiamente utili per affrontare molte questioni importanti, per replicare all'ottimismo di Anderson e al suo auspicio della fine dell'utilità della teoria poiché «i numeri parlano da soli», è sufficiente ricordare la critica di Henri Poincaré agli eccessi di empirismo: «la scienza si costruisce con i fatti, come una casa con le pietre; ma una raccolta di fatti non è una scienza più di quanto un mucchio di sassi non è una casa».

Abbiamo visto come nel problema delle previsioni affidarsi troppo alla mole delle osservazioni sia una grande ingenuità: i limiti del metodo degli analoghi mostrano la debolezza di approcci basati unicamente su osservazioni, senza l'uso di conoscenze approfondite del problema che si vuole analizzare. Possiamo dunque usare le moderne banche dati digitali come la civiltà maya utilizzò i dati astronomici — in altre parole, trovando delle regolarità nelle serie temporali di un certo fenomeno, senza un modello di riferimento — per capire quello che succederà in futuro? La risposta a questa domanda è in genere negativa, e la «fine della teoria» è così un miraggio. Perfino i sistemi fisici — che sono più gestibílí di quelli sociali poiché si conoscono le leggi dinamiche sottostanti — sono governati da forze che, benché deterministiche, danno luogo a comportamenti caotici e dunque pongono delle difficoltà insormontabili per eseguire una previsione.

Quando non si conoscono le leggi che governano l'evoluzione di un sistema, o quando queste leggi non sono deterministiche e universali (sono leggi statistiche ma cambiano nel tempo), la situazione sfugge rapidamente al controllo. Possiamo in questi casi sperare di trovare correlazioni nei dati che legano il cambiamento di alcune grandezze e usare la conoscenza di queste correlazioni, anche senza capirne l'origine, per predire il comportamento futuro di sistema? Anche in questo caso, la risposta deve essere in generale negativa. Consideriamo più in dettaglio la vera e propria pseudo-scienza che può derivare dall'analisi delle correlazioni a posteriori.

Bisogna essere molto cauti nell'applicare i metodi matematici e statistici che sono stati sviluppati nello studio delle scienze naturali a problemi in cui non si ha una guida teorica solida. Si rischia di ottenere, infatti, risultati che sembrano scientifici — ovvero simili a quelli che si ottengono quando si studiano le scienze naturali poiché apparentemente raggiunti con gli stessi metodi statistico-matematici – ma che in realtà sono determinati dagli assunti a priori (o da una vera e propria impostazione ideologica) che, in maniera più o meno esplicita, si sono usati nell'analisi. Questo accade perché molto spesso il dato quantitativo ha una relazione molto labile con il fenomeno che si vuole misurare: come vedremo nel capitolo III, l'esempio paradigmatico di questa situazione è la misura dell'intelligenza tramite i test che ne dovrebbero determinare il quoziente.

Cerchiamo di chiarire meglio questo punto centrale. In molti casi si fa un uso piuttosto disinvolto di analisi statistiche per trovare delle correlazioni tra variabili: anche non avendo un modello di riferimento si cercano delle correlazioni, sperando che da queste si possano inferire le leggi che regolano la dinamica di un sistema. Le banche dati sono il luogo ideale in cui cercare correlazioni a posteriori, in altre parole non attese a priori in base ad un modello teorico ma semplicemente identificate nei dati, e alle quali si cercherà, a posteriori, di dare una spiegazione. Tuttavia, senza base teorica l'analisi di mere correlazioni è intrinsecamente fragile, poiché la presenza di correlazioni non implica in genere l'esistenza di un nesso di causalità. Facciamo qualche esempio per spiegare meglio questo importante punto.

| << |  <  |  >  | >> |

Pagina 69

3. Quale crisi?

Diversi illustri economisti hanno reagito in maniera opposta al dibattito scaturito sul tema della mancata previsione della crisi nel 2008. Ad esempio, due noti economisti inglesi, Tim Besley e Peter Hennessy, hanno redatto una lettera alla regina riassumendo le posizioni emerse nel corso di un forum promosso dalla British Academy per rispondere alla «Queen's question». Scrivono:

Quindi, in sintesi, Vostra Maestà, l'incapacità di prevedere i tempi, la grandezza e la gravità della crisi, e di prevenirla, pur avendo molte cause, è stata principalmente un fallimento dell'immaginazione collettiva di molte persone brillanti, sia in questo paese sia a livello internazionale, di comprendere i rischi per il sistema nel suo complesso.

Anche Paul Krugman , vincitore del premio Nobel per l'economia nel 2008, ha riconosciuto il fallimento delle previsioni degli economisti e ha posto l'accento su un aspetto molto interessante:

Pochi economisti hanno previsto l'attuale crisi, ma questo fallimento predittivo è l'ultimo dei problemi del campo. Più importante è la cecità della categoria per la stessa possibilità di crisi catastrofiche in un'economia di mercato.

A distanza di cinque anni Krugman, rimanendo sulla stessa posizione, chiarisce perché l'incapacità predittiva è corrisposta a una disfatta intellettuale per gli economisti neoclassici:

quasi nessuno ha previsto la crisi del 2008, ma probabilmente è un errore scusabile in un mondo complesso. La responsabilità più schiacciante va alla convinzione ampiamente diffusa allora tra gli economisti che una crisi del genere non potesse verificarsi. Alla base di questa certezza sprovveduta dominava una visione idealizzata del capitalismo in cui gli individui sono sempre razionali e i mercati funzionano sempre alla perfezione.

Molti altri economisti hanno invece interpretato la crisi del 2008 in modo completamente diverso e dunque hanno opinioni molto differenti sul ruolo della dottrina economica. È il caso di Robert Lucas, membro di spicco della Scuola di Chicago, noto per essere critico verso l'economia keynesiana, autore dell'approccio delle «aspettative razionali», vincitore del premio Nobel per l'economia nel 1995 e, secondo Wikipedia, «costantemente indicizzato tra i primi dieci economisti nella classifica della Research Papers in Econornics». Per comprendere l'origine del suo giudizio sul fallimento delle previsioni in occasione della grande crisi, è possibile partire da un passo della relazione che fece al convegno dell'American Economic Association nel 2003:

La mia tesi in questa conferenza è che la macroeconomia, nel suo senso originario, ha avuto successo: il suo problema centrale della prevenzione di depressioni è stato risolto, per tutti gli scopi pratici, ed è, infatti, stato risolto per molti decenni.

Negli anni successivi, di fronte al precipitare degli eventi che poi hanno condotto alla crisi globale, Lucas continuò ad avere una certa fiducia nel funzionamento del sistema economico: il 19 settembre 2007, in una lettera al «Wall Street Journal», scrisse:

Sono scettico sulla tesi che il problema dei mutui subprime contaminerà l'intero mercato dei mutui, che la costruzione di alloggi arriverà a una battuta d'arresto, e che l'economia scivolerà in una recessione. Ogni passo in questa catena è discutibile e non è stato quantificato. Se abbiamo imparato qualcosa dagli ultimi vent'anni, è che c'è parecchia stabilità integrata nell'economia reale.

Prevenzione e stabilità sono dunque legate: poiché il sistema economico è stabile, allora è possibile prevenire le crisi. Il 6 agosto 2009, dopo il fallimento della Lehman Brothers, Lucas ha così espresso la sua posizione rispetto al dibattito sulla capacità previsionale degli economisti:

Una cosa che non possiamo avere, ora o mai, è un insieme di modelli capaci di prevedere improvvise cadute del valore delle attività finanziarie, come il declino che è seguito al fallimento della Lehman Brothers. Questa non è una novità. È noto da più di quarant'anni ed è una delle principali implicazioni della «ipotesi dei mercati efficienti» di Eugene Fama, in cui si afferma che il prezzo di un'attività finanziaria riflette tutta l'informazione pertinente generalmente disponibile. Se un economista avesse avuto una formula capace, per esempio, di prevedere in modo affidabile la crisi con una settimana di anticipo, allora la formula sarebbe diventata parte delle informazioni generalmente disponibili e i prezzi sarebbero precipitati una settimana prima.

Secondo Lucas, dunque, nell'ambito della teoria economica che poggia sull'ipotesi dei mercati efficienti sviluppata da Eugene Fama – che discuteremo più avanti –, la crisi non è stata prevista semplicemente perché, secondo quella teoria economica, tali eventi non possono essere previsti. Come si raccorda questa considerazione con quanto affermato poco sopra, che il problema della prevenzione delle depressioni è stato risolto, visto che il sistema economico è diventato stabile, se le depressioni si sono verificate in maniera del tutto inaspettata?

Inoltre Lucas fa riferimento a una «formula» che in realtà non può esistere e che lascia intravedere una visione della matematica piuttosto irrealistica. Al più ci potrebbero essere diverse «formule» che, con qualche approssimazione, potrebbero prevedere degli intervalli di probabilità per una crisi: ovviamente il problema sarebbe di capire quale modello funziona meglio. Tuttavia non si capisce in che senso i «mercati» reagirebbero ai risultati di queste «formule».

È interessante notare che Lucas si focalizza sull'evento particolare, il fallimento della Lehman Brothers, e trascura completamente la condizione rappresentata dal rischio sismico del sistema: l'accidentalità del singolo evento è più importante della fragilità sistemica – un punto di vista opposto a quello illustrato, ad esempio, da Krugman. C'è però da notare che entrambi concordano sull'accidentalità del fallimento della Lehman Brothers. Mentre per Lucas non c'è nulla da aggiungere, secondo Krugman l'aspetto più importante sul quale focalizzare l'attenzione è la fragilità del sistema.

In ogni caso, la posizione di Lucas rispetto al ruolo delle previsioni in economia sembra piuttosto differente da quella espressa, anni prima, da Milton Friedman , uno dei principali esponenti della Scuola di Chicago, insignito del premio Nobel per l'economia nel 1976. Secondo Friedman, infatti, l'economia avrebbe dovuto avere degli standard scientifici simili a quelli della fisica:

Ipotesi veramente importanti ed efficaci possono basarsi su delle assunzioni che sono rappresentazioni descrittive molto inaccurate della realtà, e, in generale, più rilevante è la teoria, più irrealistiche sono le assunzioni (in questo senso). Perché? Perché tali ipotesi e descrizioni estraggono solo gli elementi cruciali sufficienti a produrre previsioni relativamente precise e valide, omettendo una ridda di dettagli irrilevanti. Naturalmente, una descrizione non realistica di per sé non garantisce la formulazione di una teoria rilevante.

Friedman, a differenza di Lucas e Fama, sosteneva dunque che le previsioni fossero il test ultimo delle ipotesi teoriche. Probabilmente non era a conoscenza dell'ipotesi dei mercati efficienti, secondo la quale le previsioni non sono possibili per definizione: paradossalmente, una previsione confermata falsificherebbe le stesse ipotesi teoriche dell'efficienza informativa dei mercati. Curiosamente questa possibile falsificazione della teoria non è proprio presa in considerazione nella letteratura neoclassica.

| << |  <  |  >  | >> |

Pagina 75

4. Ci sarà crescita in primavera

Richard Portes, professore di economia presso la London Business School dal 1995, è stato il più longevo segretario generale della Royal Economic Society dal tempo di John Maynard Keynes ed è stato decorato come comandante dell'Ordine dell'Impero britannico nel 2003. Nel 2006, a causa di alcune turbolenze nei mercati finanziari, cominciarono a sorgere delle perplessità sulla solidità delle banche islandesi cui erano assegnate, da varie agenzie di rating, valutazioni più basse di altri paesi nordici. Per questo motivo fu posto sul loro debito un premio di rischio più elevato. Portes fu dunque incaricato di indagare sulla solidità del sistema finanziario islandese, cosa che fece con l'economista islandese Fridrik Már Baldursson. Nella loro relazione L'internazionalizzazione del settore finanziario islandese, pubblicata nel novembre 2007, scrissero: «Nel complesso, l'internazionalizzazione del settore finanziario islandese è una storia di successo che i mercati dovrebbero meglio riconoscere».

Meno di un anno dopo la pubblicazione del rapporto di Portes e Baldursson, tutte le principali banche islandesi crollarono: sono state tra le prime vittime del «Global Financial Crash» avviato dal fallimento di Lehman Brothers. È interessante notare che il rapporto di Portes per l'Islanda era stato commissionato, e pagato, dalla Camera di Commercio islandese. La Camera era preoccupata del basso rating e per questo aveva bisogno di un rapporto autorevole che ne dimostrasse la stabilità. In ogni caso, come Robert Lucas, anche Richard Portes non aveva compreso quale fosse il «rischio sismico» del sistema nel suo complesso, oltre, ovviamente, a non aver saputo prevedere quello che sarebbe successo nell'immediato futuro.

Lucas e Portes non sono casi isolati, né le mancate previsioni sono limitate alla crisi del 2008. Basti ricordare l'economista statunitense Irving Fisher, presidente dell'American Economic Association nel 1918, dell'American Statistical Association nel 1932 e fondatore nel 1930 dell'International Econometric Society, che è diventato famoso per avere dichiarato, tre giorni prima del grande crollo del 1929, che «i prezzi delle azioni hanno raggiunto quello che sembra essere un elevato livello permanente».

Analogamente, l'economista del Massachusetts Institute of Technology, Rudiger Dornbush, nel 1998 predisse che l'allora corrente espansione economica americana non avrebbe avuto fine: «l'economia americana non vedrà recessione negli anni a venire. Non la vogliamo, non ne abbiamo bisogno e non l'avremo [...] abbiamo gli strumenti per mantenere il ritmo dell'attuale espansione». Invece, la bolla delle dot-com esplose due anni più tardi.

Data quest'allarmante e frequente incapacità non solo di effettuare previsioni di successo ma anche di interpretare la realtà, due economisti del Fondo monetario internazionale (FMI), Hites Ahir e Prakash Loungani, si sono posti il problema di studiare in maniera sistematica la qualità delle previsioni economiche. Hanno dunque considerato la previsione di ottantotto recessioni, in circa cinquanta paesi, avvenute tra il 2008 e il 2012, dove per recessione s'intende la decrescita del prodotto interno lordo (PIL) reale su base annua in un determinato paese. La loro conclusione è che, secondo il Consensus Forecast, una media per ogni paese delle previsioni di un certo numero d'analisti economici di primo piano, nessuna delle sessantadue recessioni nel periodo 2008-09 era stata prevista con un anno d'anticipo.

| << |  <  |  >  | >> |

Pagina 82

6. I tre pilastri dell'equilibrio

Possiamo a questo punto schematizzare l'impianto del modello teorico del cosiddetto «equilibrio economico generale»; esso si basa sul lavoro di un ingegnere, Léon Walras , e di un fisico, Louis Jean Baptist Bachelier, i quali, tra la fine dell'Ottocento e l'inizio del Novecento, hanno costruito i tre pilastri concettuali dell'economia neoclassica moderna. Entrambi sono stati influenzati dalle grandi idee scientifiche del loro tempo, che abbiamo già brevemente discusso.

Il primo pilastro è fornito dalla meccanica newtoniana, capace di spiegare, con precisione ineguagliata all'epoca, le traiettorie dei pianeti nel cielo. La scoperta di Nettuno, infatti, aveva rappresentato un successo così spettacolare per la teoria di Newton che tutto il resto della scienza, se voleva essere di pari dignità, doveva essere ispirata alla perfezione del moto dei pianeti e dell'orologio celeste newtoniano. Inoltre le leggi del moto di Newton erano costantemente utilizzate per scopi pratici e tecnologici, in chimica come in ingegneria, e dunque hanno rappresentato le fondamenta per il progresso della scienza e della tecnica avvenuto dal Settecento ad oggi.

Il secondo pilastro della teoria economica neoclassica è la descrizione di un sistema macroscopico in equilibrio termodinamico. Questa descrizione, che assume l'equilibrio stabile tra forze contrapposte, fu elaborata nella seconda metà dell'Ottocento di pari passo col formidabile sviluppo della termodinamica, che s'intrecciò con il progresso delle macchine a vapore che, a loro volta, diedero l'impulso principale alla rivoluzione industriale. È importante porre l'accento sul fatto che la termodinamica non si occupa di descrivere come e perché un sistema, inizialmente fuori dall'equilibrio, raggiunge l'equilibrio. Da un punto di vista fenomenologico è noto che i sistemi che convertono il calore in lavoro (le macchine termiche, come un frigorifero, una locomotiva a vapore, ecc.) operano in una situazione che può essere approssimata come di equilibrio, e questo giustifica la trattazione termodinamica che è capace di descrivere in maniera quantitativa e molto accurata i processi che coinvolgono la trasformazione di massa ed energia. I principi della termodinamica sono assunti, infatti, come postulati fondati sull'esperienza e si usano senza entrare nel merito del meccanismo che ha dato luogo a un particolare fenomeno. Altro, e – come vedremo – ben più complicato problema, è capire se un certo sistema, partendo da una data condizione iniziale, per l'azione di una particolare dinamica raggiunge o meno uno stato di equilibrio termodinamico.

Il terzo pilastro è legato alla scoperta dell'esistenza degli atomi, avvenuta con la spiegazione teorica del moto erratico di una particella di polline immersa in un liquido per opera di Albert Einstein: il moto browniano che abbiamo discusso nel capitolo I. In particolare, la chiave di volta è stata l'abbandono della visione deterministica di Laplace e l'introduzione della probabilità per spiegare i fenomeni fisici: una svolta tanto importante per la fisica quanto per il resto delle scienze, compresa l'economia, proprio perché permette di passare da una descrizione dinamica di una miriade di particelle a una descrizione probabilistica di un sistema macroscopico. La descrizione delle fluttuazioni dei prezzi dei prodotti, delle aziende, ecc., come vedremo, si modellò proprio sulle stesse idee del moto browniano, che rappresenta ancora oggi il paradigma universalmente usato per calcolarle.

Per semplificare: la meccanica newtoniana ci insegna come trovare l'equilibrio quando ci sono due forze contrastanti che agiscono su un sistema. Il sistema economico cos'altro è se non il risultato dell'azione di tanti agenti che può essere descritto dal bilancio tra la domanda e l'offerta? Se il sistema si trova all'equilibrio, non è necessario comprendere la dinamica temporale che lo ha condotto a tale situazione: la descrizione dinamica dipendente dal tempo non viene perciò considerata dalla teoria. D'altra parte, in questa situazione, la descrizione probabilistica che discende dal moto browniano della particella in un liquido in equilibrio termodinamico è adatta a descrivere le fluttuazioni — in questo caso le variazioni dei prezzi dei prodotti; in altre parole, come si muovono le quantità rilevanti del sistema economico sotto l'azione delle miriadi di agenti e cause che ne determinano l'andamento. Nella descrizione di un sistema macroscopico in equilibrio la dinamica temporale può essere sostituita da un'analisi probabilistica statica grazie all'ipotesi ergodica. Quando un sistema macroscopico è all'equilibrio termodinamico, come il gas in una stanza isolata, le fluttuazioni devono necessariamente essere piccole, proprio perché grandi fluttuazioni romperebbero la situazione d'equilibrio: questa è sicuramente una previsione da verificare nei dati dei mercati finanziari reali. Infatti, poiché per effetto di tutte le azioni di una miriade di individui il sistema economico, s'ipotizza, tenderebbe all'equilibrio stabile, per effetto di forze contrapposte che si compensano, le grandi variazioni non sono né possibili né contemplate da quel tipo di approccio teorico.

Questa è, in estrema sintesi, la rassicurante visione della teoria neoclassica che ha preso luce all'inizio del XX secolo. Il problema di cui discuteremo più avanti è proprio che, nonostante gli sviluppi concettuali e tecnici che sono avvenuti da allora, le fondamenta dell'economia neoclassica, modellate secondo i concetti della fisica dell'Ottocento, non sono cambiate per niente: quello che è avvenuto in seguito è solo un affinamento, più o meno barocco, di quei concetti. Alla luce delle conoscenze sviluppate a un secolo di distanza, è naturale e necessario discutere criticamente proprio queste fondamenta concettuali.

| << |  <  |  >  | >> |

Pagina 90

Secondo questo quadro teorico i mercati funzionerebbero in maniera ottimale se ogni tipo di affare fosse possibile e se non esistessero impedimenti a operare ogni tipo di commercio o scommessa in qualsiasi momento. Questa prospettiva fornisce la giustificazione alla massiccia deregolamentazione finanziaria negli anni Ottanta e Novanta e alla corrispondente crescita vertiginosa dell'industria finanziaria dei prodotti derivati. Da un lato ci si avvicina all'ideale di mercato efficiente solo rimuovendo ogni barriera legale che impedisce a chiunque di intraprendere liberamente commerci se li ritenga utili. Dall'altro lato la moltiplicazione degli strumenti finanziari è funzionale ad attuare ogni tipo di scambio possibile, rendendo così il mercato più efficiente e stabile e perciò, secondo questo modello, diminuendo il rischio di recessioni. Questa costruzione teorica ha sicuramente affascinato molti: ad esempio l'economista dell'Università di Chicago Luigi Zingales scrive nel suo Manifesto capitalista:

La storia della fisica nella prima metà del XX secolo è stata una straordinaria avventura intellettuale: dall'intuizione di Einstein del 1905 sull'equivalenza tra massa ed energia alla prima reazione nucleare controllata del 1942. Lo sviluppo della finanza nella seconda metà del Novecento ha caratteristiche simili.

Abbiamo già ricordato che la fisica ha avuto una serie spettacolare di verifiche sperimentali e ha permesso un'incredibile, e a volte infausta, serie di applicazioni di queste scoperte: nei prossimi capitoli discuteremo altre scoperte della fisica moderna che hanno avuto importanti effetti nella nostra vita di tutti i giorni. Non si può dire lo stesso della finanza e in genere della teoria economica neoclassica, dove, come abbiamo già visto e come approfondiremo nel prossimo paragrafo, non è per niente chiaro quali siano le previsioni di successo e quali le scoperte trovate nei dati empirici. In effetti, a un osservatore esterno sembra evidente che i mercati non siano efficienti, che gli uomini tendano a essere eccessivamente mirati al breve periodo e ciechi sul lungo periodo e, in ultima analisi, siano soggetti a irrazionalità collettiva, panico e dissesti. La crisi del 2008 ha mostrato in modo spettacolare la fragilità di questa costruzione teorica, basata – è bene rilevarlo ancora – su concetti sviluppati nella fisica nell'Ottocento.

In effetti, i modelli di equilibrio non contemplano gli effetti cooperativi che possono essere innescati in seguito all'interazione dinamica, anche semplice, tra agenti. Come nota Jean-Philippe Bouchaud in riferimento alla crisi finanziaria del 2008, che poi è diventata una vera e propria crisi economica globale, i modelli utilizzati per stabilire i prezzi, e dunque il rischio, dei prodotti finanziari relativi ai mutui subprime erano fondamentalmente errati proprio in quanto sottovalutavano la probabilità della comparsa di un evento coerente su grande scala, ovvero che più mutuatari invece di comportarsi in modo indipendente l'uno dall'altro sviluppassero una correlazione, diventando insolventi sui loro prestiti contemporaneamente. Questi modelli hanno cioè trascurato la possibilità di una crisi globale, anche se hanno contribuito a innescarne una.

Da un punto di vista teorico l'equilibrio generale di Arrow e Debreu, insieme alle generalizzazioni delle aspettative razionali derivate da Lucas e altri, non sarebbe degno di nota se non ci fosse ragione di ritenerlo stabile, così che un'economia possa porsi da sé in questo stato speciale e poi rimanervi vicina. Tuttavia, nonostante il tentativo di semplificare grandemente il problema utilizzando nel modello teorico un certo numero di assunzioni assolutamente irrealistiche, non c'è nessuna prova della stabilità dell'equilibrio Arrow-Debreu e dunque non c'è nessun motivo per ritenere che vi sia una stabilità nell'economia reale grazie all'efficienza dei mercati. La domanda che sorge spontanea è: ma allora i modelli neoclassici sono falsificabili in qualche modo? Si può ritenere che le ipotesi del modello neoclassico siano state falsificate dai dati?

| << |  <  |  >  | >> |

Pagina 91

9. La matematica come ornamento

Uno dei fondatori dell'approccio neoclassico all'economia, William Stanley Jevons, pensava che l'economia dovesse essere una scienza matematica e per questo, anche oggi, la maggior parte degli economisti neoclassici utilizza una grande quantità di matematica nel proprio lavoro. Il padre della teoria delle aspettative razionali, Robert Lucas, ha ribadito, in una lezione tenuta nel 2001 alla Trinity University, che «la teoria economica è analisi matematica. Tutto il resto sono solo immagini e chiacchiere». Motivato, tra le altre, da queste posizioni, il filosofo della scienza britannico Donald Gillies ha scritto un interessante lavoro sul confronto dell'uso della matematica in fisica e in economia neoclassica.

Gillies ricorda innanzitutto che i fisici hanno imparato a considerare criticamente ogni teoria entro dei limiti ben precisi che sono dettati dalle assunzioni usate e dagli esperimenti disponibili: hanno dunque, dal tempo di Galileo e Newton, appreso a non scambiare ciò che avviene nel modello con ciò che invece accade nella realtà. In fisica í modelli si confrontano con le osservazioni per provare se sono in grado di fornire spiegazioni precise: un esempio di questo tipo è rappresentato dal calcolo della precessione del perielio di Mercurio, di cui abbiamo parlato nel capitolo precedente. Oppure i modelli teorici possono fornire previsioni di successo. Ad esempio le onde elettromagnetiche postulate da Maxwell nel 1873 e generate da Hertz nel 1887. La domanda è dunque: si può asserire che l'uso della matematica nell'economia neoclassica serva a uno scopo analogo? Oppure quest'uso si riduce a un puro esercizio retorico in cui si fa sfoggio di usare uno strumento relativamente raffinato per calcolare precisamente cose irrilevanti? La conclusione di Gillies è che mentre in fisica la matematica è stata utilizzata per ottenere spiegazioni precise e previsioni di successo, non si può trarre la stessa conclusione sull'uso della matematica in economia neoclassica nell'ultimo mezzo secolo. Quest'analisi rafforza la conclusione sulla pseudo-scientificità dell'economia neoclassica cui siamo giunti in precedenza considerando il fallimento sistematico delle previsioni degli economisti neoclassici.

Per mostrare ciò, Gillies ha esaminato le opere più conosciute di una selezione dei più noti economisti neoclassici (Paul A. Samuelson, Kenneth J. Arrow, Gérard Debreu, Edward C. Prescott) nel periodo dal 1945 ad oggi. L'opera più famosa di Samuelson è uno dei classici dell'economia matematica, Fondamenti dell'analisi economica. Gillies nota che Samuelson, nel suo libro di oltre 400 pagine fitte di formule matematiche, non deriva nemmeno un risultato che possa essere confrontato con i dati osservativi. Addirittura nel libro non vi è menzione di alcun dato empirico!

Per quanto riguarda il lavoro seminale di Kenneth Arrow e Gérard Debreu del 1954 – che abbiamo commentato precedentemente –, Gillies mette giustamente l'accento sul fatto che i modelli di equilibrio generale considerati dai due autori sono basati su ipotesi tanto semplificatrici della realtà da non poter essere confrontate con i dati osservativi. Infatti, come nel caso di Samuelson, i dati empirici sono del tutto assenti nel loro lavoro.

Infine, Gillies prende in considerazione l'articolo di Edward C. Prescott Il premio dell'equità. Un puzzle, scritto in collaborazione con Rajnish Mehra, in cui gli autori cercano di confrontare il modello di equilibrio generale Arrow-Debreu di un'economia teorica con i dati ottenuti da un'economia reale, vale a dire l'economia statunitense nel periodo dal 1889 al 1978. In questo caso non c'è nessun accordo tra i risultati teorici e i dati empirici.

In conclusione, l'economia neoclassica, a differenza della fisica, non ha raggiunto attraverso l'uso della matematica alcuna spiegazione precisa o previsione di successo: questa è la principale differenza tra le due discipline.

| << |  <  |  >  | >> |

Pagina 95

Phil Anderson, premio Nobel per la fisica nel 1977, ha sintetizzato questa rivoluzione nel suo articolo del 1972 Il più è differente. L'idea di base è la seguente: in fisica l'approccio tradizionale considera i sistemi più semplici e li studia dettagliatamente; tale approccio, detto riduzionistico, si focalizza sui «mattoni» elementari che costituiscono la materia e si applica con successo a molti fenomeni. Da ciò è stato possibile derivare le leggi generali che si estendono dalla scala del nucleo atomico a quella delle galassie. È facile però rendersi conto che, non appena aumenta il grado di complessità delle strutture e dei sistemi, e quando questi sono composti da tanti elementi in interazione tra loro, ci si trova di fronte a nuove situazioni, in cui la conoscenza delle proprietà degli elementi individuali (ad esempio le particelle, gli atomi, i pianeti, ecc.) non è più sufficiente per descrivere il sistema complessivo nel suo insieme. Il punto è che, quando interagiscono tra loro, questi elementi formano strutture complesse e sviluppano moti collettivi che hanno poco a che fare con le proprietà dei singoli elementi isolati: i singoli elementi hanno un comportamento relativamente semplice, ma le loro interazioni portano a nuovi fenomeni emergenti. Per questo motivo il comportamento dell'insieme è fondamentalmente diverso da qualsiasi sua sottoparte elementare. Possiamo rappresentare questa situazione come lo studio della «architettura» della materia e della natura, che dipende in qualche modo dalle proprietà dei «mattoni», ma che mostra poi caratteristiche e leggi fondamentali non ricollegabili a quelle dei singoli elementi.

Secondo Anderson la realtà ha dunque una struttura gerarchica e a ogni livello della gerarchia è necessario introdurre concetti e idee diversi da quelli utilizzati nel livello precedente. In parole semplici: dalla conoscenza delle leggi fondamentali che regolano l'interazione tra particelle elementari non è possibile capire la formazione di molte delle fasi della materia condensata e, a maggior ragione, di sistemi sempre più complessi, fino ad arrivare ai sistemi biologici e agli aggregati sociali. Questa situazione porta a un'interessante considerazione epistemologica: mentre la fisica riduzionista è di solito deduttiva, la comprensione di un fenomeno di organizzazione collettiva molto difficilmente avviene attraverso la deduzione. Il procedimento logico deduttivo mostra dunque un suo limite fondamentale quando è applicato ai fenomeni complessi.

| << |  <  |  >  | >> |

Pagina 121

19. Economia è politica

Il problema del pluralismo del pensiero in economia non è un problema meramente accademico: la presenza di una «dittatura neoclassica» è la ragione per cui non è cambiata la mentalità nell'affrontare la crisi negli ultimi anni. I mass media sono sottoposti allo stesso tipo di egemonia culturale e per questo motivo spesso si hanno delle rappresentazioni deformate della realtà che non permettono all'opinione pubblica la comprensione di importanti avvenimenti. Ad esempio, nei principali media, le scelte dei governi europei e della stessa Commissione europea sono state presentate come comportamenti obbligati determinati da una crisi scoppiata in conseguenza dell'eccessiva generosità dei livelli retributivi e dei sistemi pubblici di welfare. Questa versione riflette un punto di vista ben definito (quello della teoria economica neoliberale) e non è una rappresentazione fedele di ciò che è successo dal 2008 in poi.

La crisi economica, infatti, è scoppiata inizialmente come una crisi bancaria e finanziaria innescata da una crisi di debito privato dovuta a un'incontrollata creazione di «denaro dal nulla», nella forma dei titoli derivati, da parte delle banche sia in Europa sia negli Stati Uniti. L'enorme crescita dei mercati e degli strumenti finanziari si è dunque intrecciata negli ultimi trent'anni con l'aumento vertiginoso dell'indebitamento privato, creando i presupposti per la grande crisi globale. Il settore finanziario ha spinto l'indebitamento poiché le banche ricavano lauti interessi dal debito altrui. Inoltre, in un sistema a crescenti disuguaglianze e con bassi e precari redditi le persone normali possono acquistare una casa o un'automobile o possono andare in vacanza solo indebitandosi. Quindi c'è stata una pressione, che ha dato luogo a un aumento del debito privato, sia dal lato dell'offerta sia dal lato della domanda e il tutto ha fatto sviluppare una maggiore finanziarizzazione dell'economia. Quando questo castello di carte è crollato, con dei costi enormi per milioni di persone, il governo americano ha sostenuto le banche per quasi trenta trilioni di dollari, nella forma di prestiti e garanzie, mentre alla fine del 2010 la Commissione europea ha autorizzato aiuti alle banche per più di quattro trilioni di dollari. Con questi interventi la crisi finanziaria, che fino all'inizio del 2010 era una crisi delle banche private e non si era tramutata in una catastrofe mondiale, è stata caricata sui bilanci pubblici, che così hanno salvato i bilanci privati.

Per qualche anno tutti i discorsi da parte dei media e di molti politici si sono focalizzati sul fallimento del sistema finanziario e sulla necessità di una sua riforma. Molti economisti – anche alcuni tra quelli neoclassici – si sono uniti nel biasimare il settore finanziario e l'indebitamento facile senza garanzie da parte di chi «non se lo poteva permettere». Dopo circa un anno, il discorso ha iniziato a spostarsi su temi diversi: troppo indebitamento da parte dello Stato a causa di un'eccessiva spesa pubblica e dei problemi intergenerazionali – la colpa era della generazione più anziana che ha avuto tutto, lasciando i giovani senza speranze. Le parole d'ordine, diffuse dai principali media, sono diventate in poco tempo: eccesso di indebitamento degli Stati, eccesso di spesa pubblica, pensioni insostenibili, spese per l'istruzione «che non ci possiamo più permettere», ecc. E come conseguenza è stato fatto passare senza grandi difficoltà il messaggio che lo Stato spende troppo e dunque è necessario tagliare le spese pubbliche: asili, scuole, sanità, istruzione, ricerca, pensioni, e così via. Questa narrativa ha aperto le porte alle misure di austerità e alla privatizzazione dei servizi di base, mentre il ruolo del settore finanziario e la necessità di riformarlo sembrano essere stati completamente dimenticati.

Una simile mistificazione è stata possibile grazie ad un'egemonia culturale e politica che influenza sia l'orientamento dell'opinione pubblica, attraverso i grandi quotidiani, sia lo stesso centro di formazione della cultura, l'accademia.

| << |  <  |  >  | >> |

Pagina 178

La gestione del rischio nella ricerca fondamentale è quindi un aspetto cruciale che sia i singoli ricercatori sia le agenzie di finanziamento devono affrontare. Il punto chiave per la politica organizzativa consiste nel non creare condizioni che blocchino il processo scientifico, e dunque le scoperte e le innovazioni, proprio nel senso in cui lo aveva intuito Leó Szilárd. I ricercatori, che sono gli attori protagonisti del progresso della scienza, si regolano secondo la loro personalità e le loro intuizioni, ma anche in base alle regole imposte dal sistema sociale in cui operano, e per questo un'analisi delle diverse strategie organizzative è necessaria per non inibire l'innovazione. La ricerca è finanziata attraverso bandi competitivi e finanziamenti diretti: l'ammontare del bilancio totale delle spese in ricerca e il modo secondo cui tali spese sono distribuite tra i ricercatori definiscono la politica della ricerca di uno Stato. A questo riguardo, una questione cruciale è se sia più efficace assegnare grandi finanziamenti a pochi ricercatori d'élite oppure piccoli finanziamenti a molti ricercatori. Come ha notato John Ioannidis, non vi sono evidenze adeguate che stabiliscano se sia meglio assegnare più risorse a pochi scienziati oppure distribuire finanziamenti più piccoli a un maggior numero di ricercatori, e dunque bisognerebbe studiare il problema in maniera analitica, poiché «È uno scandalo che miliardi di dollari siano spesi per la ricerca senza sapere quale sia il migliore modo per distribuire i finanziamenti».

Qualcuno si è posto il problema cercando di studiarlo in maniera analitica. Due biologi canadesi dell'Università di Ottawa, Jean-Michel Fortin e David Currie, hanno esaminato l'impatto scientifico, in un certo periodo di tempo, dei ricercatori universitari canadesi in tre discipline: biologia animale, chimica inorganica e organica, evoluzione ed ecologia. Hanno così mostrato la mancanza di correlazione tra le dimensioni del finanziamento e l'impatto scientifico, suggerendo che le sovvenzioni più grandi non portano a scoperte più importanti. Al contrario, hanno dedotto che le strategie di finanziamento più efficaci sono quelle che si concentrano sulla diversificazione dei progetti, piuttosto che sul premio all'eccellenza di un'unica linea di ricerca. Pertanto i due biologi sono decisamente a favore del modello di finanziamento «poco a molti», anziché «tanto a pochi». Inoltre, considerato il costo del processo di valutazione dei progetti, suggeriscono che potrebbe essere più economico assegnare un contributo di base a ogni ricercatore qualificato. Infatti, c'è un'altra conseguenza negativa in un basso tasso di successo di progetti scientifici che è propria della strategia «tanto a pochi». Oggi gli scienziati sono valutati anche in base alla quantità di finanziamenti che portano alle loro istituzioni. La scrittura, la revisione dei progetti e l'amministrazione delle sovvenzioni finiscono per assorbire la maggior parte del loro tempo: una soglia troppo elevata del tasso di accettazione dei progetti di ricerca determina quindi un enorme spreco del tempo e delle risorse che la grande frazione di candidati che non ha successo deve impiegare nell'elaborazione di progetti che alla fine non sono finanziati. Questo tempo dovrebbe essere calcolato nel bilancio totale del finanziamento, perché le università e gli istituti di ricerca lo pagano.

In breve, un finanziamento strutturale, affiancato da un finanziamento a progetto con tassi di successo molto più laschi del 5%, favorirebbe una maggiore diversità scientifica che, come una maggiore diversificazione genetica, aumenterebbe la probabilità che qualche ricercatore (come alcuni geni mutanti) avrà quelle caratteristiche che daranno dei frutti innovativi in un futuro imprevedibile.

[...]

Il dogma dell'eccellenza applicato alla scienza sta portando dunque la ricerca ad assomigliare all'edificio burocratico e inefficiente presagito da Leó Szilárd. Piuttosto che premiare oggi l'eccellenza del passato — l'eccellenza riconoscibile oggi è solo quella di ieri — il vero problema è finanziare oggi i ricercatori che saranno capaci di sviluppare l'eccellenza del futuro: si tratta di scienziati che sono nel grande magma dei ricercatori senza però essere già straordinari, ed è per questo che il finanziamento strutturale, «poco a tutti», è molto più importante di quello d'élite.

Se identificare gli scienziati eccellenti esistenti è relativamente semplice, molto più difficile è prevedere se un certo scienziato diventerà eccellente e risolverà un problema sociale, o compirà un trasferimento tecnologico, o contribuirà alla politica scientifica pubblica in futuro. In ogni caso, gli scienziati eccellenti sono solo una frazione relativamente piccola, la punta di un iceberg che è supportato da un'ampia base di scienziati competenti. Più grande è la base più forte è la piramide, e maggiore sarà il successo del gruppo di testa: un successo che alla fine andrà a beneficio di tutti quelli che sono coinvolti nella costruzione e manutenzione della piramide.

| << |  <  |  >  | >> |

Pagina 183

15. Il modello 'Harvard here'

Il dogma dell'eccellenza applicato alla politica dell'istruzione superiore prescrive la concentrazione di risorse in poche università e istituzioni di élite e il finanziamento «tanto a pochi». Ciò rappresenta la declinazione, nel campo della ricerca e dell'istruzione, della strategia per la crescita economica adottata negli anni Ottanta dal presidente americano Ronald Reagan, che si basava sul cosiddetto trickle down (sgocciolamento) dell'economia. L'idea era di lasciare più soldi all'élite, in quel caso attraverso la riduzione della fascia d'imposta superiore dal 70% al 50% e poi al 28%, poiché questa misura avrebbe creato più posti di lavoro e ridotto le disuguaglianze. Tuttavia i risultati sono stati l'opposto: come abbiamo visto, la distribuzione del reddito e della ricchezza è sempre più disuguale ed è aumentata notevolmente dagli anni Ottanta a oggi.

Nel caso dell'istruzione superiore, molti governi considerano obiettivo principale della loro politica quello di avere università nel top delle classifiche mondiali degli atenei, come se questa fosse la panacea per garantire il successo dei propri paesi nell'economia globale. Di nuovo siamo di fronte all'apparente sostituzione delle politiche scientifiche ed educative nazionali con una serie di parametri che fornirebbero la misura quantitativa dello stato dei sistemi e, dunque, chiare indicazioni su come migliorarli. Per questo motivo gli atenei sono costantemente misurati attraverso le classifiche internazionali, che stanno spingendo i governi ad apportare profondi cambiamenti ai loro sistemi d'istruzione superiore, perseguendo un crescente accentramento di risorse nelle istituzioni d'élite, alterando i programmi d'istruzione per favorire alcune discipline e campi di ricerca al fine dí conformarsi agli indicatori fissati dalle classifiche internazionali delle università.

Per questo stesso motivo, molti paesi hanno avviato iniziative di «eccellenza» al fine di creare quelle che vengono definite «università di classe mondiale». Il modello neoliberale, che concentra le risorse in un piccolo numero di università d'élite, noto come il modello Harvard here, cerca di sviluppare una differenziazione tra atenei, distinguendo tra università con compiti di ricerca e d'insegnamento. Questo modello, la cui radice ideologica è la stessa che ha generato la crisi economica mondiale in cui ci troviamo immersi, sta deprimendo la diversificazione scientifica e, di conseguenza, sta inibendo le scoperte e in ultima analisi l'innovazione: in pratica, sta chiudendo le possibilità di trovare una via d'uscita dalla crisi stessa.

Come abbiamo accennato, il ruolo chiave è giocato dalle classifiche degli atenei, che sono stilate in base a una serie di parametri arbitrari che misurano quantità solo vagamente correlate con ciò che si vorrebbe misurare. Inoltre questi parametri, combinati insieme attraverso procedure scientificamente inconsistenti, formano un singolo indicatore che fissa la posizione nella classifica. Data questa situazione, se si vuole salire in graduatoria bisogna adeguarsi a questa pseudo-metodologia. Ad esempio un ateneo, per migliorare il proprio parametro bibliometrico, può puntare a sviluppare maggiormente esperimenti di fisica di particelle elementari oppure le scienze biomediche: ciò non avviene perché la ricerca in quei campi è di migliore qualità o più importante da un punto di vista strategico, ma dipende dal fatto che le comunità scientifiche di riferimento sono più ampie e dunque producono più articoli e, perciò, più citazioni. È evidente che si tratta di un criterio che non serve a sviluppare la qualità o l'innovazione.

Un altro esempio riguarda la contrapposizione tra la ricerca che ha una visibilità internazionale e quella che ha una portata soltanto locale. Ad esempio, in fisica le leggi di natura sono universali e immutabili: questo è il motivo per cui si è creata una comunità a livello internazionale che lavora sugli stessi problemi. Lo stesso accade in molti altri settori, come la medicina, la matematica o l'ingegneria. D'altra parte è naturale che ci siano delle problematiche che appaiono rilevanti solo a livello nazionale e che perciò non hanno necessariamente un respiro internazionale: si pensi alle scienze giuridiche e sociali, a una buona parte dell'economia o a interi settori della letteratura – le scienze umane –, ma anche ad alcuni aspetti delle scienze geologiche, della botanica, ecc. Se queste discipline possono presentare dei temi comuni tra diversi paesi, è anche naturale che abbiano delle specificità nazionali, che dipendono dalla storia, dalla giurisprudenza, dalla sociologia, dall'organizzazione dello Stato, dalla struttura economica e produttiva, dalla geografia, ecc. Difficilmente questi studi possono avere un interesse sovranazionale e perciò non sono pubblicati nelle riviste internazionali più visibili del settore. Tuttavia ciò non significa che non siano ricerche interessanti o importanti da perseguire.

| << |  <  |  >  | >> |

Pagina 196

Concentriamo ora l'attenzione sull'impatto che le scoperte della ricerca fondamentale negli ultimi decenni hanno avuto sulla vita di tutti i giorni; in seguito discuteremo in dettaglio il ruolo dell'organizzazione del sistema economico per lo sviluppo di innovazioni e dunque per la commercializzazione di queste scoperte. È naturale che il motore ultimo dell'innovazione e del progresso tecnico sia rappresentato dalla ricerca fondamentale. Come scriveva Richard Feynman,

Tra molto tempo – per esempio tra diecimila anni – non c'è dubbio che la scoperta delle equazioni di Maxwell sarà giudicata l'evento più significativo del XIX secolo. La guerra civile americana apparirà insignificante e provinciale se paragonata a questo importante evento scientifico avvenuto nel medesimo decennio.

Le equazioni di Maxwell, se hanno segnato una svolta storica nella comprensione dei fenomeni elettromagnetici, diventando una colonna portante della fisica moderna, hanno anche permesso, a distanza di qualche decennio, una serie straordinaria di innovazioni tecnologiche che a loro volta hanno stimolato un fenomenale sviluppo economico: ad esempio, il fatto che i segnali elettrici potessero essere inviati attraverso l'aria, come in seguito osservato da Hertz, è alla base della scoperta della radio e delle moderne telecomunicazioni. Sheldon Glashow, premio Nobel per la fisica nel 1979, ha spiegato molto chiaramente le ragioni per le quali conviene finanziare la ricerca di base, in contrasto con l'opinione, molto diffusa, secondo la quale la società dovrebbe investire esclusivamente, o prevalentemente, in ricerche che abbiano buone probabilità di generare benefici diretti nella forma di creazione di ricchezza e di miglioramento della qualità della vita:

Se Faraday, Roentgen e Hertz si fossero concentrati sui 'problemi reali' dei loro tempi, non avremmo mai sviluppato i motori elettrici, i raggi X e la radio. È vero che i fisici che lavorano nella ricerca fondamentale si occupano di fenomeni 'esotici' che non sono in se stessi particolarmente utili. È anche vero che questo tipo di ricerca è costoso. Ciò nonostante, sostengo che il loro lavoro continua ad avere un enorme impatto sulla nostra vita. In verità, la ricerca delle conoscenze fondamentali, guidata dalla curiosità umana, è altrettanto importante che la ricerca di soluzioni a specifici problemi pratici. Dieci esempi dovrebbero essere sufficienti per provare questo punto.


I dieci esempi sono i seguenti:

1) Il world-wide-web, sviluppato all'interno delle ricerche della fisica delle alte energie: l'inventore Tim Berners-Lee , che lavorava al CERN, nel 1989 propose un progetto per la gestione dei dati degli esperimenti delle particelle elementari, basato sullo sviluppo dell'ipertesto. È interessante notare che il progetto di Berners-Lee ebbe questa sorprendente (con gli occhi d'oggi) valutazione: «promettente ma vago»: è probabile che un tal progetto non sarebbe rientrato nel top 5% di qualche selezione.

2) I computer moderni sono stati sviluppati grazie a uno sforzo interdisciplinare dei fisici della materia (abbiamo discusso la magnetoresistenza gigante) e dei fisici delle alte energie, e grazie allo sviluppo della logica matematica (abbiamo citato nel capitolo precedente il contributo di Friedric Ludwig Gottlob Frege ).

3) La crittografia moderna, che si fonda sulla teoria dei numeri – alla quale, come abbiamo visto nel capitolo precedente, lo sconosciuto matematico Yitang Zhang ha da poco dato un contributo importante –, è alla base delle transizioni finanziarie a distanza.

4) I sistemi di posizionamento globale (GPS), sistemi di navigazione che hanno una precisione di pochi metri e che dipendono dagli orologi atomici, che furono sviluppati – come abbiamo accennato nel capitolo I – al solo scopo di verificare la teoria della relatività generale di Einstein.

5) La terapia con i fasci di particelle: le particelle elementari, nella forma di fasci accuratamente diretti e collimati, giocano un ruolo essenziale in medicina. Madame Curie, nella prima metà del XX secolo, fu la prima a suggerire che i raggi X potessero essere utili in campo medico. In seguito, all'inizio degli anni Cinquanta, i ciclotroni di Berkeley e Harvard, costruiti inizialmente per la ricerca fondamentale in fisica delle particelle, furono utilizzati per generare fasci di protoni per la terapia del cancro e migliaia di pazienti furono curati con questi strumenti. Inoltre, gli acceleratori di elettroni di alta energia sono usati per trattare alcune lesioni derivanti dall'AIDS, il linfoma della pelle e il cancro al seno.

6) Il medical imaging, come la risonanza magnetica nucleare, la tomografia a emissione di positroni, ecc. I primi analizzatori di immagine (scanner) in medicina furono realizzati da fisici delle alte energie. Alan Cormack e Geoffrey Hounsfield hanno vinto il premio Nobel per la medicina nel 1979, per aver sviluppato la tomografia assistita da calcolatore. L'attività medica è divenuta dipendente dagli scanner, dall' imaging a risonanza magnetica, che usa il magnetismo nucleare, e dalla tomografia a emissione di positroni, che usa cioè una forma di antimateria.

7) Un certo tipo di particelle elementari, i radioisotopi, prodotti da acceleratori di particelle situati negli ospedali, o (in alcuni casi) presso reattori nucleari all'interno di laboratori di ricerca governativi, sono utilizzati per un'ampia gamma di scopi medici: diagnosticare malattie, trattare varie forme di cancro, alleviare il dolore, fare analisi del sangue, delle urine o di campioni di tessuto a scopo diagnostico o legale. Inoltre, la spettroscopia di massa, attraverso la quale è possibile misurare basse concentrazioni di radionuclidi, è usata comunemente in archeologia, geologia, planetologia, ingegneria.

8) Le sorgenti di luce di sincrotrone – una radiazione generata da elettroni accelerati – sono molto utili sia nella scienza fondamentale sia nella tecnologia d'interesse commerciale: per la scienza dei materiali, i test industriali, la scienza della Terra, l'ambiente, la scienza degli esseri viventi, la diagnostica medica.

9) Le sorgenti di neutroni: la diffusione e la diffrazione di neutroni hanno una miriade di applicazioni nelle scienze di base e applicate, come pure in ingegneria.

10) Le potenzialità della superconduttività ad alta temperatura nella generazione, nel trasporto e nell'immagazzinamento di energia elettrica, che abbiamo già analizzato nel capitolo precedente.


Dobbiamo inoltre ricordare un aspetto forse più importante di quello delle ricadute economiche: il ruolo culturale della ricerca. Nelle parole di Glashow,

Noi studiamo queste discipline perché crediamo che sia nostro dovere capire quanto meglio possibile il mondo in cui siamo nati. La scienza fornisce la possibilità di comprendere razionalmente il nostro ruolo nell'universo e può rimpiazzare le superstizioni, che tante distruzioni hanno prodotto nel passato. In conclusione, dovremmo notare che il grande successo dello spirito d'iniziativa degli scienziati di tutto il mondo dovrebbe servire da modello per una più ampia collaborazione internazionale. Speriamo che la scienza e gli scienziati ci conducano verso un secolo più giusto e meno violento di quello che lo ha preceduto.

| << |  <  |  >  | >> |

Pagina 202

Il problema che si pone è: chi beneficia del rendimento di questo investimento? Se da una parte la ricerca di base, che conduce a scoperte scientifiche, deve essere considerata un bene pubblico, non è per niente scontato che i proventi delle sue applicazioni siano distribuiti in maniera da ripagare l'investitore, cioè lo Stato. Poiché l'alto rischio associato alla ricerca è assunto dallo Stato, suo principale finanziatore, le eventuali perdite dovute ai progetti e alle ricerche che non hanno portato a ricadute per la collettività sono socializzate. Ma anche gli eventuali guadagni vengono socializzati, oppure vanno a vantaggio di pochi, cioè delle poche imprese che riescono a sfruttare da un punto di vista commerciale le scoperte della ricerca fondamentale? Come abbiamo evidenziato nel caso della commercializzazione dell'effetto GMR, le imprese e i paesi che hanno avuto più benefici non sono stati quelli in cui la scoperta è stata compiuta e che hanno finanziato questi studi (Germania e Francia), bensì quelli che avevano un complesso industriale e tecnologico pronto a sfruttare da un punto di vista commerciale questa scoperta della ricerca fondamentale (Stati Uniti e Giappone). Se dunque il motore dello sviluppo economico è il progresso tecnologico, a sua volta guidato dalle scoperte nella ricerca di base, la connessione tra i due ingranaggi chiave del sistema economico – la ricerca fondamentale e l'innovazione tecnologica – non è per niente immediata e dipende dalle condizioni più generali di una società. La connessione è, o dovrebbe essere, garantita dall'intervento dello Stato, che dovrebbe creare le condizioni per facilitarne la realizzazione.

Qualche esempio può aiutare a chiarire in che modo le scoperte della ricerca di base si trasformano in business e soprattutto qual è il ruolo dello Stato in questo processo e quali sono i problemi in questa relazione. Sostiene l'economista italo-americana Mariana Mazzucato nel suo bel libro The Entrepreneurial State:

la genialità, il design, il gioco, la «pazzia», sono state senza dubbio caratteristiche importanti. Ma senza una massiccia quantità d'investimenti pubblici sui computer e sulla rivoluzione di Internet, questi attributi avrebbero portato soltanto all'invenzione di un nuovo giocattolo, non a prodotti come l'iPad e l'iPhone, che hanno cambiato il modo in cui le persone lavorano e comunicano. Apple è stata in grado di cavalcare l'onda dei massicci investimenti statali sulle tecnologie «rivoluzionarie» che hanno sostenuto l'iPhone e l'iPad: Internet, il GPS, lo schermo «touch screen» e le tecnologie di comunicazione. Senza gli investimenti pubblici non ci sarebbe stata nessuna onda sulla quale fare un «folle» surfing.

C'è però un vero e proprio paradosso nella strategia che la Mazzucato mette chiaramente in luce: la socializzazione del rischio (attraverso il finanziamento statale alla ricerca di base) e la privatizzazione dei profitti (per le imprese che riescono a usare le scoperte ottenute a spese dello Stato per fabbricare prodotti ad alta tecnologia) possono creare rapporti di tipo parassitario tra Stato e settore privato. Infatti, se lo Stato evita al settore privato di rischiare nella ricerca, il settore privato, che deve tanto agli investimenti pubblici, dedica troppa energia a ridurre il proprio carico fiscale spostando il suo denaro off-shore e assegnando la proprietà intellettuale a paesi a fiscalità privilegiata.

Ad esempio, è emerso che la Apple ha negoziato un accordo fiscale con il governo irlandese che ha determinato un'imposta minore dell'1% ed altri vantaggi fiscali.

| << |  <  |  >  | >> |

Pagina 222

Le nuove generazioni dei paesi dell'Europa meridionale rischiano di essere sacrificate sull'altare dell'austerità pur di placare le turbolenze dei mercati finanziari. Purtroppo questo sacrificio sarà, molto probabilmente, vano, perché non servirà a rilanciare l'economia né nell'immediato né nel prossimo futuro. Paradossalmente, gli effetti saranno quelli di deprimere ancor più le possibilità di sviluppo sul lungo periodo di questi paesi. Mentre infatti i paesi europei più forti continuano a investire nei loro scienziati, attraendone anche molti da altre nazioni, in molti altri paesi dell'Europa orientale e meridionale i ricercatori lottano per non essere schiacciati dai tagli economici, con il risultato che i vincoli di bilancio legati alle politiche d'austerità stanno compromettendo lo sviluppo delle ricerche innovative che potrebbero contribuire a guidarci fuori dalla crisi economica e — cosa ben più grave — stanno creando un vuoto generazionale che sarà difficile recuperare. Vediamo più in dettaglio la situazione nell'Europa meridionale.

Secondo un ex primo ministro italiano, la Grecia «è la manifestazione più completa del grande successo dell'euro». Cinque anni dopo il «salvataggio» da parte della Troika (Banca europea, Commissione europea e Fondo monetario) la Grecia è ancora in recessione, ha un tasso di disoccupazione intorno al 30% — che sale al 55% per í giovani —, ha sofferto un abbassamento del PIL del 20% e il 30% della sua popolazione vive sotto il livello di povertà dell'Unione Europea. Applicato per cinque anni, il programma delle politiche d'austerità imposto dalla Troika ha creato in Grecia la recessione più lunga e drammatica nella storia del paese, con la perdita di un terzo del reddito collettivo. Da una parte è diminuito il PIL e dall'altra il debito della Grecia è aumentato dal 120% al 180% del PIL: è evidente che il risultato è stato del tutto controproducente. Le misure di austerità hanno provocato una vera e propria emergenza umanitaria. Un articolo scientifico pubblicato sulla rivista «The Lancet» ha fornito dati impressionanti: in Grecia, dopo quarant'anni, è ricomparsa la malaria, il 70% dei partecipanti a un sondaggio ha dichiarato di non avere sufficiente denaro per comprare le medicine, i suicidi sono aumentati del 45%, è cresciuto del 19% il numero dei neonati sottopeso e del 21% quello dei bambini nati morti.

Le conseguenze per l'università e la ricerca sono chiaramente devastanti.

| << |  <  |  >  | >> |

Pagina 234

5. Hanno scelto l'ignoranza

L'Europa è in crisi, ma forse quello che finora non è abbastanza chiaro è che a essere in profonda crisi è il cuore pulsante della sua promessa di sviluppo: la ricerca. Per questo motivo è necessario ripensare il ruolo dell'istruzione avanzata e della ricerca in una società post-industriale. Per prima cosa bisogna considerare che lo sviluppo economico, se non accompagnato da uno sviluppo civile, porta a un imbarbarimento: dunque il primo e fondamentale scopo della ricerca e dell'istruzione deve essere quello di elevare la cultura in generale. L'ex presidente dell'Università di Harvard, Derek Bok, sosteneva molto efficacemente che «se pensi che l'istruzione sia costosa, prova l'ignoranza».

Il manifesto che ho avuto l'onore di promuovere insieme ad altri scienziati di diversi paesi europei denuncia, in modo forte e chiaro, lo stato di abbandono in cui versa la ricerca nel Vecchio Continente, a cominciare proprio dal titolo, che si ispira a Derek Bok: Hanno scelto l'ignoranza. Questa, infatti, è stata la scelta più o meno consapevole dei «responsabili delle politiche nazionali di un numero crescente di Stati membri dell'UE che hanno completamente perso contatto con la reale situazione della ricerca scientifica in Europa», i quali, ignorando la lezione di Vannevar Bush,

Hanno scelto di ignorare il contributo decisivo che un forte settore della ricerca può dare all'economia, contributo particolarmente necessario nei paesi più duramente colpiti dalla crisi economica. Al contrario, essi hanno imposto rilevanti tagli di bilancio alla spesa per Ricerca e Sviluppo (R&S), rendendo questi paesi più vulnerabili nel medio e lungo termine a future crisi economiche. Tutto ciò è accaduto sotto lo sguardo compiacente delle istituzioni europee, più preoccupate del rispetto delle misure di austerità da parte degli Stati membri che del mantenimento e del miglioramento di un'infrastruttura di R&S che possa servire a trasformare il modello produttivo esistente in uno più robusto, basato sulla produzione di conoscenza.

La ricerca dovrebbe dunque essere il fondamento di un nuovo modello di sviluppo che ha tempi lunghi e ha bisogno di un sostegno sistematico; invece:

Hanno scelto di ignorare che la ricerca non segue cicli politici; che a lungo termine l'investimento sostenibile in R&S è fondamentale perché la scienza è una gara sulla lunga distanza; che alcuni dei suoi frutti potrebbero essere raccolti ora, ma altri possono richiedere generazioni per maturare; che, se non seminiamo oggi, i nostri figli non potranno avere gli strumenti per affrontare le sfide di domani. Invece, hanno seguito politiche anticicliche d'investimento in R&S con un unico obiettivo in mente: abbassare il deficit annuo a un valore artificiosamente imposto dalle istituzioni europee e finanziarie, ignorando completamente i devastanti effetti che queste politiche stanno avendo sulla scienza e sul potenziale d'innovazione dei singoli Stati membri e di tutta l'Europa.

Come ha scritto Keynes, e ricordando l'esempio di ciò che è accaduto negli Stati Uniti – paese che per altri versi è considerato il paladino del libero mercato –, è lo Stato che deve aprire nuovi orizzonti e possibilità alla ricerca e all'innovazione:

Hanno scelto di ignorare che l'investimento pubblico in R&S è un attrattore d'investimenti privati; che in uno «Stato innovatore» come gli Stati Uniti più della metà della crescita economica è avvenuta grazie all'innovazione, che ha radici nella ricerca di base finanziata dal governo federale. Invece, essi mantengono l'irrealistica aspettativa che l'aumento della spesa in R&S necessaria per raggiungere l'obiettivo del Trattato di Lisbona del 3% del PIL sarà raggiunto grazie al solo settore privato, mentre l'investimento pubblico in R&S viene ridotto. Una scelta in netto contrasto con il rilevante calo del numero di aziende innovative in alcuni di questi paesi e con la prevalenza di aziende a dimensione familiare, tra le piccole e medie imprese, senza alcuna capacità d'innovazione.

La perdita nell'investimento in ricerca è irreversibile, perché sta sacrificando generazioni di giovani scienziati, specialmente nei paesi dell'Europa meridionale i quali, proprio per uscire dalla crisi economica che li ha duramente colpiti, avrebbero dovuto incrementare in misura sempre più consistente il loro investimento in ricerca. E invece:

Hanno scelto di ignorare il tempo e le risorse necessarie per formare ricercatori. Al contrario, facendosi schermo della direttiva europea mirante alla riduzione del personale nel settore pubblico, hanno imposto agli istituti di ricerca e alle università pubbliche rilevanti tagli nel reclutamento che, insieme alla mancanza di opportunità nel settore privato, stanno innescando una «fuga di cervelli» dal Sud al Nord dell'Europa e al di fuori del continente stesso. Questo si traduce in un'irreversibile perdita d'investimenti e aggrava il divario in R&S tra gli Stati membri. Scoraggiati dalla mancanza di opportunità e dall'incertezza derivante dalla concatenazione di contratti a breve termine, molti scienziati stanno pensando di abbandonare la ricerca, incamminandosi lungo quella che, per sua natura, è una via senza ritorno. Invece di diminuire il deficit, questo esodo contribuisce a crearne uno nuovo: un deficit nella tecnologia, nell'innovazione e nella scoperta scientifica a livello europeo.

E, di nuovo, la lezione di Vannevar Bush sulla differenza tra ricerca fondamentale e applicazioni è stata dimenticata:

Hanno scelto di ignorare che la ricerca applicata non è altro che l'applicazione della ricerca di base e non è limitata a quelle ricerche con un impatto di mercato a breve termine, come alcuni politici sembrano credere. Invece, a livello nazionale ed europeo c'è una forte pressione per concentrarsi sui prodotti commercializzabili, che non sono altro che i frutti che pendono dai rami più bassi dell'intricato albero della ricerca: anche se alcuni dei suoi semi possono germinare in nuove scoperte fondamentali, affossando la ricerca di base si stanno lentamente uccidendone le radici.

Insomma, mollare le redini dell'investimento in ricerca potrà sortire in Europa un solo devastante effetto: quello di approfondire i divari di sviluppo tra i diversi paesi, divari che invece dovevano essere colmati proprio in ragione della costruzione del progetto europeo. Ma non basta frenare l'emorragia di finanziamenti, perché c'è un errore profondo anche nel metodo con cui si finanzia oggi l'attività di ricerca, viziato dall'irrealistico miraggio del dogma dell'eccellenza, che sopprime la diversificazione e dunque l'innovazione:

Hanno scelto di ignorare come funziona il processo scientifico; che la ricerca richiede sperimentazione e che non tutti gli esperimenti avranno successo; che l'eccellenza è la punta di un iceberg che galleggia solo grazie alla gran massa di ghiaccio sommerso. Invece, la politica scientifica a livello nazionale ed europeo si è spostata verso il finanziamento di un numero sempre più limitato di gruppi di ricerca ben affermati, rendendo impossibile la diversificazione di cui avremmo bisogno per affrontare le sfide della società di domani. Inoltre, quest'approccio basato sull'eccellenza sta aumentando il divario nella R&S tra gli Stati membri, poiché un piccolo numero d'istituti di ricerca ben finanziati sta sistematicamente reclutando il piccolo e selezionato gruppo di vincitori di finanziamenti.

| << |  <  |