|
|
| << | < | > | >> |IndiceGli autori 6 Nota introduttiva 7 Oltre il riduzionismo 9 Marcello Cini Quando la farfalla sbatte le ali 17 L'abisso non sbadiglia più 19 Marco d'Eramo Volpi e conigli 71 Cacciati dal paradiso delle 79 equazioni lineari Giorgio Parisi Il rubinetto gocciola 81 Nei meandri dei frattali 83 Marco d'Eramo Col calcolatore nacque 99 «La matematica sperimentale» Stefano Ruffo Orbite nella galassia 103 Le molecole in competizione 105 Sergio Carrà Le zanzare perdono la bussola 111 Gianfranco Bangone Potenza del calcolo numerico 117 F.C. Quel percorso caotico che 119 chiamiamo pensiero Franco Carlini |
| << | < | > | >> |Pagina 9 [ riduzionismo, semplicità/complessità, fisica, Lorenz E., Poincaré, ordine/disordine ]Il panorama delle scienze fino alla metà di questo secolo è dominato da una generale tendenza ad assumere come obiettivo della conoscenza scientifica quello della scoperta delle leggi necessarie e universali della natura e come criterio di scientificità una concezione riduzionistica, corrispondente all'assunzione, che sia sempre possibile ricondurre la spiegazione delle proprietà di un sistema costituito da un gran numero di unità elementari tra loro interagenti alla conoscenza delle proprietà semplici di queste unità. Entrambi questi elementi derivano dall'identificazione della fisica come modello esemplare per tutte le altre discipline. Ma negli anni '60 questo panorama comincia a mutare radicalmente. La ricerca delle leggi non caratterizza più ormai in modo esclusivo i settori di punta della ricerca scientifica. Invece di cercare di unificare diversi fenomeni complessi e irregolari attraverso l'identificazione di elementi semplici e regolari comuni che ne costituirebbero la struttura essenziale, il nuovo approccio sottolinea al contrario che sistemi strutturalmente identici possono manifestare comportamenti «selvaggiamente» diversi. Esso propone perciò di rinunciare alla priorità epistemologica delle categorie semplicità, ordine, regolarità nei confronti delle categorie opposte: complessità, disordine, caoticità, al fine di arrivare a una conoscenza della realtà più profonda di quella ottenibile attraverso una drastica riduzione delle seconde alle prime. ... Per quanto riguarda la fisica il mutamento di fisionomia è sorprendente, considerata la seconda tradizione che questa disciplina ha alle spalle. Il punto di svolta più emblematico si può forse identificare nell'ormai celebre lavoro di un metereologo, Edward Lorenz, che nel 1963 mostrò come, per avere un comportamento caotico di un sistema dinamico, fosse sufficiente un modello assai semplice di tre equazioni differenziali non lineari ottenute con drastiche semplificazioni dalle equazioni alle derivate parziali dell'idrodinamica. In questo caso infatti ci si trova di fronte, nonostante il rigoroso determinismo della legge di Newton, a un comportamento caotico del sistema, provocato dalla estrema sensibilità delle soluzioni delle equazioni alle condizioni iniziali. Accade cioè che due stati inizialmente prossimi tra loro quanto si vuole, si allontanino esponenzialmente col tempo. Dall'impossibilità, non soltanto pratica, ma di principio, di definire le condizioni iniziali con precisione infinita discende dunque una sostanziale imprevedibilità dello stato del sistema che diventa sempre meno dominabile con il crescere dell'intervallo di tempo trascorso dall'istante iniziale. Questo risultato si riallaccia direttamente alla scoperta , che risale alla fine del secolo scorso da parte di Poincaré, del fenomeno dell'instabilità dinamica di un sistema meccanico non lineare. ...Ma Poincaré è andato assai oltre. L'andamento qualitativo delle traiettorie del sistema, in prossimità di una traiettoria periodica semplice, analizzato con metodi nuovi da lui inventati a questo scopo, mostra una struttura gerarchizzata di una fantastica complessità. Essa mostra una transizione continua tra il moto regolare e prevedibile della traiettoria periodica di riferimento fino ad arrivare, passando per traiettorie periodiche sempre più complicate, fino a traiettorie irregolari e caotiche. Il moto realizza in questo modo una mescolanza di ordine e di disordine nel senso che una traiettoria apparentemente regolare appare profondamente perturbata a una scala più dettagliata, ma contiene sempre, all'interno del disordine, delle isole di ordine, che a loro volta rivelano, a una scala ancora più fina, delle zone di disordine ove la stessa struttura si perpetua in miniatura. L'ordine e il disordine, il regolare e l'irregolare, il prevedibile e l'imprevedibile si intrecciano indissolubilmente man mano che si procede verso l'infinitamente piccolo. «Si rimarrebbe sbalorditi dalla complessità di questa figura - scrive Poincaré - che non cerco nemmeno di tracciare. Niente è più adatto a darci un'idea della complicazione del problema dei tre corpi, e in generale di tutti i problemi della dinamica dove non c'è alcun integrale uniforme e dove le serie sono divergenti». La scoperta dell'instabilità dinamica bandisce dunque per sempre dalla fisica la certezza nella capacità previsionale della legge matematica che regola il moto di ogni massa materiale. La caoticità intrinseca del comportamento di ogni sistema sottoposto all'azione di forze non lineari, diventa perciò la norma, mentre la regolarità dei moti dei corpi celesti, fondamento concettuale della dinamica newtoniana, si rivela un'eccezione dovuta alla possibilità di trascurare in prima approssimazione le forme di attrazione fra i pianeti rispetto a quella preponderante fra ognuno di essi e il Sole. Non può non destare stupore la scarsa attenzione prestata dalle comunità dei fisici per quasi settant'anni, alla clamorosa scoperta di Poincaré. Che si sia dovuto attendere fino agli anni '60 perché il comportamento caotico dei sistemi dinamici non lineari venisse riscoperto e riconosciuto come un argomento in grado di aprire una problematica di avanguardia e di diffondersi con crescente rapidità in campi dalle discipline più varie, è inspiegabile se non si riconosce che i criteri di scelta delle comunità disciplinari sono condizionati dai nessi strutturali e concettuali che collegano le istituzioni scientifiche al contesto tecnoeconomico e socioculturale. | << | < | > | >> |Pagina 19 [ razionalità scientifica, scienza/tecnologia ]1. Se un aggettivo è adeguato per descrivere l'idea corrente che ci facciamo della razionalità scientifica, esso è: ineluttabile. ... 2. Quest'immagine della razionalità del mondo ha aspetti volgari , o «ingenui». Spinti all'estremo, essi portano a un'idea «meccanica» del mondo e a un'idea «matematica» della ragione. Ovvero riducono il mondo a un grande meccanismo e la ragione a pura analisi. ... 3. Intelligenze sottili rimangono impigliate in semplificazioni tanto grossolane. Il che sarebbe impossibile se le società moderne non avessere un'immagine distorta e irreale delle scienze che esse coltivano. Questa distorsione non è un aspetto accidentale, è un carattere fondativo delle nostre società. La distorsione sta qui: da un lato, la scienza esercita un'egemonia indiscussa sulle società moderne, dall'altro queste società sono totalmente ignoranti sul procedere scientifico. Un solo esempio. Il modo più diffuso per descrivere l'influenza che la scienza esercita su ognuno di noi è inanellare la catena logica discendente (di chiara natura idealistica): matematica / scienza / tecnologia / industria / vita quotidiana. Ora questa catena è totalmente infondata.Ed è infondata proprio nel suo anello più critico: scienza / tecnologia. ... | << | < | > | >> |Pagina 23 [ conoscenza scientifica/ignoranza ]4. Dopo più di un secolo di scolarizzazione di massa, i nostri paesi sono scientificamente analfabeti. ... le azioni quotidiane e i rapporti personali non incorporano la logica matematica o, più generalmente, scientifica. Da un punto di vista sociale, la nostra logica è ancora tutta aristotelica. E nulla della logica moderna è entrato nel bagaglio culturale della società. Cioè: caratteristica decisiva delle società moderne è simultaneamente l'importanza della scienza come modo di produzione del sapere e la sua totale irrilevanza come sapere sociale diffuso. E l'ignoranza aumenta col crescere della conoscenza scientifica e con l'industrializzarsi della vita. Nei nostri gesti quotidiani, non solo non usiamo mai procedimenti scientifici, ma sempre più ignoriamo come funzionano gli oggetti che adoperiamo senza sosta e ci sono indispensabili. ... Più sono sofisticati i prodotti tecnologici che ci circondano, più l'ignoranza cresce: i calcolatori hanno reso inutile saper calcolare.| << | < | > | >> |Pagina 24 [ scienza mito, determinismo, riduzionismo ]5. ... Si è così plasmata un'immagine mitica della scienza. ...Per esempio, il cosmologo Stephen Hawking si azzardava a dire nell'82: «Vorrei esaminare la possibilità che l'obiettivo della fisica teorica possa essere conseguito in modo completo in un futuro non troppo lontano, per esempio alla fine di questo secolo. Voglio dire con queste parole che potremmo avere una teoria completa, coerente e unificata delle interazioni fisiche in grado di descrivere tutte le interazioni». Un tale delirio di onnipotenza, nell'identificare un simile obiettivo, non è nuovo e richiama alla mente la ben più celebre guasconata del matematico francese Laplace per cui, se conoscessimo a un certo istante velocità e posizione di tutte le particelle del cosmo, conosceremmo allora in ogni dettaglio passato e futuro dell'universo. Questa guasconata è diventata il simbolo, la parola d'ordine del determinismo e riduzionismo scientifico. Determinismo, perché il destino dell'universo sarebbe determinato da opportune funzioni matematiche; riduzionismo, perché la conoscenza del tutto è ricostruibile dalla conoscenza delle parti. Attenzione: il delirio di onnipotenza del determinismo e del riduzionismo non sta nel dire che l'andamento di molti eventi o classi di eventi può essere determinato, oppure nel dire che la nostra conoscenza di molti fenomeni può essere arricchita enormemente dallo studio delle parti costituenti quei fenomeni. Il delirio sta nel pensare che tutto è determinato e che tutto è riducibile dall'insieme alle parti. | << | < | > | >> |Pagina 26 [ quark, Jacob, biologia ]6. ... Oggi si pensa che i quark costituiscano i mattoni fondamentali della materia. Ma a nessuno verrebbe in mente di descrivere una proteina in termini di quark. E non solo per la doppia impossibilità pratica: a. di scrivere tutte le equazioni; b. di risolverle; ma per l'inutilità teorica: per sapere quel che ci interessa sulle proteine, le formule a base di quark non ci servono a niente; ci servono altre categorie, altri linguaggi. Come ha scritto splendidamente Francois Jacob, nell'ambito di una sola scienza, la biologia, le logiche si dispongono a strati una sull'altra: una stratificazione logica, non geologica. Al livello più microscopico, ci serve una fisica, e quindi abbiamo una biofisica, poi un biochimica, poi una biologia molecolare, poi una biologia cellulare, poi una genetica (provate a descrivere in termini di fisica subatomica cosa è un gene), poi un'istologia (provate a definire in termini di reazioni chimiche un tessuto muscolare), poi una fisiologia. E forse poi c'è un problema di «evoluzione delle specie».A ogni livello di organizzazione corrisponde una sua peculiare logica: le parole stesse organizzano «frasi» diverse. Altro che teoria unificata. | << | < | > | >> |Pagina 27 [ Boltzmann, probabilità, Bernoulli, De Finetti ]7. A livello ancora più astratto, non è stata un'operazione a costo zeo trascrivere la «termologia», con le sue grandezze specifiche (calore, temperatura, pressione), in termini di termodinamica, di meccanica classica con le sue grandezze specifiche (impulso, energia, hamiltoniana). Per poterlo fare, Ludwig Boltzmann ha dovuto introdurre il concetto di probabilità. L'introduzione della probabilità provocò un terremoto nel determinismo. In primo luogo perché il concetto stesso di probabilità è scivoloso: chiaro in astratto, ma ambiguo nei suoi riferimenti al mondo reale. Nell'esperienza, noi non osserviamo mai le probabilità, vediamo le frequenze con cui gli eventi si producono. Vediamo le frequenze con cui escono i numeri al lotto, la frequenza con cui lanciando una moneta esce testa o croce, la frequenza del rosso e del dispari nella roulette, mai vediamo la probabilità. ...Ma ambiguo è già il teorema fondamentale, la «legge dei grandi numeri» di Jacques Bernoulli. Non dice che quando cresce all'infinito il numero dei tentativi (estrazioni del lotto, lanci di moneta, giri di roulette), la frequenza osservata tende a coincidere con la probabilità astratta. No, dice qualcosa di più sottile che ha in sé un vizio logico. Il teorema di Bernoulli afferma che «quando il numero dei tentativi tende all'infinito, tende a zero la probabilità che la frequenza si discosti dalla probabilità». È ambiguo perché non esclude categoricamente che, dopo sempre più numerosi lanci, o sorteggi, la frequenza sia nettamente diversa dalla probabilità. È viziato, perché collega la nozione di probabilità (astratta) alla nozione di frequenza (osservata) attraverso la stessa nozione di probabilità, attraverso cioè un procedimento di autodefinizione. Da queste ambiguità partì d'altronde Bruno De Finetti nel costruire la probabilità «soggettiva», in quanto attesa. Da qui la difficoltà di definire «la probabilità di un sistema fisico di trovarsi in un certo stato», ovvero «la probabilità dello stato di un sistema», come se fosse un suo predicato, qualcosa inscindibilmente appiccicato al suo essere. | << | < | > | >> |Pagina 30 [ entropia, Lavoisier, fluttuazione ]8. Le ambiguità del concetto di probabilità incrinano una nozione cruciale in termodinamica, quella di entropia. Quando fu formulata la termodinamica statistica, alla fine dell'800, gli scienzati ritenevano che l'universo fosse eterno o (almeno) antichissimo. Nulla nella dinamica e nella chimica classica fa ritenere che gli atomi possano essere creati o distrutti. L'assioma postulato da Antoine Lavoisier, il fondatore della chimica moderna, è appunto che «nulla si crea e nulla si distrugge». Ora è in quest'universo esistente da un tempo infinito che dovrebbe valere il secondo principio della termodinamica, per cui l'entropia di un sistema isolato (e l'universo è un sistema isolato) deve aumentare e arrivare al suo massimo. Ovvero, l'universo deve tendere al suo stato più probabile dove - per semplificare - non c'è caldo e freddo, ma tiepido. L'universo deve tendere alla sua «morte termica». Poiché all'epoca di Boltzmann si ritiene che l'universo esista da tempo infinito (o almeno da un tempo abbastanza grande da poter vedere agire il secondo principio), la maggioranza di esso, o almeno una buona parte, si dovrebbe trovare in stato di morte termica. Ma tutto l'universo che noi vediamo è ben lungi dall'essere nel suo stato più probabile, abbiamo stelle caldissime e zone freddissime, regioni ad alta densità di materia e immensi spazi quasi vuoti. E quindi tutto l'universo che noi vediamo deve essere una fluttuazione, uno scarto improbabile dello stato più probabile. Se così non fosse, non potremmo nemmeno enunciare il secondo principio della termodinamica visto che non esisteremmo. Ci troviamo così nella situazione paradossale, di cui era cosciente già Boltzmann, che la condizione per formulare il principio di crescita dell'entropia sta in uno scarto da questo principio, sta nel fatto che la porzione di universo, in cui vive l'uomo ed è da lui osservabile, dovrebbe essere una minuscola fluttuazione statistica all'interno di un superuniverso termicamente già morto. Era questo un paradosso violento che avrebbe dovuto incrinare la fiducia nel secondo principio della termodinamica. Così non fu e, alla faccia di Karl Popper, per parecchie decine di anni, la comunità dei fisici si è accomodata benissimo, ha convissuto senza traumi con un principio globale valido nell'intero universo, la cui possibilità di essere enunciato stava nell'essere falsificato localmente, nel nostro universo. Solo negli anni '20 la teoria generale della relatività avrebbe aggirato questo paradosso alterando le condizioni spaziali in cui esso dovrebbe valere. Infine la teoria del grande Bang, basata sulla relatività generale, avrebbe posto un inizio all'universo, gli avrebbe attribuito un'età relativamente giovane che avrebbe annullato il nucleo più duro del paradosso. Ma va sottolineato che, per decine di anni, la comunità scientifica ha lavorato rimuovendo un'autocontraddizione interna. Sempre a proposito del «rigore» che nella pratica si rivela elastico, pragmatico.| << | < | > | >> |Pagina 31 [ relatività, Einstein ]9. ... A ripensarci, nell'ultimo secolo abbiamo assistito a una guerra di propaganda in cui ogni svolta del campo scientifico veniva descritta come una sconfitta e ogni svolta che non potesse essere raccontata come una disfatta, veniva sminuita o taciuta.Solo la natura «pubblicitaria» di questa battaglia spiega perché la rivoluzione della termodinamica statistica fu considerata allora così irrilevante, mentre tanta enfasi fu data ad altre svolte della fisica come la teoria della relatività (1905) di Albert Einstein o il principio d'indeterminazione (1927) di Werner Heisenberg. Certo, la frase «il tempo è relativo» fa effetto ai filosofi, li riporta alle tesi di Sant'Agostino sulla natura del futuro come «tensione», al tempo come categoria trascendentale in Immanuel Kant, li fa ritrovare su un terreno familiare. E infatti filosofi come Henri Bergson si scatenarono su questa «relatività». Meno effetto avrebbe avuto forse la frase «il modo migliore per descrivere il nostro universo è usare una struttura spaziale quadrimensionale di numeri complessi in cui tre dimensioni «spaziali» sono costituite dalle tre coordinate cartesiane (x,y,z), cioè numeri reali, e la quarta dimensione è costituita dalla coordinata immaginaria (-ict, dove t è il tempo, c la velocità della luce e i l'unità immaginaria: i al quadrato è uguale a -1)», oppure l'affermazione che «gli intervalli sono invarianti rispetto a una trasformazione non più galileiana ma di Lorenz». Il malinteso nasce dal fatto la parola «relativo» ha in questo caso un senso in parte diverso che nella vita corrente. Si può allora sostenere che la teoria della relatività ha inciso sul dibattito filosofico solo grazie a un malinteso. | << | < | > | >> |Pagina 33 [ indeterminazione, Heisenberg ]10. Ancora più lampante il malinteso nel caso del principio d'indeterminazione di Heisenberg. Questo principio esprime un'evidenza: che la misura, cioè l'atto fondativo della fisica sperimentale, avviene sempre attraverso un'interazione tra l'osservatore e il sistema misurato. Perché la misura sia precisa, occorre che l'azione del misurare non alteri il sistema misurato, ovvero che l'interazione sia trascurabile rispetto alle dimensioni del sistema. Quando però il sistema misurato è di un ordine di grandezza comparabile a quello della più piccola interazione di cui disponiamo per osservarlo, allora ogni misura altera completamente il sistema e diventa aleatoria, poiché noi lo «pizzichiamo» a un certo istante ma il seguito del suo futuro è cambiato proprio dal gesto che abbiamo compiuto per osservarlo. ... Ricordiamo infatti che il principio d'indeterminazione di Heisenberg si fa sentire quando siamo in tempi dell'ordine del decimillesimo di miliardesimo di secondo e vogliamo avere una posizione spaziale precisa al milionesimo di milionesimo di centrimetro (un milionesimo di micron). Così, il principio d'indeterminazione ha la forma di una disuguaglianza matematica in cui il prodotto delle imprecisioni nella misura di due grandezze coniugate (posizione/velocità; tempo/energia) non può essere inferiore a una certa costante.Questo principio trova posto nella formalizzazione matematica della meccanica quantistica in cui i sistemi fisici sono descritti da vettori negli spazi di Hilbert. Quindi il principio d'indeterminazione è terribilmente deterministico, se per determinismo intendiamo la possibilità di determinare l'andamento dei fenomeni attraverso un'adeguata descrizione matematica: deterministico proprio nel porre un limite alla determinazione delle grandezze fisiche. Si noti bene: porre una soglia minima, un limite inferiore, è stata un'operazione concettuale di enorme portata. | << | < | > | >> |Pagina 35 [ razionalità scientifica, perchè/come, fisica/metafisica ]Con modestia... 11. Arriviamo così al nucleo centrale - e non mitico - della razionalità scientifica. Esso consiste in una duplice autolimitazione e in due assunti. La prima autolimitazione è un drastico atto di umiltà. Esso consiste nel rinunciare a porsi nello studio della natura, il problema del «perché», e nel limitarsi a porre il problema del «come». Mi spiego: quando Isaac Newton enuncia la legge di gravità, per cui due corpi si attraggono con una forza inversamente proporzionale al quadrato della distanza che li separa, egli non spiega affatto perché due corpi si attraggono, ci dice solo come si attraggono. Tanto meno ci dice perché mai debba esistere questa forza di gravità. Anzi, Newton non solo non risponde alla domanda «Perché c'è la forza di gravità?», ma rende insensata, da un punto di vista fisico, la domanda stessa. In altri termini, l'atto fondativo della fisica moderna è il taglio netto di qualunque nesso tra la fisica e la metafisica. La moderna «filosofia naturale» si propone l'obbiettivo di descrivere il mondo, non di spiegarlo. Ed è interessante vedere quanto spesso sia accusata proprio di questa rinuncia, quasi fosse un difetto, come se provocasse delusione, e non fosse invece un atto fondativo intenzionale.La seconda autolimitazione riguarda il metodo. La scienza moderna nasce dalla rinuncia a studiare qualunque problema si presenti, ma a studiare solo e soltanto quei problemi che sono risolvibili dagli strumenti materiali (apparecchiature di laboratorio) e concettuali (apparati matematici e teorici) di cui disponiamo. Così, il secondo atto fondativo consiste nell'accantonare un'enorme quantità di questioni. Così avviene che abbiamo conoscenze approfondite in alcuni settori, ma abbiamo idee vaghissime in altri. La stessa fisica che sa descrivere la struttura di un atomo e misurare la carica di un elettrone non sa descrivere fenomeni assolutamente banali, per esempio la forma di una nuvola, o il moto di una foglia che cade. Insieme a queste due drastiche autolimitazioni, la razionalità scientifica pone due assunti forti (che costituiscono in realtà il suo unico nesso con la metafisica). | << | < | > | >> |Pagina 3612. Il primo assunto forte è che una scienza sia possibile. Ovvero che, nel mondo, esistano aspetti descrivibili scientificamente. In termini operativi, significa chiedere che due esperimenti uguali, eseguiti in condizioni uguali, anche in tempi e in spazi diversi, diano risultati uguali. Questa richiesta, indispensabile perché sia possibile fare scienza, nasconde dei vincoli sulla natura dello spazio (che deve essere uniforme e isotropo, anche se nella teoria della relatività generale questa struttura si fa più sofisticata) e sul tempo, che deve essere uniforme. E nasconde una richiesta sul comportamento dei sistemi fisici: che da condizioni iniziali uguali, due sistemi si evolvano in modo uguale, indipendentemente dalla loro storia precedente. Solo se questa richiesta è soddisfatta, è possibile il processo di accumulazione delle conoscenze scientifiche, per cui non è necessario ricominciare sempre tutto da capo, dall'esperienza del piano inclinato di Galileo Galilei in poi. Ma questa richiesta definisce e restringe il campo dei fenomeni studiabili. Non tutti i fenomeni sono indipendenti dalla storia precedente, anzi sono pochi. A rigor di logica, «scienze» come la cosmologia o la paleontologia non sono «scientifiche», poiché non ha senso «ripetere l'esperimento». Ma questo restringe in modo straordinario il campo in cui è definita la razionalità scientifica. Nell'incredibile varietà di eventi e fenomeni che costituiscono il nostro universo, solo un'esigua frazione è studiabile scientificamente. ... Il secondo assunto è che gli oggetti dello studio scientifico siano descrivibili matematicamente. Davvero forte è quest'assunto. Poiché la matematica è un prodotto dell'intelletto umano. E gli oggetti che la scienza studia sono oggetti naturali. La richiesta implica una corrispondenza tra il «funzionamento» dell'intelletto umano e il funzionamento di sistemi naturali, implica un isomorfismo tra il nostro procedere e il procedere naturale.| << | < | > | >> |Pagina 3813. Il nucleo della razionalità scientifica consiste quindi nelle due autolimitazioni: 1. la rinuncia al «perché?»; 2. la rinuncia ad affrontare ciò che non è risolvibile con gli strumenti attuali, e nei due assunti: a. una scienza è possibile (si può far scienza); b. c'è una matematica adeguata a descrivere gli eventi studiati scientificamente. Esula dai nostri obiettivi discutere qui come questo nucleo sia stato prodotto, in quali condizioni storiche, e come poi sia stato reso non solo praticabile ma egemone. E come (per fare un esempio) la divisione sociale del lavoro scientifico (la specializzazione delle discipline) corrisponda alla più generale divisione sociale del lavoro, e come il modo di produzione della conoscenza scientifica corrisponda al modo di produzione industriale. Tanto più che la scienza non studia tutti i fenomeni scientificamente studiabili, ma li seleziona in base a criteri per lo più extrascientifici, di ordine economico o ideologico, dovuti a pressioni sociali esterne o a dinamiche interne alla comunità scientifica intesa come gruppo sociologicamente determinato (e determinante gli individui che lo compongono).Questi fattori influenzano sia la scelta degli argomenti e degli obiettivi (ovvero i «programmi scientifici»), sia la persistenza o il crollo di «paradigmi scientifici», per usare il termine di Thomas Kuhn. Così, tutt'oggi non disponiamo di una buona teoria dell'elasticità, anche se l'elasticità è un campo del tutto «legittimo» scientificamente e anche se le molle elastiche sono importanti nella vita corrente. ... Risulta infondata perció ogni pretesa di estendere la razionalità scientifica ad altri campi esterni a quelli in cui è definita. È privo di fondamento ogni espansionismo di questa razionalità. Ma l'essere infondato non gli ha impedito di agire, anzi d'imperversare in ogni manifestazione, evidente o sotterranea, di positivismo. Positivisti confessi o meno hanno voluto scientificizzare una vasta gamma di soggetti non studiabili «scientificamente». | << | < | > | >> |Pagina 40Su basi fragili... 14. In ogni caso risulta ridimensionata l'idea di un'ineluttabilità insita nella ragione moderna. ... Dietro l'idea che una descrizione scientifica della natura sia falsicabile, giace nascosto il postulato che in matematica un'affermazione sia sempre decidibile. L'idea che caratteristica del linguaggio matematico sia la sua perfetta non ambiguità, univocità, e quindi sia sempre possibile decidere se un'affermazione è vera o falsa. In forma più articolata, ciò equivale a pensare che esiste un sistema di assiomi non contraddittori tra loro, da cui saremmo in grado di far discendere tutti i teoremi possibili (si dice allora che il sistema è «completo»), e che nessun teorema dimostrato a partire dagli assiomi sia in contraddizione con un altro teorema dimostrato a partire dagli stessi assiomi (il sistema di assiomi è allora «consistente»). Un tale sistema di assiomi, completo e consistente, farebbe sì che la matematica si autofondi su se stessa. Era questo il «programma di Hilbert». Come è noto, già nel 1932 Kurt Gödel smantellò quest'idea. Egli dimostrò matematicamente che in qualunque struttura assiomatica, in grado di generare almeno l'aritmetica dei numeri interi, ci sono sempre affermazioni rilevanti che non possono essere né dimostrate né confutate a partire dagli assiomi (primo teorema d'incompletezza).Quel che è peggio, Gödel dimostrò che tra queste affermazioni rilevanti c'è l'affermazione che il sistema assiomatico è consistente, ovvero l'affermazione che è impossibile dimostrare, a partire dagli stessi assiomi, due tesi in contraddizione tra loro (secondo teorema d'incompletezza). ... Il crollo delle pretese autofondative rade al suolo qualunque illusione di «matematizzazione completa della razionalità umana», proprio perché, per fondare matematicamente una matematica, si deve sempre far ricorso a una meta-matematica. Dal nostro punto di vista, la prova di Gödel ha un interesse supplementare, perché introduce l'idea di «indecidibilità», ovvero che nel linguaggio matematico vi sono affermazioni indecidibili. 15. ... Ma il peggio doveva ancora venire. La struttura più generale inventata dai matematici, a partire dalla quale sono elaborate tutte le altre strutture, è la «Teoria degli insiemi», basata su un sistema di assiomi noti come gli assiomi di Zermelo Fraenkel. La parte decisiva della teoria delgi insiemi è la teoria degli insiemi infiniti (ognuno costituito da un numero infinito di elementi). ... Ora Cantor, il fondatore della teoria degli insiemi, fece un'ipotesi, detta ipotesi di Cantor, o ipotesi del continuo. Egli suppose che se la dimensione dell'infinità numerabile era descritta da un numero associato allo 0, l'infinità del continuo di una retta fosse descritta da un numero associato all'1. Va sottolineato che per un matematico è un punto cruciale, e non di principio astratto, conoscere la struttura delle dimensioni dell'infinito su cui sta lavorando. Ebbene, il peggio arrivò un bel giorno del 1963 quando Paul Cohen dimostrò che «l'ipotesi del continuo è indecidibile in base agli assiomi di Zermelo Fraenkel». Questo risultato è stato per i matematici molto più devastante della prova di Gödel perché rende indecidibile non una lontana questione di principio ma un punto cruciale della teoria degli insiemi. È come se in geometria piana non fosse possibile dimostrare che un segmento ha una lunghezza. La cosa è tanto più grave in quanto «questa» teoria degli insiemi costituisce la base di tutte le altre discipline matematiche, dalla topologia all'analisi, alle algebre, alla teoria dei gruppi, alla teoria dei numeri. Succede alla teoria degli insiemi quel che avvenne nell'800 alla geometria. ... 16. Sempre dal fronte matematico, negli ultimi 10 anni sono giunte altre funeste notizie ai fisici. Da Einstein in poi pensiamo che lo spazio in cui viviamo è un particolare spazio a 4 dimensioni, che i matematici chiamano una varietà riemaniana 4-dimensionale. Ora, tutto un ramo della matematica si occupa dello studio delle varietà, a 1 dimensione, a 2, 3, 4, n dimensioni. Il curioso della faccenda ruota intorno al numero 4, un numero che si rivela assai singolare. ... Per sfortuna (o fortuna) a noi tocca vivere e studiare la natura proprio nello spazio a 4 dimensioni, il meno semplice. Ora, la fisica moderna è basata sull'idea che 1. abbia senso il calcolo differenziale nello psazio in cui viviamo; 2. che ci sia un solo modo di eseguire questo calcolo (altrimenti otterremmo leggi fisiche diverse). In termini matematici, queste due richieste equivalgono a esigere 1. che la varietà 4 dimensionale in cui viviamo sia una varietà differenziabile, 2. che per questa varietà vi sia una sola struttura di differenziazione (in realtà le richieste formali sono più complicate, ma molto all'ingrosso il loro senso è questo). Nelle 2 e 3 dimensioni, già negli anni '50 si sapeva che tutte le varietà erano differenziabili e che in ognuna di esse vi era una sola struttura di differenziazione. Poi fu agevole classificare le varietà a 5 e più dimensioni. Rimaneva il busillis delle varietà a 4 dimensioni. Tra l' '81 e l' '82 una serie di risultati dimostrò che 1. c'è almeno una varietà 4-dimensionale che non è differenziabile (Michael Freedman, 1981) e 2. che nella varietà 4-dimensionale R4 (R è il corpo dei numeri reali), quella che ci riguarda, esistono diverse strutture di differenziazione (Simon Donaldson, 1982) e che anzi ce ne sono infinite. Di più: le 4 dimensioni solo il solo caso in cui ciò avvenga. Ma se ci sono diversi modi di differenziazione, è sicuro che i fisici stiano usando quello corretto nel descrivere gli eventi nella nostra varietà 4-dimensionale? Stanno proprio usando la «matematica giusta»? E, in ogni caso, come mai lo stato eccezionale delle 4 dimensioni rispetto alle altre? Se mai qualcuno è stato sicuro della saldezza dei fondamenti della fisica, gli enormi progressi, con Cohen nella teoria delgi insiemi, e con Freedman, Donaldson e Taubes nello studio delle varietà, hanno minato le basi di questa certezza. L'ipotesi «matematica», cioè l'idea che esistano fenomeni descrivibili matematicamente e che solo quelli vadano descritti, a costo d'inventare nuove matematiche, era confortata dall'idea che la matematica fornisse basi saldissime, inoppugnabili a tutta la descrizione. Ora però il rigore matematico dimostra matematicamente che il rigore ha dei limiti e si accanisce a individuare le zone grige di questo rigore. E così, se era stata formulata per rafforzare il determinismo riduzionista, l'ipotesi matematica si rivolta come un boomerang contro le certezze logiche del determinismo. O meglio, se la matematica ha costituito l'ossatura per imporre un rigore al discorso sulla natura, oggi essa costituisce l'ossatura per definire i limiti del rigore. | << | < | > | >> |Pagina 5018. ... Ora, quel che Poincaré aveva scoperto è che in genere le soluzioni delle equazioni non lineari dipendono invece moltissimo dalle condizioni iniziali. Ovvero che la predizione risulta impossibile. Le traiettorie, da periodiche, si fanno disordinate, erratiche, caotiche.Il meteorologo Edward Lorenz ha usato un'immagine a effetto per descrivere cosa intendiamo per «dinamiche altamente dipendenti dalle condizioni iniziali»: se una farfalla in Brasile batte o meno le ali a un certo momento (spostando cosí un po' d'aria), può determinare se un anno dopo si scatena un tornado nel Texas. Ora, 74 anni dopo Poincaré, per la prima volta ebbe una vasta risonanza uno studio che prendeva di petto l'imprevedibilità insita nei fenomeni non lineari. Il carattere altamente disordinato delle traiettorie ha dato origine al nome «dinamiche caotiche» o «caos deterministico», o ancora più semplicemente «caos» in ricordo dell'idea ellenica di caos che, come riporta L'Encyclopédie di Diderot e d'Alambert, è «un miscuglio confuso di particelle di tutti i tipi, senza né forma né regolarità una massa informe e confusa di materie ammucchiate alla rinfusa e mosse in ogni senso le une sulle altre». Ma forse la definizione più suggestiva di caos è, a credere al Dizionario filosofico di Nicola Abbagnano, il suo significato letterale: caos = «abisso che sbadiglia». | << | < | > | >> |Pagina 5220. Un punto comunque deve essere chiaro. Tutti i modelli che hanno dato vita alle dinamiche del caos sono deterministici, nell'eccezione più stretta. Il modello di Lorenz è tutto nella meccanica classica, addirittura semplificando le equazioni differenziali. Ed è per questo che le teorie del caos sono tanto interessanti, perché in esse l'imprevedibilità di un fenomeno nasce all'interno di uno schemo deterministico (è per questo che si parla di «caos deterministico»). I caotici ritengono, come Newton, che i fenomeni possano essere descritti da adeguate equazioni differenziali, anzi dalle precise equazioni differenziali della dinamica classica. Ecco perché non si può parlare in senso proprio di «cambiamento di paradigma», poiché le equazioni usate nel caos sono quelle della meccanica classica nella formulazione di Lagrange, Laplace o Hamilton.Ma che il caos sia generato all'interno di uno schema deterministico, a noi interessa molto più che se l'impossibilità di predire dosse stata confinata all'esterno del determinismo, se l'impredicibilità lo avesse circondato dal di fuori, e la fortezza deterministica fosse rimasta illesa, ordinata, implacabilmente predittiva. L'interesse sta qui: le dinamiche caotiche mostrano che il concetto di determinismo non coincide affatto con quello di predizione. Non è perché un fenomeno è matematicamente determinato che noi possiamo sempre emettere predizioni. La distinzione tra determinismo e predicibilità libera un nuovo terreno alla riflessione filosofica perché prefigura razionalismi deterministici ma non necessariamente predittivi. Apre la porta a un razionalismo non più confinato nel «regno della necessità». | << | < | > | >> |Pagina 54La teoria del caos non altera perciò lo schema deterministico perché 1. parte da modelli rigorosamente deterministici, da leggi del moto; 2. perché tende a «determinare» alcune caratteristiche del caos, a discernere un ordine che vi è nascosto.| << | < | > | >> |Pagina 6026. Il fastidio crescente per l'industrializzarsi della ricerca, la nostalgia per la dimensione artistica del fare scienza, si colgono anche nell'insistenza con cui i caotici sottolineano la bellezza dei loro risultati. Nella «bellezza» del caos fa capolino il romanticismo. Non dimentichiamo la connotazione epica, di potenza primigenia, di disordine primordiale, che c'è nella parola caos. Certo, nell'accentuazione delle qualità estetiche, traspare una scoria di quella bolsa retorica che vorrebbe sposare umanesimo e scientismo, di quel melenso «nuovo umanesimo» che starebbe dietro «la nuova alleanza» invocata a suon di paroloni da Ilya Prigogine e Isabelle Steingers nell'omonimo libro.| << | < | > | >> |Pagina 63La descrizione si fa sempre più elastica. Prima il determinismo si è fatto probabilista, con la teoria cinetica dei gas; poi, con il principio d'indeterminazione, sono stati posti limiti invalicabili alla precisione raggiungibile dalle misure e quindi è stata minata la nozione stessa di «traiettoria» su cui si basava la fisica classica; infine, nel loro ristretto ambito, le dinamiche caotiche abbandonano il concetto classico di «predizione» e studiamo intere classi di fenomeni nell'ambito dell'«impredicibilità».Dal lato dei fondamenti matematici, prima è crollato il programma di Hilbert e i matematici sono diventati consapevoli che la matematica non potrà mai sorreggersi sulle sue stesse gambe, non potrà mai dimostrare la sua completezza e consistenza (prova di Gödel); poi è stato dimostrato che nella teoria base di tutte le matematiche, la teoria degli insiemi, è indecidibile un punto cruciale, come quello di stabilire quale dimensione ha l'infinità del continuo (prova di Cohen). La matematica non costituisce più, da un punto di vista logico, quella retrovia inespugnabile dalle contraddizioni, sulla cui saldezza era basata tanta parte della fiducia nel rigore di una descrizione matematica della natura. Infine, per quanto riguarda la particolare descrizione del nostro spazio tempo quadrimensionale, i teoremi dimostrati all'inizio degli anni '80 insinuano il dubbio che la sua struttura topologica possa non essere proprio quella usata dai fisici e dai matematici nel normale calcolo differenziale. Può darsi che questa struttura non sia differenziabile, o che lo sia in tutt'altro modo da quello usato. Il processo ha portato a delimitare sempre più, a valle e a monte, le pretese del determinismo riduzionista. ... Se qualcosa è avvenuto nel nostro secolo - per riprendere l'inizio di questo scritto - è che la razionalità scientifica si è autolimitata, si è posta dei confini, si è fatta meno ineluttabile. Ma c'è un secondo movimento che accompagna quest'autolimitazione. Ed è il progressivo arricchirsi ed estendersi di questa razionalità mano mano che si autodelimitava. Introdurre la probabilità nella meccanica classica riduce il carattere ferreo delle sue previsioni, ma ne allarga il campo a tutti i problemi di «molti corpi», many body, annette al proprio studio i sistemi statistici. Il principio d'indeterminazione pone un confine estremo alla precisione, ma apre al campo della descrizione fisica tutte le particelle elementari, con le loro interazioni elettromagnetiche, deboli, forti. In matematica, l'ipotesi del continuo si fa indecidibile, ma apre la prospettiva di una varietà di teorie degli insiemi e produce tutta una serie di teoremi d'indecidibilità. E così via. Ogni volta, a un'autolimitazione corrisponde un arricchimento. ... In fondo, questo doppio movimento di a) autolimitazione, b) arricchimento, è nella diritta via di quel «programma di modestia» che, abbiamo visto, è alla base logica della scienza moderna. Come ogni altro corpo, nell'articolarsi, differenziarsi, ingrandirsi, anche il corpus scientifico deve perdere di rigidità, diventare più elastico. Ne emerge un tipo di razionalismo che non coincide più con quello cartesiano, ma lo include in sè come una propria parte. La razionalità si articola in tante razionalità diverse di cui alcune sono riduzioniste, altre no; alcune sono predittive, altre meno, altre per nulla. A ognuna di queste razionalità corrispondono determinismi diversi, per cui si può avere un determinismo che non è predittivo. | << | < | > | >> |Pagina 73Cacciati dal paradiso delle equazioni lineari Giorgio Parisi Nell'immaginario collettivo il fisico è spesso raffigurato alla ricerca di nuove leggi. In realtà questo tipo di attività coinvolge una parte molto piccola della comunità scientifica; attualmente abbiamo una formulazione completa e soddisfacente delle leggi della fisica sulle scale che interessano le normali attività umane, nell'intervallo che va dalla fisica nucleare fino alle evoluzioni stellari, ed è opinione corrente che il futuro non dovrebbe riservarci sorprese; al contrario alle scale piccolissime (molto più piccole di un nucleo atomico) a alle grandissime scale (l'universo intero) ci sono molte cose che non comprendiamo e sotto certi aspetti brancoliamo nella più totale ignoranza. Tuttavia, al contrario di quanto si potrebbe pensare, la conoscenza delle leggi di base non implica affatto una comprensione dei fenomeni.| << | < | > | >> |Pagina 75Al giorno d'oggi la vera difficoltà non sta nella formulazione delle leggi fondamentali in quanto esse sono già state determinate, ma nello scoprire le conseguenze di queste leggi e nel formulare, su base puramente sperimentale, o come conseguenza delle leggi basilari, delle leggi "fenomenologiche" del tipo «le molle si allungano proporzionalmente alla forza applicata». |
| << | < | > | >> |RiferimentiL'abisso non sbadiglia più Marco d'Eramo Bernal J., Storia della fisica, 1972, Editori Riuniti, Roma, 1983. Castelnuovo G., Calcolo delle probabilità, Zanichelli, Bologna, 1963. Cini M., L'ape e l'architetto, Feltrinelli, Milano, 1976. Dawkins R., L'orologiaio cieco, 1986, Rizzoli, Milano, 1988. De Finetti B., La logica dell'incerto, Il saggiatore, Milano, 1985. Deleuze G., La piega (Leibniz e il Barocco), 1988, Einaudi, Torino, 1990. Devlin K., Fundamentals of contemporary set theory, Springer-Verlag, 1980. Devlin K., The new golden age of mathematics, Penguin Book, 1988. Dirac P.A.M., I principi della meccanica quantistica, 1958, Boringhieri, Torino, 1966. Gamow G., I trent'anni che sconvolsero la fisica, Zanichelli, Bologna, 1966. Gleick J., Il caos, 1987, Rizzoli, Milano, 1989. Heisenberg W., I principi fisici della teoria dei quanti, 1930, Boringhieri, Torino, 1963. Heisenberg W., Fisica e filosofia, Il saggiatore, Milano, 1961. Infeld L., Albert Einstein, Einaudi, Torino, 1952. Kuhn T., La struttura delle rivoluzioni scientifiche, 1962, Einaudi, Torino, 1969. Lakatos I., La metodologia dei programmi di ricerca scientifici, 1978, Il saggiatore, Milano, 1985. Landau L., Lifchitz L., Physique theorique, Mir, Mosca, 1967. Landes D., Storia del tempo, l'orologio e la nascita del mondo moderno, 1983, Mondadori, Milano, 1984. Nagel E., Newman J.R., La prova di Godel, 1958, Borinhieri, Torino, 1974. Olroyd D., Storia della filosofia della scienza, 1986, Il saggiatore, Milano, 1969. Popper K., La logica della scoperta scientifica, 1932, Einaudi, Torino, 1970. Prigogine I., Steigers I., La nuova alleanza, 1979, Einaudi, Torino, 1981. Rossi A., Strumenti, macchine e scienza dalla preistoria all'automazione, Trimestre, Pescara, 1984. Stewart J., Concepts of modern mathematics, Penguin Books, 1981. Wiener N., Introduzione alla cibernetica, Boringhieri, Torino, 1966.ù | << | < | |