|
|
| << | < | > | >> |IndicePrologo 1 Capitolo 1 Le sei epoche 7 Vista lineare intuitiva e vista esponenziale storica 10 Le sei epoche 14 Epoca Prima: fisica e chimica 15 Epoca Seconda: biologia e DNA 15 Epoca Terza: cervelli 16 Epoca Quarta: tecnologia 17 Epoca Quinta: fusione di tecnologia e intelligenza umana 19 Epoca Sesta: l'Universo si sveglia 20 La Singolarità è vicina 21 Capitolo 2 Una teoria dell'evoluzione tecnologica 35 La legge dei ritorni accelerati 35 La natura dell'ordine 36 Il ciclo di vita di un paradigma 43 Progetti frattali 46 Evoluzione lungimirante 47 La curva a S di una tecnologia espressa nel suo ciclo di vita 50 Il ciclo di vita di una tecnologia 51 La legge di Moore - e oltre 55 La legge di Moore: una profezia che si autoavvera? 62 Il quinto paradigma 63 Dimensioni frattali e cervello 63 Sequenziazione del DNA, memoria, comunicazioni, Internet e miniaturizzazione 68 Informazione, ordine ed evoluzione; gli automi cellulari di Wolfram e Fredkin 77 La singolarità come imperativo economico 88 Ottanta milioni di miliardi di dollari - affrettatevi, l'offerta è per un periodo limitato di tempo 88 La deflazione... è una brutta cosa? 93 Capitolo 3 Raggiungere la capacità computazionale del cervello umano 103 Il sesto paradigma della tecnologia dell'informazione: computazione molecolare 3D e le tecnologie emergenti della computazione 103 Il ponte verso il calcolo molecolare 3D 104 Calcolare con le molecole 107 Autoassemblaggio 107 Emulazione della biologia 108 Computazione con il DNA 109 Elaborazione con lo spin 110 Calcolo con la luce 112 Elaborazione quantistica 112 La capacità computazionale del cervello umano 114 Accelerazione della disponibilità di informatica personale a livello umano 117 Capacità della memoria umana 118 I limiti del calcolo 120 Elaborazione reversibile 122 Quanto è intelligente una roccia? 123 I limiti della nanoinformatica 125 Una data per la Singolarità 127 Memoria ed efficienza computazionale: una roccia contro un cervello umano 128 Ancora oltre: pico- e femtotecnologia e curvatura della velocità della luce 130 Indietro nel tempo 132 Capitolo 4 Il software dell'intelligenza umana 135 Come retroingegnerizzare il cervello umano 135 Retroingegnerizzazione del cervello: una rassegna 136 Nuovi strumenti di imaging e di modellizzazione del cervello 136 Il software del cervello 137 Modelli analitici e modelli neuromorfici del cervello 138 Quant'è complesso il cervello? 139 Modelli del cervello 140 Uno strato alla volta 140 Il cervello umano è diverso da un computer? 141 Il tentativo di capire il nostro stesso pensiero: una ricerca in accelerazione 146 Uno sguardo dentro il cervello 149 Miglioramento della risoluzione 153 Scansione mediante nanobot 155 La costruzione di modelli del cervello 159 Modelli subneurali: sinapsi e bottoni 161 Modelli dei neuroni 165 Plasticità del cervello 165 Modelli di regioni del cervello 170 Un modello neuromorfico: il cervelletto 171 Un altro esempio: il modello di Watts delle regioni uditive 175 Il sistema visivo 177 Altri lavori in corso: un ippocampo artificiale e una regione olivocerebellare artificiale 181 Funzioni di livello superiore: imitazione, previsione, emozione 182 Interfacciamento di cervello e macchine 187 Il ritmo in accelerazione della retroingegnerizzazione del cervello 188 La scalabilità dell'intelligenza umana 190 Il caricamento del cervello umano 191 Capitolo cinque GNR 197 Tre rivoluzioni sovrapposte 197 Genetica: l'intersezione di informazione e biologia 198 Il calcolatore della vita 199 Baby boomers "firmati" 202 Possiamo davvero vivere per sempre? 204 RNAi (RNA a interferenza) 206 Terapie cellulari 206 Chip genetici 207 Terapia genetica somatica (terapia genetica per cellule non riproduttive) 207 Inversione di patologie degenerative 209 Contro i disturbi cardiovascolari 209 Per superare il cancro 210 Far regredire l'invecchiamento 211 Mutazioni del DNA 212 Cellule tossiche 212 Mutazioni mitocondriali 212 Aggregati intracellulari 213 Aggregati extracellulari 213 Perdita di cellule e atrofia 213 Clonazione umana: la meno interessante fra le applicazioni della clonazione 214 Perché la clonazione è importante? 215 Conservazione di specie a rischio di estinzione e "resurrezione" di specie estinte 215 Clonazione terapeutica 215 Ingegneria delle cellule somatiche umane 216 Eliminazione della fame nel mondo 217 Ancora sulla clonazione umana 218 Nanotecnologia: l'intersezione di informazione e mondo fisico 219 L'assemblatore biologico 225 Aggiornamento del nucleo cellulare con un nanocomputer e un nanobot 226 Dita grasse e appiccicose 229 Il dibattito si riscalda 232 Gli "early adopters" 235 Energia per la Singolarità 236 Applicazioni della nanotecnologia all'ambiente 244 Nanobot nella circolazione sanguigna 247 Robotica: IA forte 253 IA in fuga 256 L'inverno dell'IA 257 La cassetta degli attrezzi dell'IA 260 Sistemi esperti 261 Reti bayesiane 262 Modelli markoviani 263 Reti neurali 263 Algoritmi genetici (GA) 265 Ricerca ricorsiva 267 Deep Fritz pareggia: gli esseri umani diventano più intelligenti, oppure sono i computer che diventano più stupidi? 268 Combinazione di metodi 273 Un campione di applicazioni dell'IA ristretta 274 Esercito e spionaggio 274 Esplorazione spaziale 275 Medicina 276 Scienza e matematica 278 Affari, finanza, produzione 278 Manifattura e robotica 280 Parlato e linguaggio 281 Tempo libero e sport 283 IA forte 284 Capitolo 6 L'impatto... 295 Una serie di conseguenze 295 ... sul corpo umano 296 Un nuovo modo di mangiare 297 Riprogettazione del sistema digestivo 299 Sangue programmabile 301 Avere un cuore, o no 302 E allora che cosa ci resta? 303 Riprogettazione del cervello umano 304 Stiamo diventando cyborg 305 Corpo umano versione 3.0 306 ... sul cervello umano 308 Lo scenario del 2010 308 Lo scenario del 2030 310 Diventare qualcun altro 311 Trasmettitori di esperienza 312 Espandi la tua mente 312 ... sulla longevità umana 317 Il passaggio all'esperienza non biologica 319 La longevità dell'informazione 321 ... sulla guerra: il paradigma "remoto, robotico, robusto, di dimensioni ridotte, in realtà virtuale" 327 Polvere intelligente 331 Nanoarmi 331 Armi intelligenti 332 VR 332 ... sull'apprendimento 333 ... sul lavoro 335 Proprietà intellettuale 336 Decentramento 337 ... sul gioco 338 ... sul destino intelligente del cosmo: perché probabilmente siamo soli nell'universo 339 L'equazione di Drake 342 I limiti della computazione: una rivisitazione 346 Più grande o più piccolo 348 Espansione oltre il sistema solare 349 Ancora sulla velocità della luce 350 Wormhole 352 Cambiare la velocità della luce 354 Ancora uno sguardo al paradosso di Fermi 354 Ancora sul Principio antropico 356 Il multiverso 357 Universi in evoluzione 358 L'intelligenza come destino dell'universo 358 La definitiva funzione di utilità 360 Radiazione di Hawking 360 Perché l'intelligenza è più potente della fisica 361 Un computer alla scala dell'universo 362 L'universo olografico 363 Capitolo 7 Ich bin ein Singularitarian 367 Ancora umano? 372 La vexata quaestio della coscienza 374 Chi sono? Che cosa sono? 380 La Singolarità come trascendenza 386 Capitolo 8 GNR: l'intreccio profondo di promessa e pericolo 391 Benefici intrecciati ... 395 ... e i pericoli 397 Una panoplia di rischi esistenziali 401 Il principio di precauzione 404 Quanto più piccola l'interazione, tanto più grande il potenziale esplosivo 404 La nostra simulazione viene disattivata 405 Un impatto distruttivo 406 GNR: il vero nocciolo della questione 406 L'inevitabilità di un futuro trasformato 407 Abbandono totalitario 408 Preparare le difese 408 IA forte 410 Ritorno al passato? 410 L'idea dell'abbandono 411 Ampio abbandono 411 Abbandono a grana fine 412 Combattere gli abusi 413 La minaccia del fondamentalismo 415 Umanesimo fondamentalista 416 Sviluppo di tecnologie difensive e impatto della regolamentazione 417 Protezione dall'IA forte "non amichevole" 421 Decentralizzazione 421 Energia distribuita 422 Libertà civili in un'era di guerra asimmetrica 422 Un programma di difesa dalla GNR 423 Capitolo 9 Risposte ai critici 429 Tutta una serie di critiche 429 La critica dell'incredulità 434 La critica malthusiana 435 Le tendenze esponenziali non durano per sempre 435 Un limite praticamente illimitato 436 La critica del software 437 Stabilità del software 438 Capacità di risposta del software 438 Rapporto prezzo-prestazioni del software 439 Produttività dello sviluppo di software 439 Complessità del software 439 L'accelerazione degli algoritmi 440 La fonte ultima degli algoritmi intelligenti 442 La critica dell'elaborazione analogica 444 La critica della complessità dell'elaborazione neurale 445 Complessità cerebrale 446 Il dualismo intrinseco di un computer 447 Livelli e anelli 448 La critica dei microtubuli e dell'elaborazione quantistica 453 La critica della tesi di Church-Turing 455 La critica della frequenza dei guasti 458 La critica del "blocco" 459 La critica ontologica: un computer può essere cosciente? 461 La camera cinese di Kurzweil 468 La critica della divisione fra ricchi e poveri 472 La critica della probabilità di regolamentazione governativa 473 L'insostenibile lentezza delle istituzioni sociali 476 La critica del teismo 477 La critica dell'olismo 482 Epilogo 489 Quanto singolare? 489 Centralità dell'essere umano 491 Risorse e contatti 492 Singularity.com 492 KuzweilAI.net 492 Fantastic-Voyage.net e RayandTerry.com 492 Appendice La legge dei ritorni accelerati 493 Albero di analisi 496 Note 499 |
| << | < | > | >> |Pagina 7Tutti prendono i limiti della loro visione per i limiti del mondo. Arthur Schopenhauer Non so esattamente quando mi sono reso conto per la prima volta della Singolarità. Direi che è stato una sorta di risveglio progressivo. Nel mezzo secolo circa in cui sono stato immerso nelle tecnologie dell'informatica e dei settori collegati, ho cercato di capire il significato e il fine di quel continuo ampliamento di cui sono stato testimone a molti livelli. Gradualmente sono diventato consapevole di un evento di profonda trasformazione che ci aspetta nella prima metà del Ventunesimo secolo. Come un buco nero nello spazio altera drasticamente le configurazioni di materia ed energia che accelerano verso il suo orizzonte degli eventi, questa Singolarità che incombe nel nostro futuro sta trasformando sempre più ogni istituzione e ogni aspetto della vita umana, dalla sessualità alla spiritualità. Che cos'è, dunque, la Singolarità? È un periodo futuro in cui il ritmo del cambiamento tecnologico sarà così rapido e il suo impatto così profondo, che la vita umana ne sarà trasformata in modo irreversibile. Né utopica né distopica, quest'epoca trasformerà i concetti su cui ci basiamo per dare un significato alle nostre vite, dai nostri modelli di business al ciclo della vita umana, inclusa la stessa morte. Una comprensione della Singolarità modificherà la nostra prospettiva sul significato del nostro passato e le ramificazione per il nostro futuro. Se la si intende a pieno, la visione che ciascuno ha della vita in generale, e della propria in particolare, non può che cambiare. Chi capisce la Singolarità e ha riflettuto sulle sue conseguenze per la propria vita è un "singolaritariano". Posso capire perché molti non condividano facilmente le ovvie conseguenze di quella che ho chiamato la legge dei ritorni accelerati (l'inevitabile accelerazione del ritmo dell'evoluzione, con l'evoluzione tecnologica come continuazione di quella biologica). In fin dei conti, mi ci sono voluti quarant'anni per riuscire a vedere quello che mi stava proprio davanti agli occhi, e non posso dire ancora di sentirmi del tutto a mio agio con tutte le sue conseguenze. L'idea chiave alla base della Singolarità incombente è che il ritmo di trasformazione della tecnologia creata dagli uomini sta accelerando e che la sua potenza cresce a velocità esponenziale. La crescita esponenziale inganna. All'inizio è quasi impercettibile, poi esplode con furia inattesa - inattesa, se non ci si da cura di seguirne la traiettoria. (Si veda il grafico 1.1 a p. 11 che mette a confronto crescita esponenziale e lineare.) Prendete questa storia: il proprietario di un lago vuole stare a casa per prendersi cura dei pesci del lago e fare in modo che il lago stesso non si copra di ninfee, che si dice raddoppino di numero ogni pochi giorni. Mese dopo mese, aspetta con pazienza, ma si vedono solo piccole chiazze di ninfee, e non sembra che si espandano in modo apprezzabile. Le ninfee coprono meno dell'1 per cento del lago, e il proprietario immagina che non ci sia pericolo a prendersi una vacanza, e così se ne va con la famiglia. Quando ritorna, poche settimane dopo, rimane sconvolto al vedere che il lago è coperto di ninfee e che i suoi pesci sono morti. Poiché raddoppiavano di numero ogni pochi giorni, sono stati sufficienti gli ultimi sette raddoppi per estendere la copertura delle ninfee su tutto il lago. (Sette raddoppiamenti hanno esteso la loro copertura di 128 volte.) Questa è la natura della crescita esponenziale. Gary Kasparov nel 1992 si faceva beffe dello stato patetico dei programmi per giocare a scacchi; ma il costante raddoppio della potenza di calcolo ogni anno ha fatto sì che passassero solo cinque anni prima che un computer riuscisse a batterlo. L'elenco dei modi in cui oggi i computer possono superare le capacità umane cresce rapidamente. Inoltre, le applicazioni dell'intelligenza automatica, un tempo ristrette, si stanno estendendo gradualmente da un tipo di attività all'altra. Per esempio, i computer interpretano elettrocardiogrammi e immagini mediche, fanno volare e atterrare aerei, controllano le decisioni tattiche di armi automatiche, prendono decisioni in materia di credito e finanza e hanno la responsabilità di molte altre attività che una volta richiedevano l'intelligenza umana. Le prestazioni di questi sistemi si basano sempre più sull'integrazione di vari tipi di intelligenza artificiale (IA). Finché ci sarà qualche fallimento dell'IA in qualcuna di queste aree, gli scettici indicheranno quel campo come una roccaforte inespugnabile della permanente superiorità umana rispetto alle capacità delle nostre stesse creazioni. Questo libro sosterrà, invece, che nell'arco di qualche decennio le tecnologie basate sull'informazione racchiuderanno tutta la conoscenza e tutte le abilità umane, e alla fine includeranno le capacità di riconoscimento di forme, le abilità nella soluzione di problemi e l'intelligenza emotiva e morale dello stesso cervello umano. | << | < | > | >> |Pagina 103Il sesto paradigma della tecnologia dell'informazione: computazione molecolare 3D e le tecnologie emergenti della computazione Nel numero del 19 aprile 1965 di Electronics, Gordon Moore scriveva: "Il futuro dell'elettronica integrata è il futuro dell'elettronica stessa. I vantaggi dell'integrazione produrranno una proliferazione dell'elettronica, portando questa scienza in molte nuove aree". Con queste parole tutt'altro che enfatiche, Moore introduceva una rivoluzione che ancora non ha perso la sua spinta. Per dare ai suoi lettori qualche idea della profondità che la nuova scienza avrebbe potuto raggiungere, Moore avanzava la previsione che "nel 1975, ragioni economiche potranno determinare il compattamento anche di 65.000 componenti su un singolo chip di silicio". Figuriamoci. L'articolo di Moore descriveva il raddoppio annuale del numero dei transistor (usati per gli elementi computazionali, o porte) integrati in un circuito, la sua "Legge di Moore" del 1965 fu criticata a quel tempo perché la sua curva logaritmica si basava su cinque soli punti di dati (dal 1959 al 1965) e proiettare quella tendenza nascente fino al 1975 sembrava del tutto prematuro. La stima iniziale di Moore non era corretta, e la corresse verso il basso un decennio più tardi; ma l'idea di fondo - la crescita esponenziale del rapporto prezzo-prestazioni dell'elettronica in base alla riduzione delle dimensioni dei transistor su un circuito integrato - era valida e profetica. Oggi parliamo di miliardi di componenti, non più di migliaia. Nei chip più avanzati del 2004, le porte logiche avevano già dimensioni di soli 50 nanometri, cioè già nel regno della nanotecnologia (che tratta con oggetti di dimensioni inferiori ai cento nanometri). L'abbandono della Legge di Moore è stato previsto regolarmente, ma la fine di questo notevole paradigma continua a essere rinviata nel tempo. Paolo Gargini, Fellow della Intel e direttore della strategia tecnologica Intel, presidente dell'influente International Technology Roadmap for Semiconductors (ITRS), recentemente ha sostenuto che "per almeno i prossimi 15-20 anni, possiamo continuare a rispettare la Legge di Moore. In effetti, ... la nanotecnologia ci offre molte nuove manopole che possiamo girare per continuare a migliorare il numero di componenti su un circuito".
L'accelerazione della computazione ha trasformato tutto, dalle relazioni
sociali ed economiche alle istituzioni politiche, come dimostrerò in questo
libro. Ma Moore nei suoi articoli non ha evidenziato che la strategia della
riduzione delle dimensioni non era il primo paradigma di crescita esponenziale
nel campo dell'informazione e della comunicazione. Era il quinto e già possiamo
vedere il profilo del prossimo: la computazione a livello molecolare e in tre
dimensioni. Anche se ci resta più di un decennio del quinto paradigma, ci sono
stati già progressi importanti in tutte le tecnologie abilitanti necessarie per
il sesto paradigma; nel prossimo paragrafo, vedremo un'analisi della quantità di
calcolo e di memoria necessaria per ottenere livelli umani di intelligenza e del
perché si può aver fiducia che questi livelli verranno raggiunti in elaboratori
a basso costo nell'arco di due decenni. Anche questi potentissimi elaboratori
saranno lontani dall'ottimo, e nell'ultimo paragrafo di questo capitolo
passeremo in rassegna nuovamente i limiti del calcolo secondo le leggi della
fisica come le conosciamo. Questo ci porterà ai computer della fine del
Ventunesimo secolo.
Il ponte verso il calcolo molecolare 3D. Sono già stati fatti dei passi intermedi: fra le nuove tecnologie che porteranno al sesto paradigma del calcolo molecolare tridimensionale vi sono nanotubi e circuiti a nanotubi, calcolo molecolare, autoassembaggio in circuiti a nanotubi,sistemi biologici che emulano l'assemblaggio circuitale, il calcolo con il DNA, la spintronica (calcolo con lo spin degli elettroni), il calcolo con la luce e l'informatica quantistica. Molte di queste tecnologie fra loro indipendenti possono essere integrate in sistemi di elaborazione che alla fine si avvicineranno alla capacità teorica massima di materia ed energia per quanto riguarda l'esecuzione di calcoli e supereranno di gran lunga le capacità computazionali di un cervello umano.
[...]
Computazione con il DNA. Il DNA è il nanocomputer della natura, e la sua capacità di conservare informazioni ed eseguire manipolazioni logiche a livello molecolare è stata già sfruttato in "elaboratori a DNA" specializzati. Un computer a DNA è sostanzialmente una provetta piena di acqua contenente migliaia di miliardi di molecole di DNA, dove ogni molecola si comporta come un computer. L'obiettivo della computazione è risolvere un problema, con la soluzione espressa come successione di simboli (che potrebbero rappresentare una dimostrazione matematica o semplicemente le cifre di un numero). Ecco come funziona un computer a DNA. Si crea un piccolo filamento di DNA, utilizzando un codice univoco per ciascun simbolo. Ciascun filamento poi viene replicato migliaia di miliardi di volte con un procedimento denominato "reazione a catena di polimerasi" (PCR, polymerase chain reaction). Tutto questo DNA poi viene inserito in una provetta. Data la tendenza dei filamenti di DNA a collegarsi fra loro, si formano lunghi filamenti e le sequenze di filamenti rappresentano i diversi simboli, ciascuno dei quali è una possibile soluzione del problema. Poiché ci saranno molte migliala di miliardi di questi filamenti, ci saranno molti filamenti per ciascuna possibile risposta (cioè per ciascuna possibile successione di simboli). Il passo successivo è controllare tutti i filamenti simultaneamente, mediante enzimi appositamente progettati, che distruggono i filamenti che non soddisfano determinati criteri. Poi gli enzimi vengono applicati alla provetta in sequenza e attraverso una precisa serie di enzimi il procedimento alla fine cancellerà tutti i filamenti errati, lasciando solo quelli con la risposta corretta. La chiave della potenza del DNA computing sta nel fatto che consente di controllare simultaneamente ciascuno delle migliaia di milioni di filamenti. Nel 2003 un gruppo di scienziati israeliani guidati da Ehud Shapiro al Weizmann Institute of Science ha combinato il DNA con ATP (adenosintrifosfato), il combustibile naturale di sistemi biologici come il corpo umano. Con questo metodo, ciascuna delle molecole di DNA è stata in grado di svolgere calcoli e di rifornirsi di energia. Gli scienziati del Weizmann hanno dimostrato una configurazione costituita da due cucchiai di questo sistema di supercalcolo liquido, che conteneva trenta milioni di miliardi di computer molecolari ed eseguiva un totale di 660 bilioni di calcoli al secondo (6,6 x 10^14). Il consumo energetico di questi calcolatori è estremamente basso: solo cinquanta milionesimi di watt per tutti i trenta milioni di miliardi di computer.
[....]
Calcolo con la luce. Un altro approccio al calcolo SIMD (Single instruction multiple data) consiste nell'uso di più fasci di luce laser, con le informazioni codificate in ciascun fascio di fotoni. Poi si possono usare componenti ottici per eseguire funzioni logiche e aritmetiche sui flussi di informazioni codificate. Per esempio, un sistema sviluppato dalla Lenslet, una piccola azienda israeliana, usa 256 laser e può eseguire ottomila miliardi di calcoli al secondo, eseguendo lo stesso calcolo su ciascuno dei 256 flussi di dati. Il sistema può essere usato per applicazioni come la compressione di dati su 256 canali video.
Le tecnologie SIMD come i computer a DNA e i computer ottici avranno ruoli
specializzati importanti nel futuro dell'informatica. Per replicare certi
aspetti del funzionamento del cervello umano, come l'elaborazione di dati
sensoriali, si possono usare architetture SIMD. Per altre regioni del cervello,
come quelle responsabili dell'apprendimento e del ragionamento, saranno
necessarie invece architetture MIMO
(multiple instruction multiple data).
Per l'elaborazione MIMO ad alte prestazioni, dovremo applicare i paradigmi del
calcolo molecolare tridimensionale descritti in precedenza.
Elaborazione quantistica. L'elaborazione quantistica è una forma ancor più radicale di elaborazione parallela SIMD, ma si trova in una fase di sviluppo molto più arretrata rispetto alle altre tecnologie di cui abbiamo parlato. Un elaboratore quantistico contiene una serie di qubit, che sostanzialmente sono zero e uno allo stesso tempo. Il qubit si basa sulla fondamentale ambiguità intrinseca alla meccanica quantistica. In un computer quantistico, i qubit sono rappresentati da una proprietà quantistica delle particelle, per esempio lo stato di spin di singoli elettroni. Quando i qubit sono in uno stato entangled, ciascuno è simultaneamente in entrambi gli stati. In un processo che si definisce "decoerenza quantistica", l'ambiguità di ciascun qubit si risolve, lasciando una successione univoca di uni e zeri. Se il computer quantistico è impostato nel modo giusto, questa successione disambiguata rappresenterà la soluzione a un problema. In sostanza, solo la successione corretta sopravvive al processo di decoerenza.
[...]
La capacità computazionale del cervello umano Può sembrare avventato aspettarsi delle macchine completamente intelligenti nell'arco di pochi decenni, quando i computer hanno sì e no raggiunto la capacità mentale di un insetto in mezzo secolo di sviluppo. In effetti questo è il motivo per cui molti che conducono da tempo ricerca nell'intelligenza artificiale irridono all'idea e danno come più credibile un periodo di qualche secolo. Ma ci sono ottime ragioni per cui le cose andranno molto più velocemente nei prossimi cinquant'anni di quanto non sia successo negli ultimi cinquanta... Dal 1990, la potenza disponibile per i singoli programmi di IA e di robotica è raddoppiata ogni anno, arrivando a 30 MIPS nel 1994 e a 400 nel 1998. Semi che si ritenevano sterili cominciano improvvisamente a germogliare. Le macchine leggono testi, riconoscono il parlato, addirittura traducono da una lingua all'altra. Robot guidano da una parte all'altra del paese, strisciano su Marte e percorrono sulle loro rotelle i corridoi degli uffici. Nel 1996 un programma di dimostrazione di teoremi che si chiama EQP, girando per cinque settimane su un calcolatore da 50 MIPS dell'Argonne National Laboratory, ha trovato una dimostrazione di una congettura di Herber Robbins nel campo dell'algebra Booleana, che è sfuggita ai matematici per sessanta anni. E siamo solo a primavera. Aspettate che arrivi l'estate. - Hans Moravec, "When Will Computer Hardware Match thè Hu-man Brain?", 1997 Qual è la capacità di calcolo di un cervello umano? Sono state fatte molte stime, sulla base della replica delle funzionalità di regioni cerebrali che sono state retroingegnerizzate (cioè di cui si sono capiti i metodi) ai livelli di prestazione degli esseri umani. Se abbiamo una stima della capacità di calcolo di una particolare regione, possiamo estrapolare quella capacità al cervello intero considerando quale parte del cervello rappresenti quella regione. Le stime sono basate sulla simulazione funzionale, che replica la funzionalità generale di una regione anziché simulare i singoli neuroni e le connessioni interneuronali di quella regione. Non vogliamo basarci sulla stima per una sola regione, ma vediamo che le varie valutazioni, in base a regioni diverse del cervello, danno stime molto vicine fra loro, per il cervello nella sua totalità. Quelle che seguono sono stime di ordine di grandezza. Il fatto che metodi diversi di formulare le stime diano risposte simili corrobora questa impostazione e indica che le stime sono in un intervallo adeguato. La previsione che ci sarà una Singolarità (una espansione dell'intelligenza umana di un fattore nell'ordine dei bilioni grazie alla fusione con la sua forma non biologica) nell'arco dei prossimi decenni non dipende dalla precisione di questi calcoli. Anche se la nostra stima della quantità di potenza di calcolo necessaria per simulare il cervello umano fosse troppo ottimistica (cioè, troppo bassa) anche di un fattore mille (cosa che mi sembra improbabile), questo ritarderebbe la Singolarità di soli otto anni. Hans Moravec, il leggendario studioso di robotica della Carnegia Mellon University, ha analizzato le trasformazioni che svolgono i circuiti neurali di elaborazione delle immagini contenuti nella retina. La retina è larga circa due centimetri e spessa mezzo millimetro. La maggior parte della profondità della retina è dedicata alla cattura di un'immagine, ma per un quinto è dedicata all'elaborazione dell'immagine, il che significa fra le altre cose distinguere fra buio e luce e rilevare il movimento in circa un milione di piccole regioni dell'immagine. La retina, secondo l'analisi di Moravec, esegue dieci milioni di questi rilevamenti di bordo e di movimento al secondo. Sulla base dei suoi decenni di esperienza nella creazione di sistemi di visione robotica, stima che per ricreare ciascuno di questi rilevamenti con livelli di prestazioni pari a quelli degli esseri umani siano necessarie circa un centinaio di istruzioni di calcolo, il che significa che replicare la funzionalità di elaborazione delle immagini di questa parte della retina richiederebbe 1000 MIPS. Il cervello umano ha un peso circa 75.000 volte superiore agli 0,02 grammi di neuroni di questa porzione della retina, e così per tutto il cervello avremmo una stima di circa 10^14 (100 bilioni) di istruzioni al secondo. Un'altra stima ci arriva dal lavoro di Lloyd Watts e dei suoi colleghi sulla simulazione funzionale di regioni del sistema uditivo umano, di cui parleremo ulteriormente nel Capitolo 4. Una delle funzioni del software sviluppato da Watts è un compito definito "separazione dei flussi", che si usa nella teleconferenza e in altre applicazioni di telepresenza (la localizzazione di ciascuno dei partecipanti in una teleconferenza audio remota). Ottenere questo risultato, spiega Watts, significa "misurare con precisione il ritardo temporale fra i sensori acustici che sono separati nello spazio e che ricevono il suono". Il procedimento comporta l'analisi dell'altezza del suono, della posizione nello spazio e di indizi contenuti nel parlato, fra cui anche indizi specifici del linguaggio. "Uno degli indizi più importanti utilizzati dagli esseri umani per la localizzazione di una sorgente sonora è la differenza temporale interaurale (ITD, Interaural Time Difference), cioè la differenza temporale fra gli istanti di arrivo dei suoni alle due orecchie". Il gruppo di Watts ha creato equivalenti di queste regioni cerebrali grazie alla retroingegnerizzazione. Watts stima che servano 10^11 cps per ottenere una localizzazione dei suoni a livello umano. Le regioni della corteccia uditiva che svolgono questa elaborazione costituiscono almeno lo 0,1 per cento dei neuroni del cervello. Così anche in questo caso si arriva a una stima di circa 10^14 cps (10^11 cps x 10^3). Un'altra stima ancora arriva da una simulazione effettuata all'Università del Texas, che rappresenta la funzionalità di una regione del cervelietto contenente 10^4 neuroni: ha richiesto circa 10^8 cps, cioè circa 10^4 cps per neurone. Estrapolando ai 10^11 neuroni stimati nel cervello, si ottiene una cifra di circa 10^15 cps per il cervello nella sua totalità. | << | < | > | >> |Pagina 197Tre rivoluzioni sovrapposte La prima metà del Ventunesimo secolo sarà caratterizzata da tre rivoluzioni sovrapposte: in Genetica, in Nanotecnologia e in Robotica. Ci porteranno in quella che in precedenza ho chiamato Epoca Quinta, l'inizio della Singolarità. Oggi siamo nelle prime fasi della rivoluzione "G". Scoprendo i processi dell'informazione che sottostanno alla vita, cominciamo a imparare come si può riprogrammare la nostra biologia per eliminare praticamente le malattie, aumentare drasticamente le potenzialità umane ed estendere radicalmente la vita. Hans Moravec tuttavia sottolinea che, per quanto riusciamo a mettere a punto la nostra biologia basata sul DNA, gli esseri umani resteranno "robot di serie B", nel senso che la biologia non riuscirà mai a eguagliare quello che sapremo costruire tecnicamente, non appena ci saranno perfettamente chiari i principi di funzionamento della biologia. La rivoluzione "N" ci permetterà di riprogettare e ricostruire, molecola per molecola, i nostri corpi, i nostri cervelli e il mondo con cui interagiamo, ben oltre i limiti della biologia. Tra le rivoluzioni incombenti, la più potente è la "R": robot di livello umano con intelligenza derivata dalla nostra ma riprogettata per superare di molto le capacità umane. R rappresenta la trasformazione più significativa, perché l'intelligenza è la "forza" più potente nell'universo. L'intelligenza, se abbastanza perfezionata, è, beh, abbastanza intelligente da prevedere e superare qualsiasi ostacolo trovi sul suo cammino.
Ciascuna rivoluzione risolverà i problemi generati da trasformazioni
precedenti, ma introdurrà nuovi pericoli. G vincerà le tradizionali difficoltà
di malattie e invecchiamento, ma introdurrà la possibilità di nuove minacce
virali derivate dalla bioingegneria. Quando N sarà sviluppata a pieno potremo
applicarla per proteggerci da tutti i rischi biologici, ma creerà la possibilità
di propri pericoli in grado di autoriprodursi, che saranno di gran lunga più
potenti di qualsiasi entità biologica. Potremo proteggerci da questi rischi con
la R sviluppata, ma chi ci proteggerà da un'intelligenza patologica che superi
la nostra? Ho una strategia per affrontare questi problemi, che discuterò alla
fine del Capitolo 8; in questo, invece, vedremo come la Singolarità si
dispiegherà attraverso queste tre rivoluzioni sovrapposte: G, N e R.
Genetica: l'intersezione di informazione e biologia
Non ci è sfuggito che gli specifici accoppiamenti che abbiamo ipotizzato facciano subito pensare a un possibile meccanismo di copia per il materiale genetico. - James Watson e Francis Crick
Dopo tre miliardi di anni di evoluzione, abbiamo davanti a noi l'insieme di
istruzioni che porta ciascuno di noi dall'uovo unicellulare all'età adulta e
infine alla tomba.
- Robert Waterston, International Human Genome Sequencing Consortium
Alla base di tutte le meraviglie della vita e delle difficoltà della
malattia stanno processi di informazione, in sostanza programmi software,
sorprendentemente compatti. L'intero genoma umano è un codice binario
sequenziale che contiene solo circa ottocento milioni di byte di informazione.
Come ho già detto, se si eliminano le sue forti ridondanze mediante tecniche
convenzionali di compressione, si rimane con solo da trenta a cento milioni di
byte, equivalenti alle dimensioni di un medio programma per computer di oggi.
Questo codice è supportato da un gruppo di macchine biochimiche che traducono
queste sequenze lineari (unidimensionali) di "lettere" del DNA in stringhe di
semplici blocchi da costruzione che prendono il nome di amminoacidi, a loro
volta ripiegati in proteine tridimensionali, che costituiscono tutte le creature
viventi dai batteri agli esseri umani. (I virus occupano una nicchia fra la
materia vivente e quella non vivente, ma sono anch'essi composti di frammenti di
DNA o RNA.) Questa "macchina" è essenzialmente un nanoreplicatore che si
autoreplica e che costruisce l'elaborata gerarchia di strutture e di sistemi
sempre più complessi che formano una creatura vivente.
Il calcolatore della vita Nei primissimi stadi dell'evoluzione, l'informazione era codificata nella struttura di molecole di complessità crescente, basate sul carbonio. Dopo miliardi di anni la biologia ha evoluto il suo calcolatore per la conservazione e la manipolazione di dati digitali, basato sulla molecola del DNA. La struttura chimica di questa molecola è stata descritta da J. D. Watson e Francis H. C. Crick nel 1953: una doppia elica formata da una coppia di filamenti di polinucleotidi, in cui l'informazione è codificata in ogni posizione in base alla scelta dei nucleotidi. Abbiamo completato la trascrizione del codice genetico agli inizi di questo secolo e ora cominciamo a capire nei dettagli la chimica dei processi di comunicazione e controllo attraverso i quali il DNA guida la riproduzione, mediante altre molecole complesse e strutture cellulari come l'RNA messaggero (mRNA), l'RNA di trasferimento (tRNA) e i ribosomi.
A livello di conservazione dell'informazione il meccanismo è
straordinariamente semplice. Sostenuta da una dorsale zucchero-fosfato
attoreigliata, la molecola di DNA contiene qualche milione di "gradini",
ciascuno dei quali è codificato con una lettera tratta da un alfabeto di quattro
lettere; ciascun gradino perciò codifica due bit di dati in un codice digitale
unidimensionale. L'alfabeto è costituito da quattro coppie di basi:
adenina-timina, timina-adenina, citosina-guanina e guanina-citosina. Se venissero
stirati, i filamenti di DNA in una singola cellula misurerebbero circa un metro
e mezzo, ma un metodo di impaccamento molto elaborato li ripiega fino a farli
stare in una cellula che ha un diametro di circa un millesimo di millimetro.
|