|
|
| << | < | > | >> |IndiceDedica 1 Prefazione alla seconda edizione 3 Ringraziamenti 7 Introduzione: definire il "computer" 9 La rivoluzione del computer e la storia della tecnologia 10 Temi 14 Capitolo 1 – L'avvento dell'informatica commerciale, 1945-1956 23 L'UNIVAC nel suo contesto 25 Le schede perforate 25 Il Card-Programmed Calculator 29 Il principio del programma memorizzato 31 Il ruolo di John von Neumann 32 L'architettura von Neumann e la sua rilevanza 36 Da ENIAC a UNIVAC: prima trasformazione 36 UNIVAC 39 L'UNIVAC al lavoro 42 La risposta dell'IBM 47 Engineering Research Associates 50 Le macchine a tamburo 52 CRC 120A 52 Macchine a tamburo successive, 1953-1956 56 LGP-30 56 Bendix G-15 56 IBM 650 57 Riepilogo 58 Capitolo 2 – La maturazione dell'informatica, 1956-1964 63 Memoria a nuclei 65 Honeywell, GE, RCA 70 GE 71 RCA 73 I componenti base dell'architettura dei computer 75 Lunghezza della parola 76 Struttura a registri 76 Numero di indirizzi 79 Canali I/O e proliferazione dei sistemi 80 Hardware per la virgola mobile 81 Il transistor 83 Philco 83 NCR, Burroughs 84 L'ascesa dell'IBM 86 Memoria a dischi 88 Dai tubi a vuoto ai transistor 90 Un impianto 7094 91 Macchine transistorizzate di piccole dimensioni 95 Conclusione 97 Capitolo 3 – Gli albori del software, 1952-1968 99 Gli inizi (1944-1951) 102 Compilatori UNIVAC (1952) 105 Laning e Zierler (1954) 107 Assemblatori 108 SHARE (1955) 109 Ordinare i dati 110 FORTRAN (1957) 112 COBOL 113 Software e linguaggi 116 Software di sistema 118 MAD 119 Computer science 124 Altri eventi del 1968 e 1969 126 Donald E. Knuth 126 Programmazione strutturata 127 Questioni di proprietà intellettuale 128 Ingegneria del software 128 Il software come prodotto separato 129 Conclusione 132 Capitolo 4 – Dai mainframe ai minicomputer, 1959-1969 133 L'influenza del governo federale 136 Massachusetts Blue Cross 137 NASA-Ames Research Center 138 L'IRS 144 Il Manned Space Program della NASA 148 Il minicomputer 151 Architettura 152 La Digital Equipment Corporation 154 Il PDP-8 157 La cultura della DEC 165 I legami con il MIT 168 Capitolo 5 – Gli anni dell'espansione senza freni e il System/360, 1961-1975 173 L'IBM, i Sette Nani e il BUNCH 173 Il System/360 dell'IBM 174 Il System/360 e la cerchia completa dei computer 185 Il time-sharing e il System/360 186 Il periodo del grande rialzo azionario 191 Società di leasing 192 Mainframe compatibili 194 I costruttori di compatibili 197 UNIVAC, SDS 199 Le software house 201 Il fato del BUNCH 206 Conclusione 208 Capitolo 6 – Il chip e il suo impatto, 1965-1975 211 L'invenzione del circuito integrato 217 L'impatto commerciale del chip 224 La seconda generazione dei minicomputer 226 La fondazione dell'Intel 229 Il PDP-11 235 Il trionfo dell'accesso diretto 237 La formazione informatica 239 Il BASIC a Dartmouth 241 Capitolo 7 — Il computer personale, 1972-1977 245 Calcolatrici e progetti di computer personali aziendali 250 Il microprocessore 256 Dal microprocessore al personal computer 262 Il ruolo degli hobbysti 265 Altair 267 Software: BASIC 274 Software di sistema: il pezzo risolutivo del puzzle 279 Fine della fase pionieristica, 1977 282 Capitolo 8 – Potenziare l'intelletto umano, 1975-1985 285 Digital Equipment Corporation 285 Una parola sull'UNIX 290 L'IBM e la cultura classica del mainframe 290 Dal "POTS" allo "OLTP" 293 Viatron 296 Wang 298 Xerox PARC 301 I computer personali: la seconda ondata, 1977-1985 308 Apple II: unità a disco e VisiCalc 311 Il PC IBM (1981) 314 MS-DOS 315 Il PC e l'IBM 317 "Il meglio è nemico del bene" 318 Macintosh (1984) 318 I cloni 323 Capitolo 9 – Workstation, UNIX e Net, 1981-1995 327 UNIX: dal New Jersey alla California 328 Le ironie dell'UNIX 331 La VAX Strategy 332 RISC 334 In rete I: Ethernet 338 In rete II: Internet 343 In rete III: il World Wide Web 347 Gopher, WAIS 349 World Wide Web, Mosaic 350 Conclusione 354 Capitolo 10 – "Il tempo di Internet", 1995-2001 357 Microsoft 358 Il legame col Macintosh 359 Internet Explorer 364 Hotmail, UNIX 370 Dot.Com 371 La politica dell'utilizzo accettabile 372 Java 376 Motori di ricerca, portali 381 La tragedia dei beni comuni 383 GNU/Linux 384 GNU 392 IBM 396 Conclusione 398 Conclusione: la digitalizzazione dell'immagine del mondo 401 La digitalizzazione dell'immagine del mondo 402 Note 409 Bibliografia 459 |
| << | < | > | >> |Pagina 9Introduzione: definire il "computer"I computer vennero inventati per "computare": per "risolvere problemi matematici complessi", come il dizionario tuttora definisce quella parola. E lo fanno ancora, ma non è per questa ragione che noi viviamo nell' "età dell'informazione". È per via di altre cose che i computer fanno: immagazzinano e reperiscono dati, gestiscono reti di telecomunicazioni, elaborano testi, generano e manipolano immagini e suoni, fanno volare aerei e capsule spaziali e così via. Nei recessi profondi di un computer vi sono circuiti che fanno queste cose trasformandole in un linguaggio matematico. Ma la maggior parte di noi non vede mai le equazioni e ben pochi le capiremmo se le vedessimo. Quasi tutti noi, ciò nondimeno, siamo partecipi di questa cultura digitale, quando usiamo la scheda di un Bancomat, quando componiamo e stampiamo un bollettino aziendale, quando chiamiamo il numero verde di una società che vende per corrispondenza per ordinare qualche capo di abbigliamento, oppure quando andiamo a fare acquisti in un gigantesco centro commerciale dove i magazzini vengono riforniti "just-in-time". Per queste e per molte altre applicazioni, possiamo utilizzare tutta la potenza di questa invenzione senza mai vedere neppure un'equazione. Per quanto riguarda il grande pubblico, "computare" è la cosa meno importante che fanno i computer. Però fu proprio per risolvere equazioni che venne inventato il computer elettronico digitale. La parola "computer" nella lingua inglese in origine definiva una persona che risolveva equazioni; fu soltanto intorno al 1945 che il nome venne esteso alle macchine.
Che un'invenzione trovi nella società un posto non previsto dai
suoi inventori non è poi così sorprendente. La vicenda dei computer lo dimostra.
Non è che il computer abbia finito per non essere
usato per fare calcoli: tecnici e scienziati continuano a servirsene
per calcolare. Almeno questo gli inventori del computer l'avevano
previsto. Ma la gente ha scoperto modi per far fare a questa invenzione un
mucchio di altre cose. Come c'è riuscita, trasformando le
macchine matematiche degli anni Quaranta negli elettrodomestici
per l'informazione in rete degli anni Novanta, è l'argomento di
questo libro.
La rivoluzione del computer e la storia della tecnologia Agli inizi degli anni Ottanta, quando ero stato da poco assunto dal dipartimento di storia di una piccola università, accennai a uno dei miei colleghi che stavo studiando la storia dei computer. "Perché i computer?", ribatté. "Perché non studiare la storia delle lavatrici?". Pensai che stesse scherzando, magari per punzecchiare il novellino appena arrivato in sala professori. Ma diceva sul serio. Dopo tutto, a casa aveva una lavatrice, si trattava di un oggetto tecnologico complesso, che aveva avuto un effetto profondo sulla sua vita di tutti i giorni. Di sicuro aveva una storia. Ma i computer? Erano oggetti esotici, di cui aveva sentito parlare, ma senza alcun contatto diretto. Negli anni Novanta quella domanda non sarebbe stata fatta, perché nessuno avrebbe potuto sostenere che i computer non erano importanti. Noi viviamo in un'epoca trasformata dei computer. È anche per questa ragione che abbiamo bisogno di capirne le origini. Tuttavia, termini come "Information Age" oppure "Computer Revolution" mi piacciono poco. Disorientano almeno tanto quanto informano. Le rivoluzioni tecnologiche accadono, questo è certo, ma non così spesso. La storia di come una nuova tecnologia trova il suo posto in una società è sempre più sottile e più complessa di quanto vogliano lasciar intendere espressioni tipo "X Age" o "X Revolution", dove "X" sta per aerei a reazione, energia nucleare, automobili, computer, informazione, spazio, Internet, microelettronica e così via. La stampa quotidiana tende a esaltare troppo i possibili effetti di ogni nuovo modello di chip, di ciascun nuovo software, di ogni nuovo progresso nelle reti, di ciascuna alleanza fra imprese informatiche e di intrattenimento: di sicuro questi eventi cambieranno in meglio le nostre vite. Poche settimane dopo il soggetto di queste cronache reboanti è già dimenticato, sostituito da qualche nuovo sviluppo che, ci assicurano, è il vero punto di svolta. Eppure, chi mai potrebbe negare che la tecnologia dei computer sia stata più che rivoluzionaria? Una semplice misura della capacità di elaborazione delle macchine moderne rivela un tasso di progresso non eguagliato da altre tecnologie, antiche o moderne. Il numero dei computer installati nelle abitazioni e negli uffici degli Stati Uniti dimostra un tasso di crescita simile, che non accenna a diminuire. Il traffico aereo commerciale, la riscossione delle imposte, l'amministrazione della medicina e della ricerca, i piani e le operazioni militari — queste e una miriade di altre attività sono sostenute da computer, senza i quali o sarebbero radicalmente diverse oppure non verrebbero praticate affatto. La storia dei computer esige – come probabilmente meriterebbe – più attenzione da parte del pubblico della storia delle lavatrici. Il collega che nel 1981 prendeva sottogamba lo studio dei computer non prepara più i suoi testi con una macchina per scrivere manuale, immagino. Gli storici sono fra i più zelanti nell'adottare gli strumenti computerizzati più recenti che possano aiutarli nelle loro ricerche. | << | < | > | >> |Pagina 14TemiL'esposizione che segue è cronologica, inizia con i primi tentativi di commercializzare il computer elettronico nei tardi anni Quaranta e termina verso la metà degli anni Novanta, quando si diffusero ovunque le postazioni di lavoro personali connesse in rete. Ho identificato svariati punti di svolta principali, ai quali ho dedicato un esame approfondito. Fra questi, la trasformazione del computer nei tardi anni Quaranta da strumento specializzato per la scienza in un prodotto commerciale, l'emergere dei piccoli sistemi nei tardi anni Sessanta, l'avvento dei personal computer negli anni Settanta e la diffusione delle reti dopo il 1985. Ho anche identificato numerosi fili conduttori comuni che sono rimasti costanti lungo tutti questi cambiamenti. Il primo filo conduttore riguarda il progetto interno del computer in senso stretto: il modo in cui i circuiti elettronici sono disposti per produrre una macchina che opera in modo efficace e affidabile. Nonostante i cambiamenti avvenuti nelle implementazioni, dai tubi a vuoto ai circuiti integrati, il flusso delle informazioni all'interno di un computer, almeno a un determinato livello, non è cambiato. Questa impostazione prende il nome di "architettura von Neumann", da John von Neumann (1903-1957), che la articolò in una serie di studi scritti nel 1945 e nel 1946. La sua persistenza lungo ondate successive di cambiamenti nell'hardware e nel software sottostanti fornisce allo storico almeno un sentiero entro la densa foresta della storia recente. Anche il modo in cui generazioni successive di macchine si sono discostate dei concetti del 1945 pur mantenendo la loro essenza costituisce una parte importante dell'intera vicenda. Molti storici dei computer parlano di tre "generazioni" distinte dal fatto che i computer fossero costruiti con tubi a vuoto, transistor o circuiti integrati. In effetti, la terza di queste generazioni è durata più a lungo delle prime due messe assieme e non sembra esserci nulla all'orizzonte che possa sfidare seriamente il chip di silicio. Circuiti integrati di silicio, incapsulati in confezioni rettangolari di plastica nera, vengono saldati su schede circuitali, che a loro volta sono inserite in un insieme di fili chiamato bus: questa struttura fisica è stata uno standard sin dagli anni Settanta. La sua potenza è aumentata con una cadenza molto rapida, però, raddoppiando grosso modo ogni diciotto mesi la capacità dei chip di immagazzinare dati. Alcuni tecnici sostengono che questo ritmo di innovazione nella tecnologia base del silicio sia la vera forza trainante della storia, che fa apparire nuove fasi dello sviluppo dei computer come frutti maturi che cadono da un albero. Questo punto di vista è in conflitto con quanto sostengono gli storici della tecnologia, ma la misura in cui viene accettato e persino promosso dai tecnici ne fa un'argomentazione stringente, che non può essere liquidata senza un esame più approfondito. [...] Un altro tema ha a che fare con un termine, sconosciuto nei tardi anni Quaranta, che domina il mondo dell'informatica negli anni Novanta: software. Il Capitolo 3 presenta una cronaca dei primi sviluppi del software, ma l'argomento emerge occasionalmente prima di allora e nei capitoli che seguono compare con maggior frequenza. Negli anni Cinquanta le società che producevano computer fornivano il software di sistema includendolo nel prezzo del computer e i clienti sviluppavano in proprio i loro programmi applicativi. Più di un compratore dei primi sistemi di computer arricciava il naso di fronte all'esercito di analisti di sistema, programmatori e specialisti di software che doveva essere assunto in un'azienda per gestire una macchina che in teoria avrebbe dovuto eliminare il lavoro impiegatizio. Fu soltanto dopo il 1990 che il software commerciale assunse una posizione di primo piano nell'informatica, quando diminuirono drasticamente i prezzi dell'hardware e i computer divennero più affidabili, compatti e standardizzati. La pubblicistica sulla storia dell'informatica riconosce l'importanza del software, ma appare stranamente divisa in due campi, nessuno dei quali sembra riconoscere la sua dipendenza dall'altro. In un campo troviamo una montagna di libri e di articoli di riviste sulle società di software per personal computer, in particolar modo sulla Microsoft, e sulle fortune che ha guadagnato vendendo i sistemi operativi DOS e Windows per i PC. Alcuni sviluppano la storia di UNIX, un influente sistema operativo che ha anche avuto successo nel mercato commerciale. Questi resoconti sono scarsamente equilibrati. I lettori sono naturalmente interessati alle enormi somme di denaro che passano di mano, ma che cosa fa questo software e perché i sistemi operativi hanno l'aspetto che hanno? Inoltre, poche di queste cronache collegano questi sistemi al software che venne sviluppato nei primi due decenni dell'informatica, come se non avessero nulla in comune, mentre in effetti esistono forti connessioni. L'altro campo si attiene a standard più elevati di obiettività e rigore scientifico e tiene in debito conto l'informatica che ha preceduto l'avvento del PC. Tuttavia, questa letteratura si è concentrata esclusivamente sui linguaggi di programmazione. In un certo senso, questo approccio rispecchia l'attività che si svolgeva in campo informatico agli inizi, quando non era difficile trovare persone che lavoravano su nuovi e più articolati linguaggi di programmazione, ma era difficile trovare persone che si preoccupassero di integrare questi linguaggi in sistemi che lavorassero in modo più efficiente e utilizzassero meglio il tempo dei clienti. Oggi sappiamo molte cose sui primi sviluppi del FORTRAN, del BASIC e del COBOL, e di un gran numero di altri, più oscuri, linguaggi, eppure sappiamo ben poco dei sistemi dei quali questi linguaggi erano una parte. Un ultimo tema è il posto delle informazioni in una società democratica. I computer condividono molti valori propri della stampa di informazione, la cui libertà è garantita dal primo emendamento della Costituzione degli Stati Uniti. Ma i computer sono anche agenti di controllo. I due attributi sono forse in conflitto fra loro? [...] La fine della guerra fredda e con questa l'apertura degli archivi sovietici potrebbero aiutarci a capire meglio lo sviluppo dei computer in URSS. Lungo tutto quel periodo, i sovietici rimasero parecchio indietro nell'informatica rispetto agli Stati Uniti. Finora, le ragioni che sono state date per spiegare il fenomeno erano piuttosto lapalissiane: siccome le cose sono andate in quel modo, non avrebbero potuto andare diversamente. Ma allora come si possono spiegare i successi dei sovietici nella matematica pura e nella fisica, per non parlare dello sviluppo dei missili balistici, delle armi nucleari, dell'esplorazione dello spazio e degli aerei supersonici? Sarebbe stato ragionevole supporre che i militari sovietici avrebbero sostenuto l'informatica e i computer per le stesse ragioni per le quali l'aeronautica militare USA sostenne i progetti Whirlwind e SAGE. Sappiamo che scienziati sovietici iniziarono a lavorare su computer digitali avanzati non appena ENIAC venne reso pubblico. Eppure, quando ebbero bisogno di macchine avanzate, i sovietici si rivolsero ai loro satelliti nell'Europa orientale (specialmente Ungheria e Cecoslavacchia) oppure copiarono computer americani quali il System/360 IBM o il VAX. Costruendo copie di queste macchine potevano accedere a vaste quantità di software, che potevano acquisire comprandolo sul libero mercato o ricorrendo allo spionaggio, ma questo significò anche che rimasero indietro di una o due generazioni di hardware rispetto agli Stati Uniti. Forse fu la percezione che i computer, in quanto strumenti che facilitano il libero scambio delle informazioni, sono antitetici a uno stato totalitario. Però il campo dei computer negli USA dal 1945 fino a tutti gli anni Settanta fu dominato da grandi sistemi centralizzati, con controlli molto stretti, che non erano proprio così diversi dal sistema politico sovietico. Quei computer sarebbero stati strumenti perfetti per modellare l'economia irreggimentata del marxismo-leninismo. I pianificatori sovietici non sarebbero stati soli. Fino a tutt'oggi alcuni americani hanno caldeggiato i computer per il loro potenziale di creare modelli per la gestione centralizzata dell'economia degli Stati Uniti: garantendo i diritti costituzionali, beninteso. Forse la spiegazione va cercata considerando l'altra faccia della moneta dell'Europa occidentale: molto sostegno da parte dei militari, ma nessun trasferimento a un'industria dei computer orientata al mercato. Gli americani possono aver scoperto che il sostegno dei militari era giusto quello che ci voleva: abbastanza per sostenere l'innovazione, ma non così concentrato su specifici sistemi d'arma da soffocare la creatività. Bisogna in tutti i casi approfondire le ricerche sulla storia dell'informatica sovietica. Quasi tutti noi sappiamo che i computer sono alquanto diversi dalle lavatrici nel modo in cui stanno influendo sulla vita moderna. Questo libro si conclude con alcune osservazioni sul perché le cose stiano in questo modo. Nel corso di tutta la mia esposizione mi chiedo se il computer sia esso stesso l'agente impersonale del cambiamento o se non sia addirittura una forza autonoma, che non lascia spazio alle persone per modificarla e meno ancora per opporvisi. Nelle conclusioni, torno a esaminare quella questione. Non ho una risposta. La mia speranza è che le cronache presentate nei capitoli che seguono aiuteranno quelli fra noi, professionali e non, che continuano a chiederselo. | << | < | > | >> |Pagina 126Altri eventi del 1968 e 1969
Nel 1968 e nel 1969 un insieme di eventi correlati contribuì a
consolidare ulteriormente la posizione del software, la sua relazione con la
computer science e quella con gli utenti di computer industriali, commerciali e
militari.
Donald E. Knuth
Nel 1968
Donald E. Knuth
pubblicò il primo di una serie prevista in sette volumi su
The Art of Computer Programming.
Il volume
Fundamental Algorithms,
per usare le sue parole, dava dignità di
stampa a tecniche di programmazione che si erano tramandate sotto forma di
"folklore... ma [per le quali] era stata sviluppata ben poca teoria". Anche
altri avevano tentato di radicare la programmazione dei computer su solide basi
teoriche, ma spesso quei tentativi non aiutavano nella pratica a risolvere reali
problemi di programmazione. La maggior parte dell'insegnamento della
programmazione era inestricabilmente legato alle peculiarità di una specifica
macchina, fra le quali i codici binari di determinati registri, la
temporizzazione dei segnali per accedere a memorie a disco o a
tamburo e così via. Knuth fornì una base teorica per l'uso dei computer che era
anche pratica e i suoi libri la consolidarono sotto forma di algoritmi,
procedure formali che si potevano utilizzare per risolvere un problema in un
ragionevole periodo di tempo, dati i vincoli dei computer veri e propri.
Programmazione strutturata Nel marzo del 1968, nello stesso numero della rivista dell'ACM che aveva pubblicato Curriculum '68, comparve una lettera al direttore con lo stravagante titolo "Go-To Statement Considered Harmful" ["L'enunciato Go-To è dannoso"]. La lettera si apriva con questa affermazione: Nel corso di molti anni ho notato che la qualità dei programmatori è una funzione decrescente della frequenza degli enunciati go to che si trovano nei programmi che scrivono. L'autore era Edsger Dijkstra, del Politecnico di Eindhoven, in Olanda. Quella lettera, che diede l'avvio a una discussione che si protrasse per molti anni, era soltanto di una piccola parte del suo impegno di lungo periodo volto a portare la computer science su una base teorica più formale: la risoluta affermazione di quella lettera divenne un simbolo del lavoro ben più articolato che egli stava facendo per dare un solido fondamento teorico ai sistemi di software complessi, allontanandoli dalle sabbie mobili del pressappochismo. L'affermazione di Dijkstra sul "go to" provocò un lungo e stizzoso dibattito. Pochi fra quanti parteciparono alle discussioni sembravano rendersi conto che a Dijkstra interessava qualcosa di molto più profondo di quel particolare comando. I critici schierati nel campo industriale vedevano in quella polemica un'ulteriore dimostrazione dell'irrilevanza della computer science accademica. Nel breve periodo, quella lettera favorì lo sviluppo del concetto di "programmazione strutturata", un metodo che secondo i suoi sostenitori avrebbe fatto progredire la programmazione da una forma di arte (come la chiamava Knuth nel titolo dei suoi libri) a una scienza. Che sia stato merito della lettera di Dijkstra oppure no, sta di fatto che la programmazione si indirizzò effettivamente in quella direzione negli anni successivi. | << | < | > | >> |Pagina 173CAPITOLO 5
Gli anni dell'espansione senza freni e il System/360, 1961-1975
L'IBM, i Sette Nani e il BUNCH Nel periodo in cui il minicomputer stava creandosi un proprio mercato, verso la metà degli anni Sessanta, il denaro che si spendeva per i computer andava per lo più verso i grandi mainframe venduti dall'IBM e da pochi altri concorrenti. L'IBM deteneva una quota del mercato commerciale di circa il 70 % con ricavi di 1,2 miliardi di dollari nel 1963, che crebbero fino a superare i 3 miliardi nel 1965, arrivando a 7,5 miliardi nel 1970. In seconda posizione dopo l'IBM si trovava la Sperry Rand, erede dell'UNIVAC e delle realizzazioni dell'ERA degli anni Quaranta, con ricavi pari a 145 milioni di dollari. Altri protagonisti del mercato USA erano Control Data, Honeywell, Philco, Burroughs, RCA, General Electric e NCR. (Anche l'AT&T costruiva computer, ma in quanto monopolio regolamentato non è possibile tener conto qui dei suoi numeri.) Con la parziale eccezione della Control Data, tutte le società che abbiamo elencato sopra seguivano la stessa logica di utilizzo dei computer adottata dall'IBM: grandi centri di elaborazione centralizzati, dotati di mainframe, che eseguivano programmi a lotti alimentati mediante pacchi di schede perforate. Quanti volevano competere in questo business fornivano tutto, da cima a fondo: hardware, periferiche, software di sistema e applicativo e servizi. Cercavano di competere con l'IBM offrendo anche loro i computer a noleggio oltre che in vendita. Questo richiedeva enormi quantità di capitali e gli utili per tutti, eccetto l'IBM, erano modesti o inesistenti.
Le condizioni in cui si trovavano a operare in quell'epoca i protagonisti di
quel mercato indusse gli IBMologi a definirli ironicamente "Biancaneve e i Sette
Nani": "Biancaneve" era il bersaglio periodico di azioni giudiziarie intentate o
da uno dei "Sette Nani" (per esempio, la Control Data) o dal governo federale,
che l'accusava di pratiche monopolistiche. Arrivati agli anni Settanta, la
General Electric e la RCA erano uscite dal business, il che portò all'invenzione
di un nuovo termine per definire i concorrenti dell'IBM:
il "BUNCH" (dalle iniziali di Burroughs, UNIVAC, NCR, Control
Data e Honeywell), parola che in inglese significa "banda" o "gruppo male
assortito". Questa costellazione rimase stabile fino a tutti
gli anni Ottanta, un risultato di tutto rispetto considerando il carattere
estremamente volatile del settore industriale dei computer.
L'avvento dei personal computer negli anni Ottanta cambiò la natura dell'intero
business e quel semplice raggruppamento di fornitori di mainframe si dissolse.
Il System/360 dell'IBM Quando la DEC iniziò le consegne del suo PDP-8, all'inizio del 1965, l'IBM consegnò il primo di una serie di mainframe che avrebbero catapultato la società in una posizione ancor più dominante nel settore. Si trattava del System/360, che era stato annunciato nell'aprile del 1964 (Figura 5.1). Gli diedero questo nome perché ambiva a servire la cerchia completa dei clienti, dai commerciali agli scientifici, da quelli che facevano molti calcoli matematici a quelli che eseguivano semplici operazioni aritmetiche su grandi volumi di dati. L'argomentazione commerciale più forte del System/360 era che l'IBM non stava proponendo un computer, ma un'intera linea di macchine, garantendo che i programmi scritti per un modello avrebbero funzionato su un modello superiore, consentendo in questo modo ai clienti di risparmiare sugli investimenti nel software quando il loro business sarebbe cresciuto. L'IBM annunciò sei modelli il 7 aprile del 1964. In seguito ne annunciò altri, togliendo al tempo stesso alcuni degli originali sei quando iniziò le consegne. L'idea non era del rutto nuova. Altre society di computer avevano cercato di salvaguardare la compatibilità del software quando avevano introdotto nuovi modelli, come la stessa IBM aveva fatto per le sue macchine 704, 709 e 7090. Il 360, però, era una serie di computer, tutti annunciati contemporaneamente, che offrivano un ventaglio di prestazioni che andava da 1 a 25. Fatta eccezione per un piccolo lotto di macchine consegnate all'Esercito nei tardi anni Cinquanta, questa impresa non era mai stata tentata prima. Con un'espressione ripetuta molto spesso, usata per la prima volta in un articolo della rivista Fortune, un impiegato dell'IBM disse "abbiamo scommesso la nostra società" su questa linea di computer. Oltre ai sei modelli di computer, l'IBM presentò in quello stesso giorno "più di 150 prodotti diversi: nuovi nastri, nuovi dischi, la perforatrice di schede 029". Se il 360 non avesse avuto successo sarebbe stata una mazzata devastante, anche se l'IBM sarebbe comunque sopravvissuta come uno dei più importanti operatori in quel business. La società avrebbe potuto introdurre versioni più nuove del suo venerando 1401 e delle macchine della serie 7090 e comunque avrebbe continuato ad avere un flusso costante di ricavi dagli impianti a schede perforate. Ma un fallimento del genere avrebbe ristrutturato radicalmente il settore industriale dei computer. Il System/360 non fu un fallimento. Poche settimane dopo l'annuncio del prodotto nell'aprile del 1964, gli ordini cominciarono ad affluire. "Gli ordini dei computer System/360 superarono prontamente le previsioni: ne arrivarono più di 1.000 nel primo mese. Dopo cinque mesi erano raddoppiati, arrivando a un numero pari a un quinto dei computer IBM installati negli Stati Uniti." L'architettura di base servì come piattaforma di riferimento per la linea dei prodotti IBM fino agli anni Novanta. Per fabbricare e consegnare quella linea di computer ci vollero risorse enormi. La società ampliò i suoi impianti di produzione, ma i piani di consegna andarono in crisi e cominciarono a mancare alcuni componenti fondamentali. Il successo del 360 minacciò l'esistenza della società quasi quanto l'avrebbe fatto un suo fallimento. Per quei dipendenti che vennero incalzati fino al punto di rottura – e furono in molti – il balzo nei ricavi dell'IBM forse non valse lo stress fisico e mentale che dovettero sostenere. Dal 1965 al 1970, grazie soprattutto al System/360, i ricavi lordi dell'IBM più che raddoppiarono. Anche gli utili netti raddoppiarono, superando nel 1971 il miliardo di dollari. L'IBM era stata alla guida del settore industriale dei computer negli USA fin dalla metà degli anni Cinquanta. Nel 1970 aveva una base installata di 35.000 computer e verso la metà degli anni Settanta si poteva ragionevolmente dire che il settore dei computer negli Stati Uniti si articolava in due parti uguali: IBM da un lato e tutti gli altri combinati assieme dall'altro. | << | < | > | >> |Pagina 194Mainframe compatibiliLa seconda conseguenza dell'ingresso sul mercato del System/360 fu una ridefinizione del ruolo dei principali concorrenti dell'IBM, e fece emergere un certo numero di società di minori dimensioni, che puntavano direttamente alla linea 360. Durante le prime discussioni che si tennero nel comitato SPREAD, qualcuno espresse la preoccupazione che se si fosse creata un'ampia gamma di macchine, "la concorrenza starebbe col fucile puntato su ciascun modello specifico". Non appesantito da vincoli di compatibilità, qualcuno avrebbe potuto venir fuori con una macchina dotata di prestazioni di gran lunga migliori per lo stesso prezzo. Il comitato argomentò che per i clienti del 360 avere un percorso di migrazione verso le fasce alte avrebbe più che compensato gli eventuali vantaggi che avrebbe avuto un concorrente puntando su un particolare modello. Nella fascia alta non vi sarebbero stati modelli di classe superiore verso i quali migrare, però. La Control Data Corporation, che aveva prodotto il 160A di piccole dimensioni del quale abbiamo già parlato, venne fuori col suo computer 6600 nel 1964 (Figura 5.4). Progettato da Seymour Cray e subito soprannominato "super-computer", il 6600 offriva quello che Seymour Cray desiderava offrire in un computer: le prestazioni più veloci possibili, punto. In termini di vendite assolute, il 6600 della CDC non fu una gran minaccia, ma ebbe clienti inconsueti: laboratori di armi, come il Lawrence Livermore, le grandi organizzazioni per le ricerche aerodinamiche, la National Security Agency e altre per le quali l'unica cosa che importasse erano le prestazioni. Tutti insieme questi clienti avrebbero acquistato soltanto poche unità, ma altri clienti, meno illustri, li consideravano con molto rispetto. Qualunque sistema essi scegliessero veniva quindi presentato e discusso molto seriamente nella stampa di settore. L'IBM reagì con un System/360 modello 91, ma ebbe ritardi nelle consegne e le sue prestazioni non eguagliarono mai quelle delle macchine CDC. Qui la questione della compatibilità impose le sue condizioni. Il 6600 doveva gran parte delle sue prestazioni al talento di Seymour Cray per la progettazione e Cray godeva dell'ulteriore vantaggio di poter "cominciare da un foglio di carta bianca" – senza alcun vincolo di compatibilità – tutte le volte che progettava un computer. L'IBM perse la battaglia per la fascia alta a vantaggio della CDC (e più tardi della Cray Research, fondata da Seymour Cray nel 1972). La Control Data Corporation in seguito fece causa all'IBM sostenendo che il Modello 91 era un "fantasma", annunciato prima che fosse pronto, per far fuori il CDC 6600. Quali che fossero i meriti dell'azione legale, salvo pochi clienti eccezionali, la maggior parte preferì i vantaggi della compatibilità software. Persino molti laboratori che si occupavano di armi, pur avendo budget illimitati, installarono uno o più macchine System/360 a fianco del loro CDC 6600. | << | < | > | >> |Pagina 314Il PC IBM (1981)Dopo l'uscita dell'Apple II e della sua unità a dischi si potrebbe dire che i progressi nell'hardware non hanno più pilotato la storia dell'informatica, ma vi furono alcune eccezioni, fra le quali il Personal Computer IBM. La sua uscita nell'agosto del 1981 fu importante, anche se rappresentò un progresso soltanto incrementale rispetto alla tecnologia esistente. Il suo processore, un 8088 Intel, derivava dall'8080 e gestiva i dati internamente su 16 bit (le comunicazioni con l'esterno continuavano a essere a 8 bit). Utilizzava il codice ASCII. L'architettura del suo bus a 62 connettori era simile a quella del bus Altair e aveva cinque alloggiamenti di espansione vuoti. Il BASIC Microsoft veniva fornito su un chip di memoria ROM. Disponeva di una porta integrata per le cassette di nastro che, combinata col BASIC, faceva sì che non avesse bisogno di un sistema operativo per i dischi. Quasi tutti i clienti, però, desideravano le funzionalità dei dischi, e potevano scegliere fra tre sistemi operativi: il CP/M-86, un sistema basato sul Pascal e progettato dalla University of California a San Diego e il PC-DOS della Microsoft. Il CP/M-86 non fu disponibile fino al 1982 e pochi clienti acquistarono il sistema Pascal, quindi il PC-DOS ebbe la meglio. Anche le unità a disco floppy, la tastiera e il monitor video erano varianti di componenti già usati in precedenza. L'IBM integrò il circuito di pilotaggio del monitor nella piastra circuitale base del PC, in modo che gli utenti non fossero costretti a sacrificare una porta di comunicazione. Il monitor monocromatico poteva presentare una schermata completa articolata in 25 righe di 80 caratteri l'una: un passo avanti rispetto all'Apple II ed essenziale per le applicazioni gestionali serie. Era disponibile anche un monitor a colori (Figura 8.6).
Insieme con il Personal Computer, l'IBM annunciò anche la disponibilità di
software per l'elaborazione di testi, la contabilità e i
giochi, oltre a una versione del VisiCalc. Uno spreadsheet introdotto
nell'ottobre 1982, l'1-2-3 della Lotus Development, sfruttava a
fondo l'architettura del PC e girava molto più velocemente del suo
rivale VisiCalc. Questa combinazione di Personal Computer IBM e
1-2-3 Lotus superò ben presto la Apple nelle vendite e dissipò tutti
gli eventuali dubbi residui in merito al fatto che queste macchine
fossero seri rivali dei mainframe e dei minicomputer. Nel dicembre
del 1982 la rivista
Time
nominò il computer "Macchina dell'anno" per il 1983.
MS-DOS La Microsoft era un'azienda di piccole dimensioni quando una divisione dell'IBM a Boca Raton, Florida, si imbarcò in questo progetto, nome in codice "Chess". La Microsoft era conosciuta soprattutto per la sua versione del BASIC. L'IBM aveva sviluppato una versione del BASIC per un prodotto chiamato System/23 Datamaster, ma l'esigenza di riconciliare questa versione del BASIC con altri prodotti IBM provocò un certo ritardo. La squadra del progetto Chess notò quello che stava accadendo nel campo dei computer personali e si rese conto che qualunque ritardo sarebbe stato fatale. Di conseguenza, decise di rivolgersi all'esterno dell'organizzazione dell'IBM per quasi tutti i componenti di questo prodotto, compreso il software. Rappresentanti dell'IBM presero contatti con Bill Gates nell'estate del 1980 per ottenere una versione del BASIC che avrebbe girato sull'8088 Intel che l'IBM aveva scelto. L'IBM pensava di poter utilizzare come sistema operativo una versione del CP/M; il CP/M era già affermato come standard per i sistemi basati sull'8080 e la Digital Research stava lavorando su un suo ampliamento a 16 bit. Però le trattative con Gary Kildall della Digital Research si erano arenate. Quando l'IBM aveva visitato la Digital Research per concludere l'accordo, Kildall era assente e sua moglie, che gestiva il lavoro amministrativo della società, aveva rifiutato di firmare l'accordo di riservatezza dell'IBM. (Considerate le accuse che erano state mosse all'IBM nel corso degli anni, non si può dire che sia stata irragionevole.) Come che siano andate le cose, la versione del CP/M a 16 bit della Digital Research non era abbastanza avanti nello sviluppo, anche se la società la stava promettendo da parecchio tempo. (Alla fine venne poi offerta all'IBM dopo che il PC-DOS era diventato dominante.) In conclusione, la Microsoft offrì all'IBM un suo sistema operativo a 16 bit. L'IBM lo chiamò PC-DOS e la Microsoft mantenne la facoltà di venderlo ad altri come MS-DOS. Il PC-DOS era basato sull'86-DOS, un sistema operativo che Tim Paterson della Seattle Computer Products aveva scritto per il chip 8086. La Microsoft pagò inizialmente circa 15.000 dollari per i diritti di utilizzo del lavoro della Seattle Computer Products. (In seguito pagò una somma maggiore per i diritti completi.) La Seattle Computer Products aveva chiamato internamente quel software con la sigla QDOS, che stava per "Quick and Dirty Operating System" [sistema operativo rozzo e messo su in fretta]; finì per diventare lo MS-DOS, uno dei pezzi di software più longevi e influenti che siano mai stati scritti. Lo MS-DOS si ispirava al CP/M, ma, contrariamente al folklore, non era semplicemente un'estensione del CP/M scritta per il più progredito chip 8086. Paterson era a conoscenza di un dialetto del CP/M utilizzato dai computer personali Cromenco, come pure dei sistemi operativi offerti dalla Northstar e da qualche altra discendente dell'Altair. Un po' di influenza la ebbe anche un manuale del CP/M, anche se Paterson non ebbe modo di accedere al codice sorgente del CP/M. Un'altra influenza l'esercitò una versione avanzata del BASIC della Microsoft che supportava anche la memorizzazione sui dischi, il che probabilmente portò all'utilizzo da parte dello MS-DOS della tabella di assegnazione dei file per tener traccia dei dati su un disco. L'86-DOS sfruttava di fatto le stesse chiamate di funzione interne del CP/M; in effetti, utilizzava gli indirizzi e le convenzioni dell'8086 che l'Intel aveva reso pubbliche nella documentazione del chip, per rendere più agevole l'esecuzione sul nuovo microprocessore di programmi scritti per l'8080. Utilizzava i comandi "Type", "Rename" ed "Erase". Lo MS-DOS riprese dal CP/M anche il concetto del BIOS, che gli consentiva di girare su computer di fabbricanti differenti con modifiche relativamente modeste. Vale la pena di ricordare le differenze fra il CP/M e lo MS-DOS, dal momento che aiutano a spiegare il successo di quest'ultimo. Alcune modifiche furono relativamente minori: il criptico comando universale PIP fu cambiato usando termini più prosaici come "Copy"; ciò rese lo MS-DOS più accessibile a una nuova generazione di utenti del computer, ma recise il collegamento storico con la Digital Equipment Corporation, il cui software era il vero antenato dei sistemi di personal computer. La sintassi del CP/M prevedeva che il primo argomento indicasse la destinazione e il secondo l'origine; questo fu ribaltato in qualcosa che sembrasse più naturale alla maggior parte delle persone. (Questa sintassi CP/M era utilizzata anche dal codice assemblatore dell'Intel e dall'assembler del System/360 IBM.) Tra i miglioramenti più significativi c'era la capacità dello MS-DOS di indirizzare spazi di memoria maggiori, una conseguenza del chip Intel per il quale era stato scritto. Lo MS-DOS utilizzava una tabella per l'assegnazione dei file: il CP/M si serviva di un metodo meno sofisticato. Venne eliminata la fastidiosa caratteristica del CP/M di esigere il riavvio del sistema se si inseriva un disco sbagliato nell'unità. Questo errore provocava in MS-DOS un messaggio "Abort, Retry, Fail?". Questo messaggio in seguito sarebbe stato citato come esempio della ruvidità dell'interfaccia utente dello MS-DOS, ma chi lo affermava probabilmente non si era mai trovato di fronte al messaggio "Warm Boot" del CP/M, che era molto peggio e talvolta dava proprio la sensazione di aver ricevuto un calcio da uno stivale (boot) vero e proprio. Parecchie caratteristiche potrebbero essere state ispirate dall'UNIX, per esempio, la versione 2, che consentiva agli utenti di memorizzare un file su disco in una struttura gerarchica ad albero articolata in directory e sottodirectory. Tim Paterson in seguito dichiarò che aveva avuto l'intenzione di incorporare il multitasking nel DOS, ma "loro [Microsoft] avevano bisogno di avere qualcosa davvero in fretta". Il software di sistema, sia per i mainframe o per i personal computer, a quanto risulta ha sempre richiesto "mitici mesi uomo" per crearlo, ha sempre sforato i budget ed è sempre stato gravato da pesanti strati di codice inefficiente. Il lavoro iniziale di Tim Paterson sull'86-DOS richiese circa due mesi e il codice occupava soltanto 6 K. Lo MS-DOS fu, ed è, il risultato di un abile lavoro di programmazione. Fu il punto di arrivo delle idee sull'utilizzo interattivo del computer che erano iniziate con il TX-0 al MIT. Aveva le sue lacune, alcune magari serie, ma quelli che sostengono che il successo dello MS-DOS sia dipeso soltanto dalla scaltrezza di Bill Gates o dalla circostanza che Gary Kildall stava volando col suo aeroplano quando i rappresentanti dell'IBM vennero a cercarlo, hanno torto. | << | < | > | >> |Pagina 350World Wide Web, MosaicÈ difficile discutere del World Wide Web senza sentirsi investiti dalla sensazione che sia il culmine di tutti gli sviluppi verificatisi nel mondo dell'informatica a partire dal Rapporto EDVAC di von Neumann del 1945. Oppure è forse il punto di arrivo dei progressi avvenuti nella comunicazione dopo l'invenzione della stampa con caratteri mobili? O magari dopo l'invenzione della scrittura? Scegliete un po' voi. Presentare una storia del World Wide Web, il cui codice iniziale venne scritto nel 1990, sarà molto più difficile che scrivere sui primi tempi dell'informatica. Gli storici evitano di scrivere del passato più recente per molte buone ragioni. Che cosa penserebbero i lettori di una storia che si concludesse con l'affermazione che il culmine di tutta la storia dei computer è stato il Gopher? Al tempo stesso, il Web attrae gli storici proprio perché le sue radici sono così profonde. Attrae anche per il modo in cui illustra un tema centrale di questa esposizione: come l'informatica a volte progredisca in base a eventi casuali. Abbiamo visto che l'informatica è stata animata a volte dalla capacità immaginativa, dall'energia e dalla determinazione di inventori come Eckert e Mauchly, che hanno fatto concretizzare il futuro quasi con la sola forza della loro volontà. In altri periodi i suoi progressi sono stati provocati da episodi accidentali, come per esempio l'introduzione dell'Altair da parte di un negozio di modellismo per hobbysti ad Albuquerque. Lo sviluppo del World Wide Web contiene elementi di casualità e di pianificazione al tempo stesso. Venne inventato in un luogo imprevisto e totalmente inatteso: il laboratorio CERN di fisica delle alte energie, sul confine fra Francia e Svizzera. Non provenne dai laboratori di ricerca di IBM, Xerox e neppure di Microsoft, e non arrivò neanche dal famoso Media Lab del MIT, che dichiarava con grande fanfara che il suo obiettivo primario era quello di trasformare il mondo tramite l'integrazione di computer e comunicazioni. Eppure, il concetto fondamentale del Web, strutturare informazioni in forma di "ipertesti", risale a un saggio che ebbe una grande influenza scritto da Vannevar Bush nel 1945, che parlava dell'imminente ingorgo delle informazioni e di come si sarebbe potuto applicare la tecnologia per gestirlo. Il saggio di Bush influenzò le successive generazioni di ricercatori nel settore dei computer. Due di loro sono stati ricordati nei capitoli precedenti: Doug Engelbart, che diede una dimostrazione di un prototipo di sistema per il reperimento delle informazioni alla Fall Joint Computer Conference del 1968, e Ted Nelson, l'autore di Computer Lib/Dream Machines, creatore di un sistema simile chiamato Xanadu. Nel manifesto che pubblicò a sua spese, Nelson definì gli "ipertesti" come "forme di scrittura che si diramano o danno prestazioni a richiesta; si possono rappresentare al meglio sugli schermi dei computer". Nelson elogiò l'On-Line System (NLS) di Engelbart ma osservò che Engelbart credeva nell'opportunità di organizzare rigidamente le informazioni in formati strutturati gerarchicamente. Nelson desiderava qualcosa che si avvicinasse di più al concetto originario di Vannevar Bush, che secondo le speranze dello stesso Bush avrebbe replicato la capacità della mente di compiere associazioni che travalicano i confini tra gli argomenti. Nelson lavorò senza tregua per tutti gli anni Settanta e Ottanta per dar vita allo Xanadu. Fu sempre vicino, ma senza farne parte, alla comunità accademica e di ricerca, e le sue idee ispirarono il lavoro svolto alla Brown University sotto la guida di Andries van Dam. Indipendentemente da questi ricercatori, la Apple presentò nel 1987 un programma chiamato HyperCard per il Macintosh. L'HyperCard implementava soltanto una piccola parte dei concetti di ipertesto come li avevano intesi van Dam o Nelson, ma era semplice, facile da usare e facile da programmare persino per un novellino. Pur con tutti i suoi limiti, l'HyperCard portò fuori dall'ambiente dei laboratori i concetti di testo e di grafica non lineari. Nel mezzo di tutto questo sbocciò rigoglioso il fenomeno Internet, con una subitanea e inattesa necessità di un modo per navigare fra le sue ricche e sempre crescenti risorse. È ancora troppo presto per scrivere la storia di quel che accadde dopo. Tim Berners-Lee, che scrisse il prototipo originale del Web alla fina del 1990, ha pubblicato un breve resoconto di quel periodo, ma la vicenda nel suo complesso resta ancora da raccontare. Berners-Lee sviluppò il Web mentre lavorava al CERN, il laboratorio europeo di fisica delle particelle. Egli affermò che "l'obiettivo principale del Web era quello di essere uno spazio di informazioni condivise attraverso il quale potessero comunicare uomini e macchine. Questo spazio doveva essere inclusivo piuttosto che esclusivo". Ciò che più lo interessava era consentire la comunicazione attraverso computer e software di tipi differenti. Desiderava anche evitare la struttura della maggior parte dei database, i quali costringevano le persone a mettere le informazioni in categorie prima di sapere se tali classificazioni fossero appropriate oppure no. A questo scopo concepì uno Universal Resource Identifier (in seguito chiamato Uniform Resource Locator o URL) che potesse "puntare su qualsiasi documento (o qualunque altro tipo di risorsa) nell'universo delle informazioni". Al posto del File Transfer Protocol allora in uso, creò un più sofisticato Hypertext Transfer Protocol (HTTP) che era più veloce e aveva un maggior numero di funzionalità. Infine, definì un linguaggio, lo Hypertext Markup Language (HTML) per il trasferimento di ipertesti attraverso la rete. Nel giro di pochi anni queste abbreviazioni, insieme con WWW per indicare il World Wide Web in sé, sarebbero diventate comuni come RAM, K o qualunque altra espressione gergale nel campo dei computer. Il World Wide Web prese il via piuttosto lentamente. La sua caratteristica distintiva, l'abilità di saltare a risorse differenti tramite collegamenti ipertestuali, serviva a poco finché non vi fossero stati almeno un po' di altri posti oltre al CERN che lo sostenessero. Fino a quando non vennero scritti software specializzati a questo scopo, gli utenti dovettero costruire manualmente i collegamenti in un documento, un processo davvero tedioso. Per visualizzare i materiali contenuti nel Web si utilizzava un "browser" (il termine potrebbe essere nato con l'uso della HyperCard della Apple). I browser Web (compresi due chiamati Lynx e Viola) presentavano schermate molto simili a quelle del Gopher, con un elenco di menu da selezionare. Intorno all'autunno del 1992 Marc Andreessen ed Eric Bina iniziarono a discutere su come rendere più facile la navigazione nel Web. Mentre era ancora studente alla Universitv of Illinois, Andreessen fu assunto come programmatore al National Center for Supercomputing Applications, un centro creato nel campus con fondi della NSF per rendere più agevole l'utilizzo dei supercomputer (si veda la spinta iniziale per arrivare all'ARPANET). Arrivati al gennaio del 1993, Andreessen e Bina avevano scritto una delle prime versioni di un browser che in seguito avrebbero chiamato Mosaic e ne rilasciarono una versione tramite Internet. Mosaic coniugava la facilità d'uso della HyperCard con le capacità ipertestuali del World Wide Web. Per selezionare le voci si usava il mouse (chiudendo così il cerchio con Doug Engelbart, che lo aveva inventato per quello scopo). Si capiva che una voce aveva un collegamento ipertestuale perché era di colore diverso. Una seconda caratteristica del Mosaic, quella che più colpì le persone che lo utilizzarono per prime, era la sua perfetta integrazione fra testi e immagini. | << | < | > | >> |Pagina 354ConclusioneFin dal 1945, l'informatica non è mai stata stagnante e gli anni Novanta non furono un'eccezione. L'emergere della Internet fu l'episodio di maggior rilievo di quegli anni, che videro anche il consolidarsi dell'uso dei computer da tavolo negli uffici. Queste macchine raggiunsero un punto di equilibrio basato sugli standard Intel, DOS, Macintosh e UNIX che erano stati inventati in anni precedenti. La maggior parte degli uffici utilizzava i personal computer per la scrittura, i fogli di lavoro e i database; le uniche nuove aggiunte erano le comunicazioni rese possibili dalle reti locali. Emerse una nuova classe di computer chiamati laptop (in seguito, quando si ridussero ulteriormente di peso, divennero notebook), ma erano funzionalmente simili ai PC, anzi venivano pubblicizzati come compatibili col software che si trovava nelle macchine da scrivania. Le decisioni di fondo prese in termini di architettura nei tardi anni Settanta, compresa la scelta di un microprocessore e della struttura di un sistema operativo per i dischi, perdurarono (con il RISC che costituiva una piccola ma significativa eccezione). L'utilizzo delle reti rappresentò per alcuni una potenziale modifica concettuale nell'utilizzo dei computer, ma nel 1995 non rimpiazzò il concetto di un computer autonomo e universale su ciascuna scrivania. Nella misura in cui il World Wide Web matura, sostengono alcuni, ai consumatori sarà sufficiente un semplice elettrodomestico Internet — una reincarnazione del terminale stupido — non un PC universale. Ma i numerosi esempi citati in questo studio — il 650 e il 1401 IBM, il PDP-8, l'Apple II — vanno tutti a sostegno della tesi che il mercato sceglierà ogni volta un buon computer universale a un costo contenuto. La storia più rilevante degli anni Novanta fu quella dell'Altair: come un kit di montaggio da 400 dollari, pubblicizzato sulla copertina di Popular Electronics, riuscì a far crollare le poderose case di IBM, Wang, UNIVAC, Digital e Control Data. L'IBM riuscì a malapena a passare il guado, con il suo personal computer, ma la sua incapacità di dare un seguito alla testa di ponte che aveva stabilito condusse a perdite di esercizio di parecchi miliardi di dollari fra il 1991 e il 1993. Gli utili generati dai personal computer andarono sempre più a nuove società quali Dell, Compaq e più di tutte la Microsoft. L'IBM si riprese, ma soltanto dopo aver abbandonato la sua politica di non ricorrere mai a licenziamenti (e che aveva mantenuto anche nel corso degli anni Trenta) e quando emerse da quella crisi trovò la Microsoft al centro della scena. Persino la American Federation of Information Processings Societies (AFIPS), l'organizzazione di categoria che raggruppava tutte le società del settore, scomparve il 31 dicembre del 1990. Naturalmente non fu soltanto l'Altair da 400 dollari che cambiò il mondo dei computer. Anche DEC e Data General diedero il loro contributo, ma nessuna delle due riuscì a costruire sulle fondamenta che aveva gettato. Si possono capire gli insuccessi dell'IBM, con la sua tradizione di elaborazione a lotti con schede perforate e le sue permanenti battaglie giudiziarie contro querelanti che l'accusavano di essere troppo grande. Non è altrettanto facile capire come le società di minicomputer della Route 128 non siano riuscite a passare alla nuova era. Eppure erano le stesse società che erano state pioniere nelle architetture dei processori e dei bus, nel ridurre le dimensioni delle macchine, nell'utilizzo interattivo e nei bassi costi unitari. Sotto la guida del generale Doriot della Harvard Business School erano anche state le prime a fare qualcosa che sarebbe diventato un aspetto caratterizzante della Silicon Valley: avviare una società basata sulla tecnologia attirando il capitale di ventura. La Netscape generò un interesse così elevato nel pubblico proprio perché dimostrò che questa tradizione era ancora viva. Sembrò persino possibile che questa società, fondata per sfruttare un modello di utilizzo dei computer basato su Internet, potesse riuscire a fare alla Microsoft ciò che la Microsoft aveva fatto a DEC, IBM e altre che erano state fondate su modelli di uso del computer precedenti e ormai superati. Nel 1995 Digital e Data General erano ancora in affari, sebbene entrambe in difficoltà e con dimensioni molto ridotte. Il declino della Data General iniziò nei primi anni Ottanta, proprio quando il libro di Tracy Kidder, The Soul of a New Machine, divenne uno dei primi libri sul settore dei computer a entrare nella lista dei bestseller. Quel libro faceva la cronaca del tentativo di Data General di battersi contro il VAX e di riprendersi la leadership nei minicomputer. Rendeva molto bene la giovinezza, l'energia e le pulsioni che caratterizzavano il business dei computer e rimane ancora oggi un'accurata descrizione di quel mondo. Non disponendo allora della chiarezza che ci è consentita oggi dal senno di poi, la Kidder non accennò a come la Nova di Data Generai, la "macchina pulita", ispirò i progettisti dei computer personali, compresi Ed Roberts e Steve Wozniak. Forse qualcuno alla Data Generai potrebbe aver raccomandato una strategia alternativa: ignorare il VAX e concentrarsi invece sui piccoli sistemi che la società aveva contribuito a far nascere. Se pure è accaduto, il libro della Kidder non ne fa menzione. Nel 1992 Ken Olsen lasciò la direzione della Digital, mentre la società che aveva fondato stava andando verso il fallimento. Un servizio giornalistico metteva a contrasto Olsen e una stanca DEC con il giovane Bill Gates e una vibrante Microsoft. Pochi avvertirono l'ironia di quel confronto. Gates aveva imparato a programmare su un PDP-10 e qui abbiamo visto l'influenza della DEC sul software della Microsoft. C'è di più: era stata la Digital Equipment Corporation a mettere in moto le forze che avevano reso possibile una società come la Microsoft. Qualcuno ha detto che se non fosse stato per Olsen noi staremmo ancora qui a programmare con le schede perforate. Potrebbe sembrare una generosa esagerazione, provocata da un impulso di simpatia; in realtà, gli si può accreditare questo e molto di più. L'informatica moderna è la storia di come l'idea della "simbiosi uomo-macchina" nei termini di J. C. R. Licklider, sia diventata realtà. Ciò avvenne grazie agli impulsi di persone come lo stesso Licklider, di Doug Engelbart, Ted Hoff, Ed Roberts, Steve Jobs, Steve Wozniak, Bill Gates, Gary Kildall, Tim Berners-Lee e molti altri. A quell'elenco, forse tra i primi, andrebbe aggiunto il nome di Ken Olsen. La "distruzione creativa" del sistema capitalistico aveva prodotto meraviglie, ma il processo non fu né razionale né equo. | << | < | > | >> |Pagina 401Conclusione: la digitalizzazione dell'immagine del mondoFra il 1945 e il 2002 il computer si è trasformato più e più volte, ogni volta ridefinendo la propria essenza. "Il computer" cominciò come una veloce calcolatrice scientifica; Eckert e Mauchly lo trasformarono in UNIVAC, una macchina per l'elaborazione universale di dati. Ken Olsen ne fece un elaboratore in tempo reale che lavorava in simbiosi con i suoi utenti. Ed Roberts lo trasformò in un dispositivo che chiunque poteva possedere e usare. Steve Jobs e Steve Wozniak lo fecero diventare un elettrodomestico che era al tempo stesso utile e divertente. Gary Kildall e William Gates lo trasformarono in una piattaforma standard che poteva eseguire una cornucopia di software commerciale venduto in negozi al dettaglio. Bob Metcalfe, Tim Berners-Lee e altri l'hanno fatto diventare una finestra su una rete globale. Ciascuna trasformazione è stata accompagnata da affermazioni che ulteriori trasformazioni erano improbabili eppure ogni volta qualcuno è riuscito a sfondare la barriera. La trasformazione più recente, quella verso il World Wide Web, venne anch'essa preceduta da dichiarazioni che il settore industriale dei computer stava ristagnando, che, per parafrasare un venditore di software, "non c'erano più frutti pendenti a portata di mano". Aveva torto e quanti prevedono che il World Wide Web sia la stazione d'arrivo finale e definitiva dell'informatica avranno senza dubbio torto anche loro. Verso la metà degli anni Novanta i personal computer erano diventati un bene di consumo, dando al software commerciale la possibilità di portarsi in primo piano come il luogo centrale dove l'innovazione veniva convogliata agli utenti. La disposizione a strati del software, un processo che iniziò con i primi meccanismi di "codifica automatica" sviluppati per l'UNIVAC, è andata avanti. Quello era l'unico modo per allargare il mercato per includervi gli utenti che non avevano l'inclinazione o il talento necessari per scrivere programmi. Ancora una volta, a ogni progresso del software, si è sentito dire che "la fine della programmazione" era arrivata, che "chiunque" adesso avrebbe potuto far fare a un computer quello che voleva. A mano a mano che si sono aperti nuovi mercati, questa fine si è dimostrata elusiva. Le difficoltà che molte persone hanno anche solo a programmare un videoregistratore è un piccolo ma concreto esempio del problema: far fare a un computer quello che vogliono gli utenti resta difficile come sempre e richiede talento, duro lavoro e un forte impegno degli sviluppatori ad affrontare le necessità degli utenti.
La facilità d'uso che l'interfaccia del Macintosh portò all'uso
personale dei computer, e che Microsoft copiò con Windows, ha
prodotto un nuovo insieme di frustrazioni. Gli utenti oggi si trovano davanti
interfacce sovrapposte a queste interfacce, che dovrebbero rendere l'uso dei
computer più facile. In realtà rendono le cose più difficili. Non c'è dubbio che
il processo continuerà. L'anno 2001 è arrivato ed è passato ma non ha portato
con sé una realizzazione del computer intelligente HAL, la stella del film di
Stanley Kubrik
2001: Odissea nello spazio.
Molte persone uscirono dopo aver visto quel film pensando che il problema di HAL
era di essere andato un po' fuori controllo; ma, vedendolo meglio, il film ci fa
capire che il vero problema di HAL era che funzionava perfettamente. Si ruppe
perché stava cercando di obbedire a due istruzioni
fra loro in conflitto che erano parte della sua programmazione: obbedire agli
umani a bordo, ma nascondendo loro la vera natura della loro missione. Se
dovesse mai apparire una versione reale di un'interfaccia intelligente simile a
HAL, probabilmente non sarà robusta e affidabile come quella della fantasia.
La digitalizzazione dell'immagine del mondo Nel 1948 uscì un libro dal titolo provocatorio La meccanizzazione dell'immagine del mondo. L'autore, un fisico olandese di nome E. J. Dijksterhuis, sosteneva che la storia si può capire nel modo migliore considerando il progressivo affermarsi della visione "meccanicista" del mondo che iniziò con i greci e culminò nell'opera di Isaac Newton. Il lavoro di Dijksterhuis trovò il favore di una vasta platea di lettori che avevano sperimentato la potenza e gli orrori di una visione meccanicista del mondo dopo sei anni di guerra mondiale. Ci volle un millennio e mezzo perché si affermasse una visione meccanicista, ma c'è voluto meno tempo – circa cinquant'anni – perché si affermasse una visione altrettanto rivoluzionaria. La "digitalizzazione dell'immagine del mondo" iniziò verso la metà degli anni Trenta in un angolo oscuro della matematica. La "macchina" di Alan Turing, presentata in un articolo scientifico nel 1936, era una costruzione teorica. L'invenzione del computer elettronico a programma registrato diede vita a questa idea e la rese persino più reale di quanto egli non ritenesse possibile. I decenni successivi videro un campo dopo l'altro conquistato, assorbito o trasformato dal computer come se questo fosse un solvente universale. Un numero speciale della rivista di settore Electronics nell'ottobre del 1973 parlava della "Grande espugnazione", di come i tradizionali circuiti elettronici analogici venivano rimpiazzati da computer digitali in miniatura programmati per emularli; nella maggior parte delle radio comuni, per esempio, la manopola della sintonia era stata eliminata a partire dal 1973 e la sintonia si cercava mediante tastierine digitali. Dieci anni dopo, il settimanale Time proclamò il computer "Macchina dell'anno" per il 1983, con il titolo di apertura: "Il computer entra in scena". La manifestazione più recente di questa espugnazione è Internet, acclamata dall'intero spettro politico e sociale, da Newt Gingrich ad Al Gore, a Stewart Brand, al defunto Timothy Leary, alla "Generation X" e a tanta altra gente fra queste polarità. Quasi tutti parlano di un matrimonio fra comunicazione e computer. Le prove che qui abbiamo presentato suggeriscono qualcosa di diverso: che Internet rappresenta semplicemente ancora un'altra espugnazione, da parte del computer digitale, di un'attività (le telecomunicazioni) che ha avuto una lunga storia basata su tecniche analogiche. Coloro che con tanto entusiasmo descrivono il World Wide Web come il culmine di un prologo durato cinquant'anni o non conoscono la storia o l'hanno dimenticata. Queste stesse affermazioni vennero fatte quando si installarono i primi UNIVAC, quando comparvero i minicomputer e il time-sharing e quando nacque il computer personale. (Figura C.1) Non sarà questa l'ultima volta che si dicono parole del genere. Ma le promesse di una Utopia tecnologica sono state frequenti nella storia americana e almeno alcuni fra i paladini di Internet sono ben consapevoli di quanto ingenue fossero quelle prime visioni. La Silicon Valley ha alcune delle autostrade più congestionate del paese, in quanto la gente si sposta da casa al lavoro con una tecnologia che Henry Ford aveva inventato per ridurre la congestione urbana. La maggior parte della gente comincia a rendersi conto del fatto che l'automobile non mantenne molte delle promesse di Ford semplicemente perché ebbe troppo successo. La parola "smog" si insinuò nella lingua inglese intorno all'epoca della morte di Ford, nei tardi anni Quaranta; "ingorgo", "centro commerciale" e "periferie dormitorio" vennero dopo. Quali equivalenti descriveranno il lato oscuro dell'informatica digitale in rete? E tutti quegli "effetti collaterali" diventeranno palesi soltanto quando saranno passati cinquant'anni da oggi, come è accaduto per l'automobile? Possiamo anticiparli prima che sia diventato troppo tardi o troppo difficile per gestirli? Ciascuna trasformazione dei computer digitali è stata animata da persone che avevano una concezione idealistica secondo la quale l'uso dei computer nella loro nuova forma avrebbe avuto l'effetto di una forza liberatrice capace di raddrizzare molte delle storture create dalla ciminiere della "seconda ondata", per usare l'espressione di Alvin Toffler. Le installazioni degli UNIVAC erano accompagnate da luminose previsioni che l'automazione" da loro generata avrebbe portato a una riduzione della settimana lavorativa. Nella metà degli anni Sessanta gli entusiasti e gli hacker videro nel PDP-10 e nel PDP-8 le macchine che avrebbero liberato l'informatica dai tentacoli della piovra IBM. L'Apple II rifletteva le visioni utopiche che circolavano nella baia di San Francisco nei primi anni Settanta. E così sarà per l'accesso universale alla rete Internet.
In ciascun caso, il futuro si dimostrò più complesso e meno rivoluzionario
di quello che avevano immaginato i suoi proponenti.
L'UNIVAC non risolse il problema della disoccupazione. I personal computer non
misero le persone comuni alla pari di quelle in
posizioni di potere. Trovarono, è vero, un mercato che superò tutte le
aspettative, ma negli uffici e non nelle case, come strumenti
che aiutavano le funzioni nel posto di lavoro aziendale. Guardando al panorama
inquinato e decaduto delle vecchie aree industriali
degli anni Settanta, i giovani programmavano i loro personal computer per
tratteggiare un panorama intermedio, che dava ai suoi
abitanti i vantaggi dell'industrializzazione senza alcuno dei suoi
inconvenienti. Ma i problemi sociali del mondo esterno rimanevano.
L'Utopia restava all'interno degli schermi dei computer e si rifiutava
caparbiamente di venire fuori. I modelli fatti col computer si
trasformarono in "realtà virtuale", una nuova variante delle droghe per
l'espansione della mente tanto in voga negli anni Sessanta.
Timothy Leary sostenne che la realtà virtuale era più efficace dello
LSD nel riportare gli umani nel Giardino dell'Eden. Finora non è
accaduto e forse è un bene, dato il livello di pensiero che caratterizza molte
visioni di quella che dovrebbe essere l'Utopia digitale.
Abbiamo visto che forze politiche e sociali hanno sempre orientato la direzione dell'informatica digitale. Oggi, con l'informatica che è entrata a far parte delle tecnologie che definiscono la società americana, quelle forze sono sempre più esplicite e oggetto di pubbliche discussioni. Sono i politici e i giudici, nella stessa misura degli ingegneri, che decidono dove si debbano costruire autostrade e ponti, quale società debba erogare a una regione i servizi telefonici e quanta concorrenza una società che fornisce energia elettrica debba avere. Questi legislatori e giuristi si affidano a lobbysti industriali o a specialisti dei loro staff per orientarsi nelle dimensioni tecniche delle loro scelte politiche. Ogni volta, nuove tecnologie (come per esempio le trasmissioni televisive satellitare) sconvolgono i loro piani. Ma ciò non arresta il processo né sposta le sedi delle decisioni fuori da questi centri. I computer e l'informatica in genere non sono diversi. L'idea che siano i politici a dirigere la tecnologia è ancora qualcosa che disgusta i pionieri dei computer, molti dei quali sono ancora vivi e conservano un vivido ricordo di come abbiano superato sfide tecniche e non politiche. Ma quando una tecnologia diventa integrata nelle questioni della normale vita di tutti i giorni, deve prendere atto della politica. Alcuni gruppi, come ad esempio la Electronic Frontier Foundation (fondata da Mitch Kapor), lo fanno, cercando di identificare gli equivalenti digitali di "smog" e "ingorgo". Ma storicamente gli Stati Uniti hanno sempre promosso il più rapido dispiegamento possibile delle tecnologie, lasciando che fossero le generazioni future a gestire le conseguenze. Non sorprende, quindi, che i tentativi di regolamentare o controllare i contenuti della Internet siano stati finora goffi e siano falliti. Come tutto questo si concluderà resta da vedere. Un secolo e mezzo fa Henry David Thoreau osservava con sospetto l'aspetto tecnofilo del carattere americano. Le ferrovie erano la tecnologia più avanzata del suo tempo, ma lui non condivideva l'entusiasmo del pubblico per la ferrovia di Fitchburg, i cui binari correvano dietro lo stagno Walden. "Non siamo noi che andiamo sulla ferrovia: è lei che ci viene addosso", diceva. Ciò di cui la nazione ha bisogno è "una dura e più che spartana semplicità della vita". Poche miglia a ovest della capanna di Thoreau, la ferrovia di Fitchburg costruì un ramo per servire i Mulini Assabet, che al tempo della guerra civile erano uno dei maggiori produttori di manufatti di lana della nazione. Un secolo dopo quegli stessi mulini avrebbero inondato la terra di PDP-8. Vien fatto di chiedersi che cosa ne avrebbe fatto Thoreau di questa connessione. Avrebbe colto l'occasione per impostare la sua home page sullo stagno di Walden per far sapere agli altri che cosa stava facendo? O avrebbe continuato ad affidarsi alle matite che si faceva da solo?
Noi abbiamo creato il computer per farci servire. L'idea che potrebbe
diventare il nostro padrone è stato argomento di fantascienza per decenni, ma è
stato sempre difficile prendere sul serio storie
del genere quando ci volevano sforzi eroici per far fare a un computer le cose
più elementari. Ora che cominciamo ad accettare il
World Wide Web come una parte naturale della nostra esistenza
quotidiana, forse è arrivato il momento di rivisitare la questione
del controllo. La mia speranza è che, provvisti di un po' di comprensione della
storia e animati da una piccola dose di scetticismo alla Thoreau, possiamo
imparare a usare il computer invece di consentirgli di usarci.
|