|
|
| << | < | > | >> |IndicePrefazione 3 Introduzione — Gli uomini dietro le macchine 5 I pionieri del calcolo meccanico 19 Dall'ambra al chip: storia dell'elettronica 28 Il figlio della tempesta 38 L'algebra della logica e la teoria dell'informazione 51 "Rompicodici" e Macchine Universali 56 I dinosauri dell'informatica 64 Hacker e videogiochi 71 L'era del personal computer 79 "Topi" e "finestre" 93 Il garage più famoso del mondo 101 Crittografia e privacy 108 Il telegrafo tra scienza e avventura 120 L'invenzione del telefono 133 Dallo Sputnik al ciberspazio 145 I primi vent'anni della rete 159 Le "bacheche elettroniche" degli anni '80 172 Unix, il "figlio ribelle" del '69 183 GNU/Linux e il "Software Libero" 192 La ragnatela grande come il mondo 202 Postfazione 220 Bibliografia Commentata 227 |
| << | < | > | >> |Pagina 2| << | < | > | >> |Pagina 9Un altro luogo comune da sfatare è la diffusa convinzione che la linea di sviluppo dell'elettronica, dell'informatica e delle telecomunicazioni sia stata determinata unicamente da considerazioni di carattere tecnico-scientifico. In realtà il percorso che porta una tecnologia a entrare nella vita quotidiana di migliaia di persone, si intreccia anche con complessi meccanismi sociali e culturali. La storia della scienza è costellata da scoperte e invenzioni che si sono affermate solamente quando la società e la cultura accademica del tempo sono state in grado di apprezzare la portata e i benefici dei nuovi paradigmi e delle nuove visioni tecnologiche che accompagnavano ogni innovazione. Nessuna conquista è puramente scientifica, ma porta con sé anche un approccio culturale, una visione del mondo e una prospettiva rivoluzionaria che si intrecciano inevitabilmente con la novità tecnica, e che rendono ogni invenzione assolutamente inutile se non trova un contesto sociale e culturale pronto ad accogliere questa nuova scoperta e a farla propria.Sono molti gli esempi di tecnologie disadattate che hanno dovuto aspettare anni per diventare un patrimonio collettivo della comunità scientifica. Il calcolo meccanico di Charles Babbage , ad esempio, è stato considerato per molte decadi come la stravaganza di un matematico eccentrico, fino a quando, centosettant'anni più tardi, la tecnologia meccanica si è evoluta al punto da dimostrare che il pensiero di Babbage era solamente troppo avanzato per la sua epoca. Perfino una tecnologia abbastanza recente come la commutazione di pacchetto, che oggi è alla base di tutte le moderne reti telefoniche, dei sistemi di trasmissione dati e della stessa Internet, è rimasta chiusa per anni nel cassetto dei suoi inventori, Paul Baran e Donald Davies. Anche in questo caso una visione scientifica troppo avanzata per l'epoca in cui è stata concepita si è scontrata con l'inerzia culturale delle grandi compagnie telefoniche, ancora incapaci di concepire un mondo nel quale la voce viene trasformata in cifre binarie e spezzettata in tanti piccoli pacchetti di dati. Anche dopo l'adozione ufficiale di una tecnologia, il suo percorso di crescita e sviluppo non è univocamente determinato, e viene guidato anche da fattori esterni di tipo ambientale, sociale e culturale. Dopo la fase della scoperta, aperta dai pionieri e successivamente affidata alla comunità scientifica, è la società ad appropriarsi delle invenzioni ed è nella società che nascono, e spesso si scontrano, diverse visioni e interpretazioni della tecnologia, viziate da condizionamenti politici e commerciali. È per questo che oggi lo studio delle tecnologie dell'informazione e della loro evoluzione storica non può prescindere dallo studio del contesto culturale nel quale queste tecnologie nascono e si sviluppano, e non si può parlare di informatica senza interrogarsi sui benefici e gli svantaggi dei due approcci culturali e filosofici che stanno attualmente guidando lo sviluppo tecnologico: il modello "proprietario" e il modello "libero". Questi modelli di sviluppo e di ricerca sono caratterizzati da un approccio diametralmente opposto a questioni delicate e cruciali come il copyright, i brevetti e i diritti di sfruttamento economito delle invenzioni. Il modello proprietario è caratterizzato dall'applicazione al mondo delle idee, della cultura e delle opere dell'ingegno di un concetto base dell'economia tradizionale: il valore di un bene è determinato dalla sua scarsità. L'applicazione di questo principio economico a beni immateriali come un algoritmo, una sequenza di note musicali o un protocollo di comunicazione tra computer ha come conseguenza una visione repressiva del copyright, la tassazione di ogni forma di utilizzo o duplicazione delle opere dell'ingegno, e un lavoro incessante di monitoraggio e controllo per reprimere e sanzionare qualunque utilizzo di questi beni immateriali a cui non corrisponda un immediato vantaggio economico per i loro inventori. A questa visione economicista della scienza se ne contrappone un'altra, basata su un concetto completamente diverso: nella società dell'informazione il valore di un bene immateriale, concettuale o artistico è determinato dalla sua diffusione. Un libro, un brano musicale, un programma, un protocollo di comunicazione hanno un valore proporzionale al numero di persone che conoscono e utilizzano quel testo, quella musica, quel programma o quel protocollo. Un brano bellissimo di un musicista sconosciuto vale meno di un pezzo meno bello, ma scritto da un artista famoso in tutto il mondo, e questo ragionamento si potrebbe estendere a qualunque forma di valore immateriale. Applicando questo principio cade la necessità di tassare ogni forma di distribuzione delle opere dell'ingegno, perché la condivisione di arte e conoscenza, anche quando avviene in forma spontanea o gratuita, è un ottimo sistema, e probabilmente il migliore, per produrre vantaggi che vanno a beneficio degli autori e al tempo stesso ricadono su tutta l'umanità. La libera circolazione delle idee non è solo un approccio etico per le persone che considerano la libertà più importante del profitto, ma anche un metodo pragmatico molto efficace, che può produrre una cultura libera dove gli interessi degli autori non vengono messi in conflitto con gli interessi della collettività. È una specie di "gioco culturale" senza perdenti, dove tutti possono vincere a condizione che venga bandita l'avidità e l'accaparramento, un insieme di buone pratiche sociali che danno valore (non necessariamente economico) ad una creazione artistica o intellettuale, promuovendo le buone idee senza ingabbiarle. È questo l'approccio culturale e filosofico che ha permesso lo sviluppo esponenziale di Internet e di tutti i protocolli, servizi e tecnologie che oggi utilizziamo quotidianamente per l'interconnessione su scala geografica dei computer e per la posta elettronica, la navigazione ipertestuale o lo scambio di file. Se oggi dovessimo pagare un centesimo in diritti d'autore per ogni volta che usiamo la "chiocciolina" in un messaggio di posta elettronica, consultiamo a distanza un documento attraverso il protocollo HTTP o pubblichiamo in rete un ipertesto secondo gli standard che definiscono il linguaggio HTML, probabilmente al mondo ci sarebbe qualche milionario in più, ma avremmo un'Internet molto più povera di informazioni, meno diffusa e meno frequentata, e questo sarebbe un grosso danno anche per i milionari. Nel descrivere la nascita e lo sviluppo dei sistemi operativi Unix e GNU/Linux, di Internet e dei moderni sistemi telematici che hanno trasformato i nostri computer in uffici postali, biblioteche domestiche, jukebox e cineteche, è stato inevitabile riflettere sulle scelte etiche di persone che non hanno cercato un immediato interesse economico chiedendosi: "come posso guadagnare qualcosa ogni volta che la mia idea verrà messa in pratica?", ma hanno consegnato al mondo le loro innovazioni scientifiche domandandosi solamente: "come posso creare un servizio nuovo e utile a beneficio della comunità informatica mondiale?". Rispondendo a questa domanda, molti "padri della rete" e sviluppatori di software libero hanno incidentalmente incontrato anche un lavoro interessante e un alto tenore di vita. Fortunatamente le loro energie non erano concentrate sul profitto, ma sulla produzione di nuovi strumenti tecnici e cognitivi, che hanno avuto come primi utenti e beneficiari gli stessi creatori di questi strumenti. Questo modello di sviluppo potrebbe conoscere il suo declino il giorno in cui verrà sviluppato il primo protocollo di Internet proprietario, che obbligherà al pagamento di una royalty gli utenti che utilizzeranno i servizi associati ai nuovi standard di comunicazione e chiunque vorrà realizzare applicazioni basate su quel protocollo. Una scelta di questo genere, sensata dal punto di vista economico e commerciale, sarebbe fallimentare dal punto di vista tecnico e culturale, aprendo la strada ad una involuzione della Rete, che cesserebbe di essere uno spazio cognitivo condiviso per trasformarsi in un ambito esclusivamente commerciale. Questo scenario è meno astratto di quanto possa sembrare: "decommoditizing protocols" è una delle parole d'ordine su cui si basa la strategia aziendale proposta da Microsoft per contrastare l'insidia commerciale rappresentata dai sistemi operativi "free", un progetto ampiamente descritto in un memorandum di Microsoft riservato e divulgato clandestinamente on line nell'ottobre del 1998 con il nome di "Halloween Document". I protocolli di trasmissione sono la "lingua franca" che permette ai computer connessi a Internet di comunicare tra loro, e introdurre tra queste lingue un protocollo proprietario, sarebbe come vincolare commercialmente il libero utilizzo di un idioma, pretendendo una tassa ogni volta che si parla o si scrive in italiano, inglese o giapponese. Ripercorrendo le tappe storiche che hanno segnato lo sviluppo dell'elettronica, dell'informatica e delle telecomunicazioni, ho avuto modo di verificare una caratteristica costante che accomuna le prime rozze invenzioni agli ultimi ritrovati della scienza: il bassissimo livello di correlazione tra l'imponenza di un progetto di ricerca e l'impatto di un'innovazione scientifica. Il motore che ha guidato il progresso scientifico non è stato il prestigio o le risorse degli ambienti accademici, o i business plan con cui le aziende progettano finanziamenti per i loro settori di ricerca e sviluppo, né tantomeno le disponibilità finanziarie personali dei singoli ricercatori. La scintilla che nel corso dei secoli ha tenuto viva la fiamma della scienza si è manifestata nei modi più diversi, diventando di volta in volta una passione capace di portare in rovina un uomo, un'ossessione capace di focalizzare ogni grammo di energia fisica e mentale verso un determinato obiettivo, una sfida da perseguire col vento in faccia e il gusto di andare dove altri non osano, un amore appassionato che rende impossibile distrarre l'attenzione dall'oggetto dei propri studi, una ragione di vita da perseguire fino in fondo, costi quel che costi. Il simbolo più efficace del rapporto tra un'invenzione e il suo creatore è probabilmente l'atteggiamento fiero e monomaniacale con cui il capitano Achab ha sacrificato prima una gamba e poi la sua stessa vita per raggiungere e domare Moby Dick, la balena bianca. | << | < | > | >> |Pagina 93Capitolo 9
"Topi" e "finestre"
"In 20 o 30 anni potremo tenere nelle nostre mani una quantità di conoscenza
elettronica pari a quella contenuta in una città, o addirittura nel mondo
intero".
Doug Engelbart, dal discorso della cerimonia di consegna del Lemelson-MIT Prize,
1997
Un'invenzione che nell'immaginario collettivo è ormai indissolubilmente associata ai prodotti Microsoft è la possibilità di impartire le istruzioni al computer attraverso la manipolazione di simboli grafici, detti "icone", visualizzando questi simboli all'interno di spazi di lavoro multipli, sovrapponibili e ridimensionabili, le cosiddette "finestre" (windows), e utilizzando per tutta questa serie di operazioni un puntatore posizionabile sullo schermo attraverso il movimento di un "mouse", un dispositivo scorrevole che deve il suo nome alla forma simile a quella di un piccolo topolino, anche in virtù della "coda", il cavo di collegamento che unisce il mouse con il computer. In realtà tutto questo nasce molti anni prima dell'introduzione delle cosiddette "interfacce grafiche" nei sistemi operativi Microsoft, e risale al novembre 1970, quando Douglas Engelbart inventa il mouse all'interno dello Stanford Research Institute di Menlo Park, California. Engelbart, ancora ventenne, scopre la "computer science" alla fine dell'estate 1945, quando è ancora un semplice tecnico radar della marina statunitense, e aspetta con pazienza nelle Filippine una nave militare che lo avrebbe finalmente riportato a casa al termine della guerra. Sull'isola di Laiti, per ingannare il tempo in attesa del suo rientro, Engelbart visita una biblioteca della Croce Rossa ricavata all'interno di una capanna indigena, dove lo attende un appuntamento col destino che cambia per sempre la sua vita e la storia della scienza. In un'epoca in cui i computer erano ancora considerati soltanto come macchine utili ad effettuare rapidamente e con precisione enormi quantità di calcoli matematici, Doug Engelbart realizza che i calcolatori elettronici avrebbero potuto essere impiegati altrettanto efficacemente come amplificatori della memoria e del pensiero, grazie all'incontro casuale con un articolo dal titolo As we may Think, pubblicato sul numero di luglio di "The Atlantic Monthly" da Vannevar Bush, consulente scientifico del presidente Roosevelt durante la Seconda Guerra Mondiale. Nel libro Tools for Thought di Howard Rheingold è contenuta una dettagliata descrizione del "primo incontro" di Engelbart con l'informatica, avvenuto grazie all'articolo di Bush. Engelbart racconta che: La prima volta che ho sentito parlare dei computer ho capito dalla mia esperienza nel settore dei radar che se quelle macchine potevano rappresentare le informazioni utilizzando schede perforate e stampe cartacee, avrebbero potuto farlo anche scrivendo o disegnando le stesse informazioni su uno schermo. Quando mi fu chiara la connessione tra uno schermo a raggi catodici, un elaboratore di informazioni e uno strumento per la rappresentazione di simboli, tutte queste idee presero forma nella mia mente nel giro di mezz'ora. Dopo la guerra Engelbart si laurea in ingegneria elettronica e inizia a lavorare in California presso i laboratori Ames, sviluppando progetti su commissione del National Advisory Commitee on Aeronautics, uno degli enti governativi del settore aerospaziale che in seguito sarebbero stati rimpiazzati dalla Nasa. Nel 1951 Engelbart lascia la Ames per entrare all'Università californiana di Berkeley, dove si scontra con la resistenza al cambiamento degli ambienti universitari e i limiti tecnologici dei calcolatori dell'epoca. I computer di allora non erano ancora pronti per interagire direttamente con gli utenti, limitandosi a elaborare le schede perforate che ricevevano in pasto dai programmatori, i quale potevano solo prendere atto dei risultati dell'elaborazione ed eventualmente ripetere l'operazione con un nuovo pacchetto di schede perforate, quando i risultati ottenuti non combaciavano con quelli desiderati. L'idea che un computer potesse essere utilizzato come uno strumento didattico, anziché come un semplice strumento di calcolo, suonava più o meno come una bestemmia. | << | < | > | >> |Pagina 99Quali sono le caratteristiche che ci aspettiamo di trovare in un computer del terzo millennio? Sicuramente un'interfaccia grafica che permetta l'utilizzo di "icone" e "finestre", la possibilità di impartire i comandi tramite il calcolatore attraverso un mouse, la disponibilità di programmi per il trattamento dei testi, l'elaborazione delle immagini, la gestione di archivi, la posta elettronica e la creazione di musica, la connessione con altri calcolatori attraverso una rete locale e attraverso reti geografiche come Internet. Tutto questo, e molto altro ancora, era già disponibile nel 1973 per i pochi fortunati possessori di "Alto", un modello sperimentale di personal computer realizzato al Parc e mai commercializzato.A partire da un numero molto limitato di esemplari, riservato ai ricercatori del Parc, quel modello viene poi prodotto in piccoli lotti, fino a raggiungere un totale di 1500 unità, consegnate ad una ristretta cerchia di prescelti composta da dirigenti della Xerox, collaboratori del Parc presenti in altri centri di ricerca, membri dello Stanford Institute, senatori, deputati, agenti governativi e funzionari della Casa Bianca. Pur avendo sviluppato il computer del 2000 con ventotto anni di anticipo, la Xerox non riesce a sfruttare il vantaggio tecnologico così ottenuto e moltissime invenzioni sviluppate al Parc vengono commercializzate da altre aziende o dagli stessi ricercatori prima che la Xerox decida di trasformare quei prototipi in prodotti commerciali. Negli anni successivi alla nascita di Alto, Robert "Bob" Metcalfe, che presso il Parc aveva creato e sviluppato i sistemi Ethernet, decide di commercializzare in proprio la sua invenzione fondando la 3Com, l'azienda che attualmente domina il mercato mondiale dei dispositivi per reti locali. Alan Kay, che assieme ad Adele Goldberg aveva progettato il personal computer Alto, viene assunto dalla Atari, che gli assegna il comando della divisione scientifica. Nel 1979 il Palo Alto Research Center riceve la visita di un ventiquattrenne di nome Steve Jobs, che assieme all'amico Steve Wozniak aveva messo a frutto l'esperienza maturata presso l'Homebrew Computer Club progettando e commercializzando i personal computer Apple I e Apple II. Durante questo "giro turistico" presso il centro di ricerca Xerox, Jobs osserva il funzionamento di uno dei 1500 Alto prodotti al Parc. Cinque anni più tardi, dopo un lungo periodo di gestazione, l'ispirazione che aveva colto i "due Steve" durante quella visita alla Xerox si concretizza nei personal computer Macintosh della Apple, che aprono la strada all'informatica di massa grazie al mouse, alle icone e alle finestre nati dalla fantasia e dalle visioni tecnologiche di un giovane marinaio, catturato dalla passione per la scienza in una lontana isola delle Filippine, all'interno di una biblioteca fatta di canne di bambù. | << | < | > | >> |Pagina 202Capitolo 19
La ragnatela grande come il mondo
"L'immaginazione è più importante della conoscenza".
Albert Einstein
La prima descrizione di una macchina dal funzionamento simile a quello del World Wide Web risale al 1945, quando Vannevar Bush pubblica l'articolo As We May Think, apparso nel numero di luglio della rivista "The Atlantic Monthly", un testo che fa nascere la passione per l'informatica in un giovanotto di nome Doug Engelbart, che molti anni più tardi inventerà il mouse e le "finestre" che ancora oggi utilizziamo con i nostri computer. Nel suo articolo Bush descrive il progetto MEMEX, che prevede la realizzazione di una macchina concettuale in grado di immagazzinare grandi quantità di dati, creando percorsi di informazioni e collegamenti ("links") a testi e illustrazioni, che possono essere archiviati e usati per consultazioni successive. A quei tempi il microfilm era uno degli strumenti più diffusi per immagazzinare grandi quantità di informazioni e Bush cerca un modo per collegare tra loro i documenti contenuti nei microfilm attraverso riferimenti incrociati. L'origine del termine "ipertesto", invece, è attribuita a Theodor Holm Nelson , che nel 1962 descrive questa forma di "scrittura non sequenziale" in un saggio intitolato Literary Machines. Nel suo testo Ted Nelson parla di un progetto futuristico battezzato "Xanadu", grazie al quale tutta l'informazione del mondo sarebbe stata pubblicata, catalogata e interconnessa sotto forma di un ipertesto. Il Web che conosciamo oggi è sicuramente qualcosa di meno della visione di Nelson, ma sicuramente è molto di più di quello che si sarebbe potuto immaginare nel 1962, quando l'idea di un "ipertesto globale" iniziava a prendere forma, mentre i calcolatori elettronici presenti in tutto il mondo erano solo poche decine. Uno dei primi tentativi di dare corpo alle idee di Nelson risale al 1967, quando un gruppo guidato da Andries "Andy" Van Dam realizza presso la Brown University negli Stati Uniti uno dei primi sistemi per la consultazione ipertestuale dei dati, chiamato Hypertext Editing System. La macchina utilizzata da Van Dam, amico e collega di Ted Nelson, è un mainframe Ibm/360, con 128K di Ram. Successivamente Big Blue, che aveva finanziato la realizzazione del sistema, lo vende in blocco allo Houston Manned Spacecraft Center, dove viene usato a scopi di documentazione all'interno del programma spaziale Apollo. I lavori di Vannevar Bush e Ted Nelson lasciano il segno anche su Tim Berners-Lee , un giovane ricercatore che all'inizio degli anni '90 celebra il matrimonio tra l'idea di ipertesto, rimasta fino a quel momento poco più di un'astrazione, e la tecnologia Internet, dove in quegli anni iniziava a fiorire un variegato sottobosco di sistemi dedicati all'"information retrieval", ossia al recupero di informazioni. Nel 1980 Berners-Lee varca i cancelli dei laboratori Cern di Ginevra con un contratto di consulenza come programmatore e ben presto si rende conto della difficoltà di organizzare le informazioni in un luogo così creativamente caotico, dove decine di progetti di ricerca viaggiavano in parallelo, e dove spesso alcune informazioni cruciali si trovavano solamente nella testa delle persone incaricate di seguire un determinato progetto. È così che Tim, mentre lavora ufficialmente ai progetti relativi agli acceleratori di particelle del Cern, nel tempo libero realizza "Enquire", un programma realizzato per descrivere i legami tra vari "nodi", dove ogni nodo rappresentava una persona, un progetto di ricerca o un particolare equipaggiamento. Se una persona e un progetto, pur non essendo direttamente collegati tra loro, erano collegati ad una stessa attrezzatura o infrastruttura, questo permetteva di creare un nuovo collegamento e stabilire che il ricercatore X, utilizzando l'attrezzatura Y, stava lavorando al progetto Z. Dopo aver abbozzato questo primo tentativo di organizzazione ipertestuale delle informazioni, Tim Berners-Lee abbandona il Cern alla scadenza del suo contratto a termine, perdendo le tracce dei floppy disk da otto pollici su cui era memorizzato Enquire. Dopo una parentesi lavorativa come programmatore di microprocessori per stampanti, Tim ritorna al Cern nel 1984, e riparte da zero cercando di scrivere un nuovo programma per la creazione di un "documentation system" all'interno dei laboratori. Durante la seconda metà degli anni '80, Tim cerca ripetutamente di ottenere dai responsabili del Cern l'approvazione di un progetto di ricerca per l'organizzazione e la strutturazione delle informazioni all'interno del centro di ricerca, ma le sue richieste cadono nel vuoto. Come una voce che grida nel deserto, Tim Berners-Lee grida all'industria informatica degli anni '90 che il mondo ha bisogno di un sistema per la condivisione di ipertesti su Internet, ma nessuna azienda è disposta a prenderlo in considerazione. A quell'epoca c'erano già in circolazione molti programmi per la lettura e il trattamento di ipertesti, ma nessuno era predisposto per scambiare informazioni via Internet. Berners-Lee si rivolge a molte aziende che avevano già sviluppato questo genere di programmi, ed è così che bussa alla porta della Electronic Book Tecnology, l'azienda fondata da Andy Van Dam, ma anche questo grande esperto di tecnologie ipertestuali non si convince dell'utilità di un "matrimonio" tra la comunicazione elettronica di Internet e un programma per la gestione di testi non sequenziali. "Pensavo che la parte difficile fosse già stata fatta" racconta Berners-Lee "e ho cercato di convincere molte persone ad aggiungere una connessione Internet ai loro programmi. Erano gentili, ma nessuno di loro parve convinto". Di fronte alla sordità delle aziende informatiche, il World Wide Web sembrava destinato ad una morte prematura, ma per una fortunata circostanza che cambia il corso della storia, Tim Berners-Lee fa un incontro destinato a segnare per sempre la propria esistenza e quella del mondo intero. Tra i corridoi del Cern, Tim fa amicizia con Robert Cailliau, un ingegnere che rimane affascinato dalla visione di Berners-Lee e si convince della necessità di un sistema comune di condivisione dei dati da mettere a disposizione dei ricercatori. Da quel momento gli sforzi di entrambi vengono diretti verso un unico obiettivo: creare un ambiente di lavoro dove i dipendenti del Cern avrebbero potuto attingere ad un patrimonio comune di informazioni, indipendentemente dal computer o dal sistema operativo utilizzato. Lo scoglio più difficile da superare era la conquista del livello minimo di comunicazione necessario a superare l'incompatibilità tra i diversi modelli di computer presenti al Cern. Nell'ottobre del 1990 Berners-Lee inizia a definire i dettagli di questo progetto, scrivendo a partire da zero un programma chiamato "WorldWideWeb", che viene terminato a metà novembre. Tim definisce anche le regole di scambio dei dati che sarebbero state la "lingua comune" per lo scambio di ipertesti tra due computer differenti, un "protocollo di trasferimento degli ipertesti" che viene battezzato con l'acronimo HTTP, che sta appunto per "Hypertext Transfer Protocol". Un'altra scelta progettuale che si rivela determinante per lo sviluppo e la diffusione del Web è la definizione di un "linguaggio per l'etichettatura degli ipertesti", chiamato "Hyper Text Markup Language", o più familiarmente HTML, un codice liberamente utilizzabile da chiunque e definito da specifiche pubblicamente disponibili anziché essere coperto dal segreto industriale. A questo linguaggio Berners-Lee aggiunge la definizione di un sistema di indicizzazione "universale" per identificare univocamente un documento senza possibilità di equivoco, associando ad ogni ipertesto un indirizzo chiamato URI (Universal Resource Identifier), successivamente "ribattezzato" URL (Uniform Resource Locator). A questo punto ci sono tutti gli ingredienti per la creazione di un sistema globale per lo scambio delle informazioni: abbiamo un insieme di regole e protocolli per far parlare tra loro computer differenti, abbiamo un linguaggio di etichettatura per scrivere testi non sequenziali, abbiamo un sistema di indirizzi che permette di individuare un documento utilizzando un "localizzatore uniforme". Nel libro-intervista Weaving the Web, Tim Berners-Lee racconta che all'inizio
era difficile spiegare alla gente che quel progetto non era
niente di più che la definizione delle Uri, dell'Http e dell'Html. Non c'era un
computer centrale che "controllava" il web, né una singola rete dove questi
protocolli avrebbero funzionato, né tantomento un'organizzazione che "gestiva"
il web. Il web non era una cosa fisica, che esisteva in un determinato "luogo".
Era uno "spazio" nel quale l'informazione aveva la possibilità di esistere.
|