Internet

Internet non è come una rete telefonica. L'Internet globale consiste in decine di migliaia di reti interconnesse gestite da fornitori di servizi, singole aziende, università e governi. Nella maggior parte dei paesi, una rete telefonica è gestita da una sola compagnia per diversi anni alla volta. Gli standard aperti sono ciò che permettono a questa rete di reti Internet di comunicare. E sono ciò che rende possibile a chiunque di creare contenuti, offrire servizi e vendere prodotti senza richiedere il permesso di un'autorità centrale.

Internet funziona perché gli standard aperti permettono ad ogni rete di connettersi a qualsiasi altra rete. Questo è ciò che rende possibile a chiunque di creare contenuti, offrire servizi e vendere prodotti senza richiedere il permesso di un'autorità centrale. Mette tutti nelle stesse condizioni ed è la ragione per cui oggi godiamo di un'ampia gamma di applicazioni e servizi.

​Chi è il responsabile di Internet?

Nessuno lo è, ma tutti lo sono.

A differenza della rete telefonica, che per anni, nella maggior parte dei paesi, è stata gestita da un'unica azienda, l'Internet globale consiste in decine di migliaia di reti interconnesse gestite da fornitori di servizi, singole aziende, università, governi e altri.

Storia

Internet ha rivoluzionato il mondo dei computer e delle comunicazioni come mai prima d'ora. L'invenzione del telegrafo, del telefono, della radio e del computer ha gettato le basi per questa integrazione di capacità senza precedenti. Internet ha una capacità di trasmissione mondiale e allo stesso tempo è un meccanismo per la diffusione delle informazioni e un mezzo per la collaborazione e l'interazione tra gli individui e i loro computer senza tener conto della posizione geografica. Internet rappresenta uno degli esempi di maggior successo dei benefici degli investimenti sostenuti e dell'impegno nella ricerca e nello sviluppo di infrastrutture informatiche. A partire dalle prime ricerche sulla commutazione di pacchetto, il governo, l'industria e il mondo accademico sono stati partner nell'evoluzione e nello sviluppo di questa nuova ed eccitante tecnologia. Oggi anche per strada è possibile sentire persone che utilizzano termini come "[email protected]" e "http://www.acm.org".

Questa vuole essere una breve storia, sommaria e incompleta per necessità. Attualmente esiste molto materiale sull'argomento Internet, inclusa la storia, la tecnologia e l'uso. In quasi tutte le librerie si troveranno scaffali pieni di libri su Internet.

In questo articolo, molti di noi coinvolti nello sviluppo e nell'evoluzione di Internet condividono il proprio punto di vista sulle sue origini e sulla sua storia. Questa storia ruota intorno a quattro aspetti distinti. Il primo aspetto è l'evoluzione tecnologica che è iniziata con le prime ricerche sulla commutazione di pacchetto e ARPANET (e tecnologie correlate), e dove la ricerca attuale continua ad espandere gli orizzonti dell'infrastruttura lungo diverse dimensioni, come la scala, le prestazioni e le funzionalità di livello superiore. Il secondo è l'aspetto delle operazioni e della gestione di un'infrastruttura operativa globale e complessa. Il terzo è l'aspetto sociale, che ha portato ad un'ampia comunità di Internauti che lavorano insieme per creare ed evolvere la tecnologia. E infine, c'è l'aspetto della commercializzazione, che ha portato ad una transizione estremamente efficace dei risultati della ricerca in un'infrastruttura informativa ampiamente distribuita e disponibile.

Internet oggi è un'infrastruttura informativa diffusa, il prototipo iniziale di quella che spesso viene chiamata l'infrastruttura informativa nazionale (o globale o galattica). La sua storia è complessa e coinvolge molti aspetti - tecnologici, organizzativi e comunitari. E la sua influenza si estende non solo ai campi tecnici delle comunicazioni informatiche, ma in tutta la società mentre ci muoviamo verso un uso crescente di strumenti online per realizzare il commercio elettronico, l'acquisizione di informazioni e le operazioni comunitarie.

Origini di Internet

La prima descrizione registrata delle interazioni sociali che potrebbero essere abilitate attraverso il networking è stata una serie di promemoria scritti da J.C.R. Licklider del MIT nell'agosto del 1962 sul suo concetto di "Rete Galattica" (en). Egli immaginava un insieme di computer interconnessi a livello globale attraverso i quali tutti potevano accedere rapidamente a dati e programmi da qualsiasi sito. Nello spirito, il concetto era molto simile all'Internet di oggi. Licklider fu il primo capo del programma di ricerca sui computer alla DARPA,4 a partire dall'ottobre 1962. Mentre era alla DARPA convinse i suoi successori, Ivan Sutherland, Bob Taylor e il ricercatore del MIT Lawrence G. Roberts, dell'importanza di questo concetto di rete.

Leonard Kleinrock pubblicò al MIT il primo documento sulla teoria della commutazione di pacchetto nel luglio 1961 e il primo libro sull'argomento nel 1964. Kleinrock convinse Roberts della fattibilità teorica delle comunicazioni usando pacchetti piuttosto che circuiti, il che fu un passo importante nel cammino verso il networking dei computer. L'altro passo fondamentale era far parlare i computer tra loro. Per fare questo, nel 1965, lavorando con Thomas Merrill, Roberts collegò il computer TX-2 in Massachusetts al Q-32 in California con una linea telefonica a bassa velocità creando la prima (per quanto piccola) rete di computer ad ampio raggio mai costruita. Il risultato di questo esperimento fu la consapevolezza che i computer time-sharing potevano lavorare bene insieme, eseguendo programmi e recuperando dati come necessario sul computer remoto, ma che il sistema telefonico a commutazione di circuito era totalmente inadeguato per il lavoro. La convinzione di Kleinrock della necessità della commutazione di pacchetto fu confermata.

Alla fine del 1966 Roberts andò alla DARPA per sviluppare il concetto di rete di computer e mise rapidamente insieme il suo piano per "ARPANET", pubblicandolo nel 1967. Alla conferenza in cui presentò il documento, c'era anche un documento su un concetto di rete a pacchetti dal Regno Unito di Donald Davies e Roger Scantlebury della NPL. Scantlebury parlò a Roberts del lavoro della NPL e di quello di Paul Baran e altri della RAND. Il gruppo RAND aveva scritto un documento sulle reti a commutazione di pacchetto per la voce sicura in ambito militare nel 1964. Accadde che il lavoro al MIT (1961-1967), al RAND (1962-1965), e al NPL (1964-1967) erano andati avanti in parallelo senza che nessuno dei ricercatori sapesse dei lavori degli altri. La parola "pacchetto" fu adottata dal lavoro al NPL e la velocità di linea proposta da usare nel progetto ARPANET fu aggiornata da 2,4 kbps a 50 kbps.

Nell'agosto 1968, dopo che Roberts e la comunità finanziata da DARPA avevano raffinato la struttura generale e le specifiche per ARPANET, fu rilasciata una RFQ da DARPA per lo sviluppo di uno dei componenti chiave, ossia i commutatori di pacchetti chiamati Interface Message Processors (IMP's). La RFQ fu vinta nel dicembre 1968 da un gruppo guidato da Frank Heart alla Bolt Beranek and Newman (BBN). Mentre il team di BBN lavorava sugli IMP con Bob Kahn che giocava un ruolo importante nella progettazione architettonica generale di ARPANET, la topologia e l'economia della rete furono progettate e ottimizzate da Roberts lavorando con Howard Frank e il suo team alla Network Analysis Corporation. Il sistema di misurazione della rete fu preparato, invece, dal team di Kleinrock alla UCLA.

A causa del precoce sviluppo di Kleinrock della teoria della commutazione di pacchetto e la sua attenzione all'analisi, alla progettazione e alla misurazione, il suo Network Measurement Center alla UCLA fu selezionato per essere il primo nodo di ARPANET. Tutto questo avvenne nel settembre 1969 quando BBN installò il primo IMP all'UCLA e fu collegato il primo computer host. Il progetto di Doug Engelbart su "Augmentation of Human Intellect" (che includeva NLS, un primo sistema ipertestuale) allo Stanford Research Institute (SRI) fornì un secondo nodo. Lo SRI supportò il Network Information Center, guidato da Elizabeth (Jake) Feinler e comprendente funzioni come il mantenimento di tabelle di mappatura dei nomi degli host e degli indirizzi e una directory delle RFC.

Un mese dopo, quando lo SRI fu collegato ad ARPANET, il primo messaggio host-to-host fu inviato dal laboratorio di Kleinrock allo SRI. Altri due nodi furono aggiunti alla UC Santa Barbara e all'Università dello Utah. Questi ultimi due nodi incorporarono progetti di visualizzazione di applicazioni, con Glen Culler e Burton Fried alla UCSB che studiavano metodi per la visualizzazione di funzioni matematiche usando display di memoria per affrontare il problema dell'aggiornamento sulla rete, e Robert Taylor e Ivan Sutherland allo Utah che studiavano metodi di rappresentazioni 3-D sulla rete. Così, alla fine del 1969, quattro computer host erano collegati tra loro nell'iniziale ARPANET. Internet era decollato. Anche in questa fase iniziale, va notato che la ricerca sul networking incorporava sia il lavoro sulla rete sottostante che il lavoro su come utilizzare la rete. Questa tradizione continua ancora oggi.

I computer furono aggiunti rapidamente ad ARPANET durante gli anni seguenti, e il lavoro procedette sul completamento di un protocollo Host-to-Host funzionalmente completo e di altro software di rete. Nel dicembre 1970 il Network Working Group (NWG) che lavorava sotto S. Crocker finì il protocollo iniziale ARPANET Host-to-Host, chiamato Network Control Protocol (NCP). Quando i siti ARPANET completarono l'implementazione del NCP durante il periodo 1971-1972, gli utenti della rete poterono finalmente iniziare a sviluppare applicazioni.

Nell'ottobre 1972, Kahn organizzò una dimostrazione di successo di ARPANET alla International Computer Communication Conference (ICCC). Fu la prima dimostrazione pubblica di questa nuova tecnologia di rete al pubblico. Fu anche nel 1972 che fu introdotta la prima applicazione "hot", la posta elettronica. A marzo Ray Tomlinson alla BBN creò il software di base per l'invio e la lettura dei messaggi di posta elettronica, motivato dal bisogno degli sviluppatori di ARPANET di un facile meccanismo di coordinamento. A luglio, Roberts espanse la sua utilità scrivendo il primo programma di utilità di posta elettronica per elencare, leggere selettivamente, archiviare, inoltrare e rispondere ai messaggi. Da lì l'e-mail decollò come la più grande applicazione di rete per oltre un decennio. Questo fu un precursore del tipo di attività che vediamo oggi sul World Wide Web, cioè l'enorme crescita di tutti i tipi di traffico "people-to-people".

I concetti iniziali di internettizzazione

L'originale ARPANET è cresciuta in Internet. Internet si basava sull'idea che ci sarebbero state più reti indipendenti dal design piuttosto arbitrario, iniziando con ARPANET come rete pionieristica a commutazione di pacchetto, ma presto avrebbe incluso reti satellitari a pacchetto, reti radio a pacchetto terrestri e altre reti. Internet come la conosciamo ora incarna un'idea tecnica fondamentale, vale a dire quella della rete ad architettura aperta. In questo approccio, la scelta di ogni singola tecnologia di rete non era dettata da una particolare architettura di rete, ma piuttosto poteva essere selezionata liberamente da un provider e fatta interagire con le altre reti attraverso un meta-livello "Internetworking Architecture". Fino a quel momento c'era solo un metodo generale per federare le reti. Questo era il metodo tradizionale di commutazione di circuito in cui le reti si interconnettevano a livello di circuito, passando singoli bit su base sincrona lungo una porzione di un circuito end-to-end tra una coppia di località finali. Ricordiamo che Kleinrock aveva dimostrato nel 1961 che la commutazione di pacchetto era un metodo di commutazione più efficiente. Insieme alla commutazione di pacchetto, gli accordi speciali di interconnessione tra reti erano un'altra possibilità. Mentre c'erano altri modi limitati per interconnettere reti diverse, essi richiedevano che una fosse usata come componente dell'altra, invece di agire come un peer dell'altra nell'offrire un servizio end-to-end.

In una rete ad architettura aperta, le singole reti possono essere progettate e sviluppate separatamente e ciascuna può avere la propria interfaccia unica che può offrire agli utenti e/o ad altri fornitori, compresi altri fornitori di Internet. Ogni rete può essere progettata in conformità con l'ambiente specifico e le esigenze degli utenti di quella rete. Non ci sono generalmente vincoli sui tipi di rete che possono essere inclusi o sulla loro portata geografica, anche se alcune considerazioni pragmatiche detteranno ciò che ha senso offrire.

L'idea della rete ad architettura aperta fu introdotta da Kahn poco dopo essere arrivato alla DARPA nel 1972. Questo lavoro era originariamente parte del programma packet radio, ma successivamente divenne un programma separato a sé stante. All'epoca il programma era chiamato "Internetting". La chiave per far funzionare il sistema packet radio era un protocollo end-end affidabile che potesse mantenere una comunicazione efficace di fronte al jamming e ad altre interferenze radio, o sopportare un blackout intermittente come quello causato dall'essere in un tunnel o bloccato dal terreno locale. Kahn dapprima contemplò lo sviluppo di un protocollo locale solo per la rete radio a pacchetti, poiché questo avrebbe evitato di avere a che fare con la moltitudine di sistemi operativi diversi, e continuando ad usare NCP.

Tuttavia, NCP non aveva la capacità di indirizzare le reti (e le macchine) più di un IMP di destinazione su ARPANET e quindi sarebbe stato necessario anche qualche cambiamento a NCP. (Il presupposto era che ARPANET non fosse modificabile in questo senso). NCP faceva affidamento su ARPANET per fornire affidabilità end-to-end. Se qualche pacchetto venisse perso, il protocollo (e presumibilmente qualsiasi applicazione supportata) si fermerebbe bruscamente. In questo modello, NCP non aveva alcun controllo degli errori dell'host end-end, poiché ARPANET doveva essere l'unica rete esistente e sarebbe stata così affidabile che non sarebbe stato necessario alcun controllo degli errori da parte degli host. Così, Kahn decise di sviluppare una nuova versione del protocollo che potesse soddisfare le esigenze di un ambiente di rete ad architettura aperta. Questo protocollo sarebbe poi stato chiamato Transmission Control Protocol/Internet Protocol (TCP/IP). Mentre NCP tendeva ad agire come un driver di dispositivo, il nuovo protocollo sarebbe stato più simile ad un protocollo di comunicazione.

Quattro regole di base erano fondamentali per il pensiero iniziale di Kahn:

  • Ogni rete distinta dovrebbe stare per conto suo e non sarebbe necessario alcun cambiamento interno a nessuna di queste reti per connetterla a Internet.
  • Le comunicazioni sarebbero sulla base del miglior sforzo. Se un pacchetto non arrivasse alla destinazione finale, verrebbe presto ritrasmesso dalla fonte.
  • Le scatole nere sarebbero state usate per collegare le reti; queste sarebbero state chiamate in seguito gateway e router. I gateway non conserverebbero alcuna informazione sui singoli flussi di pacchetti che li attraversano, mantenendoli così semplici ed evitando complicati adattamenti e recuperi da vari tipi di guasti.
  • Non ci sarebbe un controllo globale a livello delle operazioni.

Altre questioni chiave che dovevano essere affrontate erano:

  • Algoritmi che impediscono ai pacchetti persi di disabilitare permanentemente le comunicazioni e che permettono di ritrasmetterli con successo dalla fonte.
  • Fornire un "pipelining" da host a host in modo che più pacchetti possano essere in rotta dalla sorgente alla destinazione a discrezione degli host partecipanti, se le reti intermedie lo permettono.
  • Funzioni di gateway per permettergli di inoltrare i pacchetti in modo appropriato. Questo includeva l'interpretazione delle intestazioni IP per il routing, la gestione delle interfacce, la suddivisione dei pacchetti in pezzi più piccoli se necessario, ecc.
  • La necessità di checksum end-end, riassemblaggio di pacchetti da frammenti e rilevamento di duplicati, se presenti.
  • La necessità di un indirizzo globale
  • Tecniche per il controllo di flusso host-to-host.
  • Interfacciamento con i vari sistemi operativi
  • C'erano anche altre preoccupazioni, come l'efficienza dell'implementazione, le prestazioni della rete internet, ma queste erano considerazioni secondarie all'inizio.

Kahn iniziò a lavorare su una serie di principi di sistema operativo orientati alla comunicazione mentre era alla BBN e documentò alcuni dei suoi primi pensieri in un memorandum interno alla BBN intitolato "Communications Principles for Operating Systems". A questo punto si rese conto che sarebbe stato necessario apprendere i dettagli di implementazione di ogni sistema operativo per avere la possibilità di incorporare qualsiasi nuovo protocollo in modo efficiente. Così, nella primavera del 1973, dopo aver iniziato lo sforzo di internettizzazione, chiese a Vint Cerf (allora a Stanford) di lavorare con lui sulla progettazione dettagliata del protocollo. Cerf era stato intimamente coinvolto nella progettazione e nello sviluppo dell'NCP originale e aveva già la conoscenza della comunicazione con i sistemi operativi esistenti. Così, armati dell'approccio architettonico di Kahn al lato delle comunicazioni e dell'esperienza NCP di Cerf, si unirono per definire i dettagli di quello che divenne il TCP/IP.

Il dare e avere fu altamente produttivo e la prima versione scritta dell'approccio risultante fu distribuita come INWG#39 in una riunione speciale dell'International Network Working Group (INWG) alla Sussex University nel settembre 1973. Successivamente fu pubblicata una versione raffinata nel 19747. L'INWG fu creato nell'ottobre 1972 alla International Computer Communications Conference organizzata da Bob Kahn, et al, e Cerf fu invitato a presiedere questo gruppo.

Alcuni approcci di base sono emersi da questa collaborazione tra Kahn e Cerf:

  • La comunicazione tra due processi consisterebbe logicamente in un flusso molto lungo di byte (li chiamavano ottetti). La posizione di ogni ottetto nel flusso verrebbe usata per identificarlo.
  • Il controllo del flusso sarebbe fatto usando finestre scorrevoli e riconoscimenti (ack). La destinazione potrebbe scegliere quando confermare e ogni ack restituito sarebbe cumulativo per tutti i pacchetti ricevuti fino a quel punto.
  • È stato lasciato aperto su come esattamente la fonte e la destinazione si sarebbero accordati sui parametri del windowing da usare. Inizialmente sono stati utilizzati i valori predefiniti.
  • Anche se Ethernet era in fase di sviluppo allo Xerox PARC a quel tempo, la proliferazione delle LAN non era prevista all'epoca, tanto meno i PC e le workstation. Il modello originale era costituito da reti di livello nazionale come ARPANET, di cui ci si aspettava solo un numero relativamente piccolo. Così fu usato un indirizzo IP di 32 bit di cui i primi 8 bit indicavano la rete e i restanti 24 bit designavano l'host su quella rete. Questo presupposto, che 256 reti sarebbero state sufficienti per il futuro prevedibile, era chiaramente da riconsiderare quando le LAN cominciarono ad apparire alla fine degli anni '70.

Il documento originale Cerf/Kahn su Internet descriveva un protocollo, chiamato TCP, che forniva tutti i servizi di trasporto e inoltro in Internet. Kahn voleva che il protocollo TCP supportasse una gamma di servizi di trasporto, dalla consegna sequenziale totalmente affidabile dei dati (modello di circuito virtuale) a un servizio di datagramma in cui l'applicazione faceva uso diretto del servizio di rete sottostante, che potrebbe implicare occasionalmente pacchetti persi, corrotti o riordinati. Tuttavia, lo sforzo iniziale per implementare il TCP ha portato ad una versione che permetteva solo circuiti virtuali. Questo modello funzionava bene per il trasferimento di file e le applicazioni di accesso remoto, ma alcuni dei primi lavori su applicazioni di rete avanzate, in particolare la packet voice negli anni '70, hanno reso chiaro che in alcuni casi le perdite di pacchetti non dovrebbero essere corrette dal TCP, ma dovrebbero essere gestite dall'applicazione. Questo portò ad una riorganizzazione del TCP originale in due protocolli, il semplice IP che prevedeva solo l'indirizzamento e l'inoltro dei singoli pacchetti, e il TCP separato, che si occupava delle caratteristiche di servizio come il controllo del flusso e il recupero dei pacchetti persi. Per quelle applicazioni che non volevano i servizi del TCP, fu aggiunta un'alternativa chiamata User Datagram Protocol (UDP) per fornire un accesso diretto al servizio base dell'IP.

Una delle principali motivazioni iniziali sia per ARPANET che per Internet era la condivisione delle risorse - per esempio permettere agli utenti delle reti radio a pacchetto di accedere ai sistemi di time sharing collegati ad ARPANET. Collegare i due insieme era molto più economico che duplicare questi computer molto costosi. Tuttavia, mentre il trasferimento di file e il login remoto (Telnet) erano applicazioni molto importanti, la posta elettronica ha probabilmente avuto l'impatto più significativo delle innovazioni di quell'epoca. La posta elettronica ha fornito un nuovo modello di come le persone potevano comunicare tra loro e ha cambiato la natura della collaborazione, prima nella costruzione di Internet stesso (come viene discusso in seguito) e più tardi per gran parte della società.

Ci furono altre applicazioni proposte nei primi giorni di Internet, tra cui la comunicazione vocale basata su pacchetti (il precursore della telefonia Internet), vari modelli di condivisione di file e dischi, e i primi programmi "worm" che mostravano il concetto di agenti (e, naturalmente, virus). Un concetto chiave di Internet è che non è stato progettato per una sola applicazione, ma come un'infrastruttura generale su cui potevano essere concepite nuove applicazioni, come illustrato più tardi dall'emergere del World Wide Web. È la natura generale del servizio fornito da TCP e IP che rende questo possibile.

Provare le idee

DARPA assegnò tre contratti a Stanford (Cerf), BBN (Ray Tomlinson) e UCL (Peter Kirstein) per implementare il TCP/IP (era chiamato semplicemente TCP nel documento Cerf/Kahn ma conteneva entrambi i componenti). Il team di Stanford, guidato da Cerf, produsse le specifiche dettagliate ed entro un anno circa c'erano tre implementazioni indipendenti del TCP che potevano interoperare.

Questo fu l'inizio della sperimentazione e dello sviluppo a lungo termine per evolvere e maturare i concetti e la tecnologia di Internet. Iniziando con le prime tre reti (ARPANET, Packet Radio, e Packet Satellite) e le loro comunità di ricerca iniziali, l'ambiente sperimentale è cresciuto fino ad incorporare essenzialmente ogni forma di rete e una comunità di ricerca e sviluppo molto ampia. [REK78] Con ogni espansione sono arrivate nuove sfide.

Le prime implementazioni di TCP furono fatte per grandi sistemi di time-sharing come Tenex e TOPS 20. Quando i computer desktop apparvero per la prima volta, alcuni pensavano che il TCP fosse troppo grande e complesso per funzionare su un personal computer. David Clark e il suo gruppo di ricerca al MIT decisero di dimostrare che un'implementazione compatta e semplice del TCP era possibile. Produssero un'implementazione, prima per lo Xerox Alto (la prima personal workstation sviluppata allo Xerox PARC) e poi per il PC IBM. Quell'implementazione era completamente interoperabile con altri TCP, ma era adattata alla suite di applicazioni e agli obiettivi di performance del personal computer e dimostrò che le workstation, così come i grandi sistemi di time-sharing, potevano essere parte di Internet. Nel 1976, Kleinrock pubblicò il primo libro su ARPANET. Includeva un'enfasi sulla complessità dei protocolli e le insidie che spesso introducono. Questo libro fu influente nel diffondere la tradizione delle reti a commutazione di pacchetto ad una comunità molto ampia.

Lo sviluppo diffuso di LANS, PC e workstation negli anni '80 ha permesso alla nascente Internet di fiorire. La tecnologia Ethernet, sviluppata da Bob Metcalfe allo Xerox PARC nel 1973, è ora probabilmente la tecnologia di rete dominante in Internet, e i PC e le workstation i computer dominanti. Questo cambiamento dall'avere poche reti con un numero modesto di host time-shared (il modello originale ARPANET) all'avere molte reti ha portato ad una serie di nuovi concetti e cambiamenti nella tecnologia alla base. In primo luogo, ha portato alla definizione di tre classi di rete (A, B, e C) per ospitare la gamma di reti. La classe A rappresentava le grandi reti su scala nazionale (un piccolo numero di reti con un gran numero di host); la classe B rappresentava le reti su scala regionale; e la classe C rappresentava le reti locali (un gran numero di reti con un numero relativamente basso di host).

Un cambiamento importante è avvenuto in seguito alla crescita dimensonale di Internet e ai problemi di gestione associati. Per facilitare l'uso della rete,furono assegnati dei nomi agli host, in modo che non fosse necessario ricordare gli indirizzi numerici. In origine, c'era un numero abbastanza limitato di host, quindi era possibile mantenere una singola tabella di tutti gli host e dei loro nomi e indirizzi associati. Il passaggio ad avere un gran numero di reti gestite in modo indipendente (ad esempio, le LAN) significava che non era più possibile avere una singola tabella di host, così fu inventato il Domain Name System (DNS) da Paul Mockapetris della USC/ISI. Il DNS è un sistema utilizzato per assegnare nomi agli host (ad esempio www.acm.org) tramite un database distribuito.

L'aumento delle dimensioni di Internet ha anche messo alla prova le capacità dei router. In origine, c'era un unico algoritmo distribuito per il routing che veniva implementato uniformemente da tutti i router di Internet. Quando il numero di reti in Internet è esploso, questo disegno iniziale non poteva espandersi secondo le necessità, così è stato sostituito da un modello gerarchico di routing, con un Interior Gateway Protocol (IGP) usato all'interno di ogni regione di Internet, e un Exterior Gateway Protocol (EGP) usato per legare insieme le regioni. Questo disegno permetteva a regioni diverse di usare un IGP diverso, in modo da poter soddisfare diversi requisiti di costo, riconfigurazione rapida, robustezza e scala. Non solo l'algoritmo di routing, ma anche la dimensione delle tabelle di indirizzamento sovraccaricava la capacità dei router. Nuovi approcci per l'aggregazione degli indirizzi, in particolare il classless inter-domain routing (CIDR), sono stati recentemente introdotti per controllare la dimensione delle tabelle dei router.

Con l'evoluzione di Internet, una delle maggiori sfide era come propagare i cambiamenti al software, in particolare al software host. DARPA sostenne UC Berkeley per studiare le modifiche al sistema operativo Unix, compresa l'incorporazione del TCP/IP sviluppato a BBN. Anche se Berkeley in seguito riscrisse il codice BBN per adattarlo in modo più efficiente al sistema e al kernel Unix, l'incorporazione del TCP/IP nelle versioni del sistema Unix BSD si rivelò un elemento critico nella dispersione dei protocolli alla comunità di ricerca. Gran parte della comunità di ricerca CS iniziò ad usare Unix BSD per il loro ambiente informatico quotidiano. Ripensandoci, la strategia di incorporare i protocolli di Internet in un sistema operativo supportato dalla comunità di ricerca fu uno degli elementi chiave nel successo dell'adozione diffusa di Internet.

Una delle sfide più interessanti fu la transizione del protocollo dell'host ARPANET da NCP a TCP/IP a partire dal 1° gennaio 1983. Questa fu una transizione in stile "flag-day", richiedendo a tutti gli host di convertirsi simultaneamente o di essere lasciati a dover comunicare attraverso meccanismi piuttosto ad-hoc. Questa transizione fu pianificata attentamente all'interno della comunità per diversi anni prima che avesse luogo e andò sorprendentemente liscia (ma risultò in una distribuzione di spille che dicevano "Sono sopravvissuto alla transizione TCP/IP").

TCP/IP è stato adottato come standard della difesa tre anni prima, nel 1980. Questo permise alla difesa di iniziare a condividere la base tecnologica di Internet del DARPA e portò direttamente all'eventuale suddivisione delle comunità militari e non militari. Nel 1983, ARPANET era usato da un numero significativo di organizzazioni operative e di ricerca e sviluppo della difesa. La transizione di ARPANET da NCP a TCP/IP permise di dividerla in una MILNET che supportava i requisiti operativi e una ARPANET che supportava i bisogni di ricerca.

Così, nel 1985, Internet era già ben assodata come una tecnologia che supportava un'ampia comunità di ricercatori e sviluppatori, e stava cominciando ad essere usata da altre comunità per le comunicazioni quotidiane al computer. La posta elettronica veniva usata ampiamente in diverse comunità, spesso con sistemi diversi, ma l'interconnessione tra sistemi di posta diversi stava dimostrando l'utilità delle comunicazioni elettroniche ad ampio raggio tra le persone.

Transizione all'infrastruttura diffusa

Nello stesso tempo in cui la tecnologia di Internet veniva convalidata sperimentalmente e ampiamente utilizzata da un sottoinsieme di ricercatori di informatica, venivano approfondite altre reti e tecnologie di rete. L'utilità delle reti informatiche, specialmente la posta elettronica, dimostrata dal DARPA e dagli appaltatori del Dipartimento della Difesa su ARPANET non fu persa in altre comunità e discipline, così che dalla metà degli anni Settanta le reti di computer cominciarono a sorgere ovunque si potessero trovare finanziamenti per lo scopo. Il Dipartimento dell'Energia degli Stati Uniti (DoE) stabilì MFENet per i suoi ricercatori dell'energia da fusione magnetica, e a quel punto i fisici della DoE High Energy risposero costruendo l'HEPNet. I fisici spaziali della NASA seguirono con SPAN, e Rick Adrion, David Farber e Larry Landweber crearono CSNET per la comunità informatica (accademica e industriale) con una sovvenzione iniziale della National Science Foundation (NSF) degli Stati Uniti. La diffusione a ruota libera di AT&T del sistema operativo UNIX generò USENET, basato sui protocolli di comunicazione UUCP incorporati in UNIX, e nel 1981 Ira Fuchs e Greydon Freeman idearono BITNET, che collegava i computer mainframe accademici in un paradigma "email come immagini di carte".

Con l'eccezione di BITNET e USENET, queste prime reti (inclusa ARPANET) erano state costruite appositamente - cioè erano destinate a, e in gran parte limitate a, comunità chiuse di studiosi; c'era quindi poca pressione perché le singole reti fossero compatibili e, infatti, in gran parte non lo erano. Inoltre, nel settore commerciale si stavano perseguendo tecnologie alternative, tra cui XNS di Xerox, DECNet, e SNA di IBM.8 Rimaneva da annunciare esplicitamente l'intento dei programmi britannici JANET (1984) e statunitensi NSFNET (1985) di servire l'intera comunità dell'istruzione superiore, indipendentemente dalla disciplina. Infatti, una condizione per un'università statunitense per ricevere i finanziamenti NSF per una connessione Internet era che "... la connessione deve essere resa disponibile a TUTTI gli utenti qualificati del campus".

Nel 1985, Dennis Jennings venne dall'Irlanda per passare un anno alla NSF a capo del programma NSFNET. Lavorò con la comunità per aiutare NSF a prendere una decisione critica, cioè che TCP/IP sarebbe stato obbligatorio per il programma NSFNET. Quando Steve Wolff prese in mano il programma NSFNET nel 1986, riconobbe la necessità di un'infrastruttura di rete ad ampio raggio per sostenere la comunità accademica e di ricerca in generale, insieme alla necessità di sviluppare una strategia per stabilire tale infrastruttura su una base in definitiva indipendente dal finanziamento federale diretto. Sono state adottate politiche e strategie (vedi sotto) per raggiungere questo scopo.

NSF ha anche scelto di sostenere l'infrastruttura organizzativa Internet esistente di DARPA, gerarchicamente organizzata sotto l'(allora) Internet Activities Board (IAB). La dichiarazione pubblica di questa scelta fu la paternità congiunta da parte delle Task Force di Ingegneria e Architettura di Internet dello IAB e del Network Technical Advisory Group di NSF della RFC 985 (Requisiti per i gateway di Internet), che assicurò formalmente l'interoperabilità dei pezzi di Internet di DARPA e NSF.

Oltre alla scelta del TCP/IP per il programma NSFNET, le agenzie federali hanno preso e attuato diverse altre decisioni politiche che hanno plasmato l'Internet di oggi.

  • Le agenzie federali condividevano il costo delle infrastrutture comuni, come i circuiti transoceanici. Hanno anche sostenuto congiuntamente "punti di interconnessione gestiti" per il traffico interagenzie; i Federal Internet Exchanges (FIX-E e FIX-W) costruiti per questo scopo sono serviti come modello per i Network Access Points e le strutture "*IX" che sono caratteristiche importanti dell'architettura Internet di oggi.
  • Per coordinare questa condivisione, fu formato il Federal Networking Council9 . La FNC cooperò anche con altre organizzazioni internazionali, come RARE in Europa, attraverso il Coordinating Committee on Intercontinental Research Networking, CCIRN, per coordinare il supporto Internet della comunità di ricerca nel mondo.
  • Questa condivisione e cooperazione tra le agenzie su questioni relative a Internet ebbe una lunga storia. Un accordo senza precedenti del 1981 tra Farber, che agiva per CSNET e la NSF, e Kahn della DARPA, permetteva al traffico CSNET di condividere l'infrastruttura ARPANET su una base statistica e senza misurazioni.
  • Successivamente, in una modalità simile, la NSF incoraggiò le sue reti regionali (inizialmente accademiche) della NSFNET a cercare clienti commerciali, non accademici, a espandere le loro strutture per servirli, e sfruttare le risultanti economie di scala per abbassare i costi di abbonamento per tutti.
  • Sulla dorsale NSFNET - il segmento su scala nazionale di NSFNET - NSF applicò una "Acceptable Use Policy" (AUP) che proibiva l'uso della dorsale per scopi "non a sostegno della ricerca e dell'educazione". Il risultato prevedibile (e voluto) di incoraggiare il traffico di rete commerciale a livello locale e regionale, mentre si negava l'accesso al trasporto su scala nazionale, era quello di stimolare l'emergere e/o la crescita di reti "private", competitive, a lungo raggio come PSI, UUNET, ANS CO+RE, e (più tardi) altre. Questo processo di accrescimento finanziato privatamente per usi commerciali è stato esplorato a partire dal 1988 in una serie di conferenze promosse dalla NSF alla Kennedy School of Government di Harvard su "La commercializzazione e la privatizzazione di Internet" - e sulla lista "com-priv" sulla rete stessa.
  • Nel 1988, un comitato del National Research Council, presieduto da Kleinrock e con Kahn e Clark come membri, produsse un rapporto commissionato da NSF intitolato "Towards a National Research Network". Questo rapporto fu influente sull'allora senatore Al Gore, e inaugurò le reti ad alta velocità che gettarono le basi del networking per la futura superstrada dell'informazione.
  • Nel 1994, fu distribuito un rapporto del National Research Council, ancora una volta presieduto da Kleinrock (e con Kahn e Clark come membri), intitolato "Realizing The Information Future: The Internet and Beyond". Questo rapporto, commissionato dalla NSF, è stato il documento in cui fu articolato un progetto per l'evoluzione della superstrada dell'informazione e che ha avuto un effetto duraturo sul modo di pensare alla sua evoluzione. Ha anticipato le questioni critiche dei diritti di proprietà intellettuale, etica, prezzi, educazione, architettura e regolamentazione di Internet.
  • La politica di privatizzazione di NSF è culminata nell'aprile 1995, con il taglio dei fondi della dorsale NSFNET. I fondi così recuperati furono ridistribuiti (in modo competitivo) alle reti regionali per comprare connettività Internet su scala nazionale dalle ormai numerose reti private a lunga distanza.

La dorsale aveva fatto la transizione da una rete costruita da router della comunità di ricerca (i router "Fuzzball" di David Mills) ad attrezzature commerciali. Nei suoi 8 anni e mezzo di vita, la Dorsale era cresciuta da sei nodi con collegamenti a 56 kbps a 21 nodi con più collegamenti a 45 Mbps. Aveva visto Internet crescere fino a più di 50.000 reti in tutti i sette continenti e nello spazio esterno, con circa 29.000 reti negli Stati Uniti.

Tale era il peso dell'ecumenismo e del finanziamento del programma NSFNET (200 milioni di dollari dal 1986 al 1995), e la qualità dei protocolli stessi che nel 1990, quando ARPANET stesso fu finalmente smantellato10, il TCP/IP aveva soppiantato o marginalizzato la maggior parte degli altri protocolli di reti informatiche ad ampio raggio in tutto il mondo, e l'IP era sulla buona strada per diventare IL servizio portante per l'infrastruttura informativa globale.

Il ruolo della documentazione

Una chiave per la rapida crescita di Internet è stato l'accesso libero e aperto ai documenti di base, specialmente le specifiche dei protocolli.

Gli inizi di ARPANET e di Internet nella comunità di ricerca universitaria hanno promosso la tradizione accademica della pubblicazione aperta di idee e risultati. Tuttavia, il normale ciclo della pubblicazione accademica tradizionale era troppo formale e troppo lento per lo scambio dinamico di idee essenziale per creare reti.

Nel 1969 un passo fondamentale fu fatto da S. Crocker (allora alla UCLA) nello stabilire la serie di note Request for Comments (o RFC). Questi appunti erano intesi come un modo informale di distribuzione veloce per condividere idee con altri ricercatori di rete. All'inizio gli RFC erano stampati su carta e distribuiti via posta ordinaria. Quando entrò in uso il File Transfer Protocol (FTP), gli RFC furono preparati come file online e accessibili via FTP. Ora, naturalmente, gli RFC sono facilmente accessibili tramite il World Wide Web in decine di siti in tutto il mondo. La SRI, nel suo ruolo di Network Information Center, manteneva gli elenchi online. Jon Postel ha agito come RFC Editor, oltre a gestire l'amministrazione centralizzata delle assegnazioni dei numeri di protocollo richiesti, ruoli che ha continuato a svolgere fino alla sua morte, il 16 ottobre 1998.

L'effetto degli RFC era quello di creare un ciclo di feedback positivo, con idee o proposte presentate in un RFC che innescavano un altro RFC con idee aggiuntive, e così via. Quando un certo consenso (o almeno un insieme consistente di idee) era stato raggiunto, veniva preparato un documento di specifica. Tale specifica verrebbe poi usata come base per le implementazioni da parte dei vari gruppi di ricerca.

Nel corso del tempo, gli RFC sono diventati più focalizzati sugli standard di protocollo (le specifiche "ufficiali"), anche se ci sono ancora RFC informativi che descrivono approcci alternativi, o forniscono informazioni di base su protocolli e questioni ingegneristiche. Gli RFC sono ora visti come i "documenti di riferimento" nella comunità degli standard e dell'ingegneria di Internet.

L'accesso aperto alle RFC (gratuitamente, se si ha un qualsiasi tipo di connessione a Internet) promuove la crescita di Internet perché permette che le specifiche effettive siano usate come esempi nei corsi universitari e dagli imprenditori che sviluppano nuovi sistemi.

La posta elettronica è stata un fattore significativo in tutte le aree di Internet, e questo è senz'altro vero nello sviluppo di specifiche di protocollo, standard tecnici e ingegneria di Internet. I primissimi RFC spesso presentavano un insieme di idee sviluppate dai ricercatori di un luogo al resto della comunità. Dopo l'entrata in uso della posta elettronica, il modello di authorship è cambiato - gli RFC sono stati presentati da autori congiunti con una visione comune indipendente dalle loro sedi.

L'uso di mailing list di posta elettronica specializzate è stato usato a lungo nello sviluppo di specifiche di protocollo e continua ad essere uno strumento importante. L'IETF ha ora più di 75 gruppi di lavoro, ognuno dei quali lavora su un aspetto diverso dell'ingegneria di Internet. Ognuno di questi gruppi di lavoro ha una mailing list per discutere una o più bozze di documenti in sviluppo. Quando si raggiunge il consenso su una bozza di documento, questa può essere distribuita come RFC.

Poiché l'attuale rapida espansione di Internet è alimentata dalla realizzazione della sua capacità di promuovere la condivisione delle informazioni, dovremmo capire che il primo ruolo della rete nella condivisione delle informazioni è stata la condivisione delle informazioni sul suo stesso design e funzionamento attraverso i documenti RFC. Questo metodo unico per l'evoluzione di nuove capacità nella rete continuerà ad essere fondamentale per l'evoluzione futura di Internet.

Formazione dell'ampia comunità

Internet è tanto un insieme di comunità quanto un insieme di tecnologie, e il suo successo è in gran parte attribuibile sia alla soddisfazione dei bisogni di base della comunità sia all'utilizzo della comunità in modo efficace per far progredire l'infrastruttura. Questo spirito comunitario ha una lunga storia che inizia con il primo ARPANET. I primi ricercatori di ARPANET hanno lavorato come una comunità affiatata per realizzare le dimostrazioni iniziali della tecnologia di commutazione di pacchetto descritta prima. Allo stesso modo, il Packet Satellite, il Packet Radio e molti altri programmi di ricerca informatica DARPA erano attività collaborative multi-contractor che usavano pesantemente qualsiasi meccanismo disponibile per coordinare i loro sforzi, iniziando con la posta elettronica e aggiungendo la condivisione di file, l'accesso remoto e infine le capacità del World Wide Web. Ognuno di questi programmi formò un gruppo di lavoro, iniziando con l'ARPANET Network Working Group. A causa del ruolo unico che ARPANET ha giocato come infrastruttura di supporto ai vari programmi di ricerca, quando Internet ha iniziato ad evolversi, il Network Working Group si è evoluto in Internet Working Group.

Alla fine degli anni '70, riconoscendo che la crescita di Internet era accompagnata da una crescita delle dimensioni della comunità di ricerca interessata e quindi da una maggiore necessità di meccanismi di coordinamento, Vint Cerf, allora direttore del programma Internet alla DARPA, formò diversi organismi di coordinamento - un International Cooperation Board (ICB), presieduto da Peter Kirstein dell'UCL, per coordinare le attività con alcuni paesi europei cooperanti incentrate sulla ricerca Packet Satellite, un Internet Research Group che era un gruppo inclusivo che forniva un ambiente per lo scambio generale di informazioni, e un Internet Configuration Control Board (ICCB), presieduto da Clark. L'ICCB era un organismo ad invito per assistere Cerf nella gestione della fiorente attività di Internet.

Nel 1983, quando Barry Leiner assunse la gestione del programma di ricerca Internet alla DARPA, lui e Clark riconobbero che la continua crescita della comunità Internet richiedeva una ristrutturazione dei meccanismi di coordinamento. L'ICCB fu sciolto e al suo posto fu formata una struttura di Task Force, ognuna focalizzata su una particolare area della tecnologia (ad esempio router, protocolli end-to-end, ecc.). L'Internet Activities Board (IAB) fu formato dai presidenti delle Task Force.

Naturalmente fu solo una coincidenza che i presidenti delle Task Force fossero le stesse persone che erano membri del vecchio ICCB, e Dave Clark continuò a svolgere il ruolo di presidente. Dopo alcuni cambiamenti nei membri dello IAB, Phill Gross divenne presidente di una rivitalizzata Internet Engineering Task Force (IETF), all'epoca solo una delle task force dello IAB. Come abbiamo visto sopra, nel 1985 ci fu una crescita enorme nel lato più pratico/ingegneristico di Internet. Questa crescita portò ad un'esplosione nella partecipazione alle riunioni della IETF, e Gross fu costretto a creare una sottostruttura alla IETF sotto forma di gruppi di lavoro.

Questa crescita è stata completata da una grande espansione nella comunità. Non era più DARPA l'unico attore importante nel finanziamento di Internet. Oltre a NSFNet e alle varie attività finanziate dal governo statunitense e internazionale, l'interesse nel settore commerciale stava iniziando a crescere. Sempre nel 1985, sia Kahn che Leiner lasciarono il DARPA e ci fu una significativa diminuzione dell'attività Internet. Come risultato, lo IAB rimase senza uno sponsor principale e assunse sempre più il mantello della leadership.

La crescita continuò, portando ad un'ulteriore sottostruttura sia all'interno dello IAB che dello IETF. La IETF combinò i gruppi di lavoro in aree e designò i direttori di area. I direttori di area formarono un Internet Engineering Steering Group (IESG). Lo IAB riconobbe la crescente importanza dello IETF, e ristrutturò il processo degli standard per riconoscere esplicitamente lo IESG come il principale organo di revisione degli standard. Anche lo IAB fu ristrutturato in modo che il resto delle task force (diverse dallo IETF) si combinassero in una Internet Research Task Force (IRTF) presieduta da Postel, con le vecchie task force rinominate come gruppi di ricerca.

La crescita del settore commerciale ha portato con sé una maggiore preoccupazione riguardo al processo degli standard stessi. A partire dai primi anni '80 e continuando fino ad oggi, Internet è cresciuta oltre le sue radici principalmente di ricerca per includere sia una vasta comunità di utenti che una maggiore attività commerciale. Fu prestata maggiore attenzione a rendere il processo aperto ed equo. Questo, unito al bisogno riconosciuto di un supporto comunitario di Internet, ha portato alla formazione della Internet Society nel 1991, sotto gli auspici della Corporation for National Research Initiatives (CNRI) di Kahn e la leadership di Cerf, allora al CNRI.

Nel 1992 ci fu un'altra riorganizzazione. Nel 1992, l'Internet Activities Board fu riorganizzato e rinominato Internet Architecture Board che operava sotto gli auspici della Internet Society. Fu definita una relazione più "alla pari" tra il nuovo IAB e lo IESG, con lo IETF e lo IESG che si assumevano una maggiore responsabilità per l'approvazione degli standard. In definitiva, si formò una relazione cooperativa e di supporto reciproco tra IAB, IETF e Internet Society, con la Internet Society che assumeva come obiettivo la fornitura di servizi e altre misure che avrebbero facilitato il lavoro della IETF.

Il recente sviluppo e l'ampia diffusione del World Wide Web ha portato con sé una nuova comunità, dato che molte delle persone che lavorano sul WWW non hanno pensato a se stessi principalmente come ricercatori e sviluppatori di reti. Si è formata una nuova organizzazione di coordinamento, il World Wide Web Consortium (W3C). Inizialmente guidato dal Laboratory for Computer Science del MIT da Tim Berners-Lee (l'inventore del WWW) e Al Vezza, il W3C si è assunto la responsabilità di evolvere i vari protocolli e standard associati al Web.

Così, attraverso gli oltre due decenni di attività di Internet, abbiamo visto una costante evoluzione delle strutture organizzative progettate per sostenere e facilitare una comunità sempre più grande che lavora in modo collaborativo sulle questioni di Internet.

Commercializzazione della tecnologia

La commercializzazione di Internet ha coinvolto non solo lo sviluppo di servizi di rete competitivi e privati, ma anche lo sviluppo di prodotti commerciali che implementavano la tecnologia Internet. All'inizio degli anni '80, decine di venditori stavano incorporando il TCP/IP nei loro prodotti perché vedevano acquirenti per quell'approccio al networking. Sfortunatamente mancavano di informazioni reali su come la tecnologia doveva funzionare e su come i clienti avevano intenzione di usare questo approccio al networking. Molti lo vedevano come un fastidioso add-on che doveva essere incollato alle loro soluzioni di rete proprietarie: SNA, DECNet, Netware, NetBios. Il DoD aveva imposto l'uso del TCP/IP in molti dei suoi acquisti, ma dava poco aiuto ai venditori su come costruire prodotti TCP/IP utili.

Nel 1985, riconoscendo questa mancanza di disponibilità di informazioni e di formazione appropriata, Dan Lynch, in cooperazione con lo IAB, organizzò un workshop di tre giorni per tutti i fornitori per far vedere come funzionava il TCP/IP e cosa ancora non poteva fare bene. I relatori provenivano principalmente dalla comunità di ricerca DARPA che aveva sviluppato questi protocolli e li usava nel lavoro quotidiano. Circa 250 venditori vennero ad ascoltare 50 inventori e sperimentatori. I risultati furono delle sorprese da entrambe le parti: i venditori erano stupiti di scoprire che gli inventori erano così aperti sul modo in cui le cose funzionavano (e cosa ancora non funzionava) e gli inventori erano contenti di ascoltare nuovi problemi che non avevano considerato, ma che venivano scoperti dai venditori sul campo. Così si è formata una discussione a due vie che è durata per oltre un decennio.

Dopo due anni di conferenze, tutorial, riunioni di progettazione e workshop, fu organizzato un evento speciale che invitava quei venditori i cui prodotti eseguivano TCP/IP abbastanza bene a riunirsi in una stanza per tre giorni per mostrare quanto lavorassero bene tutti insieme e investissero anche su Internet. Nel settembre del 1988 nacque la prima fiera Interop. Ce la fecero 50 aziende. 5.000 ingegneri di organizzazioni di potenziali clienti vennero a vedere se tutto funzionava come era stato promesso. Funzionò. Perché? Perché i venditori hanno lavorato molto duramente per assicurare che i prodotti di tutti interoperassero con tutti gli altri prodotti, anche con quelli dei loro concorrenti. La fiera Interop è cresciuta immensamente da allora e oggi si tiene in 7 località del mondo ogni anno per un pubblico di oltre 250.000 persone che vengono per vedere quali prodotti funzionano tra di loro in modo perfetto, conoscere gli ultimi prodotti e discutere delle ultime tecnologie.

Parallelamente agli sforzi di commercializzazione evidenziati dalle attività di Interop, i venditori iniziarono a partecipare alle riunioni dell'IETF che si tenevano 3 o 4 volte all'anno per discutere nuove idee di estensioni della suite di protocolli TCP/IP. Iniziando con poche centinaia di partecipanti, per lo più dal mondo accademico e pagati dal governo, questi incontri ora superano spesso il migliaio di partecipanti, per lo più provenienti dalla comunità dei venditori e pagati dai partecipanti stessi. Questo gruppo auto-selezionato fa evolvere la suite TCP/IP in modo reciprocamente cooperativo. La ragione per cui è così utile è che è composto da tutte le parti interessate: ricercatori, utenti finali e venditori.

La gestione della rete fornisce un esempio dell'interazione tra la comunità di ricerca e quella commerciale. All'inizio di Internet, l'enfasi era sulla definizione e l'implementazione di protocolli che realizzavano l'interoperabilità.

Man mano che la rete si ingrandiva, diventava chiaro che le procedure ad hoc utilizzate in passato per gestire la rete non sarebbero aumentate. La configurazione manuale delle tabelle fu sostituita da algoritmi automatici distribuiti e furono ideati strumenti migliori per isolare gli errori. Nel 1987 divenne chiaro che era necessario un protocollo che permettesse agli elementi della rete, come i router, di essere gestiti a distanza in modo uniforme. Furono proposti diversi protocolli per questo scopo, tra cui Simple Network Management Protocol o SNMP (progettato, come il suo nome suggerirebbe, per la semplicità, e derivato da una proposta precedente chiamata SGMP), HEMS (un progetto più complesso dalla comunità di ricerca) e CMIP (dalla comunità OSI). Una serie di riunioni ha portato alla decisione di ritirare HEMS come candidato alla standardizzazione, al fine di aiutare a risolvere la contesa, ma che il lavoro su entrambi SNMP e CMIP sarebbe andato avanti, con l'idea che SNMP potrebbe essere una soluzione più a breve termine e CMIP un approccio più a lungo termine. Il mercato potrebbe scegliere quello che trova più adatto. SNMP è ora usato quasi ovunque per la gestione basata sulla rete.

Negli ultimi anni, abbiamo visto una nuova fase di commercializzazione. Originariamente, gli sforzi commerciali comprendevano principalmente i venditori che fornivano i prodotti di rete di base e i fornitori di servizi che offrivano la connettività e i servizi Internet di base. Ora Internet è diventato quasi un servizio "commodity", e gran parte delle ultime attenzioni sono state rivolte all'uso di questa infrastruttura informativa globale per il supporto di altri servizi commerciali. Questo è stato accelerato enormemente dalla diffusa e rapida adozione dei browser e della tecnologia World Wide Web, permettendo agli utenti un facile accesso alle informazioni collegate in tutto il mondo. Sono disponibili prodotti per facilitare la fornitura di queste informazioni e molti degli ultimi sviluppi tecnologici sono stati mirati a fornire servizi di informazione sempre più sofisticati in cima alle comunicazioni di dati di base su Internet.

Note a piè di pagina

1 Forse questa è un'esagerazione basata sulla residenza dell'autore principale nella Silicon Valley.

2 In un recente viaggio in una libreria di Tokyo, uno degli autori ha contato 14 riviste in lingua inglese dedicate a Internet.

3 Una versione abbreviata di questo articolo appare nel numero del 50° anniversario del CACM, febbraio 97. Gli autori vorrebbero esprimere il loro apprezzamento a Andy Rosenbloom, CACM Senior Editor, sia per aver incitato la scrittura di questo articolo che per la sua preziosa assistenza nella redazione di questo e della versione abbreviata.

4 L'Advanced Research Projects Agency (ARPA) ha cambiato nome in Defense Advanced Research Projects Agency (DARPA) nel 1971, poi di nuovo in ARPA nel 1993, e di nuovo in DARPA nel 1996. Ci riferiamo in tutto al DARPA, il nome attuale.

5 Fu dallo studio della RAND che iniziò la falsa voce che sosteneva che ARPANET fosse in qualche modo collegato alla costruzione di una rete resistente alla guerra nucleare. Questo non è mai stato vero per ARPANET, solo lo studio RAND non correlato sulla voce sicura considerava la guerra nucleare. Tuttavia, il lavoro successivo su Internetting ha enfatizzato la robustezza e la sopravvivenza, compresa la capacità di sopportare perdite di ampie porzioni delle reti sottostanti.

6 Compresi tra gli altri Vint Cerf, Steve Crocker e Jon Postel. Più tardi si unirono a loro David Crocker, che avrebbe avuto un ruolo importante nella documentazione dei protocolli di posta elettronica, e Robert Braden, che sviluppò il primo NCP e poi il TCP per i mainframe IBM e che avrebbe anche avuto un ruolo a lungo termine nell'ICCB e nello IAB.

7 Questo è stato successivamente pubblicato come V. G. Cerf e R. E. Kahn, "A protocol for packet network intercommunication", IEEE Trans. Comm. Tech., vol. COM-22, V 5, pp. 627-641, maggio 1974.

8 La desiderabilità dello scambio di e-mail, tuttavia, ha portato ad uno dei primi "libri di Internet": !%@:: A Directory of Electronic Mail Addressing and Networks, di Frey e Adams, sulla traduzione e inoltro degli indirizzi e-mail.

9 Originariamente chiamato Federal Research Internet Coordinating Committee, FRICC. Il FRICC è stato originariamente formato per coordinare le attività della rete di ricerca degli Stati Uniti a sostegno del coordinamento internazionale fornito dal CCIRN.

10 Lo smantellamento di ARPANET fu commemorato nel suo 20° anniversario da un simposio dell'UCLA nel 1989.

Riferimenti

P. Baran, "On Distributed Communications Networks", IEEE Trans. Comm. Systems, marzo 1964.

V. G. Cerf e R. E. Kahn, "A protocol for packet network interconnection", IEEE Trans. Comm. Tech., vol. COM-22, V 5, pp. 627-641, maggio 1974.

S. Crocker, RFC001 Host software, Apr-07-1969.

R. Kahn, Principi di comunicazione per i sistemi operativi. Memorandum interno di BBN, gennaio 1972.

Proceedings of the IEEE, Special Issue on Packet Communication Networks, Volume 66, No. 11, Novembre 1978. (Editore ospite: Robert Kahn, redattori ospiti associati: Keith Uncapher e Harry van Trees)

L. Kleinrock, "Information Flow in Large Communication Nets", RLE Quarterly Progress Report, luglio 1961.

L. Kleinrock, Communication Nets: Stochastic Message Flow and Delay, Mcgraw-Hill (New York), 1964.

L. Kleinrock, Queueing Systems: Vol II, Computer Applications, John Wiley and Sons (New York), 1976

J.C.R. Licklider & W. Clark, "On-Line Man Computer Communication", agosto 1962.

L. Roberts & T. Merrill, "Toward a Cooperative Network of Time-Shared Computers", Fall AFIPS Conf., ottobre 1966.

L. Roberts, "Multiple Computer Networks and Intercomputer Communication", ACM Gatlinburg Conf., ottobre 1967.