World Wide Web
Da Wikipedia, l'enciclopedia libera.
«Il world wide web ha le potenzialità per svilupparsi in un'enciclopedia universale che copra tutti i campi della conoscenza e in una biblioteca completa di corsi per la formazione»
|
|
(Richard Stallman)
|
Il World Wide Web (Web) è una rete di risorse di informazioni, basata sull'infrastruttura di Internet. Il Web si basa su tre meccanismi per rendere queste risorse prontamente disponibili al più vasto insieme possibile di utenti:
- Uno schema di denominazione uniforme per localizzare le risorse sul Web (ad es., gli URL).
- Protocolli, per accedere alle risorse denominate sul Web (ad es., HTTP).
- Ipertesto, per una facile navigazione tra le risorse (ad es., HTML).
Indice |
[modifica] Nota storica
La prima proposta di un sistema ipertestuale si può far risalire agli studi di Vannevar Bush, poi espressi nell'articolo As We May Think del 1945.
La data di nascita del World Wide Web viene comunemente indicata nel 6 agosto 1991, quando un matematico, Tim Berners-Lee, figlio di matematici (poi insignito del titolo di baronetto), pubblicò il primo sito nella rete internet, dando vita al fenomeno della triplia W: www.
In realtà, l'idea del World Wide Web, così come lo si conosce oggi, era nata due anni prima, nel 1989, presso il CERN di Ginevra (Conseil Européen pour la Recherche Nucléaire, il più importante laboratorio di Fisica in Europa). Alla sua base vi era l'intendimento dello stesso Berners-Lee e di un suo collega, Robert Cailliau, di condividere la documentazione scientifica in formato elettronico indipendentemente dalla piattaforma, migliorandone la comunicazione e la cooperarazione. Iniziò così la definizione di standard e protocolli per scambiare documenti su reti dati: il linguaggio HTML e il protocollo HTTP.
Questi standard e protocolli supportavano inizialmente la sola gestione di pagine HTML statiche, vale a dire file testuali arricchiti d'informazioni di formattazione visualizzabili e, soprattutto, navigabili utilizzando opportune applicazioni (browser o web browser). Nonostante le limitazioni delle pagine HTML statiche, la semplicità della tecnologia decretò un immediato successo, prima in campo accademico e di ricerca, quindi anche in quello commerciale, facendo nascere quella che oggi è anche nota come era del web.
[modifica] Dal web statico ai Web Service
Per superare le limitazioni del progetto iniziale, fin da subito furono definiti strumenti capaci di generare pagine HTML dinamiche (ad es. utilizzando dati estratti da un Database). La prima soluzione di questo tipo furono le CGI (Common Gateway Interface). Attraverso una CGI è possibile richiedere ad un Web server di invocare un'applicazione esterna e presentare il risultato come una qualsiasi pagina HTML. Questa soluzione, sebbene molto semplice da realizzare, presenta numerose limitazioni di progetto (l'applicativo esterno viene eseguito ad ogni richiesta utente e non è prevista alcuna ottimizzazione, non vi è alcuna gestione dello stato della sessione,…). Per dare al web una maggiore interattività e dinamicità sono state perseguite due strade. Da un lato sono state aumentate le funzionalità dei browser attraverso un'evoluzione del linguaggio HTML e la possibilità d'interpretazione di linguaggi di scripting (JavaScript). Dall'altro si è migliorata l'elaborazione lato server attraverso una nuova generazione di linguaggi integrati con il Web Server (JSP, PHP, ASP,…) trasformando i Web Server in quelli che sono oggi più propriamente noti come Application Server.
La diffusione di queste soluzioni ha consentito di avviare l'utilizzo del web come piattaforma applicativa che oggi trova la sua massima espressione nei Web Service alla cui realizzazione e diffusione sta lavorando l'intera industria mondiale del software, dai grandi nomi commerciali fino alle comunità Open Source ed agli stessi utenti finali tanto che, dopo l'originario web statico e il successivo web dinamico, siamo sulla soglia del terzo passo, contrassegnato come web computing o, a piacere, come fase dei Web Service.
Scopo dei Web Service è di limitare il più possibile le attività di implementazione, consentendo di accedere a servizi software resi disponibili in rete, assemblarli secondo le proprie necessità e pagarli soltanto per il loro utilizzo effettivo, metodologia individuata nella terminologia anglosassone come pay per use, on demand software, just in time software, on tap software,...
[modifica] Dal web statico al web semantico
Nonostante tutte queste evoluzioni, il web rimane, ancora e soprattutto, una gigantesca biblioteca di pagine HTML statiche on-line. Però, lo standard HTML se da un lato con la sua semplicità ha contribuito all'affermazione del web, dall'altro ha la grossa limitazione di occuparsi solo ed esclusivamente della formattazione dei documenti, tralasciando del tutto la struttura ed il significato del contenuto. Questo pone notevoli difficoltà nel reperimento e riutilizzo delle informazioni. Per rendersi conto di questo è sufficiente eseguire una ricerca utilizzando uno dei molti motori disponibili in rete e ci si accorgerà che, delle migliaia di documenti risultanti dalla query, spesso solo una piccola percentuale è d'interesse per la ricerca che s’intendeva fare. Ad esempio, per un qualsiasi motore di ricerca, non esiste alcuna differenza fra il termine Rossi nel contesto Il Sig. Rossi ed il termine Rossi nel contesto Capelli Rossi, rendendo la ricerca molto difficile.
La risposta a questo problema è venuta, ancora una volta, dal fisico inglese Tim Berners-Lee, che, abbandonato il CERN, ha fondato il consorzio W3C che ha assunto il ruolo di governo nello sviluppo di standard e protocolli legati al web. Egli nel 1998 ha definito lo standard XML (eXtensible Markup Language), un metalinguaggio derivante dall'SGML che consente la creazione di nuovi linguaggi di marcatura (ad es. lo stesso HTML è stato ridefinito in XML come XHTML). Sua caratteristica innovativa è la possibilità di aggiungere informazioni semantiche sui contenuti attraverso la definizione di opportuni tag.
I principali obiettivi di XML, dichiarati nella prima specifica ufficiale (ottobre 1998 "[1]"), sono pochi ed espliciti: utilizzo del linguaggio su Internet, facilità di creazione dei documenti, supporto di più applicazioni, chiarezza e comprensibilità. Con queste semplici caratteristiche l'XML fornisce un modo comune di rappresentare i dati cosicché i programmi software sono in grado di eseguire meglio ricerche, visualizzare e manipolare informazioni nascoste nell'oscurità contestuale.
È per questo che, nonostante la sua giovane età, l'XML è alla base di tutte le nuove specifiche tecnologiche rilasciate dal W3C ed è stato adottato come standard di rappresentazione dati da tutta l'industria informatica (dai file di configurazione delle applicazioni alla definizione di formati di interscambio dei dati).
Le specifiche XML hanno però una lacuna molto importante: non definiscono alcun meccanismo univoco e condiviso per specificare relazioni tra informazioni espresse sul web per una loro elaborazione automatica (ad es. più documenti che parlano dello stesso argomento, persona, organizzazione, oggetto), rendendo molto difficile la condivisione delle informazioni. Anche in questo caso la soluzione al problema è venuta dal W3C di Berners-Lee attraverso la formalizzazione del web semantico. Il W3C considera l'ideale evoluzione del web dal machine-representable al machine-understandable. L'idea è di generare documenti che possano al tempo stesso essere letti ed apprezzati da esseri umani, ma anche acceduti ed interpretati da agenti automatici per la ricerca di contenuti.
A tale scopo sono stati definiti alcuni linguaggi, quali RDF (Resource Description Framework) e OWL (Web Ontology Language), entrambi basati su XML, che consentono di esprimere le relazioni tra le informazioni rifacendosi alla logica dei predicati mutuata dall'intelligenza artificiale ([2]). Questi standard sono già disponibili ma continuano ad essere ulteriormente sviluppati insieme a formalismi e strumenti per dotare il web di capacità di inferenza.
Quello appena esposto è un processo solo apparentemente tecnico, ma ben visibile nella sua portata, che ha come obiettivo l'approdo all'intelligenza condivisa del web che promette, a breve, l'uso più efficiente dei siti internet e, a più lungo termine, una autentica trasformazione nella natura del software e dei servizi.
Perché tanto interesse su queste tecnologie? Semplice: tutti (utenti, produttori di software e di servizi piccoli e grandi) hanno da avvantaggiarsi dalla diffusione piena di questi standard. La formazione nel corpo del web di una vasta rete "semantica" è, infatti, la condizione chiave per il decollo di un nuovo modo di intendere ed usare il web.
[modifica] Voci correlate
[modifica] Nota
La citazione di apertura è ricavata da L'enciclopedia universale libera e le risorse per l'apprendimento
[modifica] Altri progetti
- Wikinotizie contiene notizie di attualità su Ecco i quindici siti web che hanno cambiato il mondo
- Wikiquote contiene citazioni sul World Wide Web