Privacy Policy Cookie Policy Terms and Conditions Singolarità tecnologica - Wikipedia

Singolarità tecnologica

Da Wikipedia, l'enciclopedia libera.

15 liste separate di cambiamenti paradigmatici per la storia umana, vengono disegnate un grafico logaritmico e mostrano una crescita esponenziale. Le liste sono state preparate da, tra gli altri, Carl Sagan, Paul D. Boyer, Encyclopædia Britannica, American Museum of Natural History e University of Arizona, e compilate da Ray Kurzweil.
Ingrandisci
15 liste separate di cambiamenti paradigmatici per la storia umana, vengono disegnate un grafico logaritmico e mostrano una crescita esponenziale. Le liste sono state preparate da, tra gli altri, Carl Sagan, Paul D. Boyer, Encyclopædia Britannica, American Museum of Natural History e University of Arizona, e compilate da Ray Kurzweil.

Nella futurologia, una singolarità tecnologica è un punto, previsto nello sviluppo di una civilizzazione, dove il progresso tecnologico accelera oltre la capacità di comprendere e prevedere degli esseri umani moderni. La Singolarità può più specificamente riferirsi all'avvento di una intelligenza superiore a quella umana, e ai progressi tecnologici che, a cascata, si presume seguirebbero. Che una singolarità possa mai avvenire, è materia di dibattito.

Indice

[modifica] Panoramica sulla singolarità

[modifica] Concetto iniziale

Sebbene si creda comunemente che il concetto di Singolarità sia nato negli ultimi 20 anni del ventesimo secolo, esso nasce realmente negli anni 1950:

"Una conversazione centrata sul sempre accelerante progresso della tecnologia e del cambiamento nei modi di vita degli esseri umani, che da l'apparenza dell'avvicinarsi di qualche fondamentale singolarità della storia della razza oltre la quale, gli affanni degli esseri umani, come li conosciamo, non possono continuare." -- Stanislaw Ulam, Maggio 1958, riferendosi ad una conversazione con John von Neumann

Questa citazione è stata parecchie volte utilizzata fuori dal suo contesto ed attribuita allo stesso von Neumann, probabilmente a causa della grande fama ed influenza di von Neumann.

Nel 1965, lo statistico I. J. Good descrisse un concetto anche più simile al significato contemporaneo di singolarità, nel quale egli includeva l'avvento di una intelligenza superumana:

"Diciamo che una macchina ultraintelligente sia definita come una macchina che può sorpassare di molto tutte le attività intellettuali di qualsiasi uomo per quanto sia abile. Dato il progetto di queste macchine è una di queste attività intellettuali, una macchina ultraintelligente potrebbe progettare macchine sempre migliori; quindi, ci sarebbe una "esplosione di intelligenza", e l'intelligenza dell'uomo sarebbe lasciata molto indietro. Quindi, la prima macchina ultraintelligente sarà l'ultima invenzione che l'uomo avrà la necessità di fare."

[modifica] La singolarità vingeana

Il concetto di una singolarità tecnologica come è conosciuto oggi viene accreditato al matematico e romanziere Dr. Vernor Vinge. Vinge cominciò a parlare sulla Singolarità negli anni '80, e raccolse i suoi pensieri nel primo articolo sull'argomento nel 1993, con il saggio "Technological Singularity". Da allora, questo è stato il soggetto di molte storie e scritti futuristici e di fantascienza.

Il saggio di Vinge contiene l'affermazione spesso citata che "Entro trenta anni, avremo i mezzi tecnologici per creare una intelligenza superumana. Poco dopo, l'era degli esseri umani finirà."

La singolarità di Vinge è comunemente ed erroneamente interpretata come l'affermazione che il progresso tecnologico crescerà all'infinito, come avviene in una singolarità matematica. In realtà, il termine è stato scelto come una metafora prendendolo dalla fisica e non dalla matematica: mentre uno si avvicina alla Singolarità, i modelli di previsione del futuro diventano meno affidabili, esattamente come i modelli della fisica vanno a pezzi mentre uno si avvicina ad una singolarità gravitazionale.

La Singolarità è spesso vista come la fine della civilizzazione umana e la nascita di una nuova civiltà. Nel suo saggio, Vinge chiede perché l'era umana dovrebbe finire, e argomenta che gli umani saranno trasformati durante la Singolarità in una forma di intelligenza superiore. Dopo la creazione di una intelligenza superumana, secondo Vinge, la gente sarà, al suo confronto, una forma di vita inferiore.

[modifica] La legge di Kurzweil del ritorno accelerato

L'analisi storica del progresso tecnologico dimostra che, l'evoluzione della tecnologia, segue un processo esponenziale e non lineare come invece si sarebbe portati a pensare. Nel suo saggio, The Law of Accelerating Returns, Ray Kurzweil propone una generalizzazione della Legge di Moore che forma la base delle convinzioni di molta gente a riguardo della Singolarità. La Legge di Moore descrive un andamento esponenziale della crescita della complessità dei circuiti integrati a semiconduttore. Kurzweil estende questo andamento includendo tecnologie molto precedenti ai circuiti integrati ed estendendolo al futuro. Egli crede che la crescita esponenziale della legge di Moore continuerà oltre l'utilizzo dei circuiti integrati, con l'utilizzo di tecnologie che guideranno alla Singolarità.

La legge descritta da Ray Kurzweil ha in molti modi alterato la percezione della Legge di Moore da parte del pubblico. È un credo comune (ma errato) che la legge di Moore faccia previsioni che riguardino tutte le forme di tecnologia, quando in realtà essa riguarda solo i circuiti a semiconduttore. Molti futurologi utilizzano ancora il termine "Legge di Moore" per descrivere idee come quelle presentate da Kurzweil. Realizzare previsioni a lungo termine, almeno in parte corrette, su dove riuscirà ad arrivare la tecnologia, è praticamente impossibile. Ancora troppo spesso si pensa al progresso tecnologico come qualcosa che procede in maniera lineare, secondo quello che è la linea di progresso intuitiva.

Per esprimere il concetto in termini matematici, potremmo pensare di rappresentare tale velocità con una curva esponenziale. Ciò tuttavia non sarebbe ancora esatto; un andamento esponenziale ,è infatti corretto, ma solo per brevi intervalli di tempo: se prendiamo in considerazione, per esempio, un periodo di 100 anni, una curva esponenziale, non risulterà corretta. Tipicamente i giornalisti stilano le loro previsioni, quando considerano il futuro, estrapolando la velocità d'evoluzione attuale per determinare ciò che ci si può aspettare nei prossimi 10 e magari pure 100 anni. Questo è ciò che Ray Kurzweil chiama intuitive linear view.

Quello che Kurzweil chiama the law of accelerating returns si può schematizzare nei seguenti punti:

  • lo sviluppo applica le risposte positive, in quanto metodo migliore derivato da una fase di progresso. Queste risposte positive costituiscono la base per il successivo sviluppo;
  • di conseguenza il tasso di progresso di un processo evolutivo aumenta esponenzialmente col tempo. Col tempo l'ordine di grandezza delle informazioni che vengono incluse nel processo di sviluppo aumenta;
  • di conseguenza il guadagno in termini di tecnologia si incrementa esponenzialmente;
  • in un altro ciclo di risposte positive, di un particolare processo evolutivo, queste vengono utilizzate come trampolino di lancio per un ulteriore progresso. Ciò provoca un secondo livello di sviluppo esponenziale e il processo di sviluppo esponenziale cresce esso stesso in maniera esponenziale;
  • lo sviluppo biologico è anch'esso uno di tali sviluppi;
  • lo sviluppo tecnologico fa parte di tale processo evolutivo. Effettivamente, la prima tecnologia che ha generato la specie ha costituito la base per lo sviluppo della tecnologia successiva: lo sviluppo tecnologico è una conseguenza ed una continuazione dello sviluppo biologico;
  • un determinato paradigma(=metodo) (come per esempio l'aumento del numero di transistors sui circuiti integrati per rendere più potenti i calcolatori) garantisce crescita esponenziale fino a che non esaurisce il suo potenziale; dopo accade un cambiamento che permette allo sviluppo esponenziale di continuare.

Se applichiamo questi principi all'evoluzione della Terra, notiamo come siano aderenti al processo di sviluppo che è avvenuto. Il primo punto possiamo paragonarlo alla creazione della cellula, ossia l'introduzione del paradigma della biologia. Conseguentemente il DNA ha fornito un metodo “digitale” per registrare i risultati degli esperimenti evolutivi. Dopo l'evoluzione della specie ha unito il pensiero razionale con un appendice opposta: la tecnologia. Questo ha spostato in maniera decisiva il paradigma dalla biologia alla tecnologia. Ciò che sta per avvenire, sarà il passaggio da intelligenza biologica ad una combinazione ibrida di intelligenza biologica e non biologica. Esaminando i tempi di questi passi, possiamo notare come il processo abbia continuamente accelerato. Per esempio l'evoluzione delle forme di vita, ha richiesto parecchi milioni di anni per il primo passo (es. la cellule primitive), ma, dopo, il processo ha sempre più accelerato. Ora la “tecnologia biologica”, è diventata troppo lenta rispetto alla tecnologia creata dall'uomo, che utilizza i suoi stessi risultati per andare avanti in maniera nettamente più veloce di quanto non possa fare la natura.

[modifica] Curve di crescita asintotiche

Alcuni presumono che una sempre più rapida crescita tecnologica arriverà con lo sviluppo di una intelligenza superumana, sia potenziando direttamente le menti umane (forse con la cibernetica), o costruendo intelligenze artificiali. Queste intelligenze superumane sarebbero presumibilmente capaci di inventare modi di potenziare se stesse anche più velocemente, producendo un effetto feedback che sorpasserebbe le intelligenze preesistenti.

Semplicemente avere una intelligenza artificiale allo stesso livello di quella umana, presumono altri, potrebbe produrre lo stesso effetto, se la Legge di Kurzweil continua indefinitamente. All'inizio, si suppone, una simile intelligenza dovrebbe essere pari a quella umana. Diciotto mesi dopo sarebbe due volte più veloce. Tre anni dopo, sarebbe quattro volte più veloce, e così via. Ma dato che le Intelligenza Artificiali accelerate stanno, in quel momento, progettando i computer, ogni passo successivo impiegherebbe circa diciotto mesi soggettivi e proporzionalmente meno tempo reale ad ogni passo. Se la Legge di Kurzweil continua ad applicarsi senza modifiche, ogni passo richiederebbe metà del tempo. In tre anni (36 mesi = 18 + 9 + 4,5 + 2,25 + ...) la velocità del computer, teoricamente, raggiungerebbe l'infinito. Questo esempio è illustrativo, e comunque, molti futurologi concordano che non si può presumere che la legge di Kurzweil sia valida anche durante la Singolarità, o che essa possa rimanere vera letteralmente per sempre, come sarebbe richiesto per produrre, in questo modo, una intelligenza realmente infinita .

[modifica] Tipi di singolarità tecnologiche

I futurologi hanno speculato su un ampio spettro di tecnologie possibili che potrebbero giocare un ruolo nel realizzare la Singolarità. L'ordine di arrivo di queste tecnologie viene spesso discusso, e naturalmente alcune di queste accelereranno lo sviluppo delle altre, alcune sono dipendenti dallo sviluppo di altre, etc. Esistono molte dispute tra le previsioni di molti futurologi, ma le seguenti descrivono alcuni dei temi più ricorrenti tra di esse.

[modifica] Intelligenza artificiale

Una intelligenza artificiale capace di migliorare sé stessa in modo ricorsivo oltre il livello dell'intelligenza umana, conosciuta come una seed AI (seme), se possibile, causerebbe probabilmente una singolarità tecnologica. Semplicemente una di queste AI, credono in molti, sarebbe necessaria per produrre la Singolarità. La maggioranza dei Singolaritisti credono che la creazione di una seed AI sia il mezzo più probabile con il quale l'umanità raggiungerà la Singolarità. Molto del lavoro del Singularity Institute è fondato su questa premessa.

[modifica] Nanotecnologia

I pericoli potenziali della nanotecnologia sono ampiamente conosciuti anche al di fuori dei circoli dei futurologi e dei transumanisti, e molti Singolaritisti considerano la nanotecnologia controllata dagli uomini come uno dei maggiori rischi esistenziali che l'umanità si trova di fronte (fate riferimento al concetto di Grey Goo per un esempio di come questo rischio potrebbe diventare reale). Per questa ragione, spesso essi credono che la nanotecnologia dovrebbe essere preceduta dalla seed AI, e che la nanotecnologia non dovrebbe essere a disposizione delle società prima della Singolarità.

Altri sostengono gli sforzi per creare una nanotecnologia molecolare o zettatecnologia, credendo che la nanotecnologia può essere sicura anche se usata prima della Singolarità o può accelerare l'arrivo di una singolarità benefica.

[modifica] Tecnologie pre-singolarità

Altre tecnologie, (e.g.: una struttura di comunicazione connessa globalmente a banda elevata e senza fili; una rete di computer infetti da virus o worm interconnessi tra loro), sebbene non siano, probabilmente, in grado di produrre una singolarità di per se stesse, sono considerate come segni di un livello di avanzamento tecnologico che produrrà la Singolarità.

Per alcuni, una delle tecnologie più anticipate è la possibilità di potenziamento dell'intelligenza umana:

Interfacce dirette mente-computer potenzialmente potrebbero aumentare la memoria degli individui, la loro capacità elaborativa, l'abilità comunicativa, e le conoscenze. Anche una interfaccia tra computer e uomo più tradizionale potrebbe essere vista come un progresso che aumenta l'intelligenza: i sistemi esperti tradizionali, i sistemi di computer che riconoscono e prevedono il comportamento umano, il software di riconoscimento vocale e di riconoscimento della scrittura, etc.

L'aumento dell'intelligenza attraverso i nuovi medicinali e l'ingeneria genetica potrebbe anche diventare una possibilità per gli umani esistenti, oltre a quello che è permesso dalle moderne sostanze nootropiche. Ai neonati potrebbe essere migliorata l'intelligenza nello stesso modo (vedi ingegneria genetica).

[modifica] Tecnologie avanzate

Sebbene la seed AI e la nanotecnologia siano considerate le più probabili tecnologie che possano produrre una Singolarità, altri hanno speculato sulla possibiltà che altre tecnologie avanzate arrivino prima della Singolarità. Queste tecnologie, sebbene improbabili, sono spesso utilizzate da alcuni futurologi (come Ray Kurzweil) una "prova" della Singolarità -- anche se la seed AI e la nanotecnologia molecolare non saranno state inventate entro la fine del XXI secolo, altre tecnologie potrebbero causare la Singolarità.

Il Mind uploading, per esempio, è un metodo alternativo proposto per creare una intelligenza artificiale -- invece di programmare una intelligenza, essa sarebbe prodotta partendo dall'intelligenza umana già esistente. Comunque, il livello tecnologico necessario per scannerizzare il cervello umano alla risoluzione necessaria per un mind upload rende improbabile il mind uploading in un mondo pre Singolarità. La capacità elaborative dei computer e la comprensione delle scienze cognitive necessarie è anche fondamentale.

Altri, come George Dyson in Darwin Among the Machines, hanno speculato che una rete di computer sufficientemente complessa potrebbe produrre una "swarm intelligence". Gli sviluppatori dedicati all'AI potrebbero utilizzare le accresciute capacità elaborative per creare reti neurali artificiali così grandi e potenti che potrebbero diventare genericamente intelligenti. I sostenitori della Intelligenza Artificiale Amichevole vedono questo come un tentativo di risolvere il problema di creare una AI utilizzando la "forza-bruta" (testando, letteralmente, tutte le possibilità fino a che non si ottiene il risultato voluto), e un modo che potrebbe produrre forme di intelligenza artificiale inacettabilmente pericolose.

[modifica] Tecnologie post singolarità

Le speculazioni sulla Singolarità spesso si interessano dei supercomputer esistenti dopo la Singolarità stessa. Alcuni ricercatori sostengono che anche senza il quantum computing, utilizzando una forma avanzata di nanotecnologia, la materia potrebbe essere manipolata in modo da avere capacità elaborativa inimmaginabili. A tale materiale ci si riferisce spesso, tra i futurologi, come computronium. Alcuni pensano che interi pianeti o stelle potrebbero essere convertiti in computronium, creando rispettivamente degli "Jupiter brain" e "Matrioshka Brain".

[modifica] Critiche

Ci sono due tipi principali di critiche alla previsione della Singolarità: quelle che mettono in dubbio che la Singolarità sia probabile o anche possibile e quelli che si domandano se sia desiderabile o non pericolosa.

[modifica] La possibilità e la probabilità della singolarità

Alcuni non credono che una singolarità tecnologica abbia molte possibilità di realizzarsi. Alcuni detrattori si riferiscono ad essa come "l'Estasi dei nerd".

La maggior parte delle speculazioni sulla Singolarità presumono la possibilità di una intelligenza artificiale equivalente a quella umana. È controverso che creare una simile AI sia possibile. Molti credono che i progressi pratici nell'intelligenza artificiale non abbiano ancora dimostrato questo in modo empirico. Vedi l'articolo sull'intelligenza artificiale per i dettagli sul dibattito.

Alcuni discutono sul fatto che la velocità del progresso tecnologico stia aumentando. La crescita esponenziale del progresso tecnologico potrebbe diventare lineare o flettersi o potrebbe cominciare ad appiattirsi in una curva che permette una crescita limitata. Quello che potrebbe causare un simile evento, comunque, non è chiaro in questo momento.

[modifica] La desiderabilità e la sicurezza della singolarità

Ci sono state spesso delle speculazioni, nella fantascienza e in altri generi, che una AI avanzata probabilmente avrà degli obiettivi che non coincidono con quelli dell'umanità e che potrebbero minacciarne l'esistenza. È concepibile, se non probabile, che una AI superintelligente, semplicemente eliminerà l'intellettualmente inferiore razza umana, e gli umani saranno incapaci di fermarla. Questo è uno dei maggiori problemi che proccupano sia i sostenitori della Singolarità che i suoi critici, ed era il soggetto di un articolo di Bill Joy apparso su Wired Magazine, intitolato Perché il futuro non ha bisogno di noi.

Alcuni critici affermano che le tecnologie avanzate sono semplicemente troppo pericolose per noi per permettere che si causi una Singolarità, e propongono che si lavori per impedirla. Forse il più famoso sostenitore di questo punto di vista è Theodore Kaczynski, l'Unabomber, che scrisse nel suo "manifesto" che l'AI potrebbe dare il potere alle classi elevate della società di "semplicemente decidere di sterminare la massa dell'umanità". In alternativa, se l'AI non venisse creata, Kaczynski sostiene che gli umani "saranno ridotti al livello di animali domestici" dopo che ci sarà stato un sufficiente progresso tecnologico. Parte degli scritti di Kaczynski sono stati inclusi sia nell'articolo di Bill Joy che in un recente libro di Ray Kurzweil. Deve essere notato che Kaczynski non solo si oppone alla Singolarità, ma è un Luddista e molte persone si oppongono alla Singolarità senza opporsi alla tecnologia moderna come fanno i Luddisti.

Naturalmente, gli scenari come quelli descritti da Kaczynski sono considerati come indesiderabili anche dai sostenitori della Singolarità. Molti sostenitori della Singolarità, comunque, non ritengono che questi siano così probabili e sono più ottimisti sul futuro della tecnologia. Altri credono che, senza riguardo ai pericoli che la Singolarità pone, essa è semplicemente inevitabile -- noi dobbiamo progredire tecnologicamente perché non abbiamo un'altra strada da seguire.

I sostenitori dell'Intelligenza Artificiale Amichevole, e in particolar modo il SIAI, riconoscono che la Singolarità è, potenzialmente, molto pericolosa e lavorano per renderla più sicura creando seed AI che agiranno benevolmente verso gli umani ed elimineranno i rischi esistenziali. Questa idea è così connaturata alle Tre Leggi della Robotica di Asimov, che impediscono alla logica di un robot con intelligenza artificiale di agire in modo malevolo verso gli umani. Comunque, in uno dei racconti di Asimov, a dispetto di queste leggi, i robot finiscono per causare danno ad un singolo essere umano come risultato della formulazione della Legge Zero. La struttura teoretica della Intelligenza Artificiale Amichevole viene attualmente progettata dal Singolaritiano Eliezer Yudkowsky.

Un altro punto di vista, sebbene meno comune, è che l'Intelligenza Artificale alla fine dominerà o distruggerà la razza umana, e che questo scenario è desiderabile. Dr. Prof. Hugo de Garis è il più conosciuto sostenitore di questa opinione.

[modifica] Organizzazioni

Il Singularity Institute for Artificial Intelligence (SIAI), un istituto di ricerca ed educazione nonprofit, fu creato per lavorare sul potenziamento cognitivo sicuro (i.e. una singolarità benefica). Essi enfatizzano l'Intelligenza Artificiale Amichevole, in quanto essi credono che una intelligenza artificiale generalista è più verosimile possa incrementare la capacità cognitiva sostanzialmente prima che l'intelligenza umana possa essere incrementata significativamente dalle neurotecnologie o dalla terapia genetica somatica.

L'Institute for the Study of Accelerating Change (ISAC), anche esso una entità dedita all'educazione senza fini di lucro, fu fondato per attrarre un'ampia gamma di scienziati, umanisti e uomini d'affari interessati negli studi sull'accelerazione del cambiamento e sulla singolarità. Tengono una conferenza annuale alla Stanford University dove si tenta di comprendere in modo multidisciplinare l'accelerazione del cambiamento tecnologico.

[modifica] Principali rappresentanti

  • Michael Anissimov
  • Nick Bostrom
  • Damien Broderick
  • Tyler Emerson
  • Ben Goertzel
  • Bill Hibbard
  • Ray Kurzweil
  • Terence McKenna
  • Marvin Minsky
  • Hans Moravec
  • John Smart
  • Charles Stross
  • Vernor Vinge
  • Gordon Worley
  • Eliezer Yudkowsky

[modifica] La singolarità nella fantasia e nella cultura moderne

In aggiunta alle storie originali di Vernor Vinge che è stato il pioniere delle prime idee sulla Singolarità, parecchi altri autori di fantascienza hanno scritto storie che hanno la Singolarità come tema centrale. Autori degni di nota sono Charles Stross e Greg Egan.

Il gioco per computer Sid Meier's Alpha Centauri presenta anche esso qualche cosa simile ad una Singolarità, chiamata 'Ascent to Transcendence', come tema principale al suo interno.

Il concetto di Singolarità viene anche usato da Isaac Asimov nel suo racconto The Last Question.

[modifica] Voci correlate

[modifica] Bibliografia

  • Damien Broderick. The Spike: How Our Lives Are Being Transformed by Rapidly Advancing Technologies Forge; 2001. ISBN 0312877811.

[modifica] Collegamenti esterni

[modifica] In italiano

[modifica] In inglese

THIS WEB:

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - be - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - closed_zh_tw - co - cr - cs - csb - cu - cv - cy - da - de - diq - dv - dz - ee - el - eml - en - eo - es - et - eu - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gd - gl - glk - gn - got - gu - gv - ha - haw - he - hi - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mg - mh - mi - mk - ml - mn - mo - mr - ms - mt - mus - my - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - rm - rmy - rn - ro - roa_rup - roa_tara - ru - ru_sib - rw - sa - sc - scn - sco - sd - se - searchcom - sg - sh - si - simple - sk - sl - sm - sn - so - sq - sr - ss - st - su - sv - sw - ta - te - test - tet - tg - th - ti - tk - tl - tlh - tn - to - tokipona - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu

Static Wikipedia 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007:

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - be - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - closed_zh_tw - co - cr - cs - csb - cu - cv - cy - da - de - diq - dv - dz - ee - el - eml - en - eo - es - et - eu - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gd - gl - glk - gn - got - gu - gv - ha - haw - he - hi - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mg - mh - mi - mk - ml - mn - mo - mr - ms - mt - mus - my - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - rm - rmy - rn - ro - roa_rup - roa_tara - ru - ru_sib - rw - sa - sc - scn - sco - sd - se - searchcom - sg - sh - si - simple - sk - sl - sm - sn - so - sq - sr - ss - st - su - sv - sw - ta - te - test - tet - tg - th - ti - tk - tl - tlh - tn - to - tokipona - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu

Static Wikipedia 2006:

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - be - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - closed_zh_tw - co - cr - cs - csb - cu - cv - cy - da - de - diq - dv - dz - ee - el - eml - en - eo - es - et - eu - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gd - gl - glk - gn - got - gu - gv - ha - haw - he - hi - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mg - mh - mi - mk - ml - mn - mo - mr - ms - mt - mus - my - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - rm - rmy - rn - ro - roa_rup - roa_tara - ru - ru_sib - rw - sa - sc - scn - sco - sd - se - searchcom - sg - sh - si - simple - sk - sl - sm - sn - so - sq - sr - ss - st - su - sv - sw - ta - te - test - tet - tg - th - ti - tk - tl - tlh - tn - to - tokipona - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu