Wikipedia for Schools in Portuguese is available here
CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
SITEMAP
Make a donation: IBAN: IT36M0708677020000000008016 - BIC/SWIFT:  ICRAITRRU60 - VALERIO DI STEFANO or
Privacy Policy Cookie Policy Terms and Conditions
Singularidade tecnológica - Wikipédia

Singularidade tecnológica

Origem: Wikipédia, a enciclopédia livre.

Singularidade tecnológica é a denominação dada a um evento histórico previsto para o futuro no qual a humanidade atravessará um estágio de colossal avanço tecnológico em um curtíssimo espaço de tempo.

Baseando-se em avanços nas áreas da informática, inteligência artificial, medicina, astronomia, nanotecnologia, genética e biotecnologia, muitos estudiosos acreditam que nas próximas décadas a humanidade irá atravessar a singularidade tecnológica e é impossível prever o que acontecerá depois deste período.

A aceleração do progresso científico e tecnológico tornou-se, nos últimos 300 anos, a característica mais marcante da história da humanidade. Desde o surgimento da ciência com Galileu Galilei, Isaac Newton e Leibnitz profundas mudanças políticas e econômicas ocorreram em todos os países. Tais mudanças se fazem mais notáveis nos últimos 30 anos com a explosão da era digital e do capitalismo financeiro.

Ainda não existe consenso sobre quais seriam os agentes responsáveis pela singularidade tecnológica, alguns acreditam que ela decorrerá naturalmente, como conseqüência dos acelerados avanços científicos, outros acreditam que o surgimento iminente de supercomputadores dotados da chamada superinteligência será a base de tais avanços - argumenta-se em favor disso que somente com uma inteligência superior a humana poderíamos ter avanços científicos e tecnológicos tão rápidos e importantes. Há também quem acredite na integração homem-computador para o surgimento da superinteligência, mas a tecnologia necessária para tal pode estar mais distante de ser alcançada do que a inteligência artificial.

Vários cientistas, entre eles Vernor Vinge e Raymond Kurzweil, e também alguns filósofos afirmam que a singularidade tecnológica é um evento histórico de importância semelhante ao aparecimento da inteligência humana na Terra. Outros, mais levianos, afirmam que a singularidade tecnológica é para o século XXI o que a revolução industrial foi para o século XVIII ou simplesmente que a singularidade tecnológica é na verdade a quarta revolução industrial.

Índice

[editar] Estimativas

Quadro representativo sobre as previsões de Gordon Moore em relação ao aumento do poder de processamento dos computadores.
Ampliar
Quadro representativo sobre as previsões de Gordon Moore em relação ao aumento do poder de processamento dos computadores.

Para fazer uma estimativa precisa de quando exatamente a inteligência artificial conseguirá alcançar níveis superiores a inteligência humana muitos índices tem sido usados e comparados. A lei de Moore, em vigor a mais de 30 anos, segundo a qual a cada 18 meses a capacidade de processamento dos computadores dobra, enquanto os custos permanecem constantes, é extensamente usada como modelo nos estudos sobre singularidade tecnológica.

No modelo de singularidade tecnológica como conseqüência natural do acelerado progresso técnico-científico vários outros índices também tem sido utilizados, dentre eles podemos destacar o número crescente de publicações científicas anuais, o número crescente de patentes registradas e a crescente concorrência econômica e industrial internacional.

A maior parte daqueles que pesquisam ou discutem a singularidade tecnológica acreditam que esta possa decorrer entre os anos de 2025 e 2070, embora seja perfeitamente possível que esta demore mais a ocorrer ou, simplesmente, não ocorra.

[editar] Perigos potenciais

Existe atualmente uma complexa discussão sobre os perigos que a singularidade tecnológica poderá trazer à humanidade.

Segundo muito estudiosos, um intelecto artificial muito superior aos melhores cérebros humanos em praticamente todas as áreas, incluindo criatividade científica, sabedoria geral e habilidade social, não teria porquê estar submisso a nós. De acordo com esta linha de raciocíonio, Vernor Vinge aposta na rebelação das máquinas inteligentes contra os homens, o que poderia resultar em um extermínio total ou na escravização da raça humana após uma guerra de grandes proporções, muitas vezes apontada como uma possível Terceira Guerra Mundial. Ao lado de Vernor Vinge, temos também Bill Joy, fundador da Sun Microsystems, que publicou no ano 2000 o, atualmente famoso, artigo "Por que o futuro não precisa de nós?", onde defende a idéia de que as máquinas inteligentes e auto-replicantes são perigosas demais e poderão facilmente fugir do nosso controle.

Tradicionalmente argumenta-se que os homens jamais iriam entregar o poder às máquinas ou dar-lhes a capacidade de tomá-lo de nós, mas as coisas podem se suceder de forma diferente, já que o grau de dependência do homem aumentará paulatinamente até chegar a um ponto em que não restem alternativas senão a de aceitar as decisões tomadas pelas máquinas. Na mesma proporção em que os problemas da sociedade se tornarem mais complexos e as máquinas mais inteligentes, cada vez mais decisões serão tomadas por elas simplesmente por serem mais eficazes que as tomadas pelos humanos. Isso pode levar a um estágio em que a nossa dependência em relação às máquinas transforme-se no domínio pacífico das mesmas sobre nós, o que não descarta a possibilidade de um domínio agressivo.

Numa linha de raciocínio alternativa, Theodore Kaczynski publicou um manifesto sobre a possibilidade das classes superiores da sociedade usarem-se da tecnologia para simplesmente eliminar as massas inferiores, Kaczynski é também adepto do ludismo e é radicalmente contra o avanço tecnológico da forma como ele está acontecendo. Os artigos de Kaczynski foram incluídos em um livro recente de Raymond Kurzweil.

Outros perigos mais amenos dizem respeito a exclusão digital e social e ao impacto da singularidade tecnológica sobre a economia internacional, especialmente sobre os países pobres e emergentes. Há ainda questões éticas, que não representam perigos potenciais, mas que também não podem ser ignoradas.

[editar] Cultura popular

A muito tempo o cinema e a ficção-científica abordam temas relacionados ao fim do mundo, mas a singularidade tecnológica como ameaça global é algo bem mais recente. Um exemplo disso é o filme Matrix, lançado em 1999, que apresenta uma versão bastante elaborada de como poderá ocorrer a singularidade tecnológica. No filme uma guerra entre homens e máquinas inteligentes é travada entre 2094 e 2102 com a derrota e conseqüente escravização da humanidade. De forma semelhante, o filme O Exterminador do Futuro 3: A Rebelião das Máquinas aborda uma longa e inacabada guerra entre homens e máquinas.

Por outro lado, alguns filmes, como, por exemplo, Eu, robô, são mais cautelosos e abordam uma vitória humana sobre a questão. Outros ainda, como O Homem Bicentenário, mostram que a inteligência artificial pode ser totalmente benéfica e que a singularidade tecnológica pode não trazer perigos potenciais à humanidade.

[editar] Organizações e instituições relacionadas

Existem várias organizações e instituições que pretendem participar ativamente e/ou promovem estudos acerca da singularidade tecnológica. Dentre estas podemos destacar o Singularity Institute for Artificial Intelligence que é um instituto de pesquisa sem fins lucrativos que já vem promovendo a algum tempo o estudo e o avanço das pesquisas na área da inteligência artificial e prega que a singularidade tecnológica pode ser totalmente benéfica, ao contrário do que muitos acreditam. Estão atualmente trabalhando para dar forma ao que o estatístico britânico Irving John Good chamou de "explosão de inteligência" e têm como objetivo adicional promover uma discussão e uma compreensão mais ampla sobre a inteligência artificial e seus benefícios.

A Acceleration Studies Foundation é uma organização educacional sem fins lucrativos que visa promover estudos e pesquisas (e também conseguir investimentos para as mesmas) acerca da aceleração do progresso científico e tecnológico e da aceleração das mudanças sociais, políticas, culturais e econômicos de nossa sociedade. É também responsável por uma conferência anual realizada na Universidade de Stanford, nos Estados Unidos, onde se discute a aceleração das inovações tecnológicas e o seu impacto social, promovendo para tal introspecções multidisciplinares acerca de assuntos muitas vezes relacionados à singularidade tecnológica.

[editar] Outras vozes proeminentes

  • Marvin Minsky, cientista americano, co-fundador do laboratório de inteligência artifical do MIT, e autor de diversos artigos sobre inteligência artificial e filosofia.
Este artigo encontra-se parcialmente em língua estrangeira. Ajude e colabore com a tradução.
  • Hans Moravec é um professor residente permanente da pesquisa no instituto do Robotics da universidade do Carnegie-Mellon conhecido para seu trabalho no robotics, na inteligência artificial, e nas escritas no impacto da tecnologia.
  • Max More é um filósofo e futurista que escreve, fala, e consulta em métodos avançados da tomada de decisão e do foresight para segurar o impacto de tecnologias emergentes.

[editar] Ver também

Portal A Wikipédia possui o
Portal de tecnologia
{{{Portal2}}}
{{{Portal3}}}
{{{Portal4}}}
{{{Portal5}}}

[editar] Ligações externas

Static Wikipedia 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2006 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Sub-domains

CDRoms - Magnatune - Librivox - Liber Liber - Encyclopaedia Britannica - Project Gutenberg - Wikipedia 2008 - Wikipedia 2007 - Wikipedia 2006 -

Other Domains

https://www.classicistranieri.it - https://www.ebooksgratis.com - https://www.gutenbergaustralia.com - https://www.englishwikipedia.com - https://www.wikipediazim.com - https://www.wikisourcezim.com - https://www.projectgutenberg.net - https://www.projectgutenberg.es - https://www.radioascolto.com - https://www.debitoformtivo.it - https://www.wikipediaforschools.org - https://www.projectgutenbergzim.com