Singularidade tecnológica

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa
Question book.svg
Esta página ou secção não cita nenhuma fonte ou referência, o que compromete sua credibilidade (desde abril de 2012).
Por favor, melhore este artigo providenciando fontes fiáveis e independentes, inserindo-as no corpo do texto por meio de notas de rodapé. Encontre fontes: Googlenotícias, livros, acadêmicoScirusBing. Veja como referenciar e citar as fontes.
Gráfico logarítmico contendo quinze listas de mudanças paradigmáticas para eventos-chave na história da humanidade, que mostra uma tendência de natureza exponencial. Listas preparadas por Carl Sagan, Paul D. Boyer, Enciclopédia Britânica, Museu Americano de História Natural e Universidade do Arizona, dentre outros, e compiladas por Ray Kurzweil.

Singularidade tecnológica é a denominação dada a um evento histórico previsto para o futuro, no qual a humanidade atravessará um estágio de colossal avanço tecnológico em um curtíssimo espaço de tempo[1] , onde a inteligência artificial terá superado a inteligência humana, alterando radicalmente a civilização e a natureza humana.

Fundamentos teóricos[editar | editar código-fonte]

Baseando-se em avanços nas áreas da informática, inteligência artificial, medicina, astronomia, nanotecnologia, genética e biotecnologia, muitos estudiosos acreditam que nas próximas décadas a humanidade irá atravessar a singularidade tecnológica e é impossível prever o que acontecerá depois deste período.

A aceleração do progresso científico e tecnológico tornou-se, nos últimos 300 anos, a característica mais marcante da história da humanidade. Desde o surgimento da ciência com Galileu Galilei, Isaac Newton e Leibniz profundas mudanças políticas e econômicas ocorreram em todos os países. Tais mudanças se fazem mais notáveis nos últimos 30 anos com a explosão da era digital e do capitalismo financeiro.

Ainda não existe consenso sobre quais seriam os agentes responsáveis pela singularidade tecnológica. Alguns acreditam que ela decorrerá naturalmente, como consequência dos acelerados avanços científicos. Outros acreditam que o surgimento iminente de supercomputadores dotados da chamada superinteligência será a base de tais avanços - argumenta-se em favor disso que somente com uma inteligência superior à humana poderíamos ter avanços científicos e tecnológicos tão rápidos e importantes. Há também quem acredite na integração homem-computador para o surgimento da superinteligência, mas a tecnologia necessária para tal pode estar mais distante de ser alcançada do que a inteligência artificial.

Vários cientistas, entre eles Vernor Vinge (a quem é creditada a criação do termo[1] ) e Raymond Kurzweil, assim como alguns filósofos, afirmam que a singularidade tecnológica é um evento histórico de importância semelhante ao aparecimento da inteligência humana na Terra. Outros, mais levianos, afirmam que a singularidade tecnológica é para o século XXI o que a revolução industrial foi para o século XVIII ou simplesmente que a singularidade tecnológica é, na verdade, a quarta revolução industrial.

Estimativas[editar | editar código-fonte]

Quadro representativo sobre as previsões de Gordon Moore em relação ao aumento do poder de processamento dos computadores.

Para fazer uma estimativa precisa de quando exatamente a inteligência artificial conseguirá alcançar níveis superiores à inteligência humana muitos índices tem sido usados e comparados. A lei de Moore, em vigor há mais de 30 anos, segundo a qual a cada 18 meses a capacidade de processamento dos computadores dobra, enquanto os custos permanecem constantes, é extensamente usada como modelo nos estudos sobre singularidade tecnológica.

No modelo de singularidade tecnológica como consequência natural do acelerado progresso técnico-científico, vários outros índices também têm sido utilizados. Dentre eles podemos destacar: o número crescente de publicações científicas anuais, o número crescente de patentes registradas e a crescente concorrência econômica e industrial internacional.

A maior parte daqueles que pesquisam ou discutem a singularidade tecnológica acreditam que esta possa decorrer entre os anos de 2025 e 2070, embora seja perfeitamente possível que esta demore mais a ocorrer ou, simplesmente, não ocorra.

Em 2011, Kurzweil observou tendências existentes e concluiu que a singularidade estava se tornando mais provável de ocorrer em torno de 2045. Ele disse à revista Time: "Vamos fazer com sucesso a engenharia reversa do cérebro humano em meados dos anos 2020. No final dessa década, os computadores terão inteligência no mesmo nível humano." [2]

Perigos potenciais[editar | editar código-fonte]

Existe atualmente uma complexa discussão sobre os perigos que a singularidade tecnológica poderá trazer à humanidade.

Segundo muitos estudiosos, um intelecto artificial muito superior aos melhores cérebros humanos em praticamente todas as áreas, incluindo criatividade científica, sabedoria geral e habilidade social, não teria porquê estar submisso a nós. De acordo com esta linha de raciocínio, Vernor Vinge aposta na rebelião das máquinas inteligentes contra os homens, o que poderia resultar em um extermínio total ou na escravização da raça humana após uma guerra de grandes proporções, muitas vezes apontada como uma possível Terceira Guerra Mundial. Ao lado de Vernor Vinge, temos também Bill Joy, fundador da Sun Microsystems, que publicou no ano 2000 o atualmente famoso artigo "Por que o futuro não precisa de nós?", onde defende a ideia de que as máquinas inteligentes e auto-replicantes são perigosas demais e poderão facilmente fugir do nosso controle.

Tradicionalmente argumenta-se que os homens jamais iriam entregar o poder às máquinas ou dar-lhes a capacidade de tomá-lo de nós, mas as coisas podem se suceder de forma diferente, já que o grau de dependência do homem aumentará paulatinamente até chegar a um ponto em que não restem alternativas senão a de aceitar as decisões tomadas pelas máquinas. Na mesma proporção em que os problemas da sociedade se tornarem mais complexos e as máquinas mais inteligentes, cada vez mais decisões serão tomadas por elas simplesmente por serem mais eficazes que as tomadas pelos humanos. Isso pode levar a um estágio em que a nossa dependência em relação às máquinas transforme-se no domínio pacífico das mesmas sobre nós, o que não descarta a possibilidade de um domínio agressivo.

Numa linha de raciocínio alternativa, o matemático, escritor e ativista político Theodore Kaczynski, conhecido como o terrorista Unabomber, publicou um manifesto sobre a possibilidade das classes superiores da sociedade usarem-se da tecnologia para simplesmente eliminar as massas inferiores. Kaczynski é também adepto do ludismo e é radicalmente contra o avanço tecnológico da forma como ele está acontecendo. Os artigos de Kaczynski foram incluídos em um livro recente de Raymond Kurzweil.

Outros perigos mais amenos dizem respeito a exclusão digital e social e ao impacto da singularidade tecnológica sobre a economia internacional, especialmente sobre os países pobres e emergentes.

Há ainda questões éticas, como sob qual uso os equipamentos de realidade virtual serão usados pelo homem. Bill Gates afirmou em seu livro The Road Ahead (A Estrada do Futuro) que uma roupa com tecidos hipersensíveis poderia ser usada para simular sexo com o auxílio de um óculos de realidade virtual, o que levantaria questões polêmicas. Ele ainda prevê que num futuro ainda mais distante robôs poderiam ser usados de forma extremamente realista para o ato sexual e humanos poderiam aderir em massa, deixando de ter filhos e de se engajar em relacionamentos reais, diminuindo exponencialmente a população do planeta e tornando ainda mais fácil o domínio das máquinas em relação ao homem. O fator mais indicativo desse processo é a observação do vício na utilização da Internet e os sintomas que mundos virtuais causam em pessoas propensas ao vício, como isolamento social intenso, negligência quanto a alimentação e saúde, sedentarismo e perda de contato com a realidade.

Cultura popular[editar | editar código-fonte]

Há muito tempo o cinema e a ficção-científica abordam temas relacionados ao fim do mundo, mas a singularidade tecnológica como ameaça global é algo bem mais recente. Um exemplo disso é o filme Matrix, lançado em 1999, que apresenta uma versão bastante elaborada de como poderá ocorrer a singularidade tecnológica. No filme, uma guerra entre homens e máquinas inteligentes é travada entre 2094 e 2102 com a derrota e consequente escravização da humanidade. De forma semelhante, o filme O Exterminador do Futuro 3: A Rebelião das Máquinas aborda uma longa e inacabada guerra entre homens e máquinas.

Por outro lado, alguns filmes, como, por exemplo, Eu, robô, baseado no livro homônimo do escritor Isaac Asimov (que escreveu quase 500 livros), são mais cautelosos e abordam uma vitória humana sobre a questão. Outros, como O Homem Bicentenário (também baseado num conto de Asimov), mostram que a inteligência artificial pode ser totalmente benéfica e que a singularidade tecnológica pode não trazer perigos potenciais à humanidade.

Organizações e instituições relacionadas[editar | editar código-fonte]

Existem várias organizações e instituições que pretendem participar ativamente e/ou promovem estudos acerca da singularidade tecnológica. Dentre estas podemos destacar:

  • Singularity Institute for Artificial Intelligence: instituto de pesquisa sem fins lucrativos que já vem promovendo há algum tempo o estudo e o avanço das pesquisas na área da inteligência artificial e prega que a singularidade tecnológica pode ser totalmente benéfica, ao contrário do que muitos acreditam. Estão atualmente trabalhando para dar forma ao que o estatístico britânico Irving John Good chamou de "explosão de inteligência" e têm como objetivo adicional promover uma discussão e uma compreensão mais ampla sobre a inteligência artificial e seus benefícios.
  • Acceleration Studies Foundation: organização educacional sem fins lucrativos que visa a promover estudos e pesquisas (e também conseguir investimentos para as mesmas) acerca da aceleração do progresso científico e tecnológico e da aceleração das mudanças sociais, políticas, culturais e econômicos de nossa sociedade. É também responsável por uma conferência anual realizada na Universidade de Stanford, nos Estados Unidos, onde se discute a aceleração das inovações tecnológicas e o seu impacto social, promovendo para tal introspecções multidisciplinares acerca de assuntos muitas vezes relacionados à singularidade tecnológica.
  • Associação Transumanista Mundial: fundada em 1998 pelo filósofo sueco Nick Bostrom, director do Instituto do Futuro da Humanidade, criado na Faculdade de Filosofia de Oxford, encabeça inúmeras delegações em todo o mundo, mas não deixa de ser uma especificidade do Ocidente industrializado. Os transumanistas têm por base na sua argumentação o êxito das nanotecnologias e defendem que a ciência está prestes a passar a Humanidade e vai obrigá-la a ultrapassar-se a si mesma. Raymond Kurzweil, engenheiro e futurologista americano, publicou Human 2.0 (“Singularidade”, em português). Ligado ao tema em questão, esta publicação contempla a próxima fusão entre o ser humano e a máquina e o aparecimento de sistemas supra-inteligentes. Os movimentos transumanistas pretendem o nascimento de um mundo sem limitações, que nos força a ser meros seres humanos. Amanhã, deixará de ser necessário nascer, as doenças terão desaparecido e a morte deixará de ser imposta, esta recusa da condição humana denota uma rejeição a tudo o que a natureza nos impõe.
  • Google, Yahoo! e Nasa juntos resolveram apoiar um colégio que ensina os alunos a lidar com um mundo onde a tecnologia pode tornar-se mais esperta do que os seres humanos. A Singularity University terá a sua base no programa espacial do Ames Campus no Vale do Silício, E.U.A. Seu chanceler será o controverso futurista Raymond Kurzweil, cujo livro escrito em 2005, "A Singularidade está próxima", inspirou o nome da escola. A Singularity University aceitou 30 alunos na sua primeira turma, no verão de 2009, aumentando para 120 no ano seguinte. Apesar do seu nome, a instituição não é realmente uma universidade, mas vai oferecer nove semanas de cursos no intuito de assegurar uma tecnologia para melhorar a situação da humanidade, em vez de prejudicá-la. Os cursos foram concebidos para ver como os alunos podem usar a tecnologia de forma a resolver problemas mundiais, como a pobreza, a fome, as doenças, o aquecimento global e a redução do abastecimento energético.

Outras vozes proeminentes[editar | editar código-fonte]

  • Marvin Minsky, cientista americano, co-fundador do laboratório de inteligência artificial do MIT, e autor de diversos artigos sobre inteligência artificial e filosofia.
  • Hans Moravec é um professor residente permanente da pesquisa no Instituto de Robótica da Universidade Carnegie Mellon conhecido pelo seu trabalho na inteligência artificial, e pelas publicações sobre o impacto da tecnologia.
  • Max More é um filósofo e futurista que escreve, fala, e consulta em métodos avançados da tomada de decisão e do foresight para segurar o impacto de tecnologias emergentes.

Referências[editar | editar código-fonte]

  1. a b https://www.ibm.com/developerworks/community/blogs/tlcbr/entry/a_singularidade_tecnologica?lang=en A singularidade tecnológica. Technology Leadership Council - Brazil.
  2. http://www.time.com/time/magazine/article/0,9171,2048299,00.html Revista Time 2045: The Year Man Becomes Immortal.

Ver também[editar | editar código-fonte]

Portal A Wikipédia possui o portal:

Ligações externas[editar | editar código-fonte]