Quarto chinês

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa

O quarto chinês (em inglês: Chinese room) é um argumento hipotético criado pelo filósofo norte-americano John Searle, em 1980, empregado por este em sua obra para refutar os teóricos da Inteligência Artifical Forte (Strong AI) e do funcionalismo. Baseia-se na presunção de que a sintaxe (gramática) não é garantia de existência da semântica (sentido).

O sistema: um ser humano, que compreende apenas o português, equipado com um livro de regras escrito em português e diversas pilhas de papel, sendo algumas em branco e outras com inscrições indecifráveis (o ser humano é a CPU, o livro de regras o programa e o papel o dispositivo de armazenamento). O sistema está num quarto com uma pequena abertura para o exterior. Por essa abertura passam papéis com símbolos indecifráveis. O ser humano encontra símbolos correspondentes no livro de regras e segue as instruções que podem incluir símbolos em novas folhas de papel, encontrar símbolos nas pilhas, reorganizar as pilhas, etc. Eventualmente, as instruções farão com que um ou mais símbolos sejam transcritos em uma folha de papel que será repassada ao exterior do quarto. Do exterior percebemos um sistema que está recebendo a entrada na forma de instruções em chinês e está gerando respostas em chinês, que são sem dúvida “inteligentes”. Searle argumenta que a pessoa no quarto não entende o chinês (dado inicial). O livro de regras e o papel não entendem chinês. Então, não está acontecendo nenhuma compreensão do chinês. Por conseguinte, de acordo com Searle, a execução do programa correto não gera necessariamente compreensão. Houve um número bastante grande de discussões e objeções ao quarto chinês, mas nenhuma abalou intuição fundamental do argumento.

Objeções[editar | editar código-fonte]

Resposta dos Sistemas[editar | editar código-fonte]

A alegação do argumento de sistemas é que, embora o homem no quarto não entende chinês, ele não é o todo do sistema, ele é simplesmente uma parte de todo o sistema, como um único neurônio em um cérebro humano (este exemplo de um único neurônio foi usado por Herbert Simon). A AI forte não alega que a CPU, por si só seria capaz de entender. É todo o sistema que entende. Mas a resposta não funciona porque, todo o sistema (toda a sala em que o homem se encontra), não tem como sair da sintaxe do programa implementado para a semântica real (ou conteúdo ou significado intencional) dos símbolos chineses . O homem no quarto não tem nenhuma maneira de compreender os significados dos símbolos chineses das operações do sistema, mas também nem o sistema completo pode fazer. O princípio de que a sintaxe não é suficiente para a semântica é válido tanto para o homem e para todo o sistema[1] .

Resposta da Mente Virtual[editar | editar código-fonte]

Minsky, Sloman[2] e Croucher [3] (1980) sugeriram a resposta da Mente Virtual quando o argumento de quarto chinês apareceu pela primeira vez. De acordo com a 'RMV' o erro no argumento do Quarto Chinês é fazer com que a alegação da AI forte seja "o computador entende chinês" ou "o sistema entende chinês". O ponto chave em questão para a AI deve ser simplesmente se "o computador que executa o programa, cria compreensão do chinês". Perlis[4] (1992), Chalmers (1996) e Block (2002) têm versões de uma resposta de Mente Virtual aparentemente endossando esse argumento. Searle responde a essa objeção ressaltando o fato de que ele poderia, ao invés de ficar dentro da sala, memorizar o livro de regras e todos os símbolos, no entanto, mesmo tendo todos estes dados dentro de sua cabeça, ele ainda não seria capaz de criar em si mesmo a compreensão de língua chinesa.[5]

" Símbolos formais por eles somente não podem nunca serem o bastante para os conteúdos mentais, porque os símbolos, por definição, não têm significado (ou interpretação, ou semântica), exceto na medida em que alguém fora do sistema lhes dá ". John Searle Artificial Intelligence and the Chinese Room: An Exchange

Resposta do robô[editar | editar código-fonte]

A resposta do robô [6] admite Searle está certo sobre um computador preso no quarto chinês não pode entender a linguagem, ou saber o que as palavras significam. A resposta do robô responde ao problema de saber o significado da palavra chinesa para o exemplo de hambúrguer[7] , algo que Searle disse que o ser humano do quarto chinês não saberia. Parece razoável afirmar que nós sabemos o que um hambúrguer é porque temos visto um, e talvez até mesmo tenhamos feito um, ou provado um, ou pelo menos, ouvido falar sobre hambúrgueres e entendemos o que eles são, relacionando-as coisas que nós sabemos por ver, fazer, e degustar. Dado que esta é a forma como se poderia vir a saber o que hambúrgueres são, a resposta do robô sugere que nós colocamos um computador digital em um corpo de robô, com sensores, tais como câmeras de vídeo e microfones, e adicionar efetores, como rodas para se movimentar com, e o braços para manipular as coisas do mundo. Tal robô, um computador com um corpo, poderia fazer o que a criança faz, aprender vendo e fazendo. A resposta do robô sustenta que um computador, tal computador digital no corpo de um robô, livre da sala, poderia anexar significados aos símbolos e realmente entender a linguagem natural.

Uma grande quantidade de filósofos, Margaret Boden, Tim Crane, Daniel Dennett, Jerry Fodor, Stevan Harnad, Hans Moravec, Georges Rey e César Schirmer dos Santos, aprovaram versões desta resposta em um momento ou outro. A resposta do robô é efetivemente um apoio ao "conteúdo amplo e estreito",[8] ou "semântica externalistas"[9] . Esse argumento pode concordar com Searle que sintaxe e as conexões de internas são insuficientes para a semântica, mantendo que as adequadas conexões causais com o mundo[10] , pode fornecer conteúdo aos símbolos internos[11] . Searle não cre que essa resposta ao argumento de quarto chinês é mais forte do que a resposta de sistemas e diz que a resposta do robô é uma variação básica do behaviorismo pavloviano e skinneriana; tudo o que o indivíduo é por causa do condicionamento[12] . Para Searle, tudo o que os sensores de fazem é fornecerem contribuições adicionais para o computador e ele irá ser apenas entrada sintática. Ele diz que podemos ver isso através de uma alteração paralela ao cenário quarto chinês, supondo que o homem no quarto chinês recebe, além dos caracteres chineses passou por baixo da porta, uma corrente de dígitos binários que aparecem, por exemplo, em uma fita telegráfica de papél em um canto da sala. Os livros de instruções são aumentados para usar os algarismos a partir da fita como "input" de entrada, junto com os caracteres chineses. Sem o conhecimento do homem na sala, os símbolos na fita são saídas de dados digitalizados de uma câmera de vídeo (e possivelmente outros sensores)[13] . Searle argumenta que "input" sintático adicional não fará nada para permitir que o homem possa associar significados aos caracteres chineses. É apenas mais trabalho para o homem no quarto.[14] O argumento de Searle é que enquanto o único processamento de informação que está acontecendo consiste inteiramente da manipulação de símbolos baseado unicamente em suas propriedades formais (a saber: sua forma e posição.), então não há nenhuma "compreensão" presente e, Searle alerta, que o fato de estar causalmente ligado até para um hambúrguer nos dá nada mais do que uma binária não interpretada sequência de 0s e 1s., que nos dá nada para anexar significados aos símbolos ou entender a linguagem natural[6] .

Resposta do simulador de cérebro[editar | editar código-fonte]

Considere um computador que funciona de uma maneira muito diferente do que o programa de inteligência artificial normal com scripts e as operações nas cadeias de frases do tipo de símbolos. A resposta do simulador de cérebro nos pede para supor, ao invés, um programa que simula a seqüência real de disparos nervosos (cada nervo, cada disparo) que ocorrem no cérebro de um orador nativo da língua chinesa quando essa pessoa entende chinês. Uma vez que o computador trabalha da mesma maneira como o cérebro de um nativo chinês e o processamento de informações são feita exatamente da mesma maneira, ele vai entender chinês[15] . Searle argumenta que não faz diferença se computador trabalha da mesma maneira como o cérebro da pessoa que entende chinês e sugere uma variação sobre o cenário simulador de cérebro: suponha que no quarto o homem tem um enorme conjunto de válvulas e tubulações de água[16] , na mesma disposição exata como os neurônios no cérebro de um nativo falante de chinês. O programa agora diz ao homem que as válvulas para abrir em resposta à entrada. Searle afirma que é óbvio que não haveria nenhuma compreensão do chinês. [nota 1] Searle conclui que uma simulação da atividade cerebral ou de um avião em vôo não é a coisa real. Quando você pilota um simulador de vôo, você não está realmente voando. Paul e Patricia Churchland estabeleceram uma resposta ao longo das linhas da operação causal do sistema simulador de cérebro[18] .

Na resposta do "Quarto Luminoso" os Churchlands atacam os três pilares do sala chinesa:

  1. Programa de computador são formais (sintática)
  2. As mentes humanas têm conteúdos mentais (semântica)
  3. Sintaxe por si só não é nem constitutiva nem suficiente para a semântica

Os Churchlands fazem uma construção paralela para apontar o erro de pensamento de Searle:

  1. Eletricidade e Magnetismo são forças.
  2. A propriedade essencial da Luz é luminância
  3. Forças por si só não são nem constitutiva nem suficiente para a Luz.

O Quarto Luminoso coloca duas afirmações verdadeiras juntos, e tenta retirar uma terceira que é verdade. O problema, aponta correntamente Searle, é que Eletricidade e Magnetismo são nem constitutiva nem suficiente para luminância não é uma afirmação verdadeira[19] [20] .

Notas

  1. Veja, porém, que a base para esta afirmação não é mais simplesmente que o próprio Searle não entenderia chinês - parece claro que agora ele é apenas facilita a operação causal do sistema e por isso contamos com a nossa intuição Leibnizian que "fazer obras de água, não entendimento"[17]

Referências

  1. CHRIS BIERMANN (2005). SYSTEMS REPLY: A MEANS TO THE END OF THE CHINESE ROOM DARTMOUTH UNDERGRADUATE JOURNAL OF SCIENCE. Visitado em 2014.
  2. Thinking about Maths and Science: Speakers University of Liverpool. Visitado em 27/11/2014. Cópia arquivada em 17 May 2008.
  3. robots will have emotions por Aaron Sloman e Monica Croucher(1981)
  4. symposium on virtual mind em Minds and Machines 2 (3):217-238 (1992)
  5. Artigo por John Searle ‘Artificial Intelligence and the Chinese Room: An Exchange’, publicado na revista New York Review of Books, 36: 2 (Fev. - 16 - 1989).
  6. a b [SEARLE'S CHINESE ROOM ARGUMENT] David L. Anderson, Kari Cox e Robert Stufflebeam em 2006 pela National Science Foundation
  7. [Searle: Minds, brains, and programs]por J R Searle - 1980 - Cambridge Univ Press
  8. [The Nature of Narrow Content] por David J. Chalmers publicado pelo Department of Philosophy of the University of Arizona
  9. BURGE, Tyler. “Other Bodies.” In: BURGE, Tyler. Foundations of Mind: Philosophical Essays, Volume 2, pp. 82-99. Oxford: Clarendon Press, 2007.
  10. [John R. Searle, Mind: A Brief Introduction (Notes on Chapter 7: Mental Causation)] por Curtis Brown publicado pelo "Department of Philosophy" da Trinity Universityem 11 de outubro de 2013
  11. [A Dilemma for Searle's Argument for the Connection Principle] por Kirk Ludwig do Department of Philosophy da University of Florida em 16/Mar/1993
  12. Searle J.R., Is the Brain's Mind a Computer Program? No. A program merely manipulates symbols whereas a brain attaches meaning to them, Scientific American: 'Artificial Intelligence: A Debate', Jan. 1990, Vol. 262, #1
  13. Alan Turing & The Chinese Room Argument por David Cole em 31 de dezembro de 2014 publicado por The Critique
  14. Thinking Through Film: Doing Philosophy, Watching Movies por Damian Cox e Michael P. Levine (2012) - Editora Willey-Blackwell IBSN 978-1-4051-9343-6
  15. [Handouts] pelo "Department of Computer Science The University of Texas at Austin"
  16. of Science - BUCKETS OF WATER AND WAVES OF SPACE: WHY SPACETIME IS PROBABLY A SUBSTANCE por TIM MAUDLIN em 1993
  17. and Leibniz on Space and Time por Jeremy Safran e Jack Kissel
  18. http://www.silverlingo.com/Evolutionary_Essays/46_EvolutionaryEssays_Searle_and_the_Churchland's.pdf
  19. Norton, John D., John D. (2004), "Einstein's Investigations of Galilean Covariant Electrodynamics prior to 1905", Archive for History of Exact Sciences 59: 45–105, doi:10.1007/s00407-004-0085-6, Bibcode2004AHES...59...45N, http://philsci-archive.pitt.edu/archive/00001743/ 
  20. Einstein, A.. Relativity: The Special and General Theory. New York: Crown, 1961. ISBN 0-517-02961-8.
Ícone de esboço Este artigo sobre filosofia / um filósofo é um esboço. Você pode ajudar a Wikipédia expandindo-o.