Efeito ELIZA

Origem: Wikipédia, a enciclopédia livre.

Em ciência da computação, o efeito ELIZA é a tendência de projetar características humanas - como experiência, compreensão semântica ou empatia - em programas de computador que têm uma interface textual. O efeito é um erro de categoria que surge quando a computação simbólica do programa é descrita por meio de termos como "pensar", "saber" ou "entender".

História[editar | editar código-fonte]

O efeito recebeu o nome de ELIZA, o chatbot de 1966 desenvolvido pelo cientista da computação do MIT Joseph Weizenbaum. Ao executar o script DOCTOR de Weizenbaum, ELIZA simulava um psicoterapeuta rogeriano, em grande parte reformulando as respostas do "paciente" como perguntas:[1]

Humano: Bem, meu namorado me fez vir aqui.
ELIZA: Seu namorado a fez vir aqui?
Humana: Ele diz que estou deprimida a maior parte do tempo.
ELIZA: Sinto muito em saber que você está deprimida.
Humano: É verdade. Estou infeliz.
ELIZA: Você acha que vir aqui vai ajudá-la a não ser infeliz?

Embora tenha sido projetado estritamente como um mecanismo de apoio à "conversação em linguagem natural" com um computador,[2] o script DOCTOR do ELIZA foi considerado surpreendentemente bem-sucedido na obtenção de respostas emocionais dos usuários que, no decorrer da interação com o programa, começaram a atribuir compreensão e motivação ao resultado do programa.[3] Como Weizenbaum escreveu mais tarde: "Eu não tinha percebido [...] que exposições extremamente curtas a um programa de computador relativamente simples poderiam induzir um pensamento delirante poderoso em pessoas bastante normais".[4] De fato, o código do ELIZA não tinha sido projetado para evocar essa reação em primeiro lugar. Após a observação, os pesquisadores descobriram que os usuários inconscientemente presumiam que as perguntas do ELIZA implicavam interesse e envolvimento emocional nos tópicos discutidos, mesmo quando sabiam conscientemente que o ELIZA não simulava emoções.[5]

Embora o efeito tenha sido nomeado pela primeira vez na década de 1960, a tendência de entender as operações mecânicas em termos psicológicos foi observada por Charles Babbage. Ao propor o que mais tarde seria chamado de somador carry-lookahead, Babbage observou que achava esses termos convenientes para fins descritivos, mesmo que não se tratasse de nada além de ação mecânica.[6]

Características[editar | editar código-fonte]

Em sua forma específica, o efeito ELIZA se refere apenas à "suscetibilidade das pessoas de ler muito mais compreensão do que o necessário em sequências de símbolos - especialmente palavras - unidas por computadores".[7] Um exemplo trivial da forma específica do efeito Eliza, dado por Douglas Hofstadter, envolve um caixa automático que exibe as palavras "OBRIGADO" no final de uma transação. Um observador ingênuo poderia pensar que a máquina está realmente expressando gratidão, no entanto, a máquina está apenas imprimindo uma sequência pré-programada de símbolos.[7]

De forma mais geral, o efeito ELIZA descreve qualquer situação[8][9] em que, com base apenas na saída de um sistema, os usuários percebem os sistemas de computador como tendo "qualidades e habilidades intrínsecas que o software que controla a (saída) não pode alcançar"[10] ou "presumem que (as saídas) refletem uma causalidade maior do que realmente refletem".[11] Tanto em sua forma específica quanto geral, o efeito ELIZA é notável por ocorrer mesmo quando os usuários do sistema estão cientes da natureza determinada da saída produzida pelo sistema.

Do ponto de vista psicológico, o efeito ELIZA é o resultado de uma sutil dissonância cognitiva entre a consciência do usuário sobre as limitações da programação e seu comportamento em relação ao resultado do programa.[12]

Relevância[editar | editar código-fonte]

A descoberta do efeito ELIZA foi um desenvolvimento importante na inteligência artificial, demonstrando o princípio do uso da engenharia social em vez da programação explícita para passar em um teste de Turing.[13]

O ELIZA convenceu alguns usuários a pensar que uma máquina era humana. Essa mudança na interação homem-máquina marcou o progresso das tecnologias que emulam o comportamento humano. Dois grupos de chatbots são distinguidos por William Meisel como "assistentes pessoais gerais" e "assistentes digitais especializados".[14] Os assistentes digitais gerais foram integrados aos dispositivos pessoais, com habilidades como enviar mensagens, fazer anotações, verificar calendários e marcar compromissos. Os assistentes digitais especializados "operam em domínios muito específicos ou ajudam em tarefas muito específicas".[14] Assistentes digitais programados para ajudar na produtividade, assumindo comportamentos análogos aos humanos.

Weizenbaum considerou que nem toda parte do pensamento humano poderia ser reduzida a formalismos lógicos e que "há alguns atos de pensamento que devem ser tentados apenas por humanos".[15] Ele também observou que desenvolvemos um envolvimento emocional com as máquinas se interagirmos com elas como humanos. Quando os chatbots são antropomorfizados, eles tendem a retratar características de gênero como uma forma de estabelecermos relações com a tecnologia. "Os estereótipos de gênero são instrumentalizados para gerenciar nosso relacionamento com os chatbots" quando o comportamento humano é programado nas máquinas.[16]

Na década de 1990, Clifford Nass e Byron Reeves realizaram uma série de experimentos que estabeleceram a Equação da Mídia, demonstrando que as pessoas tendem a responder à mídia da mesma forma que responderiam a outra pessoa (sendo educadas, cooperativas, atribuindo características de personalidade como agressividade, humor, experiência e gênero) ou a lugares e fenômenos no mundo físico. Vários estudos subsequentes que evoluíram da pesquisa em psicologia, ciências sociais e outros campos indicam que esse tipo de reação é automático, inevitável e acontece com mais frequência do que as pessoas imaginam. Reeves e Nass (1996) argumentam que "as interações dos indivíduos com computadores, televisão e novas mídias são fundamentalmente sociais e naturais, assim como as interações na vida real" (p. 5).

O trabalho feminino, ou o trabalho das mulheres, automatizado por assistentes digitais antropomórficos, reforça a "suposição de que as mulheres possuem uma afinidade natural com o trabalho de serviço e o trabalho emocional".[17] Ao definir nossa proximidade com os assistentes digitais por meio de seus atributos humanos, os chatbots tornam-se entidades de gênero.

Ver também[editar | editar código-fonte]

Referências[editar | editar código-fonte]

  1. Güzeldere, Güven; Franchi, Stefano. «dialogues with colorful personalities of early ai» (em inglês). Consultado em 30 de julho de 2007. Cópia arquivada em 25 de abril de 2011 
  2. Weizenbaum, Joseph (Janeiro de 1966). «ELIZA--A Computer Program For the Study of Natural Language Communication Between Man and Machine». Massachusetts Institute of Technology. Communications of the ACM (em inglês). 9: 36. doi:10.1145/365153.365168Acessível livremente. Consultado em 17 de junho de 2008 
  3. Suchman, Lucy A. (1987). Plans and Situated Actions: The problem of human-machine communication (em inglês). [S.l.]: Cambridge University Press. p. 24. ISBN 978-0-521-33739-7. Consultado em 17 de junho de 2008 
  4. Weizenbaum, Joseph (1976). Computer power and human reason: from judgment to calculation (em inglês). [S.l.]: W. H. Freeman. p. 7 
  5. Billings, Lee (16 de julho de 2007). «Rise of Roboethics» (em inglês). Seed. Cópia arquivada em 28 de fevereiro de 2009. (Joseph) Weizenbaum descobriu inesperadamente que, mesmo sabendo que estão conversando com um simples programa de computador, as pessoas o tratam como se fosse um ser real e pensante que se preocupa com seus problemas - um fenômeno agora conhecido como "Efeito Eliza". 
  6. Green, Christopher D. (Fevereiro 2005). «Was Babbage's Analytical Engine an Instrument of Psychological Research?». History of Psychology (em inglês). 8 (1): 35–45 
  7. a b Hofstadter, Douglas R. (1996). «Preface 4 The Ineradicable Eliza Effect and Its Dangers, Epilogue». Fluid Concepts and Creative Analogies: Computer Models of the Fundamental Mechanisms of Thought (em inglês). [S.l.]: Basic Books. p. 157. ISBN 978-0-465-02475-9 
  8. Fenton-Kerr, Tom (1999). «GAIA: An Experimental Pedagogical Agent for Exploring Multimodal Interaction». Computation for Metaphors, Analogy, and Agents. Col: Lecture Notes in Computer Science (em inglês). 1562. [S.l.]: Springer. p. 156. ISBN 978-3-540-65959-4. doi:10.1007/3-540-48834-0_9. Embora Hofstadter esteja enfatizando o modo de texto aqui, o "efeito Eliza" pode ser visto em quase todos os modos de interação humano/computador. 
  9. Ekbia, Hamid R. (2008). Artificial Dreams: The Quest for Non-Biological Intelligence (em inglês). [S.l.]: Cambridge University Press. p. 8. ISBN 978-0-521-87867-8 
  10. King, W. (1995). Anthropomorphic Agents: Friend, Foe, or Folly (Relatório técnico) (em inglês). University of Washington. M-95-1 
  11. Rouse, William B.; Boff, Kenneth R. (2005). Organizational Simulation (em inglês). [S.l.]: Wiley-IEEE. pp. 308–309. ISBN 978-0-471-73943-2. Esse é um problema específico em ambientes digitais em que o "efeito Eliza", como às vezes é chamado, faz com que os interatores presumam que o sistema é mais inteligente do que é, presumindo que os eventos refletem uma causalidade maior do que de fato refletem. 
  12. Ekbia, Hamid R. (2008). Artificial Dreams: The Quest for Non-Biological Intelligence (em inglês). [S.l.]: Cambridge University Press. p. 156. ISBN 978-0-521-87867-8. Mas as pessoas querem acreditar que o programa está "vendo" um jogo de futebol em algum nível plausível de abstração. As palavras que (o programa) manipula são tão cheias de associações para os leitores que NÃO PODEM ser despojadas de todas as suas imagens. É claro que Collins sabia que seu programa não lidava com nada que se assemelhasse a um mundo bidimensional de pontos que se movem suavemente (muito menos com corpos humanos simplificados) e, presumivelmente, ele pensou que seus leitores também perceberiam isso. No entanto, ele não poderia ter suspeitado do poder do efeito Eliza. 
  13. Trappl, Robert; Petta, Paolo; Payr, Sabine (2002). Emotions in Humans and Artifacts (em inglês). Cambridge, Mass.: MIT Press. p. 353. ISBN 978-0-262-20142-1. O "efeito Eliza", a tendência das pessoas de tratar os programas que respondem a elas como se tivessem mais inteligência do que realmente têm (Weizenbaum, 1966), é uma das ferramentas mais poderosas disponíveis para os criadores de personagens virtuais. 
  14. a b Dale, Robert (Setembro de 2016). «The return of the chatbots». Natural Language Engineering (em inglês). 22 (5): 811–817. ISSN 1351-3249. doi:10.1017/S1351324916000243Acessível livremente 
  15. Weizenbaum, Joseph (1976). Computer power and human reason : from judgment to calculation (em inglês). San Francisco, Cal.: [s.n.] ISBN 0-7167-0464-1. OCLC 1527521 
  16. Costa, Pedro. Ribas, Luisa. Conversations with ELIZA: on Gender and Artificial Intelligence. From (6th Conference on Computation, Communication, Aesthetics & X 2018) Acesso em 2021 (em inglês)
  17. Hester, Helen. 2016. "Technology Becomes Her." New Vistas 3 (1):46-50. (em inglês)

Fontes[editar | editar código-fonte]

  • Hofstadter, Douglas. Preface 4: The Ineradicable Eliza Effect and Its Dangers. (from Fluid Concepts and Creative Analogies: Computer Models of the Fundamental Mechanisms of Thought, Basic Books: New York, 1995) (em inglês)
  • Turkle, S., Eliza Effect: tendency to accept computer responses as more intelligent than they really are (from Life on the screen- Identity in the Age of the Internet, Phoenix Paperback: London, 1997) (em inglês)
  • ELIZA effect, from the Jargon File, version 4.4.7. Acesso em 8 de outubro de 2006. (em inglês)
  • Byron Reeves & Clifford Nass. The Media Equation: How People Treat Computers, Television, and New Media like Real People and Places, Cambridge University Press: 1996. (em inglês)