Ética de máquinas

Origem: Wikipédia, a enciclopédia livre.

A ética de máquinas (ou moralidade das máquinas, moral computacional ou ética computacional) é uma parte da ética na inteligência artificial preocupada em adicionar ou garantir comportamentos morais de máquinas feitas pelo homem que usam inteligência artificial, também conhecidas como agentes inteligentes artificiais.[1] A ética de máquinas difere de outros campos éticos relacionados à engenharia e à tecnologia. A ética de máquinas não deve ser confundida com a ética de computadores, que se concentra no uso humano dos computadores. Também deve ser diferenciada da filosofia da tecnologia, que se preocupa com os efeitos sociais mais grandiosos da tecnologia.[2]

História[editar | editar código-fonte]

Antes do século XXI, a ética de máquinas tinha sido em sua maioria objeto da literatura de ficção científica, principalmente devido às limitações da computação e da inteligência artificial (IA). Embora a definição de "Ética de Máquina" tenha evoluído desde então, o termo foi cunhado por Mitchell Waldrop no artigo "A Question of Responsibility" da AI Magazine de 1987:

"No entanto, uma coisa que fica aparente na discussão precedente é que as máquinas inteligentes incorporarão valores, suposições e propósitos, quer seus programadores tenham a intenção consciente ou não. Assim, conforme os computadores e robôs se tornam cada vez mais inteligentes, torna-se imperativo que pensemos cuidadosa e explicitamente sobre quais são esses valores embutidos. Talvez o que precisemos seja, de fato, uma teoria e prática da ética da máquina, no espírito das três leis da robótica de Asimov."[3]

Em 2004, Towards Machine Ethics[4] foi apresentado no AAAI Workshop on Agent Organizations: Theory and Practice[5] no qual foram apresentados os fundamentos teóricos para a ética de máquinas.

Foi no AAAI Fall 2005 Symposium sobre ética de máquinas onde os pesquisadores se encontraram pela primeira vez para considerar a implementação de uma dimensão ética em sistemas autônomos.[6] Uma variedade de perspectivas deste campo nascente pode ser encontrada na edição coletada "Machine Ethics"[7] que se origina do AAAI Fall 2005 Symposium sobre ética de máquinas.

Em 2007, a AI Magazine apresentou o artigo Machine Ethics: Creating an Ethical Intelligent Agent,[8] que discutiu a importância da ética das máquinas, a necessidade de máquinas que representem explicitamente os princípios éticos e os desafios enfrentados por aqueles que trabalham com a ética das máquinas. Ele também demonstrou que é possível para uma máquina, pelo menos em um domínio limitado, abstrair um princípio ético de exemplos de julgamentos éticos e usar esse princípio para guiar seu próprio comportamento.

Em 2009, a Oxford University Press publicou Moral Machines, Teaching Robots Right from Wrong[9] e o divulgou como "o primeiro livro a examinar o desafio de construir agentes morais artificiais, investigando profundamente a natureza da ética e da tomada de decisões humanas". Ele citou cerca de 450 fontes, das quais cerca de 100 abordavam questões importantes de ética da máquina.

Em 2011, a Cambridge University Press publicou uma coleção de ensaios sobre a ética de máquinas editada por Michael e Susan Leigh Anderson,[7] que também editou uma edição especial da IEEE Intelligent Systems sobre o assunto em 2006.[10] A coleção consiste nos desafios de agregar princípios éticos às máquinas.[11]

Em 2014, o Escritório de Pesquisa Naval dos Estados Unidos anunciou que iria distribuir US $ 7,5 milhões em bolsas durante cinco anos para pesquisadores universitários para estudarem questões de ética da máquina aplicadas a robôs autônomos,[12] e o livro Superinteligência: caminhos, perigos, Estratégias, de Nick Bostrom que elevou a ética da máquinas como "a mais importante ... questão que a humanidade já enfrentou", alcançou o 17º lugar na lista dos livros de ciência mais vendidos do New York Times.[13]

Em 2016, o Parlamento Europeu publicou um documento,[14] (PDF de 22 páginas), para encorajar a Comissão a abordar a questão do estatuto jurídico dos robôs, conforme descrito de forma mais sucinta na imprensa.[15] Este artigo incluía seções sobre as responsabilidades legais dos robôs, em que se argumentou que as responsabilidades são proporcionais ao nível de autonomia dos robôs. O artigo também questionou o número de empregos que poderiam ser substituídos por robôs de IA.[16]

Definições[editar | editar código-fonte]

James H. Moor, um dos teóricos pioneiros no campo da ética computacional, define quatro tipos de robôs éticos. Como um profundo pesquisador nos estudos de filosofia da inteligência artificial, filosofia da mente, filosofia da ciência e lógica, Moor define máquinas como agentes de impacto ético, agentes éticos implícitos, agentes éticos explícitos ou agentes éticos completos. Uma máquina pode ser mais de um tipo de agente.[17]

  • Agentes de impacto ético: são sistemas de máquinas que causam um impacto ético intencional ou não. Ao mesmo tempo, esses agentes têm potencial para agir de forma antiética. Moor dá um exemplo hipotético chamado 'agente Goodman', em homenagem ao filósofo Nelson Goodman. O agente Goodman compara datas, mas tem o bug do milênio. Esse bug era resultado de programadores que representavam datas apenas com os dois últimos dígitos do ano. Portanto, quaisquer datas posteriores a 2000 seriam erroneamente tratadas como anteriores às do final do século XX. Assim, o agente de Goodman era um agente de impacto ético antes de 2000 e, posteriormente, um agente de impacto antiético.
  • Agentes éticos implícitos: para consideração da segurança humana, esses agentes são programados para ter uma proteção à prova de falhas ou uma virtude embutida. Eles não são inteiramente éticos por natureza, mas sim programados para evitar resultados antiéticos.
  • Agentes éticos explícitos: são máquinas capazes de processar cenários e agir sobre decisões éticas. Máquinas que possuem algoritmos para agir com ética.
  • Agentes éticos completos: essas máquinas são semelhantes aos agentes éticos explícitos no que diz respeito a poder tomar decisões éticas. No entanto, eles também contêm características metafísicas humanas. (ou seja, têm livre arbítrio, consciência e intencionalidade)

(Ver sistemas artificiais e responsabilidade moral.)

Focos da ética de máquinas[editar | editar código-fonte]

Problema de controle de IA[editar | editar código-fonte]

Alguns estudiosos, como o filósofo Nick Bostrom e o pesquisador de IA Stuart Russell, argumentam que se a IA ultrapassa a humanidade em inteligência geral e se torna "superinteligente", então esta nova superinteligência pode se tornar poderosa e difícil de controlar: assim como o destino do gorila da montanha depende da boa vontade humana, o destino da humanidade dependeria das ações de uma futura superinteligência da máquina.[18] Em seus respectivos livros Superinteligência e Human Compatible, ambos os estudiosos afirmam que, embora haja muita incerteza quanto ao futuro da IA, o risco para a humanidade é grande o suficiente para merecer uma ação significativa no presente.

Isso apresenta o problema de controle de IA: como construir um agente inteligente que ajudará seus criadores, enquanto evita-se construir inadvertidamente uma superinteligência que irá prejudicar seus criadores. O perigo de não projetar o controle certo "da primeira vez" é que uma superinteligência pode ser capaz de assumir o poder sobre seu ambiente e impedir que humanos a desliguem. As estratégias de controle de IA potenciais incluem "controle de capacidade" (limitando a capacidade de uma IA de influenciar o mundo) e "controle motivacional" (uma maneira de construir uma IA cujos objetivos estão alinhados com os valores ou ideais humanos). Há várias organizações pesquisando o problema do controle de IA, incluindo o Future of Humanity Institute, o Machine Intelligence Research Institute, o Center for Human-Compatible Artificial Intelligence e o Future of Life Institute.

Algoritmos e treinamento[editar | editar código-fonte]

Os paradigmas de IA têm sido debatidos, especialmente em relação à sua eficácia e viés. Nick Bostrom e Eliezer Yudkowsky defenderam árvores de decisão (como ID3) em vez de redes neurais e algoritmos genéticos, alegando que as árvores de decisão obedecem a normas sociais modernas de transparência e previsibilidade (por exemplo, stare decisis).[19] Em contraste, Chris Santos-Lang argumentou a favor de redes neurais e algoritmos genéticos com base em que as normas de qualquer idade devem ser alteradas e que a falha natural em satisfazer totalmente essas normas específicas foi essencial para tornar os humanos menos vulneráveis do que as máquinas a "hackers" criminosos.[20][21]

Em 2009, em um experimento no Laboratório de Sistemas Inteligentes da Escola Politénica Federal de Lausana, na Suíça, robôs de IA foram programados para cooperar entre si e encarregados de buscar um recurso benéfico, evitando um recurso venenoso.[22] Durante o experimento, os robôs foram agrupados em clãs, e o código genético digital dos membros bem-sucedidos foi usado para a próxima geração, um tipo de algoritmo conhecido como algoritmo genético. Após 50 gerações sucessivas na IA, os membros de um clã descobriram como distinguir o recurso benéfico do venenoso. Os robôs então aprenderam a mentir uns para os outros na tentativa de acumular o recurso benéfico de outros robôs.[23] No mesmo experimento, os mesmos robôs de IA também aprenderam a se comportar de forma altruísta e sinalizaram perigo para outros robôs, e também morreram para salvar outros robôs.[24] As implicações desse experimento foram contestadas por especialistas em ética de máquinas. No experimento da Escola Politécnica Federal, os objetivos dos robôs foram programados para serem "terminais". Em contraste, as motivações humanas normalmente têm a qualidade de exigir um aprendizado sem fim.

Sistemas de armas autônomas[editar | editar código-fonte]

Ver artigo principal: Armas Autônomas Letais

Em 2009, acadêmicos e especialistas técnicos participaram de uma conferência para discutir o impacto potencial de robôs e computadores e o impacto da possibilidade hipotética de se tornarem autossuficientes e capazes de tomar suas próprias decisões. Eles discutiram a possibilidade e a extensão em que computadores e robôs poderiam adquirir qualquer nível de autonomia, e até que ponto eles poderiam usar tais habilidades para possivelmente representar qualquer ameaça ou perigo. Eles observaram que algumas máquinas adquiriram várias formas de semi-autonomia, incluindo a capacidade de encontrar fontes de energia por conta própria e de escolher independentemente alvos para atacar com armas. Eles também observaram que alguns vírus de computador podem evitar a eliminação e alcançaram "inteligência de barata". Eles observaram que a autoconsciência descrita na ficção científica é provavelmente improvável, mas que havia outros perigos e armadilhas potenciais.[25]

Alguns especialistas e acadêmicos questionaram o uso de robôs para o combate militar, especialmente quando esses robôs recebem algum grau de funções autônomas.[26] A marinha dos EUA financiou um relatório que indica que, à medida que os robôs militares se tornam mais complexos, deve haver maior atenção às implicações de sua capacidade de tomar decisões autônomas.[27][28] O presidente da Associação para o Avanço da Inteligência Artificial encomendou um estudo para analisar esta questão.[29] Eles apontam para programas como o Dispositivo de Aquisição de Linguagem, que pode emular a interação humana.

Integração de Inteligências Artificiais Gerais com a sociedade[editar | editar código-fonte]

Trabalhos preliminares foram conduzidos sobre métodos de integração de inteligências artificiais gerais (agentes éticos completos, conforme definido acima) com as estruturas legais e sociais existentes. As abordagens se concentraram na consideração de seus direitos e posições legais.[30]

Viés em aprendizado de máquina[editar | editar código-fonte]

Ver artigo principal: Discriminação algorítmica

O big data e os algoritmos de aprendizado de máquina tornaram-se populares entre vários setores, incluindo publicidade on-line, classificações de crédito e sentenciamento criminal, com a promessa de fornecer resultados mais objetivos e orientados por dados, mas foram identificados como uma fonte potencial para perpetuar desigualdades sociais e discriminação.[31][32] Um estudo de 2015 descobriu que as mulheres eram menos propensas a ver anúncios de emprego de alta renda pelo AdSense do Google. Outro estudo descobriu que o serviço de entrega no mesmo dia da Amazon foi tornado indisponível intencionalmente em bairros de negros. Tanto o Google quanto a Amazon não conseguiram isolar esses resultados em um único problema, mas explicaram que os resultados eram o resultado dos algoritmos de caixa preta que usaram.[31]

O sistema judicial dos Estados Unidos começou a usar software de avaliação quantitativa de risco ao tomar decisões relacionadas à libertação de pessoas sob fiança e sentença em um esforço para ser mais justo e reduzir uma já alta taxa de prisão. Essas ferramentas analisam o histórico criminal de um réu, entre outros atributos. Em um estudo com 7.000 pessoas presas no condado de Broward, Flórida, apenas 20% dos indivíduos que cometeriam um crime de acordo com as previsões do sistema de pontuação de avaliação de risco do condado realmente cometeram um crime.[32] Um relatório da ProPublica de 2016 analisou as pontuações de risco de reincidência calculadas por uma das ferramentas mais usadas, o sistema Northpointe COMPAS, e analisou os resultados ao longo de dois anos. O relatório descobriu que apenas 61% das pessoas consideradas de alto risco acabaram cometendo crimes adicionais durante aquele período. O relatório também sinalizou que os réus afro-americanos eram muito mais propensos a receber pontuações de alto risco em relação aos réus brancos.[32]

Em 2016, o Grupo de Trabalho em Big Data do governo Obama – um supervisor de várias estruturas regulatórias de big data – divulgou relatórios argumentando sobre “o potencial de codificar a discriminação em decisões automatizadas” e pedindo “oportunidades iguais por projeto” para aplicações como pontuação de crédito.[33][34] Os relatórios incentivam o diálogo entre formuladores de políticas, cidadãos e acadêmicos, mas reconhece que não há uma solução potencial para a codificação de preconceito e discriminação em sistemas algorítmicos.

Frameworks e práticas éticas[editar | editar código-fonte]

Práticas[editar | editar código-fonte]

Em março de 2018, em um esforço para abordar as crescentes preocupações sobre o impacto do aprendizado de máquina nos direitos humanos, o Fórum Econômico Mundial e o Conselho de Futuro Global de Direitos Humanos publicaram um white paper com recomendações detalhadas sobre a melhor forma de evitar resultados discriminatórios no aprendizado de máquina.[35] O Fórum Econômico Mundial desenvolveu quatro recomendações com base nos Princípios Orientadores de Direitos Humanos da ONU para ajudar a abordar e prevenir resultados discriminatórios no aprendizado de máquina.

As recomendações do Fórum Econômico Mundial são as seguintes:[35]

  1. Inclusão ativa: o desenvolvimento e o design de aplicações de aprendizado de máquina devem buscar ativamente uma diversidade de entradas, especialmente das normas e valores de populações específicas afetadas pela saída dos sistemas de IA
  2. Justiça: As pessoas envolvidas na conceituação, desenvolvimento e implementação de sistemas de aprendizado de máquina devem considerar qual definição de justiça melhor se aplica ao seu contexto e aplicação e priorizá-la na arquitetura do sistema de aprendizado de máquina e suas métricas de avaliação
  3. Direito ao Entendimento: O envolvimento de sistemas de aprendizado de máquina na tomada de decisões que afete os direitos individuais deve ser divulgado e os sistemas devem ser capazes de fornecer uma explicação de sua tomada de decisão que seja compreensível para os usuários finais e revisável por uma autoridade humana competente. Onde isso é impossível e os direitos estão em jogo, os líderes no design, implantação e regulamentação da tecnologia de aprendizado de máquina devem questionar se ela deve ou não ser usada
  4. Acesso à reparação: Líderes, designers e desenvolvedores de sistemas de aprendizado de máquina são responsáveis por identificar os possíveis impactos negativos de seus sistemas sobre os direitos humanos. Eles devem criar vias visíveis de reparação para aqueles afetados por impactos díspares e estabelecer processos para a reparação oportuna de quaisquer resultados discriminatórios.

Em janeiro de 2020, o Berkman Klein Center for Internet and Society da Universidade de Harvard publicou um meta-estudo de 36 conjuntos proeminentes de princípios para IA, identificando oito temas-chave: privacidade, responsabilidade, segurança e proteção, transparência e explicabilidade, justiça e não discriminação, controle humano da tecnologia, responsabilidade profissional e promoção dos valores humanos.[36] Um meta-estudo semelhante foi realizado por pesquisadores do Instituto Federal Suíço de Tecnologia em Zurique em 2019.[37]

Abordagens[editar | editar código-fonte]

Várias tentativas foram feitas para tornar a ética computável, ou pelo menos formal. Enquanto as Três Leis da Robótica de Isaac Asimov geralmente não são consideradas adequadas para um agente moral artificial,[38] tem sido estudado se o imperativo categórico de Kant pode ser usado.[39] No entanto, tem sido apontado que o valor humano é, em alguns aspectos, muito complexo.[40] Uma maneira de superar explicitamente essa dificuldade é receber valores humanos diretamente dos humanos por meio de algum mecanismo, por exemplo, aprendendo-os.[41][42][43] Outra abordagem é basear as considerações éticas atuais em situações semelhantes anteriores. Isso se chama casuística e poderia ser implementado por meio de pesquisas na Internet. O consenso de um milhão de decisões anteriores levaria a uma nova decisão que dependeria da democracia.[8] O professor Bruce M. McLaren construiu um modelo computacional de casuística no início (em meados da década de 1990), especificamente um programa chamado SIROCCO construído com IA e técnicas de raciocínio baseado em casos que recupera e analisa dilemas éticos.[44] Essa abordagem pode, no entanto, levar a decisões que refletem preconceitos e comportamentos antiéticos exibidos na sociedade. Os efeitos negativos dessa abordagem podem ser vistos no Tay (bot) da Microsoft, onde o chatterbot aprendeu a repetir mensagens racistas e sexualmente carregadas enviadas por usuários do Twitter.[45]

Um experimento mental se concentra em um Genie Golem com poderes ilimitados apresentando-se ao leitor. Este gênio declara que retornará em 50 anos e exige que lhe seja fornecido um conjunto definido de moral sobre o qual agirá imediatamente. O objetivo deste experimento é iniciar um discurso sobre a melhor forma de lidar com a definição de um conjunto completo de ética que os computadores possam entender.[46]

Na ficção[editar | editar código-fonte]

Na ficção científica, filmes e romances brincaram com a ideia de senciência em robôs e máquinas.

O filme Chappie (2015), de Neill Blomkamp, encenou um cenário em que é possível transferir a consciência de alguém para um computador.[47] O filme Ex Machina (2014), de Alex Garland, seguiu um androide com inteligência artificial passando por uma variação do teste de Turing, um teste administrado a uma máquina para ver se seu comportamento pode ser distinguível do de um humano. Obras como Terminator (1984) e Matrix (1999) incorporam o conceito de máquinas que se voltam contra seus mestres humanos (ver inteligência artificial).

Isaac Asimov considerou a questão na década de 1950 em I, Robot. Por insistência de seu editor John W. Campbell Jr., ele propôs as Três Leis da Robótica para governar sistemas artificialmente inteligentes. Grande parte de seu trabalho foi então gasto testando os limites de suas três leis para ver onde elas falhariam ou onde criariam um comportamento paradoxal ou imprevisto. Seu trabalho sugere que nenhum conjunto de leis fixas pode antecipar suficientemente todas as circunstâncias possíveis.[48] No romance de Philip K. Dick, Androides sonham com ovelhas elétricas? (1968), ele explora o que significa ser humano. Em seu cenário pós-apocalíptico, ele questionou se a empatia era uma característica inteiramente humana. Sua história é a base do filme de ficção científica Blade Runner (1982).

Áreas relacionadas[editar | editar código-fonte]

Ver também[editar | editar código-fonte]

Notas[editar | editar código-fonte]

  1. Moor, J.H. (2006). «The Nature, Importance, and Difficulty of Machine Ethics». IEEE Intelligent Systems. 21: 18–21. doi:10.1109/MIS.2006.80 
  2. Boyles, Robert James. «A Case for Machine Ethics in Modeling Human-Level Intelligent Agents» (PDF). Kritike. Consultado em 1 de novembro de 2019 
  3. Waldrop, Mitchell (primavera de 1987). «A Question of Responsibility». AI Magazine. 8: 28–39. doi:10.1609/aimag.v8i1.572 
  4. Anderson, M., Anderson, S., and Armen, C. (2004) “Towards Machine Ethics” in Proceedings of the AAAI Workshop on Agent Organization: Theory and Practice, AAAI Press
  5. AAAI Workshop on Agent Organization: Theory and Practice, AAAI Press
  6. «Papers from the 2005 AAAI Fall Symposium». Cópia arquivada em 29 de novembro de 2014 
  7. a b Anderson; Anderson, eds. (julho de 2011). Machine Ethics. [S.l.]: Cambridge University Press. ISBN 978-0-521-11235-2 
  8. a b Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent. AI Magazine, Volume 28(4).
  9. Wallach, Wendell; Allen, Colin (2009). Moral machines : teaching robots right from wrong. [S.l.]: Oxford University Press. ISBN 9780195374049 
  10. Anderson; Anderson, eds. (julho–agosto de 2006). «Special Issue on Machine Ethics». IEEE Intelligent Systems. 21: 10–63. ISSN 1541-1672. doi:10.1109/mis.2006.70. Cópia arquivada em 26 de novembro de 2011 
  11. Siler, Cory (2015). «Review of Anderson and Anderson's Machine Ethics». Artificial Intelligence. 229: 200–201. doi:10.1016/j.artint.2015.08.013Acessível livremente. Consultado em 7 de novembro de 2019 
  12. Tucker, Patrick (13 de maio de 2014). «Now The Military Is Going To Build Robots That Have Morals». Defense One. Consultado em 9 de julho de 2014 
  13. «Best Selling Science Books». New York Times. 8 de setembro de 2014. Consultado em 9 de novembro de 2014 
  14. «European Parliament, Committee on Legal Affairs. Draft Report with recommendations to the Commission on Civil Law Rules on Robotics». European Commission. Consultado em 12 de janeiro de 2017 
  15. Wakefield, Jane (12 de janeiro de 2017). «MEPs vote on robots' legal status – and if a kill switch is required». BBC News. Consultado em 12 de janeiro de 2017 
  16. «European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics». European Parliament. Consultado em 8 de novembro de 2019 
  17. Moor, James M. (2009). «Four Kinds of Ethical Robots». Philosophy Now 
  18. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies First ed. [S.l.: s.n.] ISBN 978-0199678112 
  19. Bostrom, Nick; Yudkowsky, Eliezer (2011). «The Ethics of Artificial Intelligence» (PDF). Cambridge Handbook of Artificial Intelligence. Cambridge Press. Consultado em 28 de junho de 2011. Arquivado do original (PDF) em 4 de março de 2016 
  20. Santos-Lang, Chris (2002). «Ethics for Artificial Intelligences». Arquivado do original em 3 de dezembro de 2011 
  21. Santos-Lang, Christopher (2014). «Moral Ecology Approaches to Machine Ethics». In: van Rysewyk; Pontier. Machine Medical Ethics. Col: Intelligent Systems, Control and Automation: Science and Engineering. 74. Switzerland: Springer. pp. 111–127. ISBN 978-3-319-08107-6. doi:10.1007/978-3-319-08108-3_8 
  22. Evolving Robots Learn To Lie To Each Other, Popular Science, August 18, 2009
  23. Evolving Robots Learn To Lie To Each Other, Popular Science, August 18, 2009
  24. Santos-Lang, Chris (2002). "Ethics for Artificial Intelligences". Archived from the original on 2011-12-03.
  25. Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
  26. Call for debate on killer robots, By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  27. Science New Navy-funded Report Warns of War Robots Going "Terminator" Arquivado em 2009-07-28 no Wayback Machine, by Jason Mick (Blog), dailytech.com, February 17, 2009.
  28. Navy report warns of robot uprising, suggests a strong moral compass, by Joseph L. Flatley engadget.com, Feb 18th 2009.
  29. AAAI Presidential Panel on Long-Term AI Futures 2008–2009 Study, Association for the Advancement of Artificial Intelligence, acessado em 26 de julho de 2009.
  30. Sotala, Kaj; Yampolskiy, Roman V (19 de dezembro de 2014). «Responses to catastrophic AGI risk: a survey». Physica Scripta. 90 (1). 8 páginas. ISSN 0031-8949. doi:10.1088/0031-8949/90/1/018001Acessível livremente 
  31. a b Crawford, Kate (25 de junho de 2016). «Artificial Intelligence's White Guy Problem». The New York Times 
  32. a b c Kirchner, Julia Angwin, Surya Mattu, Jeff Larson, Lauren (23 de maio de 2016). «Machine Bias: There's Software Used Across the Country to Predict Future Criminals. And it's Biased Against Blacks.». ProPublica (em inglês) 
  33. Executive Office of the President (maio de 2016). «Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights» (PDF). Obama White House 
  34. «Big Risks, Big Opportunities: the Intersection of Big Data and Civil Rights» (em inglês). Obama White House. 4 de maio de 2016 
  35. a b «How to Prevent Discriminatory Outcomes in Machine Learning». World Economic Forum. Consultado em 11 de dezembro de 2018 
  36. Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adam; Srikumar, Madhulika (2020). «Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI». SSRN Working Paper Series. ISSN 1556-5068. doi:10.2139/ssrn.3518482 
  37. Jobin, Anna; Ienca, Marcello; Vayena, Effy (2019). «The global landscape of AI ethics guidelines». Nature Machine Intelligence. 1 (9): 389–399. ISSN 2522-5839. arXiv:1906.11668Acessível livremente. doi:10.1038/s42256-019-0088-2Acessível livremente 
  38. Anderson, Susan Leigh (2011): The Unacceptability of Asimov's Three Laws of Robotics as a Basis for Machine Ethics. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.285–296. ISBN 9780511978036
  39. Powers, Thomas M. (2011): Prospects for a Kantian Machine. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.464–475.
  40. Muehlhauser, Luke, Helm, Louie (2012): Intelligence Explosion and Machine Ethics.
  41. Yudkowsky, Eliezer (2004): Coherent Extrapolated Volition.
  42. Guarini, Marcello (2011): Computational Neural Modeling and the Philosophy of Ethics. Reflections on the Particularism-Generalism Debate. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.316–334.
  43. Hibbard, Bill (2014): Ethical Artificial Intelligence. https://arxiv.org/abs/1411.1373
  44. McLaren, Bruce M. (2003). «Extensionally defining principles and cases in ethics: An AI model». Artificial Intelligence. 150 (1–2): 145–181. doi:10.1016/S0004-3702(03)00135-8 
  45. «Microsoft chatbot is taught to swear on Twitter – BBC News». BBC News (em inglês). 24 de março de 2016. Consultado em 17 de abril de 2016 
  46. Nazaretyan, A. (2014). A. H. Eden, J. H. Moor, J. H. Søraker and E. Steinhart (eds): Singularity Hypotheses: A Scientific and Philosophical Assessment. Minds & Machines, 24(2), pp.245–248.
  47. Brundage, Miles; Winterton, Jamie (17 de março de 2015). «Chappie and the Future of Moral Machines». Slate. Consultado em 30 de outubro de 2019 
  48. Asimov, Isaac (2008). I, robot. New York: Bantam. ISBN 978-0-553-38256-3 
  49. Ganascia, Jean-Gabriel. "Ethical system formalization using non-monotonic logics." Proceedings of the Annual Meeting of the Cognitive Science Society. Vol. 29. No. 29. 2007.

Ligações externas[editar | editar código-fonte]

Referências[editar | editar código-fonte]

  • Wallach, Wendell; Allen, Colin (novembro de 2008). Máquinas morais: ensinando robôs certo do errado . EUA: Oxford University Press .
  • Anderson, Michael; Anderson, Susan Leigh, eds (julho de 2011). Ética da Máquina . Imprensa da Universidade de Cambridge .
  • Storrs Hall, J. (30 de maio de 2007). Além da IA: Criando a Consciência da Máquina Prometheus Books .
  • Mouro, J. (2006). A Natureza, Importância e Dificuldade da Ética da Máquina. IEEE Intelligent Systems, 21(4), pp. 18-21.
  • Anderson, M. e Anderson, S. (2007). Criando um Agente Ético Inteligente. Revista AI, Volume 28(4).

Leitura complementar[editar | editar código-fonte]

  • Hagendorff, Thilo (2021). Vinculando o comportamento humano e de máquina: uma nova abordagem para avaliar a qualidade dos dados de treinamento para aprendizado de máquina benéfico . Minds and Machines, doi:10.1007/s11023-021-09573-8 .
  • Anderson, Michael; Anderson, Susan Leigh, eds (julho/agosto de 2006). " Edição Especial sobre Ética da Máquina ". Sistemas Inteligentes IEEE 21 (4): 10–63.
  • Bendel, Oliver (11 de dezembro de 2013). Considerações sobre a Relação entre Ética Animal e Máquina . AI & SOCIETY, doi:10.1007/s00146-013-0526-3 .
  • Dabringer, Gerhard, ed. (2010). " Aspectos Éticos e Jurídicos dos Sistemas Não Tripulados. Entrevistas ". Ministério da Defesa e Esportes da Áustria, Viena 2010,ISBN 978-3-902761-04-0 .
  • Gardner, A. (1987). Uma Abordagem Artificial ao Raciocínio Jurídico . Cambridge, MA: MIT Press .
  • Georges, TM (2003). Alma Digital: Máquinas Inteligentes e Valores Humanos . Cambridge, MA: Westview Press .
  • Singer, PW (29 de dezembro de 2009). Wired for War : The Robotics Revolution and Conflict in the 21st Century : Penguin .