Rede Neural: diferenças entre revisões

Origem: Wikipédia, a enciclopédia livre.
Conteúdo apagado Conteúdo adicionado
m Feito redirecionamento para Rede neural artificial, usando FastButtons
Criada por tradução da página "Neural network"
Etiquetas: Redirecionamento removido Inserção do elemento "nowiki", possivelmente errônea Possível conteúdo ofensivo Provável parcialidade Tradução de Conteúdo Tradução de Conteúdo 2
Linha 1: Linha 1:
[[Ficheiro:Neural_network_example.svg|direita|miniaturadaimagem| Visão simplificada de uma rede neural artificial feedforward]]
#REDIRECIONAMENTO [[Rede neural artificial]]
A '''rede neural''' é uma rede ou [[Redes neurais biológicas|circuito]] de [[Neurónio|neurônios]] biológicos, ou em um sentido mais moderno, uma [[rede neural artificial]], composta de neurônios artificiais ou nodos. <ref>{{Citar periódico |titulo=Neural networks and physical systems with emergent collective computational abilities |número=8 |ultimo=Hopfield |primeiro=J. J. |ano=1982 |paginas=2554–2558 |bibcode=1982PNAS...79.2554H |doi=10.1073/pnas.79.8.2554 |pmc=346238 |pmid=6953413 |volume=79 |doi-access=free |journal=Proc. Natl. Acad. Sci. U.S.A.}}</ref> Portanto, uma rede neural pode ser uma [[Redes neurais biológicas|rede neural biológica]], composta por neurônios biológicos, ou uma rede neural artificial, usada em[[inteligência artificial]] (IA). As conexões de neurônios biológicos são representadas nas redes neurais artificiais como pesos entre nodos. Um peso positivo representa uma conexão estimulante enquanto valores negativos representam conexões inibitórias. Finalmente, a função de ativação controla a [[amplitude]] de saída. Por exemplo, um intervalo de saída aceitável é normalmente entre 0 e 1, ou poderia ser também entre -1 e 1.

Essas redes neurais artificiais podem ser treinadas por um conjunto de dados e usadas para modelagem preditiva, controle adaptativo e aplicações onde as redes podem ser treinadas através de um conjunto de dados. A autoaprendizagem pela experiência pode acontecer entre as redes, gerando conclusões de um grupo de informações complexo e aparentemente não relacionado ao problema. <ref>{{Citar web|url=https://www.gartner.com/it-glossary/neural-net-or-neural-network|titulo=Neural Net or Neural Network - Gartner IT Glossary|website=www.gartner.com}}</ref>

== Resumo ==
A [[Redes neurais biológicas|rede neural biológica]] é composta por grupos quimicamente conectados ou associados funcionalmente a neurônios. Um neurônio pode estar conectado a muitos outros neurônios e o número total de neurônios e conexões em uma rede pode ser extenso. Conexões, chamadas de [[Sinapse|sinapses]], formam-se normalmente por [[Axónio|axônios]] e [[Dendrito|dendritos]], porém [[Sinapse dendrodendrítica|sinapse dendro dendrítica]] <ref>Arbib, p.666</ref> e outras conexões são possíveis. outras formas de sinalização também ocorrem por causa da difusão de [[Neurotransmissor|neurotransmissores]] .

Inteligência artificial, modelagem cognitiva e redes neurais são paradigmas de processamento de informações, inspirados pelo processo no qual sistemas neurais biológicos processam dados. [[Inteligência artificial]]

e [[modelagem cognitiva]] tentam simular algumas propriedades das redes neurais biológicas. Na área de inteligência artificial, redes neurais artificiais obtiveram sucesso em [[reconhecimento de fala]], [[análises de imagens]] e [[controle adaptativo]] com o objetivo de construir agentes de software (em computadores e [[Jogo eletrônico|jogos eletrônicos]]) ou [[Robô autônomo|robôs autônomos]].

Historicamente, computadores digitais evoluíram da [[arquitetura de von Neumann]] e operam pela execução de instruções explícitas, com o acesso da memória por um número de processadores. Por outro lado, a origem das redes neurais são baseadas no esforço de modelagem de processamento de informação de sistemas biológicos. Diferentemente da arquitetura de von Neumann, a computação das redes neurais não separa a memória e o processamento.

A teoria da rede neural tem servido para melhorar o conhecimento de como os neurônios cerebrais funcionam e, também, providenciar uma base no empenho da criação da inteligência artificial.

== História ==
A base teórica preliminar de redes neurais contemporâneas foi proposta independentemente por [[Alexander Bain]] <ref name="Bain 1873">{{Citar livro|título=Mind and Body: The Theories of Their Relation|ultimo=Bain|editora=D. Appleton and Company|ano=1873|localização=New York}}</ref> (1873) e [[William James]] <ref name="James 1890">{{Citar livro|url=https://archive.org/details/principlespsych01jamegoog|título=The Principles of Psychology|ultimo=James|editora=H. Holt and Company|ano=1890|localização=New York}}</ref> (1890). Em seus trabalhos, tanto os pensamentos quanto as atividades corporais ocorrem pela interação doe neurônios com o cérebro.
[[Ficheiro:Forest_of_synthetic_pyramidal_dendrites_grown_using_Cajal's_laws_of_neuronal_branching.png|miniaturadaimagem| [[Modelagem computacional|Simulação computacional]] da arquitetura ramificada dos [[Dendrito|dendritos]] de [[Célula piramidal|neurônios piramidais]] . <ref>{{Citar periódico |titulo=PLoS Computational Biology Issue Image &#124; Vol. 6(8) August 2010 |número=8 |ultimo=Cuntz |primeiro=Hermann |ano=2010 |paginas=ev06.i08 |doi=10.1371/image.pcbi.v06.i08 |volume=6 |doi-access=free |journal=PLOS Computational Biology}}</ref>]]
De acordo Bain, <ref name="Bain 1873">{{Citar livro|título=Mind and Body: The Theories of Their Relation|ultimo=Bain|editora=D. Appleton and Company|ano=1873|localização=New York}}</ref> toda atividade levava ao disparo de um determinado conjunto de neurônios. Quando as atividades forem repetidas, as conexões entre esses neurônios se fortalecem. De acordo com a sua teoria, essa repetição foi o que levou à formação da memória. A comunidade científica do período era, em geral, cética em relação à teoria de Bain <ref name="Bain 1873" /> porque esta requer um número excessivo de conexões neurais no cérebro. Hoje em dia, é aparente que o cérebro é extremamente complexo e que a mesma “fiação” pode lidar com muitos problemas e informações.

A teoria de James <ref name="James 1890">{{Citar livro|url=https://archive.org/details/principlespsych01jamegoog|título=The Principles of Psychology|ultimo=James|editora=H. Holt and Company|ano=1890|localização=New York}}</ref> era similar à de Bain, <ref name="Bain 1873">{{Citar livro|título=Mind and Body: The Theories of Their Relation|ultimo=Bain|editora=D. Appleton and Company|ano=1873|localização=New York}}</ref> porém, ele sugeriu que as memórias e ações eram resultados de correntes elétricas fluindo entre os neurônios e o cérebro. O seu modelo foca no fluir de correntes elétricas e não requer conexões individuais para cada memória ou ação.

[[Charles Scott Sherrington|CS Sherrington]] <ref>{{Citar periódico |titulo=Experiments in Examination of the Peripheral Distribution of the Fibers of the Posterior Roots of Some Spinal Nerves |ultimo=Sherrington |primeiro=C.S. |ano=1898 |paginas=45–186 |doi=10.1098/rstb.1898.0002 |volume=190 |doi-access=free |journal=Proceedings of the Royal Society of London}}</ref> (1898) conduziu experimentos para testar a teoria de James. Ele conduziu correntes elétricas pela medula espinhal de ratos. Porém, ao invés de demonstrar um aumento de corrente elétrica, como James havia projetado, Sherrington descobriu que a força das correntes elétricas diminuíram conforme os experimentos continuavam. Importantemente, esse trabalho levou à descoberta do conceito de [[habituação]] .

[[Warren McCulloch|McCulloch]] e [[Walter Pitts|Pitts]] <ref>{{Citar periódico |titulo=A Logical Calculus of Ideas Immanent in Nervous Activity |número=4 |ultimo=McCulloch |primeiro=Warren |ultimo2=Walter Pitts |ano=1943 |paginas=115–133 |doi=10.1007/BF02478259 |volume=5 |journal=Bulletin of Mathematical Biophysics}}</ref> (1943) criaram um modelo computacional para redes neurais baseado em matemática e algoritmos chamado de lógica de limiar. Esse modelo abriu caminho para que as pesquisas de redes neurais se dividissem em duas áreas distintas, processos biológicos no cérebro e aplicações de redes neurais em inteligência artificial.

No final de 1940, o psicólogo [[Donald Olding Hebb|Donald Hebb]] <ref>{{Citar livro|url=https://archive.org/details/in.ernet.dli.2015.226341|título=The Organization of Behavior|ultimo=Hebb|primeiro=Donald|editora=Wiley|ano=1949|localização=New York}}</ref> criou a hipótese de aprendizagem baseado no mecanismo de plasticidade neural, agora conhecida como [[Teoria hebbiana|aprendizagem Hebbiana]] . Esta é considerada uma regra típica de [[aprendizagem não supervisionada|aprendizado não supervisionado]] e suas variações são modelos iniciais da [[Potenciação de longa duração|potencialização de longa duração]] . Essas idéias começaram a ser utilizadas em modelos computacionais em 1948 com [[Máquinas desorganizadas|o tipo-B de máquinas desorganizadas de Alan Turing]] .

Farley e Clark <ref>{{Citar periódico |titulo=Simulation of Self-Organizing Systems by Digital Computer |número=4 |ultimo=Farley |primeiro=B. |ultimo2=W.A. Clark |ano=1954 |paginas=76–84 |doi=10.1109/TIT.1954.1057468 |volume=4 |journal=IRE Transactions on Information Theory}}</ref> (1954) usaram pela primeira vez máquinas computacionais, na época chamadas de calculadoras, pela primeira vez na MIT (Massachussets Institute of Technology - Instituto de Tecnologia de Massachusetts) para simular a rede Hebbian. Outras máquinas computacionais de redes neurais foram criadas por Rochester, Holland, Habit e Duda <ref>{{Citar periódico |titulo=Tests on a cell assembly theory of the action of the brain, using a large digital computer |número=3 |ultimo=Rochester |primeiro=N. |ultimo2=J.H. Holland, L.H. Habit and W.L. Duda |ano=1956 |paginas=80–93 |doi=10.1109/TIT.1956.1056810 |volume=2 |journal=IRE Transactions on Information Theory}}</ref> (1956).

[[Frank Rosenblatt|Rosenblatt]] <ref>{{Citar periódico |titulo=The Perceptron: A Probalistic Model For Information Storage And Organization In The Brain |número=6 |ultimo=Rosenblatt |primeiro=F. |ano=1958 |paginas=386–408 |citeseerx=10.1.1.588.3775 |doi=10.1037/h0042519 |pmid=13602029 |volume=65 |journal=Psychological Review}}</ref> (1958) criou o [[perceptron]], um algoritmo baseado na aprendizagem de duas camadas de rede de computadores. Este algoritmo reconhece padrões utilizando adição e subtração básica. Rosenblatt também utilizou notações matemáticas para descrever circuitos que não faziam parte do perceptron básico, como o circuito [[ou exclusivo]], um circuito no qual sua computação matemática não pode ser processada até a criação do algoritmo de [[retropropagação]] fosse criado por Werbos <ref name="Werbos 1975">{{Citar livro|título=Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences|ultimo=Werbos|primeiro=P.J.|ano=1975}}</ref> (1975).

As pesquisas em redes neurais estagnaram depois da publicação de [[Marvin Minsky]] e [[Seymour Papert]] <ref>{{Citar livro|título=An Introduction to Computational Geometry|ultimo=Minsky|primeiro=M.|ultimo2=S. Papert|editora=MIT Press|ano=1969|isbn=978-0-262-63022-1}}</ref> sobre aprendizado de máquina (1969). Eles descobriram dois problemas Eles descobriram dois problemas chaves com a máquinas computacionais de redes neurais. O primeiro problema estava relacionado com a incapacidade de processamento do circuito ou exclusivo por redes neurais de uma camada. O segundo problema significante foi que os computadores não eram sofisticados o suficiente para, efetivamente, processarem tempo de execução longos, o que era necessário para redes neurais grandes. As pesquisas em redes neurais começaram a aumentar depois que os computadores conseguiram aumentar as suas capacidades de processamento. Vale também mencionar que os avanços nas pesquisas em redes neurais se devem à criação do algoritmo de [[retropropagação]] que efetivamente resolveu o problema ou exclusivo (Werbos 1975). <ref name="Werbos 1975">{{Citar livro|título=Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences|ultimo=Werbos|primeiro=P.J.|ano=1975}}</ref>

O processamento paralelo da metade de 1980 se tornou popular como [[conexionismo]] . O texto de Rumelhart e McClelland <ref>{{Citar livro|url=https://archive.org/details/paralleldistribu00rume|título=Parallel Distributed Processing: Explorations in the Microstructure of Cognition|ultimo=Rumelhart|primeiro=D.E.|ultimo2=James McClelland|editora=MIT Press|ano=1986|localização=Cambridge}}</ref> (1986) fez uma exposição completa sobre o uso do conexionismo em computadores para simular processos neurais.

As redes neurais usadas em inteligência artificial são tradicionalmente vistas como modelos simples do processo neural no cérebro, apesar de que a relação entre este modelo e a arquitetura biológica cerebral ainda são debatidas. Ainda não está claro até que ponto as redes neurais artificiais espelham a função cerebral. <ref>{{Citar web|ultimo=Russell|primeiro=Ingrid|url=http://uhaweb.hartford.edu/compsci/neural-networks-definition.html|titulo=Neural Networks Module|acessodata=2012|arquivourl=https://web.archive.org/web/20140529155320/http://uhaweb.hartford.edu/compsci/neural-networks-definition.html|arquivodata=29 May 2014}}</ref>

== Inteligência artificial ==
A ''rede neural'' (RN), no caso de neurônios artificiais chamada de ''rede neural artificial'' (RNA) ou ''rede neural simulada'' (SNN), é um grupo natural ou [[Neurônio artificial|artificial]] de neurônios interconectados que usam modelos matemáticos ou computacionais para processamento de informação baseado no [[conexionismo]] para abordar a [[computação]]. Na maioria dos casos, a rede neural artificial é um [[sistema adaptativo]] que muda sua estrutura baseando-se em informações internas ou externas que fluem por suas redes

Em termos mais práticos, as redes neurais são [[modelagem de dados]] [[Estatística|estatísticos]] [[Sistema dinâmico não linear|não lineares]] ou ferramentas [[Tomada de decisão|de decisões]] .Elas podem ser usadas para modelar relações complexas entre entradas e saídas ou para [[Reconhecimento de padrões|encontrar padrões]] em dados.

Uma [[rede neural artificial]] envolve uma rede de elementos de processamento simples ( [[Neurônio artificial|neurônios artificiais]] ) que podem exibir um comportamento global complexo, determinado pelas conexões entre os elementos de processamento e os parâmetros dos elementos. Neurônios artificiais foram propostos pela primeira vez em 1943 por [[Warren McCulloch]], um neurofisiologista, e [[Walter Pitts]], um lógico, que colaboraram pela primeira vez na [[Universidade de Chicago]] . <ref>{{Citar periódico |titulo=A Logical Calculus of Ideas Immanent in Nervous Activity |número=4 |ultimo=McCulloch |primeiro=Warren |ultimo2=Pitts |primeiro2=Walter |ano=1943 |paginas=115–133 |doi=10.1007/BF02478259 |volume=5 |journal=Bulletin of Mathematical Biophysics}}</ref>

Um tipo clássico de rede neural artificial é a [[Modelo de Hopfield|rede neural recorrente de Hopfield]].

O conceito de rede neural foi aparentemente proposto por [[Alan Turing]] em seu artigo de 1948 ''Intelligent Machinery (Máquina Inteligentes) de 1948 no qual ele se referiu a eles como'', "máquinas não organizadas do tipo-B". <ref>{{Citar livro|título=The Essential Turing|editora=Oxford University Press|ano=2004|editor-sobrenome=Copeland|isbn=978-0-19-825080-7}}</ref>

A utilidade da modelagem de redes neurais artificiais reside no fato de que elas podem deduzir uma função a partir de observações e também podem usá-la. Redes neurais não supervisionadas também podem ser usadas para aprenderem as representações das entradas que capturam as características salientes da distribuição de entrada. Para exemplos, leia sobre [[máquina Boltzmann|máquina de Boltzmann]] (1983) e, mais recentemente, o algoritmo de [[Aprendizagem profunda|aprendizado estruturado profundo]], o qual pode aprender implicitamente a função de distribuição dos dados observados. O aprendizado em redes neurais é particularmente útil em aplicações onde a complexidade dos dados ou trabalho faz com que a criação manual dessas funções não seja algo prático.

== Aplicações ==
As redes neurais podem ser utilizadas em áreas diferentes. Os trabalhos nos quais as redes neurais artificiais são aplicadas tendem a cair entre as seguintes categorias amplas:

* [[Aproximação de função|Aproximação de funções]] ou[[Regressão (estatística)|regressão]], incluindo [[série temporal]] e modelagem.
* [[Classificação estatística|Classificação]], incluindo [[Reconhecimento de padrões|padrão]] e reconhecimento de sequências, [[detecção de novidades]] e decisões sequenciais.
* [[Processamento de dados]], incluindo filtragem de dados, agrupamento, [[Separação de sinal cego|separação cega de sinais]] e [[Compressão de dados|compressão]].

As áreas de aplicação das RNAs incluem [[Identificação do sistema não linear|sistema de identificação não linear]] <ref name="SAB1">{{Citar livro|título=Nonlinear System Identification: NARMAX Methods in the Time, Frequency, and Spatio-Temporal Domains|ultimo=Billings|primeiro=S. A.|editora=Wiley|ano=2013|isbn=978-1-119-94359-4}}</ref> e controle (controle de veículos e processos), jogos e decisões (gamão, xadrez, jogo de corrida), reconhecimento de padrões (sistemas de radar, [[Sistema de reconhecimento facial|identificação facial]], reconhecimento de objeto), reconhecimento de sequências. (gestos, fala, [[Reconhecimento de texto manuscrito|reconhecimento de texto escrito]] ), diagnóstico médico, aplicações financeiras, [[mineração de dados]] (ou descoberta de conhecimento em bancos de dados, "KDD"), visualização e filtragem [[Spam de email|de spam de e-mail]] . Por exemplo, é possível criar um perfil semântico dos interesses do usuário, emergindo-o de imagens treinadas para reconhecimento de objetos. <ref>{{Citar periódico |url=https://www.researchgate.net/publication/328964756 |titulo=Semantic Image-Based Profiling of Users' Interests with Neural Networks |número=Emerging Topics in Semantic Technologies |ultimo=Wieczorek |primeiro=Szymon |ultimo2=Filipiak |primeiro2=Dominik |ano=2018 |doi=10.3233/978-1-61499-894-5-179 |ultimo3=Filipowska |primeiro3=Agata |volume=36 |journal=Studies on the Semantic Web}}</ref>

== Neurociência ==
A [[Neurociência computacional|neurociência teórica e computacional]] é a área preocupada com a análise e modelagem computacional do sistema neural biológico. Como os sistemas neurais estão intimamente relacionados aos processos cognitivos e comportamentais,

O objetivo da área é criação de modelos de sistemas neurais biológicos para entender como os sistemas biológicos funcionam. Para ganhar esse entendimento, neurocientistas se esforçam em criar uma ligação entre os processos biológicos observados (dados), mecanismos biologicamente e aprendizagem neural (modelagem [[Redes neurais biológicas|de rede neurais biológica]]<nowiki/>s ) e teoria (teoria de aprendizagem estatística e teoria da [[Teoria da informação|informação]] ).

=== Tipos de modelos ===
Usam-se vários, que são definidos em níveis diferentes de abstração e modelam aspectos diferentes do sistema neural. Eles variam entre modelos de [[Modelos de disparos neuronais|neurônios individuais]] com comportamento de curto prazo, modelos da dinâmica do circuito neural que ocorrem pela interação de neurônios individuais e modelos de comportamento que ocorrem por causa dos modelos neurais abstratos, os quais representam subsistemas completos. Entre eles também estão inclusos modelos de plasticidade dos sistemas neurais de longo e curto prazo e suas relações com o aprendizado e memória, começando por um neurônio individual até o nível de sistema.

=== Conexão ===
Em agosto de 2020, cientistas relataram que conexões bidirecionais ou o adicionamento apropriado de conexões de retorno, podem acelerar e promover a comunicação entre redes neurais modulares do córtex cerebral e diminuir o limiar para que tenham uma comunicação bem sucedida. Eles mostraram que adicionar conexões de retorno entre os pares de ressonância pode auxiliar uma propagação bem sucedida de um pacote de pulso singular em toda a rede. <ref>{{Citar jornal|url=https://medicalxpress.com/news/2020-08-neuroscientists-regions-brain.html|titulo=Neuroscientists demonstrate how to improve communication between different regions of the brain|acessodata=6 September 2020|website=medicalxpress.com|lingua=en}}</ref> <ref>{{Citar periódico |titulo=Facilitating the propagation of spiking activity in feedforward networks by including feedback |data=10 August 2020 |número=8 |ultimo=Rezaei |primeiro=Hedyeh |ultimo2=Aertsen |primeiro2=Ad |paginas=e1008033 |lingua=en |doi=10.1371/journal.pcbi.1008033 |issn=1553-7358 |pmc=7444537 |pmid=32776924 |ultimo3=Kumar |primeiro3=Arvind |ultimo4=Valizadeh |primeiro4=Alireza |volume=16 |doi-access=free |journal=PLOS Computational Biology}} [[File:CC-BY_icon.svg|50x50px]] Text and images are available under a [[creativecommons:by/4.0/|Creative Commons Attribution 4.0 International License]].</ref>

== Crítica ==
Uma crítica comum de redes neurais, particularmente em robótica, é que estas requerem uma grande diversidade de exemplos de treinamento para sua operação no mundo real. Isto não é uma surpresa, qualquer máquina de aprendizado precisa de exemplos representativos suficientes para capturar a estrutura subjacente e assim generalizar novos casos. Dean Pomerleau, em sua pesquisa publicada no artigo Knowledge-based Training of Artificial Neural Networks for Autonomous Robot Driving (Treinamento Baseado no Conhecimento de Redes Neurais Artificiais para Condução Autônoma de Robôs), usou uma rede neural para treinar um veículo robótico a dirigir vários tipos de estradas (via única, várias vias, estrada, etc). Uma parte grande de sua pesquisa está voltada para (1) extrapolar múltiplos cenários de uma única experiência, (2) e para a preservação de treinamentos do passado, para que o sistema não fique super treinado (se, por exemplo, este for apresentado com uma série de curvas à direita - este não deverá aprender a dobrar sempre à direita). Esses problemas são comuns  em redes neurais onde o modelo tem que tomar uma decisão dentre uma variedade enorme de respostas, porém isto pode ser resolvido de muitas maneiras diferentes. Entre elas, por exemplo, o embaralhamento aleatório de exemplos de treinamento, a utilização de um algoritmo numérico de otimização que não precise de muitos passos enquanto faz a troca das conexões das redes, seguindo um exemplo ou pelo agrupamento de exemplos, também chamados de mini-lotes.

[[Alexander Dewdney|AK Dewdney]], ex-colunista ''[[Scientific American|da Scientific American]] (revista científica Americana)'', escreveu em 1997: "Apesar de que redes neurais solucionam alguns problemas em brinquedos, o seu poder computacional é tão limitado que me surpreende qualquer pessoa acreditar que elas podem ser utilizadas como ferramentas para resolver problemas generalizados" (Dewdney, pág.&nbsp;82).

Os argumentos para a posição de Dewdney incluem a necessidade de dedicar bastante recursos de armazenamento e processamento para que um software de redes neurais grandes seja implementado com eficiência. Enquanto o cérebro já possui hardware adaptado para o trabalho de processar sinais por meio do de um gráfico de neurônios, a simulação na tecnologia de Von Neumann, até mesmo a forma mais simples, poderá fazer com que um desenvolvedor de rede neural encha muitos milhões de linhas de [[Banco de dados|banco]] de dados para suas conexões – isso pode consumir grandes quantidades de [[Memória de acesso aleatório|memória]] e da capacidade [[Dispositivo de armazenamento de dados|de armazenamento de dados]] em computadores. Além disso, o desenvolvedor de sistemas de redes neurais precisará, com frequência, simular a transmissão de sinais através de muitas destas conexões e os neurônios associados às mesmas - o que geralmente deverá ser combinado com um tamanho incrível de tempo e poder de processamento pela [[Unidade central de processamento|CPU]]. Ainda que redes neurais produzam programas eficazes com frequência, elas geralmente o fazem com o custo da eficiência (eles tendem a consumir tamanhos consideráveis de tempo e dinheiro).

Argumentos contra a posição de Dewdney incluem o uso com sucesso de redes neurais para solucionar muitos problemas complexos e trabalhos diversos, como aeronaves que voam autonomamente. <ref>{{Citar web|ultimo=Administrator|primeiro=NASA|url=http://www.nasa.gov/centers/dryden/news/NewsReleases/2003/03-49.html|titulo=Dryden Flight Research Center - News Room: News Releases: NASA NEURAL NETWORK PROJECT PASSES MILESTONE|data=5 June 2013|website=NASA}}</ref>

O escritor tecnológico [[Roger Bridgman]] fez o seguinte comentário sobre as declarações de Dewdney sobre redes neurais:<blockquote>Redes neurais, por exemplo, estão no banco dos réus não só porque elas foram intensamente promovidas (O que não foi?), mas também porque você pode criar uma rede com sucesso sem entender como ela funciona: os inúmeros números que capturam o seu comportamento provavelmente seriam "opacos, uma tabela que não se pode ler… sem valor como um recurso científico".

Apesar de sua declaração enfática de que ciência não é tecnologia, Dewdney parece rotular redes neurais como uma ciência ruim, enquanto a maioria das pessoas que as desenvolvem só estão tentando ser bons engenheiros. Ainda vale muito a pena ter uma tabela que não pode ser lida por pessoas mas que pode ser lida por uma máquina. <ref>{{Citar web|url=http://members.fortunecity.com/templarseries/popper.html|titulo=Roger Bridgman's defence of neural networks|acessodata=August 1, 2006|arquivourl=https://web.archive.org/web/20120319163352/http://members.fortunecity.com/templarseries/popper.html|arquivodata=March 19, 2012|urlmorta=dead}}</ref></blockquote>Embora analisar o que foi aprendido por uma rede neural seja difícil, a análise do aprendido por uma rede neural biológica acaba sendo mais fácil. Além disso, ênfases recentes na explicabilidade da inteligência artificial têm contribuído ao desenvolvimento de métodos, notavelmente os métodos baseados nos mecanismos de atenção, visualização e explicação de redes neurais que foram aprendidas. Os pesquisadores envolvidos em algoritmos de aprendizado exploratório em redes neurais estão gradualmente descobrindo princípios genéricos que permitem uma máquina de aprendizado a ser bem sucedida. Por exemplo, Bengio e LeCun (2007) escreveram um artigo a respeito de aprendizado local versus não local e também sobre arquitetura superficial versus profunda. <ref>{{Citar web|url=http://www.iro.umontreal.ca/~lisa/publications2/index.php/publications/show/4|titulo=Scaling Learning Algorithms towards {AI} - LISA - Publications - Aigaion 2.0|website=www.iro.umontreal.ca}}</ref>

Outras críticas vieram de de pessoas que acreditam em modelos híbridos (combinando redes neurais e abordagens [[Inteligência artificial simbólica|simbólicas]] ). Elas defendem a mistura dessas duas abordagens e acreditam que modelos híbridos podem capturar melhor os mecanismos da mente humana (Sun e Bookman, 1990). 

== Melhorias recentes ==
Embora pesquisas iniciais tenham se preocupado principalmente com as características elétricas dos neurônios, uma parte particularmente importante das investigações dos últimos anos tem sido a exploração do papel de [[Neuromodelação|neuromoduladores]] como [[dopamina]], [[acetilcolina]] e [[serotonina]] no comportamento e no aprendizado. 

Modelos [[Biofísica|biofísicos]], como a [[teoria BCM]], têm sido importantes na compreensão dos mecanismos da [[plasticidade sináptica]] e têm tido aplicações tanto na ciência da computação quanto na neurociência. A pesquisa sobre a compreensão de algoritmos computacionais usados no cérebro está em andamento, recentemente, houveram evidências biológicas sobre de [[redes de base radial]] e [[retropropagação neural]] como mecanismos de processamento de dados. 

Dispositivos computacionais foram criados em CMOS (Semicondutor de óxido de metal complementar) tanto para simulação biofísica e [[Engenharia neuromórfica|computação neuromórfica]] . Esforços recentes são promissores para a criação de [[Máquina molecular|nanodispositivos]] para análises e [[convolução]] de [[Análise de componentes principais|componentes principais]] em grande escala. <ref>{{Citar periódico |titulo=Memristive switching mechanism for metal/oxide/metal nanodevices |número=7 |ultimo=Yang |primeiro=J. J. |ultimo2=Pickett |primeiro2=M. D. |ano=2008 |paginas=429–433 |doi=10.1038/nnano.2008.160 |pmid=18654568 |ultimo3=Li |primeiro3=X. M. |ultimo4=Ohlberg |primeiro4=D. A. A. |ultimo5=Stewart |primeiro5=D. R. |ultimo6=Williams |primeiro6=R. S. |numero-autores=1 |volume=3 |journal=[[Nature Nanotechnology|Nat. Nanotechnol.]]}}</ref> Se bem sucedidos, esses esforços podem gerar uma nova era de [[Rede neural artificial|computação neural]] que seria um passo à frente da computação digital, <ref>{{Citar periódico |titulo=The missing memristor found |número=7191 |ultimo=Strukov |primeiro=D. B. |ultimo2=Snider |primeiro2=G. S. |ano=2008 |paginas=80–83 |bibcode=2008Natur.453...80S |doi=10.1038/nature06932 |pmid=18451858 |ultimo3=Stewart |primeiro3=D. R. |ultimo4=Williams |primeiro4=R. S. |numero-autores=1 |volume=453 |journal=Nature}}</ref> porque dependeria do [[Aprendizagem|aprendizado]] ao invés da [[Linguagem de programação|programação]] e também porque seria fundamentalmente [[Sinal analógico|analógico]] em vez de [[Dados digitais|digital]], apesar de que suas primeiras serem de fato feitas por dispositivos digitais CMOS.

Entre 2009 e 2012, as [[rede neural recorrente|redes neurais recorrentes e redes]] [[rede neural direta|neurais de feedforward]] densa, desenvolvidas na pesquisa de grupo de [[Jürgen Schmidhuber]] no laboratório suíço de inteligência artificial IDSIA ([[IDSIA|Swiss AI Lab IDSIA]]) ganharam oito competições internacionais em [[reconhecimento de padrões]] e [[Aprendizado de máquina|máquina de aprendizado]] . <ref>{{Citar web|url=http://www.kurzweilai.net/how-bio-inspired-deep-learning-keeps-winning-competitions|titulo=2012 Kurzweil AI Interview with Jürgen Schmidhuber on the eight competitions won by his Deep Learning team 2009–2012|acessodata=December 10, 2012|arquivourl=https://web.archive.org/web/20180831075249/http://www.kurzweilai.net/how-bio-inspired-deep-learning-keeps-winning-competitions|arquivodata=August 31, 2018|urlmorta=dead}}</ref> Por exemplo, [[memória de curto prazo longa|curta e longa memória multidimensional]] (LSTM) <ref>{{Citar livro|título=Advances in Neural Information Processing Systems 21 (NIPS'21)|ultimo=Graves|primeiro=Alex|ultimo2=Schmidhuber|primeiro2=Jürgen|editora=Neural Information Processing Systems (NIPS) Foundation|ano=2008|editor-sobrenome=Bengio|volume=21|páginas=545–552|capitulo=Offline Handwriting Recognition with Multidimensional Recurrent Neural Networks|editor-sobrenome2=Schuurmans|editor-sobrenome3=Lafferty|editor-sobrenome4=Williams|editor-sobrenome5=Culotta}}</ref> <ref>{{Citar periódico |titulo=A Novel Connectionist System for Improved Unconstrained Handwriting Recognition |número=5 |ultimo=Graves |primeiro=A. |ultimo2=Liwicki |primeiro2=M. |ano=2009 |paginas=855–868 |citeseerx=10.1.1.139.4502 |doi=10.1109/TPAMI.2008.137 |pmid=19299860 |ultimo3=Fernandez |primeiro3=S. |ultimo4=Bertolami |primeiro4=R. |ultimo5=Bunke |primeiro5=H. |ultimo6=Schmidhuber |primeiro6=J. |volume=31 |journal=IEEE Transactions on Pattern Analysis and Machine Intelligence}}</ref> ganhou três competições em [[Reconhecimento de caligrafia|reconhecimento de escrita manual]] conectada em 2009 na Conferência Internacional em Reconhecimento e Análises de Documentos (ICDAR - International Conference on Document Analysis and Recognition), sem ter nenhum conhecimento sobre os três idiomas que seriam aprendidos.

Variantes do algoritmo [[Retropropagação|de retropropagação]], assim como métodos não supervisionados por [[Geoffrey Hinton|Geoff Hinton]] e colegas da [[Universidade de Toronto|Universidade de Toronto,]] podem ser usadas para o treinamento profundo de arquiteturas altamente não lineares. <ref>{{Citar periódico |url=http://www.cs.toronto.edu/~hinton/absps/fastnc.pdf |titulo=A fast learning algorithm for deep belief nets |número=7 |ultimo=Hinton |primeiro=G. E. |ultimo2=Osindero |primeiro2=S. |ano=2006 |paginas=1527–1554 |citeseerx=10.1.1.76.1541 |doi=10.1162/neco.2006.18.7.1527 |pmid=16764513 |ultimo3=Teh |primeiro3=Y. |volume=18 |journal=[[Neural Computation (journal)|Neural Computation]]}}</ref> Semelhantes ao [[Neocognitron]] de 1980 por [[Kunihiko Fukushima]], <ref>{{Citar periódico |titulo=Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position |número=4 |ultimo=Fukushima |primeiro=K. |ano=1980 |paginas=93–202 |doi=10.1007/BF00344251 |pmid=7370364 |volume=36 |journal=Biological Cybernetics}}</ref> e a "arquitetura padrão de visão", <ref>{{Citar periódico |titulo=Hierarchical models of object recognition in cortex |número=11 |ultimo=Riesenhuber |primeiro=M. |ultimo2=Poggio |primeiro2=T. |autorlink2=Tomaso Poggio |ano=1999 |paginas=1019–1025 |doi=10.1038/14819 |pmid=10526343 |volume=2 |journal=[[Nature Neuroscience]]}}</ref> inspirada pelas células simples e complexas identificadas por [[David Hubel|David H. Hubel]] e [[Torsten Wiesel]] no [[Córtex visual|córtex visual primário]] .

A função de base radial e as redes wavelet também foram introduzidas. Estas apresentam melhores propriedades de aproximação e têm sido aplicadas em sistemas de [[Identificação do sistema não linear|identificação não linear]] como também em aplicações de classificações . <ref name="SAB1">{{Citar livro|título=Nonlinear System Identification: NARMAX Methods in the Time, Frequency, and Spatio-Temporal Domains|ultimo=Billings|primeiro=S. A.|editora=Wiley|ano=2013|isbn=978-1-119-94359-4}}<cite class="citation book cs1" data-ve-ignore="true" id="CITEREFBillings2013">Billings, S. A. (2013). ''Nonlinear System Identification: NARMAX Methods in the Time, Frequency, and Spatio-Temporal Domains''. Wiley. [[International Standard Book Number|ISBN]]&nbsp;[[Especial:BookSources/978-1-119-94359-4|<bdi>978-1-119-94359-4</bdi>]].</cite></ref>

As redes feedforward de [[Aprendizagem profunda|aprendizado profundo]] alternam camadas [[Convolução|convolucionais]] e camadas de pooling máximo, encimadas por várias camadas de classificação pura. Implementações rápidas baseadas em [[Unidade de processamento gráfico|GPU]] (Graphics processing unit - Unidade de processamento gráfico) desta abordagem ganharam várias competições de reconhecimento de padrãos, incluindo o IJCNN 2011 Traffic Sign Recognition Competition (Competição de Reconhecimento de Sinais de Trânsito) <ref>D. C. Ciresan, U. Meier, J. Masci, J. Schmidhuber. [https://people.lu.usi.ch/mascij/data/papers/2012_nn_traffic.pdf Multi-Column Deep Neural Network for Traffic Sign Classification]. Neural Networks, 2012.</ref> e o ISBI 2012 Segmentation of Neuronal Structures in Electron Microscopy Stacks challenge (Desafio de Estruturas Neuronais em Pilhas de Microscopia Eletrônica). <ref>D. Ciresan, A. Giusti, L. Gambardella, J. Schmidhuber. [https://papers.nips.cc/paper/4741-deep-neural-networks-segment-neuronal-membranes-in-electron-microscopy-images.pdf Deep Neural Networks Segment Neuronal Membranes in Electron Microscopy Images]. In Advances in Neural Information Processing Systems (NIPS 2012), Lake Tahoe, 2012.</ref> Essas redes neurais também foram as primeiras a reconhecer padrões artificiais que alcançaram uma performance que pode competir com humanos e até superá-los <ref>D. C. Ciresan, U. Meier, [[Jürgen Schmidhuber|J. Schmidhuber]]. Multi-column Deep Neural Networks for Image Classification. IEEE Conf. on Computer Vision and Pattern Recognition CVPR 2012.</ref> em benchmarks como reconhecimento de sinais de trânsito (IJCNN 2012), ou o problema de dígitos manuais MNIST por [[Yann LeCun]] e colegas da [[Universidade de Nova Iorque|NYU]] (Universidade de Nova York).

== Veja também ==

== Referências ==

== Links Externos ==

[[Categoria:Tecnologias emergentes]]
[[Categoria:Inteligência artificial]]
[[Categoria:Econometria]]
[[Categoria:Redes]]
[[Categoria:Arquitetura de redes]]
[[Categoria:Redes neurais]]

Revisão das 22h25min de 2 de maio de 2022

Visão simplificada de uma rede neural artificial feedforward

A rede neural é uma rede ou circuito de neurônios biológicos, ou em um sentido mais moderno, uma rede neural artificial, composta de neurônios artificiais ou nodos. [1] Portanto, uma rede neural pode ser uma rede neural biológica, composta por neurônios biológicos, ou uma rede neural artificial, usada eminteligência artificial (IA). As conexões de neurônios biológicos são representadas nas redes neurais artificiais como pesos entre nodos. Um peso positivo representa uma conexão estimulante enquanto valores negativos representam conexões inibitórias. Finalmente, a função de ativação controla a amplitude de saída. Por exemplo, um intervalo de saída aceitável é normalmente entre 0 e 1, ou poderia ser também entre -1 e 1.

Essas redes neurais artificiais podem ser treinadas por um conjunto de dados e usadas para modelagem preditiva, controle adaptativo e aplicações onde as redes podem ser treinadas através de um conjunto de dados. A autoaprendizagem pela experiência pode acontecer entre as redes, gerando conclusões de um grupo de informações complexo e aparentemente não relacionado ao problema. [2]

Resumo

A rede neural biológica é composta por grupos quimicamente conectados ou associados funcionalmente a neurônios. Um neurônio pode estar conectado a muitos outros neurônios e o número total de neurônios e conexões em uma rede pode ser extenso. Conexões, chamadas de sinapses, formam-se normalmente por axônios e dendritos, porém sinapse dendro dendrítica [3] e outras conexões são possíveis. outras formas de sinalização também ocorrem por causa da difusão de neurotransmissores .

Inteligência artificial, modelagem cognitiva e redes neurais são paradigmas de processamento de informações, inspirados pelo processo no qual sistemas neurais biológicos processam dados. Inteligência artificial

e modelagem cognitiva tentam simular algumas propriedades das redes neurais biológicas. Na área de inteligência artificial, redes neurais artificiais obtiveram sucesso em reconhecimento de fala, análises de imagens e controle adaptativo com o objetivo de construir agentes de software (em computadores e jogos eletrônicos) ou robôs autônomos.

Historicamente, computadores digitais evoluíram da arquitetura de von Neumann e operam pela execução de instruções explícitas, com o acesso da memória por um número de processadores. Por outro lado, a origem das redes neurais são baseadas no esforço de modelagem de processamento de informação de sistemas biológicos. Diferentemente da arquitetura de von Neumann, a computação das redes neurais não separa a memória e o processamento.

A teoria da rede neural tem servido para melhorar o conhecimento de como os neurônios cerebrais funcionam e, também, providenciar uma base no empenho da criação da inteligência artificial.

História

A base teórica preliminar de redes neurais contemporâneas foi proposta independentemente por Alexander Bain [4] (1873) e William James [5] (1890). Em seus trabalhos, tanto os pensamentos quanto as atividades corporais ocorrem pela interação doe neurônios com o cérebro.

Simulação computacional da arquitetura ramificada dos dendritos de neurônios piramidais . [6]

De acordo Bain, [4] toda atividade levava ao disparo de um determinado conjunto de neurônios. Quando as atividades forem repetidas, as conexões entre esses neurônios se fortalecem. De acordo com a sua teoria, essa repetição foi o que levou à formação da memória. A comunidade científica do período era, em geral, cética em relação à teoria de Bain [4] porque esta requer um número excessivo de conexões neurais no cérebro. Hoje em dia, é aparente que o cérebro é extremamente complexo e que a mesma “fiação” pode lidar com muitos problemas e informações.

A teoria de James [5] era similar à de Bain, [4] porém, ele sugeriu que as memórias e ações eram resultados de correntes elétricas fluindo entre os neurônios e o cérebro. O seu modelo foca no fluir de correntes elétricas e não requer conexões individuais para cada memória ou ação.

CS Sherrington [7] (1898) conduziu experimentos para testar a teoria de James. Ele conduziu correntes elétricas pela medula espinhal de ratos. Porém, ao invés de demonstrar um aumento de corrente elétrica, como James havia projetado, Sherrington descobriu que a força das correntes elétricas diminuíram conforme os experimentos continuavam. Importantemente, esse trabalho levou à descoberta do conceito de habituação .

McCulloch e Pitts [8] (1943) criaram um modelo computacional para redes neurais baseado em matemática e algoritmos chamado de lógica de limiar. Esse modelo abriu caminho para que as pesquisas de redes neurais se dividissem em duas áreas distintas, processos biológicos no cérebro e aplicações de redes neurais em inteligência artificial.

No final de 1940, o psicólogo Donald Hebb [9] criou a hipótese de aprendizagem baseado no mecanismo de plasticidade neural, agora conhecida como aprendizagem Hebbiana . Esta é considerada uma regra típica de aprendizado não supervisionado e suas variações são modelos iniciais da potencialização de longa duração . Essas idéias começaram a ser utilizadas em modelos computacionais em 1948 com o tipo-B de máquinas desorganizadas de Alan Turing .

Farley e Clark [10] (1954) usaram pela primeira vez máquinas computacionais, na época chamadas de calculadoras, pela primeira vez na MIT (Massachussets Institute of Technology - Instituto de Tecnologia de Massachusetts) para simular a rede Hebbian. Outras máquinas computacionais de redes neurais foram criadas por Rochester, Holland, Habit e Duda [11] (1956).

Rosenblatt [12] (1958) criou o perceptron, um algoritmo baseado na aprendizagem de duas camadas de rede de computadores. Este algoritmo reconhece padrões utilizando adição e subtração básica. Rosenblatt também utilizou notações matemáticas para descrever circuitos que não faziam parte do perceptron básico, como o circuito ou exclusivo, um circuito no qual sua computação matemática não pode ser processada até a criação do algoritmo de retropropagação fosse criado por Werbos [13] (1975).

As pesquisas em redes neurais estagnaram depois da publicação de Marvin Minsky e Seymour Papert [14] sobre aprendizado de máquina (1969). Eles descobriram dois problemas Eles descobriram dois problemas chaves com a máquinas computacionais de redes neurais. O primeiro problema estava relacionado com a incapacidade de processamento do circuito ou exclusivo por redes neurais de uma camada. O segundo problema significante foi que os computadores não eram sofisticados o suficiente para, efetivamente, processarem tempo de execução longos, o que era necessário para redes neurais grandes. As pesquisas em redes neurais começaram a aumentar depois que os computadores conseguiram aumentar as suas capacidades de processamento. Vale também mencionar que os avanços nas pesquisas em redes neurais se devem à criação do algoritmo de retropropagação que efetivamente resolveu o problema ou exclusivo (Werbos 1975). [13]

O processamento paralelo da metade de 1980 se tornou popular como conexionismo . O texto de Rumelhart e McClelland [15] (1986) fez uma exposição completa sobre o uso do conexionismo em computadores para simular processos neurais.

As redes neurais usadas em inteligência artificial são tradicionalmente vistas como modelos simples do processo neural no cérebro, apesar de que a relação entre este modelo e a arquitetura biológica cerebral ainda são debatidas. Ainda não está claro até que ponto as redes neurais artificiais espelham a função cerebral. [16]

Inteligência artificial

A rede neural (RN), no caso de neurônios artificiais chamada de rede neural artificial (RNA) ou rede neural simulada (SNN), é um grupo natural ou artificial de neurônios interconectados que usam modelos matemáticos ou computacionais para processamento de informação baseado no conexionismo para abordar a computação. Na maioria dos casos, a rede neural artificial é um sistema adaptativo que muda sua estrutura baseando-se em informações internas ou externas que fluem por suas redes

Em termos mais práticos, as redes neurais são modelagem de dados estatísticos não lineares ou ferramentas de decisões .Elas podem ser usadas para modelar relações complexas entre entradas e saídas ou para encontrar padrões em dados.

Uma rede neural artificial envolve uma rede de elementos de processamento simples ( neurônios artificiais ) que podem exibir um comportamento global complexo, determinado pelas conexões entre os elementos de processamento e os parâmetros dos elementos. Neurônios artificiais foram propostos pela primeira vez em 1943 por Warren McCulloch, um neurofisiologista, e Walter Pitts, um lógico, que colaboraram pela primeira vez na Universidade de Chicago . [17]

Um tipo clássico de rede neural artificial é a rede neural recorrente de Hopfield.

O conceito de rede neural foi aparentemente proposto por Alan Turing em seu artigo de 1948 Intelligent Machinery (Máquina Inteligentes) de 1948 no qual ele se referiu a eles como, "máquinas não organizadas do tipo-B". [18]

A utilidade da modelagem de redes neurais artificiais reside no fato de que elas podem deduzir uma função a partir de observações e também podem usá-la. Redes neurais não supervisionadas também podem ser usadas para aprenderem as representações das entradas que capturam as características salientes da distribuição de entrada. Para exemplos, leia sobre máquina de Boltzmann (1983) e, mais recentemente, o algoritmo de aprendizado estruturado profundo, o qual pode aprender implicitamente a função de distribuição dos dados observados. O aprendizado em redes neurais é particularmente útil em aplicações onde a complexidade dos dados ou trabalho faz com que a criação manual dessas funções não seja algo prático.

Aplicações

As redes neurais podem ser utilizadas em áreas diferentes. Os trabalhos nos quais as redes neurais artificiais são aplicadas tendem a cair entre as seguintes categorias amplas:

As áreas de aplicação das RNAs incluem sistema de identificação não linear [19] e controle (controle de veículos e processos), jogos e decisões (gamão, xadrez, jogo de corrida), reconhecimento de padrões (sistemas de radar, identificação facial, reconhecimento de objeto), reconhecimento de sequências. (gestos, fala, reconhecimento de texto escrito ), diagnóstico médico, aplicações financeiras, mineração de dados (ou descoberta de conhecimento em bancos de dados, "KDD"), visualização e filtragem de spam de e-mail . Por exemplo, é possível criar um perfil semântico dos interesses do usuário, emergindo-o de imagens treinadas para reconhecimento de objetos. [20]

Neurociência

A neurociência teórica e computacional é a área preocupada com a análise e modelagem computacional do sistema neural biológico. Como os sistemas neurais estão intimamente relacionados aos processos cognitivos e comportamentais,

O objetivo da área é criação de modelos de sistemas neurais biológicos para entender como os sistemas biológicos funcionam. Para ganhar esse entendimento, neurocientistas se esforçam em criar uma ligação entre os processos biológicos observados (dados), mecanismos biologicamente e aprendizagem neural (modelagem de rede neurais biológicas ) e teoria (teoria de aprendizagem estatística e teoria da informação ).

Tipos de modelos

Usam-se vários, que são definidos em níveis diferentes de abstração e modelam aspectos diferentes do sistema neural. Eles variam entre modelos de neurônios individuais com comportamento de curto prazo, modelos da dinâmica do circuito neural que ocorrem pela interação de neurônios individuais e modelos de comportamento que ocorrem por causa dos modelos neurais abstratos, os quais representam subsistemas completos. Entre eles também estão inclusos modelos de plasticidade dos sistemas neurais de longo e curto prazo e suas relações com o aprendizado e memória, começando por um neurônio individual até o nível de sistema.

Conexão

Em agosto de 2020, cientistas relataram que conexões bidirecionais ou o adicionamento apropriado de conexões de retorno, podem acelerar e promover a comunicação entre redes neurais modulares do córtex cerebral e diminuir o limiar para que tenham uma comunicação bem sucedida. Eles mostraram que adicionar conexões de retorno entre os pares de ressonância pode auxiliar uma propagação bem sucedida de um pacote de pulso singular em toda a rede. [21] [22]

Crítica

Uma crítica comum de redes neurais, particularmente em robótica, é que estas requerem uma grande diversidade de exemplos de treinamento para sua operação no mundo real. Isto não é uma surpresa, qualquer máquina de aprendizado precisa de exemplos representativos suficientes para capturar a estrutura subjacente e assim generalizar novos casos. Dean Pomerleau, em sua pesquisa publicada no artigo Knowledge-based Training of Artificial Neural Networks for Autonomous Robot Driving (Treinamento Baseado no Conhecimento de Redes Neurais Artificiais para Condução Autônoma de Robôs), usou uma rede neural para treinar um veículo robótico a dirigir vários tipos de estradas (via única, várias vias, estrada, etc). Uma parte grande de sua pesquisa está voltada para (1) extrapolar múltiplos cenários de uma única experiência, (2) e para a preservação de treinamentos do passado, para que o sistema não fique super treinado (se, por exemplo, este for apresentado com uma série de curvas à direita - este não deverá aprender a dobrar sempre à direita). Esses problemas são comuns  em redes neurais onde o modelo tem que tomar uma decisão dentre uma variedade enorme de respostas, porém isto pode ser resolvido de muitas maneiras diferentes. Entre elas, por exemplo, o embaralhamento aleatório de exemplos de treinamento, a utilização de um algoritmo numérico de otimização que não precise de muitos passos enquanto faz a troca das conexões das redes, seguindo um exemplo ou pelo agrupamento de exemplos, também chamados de mini-lotes.

AK Dewdney, ex-colunista da Scientific American (revista científica Americana), escreveu em 1997: "Apesar de que redes neurais solucionam alguns problemas em brinquedos, o seu poder computacional é tão limitado que me surpreende qualquer pessoa acreditar que elas podem ser utilizadas como ferramentas para resolver problemas generalizados" (Dewdney, pág. 82).

Os argumentos para a posição de Dewdney incluem a necessidade de dedicar bastante recursos de armazenamento e processamento para que um software de redes neurais grandes seja implementado com eficiência. Enquanto o cérebro já possui hardware adaptado para o trabalho de processar sinais por meio do de um gráfico de neurônios, a simulação na tecnologia de Von Neumann, até mesmo a forma mais simples, poderá fazer com que um desenvolvedor de rede neural encha muitos milhões de linhas de banco de dados para suas conexões – isso pode consumir grandes quantidades de memória e da capacidade de armazenamento de dados em computadores. Além disso, o desenvolvedor de sistemas de redes neurais precisará, com frequência, simular a transmissão de sinais através de muitas destas conexões e os neurônios associados às mesmas - o que geralmente deverá ser combinado com um tamanho incrível de tempo e poder de processamento pela CPU. Ainda que redes neurais produzam programas eficazes com frequência, elas geralmente o fazem com o custo da eficiência (eles tendem a consumir tamanhos consideráveis de tempo e dinheiro).

Argumentos contra a posição de Dewdney incluem o uso com sucesso de redes neurais para solucionar muitos problemas complexos e trabalhos diversos, como aeronaves que voam autonomamente. [23]

O escritor tecnológico Roger Bridgman fez o seguinte comentário sobre as declarações de Dewdney sobre redes neurais:

Redes neurais, por exemplo, estão no banco dos réus não só porque elas foram intensamente promovidas (O que não foi?), mas também porque você pode criar uma rede com sucesso sem entender como ela funciona: os inúmeros números que capturam o seu comportamento provavelmente seriam "opacos, uma tabela que não se pode ler… sem valor como um recurso científico". Apesar de sua declaração enfática de que ciência não é tecnologia, Dewdney parece rotular redes neurais como uma ciência ruim, enquanto a maioria das pessoas que as desenvolvem só estão tentando ser bons engenheiros. Ainda vale muito a pena ter uma tabela que não pode ser lida por pessoas mas que pode ser lida por uma máquina. [24]

Embora analisar o que foi aprendido por uma rede neural seja difícil, a análise do aprendido por uma rede neural biológica acaba sendo mais fácil. Além disso, ênfases recentes na explicabilidade da inteligência artificial têm contribuído ao desenvolvimento de métodos, notavelmente os métodos baseados nos mecanismos de atenção, visualização e explicação de redes neurais que foram aprendidas. Os pesquisadores envolvidos em algoritmos de aprendizado exploratório em redes neurais estão gradualmente descobrindo princípios genéricos que permitem uma máquina de aprendizado a ser bem sucedida. Por exemplo, Bengio e LeCun (2007) escreveram um artigo a respeito de aprendizado local versus não local e também sobre arquitetura superficial versus profunda. [25]

Outras críticas vieram de de pessoas que acreditam em modelos híbridos (combinando redes neurais e abordagens simbólicas ). Elas defendem a mistura dessas duas abordagens e acreditam que modelos híbridos podem capturar melhor os mecanismos da mente humana (Sun e Bookman, 1990). 

Melhorias recentes

Embora pesquisas iniciais tenham se preocupado principalmente com as características elétricas dos neurônios, uma parte particularmente importante das investigações dos últimos anos tem sido a exploração do papel de neuromoduladores como dopamina, acetilcolina e serotonina no comportamento e no aprendizado. 

Modelos biofísicos, como a teoria BCM, têm sido importantes na compreensão dos mecanismos da plasticidade sináptica e têm tido aplicações tanto na ciência da computação quanto na neurociência. A pesquisa sobre a compreensão de algoritmos computacionais usados no cérebro está em andamento, recentemente, houveram evidências biológicas sobre de redes de base radial e retropropagação neural como mecanismos de processamento de dados. 

Dispositivos computacionais foram criados em CMOS (Semicondutor de óxido de metal complementar) tanto para simulação biofísica e computação neuromórfica . Esforços recentes são promissores para a criação de nanodispositivos para análises e convolução de componentes principais em grande escala. [26] Se bem sucedidos, esses esforços podem gerar uma nova era de computação neural que seria um passo à frente da computação digital, [27] porque dependeria do aprendizado ao invés da programação e também porque seria fundamentalmente analógico em vez de digital, apesar de que suas primeiras serem de fato feitas por dispositivos digitais CMOS.

Entre 2009 e 2012, as redes neurais recorrentes e redes neurais de feedforward densa, desenvolvidas na pesquisa de grupo de Jürgen Schmidhuber no laboratório suíço de inteligência artificial IDSIA (Swiss AI Lab IDSIA) ganharam oito competições internacionais em reconhecimento de padrões e máquina de aprendizado . [28] Por exemplo, curta e longa memória multidimensional (LSTM) [29] [30] ganhou três competições em reconhecimento de escrita manual conectada em 2009 na Conferência Internacional em Reconhecimento e Análises de Documentos (ICDAR - International Conference on Document Analysis and Recognition), sem ter nenhum conhecimento sobre os três idiomas que seriam aprendidos.

Variantes do algoritmo de retropropagação, assim como métodos não supervisionados por Geoff Hinton e colegas da Universidade de Toronto, podem ser usadas para o treinamento profundo de arquiteturas altamente não lineares. [31] Semelhantes ao Neocognitron de 1980 por Kunihiko Fukushima, [32] e a "arquitetura padrão de visão", [33] inspirada pelas células simples e complexas identificadas por David H. Hubel e Torsten Wiesel no córtex visual primário .

A função de base radial e as redes wavelet também foram introduzidas. Estas apresentam melhores propriedades de aproximação e têm sido aplicadas em sistemas de identificação não linear como também em aplicações de classificações . [19]

As redes feedforward de aprendizado profundo alternam camadas convolucionais e camadas de pooling máximo, encimadas por várias camadas de classificação pura. Implementações rápidas baseadas em GPU (Graphics processing unit - Unidade de processamento gráfico) desta abordagem ganharam várias competições de reconhecimento de padrãos, incluindo o IJCNN 2011 Traffic Sign Recognition Competition (Competição de Reconhecimento de Sinais de Trânsito) [34] e o ISBI 2012 Segmentation of Neuronal Structures in Electron Microscopy Stacks challenge (Desafio de Estruturas Neuronais em Pilhas de Microscopia Eletrônica). [35] Essas redes neurais também foram as primeiras a reconhecer padrões artificiais que alcançaram uma performance que pode competir com humanos e até superá-los [36] em benchmarks como reconhecimento de sinais de trânsito (IJCNN 2012), ou o problema de dígitos manuais MNIST por Yann LeCun e colegas da NYU (Universidade de Nova York).

Veja também

Referências

Links Externos

  1. Hopfield, J. J. (1982). «Neural networks and physical systems with emergent collective computational abilities». Proc. Natl. Acad. Sci. U.S.A. 79 (8): 2554–2558. Bibcode:1982PNAS...79.2554H. PMC 346238Acessível livremente. PMID 6953413. doi:10.1073/pnas.79.8.2554Acessível livremente 
  2. «Neural Net or Neural Network - Gartner IT Glossary». www.gartner.com 
  3. Arbib, p.666
  4. a b c d Bain (1873). Mind and Body: The Theories of Their Relation. New York: D. Appleton and Company 
  5. a b James (1890). The Principles of Psychology. New York: H. Holt and Company 
  6. Cuntz, Hermann (2010). «PLoS Computational Biology Issue Image | Vol. 6(8) August 2010». PLOS Computational Biology. 6 (8): ev06.i08. doi:10.1371/image.pcbi.v06.i08Acessível livremente 
  7. Sherrington, C.S. (1898). «Experiments in Examination of the Peripheral Distribution of the Fibers of the Posterior Roots of Some Spinal Nerves». Proceedings of the Royal Society of London. 190: 45–186. doi:10.1098/rstb.1898.0002Acessível livremente 
  8. McCulloch, Warren; Walter Pitts (1943). «A Logical Calculus of Ideas Immanent in Nervous Activity». Bulletin of Mathematical Biophysics. 5 (4): 115–133. doi:10.1007/BF02478259 
  9. Hebb, Donald (1949). The Organization of Behavior. New York: Wiley 
  10. Farley, B.; W.A. Clark (1954). «Simulation of Self-Organizing Systems by Digital Computer». IRE Transactions on Information Theory. 4 (4): 76–84. doi:10.1109/TIT.1954.1057468 
  11. Rochester, N.; J.H. Holland, L.H. Habit and W.L. Duda (1956). «Tests on a cell assembly theory of the action of the brain, using a large digital computer». IRE Transactions on Information Theory. 2 (3): 80–93. doi:10.1109/TIT.1956.1056810 
  12. Rosenblatt, F. (1958). «The Perceptron: A Probalistic Model For Information Storage And Organization In The Brain». Psychological Review. 65 (6): 386–408. CiteSeerX 10.1.1.588.3775Acessível livremente. PMID 13602029. doi:10.1037/h0042519 
  13. a b Werbos, P.J. (1975). Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences. [S.l.: s.n.] 
  14. Minsky, M.; S. Papert (1969). An Introduction to Computational Geometry. [S.l.]: MIT Press. ISBN 978-0-262-63022-1 
  15. Rumelhart, D.E.; James McClelland (1986). Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Cambridge: MIT Press 
  16. Russell, Ingrid. «Neural Networks Module». Consultado em 2012. Cópia arquivada em 29 May 2014  Verifique data em: |acessodata=, |arquivodata= (ajuda)
  17. McCulloch, Warren; Pitts, Walter (1943). «A Logical Calculus of Ideas Immanent in Nervous Activity». Bulletin of Mathematical Biophysics. 5 (4): 115–133. doi:10.1007/BF02478259 
  18. Copeland, ed. (2004). The Essential Turing. [S.l.]: Oxford University Press. ISBN 978-0-19-825080-7 
  19. a b Billings, S. A. (2013). Nonlinear System Identification: NARMAX Methods in the Time, Frequency, and Spatio-Temporal Domains. [S.l.]: Wiley. ISBN 978-1-119-94359-4  Erro de citação: Código <ref> inválido; o nome "SAB1" é definido mais de uma vez com conteúdos diferentes
  20. Wieczorek, Szymon; Filipiak, Dominik; Filipowska, Agata (2018). «Semantic Image-Based Profiling of Users' Interests with Neural Networks». Studies on the Semantic Web. 36 (Emerging Topics in Semantic Technologies). doi:10.3233/978-1-61499-894-5-179 
  21. «Neuroscientists demonstrate how to improve communication between different regions of the brain». medicalxpress.com (em inglês). Consultado em 6 September 2020  Verifique data em: |acessodata= (ajuda)
  22. Rezaei, Hedyeh; Aertsen, Ad; Kumar, Arvind; Valizadeh, Alireza (10 August 2020). «Facilitating the propagation of spiking activity in feedforward networks by including feedback». PLOS Computational Biology (em inglês). 16 (8): e1008033. ISSN 1553-7358. PMC 7444537Acessível livremente. PMID 32776924. doi:10.1371/journal.pcbi.1008033Acessível livremente  Verifique data em: |data= (ajuda) Text and images are available under a Creative Commons Attribution 4.0 International License.
  23. Administrator, NASA (5 June 2013). «Dryden Flight Research Center - News Room: News Releases: NASA NEURAL NETWORK PROJECT PASSES MILESTONE». NASA  Verifique data em: |data= (ajuda)
  24. «Roger Bridgman's defence of neural networks». Consultado em August 1, 2006. Arquivado do original em March 19, 2012  Verifique data em: |acessodata=, |arquivodata= (ajuda)
  25. «Scaling Learning Algorithms towards {AI} - LISA - Publications - Aigaion 2.0». www.iro.umontreal.ca 
  26. Yang, J. J.; et al. (2008). «Memristive switching mechanism for metal/oxide/metal nanodevices». Nat. Nanotechnol. 3 (7): 429–433. PMID 18654568. doi:10.1038/nnano.2008.160 
  27. Strukov, D. B.; et al. (2008). «The missing memristor found». Nature. 453 (7191): 80–83. Bibcode:2008Natur.453...80S. PMID 18451858. doi:10.1038/nature06932 
  28. «2012 Kurzweil AI Interview with Jürgen Schmidhuber on the eight competitions won by his Deep Learning team 2009–2012». Consultado em December 10, 2012. Arquivado do original em August 31, 2018  Verifique data em: |acessodata=, |arquivodata= (ajuda)
  29. Graves, Alex; Schmidhuber, Jürgen (2008). «Offline Handwriting Recognition with Multidimensional Recurrent Neural Networks». In: Bengio; Schuurmans; Lafferty; Williams; Culotta. Advances in Neural Information Processing Systems 21 (NIPS'21). 21. [S.l.]: Neural Information Processing Systems (NIPS) Foundation. pp. 545–552 
  30. Graves, A.; Liwicki, M.; Fernandez, S.; Bertolami, R.; Bunke, H.; Schmidhuber, J. (2009). «A Novel Connectionist System for Improved Unconstrained Handwriting Recognition». IEEE Transactions on Pattern Analysis and Machine Intelligence. 31 (5): 855–868. CiteSeerX 10.1.1.139.4502Acessível livremente. PMID 19299860. doi:10.1109/TPAMI.2008.137 
  31. Hinton, G. E.; Osindero, S.; Teh, Y. (2006). «A fast learning algorithm for deep belief nets» (PDF). Neural Computation. 18 (7): 1527–1554. CiteSeerX 10.1.1.76.1541Acessível livremente. PMID 16764513. doi:10.1162/neco.2006.18.7.1527 
  32. Fukushima, K. (1980). «Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position». Biological Cybernetics. 36 (4): 93–202. PMID 7370364. doi:10.1007/BF00344251 
  33. Riesenhuber, M.; Poggio, T. (1999). «Hierarchical models of object recognition in cortex». Nature Neuroscience. 2 (11): 1019–1025. PMID 10526343. doi:10.1038/14819 
  34. D. C. Ciresan, U. Meier, J. Masci, J. Schmidhuber. Multi-Column Deep Neural Network for Traffic Sign Classification. Neural Networks, 2012.
  35. D. Ciresan, A. Giusti, L. Gambardella, J. Schmidhuber. Deep Neural Networks Segment Neuronal Membranes in Electron Microscopy Images. In Advances in Neural Information Processing Systems (NIPS 2012), Lake Tahoe, 2012.
  36. D. C. Ciresan, U. Meier, J. Schmidhuber. Multi-column Deep Neural Networks for Image Classification. IEEE Conf. on Computer Vision and Pattern Recognition CVPR 2012.