Usuário(a):Horadrim/Testes3

Origem: Wikipédia, a enciclopédia livre.



Página inicial: Testes

Edições completas: Mecânica estatística  • Modelo Hodgkin-Huxley  • Neurociência computacional  • Modelo probabilístico para redes neurais  • Teoria de campo médio  • Modelo FitzHugh–Nagumo  • Processo Lévy  • Cadeias de Markov  • Processo de Poisson  • Galves–Löcherbach model  • Stochastic chains with memory of variable length  • Lesão do plexo braquial  • Somatotopia  • Função densidade  • Modelos de grafos aleatórios exponenciais • Processo de Gram-Schmidt  • Equação de Chapman–Kolmogorov  • Predefinição:Processos estocásticos  • Algoritmo de autovalores  • Transição de fase  • Hipótese do cérebro crítico  • Critical brain hypothesis  • Passeio aleatório  • Plasticidade sináptica  • Potencial pós-sináptico excitatório  • Potencial pós-sináptico inibitório  • Modelo de Morris-Lecar  • Plexo braquial  • Processo gaussiano  • Campo aleatório de Markov  • Eletroencefalografia  • Modelo de Hindmarsh-Rose  • Sistemas de partícula em interação  • Medida de Gibbs  • Nervo escapular dorsal  • Nervo radial  • Nervo peitoral lateral  • Nervo musculocutâneo  • Medida de Dirac  • Nervo torácico longo  • Sigma-álgebra  • Nervo peitoral medial  • Nervo ulnar  • Potencial evocado  • Estimulação magnética transcraniana repetitiva  • Teorema de Donsker  • Desigualdade de Boole  • Codificação neural  • Aprendizado de máquina  • Independência condicional  • Inferência estatística  • Nervo subclávio  • Nervo supraescapular  • Nervo mediano  • Nervo axilar  • Movimento browniano geométrico  • Caminho autoevitante  • Tempo local  • Nervo subescapular superior  • Nervo toracodorsal  • Nervo subscapular inferior  • Caminho (teoria dos grafos)  • Campo aleatório  • Lei do logaritmo iterado

Edições em andamento: Nervo cutâneo medial do braço (N)  • Nervo cutâneo medial do antebraço (N)  • Cérebro estatístico (N)  • Statistician brain  • Distribuição de probabilidade condicional (N)  • Esperança condicional (N)  • Integral de Itō (N)  • Martingale  • Variação quadrática (N)  • Processo Ornstein–Uhlenbeck  • Ruído branco  • Teoria ergódica  • Avalanche neuronal (N)  • Teoria da percolação (N)  • Função totiente de Euler  • Ruído neuronal (N)  • Distribuição de Poisson  • Córtex cerebral  • Estímulo (fisiologia)




Neurociência computacional (ou neurociência teórica) é o estudo das funções cerebrais em termos de processamento da informação que fazem o sistema nervoso.[1] É uma ciência interdisciplinar, que liga os diversos campos da neurociência, ciência cognitiva, e psicologia, com engenharia elétrica, ciência da computação, matemática e física.

A neurociência computacional é distinta do conectismo psicológico e das teorias de disciplinas como a aprendizagem de máquinas, redes neurais, e teoria da aprendizagem computacional na medida em que enfatiza descrições funcionais e biologicamente realistas de neurônios e sistemas neurais, e sua fisiologia e dinâmica de aprendizagem. Estes modelos capturaram as características essenciais do sistema biológico em múltiplas escalas espaço-temporais, a partir de correntes de membrana, proteínas e acoplamento químico às oscilações de rede, arquitetura colunar e topográfico e de aprendizagem e memória.

Estes modelos computacionais são usados para enquadrar hipóteses que podem ser diretamente testadas por experimentos biológicos ou psicológicos.

História[editar | editar código-fonte]

O termo "neurociência computacional" foi introduzido por Eric L. Schwartz, que organizou uma conferência, realizada em 1985, em Carmel, Califórnia, a pedido da Fundação de Desenvolvimento de Sistemas para fornecer um resumo do estado atual de um campo que até aquele ponto foi referido por uma variedade de nomes, tais como modelagem neural, teoria do cérebro e redes neurais. Os resultados dessa reunião definidora foram publicados em 1990 como o livro Neurociência Computacional.[2] A primeira reunião internacional aberta focada em Neurociência Computacional foi organizada por James M. Bower e John Miller, em São Francisco, Califórnia, em 1989, e tem continuado a cada ano desde então como a reunião anual CNS.[3] O primeiro programa de ensino de pós-graduação em neurociência computacional foi organizado como o Ph.D. em Sistemas Neurais e Computacionais no Instituto de Tecnologia da Califórnia em 1985.

As primeiras raízes históricas do campo podem ser atribuídas ao trabalho de pessoas como Louis Lapicque, Hodgkin e Huxley, Hubel e Wiesel e David Marr, para citar alguns. Lapicque introduziu o modelo integra-e-dispara de neurônio em um artigo seminal publicado em 1907,[4] este modelo ainda é um dos modelos mais populares na neurociência computacional para ambos os estudos de redes celulares e neurais, bem como em neurociência matemática por causa de sua simplicidade.[5] Cerca de 40 anos mais tarde, Hodgkin e Huxley desenvolveram o grampeamento de voltagem e criaram o primeiro modelo biofísico do potencial de ação. Hubel e Wiesel descobriram que os neurônios no córtex visual primário, a primeira área cortical para processar informações provenientes da retina, têm campos receptivos orientados e estão organizados em colunas.[6] O trabalho de David Marr centrou-se nas interações entre neurônios, sugerindo abordagens computacionais ao estudo de como os grupos funcionais de neurônios no hipocampo e neocórtex interagem, armazenam, processam e transmitem informação. A modelagem computacional de neurônios e dendritos biofisicamente realistas começou com o trabalho de Wilfrid Rall, com o primeiro modelo multicompartimental usando teoria dos cabos.

Principais tópicos[editar | editar código-fonte]

As pesquisas de neurociência computacional podem ser classificadas de modo geral em várias linhas de investigação. A maioria dos neurocientistas computacionais colabora estreitamente com os experimentalistas para analisar novos dados e sintetizar novos modelos de fenômenos biológicos.

Modelagem de neurônio único[editar | editar código-fonte]

Mesmo neurônios individuais têm características biofísicas complexas e podem executar cálculos.[7] O modelo original de Hodgkin e Huxley somente emprega duas correntes sensíveis à voltagem (canais iônicos sensíveis à voltagem são moléculas de glicoproteína que se estendem através da bicapa lipídica, permitindo que os íons atravessem sob certas condições através do axolema), a de ação rápida de sódio e a para dentro de potássio. Embora bem-sucedido em prever as características qualitativas e temporais do potencial de ação, no entanto, não consegue prever uma série de características importantes, como a adaptação e desvio. Os cientistas agora acreditam que há uma grande variedade de correntes sensíveis à voltagem e as implicações das dinâmicas, modulações e sensibilidades diferentes destas correntes é um tópico importante da neurociência computacional.[8]

As funções computacionais de dendritos complexos também estão sob intensa investigação. Há uma vasta literatura a respeito de como diferentes correntes interagem com as propriedades geométricas dos neurônios.[9]

Alguns modelos também estão rastreando caminhos bioquímicos em escalas muito pequenas, tais como espinhos ou fendas sinápticas.

Há muitos pacotes de software, tais como GENESIS e NEURON, que permitem uma modelagem rápida e sistemática de neurônios realistas. Blue Brain, um projeto fundado por Henry Markram da École Polytechnique Fédérale de Lausanne, visa construir uma simulação biofisicamente detalhada de uma coluna cortical no supercomputador Blue Gene.

Um problema no campo é que as descrições detalhadas de neurônios são caras e isso pode prejudicar as investigações de redes realistas, onde muitos neurônios precisam ser simulados. Assim, os pesquisadores que estudam grandes circuitos neurais normalmente representam cada neurônio e sinapse simplesmente, ignorando muito do detalhe biológico. Isso é problemático, pois há evidências de que a riqueza das propriedades biofísicas na escala de neurônio único pode fornecer mecanismos que servem como blocos de construção para a dinâmica da rede.[10] Por isso, há um incentivo para produzir modelos de neurônios simplificados que podem reter a fidelidade biológica significativa a uma baixa sobrecarga computacional. Algoritmos foram desenvolvidos para produzir modelos de neurônios de execução fiel, mais rápida e simplificada como substitutos para modelos de neurônios detalhados computacionalmente caros.[11]

Desenvolvimento, padronização axonal, e orientação[editar | editar código-fonte]

Como os axônios e dendritos se formam durante o desenvolvimento? Como os neurônios migrar para a posição correta nos sistemas central e periférico? Como as sinapses se formam? Sabe-se a partir da biologia molecular que partes distintas do sistema nervoso liberam sinais químicos distintos, de fatores de crescimento a hormônios que modulam e influenciam o crescimento e desenvolvimento de ligações funcionais entre os neurônios.

Investigações teóricas sobre a formação e padronização de conexão sináptica e morfologia são ainda incipientes. Uma hipótese que tem atraído recentemente alguma atenção é a hipótese da fiação mínima, a qual postula que a formação de axônios e dendritos minimiza efetivamente a alocação de recursos, mantendo o máximo armazenamento de informação.[12]

Processamento sensorial[editar | editar código-fonte]

Os primeiros modelos de processamento sensorial dentro de um quadro teórico são creditados Horace Barlow. Um tanto semelhante à hipótese de fiação mínima descrito na secção anterior, Barlow compreendia o processamento dos sistemas sensoriais iniciais como sendo uma forma de codificação eficiente, onde os neurônios codificavam informação o que minimizava o número de spikes. O trabalho experimental e computacional, desde então, apoiaram esta hipótese, de uma forma ou de outra.

A pesquisa atual no processamento sensorial é dividida entre uma modelagem biofísico de diferentes subsistemas e uma modelagem mais teórica da percepção. Os modelos atuais de percepção sugerem que o cérebro executa alguma forma de inferência Bayesiana e integração das diferentes informações sensoriais na geração de nossa percepção do mundo físico.

Memória e plasticidade sináptica[editar | editar código-fonte]

Modelos mais antigos de memória são principalmente baseados nos postulados da aprendizagem Hebbiana. Modelos biologicamente relevantes, tais como a rede de Hopfield foram desenvolvidos para lidar com as propriedades associativas, ao invés de conteúdo endereçável, estilo de memória que ocorrem em sistemas biológicos. Estas tentativas focam principalmente na formação da memória a médio e longo prazo, localizada no hipocampo. Todos os modelos de memória de trabalho, contando com teorias de oscilações de rede e atividade persistente, foram construídos para capturar algumas características do córtex pré-frontal da memória relacionada ao contexto.[13]

Um dos principais problemas na memória neurofisiológica é como ela é mantida e mudada através de múltiplas escalas de tempo. Sinapses instáveis ​​são fáceis de sequenciar, mas também propensas a perturbação estocástica. Sinapses estáveis não ​​esquecem tão facilmente, mas elas também são mais difíceis de se consolidar. Uma hipótese computacional recente envolve cascatas de plasticidade que permitem às sinapses funcionarem em múltiplas escalas de tempo.[14] Modelos estereoquimicamente detalhados da sinapse à base de receptor de acetilcolina com o método Monte Carlo, trabalhando em uma escala de tempo de microssegundos, foram construídos.[15] É provável que nas próximas décadas as ferramentas computacionais contribuirão muito para a compreensão de como as sinapses funcionam e mudam em relação ao estímulo externo.

Comportamentos de redes[editar | editar código-fonte]

Neurônios biológicos são ligados uns aos outros de uma forma complexa e recorrente. Essas conexões são, ao contrário da maioria das redes neurais artificiais, esparsas e geralmente específicas. Não se sabe como a informação é transmitida através de tais redes esparsamente conectadas.

As interações dos neurônios em uma pequena rede podem ser muitas vezes reduzidas a modelos simples como o modelo de Ising. A mecânica estatística de tais sistemas simples é bem caracterizada teoricamente. Existem evidências recentes que sugerem que a dinâmica de redes neuronais arbitrárias pode ser reduzida para as interações de pares.[16] Não se sabe, contudo, se tal dinâmica descritiva transmite qualquer função computacional importante. Com o surgimento da microscopia de dois fótons e da imagem de cálcio, agora tem-se métodos experimentais poderosos com os quais testar as novas teorias sobre redes neuronais.

Em alguns casos, as interações complexas entre os neurônios inibitórios e excitatórios podem ser simplificadas utilizando a teoria de campo médio, o que dá origem ao modelo de população de redes neurais. Enquanto muitos neurocientistas preferem modelos com reduzida complexidade, outros argumentam que descobrir relações funcionais estruturais depende de incluir o quanto for possível da estrutura neuronal e da rede. Modelos deste tipo são normalmente construídos em grandes plataformas de simulação como GENESIS ou NEURON. Houve algumas tentativas de fornecer métodos unificados que conectassem e integrassem estes níveis de complexidade.[17]

Cognição, discriminação e aprendizagem[editar | editar código-fonte]

A modelagem computacional de funções cognitivas superiores só começou recentemente. Dados experimentais vem principalmente de gravação com primatas. O lobo frontal e lobo parietal funcionam como integradores de informações de várias modalidades sensoriais. Há algumas ideias preliminares sobre como circuitos funcionais mutuamente inibitórios nessas áreas podem realizar computação biologicamente relevante.[18]

O cérebro parece ser capaz de discriminar e se adaptar particularmente bem em certos contextos. Por exemplo, os seres humanos parecem ter uma enorme capacidade para memorizar e reconhecer rostos. Um dos objetivos fundamentais da neurociência computacional é dissecar como os sistemas biológicos realizam estas computações complexas de forma eficiente e potencialmente replicar esses processos na construção de máquinas inteligentes.

Os princípios organizacionais de grande escala do cérebro são iluminados por muitos campos, incluindo biologia, psicologia e prática clínica. A neurociência integrativa tenta consolidar estas observações através de modelos e bancos de dados de medidas comportamentais e gravações. Estas são as bases para algumas das modelagens quantitativas da atividade cerebral em grande escala.[19]

O Computational Representational Understanding of Mind (CRUM) é mais uma tentativa de modelar a cognição humana através de processos simulados como sistemas baseados em regras adquiridas e a manipulação de representações visuais na tomada de decisão.

Consciência[editar | editar código-fonte]

Um dos objetivos finais da psicologia/neurociência é ser capaz de explicar a experiência cotidiana da vida consciente. Francis Crick e Christof Koch fizeram algumas tentativas na formulação de um quadro coerente para o trabalho futuro em correlatos neurais da consciência (NCC), embora muito do trabalho neste campo permanece especulativo.[20]

Neurociência clínica computacional[editar | editar código-fonte]

É um campo que reúne especialistas em neurociência, neurologia, psiquiatria, ciências da decisão e modelagem computacional para definir quantitativamente e investigar problemas em doenças neurológicas e psiquiátricas, e treinar cientistas e médicos que desejam aplicar esses modelos para diagnóstico e tratamento.[21][22]

Referências

  1. What is computational neuroscience? Patricia S. Churchland, Christof Koch, Terrence J. Sejnowski. in Computational Neuroscience pp.46-55. Edited by Eric L. Schwartz. 1993. MIT Press [1]
  2. Schwartz, Eric (1990). Computational neuroscience. Cambridge, Mass: MIT Press. ISBN 0-262-19291-8 
  3. Bower, James M. (2013). 20 years of Computational neuroscience. Berlin, Germany: Springer. ISBN 978-1461414230 
  4. Lapicque L (1907). «Recherches quantitatives sur l'excitation électrique des nerfs traitée comme une polarisation». J. Physiol. Pathol. Gen. 9: 620–635 
  5. Brunel N, Van Rossum MC (2007). «Lapicque's 1907 paper: from frogs to integrate-and-fire». Biol. Cybern. 97 (5–6): 337–339. PMID 17968583. doi:10.1007/s00422-007-0190-0 
  6. Hubel DH, Wiesel TN (1962). «Receptive fields, binocular interaction and functional architecture in the cat's visual cortex». J. Physiol. (Lond.). 160 (1): 106–54. PMC 1359523Acessível livremente. PMID 14449617. doi:10.1113/jphysiol.1962.sp006837 
  7. Forrest MD (2014). «Intracellular Calcium Dynamics Permit a Purkinje Neuron Model to Perform Toggle and Gain Computations Upon its Inputs.». Frontiers in Computational Neuroscience. 8. 86 páginas. doi:10.3389/fncom.2014.00086 
  8. Wu, Samuel Miao-sin; Johnston, Daniel (1995). Foundations of cellular neurophysiology. Cambridge, Mass: MIT Press. ISBN 0-262-10053-3 
  9. Koch, Christof (1999). Biophysics of computation: information processing in single neurons. Oxford [Oxfordshire]: Oxford University Press. ISBN 0-19-510491-9 
  10. Forrest MD (2014). «Intracellular Calcium Dynamics Permit a Purkinje Neuron Model to Perform Toggle and Gain Computations Upon its Inputs.». Frontiers in Computational Neuroscience. 8. 86 páginas. doi:10.3389/fncom.2014.00086 
  11. Forrest MD (April 2015). «Simulation of alcohol action upon a detailed Purkinje neuron model and a simpler surrogate model that runs >400 times faster». BMC Neuroscience. 16 (27). doi:10.1186/s12868-015-0162-6  Verifique data em: |data= (ajuda)
  12. Chklovskii DB, Mel BW, Svoboda K (October 2004). «Cortical rewiring and information storage». Nature. 431 (7010): 782–8. Bibcode:2004Natur.431..782C. PMID 15483599. doi:10.1038/nature03012  Verifique data em: |data= (ajuda)
    Review article
  13. Durstewitz D, Seamans JK, Sejnowski TJ (2000). «Neurocomputational models of working memory». Nat Neurosci. 3 (Suppl): 1184–91. PMID 11127836. doi:10.1038/81460 
  14. Fusi S, Drew PJ, Abbott LF (2005). «Cascade models of synaptically stored memories». Neuron. 45 (4): 599–611. PMID 15721245. doi:10.1016/j.neuron.2005.02.001 
  15. Coggan JS, Bartol TM, Esquenazi E; et al. (2005). «Evidence for ectopic neurotransmission at a neuronal synapse». Science. 309 (5733): 446–51. Bibcode:2005Sci...309..446C. PMC 2915764Acessível livremente. PMID 16020730. doi:10.1126/science.1108239 
  16. Schneidman E, Berry MJ, Segev R, Bialek W (2006). «Weak pairwise correlations imply strongly correlated network states in a neural population». Nature. 440 (7087): 1007–12. Bibcode:2006Natur.440.1007S. PMC 1785327Acessível livremente. PMID 16625187. arXiv:q-bio/0512013Acessível livremente. doi:10.1038/nature04701 
  17. Anderson, Charles H.; Eliasmith, Chris (2004). Neural Engineering: Computation, Representation, and Dynamics in Neurobiological Systems (Computational Neuroscience). Cambridge, Mass: The MIT Press. ISBN 0-262-55060-1 
  18. Machens CK, Romo R, Brody CD (2005). «Flexible control of mutual inhibition: a neural model of two-interval discrimination». Science. 307 (5712): 1121–4. Bibcode:2005Sci...307.1121M. PMID 15718474. doi:10.1126/science.1104171 
  19. Robinson PA, Rennie CJ, Rowe DL, O'Connor SC, Gordon E (2005). «Multiscale brain modelling». Philosophical Transactions of the Royal Society B. 360 (1457): 1043–1050. PMC 1854922Acessível livremente. PMID 16087447. doi:10.1098/rstb.2005.1638 
  20. Crick F, Koch C (2003). «A framework for consciousness». Nat Neurosci. 6 (2): 119–26. PMID 12555104. doi:10.1038/nn0203-119 
  21. Adaszewski S1, Dukart J, Kherif F, Frackowiak R, Draganski B; Alzheimer's Disease Neuroimaging Initiative (2013). «How early can we predict Alzheimer's disease using computational anatomy?». Neurobiol Aging. 34 (12): 2815–26. doi:10.1016/j.neurobiolaging.2013.06.015 
  22. Friston KJ, Stephan KE, Montague R, Dolan RJ (2014). «Computational psychiatry: the brain as a phantastic organ». Lancet Psych. 1 (2): 148–58. doi:10.1016/S2215-0366(14)70275-5 


Categoria:CibernéticaCategoria:Ciência da computaçãoCategoria:NeurociênciaCategoria:Redes neurais