Neurociência computacional

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa

A neurociência computacional (ou neurociência teórica) é a área da neurociência que tem por objetivo o estudo das funções cerebrais em termos de processamento da informação que fazem o sistema nervoso.[1] . Por sua própria natureza ela é uma ciência interdisciplinar que combina diferentes campos do saber, como a neurobiologia, a física, a ciência da computação, a engenharia elétrica, a matemática aplicada e a psicobiologia.

A neurociência computacional é distinta do conectismo psicológico e das teorias de disciplinas como a aprendizagem de máquinas, redes neurais, e teoria da aprendizagem computacional na medida em que enfatiza descrições funcionais e biologicamente realistas de neurônios e sistemas neurais, e sua fisiologia e dinâmica de aprendizagem. Estes modelos capturaram as características essenciais do sistema biológico em múltiplas escalas espaço-temporais, a partir de correntes de membrana, proteínas e acoplamento químico às oscilações de rede, arquitetura colunar e topográfico e de aprendizagem e memória.

Estes modelos computacionais são usados para enquadrar hipóteses que podem ser diretamente testadas por experimentos biológicos ou psicológicos.

História[editar | editar código-fonte]

O termo "neurociência computacional" foi introduzido por Eric L. Schwartz, que organizou uma conferência, realizada em 1985, em Carmel, Califórnia, a pedido da Fundação de Desenvolvimento de Sistemas para fornecer um resumo do estado atual de um campo que até aquele ponto foi referido por uma variedade de nomes, tais como modelagem neural, teoria do cérebro e redes neurais. Os resultados dessa reunião definidora foram publicados em 1990 como o livro Neurociência Computacional.[2] A primeira reunião internacional aberta focada em Neurociência Computacional foi organizada por James M. Bower e John Miller, em São Francisco, Califórnia, em 1989, e tem continuado a cada ano desde então como a reunião anual CNS.[3] O primeiro programa de ensino de pós-graduação em neurociência computacional foi organizado como o Ph.D. em Sistemas Neurais e Computacionais no Instituto de Tecnologia da Califórnia em 1985.

A neurociência computacional tem suas raízes históricas ligadas aos trabalhos de pessoas como Louis Lapicque, Hodgkin e Huxley, Hubel e Wiesel, Wilfrid Rall, Donald Hebb e David Marr, para citar alguns. Lapicque introduziu o modelo integra-e-dispara de neurônio em um artigo seminal publicado em 1907,[4] este modelo ainda é um dos modelos mais populares na neurociência computacional para ambos os estudos de redes celulares e neurais, bem como em neurociência matemática por causa de sua simplicidade.[5] Cerca de 40 anos mais tarde, Hodgkin e Huxley desenvolveram a técnica do grampo (ou fixação) de voltagem e criaram o primeiro modelo matemático para a geração do potencial de ação em um neurônio. Hubel e Wiesel descobriram que os neurônios no córtex visual primário, a primeira área cortical para processar informações provenientes da retina, têm campos receptivos orientados e estão organizados em colunas.[6] Wilfrid Rall iniciou a modelagem computacional biofisicamente realista de neurônios e dendritos, usando a teoria do cabo para construir o primeiro modelo multicompartimental de um dendrito. Donald Hebb foi um dos pioneiros na tentativa de se encontrar um substrato biológico para os fenômenos mentais, propondo mecanismos sinápticos e neurais capazes de levar grupos (cell assemblies) de células dispersas pelo cérebro a atuar brevemente como sistemas únicos. O trabalho de David Marr centrou-se nas interações entre neurônios, sugerindo abordagens computacionais ao estudo de como os grupos funcionais de neurônios no hipocampo e neocórtex interagem, armazenam, processam e transmitem informação.

A neurociência computacional se diferencia da área da psicologia conhecida como conexionismo e das teorias sobre aprendizagem de disciplinas como aprendizado de máquina, redes neurais e teoria estatística de aprendizado, pois ela enfatiza descrições funcionais ou biologicamente realistas de neurônios e sua fisiologia e dinâmica. Os modelos da neurociência computacional buscam capturar as características essenciais do sistema biológico em escalas de tempo múltiplas, desde correntes de membrana e oscilações químicas até aprendizado e memória. Esses modelos computacionais são usados para testar hipóteses que possam ser verificadas diretamente por experimentos biológicos atuais ou futuros.

Atualidade[editar | editar código-fonte]

No momento o campo está passando por uma rápida expansão, provocado pelo acúmulo de dados experimentais e pelo aparecimento de pacotes de programas computacionais para a execução de simulações biologicamente detalhadas de neurônios individuais e redes de neurônios, como o NEURON [2] e o GENESIS [3], que permitem a construção rápida e sistemática de modelos neurais em larga escala para estudos in silico.

Principais tópicos[editar | editar código-fonte]

As pesquisas de neurociência computacional podem ser classificadas de modo geral em várias linhas de investigação. A maioria dos neurocientistas computacionais colabora estreitamente com os experimentalistas para analisar novos dados e sintetizar novos modelos de fenômenos biológicos.

Modelagem de neurônio único[editar | editar código-fonte]

Mesmo neurônios individuais têm características biofísicas complexas e podem executar cálculos.[7] O modelo original de Hodgkin e Huxley somente emprega duas correntes sensíveis à voltagem (canais iônicos sensíveis à voltagem são moléculas de glicoproteína que se estendem através da bicapa lipídica, permitindo que os íons atravessem sob certas condições através do axolema), a de ação rápida de sódio e a para dentro de potássio. Embora bem-sucedido em prever as características qualitativas e temporais do potencial de ação, no entanto, não consegue prever uma série de características importantes, como a adaptação e desvio. Os cientistas agora acreditam que há uma grande variedade de correntes sensíveis à voltagem e as implicações das dinâmicas, modulações e sensibilidades diferentes destas correntes é um tópico importante da neurociência computacional.[8]

As funções computacionais de dendritos complexos também estão sob intensa investigação. Há uma vasta literatura a respeito de como diferentes correntes interagem com as propriedades geométricas dos neurônios.[9]

Alguns modelos também estão rastreando caminhos bioquímicos em escalas muito pequenas, tais como espinhos ou fendas sinápticas.

Há muitos pacotes de software, tais como GENESIS e NEURON, que permitem uma modelagem rápida e sistemática de neurônios realistas. Blue Brain, um projeto fundado por Henry Markram da École Polytechnique Fédérale de Lausanne, visa construir uma simulação biofisicamente detalhada de uma coluna cortical no supercomputador Blue Gene.

Um problema no campo é que as descrições detalhadas de neurônios são caras e isso pode prejudicar as investigações de redes realistas, onde muitos neurônios precisam ser simulados. Assim, os pesquisadores que estudam grandes circuitos neurais normalmente representam cada neurônio e sinapse simplesmente, ignorando muito do detalhe biológico. Isso é problemático, pois há evidências de que a riqueza das propriedades biofísicas na escala de neurônio único pode fornecer mecanismos que servem como blocos de construção para a dinâmica da rede.[10] Por isso, há um incentivo para produzir modelos de neurônios simplificados que podem reter a fidelidade biológica significativa a uma baixa sobrecarga computacional. Algoritmos foram desenvolvidos para produzir modelos de neurônios de execução fiel, mais rápida e simplificada como substitutos para modelos de neurônios detalhados computacionalmente caros.[11]

Desenvolvimento, padronização axonal, e orientação[editar | editar código-fonte]

Como os axônios e dendritos se formam durante o desenvolvimento? Como os neurônios migrar para a posição correta nos sistemas central e periférico? Como as sinapses se formam? Sabe-se a partir da biologia molecular que partes distintas do sistema nervoso liberam sinais químicos distintos, de fatores de crescimento a hormônios que modulam e influenciam o crescimento e desenvolvimento de ligações funcionais entre os neurônios.

Investigações teóricas sobre a formação e padronização de conexão sináptica e morfologia são ainda incipientes. Uma hipótese que tem atraído recentemente alguma atenção é a hipótese da fiação mínima, a qual postula que a formação de axônios e dendritos minimiza efetivamente a alocação de recursos, mantendo o máximo armazenamento de informação.[12]

Processamento sensorial[editar | editar código-fonte]

Os primeiros modelos de processamento sensorial dentro de um quadro teórico são creditados Horace Barlow. Um tanto semelhante à hipótese de fiação mínima descrito na secção anterior, Barlow compreendia o processamento dos sistemas sensoriais iniciais como sendo uma forma de codificação eficiente, onde os neurônios codificavam informação o que minimizava o número de spikes. O trabalho experimental e computacional, desde então, apoiaram esta hipótese, de uma forma ou de outra.

A pesquisa atual no processamento sensorial é dividida entre uma modelagem biofísico de diferentes subsistemas e uma modelagem mais teórica da percepção. Os modelos atuais de percepção sugerem que o cérebro executa alguma forma de inferência Bayesiana e integração das diferentes informações sensoriais na geração de nossa percepção do mundo físico.

Memória e plasticidade sináptica[editar | editar código-fonte]

Modelos mais antigos de memória são principalmente baseados nos postulados da aprendizagem Hebbiana. Modelos biologicamente relevantes, tais como a rede de Hopfield foram desenvolvidos para lidar com as propriedades associativas, ao invés de conteúdo endereçável, estilo de memória que ocorrem em sistemas biológicos. Estas tentativas focam principalmente na formação da memória a médio e longo prazo, localizada no hipocampo. Todos os modelos de memória de trabalho, contando com teorias de oscilações de rede e atividade persistente, foram construídos para capturar algumas características do córtex pré-frontal da memória relacionada ao contexto.[13]

Um dos principais problemas na memória neurofisiológica é como ela é mantida e mudada através de múltiplas escalas de tempo. Sinapses instáveis ​​são fáceis de sequenciar, mas também propensas a perturbação estocástica. Sinapses estáveis não ​​esquecem tão facilmente, mas elas também são mais difíceis de se consolidar. Uma hipótese computacional recente envolve cascatas de plasticidade que permitem às sinapses funcionarem em múltiplas escalas de tempo.[14] Modelos estereoquimicamente detalhados da sinapse à base de receptor de acetilcolina com o método Monte Carlo, trabalhando em uma escala de tempo de microssegundos, foram construídos.[15] É provável que nas próximas décadas as ferramentas computacionais contribuirão muito para a compreensão de como as sinapses funcionam e mudam em relação ao estímulo externo.

Comportamentos de redes[editar | editar código-fonte]

Neurônios biológicos são ligados uns aos outros de uma forma complexa e recorrente. Essas conexões são, ao contrário da maioria das redes neurais artificiais, esparsas e geralmente específicas. Não se sabe como a informação é transmitida através de tais redes esparsamente conectadas.

As interações dos neurônios em uma pequena rede podem ser muitas vezes reduzidas a modelos simples como o modelo de Ising. A mecânica estatística de tais sistemas simples é bem caracterizada teoricamente. Existem evidências recentes que sugerem que a dinâmica de redes neuronais arbitrárias pode ser reduzida para as interações de pares.[16] Não se sabe, contudo, se tal dinâmica descritiva transmite qualquer função computacional importante. Com o surgimento da microscopia de dois fótons e da imagem de cálcio, agora tem-se métodos experimentais poderosos com os quais testar as novas teorias sobre redes neuronais.

Em alguns casos, as interações complexas entre os neurônios inibitórios e excitatórios podem ser simplificadas utilizando a teoria de campo médio, o que dá origem ao modelo de população de redes neurais. Enquanto muitos neurocientistas preferem modelos com reduzida complexidade, outros argumentam que descobrir relações funcionais estruturais depende de incluir o quanto for possível da estrutura neuronal e da rede. Modelos deste tipo são normalmente construídos em grandes plataformas de simulação como GENESIS ou NEURON. Houve algumas tentativas de fornecer métodos unificados que conectassem e integrassem estes níveis de complexidade.[17]

Cognição, discriminação e aprendizagem[editar | editar código-fonte]

A modelagem computacional de funções cognitivas superiores só começou recentemente. Dados experimentais vem principalmente de gravação com primatas. O lobo frontal e lobo parietal funcionam como integradores de informações de várias modalidades sensoriais. Há algumas ideias preliminares sobre como circuitos funcionais mutuamente inibitórios nessas áreas podem realizar computação biologicamente relevante.[18]

O cérebro parece ser capaz de discriminar e se adaptar particularmente bem em certos contextos. Por exemplo, os seres humanos parecem ter uma enorme capacidade para memorizar e reconhecer rostos. Um dos objetivos fundamentais da neurociência computacional é dissecar como os sistemas biológicos realizam estas computações complexas de forma eficiente e potencialmente replicar esses processos na construção de máquinas inteligentes.

Os princípios organizacionais de grande escala do cérebro são iluminados por muitos campos, incluindo biologia, psicologia e prática clínica. A neurociência integrativa tenta consolidar estas observações através de modelos e bancos de dados de medidas comportamentais e gravações. Estas são as bases para algumas das modelagens quantitativas da atividade cerebral em grande escala.[19]

O Computational Representational Understanding of Mind (CRUM) é mais uma tentativa de modelar a cognição humana através de processos simulados como sistemas baseados em regras adquiridas e a manipulação de representações visuais na tomada de decisão.

Consciência[editar | editar código-fonte]

Um dos objetivos finais da psicologia/neurociência é ser capaz de explicar a experiência cotidiana da vida consciente. Francis Crick e Christof Koch fizeram algumas tentativas na formulação de um quadro coerente para o trabalho futuro em correlatos neurais da consciência (NCC), embora muito do trabalho neste campo permanece especulativo.[20]

Neurociência clínica computacional[editar | editar código-fonte]

É um campo que reúne especialistas em neurociência, neurologia, psiquiatria, ciências da decisão e modelagem computacional para definir quantitativamente e investigar problemas em doenças neurológicas e psiquiátricas, e treinar cientistas e médicos que desejam aplicar esses modelos para diagnóstico e tratamento.[21] [22]

Referências

  1. What is computational neuroscience? Patricia S. Churchland, Christof Koch, Terrence J. Sejnowski. in Computational Neuroscience pp.46-55. Edited by Eric L. Schwartz. 1993. MIT Press [1]
  2. Schwartz, Eric (1990). Computational neuroscience (Cambridge, Mass: MIT Press). ISBN 0-262-19291-8. 
  3. Bower, James M. (2013). 20 years of Computational neuroscience (Berlin, Germany: Springer). ISBN 978-1461414230. 
  4. Lapicque L (1907). «Recherches quantitatives sur l'excitation électrique des nerfs traitée comme une polarisation». J. Physiol. Pathol. Gen. [S.l.: s.n.] 9: 620–635. 
  5. Brunel N, Van Rossum MC (2007). «Lapicque's 1907 paper: from frogs to integrate-and-fire». Biol. Cybern. [S.l.: s.n.] 97 (5–6): 337–339. doi:10.1007/s00422-007-0190-0. PMID 17968583. 
  6. Hubel DH, Wiesel TN (1962). «Receptive fields, binocular interaction and functional architecture in the cat's visual cortex». J. Physiol. (Lond.) [S.l.: s.n.] 160 (1): 106–54. doi:10.1113/jphysiol.1962.sp006837. PMC 1359523. PMID 14449617. 
  7. Forrest MD (2014). «Intracellular Calcium Dynamics Permit a Purkinje Neuron Model to Perform Toggle and Gain Computations Upon its Inputs.». Frontiers in Computational Neuroscience [S.l.: s.n.] 8: 86. doi:10.3389/fncom.2014.00086. 
  8. Wu, Samuel Miao-sin; Johnston, Daniel (1995). Foundations of cellular neurophysiology (Cambridge, Mass: MIT Press). ISBN 0-262-10053-3. 
  9. Koch, Christof (1999). Biophysics of computation: information processing in single neurons (Oxford [Oxfordshire]: Oxford University Press). ISBN 0-19-510491-9. 
  10. Forrest MD (2014). «Intracellular Calcium Dynamics Permit a Purkinje Neuron Model to Perform Toggle and Gain Computations Upon its Inputs.». Frontiers in Computational Neuroscience [S.l.: s.n.] 8: 86. doi:10.3389/fncom.2014.00086. 
  11. Forrest MD (April 2015). «Simulation of alcohol action upon a detailed Purkinje neuron model and a simpler surrogate model that runs >400 times faster». BMC Neuroscience [S.l.: s.n.] 16 (27). doi:10.1186/s12868-015-0162-6. 
  12. Chklovskii DB, Mel BW, Svoboda K (October 2004). «Cortical rewiring and information storage». Nature [S.l.: s.n.] 431 (7010): 782–8. Bibcode:2004Natur.431..782C. doi:10.1038/nature03012. PMID 15483599. 
    Review article
  13. Durstewitz D, Seamans JK, Sejnowski TJ (2000). «Neurocomputational models of working memory». Nat Neurosci. [S.l.: s.n.] 3 (Suppl): 1184–91. doi:10.1038/81460. PMID 11127836. 
  14. Fusi S, Drew PJ, Abbott LF (2005). «Cascade models of synaptically stored memories». Neuron [S.l.: s.n.] 45 (4): 599–611. doi:10.1016/j.neuron.2005.02.001. PMID 15721245. 
  15. Coggan JS, Bartol TM, Esquenazi E; et al. (2005). «Evidence for ectopic neurotransmission at a neuronal synapse». Science [S.l.: s.n.] 309 (5733): 446–51. Bibcode:2005Sci...309..446C. doi:10.1126/science.1108239. PMC 2915764. PMID 16020730. 
  16. Schneidman E, Berry MJ, Segev R, Bialek W (2006). «Weak pairwise correlations imply strongly correlated network states in a neural population». Nature [S.l.: s.n.] 440 (7087): 1007–12. arXiv:q-bio/0512013. Bibcode:2006Natur.440.1007S. doi:10.1038/nature04701. PMC 1785327. PMID 16625187. 
  17. Anderson, Charles H.; Eliasmith, Chris (2004). Neural Engineering: Computation, Representation, and Dynamics in Neurobiological Systems (Computational Neuroscience) (Cambridge, Mass: The MIT Press). ISBN 0-262-55060-1. 
  18. Machens CK, Romo R, Brody CD (2005). «Flexible control of mutual inhibition: a neural model of two-interval discrimination». Science [S.l.: s.n.] 307 (5712): 1121–4. Bibcode:2005Sci...307.1121M. doi:10.1126/science.1104171. PMID 15718474. 
  19. Robinson PA, Rennie CJ, Rowe DL, O'Connor SC, Gordon E (2005). «Multiscale brain modelling». Philosophical Transactions of the Royal Society B [S.l.: s.n.] 360 (1457): 1043–1050. doi:10.1098/rstb.2005.1638. PMC 1854922. PMID 16087447. 
  20. Crick F, Koch C (2003). «A framework for consciousness». Nat Neurosci. [S.l.: s.n.] 6 (2): 119–26. doi:10.1038/nn0203-119. PMID 12555104. 
  21. Adaszewski S1, Dukart J, Kherif F, Frackowiak R, Draganski B; Alzheimer's Disease Neuroimaging Initiative (2013). «How early can we predict Alzheimer's disease using computational anatomy?». Neurobiol Aging. [S.l.: s.n.] 34 (12): 2815–26. doi:10.1016/j.neurobiolaging.2013.06.015. 
  22. Friston KJ, Stephan KE, Montague R, Dolan RJ (2014). «Computational psychiatry: the brain as a phantastic organ». Lancet Psych. [S.l.: s.n.] 1 (2): 148–58. doi:10.1016/S2215-0366(14)70275-5.