Neurociência computacional

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa

A neurociência computacional (ou neurociência teórica) é a área da neurociência que tem por objetivo o estudo teórico do sistema nervoso e das funções cerebrais usando modelos matemáticos e computacionais.[1][2][3][4] A palavra "computacional" no nome da área tem dois sentidos: um é para indicar que o computador é utilizado como ferramenta para a construção de modelos; o outro é para indicar que ela procura entender e modelar as "computações" feitas pelo cérebro, isto é, como o cérebro representa e processa informação[5][6][7] [nota 1]. Por sua própria natureza, a neurociência computacional é uma ciência interdisciplinar que combina diferentes campos do saber, como a neurobiologia, a matemática, a ciência da computação, a física, a engenharia elétrica, a ciência cognitiva, a psicologia e a filosofia.

A neurociência computacional é distinta do conexionismo e de disciplinas como aprendizado de máquina, redes neurais artificiais e teoria da aprendizagem computacional, na medida em que enfatiza descrições funcionais e biologicamente plausíveis de neurônios e sistemas neurais, sua fisiologia e dinâmica de aprendizagem. Para atingir seus objetivos, a neurociência computacional utiliza modelos matemáticos e computacionais de células, circuitos e redes neurais, procurando integrar dados experimentais obtidos com as mais diferentes técnicas – desde o nível microscópico, acessível por estudos moleculares e celulares, até o nível sistêmico, acessível por estudos comportamentais – para construir um arcabouço teórico coerente e quantitativo da estrutura e da função do sistema nervoso, tanto em condições normais como patológicas.

História[editar | editar código-fonte]

O termo "neurociência computacional" foi introduzido por Eric L. Schwartz, que organizou uma conferência com esse título em 1985 em Carmel, Califórnia, a pedido da Fundação de Desenvolvimento de Sistemas, para fornecer um resumo do estado atual de um campo que até aquele momento era referido por uma variedade de nomes, tais como biofísica matemática,[8] cibernética, teoria do cérebro[9] e redes neurais[nota 2]. Os resultados dessa reunião definidora foram publicados em 1990 como o livro Neurociência Computacional.[12] O primeiro encontro internacional aberto de pesquisadores voltado para a Neurociência Computacional foi organizado por James M. Bower e John Miller em São Francisco, Califórnia, em 1989,[13] e tem continuado a cada ano desde então como a reunião anual "Computational Neuroscience Meeting" organizada pela Organização para Neurociência Computacional. O primeiro programa de pós-graduação em neurociência computacional foi o programa de Doutorado em Sistemas Neurais e Computacionais do Instituto de Tecnologia da Califórnia (CALTECH) em 1985. A partir de então, a área se expandiu rapidamente e atualmente há vários eventos regionais e internacionais voltados para ela, como encontros, congressos e cursos de curta duração, assim como dezenas de programas de pós-graduação espalhados pelo mundo com interface com a neurociência computacional. Listas não-exaustivas de eventos, pesquisadores e recursos disponíveis na Web relacionados à neurociência computacional podem ser encontrados em páginas mantidas por indivíduos ou instituições. Exemplos são a página mantida por Jim Perlewitz, Computational Neuroscience on the Web, a a página de eventos em neurociência computacional do grupo de mídia Frontiers [3]: http://www.frontiersin.org/events/Computational_Neuroscience.

A neurociência computacional tem suas raízes históricas ligadas aos trabalhos de pessoas como Louis Lapicque, Warren McCulloch, Walter Pitts, Donald Hebb, Alan Hodgkin, Andrew Huxley, David Hubel, Torsten Wiesel, Wilfrid Rall, Richard FitzHugh e David Marr, para citar alguns.

Lapicque propôs, em um artigo de 1907,[14] a primeira versão do atualmente chamado modelo integra-e-dispara de neurônio (o nome foi dado por Bruce Knight na década de 1960 [15]). Devido à sua simplicidade e facilidade de implementação, o modelo integra-e-dispara é um dos modelos de neurônio mais populares da neurociência computacional, sendo amplamente utilizado para a simulação e o estudo matemático de redes com muito neurônios.[4][15][16]

McCulloch e Pitts propuseram, em um artigo publicado em 1943,[17] o primeiro modelo de redes de neurônios da neurociência computacional[nota 3]. A importância histórica do modelo de McCulloch-Pitts é que ele mostrou, pela primeira vez, que redes compostas por unidades simples de tipo "tudo-ou-nada", inspiradas nos neurônios biológicos, interconectadas entre si por sinapses excitatórias e inibitórias são capaz de efetuar computações complexas.[20]

Hebb, em seu livro de 1949, The Organization of Behavior,[21] formulou um mecanismo hipotético para explicar como as memórias se formam e são mantidas por longos períodos de tempo. A ideia central desse mecanismo é que as memórias são armazenadas nas sinapses entre os neurônios, ao invés de nas suas atividades elétricas, e que o aprendizado consistiria de modificações nas eficiências das sinapses. Segundo esse mecanismo, conhecido atualmente como regra de plasticidade sináptica hebbiana, quando dois neurônios que estão conectados por uma sinapse ficam ativos, isto é, emitem disparos de potenciais de ação, conjuntamente por um certo tempo, a eficiência da sinapse entre eles aumenta[nota 4]. A regra de plasticidade hebbiana é a base de praticamente todas as teorias da neurociência computacional para aprendizado e memória e há evidências experimentais que dão suporte a ela.[24]

Hodgkin e Huxley elucidaram os mecanismos iônicos responsáveis pela geração do potencial de ação em um neurônio e desenvolveram um modelo matemático que descreve a evolução temporal do potencial de ação e sua propagação pelo axônio em concordância com dados experimentais.[25][26] Os estudos de Hodgkin e Huxley foram iniciados em 1939, interrompidos durante a Segunda Guerra Mundial e terminados com a publicação de uma série de cinco artigos em 1952.[27][28][29][30][31] Eles receberam o Prêmio Nobel de Medicina e Fisiologia em 1963 por esse trabalho. O modelo de Hodgkin-Huxley descreve um potencial de ação em termos de variáveis matemáticas que representam explicitamente as condutâncias iônicas da membrana do neurônio.[32] Por isso, o formalismo matemático introduzido por Hodgkin e Huxley é chamado de "baseado em condutância"[4]. Esse formalismo é a base muitos dos modelos biofísicos de neurônios utilizados atualmente em neurociência computacional.

Hubel e Wiesel, em trabalhos publicados em 1959.[33] e 1962,[34] descobriram que os neurônios no córtex visual primário, a primeira área cortical que processa sinais vindos da retina, respondem de maneira seletiva a variações na orientação de estímulos luminosos com a forma de uma linha projetados nos campos receptivos dos neurônios. Essa descoberta lhes valeu o o Prêmio Nobel de Medicina e Fisiologia em 1981. A descoberta de que os neurônios do córtex visual primário possuem campos receptivos orientados, ao contrário das células ganglionares da retina, cujos campos receptivos são circulares, mostrou que estímulos sensoriais são transformados pelo cérebro à medida que passam de um estágio de processamento de informação para outro. Ela foi a primeira evidência experimental a sugerir mecanismos neuronais responsáveis pela formação de percepções, estimulando o desenvolvimento de modelos teóricos para explicar como esse processamento poderia ser feito em termos computacionais.[35]

Wilfrid Rall iniciou a modelagem computacional biofisicamente realista de neurônios e dendritos, usando a teoria do cabo para construir o primeiro modelo multicompartimental de um dendrito. Donald Hebb foi um dos pioneiros na tentativa de se encontrar um substrato biológico para os fenômenos mentais, propondo mecanismos sinápticos e neurais capazes de levar grupos (cell assemblies) de células dispersas pelo cérebro a atuar brevemente como sistemas únicos. O trabalho de David Marr centrou-se nas interações entre neurônios, sugerindo abordagens computacionais ao estudo de como os grupos funcionais de neurônios no hipocampo e neocórtex interagem, armazenam, processam e transmitem informação.

A neurociência computacional se diferencia da área da psicologia conhecida como conexionismo e das teorias sobre aprendizagem de disciplinas como aprendizado de máquina, redes neurais e teoria estatística de aprendizado, pois ela enfatiza descrições funcionais ou biologicamente realistas de neurônios e sua fisiologia e dinâmica. Os modelos da neurociência computacional buscam capturar as características essenciais do sistema biológico em escalas de tempo múltiplas, desde correntes de membrana e oscilações químicas até aprendizado e memória. Esses modelos computacionais são usados para testar hipóteses que possam ser verificadas diretamente por experimentos biológicos atuais ou futuros.

Atualidade[editar | editar código-fonte]

No momento o campo está passando por uma rápida expansão, provocado pelo acúmulo de dados experimentais e pelo aparecimento de pacotes de programas computacionais para a execução de simulações biologicamente detalhadas de neurônios individuais e redes de neurônios, como o NEURON e o GENESIS, que permitem a construção rápida e sistemática de modelos neurais em larga escala para estudos in silico.

Principais tópicos[editar | editar código-fonte]

As pesquisas de neurociência computacional podem ser classificadas de modo geral em várias linhas de investigação. A maioria dos neurocientistas computacionais colabora estreitamente com os experimentalistas para analisar novos dados e sintetizar novos modelos de fenômenos biológicos.

Modelagem de neurônio único[editar | editar código-fonte]

Mesmo neurônios individuais têm características biofísicas complexas e podem executar cálculos.[36] O modelo original de Hodgkin e Huxley somente emprega duas correntes sensíveis à voltagem (canais iônicos sensíveis à voltagem são moléculas de glicoproteína que se estendem através da bicapa lipídica, permitindo que os íons atravessem sob certas condições através do axolema), a de ação rápida de sódio e a para dentro de potássio. Embora bem-sucedido em prever as características qualitativas e temporais do potencial de ação, no entanto, não consegue prever uma série de características importantes, como a adaptação e desvio. Os cientistas agora acreditam que há uma grande variedade de correntes sensíveis à voltagem e as implicações das dinâmicas, modulações e sensibilidades diferentes destas correntes é um tópico importante da neurociência computacional.[37]

As funções computacionais de dendritos complexos também estão sob intensa investigação. Há uma vasta literatura a respeito de como diferentes correntes interagem com as propriedades geométricas dos neurônios.[38]

Alguns modelos também estão rastreando caminhos bioquímicos em escalas muito pequenas, tais como espinhos ou fendas sinápticas.

Há muitos pacotes de software, tais como GENESIS e NEURON, que permitem uma modelagem rápida e sistemática de neurônios realistas. Blue Brain, um projeto fundado por Henry Markram da École Polytechnique Fédérale de Lausanne, visa construir uma simulação biofisicamente detalhada de uma coluna cortical no supercomputador Blue Gene.

Um problema no campo é que as descrições detalhadas de neurônios são caras e isso pode prejudicar as investigações de redes realistas, onde muitos neurônios precisam ser simulados. Assim, os pesquisadores que estudam grandes circuitos neurais normalmente representam cada neurônio e sinapse simplesmente, ignorando muito do detalhe biológico. Isso é problemático, pois há evidências de que a riqueza das propriedades biofísicas na escala de neurônio único pode fornecer mecanismos que servem como blocos de construção para a dinâmica da rede.[39] Por isso, há um incentivo para produzir modelos de neurônios simplificados que podem reter a fidelidade biológica significativa a uma baixa sobrecarga computacional. Algoritmos foram desenvolvidos para produzir modelos de neurônios de execução fiel, mais rápida e simplificada como substitutos para modelos de neurônios detalhados computacionalmente caros.[40]

Desenvolvimento, padronização axonal, e orientação[editar | editar código-fonte]

Como os axônios e dendritos se formam durante o desenvolvimento? Como os neurônios migrar para a posição correta nos sistemas central e periférico? Como as sinapses se formam? Sabe-se a partir da biologia molecular que partes distintas do sistema nervoso liberam sinais químicos distintos, de fatores de crescimento a hormônios que modulam e influenciam o crescimento e desenvolvimento de ligações funcionais entre os neurônios.

Investigações teóricas sobre a formação e padronização de conexão sináptica e morfologia são ainda incipientes. Uma hipótese que tem atraído recentemente alguma atenção é a hipótese da fiação mínima, a qual postula que a formação de axônios e dendritos minimiza efetivamente a alocação de recursos, mantendo o máximo armazenamento de informação.[41]

Processamento sensorial[editar | editar código-fonte]

Os primeiros modelos de processamento sensorial dentro de um quadro teórico são creditados Horace Barlow. Um tanto semelhante à hipótese de fiação mínima descrito na secção anterior, Barlow compreendia o processamento dos sistemas sensoriais iniciais como sendo uma forma de codificação eficiente, onde os neurônios codificavam informação o que minimizava o número de spikes. O trabalho experimental e computacional, desde então, apoiaram esta hipótese, de uma forma ou de outra.

A pesquisa atual no processamento sensorial é dividida entre uma modelagem biofísico de diferentes subsistemas e uma modelagem mais teórica da percepção. Os modelos atuais de percepção sugerem que o cérebro executa alguma forma de inferência Bayesiana e integração das diferentes informações sensoriais na geração de nossa percepção do mundo físico.

Memória e plasticidade sináptica[editar | editar código-fonte]

Modelos mais antigos de memória são principalmente baseados nos postulados da aprendizagem Hebbiana. Modelos biologicamente relevantes, tais como a rede de Hopfield foram desenvolvidos para lidar com as propriedades associativas, ao invés de conteúdo endereçável, estilo de memória que ocorrem em sistemas biológicos. Estas tentativas focam principalmente na formação da memória a médio e longo prazo, localizada no hipocampo. Todos os modelos de memória de trabalho, contando com teorias de oscilações de rede e atividade persistente, foram construídos para capturar algumas características do córtex pré-frontal da memória relacionada ao contexto.[42]

Um dos principais problemas na memória neurofisiológica é como ela é mantida e mudada através de múltiplas escalas de tempo. Sinapses instáveis são fáceis de sequenciar, mas também propensas a perturbação estocástica. Sinapses estáveis não esquecem tão facilmente, mas elas também são mais difíceis de se consolidar. Uma hipótese computacional recente envolve cascatas de plasticidade que permitem às sinapses funcionarem em múltiplas escalas de tempo.[43] Modelos estereoquimicamente detalhados da sinapse à base de receptor de acetilcolina com o método Monte Carlo, trabalhando em uma escala de tempo de microssegundos, foram construídos.[44] É provável que nas próximas décadas as ferramentas computacionais contribuirão muito para a compreensão de como as sinapses funcionam e mudam em relação ao estímulo externo.

Comportamentos de redes[editar | editar código-fonte]

Neurônios biológicos são ligados uns aos outros de uma forma complexa e recorrente. Essas conexões são, ao contrário da maioria das redes neurais artificiais, esparsas e geralmente específicas. Não se sabe como a informação é transmitida através de tais redes esparsamente conectadas.

As interações dos neurônios em uma pequena rede podem ser muitas vezes reduzidas a modelos simples como o modelo de Ising. A mecânica estatística de tais sistemas simples é bem caracterizada teoricamente. Existem evidências recentes que sugerem que a dinâmica de redes neuronais arbitrárias pode ser reduzida para as interações de pares.[45] Não se sabe, contudo, se tal dinâmica descritiva transmite qualquer função computacional importante. Com o surgimento da microscopia de dois fótons e da imagem de cálcio, agora tem-se métodos experimentais poderosos com os quais testar as novas teorias sobre redes neuronais.

Em alguns casos, as interações complexas entre os neurônios inibitórios e excitatórios podem ser simplificadas utilizando a teoria de campo médio, o que dá origem ao modelo de população de redes neurais. Enquanto muitos neurocientistas preferem modelos com reduzida complexidade, outros argumentam que descobrir relações funcionais estruturais depende de incluir o quanto for possível da estrutura neuronal e da rede. Modelos deste tipo são normalmente construídos em grandes plataformas de simulação como GENESIS ou NEURON. Houve algumas tentativas de fornecer métodos unificados que conectassem e integrassem estes níveis de complexidade.[46]

Cognição, discriminação e aprendizagem[editar | editar código-fonte]

A modelagem computacional de funções cognitivas superiores só começou recentemente. Dados experimentais vem principalmente de gravação com primatas. O lobo frontal e lobo parietal funcionam como integradores de informações de várias modalidades sensoriais. Há algumas ideias preliminares sobre como circuitos funcionais mutuamente inibitórios nessas áreas podem realizar computação biologicamente relevante.[47]

O cérebro parece ser capaz de discriminar e se adaptar particularmente bem em certos contextos. Por exemplo, os seres humanos parecem ter uma enorme capacidade para memorizar e reconhecer rostos. Um dos objetivos fundamentais da neurociência computacional é dissecar como os sistemas biológicos realizam estas computações complexas de forma eficiente e potencialmente replicar esses processos na construção de máquinas inteligentes.

Os princípios organizacionais de grande escala do cérebro são iluminados por muitos campos, incluindo biologia, psicologia e prática clínica. A neurociência integrativa tenta consolidar estas observações através de modelos e bancos de dados de medidas comportamentais e gravações. Estas são as bases para algumas das modelagens quantitativas da atividade cerebral em grande escala.[48]

O Computational Representational Understanding of Mind (CRUM) é mais uma tentativa de modelar a cognição humana através de processos simulados como sistemas baseados em regras adquiridas e a manipulação de representações visuais na tomada de decisão.

Consciência[editar | editar código-fonte]

Um dos objetivos finais da psicologia/neurociência é ser capaz de explicar a experiência cotidiana da vida consciente. Francis Crick e Christof Koch fizeram algumas tentativas na formulação de um quadro coerente para o trabalho futuro em correlatos neurais da consciência (NCC), embora muito do trabalho neste campo permanece especulativo.[49]

Neurociência clínica computacional[editar | editar código-fonte]

É um campo que reúne especialistas em neurociência, neurologia, psiquiatria, ciências da decisão e modelagem computacional para definir quantitativamente e investigar problemas em doenças neurológicas e psiquiátricas, e treinar cientistas e médicos que desejam aplicar esses modelos para diagnóstico e tratamento.[50][51]

Notas

  1. Embora não se saiba como o cérebro representa e processa informação, sabe-se que não é do mesmo jeito que os modernos computadores digitais o fazem. Mesmo assim o termo "computacional" é utilizado no nome da área para deixar claro que essas operações são "computações" no sentido mais geral do termo.
  2. O termo "redes neurais", que significa literalmente redes de nervos, sempre foi usado de maneira genérica para designar os circuitos cerebrais. Na segunda metade do século XX, trabalhos teóricos para explicar como fenômenos como memória e reconhecimento de padrões podem surgir a partir de modelos de redes de elementos inspirados nos neurônios do cérebro foram coletivamente chamados de modelos de "redes neurais".[10][11] Essa tendência tem desaparecido a partir do século XXI, devido ao rápido desenvolvimento independente das duas grandes vertentes que surgiram dali: a "neurociência computacional" e as "redes neurais artificiais".
  3. Como naquela época ainda não havia a diferenciação entre áreas mencionada acima, o modelo de McCulloch-Pitts também é considerado o primeiro modelo das redes neurais artificiais[18] e do conexionismo.[19]
  4. A ideia de que o mecanismo de aprendizado e memória se baseia em alguma forma de modificação nas eficiências das conexões entre os neurônios não é inteiramente original de Hebb e ele mesmo reconhecia isso.[22] Os antecedentes históricos da hipótese hebbiana são bem anteriores a Hebb.[23]

Referências

  1. Dayan, P; Abbott, LF (2001). Theoretical Neuroscience: Computational and Mathematical Modeling of Neural Systems. Cambridge, Mass: MIT Press. ISBN 978-0262541855 
  2. Trappenberg, TP (2010). Fundamentals of Computational Neuroscience, second edition. New York, NY: Oxford University Press. ISBN 978-0199568413 
  3. Sterrat, D; Graham, B; Gillies, A; Willshaw, D (2011). Principles of Computational Modelling in Neuroscience. Cambridge, UK: Cambridge University Press. ISBN 978-0521877954 
  4. a b Gerstner, W; Kistler, WM; Naud, R; Paninski, L (2014). Neuronal Dynamics: From Single Neurons to Networks and Models of Cognition. Cambridge, UK: Cambridge University Press [1]. ISBN 978-1107635197 
  5. What is computational neuroscience? Patricia S. Churchland, Christof Koch, Terrence J. Sejnowski. in Computational Neuroscience pp.46-55. Edited by Eric L. Schwartz. 1993. MIT Press [2]
  6. Koch, C (1999). Biophysics of Computation: Information Processing in Single Neurons. New York, NY: Oxford University Press. ISBN 978-0195181999 
  7. Érdi, Péter (1 de outubro de 2015). «Teaching computational neuroscience». Cognitive Neurodynamics (em inglês). 9 (5): 479–485. ISSN 1871-4080. PMID 26379798. doi:10.1007/s11571-015-9340-6 
  8. Abraham, Tara. «Nicolas Rashevsky's Mathematical Biophysics.» (PDF). Journal of the History of Biology. 37: 333–385, 2004. Consultado em 15 de abril de 2017 
  9. Shaw, GL; Palm, G (1988). Brain Theory: Reprint Volume. Singapore: World Scientific. ISBN 9971504847 
  10. Amit, DJ (1989). Modeling Brain Function: The World of Attractor Neural Networks. Cambridge, UK: Cambridge University Press. ISBN 0-521-36100-1 
  11. Hertz, J; Krogh, A; Palmer, RG (1991). Introduction to the Theory of Neural Computation. Redwood City CA: Addison-Wesley. ISBN 0-201-51560-1 
  12. Schwartz, Eric (1990). Computational neuroscience. Cambridge, Mass: MIT Press. ISBN 0-262-19291-8 
  13. Bower, JM (Ed.) (2013). 20 Years of Computational Neuroscience. New York, NY: Springer. ISBN 978-1-4614-1423-0 
  14. Lapicque L (1907). «Recherches quantitatives sur l'excitation électrique des nerfs traitée comme une polarisation». J. Physiol. Pathol. Gen. 9: 620–635 
  15. a b Brunel N, Van Rossum MC (2007). «Lapicque's 1907 paper: from frogs to integrate-and-fire». Biol. Cybern. 97 (5–6): 337–339. PMID 17968583. doi:10.1007/s00422-007-0190-0 
  16. Abbott, L.F. (1999). «Lapicque's introduction of the integrate-and-fire model neuron (1907)». Brain Research Bulletin. 50: 303-304. doi:10.1016/S0361-9230(99)00161-6. Consultado em 21 de abril de 2017 
  17. McCulloch, W.S.; Pitts, W. (1943). «A logical calculus of the ideas immanent in nervous activity» (PDF). Bulletin of Mathematical Biophysics. 5: 115-133. Consultado em 21 de abril de 2017 
  18. Braga, A.P..; Carvalho, A.P.L.F.; Ludermir, T.B. (2007). Redes Neurais Artificiais - Teoria e Aplicações - 2ª edição. Rio de Janeiro, RJ: LTC. ISBN 9788521615644 
  19. Ellis, R.; Humphreys, G. (1999). Connectionist Psychology: A Text with Readings. Hove, UK: Psychology Press. ISBN 0-86377-782-2 Verifique |isbn= (ajuda) 
  20. Anderson, J.A.; Rosenfeld, E. (Eds.) (1988). Neurocomputing: Foundations of Research. Cambridge, MA: MIT Press 
  21. Hebb, D.O. (1949). The Organization of Behavior. New York: Wiley & Sons 
  22. Milner PM (1993). «The Mind of Donald O. Hebb» (PDF). Scientific American. 280: 124–129 
  23. Markram H, Gerstner, W, Sjöström, PJ (2011). «A history of spike-timing-dependent plasticity». Frontiers in Synaptic Neuroscience. 3. 4 páginas. doi:10.3389/fnsyn.2011.00004 
  24. Gerstner, Wulfram. «Hebbian learning and plasticity» (PDF). Consultado em 28 de abril de 2017 
  25. Sterrat, D; Graham, B; Gillies, A; Willshaw, D (2011). Principles of Computational Modelling in Neuroscience. Cambridge, UK: Cambridge University Press. ISBN 978-0521877954 
  26. Lytton, W.W. (2002). From Computer to Brain: Foundations of Computational Neuroscience. New York, NY: Springer. ISBN 0-387-95526-7 
  27. Hodgkin, AL; Huxley, AF; Katz, B (abril de 1952). «Measurement of current-voltage relations in the membrane of the giant axon of Loligo». The Journal of Physiology. 116(4): 424–48. PMC 1392219Acessível livremente. PMID 14946712. doi:10.1113/jphysiol.1952.sp004716 
  28. Hodgkin, AL; Huxley, AF (abril de 1952). «Currents carried by sodium and potassium ions through the membrane of the giant axon of Loligo». The Journal of Physiology. 116(4): 449–72. PMC 1392213Acessível livremente. PMID 14946713. doi:10.1113/jphysiol.1952.sp004717 
  29. Hodgkin, AL; Huxley, AF (abril de 1952). «The components of membrane conductance in the giant axon of Loligo». The Journal of Physiology. 116(4): 473–96. PMC 1392209Acessível livremente. PMID 14946714. doi:10.1113/jphysiol.1952.sp004718 
  30. Hodgkin, AL; Huxley, AF (abril de 1952). «The dual effect of membrane potential on sodium conductance in the giant axon of Loligo». The Journal of Physiology. 116(4): 497–506. PMC 1392212Acessível livremente. PMID 14946715. doi:10.1113/jphysiol.1952.sp004719 
  31. Hodgkin, A. L.; Huxley, A. F. (agosto de 1952). «A quantitative description of membrane current and its application to conduction and excitation in nerve». The Journal of Physiology. 117(4): 500–44. PMC 1392413Acessível livremente. PMID 12991237. doi:10.1113/jphysiol.1952.sp004764 
  32. Hille, B (2001). Ion Channels of Excitable Membranes (3rd ed.). Sunderland, MA: Sinauer 
  33. Hubel DH, Wiesel TN (1959). «Receptive fields of single neurones in the cat's striate cortex». J. Physiol. (Lond.). 148: 574-591. PMC 1363130Acessível livremente. PMID 14403679. doi:10.1113/jphysiol.1959.sp006308 
  34. Hubel, DH; Wiesel, TN (1962). «Receptive fields, binocular interaction and functional architecture in the cat's visual cortex» (PDF). Journal of Physiology (London). 160: 106-154. PMC 1359523Acessível livremente. PMID 14449617. doi:10.1113/jphysiol.1962.sp006837 
  35. Wurtz, RH (2009). «Recounting the impact of Hubel and Wiesel». Journal of Physiology (London). 587: 2817-2823. PMC 2718241Acessível livremente. doi:10.1113/jphysiol.2009.170209 
  36. Forrest MD (2014). «Intracellular Calcium Dynamics Permit a Purkinje Neuron Model to Perform Toggle and Gain Computations Upon its Inputs.». Frontiers in Computational Neuroscience. 8. 86 páginas. doi:10.3389/fncom.2014.00086 
  37. Wu, Samuel Miao-sin; Johnston, Daniel (1995). Foundations of cellular neurophysiology. Cambridge, Mass: MIT Press. ISBN 0-262-10053-3 
  38. Koch, Christof (1999). Biophysics of computation: information processing in single neurons. Oxford [Oxfordshire]: Oxford University Press. ISBN 0-19-510491-9 
  39. Forrest MD (2014). «Intracellular Calcium Dynamics Permit a Purkinje Neuron Model to Perform Toggle and Gain Computations Upon its Inputs.». Frontiers in Computational Neuroscience. 8. 86 páginas. doi:10.3389/fncom.2014.00086 
  40. Forrest MD (abril de 2015). «Simulation of alcohol action upon a detailed Purkinje neuron model and a simpler surrogate model that runs >400 times faster». BMC Neuroscience. 16 (27). doi:10.1186/s12868-015-0162-6 
  41. Chklovskii DB, Mel BW, Svoboda K (outubro de 2004). «Cortical rewiring and information storage». Nature. 431 (7010): 782–8. Bibcode:2004Natur.431..782C. PMID 15483599. doi:10.1038/nature03012 
    Review article
  42. Durstewitz D, Seamans JK, Sejnowski TJ (2000). «Neurocomputational models of working memory». Nat Neurosci. 3 (Suppl): 1184–91. PMID 11127836. doi:10.1038/81460 
  43. Fusi S, Drew PJ, Abbott LF (2005). «Cascade models of synaptically stored memories». Neuron. 45 (4): 599–611. PMID 15721245. doi:10.1016/j.neuron.2005.02.001 
  44. Coggan JS, Bartol TM, Esquenazi E; et al. (2005). «Evidence for ectopic neurotransmission at a neuronal synapse». Science. 309 (5733): 446–51. Bibcode:2005Sci...309..446C. PMC 2915764Acessível livremente. PMID 16020730. doi:10.1126/science.1108239 
  45. Schneidman E, Berry MJ, Segev R, Bialek W (2006). «Weak pairwise correlations imply strongly correlated network states in a neural population». Nature. 440 (7087): 1007–12. Bibcode:2006Natur.440.1007S. PMC 1785327Acessível livremente. PMID 16625187. arXiv:q-bio/0512013Acessível livremente. doi:10.1038/nature04701 
  46. Anderson, Charles H.; Eliasmith, Chris (2004). Neural Engineering: Computation, Representation, and Dynamics in Neurobiological Systems (Computational Neuroscience). Cambridge, Mass: The MIT Press. ISBN 0-262-55060-1 
  47. Machens CK, Romo R, Brody CD (2005). «Flexible control of mutual inhibition: a neural model of two-interval discrimination». Science. 307 (5712): 1121–4. Bibcode:2005Sci...307.1121M. PMID 15718474. doi:10.1126/science.1104171 
  48. Robinson PA, Rennie CJ, Rowe DL, O'Connor SC, Gordon E (2005). «Multiscale brain modelling». Philosophical Transactions of the Royal Society B. 360 (1457): 1043–1050. PMC 1854922Acessível livremente. PMID 16087447. doi:10.1098/rstb.2005.1638 
  49. Crick F, Koch C (2003). «A framework for consciousness». Nat Neurosci. 6 (2): 119–26. PMID 12555104. doi:10.1038/nn0203-119 
  50. Adaszewski S1, Dukart J, Kherif F, Frackowiak R, Draganski B; Alzheimer's Disease Neuroimaging Initiative (2013). «How early can we predict Alzheimer's disease using computational anatomy?». Neurobiol Aging. 34 (12): 2815–26. doi:10.1016/j.neurobiolaging.2013.06.015 
  51. Friston KJ, Stephan KE, Montague R, Dolan RJ (2014). «Computational psychiatry: the brain as a phantastic organ». Lancet Psych. 1 (2): 148–58. doi:10.1016/S2215-0366(14)70275-5