Teorema da aproximação universal

Origem: Wikipédia, a enciclopédia livre.

Na teoria matemática de redes neurais artificiais, o teorema da aproximação universal declara[1] que uma rede neural pré-alimentada com uma única camada oculta que contém um número finito de neurônios (i.é., um conjunto multicamada de perceptron) pode aproximar funções contínuas em subconjuntos compactos de Rn, com pressupostos mínimos de função de ativação. O teorema afirma que redes neurais simples podem representar uma grande variedade de funções interessantes quando há os parâmetros adequados; no entanto, ele não desenvolve a apreensibilidade algorítmica desses parâmetros.

Uma das primeiras versões do teorema foi provado por George Cybenko, em 1989, para funções de ativação sigmóide.[2]

Pode também se aplicar em funções de torre em redes neurais para reconhecimento visual.

Apresentação formal[editar | editar código-fonte]

O teorema[3][4] em termos matemáticos:

Seja  uma função não constante, com limites, e numa função monotônica contínua positiva. Seja  uma unidade com dimensões . O espaço de funções contínuas de  escreve-se . Assim, para cada  e cada função , há uma integral , com constantes reais  e vetores reais , onde , tal que se possa definir:

como uma realização aproximada da função  onde  independe de ; ou seja,

para todo . Em suma, funçõesdo tipo  são densas em .

Referências[editar | editar código-fonte]

  1. Balázs Csanád Csáji (2001) Approximation with Artificial Neural Networks; Faculty of Sciences; Eötvös Loránd University, Hungary
  2. Cybenko, G. (1989) "Approximations by superpositions of sigmoidal functions", Mathematics of Control, Signals, and Systems, 2 (4), 303-314
  3. Haykin, Simon (1998). Neural Networks: A Comprehensive Foundation, Volume 2, Prentice Hall. ISBN 0-13-273350-1.
  4. Hassoun, M. (1995) Fundamentals of Artificial Neural Networks MIT Press, p. 48