Neural gas

Origem: Wikipédia, a enciclopédia livre.

Neural gás é uma rede neural artificial, inspirado pela auto-organização de mapa e introduzido em 1991 pela Thomas Martinetz e Klaus Schulten.[1] neural gás é um algoritmo simples para encontrar ideal de representações de dados com base no recurso de vetores. O algoritmo foi cunhado "neural gas" por causa da dinâmica do recurso de vetores durante o processo de adaptação, que distribuem-se como um gás dentro do espaço de dados. Ele é aplicado, onde a compressão de dados ou vector quantization é um problema, por exemplo, o reconhecimento de fala,[2] de processamento de imagem[3] ou o reconhecimento de padrões. Como uma forma robusta a convergir alternativa para o k-means clustering é também utilizado para a análise de cluster.[4]

Algoritmo[editar | editar código-fonte]

Dada uma distribuição de probabilidade de dados de vetores e um número finito de recurso de vetores .

Com cada passo de tempo , um vector de dados escolhido aleatoriamente a partir de é apresentado. Posteriormente, a distância, a fim de o recurso de vetores a um dado vector de dados é determinado. Deixe indicar o índice do próximo vetor característico, o índice do segundo recurso mais próximo do vetor, e o índice do vetor característico mais distante . Em seguida, cada vetor é adaptado de acordo com

com como o tamanho do passo de adaptação e como o chamado bairro de gama. e são reduzidos com o aumento da . Depois de suficientemente muitas medidas de adaptação a funcionalidade de vetores de cobrir o espaço de dados com o mínimo de representação de erro.[5]

A adaptação etapa do neurais gás possa ser interpretado como de gradiente descendente em uma função de custo. Por adaptação não só o mais próximo do vetor característico, mas todos eles com um passo de tamanho decrescente com o aumento da distância da ordem, em comparação com (on-line) k-means clustering muito mais robusto convergência do algoritmo pode ser alcançado. O neural gás modelo não exclui um nó e também não criar novos nós.

Variantes[editar | editar código-fonte]

Uma série de variantes do neurais gás algoritmo existe na literatura, de modo a mitigar algumas das suas deficiências. Mais notável é, talvez, Bernd Fritzke de crescimento neural de gás,[6] mas também deve-se mencionar ainda outro tipo de informação, tais como o Crescimento, Quando Necessário de rede[7] e também o incremental de crescimento neural de gás.[8]

Growing neural gas[editar | editar código-fonte]

Fritzke descreve o crescimento neural gás (GNG) como um incremental o modelo de rede que aprende topológica relações por meio de uma "Hebb-como a aprendizagem de regra", apenas, ao contrário neural de gás, que não tem parâmetros que mudam ao longo do tempo e é capaz de contínua aprendizagem.

Crescimento, quando necessário[editar | editar código-fonte]

Ter uma rede com um conjunto cada vez maior de nós, como a implementada pelo GNG algoritmo foi visto como uma grande vantagem, no entanto, algumas limitações na aprendizagem foi visto pela introdução do parâmetro λ, em que a rede só seria capaz de crescer quando iterações foram um múltiplo deste parâmetro. A proposta para atenuar este problema foi um novo algoritmo, o Crescimento, Quando Necessário rede (GWR), o que seria a rede a crescer mais rapidamente, adicionando nós o mais rapidamente possível sempre que a rede identificou que os nós existentes não descrevem a entrada de bem o suficiente.

Incremental de crescimento neural gás[editar | editar código-fonte]

Outro neural gás variante inspirado no GNG algoritmo incremental de crescimento neural gás (IGNG). Os autores propõem a principal vantagem desse algoritmo para ser "a aprendizagem de novos dados (plasticidade), sem degradar o previamente treinados rede e esquecer a idade de entrada de dados (estabilidade)."

Referências

  1. Thomas Martinetz and Klaus Schulten (1991). «A "neural gas" network learns topologies» (PDF). Artificial Neural Networks. Elsevier. pp. 397–402 
  2. F. Curatelli and O. Mayora-Iberra (2000). «Competitive learning methods for efficient Vector Quantizations in a speech recognition environment». In: Osvaldo Cairó, L. Enrique Sucar, Francisco J. Cantú-Ortiz. MICAI 2000: Advances in artificial intelligence : Mexican International Conference on Artificial Intelligence, Acapulco, Mexico, April 2000 : proceedings. Springer. p. 109. ISBN 978-3-540-67354-5 
  3. Angelopoulou, Anastassia and Psarrou, Alexandra and Garcia Rodriguez, Jose and Revett, Kenneth (2005). «Automatic landmarking of 2D medical shapes using the growing neural gas network». In: Yanxi Liu, Tianzi Jiang, Changshui Zhang. Computer vision for biomedical image applications: first international workshop, CVBIA 2005, Beijing, China, October 21, 2005 : proceedings. Springer. p. 210. ISBN 978-3-540-29411-5. doi:10.1007/11569541_22 
  4. Fernando Canales and Max Chacon (2007). «Modification of the growing neural gas algorithm for cluster analysis». In: Luis Rueda, Domingo Mery, Josef Kittler, International Association for Pattern Recognition. Progress in pattern recognition, image analysis and applications: 12th Iberoamerican Congress on Pattern Recognition, CIARP 2007, Viña del Mar-Valparaiso, Chile, November 13–16, 2007 ; proceedings. Springer. pp. 684–693. ISBN 978-3-540-76724-4. doi:10.1007/978-3-540-76725-1_71 
  5. http://wwwold.ini.rub.de/VDM/research/gsn/JavaPaper/img187.gif[ligação inativa]
  6. Fritzke, Bernd (1995). «A Growing Neural Gas Network Learns Topologies». Advances in Neural Information Processing Systems. 7: 625-632. Consultado em 26 de abril de 2016 
  7. Marsland, Stephen; Shapiro, Jonathan; Nehmzow, Ulrich (2002). «A self-organising network that grows when required». Neural Networks. 15 (8): 1041–1058. doi:10.1016/s0893-6080(02)00078-3. Consultado em 26 de abril de 2016 
  8. Prudent, Yann; Ennaji, Abdellatif (2005). «An incremental growing neural gas learns topologies». Neural Networks, 2005. IJCNN'05. Proceedings. 2005 IEEE International Joint Conference on. 2: 1211–1216. Consultado em 26 de abril de 2016 

Leitura complementar[editar | editar código-fonte]

  • T. Martinetz, S. Berkovich, e K. Schulten. "Neural-gas de Rede" para a Quantização de vetores e sua Aplicação para o Tempo-Previsão de Séries. IEEE-Transactions on Neural Networks, 4(4):558-569, 1993.
  • «Topology representing networks». Neural Networks. 7. doi:10.1016/0893-6080(94)90109-0 

Ligações externas[editar | editar código-fonte]