Saltar para o conteúdo

Teoria da aprendizagem computacional: diferenças entre revisões

Origem: Wikipédia, a enciclopédia livre.
Conteúdo apagado Conteúdo adicionado
Fredguth (discussão | contribs)
removendo "spam" que apareceu no artigo.
Jadermcs (discussão | contribs)
Linha 2: Linha 2:
{{Reciclagem|data=fevereiro de 2015}}
{{Reciclagem|data=fevereiro de 2015}}


A '''teoria da aprendizagem computacional''' é um subcampo da [[inteligência artificial]] que tem por objetivo construir modelos formais de design e analise de agentes de aprendizado baseados em [[Máquina de estados finitos determinística|máquinas de estado]]. Alguns modelos famosos propostos são o Provavelmente Aproximadamente Correto<ref>{{Citar livro|url=https://www.worldcat.org/oclc/47009798|título=An introduction to computational learning theory|ultimo=Kearns|primeiro=Michael J.|data=1994|editora=MIT Press|outros=Umesh Virkumar Vazirani|local=Cambridge, Mass.|oclc=47009798}}</ref>, o AIXI<ref>{{Citar livro|url=https://www.worldcat.org/oclc/184898003|título=Universal artificial intelligence : sequential decisions based on algorithmic probability|ultimo=Hutter|primeiro=Marcus|data=2005|editora=Springer|local=Berlin|oclc=184898003}}</ref>, Máquinas de Gödel<ref>{{Citar periódico |url=http://link.springer.com/10.1007/978-3-540-68677-4_7 |titulo=Gödel Machines: Fully Self-referential Optimal Universal Self-improvers |data=2007 |acessodata=2022-07-29 |publicado=Springer Berlin Heidelberg |ultimo=Schmidhuber |primeiro=Jürgen |editor-sobrenome=Goertzel |editor-nome=Ben |local=Berlin, Heidelberg |paginas=199–226 |lingua=en |doi=10.1007/978-3-540-68677-4_7 |isbn=978-3-540-23733-4 |editor-sobrenome2=Pennachin |editor-nome2=Cassio}}</ref>, [[Teoria da Inferência Indutiva de Solomonoff|Indução Universal de Solomonoff]]<ref>{{Citar periódico |url=https://www.sciencedirect.com/science/article/pii/S0019995864902232 |titulo=A formal theory of inductive inference. Part I |data=1964-03-01 |acessodata=2022-07-29 |jornal=Information and Control |número=1 |ultimo=Solomonoff |primeiro=R. J. |paginas=1–22 |lingua=en |doi=10.1016/S0019-9958(64)90223-2 |issn=0019-9958}}</ref> e [[Identificação de linguagem no limite|Identificação de Linguagem no Limite]]<ref>{{Citar periódico |url=https://linkinghub.elsevier.com/retrieve/pii/S0019995867911655 |titulo=Language identification in the limit |data=1967-05 |acessodata=2022-07-29 |jornal=Information and Control |número=5 |ultimo=Gold |primeiro=E Mark |paginas=447–474 |lingua=en |doi=10.1016/S0019-9958(67)91165-5}}</ref>. Diferente da [[teoria do aprendizado estatístico]], a teoria da aprendizagem computacional busca entender os limites computacionais desses agentes, como representações simbólico numéricas, [[complexidade computacional]] e [[decidibilidade]]. É a interseção da [[teoria da computação]] e [[aprendizado de máquina]].
A '''teoria da aprendizagem computacional''' é a analise [[complexidade computacional]] do algoritimo de [[aprendizado de máquina]]. É a interseção da [[teoria da computação]] e [[aprendizado de máquina]].


==Visão global==
==Visão global==
Linha 22: Linha 22:
teoria da aprendizagem computacional, um cálculo é considerado viável se
teoria da aprendizagem computacional, um cálculo é considerado viável se
ele pode ser feito em um tempo polinomial. Existe dois tipos de resultados
ele pode ser feito em um tempo polinomial. Existe dois tipos de resultados
de complexibilidade de tempo:
de complexidade de tempo:
* Resultados positivos{{spaced ndash}}Mostrando que uma determinada classe de funções é aprendida em um tempo polinomial.
* Resultados positivos{{spaced ndash}}Mostrando que uma determinada classe de funções é aprendida em um tempo polinomial.
* Resultados negativos{{spaced ndash}}Mostrando que determinadas classes não pode ser aprendido em um tempo polinomial.
* Resultados negativos{{spaced ndash}}Mostrando que determinadas classes não pode ser aprendido em um tempo polinomial.
Os resultados negativos muitas vezes dependem se geralmente se acredita, mas ainda a hipóteses não comprovadas, tais como:
Os resultados negativos muitas vezes dependem se geralmente se acredita, mas ainda a hipóteses não comprovadas, tais como:
* Ccomplexidade computacional - [[P versus NP]]
* Complexidade computacional - [[P versus NP]]
* [[Criptografia]] - [[Função de mão única]].
* [[Criptografia]] - [[Função de mão única]].



Revisão das 18h28min de 29 de julho de 2022

A teoria da aprendizagem computacional é um subcampo da inteligência artificial que tem por objetivo construir modelos formais de design e analise de agentes de aprendizado baseados em máquinas de estado. Alguns modelos famosos propostos são o Provavelmente Aproximadamente Correto[1], o AIXI[2], Máquinas de Gödel[3], Indução Universal de Solomonoff[4] e Identificação de Linguagem no Limite[5]. Diferente da teoria do aprendizado estatístico, a teoria da aprendizagem computacional busca entender os limites computacionais desses agentes, como representações simbólico numéricas, complexidade computacional e decidibilidade. É a interseção da teoria da computação e aprendizado de máquina.

Visão global

Os resultados teóricos em aprendizado de máquina tendem principalmente lidar com um tipo de aprendizado indutivo chamado aprendizado supervisionado. Em aprendizagem supervisionada, é dado amostras de um algoritmo que são rotulados de alguma forma útil. Por exemplo, as amostras podem ser as descrições de cogumelos, e as etiquetas podem ser ou não os cogumelos que são comestível. O algoritmo toma estas amostras previamente rotuladas e os usam para induzir um classificador. Este classificador é uma função que atribui etiquetas para as amostras incluindo as amostras que nunca foram vistos anteriormente pelo algoritmo. O objetivo do algoritmo de aprendizado supervisionado é otimizar alguma medida de desempenho, tais como minimizar o número de erros cometidos em novas amostras.

Além dos limites de desempenho, a teoria de aprendizagem computacional estuda a complexidade de tempo e viabilidade de aprendizagem. Na teoria da aprendizagem computacional, um cálculo é considerado viável se ele pode ser feito em um tempo polinomial. Existe dois tipos de resultados de complexidade de tempo:

  • Resultados positivos – Mostrando que uma determinada classe de funções é aprendida em um tempo polinomial.
  • Resultados negativos – Mostrando que determinadas classes não pode ser aprendido em um tempo polinomial.

Os resultados negativos muitas vezes dependem se geralmente se acredita, mas ainda a hipóteses não comprovadas, tais como:

Há várias abordagens diferentes da teoria de aprendizagem computacional. Estas diferenças são baseadas em fazer suposições sobre a Inferência princípios usados para generalizar a partir de dados limitados. Isto inclui diferentes definições Probabilidade (veja Probabilidade de frequência, Probabilidade epistemológica) e premissas diferentes sobre a geração de amostras.

Veja Também

Referências

Limitações de criptografia na aprendizagem fórmulas boolean e autômatos finitos. Em Proceedings of the 21st Annual ACM Symposium sobre Teoria da Computação, páginas 433-444, de Nova York. ACM.

Deleção de características

Inductive inference

Optimal O aprendizado notação

Resultados negativos

Tolerância a erro

Equivalência

  • D.Haussler, M.Kearns, N.Littlestone e Manfred K. Warmuth, Equivalência de modelos para aprendizibilidade polinômial, Proc. 1º ACM Oficina sobre Teoria da Aprendizagem computacional, (1988) 42-55.
  • Pitt, Leonard; Manfred K. «Prediction-preserving reducibility». Journal of Computer and System Sciences. 41 (3): 430-467. doi:10.1016/0022-0000(90)90028-j 
  1. Kearns, Michael J. (1994). An introduction to computational learning theory. Umesh Virkumar Vazirani. Cambridge, Mass.: MIT Press. OCLC 47009798 
  2. Hutter, Marcus (2005). Universal artificial intelligence : sequential decisions based on algorithmic probability. Berlin: Springer. OCLC 184898003 
  3. Schmidhuber, Jürgen (2007). Goertzel, Ben; Pennachin, Cassio, eds. «Gödel Machines: Fully Self-referential Optimal Universal Self-improvers». Berlin, Heidelberg: Springer Berlin Heidelberg (em inglês): 199–226. ISBN 978-3-540-23733-4. doi:10.1007/978-3-540-68677-4_7. Consultado em 29 de julho de 2022 
  4. Solomonoff, R. J. (1 de março de 1964). «A formal theory of inductive inference. Part I». Information and Control (em inglês) (1): 1–22. ISSN 0019-9958. doi:10.1016/S0019-9958(64)90223-2. Consultado em 29 de julho de 2022 
  5. Gold, E Mark (maio de 1967). «Language identification in the limit». Information and Control (em inglês) (5): 447–474. doi:10.1016/S0019-9958(67)91165-5. Consultado em 29 de julho de 2022