Discussão:Cadeias de Markov

Origem: Wikipédia, a enciclopédia livre.
Saltar para a navegação Saltar para a pesquisa

Cadeia de markov e processo de markov são a mesma coisa? em inglês, há dois artigos (grandes) sobre cada um destes termos.Luizabpr (discussão) 15h07min de 14 de julho de 2011 (UTC)

Citação: Often, the term Markov chain is used to mean a Markov process which has a discrete (finite or countable) state-space.
Eu moveria esta edição para o artigo Processo de Markov, eliminando o redirect para aqui. Polyethylen (discussão) 06h29min de 17 de setembro de 2011 (UTC)