Teorema de Perron-Frobenius

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa

Em álgebra linear, o Teorema de Perron-Frobenius, provado por Oskar Perron (1907) e Georg Frobenius (1912), afirma que uma matriz real quadrada com entradas positivas tem um único maior autovalor e que o correspondente autovetor tem componentes estritamente positivos, e também afirma uma declaração semelhante para certas classes de matrizes não negativas. Este teorema tem aplicações importantes para a teoria de probabilidade (ergodicidade de cadeias de Markov ), para a teoria de sistemas dinâmicos; à Economia (modelo de Leontief) [1] ; à demografia (modelo de distribuição etária de população Leslie)[2] à base matemática de motores de busca na internet[3] e até mesmo a classificação dos times de futebol [4] .

Caso com matrizes positivas[editar | editar código-fonte]

A teoria de matrizes não-negativas assume sua forma mais simples e elegante para matrizes positivas e é para esse caso que Oskar Perron fez descobertas fundamentais em 1907 (apud [5] ). Agora, resumiremos seus principais resultados em um teorema que leva seu nome.

Teorema de Perron

Se A é uma matriz quadrada e A>0, então

  • (a) \rho(A)>0
  • (b) \rho(A) é um autovalor de A
  • (c) Existe um vetor x tal que x>0 e Ax=\rho(A)x
  • (d) \rho(A) é um autovalor algebricamente (e, dessa forma, geometricamente) simples
  • (e) | \lambda | < \rho(A) para todo autovalor de A tal que \lambda \neq \rho(A), ou seja, \rho(A) é o único autovalor de maior módulo
  • (f) [\rho(A)^{-1}A]^m \rightarrow H quando m\rightarrow\infty, onde H=xy^T, Ax=\rho(A)x, A^Ty=\rho(A)y, x>0, y>0 e x^Ty=1.

O único autovetor normalizado caracterizado no item (c) do Teorema de Perron é frequentemente chamado de vetor de Perron de A e \rho(A) é frequentemente chamado de raiz de Perron de A. Obviamente, A^T  é uma matriz positiva se A é positiva. Assim, o Teorema de Perron se aplica à matriz A^T  também. O vetor de Perron de A^T  é chamado de vetor de Perron à esquerda de A [5] .

Caso com matrizes não-negativas e irredutíveis[editar | editar código-fonte]

Quando nos deparamos com matrizes não-negativas que não são positivas, é necessário considerar uma extensão do Teorema de Perron para o caso em que nem todas entradas da matriz são estritamente positivas. [5]

Teorema

Se A é uma matriz quadrada e A\geq 0, então \rho(A) é um autovalor de A e existe um autovetor não-negativo x\geq 0, x \neq 0, tal que Ax=\rho(A)x.

Entretanto, sem hipóteses adicionais, não podemos ir muito além do teorema acima na generalização do Teorema de Perron para matrizes não-negativas.

Quando A\geq 0, o autovalor não-negativo \rho(A) é chamado raiz de Perron de A. Visto que um autovetor associado com a raiz de Perron de uma matriz não-negativa não é necessariamente unicamente determinado (a menos quando A é positiva), não existe uma noção bem determinada de o vetor de Perron para uma matriz não-negativa. Por exemplo, a matriz A=I possui todo vetor não-negativo como um autovetor associado com a raiz de Perron \rho(A)=1. [5]

Agora, veremos como o Teorema de Perron se generaliza para matrizes não-negativas e irredutíveis. O nome de Frobenius é associado à generalização dos resultados de Perron sobre matrizes positivas para matrizes não-negativas segundo [5] , pois os primeiros resultados para tais matrizes foram obtidas por Georg Frobenius em 1912.

Teorema de Perron-Frobenius

Se A é uma matriz quadrada, não-negativa e irredutível, então,

  • (a) \rho(A)>0
  • (b) \rho(A) é um autovalor de A
  • (c) Existe um vetor x positivo tal que Ax=\rho(A)x
  • (d) \rho(A) é um autovalor algebricamente (e, dessa forma, geometricamente) simples

O teorema garante que o autoespaço de uma matriz não-negativa e irredutível associado com a raiz de Perron é unidimensional. Para uma matriz não-negativa e irredutível, o único autovetor positivo normalizado também é chamado de vetor de Perron. [5]

Ver também[editar | editar código-fonte]

Referências

  1. Meyer 2000, p. 8.3.6 p. 681
  2. Meyer 2000, p. 8.3.7 p. 683
  3. Langville & Meyer 2006, p. 15.2 p. 167
  4. Keener 1993, p. p. 80
  5. a b c d e f Horn, Roger A.; Johnson, Charles R.. Matrix Analysis. [S.l.]: Cambridge University Press, 1985. ISBN 0-521-38632-2