Matriz diagonalizável

Origem: Wikipédia, a enciclopédia livre.
Saltar para a navegação Saltar para a pesquisa

Em álgebra linear, uma matriz quadrada A é chamada de diagonalizável se é semelhante a uma matriz diagonal, isto é, se existe uma matriz invertível P tal que P−1AP seja uma matriz diagonal. Se V é um espaço vetorial de dimensão finita, então um operador linear T : VV é chamado de diagonalizável se existe uma base ordenada de V em relação à qual T é representado por uma matriz diagonal. Diagonalização é o processo de encontrar uma matriz diagonal correspondente a uma matriz ou operador diagonalizável.[1] Uma matriz quadrada que não é diagonalizável é chamada defectiva.

Matrizes e operadores diagonalizáveis são de interesse porque matrizes diagonais são especialmente fáceis de manusear; uma vez que seus autovalores e autovetores sejam conhecidos, pode-se elevar uma matriz diagonal a uma certa potência simplesmente elevando as entradas da diagonal à mesma potência, e o determinante de uma matriz diagonal é simplesmente o produto de todas as entradas da diagonal. Geometricamente, uma matriz diagonalizável é uma dilatação não homogênea (ou mudança de escala anisotrópica) — ela muda a escala do espaço, tal como uma dilatação homogênea, mas por um fator diferente, em cada direção, determinados pelos fatores de escala em cada eixo (entradas da diagonal).

Caracterização[editar | editar código-fonte]

O fato fundamental sobre operadores e matrizes diagonalizáveis é expresso pelo seguinte:

  • Uma matriz A de ordem n×n sobre o corpo F é diagonalizável se, e só se, a soma das dimensões de seus autoespaços é igual a n, o que é o caso se, e somente se, existe uma base de Fn consistindo de autovetores de A. Se tal base for encontrada, pode-se formar a matriz P que tem esses vetores da base como colunas, e P−1AP será uma matriz diagonal. As entradas da diagonal desta matriz são os autovalores de A.
  • Um operador linear T : VV é diagonalizável se, e só se, a soma das dimensões de seus autoespaços é igual a dim(V), o que é o caso se, e somente se, existe uma base de V consistindo de autovetores de T. Com respeito a esta base, T será representada por uma matriz diagonal. As entradas da diagonal desta matriz são os autovalores de T.

Outra caracterização: Uma matriz ou operador linear é diagonalizável sobre o corpo F se, e somente se, o seu polinômio minimal é um produto de fatores lineares distintos sobre F. (Colocado de outra forma, uma matriz é diagonalizável se e só se todos os seus divisores elementares são lineares.)

A seguinte condição suficiente (mas não necessária) muitas vezes é útil.

  • Uma matriz A de ordem n×n é diagonalizável sobre o corpo F se ela tem n autovalores distintos em F, ou seja, se o seu polinômio característico tem n raízes distintas em F; no entanto, a recíproca pode ser falsa. Considere, por exemplo,

    que tem autovalores 1, 2, 2 (não todos distintos) e é diagonalizável com forma diagonal (semelhante a A)

    e matriz de mudança de base P

    A recíproca falha quando A tem um autoespaço de dimensão maior do que 1. Neste exemplo, o autoespaço de A associado ao autovalor 2 tem dimensão 2.
  • Um operador linear T : VV com n = dim(V) é diagonalizável se ele tem n autovalores distintos, ou seja, se o seu polinômio característico tem n raízes distintas em F.

Seja A uma matriz sobre F. Se A é diagonalizável então o mesmo vale para qualquer potência de A. Por outro lado, se A é invertível, F é algebricamente fechado, e An é diagonalizável para algum n que não seja um múltiplo inteiro da característica de F, então A é diagonalizável. Prova: Se An é diagonalizável, então A é anulada por algum polinômio que não tem raiz múltipla (desde que ) e é dividido pelo polinômio minimal de A.

Como regra geral, sobre C quase toda matriz é diagonalizável. Mais precisamente: o conjunto das matrizes complexas de ordem n×n que não são diagonalizáveis sobre C, considerado como um subconjunto de Cn×n, tem medida de Lebesgue zero. Pode-se dizer também que as matrizes diagonalizáveis formam um subconjunto denso com respeito à topologia de Zariski: o complemento fica no interior do conjunto em que o discriminante do polinômio característico se anula, o que é uma hipersuperfície. Disso também resulta a densidade na topologia normal (forte) dada por uma norma. O mesmo não é verdade sobre R.

A decomposição de Jordan–Chevalley expressa um operador como a soma de suas partes semisimples (i.é., diagonalizável) e nilpotente. Portanto, uma matriz é diagonalizável se e só se a sua parte nilpotente é zero. Colocado de outra forma, uma matriz é diagonalizável se cada bloco em sua forma de Jordan não tem parte nilpotente; isto é, cada "bloco" é uma matriz um por um.

Diagonalização[editar | editar código-fonte]

Se uma matriz A pode ser diagonalizada, isto é,

então:

Escrevendo P como uma matriz de blocos de seus vetores coluna

a equação acima pode ser reescrita como

Assim, os vetores coluna de P são autovetores à direita de A, e a entrada diagonal correspondente correspondente é o autovalor associado. A invertibilidade de P também sugere que os autovetores são linearmente independentes e formam uma base de Fn. Esta é a condição necessária e suficiente para a diagonabilidade e a abordagem canônica para a diagonalização. Os vetores linha de P−1 são os autovetores à esquerda de A.

Quando uma matriz complexa A[lower-alpha 1] é uma matriz Hermitiana (ou uma matriz real[lower-alpha 2], uma matriz simétrica), podem ser escolhidos autovetores de A para formar uma base ortonormal de n (ou ℝn no caso de uma matriz real). Neste caso, P será uma matriz unitária (respectivamente matriz ortogonal) e P−1 é igual à conjugada transposta de P (se real, então é a transposta de P).

Para a maioria dos trabalhos práticos as matrizes são diagonalizadas numericamente utilizando softwares de computador. Existem muitos algoritmos para fazer isso.

Diagonalização simultânea[editar | editar código-fonte]

Um conjunto de matrizes é dito ser simultaneamente diagonalizável se existe uma única matriz invertível P tal que P−1AP seja uma matriz diagonal para cada A no conjunto. O seguinte teorema caracteriza as matrizes simultaneamente diagonalizáveis: Um conjunto de matrizes diagonalizáveis comutam se, e somente se, o conjunto é simultaneamente diagonalizável.[2]

O conjunto de todas a matrizes n×n diagonalizáveis (sobre C), com n > 1 não é simultaneamente diagonalizável. Por exemplo, as matrizes

são diagonalizável, mas não simultaneamente diagonalizáveis porque elas não comutam.

Um conjunto é composto de matrizes normais que comutam se, e somente se, ele é simultaneamente diagonalizável por uma matriz unitária; isto é, existe uma matriz unitária U tal que U*AU é diagonal para cada A no conjunto.

Na linguagem da teoria de Lie, um conjunto de matrizes simultaneamente diagonalizáveis gerar uma álgebra de Lie toral.

Exemplos[editar | editar código-fonte]

Matrizes diagonalizáveis[editar | editar código-fonte]

  • Involuções são diagonalizáveis sobre os reais (e, de fato, sobre qualquer corpo de característica diferente de 2), com ±1 na diagonal.
  • Endomorfismos de ordem finita são diagonalizáveis sobre C (ou qualquer corpo algebricamente fechado cuja característica não divida a ordem do endomorfismo) com raízes da unidade na diagonal. Isto segue do fato de o polinômio minimal ser separável, porque as raízes da unidade são distintas.
  • As projeções são diagonalizáveis, com 0s e 1s na diagonal.
  • Matrizes simétrica reais são diagonalizáveis por matrizes ortogonais, isto é, dada uma matriz simétrica real A, QTAQ é diagonal para alguma matriz ortogonal Q. Mais geralmente, as matrizes são diagonalizável por matrizes unitárias se, e somente se, elas são normais. No caso de matrizes reais simétricas, tem-se que A = AT, então, claramente, vale AAT = ATA. Exemplos de matrizes normais são as matrizes simétricas (ou antissimétricas) reais (por exemplo, matrizes de covariância) e as matrizes Hermitianas (ou anti-Hermitianas). Ver teoremas espectrais para generalizações para espaços vetoriais de dimensão infinita.

Matrizes que não são diagonalizáveis[editar | editar código-fonte]

Em geral, uma matriz de rotação não é diagonalizável sobre os reais, mas todas as matrizes de rotação são diagonalizáveis sobre o corpo dos complexos. Mesmo se uma matriz não é diagonalizável, é sempre possível "fazer o melhor possível", e encontrar uma matriz com as mesmas propriedades consistindo de autovalores na diagonal principal, e uns ou zeros no diagonal imediatamente acima – conhecida como forma normal de Jordan.

Algumas matrizes não são diagonalizável sobre qualquer corpo, mais notavelmente as matrizes nilpotentes não nulas. Isso acontece mais geralmente se as multiplicidades algébrica e geométrica de um autovalor não coincidem. Por exemplo, considere

Esta matriz não é diagonalizável: não há matriz U tal que U−1CU seja uma matriz diagonal. De fato, C tem um autovalor (a saber, o zero) e este autovalor tem multiplicidade algébrica 2 e multiplicidade geométrica 1.

Algumas matrizes reais não são diagonalizáveis sobre os reais. Considere, por exemplo, a matriz

A matriz B não tem quaisquer autovalores reais, portanto, não há uma matriz real Q tal que Q−1BQ seja uma matriz diagonal. No entanto, podemos diagonalizar B se permitirmos números complexos. De fato, se tomarmos

então Q−1BQ é diagonal. É fácil descobrir que B é a matriz de rotação que gira no sentido anti-horário pelo ângulo θ = 3π/2

Observe que os exemplos acima mostram que a soma de matrizes diagonalizáveis não precisa ser diagonalizável.

Como diagonalizar uma matriz[editar | editar código-fonte]

Considere uma matriz

Esta matriz tem autovalores

A é uma matriz 3×3 com 3 autovalores diferentes; portanto, ela é diagonalizável. Observe que, se existem exatamente n autovalores distintos de uma matriz n×n, então, esta matriz é diagonalizável.

Estes valores são os valores que aparecem na forma diagonalizada da matriz A, então, encontrando-se os autovalores de A, faz-se a sua diagonalização. Poderíamos parar por aqui, mas é uma boa verificação usar os autovetores para diagonalizar A.

Os autovetores de A são

Pode-se facilmente verificar que

Agora, seja P a matriz que tem estes autovetores como suas colunas:

Observe que não há nenhuma ordem de preferência para os autovetores em P; alterando a ordem dos autovetores em P apenas muda a ordem dos autovalores na forma diagonalizada de A.[3]

Então, P diagonaliza A, como pode ser confirmado por um simples cálculo, tendo calculado P -1 por qualquer método apropriado:

De fato, isto resulta abstratamente do fato de que, para a base canônica tem-se

em que usado o fato de que é a k-ésima coluna de e, portanto, Note que os autovalores aparecem na matriz diagonal.

Uma aplicação[editar | editar código-fonte]

A diagonalização pode ser usada para calcular as potências de uma matriz A de forma eficiente, desde que a matriz seja diagonalizável. Suponha que tenha sido encontrado que

em que é uma matriz diagonal. Então, como o produto matricial é associativo,

e esta última expresso é fácil de calcular, pois envolve apenas as potências de uma matriz diagonal. Esta abordagem pode ser generalizada para a exponencial matricial e outras funções matriciais que podem ser definidas como séries de potências.

Isto é particularmente útil para encontrar expressões de forma fechada para os termos de sequências recursivas lineares, tais como os números de Fibonacci.

Aplicação particular[editar | editar código-fonte]

Por exemplo, considere a seguinte matriz:

O cálculo das diferentes potências de M revela um padrão surpreendente:

O fenômeno acima pode ser explicado pela diagonalização de M. Para fazer isso, é preciso uma base do R2 que consista de autovetores de M. Uma tal base de autovetores é dada por

em que ei denota a base canônica de Rn. A mudança de base inverso é dada por

Cálculos diretos mostram que

Assim, a e b são os autovalores correspondentes a u e v, respectivamente. Pela linearidade da multiplicação de matrizes, tem-se que

Voltando para a base canônica, tem-se

As relações anteriores, expressas na forma matricial, são

explicando assim o fenômeno acima.

Aplicação a mecânica quântica[editar | editar código-fonte]

Nos cálculos da mecânica quântica e da química quântica a diagonalização de matrizes é um dos processos numéricos aplicados mais frequentemente. O motivo básico é que a equação de Schrödinger independente do tempo é uma equação de autovalores, embora na maioria das situações físicas em um espaço de dimensão infinita (um espaço de Hilbert).

Uma forma aproximada muito comum é obtida truncando o espaço de Hilbert para uma dimensão finita, depois do que a equação de Schrödinger pode ser formulada como um problema de autovalores de uma matriz real simétrica, ou Hermitiana complexa. Formalmente, esta aproximação é baseada no princípio variacional, válido para Hamiltonianos que são limitados inferiormente.

A teoria de perturbações de primeira ordem também levam a problemas de autovalores de matrizes para estados degenerados.

Ver também[editar | editar código-fonte]

  • Matriz defectiva
  • Escalamento (geometria)
  • Matriz triangular
  • Operador semissimples
  • Grupo diagonalizável
  • Forma canônica de Jordan
  • Módulo de peso – generalização em álgebras associativas
  • Diagonalização ortogonal

Notas[editar | editar código-fonte]

  1. A em ℂn×n
  2. A em ℝn×n

Referências[editar | editar código-fonte]

  1. Horn & Johnson, 1985
  2. Horn & Johnson, 1985, pp. 51-53
  3. Anton, H.; Rorres, C. (22 Feb 2000). Elementary Linear Algebra (Applications Version). [S.l.: s.n.] ISBN 978-0-471-17052-5  Verifique data em: |data= (ajuda)

Ligações externas[editar | editar código-fonte]