Matriz diagonalizável

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa

Em álgebra linear, uma matriz quadrada é chamada diagonalizável se for semelhante à matriz diagonal, isto é, se existe uma matriz inversível P tal que P−1AP é a matriz diagonal. Se V é um espaço vetorial de dimensão finita, então uma transformação linear T: V → V é chamado diagonalizável se existir uma base ordenada de V com respeito à qual é representada pela matriz diagonal. Diagonalização é o processo de encontrar uma matriz diagonal correspondente para uma matriz diagonalizável ou transformação linear. Uma matriz quadrada que não é diagonalizável é chamada defeituosa.

Matrizes e transformações diagonalizáveis ​​interessantes,pois as matrizes diagonais são especialmente fáceis de manusear: caso, seus autovalores e autovetores sejam conhecidos, pode-se elevar a matriz diagonal a uma potência simplesmente elevando as entradas diagonais para essa mesma potência e o determinante da matriz diagonal é o produto de todas as entradas. Geométricamente, a matriz diagonalizável é uma dilatação não-homogênea (ou escala anisotrópica) - escalona o espaço, como uma dilatação homogênea, mas por um fator diferente em cada direção, determinado pelos fatores de escala em cada eixo (entradas diagonais).

Caracterização[editar | editar código-fonte]

O principal fato sobre transformações e matrizes diagonalizáveis é expresso pelo seguinte[1]:

  • Uma matriz n × n A sobre o campo F é diagonalizável, se e somente se, a soma das dimensões de seus subespaços é igual a n, neste caso, se e somente se, existe uma base de Fn consistindo em autovetores de A. Se Tal base foi encontrada, pode-se formar a matriz P tendo estes vetores de base como colunas, eP−1AP será uma matriz diagonal. As entradas diagonais desta matriz são os autovalores de A.
  • Uma transformação linear T: V → V é diagonalizável, se e somente se, a soma das dimensões de seus subespaços é igual a dim (V), neste caso, se e somente se, existe uma base de V constituída por autovetores de T. Em relação a essa base, T será representado por uma matriz diagonal. As entradas diagonais desta matriz são os autovalores de T.

Outra caracterização: Uma matriz ou transformação linear é diagonalizável sobre o campo F, se e somente se, seu polinômio mínimo é um produto de fatores lineares distintos sobre F. (Colocado de outra forma, uma matriz é diagonalizável, se e somente se, todos os seus divisores elementares são lineares). A seguinte condição suficiente (mas não necessária) é muitas vezes útil.

Uma matriz n × n A é diagonalizável sobre o campo F se tem n valores próprios distintos em F, isto é, se o seu polinómio característico tem n raízes distintas em F; Entretanto, o inverso pode ser falso. Vamos considerar

The fundamental fact about diagonalizable maps and matrices is expressed by the following:

Que tem autovalores 1, 2, 2 (não todos distintos) e é diagonalizável com forma diagonal (semelhante a A)
e mudança de base da matriz P
O inverso falha quando A tem um subespaço de dimensão maior que 1. Neste exemplo, o subespaço de A associado com o autovalor 2 tem dimensão 2.
  • Uma transformação linear T: V → V com n = dim (V) é diagonalizável[2] se tiver n valores próprios distintos, isto é, se seu polinômio característico tem n raízes distintas em F. Seja A uma matriz sobre F. Se A é inversível, F é algébricamente fechado e An é diagonalizável para algum n que não é um múltiplo inteiro da característica de F, então A é diagonalizável. Prova: Se An é diagonalizável, então A é excluído por algum polinômio Que não tem múltiplas raízes (já que, ) e é dividido pelo polinômio mínimo de A.
  • Como regra geral, sobre C quase todas as matrizes são diagonalizáveis. Mais precisamente: o conjunto de matrizes n × n complexas que não são diagonalizáveis ​​sobre C, considerado como um subconjunto de Cn × n, tem a medida de Lebesgue zero. Pode-se também dizer que as matrizes diagonalizáveis ​​formam um subconjunto denso em relação à topologia de Zariski: o complemento encontra-se dentro do conjunto onde o discriminante do polinômio característico desaparece, que é uma hipersuperfície. Daqui segue também a densidade na topologia usual (forte) dada por uma norma. O mesmo não acontece com R. [3] A decomposição de Jordan-Chevalley expressa um operador como a soma de sua parte semi-simples (ou seja, diagonalizável) e sua parte nilpotente. Assim, uma matriz é diagonalizável, se e somente se, sua parte nilpotente é zero. Dito de outra forma, uma matriz é diagonalizável se cada "bloco" em sua forma Jordan não tem nenhuma parte nilpotente; Isto é, cada "bloco" é uma matriz um-por-um.

Diagonalização[editar | editar código-fonte]

Se a matriz A pode ser diagonalizável, Isto é

então:

Escrevendo P como um bloco de matriz na coluna de vetores

a equação acima pode ser reescrita como:

Assim, os vetores da coluna de P são autovetores direitos de A, e a entrada diagonal correspondente é o autovalor correspondente. A invertibilidade de P também sugere que os autovetores são linearmente independentes e formam uma base de Fn. Esta é a condição necessária e suficiente para a diagonalizabilidade e a abordagem canônica da diagonalização. Os vetores de linha de P−1 são os autovetores esquerdos de A.

Quando a matriz A é uma matriz hermitiana [4](matriz resp. Simétrica), os autovetores de A podem ser escolhidos para formar uma base ortonormal de Cn (resp. Rn). Sob tal circunstância, P será uma matriz unitária (ou matriz ortogonal) e P−1 é igual à transposta conjugada (ou transposta) de P.

Na prática, as matrizes são diagonalizadas numéricamente usando computadores. Muitos algoritmos existem para fazer isso.

Diagonalização simultânea[editar | editar código-fonte]

Diz-se que um conjunto de matrizes é simultaneamente diagonalizável[5] se existe uma única matriz inversível P tal que P−1AP é uma matriz diagonal para cada A no conjunto. O seguinte teorema caracteriza as matrizes simultaneamente diagonalizáveis: Um conjunto de matrizes diagonalizáveis desloca, se e somente se, o conjunto é simultaneamente diagonalizável.

O conjunto de todas as matrizes diagonais n × n (em C) com n> 1 não é simultaneamente diagonalizável. Por exemplo, as matrizes

São diagonalizáveis, mas não simultaneamente diagonalizáveis porque não se deslocam.

Um conjunto consiste em comutação de matrizes normais, se e somente se, é simultaneamente diagonalizável por uma matriz unitária; Isto é, existe uma matriz unitária U tal que U * AU é diagonal para cada A no conjunto.

Na linguagem da teoria de Lie, um conjunto de matrizes simultaneamente diagonalizáveis geram uma álgebra de Lie toral.

Exemplos[editar | editar código-fonte]

Matrizes diagonalizáveis[editar | editar código-fonte]

  • As involuções são diagonalizáveis ​​sobre os reais (e, de fato, qualquer campo de característica não 2), com ± 1 na diagonal.
  • Endomorfismos de ordem finita são diagonalizáveis ​​sobre C (ou qualquer campo algébricamente fechado, onde a característica do campo não divide a ordem do endomorfismo) com raízes de unidade na diagonal. Isto segue-se, pois o polinômio mínimo é separável, porque as raízes da unidade são distintas.
  • As projeções são diagonalizáveis, com 0s e 1s na diagonal.
  • Matrizes simétricas reais são diagonalizáveis ​​por matrizes ortogonais; Isto é, dada uma matriz simétrica real A, QTAQ é diagonal para alguma matriz ortogonal Q. Mais genericamente, as matrizes são diagonalizáveis ​​por matrizes unitárias, se e somente se, forem normais. No caso da matriz simétrica real, vemos que A = AT, tão claramente AAT = ATA mantém. Exemplos de matrizes normais são matrizes simétricas reais (ou Matrizes Antissimétricas) (por exemplo matrizes de covariância) e matrizes Hermitian. Ver teoremas espectrais para generalizações para espaços vetoriais de dimensão infinita.

Matrizes que não são diagonalizáveis[editar | editar código-fonte]

Em geral, uma matriz de rotação não é diagonalizável no conjunto dos reais, mas todas as matrizes de rotação são diagonalizáveis no conjunto complexo. Mesmo que uma matriz não seja diagonalizável, é sempre possível "fazer o melhor que pudermos" e encontrar uma matriz com as mesmas propriedades consistindo de autovalores na diagonal principal e alguns zeros na superdiagonal - conhecida como Jordan normal Formato.

Algumas matrizes não são diagonalizáveis em nenhum campo, mais notavelmente matrizes nilpotentes. Isso acontece mais geralmente se as multiplicidades algébricas e geométricas de um autovalor não coincidirem. Por exemplo, considere

Esta matriz não é diagonalizável: não há matriz U tal que U−1CU seja uma matriz diagonal. De fato, C tem um autovalor (ou seja, zero) e este autovalor tem multiplicidade algébrica 2 e multiplicidade geométrica 1.

Algumas matrizes reais não são diagonalizáveis sobre os reais. Considere, por exemplo, a matriz

A matriz B não tem quaisquer autovalores reais, portanto não há matriz real Q tal que Q−1BQ seja uma matriz diagonal. No entanto, podemos diagonalizar B se permitimos números complexos. Na verdade, se tomarmos

então Q−1BQ é diagonal.

Observe que os exemplos acima mostram que a soma das matrizes diagonalizáveis não precisa ser diagonalizável.

Como diagonalizar uma Matriz[editar | editar código-fonte]

Considere uma matriz

Essa matriz tem Autovalores

A é uma matriz 3×3 com 3 diferentes autovalores; Portanto, é diagonalizável. Note que se existirem exatamente n valores próprios distintos em uma matriz n × n, então esta matriz é diagonalizável.

Esses autovalores são os valores que aparecerão na forma diagonalizada da matriz A, portanto, ao encontrar os autovalores de A, diagonalizamos. Podemos parar aqui, mas é um bom teste para usar os autovetores para diagonalizar A.

Os autovetores de A são

Pode-se facilmente verificar que

Agora, seja P a matriz com esses autovetores como suas colunas:

Note que não existe uma ordem preferida dos autovetores em P; Alterar a ordem dos autovetores em P apenas muda a ordem dos autovalores na forma diagonalizada de A.

Então P diagonaliza A, como confirma um cálculo simples, tendo calculado P −1 usando qualquer método adequado:

De fato, isto resulta de forma abstrata do faco de que, para a base-padrão, nós temos

onde nós fazemos uso do fato de que ;e o k-th coluna de e, portanto . Note que os Autovalores aparecem na matriz diagonal.

Uma Aplicação[editar | editar código-fonte]

Diagonalização pode ser usada para calcular eficientemente as potências de uma matriz A, desde que a matriz seja diagonalizável. Suponhamos que descobrimos que

onde é uma diagonal da matriz. Então, como o produto da matriz é associativo,

E este último é fácil de calcular, uma vez que envolve apenas as potências de uma matriz diagonal. Esta abordagem pode ser generalizada para matriz exponencial e outras funções de matriz, uma vez que podem ser definidas como séries de potências.

Isto é particularmente útil para encontrar expressões de forma fechada para termos de sequências recursivas lineares, como os números de Fibonacci.

Aplicação Particular[editar | editar código-fonte]

Por exemplo, considere a matriz a seguir:

Calculando as várias potências de M revela um padrão surpreendente:

O fenômeno acima pode ser explicado pela diagonal de M. Para isso, precisamos de uma base de R2 constituída por autovetores de M. Uma dessas bases de autovetores é dada por

onde ei Denota a base padrão de Rn. A mudança inversa da base é dada por

Cálculos simples mostram que:

Assim, a e b são os autovalores correspondentes a u e v, respectivamente. Por linearidade da multiplicação matricial, temos que:

Voltando à base padrão, temos:

As relações precedentes, expressas em forma de matriz, são

Explicando assim o fenômeno acima.

Aplicação mecânica quântica[editar | editar código-fonte]

Nos cálculos quânticos a diagonalização da matriz é um dos processos numéricos mais freqüentemente aplicados. A razão básica é que a equação de Schrödinger independente do tempo é uma equação do autovalor, embora na maioria das situações físicas em um espaço infinito dimensional (um espaço de Hilbert). Uma aproximação muito comum é truncar o espaço de Hilbert à dimensão finita, após o que a equação de Schrödinger pode ser formulada como um problema de autovalor de uma matriz simétrica real, ou hermitiana complexa. Formalmente esta aproximação é fundada no princípio variacional, válido para hamiltonianos que são delimitados a partir de baixo. Mas também a teoria da perturbação de primeira ordem para estados degenerados leva a um problema de autovalor da matriz.

Veja Também[editar | editar código-fonte]

References[editar | editar código-fonte]

  1. Horn, Roger A.; Johnson, Charles R. (1985). Matrix Analysis [S.l.: s.n.] p. 51. 
  2. Pellegrini, Jerônimo C. (2016). Álgebra Linear (PDF) [S.l.: s.n.] p. 223. 
  3. Calliolli, Carlos A.; Costa, Roberto C. F.; Domingues, Hygino H. (1990). Álgebra Linear e Aplicações (São Paulo - Brasil: Atual). p. 272. 
  4. Calliolli, Carlos A. (1990). Álgebra Linear e Aplicações (São Paulo - Brasil: Atual). p. 195. 
  5. Pellegrini, Jerônimo C. (2016). Álgebra Linear (PDF) [S.l.: s.n.] p. 240.