Matriz adjunta

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa

A matriz adjunta de uma matriz quadrada A é a matriz transposta da matriz que se obtem substituindo cada termo {A}_{i,j} pelo determinante da matriz resultante de retirar de A a linha i e a coluna j (isso é, o determinante menor) multiplicado por {(-1)}^{i+j} (isso é, alternando os sinais).

Exemplos[editar | editar código-fonte]

Matrizes 2x2[editar | editar código-fonte]

Para toda matriz de ordem 2:


\mathbf{A} = \begin{bmatrix}
a & b \\
c & d
\end{bmatrix}
 \mbox{adj}(\mathbf{A}) = \begin{bmatrix}
d & -b \\
-c & a
\end{bmatrix}

Construindo a adjunta passo-a-passo[editar | editar código-fonte]

Vamos deduzir a adjunta da matriz representada abaixo:


\mathbf{A} = \begin{bmatrix}
a & b \\
c & d
\end{bmatrix}

Primeiro calculamos a matriz dos determinantes menores, tradicionalmente representada por "\mathbf{M}".


\mathbf{M} = \begin{bmatrix}
\det{d} & \det{c} \\
\det{b} & \det{a}
\end{bmatrix}

Agora multiplicamos todo \mathbf{M}_{i,j} por (-1)^{i+j} para obter a matriz dos cofactores, tradicionalmente representada por "\mathbf{C}". Em termos mais simples, invertemos os sinais de todos aqueles termos cuja soma "i+j" é ímpar.


\mbox{C}(\mathbf{A}) = \begin{bmatrix}
d & -c \\
-b & a
\end{bmatrix}

Em seguida, transpomos a matriz para chegar a matriz adjunta:


\mbox{adj}(\mathbf{A}) = \begin{bmatrix}
d & -b \\
-c & a
\end{bmatrix}

Matrizes 3x3[editar | editar código-fonte]

Para toda matriz na forma:

 \mathbf{A} = \begin{bmatrix}
a & b & c \\
d & e & f \\
g & h & i
\end{bmatrix}

Fazendo a (matriz.dos.cofatores.de.A)^t temos que:

 \mbox{adj}(A) = \begin{bmatrix}
+\left| \begin{matrix} e & f \\ h & i \end{matrix} \right| &
-\left| \begin{matrix} b & c \\ h & i \end{matrix} \right| &
+\left| \begin{matrix} b & c \\ e & f \end{matrix} \right| \\
 & & \\
-\left| \begin{matrix} d & f \\ g & i \end{matrix} \right| &
+\left| \begin{matrix} a & c \\ g & i \end{matrix} \right| &
-\left| \begin{matrix} a & c \\ d & f \end{matrix} \right| \\
 & & \\
+\left| \begin{matrix} d & e \\ g & h \end{matrix} \right| &
-\left| \begin{matrix} a & b \\ g & h \end{matrix} \right| &
+\left| \begin{matrix} a & b \\ d & e \end{matrix} \right|
\end{bmatrix}

Onde as barras verticais simbolizam determinante.

Propriedades[editar | editar código-fonte]

As seguintes propriedades são válidas para todas as matrizes K^{n\times n}

\operatorname{adj}(I) = I, em que I é a matriz identidade.
\operatorname{adj}(0) = 0, em que 0 é a matriz nula.
\operatorname{adj}(AB) = \operatorname{adj}(B) \cdot \operatorname{adj}(A)
\operatorname{adj}(A^T) = \operatorname{adj}(A)^T
A \cdot \operatorname{adj}(A) = \operatorname{adj}(A) \cdot A = \det(A) \cdot I
\operatorname{adj}(\lambda A)=\lambda^{n-1}\operatorname{adj}(A) em que \lambda\in \R
\det(\operatorname{adj}(A))=(\det A)^{n-1}
\operatorname{adj}(\operatorname{adj}(A))=(\det A)^{n-2}A, para o caso particular de A ser 2\times2 resulta em \operatorname{adj}(\operatorname{adj}(A))=A

Aplicações da adjunta[editar | editar código-fonte]

Determinação da matriz inversa[editar | editar código-fonte]

Com a matriz adjunta pode-se calcular a inversa de uma matriz de uma maneira diferente da tradicional, embora não mais rápida. A forma mais eficiente de obter a matriz inversa é através da eliminação de Gauss-Jordan. Para toda matriz invertível A:

\mathbf{A}^{-1} = \frac{\mbox{adj}(\mathbf{A})}{\det(\mathbf{A})}.

Logo, para toda matriz invertível de ordem 2:


\begin{bmatrix}
a & b \\
c & d
\end{bmatrix}^{-1} =
\frac{1}{ad - bc}
\begin{bmatrix}
\,\,\,d & \!\!-b \\ -c & \,a \\
\end{bmatrix}.

Observação: Alguns matemáticos desaconselham a notação acima em favor da seguinte:

\mathbf{A}^{-1} = \frac{1}{\det(\mathbf{A})} \cdot \mbox{adj}(\mathbf{A}).

Vale reforçar que só é inversível a matriz que é quadrada e cujo determinante é diferente de zero.

Outras aplicações[editar | editar código-fonte]

Ícone de esboço Este artigo sobre matemática é um esboço. Você pode ajudar a Wikipédia expandindo-o.