Matriz (matemática)

Origem: Wikipédia, a enciclopédia livre.
(Redirecionado de Matriz quadrada)
Ir para: navegação, pesquisa
NoFonti.svg
Este artigo ou se(c)ção cita uma ou mais fontes fiáveis e independentes, mas ela(s) não cobre(m) todo o texto (desde Abril de 2011).
Por favor, melhore este artigo providenciando mais fontes fiáveis e independentes e inserindo-as em notas de rodapé ou no corpo do texto, conforme o livro de estilo.
Encontre fontes: Googlenotícias, livros, acadêmicoYahoo!Bing. Veja como referenciar e citar as fontes.

Em matemática, uma matriz m \times n é uma tabela de m linhas e n colunas de símbolos sobre um conjunto, normalmente um corpo, F, representada sob a forma de um quadro. As matrizes são muito utilizadas para a resolução de sistemas de equações lineares e transformações lineares.

Uma matriz é um conjunto retangular de números, símbolos ou expressões, organizados em linhas e colunas. Cada um dos itens de uma matriz é chamado de elemento.

Matrizes de mesmo tamanho podem ser somadas ou subtraídas — soma-se ou subtrai-se cada elemento individualmente. Contudo, a regra que se aplica à multiplicação matricial é diferente: multiplica-se duas matrizes somente quando o número de colunas da primeira é igual ao número de linhas da segunda.

Cada elemento de uma matriz é muitas vezes representado por uma variável com dois subscritos. A variável a2,1, por exemplo, representa o elemento da segunda linha e primeira coluna de uma matriz A.

Notação[editar | editar código-fonte]

As linhas horizontais da matriz são chamadas de linhas e as linhas verticais são chamadas de colunas. Logo uma matriz com m linhas e n colunas é chamada de uma matriz m por n (escreve-se m \times n) e m e n são chamadas de suas dimensões, tipo ou ordem. Por exemplo, a matriz a seguir é uma matriz de ordem 2 \times 3 com elementos naturais.

A = \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix}

Um elemento de uma matriz A que está na i-ésima linha e na j-ésima coluna é chamado de elemento i,j ou (i,j)-ésimo elemento de A. Ele é escrito como a_{ij} ou a[i,j]. Nesse exemplo, o elemento a_{12} é 2, o número na primeira linha e segunda coluna do quadro.


A = \begin{bmatrix}
    a_{11} & a_{12} & \cdots & a_{1n} \\
    a_{21} & a_{22} & \cdots & a_{2n} \\
    \vdots & \vdots & \ddots & \vdots \\
    a_{m1} & a_{m2} & \cdots & a_{mn}
    \end{bmatrix}

As entradas (símbolos) de uma matriz também podem ser definidas de acordo com seus índices i e j. Por exemplo, a_{i j} = i + j, para i de 1 a 3 e j de 1 a 2, define a matriz A = \begin{bmatrix} 2 & 3 \\ 3 & 4 \\ 4 & 5\end{bmatrix}, de ordem 3 \times 2.

Nas linguagens de programação, os elementos da matriz podem estar indexados a partir de 1 (Fortran, MATLAB, R, etc) ou a partir de 0 (C e seus dialetos). Por exemplo, o elemento a(1,1) em Fortran corresponde ao elemento a[0][0] em C.

Classificação[editar | editar código-fonte]

Matriz quadrada[editar | editar código-fonte]

Uma matriz é dita quadrada se tem o mesmo número de linhas e colunas, ou seja, quando podemos dizer que m tem a mesma quantidade de elementos que n. Numa matriz quadrada A de ordem n \times n, a diagonal principal é aquela formada pelos elementos a_{ij} tais que i = j, para i de 1 a n. No exemplo abaixo, a diagonal principal é formada pelos seguintes elementos: 1, 0 e 2. Há também a diagonal secundária, que é formada pelos elementos cuja soma dos índices da linha e da coluna é igual a n + 1. Na matriz abaixo, os elementos 1, 0 e 2 constituem a diagonal secundária.


  \begin{bmatrix}
    1 & 3 & 2 \\
    1 & 0 & 0 \\
    1 & 2 & 2
  \end{bmatrix}

Vetor[editar | editar código-fonte]

Uma matriz onde uma de suas dimensões é igual a 1 é geralmente chamada de vetor. Uma matriz 1 \times n (uma linha e n colunas) é chamada de vetor linha ou matriz linha, e uma matriz m \times 1 (uma coluna e m linhas) é chamada de vetor coluna ou matriz coluna.

Classificação de matrizes quanto às suas propriedades[editar | editar código-fonte]

Tipo de matriz é quadrada? Tem inversa? Qual é sua transposta? Positiva/ negativa definida?
Matriz identidade I_n Sempre Sim, ela mesma: I_n Ela mesma, I_n (é uma matriz simétrica) Sempre é positiva definida
Matriz inversa B^{-1} Sempre Sim, e é igual à matriz original, B \left ( {B}^{-1} \right )^\intercal Positiva definida se B for positiva definida
Matriz singular C Sempre Nunca C^\intercal
Matriz simétrica D Sempre Não necessariamente D^\intercal=D Negativa definida se e apenas se todos os valores característicos de D forem negativos [1]
Matriz transposta E^\intercal Não necessariamente Não necessariamente E
Matriz positiva definida F Sempre Sim, e F^{-1} também é positiva definida F^\intercal Sempre é positiva definida
Matriz negativa definida G Sempre Sim, e G^{-1} também é negativa definida[1] G^\intercal Sempre é negativa definida

Matriz identidade[editar | editar código-fonte]

A matriz identidade I_n é a matriz quadrada n \times n em que todas as entradas da diagonal principal são iguais a 1 e as demais são iguais a zero, por exemplo

I_{2} = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix}.

Ela é chamada de matriz identidade pois multiplicá-la por outra matriz não altera a matriz:

MI_n = I_m M = M,

para qualquer matriz M de ordem m por n.

Matriz inversa[editar | editar código-fonte]

Uma matriz A^{-1} é dita inversa de uma matriz A, se obedece às equações matriciais A \cdot A^{-1} = A^{-1} \cdot A = I, ou seja, se o produto entre as matrizes é a matriz identidade.[2] A analogia com os números reais é evidente, pois assim como o produto entre dois números inversos é a unidade (elemento neutro da multiplicação), o produto entre duas matrizes inversas é a matriz identidade (elemento neutro da multiplicação entre matrizes). Uma matriz que possui inversa é dita inversível.

A condição necessária e suficiente para que uma matriz quadrada seja inversível é possuir um determinante não nulo, sendo que para uma dada matriz A, a matriz inversa é única. A necessidade de possuir determinante não nulo é evidente na equação \mathbf{A}^{-1} = \det(\mathbf{A})^{-1} \cdot \mbox{adj}(\mathbf{A}), pois nela o determinante da matriz original é denominador de uma fração.

Matriz transposta[editar | editar código-fonte]

A matriz transposta de uma matriz A_{m \times n} é a matriz A^\intercal_{n \times m} em que a^\intercal_{ij} = a_{ji}, ou seja, todos os elementos da primeira linha, tornar-se-ão elementos da primeira coluna, todos os elementos da segunda linha, tornar-se-ão elementos da segunda coluna, todos os elementos da linha n, tornar-se-ão elementos da coluna n. Exemplo: A = \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix}, A^\intercal = \begin{bmatrix} 1 & 4 \\ 2 & 5 \\ 3 & 6 \end{bmatrix}.

Matriz simétrica[editar | editar código-fonte]

Uma matriz A é simétrica se A = A^\intercal. Isso só ocorre com matrizes quadradas.

Um tipo especial de matriz simétrica é a matriz idempotente.

Matriz positiva/negativa (semi)definida[editar | editar código-fonte]

A classificação de uma matriz em positiva ou negativa definida ou semi-definida é similar à classificação dos números reais em positivos ou negativos.

Seja M uma matriz quadrada de dimensão n \times n e z um vetor não nulo (ou seja, que tenha pelo menos um elemento diferente de zero) de dimensão n \times 1. Note que se n=1, temos a definição de número real positivo ou negativo.

Tipo de matriz Semi-definida Definida
Positiva M positiva semidefinida se z^\intercal Mz \ge 0, \forall z \in \mathbb{R}^n M é positiva definida se z^\intercal Mz > 0, \forall z \in \mathbb{R}^n
Negativa M é negativa semidefinida se z^\intercal Mz \le 0, \forall z \in \mathbb{R}^n [1] M é negativa definida se zMz < 0, \forall z \in \mathbb{R}^n

Operações envolvendo matrizes[editar | editar código-fonte]

Não se define adição ou subtração de um número com uma matriz, e nem divisões envolvendo matrizes.

Multiplicação de um número real por uma matriz[editar | editar código-fonte]

A multiplicação de um número real por uma matriz é uma das operações mais simples que podem ser feitas com matrizes. Para multiplicar um número k real qualquer por uma matriz n \times m A, basta multiplicar cada elemento a_{ij} de A por k. Assim, a matriz resultante B será também n \times m e b_{ij} = k \cdot a_{ij}.[3] Com isso, pode-se pensar também na noção de dividir uma matriz por um número: basta multiplicá-la pelo inverso desse número. Mas essa noção pode ser perigosa: enquanto a multiplicação entre um número e uma matriz pode ser dita "comutativa", o mesmo não vale para a divisão, pois não se pode dividir um número por uma matriz.

Por exemplo:

2
  \begin{bmatrix}
    1 & 8 & -3 \\
    4 & -2 & 5
  \end{bmatrix}

=
  \begin{bmatrix}
    2\times 1 & 2\times 8 & 2\times -3 \\
    2\times 4 & 2\times -2 & 2\times 5
  \end{bmatrix}

=
  \begin{bmatrix}
    2 & 16 & -6 \\
    8 & -4 & 10
  \end{bmatrix}

Adição e subtração entre matrizes[editar | editar código-fonte]

Dado as matrizes A e B do tipo m por n, sua soma A + B é a matriz m por n computada adicionando os elementos correspondentes:[4]

(A + B)[i, j] = A[i, j] + B[i, j].

Por exemplo:


  \begin{bmatrix}
    1 & 3 & 2 \\
    1 & 0 & 0 \\
    1 & 2 & 2
  \end{bmatrix}
+
  \begin{bmatrix}
    0 & 0 & 5 \\
    7 & 5 & 0 \\
    2 & 1 & 1
  \end{bmatrix}

=
  \begin{bmatrix}
    1+0 & 3+0 & 2+5 \\
    1+7 & 0+5 & 0+0 \\
    1+2 & 2+1 & 2+1
  \end{bmatrix}

=
  \begin{bmatrix}
    1 & 3 & 7 \\
    8 & 5 & 0 \\
    3 & 3 & 3
  \end{bmatrix}

Para melhorar a forma de calcular, você pode reescrever a segunda matriz, revertendo seus elementos, onde o elemento (-1) passará para (1) e o elemento (2) passará para (-2) e assim sucessivamente. Após feito isso, além de fazer A-B, você usará A+B.

Lembre-se: Você só pode fazer isso com uma matriz negativa, onde recebe o sinal negativo, por exemplo: em -A+B, o A que poderá ser reescrito.

Multiplicação de matrizes[editar | editar código-fonte]

Multiplicação de duas matrizes é bem definida apenas se o número de colunas da matriz da esquerda é o mesmo número de linhas da matriz da direita. Se A é uma matriz m por n e B é uma matriz n por p, então seu produto AB é a matriz m por p (m linhas e p colunas) dada por:[5]

 (AB)[i,j] = A[i,1]  B[1,j] + A[i,2]  B[2,j] + ... + A[i,n]  B[n,j]

para cada par i e j.

Por exemplo:


  \begin{bmatrix}
    1 & 0 & 2 \\
    -1 & 3 & 1 \\
  \end{bmatrix}
\times
  \begin{bmatrix}
    3 & 1 \\
    2 & 1 \\
    1 & 0
  \end{bmatrix}

=
  \begin{bmatrix}
     (1 \times 3  +  0 \times 2  +  2 \times 1) & (1 \times 1   +   0 \times 1   +   2 \times 0) \\
    (-1 \times 3  +  3 \times 2  +  1 \times 1) & (-1 \times 1   +   3 \times 1   +   1 \times 0) \\
  \end{bmatrix}

=
  \begin{bmatrix}
    5 & 1 \\
    4 & 2 \\
  \end{bmatrix}

É importante notar que a multiplicação de matrizes não é comutativa, isto é, existem matrizes A e B tais que AB \not = BA.


Propriedades[editar | editar código-fonte]

Determinante[editar | editar código-fonte]

O determinante é uma propriedade matricial útil na resolução de sistema de equações lineares (que sempre podem ser representados através de matrizes), além de outras aplicações matemáticas.

Transposta da multiplicação[editar | editar código-fonte]

Para respeitar a correspondência entre linhas e colunas de uma multiplicação, a transposta de uma multiplicação de matrizes é dada como a transposta de cada matriz multiplicada na ordem inversa.

Para o caso de duas matrizes:

(A \cdot B)^\intercal = B^\intercal \cdot A^\intercal

No caso de várias matrizes:

(A \cdot B \cdot C \cdot \ldots \cdot N)^\intercal = N^\intercal \cdot \ldots \cdot B^\intercal \cdot A^\intercal.

Característica[editar | editar código-fonte]

A característica ou posto de uma matriz é um inteiro não negativo que representa o número máximo de linhas (ou colunas) da matriz que são linearmente independentes.[6]

Ver também[editar | editar código-fonte]

Outros projetos Wikimedia também contêm material sobre este tema:
Wikilivros Livros e manuais no Wikilivros
  • O conjunto das matrizes n \times m sobre um corpo F com as operações de soma de matrizes e multiplicação de escalar por matriz forma um espaço vetorial de dimensão nm sobre F.
  • O espaço vetorial das matrizes n \times n sobre um corpo F com a operação de multiplicação de matrizes forma uma álgebra associativa com elemento identidade sobre o corpo F.
  • O conceito de matriz pode ser generalizado para o de tensor. Assim como uma matriz m \times n representa uma transformação linear de um espaço de dimensão n em um espaço de dimensão m, um tensor representa uma transformação n-linear que leva n_1 vetores em n_2.

Referências

  1. a b c MAS-COLELL, Andreu; WHINSTON, Michael e GREEN, Jerry. Microeconomic Theory. Oxford University press, 1995. Section M.D matrices: Negative (Semi)Definiteness and Other properties, página 936.
  2. Callioli, Domingues & Costa, 1990, p. 27
  3. Callioli, Domingues & Costa, 1990, p. 19-20
  4. Callioli, Domingues & Costa, 1990, p. 18
  5. Callioli, Domingues & Costa, 1990, p. 20
  6. Condensação e característica de uma matriz, Universidade dos Açores
  • Callioli, Carlos A.; Hygino H. Domingues; Roberto C. F. Costa. Álgebra Linear e Aplicações. 6 ed. São Paulo: Atual, 1990. ISBN 9788570562975