Sistema de equações lineares

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa
Um sistema linear com três variáveis determina um conjunto de planos. O ponto de intersecção é a solução.

Em Matemática, um sistema de equações lineares (abreviadamente, sistema linear) é um conjunto finito de equações lineares aplicadas num mesmo conjunto, igualmente finito, de variáveis.[1] Por exemplo,

\begin{alignat}{7}
3x &&\; + \;&& 2y             &&\; - \;&& z  &&\; = \;&& 1 & \\
2x &&\; - \;&& 2y             &&\; + \;&& 4z &&\; = \;&& -2 & \\
-x &&\; + \;&& \tfrac{1}{2} y &&\; - \;&& z  &&\; = \;&& 0 &
\end{alignat}

é um sistema de três equações com três variáveis (x, y e z). Uma solução para um sistema linear é uma atribuição de números às variáveis que satisfaz simultaneamente todas as equações do sistema. Uma solução para o sistema acima é dada por

\begin{alignat}{2}
x &\,=\,& 1 \\
y &\,=\,& -2 \\
z &\,=\,& -2
\end{alignat}

já que esses valores tornam válidas as três equações do sistema em questão. A palavra "sistema" indica que as equações devem ser consideradas em conjunto, e não de forma individual.

Em Matemática, a teoria de sistemas lineares é a base e uma parte fundamental da álgebra linear, um tema que é usado na maior parte da matemática moderna. Deve-se observar que, em primeiro lugar, a equação linear é, necessariamente, uma equação polinomial. Também na matemática aplicada, podemos encontrar vários usos de sistemas lineares. Exemplos são a física, a economia, a engenharia, a biologia, a geografia, a navegação, a aviação, a cartografia, a demografia e a astronomia.[2]

Algoritmos computacionais são, por encontrar as soluções, uma parte importante da álgebra linear numérica, e desempenham um papel proeminente em engenharia, física, química, ciência da computação e economia. Tais métodos têm uma grande importância para tornar mais eficientes e rápidas as soluções dos sistemas.[3] Pode-se muitas vezes aproximar um sistema de equações não-lineares de um sistema linear (veja linearização), uma técnica útil ao fazer um modelo matemático ou simulação computacional de um sistema relativamente complexo. Para tal aproximação, se usa a teoria das sequências.

O sistema linear também pode ser conceituado como um sistema de equações do primeiro grau, ou seja, um sistema no qual as equações possuem apenas polinômios em que cada parcela tem apenas uma incógnita. Em outras palavras, num sistema linear, não há potência diferente de um ou zero e tampouco pode haver multiplicação entre incógnitas.

Muitas vezes, os coeficientes das equações são números reais ou complexos e as soluções são procuradas no mesmo conjunto de números, mas a teoria e os algoritmos aplicam os coeficientes e soluções em qualquer campo.

Exemplo básico[editar | editar código-fonte]

O tipo mais simples de sistema linear envolve duas equações e duas variáveis:

\begin{alignat}{5}
2x &&\; + \;&& 3y &&\; = \;&& 6 & \\
4x &&\; + \;&& 9y &&\; = \;&& 15&.
\end{alignat}

Um método para resolver tal sistema é do seguinte modo: em primeiro lugar, resolva a equação superior para x em termos de y:

x = 3 - \frac{3}{2}y.

Agora substitua essa expressão para x na equação inferior:

4\left( 3 - \frac{3}{2}y \right) + 9y = 15.

Isto resulta numa única equação envolvendo apenas a variável y. Resolvendo, obtemos y = 1, e voltando para a equação e substituindo y por seu valor (isto é, 1), vem que x = 3/2. Este método se generaliza para sistemas com variáveis adicionais (veja "eliminação de variáveis" abaixo, ou o artigo sobre álgebra elementar).

Forma geral[editar | editar código-fonte]

Um sistema geral de m equações lineares com n incógnitas pode ser escrito como:

\begin{alignat}{7}
a_{11} x_1 &&\; + \;&& a_{12} x_2   &&\; + \cdots + \;&& a_{1n} x_n &&\; = \;&&& b_1 \\
a_{21} x_1 &&\; + \;&& a_{22} x_2   &&\; + \cdots + \;&& a_{2n} x_n &&\; = \;&&& b_2 \\
\vdots\;\;\; &&     && \vdots\;\;\; &&                && \vdots\;\;\; &&     &&& \;\vdots \\
a_{m1} x_1 &&\; + \;&& a_{m2} x_2   &&\; + \cdots + \;&& a_{mn} x_n &&\; = \;&&& b_m. \\
\end{alignat}

Aqui, x_1, x_2,\ldots,x_n são as incógnitas, a_{11},a_{12},\ldots,a_{mn} são os coeficientes do sistema e b_1,b_2,\ldots,b_m são os termos constantes.[4]

Muitas vezes, os coeficientes e as incógnitas são números reais ou complexos, mas pode-se encontrar também números inteiros e racionais, já que são polinômios e elementos de uma estrutura algébrica abstrata.

Equação vetorial[editar | editar código-fonte]

Um ponto de vista extremamente útil é que cada incógnita é um peso para um vetor coluna em uma combinação linear.
 x_1 \begin{bmatrix}a_{11}\\a_{21}\\ \vdots \\a_{m1}\end{bmatrix} +
 x_2 \begin{bmatrix}a_{12}\\a_{22}\\ \vdots \\a_{m2}\end{bmatrix} +
 \cdots +
 x_n \begin{bmatrix}a_{1n}\\a_{2n}\\ \vdots \\a_{mn}\end{bmatrix}
 =
 \begin{bmatrix}b_1\\b_2\\ \vdots \\b_m\end{bmatrix}

Isso permite que seja exercida toda a linguagem e teoria dos espaços vetoriais (ou, mais geralmente, módulos). Por exemplo: o espaço vetorial gerado é o conjunto de todas as possíveis combinações lineares dos vetores sobre o lado esquerdo, e as equações têm uma solução apenas quando o vetor da mão direita se encontra nesse espaço vetorial gerado. Se cada vetor desse espaço vetorial gerado tem exatamente uma expressão como uma combinação linear dos vetores dados à esquerda, então qualquer solução é única. De qualquer maneira, o espaço vetorial gerado tem uma base de vetores linearmente independentes que garantem exatamente uma expressão; e o número de vetores nessa base (a sua dimensão) não pode ser maior do que m ou n, mas pode ser menor. Isto é importante porque, se tivermos m vetores independentes, a solução é garantida, independentemente do lado direito, o que não ocorre de outra forma.

Equação matricial[editar | editar código-fonte]

A equação vetorial é equivalente a uma equação matricial da forma

A\bold{x}=\bold{b}

onde A é uma matriz m×n, x é um vetor coluna com n elementos e b é um vetor coluna com m elementos.


A=
\begin{bmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{m1} & a_{m2} & \cdots & a_{mn}
\end{bmatrix},\quad
\bold{x}=
\begin{bmatrix}
x_1 \\
x_2 \\
\vdots \\
x_n
\end{bmatrix},\quad
\bold{b}=
\begin{bmatrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{bmatrix}

Agora, o número de vetores em uma base para o espaço vetorial gerado é expresso como o posto da matriz.

Conceito[editar | editar código-fonte]

O sistema linear está ligado de certo modo à álgebra linear e o entendimento mais profundo dos sistemas é dependente do domínio desta matéria[5] .

Sendo assim, é importante o entendimento dos espaços vetoriais, dos isomorfismos, das transformações lineares, da interpolação de Lagrange, da decomposição de um polinômio em fatores primos, de anéis comutativos, do teorema da decomposição primária, da forma de Jordan e das formas bilineares.

Um sistema linear, partindo da premissa de que tem resultado existente e determinado e não há dependência entre as equações, deve ter o mesmo número de equações e de incógnitas. O número de variáveis (incógnitas) também é chamado de quantidade de dimensões do problema. O número de dimensões está relacionado ao espaço vetorial. Por outro lado, os números que são subsumidos às incógnitas das equações podem ser de vários universos. Em geral, se resolvem sistemas para números reais, mas também existem sistemas para números complexos e ainda para outros tipos de números. Assim, para n dimensões no conjunto dos números reais, diz-se que se trabalha no conjunto n.

Para que o resultado de um sistema seja existente e determinado, não pode haver redundância, o que é chamado também dependência entre as matrizes que representam as equações.

Histórico[editar | editar código-fonte]

A história dos sistemas de equações lineares começa no oriente. Em 1683, num trabalho do japonês Seki Kowa, surge a ideia de determinante[6] (como polinômio que se associa a um quadrado de números).

O uso de determinantes no Ocidente começou dez anos depois num trabalho de Leibniz, ligado também a sistemas lineares.

A conhecida regra de Cramer é na verdade uma descoberta do escocês Colin Maclaurin (1698-1746), datando provavelmente de 1729, embora só publicada postumamente em 1748 no seu Treatise of algebra.

O suíço Gabriel Cramer (1704-1752) não aparece nesse episódio de maneira totalmente gratuita. Cramer também chegou à regra independentemente.

O francês Étienne Bézout (1730-1783), autor de textos matemáticos de sucesso em seu tempo, tratou do assunto, sendo complementado posteriormente por Laplace, em Pesquisas sobre o cálculo integral e o sistema do mundo.

O termo determinante, com o sentido atual, surgiu em 1812 num trabalho de Cauchy sobre o assunto. Neste artigo, apresentado à Academia de Ciências, sugeriu a notação que hoje é aceita como convenção.

Já o alemão Jacobi fez a leitura dessa teoria da forma como atualmente se estuda.

Solução[editar | editar código-fonte]

A solução de um sistema linear é a atribuição de valores às variáveris x1, x2, ..., xn de modo a satisfazer ambas equações. O grupo de todas as sluções possíveis é chamado de conjunto-solução.[7]

Um sistema linear pode comportar-se em qualquer uma das três formas possíveis: [8] [9]

Sistema Determinado – SD

É o sistema que possui ao menos uma única solução possível. Esse sistema pode ser chamado de sistema possível e suas equações de equações compatíveis.

Sistema Possível Indeterminado – SID

É o sistema que possui múltiplas soluções.

Sistema Impossível – SI

É o sistema que não admite uma solução, sendo designado por sistema impossível e suas equações como equações incompatíveis.

Técnicas de resolução[editar | editar código-fonte]

Existem vários métodos equivalentes de resolução de sistemas.

Método da substituição[editar | editar código-fonte]

O método da substituição consiste em isolar uma incógnita em qualquer uma das equações, obtendo igualdade com um polinômio. Então deve-se substituir essa mesma incógnita em outra das equações pelo polinômio ao qual ela foi igualada.

Método da comparação[editar | editar código-fonte]

Consiste em compararmos as duas equações do sistema, após termos isolado a mesma variável (x ou y) nas duas equações. e as equações ficam mais detalhadas.

Fatorizações de matrizes[editar | editar código-fonte]

Os métodos mais utilizados computacionalmente para resolver sistemas lineares envolvem fatorizações de matrizes. O mais conhecido, a eliminação de Gauss, origina a fatoração LU. Resolver o sistema Ax=b é equivalente a resolver os sistemas mais simples Ly=b e Ux=6.

Regra de Cramer[editar | editar código-fonte]

A Regra de Cramer é uma fórmula explícita para a solução de um sistema de equações lineares, com cada variável dada por um quociente de dois determinantes. Por exemplo, a solução para o sistema

\begin{alignat}{7}
 x &\; + &\; 3y &\; - &\; 2z &\; = &\; 5 \\
3x &\; + &\; 5y &\; + &\; 6z &\; = &\; 7 \\
2x &\; + &\; 4y &\; + &\; 3z &\; = &\; 8 
\end{alignat}

é dada pela


x=\frac
{\,\left| \begin{matrix}5&3&-2\\7&5&6\\8&4&3\end{matrix} \right|\,}
{\,\left| \begin{matrix}1&3&-2\\3&5&6\\2&4&3\end{matrix} \right|\,}
,\;\;\;\;y=\frac
{\,\left| \begin{matrix}1&5&-2\\3&7&6\\2&8&3\end{matrix} \right|\,}
{\,\left| \begin{matrix}1&3&-2\\3&5&6\\2&4&3\end{matrix} \right|\,}
,\;\;\;\;z=\frac
{\,\left| \begin{matrix}1&3&5\\3&5&7\\2&4&8\end{matrix} \right|\,}
{\,\left| \begin{matrix}1&3&-2\\3&5&6\\2&4&3\end{matrix} \right|\,}.

Para cada variável, o denominador é a determinante da matriz de coeficientes, enquanto o numerador é o determinante de uma matriz na qual cada coluna foi substituída pelo vetor de termos constantes.

Embora a regra de Cramer é importante teoricamente, tem pouco valor prático para grandes matrizes, uma vez que o cálculo de grandes determinantes é um pouco complicado. (Na verdade, grandes determinantes são mais facilmente calculados usando a Eliminação de Gauss.)

Além disso, a regra de Cramer tem pobres propriedades numéricas, tornando-a inadequada para resolver até mesmo pequenos sistemas de forma confiável, a menos que as operações forem executadas em aritmética racional com precisão ilimitada.

Referências

  1. Poole, David. Álgebra linear. 1 ed. São Paulo: Pioneira Thompson Learning, 2005.
  2. Aberdeen, Stan. Use of Linear Equations Ehow. Visitado em 16 de janeiro de 2012.
  3. Calculadora online que soluciona sistemas de equações lineares.
  4. Giovanni, José Ruy. 3. Matemática completa. São Paulo: FTD, 2002. Capítulo: 14. , 592 p. p. 199. ISBN 85-322-4827-6
  5. Hoffman, Kenneth; Kunze, Ray. Álgebra Linear. 1 ed. São Paulo: Polígono, 1971.
  6. Domingues, Hygino H.. Origem dos Sistemas Lineares e Determinantes Só Matemática. Visitado em 16 de janeiro de 2012.
  7. Howard Anton; Robert C. Busby (2006). Algebra Linear Contemporânea. Bookman. p. 70. ISBN 978-85-7780-091-9.
  8. José A. Trigo Barbosa. Noções sobre Matrizes e Sistemas de Equações Lineares,2a edição. FEUP edições. p. 25. ISBN 978-972-752-137-1.
  9. Isabel Cabral; Cecília Perdigão; Carlos Saiago. Álgebra linear: teoria, exercícios resolvidos e exercícios propostos com soluções. Escolar Editora. p. 88. ISBN 978-972-592-239-2.

Ligações externas[editar | editar código-fonte]