Sistema de equações lineares

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa

Um sistema de equações lineares (abreviadamente, sistema linear) é um conjunto finito de equações lineares aplicadas num mesmo conjunto, igualmente finito, de variáveis[1] .

Deve-se observar que, em primeiro lugar, a equação linear é, necessariamente, uma equação polinomial. Em matemática pura, a teoria de sistemas lineares é um ramo da álgebra linear. Também na matemática aplicada, podemos encontrar vários usos dos sistemas lineares. Exemplos são a física, a economia, a engenharia, a biologia, a geografia, a navegação, a aviação, a cartografia, a demografia, a astronomia[2] .

Algoritmos computacionais para achar soluções são hoje uma parte importante da álgebra linear aplicada. Tais métodos têm uma grande importância para tornar mais eficientes e rápidas as soluções dos sistemas[3] .

O sistema linear também pode ser conceituado como um sistema de equações do primeiro grau, ou seja, um sistema no qual as equações possuem apenas polinômios em que cada parcela tem apenas uma incógnita. Em outras palavras, num sistema linear, não há potência diferente de um ou zero tampouco pode haver multiplicação entre incógnitas.

Em contraponto aos sistemas lineares, há os sistemas não lineares, que são simplesmente sistemas de equações que não cumprem os requisitos para a linearidade. Um sistema de equações não-lineares pode ser resolvido, dentre outras técnicas, por aproximação para um sistema linear, uma técnica útil quando se usa a solução computadorizada. Para tal aproximação, se usa a teoria das sequências.

Conceito[editar | editar código-fonte]

O sistema linear está ligado de certo modo à álgebra linear e o entendimento mais profundo dos sistemas é dependente do domínio desta matéria[4] .

Sendo assim, é importante o entendimento dos espaços vetoriais, dos isomorfismos, das transformações lineares, da interpolação de Lagrange, da decomposição de um polinômio em fatores primos, de anéis comutativos, do teorema da decomposição primária, da forma de Jordan e das formas bilineares.

Um sistema linear, partindo da premissa de que tem resultado existente e determinado e não há dependência entre as equações, deve ter o mesmo número de equações e de incógnitas. O número de variáveis (incógnitas) também é chamado de quantidade de dimensões do problema. O número de dimensões está relacionado ao espaço vetorial. Por outro lado, os números que são subsumidos às incógnitas das equações podem ser de vários universos. Em geral, se resolvem sistemas para números reais, mas também existem sistemas para números complexos e ainda para outros tipos de números. Assim, para n dimensões no conjunto dos números reais, diz-se que se trabalha no conjunto n.

Para que o resultado de um sistema seja existente e determinado, não pode haver redundância, o que é chamado também dependência entre as matrizes que representam as equações.

Histórico[editar | editar código-fonte]

A história dos sistemas de equações lineares começa no oriente. Em 1683, num trabalho do japonês Seki Kowa, surge a ideia de determinante[5] (como polinômio que se associa a um quadrado de números).

O uso de determinantes no Ocidente começou dez anos depois num trabalho de Leibniz, ligado também a sistemas lineares.

A conhecida regra de Cramer é na verdade uma descoberta do escocês Colin Maclaurin (1698-1746), datando provavelmente de 1729, embora só publicada postumamente em 1748 no seu Treatise of algebra.

O suíço Gabriel Cramer (1704-1752) não aparece nesse episódio de maneira totalmente gratuita. Cramer também chegou à regra independentemente.

O francês Étienne Bézout (1730-1783), autor de textos matemáticos de sucesso em seu tempo, tratou do assunto, sendo complementado posteriormente por Laplace, em Pesquisas sobre o cálculo integral e o sistema do mundo.

O termo determinante, com o sentido atual, surgiu em 1812 num trabalho de Cauchy sobre o assunto. Neste artigo, apresentado à Academia de Ciências, sugeriu a notação que hoje é aceita como convenção.

Já o alemão Jacobi fez a leitura dessa teoria da forma como atualmente se estuda.

Técnicas de resolução[editar | editar código-fonte]

Existem vários métodos equivalentes de resolução de sistemas.

Método da substituição[editar | editar código-fonte]

O método da substituição consiste em isolar uma incógnita em qualquer uma das equações, obtendo igualdade com um polinômio. Então deve-se substituir essa mesma incógnita em outra das equações pelo polinômio ao qual ela foi igualada.

Método da comparação[editar | editar código-fonte]

Consiste em compararmos as duas equações do sistema, após termos isolado a mesma variável (x ou y) nas duas equações. e as equações ficam mais detalhadas.

Fatorizações de matrizes[editar | editar código-fonte]

Os métodos mais utilizados computacionalmente para resolver sistemas lineares envolvem fatorizações de matrizes. O mais conhecido, a eliminação de Gauss, origina a fatoração LU. Resolver o sistema Ax=b é equivalente a resolver os sistemas mais simples Ly=b e Ux=6.

Regra de Cramer[editar | editar código-fonte]

A Regra de Cramer é uma fórmula explícita para a solução de um sistema de equações lineares, com cada variável dada por um quociente de dois determinantes. Por exemplo, a solução para o sistema

\begin{alignat}{7}
 x &\; + &\; 3y &\; - &\; 2z &\; = &\; 5 \\
3x &\; + &\; 5y &\; + &\; 6z &\; = &\; 7 \\
2x &\; + &\; 4y &\; + &\; 3z &\; = &\; 8 
\end{alignat}

é dada pela


x=\frac
{\,\left| \begin{matrix}5&3&-2\\7&5&6\\8&4&3\end{matrix} \right|\,}
{\,\left| \begin{matrix}1&3&-2\\3&5&6\\2&4&3\end{matrix} \right|\,}
,\;\;\;\;y=\frac
{\,\left| \begin{matrix}1&5&-2\\3&7&6\\2&8&3\end{matrix} \right|\,}
{\,\left| \begin{matrix}1&3&-2\\3&5&6\\2&4&3\end{matrix} \right|\,}
,\;\;\;\;z=\frac
{\,\left| \begin{matrix}1&3&5\\3&5&7\\2&4&8\end{matrix} \right|\,}
{\,\left| \begin{matrix}1&3&-2\\3&5&6\\2&4&3\end{matrix} \right|\,}.

Para cada variável, o denominador é a determinante da matriz de coeficientes, enquanto o numerador é o determinante de uma matriz na qual cada coluna foi substituída pelo vetor de termos constantes.

Embora a regra de Cramer é importante teoricamente, tem pouco valor prático para grandes matrizes, uma vez que o cálculo de grandes determinantes é um pouco complicado. (Na verdade, grandes determinantes são mais facilmente calculados usando a Eliminação de Gauss.)

Além disso, a regra de Cramer tem pobres propriedades numéricas, tornando-a inadequada para resolver até mesmo pequenos sistemas de forma confiável, a menos que as operações forem executadas em aritmética racional com precisão ilimitada.

Ligações externas[editar | editar código-fonte]

  1. Poole, David. Álgebra linear. 1. ed. São Paulo: Pioneira Thompson Learning, 2005.
  2. Aberdeen, Stan. Use of Linear Equations Ehow. Visitado em 16 de janeiro de 2012.
  3. Calculadora online que soluciona sistemas de equações lineares.
  4. Hoffman, Kenneth; Kunze, Ray. Álgebra Linear. 1. ed. São Paulo: Polígono, 1971.
  5. Domingues, Hygino H.. Origem dos Sistemas Lineares e Determinantes Só Matemática. Visitado em 16 de janeiro de 2012.