Sistema de equações diferenciais

Origem: Wikipédia, a enciclopédia livre.

Em situações reais sobre quantidade da vida e sua taxa de variação depende mais de uma variável. Por exemplo, a população de coelhos, embora possa ser representado por um número único, depende do tamanho das populações de predadores e a disponibilidade de alimento. Para representar e estudar esses problemas complicados, precisamos usar mais de uma variável dependente e mais de uma equação. Sistemas de equações diferenciais são as ferramentas para se usar. Tal como acontece com equações diferenciais de primeira ordem.[1]

Propriedades[editar | editar código-fonte]

Um sistema de equações diferenciais de primeira ordem é um conjunto de equações diferenciais, com uma variável independente e variáveis dependentes , que podem ser escritas da seguinte forma

onde são quaisquer funções de variáveis reais, que definem o sistema. Não será necessário considerar sistemas de equações de ordem superior a 1, devido a que se alguma das equações diferencias for de ordem superior, poderá ser escrita como um sistema de equações de primeira ordem como veremos no exemplo que se segue.[1].

Exemplo

Escreva a equação diferencial de segunda ordem

como um sistema de equações de primeira ordem.

Podemos definir duas variáveis e , dependentes de , a partir da função e da sua derivada

a primeira definição é uma simples mudança do nome da variável, mas a segunda definição é uma equação diferencial de primeira ordem. Temos também uma segunda equação diferencial - a equação dada - que em termos das variáveis definidas é

O sistema de equações, escrito na forma padrão é

Como podemos ver, os sistemas de equações diferenciais de primeira ordem são muito importantes por incluir como casos particulares as equações diferencias de ordem superior e os sistemas delas. De fato, os métodos numéricos para resolver equações diferenciais de ordem superior baseiam-se, geralmente, na resolução de sistemas de equações de primeira ordem.[1]

O sistema de equações pode ser escrito numa forma mais compacta, usando a notação vetorial:


onde é um vetor com componentes, cada uma delas função de , e é um vetor com componentes, funções de , e .

Sistemas de equações lineares[editar | editar código-fonte]

Um caso especial e importante na teoria das equações diferenciais é quando o vetor de funções , no sistema de equações acima, tem a forma:

onde é uma matriz quadrada de funções que dependem unicamente de , é um vetor com componentes dependentes de , e optamos por trabalhar a representação dos vetores com matrizes com uma única coluna, ficando assim bem definido o produto entre uma matriz e um vetor (à direita da matriz) de dimensão , dando como resultado outro vetor da mesma dimensão.[1]

O sistema de equações diferenciais lineares é o sistema:

Quando os coeficientes da matriz sejam todos constantes, o sistema diz-se de coeficientes constantes; e quando o vetor seja nulo, o sistema será homogêneo.

Exemplo

Escreva o sistema de equações lineares, de coeficientes constantes,

na forma vetorial.

O sistema pode ser escrito assim:

Que tem a forma da equação, com vetor nulo e matriz igual a:

Método de eliminação[editar | editar código-fonte]

Um método para resolver sistemas de equações diferenciais consiste em usar das equações para eliminar das variáveis , na outra equação, ficando com uma equação diferencial ordinária para a função que não foi eliminada. A melhor forma de explicar o método é através de um exemplo. Consideremos o sistema e usemos a notação de Operador diferencial para representar as derivadas e :

onde é o operador que deriva em função do tempo a função que estiver à sua direita. O sistema de equações é reescrito então como:

Podemos tratar os operadores como polinômios da mesma forma que usamos polinômios de funções convencionais, assim, o sistema anterior pode ser visto como um sistema de duas equações, com duas incógnitas e e com coeficientes que dependem de

o sistema é, neste caso, homogêneo, mas para sistemas não homogêneos segue-se o mesmo procedimento, mantendo as funções de nos lados direitos, sendo consideradas como coeficientes que dependem de . Para eliminar no sistema anterior, multiplicamos a primeira equação por , e a somamos com a segunda equação:

o produto pode ser calculado como uma multiplicação convencional de polinômios, já que quando não há funções envolvidas não há perigo de trocar a ordem das funções e dos operadores

onde é a segunda derivada em relação ao tempo. [1]

Substituindo na equação, obtemos uma equação diferencial linear homogênea de segunda ordem

cuja equação característica é

,

logo, as raízes são e , portanto

.

Substituindo-se na primeira equação do sistema e isolando , obtemos

.

Atenção: Em exemplos mais complexos, cujos polinômios dos sistemas de equações formam matrizes com >1, o número de constantes livres encontradas na resolução do sistema de equações (neste exemplo representadas por e ) pode ser maior que o número de constantes que a resposta final deve conter. Trata-se de uma falha no método.

Nesses casos, a quantidade de constantes livres da resposta final será igual ao grau do polinômio formado pelo determinante da matriz dos polinômios . A determinação de quais constantes são na verdade dependentes (múltiplos) de outras se dará através da substituição das funções obtidas no sistema de equações original, a fim de se determinar possíveis relações entre as constantes.

O método de eliminação consiste realmente no processo inverso, quando transformamos uma equação de ordem superior num sistema de equações de primeira ordem. Existem sistemas de equações mais complicados, nos quais o método de eliminação não é útil; realmente o processo de eliminação de variáveis é igual do que num sistema de equações algébricas, e como o leitor deverá saber existem métodos simples para resolver sistemas de equações algébricas lineares, mas não existem métodos gerais para as equações não lineares. Inclusivamente no caso de sistemas lineares, quando o número de variáveis for elevado, a eliminação das variáveis pode tornar-se complicada; alguns dos métodos usados no caso de equações algébricas lineares, por exemplo a regra de Cramer, introduzem divisão por operadores que implicam ter que calcular o inverso de um operador diferencial, que não é uma tarefa fácil.

Método matricial[editar | editar código-fonte]

O método matricial é útil para resolver sistemas de equações lineares, de coeficientes constantes, homogêneos e com valores iniciais.[1] A forma geral desses sistemas é

onde o vetor constante dá o valor inicial do vetor , em .

Vamos encontrar a solução do sistema começando pelo caso mais simples , e generalizando o resultado para qualquer . No caso , a matriz e o vetor têm uma única componente, e o sistema é uma única equação diferencial:

onde é uma constante real. Já vimos vários métodos para resolver essa equação nos capítulos anteriores.[1] A solução é

A generalização para é fácil: substituímos pelo vetor , e pela matriz , mas para ser consistentes com a representação de vetores como matrizes de uma coluna, a constante deverá vir depois e não antes da função exponencial

Mas o que quer dizer a exponencial de uma matriz? Para o nosso objetivo deverá ser uma matriz que quando derivada em ordem a dá a mesma matriz multiplicada (à esquerda) por .

Partindo da definição do produto entre matrizes e de matrizes por números, podemos definir qualquer função analítica de uma matriz, generalizando a partir da série de McClaurin da função; nomeadamente,

onde é a matriz identidade, com 1 na diagonal e zero fora dela; a partir desta definição podemos demonstrar, derivando cada membro na série, que

Do ponto de vista prático, a série de McClaurin não é útil para calcular a matriz , pois inclusivamente o cálculo dos primeiros termos na série torna-se tedioso. Para calcular a solução do sistema , calcularemos primeiro um sistema de soluções particulares simples que formam uma base para o espaço vetorial das soluções e encontraremos as coordenadas da solução particular nessa base. Antes de abordar o problema são precisas algumas definições.

Autovetores e autovalores[editar | editar código-fonte]

Dada uma matriz de dimensões , Qualquer vetor de dimensão que verifique a propriedade

é designado vetor próprio, onde é um número designado valor próprio. A condição anterior não é trivial; implica que a multiplicação da matriz pelo vetor próprio dá um vetor que é paralelo ao próprio vetor.

Se for um vetor próprio, qualquer vetor na mesma direção () também será um vetor próprio, correspondente ao mesmo valor próprio; portanto, os vetores próprios correspondentes ao mesmo valor próprio formam um subespaço do espaço dos vetores de dimensão . O vetor nulo, , obviamente verifica a condição de vetor próprio para qualquer matriz e qualquer valor , mas não o consideraremos entre os vetores próprios. [1]

Também pode-se mostrar que dois vetores próprios correspondentes a valores próprios diferentes são linearmente independentes. Como o número máximo de vetores linearmente independentes é , o número máximo de valores próprios diferentes também será .

Para encontrar os vetores e valores próprios da matriz , re-escrevemos a equação numa outra forma

Este é um sistema de equações lineares, homogéneo. Para que existam soluções diferentes da solução trivial, é necessário que o determinante do sistema homogêneo seja igual a zero

esta condição é um polinômio de grau polinómio caraterístico da matriz) e poderá ter, no máximo, raízes (valores próprios) diferentes.

No caso de existirem raízes do polinômio caraterístico, reais e diferentes, os vetores próprios correspondentes a cada valor próprio formam subespaços de dimensão 1 (não podem ter dimensão maior), e escolhendo um vetor próprio por cada valor próprio obtemos uma base do espaço de dimensão . Quando existe uma raiz repetida vezes, os vetores próprios correspondentes a esse valor próprio formam um subespaço com dimensão compreendida entre 1 e ; se a dimensão for , será ainda possível selecionar vetores próprios linearmente independentes e completar a base de vetores próprios para o espaço todo. Para o nosso objetivo, no caso de valores próprios complexos será ainda possível selecionar um vetor por cada valor próprio, só que os vetores selecionados já não serão vetores próprios.[1]

Soluções fundamentais[editar | editar código-fonte]

Dado um vetor qualquer , o produto é uma solução particular do sistema

Se for um vetor próprio da matriz , a solução particular

designa-se solução fundamental. Dois vetores próprios linearmente independentes dão origem a duas soluções particulares linearmente independentes. Assim, quando existirem vetores próprios linearmente independentes, , as respetivas soluções, , constituirão um conjunto fundamental de soluções, e qualquer outra solução pode ser escrita como combinação linear das soluções fundamentais

Ou, em forma mais compacta

onde a matriz define-se como a matriz em que cada coluna é uma das soluções fundamentais , e as componentes do vetor são as constantes . As soluções fundamentais calculam-se facilmente a partir do seguinte teorema.

  • Se é um vetor próprio da matriz , correspondente ao valor próprio , então

Demonstração: usando a série de McClaurin da função , obtemos

aplicando vezes à equação que define o vetor próprio,

e substituindo na série anterior, chegamos ao resultado

O resultado do teorema anterior é importante porque permite substituir uma função matricial , por uma função ordinária ; é preciso ter em conta que a dita substituição é apenas possível quando a função estiver a multiplicar a um vetor próprio da matriz .

As componentes da matriz fundamental do sistema, , são funções do tempo. No instante , a solução deverá ser igual ao vetor de condições iniciais, , e cada solução fundamental é igual ao correspondente vetor próprio.

Substituindo na equação, obtemos um sistema linear de equações algébricas

onde a matriz é a matriz em que cada coluna é um dos vetores próprios . A resolução desse sistema permite encontrar as constantes

e a solução da equação é igual a

Comparando as duas últimas equações anteriores, que são duas formas diferentes de escrever a solução particular, válidas para qualquer vetor , obtemos um resultado importante

Esta equação permite calcular a exponencial de qualquer matriz , a partir dos seus vetores e valores próprios.

Valores próprios complexos[editar | editar código-fonte]

Quando existem valores próprios complexos, procuramos um vetor próprio complexo, , e as partes real () e imaginária desse vetor serão usados como vetores da base. [1]As correspondentes soluções fundamentais já não serão dadas pelo teorema visto na seção passada, pois os dois vetores não são vetores próprios, mas como sim é vetor próprio, usamos a equação

Comparando as partes reais e imaginárias nos dois lados da equação, é possível calcular as duas soluções fundamentais e .[1]

Exemplo[editar | editar código-fonte]

Encontre a solução geral do sistema de equações diferenciais , onde é a seguinte matriz:

O polinômio caraterístico é:

e, portanto, os valores próprios são

um vetor próprio () correspondente a obtém-se a partir da solução do sistema

e a solução particular correspondente a é

Outras duas soluções linearmente independentes podem ser obtidas a partir de ou . Para obtemos:

A partir de pode obter-se uma solução particular complexa:

As partes real e imaginária desta solução são também soluções, e junto com a solução obtida a partir de , constituem um conjunto fundamental de soluções do sistema:

A solução geral do sistema é qualquer combinação linear do conjunto fundamental de soluções:

Vetores próprios generalizados[editar | editar código-fonte]

Falta-nos considerar o caso em que aparecem raízes do polinômio caraterístico com multiplicidade . No caso das raízes não repetidas, o sistema de equações lineares que permitem calcular o vetor próprio correspondente é sempre um sistema com uma variável livre (subespaço de dimensão igual a um) que pode ser arbitrada. No caso da raiz de multiplicidade , o sistema de equações lineares que definem os vetores próprios poderá ter entre uma e variáveis livres. Se existirem variáveis livres, obtêm-se vetores próprios arbitrando valores linearmente independentes para elas (o mais fácil será usar conjuntos de variáveis onde unicamente uma delas é diferente de zero). [1]Se o sistema tiver menos do que variáveis livres, para completar vetores fundamentais usaremos vetores próprios generalizados.

Um vetor próprio generalizado da matriz , correspondente ao valor próprio e ao vetor próprio , é um vetor que verifica a seguinte condição

Para construir a solução fundamental correspondente a um vetor próprio generalizado, usa-se o seguinte teorema.[1]

Teorema

  • Se é um vetor próprio generalizado da matriz ,

correspondente ao valor próprio e ao vetor próprio , então

Demonstração: usando a série de McClaurin de ,

a partir da definição do vetor próprio generalizado, obtemos

e multiplicando repetidas vezes pela matriz vemos que

substituindo na série de McClaurin,

As duas séries dão o resultado que pretendemos encontrar.

O sistema que define os vetores generalizados poderá ter variáveis livres, dando origem a vários vetores próprios generalizados linearmente independentes, ou poderá não ter solução quando não existirem vetores próprios generalizados correspondentes a um determinado vetor próprio. Se depois de procurar vetores próprios generalizados não existirem suficientes vetores para completar uma base, será preciso procurar vetores próprios generalizados, de segunda ordem, que são vetores próprios generalizados, associados a um outro vetor próprio generalizado.[1]

Referências

  1. a b c d e f g h i j k l m n Villate, Jaime E. (2011). Equações Diferenciais e Equações de Diferenças (PDF). Porto: [s.n.] 120 páginas. Consultado em 22 de julho de 2013 

Ver também[editar | editar código-fonte]