Método das diferenças finitas

Origem: Wikipédia, a enciclopédia livre.

O método das diferenças finitas (MDF) é um método de resolução de equações diferenciais que se baseia na aproximação de derivadas por diferenças finitas. A fórmula de aproximação obtém-se da série de Taylor da função derivada.[1] Hoje, os MDFs são a abordagem dominante das soluções numéricas de equações diferenciais parciais.[2]

O operador de diferenças finitas para derivada pode ser obtido a partir da série de Taylor para as seguintes funções:

Portanto, a derivada primeira pode ser escrita de três formas distintas como uma diferença-quociente mais um termo de erro, obtido ao desprezar-se termos de ordem superior :

, que é conhecida como fórmula das diferenças progressivas, ou
, que é conhecida como fórmula das diferenças regressivas, ou ainda
, que é conhecida como fórmula das diferenças centradas.
Além disso, é possível obter derivadas de ordem superior. A derivada de segunda ordem é obtida a partir de

e é dada por

Método das diferenças finitas para problemas lineares[editar | editar código-fonte]

A partir das aproximações por diferença-quociente para derivadas de qualquer ordem, é possível transformar equações diferenciais em problemas lineares. Para isso, é necessário ignorar o termo de erro e tornar um número muito pequeno, mas grande o suficiente para que não cause instabilidades nas aproximações das derivadas.

Resolução de problemas de contorno[editar | editar código-fonte]

Para uma equação diferencial do tipo , onde varia de até , e .

A equação é aproximada pelo método das diferenças finitas, com um erro de truncamento igual a , substituindo-se as derivadas pelas suas representações numéricas, que são dadas por:

Como é possível perceber, necessita-se definir um valor para . Este valor pode ser definido pela divisão do intervalo em que se está interessado para a resolução do problema em intervalos menores. Assim, o valor de é dado por: .

As extremidades destes subintervalos são dadas por , para .

Para a resolução do problema, o mesmo é escrito na forma , que após a substituição das derivadas, torna-se:

, para .

Como e , aquela equação pode ser reescrita como

.

Isolando os termos , e na fórmula acima, obtêm-se

A partir desta equação é possível resolver o sistema linear a partir de uma matriz de coeficientes que multiplica os valores de , sendo que a solução deste sistema é dada por . Esse sistema linear é representado a seguir.

Onde a aproximação para é dada pelos pontos que são solução do sistema .

Resolução de problemas de valor inicial e o método de Euler[editar | editar código-fonte]

A partir do método das diferenças finitas também é possível obter o método de Euler, que é usado para obter soluções de problemas de valor inicial bem-posto. Leonhard Euler (1707 - 1783) foi o primeiro matemático de sua época a apresentar o uso do método de diferenças finitas para encontrar aproximações de soluções de equações diferenciais. Entretanto, o método de Euler não é usado na prática, pois possui pouca precisão. Alternativamente a este, são utilizados com maior frequência o método de Euler modificado ou o método de Runge-Kutta para solução de problemas de valor inicial.

Para um dado problema de valor inicial bem posto

, , .

Divide-se o intervalo em subintervalos e define-se que , para . Onde é o espaçamento da malha.

A partir disto, temos que , para .

Aproximando a equação diferencial pelo método das diferenças finitas, desprezando-se o termo de erro, temos

, que é usada para

A equação acima é conhecida como equação de diferença associada ao método de Euler.

O sistema linear é inicializado com e é de fácil solução.

Método das diferenças finitas para problemas não lineares[editar | editar código-fonte]

O método das diferenças finitas é análogo ao utilizado para problemas lineares. Entretanto, é utilizado um processo iterativo para a obtenção da solução do problema, que não é linear.

Resolução de problemas de contorno não-lineares[editar | editar código-fonte]

Para um problema de contorno não-linear geral, dado por com variando de até , e sendo as condições de contorno e ,

há garantia de solução única se as seguintes condições forem satisfeitas.

  • e suas derivadas parciais em relação a e são contínuas em { - < < , - < < };
  • > , para um certo >  ;
  • Existem constantes e tais que: é o valor máximo que o módulo da derivada parcial de em relação a atinge em e é o valor máximo que o módulo da derivada parcial de em relação a atinge em .

Como no caso anterior, a aproximação para a equação é obtida quando os termos de erro são desprezados.

Assim, torna-se , que com a mesma divisão em intervalos anterior, é dada por , para .

As condições de contorno são e .

A partir da equação , para e das condições de contorno, obtemos um sistema não linear que pode ser resolvido via Método de Newton para sistemas não-lineares. Sendo que o sistema terá solução única se < . Se a aproximação inicial utilizada no método de Newton for suficientemente próxima da solução e se a matriz Jacobiana do sistema for não-singular, o sistema converge para a solução exata.

Referências

  1. Richard L. Burden; J. Douglas Faires. Análise Numérica, Editora CENGAGE Learning, 8° edição. [S.l.: s.n.] 
  2. Christian Grossmann; Hans-G. Roos; Martin Stynes (2007). Numerical Treatment of Partial Differential Equations. [S.l.]: Springer Science & Business Media. p. 23. ISBN 978-3-540-71584-9 

Ver também[editar | editar código-fonte]

Ícone de esboço Este artigo sobre matemática é um esboço. Você pode ajudar a Wikipédia expandindo-o.