Princípio mínimo de Pontryagin
Princípio mínimo de Pontryagin (ou máximo) é utilizado na teoria controle otimizado[nota 1] para encontrar o melhor controle possível para a tomada de sistemas dinâmicos[nota 2] de um estado para outro, especialmente na presença de restrições para os controles de estado ou de entrada. O princípio foi formulada pelo matemático russo Lev Semenovich Pontryagin e seus alunos. Ele tem como um caso especial da equação do cálculo das variações de Euler-Lagrange[nota 3]. O princípio afirma, informalmente, que o Hamiltoniano[nota 4] deve ser minimizado sobre , o conjunto de todos os controles permitidos. Se é o controle ideal para o problema, então o princípio afirma que:
onde é o estado ideal de trajetória e é o coestado[nota 5] ideal de trajetória. [1] O resultado foi aplicado com sucesso em problemas de tempo mínimo onde o controle de entrada é restringido, mas pode também ser útil no estudo de problemas estado limitado. Condições especiais para o Hamiltoniano também podem ser derivadas. Quando o tempo final é fixo e o Hamiltoniano não depende explicitamente do tempo , então:
e se o tempo final é livre, então:
Quando satisfeito ao longo de uma trajetória, o princípio mínimo de Pontryagin é uma condição necessária para um ótimo. A equação HJB[nota 6] fornece condições suficientes para um ótimo, mas essa condição deve ser satisfeita sobre a totalidade do estado do espaço.[2]
Maximização e minimização
[editar | editar código-fonte]O princípio foi inicialmente conhecido como princípio máximo de Pontryagin e sua prova é historicamente baseado na maximização do Hamiltoniano. A aplicação inicial desse princípio foi para a maximização da velocidade terminal de um foguete. Contudo, como foi subsequentemente utilizado principalmente para minimização do índice de desempenho foi então referido como o princípio mínimo. O livro Pontryagin resolveu o problema de minimizar um índice de desempenho.[3]
Anotação
[editar | editar código-fonte]No que segue estaremos fazendo uso da anotação abaixo.
Ver também
[editar | editar código-fonte]- Multiplicadores de Lagrange
- Método do gradiente conjugado
- Sistema hamiltoniano
- Equação de Hamilton–Jacobi
Notas
- ↑ A teoria do ótimo controle, uma extensão do cálculo das variações, é um método de otimização matemática para derivar políticas de controle. O método é em grande parte devido ao trabalho de Lev Pontryagin e seus colaboradores na União Soviética e Richard Bellman.
- ↑ O atractor de Lorenz é um exemplo de sistema dinâmico não-linear. O estudo deste sistema incentivou a criação da teoria do Caos.
- ↑ Em condições ideais, os valores máximo e mínimo de uma dada função podem ser localizados ao encontrar os pontos onde sua derivada desaparece (ou seja, é igual a zero). Por analogia, as soluções de simples problemas variacionais podem ser obtidos resolvendo a associada equação de Euler-Lagrange.
- ↑ A teoria de controle ótimo hamiltoniano foi desenvolvida por Lev Pontryagin como parte de seu princípio mínimo. A teoria foi inspirada, mas é diferente da mecânica hamiltoniana clássica.
- ↑ Equações Coestado estão relacionados às equações de estado utilizadas no controle ideal. Elas são apresentadas como um vetor de equações diferenciais de primeira ordem com o lado direito sendo o vetor de derivadas parciais do negativo do Hamiltoniano no que diz respeito àos estados variáveis.
- ↑ A equação de Hamilton-Jacobi-Bellman é uma equação de derivadas parciais(EDP)que é fundamental para a teoria do controle ótimo ou otimizado. A solução da equação HJB é a "função de valor", que dá a relação custo-para-ir ótimo para um dado sistema dinâmico com uma associada função de custo.
Referências
- ↑ O controlo óptimo e as suas múltiplas aplicações por Cristiana J. Silva - Boletim da SPM 61, Outubro 2009, pp. 11–37 [[1]]
- ↑ Pontryagin, L.S. et al. The Mathematical Theory of Optimal Processes, vol. 4. Interscience, 1962. Translation of a Russian book. ISBN 2881240771 and ISBN 978-2881240775
- ↑ See p.13 of the 1962 book of Pontryagin et al. referenced below.