Hessiano

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa

Em matemática, a matriz Hessiana de uma função "f" de n variáveis é a matriz quadrada com "n" colunas e "n" linhas (n X n) das derivadas parciais de segunda ordem da função. Por isto, esta matriz descreve a curvatura local da função "f". Matrizes Hessianas são usadas em larga escala em problemas de otimização que não usam métodos Newtonianos.

A matriz hessiana foi desenvolvida no século XIX pelo alemão Ludwig Otto Hesse, razão porque mais tarde James Joseph Sylvester lhe deu este nome. O próprio Hesse, ao contrário, usava o termo "determinantes funcionais".

Definição formal em termos matemáticos[editar | editar código-fonte]

Dada uma função real de n variáveis reais

f(\mathbf{x})=f({x_1}, {x_2}, {x_3} ..., x_n), sendo que x (em negrito) indica o vetor de dimensão nX1 das variáveis {x_1}, {x_2}, {x_3} ..., x_n.

Lembre-se da notação para as derivadas parciais da função em relação às variáveis:

Em linguagem matemática Em Português Exemplo: função com n=2: f(\mathbf{x})=f \left ( {x_1}, {x_2} \right )=2{x_1}{x_2}^3
\frac{\partial f}{\partial {x_1}} derivada parcial de primeira ordem da função "f" em relação a uma variável {x_1} \frac{\partial f}{\partial {x_1}}=\frac{\partial \left( 2{x_1}{x_2}^3 \right )}{\partial {x_1}}=2{x_2}^3
\frac {\partial}{\partial {x_1}} \left( \frac { \partial f }{ \partial {x_2}} \right)=\frac{\partial^2 f}{\partial {x_1}\,\partial {x_2}} A derivada da derivada (=derivada de segunda ordem): primeiro tomou-se a derivada da função "f" em relação à variável {x_1} e depois derivou-se esta derivada em relação à variável {x_2}[1] . \frac{\partial^2 f}{\partial {x_1}\,\partial {x_2}}=\frac{\partial \left ( 2{x_2}^3 \right )}{\partial \partial {x_2}}=6{x_2}^2

Se todas as derivadas parciais de "f" existirem, então a matriz hessiana de f é a matriz quadrada das derivadas de segunda ordem de f:[2]

H \left [ f({x_1}, {x_2}, {x_3}, ..., x_n) \right]  = \begin{bmatrix}

\frac{\partial^2 f}{\partial {x_1}^2} & \frac{\partial^2 f}{\partial {x_1}\,\partial {x_2}} & \cdots & \frac{\partial^2 f}{\partial {x_1}\,\partial x_n} \\  \\

\frac{\partial^2 f}{\partial {x_2}\,\partial {x_1}} & \frac{\partial^2 f}{\partial {x_2}^2} & \cdots & \frac{\partial^2 f}{\partial {x_2}\,\partial x_n} \\  \\

\vdots & \vdots & \ddots & \vdots \\ \\

\frac{\partial^2 f}{\partial x_n\,\partial {x_1}} & \frac{\partial^2 f}{\partial x_n\,\partial {x_2}} & \cdots & \frac{\partial^2 f}{\partial x_n^2}
\end{bmatrix}

Uma outra definição equivalente é: dado o vetor gradiente nX1, a matriz hessiana é sua derivada[3] . Por isso, há outras representações para a mesma matriz hessiana H acima:

H=D \left [\nabla f \left ( \mathbf{x} \right ) \right ] =D^2f_\mathbf{x}=D^2f \left ( \mathbf{x} \right )=\frac{\partial^2 f}{\partial (\mathbf{x})}(\mathbf{x})[4] [5]

Propriedades da matriz hessiana[editar | editar código-fonte]

\frac {\partial}{\partial {x_1}} \left( \frac { \partial f }{ \partial {x_2}} \right)= \frac{\partial^2 f}{\partial {x_1}\,\partial {x_2}} =\frac {\partial}{\partial {x_2}} \left( \frac { \partial f }{ \partial {x_1}} \right)= \frac{\partial^2 f}{\partial {x_2}\,\partial {x_1}}

Para variáveis genéricas xi e xj, esta igualdade pode ser rescrita como:

\partial_{x_ix_j} f = \partial_{x_jx_i} f

Pontos Críticos e Discriminante[editar | editar código-fonte]

Se o gradiente da função f é zero em um ponto x que pertence ao domínio da função, então f em x possui um ponto crítico. O determinante do hessiano em x é chamado de discriminante em x. Se este determinante for zero, x será chamado de ponto crítico degenerado de f. Do contrário, o ponto não será degenerado.

Concavidade de funções[editar | editar código-fonte]

A matriz hessiana é útil para identificar a concavidade de funções duas vezes diferenciáveis. Seja f \left ( x_1, x_2, ..., x_n \right ) uma função de n variáveis com derivadas parciais de primeira e segunda ordem contínuas em um conjunto convexo aberto S.

  • A função é côncava (e portanto semicôncava também) se e somente se a matriz hessiana for semidefinida negativa
  • Se a matriz hessiana for é definida negativa, então a função é estritamente côncava. Isso não significa, no entanto, que se a função for estritamente côncava, então H(f) é negativa definida para todo x pertencente a S [7] .
  • Se a matriz hessiana for é definida positiva, então a função é estritamente convexa
  • A função é convexa se a matriz hessiana é semidefinida positiva
Propriedade da função Propriedade da matriz hessiana
Semidefinida Definida
Positiva Negativa Positiva Negativa
Função côncava (e portanto também quasicôncava) X
Função convexa X
Função estritamente côncava X
Função estritamente convexa X

Exemplo simples: como encontrar a matriz hessiana[editar | editar código-fonte]

Considere a função f \left ( x, y \right ) =2x-y+2xy- x^2 - y^2 definida no conjunto de todos os pares de números. Sua matriz hessiana é:

H \left [ f(x, y) \right]  = \begin{bmatrix}
\frac{\partial^2 f}{\partial x^2} & \frac{\partial^2 f}{\partial x\,\partial y} \\ \\ \frac{\partial^2 f}{\partial y\,\partial x} & \frac{\partial^2 f}{\partial y^2} \\
\end{bmatrix} =  \begin{bmatrix} -2 & 2 \\ 2 & -2 \end{bmatrix}

que é uma matriz negativa semidefinida, portanto f é côncava. note que neste caso o Hessiano não depende de x e y, mas em geral depende[7]

Uso da matriz hessiana para caracterizar pontos críticos[editar | editar código-fonte]

Dada a função f(\mathbf{x})=f({x_1}^*, {x_2}^*,{x_3}^*, \ldots, x_n^*), a condição necessária para que um determinado ponto ({x_1}^*, {x_2}^*,{x_3}^* \ldots, x_n^*) seja um ponto crítico é que todas as derivadas parciais, calculadas naquele ponto específico, sejam iguais a zero[6] . No entanto, para definir se este ponto crítico é um ponto de máximo, mínimo ou de sela, é preciso calcular o determinante da matriz hessiana e seus menores principais. Para isso, pode-se seguir os seguintes passos:

  1. Calcular as "n" derivadas de primeira ordem da função f. O resultado serão "n" funções das variáveis do vetor n × 1 \mathbf{x}.
  2. Igualar cada uma das "n" funções do item 1 a zero. Com isso, serão descobertos valores para cada uma das variáveis x_1, x_2, x_3, \ldots, x_n. Chamaremos estes valores, cujas coordenadas compõem o ponto crítico, de ({x_1}^*, {x_2}^*,{x_3}^*, \ldots, x_n^*). Igualmente, o vetor nX1 destes valores (números) será chamado de \mathbf{x^*}=\begin{bmatrix}{x_1}^* \\ {x_2} \\ {x_3}^* \\ \vdots \\ x_n^* \end{bmatrix}. Reservar este ponto crítico.
  3. A partir das derivadas de primeira ordem calculadas no item 1, calcular as derivadas de segunda ordem da função f e montar a matriz hessiana nXn. Notar que é possível que muitos elementos desta matriz sejam função das variáveis ({x_1}, {x_2}, \ldots, x_n).
  4. Substitua as variáveis ({x_1}, {x_2},{x_3}, \ldots, x_n), presentes na matriz hessiana montada no item 3, pelos valores correspondentes do ponto crítico, ou seja, pelos valores do vetor \mathbf{x^*}. A matriz resultante não terá mais variáveis, somente números. Por exemplo, a derivada da função f em relação à variável {x_2}, por sua vez derivada em relação à variável {x_1}, calculada para o vetor (\mathbf{x^*}), será representado por \frac{\partial^2 f}{\partial {x_2}\,\partial {x_1}}(\mathbf{x^*}) e significa um número.
  5. A partir da matriz resultante do item 4, calcular os menores principais. Os resultados serão números.
    • \left | H_1 \right \vert=\left | \frac{\partial^2 f}{\partial {x_1}^2}(\mathbf{x^*}) \right \vert,
    • \left | H_2 \right \vert=\begin{vmatrix}
\frac{\partial^2 f}{\partial {x_1}^2}(\mathbf{x^*}) & \frac{\partial^2 f}{\partial {x_1}\,\partial {x_2}}(\mathbf{x^*}) \\  \\
\frac{\partial^2 f}{\partial {x_2}\,\partial {x_1}}(\mathbf{x^*}) & \frac{\partial^2 f}{\partial {x_2}^2}(\mathbf{x^*}) \\
\end{vmatrix}
    • \left | H_3 \right \vert=\begin{vmatrix}

\frac{\partial^2 f}{\partial {x_1}^2}(\mathbf{x^*}) & \frac{\partial^2 f}{\partial {x_1}\,\partial {x_2}}(\mathbf{x^*}) & \frac{\partial^2 f}{\partial {x_1}\,\partial {x_3}}(\mathbf{x^*})\\  \\

\frac{\partial^2 f}{\partial {x_2}\,\partial {x_1}}(\mathbf{x^*}) & \frac{\partial^2 f}{\partial {x_2}^2}(\mathbf{x^*}) & \frac{\partial^2 f}{\partial {x_2}\,\partial {x_3}}(\mathbf{x^*}) \\  \\

\frac{\partial^2 f}{\partial {x_3}\,\partial {x_1}}(\mathbf{x^*}) & \frac{\partial^2 f}{\partial {x_3}\,\partial {x_2}}(\mathbf{x^*}) & \frac{\partial^2 f}{\partial {x_3}^2}(\mathbf{x^*}) \\
\end{vmatrix}
    • ...
    • \left | H_n \right \vert = \begin{vmatrix}

\frac{\partial^2 f}{\partial {x_1}^2}(\mathbf{x^*}) & \frac{\partial^2 f}{\partial {x_1}\,\partial {x_2}}(\mathbf{x^*}) & \cdots & \frac{\partial^2 f}{\partial {x_1}\,\partial x_n}(\mathbf{x^*}) \\  \\

\frac{\partial^2 f}{\partial {x_2}\,\partial {x_1}}(\mathbf{x^*}) & \frac{\partial^2 f}{\partial {x_2}^2}(\mathbf{x^*}) & \cdots & \frac{\partial^2 f}{\partial {x_2}\,\partial x_n}(\mathbf{x^*}) \\  \\

\vdots & \vdots & \vdots & \vdots \\ \\

\frac{\partial^2 f}{\partial x_n\,\partial {x_1}}(\mathbf{x^*}) & \frac{\partial^2 f}{\partial x_n\,\partial {x_2}}(\mathbf{x^*}) & \cdots & \frac{\partial^2 f}{\partial x_n^2}(\mathbf{x^*})
\end{vmatrix} = \left | H_n \right \vert=determinante da matriz hessiana calculada no item 4.
  6. Verificar o sinal dos menores principais do item 5[8] :
    Condição A matriz H O ponto crítico ({x_1}^*, {x_2}^*,{x_3}^*, \ldots, x_n^*)
    \left | H_1 \right \vert>0,\left | H_2 \right \vert>0,\left | H_3 \right \vert>0, \ldots É positiva definida É ponto de mínimo.
    \left | H_1 \right \vert<0,\left | H_2 \right \vert>0,\left | H_3 \right \vert<0, \ldots É negativa definida É ponto de máximo.


Translation Latin Alphabet.svg
Este artigo ou secção está a ser traduzido de it:Matrice hessiana#Test per la derivata seconda. Ajude e colabore com a tradução.

Ver também[editar | editar código-fonte]

Notas[editar | editar código-fonte]

  1. SIMON & BLUME (2004), p. 339.
  2. SIMON & BLUME (2004), p. 340.
  3. INTRILIGATOR (1971), p. 498.
  4. INTRILIGATOR (1971), p. 499.
  5. MAS-COLELL, Andreu; WHINSTON, Michael D, e GREEN, Jerry R. Microeconomic Theory. Oxford University press, 1995. ISBN 978-0-19-507340-9. Mathematiocal Appendix, "M.A Matrix Notation for Derivatives", p. 927.
  6. a b CHIANG (1984), p. 332.
  7. a b Concave and convex functions of many variables. Disponível em: <http://www.economics.utoronto.ca/osborne/MathTutorial/CVN.HTM#p:CcvConds>. Acesso em 10 de abril de 2011.
  8. CHIANG (1984), p. 333.

Referências[editar | editar código-fonte]

  • SIMON, Carl P., e BLUME, Lawrence. Mátemática para economistas. Porto Alegre: Bookman, 2004. Reimpressão 2008. ISBN 978-85-363-0307-9.
  • INTRILIGATOR, Michael D. Mathematical Optimization and Economic Theory. 1971, Prentice-Hall. Inc. Englewood Cliffs, N.J. printed in the United states of America 13-561753-7. Library of Congress Catalog Card Number: 72-127059. Appendix B, "Matrices".
  • CHIANG, Alpha C. Fundamental Methods in Mathematical Economics. 3ª edição. McGraw-Hill, Inc. 1984. ISBN 0-07-010813-7. Seção 11.4, "Objective functions with more than two variables".