Matriz jacobiana

Origem: Wikipédia, a enciclopédia livre.
(Redirecionado de Jacobiano)
Ir para: navegação, pesquisa

A Matriz Jacobiana (denominado do matemático alemão Carl Gustav Jakob Jacobi) é a matriz formada pelas derivadas parciais de primeira ordem de uma função vetorial. Se uma função é diferenciável num ponto, a sua derivada é dada em coordenadas pela Jacobiana, mas uma função não precisa ser diferenciável para a existência da Jacobiana; basta que as derivadas parciais existam.

Definição formal[editar | editar código-fonte]

Seja F : \mathbb{R}^n\to \mathbb{R}^m, ou seja, uma função que denominaremos "F", com domínio e imagem no espaço euclidiano n e m dimensional, respectivamente. Tal função é definida por um vetor de m componentes, sendo cada componente uma função F_i : \mathbb{R}^n\to \mathbb{R} . As derivadas parciais dessas funções podem ser organizadas numa matriz m x n, que é denominada Matriz Jacobiana. Assim, a Jacobiana é definida como:

Em linguagem matemática Em Português
\begin{bmatrix} \frac{\partial F_1}{\partial x_1} & \cdots & \frac{\partial F_1}{\partial x_n} \\ \vdots & \ddots & \vdots \\ \frac{\partial F_m}{\partial x_1} & \cdots & \frac{\partial F_m}{\partial x_n} \end{bmatrix} Matriz de m linhas e n colunas. A primeira linha representa as derivadas parciais da função F_1 em relação a todos os x (de x1 a xn). A segunda linha representa as derivadas parciais de F_2 (também em relação a todos os x), e assim por diante, até a linha de número m, que representa as derivadas parciais de F_m em relação a todos os xs.

Notação[editar | editar código-fonte]

A Jacobiana é representada por J_F(x_1,\ldots ,x_n) ou \frac{\part (F_1,\ldots ,F_n)}{\part (x_1,\ldots ,x_n)}

A k-ésima linha da matriz é dada pela transposta do gradiente de F_k

Determinante Jacobiano[editar | editar código-fonte]

O Jacobiano é definido como sendo o determinante da Jacobiana. Ele é de grande importância na mudança de variáveis em integrais múltiplas e no Teorema da Função Inversa.

Exemplos[editar | editar código-fonte]

  • Exemplo 1: Seja F(x,y)=(x^2+y^2,xy) . Aqui, F_1=x^2+y^2 e F_2=xy. A matriz jacobiana de F é:
J_F(x,y)=\begin{bmatrix} \frac{\partial F_1}{\partial x} & \frac{\partial F_1}{\partial y}\\ \frac{\partial F_2}{\partial x} & \frac{\partial F_2}{\partial y} \end{bmatrix}=\begin{bmatrix} 2x & 2y\\ y & x \end{bmatrix}

O determinante Jacobiano é 2(x^2-y^2) .

  • Exemplo 2: Vamos montar a Jacobiana da mudança de variáveis cartesianas para polares. A função que faz a transformação é:
\left\{ \begin{matrix} x=r\cos\theta\\
y=r\operatorname{sen}\theta \end{matrix} \right .

A Jacobiana é dada então por:

\frac{\part (x,y)}{\part (r,\theta)}=\begin{bmatrix} \cos\theta & -r\operatorname{sen}\theta\\
\operatorname{sen}\theta & r\cos\theta \end{bmatrix}

O Jacobiano é r. portanto poderá se feito de acordo com alguns métodos matemáticos

  • Exemplo 3 (mudança de variáveis em Estatística, relacionado à distribuição de Erlang):1 Seja (X,Y) um par aleatório absolutamente contínuo com densidade de probabilidade conjunta f_{x,y} \left ( x,y \right ). Seja também G uma função G: \mathbb{R}^2\ \rightarrow  \mathbb{R}^2 injectiva (portanto com inversa) com dois componentes G(x,y) = (u,v). Cada um destes componentes é função de duas variáveis reais, tal que
\left \{ \begin{matrix} u= & g_{1}(x,y) \\ v= & g_{2}(x,y) \end{matrix}\right. , sendo que g1 e g2 possuem derivadas parciais em relação a x e a y

Portanto, podemos definir o par aleatório (U,V)=G(X,Y). Como determinar a densidade de probabilidade conjunta do par (U,V) a partir da densidade conjunta de (X,Y)?

Como G tem inversa, podemos escrever:

\left \{ \begin{matrix} x= & h_{1}(u,v) \\ y= & h_{2}(u,v) \end{matrix}\right.

A densidade conjunta de (U,V) será: f_{U,V} (u,v) = \left | J \right |  f_{X,Y} h_{1}(u,v)h_{2}(u,v) , em que \left | J \right | representa o módulo do determinante jacobiano, isto é, o módulo de \begin{vmatrix} \frac{\partial h_{1}(u,v)}{\partial  u} & \frac{\partial h_{1}(u,v)}{\partial v} \\ \frac{\partial h_{2}(u,v)}{\partial u} & \frac{\partial h_{2}(u,v)}{\partial v} \end{vmatrix}.

Assim, digamos que (U,V) = (X+Y,X-Y). Teremos então

\left \{ \begin{matrix} u= & x+y \\ v= & x-y \end{matrix}\right. \longrightarrow \left \{ \begin{matrix} x= & {\color{Blue}u-y} \\ y= & {\color{Red}x+v} \end{matrix}\right. \longrightarrow \left \{ \begin{matrix} x= & u-({\color{Red}x+v}) \\ y= & ({\color{Blue}u-y})+v \end{matrix}\right. \longrightarrow  \left \{ \begin{matrix} x= & h_{1}(u,v)= & \frac{u+v}{2} \\ y= & h_{2}(u,v)= & \frac{u-v}{2} \end{matrix}\right.

O determinante jacobiano neste caso (chamado de jacobiano da transformação2 ) será \begin{vmatrix} \frac{\partial h_{1}(u,v)}{\partial  u} & \frac{\partial h_{1}(u,v)}{\partial v} \\ \frac{\partial h_{2}(u,v)}{\partial u} & \frac{\partial h_{2}(u,v)}{\partial v} \end{vmatrix} =\begin{vmatrix} \frac{1}{2} & \frac{1}{2} \\ \frac{1}{2} & - \frac{1}{2} \end{vmatrix} = - \frac{1}{2} . O módulo deste determinante é  \frac{1}{2} . A função densidade de probabilidade conjunta é, portanto:

f_{U,V} (u,v) = \left | J \right |  f_{X,Y} h_{1}(u,v)h_{2}(u,v) = \frac{1}{2}  f_{X,Y} \left ( \frac{u+v}{2},\frac{u-v}{2} \right )

Aproximação linear[editar | editar código-fonte]

A Jacobiana representa a melhor aproximação linear de uma função diferenciável nas vizinhanças de um ponto. Semelhante à aproximação de funções de uma variável pela derivada, uma função vetorial F diferenciável num ponto \mathbf{x_0} pode ser aproximada por:

F(\mathbf{x})\approx F(\mathbf{x_0})+J_F(\mathbf{x_0})\cdot (\mathbf{x}-\mathbf{x_0})^T

sendo \mathbf{x} um ponto próximo de \mathbf{x_0}. Essa aproximação é de grande importância no cálculo numérico, onde a Jacobiana e o seu determinante são utilizados para resolver sistemas não-lineares pelo método de Newton (ou método do Gradiente Iterativo).

Ver também[editar | editar código-fonte]

Referências

  1. Faculdade de ciências - universidade de Lisboa. Mais sobre variáveis aleatórias. capítulo 3. Páginas 18 e 19. Disponível em: <http://www.deio.fc.ul.pt/disciplinas/ficheiros_apoio/mest_est/probab/TAlpuim_Cap3Novo.pdf>. Acesso em: 10 de março de 2011.
  2. CASELLA, George, e BERGER, Roger L. Inferência estatística - tradução da segunda edição norte-americana. São Paulo: Centage Learning, 2010. ISBN 978-85-221-0894-7. Página 142 e 192.