Projeção (álgebra linear)

Origem: Wikipédia, a enciclopédia livre.
A transformação P é a projeção ortogonal na linha m

Em álgebra linear e análise funcional, uma projeção é uma transformação linear de um espaço vetorial em si mesmo, de modo que , ou seja, sempre que é aplicado duas vezes a algum vetor, o resultado é o mesmo que se tivesse sido aplicado uma única vez (uma propriedade conhecida como idempotência). Embora abstrata, esta definição de "projeção" formaliza e generaliza adequadamente a ideia de projeção gráfica. Também se pode considerar o efeito de uma projeção em um objeto geométrico, examinando o efeito que a projeção tem nos pontos do objeto.

Definições[editar | editar código-fonte]

Uma projeção em um espaço vetorial é um operador linear tal que .

Quando o espaço é munido de um produto interno e é completo (ou seja, quando é um espaço de Hilbert), o conceito de ortogonalidade pode ser usado. Uma projeção em um espaço Hilbert é chamada de projeção ortogonal se satisfaz para quaisquer . Uma projeção em um espaço de Hilbert que não é ortogonal é chamada de projeção oblíqua.

Matriz de projeção[editar | editar código-fonte]

  • No caso de dimensões finitas, uma matriz quadrada é chamada de matriz de projeção se for igual a seu quadrado, isto é, se .[1] :p. 38
  • Uma matriz quadrada é chamada de matriz de projeção ortogonal se para uma matriz real, e respectivamente para uma matriz complexa, onde denota a transposição de e denota a transposição adjunta, ou hermitiana, de .[1] :p. 223
  • Uma matriz de projeção que não é ortogonal é chamada de matriz de projeção oblíqua.

Os autovalores de uma matriz de projeção devem ser 0 ou 1.

Exemplos[editar | editar código-fonte]

Projeção ortogonal[editar | editar código-fonte]

Por exemplo, a função que leva o ponto do espaço tridimensional ao ponto é uma projeção ortogonal no plano xy. Esta função pode ser representada pela matriz

A ação desta matriz em um vetor arbitrário pode ser expressa por

Para ver que é de fato uma projeção, ou seja, que vale a relação , podemos calcular

.

Observando também que , vemos que a projeção é uma projeção ortogonal.

Projeção oblíqua[editar | editar código-fonte]

Um exemplo simples de uma projeção não-ortogonal (oblíqua) pode ser dado por

Pela multiplicação de matrizes, vê-se logo que

provando que é de fato uma projeção. Porém, a projeção só será ortogonal se, e somente se, tivermos ; pois somente para este caso será válida a relação .

Propriedades e classificação[editar | editar código-fonte]

A transformação T é a projeção ao longo de k, sobrejetivamente em m. A imagem de t é m, e seu núcleo é k.

Idempotência[editar | editar código-fonte]

Por definição, uma projeção é idempotente (ou seja, )

Complementariedade da imagem e do núcleo[editar | editar código-fonte]

Seja um espaço vetorial de dimensão finita e uma projeção em . Suponha que os subespaços e são o imagem e o núcleo de , respectivamente. Então tem as seguintes propriedades:

  1. é o operador identidade em
  2. Temos a soma direta . Cada vetor pode ser decomposto unicamente como com e , onde e é o operador identidade.

A imagem e o núcleo de uma projeção são complementares, assim como e . O operador também é uma projeção, visto que a imagem e o núcleo de são o núcleo e imagem de , e vice-versa.

Espectro[editar | editar código-fonte]

Em espaços vetoriais de dimensão infinita, o espectro de uma projeção está contido em , pois

Apenas 0 ou 1 podem ser autovalores de uma projeção. Isso significa que uma projeção ortogonal é sempre uma matriz positiva semi-definida. Em geral, os autoespaços correspondentes são o núcleo e a imagem da projeção, respectivamente. A decomposição de um espaço vetorial em somas diretas não é única. Portanto, dado um subespaço , pode haver muitas projeções cuja imagem (ou núcleo) é .

Se a projeção é não-trivial, ela possui um polinômio mínimo , que se fatora em raízes distintas, e assim é diagonalizável.

Produto de projeções[editar | editar código-fonte]

O produto de projeções não é, em geral, uma projeção, mesmo que ambas sejam ortogonais. Se duas projeções comutam, então seu produto é uma projeção, mas o inverso não é verdadeiro: o produto de duas projeções que não comutam pode sim ser uma projeção.

Se duas projeções ortogonais comutam, então seu produto é uma projeção ortogonal. Se o produto de duas projeções ortogonais é uma projeção ortogonal, então as duas projeções ortogonais comutam (de maneira mais geral: dois endomorfismos autoadjuntos comutam se, e somente se, seu produto é também autoadjunto).

Projeções ortogonais[editar | editar código-fonte]

Quando o espaço vetorial tem um produto interno e é completo (é um espaço de Hilbert) o conceito de ortogonalidade pode ser usado. Uma projeção ortogonal é uma projeção para a qual o intervalo e o espaço nulo são subespaços ortogonais. Assim, para cada e em , . Equivalentemente:

Uma projeção é ortogonal se, e somente se, for autoadjunta. Usando as propriedades autoadjunta e idempotente de , para qualquer e em temos , , e

onde é o produto interno associado a . Portanto, e são projeções ortogonais.[2] A volta, ou seja, se é ortogonal, então é auto-adjunta, segue de

para qualquer e em  ; portanto .

Propriedades e casos especiais[editar | editar código-fonte]

Uma projeção ortogonal é um operador limitado. Isso ocorre porque para cada no espaço vetorial temos, pela desigualdade de Cauchy-Schwarz :

Assim, .

Para espaços vetoriais, reais ou complexos, de dimensão finita, o produto interno padrão pode ser substituído por .

Projeções oblíquas[editar | editar código-fonte]

O termo projeção oblíqua é algumas vezes usado para se referir a projeções não-ortogonais. Essas projeções também são usadas para representar figuras espaciais em desenhos bidimensionais, embora não com tanta frequência quanto as projeções ortogonais. Enquanto o cálculo do ajuste em uma regressão de mínimos quadrados requer uma projeção ortogonal, o cálculo do valor ajustado de uma regressão de variáveis instrumentais requer uma projeção oblíqua.

As projeções são definidas por seu núcleo e os vetores da base usados para caracterizar sua imagem (que é o complemento do núcleo). Quando os vetores da base são ortogonais ao núcleo, a projeção é uma projeção ortogonal. Quando os vetores de base não são ortogonais ao espaço nulo, a projeção é uma projeção oblíqua. Sejam os vetores uma base para a imagem da projeção, e monte esses vetores em uma matriz , de ordem . A imagem e o núcleo são espaços complementares, logo o núcleo tem dimensão . Segue que o complemento ortogonal do espaço nulo tem dimensão . Seja uma base para o complemento ortogonal do núcleo da projeção, e monte uma matriz com esses vetores. Então a projeção é definida por

Esta expressão generaliza a fórmula para projeções ortogonais dada anteriormente.[3][4]

Encontrando a projeção com um produto interno[editar | editar código-fonte]

Seja um espaço vetorial (neste exemplo, um plano) gerado por vetores ortogonais . Seja um vetor qualquer. Podemos definir uma projeção de para como

na qual índices repetidos são somados (seguindo a convenção de Einstein). O vetor pode ser escrito como uma soma ortogonal de modo que . O operador é às vezes denotado como . Há um teorema em álgebra linear que afirma que este é a distância mais curta de para , e é frequentemente usado em áreas como aprendizado de máquina.

y está sendo projetado no espaço vetorial V

Formas canônicas[editar | editar código-fonte]

Qualquer projeção em um espaço vetorial de dimensão é uma matriz diagonalizável, uma vez que seu polinômio mínimo divide , que se separa em fatores lineares distintos. Portanto, existe uma base na qual tem a forma

Onde é a ordem de . Aqui é a matriz de identidade de ordem , e é a matriz nula de ordem . Se o espaço vetorial é complexo e munido de um produto interno, então existe uma base ortonormal na qual a matriz de P é dada por[5]

onde . Os números inteiros e os números reais estão determinados de forma única. Observe que . O fator corresponde ao subespaço invariante máximo no qual atua como uma projeção ortogonal (de modo que o próprio P seja ortogonal se, e somente se, ) e os blocos correspondem às componentes oblíquas.

Projeções em espaços vetoriais normados[editar | editar código-fonte]

Quando o espaço vetorial subjacente é um espaço vetorial normado (não necessariamente de dimensão finita), questões analíticas, irrelevantes no caso de dimensão finita, precisam ser consideradas. Suponhamos então que é um espaço de Banach.

Muitos dos resultados algébricos discutidos acima sobrevivem à passagem para este contexto. Uma determinada decomposição de soma direta de em subespaços complementares ainda especifica uma projeção, e vice-versa. Se é a soma direta , então o operador definido por ainda é uma projeção com imagem e núcleo . Também é claro que . Por outro lado, se é a projeção em , i.e., , então é facilmente verificado que . Em outras palavras, também é uma projeção. A relação implica e é a soma direta .

No entanto, diferentemente do caso de dimensão finita, as projeções não precisam ser contínuas, em geral. Se um subespaço de não é fechado na topologia normal, então a projeção em não é contínua. Em outras palavras, a imagem de uma projeção contínua deve ser um subespaço fechado. Além disso, o núcleo de uma projeção contínua (na verdade, de um operador linear contínuo qualquer) é fechado. Portanto, uma projeção contínua leva a uma decomposição de em dois subespaços fechados complementares: .

O inverso também vale, com uma hipótese adicional. Suponha ser um subespaço fechado de . Se existe um subespaço fechado tal que , então a projeção com imagem e núcleo é contínua. Isso segue do teorema do gráfico fechado. Suponha que e . É preciso mostrar que . Já que é fechado e , encontra-se em , isto é, . Além disso, . Por ser fechado e , temos que , i.e., , o que demonstra a afirmação.

O argumento acima faz uso da hipótese de que ambos e são fechados. Em geral, dado um subespaço fechado , não é necessário que exista um subespaço fechado complementar , embora para espaços de Hilbert isso sempre possa ser feito tomando o complemento ortogonal. Para espaços de Banach, um subespaço unidimensional sempre tem um subespaço complementar fechado. Esta é uma consequência imediata do teorema de Hahn-Banach. Seja ser o subespaço gerado por . Por Hahn-Banach, existe um funcional linear limitado tal que φ(u) = 1. O operador satisfaz , logo é uma projeção.A limitação de implica a continuidade de e portanto é um subespaço complementar fechado de .

Aplicações e outras considerações[editar | editar código-fonte]

As projeções (ortogonais ou não) desempenham um papel importante em algoritmos para certos problemas de álgebra linear:

Como mencionado acima, as projeções são um caso especial de operadores idempotentes. Analiticamente, as projeções ortogonais são generalizações não-comutativas de funções características. Operadores idempotentes são usados na classificação, por exemplo, de álgebras semisimples, enquanto a teoria da medida tem seu início em funções características de conjuntos mensuráveis. Portanto, como se pode imaginar, as projeções são frequentemente encontradas no contexto de álgebras de operadores. Em particular, uma álgebra de von Neumann é gerada por sua rede completa de projeções.

Generalizações[editar | editar código-fonte]

De maneira mais geral, dado um mapa entre espaços vetoriais normados pode-se exigir analogamente que este mapa seja uma isometria no complemento ortogonal do núcleo: que ser uma isometria; em particular, ela deve ser sobrejetora. O caso de uma projeção ortogonal ocorre quando é um subespaço de . Na geometria Riemanniana, isso é usado na definição de uma submersão Riemanniana.

Ver também[editar | editar código-fonte]

  • Matriz de centralização, que é um exemplo de matriz de projeção.
  • Ortogonalização
  • Subespaço invariável
  • Propriedades do traço
  • O algoritmo de projeção de Dykstra para calcular a projeção em uma interseção de conjuntos

Notas[editar | editar código-fonte]

  1. a b Horn, Roger A.; Johnson, Charles R. (2013). Matrix Analysis, second edition. [S.l.]: Cambridge University Press. ISBN 9780521839402 
  2. Meyer, p. 433
  3. Banerjee, Sudipto; Roy, Anindya (2014), Linear Algebra and Matrix Analysis for Statistics, ISBN 978-1420095388, Texts in Statistical Science 1st ed. , Chapman and Hall/CRC 
  4. Meyer, equation (7.10.39)
  5. Doković, D. Ž. (agosto de 1991). «Unitary similarity of projectors». Aequationes Mathematicae. 42: 220–224. doi:10.1007/BF01818492 

Referências[editar | editar código-fonte]

  • Banerjee, Sudipto; Roy, Anindya (2014), Linear Algebra and Matrix Analysis for Statistics, ISBN 978-1420095388, Texts in Statistical Science 1st ed. , Chapman and Hall/CRC 
  • Dunford, N.; Schwartz, J. T. (1958). Linear Operators, Part I: General Theory. [S.l.]: Interscience 
  • Meyer, Carl D. (2000). Matrix Analysis and Applied Linear Algebra. [S.l.]: Society for Industrial and Applied Mathematics. ISBN 978-0-89871-454-8 
  • MIT Linear Algebra Lecture on Projection Matrices , do MIT OpenCourseWare
  • Linear Algebra 15d: The Projection Transformation, de Pavel Grinfeld.
  • Tutorial de projeções geométricas planas - um tutorial simples de se seguir que explica os diferentes tipos de projeções geométricas planas.