Núcleo (álgebra linear)

Origem: Wikipédia, a enciclopédia livre.
Saltar para a navegação Saltar para a pesquisa
Disambig grey.svg Nota: Para outros significados, veja Núcleo.
Matemática A Wikipédia possui o:
Portal da Matemática

Em matemática, mais especificamente em álgebra linear e análise funcional, o núcleo (kernel, em inglês) ou espaço nulo de uma transformação linear L : VW entre dois espaços vetoriais V e W, é o conjunto de todos os elementos v de V para os quais L(v) = 0, em que 0 denota o vetor nulo de W.[1] Em outras palavras,

Propriedades[editar | editar código-fonte]

O núcleo (Ker) e a imagem de uma transformação L.

O núcleo de L é um subespaço vetorial do domínio V.[2] Para uma transformação linear L : VW, dois elementos de V têm a mesma imagem em W se, e somente se, a sua diferença reside no núcleo de L:

Segue-se que a imagem de L é isomorfa ao quociente de V pelo núcleo:
Isto implica o teorema do posto e nulidade:
onde, por posto entende-se a dimensão da imagem de L, e por nulidade, a dimensão do núcleo de L.

Quando V é um espaço com produto interno, o quociente V / ker(L) pode ser identificado com o complemento ortogonal de ker(L) em V. Esta é a generalização para operadores lineares do espaço linha, ou coimagem, de uma matriz.

Aplicação aos módulos[editar | editar código-fonte]

A noção de núcleo aplica-se aos homomorfismos de módulos, sendo estes últimos uma generalização dos espaços vetoriais sobre um corpo para um anel. O domínio da função passa a ser um módulo, e o núcleo constitui um "submódulo". Aqui, os conceitos de posto e de nulidade, não se aplicam necessariamente.

Na análise funcional[editar | editar código-fonte]

Se V e W são espaços vetoriais topológicos (e, W é de dimensão finita) então um operador linear L: VW é contínuo se, e somente se, o núcleo de L é um subespaço fechado de V.

Representação como a multiplicação de matrizes[editar | editar código-fonte]

Considere uma transformação linear representada como uma matriz A de ordem m × n com coeficientes em um corpo K (normalmente o corpo dos números reais ou dos números complexos) e atuando sobre vetores coluna x com n componentes sobre K. O núcleo desta transformação linear é o conjunto de soluções para a equação A x = 0, em que 0 é entendido como o vetor nulo. A dimensão do núcleo de A é chamada de nulidade de A. Em notação de conjuntos,

A equação matricial é equivalente a um sistema de equações lineares homogêneas:

Assim, o núcleo de A é o mesmo que o conjunto solução para o sistema homogêneo acima.

Propriedades de subespaço[editar | editar código-fonte]

O núcleo de uma matriz A de ordem m × n sobre um corpo K é um subespaço vetorial de Kn. Isto é, o núcleo de A, o conjunto Ker(A), tem as seguintes três propriedades:

  1. Ker(A) sempre contém o vetor nulo, uma vez que A0 = 0.
  2. Se x ∈ Ker(A) e y ∈ Ker(A), então x + y ∈ Ker(A). Isso decorre da distributividade da multiplicação de matrizes sobre a adição.
  3. Se x ∈ Ker(A) e cK é um escalar, então cx ∈ Ker(A), uma vez que A(cx) = c(Ax) = c0 = 0.

O espaço linha de uma matriz[editar | editar código-fonte]

O produto Ax pode ser escrito em termos do produto escalar de vetores da seguinte forma:

Aqui a1, ... , am indicam as linhas da matriz A. Segue-se que x está no núcleo de A se, e somente se, x é ortogonal (ou perpendicular) a cada um dos vetores linha de A (porque quando o produto escalar de dois vetores é igual a zero, eles são, por definição, ortogonais).

O espaço linha, ou coimagem, de uma matriz A é o espaço gerado pelos vetores linha de A. Pelo raciocínio acima, o núcleo de A é o complemento ortogonal para o espaço linha, ou seja, um vetor x está no núcleo de A se, e somente se, ele é perpendicular a cada vetor no espaço linha de A.

A dimensão do espaço linha de A é chamada de posto de A e a dimensão do núcleo de A é chamada de nulidade de A. Estas grandezas estão relacionadas pelo teorema do posto e da nulidade:

Espaço nulo à esquerda[editar | editar código-fonte]

O espaço nulo à esquerda, ou conúcleo, de uma matriz A consiste de todos os vetores x tais que xTA = 0T, em que T denota a transposição de um vetor coluna. O espaço nulo à esquerda de A é o mesmo que o núcleo de AT. O espaço nulo à esquerda de A é o complemento ortogonal do espaço de coluna de A, e é dual do conúcleo da transformação linear associada. O núcleo, o espaço linha, o espaço coluna, e o espaço nulo à esquerda de A são os quatro subespaços fundamentais associados à matriz A.

Sistemas de equações lineares não homogêneas[editar | editar código-fonte]

O núcleo também desempenha um papel na solução de um sistema linear não homogêneo:

Se u e v são duas soluções possíveis da equação acima, ento,

Assim, a diferença entre duas soluções da equação Ax = b pertence ao núcleo de A.

Disto resulta que qualquer solução da equação Ax = b pode ser expressa como a soma de uma soluço fixa v e um elemento arbitrário do núcleo, isto é, o conjunto solução para a equação Ax = b é

Geometricamente, isto diz que o conjunto solução de Ax = b é a translação do núcleo de A pelo vetor v. Ver também a alternativa de Fredholm e flat (geometria).

Ilustração[editar | editar código-fonte]

Nesta seção, é exemplificado o processo para determinar o núcleo de uma matriz (ver a seção sobre a base abaixo para métodos mais adequados para cálculos mais complexos). Também é mencionado o espaço linha e a sua relação com o núcleo.

Considere a matriz

O núcleo desta matriz consiste de todos os vetores (x, y, z) ∈ R3 para os quais

o que pode ser expresso como um sistema de equações lineares homogêneas envolvendo x, y, e z:

o que pode ser escrito em forma de matriz, como:

A eliminação de Gauss–Jordan reduz esta matriz a:

Reescrevendo, obtém-se:

Agora podemos expressar um elemento do núcleo:

em que c é um escalar.

Como c é uma variável livre, a solução também pode ser expressa como

O núcleo de A é, precisamente, o conjunto de soluções para estas equações (neste caso, uma reta que passa pela origem em R3); o vetor (-1,-26,16)T constitui uma base do núcleo de A. Assim, a nulidade de A é igual a 1.

Note também que os seguintes produtos escalares são nulos:

o que ilustra que os vetores no núcleo de A são ortogonais a cada um dos vetores linha de A.

Esses dois vetores linha (linearmente independentes) geram o espaço linha de A, um plano ortogonal ao vetor (-1,-26,16)T.

Com o posto de A sendo 2, a nulidade de A sendo 1, e a dimensão de A sendo 3, tem-se a ilustração do teorema do posto e da nulidade.

Exemplos[editar | editar código-fonte]

  • Se L: RmRn, então o núcleo de L é o conjunto solução de um sistema de equações lineares homogêneas. Como na ilustração acima, se L é o operador:

então o núcleo de L é o conjunto de soluções das equações

  • Seja C[0,1] o espaço vetorial de todas as funções contínuas do intervalo [0,1] a valores reais, e defina L: C[0,1] → R pela regra

Então o núcleo de L consiste de todas as funções fC[0,1] para as quais f(0.3) = 0.
  • Deixe C(R) o espaço vetorial de todas as funções RR infinitamente diferenciáveis, e seja D: C(R) → C(R) o operador diferencial:

Então o núcleo de D consiste de todas as funções em C(R) cujas derivadas são nulas, ou seja, o conjunto de todas funções constantes.
  • Seja R o produto direto de um número infinito de cópias de R, e seja s: RR o operador shift

Então o núcleo de s é o subespaço unidimensional que consiste de todos os vetores (x1, 0, 0, ...).
  • Se V é um espaço com produto interno e W é um subespaço, o núcleo da projeção ortogonal de VW é o complemento ortogonal de W em V.

Cálculo por eliminação gaussiana[editar | editar código-fonte]

Uma base do núcleo de uma matriz pode ser calculada por meio da eliminação de Gauss.

Para este efeito, dada uma matriz A de ordem m × n, pode-se construir a matriz aumentada por linhas em que I é a matriz identidade de ordem n × n.

Calculando-se sua forma escalonada reduzida por colunas através da eliminação de Gauss (ou qualquer outro método apropriado), obtém-se uma matriz Uma base do núcleo de A consiste nas colunas não-nulas de C tais que a coluna correspondente de B é uma coluna nula.

Na verdade, o cálculo também pode ser interrompido assim que a matriz superior estiver na forma escalonada por colunas: o restante do cálculo consiste em alterar a base do espaço vetorial gerado pelas colunas cuja parte superior é zero.

Por exemplo, suponha que

Então
Colocando-se a parte superior na forma escalonada por colunas por meio de operações sobre as colunas de toda a matriz resulta que

As três últimas colunas de B são nulas. Portanto, os três últimos vetores de C,

formam uma base do núcleo de A.

A demonstração de que o método fornece o núcleo é a seguinte: Como as operações sobre as colunas correspondem a multiplicação à direita por matrizes invertíveis, o fato de que se reduz a significa que existe uma matriz invertível tal que com na forma escalonada por colunas. Assim, e consequentemente Um vetor coluna pertence ao núcleo de (ou seja, ) se, e somente se, onde Como está na forma escalonada por colunas, se, e somente se, as entradas de diferentes de zero correspondem às colunas nulas de Multiplicando por pode-se deduzir que este é o caso se, e somente se, é uma combinação linear das colunas correspondentes de

Cálculo numérico[editar | editar código-fonte]

O problema de calcular o núcleo em um computador depende da natureza dos coeficientes.

Coeficientes exatos[editar | editar código-fonte]

Se os coeficientes da matriz são números exatos, a forma escalonada reduzida por colunas da matriz pode ser calculada pelo algoritmo de Bareiss mais eficientemente do que com a eliminação de Gauss. É ainda mais eficiente usar a aritmética modular e o teorema chinês do resto, que reduz o problema a vários similares sobre corpos finitos (isso evita a sobrecarga induzida pela não-linearidade da complexidade computacional da multiplicação de inteiros). [carece de fontes?]

Para coeficientes em um corpo finito, a eliminação de Gauss funciona bem, mas para as matrizes grandes que ocorrem em criptografia e no cálculo de bases de Gröbner, são conhecidos algoritmos melhores, que têm aproximadamente a mesma complexidade computacional, mas são mais rápidos e comportar-se melhor no hardware de computadores modernos. [carece de fontes?]

Cálculo em ponto flutuante[editar | editar código-fonte]

Para matrizes cujas entradas são números de ponto flutuante, o problema de calcular o núcleo só faz sentido para matrizes em que o número de linhas é igual ao seu posto: devido aos erros de arredondamento, uma matriz de ponto flutuante quase sempre tem um posto cheio, mesmo quando é uma aproximação de uma matriz com um posto muito menor. Mesmo para uma matriz de posto cheio, só é possível calcular o seu núcleo se ela for bem condicionada, ou seja, se tem um número de condicionamento baixo.[3]

Mesmo para uma matriz de posto completo bem condicionada, a eliminação gaussiana não se comporta corretamente: ela introduz erros de arredondamento que são grandes demais para a obtenção de um resultado significativo. Como o cálculo do núcleo de uma matriz é um caso especial da solução de um sistema homogêneo de equações lineares, o núcleo pode ser calculado por qualquer um dos vários algoritmos projetados para resolver sistemas homogêneos. Um software do estado da arte para esta finalidade é a biblioteca Lapack. [carece de fontes?]

Ver também[editar | editar código-fonte]

Notas[editar | editar código-fonte]

  1. «Núcleo e Imagem». UFMG. Consultado em 12 de outubro de 2018 
  2. A Álgebra Linear, como discutida neste artigo, é uma disciplina matemática muito bem estabelecida para a qual há muitas fontes. Praticamente todo o material deste artigo pode ser encontrado em Lay 2005, Meyer 2001, e nas aulas de Strang.

Referências[editar | editar código-fonte]

Ligações externas[editar | editar código-fonte]