Em matemática, mais especificamente em álgebra linear, o teorema do núcleo e da imagem, em sua forma mais simples, afirma que o posto e a nulidade de uma matriz têm como soma o número de colunas da matriz. Especificamente, se A é uma matriz m-por-n (com m linhas e n colunas) sobre um corpo, então:
Isto também se aplica a
transformações lineares. Sejam
V e
W espaços vetoriais sobre algum corpo e seja
T : V → W uma transformação linear. Então o posto de
T é a dimensão da imagem de
T e a nulidade de
T é a dimensão do
núcleo de
T. Tem-se:
ou, equivalentemente,
Pode-se refinar esta afirmação (por meio do lema de splitting ou a prova abaixo) para que seja sobre um
isomorfismo de espaços, em vez de apenas sobre as respectivas dimensões.
Mais geralmente, pode-se considerar a imagem, o núcleo, a co-imagem e o co-núcleo, que estão relacionados pelo teorema fundamental da álgebra linear.
Serão apresentadas duas demonstrações. A primeira utiliza a notação das transformações lineares, mas pode ser facilmente adaptada para matrizes escrevendo T(x) = Ax, onde A é m × n. A segunda prova examina o sistema homogêneo Ax = 0 associado a uma matriz A m × n de posto r e mostra explicitamente que existe um conjunto de n − r soluções linearmente independentes que geram o espaço nulo de A. Essas provas também estão disponíveis no livro de Banerjee e Roy (2014)[1]
Primeira demonstração: Suponha que forma uma base de ker T. Pode-se estender esta base para formar uma base de V: Como a dimensão de ker T é m e a dimensão de V é m + n, é suficiente mostrar que a dimensão da image of T (im T) é n.
Para ver que é uma base de im T, seja v um vetor arbitrário em V. Existe uma única sequência de escalares tais que:
Assim,
gera
im T.
Agora, é preciso mostrar que esta lista não tem redundâncias; isto é, que é linearmente independente. Pode-se fazer isso mostrando que uma combinação linear destes vetores é zero se, e somente se, os coeficientes de cada vetor são zero. Seja:
Então, como
ui geram ker
T, existe um conjunto de escalares
di tais que:
Mas, como
é uma base de
V, todos os
ci,
di devem ser zero. Portanto,
é linearmente independente e de fato uma base de
im T. Isto prova que a dimensão de
im T é
n, como desejado.
Em termos mais abstratos, a aplicação T : V → im T cinde.
Segunda demonstração: Seja A uma matriz m × n com r colunas linearmente independentes (isto é o posto de A é r). Será mostrado que: (i) existe um conjunto de n − r soluções linearmente independentes para o sistema homogêneo Ax = 0, e (ii) que toda outra solução é uma combinação linear destas n − r soluções. Em outras palavras, será produzida uma matriz X de ordem n × (n − r) cujas colunas formam uma base do espaço nulo de A.
Sem perda de generalidade, assuma que as primeiras r colunas de A são linearmente independentes. Então, pode-se escrever A = [A1:A2], em que A1 é m × r com r vetores colunas linearmente independentes e A2 é m × (n − r), sendo cada uma de suas n − r colunas combinações lineares das colunas de A1. Isto significa que A2 = A1 B para alguma matriz B (ver fatoração de posto) e, assim, A = [A1:A1B]. Seja em que é a matriz matriz identidade (n − r) × (n − r). Note que X é uma matriz n × (n − r) que satisfaz
Portanto, cada uma das
n − r colunas de
X são soluções particulares de
Ax = 0. Além disso, as
n − r colunas de
X são
linearmente independentes, pois
Xu = 0 implica
u = 0:
Portanto, os vetores coluna de
X constituem um conjunto de
n −
r soluções linearmente independentes de
Ax =
0.
A seguir será provado que qualquer solução de Ax = 0 tem de ser uma combinação linear das colunas de X. Para isso, seja
qualquer vetor tal que Au = 0. Note que como as colunas de A1 são linearmente independentes, A1x = 0 implica x = 0. Portanto,
Isso prova que qualquer vetor
u que é uma solução de
Ax = 0 tem de ser uma combinação linear das
n − r soluções especiais dadas pelas colunas de
X. E já foi mostrado que as colunas de
X são linearmente independentes. Assim, as colunas de
X constituem uma base para o espaço nulo de
A. Por conseguinte, a
nulidade de
A é
n − r. Como
r é igual ao posto de
A, segue-se que
rk(A) + nul(A) = n. QED.
Este teorema é uma instância do primeiro teorema de isomorfismo da álgebra para o caso de espaços vetoriais; ele se generaliza para o splitting lemma.
Em uma linguagem mais moderna, o teorema também pode ser expresso como segue:
- 0 → U → V → R → 0
é uma sequência exata curta de espaços vetoriais, então
- dim(U) + dim(R) = dim(V).
Aqui R desempenha o papel de im T e U é o ker T, isto é
No caso de dimensão finita, esta formulação é suscetível a uma generalização: se
- 0 → V1 → V2 → ... → Vr → 0
é uma sequência exata de espaços vetoriais de dimensão finita, então
[2]
O teorema do núcleo e da imagem para espaços vetoriais de dimensão finita também podem ser formulado em termos do
índice de uma transformação linear. O índice de uma transformação linear
T : V → W, em que
V e
W têm dimensão finita, é definido por
- índice T = dim(ker T) − dim(coker T).
Intuitivamente, dim(ker T) é o número de soluções independentes x da equação Tx = 0 e dim(coker T) é o número de restrições independentes que devem ser impostas sobre y que Tx = y tenha solução. O teorema do núcleo e da imagem para espaços vetoriais de dimensão finita é equivalente à afirmação de que
- índice T = dim(V) − dim(W).
Pode-se obter o índice da transformação linear T a partir dos espaços envolvidos, sem a necessidade de se analisar T em detalhe. Este efeito também ocorre em um resultado muito mais profundo: o teorema do índice de Atiyah–Singer afirma que o índice de certos operadores diferenciais pode ser obtido da geometria dos espaços envolvidos.
- Banerjee, Sudipto; Roy, Anindya (2014), Linear Algebra and Matrix Analysis for Statistics, ISBN 978-1420095388, Texts in Statistical Science 1st ed. , Chapman and Hall/CRC
- Meyer, Carl D. (2000), Matrix Analysis and Applied Linear Algebra, ISBN 978-0-89871-454-8, SIAM .