Usuário(a):MGromov/Independência condicional

Origem: Wikipédia, a enciclopédia livre.

Em teoria das probabilidades, dois eventos R e B são condicionalmente independentes se, dado um terceiro evento Y, a ocorrência ou não-ocorrência do R e a ocorrência ou não-ocorrência de B são eventos independentes em sua distribuição de probabilidade condicional dado Y. Em outras palavras, R e B são condicionalmente independentes dado Y se, e somente se, sabendo que Y ocorre, saber se R ocorre não fornece nenhuma informação sobre a probabilidade de B ocorrer, e saber se B ocorre não fornece nenhuma informação sobre a probabilidade de R ocorrer.

Definição formal[editar | editar código-fonte]

Na notação padrão da teoria de probabilidade, os eventos R e B são condicionalmente independentes dado um terceiro evento Y se, e somente se,

ou equivalentemente,

Duas variáveis aleatórias X e Y são condicionalmente independentes dada uma terceira variável aleatória Z se, e somente se, eles são independentes na sua distribuição de probabilidade condicional dado Z. Isto é, X e Y são condicionalmente independentes dado Z se, e somente se, dado qualquer valor de Z, a distribuição de probabilidade de X é a mesmo para todos os valores de Y e a distribuição de probabilidade de Y é a mesma para todos os valores de X.

Dois eventos R e B são condicionalmente independentes dada uma σ-álgebra Σ se

onde denota a expectativa condicional da função indicadora do evento , dada a sigma-álgebra . Isto é,

Duas variáveis aleatórias X e Y são condicionalmente independentes dada uma σ-álgebra Σ se a equação acima vale para todo o R em σ(X) e B em σ(Y).

Duas variáveis aleatórias X e Y são condicionalmente independentes dada uma variável aleatória W se eles são independentes dada σ(W): a σ-álgebra gerada por W. Isso é comumente escrito:

ou

Isto se lê como "X é independente de Y, dado W"; o condicionamento aplica-se a declaração toda: "(X é independente de Y) dado W".

Se W pressupõe um conjunto contável de valores, isto é equivalente a independência condicional de X e Y para os eventos da forma [W = w]. A independência condicional de mais de dois eventos, ou de mais de duas variáveis aleatórias, é definida de forma análoga.

Os dois exemplos seguintes mostram que XY nem implica nem é expressa por XY | W. Primeiro, suponha que W é 0 com probabilidade 0,5 e 1 em caso contrário. Quando W = 0 tome X e Y como independentes, cada uma tendo valor 0 com probabilidade de 0,99 e 1 em caso contrário. Quando W = 1, X e Y novamente estão independentes, mas desta vez eles tomam o valor 1 com probabilidade de 0,99. Então, XY | W. Mas X e Y são dependentes, por que Pr(X = 0) < Pr(X = 0|Y = 0). Isto por que Pr(X = 0) = 0.5, mas se Y = 0 então é muito provável que W = 0 e, assim, X = 0, então Pr(X = 0|Y = 0) > 0.5. Para o segundo exemplo, suponha que X Y, cada um tomando os valores 0 e 1 com probabilidade 0.5. Seja W o produto X×Y. Em seguida, quando W = 0, Pr(X = 0) = 2/3, mas Pr(X = 0|Y = 0) = 1/2, então, XY | W é falso.

Exemplo[editar | editar código-fonte]

A discussão sobre StackExchange[1] fornece um par de exemplos úteis.


  1. Sejam os dois eventos as probabilidades de pessoas A e B chegarem em casa a tempo para o jantar, e o terceiro evento é o fato de que uma tempestade de neve atingiu a cidade. Enquanto ambos A e B têm uma menor probabilidade de chegar em casa a tempo para o jantar, as probabilidades menores ainda serão independentes umas das outras. Isto é, o conhecimento de que A está atrasado, não diz se B irá se atrasar. Eles podem viver em bairros diferentes, viajar distâncias diferentes, e utilizar diferentes meios de transporte. No entanto, se você souber que eles vivem no mesmo bairro, usam o mesmo transporte, e trabalham no mesmo lugar, então, os dois eventos não são condicionalmente independentes.
  2. Independência condicional depende da natureza do terceiro evento. Se você rolar dois dados, pode-se assumir que os dois dados se comportam de forma independente um do outro. Saber os resultados do primeiro dado não diz sobre os resultados do segundo dado, isto é, os dois dados são independentes. Se, no entanto, o resultado do primeiro dado é 3, e alguém informa sobre um terceiro evento - que a soma dos dois resultados é par, por exemplo - então esta informação adicional restringe as opções do segundo resultado para um número ímpar. Em outras palavras, dois eventos podem ser independente, mas não condicionalmente independentes.
  3. A altura e o vocabulário não são independentes, mas elas são condicionalmente independentes, se você adicionar a idade.

Usos na inferência bayesiana[editar | editar código-fonte]

Seja p a proporção de eleitores que vão votar "sim" em um referendo. Em uma pesquisa de opinião, escolhe-se n eleitores aleatoriamente a partir da população. Para i = 1, ..., n, seja Xi = 1 ou 0, correspondendo, respectivamente, se o i-ésimo eleitor escolhido vai ou não votar "sim".

Em uma abordagem frequentista de inferência estatística não se atribuiria qualquer distribuição de probabilidade para p (a menos que as probabilidades possam ser, de alguma forma, interpretadas como frequências relativas de ocorrência de algum evento ou como proporções de alguma população) e pode-se dizer que X1, ..., Xn são variáveis aleatórias independentes.

Por outro lado, em uma abordagem bayesiana de inferência estatística, atribuiria-se uma distribuição de probabilidade para p, independentemente da não-existência de qualquer interpretação de "frequência", e interpretaria-se as probabilidades como graus de crença de que p está em qualquer intervalo para o qual a probabilidade é atribuída. Nesse modelo, as variáveis aleatórias X1, ..., Xn não são independentes, mas elas são condicionalmente independentes, dado o valor de p. Em particular, se um grande número de Xs são observados sendo iguais a 1, implica uma alta probabilidade condicional, dada tal observação, de que p está próximo de 1, e, portanto, uma alta probabilidade condicional, dada tal observação, que o próximo X a ser observado será igual a 1.

Regras de independência condicional[editar | editar código-fonte]

Um conjunto de regras que regem as afirmações da independência condicional são derivados a partir da definição básica.[2][3]

Nota: uma vez que estas implicações se mantém para qualquer espaço de probabilidade, eles ainda irão se manter se considerar-se um sub-universo condicionando tudo em outra variável, digamos K. Por exemplo, também significaria que .

Nota: abaixo, a vírgula pode ser lido como um "E".

Simetria[editar | editar código-fonte]

Decomposição[editar | editar código-fonte]

Prova:

  •      (significado de )
  •      (ignora-se a variável B integrando-a)
  •     

Uma prova similar mostra a independência de X e B.

União fraca[editar | editar código-fonte]

Prova:

  • Por definição, .
  • Devido à propriedade de decomposição , .
  • Combinando as duas igualdades tem-se , que estabelece .

A segunda condição pode ser provada do mesmo modo.

Contração[editar | editar código-fonte]

Prova:

Esta propriedade pode ser comprovada por cada igualdade do que é afirmado por e , respectivamente.

Contração-união-fraca-decomposição[editar | editar código-fonte]

Colocando os três acima juntos, tem-se que:

Category:All articles with unsourced statements Category:Articles with unsourced statements from April 2014 [citação necessários]

Intersecção[editar | editar código-fonte]

Para distribuições de probabilidade estritamente positivas,[3] o seguinte também é verdadeiro:

As cinco regras acima foram denominadas "axiomas grafóides" por Pearl e Paz,[4] porque elas se mantém em grafos, se é interpretado significando que "todos os caminhos de X para A são interceptados pelo conjunto B".[5]

Veja também[editar | editar código-fonte]

7,6176

3,44

Referências[editar | editar código-fonte]

  1. http://math.stackexchange.com/questions/23093/could-someone-explain-conditional-independence
  2. Dawid, A. P. (1979).
  3. a b J Pearl, Causality: Models, Reasoning, and Inference, 2000, Cambridge University Press
  4. Pearl, Judea; Paz, Azaria (1985).
  5. Pearl, Judea (1988).

[[:Categoria:Teoria das probabilidades]]