Variável aleatória

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa

Uma variável aleatória pode ser entendida como uma variável quantitativa, cujo resultado (valor) depende de fatores aleatórios.

Matematicamente, variável aleatória é uma função que associa elementos do espaço amostral a valores numéricos, ou seja,

                               X: \Omega \to \mathbb{R},

Representamos as variáveis aleatórias por letras maiúsculas e suas ocorrências por letras minúsculas.

Imagine o lançamento de um dado honesto. De antemão, podemos conhecer os seus possíveis resultados ( S = { 1, 2, 3, 4 , 5, 6} ), mas o resultado em si depende de fatores de sorte (álea). Assim, nesse exemplo,o resultado obtido no lançamento do dado é uma variável aleatória.

Mais um exemplo. Suponha a experiência aleatória lançar três moedas, e considere X = número de ocorrências da face cara. O espaço amostral do experimento S é: S = f(cara; cara; cara); (cara; cara; coroa); (cara; coroa; cara); (cara; coroa; coroa); (coroa; cara; cara); (coroa; cara; coroa); (coroa; coroa; cara); (coroa; coroa; coroa).

Ainda em termos formais, podemos conceituar Variável aleatória como uma função que associa a todo evento pertencente a uma partição do espaço amostral \Omega um único número real[1] . Uma variável aleatória pode ser ainda uma função (transformação) dessa variável aleatória original (ou seja, uma função da função, uma função composta)[2] . Por exemplo, no espaço amostral relativo ao "lançamento simultâneo de duas moedas", temos \Omega={(cara,cara),(cara,coroa),(coroa,cara),(coroa,coroa)}, poder-se-ia definir a variável aleatória X como o "número de caras"[3] . Também seria possível definir a variável aleatória Y = 3 para cada cara + 2 para cada coroa, a variável Z=X*2 (ou seja, uma transformação de uma variável aleatória anterior), etc.

Ponto amostral variável aleatória X = número de caras variável aleatória Y= número de caras*3+número de coroas*2 variável aleatória Z = X*2
(cara,cara) X(cara,cara)=2 Y(cara,cara)=(2*3)+(0*2)=6 Z(X(cara,cara))=2*2=4
(cara,coroa) X(cara,coroa)=1 Y(cara,coroa)=(1*3)+(1*2)=5 Z(X(cara,coroa))=1*2=2
(coroa,cara) X(coroa,cara)=1 Y(coroa,cara)=(1*3)+(1*2)=5 Z(X(coroa,cara))=1*2=2
(coroa,coroa) X(coroa,coroa)=0 Y(coroa,coroa)=(0*3)*(2*2)=4 Z(X(coroa,coroa))=0*2=0

Intuitivamente, uma variável aleatória pode ser vista como uma medição de algum parâmetro que pode gerar um valor diferente a cada medida - por exemplo, o resultado de jogar um dado pode dar qualquer número de 1 a 6.

A noção de variável aleatória é essencial em estatística e métodos quantitativos para a representação compacta de fenômenos incertos[4] .

Definição[editar | editar código-fonte]

desenho esquemático da função variável aleatória

Em Estatística, as seguintes definições para variável aleatória são equivalentes:

  1. Variável aleatória é um tipo de variável que pode assumir diferentes valores numéricos, definidos para cada evento de um espaço amostral \Omega [5]
  2. Variável aleatória pode ser entendida como o resultado numérico de operar um mecanismo não determinístico ou de fazer uma experiência não determinística para gerar resultados aleatórios.
  3. variável aleatória é uma função de um espaço amostral \Omega nos números reais[6] .[7] Isto é a mesma coisa que dizer:
Em linguagem matemática Em Português
X: \Omega \to \mathbb{R} \Leftrightarrow {\color{Red} \left [ X\le x \right ]} \in A, \forall x \in \mathbb{R}, sendo que A é o sigma-álgebra de \Omega A função X de ômega em R será uma variável aleatória se, e somente se, para todo x que a função assumir, o conjunto X dos valores menores ou iguais a x pertencer ao sigma-álgebra, para qualquer x pertencente ao conjunto dos números Reais.

4) Quando uma variável tem resultados ou valores que tendem a variar de uma observação para outra em razão de fatores relacionados com a chance, chama-se variável aleatória..

Em linguagem matemática, teremos:

                                       X: \Omega \to \mathbb{R},

em que X é a função (variável aleatória), \Omega é o sigma-álgebra (domínio da função) e {R} é o conjunto dos números reais (contradomínio da função).

Classificação das variáveis aleatórias[editar | editar código-fonte]

As variáveis aleatórias podem ser discretas ou contínuas,unidimensionais ou bidimensionais.

Texto do cabeçalho Discretas: tomam um número finito ou enumerável (infinito, porém contável) de valores Contínuas: conjunto de valores possíveis não é enumerável Mistas Singulares: FX é uma função contínua cujos pontos de crescimento formam um conjunto de comprimento (medida deLebesgue) nulo
Unidimensional Considere-se a experiência "lançar um dado". A variável aleatória X que traduz o resultado desta experiência pode tomar os valores 1,2,3,4,5 ou 6. O conjunto Ω = { 1, 2, 3, 4, 5, 6 } é o espaço amostral e os subconjuntos de Ω chamam-se eventos ou acontecimentos. Neste caso, a probabilidade de cada evento elementar {1}, {2}, {3}, {4}, {5}, {6} é igual a 1/6. A probabilidade num lançamento de um dado sair um número par é a probabilidade do evento {2,4,6}, que é P(X(ω)∈{2,4,6})=3/6=1/2. Na experiência "Escolher uma pessoa ao acaso entre os passantes e medir a sua altura" a variável aleatória X tomaria valores entre 0 e 3 metros (embora alguns valores tivessem probabilidade 0), isto é Ω = [0,3]. A probabilidade de se escolher uma pessoa com pelo menos 2 metros seria traduzida por P(X(\omega)\ge 2) ou P(X(\omega)\in[2,3]). exemplo
Multidimensional (ou vetor aleatório) Z=resposta de duas pessoas sobre dois projetos de lei (0=desfavorável e 1=favorável). As opiniões da primeira pessoa estão na primeira linha e as da segunda pessoa na segunda linha. As opiniões sobre o primeiro projeto estão na primeira coluna e sobre o segundo projeto na segunda coluna. Z poderia assumir os valores \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}, no caso de as duas pessoas serem desfavoráveis aos dois projetos, \begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}, no caso de apenas a primeira pessoa ser favorável aos dois projetos, etc. exemplo

Funções associadas às variáveis aleatórias[editar | editar código-fonte]

Mesmo sendo uma função em si, a variável aleatória está intimamente relacionada com três outras funções, a saber:

Função de distribuição acumulada[editar | editar código-fonte]

Apresenta a probabilidade de uma variável aleatória assumir valores até determinado ponto do domínio. Por exemplo, qual é a probabilidade de o resultado do dado ser menor ou igual a 3?

Função densidade de probabilidade ou função de probabilidade[editar | editar código-fonte]

Apresenta a probabilidade de uma variável aleatória assumir determinado valor do domínio. Por exemplo, qual é a probabilidade de o resultado do dado ser igual a 3?

Se a variável aleatória é do tipo multivariado, então a função densidade se transforma numa função conjunta.

A função de probabilidade assume diferentes nomes dependendo do tipo de variável aleatória:

Tipo de variável aleatória Univariada ou unidimensional Multivariada (vetor aleatório)
Discreta função de probabilidade[8] Função de distribuição conjunta
Contínua Função densidade de probabilidade Função densidade de probabilidade conjunta

Funções de variáveis aleatórias[editar | editar código-fonte]

As transformações de variáveis aleatórias também são variáveis aleatórias. Estas Funções de variáveis aleatórias são, portanto, funções de funções.

Se temos uma variável aleatória X em Ω e uma função mensurável F: \mathbb{R} \to \mathbb{R}, então Y = f(X) será também uma variável aleatória em Ω, uma vez que a composição de funções mensuráveis é mensurável. O mesmo processo que nos permitia ir de um espaço probabilidade (Ω,P) para (R,dFX) pode ser usado para obter a distribuição probabilidade de Y. A função distribuição acumulada de Y é

F_Y(y) = \operatorname{P}(f(X) \le y).

Exemplo[editar | editar código-fonte]

Seja X uma variável aleatória real e seja Y = X². Então,

F_Y(y) = \operatorname{P}(X^2 \le y).

Se y <0, então P(X2y) = 0, logo

F_Y(y) = 0\qquad\hbox{se}\quad y <0.

Se y ≥ 0, então

\operatorname{P}(X^2 \le y) = \operatorname{P}(|X| \le \sqrt{y})
 = \operatorname{P}(-\sqrt{y} \le X \le \sqrt{y}),

Esta probabilidade pode ser escrita como:

\operatorname{P}(-\sqrt{y} \le X \le \sqrt{y}) = \operatorname{P}(X \le \sqrt{y}) - \operatorname{P}(X < -\sqrt{y})

A primeira parcela é \operatorname{P}(X \le \sqrt{y}) = F_X(\sqrt{y}). A segunda parcela, porém, é a distribuição acumulada menos a chance de X ser igual a -\sqrt{y}, ou seja:

\operatorname{P}(X <  -\sqrt{y}) = F_X(-\sqrt{y}) - P(X = -\sqrt{y}).

logo

F_Y(y) = F_X(\sqrt{y}) - F_X(-\sqrt{y}) + P(X = -\sqrt{y})\qquad\hbox{se}\quad y \ge 0.

Momentos[editar | editar código-fonte]

A distribuição de probabilidade de uma variável aleatória é frequentemente caracterizada por um pequeno número de parâmetros, os quais também têm uma interpretação prática. Por exemplo, é muitas vezes suficiente saber qual é o seu "valor médio". Esta noção é capturada pelo conceito matemático de valor esperado de uma variável aleatória, que se costuma notar por E[X]. Note-se que em geral, E[f(X)] não é o mesmo que f(E[X]). Uma vez que o valor médio é conhecido, podemos então querer perguntar a que distância é que os valores de X se encontram deste valor médio, uma questão que é respondida pela variância e desvio padrão de uma variável aleatória.

Matematicamente, isto é conhecido como o problema (generalizado) dos momentos: para uma dada classe de variáveis aleatórias X, encontre uma coleção {fi} de funções tais que os valores esperados E[fi(X)] caracterizem completamente a distribuição da variável aleatória X.

Equivalência de variáveis aleatórias[editar | editar código-fonte]

Há vários sentidos em que podemos dizer que duas (ou mais) variáveis aleatórias são equivalentes. Duas variáveis aleatórias podem ser iguais, iguais quase com certeza, iguais em média ou iguais em distribuição.

Em ordem crescente de força, a definição precisa destas noções de equivalência é dada abaixo. Para mostrar que a implicação inversa nem sempre é válida, segue uma lista de contra-exemplos.

Igualdade de distribuição[editar | editar código-fonte]

Duas variáveis aleatórias X e Y são "iguais em distribuição" se

\operatorname{P}(X \le x) = \operatorname{P}(Y \le x)\quad\hbox{para todo}\quad x.

Para serem iguais em distribuição, variáveis aleatórias não têm de ser definidas no mesmo espaço de probabilidade. A noção de equivalência de distribuição é associada à seguinte noção de distância entre distribuições de probabilidade:

d(X,Y)=\sup_x|\operatorname{P}(X \le x) - \operatorname{P}(Y \le x)|,

que é a base do Teste Kolmogorov-Smirnov.

Igualdade de média[editar | editar código-fonte]

Duas variáveis aleatórias X e Y são iguais na média de ordem p se o momento de ordem p de |XY| é zero, ou seja,

\operatorname{E}(|X-Y|^p) = 0.

Igualdade na média de ordem p implica a igualdade nas médias de ordem q para todos os „q“ tais que q<p. Tal como no caso anterior, existe uma distância relacionada entre as variáveis aleatórias, nomeadamente

d_p(X, Y) = \operatorname{E}(|X-Y|^p).

Igualdade quase certa[editar | editar código-fonte]

Duas variáveis aleatórias X e Y são quase seguramente iguais se, e apenas se, a probabilidade de que elas são diferentes é zero:

\operatorname{P}(X \neq Y) = 0.

Para todos os objectivos práticos da teoria da probabilidade, esta noção de equivalência é tão forte como a verdadeira igualdade. Está associada à seguinte distância:

d_\infty(X,Y)=\sup_\omega|X(\omega)-Y(\omega)|,

onde 'sup' representa neste caso o supremum essencial no sentido conhecido da teoria da medida.

Igualdade[editar | editar código-fonte]

Finalmente, duas variáveis aleatórias X e Y são iguais se elas são iguais como funções no seu espaço probabilidade, que é,

X(\omega)=Y(\omega)\qquad\hbox{para todo}\quad\omega

Contra-exemplos[editar | editar código-fonte]

Igualdade de distribuição mas não igualdade de média[editar | editar código-fonte]

Considerando-se \Omega o espaço dos lançamentos de dois dados honestos e as variáveis aleatórias:

X = Valor do primeiro dado
Y = Valor do segundo dado

observa-se que X e Y são iguais em distribuição, mas não são iguais em média. Nesse caso, X e Y são independentes. Outro exemplo, um pouco mais complicado, é a variável aleatória

Z = o primeiro dado, se ele for 1 a 4 ou 5 se o primeiro dado for 5 ou 6 e o segundo dado for ímpar ou 6 se o primeiro dado for 5 ou 6 e o segundo dado for par

Essa variável é igual em distribuição a X e Y (porque P(Z = n) = 1/6 qualquer que seja n), mas Z não é independente de X nem de Y.

Convergência[editar | editar código-fonte]

Muita da estatística matemática consiste em provar resultados convergentes para certas sequências de variáveis aleatórias; ver por exemplo a lei dos grandes números e o teorema do limite central.

Há vários casos nos quais a sequência (Xn) de variáveis aleatórias pode convergir para uma variável aleatória X.

Exemplos[editar | editar código-fonte]

Os números que se seguem são exemplos de inteiros aleatórios i, 1 ≤ i ≤ 100 (como disse o matemático polonês Mark Kac: uma tabela de números aleatórios, depois de publicada, não precisa de uma errata)

17 12 17 89 64 4 62 6 82 80 61 100 19 7 35 4 23 43 49 69 4 81 64 52 33 59 56 56 46 25 2 44 34 73 58 48 94 18 65 47 73 16 69 26 26 65 35 65 64 2 59 36 52 77 52 14 79 42 71 82 60 28 72 96 77 72 78 58 71 44 99 41 41 80 53 67 7 66 49 86 94 85 47 27 1 6 86 50 32 26 60 79 94 53 72 98 78 46 73 50 49 3 77 57 56 23 20 70 1 58 42 72 16 84 96 44 42 76 19 71 57 17 34 66 68 63 100 37 38 68 52 52 42 86 15 53 76 59 43 94 67 21 74 73 85 16 12 45 57 7 4 22 23 74 15 63 80 65 76 88 39 39 100 96 85 64 16 55 62 50 71 27 48 95 96 30 65 33 71 50 39 1 70 99 55 74 2 74 98 48 99 90 28 66 41 17 80 35 8 30 85 41 68 18 46 86 91 40 20 43 71 95 48 40 79 88 77 49 81 52 15 8 11 51 26 99 8 28 37 47 37 17 30 27 39 33 65 8 31 73 48 96 41 78 9 89 72 16 61 48 73 90 39 34 7 41 1 87 48 83 41 64 61 47 71 2 35 66 74 29 74 7 61 22 46 46 4 59 23 79 33 7 31 41 54 63 91 81 58 66 83 24 37 84 16 55 9 52 92 69 44 27 57 38 70 37 33 23 24 18 74 20 87 73 28 85 34 31 76 25 6 38 15 73 16 79 83 94 21 52 34 19 66 5 97 33 100 63 36 100 4 63 84 8 21 21 92 60 72 22 25 80 23 8 10 10 63 44 14 86 47 17 45 4 18 21 44 27 88 10 92 90 27 54 73 68 13 15 68 31 4 83 46 97 97 32 12 66 66 87 100 75 99 75 73 16 86 90 66 51 59 80 87 40 35 21 76 65 74 73 26 41 17 67 88 54 42 62 98 78 19 29 60 79 19 76 13 95 68 76 86 47 91 23 25 50 57 27 97 30 16 82 5 7 31 72 64 18 32 100 54 18 51 66 38 74 91 75 41 81 21 32 96 78 90 9 82 21 84 80 65 72 52 17 81 50 1 90 14 45 11 76 91 31 20 93 30 30 66 10 20 37 89 3 71 35 96 82 11 14

Ver também[editar | editar código-fonte]

Referências

  1. MORETTIN, Luiz Gonzaga. Estatística básica. Volume I- probabilidade. 7ª edição. São Paulo: Pearson Education do Brasil, 1999. Página 42.
  2. CASELLA, George, e BERGER, Roger L. Inferência estatística - tradução da 2ª edição norte-americana. Centage Learning, 2010 ISBN13: 9788522108947, ISBN10: 8522108943. Página 43.
  3. CRESPO, Antônio Arnot. Estatística fácil. São Paulo: Saraiva, 2002. 18ª edição, 2002, 3ª tiragem, 2004. Página 137.
  4. AZEVEDO Filho, Adriano. Introdução à Estatística Matemática Aplicada. Vol I - Fundamentos. 2009. Disponível em: <http://www.laplacebooks.com/estatistica/livro.pdf>. Acesso em: 12 fevereiro de 2011. Página 90
  5. AZEVEDO Filho, Adriano. Introdução à Estatística Matemática Aplicada. Vol I - Fundamentos. 2009. Disponível em: <http://www.laplacebooks.com/estatistica/livro.pdf>. Acesso em: 12 fevereiro de 2011. Página 90
  6. CASELLA, George, e BERGER, Roger L. Inferência estatística - tradução da 2ª edição norte-americana. Centage Learning, 2010 ISBN13: 9788522108947, ISBN10: 8522108943. Página 26.
  7. ROCHA, Silvana H. Variáveis aleatórias - aula 9. Departamento Acadêmico de Matemática. Universidade Tecnológica Federal do Paraná/Campus Curitiba. Página 2. disponível em: <http://www.im.ufrj.br/~lpbraga/probest/aulas/int_estatistica_aula7.pdf>. Acesso em: 12 de fevereiro de 2011.
  8. CASELLA, George, e BERGER, Roger L. Inferência estatística - tradução da 2ª edição norte-americana. Centage Learning, 2010 ISBN13: 9788522108947, ISBN10: 8522108943. Página 32.