Usuário:Ivan M. Lerner/Propagação de Incertezas

Origem: Wikipédia, a enciclopédia livre.

Introdução[editar | editar código-fonte]

Em Estatística, propagação de incerteza ou propagação de erro é uma técnica utilizada na análise de incertezas para grandezas que são determinadas por outras que contém incertezas.

Na realização de um experimento científico, ou qualquer outro experimento que haja coleta de dados, é raro o caso em que a análise do resultado dependa somente dos dados brutos encontrados. Os dados normalmente são coletados afim de comparar os resultados com outros experimentos, ou para testar uma teoria, ou mesmo obter informações mais aprofundadas sobre determinado fenômeno. Nessas análises os dados são usados para se comparar pelo menos duas grandezas (considerando casos em que se pretende estudar alguma coisa, e não casos como medidas usadas para a construção de um móvel), mas nem sempre é possível medir essas grandezas diretamente, sendo necessária a medida de outras grandezas que definam as que se quer comparar. Um exemplo disso é a velocidade. Não há como medir a velocidade propriamente dita, mas podemos medir distâncias e tempos, obtendo assim a velocidade média.

Como qualquer medição experimental essas medidas têm erros, que vêm tanto da precisão do instrumento, quanto da flutuação estatística dos dados (dada pelo desvio padrão). Quando se faz medições afim de chegar indiretamente a outras grandezas, essas incertezas precisam ser levadas em conta, e há uma forma de se calcular a incerteza final da grandeza encontrada indiretamente.

Fórmula de propagação de incertezas[editar | editar código-fonte]

A fórmula geral para a propagação de incertezas de variáveis independentes (não correlacionadas) é a seguinte:

Onde é a função para a qual se quer calcular a incerteza e é o desvio padrão em .

É considerada por definição apenas a raiz positiva quando se tira a raiz de ambos os lados da equação para encontrar .

Essa fórmula só é válida para grandezas com distribuições de erro simétricas.

Dedução formal[editar | editar código-fonte]

Considera-se as variáveis como grandezas com distribuições de erro simétricas e desvios padrões .

Suponhamos que tenham sido tomados conjuntos de dados. Assim, temos valores para que podem ser aproximados por uma expansão em série de Taylor:

Onde é o valor médio verdadeiro de , e é onde as derivadas parciais devem ser calculadas.

Para que possamos aproximar o desvio apenas pelos termos de primeira ordem é a de que os termos quadráticos sejam desprezíveis quando esse desvio é da ordem de grandeza do desvio padrão . Isso significa que, do ponto de vista da propagação de erros, essa função pode ser considerada como lentamente variável. Essa condição é satisfeita quando a primeira derivada é praticamente constante, o que mostra que estamos considerando que a função pode ser aproximada como uma reta em relação à cada coordenada. Podemos desprezar desvios muito maiores do que o desvio padrão porque tais desvios tem probabilidade desprezível.

É fácil mostrar que o valor médio verdadeiro de é e o mesmo vale para o valor médio real

Assim, o desvio padrão é obtido por (considerando apenas termos de primeira ordem):

Exemplos de cálculo de incerteza para funções básicas[editar | editar código-fonte]

Exemplo 1: soma ou subtração de funções polinomiais[editar | editar código-fonte]

Percebe-se nesse exemplo que o sinal não afeta a contribuição da incerteza da variável para a incerteza final.

Exemplo 2: produto ou razão de funções polinomiais[editar | editar código-fonte]

, onde é diferente de zero.

E a relação entre as incertezas percentuais é:

Isso mostra que a contribuição de uma incerteza para a incerteza total é proporcional ao grau da variável correspondente.