Incerteza de medição

Origem: Wikipédia, a enciclopédia livre.

A incerteza é um parâmetro que indica a qualidade de uma medida de uma forma quantitativa. [1]

A noção de incerteza é importante a partir do momento que afirmamos algo sobre o mundo externo, sob o qual não temos absoluto conhecimento. Resultados obtidos a partir da matemática ou da física teórica não apresentam incertezas. Estes são exatos, já que provém de definições ( axiomas e teoremas, etc.) criados pelo homem. Ou seja, estes resultados são, de certa forma, uma reafirmação destas definições. Quando fazemos uma medida, não temos total controle e nem absoluta certeza sobre a natureza do mensurando (i.e., aquilo que é medido). [2]

Incertezas têm um papel particularmente importante em ciências da natureza, já que é essencial a reproducibilidade de resultados. Sendo assim, precisamos de uma quantidade que nos indique quando uma medida fora do usual é resultado de um erro na teoria ou na montagem do experimento e quando é um resultado de flutuações estatísticas aleatórias. [3] Quando se realiza um experimento para medir alguma grandeza, tenta-se eliminar todos os erros que podem vir da teoria e/ou do aparato que utilizamos. Porém, é impossível tomar conta de todas as flutuações, como na temperatura, no suprimento de voltagem para os aparelhos, na radiação de fundo, vibração dos instrumentos de suporte, etc. [2] Por isso, a incerteza é uma característica fundamental de qualquer experimento. Existem métodos baseados em probabilidade que nos permitem analisar e julgar os resultados das medições e atribuir a elas um grau de confiabilidade, contanto que as flutuações provenham apenas destas flutuações.

Fontes de incerteza[editar | editar código-fonte]

Erros sistemáticos com poucos erros aleatórios: valores bem concentrados mas longe do valor real.
Erros aleatórios com poucos erros sistemáticos: valores bem espalhados em torno do valor real.

As fontes de incerteza são muitas e podem ser divididas em duas categorias: erros sistemáticos e erros aleatórios.[2]

Erros sistemáticos estão associados à exatidão. São aqueles que afetam todas as medidas de uma mesma forma. Como exemplos, podemos citar erros de calibração, de interpretação e de atribuição de valores a constantes. Para lidar com estes erros, somente podemos revisar o aparato experimental e a teoria. Normalmente, quando um erro sistemático é percebido, uma mesma correção é suficiente para todos os dados, já que o erro afeta a todos de uma mesma maneira.[4]

Erros aleatórios, por sua vez, estão associados à precisão e são devidos a flutuações das condições de medida. Afetam as medidas em todas as direções, já que são de natureza aleatória. Estes erros não podem ser completamente eliminados, mas podem ser atenuados. Podemos controlar grandezas como pressão, umidade, temperatura, horário, fontes de energia, mas sempre haverá flutuações que farão com que uma medida não seja exatamente igual a outra. Para lidar com estes erros e estimar sua magnitude, utilizam-se técnicas de estatística.

Incerteza em uma medida única[editar | editar código-fonte]

Muitas vezes, não há muito sentido em medir a mesma quantidade diversas vezes para avaliar flutuações estatísticas. Por exemplo, quando medimos a massa em uma balança, ou o comprimento com uma régua, etc. Quando medimos uma quantidade uma única vez, o erro e a estimativa deste advêm do julgamento de quem a mediu. [2] [5]

Uma regra prática é utilizar metade da menor escala para expressar a incerteza. Por exemplo, se medirmos um bastão com uma régua dividida em milímetros, podemos dizer que ele mede 22,1 cm. Porém, isto é um arredondamento. O que queremos dizer é que o valor está em algum lugar entre 22,05 e 22,15 cm. Normalmente, expressa-se como 22,1 ± 0,05 cm. Muitos adotam a convenção de que, ao expressar uma medida sem intervalo de incerteza, é suposto uma incerteza de mais ou menos metade do valor da unidade do último dígito. Por exemplo, expressar 22 mm seria o mesmo que 22 ± 0,5 mm.[6]

Devemos tomar cuidado, pois podemos ter uma régua com divisões muito pequenas, que acabem sendo indistinguíveis para o observador. Dizer que observamos um valor nesta escala seria superestimar a capacidade de julgamento que se tem, fazendo-nos perder a credibilidade. Por outro lado, podemos ter uma régua com divisões muito grandes. Ao utilizar esta escala, podemos ter uma incerteza comparável ao tamanho do que queremos medir, fazendo com que a medida perca a utilidade. Por isso, deve-se atentar para a escala do que vamos medir ao escolher o instrumento.

Propagação de erros[editar | editar código-fonte]

Suponha que tenhamos uma quantidade f = f(x), que é função de uma outra quantidade x. Se medirmos x e obtivermos como resultado x = x0 ± δx, onde δx é a incerteza em x, qual é a incerteza δf que devemos atribuir a f(x0)?. Podemos calcular δf pela seguinte fórmula:

Onde fʼ = df/dx é a derivada de f(x) em relação à variável x. Uma maneira intuitiva de ver esta fórmula, é que fʼ(x) é o quão rápido f(x) varia quando x varia. Logo, as flutuações em x geram flutuações em f(x) proporcionais ao quanto este varia com aquele.

Esta fórmula é estendida intuitivamente para uma função de n variáveis f(x1, x2, ..., xn) da seguinte forma:

Onde fxi = ∂f/∂xi é a derivada parcial de f(x1,0, x2,0, ..., xn,0) em relação à variável xi, e xi,0 é o valor medido de xi com incerteza δxi. No caso, utilizamos o valor do módulo de ∂f/∂xi para que δf tenha apenas contribuição positivas. Isso é devido ao fato de que devemos adotar uma posição pessimista e ver que os erros poderiam colaborar todos numa mesma direção. [2] [3] [6]

Incerteza em múltiplas medidas[editar | editar código-fonte]

Uma das maneiras de melhorar os resultados de um experimento, é repeti-lo e recolher mais dados. Suponha que tenhamos uma sequência de n medidas, x1, x2, ..., xn, de uma mesma quantidade. Assumindo que só tenhamos erros de origem aleatória, o valor que se aproxima mais do valor real do mensurando, ou o melhor valor, é[6] [2]

Esta quantidade é conhecida como média amostral. Também podemos medir a dispersão dos resultados ao redor da média. É comum se utilizar o parâmetro chamado de variância amostral

Também utiliza-se o desvio padrão s = (s2)1/2 para representar o quão dispersas estão as medidas. A incerteza da medida está claramente relacionada ao desvio padrão.

Se os resultados das medidas não estão simetricamente distribuidos em torno da média, devemos ter cuidado ao interpretar o significado de s.[2]

Propagação de erros[editar | editar código-fonte]

Neste caso, nos preocupamos em saber a melhor estimativa para o desvio padrão sf de uma função f(x1,0, x2,0, ..., xn,0) das variáveis medidas. Pode-se mostrar que[2]

Modelos matemáticos para erros aleatórios[editar | editar código-fonte]

Para analisar erros aleatórios, fazemos uso de modelos matemáticos. Imaginamos que os erros estão distribuídos de acordo com uma distribuição de probabilidade. Quando temos uma amostra (i.e., uma coleção de medidas), podemos estimar parâmetros desta distribuição. Porém, podemos apenas estimar. Somente conseguiríamos obter estes parâmetros exatamente com infinitas repetições do experimento. A distribuição normalmente usada é a gaussiana, para experimentos de medição, e a poissoniana, para experimentos de contagem.[4] É importante que não se assuma que a distribuição dos erros é gaussiana ou poissoniana, mas que se teste experimentalmente.[3]

Existem testes estatísticos para se verificar se a distribuição teórica tem afinidade com a distribuição das medidas obtidas. Um dos mais utilizado é o teste de chi-quadrado.

Função de densidade de probabilidade gaussiana[editar | editar código-fonte]

Ver artigo principal: Distribuição normal

A função de densidade é frequentemente utilizada para lidar com erros aleatórios e também é chamada de distribuição normal. Assume-se que os erros nas medidas seguem uma distribuição gaussiana quando existe um número muito grande de flutuações que afetam pouco e o valor da medida e igualmente para mais ou para menos.[2] [3] Esta distribuição nos diz a probabilidade de que o erro na medida esteja entre x e x + dx. A distribuição gaussiana normalizada possui a forma:

Onde σ é o desvio padrão dos erros, que é o mesmo de uma quantidade medida submetida a estes erros[carece de fontes?]. Podemos estimar σ utilizando o valor calculado para o desvio padrão amostral s.

Podemos calcular a probabilidade Pa,b de que o erro esteja num intervalo entre a e b calculando a integral

Esta integral pode ser calculada utilizando tabelas dispoíveis em diversos livros de estatística.[6] É deste cálculo que são inferidos os intervalos de confiança. Normalmente, é dito que se tem uma probabilidade Pa,b de que o erro esteja contido no intervalo entre a e b. Para a = -σ e b = +σ, Pa,b é aproximadamente 0,687.

As incertezas que seguem esta distribuição normalmente são expressas em unidades de σ.

Função de distribuição de probabilidade poissoniana[editar | editar código-fonte]

Ver artigo principal: Distribuição de Poisson

Também conhecida como distribuição poissoniana, é utilizada principalmente em experimentos de contagem, quando temos uma taxa μ de eventos bem definida em um certo intervalo. A distribuição é um caso limite da distribuição binomial. A distribuição nos diz que a probabilidade de observarmos ν contagens neste mesmo intervalo é

Para valores grandes de μ, a distribuição de Poisson tende a uma gaussiana com desvio padrão ν1/2.[7] Por isso, em experimentos de contagem com uma alta taxa de contagem (> 10), podemos utilizar a chamada regra da raiz quadrada para experimentos de contagem. A regra diz que podemos expressar a incerteza de uma medida de ν contagens de eventos aleatoriamente distribuídos no tempo como ν1/2.[6] [3]

Referências

  1. ABNT e INMETRO, Guia para a Expressão da Incerteza de Medição (2003), Rio de Janeiro: SAFIRA Comunicação
  2. a b c d e f g h i Baird, D. C., Experimentation: An Introduction to Measurement Theory and Experiment Design (1962), Englewood Cliffs, New Jersey: Prentice-Hall, Inc.
  3. a b c d e Braddick, H. J. J., The Physics of Experimental Methods (1954), New York: John Wiley & Sons Inc.
  4. a b Estermann, I., Methods of Experimental Physics, vol 1: Classical Methods (1959), New York and London: Academic Press
  5. Purdue University. «Measurement Analysis 1: Measurement Uncertainty and Propagation» (PDF). Consultado em 22 de março de 2014 
  6. a b c d e Taylor, J. R., An Introduction to Error Analysis: The Study of Uncertainties in Physical Measurements, segunda edição, Sausalito, California: University Science Books
  7. Salinas, S. R. A., Introduction to Statistical Physics (2001), New York: Springer Verlag, Inc.