Usuária:MCarrera (NeuroMat)/Mediana

Origem: Wikipédia, a enciclopédia livre.

Mediana é o valor que separa a metade maior e a metade menor de uma amostra de dados, uma população ou uma distribuição de probabilidade. Em termos mais simples, mediana pode ser o valor médio de um conjunto de dados. No conjunto de dados {1, 3, 3, 6, 7, 8, 9}, a mediana é 6. Se houver um número par de observações, não há um único valor médio. Então, a mediana é definida como a média dos dois valores médios. No conjunto de dados {3, 5, 7, 9}, a mediana é . Em um número par de observações, a mediana é interpretada como semi amplitudes totalmente aparadas. [1][2]

A mediana é uma medida comum das propriedades de conjuntos de dados em estatística e em teoria das probabilidades, com importância central nas estatísticas robusta. A estatística robusta é mais resistente, com ponto de ruptura de 50%. Enquanto mais da metade dos dados não for contaminada, a mediana não vai dar resultado arbitrariamente grande. A mediana é definida em dados unidimensionais encomendados e é independente de qualquer distância métrica. Já a média geométrica é definida em qualquer número de dimensões.

Em descrição de dados, a vantagem da mediana em relação à média é que ela não é tão distorcida por valores extremamente altos ou baixos. Então ela poder dar uma ideia melhor de um valor típico. Em estudos de estatísticas como renda familiar ou ativos que variam grandemente, a média pode ser distorcida por um pequeno número de valores extremamente altos ou baixos.

A mediana da renda pode ser uma alternativa melhor para sugerir qual é a renda típica. A mediana tem importância central na estatística robusta, pois é a estatística mais resistente e tem um ponto de repartição de 50%: desde que não mais que a metade dos dados seja contaminada, a mediana não fornecerá um resultado arbitrariamente grande ou pequeno.

Finding the median in sets of data with an odd and even number of values.

História[editar | editar código-fonte]

A ideia de mediana aparece no século XIII no Talmude.[3][4] A ideia de mediana também aparece mais tarde no livro Certaine Errors in Navigation, na seção sobre determinação da localização com bússola. O livro foi escrito pelo matemático Edward Wright em 1599, que achou que o valor era o mais provável de ser o correto em uma série de observações.

Em 1757, Ruđer Bošković desenvolve um método de regressão baseado no espaço Lp e implicitamente na mediana.[5] Em 1774, Pierre Simon Laplace sugere o uso da mediana como o estimador padrão do valor de um pdf posterior. O critério específico foi minimizar a magnitude esperada do erro , em que é a estimativa e é o valor real. O critério de Laplace foi amplamente rejeitado por 150 anos em favor do método dos mínimos quadrados de Carl Friedrich Gauss e Adrien-Marie Legendre que minimiza para obter a média.[6] A distribuição tanto da média da amostra quanto da mediana da amostra foi determinada por Laplace no início dos anos 1800.[7][8]

Em 1843, Antoine Augustin Cournot foi o primeiro matemático a usar o termo mediana para o valor que divide a distribuição de probabilidade em duas metades iguais. Gustav Fechner usou o termo mediana para fenômenos sociológicos e psicológicos.[9] Mediana tinha sido usada anteriormente apenas na astronomia e em áreas correlatas. Embora tenha sido usada anteriormente por Laplace, Fechner popularizou a mediana na análise formal de dados.[9]

Em 1881, Francis Galton usou o termo mediana em Inglês[10] depois de usar os termos middle-most value em 1869 e medium em 1880.

Conceitos básicos[editar | editar código-fonte]

Em um conjunto de dados ou em uma população finita, pode haver nenhum ou mais que um elemento igual a mediana. Se houver mais que um elemento igual a mediana, a mediana pode não identificar um elemento da amostra. Entretanto, a mediana é identificada exclusivamente com a definição usual. Um conceito relacionado em que o resultado corresponde a um elemento da amostra é o medoide.

No máximo, metade da amostra tem valores estritamente menores que a média. No mínimo, metade da amostra tem valores estritamente maiores que a mediana. Se cada grupo tem menos da metade da amostra, então uma parte da amostra é exatamente igual a mediana. Se a < b < c, então a mediana da amostra {a, b, c} é igual a b. Se a < b < c < d, então a mediana da amostra {a, b​​, c, d} é igual a média de b e c ou igual a (b+c)/2.[11]

Mediana pode ser usada como medida de localização quando a distribuição é desviada, quando os valores não são conhecidos ou quando se exige reduzida importância para ser anexada a outliers (por exemplo, quando podem existir erros de medição).[12]

Não há uma notação padrão amplamente aceita para mediana, mas alguns autores representam a mediana de uma variável como , como [1] e às vezes como .[13][14][15] Em qualquer um dos casos, o uso dos mesmos ou de outros símbolos para a mediana precisam ser explicitamente definidos quando são introduzidos.

A mediana é o segundo quartil, 5° decil e 50° percentil.

Cálculos básicos[editar | editar código-fonte]

A mediana de uma lista finita de números pode ser encontrada organizando os números do menor para o maior. Se houver um número ímpar de observações, o número do meio é o valor médio (no conjunto de sete dados 1, 3, 3, 6, 7, 8, 9, a mediana é 6).[11]

Se houver um número par de observações, não há um único valor médio. Então, a mediana é definida como a média dos dois valores médios e (no conjunto de oito dados 1, 2, 3, 4, 5, 6, 8, 9, a mediana é a média )[16][17] Em termos mais técnicos, é a interpretação da mediana como the fully trimmed mid-range.

A fórmula usada para encontrar um valor médio em um conjunto de dados de números é , que fornece tanto o valor médio para um número ímpar de dados quanto o ponto médio entre dois valores médios. Em um conjunto de 14 dados, o resultado da fórmula será 7,5 e a mediana será a média entre o sétimo e o oitavo valor. Também é possível calcular a mediana com o diagrama ramo-e-folha.[18]

Exemplos[editar | editar código-fonte]

População com número de elementos ímpar[editar | editar código-fonte]

Para a população , o valor médio é:

,

em que é o número de dados ou elementos da amostra.

Logo a mediana é o terceiro elemento (5) e é igual a média (5).

Já para a população , o valor médio é:

,

em que é o número de dados ou elementos da amostra.

Logo a mediana é o terceiro elemento (4), mas não é igual a média (5).[19]

População com número de elementos par[editar | editar código-fonte]

Para a população , não há valor médio.

Logo a mediana é calculada por meio da média dos valores centrais, o terceiro e o quarto elemento.

O valor da mediana é:

.

Já o valor da média é 5,666.

Em um conjunto de dados com números repetitivos , a mediana também é calculada por meio da média dos valores centrais, o nono e o décimo elemento.

O valor da mediana é:

.[20]

Distribuições de probabilidade[editar | editar código-fonte]

Geometric visualisation of the mode, median and mean of an arbitrary probability density function.[21]

Para qualquer distribuição de probabilidade em com função distribuição acumulada , independentemente se ela for qualquer tipo de distribuição de probabilidade contínua, em particular, uma distribuição absoluta contínua com função densidade ou uma distribuição discreta, uma mediana é por definição qualquer número real que satisfaz as desigualdades:

[22]

ou igualmente as desigualdades:

,[22]

em que a integral de Lebesgue–Stieltjes é usada.

Para uma distribuição de probabilidade absoluta contínua com função densidade , a mediana satisfaz[22]

Qualquer distribuição de probabilidade em tem pelo menos uma mediana, mas ela pode ter mais de uma mediana. Quando a mediana é única, alguns estatísticos falam da mediana corretamente. Quando a mediana não é única, alguns estatísticos falam da mediana corretamente.

Medianas de distribuições particulares[editar | editar código-fonte]

Medianas de certos tipos de distribuições podem ser calculadas facilmente a partir dos seus parâmetros. Medianas existem mesmo para algumas distribuições sem média bem definida como a distribuição de Cauchy:

  • Uma mediana de uma distribuição simétrica que possui uma média μ também possui valor μ.
  • Uma mediana de uma distribuição normal com média μ e variância σ2 possui valor μ. Para uma distribuição normal, média = mediana = moda.
  • Uma mediana de uma distribuição uniforme no intervalor [a, b] possui valor (a + b) / 2, que também é a média.
  • Uma mediana de uma distribuição de Cauchy com parâmetro de localização x0 e parâmetro de escala y possui valor x0 (parâmetro de localização).
  • Uma mediana de uma lei de potência x−a, com expoente a > 1 is 21/(a − 1)xmin, em que xmin é o valor mínimo para que a lei de potência exista.[23]
  • Uma mediana de uma distribuição exponencial com parâmetro de taxa λ é o logaritmo natural de 2 dividido pelo parâmetro de taxa λ−1ln 2.
  • Uma mediana de uma distribuição de Weibull com parâmetro de forma k e parâmetro de escala λ é λ(ln 2)1/k.

Populações[editar | editar código-fonte]

Propriedade da otimização[editar | editar código-fonte]

O erro absoluto médio de uma variável real com relação à variável aleatória é

.[24]

Dado que a distribuição de probabilidade de seja tal que a expectativa acima exista, então é a mediana de se e somente se for um minimizador do erro absoluto médio com relação à .[25] Em particular, é a mediana da amostra se e somente se minimizar a média aritmética dos desvios absolutos.

Em termos mais gerais, uma mediana é definida como o mínimo de

,[24]

como discutido abaixo na seção sobre medianas multivariadas, especialmente a mediana espacial.

Essa definição baseada na otimização da mediana é útil em análise de dados estatística como no agrupamento de k-medianas.

Distribuições unimodais[editar | editar código-fonte]

É possível mostrar para uma distribuição modal que a mediana e a média estão dentro de (3/5)1/2 ≈ 0.7746 desvios-padrão de cada uma.[26]

Em símbolos,

em que é o valor absoluto.

Uma relação semelhante é mantida entre a mediana e a moda. Elas estão dentro de 31/2 ≈ 1.732 desvios-padrão de cada uma.

Em símbolos,

Desigualdade entre média e mediana[editar | editar código-fonte]

Se a distribuição de probabilidade tiver variância finita, a distância entre a mediana e a média é limitada por um desvio-padrão. Esse limite foi provado por Mallows[27], que usou a desigualdade de Jensen duas vezes, como segue:

A primeira e a terceira desigualdade vêm da desigualdade de Jensen aplicada à função de valor absoluto e à função quadrada, que são convexas. A segunda desigualdade vem da minimização da função de desvio absoluto pela mediana, em que:

.

Essa prova pode facilmente ser generalizada para obter uma versão multivariada da desigualdade[28], como segue:,

em que é uma mediana espacial, ou seja, é um minimizador da função

A mediana espacial é única quando a dimensão do conjunto de dados é igual ou maior que dois.[29][30] Uma prova alternativa usa a desigualdade unilateral de Chebyshev. Isso aparece em uma desigualdade em parâmetros de localização e escala.

Desigualdade de Jensen[editar | editar código-fonte]

A desigualdade de Jensen afirma que para qualquer variável aleatória com esperança finita para qualquer função convexa :

Se é uma variável real com uma mediana única e é uma função [31], então:

.

Uma função é uma função real definida no conjunto dos números reais , com a propriedade que para qualquer real:

é um intervalo fechado, um singleton ou um conjunto vazio.

Mediana para amostra[editar | editar código-fonte]

Mediana da amostra[editar | editar código-fonte]

Cálculo[editar | editar código-fonte]

Embora os itens de algoritmo de ordenação requerem Ω (n log n) operações, algoritmos de seleção podem computar o k'th-smallest de itens com apenas Θ(n) operações. Isso inclui a mediana, a n/2'th ordem estatística (ou para um número par de amostrar, a média das duas ordens estatísticas médias).

Os algoritmos de seleção ainda tem a desvantagem de exigir uma memória Ω(n). Isto é, eles precisam ter a amostra inteira (ou uma porção de tamanho linear da amostra) na memória. Como isso pode ser proibitivo, bem como o requisito de tempo linear, vários procedimentos de estimativa para a mediana tem sido desenvolvidos. Um procedimento de estimativa simples é a mediana de regra três, que estima a mediana como a mediana de uma subamostra de três elementos. Isso é comumente usada como uma subrotina do algoritmo de classificação quicksort, que usa uma estimativa da input da mediana. Uma estimativa mais robusta é a nona de Tukey, a mediana de regra três aplicada com recursão limitada[32]: se for uma amostra apresentado como uma matriz e:

,

então,

.

O remedian é uma estimador para a mediana que requer um tempo linear, mas uma memória sublinear, operando em uma única passagem sobre a amostra.[33]

Explanação[editar | editar código-fonte]

Em séries individuais (se o número de observações for muito baixo) primeiro é preciso colocar todas as observações em ordem. Depois a contagem(n) é o número total de observações em um determinado conjunto de dados.

Se for ímpar, então a mediana é igual ao valor do iésimo item do termo.[34]

Se for par, então a mediana é igual ao valor do iésimo item do termo mais iésimo item do termo.[34]

For an odd number of values

As an example, we will calculate the sample median for the following set of observations: 1, 5, 2, 8, 7.

Start by sorting the values: 1, 2, 5, 7, 8.

In this case, the median is 5 since it is the middle observation in the ordered list.

The median is the ((n + 1)/2)th item, where n is the number of values. For example, for the list {1, 2, 5, 7, 8}, we have n = 5, so the median is the ((5 + 1)/2)th item.

median = (6/2)th item
median = 3rd item
median = 5
For an even number of values

As an example, we will calculate the sample median for the following set of observations: 1, 6, 2, 8, 7, 2.

Start by sorting the values: 1, 2, 2, 6, 7, 8.

In this case, the arithmetic mean of the two middlemost terms is (2 + 6)/2 = 4. Therefore, the median is 4 since it is the arithmetic mean of the middle observations in the ordered list.

We also use this formula MEDIAN = {(n + 1 )/2}th item . n = number of values

As above example 1, 2, 2, 6, 7, 8 n = 6 Median = {(6 + 1)/2}th item = 3.5th item. In this case, the median is average of the 3rd number and the next one (the fourth number). The median is (2 + 6)/2 which is 4.

Cálculo da mediana para dados ordenados

A mediana é uma forma de resumir os valores típicos associados com os membros de uma população de análise estatística, assim, é um possível parâmetro de localização.

Quando a mediana é usada como um parâmetro de localização em estatística descritiva, existem várias opções para uma medida de variabilidade: a amplitude, o intervalo interquartil, o desvio médio absoluto e o desvio absoluto mediano. Uma vez que a mediana é o mesmo que o segundo quartil, o seu cálculo é ilustrado no artigo em quartis.

Para fins práticos, várias medidas de localização e dispersão são frequentemente comparadas com base bem como os valores correspondentes da população pode ser estimada a partir de uma amostra de dados. A mediana, estimado com a mediana da amostra, tem boas propriedades a este respeito. Embora não seja geralmente melhor se uma determinada distribuição da população é assumida, as suas propriedades são sempre razoavelmente boa. Por exemplo, uma comparação entre a eficiência de estimadores candidatos mostra que a média da amostra é estatisticamente mais eficaz do que a mediana da amostra, quando os dados são não contaminados por dados de distribuições com caudas pesadas ou a partir de misturas de distribuição, mas menos eficaz de outro modo, e que a eficiência da mediana da amostra é maior do que para uma ampla gama de distribuições. Mais especificamente, a mediana tem uma eficiência de 64% em comparação com a média variância mínima (para grandes amostras normais), o que quer dizer que a variação da mediana será aproximadamente 50% maior do que a variação da média.

Cálculo da mediana para dados classificados

Quando se trata de um conjunto de dados classificados, o cálculo da mediana é feito através do histograma, ou através da função cumulativa de frequências relativas. A mediana é o ponto do eixo das abcissas correspondente a 50% da frequência relativa acumulada.

No caso de variáveis contínuas, a mediana, , é tal que .

No caso de variáveis discretas, e quando as frequências estão calculadas por unidade, a mediana é o ponto do eixo das Abscissas para o qual a frequência relativa acumulada é inferior ou igual a 50% e superior ou igual a 50% para o ponto imediatamente a seguir.

Distribuição de amostras[editar | editar código-fonte]

A distribuição tanto da média da amostra quanto da mediana da amostra foram determinadas por Laplace.[35] A distribuição da mediana da amostra de uma população com uma função densidade é assintoticamente normal com média e variância[36]

,

em que é o valor médio da distribuição e é o tamanho da amostra. Na prática, por definição.

Esses resultados também têm sido estendidos.[37] Isso agora é conhecido para o -ésimo quantil que a distribuição da -ésima amostra é assintoticamente normal em torno do -ésimo quantil com variância igual a

,

em que é o valor da densidade de distribuição no -ésimo quantil.

No caso de uma variável discreta, a distribuição da amostra da mediana para pequenas amostras pode ser estudada como segue. Seja um tamanho de amostra de número ímpar . Se um dado valor for a mediana da amostra, então duas condições devem ser satisfeitas.

A primeira condição é que, no máximo, observações podem ter valor igual ou menor que . A segunda condição é que, no mínimo, observações devem valor igual ou menor que . Seja o número de observações com valor igual ou menor que . Seja o número de observações com valor exato .

Então, tem valor mínimo 0 e valor máximo , enquanto tem valor mínimo (para totalizar pelo menos observações) e valor máximo (para totalizar pelo menos observações). Se uma observação tem valor menor que , não é relevante quão abaixo de é o valor. Inversamente, se uma observação tem valor maior que , não é relevante quão acima de é o valor. Logo, é possível representar as observações seguindo a distribuição trinomial com probabilidades , e . Portanto, a probabilidade de a mediana ter valor é dada por:

Somar isso a todos os valores define uma distribuição apropriada e fornece uma soma unitária. Na prática, a função geralmente não será conhecida , mas poderá ser estimada de uma distribuição de frequência observada. É o exemplo da tabela seguinte, em que a distribuição atual não é conhecida, mas a amostra de 3.800 observações permite uma avaliação suficientemente precisa de

v 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
f(v) 0.000 0.008 0.010 0.013 0.083 0.108 0.328 0.220 0.202 0.023 0.005
F(v) 0.000 0.008 0.018 0.031 0.114 0.222 0.550 0.770 0.972 0.995 1.000

Com os dados, é possível investigar o efeito do tamanho da amostra nos erros padrões da média e da mediana. A média observada é 3,16. A mediana bruta é 3 e a mediana interpolada observada é 3,174. A tabela seguinte fornece algumas estatísticas de comparação. O erro padrão da mediana é dado tanto da expressão acima por quanto da aproximação assintótica fornecida anteriormente.

Sample size
Statistic
3 9 15 21
Expected value of median 3.198 3.191 3.174 3.161
Standard error of median (above formula) 0.482 0.305 0.257 0.239
Standard error of median (asymptotic approximation) 0.879 0.508 0.393 0.332
Standard error of mean 0.421 0.243 0.188 0.159

O valor esperado da mediana diminui ligeiramente à medida que a medida da amostra aumenta, enquanto que os erros padrão tanto da média quanto da mediana são proporcionais à raiz quadrada inversa do tamanho da amostra como esperado. A aproximação assintótica errs on the side of caution por sobrestimar o erro padrão.

No caso de uma variável contínua, o argumento seguinte pode ser usado. Se um dado valor for a mediana, então uma observação precisa assumir o valor . A probabilidade elementar é . Então, exatamente das observações precisam ser maiores que e as observações restantes das observações precisam ser menores que . A probabilidade é o -ésimo termo de uma distribuição binomial com parâmetros e .

Multiplica-se por porque qualquer uma das observações na amostra pode ser a mediana da observação. Então, a probabilidade elementar da mediana no ponto é dada por:

Introduz-se a função beta. Para os argumentos inteiros e , pode-se expressar . Também, nota-se que . Usando essas relações e deixando e igual a permite que a última expressão seja escrita como

.

Então, a função densidade da mediana é uma distribuição beta simétrica sobre o intervalo da unidade que suporta . A média é 0,5 e o desvio-padrão (erro padrão da mediana da amostra) é . Entretanto, isso apenas pode ser usado se (i) for conhecido ou puder ser assumido, (ii) pode ser integrado para encontrar e (iii) pode ser invertido. Isso nem sempre será o caso e mesmo quando for o caso, os pontos de corte para podem ser calculados diretamente sem recurso para a distribuição na mediana no intervalo da unidade. Embora seja interessante na teoria, o resultado não é muito útil na prática.

Estimativa da variância a partir de dados da amostra[editar | editar código-fonte]

O valor — o valor assintótico , em que é a mediana da população — tem sido estudado por diferentes autores. O método jackknife delete one padrão produz resultados inconsistentes.[38] Uma alternativa — o método delete k — em que aumenta com o tamanho da amostra tem mostrado ser assintoticamente consistente.[39] Esse método pode ser computacionalmente caro para grandes conjuntos de dados. Uma estivativa bootstrap é conhecida por ser consistente[40], mas converge muito lentamente (ordem de ).[41] Há outros métodos que têm sido propostos, mas seus comportamentos podem diferir entre pequenas e grandes amostras.[42]

Eficiência[editar | editar código-fonte]

A eficiência da mediana da amostra, medida como a razão entre a variância da média e a variância da mediana, depende do tamanho da amostra e da distribuição da população subjacente.

Para uma amostra de tamanho de uma distribuição normal, a razão é[43]

.

Para grandes amostras ( tendendo ao infinito), a razão tende a ser

.

Outros estimadores[editar | editar código-fonte]

Para distribuições univariadas que são simétricas em relação a uma mediana, o estimador de Hodges–Lehmann é um estimador altamente eficiente e robusto da mediana da população.[44]

Se os dados forem representados por um modelo estatístico especificando uma família particular de distribuições de probabilidade, então estimativas da média podem ser obtidas ajustando a família de distribuições de probabilidade e calculando a mediana teórica da distribuição ajustada. A interpolação de Pareto é uma aplicação disso quando a população é assumida como tendo um princípio de Pareto.

Coeficiente de dispersão[editar | editar código-fonte]

O coeficiente de dispersão (CD) é definida como a razão entre o desvio médio absoluto da mediana e a mediana dos dados.[45] É uma medida estatística usadas pelos estados norte-americanos de Iowa, Nova Iorque e Dakota do Sul em estimativa de impostos.[46][47][48] Em símbolos,

,

em que é o tamanho da amostra, é a mediana da amostra e é a variável. A soma é tomada em toda a amostra.

Intervalos de confiança do teste de duas amostras em que os tamanhos das amostras são grandes foi derivado por Bonett e Seier.[45] Esse teste assume que ambas as amostras têm a mesma mediana, mas diferem na dispersão ao seu redor. O intervalo de confiança (CI) é limitado inferiormente por

,

em que é o desvio médio absoluto da -ésima amostra, é a variância e é o valor da distribuição normal para um valor escolhido de para , . As fórmulas seguintes são usadas na derivação dos intervalos de confiança

,

em que é o coeficiente da correlação de Pearson entre os squared deviation scores

e

e são constantes iguais a 1 e 2, é a variável e é o desvio-padrão da amostra.

Mediana multivariada[editar | editar código-fonte]

Foi discutida mediana univariada, quando a amostra ou a população possuem uma dimensão. Quando a dimensão é igual ou maior que dois, há múltiplos conceitos que ampliam a definição de mediana univariada. Cada uma das medianas multivariadas concorda com uma mediana univariada quando a dimensão é exatamente um.[44][49][50][51]

Mediana marginal[editar | editar código-fonte]

A mediana marginal é definida para vetores definidos em relação a um conjunto fixo de coordenadas. A mediana marginal é definida como o vetor, cujos componentes medianas univariadas. A mediana marginal é fácil de computar, e suas propriedades foram estudadas por Puri e Sen.[44][52]

Mediana espacial[editar | editar código-fonte]

Para vetores em um espaço normado, a media espacial minimiza a distância média

em que e são vetores. A mediana espacial é única quando a dimensão do conjunto de dados é igual ou maior que dois e a norma é euclidiana (or outra norma estritamente convexa).[29][30][43] A mediana espacial também é chamada mediana L1, mesmo quando a norma é euclidiana. Outros nomes são usados especialmente para conjuntos finitos de pontos: mediana geométrica, ponto de Fermat (em mecânica), ponto de Weber ou Fermat-Weber (na teoria da localização geográfica).[53]

Mais genericamente, uma mediana espacial é definida como minimizador de:

.[43][54][55]

Essa definição geral é conveniente para definir uma mediana espacial de uma população em um espaço normal de dimensão finita. Por exemplo, para distribuições com uma média finita.[29][43] Medianas espaciais são definidas por vetores aleatórios com valores no espaço de Banach.[29]

A mediana espacial é um estimador altamente robusto e eficiente da tendência central de uma população.[43][54][55][56][57]

Outras medianas multivariadas[editar | editar código-fonte]

Uma generalização alternativa da mediana espacial em dimensões maiores que não tem relação com uma métrica particular é o centerpoint (geometria).

Outros conceitos relacionados a mediana[editar | editar código-fonte]

Mediana interpolada[editar | editar código-fonte]

Quando lidando com variável discreta, às vezes é útil considerar os valores observados como sendo pontos médios de intervalos contínuos subjacentes. Um exemplo é a escala Likert, em que opiniões ou preferências são expressas em uma escala com um conjunto de números de respostas possíveis.

Se a escala consiste de números inteiros positivos, uma observação do 3 pode ser considerada como representando o intervalo entre 2,50 e 3,50. É possível estimar a mediana da variável subjacente. Se 22% das observações tem valor igual ou menor que 2 e 55% tem valor igual ou menor que 3 (então, 33% tem valor 3), então a mediana é 3 uma vez que a mediana é o menor valor de para o qual é maior que a metade.

Entretanto, a mediana interpolada é um lugar entre 2,50 e 3,50. É adicionada metade da largura do intervalo à mediada para se obter o limite superior do intervalo da mediana. É subtraída a proporção da largura do intervalo que é igual a proporção de 33% acima da marca de 50%. Em outras palavras, são divididos os 33% em 28% abaixo da mediana e 5% acima da mediana e é subtraído os da largura do intervalo do limite superior de 3,50 para resultar em uma mediana interpolada de 3,35.

Mias formalmente, a mediana interpolada pode ser calculada a partir de:

.

Pseudo-mediana[editar | editar código-fonte]

Para distribuições univariadas que são simétricas em torno de uma média, o estimador de Hodges-Lehmann é um estimador altamente eficiente e robusto da população da mediana para distribuições não simétricas. O estimador de Hodges-Lehmann é um estimador altamente eficiente e robusto da população da pseudo-mediana, a mediana de uma distribuição simétrica a qual é próxima da população da mediana. O estimador de Hodges-Lehmann tem sido generalizado para distribuições multivariadas.[54][55]

Variantes de regressão[editar | editar código-fonte]

O estimador de Theil-Sen é um método para uma regressão linear robusta, baseada em mediana encontradas em declives.[58]

Filtro da mediana[editar | editar código-fonte]

Em processamento de imagens raster monocromáticos há um ruído conhecido como ruído impulsivo ou ruído sal e pimenta quando cada pixel independentemente fica branco (como alguma pouca probabilidade) ou preto (como alguma pouca probabilidade). Uma imagem construída de median values of neighborhoods (como um quadrado 3X3) pode efetivamente reduzir o ruído.

Clustering[editar | editar código-fonte]

Em clustering, o agrupamento k-medians fornece uma forma de definir cluster, na qual o critério de maximização da distância entre cluster–medias que é usado no agrupamento k-means é substituído pela maximização da distância entre cluster–medianas.

Linha média–mediana[editar | editar código-fonte]

É um método da regressão robusta. A ideia foi concebida em 1940 por Abraham Wald, que sugeriu dividir um conjunto de dados bivariados em duas metades, dependendo do valor do parâmetro independente : a metade da esquerda com valores menores que a mediana e a metade da direita com valores maiores que a média.[59] Wald sugeriu tomar as médias da variável dependente e da variável independente da metade da direita e da metade da esquerda e estimar o declive da linha juntando esses dois pontos.

Uma ideia similar foi sugerida em 1942 por Nair and Shrivastava, que preferiram dividir a amostra em três partes iguais antes de calcular as médias das subamostras.[60] Em 1951, Brown e Mood propuseram a ideia de usar as medianas em vez de usar as médias de duas subamostras.[61] Tukey combinou as ideias e recomendou dividir a amostra em três subamostras com tamanhos iguais e estimar a linha com base nas medianas das subamostras.[62]

Estimadores não enviesados pela mediana[editar | editar código-fonte]

Um estimador não enviesado pela média minimiza o risco (perda esperada) relacionada à função de perda do erro quadrático, como observado por Gauss. Um estimador não enviesado pela mediana minimiza o risco relacionado a função de perda do desvio absoluto, com observado por Laplace.

Há outras funções de perda que são usadas na teoria estatística, particularmente na estatística robusta. A teoria dos estimadores não enviesados pela mediana foi reavivada por George W. Brown em 1947:[63]

Mais propriedades dos estimadores não enviesados pela mediana tem sido reportados.[64][65][66][67] Estimadores não enviesados pela mediana são invariantes sob transformações um–para–um.

Há métodos de construção de estimadores não enviesados pela mediana que são ideais (no sentido análogo à propriedade da variância mínima considerada para estimadores não enviesados pela mediana). Tais construções existem para distribuições de probabilidade com monotone likelihood-functions.[68][69] Tal procedimento é análogo o procedimento de Rao–Blackwell para estimadores não enviesados pela média: o procedimento é válido para uma pequena classe de distribuições de probabilidade que realiza o procedimento de Rao–Blackwell, mas para uma classe maior de funções de perda.[69]

Discussion[editar | editar código-fonte]

Comparison of mean, median and mode of two log-normal distributions with different skewness.

The median is used primarily for skewed distributions, which it summarizes differently from the arithmetic mean. Consider the multiset { 1, 2, 2, 2, 3, 14 }. The median is 2 in this case, (as is the mode), and it might be seen as a better indication of central tendency (less susceptible to the exceptionally large value in data) than the arithmetic mean of 4.

Calculation of medians is a popular technique in summary statistics and summarizing statistical data, since it is simple to understand and easy to calculate, while also giving a measure that is more robust in the presence of outlier values than is the mean. The widely cited empirical relationship between the relative locations of the mean and the median for skewed distributions is, however, not generally true.[70] There are, however, various relationships for the absolute difference between them; see below.

The median does not identify a specific value within the data set, since more than one value can be at the median level and with an even number of observations (as shown above) no value need be exactly at the value of the median. Nonetheless, the value of the median is uniquely determined with the usual definition. A related concept, in which the outcome is forced to correspond to a member of the sample, is the medoid.

In a population, at most half have values strictly less than the median and at most half have values strictly greater than it. If each group contains less than half the population, then some of the population is exactly equal to the median. For example, if a < b < c, then the median of the list {abc} is b, and, if a < b < c < d, then the median of the list {abcd} is the mean of b and c; i.e., it is (b + c)/2. Indeed, as it is based on the middle data in a group, it is not necessary to even know the value of extreme results in order to calculate a median. For example, in a psychology test investigating the time needed to solve a problem, if a small number of people failed to solve the problem at all in the given time a median can still be calculated.[71]

The median can be used as a measure of location when a distribution is skewed, when end-values are not known, or when one requires reduced importance to be attached to outliers, e.g., because they may be measurement errors.

A median is only defined on ordered one-dimensional data, and is independent of any distance metric. A geometric median, on the other hand, is defined in any number of dimensions.

The median is one of a number of ways of summarising the typical values associated with members of a statistical population; thus, it is a possible location parameter. The median is the 2nd quartile, 5th decile, and 50th percentile. Since the median is the same as the second quartile, its calculation is illustrated in the article on quartiles. A median can be worked out for ranked but not numerical classes (e.g. working out a median grade when students are graded from A to F), although the result might be halfway between grades if there are an even number of cases.

When the median is used as a location parameter in descriptive statistics, there are several choices for a measure of variability: the range, the interquartile range, the mean absolute deviation, and the median absolute deviation.

For practical purposes, different measures of location and dispersion are often compared on the basis of how well the corresponding population values can be estimated from a sample of data. The median, estimated using the sample median, has good properties in this regard. While it is not usually optimal if a given population distribution is assumed, its properties are always reasonably good. For example, a comparison of the efficiency of candidate estimators shows that the sample mean is more statistically efficient than the sample median when data are uncontaminated by data from heavy-tailed distributions or from mixtures of distributions, but less efficient otherwise, and that the efficiency of the sample median is higher than that for a wide range of distributions. More specifically, the median has a 64% efficiency compared to the minimum-variance mean (for large normal samples), which is to say the variance of the median will be ~50% greater than the variance of the mean—see asymptotic efficiency and references therein.

Bibliografia[editar | editar código-fonte]

  • Murteira, Bento; Black, George; Estatística Descritiva, McGrawHill, 1983.

Ver também[editar | editar código-fonte]

Referências

  1. a b Weisstein, Eric W. «Statistical Median» (em inglês). MathWorld 
  2. http://www.stat.psu.edu/old_resources/ClassNotes/ljs_07/sld008.htm Simon, Laura J.; "Descriptive statistics", Statistical Education Resource Kit, Pennsylvania State Department of Statistics
  3. «Talmud and Modern Economics». Jewish American and Israeli Isssues. Consultado em 14 de novembro de 2016 
  4. Aumann, Yisrael (2012). «Modern Economic Theory in the Talmud» (PDF). Center for the Study of Rationality – The Hebrew University of Jerusalem. 9 páginas. Consultado em 14 de novembro de 2016 
  5. Stigler, Stephen M. (1986). The History of Statistics: The Measurement of Uncertainty Before 1900. [S.l.]: Harvard University Press 
  6. Jaynes, E. T. (2003). Probability Theory: The Logic of Science. [S.l.]: Cambridge University Press. 172 páginas 
  7. Stigler, Stephen. «Studies in the History of Probability and Statistics. XXXII: Laplace, Fisher and the Discovery of the Concept of Sufficiency». Biometrika: 439 – 445. Consultado em 14 de novembro de 2016 
  8. Laplace, Pierre Simon (1818). Deuxième Supplément à la Théorie Analytique des Probabilités. [S.l.]: Courcier 
  9. a b Keynes, John Maynard (1921). A Treatise on Probability. [S.l.]: Macmillan and CO 
  10. Galton, Fechner (1881). «Report of the Anthropometric Committee». Report of the 51st Meeting of the British Association for the Advancement of Science: 245 – 260. Consultado em 14 de novembro de 2016 
  11. a b BUSSAB, Wilton de O.; MORETTIN, Pedro A. (2004). Estatística Básica. São paulo: Saraiva. 35 páginas 
  12. «Estatística II - Notas de aula» (PDF). Universidade Federal do Paraná. 27 de fevereiro de 2009. p. 15. Consultado em 21 de setembro de 2016 
  13. Sheskin, David J. (2003). Handbook of Parametric and Nonparametric Statistical Procedures. [S.l.]: CRC Press. 7 páginas 
  14. Bissell, Derek (1994). Statistical Methods for Spc and Tqm. [S.l.]: CRC Press. 26 páginas 
  15. David J. Sheskin (27 August 2003). Handbook of Parametric and Nonparametric Statistical Procedures: Third Edition. [S.l.]: CRC Press. pp. 7–. ISBN 978-1-4200-3626-8. Consultado em 25 February 2013  Verifique data em: |acessodata=, |data= (ajuda)
  16. Weisstein, Eric W. «Statistical Median». MathWorld – A Wolfram Web Resource. Consultado em 14 de novembro de 2016 
  17. Simon, Laura J. «Descriptive Statistics». Statistical Education Resource Kit. Pennsylvania State Department of Statistics 
  18. MAGALHÃES, Marcos Nascimento (2006). Probabilidade e Variáveis Aleatórias. São Paulo: EdUSP. 109 páginas 
  19. MENESES, Anderson; MARIANO, Fabricio (2010). «Noções de Estatística para Concursos». Campus Concursos. p. 9 - 10. Consultado em 21 de novembro de 2016 
  20. MARTINELLO, Magnos. «Revisão de Estatística e Probabilidade» (PDF). Universidade Federal do Espírito Santo. p. 4. Consultado em 21 de novembro de 2016 
  21. «AP Statistics Review - Density Curves and the Normal Distributions». Consultado em 16 March 2015  Verifique data em: |acessodata= (ajuda)
  22. a b c «Distribuições de Probabilidade» (PDF). Universidade Federal do Rio Grande do Sul. p. 4. Consultado em 21 de novembro de 2016 
  23. Newman, Mark EJ. "Power laws, Pareto distributions and Zipf's law." Contemporary physics 46.5 (2005): 323-351.
  24. a b «Propriedade dos Estimadores». Portal Action. Consultado em 21 de novembro de 2016 
  25. Stroock, Daniel (2011). Probability Theory. [S.l.]: Cambridge University Press. 43 páginas 
  26. «The Mean, Median, and Mode of Unimodal Distributions: A Characterization». Theory of Probability & Its Applications: 210 – 223. 2006. Consultado em 14 de novembro de 2016  |coautores= requer |autor= (ajuda)
  27. Mallows, Colin (2012). «Another Comment on O'Cinneide». The American Statistician: 256 – 262. Consultado em 14 de novembro de 2016 
  28. Piché, Robert (2012). Random Vectors and Random Sequences. [S.l.]: Lambert Academic Publishing 
  29. a b c d «The Median of a Finite Measure on a Banach Space: Statistical Data Analysis based on the L1-Norm and Related Methods». Amsterdam: North-Holland Publishing CO. Papers from the First International Conference held at Neuchâtel: 217 – 230. 1987  |coautores= requer |autor= (ajuda);
  30. a b «Uniqueness of the Spatial Median». The Annals of Statistics: 1332 – 1333. 1987. Consultado em 17 de novembro de 2016  |coautores= requer |autor= (ajuda)
  31. Merkle, Milan. «Jensen's Inequality for Medians». Statistics & Probability Letters: 277 – 281 
  32. «Engineering a Sort Function» (PDF). Software — Practice and Experience: 1249 – 1265. 1993. Consultado em 14 de novembro de 2016  |coautores= requer |autor= (ajuda)
  33. «The Remedian: A Robust Averaging Method for Large Data Sets» (PDF). 1990: 97 – 104. Consultado em 14 de novembro de 2016  |coautores= requer |autor= (ajuda)
  34. a b «Apostila para os cursos de estatística» (PDF). Escola Superior de Agricultura Luis de Queiroz. 2014. p. 21. Consultado em 21 de novembro de 2016 
  35. Stigler, Stephen (1973). «Studies in the History of Probability and Statistics. XXXII: Laplace, Fisher and the Discovery of the Concept of Sufficiency». Biometrika: 439 – 445. Consultado em 15 de novembro de 2016 
  36. Rider, Paul R. (1960). «Variance of the Median of Small Samples from Several Special Populations». Journal of the American Statistic Association: 148 – 150. Consultado em 15 de novembro de 2016 
  37. Stuart, Alan; Ord, Keith (1994). Kendall's Advanced Theory of Statistics. Londres: Wiley 
  38. Efron, Bradley (1982). The Jackknife, the Bootstrap and other Resampling Plans. Filadélfia: SIAM 
  39. «A General Theory for Jackknife Variance Estimation». The Annuals of Statistics: 1176 – 1197. 1989. Consultado em 16 de novembro de 2016  |coautores= requer |autor= (ajuda)
  40. Efron, Bradley (1979). «Bootstrap Methods: Another Look at the Jackknife». The Annuals of Statistics: 1 – 26. Consultado em 16 de novembro de 2016 
  41. «Exact Convergence Rate of Bootstrap Quantile Variance Estimator». Probability Theory and Related Fields: 261 – 268. 1988. Consultado em 16 de novembro de 2016  |coautores= requer |autor= (ajuda)
  42. «Reduced Bootstrap for the Median». Statistica Sinica: 1179 – 1198. 2004. Consultado em 16 de novembro de 2016  |coautores= requer |autor= (ajuda)
  43. a b c d e Kenney, J. F.; Keeping, E. S. (1962). «The Median». Mathematics of Statistics, Pt. 1 3rd ed. Princeton, NJ: Van Nostrand. pp. 211–212 
  44. a b c Hettmansperger, Thomas P.; McKean, Joseph W. (1998). Robust Nonparametric Statistical Methods – Kendall's Library of Statistics 5. Londres: Edward Arnold 
  45. a b «Confidence Interval for a Coefficient of Dispersion in Non-Normal Distributions». Biometrical Journal: 144 – 148. 2006  |coautores= requer |autor= (ajuda)
  46. «Statistical Calculation Definitions for Mass Appraisal» (PDF). Iowa Department of Revenue. Consultado em 16 de novembro de 2016 
  47. «Assessment Equity in New York: Results from the 2010 Market Value Survey». The New York State Department of Taxation and Finance. Consultado em 16 de novembro de 2016 
  48. «Summary of the Assessment Process» (PDF). South Dakota Department of Revenue - Property / Special Taxes Division. Consultado em 16 de novembro de 2016 
  49. Small, Christopher G. (1990). «A Survey of Multidimensional Medians». International Statistical Review / Revue Internationale de Statistique: 263 – 277. Consultado em 17 de novembro de 2016 
  50. «Multivariate Median». Encyclopedia of Statistical Sciences. 2006. Consultado em 17 de novembro de 2016  |coautores= requer |autor= (ajuda)
  51. Mosler, Karl (2012). Multivariate Dispersion, Central Regions, and Depth: The Lift Zonoid Approach. Nova Iorque: Springer – Verlag New York 
  52. Puri, Madan L.; Sen, Pranab K. (1971). Nonparametric Methods in Multivariate Analysis. Nova Iorque: John Wiley & Sons 
  53. Wesolowsky, G. (1993). «The Weber Problem: History and Perspective». Location Science: 5 – 23 
  54. a b c Hannu, Oja (2010). «Multivariate Nonparametric Methods with R: An Approach based on Spatial Signs and Ranks». Nova Iorque: Springer. Lecture Notes in Statistics. 14 páginas 
  55. a b c Hannu, Oja. «Multivariate Nonparametric Methods with R: An Approach based on Spatial Signs and Ranks». Nova Iorque: Springer. Lecture Notes in Statistics. 232 páginas 
  56. «The Multivariate L1-Median and Associated Data Depth» (PDF). Proceedings of the National Academy of Sciences of the United States of America: 1423 – 1426. 2000. Consultado em 17 de novembro de 2016  |coautores= requer |autor= (ajuda)
  57. «Breakdown Points of Affine Equivariant Estimators of Multivariate Location and Covariance Matrices». The Annals of Statistics: 229 – 248. 1991. Consultado em 17 de novembro de 2016  |coautores= requer |autor= (ajuda)
  58. Wilcox, Rand R. (2011). «Theil–Sen Estimator». Nova Iorque: Springer – Verlag. Fundamentals of Modern Statistical Methods: Substantially Improving Power and Accuracy: 207 – 210 
  59. Wald, Abraham (1940). «The Fitting of Straight Lines if Both Variables are Subject to Error». The Annals of Mathematical Statistics: 282 – 300. Consultado em 17 de novembro de 2016 
  60. «On a Simple Method of Curve Fitting». Sankhyā: The Indian Journal of Statistics: 121 – 132. 1942. Consultado em 17 de novembro de 2016  |coautores= requer |autor= (ajuda)
  61. «On Median Tests for Linear Hypotheses» (PDF). Proc. Second Berkeley Symposium on Mathematical Statistics and Probability: 159 – 166. 1951. Consultado em 17 de novembro de 2016  |coautores= requer |autor= (ajuda)
  62. Tukey, John W. (1977). Exploratory Data Analysis. [S.l.]: Addison – Wesley 
  63. Brown, George W. (1947). «On Small-Sample Estimation». The Annals of Mathematical Statistics: 582 – 585. Consultado em 17 de novembro de 2016 
  64. Lehmann, Erich L. (1951). «A General Concept of Unbiasedness». The Annals of Mathematical Statistics: 587 – 592. Consultado em 17 de novembro de 2016 
  65. Birnbaum, Allan (1961). «A Unified Theory of Estimation, I». The Annals of Mathematical Statistics: 112 – 135. Consultado em 17 de novembro de 2016 
  66. van der Vaart, H. R. (1961). «Some Extensions of the Idea of Bias». The Annals of Mathematical Statistics: 436 – 447. Consultado em 17 de novembro de 2016 
  67. Pfanzagl, Johann (1994). Parametric Statistical Theory. Com assistência de R. Hamböker. [S.l.]: Walter de Gruyter 
  68. Pfanzagl, Johann (1979). «On Optimal Median Unbiased Estimators in the Presence of Nuisance Parameters». The Annals of Statistics: 187 – 193. Consultado em 17 de novembro de 2016 
  69. a b «A Complete Class Theorem for Strict Monotone Likelihood Ratio With Applications». The Annuals of Statistics: 712 – 722. 1976. Consultado em 17 de novembro de 2016  |coautores= requer |autor= (ajuda)
  70. «Journal of Statistics Education, v13n2: Paul T. von Hippel». amstat.org 
  71. Robson, Colin (1994). Experiment, Design and Statistics in Psychology. [S.l.]: Penguin. pp. 42–45. ISBN 0-14-017648-9