Mediana (estatística): diferenças entre revisões

Origem: Wikipédia, a enciclopédia livre.
Conteúdo apagado Conteúdo adicionado
Melhoria de conteúdo a partir de pesquisas e da tradução do verbete Median, da Wikipédia em Inglês.
Linha 1: Linha 1:
'''Mediana''' é o valor que separa a metade maior e a metade menor de uma [[Amostra (estatística)|amostra]], uma [[População (estatística)|população]] ou uma [[distribuição de probabilidade]]. Em termos mais simples, mediana pode ser o valor do meio de um conjunto de dados. No conjunto de dados {1, 3, 3, 6, 7, 8, 9}, por exemplo, a mediana é 6. Se houver um número par de observações, não há um único valor do meio. Então, a mediana é definida como a média dos dois valores do meio. No conjunto de dados {3, 5, 7, 9}, a mediana é <math>\frac{5 + 7}{2} = 6</math>. <ref name="StatisticalMedian">{{MathWorld|urlname=StatisticalMedian|title=Statistical Median}}</ref><ref>http://www.stat.psu.edu/old_resources/ClassNotes/ljs_07/sld008.htm Simon, Laura J.; "Descriptive statistics", ''Statistical Education Resource Kit'', Pennsylvania State Department of Statistics</ref>
== Conceitos e exemplos básicos ==
Na [[estatística]] e [[teoria da probabilidade]], a '''mediana''' é o valor numérico que separa a metade superior de uma amostra de dados, população ou distribuição de probabilidade, em '''Rol''' ordenado de forma crescente ou decrescente, a partir da metade inferior. A mediana de uma lista finita de números pode ser encontrada por providenciar todas as observações do valor mais baixo para o valor mais elevado e colheita do número do meio, por exemplo, a mediana de <math>{3, 3, 5, 9, 11} \text{ é } 5</math>.


A mediana é uma medida comum das propriedades de conjuntos de dados em [[estatística]] e em [[teoria das probabilidades]], com importância central na estatística robusta. A estatística robusta é mais resistente, com ponto de ruptura de 50%. A mediana não fornece resultados arbitrariamente grandes desde que mais da metade dos dados não esteja contaminada.
Se houver um número par de observações , então não existe um valor médio único, a mediana é, então, geralmente definido como a média dos dois valores do meio <ref name="StatisticalMedian">{{MathWorld |urlname=StatisticalMedian |title=Statistical Median }}</ref>
<ref>http://www.stat.psu.edu/old_resources/ClassNotes/ljs_07/sld008.htm Simon, Laura J.; "Descriptive statistics", ''Statistical Education Resource Kit'', Pennsylvania State Department of Statistics</ref>
, por exemplo, a mediana de <math>{3, 5, 7, 9} \text{ é } \frac{5 + 7}{2} = 6</math>, o que corresponde a interpretar a mediana como semi amplitudes totalmente aparadas.


A vantagem da mediana em relação à média é que a mediana pode dar uma ideia melhor de um valor típico porque não é tão distorcida por valores extremamente altos ou baixos. Em estudos estatísticos sobre renda familiar ou outros ativos voláteis, a média pode ser distorcida por um pequeno número de valores extremamente altos ou baixos.
A mediana é de importância central nas estatísticas robustas, já que é a estatística mais resistente, tendo um ponto de ruptura de 50%: enquanto não mais de metade dos dados está contaminada, a mediana não vai dar um resultado arbitrariamente grande. A mediana é definida apenas em dados unidimensionais encomendados, e é independente de qualquer distância métrica. Uma média geométrica, por outro lado, é definida em qualquer número de dimensões.


==História==
Em uma amostra de dados, ou uma população finita, pode não haver nenhum membro da amostra cujo valor é idêntico à mediana (no caso de um mesmo tamanho de amostra). Se houver um tal elemento, pode haver mais do que um de modo que a mediana pode não identificar um membro da amostra. No entanto, o valor da mediana é determinada exclusivamente com a definição usual. Um conceito relacionado, em que o resultado é forçado a corresponder a um membro da amostra, é o medoide. No máximo, a metade da população tem valores estritamente menos do que a média, e, no máximo, metade têm valores estritamente maiores do que a mediana. Se cada grupo contém menos de metade da população, em seguida, uma parte da população é exatamente igual à mediana. Por exemplo, se a < b < c, em seguida, a mediana da lista {a, b, c} é b, e, se a < b < c < d, então a mediana da lista {a, b​​, c, d} é a média de b e c, ou seja, é (b+c)/2.
[[File:Pierre-Simon_Laplace.jpg|thumb|200px|Pierre Simon Laplace]]
A ideia de mediana aparece no século XIII no [[Talmude]]<ref>{{citar web|url=http://danadler.com/blog/2014/12/31/talmud-and-modern-economics/|titulo=Talmud and Modern Economics|data=|acessodata=14 de novembro de 2016|obra=|publicado=Jewish American and Israeli Isssues|ultimo=|primeiro=}}</ref><ref>{{citar web|url=http://www.wisdom.weizmann.ac.il/math/AABeyond12/presentations/Aumann.pdf|titulo=Modern Economic Theory in the Talmud|data=2012|acessodata=14 de novembro de 2016|obra=|publicado=Center for the Study of Rationality – The Hebrew University of Jerusalem|ultimo=Aumann|primeiro=Yisrael|paginas=9}}</ref> e mais tarde no livro "''Certaine Errors in Navigation''", na seção sobre determinação da localização com bússola. O livro foi escrito pelo matemático [[Edward Wright]] em 1599, que achou que o valor era o mais provável de ser o correto em uma série de observações.


Em 1757, [[Ruđer Bošković]] desenvolve um método de regressão baseado no espaço L1 e implicitamente na mediana.<ref>{{citar livro|titulo=The History of Statistics: The Measurement of Uncertainty Before 1900|ultimo=Stigler|primeiro=Stephen M.|editora=Harvard University Press|ano=1986|local=|paginas=|acessodata=}}</ref> Em 1774, [[Pierre Simon Laplace]] sugere o uso da mediana como o estimador padrão do valor da média de uma distribuição posteriori: o critério foi minimizar a magnitude esperada do erro <math>|\alpha - \alpha^{*}|</math>, em que <math>\alpha^{*}</math> é a estimativa e <math>\alpha</math> é o valor real. O método de Laplace foi amplamente rejeitado por 150 anos em favor do [[método dos mínimos quadrados]] de [[Carl Friedrich Gauss]] e de [[Adrien-Marie Legendre]], o qual minimiza <math>(\alpha - \alpha^{*})^{2}</math> para obter a média.<ref>{{citar livro|titulo=Probability Theory: The Logic of Science|ultimo=Jaynes|primeiro=E. T.|editora=Cambridge University Press|ano=2003|local=|paginas=172|acessodata=}}</ref> A distribuição tanto da média da amostra quanto da mediana da amostra foi determinada por Laplace no início dos anos 1800.<ref>{{citar periódico|ultimo=Stigler|primeiro=Stephen|titulo=Studies in the History of Probability and Statistics. XXXII: Laplace, Fisher and the Discovery of the Concept of Sufficiency|jornal=Biometrika|paginas=439 – 445|doi=|url=http://biomet.oxfordjournals.org/content/60/3/439|acessadoem=14 de novembro de 2016}}</ref><ref>{{citar livro|titulo=Deuxième Supplément à la Théorie Analytique des Probabilités|ultimo=Laplace|primeiro=Pierre Simon|editora=Courcier|ano=1818|local=|paginas=|acessodata=}}</ref>
A mediana pode ser utilizada como uma medida de localização quando a distribuição é desviada , quando os valores finais não são conhecidos , ou quando se exige reduzida importância para ser anexado a outliers, por exemplo, uma vez que podem existir erros de medição.


Em 1843, [[Cournot|Antoine Augustin Cournot]] foi o primeiro matemático a usar o termo mediana para o valor que divide a distribuição de probabilidade em duas metades iguais. [[Gustav Theodor Fechner|Gustav Fechner]] usou o termo mediana para fenômenos sociológicos e psicológicos.<ref name=":0">{{citar livro|titulo=A Treatise on Probability|ultimo=Keynes|primeiro=John Maynard|editora=Macmillan and CO|ano=1921|local=|paginas=|acessodata=}}</ref> Mediana tinha sido usada anteriormente apenas na astronomia e em áreas correlatas. Embora tenha sido usada anteriormente por Laplace, Fechner popularizou a mediana na análise formal de dados.<ref name=":0" />
Em termos de notação, alguns autores representam a mediana de uma variável x ou como <math>\tilde {x}</math> ou como notação padrão <math>\mu_ { 1/2 }</math> <ref name="StatisticalMedian" /> por vezes também ''M''.<ref name="Sheskin2003">{{cite book|author=David J. Sheskin|title=Handbook of Parametric and Nonparametric Statistical Procedures: Third Edition|url=http://books.google.com/books?id=bmwhcJqq01cC&pg=PA7|accessdate=25 February 2013|date=27 August 2003|publisher=CRC Press|isbn=978-1-4200-3626-8|pages=7–}}</ref>. Não há amplamente aceito para o mediana, de modo que o uso destes ou outros símbolos para o mediano deve ser explicitamente definida quando eles são introduzidos .


Em 1881, Francis Galton usou o termo mediana em Inglês<ref>{{citar periódico|ultimo=Galton|primeiro=Fechner|data=1881|titulo=Report of the Anthropometric Committee|jornal=Report of the 51st Meeting of the British Association for the Advancement of Science|paginas=245 – 260|doi=|url=http://www.biodiversitylibrary.org/item/94448#page/5/mode/1up|acessadoem=14 de novembro de 2016}}</ref> depois de usar os termos ''middle-most value em'' 1869 e ''medium'' em 1880.
A mediana é o segundo quartil, 5° decil e 50° percentil.


==Conceitos básicos==
== Cálculo da mediana para dados ordenados ==
[[File:Comparison mean median mode.svg|thumb|300px|Comparação entre média (mean, em inglês), mediana (median, em inglês) e moda (mode, em inglês) de duas distribuições log–normal com diferentes distorções.]]
A mediana é usada principalmente em distribuições distorcidas, que resumem a tendência central diferentemente da média aritmética. Seja o [[multiconjunto]] {1, 2, 2, 2, 3, 14}. Por ser menos susceptível a valores excepcionalmente altos ou baixos, a mediana de valor 2 pode ser uma melhor indicação de tendência central que a média aritmética de valor 4. <ref name=":12">{{citar web|url=http://www.professores.uff.br/anafarias/images/stories/meusarquivos/get00116-I-0.pdf|titulo=Capitulo 1 - Descrição de dados: tabelas e gráficos|data=|acessodata=|obra=Fundamentos de Estatística Aplicada|publicado=Universidade Federal Fluminense|ultimo=Farias|primeiro=Ana Maria Lima de|pagina=24}}</ref>


Mediana é uma técnica comum na estatística descritiva e representação de dados estatísticos, uma vez que é fácil de calcular e simples de entender e fornece uma medida mais robusta na presença de ''[[Outlier|outliers]]'' (valores atípicos) que a média. Entretanto, a relação empírica amplamente citada entre as localizações relativas da média e da mediana para distribuições distorcidas (a média está a direita da mediana para distribuições distorcidas a direita e a média está a esquerda da mediana para distribuições distorcidas a esquerda) geralmente não é verdadeira.<ref>{{cite web|url=http://www.amstat.org/publications/jse/v13n2/vonhippel.html|title=Journal of Statistics Education, v13n2: Paul T. von Hippel|work=amstat.org}}</ref> No entanto, há várias relações para a diferença absoluta entre elas.
A mediana é uma forma de resumir os valores típicos associados com os membros de uma população de análise estatística, assim, é um possível parâmetro de localização.


Mediana não identifica um valor específico dentro de um conjunto de dados, uma vez que mais de um valor pode ter o valor da mediana. Com um número par de observações, nenhum valor precisa ter exatamente o valor da mediana. Porém, o valor da mediana é unicamente determinado pela definição usual. <ref name=":12" />
Quando a mediana é usada como um parâmetro de localização em estatística descritiva, existem várias opções para uma medida de variabilidade: a [[amplitude]], o [[intervalo interquartil]], o [[desvio médio absoluto]] e o [[desvio absoluto mediano]]. Uma vez que a mediana é o mesmo que o segundo quartil, o seu cálculo é ilustrado no artigo em quartis.


Como é baseada no valor do meio de um conjunto de dados, não é necessário saber os valores dos elementos extremos para calcular a mediana. Seja um teste psicológico que pretende investigar o tempo necessário para resolver um problema. Se um pequeno número de pessoas não conseguir resolver um problema em um determinado tempo, a mediana ainda pode ser calculada.<ref name="Robson">{{cite book|last1=Robson|first1=Colin|title=Experiment, Design and Statistics in Psychology|date=1994|publisher=Penguin|isbn=0-14-017648-9|pages=42–45}}</ref>
Para fins práticos, várias medidas de localização e dispersão são frequentemente comparadas com base bem como os valores correspondentes da população pode ser estimada a partir de uma amostra de dados. A mediana, estimado com a mediana da amostra, tem boas propriedades a este respeito. Embora não seja geralmente melhor se uma determinada distribuição da população é assumida, as suas propriedades são sempre razoavelmente boa. Por exemplo, uma comparação entre a eficiência de estimadores candidatos mostra que a média da amostra é estatisticamente mais eficaz do que a mediana da amostra, quando os dados são não contaminados por dados de distribuições com caudas pesadas ou a partir de misturas de distribuição, mas menos eficaz de outro modo, e que a eficiência da mediana da amostra é maior do que para uma ampla gama de distribuições. Mais especificamente, a mediana tem uma eficiência de 64% em comparação com a média variância mínima (para grandes amostras normais), o que quer dizer que a variação da mediana será aproximadamente 50% maior do que a variação da média.


== Cálculos básicos ==
No caso de '''dados ordenados''' de amostras de tamanho ''n'', se ''n'' for '''ímpar''',<ref>{{citar web |url=http://educacao.uol.com.br/matematica/estatistica-moda-mediana.jhtm |título=Moda e mediana |acessodata=24 de junho de 2013 |autor=Michele Viana Debus de França |coautores= |data= |ano= |mes= |formato= |obra= |publicado=UOL - Educação |páginas= |língua= |língua2=pt |língua3= |lang= |citação= }}</ref> a mediana será o '''elemento central''' <math>\frac{(n+1)}{2}</math>. Se ''n'' for par, a mediana será o resultado da '''[[Média aritmética|média simples]] entre os elementos''' <math>\frac{n}{2}</math> e <math>\frac{n}{2}+1</math>.
[[File:Finding the median.png|thumb|'''<u>Em cima:</u>''' a mediana (median, em inglês) de um conjunto de dados com número ímpar de elementos. No conjunto de dados 1, 3, 3, 6, 7, 8, 9, a mediana é 6.
<u>'''Embaixo:'''</u> a mediana (''median'', em inglês) de um conjunto de dados com número par de elementos. No conjunto de dados 1, 2, 3, 4, 5, 6, 8, 9, a mediana é <math>\frac{4+5}{2} = 4,5</math>]]
A mediana de uma lista finita de números pode ser encontrada organizando os números do menor para o maior. Se houver um número ímpar de elementos, o número do meio é o valor do meio <math>\frac{n+1}{2}</math> (na amostra de sete elementos {1, 3, 3, 6, 7, 8, 9}, a mediana é 6). <ref name=":12" />Se houver um número par de elementos, não há um único valor do meio. Então, a mediana é definida como a média dos dois valores do meio <math>\frac{n}{2}</math> e <math>\frac{n}{2}+1</math> (na amostra de oito elementos {1, 2, 3, 4, 5, 6, 8, 9}, a mediana é a média <math>\frac{4+5}{2} = 4,5</math>)<ref>{{citar web|url=http://mathworld.wolfram.com/StatisticalMedian.html|titulo=Statistical Median|data=|acessodata=14 de novembro de 2016|obra=|publicado=MathWorld – A Wolfram Web Resource|ultimo=Weisstein|primeiro=Eric W.}}</ref><ref>{{citar web|url=|titulo=Descriptive Statistics|data=|acessodata=|obra=Statistical Education Resource Kit|publicado=Pennsylvania State Department of Statistics|ultimo=Simon|primeiro=Laura J.}}</ref>. Em termos mais técnicos, é a interpretação da mediana como mid-range.


A fórmula usada para encontrar a posição de um valor do meio em uma amostra de <math>n</math> elementos organizados em ordem crescente é <math>\frac{n+1}{2} </math>, que fornece tanto o valor médio para um número ímpar de elementos quanto o ponto médio entre dois valores do meio para um número par de elementos. Em uma amostra de quatorze elementos, o resultado da fórmula é 7,5 e a mediana é a média entre o sétimo e o oitavo elemento (também é possível calcular a mediana com o diagrama ramo-e-folha).<ref name=":12" />
=== Exemplos ===


Não há uma notação padrão amplamente aceita para a mediana, mas alguns autores representam a mediana de uma variável <math>X </math> como <math>\tilde{X}</math>, como <math>\mu_\frac{1}{2} </math><ref name="StatisticalMedian" /> e às vezes como <math>M </math>.<ref>{{citar livro|titulo=Handbook of Parametric and Nonparametric Statistical Procedures|ultimo=Sheskin|primeiro=David J.|editora=CRC Press|ano=2003|local=|paginas=7|acessodata=}}</ref><ref>{{citar livro|titulo=Statistical Methods for Spc and Tqm|ultimo=Bissell|primeiro=Derek|editora=CRC Press|ano=1994|local=|paginas=26|acessodata=}}</ref><ref name="Sheskin2003">{{cite book|author=David J. Sheskin|title=Handbook of Parametric and Nonparametric Statistical Procedures: Third Edition|url=http://books.google.com/books?id=bmwhcJqq01cC&pg=PA7|accessdate=25 February 2013|date=27 August 2003|publisher=CRC Press|isbn=978-1-4200-3626-8|pages=7–}}</ref> Em qualquer um dos casos, o uso dos mesmos ou de outros símbolos para a mediana precisam ser explicitamente definidos quando são introduzidos.
==== População com número de elementos ímpar ====


== Exemplos ==
Para a seguinte população:
[[File:Mediana n ímpar.gif|thumb|207x207px|Ilustração do cálculo da mediana para uma população com número ímpar de valores. Em uma população com número ímpar de valores, a mediana é o valor que separa a metade maior e a metade menor de uma [[Amostra (estatística)|amostra]]. Para a população {2, 2, 3, 7, 8, 9, 9}, a mediana é 7.]]
=== População com número de elementos ímpar ===


:<math>\{ 1, 3, 5, 7, 9 \}</math>
Para a população <math>\{ 1, 3, 5, 7, 9 \}</math>, a posição do valor médio é:


:A posição da mediana será = <math>\frac{n + 1}{2} = \frac{5 + 1}{2} = 3</math>, onde <math>n</math> é o número de elementos ou dados da amostra.
<math>\frac{n + 1}{2} = \frac{5 + 1}{2} = 3</math>,


em que <math>n</math> é o número de dados ou de elementos da amostra.
:Logo, a mediana é o 3º elemento que é '''5''' (nesse caso, igual à [[média]]).


Logo, a mediana é o terceiro elemento (5) e é igual a média (5).
''No entanto, para a população:''


:<math>\{ 1, 2, 4, 10, 13 \}</math>
Para a população <math>\{ 1, 2, 4, 10, 13 \}</math>, a posição do valor médio é a mesma


<math>\frac{n + 1}{2} = \frac{5 + 1}{2} = 3</math>,
:A mediana também é o 3° elemento, que portanto, é '''4''' (enquanto neste caso, a [[média]] é 6).


==== População com número de elementos par ====
em que <math>n</math> é o número de dados ou de elementos da amostra.


Logo, a mediana é o terceiro elemento (4), mas não é igual a média (6).<ref>{{citar web|url=https://drive.google.com/file/d/0B49XfQx1IzTnX3NZQUxBcDhSRWs/view|titulo=Noções de Estatística para Concursos|data=2010|acessodata=21/11/2016|obra=|publicado=Campus Concursos|ultimo=MENESES|primeiro=Fabricio|pagina=9 - 10}}</ref>
;Na seguinte população:


=== População com número de elementos par ===
:<math>\{ 1, 2, 4, 8, 9, 10 \}</math>
Para a população <math>\{ 1, 2, 4, 8, 9, 18 \}</math>, não há valor com a posição 3,5. Logo a mediana é calculada por meio da média dos valores centrais, o terceiro e o quarto elemento. O valor da mediana é: <math>\frac{4 + 8}{2} = 6</math>. Já o valor da média é 7.


:Não há um valor central, portanto a mediana é calculada tirando-se a média dos dois valores centrais (no caso, o e elemento).
Em um conjunto de dados com números repetitivos <math>\{ 4, 5, 5, 6, 6, 6, 6, 6, [6, 7], 7, 8, 8, 9, 9, 10, 11, 13 \}</math>, a mediana também é calculada por meio da média dos valores centrais, o nono e o décimo elemento. O valor da mediana é:


<math>\frac{6 + 7}{2} = 6,5</math>.<ref>{{citar web|url=https://www.inf.ufes.br/~magnos/AD/ad2007_files/AD_estatistica.pdf|titulo=Revisão de Estatística e Probabilidade|data=|acessodata=21/11/2016|obra=|publicado=Universidade Federal do Espírito Santo|ultimo=MARTINELLO|primeiro=Magnos|outros=|pagina=4}}</ref>
:Logo, o valor da mediana é = <math>\frac{4 + 8}{2} = 6</math>, e a [[média]] é 5,666.


== Mediana para dados ordenados ==
Em uma amostragem com números repetitivos <math>\{ 4, 5, 5, 6, 6, 6, 6, 6, [6, 7], 7, 8, 8, 9, 9, 10, 11, 13 \}</math> a mediana fica no meio sendo igual a <math>6,5</math>.
[[File:visualisation mode median mean.svg|thumb|100px|Visualização geométrica da moda (mode, em inglês), mediana (median, em inglês) e média (''mean'', em inglês) de uma função densidade arbitrária.<ref>{{cite web|title=AP Statistics Review - Density Curves and the Normal Distributions|url=http://apstatsreview.tumblr.com/post/50058615236/density-curves-and-the-normal-distributions?action=purge|accessdate=16 March 2015}}</ref>]]
Mediana pode ser usada como medida de tendência central, medida de posição ou medida de localização quando a distribuição é distorcida, quando os valores finais não são conhecidos ou quando importâncias reduzidas são anexadas aos ''outliers'' (por exemplo, quando podem existir erros de medição). A mediana é definida por dados unidimensionais ordenados e é independente de qualquer distância métrica (por exemplo, a média geométrica é definida pot qualquer número de dimensões).<ref name=":8">{{citar web|url=http://portal.mec.gov.br/seb/arquivos/pdf/profunc/estatistica.pdf|titulo=Estatística Aplicada a Educação|data=2007|acessodata=23/11/2016|obra=|publicado=portal.mec.gov|ultimo=MEDEIROS|primeiro=Carlos Augusto de|pagina=89 - 91}}</ref>


A mediana é uma das alternativas para resumir os valores típicos associados aos elementos da população estatística. Logo, a mediana é um possível parâmetro de localização. A mediana é o 2° quartil, 5° decil e 50° percentil. Ela pode ser calculada para dados ordenados, mas não para dados categóricos (por exemplo, é possível calcular a mediana das notas de estudantes avaliados entre A e F, mas não é possível calcular a mediana entre os sexos ou entre as nacionalidades dos estudantes).<ref>{{citar web|url=http://www.portalaction.com.br/estatistica-basica/23-quartis|titulo=QUARTIS|data=|acessodata=05/11/2016|obra=|publicado=Portal Action|ultimo=|primeiro=|pagina=1}}</ref>
== Cálculo da mediana para dados classificados ==
Quando se trata de um conjunto de dados classificados, o cálculo da mediana é feito através do [[histograma]], ou através da função cumulativa de frequências relativas. A mediana é o ponto do eixo das abcissas correspondente a 50% da [[frequência relativa]] acumulada.


Quando a mediana é usada como parâmetro de localização na estatística descritiva, há várias opções de medidas de dispersão como a amplitude, o intervalo interquartil, o desvio absoluto da média e o desvio absoluto da mediana.<ref name=":8" />
No caso de variáveis contínuas, a mediana, <math>m</math>, é tal que <math>\int_{-\infty}^m f(x) dx = \int_{m}^{\infty} f(x) dx </math>.


Para objetivos práticos, diferentes medidas de localização e de dispersão são frequentemente comparados com base em o quão bem os valores populacionais correspondentes podem ser estimados a partir da amostra. Inclusive, a mediana tem boas propriedades para tais estimativas. Embora não sejam geralmente ótimas, as propriedades da mediana são razoavelmente boas quando determinada distribuição de população é conhecida.<ref name=":8" />
No caso de variáveis discretas, e quando as frequências estão calculadas por unidade, a mediana é o ponto do eixo das [[Abscissa]]s para o qual a frequência relativa acumulada é inferior ou igual a 50% e superior ou igual a 50% para o ponto imediatamente a seguir.


Por exemplo, a comparação da eficiência de estimadores candidatos mostra que a média amostral é mais eficiente que a mediana amostral quando os dados não estão contaminados por dados de distribuições de cauda pesada ou de misturas de distribuição, mas que a média amostral é menos eficiente que a mediana amostral em caso contrário, o que acontece em uma ampla variação de distribuições. Especificamente, a mediana tem 64% de eficiência em comparação com a variação mínima da média para amostras normais grandes, o que significa que a variância da mediana é aproximadamente 50% maior que a variância da média<ref name=":8" />''.''
== Bibliografia==

* Murteira, Bento; Black, George; Estatística Descritiva, McGrawHill, 1983.
==Distribuições de probabilidade==
[[File:Distribuição_Simétrica.gif|thumb|200px|Ilustração do comportamento das medidas de tendência central em uma distribuição simétrica (por exemplo, uma distribuição normal) quando alterada a dispersão dos dados. A curva vermelha descreve a densidade de probabilidade no espaço amostral e a linha azul representa a localização da média (azul), da mediana (amarelo) e da moda (verde) do conjunto de dados.]]
[[File:Distribuição_Assimétrica_Negativa.gif|thumb|200px|Ilustração do comportamento das medidas de tendência central em uma distribuição assimétrica negativa quando alterada a dispersão dos dados. A curva vermelha descreve a densidade de probabilidade no espaço amostral, a linha azul (à esquerda) representa a média, a linha amarela (ao meio) representa a mediana e a linha verde (à direita) representa a moda do conjunto de dados.]]
[[File:Distribuição_Assimétrica_Positiva.gif|thumb|200px|Ilustração do comportamento das medidas de tendência central em uma distribuição assimétrica positiva (por exemplo, uma distribuição qui-quadrado) quando alterada a dispersão dos dados. A curva vermelha descreve a densidade de probabilidade dos dados no espaço amostral, a linha azul (à direita) representa a média, a linha amarela (ao meio) representa a mediana e a linha verde (à esquerda) representa a moda do conjunto de dado]]
[[File:Distribuição_Bimodal.gif|thumb|200px|Ilustração do comportamento das medidas de tendência central em uma distribuição bimodal, formada por outras duas distribuições com seus respectivos parâmetros, que transita entre distribuição assimétrica positiva, distribuição assimétrica negativa e distribuição simétrica conforme as dispersões dos dados no espaço amostral são alteradas. A curva vermelha descreve a densidade de probabilidade dos dados no espaço amostral, a linha azul representa a média, a linha amarela representa a mediana e a linha verde representa a moda do conjunto de dados.]]
Para qualquer [[distribuição de probabilidade]] em <math>\mathbb R</math> com [[função distribuição acumulada]] <math>F</math>, independentemente do tipo de distribuição de probabilidade contínua, em particular, uma distribuição absoluta contínua com [[função densidade]] ou uma distribuição discreta, uma mediana é definida como qualquer número real <math>m</math> que satisfaz as desigualdades:

<math>\operatorname{P}(X\leq m) \geq \frac{1}{2}\text{ ou }\operatorname{P}(X\geq m) \geq \frac{1}{2}\,\!</math>

ou igualmente as desigualdades:

<math>\int_{(-\infty,m]} dF(x) \geq \frac{1}{2}\text{ ou }\int_{[m,\infty)} dF(x) \geq \frac{1}{2}\,\!</math>,

em que a integral de Lebesgue–Stieltjes é usada.<ref name=":92">{{citar web|url=http://www.producao.ufrgs.br/arquivos/disciplinas/489_estaind005_distprob.pdf|titulo=Distribuições de Probabilidade|data=|acessodata=21/11/2016|obra=|publicado=Universidade Federal do Rio Grande do Sul|ultimo=|primeiro=|pagina=4}}</ref>

Para uma distribuição de probabilidade absoluta contínua com função densidade <math>f</math>, a mediana satisfaz:

<math>\operatorname{P}(X\leq m) = \operatorname{P}(X\geq m)=\int_{-\infty}^m f(x)\, dx=\frac{1}{2}.\,\!</math><ref name=":92" />

Qualquer distribuição de probabilidade em <math>\mathbb R</math> tem pelo menos uma mediana, mas ela pode ter mais de uma mediana. Quando a mediana é única, alguns estatísticos falam da mediana corretamente. Quando a mediana não é única, alguns estatísticos falam da mediana informalmente.

===Medianas de distribuições particulares ===
Medianas de certos tipos de distribuições podem ser calculadas facilmente a partir dos seus parâmetros. Medianas existem mesmo para algumas distribuições sem média bem definida como a distribuição de Cauchy:
* Uma mediana de uma distribuição simétrica que possui uma média μ também possui valor μ.<ref name=":15">{{citar web|url=http://leg.ufpr.br/~silvia/CE055/node44.html|titulo=A distribuição Normal|data=20/09/2012|acessodata=05/11/2016|obra=|publicado=Universidade Federal do Paraná|ultimo=Silvia|primeiro=}}</ref>
** Uma mediana de uma distribuição normal com média μ e variância σ<sup>2</sup> possui valor&nbsp;μ. Para uma distribuição normal, média = mediana = moda.<ref name=":15" />
** Uma mediana de uma distribuição uniforme no intervalo [a,&nbsp;b] possui valor <math>\frac{a + b}{2}</math>, que também é a média.<ref>{{citar web|url=http://webcache.googleusercontent.com/search?q=cache:NVjYS_V4EtsJ:rnc.fmrp.usp.br/wp-content/uploads/AULA-2_13.ppt+&cd=9&hl=pt-PT&ct=clnk&gl=br&client=safari|titulo=Aula 2|data=|acessodata=07/12/2016|obra=Neurociências e Ciências do Comportamento|publicado=Faculdade de Medicina de Ribeirão Preto da Universidade de São Paulo (FMRPUSP)|ultimo=|primeiro=|pagina=23}}</ref>
** Uma mediana de uma distribuição de Cauchy com parâmetro de localização x<sub>0</sub> e parâmetro de escala y possui valor x<sub>0</sub> (parâmetro de localização).<ref>{{citar web|url=http://www.portalaction.com.br/probabilidades/68-distribuicao-de-cauchy|titulo=DISTRIBUIÇÃO DE CAUCHY|data=|acessodata=05/11/2016|obra=|publicado=Portal Action|ultimo=|primeiro=|pagina=1}}</ref>
* Uma mediana de uma [[lei de potência]] x<sup>−a</sup>, com expoente a&nbsp;>&nbsp;1 é 2<sup>1/(a&nbsp;−&nbsp;1)</sup>x<sub>min</sub>, em que x<sub>min</sub> é o valor mínimo para que a lei de potência exista.<ref>[http://arxiv.org/pdf/cond-mat/0412004.pdf Newman, Mark EJ. "Power laws, Pareto distributions and Zipf's law." Contemporary physics 46.5 (2005): 323-351.]</ref>
* Uma mediana de uma distribuição exponencial com parâmetro de taxa λ é o logaritmo natural de 2 dividido pelo parâmetro de taxa λ<sup>−1</sup>ln 2.<ref>{{citar web|url=http://www.portalaction.com.br/confiabilidade/411-distribuicao-exponencial|titulo=DISTRIBUIÇÃO EXPONENCIAL|data=|acessodata=05/12/2016|obra=|publicado=Portal Action|ultimo=|primeiro=|pagina=1}}</ref>
* Uma mediana de uma distribuição de Weibull com parâmetro de forma k e parâmetro de escala λ é&nbsp;λ(ln&nbsp;2)<sup>1/k</sup>. <ref>{{citar web|url=http://www.san.uri.br/~ober/arquivos/disciplinas/tolerancia/apoio/weibull.pdf|titulo=Conceitos de Confiabilidade - Características da Distribuição Weibull|data=21/10/2005|acessodata=05/12/2016|obra=|publicado=ReliaSoft Brasil|ultimo=|primeiro=|pagina=7}}</ref>

== Propriedades ==
===Propriedade da otimização===
O erro absoluto médio de uma variável real <math>c</math> com relação a uma variável aleatória <math>X</math> é <math>E(\left|X-c\right|)\,</math><ref name=":10">{{citar web|url=http://www.portalaction.com.br/inferencia/35-propriedades-dos-estimadores|titulo=Propriedade dos Estimadores|data=|acessodata=21/11/2016|obra=|publicado=Portal Action|ultimo=|primeiro=}}</ref>, em que <math>|\cdot |</math> é o valor absoluto. Seja <math>X</math> uma variável aleatória tal que a esperança <math>E(\left|X-c\right|)\,</math>existe. Então, <math>m</math> é a mediana de <math>X</math> se e somente se <math>m</math> for minimizador do erro absoluto médio com relação à <math>X</math><ref>{{citar livro|titulo=Probability Theory|ultimo=Stroock|primeiro=Daniel|editora=Cambridge University Press|ano=2011|local=|paginas=43|acessodata=}}</ref>: <math>m=\mbox{arginf}_{c\in \mathbb R}\ E(\left|X-c\right|)\,</math>. Em particular, <math>m</math> é a mediana da amostra se e somente se <math>m</math> for minimizador da média aritmética dos desvios absolutos.

Em termos mais gerais, uma mediana é definida como o minimizador de <math>E( \left|X-c\right| - \left| X \right| )</math>, como discutido abaixo na seção sobre medianas multivariadas, especialmente mediana espacial. Essa definição baseada na otimização da mediana é útil em análise de dados estatísticos como no agrupamento de k-medians.<ref name=":10" />

=== Distribuições unimodais ===
É possível mostrar para uma distribuição modal que a mediana <math>\tilde{X}</math> e a média <math>\bar{X}</math> estão dentro de <math>\Bigl(\frac{3}{5} \Bigr)^\frac{1}{2} \approx 0,7746</math> desvio-padrão de cada uma.<ref>{{citar periódico|ultimo=|primeiro=|coautores=S. Basu e A. DasGupta|data=2006|titulo=The Mean, Median, and Mode of Unimodal Distributions: A Characterization|jornal=Theory of Probability & Its Applications|paginas=210 – 223|doi=|url=http://epubs.siam.org/doi/abs/10.1137/S0040585X97975447|acessadoem=14 de novembro de 2016}}</ref>

Em símbolos,

<math>\frac{\left|\tilde{X} - \bar{X}\right|}{\sigma} \le \Bigl(\frac{3}{5} \Bigr)^\frac{1}{2}</math>.<ref name=":9">{{citar livro|titulo=Introdução à Análise de Dados|ultimo=Silva|primeiro=André Luiz Carvalhal da|editora=e-papers|ano=2009|local=Rio de Janeiro|paginas=40 - 41|acessodata=30/11/2016}}</ref>

Uma relação semelhante é mantida entre a mediana e a moda, que estão dentro de <math>3^\frac{1}{2} \approx 1,732</math> desvio-padrão de cada uma. Em símbolos,

<math>\frac{\left|\tilde{X} - \mathrm{moda}\right|}{\sigma} \le 3^\frac{1}{2}.</math><ref name=":9" />

===Desigualdade entre média e mediana===
Se a distribuição de probabilidade tiver variância finita, a distância entre a mediana e a média é limitada por um desvio-padrão. Esse limite foi provado por Mallows<ref>{{citar periódico|ultimo=Mallows|primeiro=Colin|data=2012|titulo=Another Comment on O'Cinneide|jornal=The American Statistician|paginas=256 – 262|doi=|url=http://www.tandfonline.com/doi/abs/10.1080/00031305.1991.10475815|acessadoem=14 de novembro de 2016}}</ref>, que usou a [[desigualdade de Jensen]] duas vezes:

<math>

\left| \mu-m\right| = \left|\mathrm{E}(X-m)\right| \leq \mathrm{E}\left(\left|X-m\right|\right)
\leq \mathrm{E}\left(\left|X-\mu\right|\right)
\leq \sqrt{\mathrm{E}((X-\mu)^2)} = \sigma.

</math><ref>{{citar web|url=http://www.pedro.unifei.edu.br/download/estatistica.pdf|titulo=Estatística Aplicada|data=2007|acessodata=24/11/2016|obra=|publicado=UNIFEI|ultimo=Balestrassi|primeiro=Pedro Paulo|pagina=12}}</ref>

A primeira e a terceira desigualdade vêm da desigualdade de Jensen aplicada à função de valor absoluto e à função quadrada, ambas convexas. A segunda desigualdade vem da minimização da função de desvio absoluto pela mediana, em que: <math>a \mapsto \mathrm{E}(\left|X-a\right|)</math>.

Essa prova pode facilmente ser generalizada para uma versão multivariada da desigualdade<ref>{{citar livro|titulo=Random Vectors and Random Sequences|ultimo=Piché|primeiro=Robert|editora=Lambert Academic Publishing|ano=2012|local=|paginas=|acessodata=}}</ref>:<math>

\left\|\mu-m\right\|
= \left\| \mathrm{E} (X-m) \right\|
\leq \mathrm{E} \|X-m\|
\leq \mathrm{E} (\left\| X-\mu \right\| )
\leq \sqrt{ \mathrm{E} ( \| X-\mu \|^2 ) }
= \sqrt{ \mathrm{trace} (\mathrm{var} (X) ) }
</math>,

em que <math>m</math> é uma mediana espacial. Isto é, em que <math>m</math> é um minimizador da função <math>a \mapsto \mathrm{E}(\left\|X-a\right\|).\,</math>

A mediana espacial é única quando a dimensão do conjunto de dados é igual ou maior que dois.<ref name=":2">{{citar periódico|ultimo=|primeiro=|coautores=Johannes H. B. Kemperman e Yadolah Dodge|data=1987|titulo=The Median of a Finite Measure on a Banach Space: Statistical Data Analysis based on the L1-Norm and Related Methods|jornal=Papers from the First International Conference held at Neuchâtel|paginas=217 – 230|editora=North-Holland Publishing CO|local=Amsterdam|doi=|url=|acessadoem=14 de novembro de 2016}}</ref><ref name=":3">{{citar periódico|ultimo=|primeiro=|coautores=Philip Milasevic e Gilles R. Ducharme|data=1987|titulo=Uniqueness of the Spatial Median|jornal=The Annals of Statistics|paginas=1332 – 1333|doi=|url=http://projecteuclid.org/download/pdf_1/euclid.aos/1176350511|acessadoem=17 de novembro de 2016}}</ref> Uma prova alternativa usa a [[Desigualdade de Chebyshev|desigualdade unilateral de Chebyshev]], que aparece em uma desigualdade em parâmetros de localização e de escala.

===Desigualdade de Jensen===
A desigualdade de Jensen afirma que para qualquer variável aleatória <math>X</math> com esperança finita, <math>E(X)<\infty</math>, para qualquer função convexa <math>f</math>:

<math> f( E( X ) ) \le E( f( X ) ) </math><ref>{{citar web|url=http://www.cpdee.ufmg.br/~emmendes/desigualdades.pdf|titulo=Introdução aos Processos Estocásticos - desigualdade e Convergência|data=|acessodata=23/11/2016|obra=|publicado=Universidade Federal de Minas Gerais|ultimo=Mendes|primeiro=Eduardo M. A. M.|pagina=8}}</ref>

Se <math>X</math> é uma variável real com uma mediana única <math>m</math> e <math>f</math> é uma função <math>C</math><ref>{{citar periódico|ultimo=Merkle|primeiro=Milan|titulo=Jensen's Inequality for Medians|jornal=Statistics & Probability Letters|paginas=277 – 281|doi=|url=|acessadoem=14 de novembro de 2016}}</ref>. Então:

<math> f(m) \le \operatorname{Mediana}( f( X )) </math>.<ref>{{citar web|url=http://w3.impa.br/~rimfo/notas_prob_discreta.pdf|titulo=Notas Sobre Probabilidade Discreta|data=|acessodata=30/11/2016|obra=|publicado=Instituto de Matemática Pura e Aplicada (IMPA)|ultimo=Oliveira|primeiro=Roberto Imbuzeiro M. F. de|pagina=18}}</ref>

Uma função <math>C</math> é uma função real definida no conjunto dos números reais <math>\mathbb R</math>, sendo que para qualquer <math>t</math> real:

<math> f^{-1}( (-\infty , t] ) = \{ x \in R \mid f(x) \le t \} </math>

é um intervalo fechado, um singleton ou um conjunto vazio.

=== Cálculo para grandes amostras ===
Embora os <math> n </math> itens de [[algoritmo de ordenação]] requeiram [[Grande-O|O]] (''n'' log ''n'') operações, algoritmos de seleção podem computar o menor k-ésimo de <math> n </math> itens com apenas O(''n'') operações. Isso inclui a mediana, a <math> n/2 </math> ésima ordem estatística (ou para um número par de amostrar, a média das duas ordens estatísticas médias).<ref>{{citar web|url=http://www.alessandrosantos.com.br/emanuel/usp/programacao/introducao_programacao/slides_e_pdfs/heap-quick-cormen.pdf|titulo=Ordenação e Estatística de Ordem|data=|acessodata=07/12/2016|obra=|publicado=alessandrosantos.com.br|ultimo=Santos|primeiro=Alessandro|pagina=100}}</ref>

Os algoritmos de seleção também tem a desvantagem de requerer uma memória O(''n''), que significa que eles precisam ter a memória da amostra inteira ou da porção de tamanho linear da amostra. Como o requisito da memória pode ser restritivo (assim como o requisito do tempo linear), vários procedimentos de estimativa para a mediana tem sido desenvolvidos.<ref name=":16">{{citar web|url=http://www2.dcc.ufmg.br/livros/algoritmos-edicao2/cap4/transp/completo1/cap4.pdf|titulo=Ordenação|data=26/03/2004|acessodata=07/12/2016|obra=|publicado=Universidade Federal de Minas Gerais|ultimo=Botelho|primeiro=Fabiano C.|ultimo2=Ziviani|primeiro2=Nivio|pagina=44}}</ref>

Um procedimento de estimativa simples é a mediana de regra três, que estima a mediana como a mediana de uma subamostra de três elementos. Seja <math>A</math> uma amostra com elementos <math>A[i], i=1,\dots, n</math>. Então

<math>med3(A) = mediana(A[1], A[n/2], A[n])</math><ref name=":16" />

Isso é comumente usada como uma subrotina do algoritmo de classificação [[quicksort]], que usa uma estimativa da mediana de input. Uma estimativa mais robusta é a nona de[[John Tukey|Tukey]], a mediana de regra três aplicada com recurso limitado<ref>{{citar periódico|ultimo=|primeiro=|coautores=Jon L. Bentley e M. Douglas McIlroy|data=1993|titulo=Engineering a Sort Function|jornal=Software — Practice and Experience|paginas=1249 – 1265|doi=|url=http://cs.fit.edu/~pkc/classes/writing/samples/bentley93engineering.pdf|acessadoem=14 de novembro de 2016}}</ref>:

<math>nona(A) = med3(med3(A[1,...,n/3]), med3(A[n/3+1,...,2n/3]), med3(A[2n/3+1,...,n]))</math>.<ref name=":11">{{citar livro|titulo=Contributions to Survey Sampling and Applied Statistics|ultimo=David|primeiro=H. A.|editora=Academic Press|ano=1978|local=New York|paginas=251 - 255|acessodata=30/11/2016}}</ref>

Por exemplo, temos uma amostra <math>A</math> com elementos <math>A=\{8, 5, 1, 7, 12, 3, 2, 9,15\}</math>. Então

<math>med3(A[1,2,3]) = mediana(8, 5, 1)=5</math>,

<math>med3(A[4,5,6]) = mediana(7, 12, 3)=7</math>,

<math>med3(A[7,8,9]) = mediana(2, 9, 15)= 9</math>,

e

<math>nona(A) = mediana(5, 7, 9) = 7</math>. <ref name=":11" />

Esse estimador "re–mediana" requer um tempo linear e uma memória sublinear, operando em uma única passagem sobre a amostra.<ref>{{citar periódico|ultimo=|primeiro=|coautores=Peter J. Rousseeuw e Gilbert W. Bassett Jr.|data=1990|titulo=The Remedian: A Robust Averaging Method for Large Data Sets|jornal=|paginas=97 – 104|doi=|url=http://wis.kuleuven.be/stat/robust/papers/publications-1990/rousseeuwbassett-remedian-jasa-1990.pdf|acessadoem=14 de novembro de 2016}}</ref>

===Distribuição de mediana amostral===
A distribuição tanto da média da amostra quanto da mediana da amostra foram determinadas por Laplace.<ref>{{citar periódico|ultimo=Stigler|primeiro=Stephen|data=1973|titulo=Studies in the History of Probability and Statistics. XXXII: Laplace, Fisher and the Discovery of the Concept of Sufficiency|jornal=Biometrika|paginas=439 – 445|doi=|url=http://biomet.oxfordjournals.org/content/60/3/439|acessadoem=15 de novembro de 2016}}</ref> A distribuição da mediana da amostra de uma população com uma função densidade <math>f(x)</math> é assintoticamente normal com média <math>m</math> e variância<ref>{{citar periódico|ultimo=Rider|primeiro=Paul R.|data=1960|titulo=Variance of the Median of Small Samples from Several Special Populations|jornal=Journal of the American Statistic Association|paginas=148 – 150|doi=|url=http://www.tandfonline.com/doi/abs/10.1080/01621459.1960.10482056|acessadoem=15 de novembro de 2016}}</ref>

<math> \frac{ 1 }{ 4n f( m )^2 }</math>,

em que <math>m</math> é o valor médio da distribuição e <math>n</math> é o tamanho da amostra. Na prática, <math> f(m)=\frac{1}{2}</math> por definição.<ref>{{citar web|url=http://www.fau.usp.br/arquivos/disciplinas/au/aut0516/Apostila_2_-_DistribuiCAo_Amostral.pdf|titulo=Distribuição Amostral - Estimação|data=|acessodata=24/11/2016|obra=|publicado=FAU-USP|ultimo=|primeiro=|pagina=6}}</ref>

Os resultados também têm sido estendidos<ref>{{citar livro|titulo=Kendall's Advanced Theory of Statistics|ultimo=Stuart|primeiro=Alan|ultimo2=Ord|primeiro2=Keith|editora=Wiley|ano=1994|local=Londres|paginas=|acessodata=}}</ref>. É sabido que para o <math>p</math>–ésimo quantil a distribuição da <math>p</math>–ésima amostra é assintoticamente normal em torno do <math>p</math>–ésimo quantil com variância igual a

<math> \frac{p( 1 - p )}{nf(x_p)^2}</math>,

em que <math>f(x_{p})</math> é o valor da densidade de distribuição no <math>p</math>–ésimo quantil. <ref name=":13">{{citar web|url=http://www.portalaction.com.br/inferencia/distribuicoes-amostrais|titulo=Distribuições Amostrais|data=|acessodata=24/11/2016|obra=|publicado=Portal Action|ultimo=|primeiro=|outros=|pagina=1}}</ref>

No caso de uma variável discreta, a distribuição da amostra da mediana para pequenas amostras pode ser estudada da seguinte maneira. Seja um tamanho de amostra com número ímpar de elementos <math> N = 2n + 1 </math>. Se um dado valor <math> v </math> for a mediana da amostra, então duas condições devem ser satisfeitas.<ref name=":17">{{citar web|url=http://www.dainf.ct.utfpr.edu.br/~gilda/Downloads%20-%20Arquivos/Disciplinas/Estatistica/EstimacaoeTestesdeHipoteses.pdf|titulo=CAPÍTULO 6 - ESTIMAÇÃO E TESTES DE HIPÓTESES|data=|acessodata=07/12/2016|obra=|publicado=Universidade Tecnológica Federal do Paraná|ultimo=|primeiro=|pagina=117}}</ref>
* No máximo, <math> n </math> observações podem ter valor menor ou igual a <math> v - 1 </math>.<ref name=":17" />
* No mínimo, <math> n + 1 </math> observações devem ter valor menor ou igual a <math> v </math>.<ref name=":17" />
Seja <math> i </math> o número de observações com valor menor ou igual a <math> v - 1 </math>. Seja <math> j </math> o número de observações com valor exato <math> v </math>. Então, <math> i </math> tem valor mínimo 0 e valor máximo <math> n </math>, enquanto <math> j </math> tem valor mínimo <math> n + 1 - i </math> (para totalizar pelo menos <math> n + 1 </math> observações) e valor máximo <math> 2n + 1 - i </math> (para totalizar pelo menos <math> 2n + 1 </math> observações).<ref name=":13" />

Se uma observação tem valor menor ou maior que <math> v </math>, não é relevante o quão abaixo ou o quão acima de <math> v </math> é o valor. Logo, é possível representar as observações pela distribuição trinomial com probabilidades <math> F(v - 1) </math>, <math> f(v) </math> e <math> 1 - F(v) </math>. Portanto, a probabilidade de a mediana <math> m </math> ter valor <math> v </math> é dada por:

<math> P(m = v) = \sum_{i=0}^n \sum_{j=n+1-i}^{2n+1-i} \frac{(2n+1)!}{i!j!(2n+1-i-j)!} [F(v-1)]^i [f(v)]^j [1 - F(v)]^{2n+1-i-j}. </math><ref name=":14">{{citar web|url=http://ww.interscienceplace.org/isp/index.php/isp/article/viewFile/90/89|titulo=Determinação de Distribuição Trinomiais e suas Aplicações|data=2009|acessodata=24/11/2016|obra=|publicado=Inter Science Place|ultimo=Caruzo|primeiro=André de Carvalho|ultimo2=Neves|primeiro2=Karina Ferreira|outros=|pagina=6|ultimo3=Teixeira|primeiro3=Ricardo Roberto Plaza}}</ref>

Somar isso a todos os valores <math> v </math> define uma distribuição apropriada e fornece uma soma unitária. Embora a função <math> f(v) </math> geralmente não seja conhecida, ela pode ser estimada de uma distribuição de frequência observada. É o exemplo da tabela seguinte. Embora a distribuição atual não seja conhecida, a amostra de 3.800 observações permite uma avaliação suficientemente precisa de <math> f(v) </math>.

{| class="wikitable" style="margin-left:auto;margin-right:auto;text-align:center;"
! v !! 0 !! 0.5 !! 1 !! 1.5 !! 2 !! 2.5 !! 3 !! 3.5 !! 4 !! 4.5 !! 5
|-
! f(v)
| 0.000 || 0.008 || 0.010 || 0.013 || 0.083 || 0.108 || 0.328 || 0.220 || 0.202 || 0.023 || 0.005
|-
! F(v)
| 0.000 || 0.008 || 0.018 || 0.031 || 0.114 || 0.222 || 0.550 || 0.770 || 0.972 || 0.995 || 1.000
|-
|}

Com os dados é possível investigar o efeito do tamanho da amostra nos erros padrões da média e da mediana. A média observada é 3,16. A mediana bruta observada é 3 e a mediana interpolada observada é 3,174. A tabela seguinte fornece algumas estatísticas de comparação. O erro padrão da mediana é dado tanto da expressão <math> P(m = v) </math> quanto da aproximação assintótica dadas anteriormente.<ref name=":14" />

{| class="wikitable" style="margin-left:auto;margin-right:auto;text-align:center;"
! TAMANHO DA AMOSTRA !! 3 !! 9 !! 15 !! 21
|-
! Valor esperado da mediana
| 3.198 || 3.191 || 3.174 || 3.161
|-
! Erro padrão da mediana
| 0.482 || 0.305 || 0.257 || 0.239
|-
! Erro padrão da mediana (aproximação assintótica)
| 0.879 || 0.508 || 0.393 || 0.332
|-
! Erro padrão da média
| 0.421 || 0.243 || 0.188 || 0.159
|}
O valor esperado da mediana diminui ligeiramente à medida que a medida da amostra aumenta, uma vez que os erros padrão tanto da média quanto da mediana são proporcionais à raiz quadrada inversa do tamanho da amostra.

No caso de uma variável contínua, o argumento seguinte pode ser usado. Se um dado valor <math> v </math> for a mediana, então uma observação precisa assumir o valor <math> v </math>. A probabilidade elementar é <math> f(v)dv </math>. Então, <math> n </math> das <math> 2n </math> observações precisam ser maiores que <math> v </math> e as outras <math> n </math> das <math> 2n </math> observações precisam ser menores que <math> v </math>. A probabilidade é o <math> n </math>-ésimo termo de uma distribuição binomial com parâmetros <math> F(v) </math> e <math> 2n </math>.

Multiplica-se por <math> 2n+1 </math> porque qualquer uma das observações na amostra pode ser a mediana da observação. Então, a probabilidade elementar da mediana no ponto <math> v </math> é dada por:

<math> f(v) \frac{(2n)!}{n!n!} [F(v)]^n [1 - F(v)]^n (2n + 1) \, dv. </math><ref name=":14" />

Introduz-se a função beta. Para os argumentos inteiros <math> \alpha </math> e <math> \beta </math>, pode-se expressar <math> \Beta(\alpha,\beta) = (\alpha - 1)! (\beta - 1)! / (\alpha + \beta - 1)! </math>. Também, nota-se que <math> f(v) = dF(v)/dv </math>. Usando as relações anteriores e igualando <math> \alpha </math> e <math> \beta </math> a <math> (n+1) </math> permite-se que a última expressão seja escrita como

<math> \frac{[F(v)]^n[1 - F(v)]^n}{\Beta(n+1,n+1)} \, dF(v) </math>.<ref name=":14" />

Então, a função densidade da mediana é uma distribuição <math> \beta </math> simétrica sobre o intervalo da unidade que suporta <math> F(v) </math>. A média é 0,5 e o desvio-padrão (erro padrão da mediana da amostra) é <math> 1/(2\sqrt{N+2}) </math>.<ref>{{citar web|url=http://www.pucrs.br/famat/viali/graduacao/engenharias/material/apostilas/Apostila_1.pdf|titulo=Estatística Básica|data=|acessodata=24/11/2016|obra=|publicado=PUCRS|ultimo=Viali|primeiro=Lorí|pagina=12}}</ref> Tais condições apenas podem ser usadas se <math> f(v) </math> for conhecido ou puder ser assumido, <math> f(v) </math> puder ser integrado para encontrar <math> F(v) </math> e <math> F(v) </math> puder ser invertido, o que nem sempre será o caso. Mesmo quando for o caso, os pontos de corte para <math> f(v) </math> podem ser calculados diretamente sem recurso para a distribuição na mediana no intervalo da unidade. Embora seja interessante na teoria, o resultado não é muito útil na prática.

=== Estimativa da variância a partir de dados da amostra ===
O valor <math>(2 f({\displaystyle \nu } ))^{-2}</math>— que é o valor assintótico de <math>n^{-\frac{1}{2}} (\nu - m)</math>, quando tamanho da amostra <math>n\to\infty</math>, em que <math>\nu</math> é a mediana da população — tem sido estudado por diferentes autores. O método jackknife ''delete one'' padrão produz resultados inconsistentes.<ref>{{citar livro|titulo=The Jackknife, the Bootstrap and other Resampling Plans.|ultimo=Efron|primeiro=Bradley|editora=SIAM|ano=1982|local=Filadélfia|paginas=|acessodata=}}</ref> O método ''delete'' <math>k</math> — em que <math>k</math> aumenta com o tamanho da amostra — tem mostrado ser uma alternativa assintoticamente consistente apesar de computacionalmente cara para grandes conjuntos de dados.<ref>{{citar periódico|ultimo=|primeiro=|coautores=Jun Shao e C. F. Wu|data=1989|titulo=A General Theory for Jackknife Variance Estimation|jornal=The Annuals of Statistics|paginas=1176 – 1197|doi=|url=http://projecteuclid.org/download/pdf_1/euclid.aos/1176347263|acessadoem=16 de novembro de 2016}}</ref> Uma estivativa bootstrap é conhecida por ser consistente<ref>{{citar periódico|ultimo=Efron|primeiro=Bradley|data=1979|titulo=Bootstrap Methods: Another Look at the Jackknife|jornal=The Annuals of Statistics|paginas=1 – 26|doi=|url=http://projecteuclid.org/download/pdf_1/euclid.aos/1176344552|acessadoem=16 de novembro de 2016}}</ref>, mas converge muito lentamente ([[Complexidade computacional|ordem]] de <math>n^{-\frac{1}{4}}</math>).<ref>{{citar periódico|ultimo=|primeiro=|coautores=Peter Hall e Michael A. Martin|data=1988|titulo=Exact Convergence Rate of Bootstrap Quantile Variance Estimator|jornal=Probability Theory and Related Fields|paginas=261 – 268|doi=|url=http://link.springer.com/article/10.1007%2FBF00356105|acessadoem=16 de novembro de 2016}}</ref> Outras alternativas têm sido propostas, porém seus comportamentos podem diferir entre pequenas e grandes amostras.<ref>{{citar periódico|ultimo=|primeiro=|coautores=M. D. Jiménez-Gamero, J. Munoz-García e R. Pino-Mejías|data=2004|titulo=Reduced Bootstrap for the Median|jornal=Statistica Sinica|paginas=1179 – 1198|doi=|url=http://www3.stat.sinica.edu.tw/statistica/password.asp?vol=14&num=4&art=11|acessadoem=16 de novembro de 2016}}</ref>

===Eficiência===

Medida como a razão entre a variância da média e a variância da mediana, a eficiência da mediana da amostra depende do tamanho da amostra e da distribuição da população subjacente. Para uma amostra de tamanho <math>2n + 1</math> de uma distribuição normal, a razão é<ref name="Kenney1962">{{cite book|last=Kenney|first=J. F.|last2=Keeping|first2=E. S.|year=1962|chapter=The Median|pages=211–212|title=Mathematics of Statistics, Pt. 1|edition=3rd|location=Princeton, NJ|publisher=Van Nostrand}}</ref>

<math> \frac{ 4n }{ \pi ( 2n + 1 ) } </math>.

Para grandes amostras (<math>n</math> tendendo ao infinito), a razão tende a ser

<math> \frac{2}{\pi} </math>.<ref>{{citar livro|titulo=Probabilidade - Um Curso Moderno com Aplicações|ultimo=Ross|primeiro=Sheldon|editora=Bookman|ano=2010|local=Porto Alegre|paginas=473|acessodata=24/11/2016}}</ref>

===Outros estimadores===
Para distribuições univariadas que são simétricas em relação a uma mediana, o [[estimador de Hodges–Lehmann]] é um estimador altamente eficiente e robusto da mediana da população.<ref name=":4">{{citar livro|titulo=Robust Nonparametric Statistical Methods – Kendall's Library of Statistics 5|ultimo=Hettmansperger|primeiro=Thomas P.|ultimo2=McKean|primeiro2=Joseph W.|editora=Edward Arnold|ano=1998|local=Londres|paginas=|acessodata=}}</ref>

Se os dados forem representados por um [[modelo estatístico]] especificando uma família particular de distribuições de probabilidade, então estimativas da média podem ser obtidas ajustando a família de distribuições de probabilidade e calculando a mediana teórica da distribuição ajustada. A interpolação de Pareto é uma aplicação quando a população é assumida como tendo um [[princípio de Pareto]].

=== Coeficiente de dispersão ===
O coeficiente de dispersão (CD) é definida como a razão entre o desvio médio absoluto da mediana e a mediana dos dados.<ref name=":1">{{citar periódico|ultimo=|primeiro=|coautores=DG Bonett e E Seier|data=2006|titulo=Confidence Interval for a Coefficient of Dispersion in Non-Normal Distributions|jornal=Biometrical Journal|paginas=144 – 148|doi=|url=|acessadoem=}}</ref> É uma medida estatística usada pelos estados norte-americanos de Iowa, Nova Iorque e Dakota do Sul em estimativa de impostos.<ref>{{citar web|url=https://web.archive.org/web/20101111214903/http://iowa.gov/tax/locgov/Statistical_Calculation_Definitions.pdf|titulo=Statistical Calculation Definitions for Mass Appraisal|data=|acessodata=16 de novembro de 2016|obra=|publicado=Iowa Department of Revenue|ultimo=|primeiro=}}</ref><ref>{{citar web|url=https://web.archive.org/web/20121106015231/http://www.tax.ny.gov/research/property/reports/cod/2010mvs/reporttext.htm|titulo=Assessment Equity in New York: Results from the 2010 Market Value Survey|data=|acessodata=16 de novembro de 2016|obra=|publicado=The New York State Department of Taxation and Finance|ultimo=|primeiro=}}</ref><ref>{{citar web|url=https://web.archive.org/web/20090510034115/http://www.state.sd.us/drr2/publications/assess1199.pdf|titulo=Summary of the Assessment Process|data=|acessodata=16 de novembro de 2016|obra=|publicado=South Dakota Department of Revenue - Property / Special Taxes Division|ultimo=|primeiro=}}</ref>

Em símbolos,

<math> CD = \frac{ 1 }{ n } \frac{ \sum| m - x | }{ m } </math>,

em que <math> n </math> é o tamanho da amostra, <math> m </math> é a mediana da amostra e <math> x </math> é a variável. A soma é tomada em toda a amostra.<ref>{{citar web|url=http://www.mat.ufrgs.br/~viali/estatistica/mat2246/material/apostilas/A1_Descritiva.pdf|titulo=Estatística Básica|data=|acessodata=24/11/2016|obra=|publicado=UFRGS|ultimo=Viali|primeiro=Lorí|pagina=10}}</ref> Intervalo de confiança para coeficiente de dispersão quando tamanho da amostra é grande foi derivado por Bonett e Seier.<ref name=":1" />
==Mediana multivariada==
Até agora foi discutida mediana univariada, quando a amostra ou a população possuem uma dimensão. Quando a dimensão é igual ou maior que dois, há múltiplos conceitos que ampliam a definição de mediana univariada. Cada uma das medianas multivariadas concorda com uma mediana univariada quando a dimensão é exatamente um.<ref name=":4" /><ref>{{citar periódico|ultimo=Small|primeiro=Christopher G.|data=1990|titulo=A Survey of Multidimensional Medians|jornal=International Statistical Review / Revue Internationale de Statistique|paginas=263 – 277|doi=|url=http://www.jstor.org/stable/1403809?seq=1#page_scan_tab_contents|acessadoem=17 de novembro de 2016}}</ref><ref>{{citar periódico|ultimo=|primeiro=|coautores=A. Niinimaa e H. Oja|data=2006|titulo=Multivariate Median|jornal=Encyclopedia of Statistical Sciences|paginas=|doi=|url=http://onlinelibrary.wiley.com/doi/10.1002/0471667196.ess1107.pub2/full|acessadoem=17 de novembro de 2016}}</ref><ref>{{citar livro|titulo=Multivariate Dispersion, Central Regions, and Depth: The Lift Zonoid Approach|ultimo=Mosler|primeiro=Karl|editora=Springer – Verlag New York|ano=2012|local=Nova Iorque|paginas=|acessodata=}}</ref>

=== Mediana marginal ===
A mediana marginal é definida para vetores definidos em relação a um conjunto fixo de coordenadas. A mediana marginal é definida como o vetor, cujos componentes são medianas univariadas. A mediana marginal é fácil de computar, e suas propriedades foram estudadas por Puri e Sen.<ref name=":4" /><ref>{{citar livro|titulo=Nonparametric Methods in Multivariate Analysis|ultimo=Puri|primeiro=Madan L.|ultimo2=Sen|primeiro2=Pranab K.|editora=John Wiley & Sons|ano=1971|local=Nova Iorque|paginas=|acessodata=}}</ref>

=== Mediana espacial ===
Para <math>N</math> vetores em um [[espaço normado]], a mediana espacial minimiza a distância média

<math>a \mapsto \frac 1 N \sum_n{(\left\|x_n-a\right\|)}, \,</math>

em que <math>x_n</math> e <math>a</math> são vetores.

A mediana espacial é única quando a dimensão do conjunto de dados é maior ou igual a dois e a norma é [[Distância euclidiana|euclidiana]] (ou outra norma [[Função convexa|estritamente convexa]]).<ref name=":2" /><ref name=":3" /><ref name="Kenney1962" /> A mediana espacial também é chamada mediana L1, mesmo quando a norma é euclidiana. Outros nomes são usados especialmente para conjuntos finitos de pontos como mediana geométrica, ponto de Fermat (em mecânica), ponto de Weber ou Fermat-Weber (na [[teoria da localização]] geográfica).<ref>{{citar periódico|ultimo=Wesolowsky|primeiro=G.|data=1993|titulo=The Weber Problem: History and Perspective|jornal=Location Science|paginas=5 – 23|doi=|url=|acessadoem=}}</ref>

Em geral, uma mediana espacial é definida como o minimizador de:

<math>a \mapsto \frac 1 N \sum_n{(\|x_n-a\| - \|x_n\|)} \,</math>.<ref name="Kenney1962" /><ref name=":5">{{citar periódico|ultimo=Hannu|primeiro=Oja|data=2010|titulo=Multivariate Nonparametric Methods with R: An Approach based on Spatial Signs and Ranks|jornal=Lecture Notes in Statistics|paginas=14|editora=Springer|local=Nova Iorque|doi=|url=|acessadoem=}}</ref><ref name=":6">{{citar periódico|ultimo=Hannu|primeiro=Oja|data=|titulo=Multivariate Nonparametric Methods with R: An Approach based on Spatial Signs and Ranks|jornal=Lecture Notes in Statistics|paginas=232|editora=Springer|local=Nova Iorque|doi=|url=|acessadoem=}}</ref>

A definição geral é conveniente para definir uma mediana espacial de uma população em um espaço normal de dimensão finita como para distribuições com uma média finita.<ref name=":2" /><ref name="Kenney1962" /> Medianas espaciais são definidas por vetores aleatórios com valores no [[espaço de Banach]].<ref name=":2" /> A mediana espacial é um estimador altamente robusto e eficiente da tendência central de uma população.<ref name="Kenney1962" /><ref name=":5" /><ref name=":6" /><ref>{{citar periódico|ultimo=|primeiro=|coautores=Yehuda Vardi e Cun-Hui Zhang|data=2000|titulo=The Multivariate L1-Median and Associated Data Depth|jornal=Proceedings of the National Academy of Sciences of the United States of America|paginas=1423 – 1426|doi=|url=http://www.pnas.org/content/97/4/1423.full.pdf|acessadoem=17 de novembro de 2016}}</ref><ref>{{citar periódico|ultimo=|primeiro=|coautores=Lopuhaä, Hendrick P.; Rousseeuw, Peter J.|data=1991|titulo=Breakdown Points of Affine Equivariant Estimators of Multivariate Location and Covariance Matrices|jornal=The Annals of Statistics|paginas=229 – 248|doi=|url=http://projecteuclid.org/download/pdf_1/euclid.aos/1176347978|acessadoem=17 de novembro de 2016}}</ref>

=== Outras medianas multivariadas ===
Uma generalização alternativa da mediana espacial em dimensões maiores que não tem relação com uma métrica particular é o ''centerpoint'' (geometria).

==Outros conceitos relacionados a mediana==

===Mediana interpolada===
Para variáveis discretas, às vezes é útil considerar os valores observados como sendo pontos médios de intervalos contínuos subjacentes. Um exemplo é a escala Likert, em que opiniões ou preferências são expressas em uma escala com um conjunto de números de respostas possíveis.<ref>{{citar web|url=http://repositorio.ul.pt/bitstream/10451/1229/1/18914_ULFC072532_TM.pdf|titulo=Modelos Rasch e Escalas de Likert e Thurstone na medição de atitudes|data=2007|acessodata=07/12/2016|obra=|publicado=Universidade de Lisboa|ultimo=Cunha|primeiro=Luísa Margarida Antunes da|pagina=24}}</ref>

Se a escala consiste de números inteiros positivos, uma observação do número três pode ser considerada como o intervalo entre 2,50 e 3,50. É possível estimar a mediana da variável subjacente. Seja que 22% das observações tenham valor menor ou igual a dois. Seja que 55% das observações tenham valor menor ou igual a três. Então, 33% das observações tem valor igual a três. Logo, a mediana <math> m </math> é três porque é o menor valor de <math> x </math> para o qual <math> F(x) </math> é maior que a metade.<ref name=":18">{{citar web|url=http://www.each.usp.br/lauretto/ACH0021_2015/aula05.pdf|titulo=Estatística descritiva básica: Medidas de tendência central|data=|acessodata=|obra=|publicado=Escola de Artes, Ciências e Humanidades da Universidade de São Paulo (EACHUSP)|ultimo=Lauretto|primeiro=Marcelo de Souza|paginas=12 -13 - 14}}</ref>

Entretanto, a mediana interpolada é um lugar entre 2,50 e 3,50. É adicionada metade da largura do intervalo <math> w </math> à mediada para ter o limite superior do intervalo da mediana. É subtraída a proporção da largura do intervalo que é igual a proporção de 33% acima da marca de 50%. Em outras palavras, são divididos os 33% em 28% abaixo da mediana e 5% acima da mediana e são subtraídos os <math> \frac {5}{33} </math> da largura do intervalo do limite superior de 3,50 para resultar em uma mediana interpolada de 3,35. <ref name=":18" />

Mais formalmente, a mediana interpolada pode ser calculada a partir de:

<math> m_\text{int} = m + w\left[\frac 1 2 - \frac{F( m ) - 1/2}{f( m )}\right] </math>. <ref name=":18" />

===Pseudo-mediana===
Para distribuições univariadas que são simétricas em torno de mediana, o [[Estimador de Hodges–Lehmann|estimador de Hodges-Lehmann]] é um estimador da mediana altamente eficiente e robusto; para distribuições não simétricas, o estimador de Hodges-Lehmann também é um estimador da ''pseudo-mediana'' populacional altamente eficiente e robusto, em que ''pseudo-mediana'' é a mediana de uma distribuição simetrizada e ela é próxima da mediana populacional. O estimador de Hodges-Lehmann tem sido generalizado para distribuições multivariadas.<ref name=":5" /><ref name=":6" />

=== Variantes de regressão ===
O estimador de Theil-Sen é um método para uma [[regressão linear]] [[Estatística robusta|robusta]], baseado no cálculo da mediana dos coeficientes de inclinação.<ref>{{citar periódico|ultimo=Wilcox|primeiro=Rand R.|data=2011|titulo=Theil–Sen Estimator|jornal=Fundamentals of Modern Statistical Methods: Substantially Improving Power and Accuracy|paginas=207 – 210|editora=Springer – Verlag|local=Nova Iorque|doi=|url=|acessadoem=}}</ref>

===Filtro da mediana===
Em processamento de imagens ''[[raster]]'' [[Monocromia|monocromáticas]], há um ruído conhecido como ruído impulsivo quando cada pixel fica independentemente branco ou preto (como alguma pouca probabilidade). Uma imagem construída em mediana de valores de vizinhos mais próximos (como um quadrado 3X3) pode efetivamente reduzir o ruído. <ref>{{citar web|url=http://www2.ic.uff.br/~aconci/suavizacao.pdf|titulo=Suavização de Imagens - Image Smoothing|data=|acessodata=07/12/2016|obra=|publicado=Universidade Federal Fluminense|ultimo=Ribeiro|primeiro=Bruno}}</ref>

=== Clusterização ===
Em ''[[clustering|clusterização]]'', o agrupamento ''k-medians'' fornece uma definição de cluster, na qual o critério de maximização da distância entre cluster–medias usado no agrupamento [[k-means]] é substituído pela maximização da distância entre cluster–medianas.<ref>{{citar web|url=ftp://ftp.dca.fee.unicamp.br/pub/docs/vonzuben/ia368_02/topico5_02.pdf|titulo=Uma Visão Geral de Clusterização de Dados|data=|acessodata=07/12/2016|obra=|publicado=Universidade de Campinas|ultimo=Moscato|primeiro=|ultimo2=Zuben|primeiro2=Von|paginas=1 - 2}}</ref>

=== Linha média–mediana ===
É um método da regressão robusta. A ideia foi concebida em 1940 por Abraham Wald, que sugeriu dividir um conjunto de dados bivariados em duas metades, dependendo do valor do parâmetro independente <math>x</math>. A metade da esquerda teria valores menores que a mediana e a metade da direita teria valores maiores que a média.<ref>{{citar periódico|ultimo=Wald|primeiro=Abraham|data=1940|titulo=The Fitting of Straight Lines if Both Variables are Subject to Error|jornal=The Annals of Mathematical Statistics|paginas=282 – 300|doi=|url=http://projecteuclid.org/download/pdf_1/euclid.aoms/1177731868|acessadoem=17 de novembro de 2016}}</ref> Wald sugeriu tomar as médias da variável dependente <math>y</math> e da variável independente <math>x</math> da metade da direita e da metade da esquerda e estimar a inclinação da linha juntando esses dois pontos.

Uma ideia similar foi sugerida em 1942 por Nair and Shrivastava, que preferiram dividir a amostra em três partes iguais antes de calcular as médias das subamostras.<ref>{{citar periódico|ultimo=|primeiro=|coautores=Nair, K. R.; Shrivastava, M. P.|data=1942|titulo=On a Simple Method of Curve Fitting|jornal=Sankhyā: The Indian Journal of Statistics|paginas=121 – 132|doi=|url=https://www.jstor.org/stable/25047749?seq=1#page_scan_tab_contents|acessadoem=17 de novembro de 2016}}</ref> Em 1951, Brown e Mood propuseram a ideia de usar as medianas em vez de usar as médias de duas subamostras.<ref>{{citar periódico|ultimo=|primeiro=|coautores=Brown, G. W.; Mood, A. M.|data=1951|titulo=On Median Tests for Linear Hypotheses|jornal=Proc. Second Berkeley Symposium on Mathematical Statistics and Probability|paginas=159 – 166|doi=|url=http://digitalassets.lib.berkeley.edu/math/ucb/text/math_s2_article-12.pdf|acessadoem=17 de novembro de 2016}}</ref> Tukey combinou as ideias e recomendou dividir a amostra em três subamostras com tamanhos iguais e estimar a linha com base nas medianas das subamostras.<ref>{{citar livro|titulo=Exploratory Data Analysis|ultimo=Tukey|primeiro=John W.|editora=Addison – Wesley|ano=1977|local=|paginas=|acessodata=}}</ref>

==Estimadores não viesados pela mediana==
Um estimador não enviesado pela média minimiza o risco (perda esperada) relacionada à função de perda do erro quadrático, como observado por Gauss. Um estimador não viesado pela mediana minimiza o risco relacionado a função de perda do desvio absoluto, com observado por Laplace.

Há outras funções de perda que são usadas na teoria estatística, particularmente na estatística robusta. A teoria dos estimadores não viesados pela mediana foi reavivada por George W. Brown em 1947:<ref>{{citar periódico|ultimo=Brown|primeiro=George W.|data=1947|titulo=On Small-Sample Estimation|jornal=The Annals of Mathematical Statistics|paginas=582 – 585|doi=|url=http://projecteuclid.org/download/pdf_1/euclid.aoms/1177730349|acessadoem=17 de novembro de 2016}}</ref>

{{Cquote|É dito que uma estimativa de um parâmetro unidimensional θ será não viesada pela mediana se, para um θ fixo, a mediana da distribuição da estimativa está no valor θ. Isto é, a mediana da distribuição subestima apenas tantas vezes quanto superestima. Esse requisito parece para a maioria dos propósitos satisfazer tanto quanto o requisito não enviesado pela média e tem a propriedade adicional de ser invariante sob a transformação um–para–um.|}}

Mais propriedades dos estimadores não viesados pela mediana tem sido reportados.<ref>{{citar periódico|ultimo=Lehmann|primeiro=Erich L.|data=1951|titulo=A General Concept of Unbiasedness|jornal=The Annals of Mathematical Statistics|paginas=587 – 592|doi=|url=http://projecteuclid.org/download/pdf_1/euclid.aoms/1177729549|acessadoem=17 de novembro de 2016}}</ref><ref>{{citar periódico|ultimo=Birnbaum|primeiro=Allan|data=1961|titulo=A Unified Theory of Estimation, I|jornal=The Annals of Mathematical Statistics|paginas=112 – 135|doi=|url=http://projecteuclid.org/download/pdf_1/euclid.aoms/1177705145|acessadoem=17 de novembro de 2016}}</ref><ref>{{citar periódico|ultimo=van der Vaart|primeiro=H. R.|data=1961|titulo=Some Extensions of the Idea of Bias|jornal=The Annals of Mathematical Statistics|paginas=436 – 447|doi=|url=http://projecteuclid.org/download/pdf_1/euclid.aoms/1177705051|acessadoem=17 de novembro de 2016}}</ref><ref>{{citar livro|titulo=Parametric Statistical Theory|ultimo=Pfanzagl|primeiro=Johann|editora=Walter de Gruyter|outros=Com assistência de R. Hamböker|ano=1994|local=|paginas=|acessodata=}}</ref> Estimadores não viesados pela mediana são invariantes sob [[Função injectiva|transformações um–para–um]].

Há métodos de construção de estimadores não viesados pela mediana que são ideais (no sentido análogo à propriedade da variância mínima considerada para estimadores não viesados pela mediana). Tais construções existem para distribuições de probabilidade com funções da verossimilhança monótonas.<ref>{{citar periódico|ultimo=Pfanzagl|primeiro=Johann|data=1979|titulo=On Optimal Median Unbiased Estimators in the Presence of Nuisance Parameters|jornal=The Annals of Statistics|paginas=187 – 193|doi=|url=http://projecteuclid.org/download/pdf_1/euclid.aos/1176344563|acessadoem=17 de novembro de 2016}}</ref><ref name=":7">{{citar periódico|ultimo=|primeiro=|coautores=Brown, L. D.; Cohen, Arthur; Strawderman, W. E.|data=1976|titulo=A Complete Class Theorem for Strict Monotone Likelihood Ratio With Applications|jornal=The Annuals of Statistics|paginas=712 – 722|doi=|url=http://projecteuclid.org/euclid.aos/1176343543|acessadoem=17 de novembro de 2016}}</ref>

Tal procedimento é análogo ao procedimento de Rao–Blackwell para estimadores não viesados pela média. O procedimento é válido para uma pequena classe de distribuições de probabilidade que realiza o procedimento de Rao–Blackwell, mas para uma classe maior de funções de perda.<ref name=":7" />


== Ver também ==
== Ver também ==
* [[Percentil]]
* [[Decil]]
* [[Decil]]
* [[Quartil]]
* [[Quartil]]
* [[Percentil]]
* [[Desvio absoluto]]
* [[Função Lipschitz contínua]]
* [[Moda (estatística)|Moda]]
* [[Moda (estatística)|Moda]]


{{referências}}
{{referências|col=2}}


{{Estatística}}
{{Estatística}}

Revisão das 16h09min de 8 de dezembro de 2016

Mediana é o valor que separa a metade maior e a metade menor de uma amostra, uma população ou uma distribuição de probabilidade. Em termos mais simples, mediana pode ser o valor do meio de um conjunto de dados. No conjunto de dados {1, 3, 3, 6, 7, 8, 9}, por exemplo, a mediana é 6. Se houver um número par de observações, não há um único valor do meio. Então, a mediana é definida como a média dos dois valores do meio. No conjunto de dados {3, 5, 7, 9}, a mediana é . [1][2]

A mediana é uma medida comum das propriedades de conjuntos de dados em estatística e em teoria das probabilidades, com importância central na estatística robusta. A estatística robusta é mais resistente, com ponto de ruptura de 50%. A mediana não fornece resultados arbitrariamente grandes desde que mais da metade dos dados não esteja contaminada.

A vantagem da mediana em relação à média é que a mediana pode dar uma ideia melhor de um valor típico porque não é tão distorcida por valores extremamente altos ou baixos. Em estudos estatísticos sobre renda familiar ou outros ativos voláteis, a média pode ser distorcida por um pequeno número de valores extremamente altos ou baixos.

História

Pierre Simon Laplace

A ideia de mediana aparece no século XIII no Talmude[3][4] e mais tarde no livro "Certaine Errors in Navigation", na seção sobre determinação da localização com bússola. O livro foi escrito pelo matemático Edward Wright em 1599, que achou que o valor era o mais provável de ser o correto em uma série de observações.

Em 1757, Ruđer Bošković desenvolve um método de regressão baseado no espaço L1 e implicitamente na mediana.[5] Em 1774, Pierre Simon Laplace sugere o uso da mediana como o estimador padrão do valor da média de uma distribuição posteriori: o critério foi minimizar a magnitude esperada do erro , em que é a estimativa e é o valor real. O método de Laplace foi amplamente rejeitado por 150 anos em favor do método dos mínimos quadrados de Carl Friedrich Gauss e de Adrien-Marie Legendre, o qual minimiza para obter a média.[6] A distribuição tanto da média da amostra quanto da mediana da amostra foi determinada por Laplace no início dos anos 1800.[7][8]

Em 1843, Antoine Augustin Cournot foi o primeiro matemático a usar o termo mediana para o valor que divide a distribuição de probabilidade em duas metades iguais. Gustav Fechner usou o termo mediana para fenômenos sociológicos e psicológicos.[9] Mediana tinha sido usada anteriormente apenas na astronomia e em áreas correlatas. Embora tenha sido usada anteriormente por Laplace, Fechner popularizou a mediana na análise formal de dados.[9]

Em 1881, Francis Galton usou o termo mediana em Inglês[10] depois de usar os termos middle-most value em 1869 e medium em 1880.

Conceitos básicos

Comparação entre média (mean, em inglês), mediana (median, em inglês) e moda (mode, em inglês) de duas distribuições log–normal com diferentes distorções.

A mediana é usada principalmente em distribuições distorcidas, que resumem a tendência central diferentemente da média aritmética. Seja o multiconjunto {1, 2, 2, 2, 3, 14}. Por ser menos susceptível a valores excepcionalmente altos ou baixos, a mediana de valor 2 pode ser uma melhor indicação de tendência central que a média aritmética de valor 4. [11]

Mediana é uma técnica comum na estatística descritiva e representação de dados estatísticos, uma vez que é fácil de calcular e simples de entender e fornece uma medida mais robusta na presença de outliers (valores atípicos) que a média. Entretanto, a relação empírica amplamente citada entre as localizações relativas da média e da mediana para distribuições distorcidas (a média está a direita da mediana para distribuições distorcidas a direita e a média está a esquerda da mediana para distribuições distorcidas a esquerda) geralmente não é verdadeira.[12] No entanto, há várias relações para a diferença absoluta entre elas.

Mediana não identifica um valor específico dentro de um conjunto de dados, uma vez que mais de um valor pode ter o valor da mediana. Com um número par de observações, nenhum valor precisa ter exatamente o valor da mediana. Porém, o valor da mediana é unicamente determinado pela definição usual. [11]

Como é baseada no valor do meio de um conjunto de dados, não é necessário saber os valores dos elementos extremos para calcular a mediana. Seja um teste psicológico que pretende investigar o tempo necessário para resolver um problema. Se um pequeno número de pessoas não conseguir resolver um problema em um determinado tempo, a mediana ainda pode ser calculada.[13]

Cálculos básicos

Em cima: a mediana (median, em inglês) de um conjunto de dados com número ímpar de elementos. No conjunto de dados 1, 3, 3, 6, 7, 8, 9, a mediana é 6. Embaixo: a mediana (median, em inglês) de um conjunto de dados com número par de elementos. No conjunto de dados 1, 2, 3, 4, 5, 6, 8, 9, a mediana é

A mediana de uma lista finita de números pode ser encontrada organizando os números do menor para o maior. Se houver um número ímpar de elementos, o número do meio é o valor do meio (na amostra de sete elementos {1, 3, 3, 6, 7, 8, 9}, a mediana é 6). [11]Se houver um número par de elementos, não há um único valor do meio. Então, a mediana é definida como a média dos dois valores do meio e (na amostra de oito elementos {1, 2, 3, 4, 5, 6, 8, 9}, a mediana é a média )[14][15]. Em termos mais técnicos, é a interpretação da mediana como mid-range.

A fórmula usada para encontrar a posição de um valor do meio em uma amostra de elementos organizados em ordem crescente é , que fornece tanto o valor médio para um número ímpar de elementos quanto o ponto médio entre dois valores do meio para um número par de elementos. Em uma amostra de quatorze elementos, o resultado da fórmula é 7,5 e a mediana é a média entre o sétimo e o oitavo elemento (também é possível calcular a mediana com o diagrama ramo-e-folha).[11]

Não há uma notação padrão amplamente aceita para a mediana, mas alguns autores representam a mediana de uma variável como , como [1] e às vezes como .[16][17][18] Em qualquer um dos casos, o uso dos mesmos ou de outros símbolos para a mediana precisam ser explicitamente definidos quando são introduzidos.

Exemplos

Ilustração do cálculo da mediana para uma população com número ímpar de valores. Em uma população com número ímpar de valores, a mediana é o valor que separa a metade maior e a metade menor de uma amostra. Para a população {2, 2, 3, 7, 8, 9, 9}, a mediana é 7.

População com número de elementos ímpar

Para a população , a posição do valor médio é:

,

em que é o número de dados ou de elementos da amostra.

Logo, a mediana é o terceiro elemento (5) e é igual a média (5).

Para a população , a posição do valor médio é a mesma

,

em que é o número de dados ou de elementos da amostra.

Logo, a mediana é o terceiro elemento (4), mas não é igual a média (6).[19]

População com número de elementos par

Para a população , não há valor com a posição 3,5. Logo a mediana é calculada por meio da média dos valores centrais, o terceiro e o quarto elemento. O valor da mediana é: . Já o valor da média é 7.

Em um conjunto de dados com números repetitivos , a mediana também é calculada por meio da média dos valores centrais, o nono e o décimo elemento. O valor da mediana é:

.[20]

Mediana para dados ordenados

Visualização geométrica da moda (mode, em inglês), mediana (median, em inglês) e média (mean, em inglês) de uma função densidade arbitrária.[21]

Mediana pode ser usada como medida de tendência central, medida de posição ou medida de localização quando a distribuição é distorcida, quando os valores finais não são conhecidos ou quando importâncias reduzidas são anexadas aos outliers (por exemplo, quando podem existir erros de medição). A mediana é definida por dados unidimensionais ordenados e é independente de qualquer distância métrica (por exemplo, a média geométrica é definida pot qualquer número de dimensões).[22]

A mediana é uma das alternativas para resumir os valores típicos associados aos elementos da população estatística. Logo, a mediana é um possível parâmetro de localização. A mediana é o 2° quartil, 5° decil e 50° percentil. Ela pode ser calculada para dados ordenados, mas não para dados categóricos (por exemplo, é possível calcular a mediana das notas de estudantes avaliados entre A e F, mas não é possível calcular a mediana entre os sexos ou entre as nacionalidades dos estudantes).[23]

Quando a mediana é usada como parâmetro de localização na estatística descritiva, há várias opções de medidas de dispersão como a amplitude, o intervalo interquartil, o desvio absoluto da média e o desvio absoluto da mediana.[22]

Para objetivos práticos, diferentes medidas de localização e de dispersão são frequentemente comparados com base em o quão bem os valores populacionais correspondentes podem ser estimados a partir da amostra. Inclusive, a mediana tem boas propriedades para tais estimativas. Embora não sejam geralmente ótimas, as propriedades da mediana são razoavelmente boas quando determinada distribuição de população é conhecida.[22]

Por exemplo, a comparação da eficiência de estimadores candidatos mostra que a média amostral é mais eficiente que a mediana amostral quando os dados não estão contaminados por dados de distribuições de cauda pesada ou de misturas de distribuição, mas que a média amostral é menos eficiente que a mediana amostral em caso contrário, o que acontece em uma ampla variação de distribuições. Especificamente, a mediana tem 64% de eficiência em comparação com a variação mínima da média para amostras normais grandes, o que significa que a variância da mediana é aproximadamente 50% maior que a variância da média[22].

Distribuições de probabilidade

Ilustração do comportamento das medidas de tendência central em uma distribuição simétrica (por exemplo, uma distribuição normal) quando alterada a dispersão dos dados. A curva vermelha descreve a densidade de probabilidade no espaço amostral e a linha azul representa a localização da média (azul), da mediana (amarelo) e da moda (verde) do conjunto de dados.
Ilustração do comportamento das medidas de tendência central em uma distribuição assimétrica negativa quando alterada a dispersão dos dados. A curva vermelha descreve a densidade de probabilidade no espaço amostral, a linha azul (à esquerda) representa a média, a linha amarela (ao meio) representa a mediana e a linha verde (à direita) representa a moda do conjunto de dados.
Ilustração do comportamento das medidas de tendência central em uma distribuição assimétrica positiva (por exemplo, uma distribuição qui-quadrado) quando alterada a dispersão dos dados. A curva vermelha descreve a densidade de probabilidade dos dados no espaço amostral, a linha azul (à direita) representa a média, a linha amarela (ao meio) representa a mediana e a linha verde (à esquerda) representa a moda do conjunto de dado
Ilustração do comportamento das medidas de tendência central em uma distribuição bimodal, formada por outras duas distribuições com seus respectivos parâmetros, que transita entre distribuição assimétrica positiva, distribuição assimétrica negativa e distribuição simétrica conforme as dispersões dos dados no espaço amostral são alteradas. A curva vermelha descreve a densidade de probabilidade dos dados no espaço amostral, a linha azul representa a média, a linha amarela representa a mediana e a linha verde representa a moda do conjunto de dados.

Para qualquer distribuição de probabilidade em com função distribuição acumulada , independentemente do tipo de distribuição de probabilidade contínua, em particular, uma distribuição absoluta contínua com função densidade ou uma distribuição discreta, uma mediana é definida como qualquer número real que satisfaz as desigualdades:

ou igualmente as desigualdades:

,

em que a integral de Lebesgue–Stieltjes é usada.[24]

Para uma distribuição de probabilidade absoluta contínua com função densidade , a mediana satisfaz:

[24]

Qualquer distribuição de probabilidade em tem pelo menos uma mediana, mas ela pode ter mais de uma mediana. Quando a mediana é única, alguns estatísticos falam da mediana corretamente. Quando a mediana não é única, alguns estatísticos falam da mediana informalmente.

Medianas de distribuições particulares

Medianas de certos tipos de distribuições podem ser calculadas facilmente a partir dos seus parâmetros. Medianas existem mesmo para algumas distribuições sem média bem definida como a distribuição de Cauchy:

  • Uma mediana de uma distribuição simétrica que possui uma média μ também possui valor μ.[25]
    • Uma mediana de uma distribuição normal com média μ e variância σ2 possui valor μ. Para uma distribuição normal, média = mediana = moda.[25]
    • Uma mediana de uma distribuição uniforme no intervalo [a, b] possui valor , que também é a média.[26]
    • Uma mediana de uma distribuição de Cauchy com parâmetro de localização x0 e parâmetro de escala y possui valor x0 (parâmetro de localização).[27]
  • Uma mediana de uma lei de potência x−a, com expoente a > 1 é 21/(a − 1)xmin, em que xmin é o valor mínimo para que a lei de potência exista.[28]
  • Uma mediana de uma distribuição exponencial com parâmetro de taxa λ é o logaritmo natural de 2 dividido pelo parâmetro de taxa λ−1ln 2.[29]
  • Uma mediana de uma distribuição de Weibull com parâmetro de forma k e parâmetro de escala λ é λ(ln 2)1/k. [30]

Propriedades

Propriedade da otimização

O erro absoluto médio de uma variável real com relação a uma variável aleatória é [31], em que é o valor absoluto. Seja uma variável aleatória tal que a esperança existe. Então, é a mediana de se e somente se for minimizador do erro absoluto médio com relação à [32]: . Em particular, é a mediana da amostra se e somente se for minimizador da média aritmética dos desvios absolutos.

Em termos mais gerais, uma mediana é definida como o minimizador de , como discutido abaixo na seção sobre medianas multivariadas, especialmente mediana espacial. Essa definição baseada na otimização da mediana é útil em análise de dados estatísticos como no agrupamento de k-medians.[31]

Distribuições unimodais

É possível mostrar para uma distribuição modal que a mediana e a média estão dentro de desvio-padrão de cada uma.[33]

Em símbolos,

.[34]

Uma relação semelhante é mantida entre a mediana e a moda, que estão dentro de desvio-padrão de cada uma. Em símbolos,

[34]

Desigualdade entre média e mediana

Se a distribuição de probabilidade tiver variância finita, a distância entre a mediana e a média é limitada por um desvio-padrão. Esse limite foi provado por Mallows[35], que usou a desigualdade de Jensen duas vezes:

[36]

A primeira e a terceira desigualdade vêm da desigualdade de Jensen aplicada à função de valor absoluto e à função quadrada, ambas convexas. A segunda desigualdade vem da minimização da função de desvio absoluto pela mediana, em que: .

Essa prova pode facilmente ser generalizada para uma versão multivariada da desigualdade[37]:,

em que é uma mediana espacial. Isto é, em que é um minimizador da função

A mediana espacial é única quando a dimensão do conjunto de dados é igual ou maior que dois.[38][39] Uma prova alternativa usa a desigualdade unilateral de Chebyshev, que aparece em uma desigualdade em parâmetros de localização e de escala.

Desigualdade de Jensen

A desigualdade de Jensen afirma que para qualquer variável aleatória com esperança finita, , para qualquer função convexa :

[40]

Se é uma variável real com uma mediana única e é uma função [41]. Então:

.[42]

Uma função é uma função real definida no conjunto dos números reais , sendo que para qualquer real:

é um intervalo fechado, um singleton ou um conjunto vazio.

Cálculo para grandes amostras

Embora os itens de algoritmo de ordenação requeiram O (n log n) operações, algoritmos de seleção podem computar o menor k-ésimo de itens com apenas O(n) operações. Isso inclui a mediana, a ésima ordem estatística (ou para um número par de amostrar, a média das duas ordens estatísticas médias).[43]

Os algoritmos de seleção também tem a desvantagem de requerer uma memória O(n), que significa que eles precisam ter a memória da amostra inteira ou da porção de tamanho linear da amostra. Como o requisito da memória pode ser restritivo (assim como o requisito do tempo linear), vários procedimentos de estimativa para a mediana tem sido desenvolvidos.[44]

Um procedimento de estimativa simples é a mediana de regra três, que estima a mediana como a mediana de uma subamostra de três elementos. Seja uma amostra com elementos . Então

[44]

Isso é comumente usada como uma subrotina do algoritmo de classificação quicksort, que usa uma estimativa da mediana de input. Uma estimativa mais robusta é a nona deTukey, a mediana de regra três aplicada com recurso limitado[45]:

.[46]

Por exemplo, temos uma amostra com elementos . Então

,

,

,

e

. [46]

Esse estimador "re–mediana" requer um tempo linear e uma memória sublinear, operando em uma única passagem sobre a amostra.[47]

Distribuição de mediana amostral

A distribuição tanto da média da amostra quanto da mediana da amostra foram determinadas por Laplace.[48] A distribuição da mediana da amostra de uma população com uma função densidade é assintoticamente normal com média e variância[49]

,

em que é o valor médio da distribuição e é o tamanho da amostra. Na prática, por definição.[50]

Os resultados também têm sido estendidos[51]. É sabido que para o –ésimo quantil a distribuição da –ésima amostra é assintoticamente normal em torno do –ésimo quantil com variância igual a

,

em que é o valor da densidade de distribuição no –ésimo quantil. [52]

No caso de uma variável discreta, a distribuição da amostra da mediana para pequenas amostras pode ser estudada da seguinte maneira. Seja um tamanho de amostra com número ímpar de elementos . Se um dado valor for a mediana da amostra, então duas condições devem ser satisfeitas.[53]

  • No máximo, observações podem ter valor menor ou igual a .[53]
  • No mínimo, observações devem ter valor menor ou igual a .[53]

Seja o número de observações com valor menor ou igual a . Seja o número de observações com valor exato . Então, tem valor mínimo 0 e valor máximo , enquanto tem valor mínimo (para totalizar pelo menos observações) e valor máximo (para totalizar pelo menos observações).[52]

Se uma observação tem valor menor ou maior que , não é relevante o quão abaixo ou o quão acima de é o valor. Logo, é possível representar as observações pela distribuição trinomial com probabilidades , e . Portanto, a probabilidade de a mediana ter valor é dada por:

[54]

Somar isso a todos os valores define uma distribuição apropriada e fornece uma soma unitária. Embora a função geralmente não seja conhecida, ela pode ser estimada de uma distribuição de frequência observada. É o exemplo da tabela seguinte. Embora a distribuição atual não seja conhecida, a amostra de 3.800 observações permite uma avaliação suficientemente precisa de .

v 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
f(v) 0.000 0.008 0.010 0.013 0.083 0.108 0.328 0.220 0.202 0.023 0.005
F(v) 0.000 0.008 0.018 0.031 0.114 0.222 0.550 0.770 0.972 0.995 1.000

Com os dados é possível investigar o efeito do tamanho da amostra nos erros padrões da média e da mediana. A média observada é 3,16. A mediana bruta observada é 3 e a mediana interpolada observada é 3,174. A tabela seguinte fornece algumas estatísticas de comparação. O erro padrão da mediana é dado tanto da expressão quanto da aproximação assintótica dadas anteriormente.[54]

TAMANHO DA AMOSTRA 3 9 15 21
Valor esperado da mediana 3.198 3.191 3.174 3.161
Erro padrão da mediana 0.482 0.305 0.257 0.239
Erro padrão da mediana (aproximação assintótica) 0.879 0.508 0.393 0.332
Erro padrão da média 0.421 0.243 0.188 0.159

O valor esperado da mediana diminui ligeiramente à medida que a medida da amostra aumenta, uma vez que os erros padrão tanto da média quanto da mediana são proporcionais à raiz quadrada inversa do tamanho da amostra.

No caso de uma variável contínua, o argumento seguinte pode ser usado. Se um dado valor for a mediana, então uma observação precisa assumir o valor . A probabilidade elementar é . Então, das observações precisam ser maiores que e as outras das observações precisam ser menores que . A probabilidade é o -ésimo termo de uma distribuição binomial com parâmetros e .

Multiplica-se por porque qualquer uma das observações na amostra pode ser a mediana da observação. Então, a probabilidade elementar da mediana no ponto é dada por:

[54]

Introduz-se a função beta. Para os argumentos inteiros e , pode-se expressar . Também, nota-se que . Usando as relações anteriores e igualando e a permite-se que a última expressão seja escrita como

.[54]

Então, a função densidade da mediana é uma distribuição simétrica sobre o intervalo da unidade que suporta . A média é 0,5 e o desvio-padrão (erro padrão da mediana da amostra) é .[55] Tais condições apenas podem ser usadas se for conhecido ou puder ser assumido, puder ser integrado para encontrar e puder ser invertido, o que nem sempre será o caso. Mesmo quando for o caso, os pontos de corte para podem ser calculados diretamente sem recurso para a distribuição na mediana no intervalo da unidade. Embora seja interessante na teoria, o resultado não é muito útil na prática.

Estimativa da variância a partir de dados da amostra

O valor — que é o valor assintótico de , quando tamanho da amostra , em que é a mediana da população — tem sido estudado por diferentes autores. O método jackknife delete one padrão produz resultados inconsistentes.[56] O método delete — em que aumenta com o tamanho da amostra — tem mostrado ser uma alternativa assintoticamente consistente apesar de computacionalmente cara para grandes conjuntos de dados.[57] Uma estivativa bootstrap é conhecida por ser consistente[58], mas converge muito lentamente (ordem de ).[59] Outras alternativas têm sido propostas, porém seus comportamentos podem diferir entre pequenas e grandes amostras.[60]

Eficiência

Medida como a razão entre a variância da média e a variância da mediana, a eficiência da mediana da amostra depende do tamanho da amostra e da distribuição da população subjacente. Para uma amostra de tamanho de uma distribuição normal, a razão é[61]

.

Para grandes amostras ( tendendo ao infinito), a razão tende a ser

.[62]

Outros estimadores

Para distribuições univariadas que são simétricas em relação a uma mediana, o estimador de Hodges–Lehmann é um estimador altamente eficiente e robusto da mediana da população.[63]

Se os dados forem representados por um modelo estatístico especificando uma família particular de distribuições de probabilidade, então estimativas da média podem ser obtidas ajustando a família de distribuições de probabilidade e calculando a mediana teórica da distribuição ajustada. A interpolação de Pareto é uma aplicação quando a população é assumida como tendo um princípio de Pareto.

Coeficiente de dispersão

O coeficiente de dispersão (CD) é definida como a razão entre o desvio médio absoluto da mediana e a mediana dos dados.[64] É uma medida estatística usada pelos estados norte-americanos de Iowa, Nova Iorque e Dakota do Sul em estimativa de impostos.[65][66][67]

Em símbolos,

,

em que é o tamanho da amostra, é a mediana da amostra e é a variável. A soma é tomada em toda a amostra.[68] Intervalo de confiança para coeficiente de dispersão quando tamanho da amostra é grande foi derivado por Bonett e Seier.[64]

Mediana multivariada

Até agora foi discutida mediana univariada, quando a amostra ou a população possuem uma dimensão. Quando a dimensão é igual ou maior que dois, há múltiplos conceitos que ampliam a definição de mediana univariada. Cada uma das medianas multivariadas concorda com uma mediana univariada quando a dimensão é exatamente um.[63][69][70][71]

Mediana marginal

A mediana marginal é definida para vetores definidos em relação a um conjunto fixo de coordenadas. A mediana marginal é definida como o vetor, cujos componentes são medianas univariadas. A mediana marginal é fácil de computar, e suas propriedades foram estudadas por Puri e Sen.[63][72]

Mediana espacial

Para vetores em um espaço normado, a mediana espacial minimiza a distância média

em que e são vetores.

A mediana espacial é única quando a dimensão do conjunto de dados é maior ou igual a dois e a norma é euclidiana (ou outra norma estritamente convexa).[38][39][61] A mediana espacial também é chamada mediana L1, mesmo quando a norma é euclidiana. Outros nomes são usados especialmente para conjuntos finitos de pontos como mediana geométrica, ponto de Fermat (em mecânica), ponto de Weber ou Fermat-Weber (na teoria da localização geográfica).[73]

Em geral, uma mediana espacial é definida como o minimizador de:

.[61][74][75]

A definição geral é conveniente para definir uma mediana espacial de uma população em um espaço normal de dimensão finita como para distribuições com uma média finita.[38][61] Medianas espaciais são definidas por vetores aleatórios com valores no espaço de Banach.[38] A mediana espacial é um estimador altamente robusto e eficiente da tendência central de uma população.[61][74][75][76][77]

Outras medianas multivariadas

Uma generalização alternativa da mediana espacial em dimensões maiores que não tem relação com uma métrica particular é o centerpoint (geometria).

Outros conceitos relacionados a mediana

Mediana interpolada

Para variáveis discretas, às vezes é útil considerar os valores observados como sendo pontos médios de intervalos contínuos subjacentes. Um exemplo é a escala Likert, em que opiniões ou preferências são expressas em uma escala com um conjunto de números de respostas possíveis.[78]

Se a escala consiste de números inteiros positivos, uma observação do número três pode ser considerada como o intervalo entre 2,50 e 3,50. É possível estimar a mediana da variável subjacente. Seja que 22% das observações tenham valor menor ou igual a dois. Seja que 55% das observações tenham valor menor ou igual a três. Então, 33% das observações tem valor igual a três. Logo, a mediana é três porque é o menor valor de para o qual é maior que a metade.[79]

Entretanto, a mediana interpolada é um lugar entre 2,50 e 3,50. É adicionada metade da largura do intervalo à mediada para ter o limite superior do intervalo da mediana. É subtraída a proporção da largura do intervalo que é igual a proporção de 33% acima da marca de 50%. Em outras palavras, são divididos os 33% em 28% abaixo da mediana e 5% acima da mediana e são subtraídos os da largura do intervalo do limite superior de 3,50 para resultar em uma mediana interpolada de 3,35. [79]

Mais formalmente, a mediana interpolada pode ser calculada a partir de:

. [79]

Pseudo-mediana

Para distribuições univariadas que são simétricas em torno de mediana, o estimador de Hodges-Lehmann é um estimador da mediana altamente eficiente e robusto; para distribuições não simétricas, o estimador de Hodges-Lehmann também é um estimador da pseudo-mediana populacional altamente eficiente e robusto, em que pseudo-mediana é a mediana de uma distribuição simetrizada e ela é próxima da mediana populacional. O estimador de Hodges-Lehmann tem sido generalizado para distribuições multivariadas.[74][75]

Variantes de regressão

O estimador de Theil-Sen é um método para uma regressão linear robusta, baseado no cálculo da mediana dos coeficientes de inclinação.[80]

Filtro da mediana

Em processamento de imagens raster monocromáticas, há um ruído conhecido como ruído impulsivo quando cada pixel fica independentemente branco ou preto (como alguma pouca probabilidade). Uma imagem construída em mediana de valores de vizinhos mais próximos (como um quadrado 3X3) pode efetivamente reduzir o ruído. [81]

Clusterização

Em clusterização, o agrupamento k-medians fornece uma definição de cluster, na qual o critério de maximização da distância entre cluster–medias usado no agrupamento k-means é substituído pela maximização da distância entre cluster–medianas.[82]

Linha média–mediana

É um método da regressão robusta. A ideia foi concebida em 1940 por Abraham Wald, que sugeriu dividir um conjunto de dados bivariados em duas metades, dependendo do valor do parâmetro independente . A metade da esquerda teria valores menores que a mediana e a metade da direita teria valores maiores que a média.[83] Wald sugeriu tomar as médias da variável dependente e da variável independente da metade da direita e da metade da esquerda e estimar a inclinação da linha juntando esses dois pontos.

Uma ideia similar foi sugerida em 1942 por Nair and Shrivastava, que preferiram dividir a amostra em três partes iguais antes de calcular as médias das subamostras.[84] Em 1951, Brown e Mood propuseram a ideia de usar as medianas em vez de usar as médias de duas subamostras.[85] Tukey combinou as ideias e recomendou dividir a amostra em três subamostras com tamanhos iguais e estimar a linha com base nas medianas das subamostras.[86]

Estimadores não viesados pela mediana

Um estimador não enviesado pela média minimiza o risco (perda esperada) relacionada à função de perda do erro quadrático, como observado por Gauss. Um estimador não viesado pela mediana minimiza o risco relacionado a função de perda do desvio absoluto, com observado por Laplace.

Há outras funções de perda que são usadas na teoria estatística, particularmente na estatística robusta. A teoria dos estimadores não viesados pela mediana foi reavivada por George W. Brown em 1947:[87]

Mais propriedades dos estimadores não viesados pela mediana tem sido reportados.[88][89][90][91] Estimadores não viesados pela mediana são invariantes sob transformações um–para–um.

Há métodos de construção de estimadores não viesados pela mediana que são ideais (no sentido análogo à propriedade da variância mínima considerada para estimadores não viesados pela mediana). Tais construções existem para distribuições de probabilidade com funções da verossimilhança monótonas.[92][93]

Tal procedimento é análogo ao procedimento de Rao–Blackwell para estimadores não viesados pela média. O procedimento é válido para uma pequena classe de distribuições de probabilidade que realiza o procedimento de Rao–Blackwell, mas para uma classe maior de funções de perda.[93]

Ver também

Referências

  1. a b Weisstein, Eric W. «Statistical Median» (em inglês). MathWorld 
  2. http://www.stat.psu.edu/old_resources/ClassNotes/ljs_07/sld008.htm Simon, Laura J.; "Descriptive statistics", Statistical Education Resource Kit, Pennsylvania State Department of Statistics
  3. «Talmud and Modern Economics». Jewish American and Israeli Isssues. Consultado em 14 de novembro de 2016 
  4. Aumann, Yisrael (2012). «Modern Economic Theory in the Talmud» (PDF). Center for the Study of Rationality – The Hebrew University of Jerusalem. 9 páginas. Consultado em 14 de novembro de 2016 
  5. Stigler, Stephen M. (1986). The History of Statistics: The Measurement of Uncertainty Before 1900. [S.l.]: Harvard University Press 
  6. Jaynes, E. T. (2003). Probability Theory: The Logic of Science. [S.l.]: Cambridge University Press. 172 páginas 
  7. Stigler, Stephen. «Studies in the History of Probability and Statistics. XXXII: Laplace, Fisher and the Discovery of the Concept of Sufficiency». Biometrika: 439 – 445. Consultado em 14 de novembro de 2016 
  8. Laplace, Pierre Simon (1818). Deuxième Supplément à la Théorie Analytique des Probabilités. [S.l.]: Courcier 
  9. a b Keynes, John Maynard (1921). A Treatise on Probability. [S.l.]: Macmillan and CO 
  10. Galton, Fechner (1881). «Report of the Anthropometric Committee». Report of the 51st Meeting of the British Association for the Advancement of Science: 245 – 260. Consultado em 14 de novembro de 2016 
  11. a b c d Farias, Ana Maria Lima de. «Capitulo 1 - Descrição de dados: tabelas e gráficos» (PDF). Fundamentos de Estatística Aplicada. Universidade Federal Fluminense. p. 24 
  12. «Journal of Statistics Education, v13n2: Paul T. von Hippel». amstat.org 
  13. Robson, Colin (1994). Experiment, Design and Statistics in Psychology. [S.l.]: Penguin. pp. 42–45. ISBN 0-14-017648-9 
  14. Weisstein, Eric W. «Statistical Median». MathWorld – A Wolfram Web Resource. Consultado em 14 de novembro de 2016 
  15. Simon, Laura J. «Descriptive Statistics». Statistical Education Resource Kit. Pennsylvania State Department of Statistics 
  16. Sheskin, David J. (2003). Handbook of Parametric and Nonparametric Statistical Procedures. [S.l.]: CRC Press. 7 páginas 
  17. Bissell, Derek (1994). Statistical Methods for Spc and Tqm. [S.l.]: CRC Press. 26 páginas 
  18. David J. Sheskin (27 August 2003). Handbook of Parametric and Nonparametric Statistical Procedures: Third Edition. [S.l.]: CRC Press. pp. 7–. ISBN 978-1-4200-3626-8. Consultado em 25 February 2013  Verifique data em: |acessodata=, |data= (ajuda)
  19. MENESES, Fabricio (2010). «Noções de Estatística para Concursos». Campus Concursos. p. 9 - 10. Consultado em 21 de novembro de 2016 
  20. MARTINELLO, Magnos. «Revisão de Estatística e Probabilidade» (PDF). Universidade Federal do Espírito Santo. p. 4. Consultado em 21 de novembro de 2016 
  21. «AP Statistics Review - Density Curves and the Normal Distributions». Consultado em 16 March 2015  Verifique data em: |acessodata= (ajuda)
  22. a b c d MEDEIROS, Carlos Augusto de (2007). «Estatística Aplicada a Educação» (PDF). portal.mec.gov. p. 89 - 91. Consultado em 23 de novembro de 2016 
  23. «QUARTIS». Portal Action. p. 1. Consultado em 5 de novembro de 2016 
  24. a b «Distribuições de Probabilidade» (PDF). Universidade Federal do Rio Grande do Sul. p. 4. Consultado em 21 de novembro de 2016 
  25. a b Silvia (20 de setembro de 2012). «A distribuição Normal». Universidade Federal do Paraná. Consultado em 5 de novembro de 2016 
  26. «Aula 2». Neurociências e Ciências do Comportamento. Faculdade de Medicina de Ribeirão Preto da Universidade de São Paulo (FMRPUSP). p. 23. Consultado em 7 de dezembro de 2016 
  27. «DISTRIBUIÇÃO DE CAUCHY». Portal Action. p. 1. Consultado em 5 de novembro de 2016 
  28. Newman, Mark EJ. "Power laws, Pareto distributions and Zipf's law." Contemporary physics 46.5 (2005): 323-351.
  29. «DISTRIBUIÇÃO EXPONENCIAL». Portal Action. p. 1. Consultado em 5 de dezembro de 2016 
  30. «Conceitos de Confiabilidade - Características da Distribuição Weibull» (PDF). ReliaSoft Brasil. 21 de outubro de 2005. p. 7. Consultado em 5 de dezembro de 2016 
  31. a b «Propriedade dos Estimadores». Portal Action. Consultado em 21 de novembro de 2016 
  32. Stroock, Daniel (2011). Probability Theory. [S.l.]: Cambridge University Press. 43 páginas 
  33. «The Mean, Median, and Mode of Unimodal Distributions: A Characterization». Theory of Probability & Its Applications: 210 – 223. 2006. Consultado em 14 de novembro de 2016  |coautores= requer |autor= (ajuda)
  34. a b Silva, André Luiz Carvalhal da (2009). Introdução à Análise de Dados. Rio de Janeiro: e-papers. pp. 40 – 41 
  35. Mallows, Colin (2012). «Another Comment on O'Cinneide». The American Statistician: 256 – 262. Consultado em 14 de novembro de 2016 
  36. Balestrassi, Pedro Paulo (2007). «Estatística Aplicada» (PDF). UNIFEI. p. 12. Consultado em 24 de novembro de 2016 
  37. Piché, Robert (2012). Random Vectors and Random Sequences. [S.l.]: Lambert Academic Publishing 
  38. a b c d «The Median of a Finite Measure on a Banach Space: Statistical Data Analysis based on the L1-Norm and Related Methods». Amsterdam: North-Holland Publishing CO. Papers from the First International Conference held at Neuchâtel: 217 – 230. 1987  |coautores= requer |autor= (ajuda);
  39. a b «Uniqueness of the Spatial Median». The Annals of Statistics: 1332 – 1333. 1987. Consultado em 17 de novembro de 2016  |coautores= requer |autor= (ajuda)
  40. Mendes, Eduardo M. A. M. «Introdução aos Processos Estocásticos - desigualdade e Convergência» (PDF). Universidade Federal de Minas Gerais. p. 8. Consultado em 23 de novembro de 2016 
  41. Merkle, Milan. «Jensen's Inequality for Medians». Statistics & Probability Letters: 277 – 281 
  42. Oliveira, Roberto Imbuzeiro M. F. de. «Notas Sobre Probabilidade Discreta» (PDF). Instituto de Matemática Pura e Aplicada (IMPA). p. 18. Consultado em 30 de novembro de 2016 
  43. Santos, Alessandro. «Ordenação e Estatística de Ordem» (PDF). alessandrosantos.com.br. p. 100. Consultado em 7 de dezembro de 2016 
  44. a b Botelho, Fabiano C.; Ziviani, Nivio (26 de março de 2004). «Ordenação» (PDF). Universidade Federal de Minas Gerais. p. 44. Consultado em 7 de dezembro de 2016 
  45. «Engineering a Sort Function» (PDF). Software — Practice and Experience: 1249 – 1265. 1993. Consultado em 14 de novembro de 2016  |coautores= requer |autor= (ajuda)
  46. a b David, H. A. (1978). Contributions to Survey Sampling and Applied Statistics. New York: Academic Press. pp. 251 – 255 
  47. «The Remedian: A Robust Averaging Method for Large Data Sets» (PDF). 1990: 97 – 104. Consultado em 14 de novembro de 2016  |coautores= requer |autor= (ajuda)
  48. Stigler, Stephen (1973). «Studies in the History of Probability and Statistics. XXXII: Laplace, Fisher and the Discovery of the Concept of Sufficiency». Biometrika: 439 – 445. Consultado em 15 de novembro de 2016 
  49. Rider, Paul R. (1960). «Variance of the Median of Small Samples from Several Special Populations». Journal of the American Statistic Association: 148 – 150. Consultado em 15 de novembro de 2016 
  50. «Distribuição Amostral - Estimação» (PDF). FAU-USP. p. 6. Consultado em 24 de novembro de 2016 
  51. Stuart, Alan; Ord, Keith (1994). Kendall's Advanced Theory of Statistics. Londres: Wiley 
  52. a b «Distribuições Amostrais». Portal Action. p. 1. Consultado em 24 de novembro de 2016 
  53. a b c «CAPÍTULO 6 - ESTIMAÇÃO E TESTES DE HIPÓTESES» (PDF). Universidade Tecnológica Federal do Paraná. p. 117. Consultado em 7 de dezembro de 2016 
  54. a b c d Caruzo, André de Carvalho; Neves, Karina Ferreira; Teixeira, Ricardo Roberto Plaza (2009). «Determinação de Distribuição Trinomiais e suas Aplicações». Inter Science Place. p. 6. Consultado em 24 de novembro de 2016 
  55. Viali, Lorí. «Estatística Básica» (PDF). PUCRS. p. 12. Consultado em 24 de novembro de 2016 
  56. Efron, Bradley (1982). The Jackknife, the Bootstrap and other Resampling Plans. Filadélfia: SIAM 
  57. «A General Theory for Jackknife Variance Estimation». The Annuals of Statistics: 1176 – 1197. 1989. Consultado em 16 de novembro de 2016  |coautores= requer |autor= (ajuda)
  58. Efron, Bradley (1979). «Bootstrap Methods: Another Look at the Jackknife». The Annuals of Statistics: 1 – 26. Consultado em 16 de novembro de 2016 
  59. «Exact Convergence Rate of Bootstrap Quantile Variance Estimator». Probability Theory and Related Fields: 261 – 268. 1988. Consultado em 16 de novembro de 2016  |coautores= requer |autor= (ajuda)
  60. «Reduced Bootstrap for the Median». Statistica Sinica: 1179 – 1198. 2004. Consultado em 16 de novembro de 2016  |coautores= requer |autor= (ajuda)
  61. a b c d e Kenney, J. F.; Keeping, E. S. (1962). «The Median». Mathematics of Statistics, Pt. 1 3rd ed. Princeton, NJ: Van Nostrand. pp. 211–212 
  62. Ross, Sheldon (2010). Probabilidade - Um Curso Moderno com Aplicações. Porto Alegre: Bookman. 473 páginas 
  63. a b c Hettmansperger, Thomas P.; McKean, Joseph W. (1998). Robust Nonparametric Statistical Methods – Kendall's Library of Statistics 5. Londres: Edward Arnold 
  64. a b «Confidence Interval for a Coefficient of Dispersion in Non-Normal Distributions». Biometrical Journal: 144 – 148. 2006  |coautores= requer |autor= (ajuda)
  65. «Statistical Calculation Definitions for Mass Appraisal» (PDF). Iowa Department of Revenue. Consultado em 16 de novembro de 2016 
  66. «Assessment Equity in New York: Results from the 2010 Market Value Survey». The New York State Department of Taxation and Finance. Consultado em 16 de novembro de 2016 
  67. «Summary of the Assessment Process» (PDF). South Dakota Department of Revenue - Property / Special Taxes Division. Consultado em 16 de novembro de 2016 
  68. Viali, Lorí. «Estatística Básica» (PDF). UFRGS. p. 10. Consultado em 24 de novembro de 2016 
  69. Small, Christopher G. (1990). «A Survey of Multidimensional Medians». International Statistical Review / Revue Internationale de Statistique: 263 – 277. Consultado em 17 de novembro de 2016 
  70. «Multivariate Median». Encyclopedia of Statistical Sciences. 2006. Consultado em 17 de novembro de 2016  |coautores= requer |autor= (ajuda)
  71. Mosler, Karl (2012). Multivariate Dispersion, Central Regions, and Depth: The Lift Zonoid Approach. Nova Iorque: Springer – Verlag New York 
  72. Puri, Madan L.; Sen, Pranab K. (1971). Nonparametric Methods in Multivariate Analysis. Nova Iorque: John Wiley & Sons 
  73. Wesolowsky, G. (1993). «The Weber Problem: History and Perspective». Location Science: 5 – 23 
  74. a b c Hannu, Oja (2010). «Multivariate Nonparametric Methods with R: An Approach based on Spatial Signs and Ranks». Nova Iorque: Springer. Lecture Notes in Statistics. 14 páginas 
  75. a b c Hannu, Oja. «Multivariate Nonparametric Methods with R: An Approach based on Spatial Signs and Ranks». Nova Iorque: Springer. Lecture Notes in Statistics. 232 páginas 
  76. «The Multivariate L1-Median and Associated Data Depth» (PDF). Proceedings of the National Academy of Sciences of the United States of America: 1423 – 1426. 2000. Consultado em 17 de novembro de 2016  |coautores= requer |autor= (ajuda)
  77. «Breakdown Points of Affine Equivariant Estimators of Multivariate Location and Covariance Matrices». The Annals of Statistics: 229 – 248. 1991. Consultado em 17 de novembro de 2016  |coautores= requer |autor= (ajuda)
  78. Cunha, Luísa Margarida Antunes da (2007). «Modelos Rasch e Escalas de Likert e Thurstone na medição de atitudes» (PDF). Universidade de Lisboa. p. 24. Consultado em 7 de dezembro de 2016 
  79. a b c Lauretto, Marcelo de Souza. «Estatística descritiva básica: Medidas de tendência central» (PDF). Escola de Artes, Ciências e Humanidades da Universidade de São Paulo (EACHUSP). pp. 12 –13 – 14 
  80. Wilcox, Rand R. (2011). «Theil–Sen Estimator». Nova Iorque: Springer – Verlag. Fundamentals of Modern Statistical Methods: Substantially Improving Power and Accuracy: 207 – 210 
  81. Ribeiro, Bruno. «Suavização de Imagens - Image Smoothing» (PDF). Universidade Federal Fluminense. Consultado em 7 de dezembro de 2016 
  82. Moscato; Zuben, Von. «Uma Visão Geral de Clusterização de Dados» (PDF). Universidade de Campinas. pp. 1 – 2. Consultado em 7 de dezembro de 2016 
  83. Wald, Abraham (1940). «The Fitting of Straight Lines if Both Variables are Subject to Error». The Annals of Mathematical Statistics: 282 – 300. Consultado em 17 de novembro de 2016 
  84. «On a Simple Method of Curve Fitting». Sankhyā: The Indian Journal of Statistics: 121 – 132. 1942. Consultado em 17 de novembro de 2016  |coautores= requer |autor= (ajuda)
  85. «On Median Tests for Linear Hypotheses» (PDF). Proc. Second Berkeley Symposium on Mathematical Statistics and Probability: 159 – 166. 1951. Consultado em 17 de novembro de 2016  |coautores= requer |autor= (ajuda)
  86. Tukey, John W. (1977). Exploratory Data Analysis. [S.l.]: Addison – Wesley 
  87. Brown, George W. (1947). «On Small-Sample Estimation». The Annals of Mathematical Statistics: 582 – 585. Consultado em 17 de novembro de 2016 
  88. Lehmann, Erich L. (1951). «A General Concept of Unbiasedness». The Annals of Mathematical Statistics: 587 – 592. Consultado em 17 de novembro de 2016 
  89. Birnbaum, Allan (1961). «A Unified Theory of Estimation, I». The Annals of Mathematical Statistics: 112 – 135. Consultado em 17 de novembro de 2016 
  90. van der Vaart, H. R. (1961). «Some Extensions of the Idea of Bias». The Annals of Mathematical Statistics: 436 – 447. Consultado em 17 de novembro de 2016 
  91. Pfanzagl, Johann (1994). Parametric Statistical Theory. Com assistência de R. Hamböker. [S.l.]: Walter de Gruyter 
  92. Pfanzagl, Johann (1979). «On Optimal Median Unbiased Estimators in the Presence of Nuisance Parameters». The Annals of Statistics: 187 – 193. Consultado em 17 de novembro de 2016 
  93. a b «A Complete Class Theorem for Strict Monotone Likelihood Ratio With Applications». The Annuals of Statistics: 712 – 722. 1976. Consultado em 17 de novembro de 2016  |coautores= requer |autor= (ajuda)