Algoritmo de maximização de expectativa

Origem: Wikipédia, a enciclopédia livre.

Em estatística, o algoritmo de expectativa-maximização (EM) é um método iterativo para estimar parâmetros em modelos estatísticos, quando o modelo depende de variáveis latentes, ou seja, não observadas. A iteração EM alterna entre executar uma etapa de expectativa (E), e uma de maximização (M). A etapa de expectativa cria uma função para a expectativa da verossimilhança logarítmica usando a estimativa atual para os parâmetros. A etapa de maximização (M), calcula parâmetros para maximizar a verossimilhança logarítmica encontrada na etapa E. Essas estimativas de parâmetro são usadas para determinar a distribuição das variáveis latentes na próxima etapa E, e o algoritmo se repete várias vezes (por isso é chamado iterativo).

Agrupamento por EM de dados sobre as erupções do géiser Old Faithful . O modelo inicial aleatório vai sendo adequado aos dados observados. Nas primeiras iterações, o modelo muda substancialmente, mas depois converge para os dois modos padrões do gêiser . Visualizado usando ELKI .

História[editar | editar código-fonte]

O algoritmo EM foi explicado e recebeu seu nome em um artigo clássico de 1977 de Arthur Dempster, Nan Laird e Donald Rubin.[1] Eles apontaram que o método havia sido "proposto várias vezes em circunstâncias especiais" por autores anteriores. Uma das primeiras vezes foi no caso do método de contagem de genes para estimar frequências alélicas por Cedric Smith.[2] Um tratamento detalhado do método EM para famílias exponenciais foi publicado por Rolf Sundberg em sua tese e em vários artigos[3][4][5] na etapa seguinte de sua colaboração com Per Martin-Löf e Anders Martin-Löf.[1][6][7][8][9][10][11] O artigo de Dempster-Laird-Rubin, em 1977, generalizou o método e esboçou uma análise de convergência para uma classe mais ampla de problemas. Independentemente de invenções anteriores, o artigo de Dempster-Laird-Rubin recebeu uma discussão entusiasmada na reunião da Royal Statistical Society com Sundberg, chamando o artigo de "brilhante". O artigo de Dempster-Laird-Rubin estabeleceu o método EM como uma importante ferramenta de análise estatística.

A análise de convergência do algoritmo Dempster-Laird-Rubin tinha falhas e uma análise de convergência correta foi publicada por CF Jeff Wu em 1983.[12] A prova de Wu estabeleceu a convergência do método EM fora da família exponencial, conforme reivindicado por Dempster – Laird – Rubin.

Introdução[editar | editar código-fonte]

O algoritmo EM é usado para encontrar parâmetros de máxima verossimilhança de um modelo estatístico quando as equações não podem ser resolvidas diretamente. Normalmente, esses modelos envolvem variáveis latentes, além de parâmetros desconhecidos e observações de dados conhecidas.

Encontrar uma solução de máxima verossimilhança normalmente requer derivar a função de verossimilhança em relação a todos os valores desconhecidos, a todos parâmetros e variáveis latentes ao mesmo tempo. Em modelos estatísticos com variáveis latentes, isso é impossível (normalmente).O resultado é tipicamente um conjunto de equações interligadas em que a solução para os parâmetros requer os valores das variáveis latentes e vice-versa. Contudo, a substituição de um conjunto de equações pelo outro produz uma equação insolúvel.

O algoritmo EM procede da observação de que existe uma maneira de resolver esses dois conjuntos de equações (de parâmetros e variáveis latentes) numericamente. Isso significa escolher um valor arbitrário para um dos conjuntos, usá-lo para estimar o segundo conjunto e, em seguida, usar esses novos valores para encontrar uma estimativa melhor do primeiro conjunto e continuar alternando entre os dois até os valores resultantes convirjam para pontos fixos. Não é óbvio que isso funcionará, mas nesse contexto a derivada da probabilidade é (arbitrariamente próxima a) zero nesse ponto, o que, por sua vez, significa que o ponto é máximo ou um ponto de sela.[12]

Em geral, múltiplos máximos locais podem ocorrer, sem garantia de que o máximo global seja encontrado. Algumas probabilidades também têm singularidades matemáticas nelas, isto é, máximos sem sentido.

Descrição[editar | editar código-fonte]

Dados:

  • o modelo estatístico que gera um conjunto dos dados observados,
  • um conjunto de dados latentes não observados (ou valores ausentes)
  • um vetor de parâmetros desconhecidos ,
  • e uma função de verossimilhança ,

a estimativa de máxima verossimilhança (MLE) dos parâmetros desconhecidos é determinada maximizando a verossimilhança marginal dos dados observados

Contudo, a equação obtida é frequentemente intratável. Por exemplo, o cálculo é extremamente difícil se for uma sequência de eventos na qual o número de valores cresce exponencialmente com o comprimento.

O algoritmo EM procura encontrar a MLE da verossimilhança marginal aplicando iterativamente estas duas etapas:

Etapa de expectativa (etapa E) : Defina como o valor esperado do logaritmo da função de verossimilhança de , com relação à atual distribuição condicional de dado e (as estimativas atuais dos parâmetros) :
Etapa de maximização (etapa M) : encontre os parâmetros que maximizam essa quantidade:

Os modelos típicos nos quais o EM é aplicado usam como uma variável latente indicando participação em um de um conjunto de grupos:

  1. Os pontos de dados observados podem ser discretos ou contínuos. Associado a cada ponto de dados pode haver um vetor de observações.
  2. As variáveis latentes são discretas, extraídos de um número fixo de valores e com uma variável latente por unidade observada.
  3. Os parâmetros são contínuos e de dois tipos: Parâmetros associados a todos os pontos de dados e aqueles associados a um valor específico de uma variável latente (isto é, associados a todos os pontos de dados cuja variável latente correspondente possui esse valor).

No entanto, é possível aplicar EM a outros tipos de modelos.

O motivo segue. Se o valor dos parâmetros é conhecido, o valor das variáveis latentes pode ser encontrada maximizando o logaritmo da verossimilhança sobre todos os valores possíveis de , simplesmente iterando sobre ou através de um algoritmo como o algoritmo Baum – Welch para modelos ocultos de Markov . Se soubermos o valor das variáveis latentes , podemos estimar os parâmetros com bastante facilidade. Para isso, podemos agrupar os dados observados de acordo com o valor da variável latente e tirar a média dos pontos em cada grupo. Isso sugere um algoritmo iterativo, no caso em que ambos e são desconhecidos:

  1. Primeiro, inicialize os parâmetros para alguns valores aleatórios.
  2. Calcule a probabilidade de cada valor possível de , dado .
  3. Em seguida, use os valores calculados apenas de para calcular uma estimativa melhor para os parâmetros .
  4. Itere as etapas 2 e 3 até a convergência.

O algoritmo, conforme descrito acima, aborda monotonicamente um mínimo local da função de custo.

Propriedades[editar | editar código-fonte]

Falar de uma etapa de expectativa (E) é um pouco inadequado. O que é calculado na primeira etapa são os parâmetros fixos e dependentes da função Q. Uma vez que os parâmetros de Q são conhecidos, o máximo da função é encontrado na segunda etapa (M) de cada algoritmo EM.

Embora uma iteração EM aumente a função de verossimilhança observada dos dados (ou seja, marginal), não existe garantia de que a sequência convirja para um estimador de máxima verossimilhança. Para distribuições multimodais, isso significa que um algoritmo EM pode convergir para um máximo local. Existe uma variedade de abordagens heurísticas (ou metaheurísticas) para escapar de um máximo local, como a subida de colina com reinício aleatório (começando com várias estimativas iniciais aleatórias diferentes θ ( t )) ou a aplicação de métodos simulados de recozimento.

O EM é especialmente útil quando a probabilidade é de uma família exponencial : o passo E torna-se a soma das expectativas de estatísticas suficientes, e o passo M envolve maximizar uma função linear. Nesse caso, geralmente é possível obter atualizações de de forma fechada para cada etapa, usando a fórmula de Sundberg.[4][5][7][8][9][10][11]

O método EM foi modificado para calcular estimativas da máximas a posteriori (PAM) para inferência bayesiana no artigo original de Dempster, Laird e Rubin.

Existem outros métodos para encontrar estimativas de maxima verossimilhança, como descida de gradiente, gradiente conjugado ou variantes do algoritmo de Gauss-Newton. Diferentemente do EM, esses métodos geralmente requerem a avaliação de primeira e / ou segunda derivada da função de probabilidade.

Prova de que está correto[editar | editar código-fonte]

A maximização de expectativas trabalha para melhorar ao invés de melhorar diretamente . Aqui é mostrado que melhorias no primeiro implicam melhorias no último.[13]

Para qualquer com probabilidade diferente de zero , nós podemos escrever

Tomamos a expectativa sobre os possíveis valores de sob a estimativa de parâmetro atual , multiplicamos os dois lados por e somamos (ou integramos) sobre . O lado esquerdo é a expectativa de uma constante, então temos:

Onde é definido pela soma negada que está substituindo. Esta última equação vale para todo valor de Incluindo ,

e subtrair esta última equação da equação anterior dá

A desigualdade de Jensen nos diz que , e podemos concluir que

Em palavras, escolhendo de forma a aumentar leva a um aumento de mesmo tamanho (ou maior) de .

Como um procedimento de maximização-maximização[editar | editar código-fonte]

O algoritmo EM pode ser visto como duas etapas de maximização alternadas, ou seja, como um exemplo de subida coordenada.[14][15] Considere a função:

onde q é uma distribuição de probabilidade arbitrária sobre os dados não observados Z e H (q) é a entropia da distribuição q. Esta função pode ser escrita como

Onde é a distribuição condicional dos dados não observados, dados os dados observados e é a divergência Kullback-Leibler .

Em seguida, as etapas no algoritmo EM podem ser vistas como:

Etapa de expectativa : escolha de forma a maximizar  :
Etapa de maximização : escolha Para maximizar  :

Aplicações[editar | editar código-fonte]

O algoritmo de EM é usado para tarefas como agrupamento (clustering) em aprendizado de máquina e visão computacional . No campo de processamento de linguagem natural, duas instâncias proeminentes do algoritmo são o algoritmo de Baum-Welch para modelos ocultos de Markov e o algoritmo de dentro para fora para indução não supervisionada de gramáticas livres de contexto estocásticas.

O algoritmo de EM é usado para estimativa de parâmetros de modelos de misturas,[16][17] principalmente na genética quantitativa.[18]

Na área da psicometria, o EM é quase indispensável para estimar parâmetros de itens e habilidades latentes nos modelos de teoria de respostas ao item.

O algoritmo EM também é amplamente utilizado na reconstrução de imagens médicas, especialmente em tomografia por emissão de pósitrons, tomografia computadorizada por emissão de fóton único, e tomografia computadorizada.

Na engenharia estrutural, o algoritmo de Identificação Estrutural usando Maximização de Expectativas (STRIDE, sigla do inglês)[19] é um método somente de saída para identificar propriedades de vibração natural de um sistema estrutural usando dados de sensores (consulte Análise Modal Operacional).

Filtrando e suavizando algoritmos de EM[editar | editar código-fonte]

Um filtro de Kalman é tipicamente usado para estimativa de estado on-line e um suavizador de variância mínima pode ser empregado para estimativa off-line ou em lote. No entanto, essas soluções de variação mínima requerem que os parâmetros do modelo de espaço de estado sejam estimados. Os algoritmos EM podem ser usados para resolver problemas conjuntos de estimativa de parâmetros e estados das juntas.

Os algoritmos EM de filtragem e suavização surgem repetindo este procedimento de duas etapas:

E-step
Opere um filtro Kalman ou um suavizador de variância mínima projetado com estimativas de parâmetros atuais para obter estimativas de estado atualizadas.
M-step
Use as estimativas de estado filtradas ou suavizadas nos cálculos de máxima verossimilhança para obter estimativas de parâmetros atualizadas.

Suponha que um filtro Kalman ou suavizador de variância mínima opere nas medições de um sistema de entrada única e saída única que possua ruído branco aditivo. Uma estimativa atualizada da variação de ruído de medição pode ser obtida a partir do cálculo da máxima verossimilhança:

onde são estimativas de saída escalares calculadas por um filtro ou suavizador a partir de medições escalares de N . A atualização acima também pode ser aplicada à atualização de uma intensidade de ruído de medição de Poisson. Da mesma forma, para um processo autorregressivo de primeira ordem, uma estimativa atualizada da variação do ruído do processo pode ser calculada por

Onde e são estimativas de estado escalar calculadas por um filtro ou por um suavizador. A estimativa atualizada do coeficiente do modelo é obtida via

A convergência de estimativas de parâmetros como as acima são bem estudadas.[20][21][22][23]

Variantes[editar | editar código-fonte]

Vários métodos foram propostos para acelerar a convergência do algoritmo EM. Esses métodos incluem os que utilizam gradiente conjugado e os métodos de Newton modificados (Newton – Raphson).[24] Além disso, o EM pode ser usado com métodos de estimativa com restrições (constraints).

O algoritmo de maximização de expectativa expandida por parâmetros (PX-EM) acelera o processo por "usar um ajuste de covariância para corrigir a análise da etapa M, capitalizando em informações extras capturadas nos dados completos imputados " (tradução livre).[25]

A maximização condicional da expectativa (ECM) substitui cada etapa M por uma sequência de etapas da maximização condicional (CM). Em cada etapa CM, ada parâmetro θ i é maximizado individualmente, condicionalmente nos outros parâmetros que permanecem fixos.[26] O próprio algoritmo de ECM possuí ao menos uma extensão, o algoritmo de maximização condicional da expectativa (ECME).[27]

Essa idéia é estendida no algoritmo de maximização de expectativa generalizada (GEM), no qual se busca um aumento na função objetivo F para ambas etapas E e M.[14] O GEM é desenvolvido em um ambiente distribuído e mostra resultados promissores.[28]

Também é possível considerar o algoritmo EM como uma subclasse do algoritmo MM (Maiorizar/Minimizar ou Minorizar Maximizar, dependendo do contexto)[29] e, portanto, pode usar qualquer mecanismo desenvolvido para caso mais geral.

Algoritmo α-EM[editar | editar código-fonte]

A função Q usada no algoritmo EM é baseada no logaritmo da verossimilhança. Portanto, é considerado como o algoritmo log-EM. O uso da verossimilhança logarítmica pode ser generalizado ao da razão de verossimilhança α-log. Então, a razão de verossimilhança α-log dos dados observados pode ser expressa exatamente como igualdade usando a função Q da razão de verossimilhança α-log e a divergência α. A obtenção dessa função Q é uma etapa E generalizada. Sua maximização é uma etapa M generalizada. Esse par é chamado de algoritmo α-EM[30] que contém o algoritmo log-EM como sua subclasse. Dessa forma, o algoritmo α-EM de Yasuo Matsuyama é uma generalização exata do algoritmo log-EM. Não é necessário o cálculo do gradiente ou da matriz hessiana. O α-EM converge mais rapidamente que o algoritmo log-EM se um α apropriado for escolhido. O algoritmo α-EM leva a uma versão mais rápida do algoritmo de estimativa do modelo Hidden Markov α-HMM.[31]

Relação com métodos variacionais de Bayes[editar | editar código-fonte]

O EM é um método parcialmente não-bayesiano de máxima verossimilhança. Seu resultado final fornece uma distribuição de probabilidade sobre as variáveis latentes (no estilo bayesiano) juntamente com uma estimativa pontual para θ (uma estimativa de máxima verossimilhança ou um modo posterior). Uma versão totalmente bayesiana disso pode ser desejada, fornecendo uma distribuição de probabilidade sobre θ e as variáveis latentes. A abordagem bayesiana da inferência é simplesmente tratar θ como outra variável latente. Nesse paradigma, a distinção entre os passos E e M desaparece. Se você estiver usando a aproximação Q fatorizada, como descrito acima ( Bayes variacionais , a solução pode iterar sobre cada variável latente (agora incluindo θ) e otimizá-las uma por vez. Agora, são necessárias k etapas por iteração, onde k é o número de variáveis latentes. Para modelos gráficos, é fácil fazer isso, pois o novo Q de cada variável depende apenas de seu cobertor de Markov; portanto, a passagem de mensagens local pode ser usada para inferência eficiente.

Interpretação geométrica[editar | editar código-fonte]

Na geometria da informação, a etapa E e a etapa M são interpretadas como projeções sob conexões afins duplas, chamadas de conexão e e conexão m; a divergência Kullback-Leibler também pode ser entendida nesses termos.

Exemplos[editar | editar código-fonte]

Mistura de gaussianas[editar | editar código-fonte]

Comparação de k-means e EM em dados artificiais. Usando as variâncias, o algoritmo EM pode descrever exatamente as distribuições normais, enquanto k-means divide os dados em células Voronoi . O centro do cluster é indicado pelo símbolo maior e mais claro.
Uma animação demonstrando o algoritmo EM ajustando um modelo de mistura Gaussiana de dois componentes ao conjunto de dados Old Faithful . O algoritmo passa de uma inicialização aleatória para convergência.

Tome como uma amostra de observações independentes de uma mistura de duas distribuições normais multivariadas de dimensão , e como as variáveis latentes que determinam o componente do qual a observação se origina.[32]

e

Onde

e

O objetivo é estimar os parâmetros desconhecidos que representam o valor da mistura entre as gaussianas e as médias e covariâncias de cada um:

onde a função de probabilidade de dados incompletos é

e a função de probabilidade de dados completos é

ou

Onde é uma função indicadora e é a função de densidade de probabilidade de uma curva normal multivariada.

Na última igualdade, para cada i, um indicador é igual a 0 e um indicador é igual a 1. A soma interna reduz-se assim a um termo.

Etapa E[editar | editar código-fonte]

Dada a atual estimativa dos parâmetros q (t), a distribuição condicional de Z I é determinada (pelo teorema de Bayes) como sendo ser proporcional a altura do normal de densidade ponderadas por τ:

Essas são chamadas de "probabilidades de associação", que normalmente são consideradas a saída (output) da etapa E (embora essa não seja a função Q abaixo).

Essa etapa E corresponde à configuração desta função para Q:

A expectativa de dentro da soma é tomada em relação à função de densidade de probabilidade , que pode ser diferente para cada do conjunto de treinamento. Tudo na etapa E é conhecido antes da etapa ser executada, exceto , que é calculado de acordo com a equação no início da seção da etapa E.

Essa expectativa condicional completa não precisa ser calculada em uma única etapa, porque τ e μ / Σ aparecem em termos lineares separados e, portanto, podem ser maximizados independentemente.

Etapa M[editar | editar código-fonte]

Sendo Q ( θ | θ ( t ) ) de forma quadrática, significa que a determinação dos valores que maximizam de θ é direta. Além disso, τ, ( μ 1, Σ 1 ) e ( μ 2, Σ 2 ) podem ser maximizados independentemente, uma vez que todos aparecem em termos lineares separados.

Para começar, considere τ, que tem a restrição τ 1 + τ 2 = 1:

Ele tem a mesma forma que o MLE para a distribuição binomial, portanto

Para as próximas estimativas de ( μ 1, Σ 1 ):

Ele tem a mesma forma que um MLE ponderado para uma distribuição normal, portanto

e

e, por simetria,

e

Conclusão[editar | editar código-fonte]

Conclua o processo iterativo se para menor que algum limite predefinido.

Generalização[editar | editar código-fonte]

O algoritmo ilustrado acima pode ser generalizado para misturas de mais de duas distribuições normais multivariadas.

Alternativas[editar | editar código-fonte]

O algoritmo de EM converge para um ótimo local, que não é necessariamente o ponto ótimo global. Portanto, existe uma necessidade de métodos alternativos para a aprendizagem garantida, especialmente no cenário de alta dimensão. Existem alternativas ao EM com melhores garantias de consistência, denominadas abordagens baseadas no momento[33] ou as chamadas técnicas espectrais.[34][35]

Referências

  1. a b Dempster, A. P.; Laird, N. M.; Rubin, D. B. (1977). «Maximum Likelihood from Incomplete Data Via the EM Algorithm». Journal of the Royal Statistical Society: Series B (Methodological) (em inglês). 39 (1): 1–22. doi:10.1111/j.2517-6161.1977.tb01600.x 
  2. Ceppellini, By R.; Siniscalco, M.; Smith, C. a. B. (1955). «The Estimation of Gene Frequencies in a Random-Mating Population». Annals of Human Genetics (em inglês). 20 (2): 97–115. ISSN 1469-1809. PMID 13268982. doi:10.1111/j.1469-1809.1955.tb01360.x 
  3. Sundberg (1974). «Maximum likelihood theory for incomplete data from an exponential family». Scandinavian Journal of Statistics. 1: 49–58. JSTOR 4615553. MR 381110 
  4. a b Rolf Sundberg. 1971. Maximum likelihood theory and applications for distributions generated when observing a function of an exponential family variable. Dissertation, Institute for Mathematical Statistics, Stockholm University.
  5. a b Sundberg, Rolf (1976). «An iterative method for solution of the likelihood equations for incomplete data from exponential families». Communications in Statistics – Simulation and Computation. 5: 55–64. MR 443190. doi:10.1080/03610917608812007 
  6. G. Kulldorff. 1961. Contributions to the theory of estimation from grouped and partially grouped samples. Almqvist & Wiksell.
  7. a b Anders Martin-Löf. 1963. "Utvärdering av livslängder i subnanosekundsområdet" ("Evaluation of sub-nanosecond lifetimes"). ("Sundberg formula")
  8. a b Per Martin-Löf. 1966. «Statistics from the point of view of statistical mechanics». Lecture notes, Mathematical Institute, Aarhus University. ("Sundberg formula" credited to Anders Martin-Löf).doi:10.1214/lnms/1215456852ISBN 0-940600-20-X
  9. a b Martin-Löf (1970). «Statistika Modeller (Statistical Models): Anteckningar från seminarier läsåret 1969–1970 (Notes from seminars in the academic year 1969-1970), with the assistance of Rolf Sundberg». ADE Bulletin. ISSN 0001-0898. doi:10.1632/ade.23.37 
  10. a b Martin-Löf (1974). «The notion of redundancy and its use as a quantitative measure of the discrepancy between a statistical hypothesis and a set of observational data». Scand. J. Statist. 1: 3–18 With a discussion by F. Abildgård, A. P. Dempster, D. Basu, D. R. Cox, A. W. F. Edwards, D. A. Sprott, G. A. Barnard, O. Barndorff-Nielsen, J. D. Kalbfleisch and G. Rasch and a reply by the author. Proceedings of Conference on Foundational Questions in Statistical Inference (Aarhus, 1973), pp. 1–42. Memoirs, No. 1, Dept. Theoret. Statist., Inst. Math., Univ. Aarhus, Aarhus, 1974.
  11. a b Martin-Löf, Per (1974). «The notion of redundancy and its use as a quantitative measure of the discrepancy between a statistical hypothesis and a set of observational data». Scand. J. Statist. 1: 3–18 
  12. a b Wu, C. F. Jeff. «On the Convergence Properties of the EM Algorithm». Annals of Statistics. 11: 95–103. JSTOR 2240463. MR 684867. doi:10.1214/aos/1176346060 
  13. Little, Roderick J. A.; Rubin, D. B. (1987). Statistical analysis with missing data. New York: Wiley. pp. 134–136. ISBN 978-0-471-80254-9. OCLC 14097988 
  14. a b Neal, Radford; Hinton, Geoffrey (1999). Michael I. Jordan, ed. A view of the EM algorithm that justifies incremental, sparse, and other variants (PDF). MIT Press. Cambridge, MA: [s.n.] pp. 355–368. ISBN 978-0-262-60032-3 
  15. Hastie, Trevor.; Friedman, J. H. (Jerome H.) (2001). The elements of statistical learning : data mining, inference, and prediction : with 200 full-color illustrations. New York: Springer. ISBN 978-0-387-95284-0. OCLC 46809224 
  16. Lindstrom, Mary J.; Bates, Douglas M. (Dezembro de 1988). «Newton—Raphson and EM Algorithms for Linear Mixed-Effects Models for Repeated-Measures Data». Journal of the American Statistical Association (em inglês). 83 (404): 1014–1022. ISSN 0162-1459. doi:10.1080/01621459.1988.10478693 
  17. van Dyk, David A. (Março de 2000). «Fitting Mixed-Effects Models Using Efficient EM-Type Algorithms». Journal of Computational and Graphical Statistics. 9 (1). 78 páginas. doi:10.2307/1390614 
  18. Diffey, S. M.; Smith, A. B.; Welsh, A. H.; Cullis, B. R. (Dezembro de 2017). «A new REML (parameter expanded) EM algorithm for linear mixed models». Australian & New Zealand Journal of Statistics (em inglês). 59 (4): 433–448. doi:10.1111/anzs.12208 
  19. Matarazzo, Thomas J.; Pakzad, Shamim N. (Abril de 2016). «STRIDE for Structural Identification Using Expectation Maximization: Iterative Output-Only Method for Modal Identification». Journal of Engineering Mechanics (em inglês). 142 (4). 04015109 páginas. ISSN 0733-9399. doi:10.1061/(ASCE)EM.1943-7889.0000951 
  20. Einicke, G.A.; Malos, J.T.; Reid, D.C.; Hainsworth, D.W. (Janeiro de 2009). «Riccati Equation and EM Algorithm Convergence for Inertial Navigation Alignment». IEEE Transactions on Signal Processing. 57 (1): 370–375. ISSN 1053-587X. doi:10.1109/TSP.2008.2007090 
  21. Einicke, G.A.; Falco, G.; Malos, J.T. (Maio de 2010). «EM Algorithm State Matrix Estimation for Navigation». IEEE Signal Processing Letters. 17 (5): 437–440. ISSN 1070-9908. doi:10.1109/LSP.2010.2043151 
  22. Einicke, G. A.; Falco, G.; Dunn, M. T.; Reid, D. C. (Maio de 2012). «Iterative Smoother-Based Variance Estimation». IEEE Signal Processing Letters. 19 (5): 275–278. ISSN 1070-9908. doi:10.1109/LSP.2012.2190278 
  23. Einicke, G. A. (Julho de 2015). «Iterative filtering and smoothing of measurements possessing poisson noise». IEEE Transactions on Aerospace and Electronic Systems. 51 (3): 2205–2011. ISSN 0018-9251. doi:10.1109/TAES.2015.140843 
  24. Jamshidian, Mortaza; Jennrich, Robert I. (Agosto de 1997). «Acceleration of the EM Algorithm by using Quasi-Newton Methods». Journal of the Royal Statistical Society: Series B (Statistical Methodology) (em inglês). 59 (3): 569–587. ISSN 1369-7412. doi:10.1111/1467-9868.00083 
  25. Liu, C (1 de dezembro de 1998). «Parameter expansion to accelerate EM: the PX-EM algorithm». Biometrika (em inglês). 85 (4): 755–770. ISSN 0006-3444. doi:10.1093/biomet/85.4.755 
  26. Meng, Xiao-Li; Rubin, Donald B. (1993). «Maximum likelihood estimation via the ECM algorithm: A general framework». Biometrika (em inglês). 80 (2): 267–278. ISSN 0006-3444. doi:10.1093/biomet/80.2.267 
  27. Liu, Chuanhai; Rubin, Donald B. (1994). «The ECME algorithm: A simple extension of EM and ECM with faster monotone convergence». Biometrika (em inglês). 81 (4): 633–648. ISSN 0006-3444. doi:10.1093/biomet/81.4.633 
  28. «Accelerating Expectation-Maximization Algorithms with Frequent Updates» (PDF). Proceedings of the IEEE International Conference on Cluster Computing. 2012 
  29. Hunter DR and Lange K (2004), A Tutorial on MM Algorithms, The American Statistician, 58: 30-37
  30. Matsuyama, Y. (Março de 2003). «The α-EM algorithm: surrogate likelihood maximization using α-logarithmic information measures». IEEE Transactions on Information Theory (em inglês). 49 (3): 692–706. ISSN 0018-9448. doi:10.1109/TIT.2002.808105 
  31. Matsuyama, Yasuo (Julho de 2011). «Hidden Markov model estimation based on alpha-EM algorithm: Discrete and continuous alpha-HMMs». IEEE. The 2011 International Joint Conference on Neural Networks. ISBN 978-1-4244-9635-8. doi:10.1109/ijcnn.2011.6033304 
  32. Hastie, Trevor; Tibshirani, Robert; Friedman, Jerome (2001). «8.5 The EM algorithm». The Elements of Statistical Learning. Springer. New York: [s.n.] pp. 236–243. ISBN 978-0-387-95284-0 
  33. Pearson, Karl (31 de dezembro de 1894). «III. Contributions to the mathematical theory of evolution». Philosophical Transactions of the Royal Society of London. (A.) (em inglês). 185: 71–110. ISSN 0264-3820. doi:10.1098/rsta.1894.0003 
  34. Shaban, Amirreza. «Learning Latent Variable Models by Improving Spectral Solutions with Exterior Point Method» (PDF). UAI: 792–801 
  35. Balle, Borja Quattoni, Ariadna Carreras, Xavier (27 de junho de 2012). Local Loss Optimization in Operator Models: A New Insight into Spectral Learning. [S.l.: s.n.] OCLC 815865081 

Leitura adicional[editar | editar código-fonte]

  • Hogg, Robert; McKean, Joseph; Craig, Allen (2005). Introduction to Mathematical Statistics. Pearson Prentice Hall. Upper Saddle River, NJ: [s.n.] pp. 359–364 
  • Dellaert (2002). «The Expectation Maximization Algorithm». CiteSeerX 10.1.1.9.9735Acessível livremente  gives an easier explanation of EM algorithm as to lowerbound maximization.
  • Bishop, Christopher M. (2006). Pattern Recognition and Machine Learning. Springer. [S.l.: s.n.] ISBN 978-0-387-31073-2 
  • «Theory and Use of the EM Algorithm». Foundations and Trends in Signal Processing. 4: 223–296. 2010. CiteSeerX 10.1.1.219.6830Acessível livremente. doi:10.1561/2000000034  A well-written short book on EM, including detailed derivation of EM for GMMs, HMMs, and Dirichlet.
  • Bilmes (1998). «A Gentle Tutorial of the EM Algorithm and its Application to Parameter Estimation for Gaussian Mixture and Hidden Markov Models». CiteSeerX 10.1.1.28.613Acessível livremente  includes a simplified derivation of the EM equations for Gaussian Mixtures and Gaussian Mixture Hidden Markov Models.
  • McLachlan, Geoffrey J.; Krishnan, Thriyambakam (2008). The EM Algorithm and Extensions. Wiley 2nd ed. Hoboken: [s.n.] ISBN 978-0-471-20170-0 

Ligações externas[editar | editar código-fonte]