Paráfrase (linguística computacional)

Origem: Wikipédia, a enciclopédia livre.

A paráfrase ou o parafraseamento em linguística computacional é a tarefa de processamento de linguagem natural de detectar e gerar paráfrases. As aplicações da paráfrase são variadas, incluindo recuperação de informações, resposta a perguntas, resumo de texto e detecção de plágio.[1] A paráfrase também é útil na avaliação da tradução automática,[2] bem como na análise semântica[3] e na geração de novas amostras para expandir os corpora existentes.[4]

Geração de paráfrase[editar | editar código-fonte]

Alinhamento de sequências múltiplas[editar | editar código-fonte]

Barzilay e Lee[4] propuseram um método para gerar paráfrases através do uso de corpora paralelos monolíngues, ou seja, notícias cobrindo o mesmo evento no mesmo dia. O treinamento consiste em usar o alinhamento múltiplo de sequências para gerar paráfrases no nível da frase a partir de um corpus não anotado. Para isso,

  • encontram-se padrões recorrentes em cada corpus individual, ou seja, "X (feriu/machucou) Y pessoas, Z gravemente" onde X, Y, Z são variáveis
  • encontrar pares entre esses padrões que representam paráfrases, ou seja, "X (lesionou/feriu) Y pessoas, Z gravemente" e "Y foram (feridos/machucados) por X, entre eles Z estavam em estado grave"

Isso é conseguido primeiro agrupando frases semelhantes usando sobreposição de n-grama. Os padrões recorrentes são encontrados nos clusters usando o alinhamento de várias sequências. Então, a posição das palavras de argumento é determinada pela localização de áreas de alta variabilidade dentro de cada grupo, isto é, entre palavras compartilhadas por mais de 50% das frases de um grupo. Os emparelhamentos entre padrões são encontrados comparando palavras variáveis semelhantes entre diferentes corpora. Finalmente, novas paráfrases podem ser geradas escolhendo um agrupamento correspondente para uma frase de origem e então substituindo o argumento da frase de origem em qualquer número de padrões no agrupamento.

Tradução automática baseada em frases[editar | editar código-fonte]

A paráfrase também pode ser gerada através do uso de tradução baseada em frase, conforme proposto por Bannard e Callison-Burch.[5] O conceito principal consiste em alinhar frases em uma linguagem-pivô para produzir paráfrases potenciais na língua original. Por exemplo, a expressão "under control" em uma frase em inglês é alinhada com a expressão "unter kontrolle" em sua contraparte em alemão. A expressão "unter kontrolle" é então encontrada em outra frase alemã com a expressão inglesa alinhada sendo "in check", uma paráfrase de "under control".

A distribuição de probabilidade pode ser modelada como , a probabilidade de a frase ser uma paráfrase de , que é equivalente ao somada sobre todas as , potenciais traduções de frases na linguagem pivô. Além disso, a frase é adicionado como uma prévia para adicionar contexto à paráfrase. Assim, a paráfrase ideal, , pode ser modelada como:

As probabilidades e podem ser aproximadas simplesmente tomando suas frequências. A adição de como um prior é modelada por meio do cálculo da probabilidade de formar quando é substituída por .

Memória longa de curto prazo[editar | editar código-fonte]

Tem havido sucesso no uso de modelos de memória longa de curto prazo (LSTM) para gerar paráfrases.[6] Resumindo, o modelo consiste em um codificador e um decodificador, ambos implementados usando variações de um LSTM residual empilhado. Primeiro, o LSTM de codificação pega uma codificação one-hot de todas as palavras em uma frase como entrada e produz um vetor oculto final, que pode ser visto como uma representação da frase de entrada. A decodificação LSTM então pega o vetor oculto como entrada e gera uma nova frase, terminando em um token de fim de frase. O codificador e o decodificador são treinados para pegar uma frase e reproduzir a distribuição one-hot de uma paráfrase correspondente, minimizando a perplexidade usando um gradiente descendente estocástico simples. Novas paráfrases são geradas inserindo uma nova frase no codificador e passando a saída para o decodificador.

Reconhecimento de paráfrase[editar | editar código-fonte]

Auto-codificadores recursivos[editar | editar código-fonte]

O reconhecimento de paráfrases foi tentado por Socher et al[1] através do uso de autocodificadores recursivos. O conceito principal é produzir uma representação vetorial de uma frase junto com seus componentes por meio do uso recursivo de um autocodificador. As representações vetoriais de paráfrases devem ter representações vetoriais semelhantes; elas são processadas e, em seguida, alimentadas como entrada em uma rede neural para classificação.

Dada uma sentença com palavras, o autocodificador é projetado para levar 2 embeddings de palavras de dimensão como entrada e produzir um vetor de dimensão como saída. O mesmo autocodificador é aplicado a cada par de palavras em para produzir vetores. O autocodificador é então aplicado recursivamente com os novos vetores como entradas até que um único vetor seja produzido. Dado um número ímpar de entradas, o primeiro vetor é encaminhado como está para o próximo nível de recursão. O autocodificador é então treinado para reproduzir todos os vetores na árvore de recursão completa, incluindo os embeddings de palavras iniciais.

Dada duas sentenças e de comprimento 4 e 3, respectivamente, os autocodificadores produziriam 7 e 5 representações vetoriais, incluindo os embeddings iniciais das palavras. A distância euclidiana é então tomada entre cada combinação de vetores em e para produzir uma matriz de similaridade . é então submetido a uma camada de min-pooling dinâmica para produzir uma matriz de tamanho fixo . Como não são uniformes em tamanho entre todas as sentenças em potencial, é dividido em seções aproximadamente iguais. A saída é então normalizada para ter média 0 e desvio padrão 1 e é alimentada em uma camada totalmente conectada com uma saída softmax. O modelo de pooling dinâmico para softmax é treinado usando pares de paráfrases conhecidas.

Vetores de pensamento saltado[editar | editar código-fonte]

Os vetores de pensamento saltado são uma tentativa de criar uma representação vetorial do significado semântico de uma frase de maneira semelhante ao modelo skip gram.[7] Os vetores de pensamento saltado são produzidos através do uso de um modelo de pensamento saltado que consiste em três componentes principais, um codificador e dois decodificadores. Dado um corpus de documentos, o modelo de pensamento saltado é treinado para pegar uma frase como entrada e codificá-la em um vetor pensamento saltado. O vetor de pensamento saltado é usado como entrada para ambos os decodificadores, um dos quais tenta reproduzir a frase anterior e o outro, a frase seguinte em sua totalidade. O codificador e o decodificador podem ser implementados por meio do uso de uma rede neural recursiva (RNN) ou uma LSTM.

Como as paráfrases carregam o mesmo significado semântico entre si, elas devem ter vetores de pensamento saltado semelhantes. Assim, uma regressão logística simples pode ser treinada para obter um bom desempenho com a diferença absoluta e o produto dos componentes de dois vetores de pensamento saltado como entrada.

Avaliação[editar | editar código-fonte]

Existem vários métodos que podem ser usados para avaliar paráfrases. Visto que o reconhecimento da paráfrase pode ser apresentado como um problema de classificação, a maioria das métricas de avaliação padrão, como precisão, score f1, ou uma curva ROC se sai relativamente bem. No entanto, há dificuldade em calcular scores f1 devido à dificuldade em produzir uma lista completa de paráfrases para uma determinada frase, juntamente com o fato de que boas paráfrases dependem do contexto. Uma métrica projetada para combater esses problemas é a ParaMetric.[8] A ParaMetric tem como objetivo calcular a precisão e o recall de um sistema automatizado de paráfrases, comparando o alinhamento automático de paráfrases com um alinhamento manual de frases semelhantes. Como a ParaMetric está simplesmente classificando a qualidade do alinhamento de frases, ela pode ser usada para classificar sistemas de geração de paráfrases, assumindo que eles usem o alinhamento de frase como parte de seu processo de geração. Uma desvantagem observada na ParaMetric é o conjunto grande e exaustivo de alinhamentos manuais que devem ser inicialmente criados antes que uma classificação possa ser produzida.

A avaliação da geração de paráfrases apresenta dificuldades semelhantes à avaliação da tradução automática. Frequentemente, a qualidade de uma paráfrase depende de seu contexto, de estar ou não sendo usada como um resumo e de como é gerada, entre outros fatores. Além disso, uma boa paráfrase geralmente é lexicamente diferente de sua frase de origem. O método mais simples usado para avaliar a geração de paráfrases seria por meio do uso de juízes humanos. Infelizmente, a avaliação por meio de juízes humanos tende a ser demorada. Abordagens automatizadas para avaliação provam ser desafiadoras, pois é essencialmente um problema tão difícil quanto o reconhecimento de paráfrases. Embora originalmente usado para avaliar traduções automáticas, o estudo básico de avaliação bilíngue (BLEU) também foi usado com sucesso para avaliar modelos de geração de paráfrases. No entanto, as paráfrases geralmente têm várias soluções lexicamente diferentes, mas igualmente válidas, que prejudicam o BLEU e outras métricas de avaliação semelhantes.[9]

Entre as métricas projetadas especificamente para avaliar a geração de paráfrases estão a paráfrase na mudança de n-grama (PINC)[9] e métrica de avaliação de paráfrases (PEM),[10] junto com a ParaMetric mencionada anteriormente. A PINC é projetada para ser usada em conjunto com BLEU e ajudar a cobrir suas inadequações. Como o BLEU tem dificuldade em medir a dissimilaridade lexical, o PINC é uma medida da falta de sobreposição de n-gramas entre uma frase fonte e uma paráfrase candidata. É essencialmente a distância de Jaccard entre a frase excluindo n-gramas que aparecem na frase de origem para manter alguma equivalência semântica. A PEM, por outro lado, tenta avaliar a "adequação, fluência e dissimilaridade lexical" das paráfrases, retornando uma heurística de valor único calculada usando a sobreposição de N-gramas em uma linguagem de pivô. No entanto, uma grande desvantagem do PEM é que deve ser treinado com grandes corpora paralelos no domínio, bem como juízes humanos. Em outras palavras, é equivalente a treinar um sistema de reconhecimento de paráfrases para avaliar um sistema de geração de paráfrases.

Ver também[editar | editar código-fonte]

Referências[editar | editar código-fonte]

  1. a b Socher, Richard; Huang, Eric; Pennington, Jeffrey; Ng, Andrew; Manning, Christopher (2011), Dynamic Pooling and Unfolding Recursive Autoencoders for Paraphrase Detection 
  2. Callison-Burch, Chris (25 de outubro de 2008). Syntactic Constraints on Paraphrases Extracted from Parallel Corpora. pp. 196–205 
  3. Berant, Jonathan, and Percy Liang. "Semantic parsing via paraphrasing." Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Vol. 1. 2014.
  4. a b Barzilay, Regina; Lee, Lillian (maio de 2003). Learning to Paraphrase: An Unsupervised Approach Using Multiple-Sequence Alignment 
  5. Bannard, Colin; Callison-Burch, Chris (2005). Paraphrasing Bilingual Parallel Corpora. pp. 597–604 
  6. Prakash, Aaditya; Hasan, Sadid A.; Lee, Kathy; Datla, Vivek; Qadir, Ashequl; Liu, Joey; Farri, Oladimeji (2016), Neural Paraphrase Generation with Staked Residual LSTM Networks, Bibcode:2016arXiv161003098P, arXiv:1610.03098Acessível livremente 
  7. Kiros, Ryan; Zhu, Yukun; Salakhutdinov, Ruslan; Zemel, Richard; Torralba, Antonio; Urtasun, Raquel; Fidler, Sanja (2015), Skip-Thought Vectors, Bibcode:2015arXiv150606726K, arXiv:1506.06726Acessível livremente 
  8. Callison-Burch, Chris; Cohn, Trevor; Lapata, Mirella (2008). ParaMetric: An Automatic Evaluation Metric for Paraphrasing (PDF). pp. 97–104. doi:10.3115/1599081.1599094 
  9. a b Chen, David; Dolan, William (2008). Collecting Highly Parallel Data for Paraphrase Evaluation. pp. 190–200 
  10. Liu, Chang; Dahlmeier, Daniel; Ng, Hwee Tou (2010). PEM: A Paraphrase Evaluation Metric Exploiting Parallel Texts. pp. 923–932 

Ligações externas[editar | editar código-fonte]

  • Microsoft Research Paraphrase Corpus - um conjunto de dados que consiste em 5800 pares de frases extraídas de artigos de notícias anotados para observar se um par captura equivalência semântica
  • Paraphrase Database (PPDB) - Um banco de dados pesquisável contendo milhões de paráfrases em 16 idiomas diferentes