Back to Search
Start Over
Análise de textos por meio de processos estocásticos na representação word2vec
- Source :
- Biblioteca Digital de Teses e Dissertações da USP, Universidade de São Paulo (USP), instacron:USP, Repositório Institucional da UFSCAR, Universidade Federal de São Carlos (UFSCAR), instacron:UFSCAR
- Publication Year :
- 2021
- Publisher :
- Universidade de São Paulo, 2021.
-
Abstract
- Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) Within the field of Natural Language Processing (NLP), the word2vec model has been extensively explored in the field of vector representation of words. It is a neural network that is based on the hypothesis that similar words have similar contexts. In the literature in general, the text is represented by the mean vector of the representations of its words, which, in turn, is used as an explanatory variable in predictive models. An alternative is, in addition to averages, to use other measures, such as standard deviation and position measures. However, the use of these measures assumes the order of the words does not matter. Thus, in this dissertation we explore the use of stochastic processes, in particular, Time Series Models and Hidden Markov Models (HMM), to incorporate the "chronological" order of words in the construction of explanatory variables from the vector representation given by word2vec. The impact of this approach is measured with the quality of the predictive models of real data and compared to the usual ones. For the analysed data, the proposed approaches have a result that is superior to or equivalent to the usual approaches in most cases. Dentro do campo de Processamento de Linguagem Natural (NLP), o modelo word2vec vêm sendo bastante explorado no campo da representação vetorial de palavras. Ele é uma rede neural que se baseia na hipótese de que palavras semelhantes tem contextos semelhantes. Na literatura em geral, o texto é representado pelo vetor de médias das representações das suas palavras, que, por sua vez, é utilizado como variável explicativa em modelos preditivos. Um alternativa é, além da médias, utilizar outras medidas, como desvio-padrão e medidas de posição. Porém, o uso destas medidas supõe que a ordem das palavras não importa. Assim, nesta dissertação exploramos o uso de processos estocásticos, em particular, Modelos de Série Temporal e Modelos Ocultos de Markov (HMM), para incorporar a ordem "cronológica" das palavras na construção das variáveis explicativas a partir da representação vetorial dada pelo word2vec. O impacto desta abordagem é medido com a qualidade dos modelos preditivos aplicados à dados reais e comparado às abordagens usuais. Para os dados analisados, as abordagens propostas tiveram um resultado superior ou equivalente às abordagens usuais na maioria dos casos. CNPQ: 131978/2019-5
- Subjects :
- Representação vetorial de palavras
PROBABILIDADE E ESTATISTICA::ESTATISTICA::INFERENCIA EM PROCESSOS ESTOCASTICOS [CIENCIAS EXATAS E DA TERRA]
Natural language processing
media_common.quotation_subject
Modelos de predição
Word vector representation
PROBABILIDADE E ESTATISTICA::ESTATISTICA::ANALISE DE DADOS [CIENCIAS EXATAS E DA TERRA]
Processos estocásticos
Art
Prediction models
Stochastic process
Processamento de linguagem natural
media_common
Subjects
Details
- Language :
- Portuguese
- Database :
- OpenAIRE
- Journal :
- Biblioteca Digital de Teses e Dissertações da USP, Universidade de São Paulo (USP), instacron:USP, Repositório Institucional da UFSCAR, Universidade Federal de São Carlos (UFSCAR), instacron:UFSCAR
- Accession number :
- edsair.doi.dedup.....871ce298ac4a58dbd80cfa36e4a124e1