Grafos modelam problemas do mundo real. Nos diferentes problemas de classificação modelados por grafos, existe uma classe que interesse. Considerando o aprendizado de máquina, o One-Class Learning (OCL) é capaz de classificar instâncias de uma determinada classe observando somente instâncias desta classe uma vez que o OCL treina somente com estas instancias e posteriormente classifica uma instancia como pertencente a classe de interesse ou não. Portanto, One-class graph learning é uma estrategia atrativa para resolução de problemas do mundo real. Podemos dividir os trabalhos de One-class graph learning em três familias: (i) graph embeddings em conjunto com o OCL; (ii) Graph Neural Networks não supervisionadas em conjunto com OCL; e (iii) One-class graph neural networks (estado-da-arte). O objetivo central desse trabalho é avançar o estado da arte de one-class learning para graph neural networks.
O One-Class Learning (OCL) é um tipo de aprendizado de máquina em que o usuário rotula somente textos da classe de interesse, o que torna esse método mais viável em aplicações de classificação automática de textos enquanto diminui o esforço de rotulação do usuário. Os algoritmos de aprendizado de máquina necessitam de representações estruturadas e os textos são naturalmente não estruturados. Por isso, os textos devem ser estruturados. Os algoritmos de OCL não aprenderem com representações de contra-exemplos da classe de interesse, o que torna desafiador a maneira de representar esses textos. Portanto, nesse mestrado é proposto um método chamado Multimodal Variational Autoencoder (MVAE) para representar os textos da classe de interesse. O MVAE é uma rede neural que aprende uma representação a partir de mais de uma modalidade, o que torna a representação aprendida mais robusta e apropriada para o OCL.
This web page, based on the Pinda tool, presents additional visualizations for a systematic mapping study about text mining and semantics titled "Text mining and semantics: a systematic mapping study".
Esse projeto de mestrado tem o objetivo geral de contribuir para uma melhora na performance de algoritmos supervisionados de Aprendizado de Máquina na tarefa de classificação automática de textos. De acordo com os experimentos realizados, os resultados obtidos indicam uma efetividade promissora das técnicas propostas CIRT.5 e CIET.5 utilizando modelos de linguagem baseados em word embeddings, e o uso de fontes externas de conhecimento para o enriquecimento semântico e contextual tanto das representações de textos quanto dos contextos textuais extraídos.