2022-01-21 14:25:52 - Atualizado em 2022-01-21 14:26:19
O trabalho foi aceito na revista PLoS One e aborda dois tópicos principais:
O trabalho propõe o método SVAE, um Variational Autoencoder Semântico que representa os eventos. O método é formado por: (i) um modelo de linguagem dependente de contexto Bidiretional Encoder From Transformers (BERT) (considerado um dos estado-da-arte para tarefas envolvendo texto) que captura características sintáticas e semânticas dos textos; e (ii) um Variational Autoencoder, considerado um dos estado-da-arte para aprendizado de representação. Depois de representados, os eventos de interesse são detectados por meio do OCL. No OCL, é definida uma classe de interesse e o usuário fornece um conjunto de exemplos desta classe para o algoritmo treinar. Dessa forma, quando um novo exemplo for apresentado ao algoritmo de OCL, o exemplo pode ser atribuído à classe de interesse ou não. Portanto, é possível minimizar o esforço de rotulação do usuário, uma vez que o mesmo não terá que rotular eventos de não interesse. No cenário de OCL, o SVAE apresentou melhores resultados em 177 de 183 coleções de eventos do que o método de representação BERT.
Mais detalhes: